相田 太一‎ > ‎文献紹介‎ > ‎

2019/04/04

論文:Exploring Semantic Properties of Sentence Embeddings
担当:多田さん

SkipThought、InferSent で性能高。
P means:単語ベクトル
    文埋め込み表現。
  • Sent2vec:
  • SkipThought:隣接予測。
  • InferSent:NLIのデータを使って学習した時の文ベクトル?
  • 他にもマルチタスクの恩恵で得られた文ベクトルは多そう。
結局どれを使えばいい?:SkipThought、InferSent 
同義語はどうやって持ってくる?:どこか外から持ってくる、かも。
評価対象の手法が変わっても、一度チェックした評価基準はそのまま使える。
Argument Sensitivity
  • オリジナル文、能動態⇄受動態、主語目的語入れ替えの3つを用意。
  • 最初の2つのcos類似度が高くなって欲しいが、結果はオリジナルと主語目的語のペアが高くなっていた。
    • A loves B. と B loves A. は同じものだと解釈。
  • →構造・意味を取れていないのでは?
文同士の近さはcos類似度(全ての軸を同等に扱う)以外で測れない?
意味の類似性で判断できないか?
ベクトル表現(:計算機の都合上、良い)なら、大事な軸を見つけられないか?
人の感覚と近づける研究をすべき。

Comments