相田 太一‎ > ‎文献紹介‎ > ‎

2019/03/25

論文:共変量シフトの問題としての語義曖昧性の領域適応
担当:吉澤

分類器の評価の1つ:負の転移。S-only、T-only<S+Tなら負の転移であり、ソースとターゲットの領域が離れ過ぎているためソース領域の情報を使い過ぎ、精度が落ちる
Ps(c|x) = Pt(c|x)
Ps(x) ≠ Pt(x)
書籍、知恵袋、新聞で周辺単語が異なるが、ある単語の語義cが割り振られる確率は同じという過程。
語義曖昧性解消は高頻度ばかりでいいの?低頻度は?
単語それぞれにモデルを作るため、訓練データが小規模になってしまう。問題の性質が難しい。


論文:Universal Language Model Fine-tuning for Text Classification
担当:相田

分類ならmaxpoolingの方がmaenpoolingより良い。なぜ両方用いた?:わからない。
三角学習率を用いると良いのはなぜ?
重要語抽出にAttentionを使えるかも。
分類器の調整の際、何が1番効果的?:unfreezeは微妙。逆伝搬と双方向は大事。

arxivにこの論文の質問に対するスライドがあるらしい。


論文:Hierarchical Recurrent Attention Network for Response Generation
担当:鈴木

3つの文が与えられて4つ目を出力するタスク。
文毎にかたまりをつくる。
実際に使うときは自分の出力も入力になる。
1次元の時系列データなら色々使えそうなモデル。
音声ではperplexityを使っていた→そのまま対話でも使われている。BLEUより怪しい。
Comments