相田 太一‎ > ‎文献紹介‎ > ‎

2019/02/06

論文:Automated Evaluation of Out-of-Context Errors
担当:菅さん

モデルでは文脈を考慮していない

最初の例とやっていることが違う

縦軸:単語の確立を持つ単語の割合?

横軸:単語の確率

データセット、複数文?:全部つかう

複数回出現する名詞をランダムに選ぶ。実際は2回以上が対象。

200語未満の単語で構成される文書の除去、なぜ200語未満?:触れられていない。
選択したものがあっているのかどうかわからない。人ですら解くのが難しい?
なぜ名詞だけ?純粋に間違いだけなら動詞でも良さそう。:既存の論文において名詞が重要とされていた。
最終的に何がしたい?:文脈上の誤りを見つけて音声認識などの結果をよくしたい。



論文:Emo2Vec: Learning Generalized Emotion Representation by Multi-task Training
担当:上脇さん

ハッシュタグをもとにデータを作成。CNNの学習にも利用。
Emo2Vec?:データからそれぞれの感情があるワードのembeddingの情報を全部共有
データが大きなものはCNN、そうでないものはロジスティック回帰:LSTMなどについては言及していない。
Glove?:SVDの出現回数によるもの+word2vecの確率的なもの、両者のいいとこ取り。
複数文入力+全部計算できる?
見出しがあると良くなるの?:見出しの中に感情の元となる単語があると、感情を得やすい。
CNNは複数のタスクを混ぜない。計算量を減らす方法を考えている?

Comments