論文:Automated Evaluation of Out-of-Context Errors 担当:菅さん モデルでは文脈を考慮していない 最初の例とやっていることが違う 縦軸:単語の確立を持つ単語の割合? 横軸:単語の確率 データセット、複数文?:全部つかう 複数回出現する名詞をランダムに選ぶ。実際は2回以上が対象。 200語未満の単語で構成される文書の除去、なぜ200語未満?:触れられていない。 選択したものがあっているのかどうかわからない。人ですら解くのが難しい? なぜ名詞だけ?純粋に間違いだけなら動詞でも良さそう。:既存の論文において名詞が重要とされていた。 最終的に何がしたい?:文脈上の誤りを見つけて音声認識などの結果をよくしたい。 論文:Emo2Vec: Learning Generalized Emotion Representation by Multi-task Training 担当:上脇さん ハッシュタグをもとにデータを作成。CNNの学習にも利用。 Emo2Vec?:データからそれぞれの感情があるワードのembeddingの情報を全部共有 データが大きなものはCNN、そうでないものはロジスティック回帰:LSTMなどについては言及していない。 Glove?:SVDの出現回数によるもの+word2vecの確率的なもの、両者のいいとこ取り。 複数文入力+全部計算できる? 見出しがあると良くなるの?:見出しの中に感情の元となる単語があると、感情を得やすい。 CNNは複数のタスクを混ぜない。計算量を減らす方法を考えている? |