論文:Attention is not Explanation 担当:稲岡さん JSダイバージェンス:KLダイバージェンスの対称性を持った版。 QAタスクの場合Attentionは抽出しかしていない。 重要度をどう見る?:それを入れた時と入れなかった時の変化、かも。明確でない。 seq2seqのようにテーブルで示さない?:ヒートマップを見るのは分類だけ。 重要度を計算できるならAttentionの代わりにそれで重み付けできないか? 人間の思う重要度とモデルの思う重要度は違う。重要度とは? データセットごとの結果の違い?:言及されていない。ドメイン、難易度が違う。 |