論文:Bayesian Optimization of Text Representations 担当:吉澤 CNNを使った結果はAmazonとIMDBの映画レビューだけ?:多分。その2つの結果でCNNに迫るということを言いたかった。あとはニューラルでない既存手法との比較。 今回使ったモデルがそのままニューラルに使えそう?:同じ結果になるかも。 過学習については述べられていない。 担当:勝田さん Hierarchical pooling、どうして語順を考慮できる?:ngramで語順(フレーズ)を扱える。 計算の速さは SWEM > CNN > LSTM。 LSTMはある程度の長さは見れるが、SWTMはそれができない。 CNN、LSTMは語順を考慮でき、短い文が得意。SWTMは長い文が得意。 感情分類にはある程度語順を考慮できるものが良い。 シャッフルの前後で2ポイントしか落ちていない。:フレーズが取れていれば大丈夫そう。 |