相田 太一‎ > ‎文献紹介‎ > ‎

2019/07/17

論文:An Embarrassingly Simple Approach for Transfer Learning from Pretrained Language Models
担当:丸山さん

  • 既存の複雑な転移学習システムULMFiTに対し、シンプルなシステムSiATLを提案
  • 少ないデータ(1000Example)で匹敵する、上回る性能
  • ULMFiTの学習過程を短くした感じ
    • 適用するタスクのlossと事前学習した言語モデルのlossを同時に算出
  • 結果
    • 各分類タスクにおけるstate-of-the-artの手法は異なるが、ULMFiTとSiATLは満遍なく良い
    • 面白いことに、Sentiment analysisとSCv1, SCv2(2〜3値分類)ではBag-of-Wordsが強い。
      • 5〜7値分類になると一気に弱くなる

論文:Contextual String Embeddings for Sequence Labeling
担当:小川さん

  • 文脈を考慮でき、Char-levelから作れる埋め込み表現を提案
  • 先行研究
    • 事前訓練
    • 事前訓練+Char-level
    • 文脈を考慮できる埋め込み(ELMo)
  • 提案手法(先行研究全部のせ)
    • Char-levelからforward, backwardで単語埋め込みを抽出
      • 文脈を考慮できる
    • Char-levelは事前に学習
      • サブワードを学習し、未知語がない
  • ELMoを入れると性能が落ちる?
    • モデルが持っている文脈情報、ELMoが持っている文脈情報が違うのでは?

Comments