Optimizing Statistical Machine Translation for Text Simplification
Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen and Chris Callison-Burch
Transactions of the Association for Computational Linguistics, vol. 4, pp. 401–415, 2016.
概要
・平易化システム(SMT) のチューニング
- 大規模コーパスから獲得した換言ルール
- 人手によって作られた小規模な平易化コーパス
- 文平易化の自動評価尺度
自動評価尺度
入力文-参照文間の変化がない場合にペナルティを設ける
・FKBLEU: n入力と出力の変化分を考慮 + 可読性の評価
・SARI: 適切に平易化が行われているかを評価
結果
・SARIによってシステムを最適化することで、既存手法を上回る結果を実現
・SARIが人間の評価と相関があることを示す。
Lexical Simplification with Neural Ranking
Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2,
Short Papers, pages 34–40, Valencia, Spain, April 3-7, 2017
概要
・ニューラルネットワークを用いた語彙平易化手法の提案
・語彙平易化タスクでトップスコアのシステムを実現
・従来手法よりも文法/意味エラーが少ない
置換候補の生成パラレルコーパスと分散表現を組み合わせた手法
・Newsela コーパス(パラレルコーパス)
・context-aware word embeddings model
置換候補のランク付け回帰モデルによるランク付け、信頼性のチェック
・neural regression model
実験結果, エラー分析
・語彙平易化タスクでトップスコアのシステムを実現
・従来手法よりも文法/意味エラーが少ない
Translating from Original to Simplified sentences using Moses: When does it Actually Work?
S. Štajner and H. Saggion,
Proceedings of Recent Advances in Natural Language Processing, pages 611–617
概要
・3つのデータセットを用いて、Mosesによる平易化の成功と失敗の原因を特定
・トレーニングデータの原文と平易文が一致している場合にのみMosesは有効
・あらゆる平易化の操作を行う場合に、Mosesは効果的ではないことを示唆
From Word Embeddings To Document Distances
M. J. Kusner, Y. Sun, N. I. Kolkin, and K. Q. Weinberger
Proceedings of The 32nd International Conference on Machine Learning
概要
・文書間の距離を測る関数Word Mover'sDistance(WMD)の提案
・ある文書のWord Embeddingがもう一方の文書のWord Embeddingに移動する最小コストをWMDと定義する
・文書分類のタスクにおいてエラーの少ない関数であることが示される
A Deeper Exploration of the Standard PB-SMT Approach to Text Simplification and its Evaluation
S. Štajner, B. Hannah, and H. Saggion
Proc. 53rd Annu. Meet. Assoc. Comput. Linguist. 7th Int. Jt. Conf. Nat. Lang. Process. (Volume 1 Long Pap., pp. 823–828, 2015.
概要
・PB-SMT(Moses)によるText Simplification
・トレーニングデータの量と質(S-BLEUのスコア)の効果を比較
[Text Simplification Corpus]
・Training data : Simple English Wikipedia
・Tuning data: Simple English Wikipedia
・Test data: Simple English Wikipedia
(240文: 質分類における各グループから30文ランダムに抽出)
Encyclopedia Britannica
(601文: 全て)
量分類:
Training data | Tuning data |
2000
| 200 |
4000 | 400 |
6000 | 600 |
8000 | 800 |
10000 | 1000 |
質分類: S-BLEUにより分類 (0-0.3], (0.3-0.4], ...(0.9-1.0]
以上の量と質の組み合わせ40パターンのモデルを構築する
・評価
・自動評価(BLEU)
・トレーニングデータの量による影響はほとんど見られない
・トレーニングデータの質(S-BLEUのスコア)が結果に大きく影響する
・人手評価
(0.5, 0.6]のモデルがGrammar, Meaning preservationで最良