相田 太一‎ > ‎B3ゼミ‎ > ‎

第2回

吉澤「オントロジーの概要」

タスク:診断
上位:常識
構成要素の1つ:ロール 例)教師は生徒がいて初めて教師という役割を持つ、前輪と後輪、など。
半構造情報資源を利用したオントロジー学習:wikiは9つのカテゴリしかない。
オントロジー学習:正答率と再現率はトレードオフ。リストから消すのは簡単だが増やすのは難しい→再現率を重視。
                                医療分野など、間違いが許されない場合は正答率を重視。

オントロジー学習の目的は?→知識ベースがメイン。
オントロジーのイメージは?→生物学の生物構造に近いかも?詳細まで書かれている辞書みたいなもの。
言語処理でオントロジーを作るのは大変。wikiも人でによるものだから知識。色々と使える。
オントロジーの閾が高い。閾を下げてみては?
どんなに辞書や解答を用意しても、問題が解ければいい。
20年経っても解けない問題より、目の前の解ける問題を解く。


相田「構文解析」

実用性についてもっと調べる。
・”現在は”縦型/横型、トップダウン/ボトムアップのどれを使うの?使い分けは?
・コーパスは人基準?
教科書は古い。全てだと思わない。→論文も読むべき
テーマを変えても良い。


守谷「派生文法と探索アルゴリズム」

ビームサーチ:幅優先
Bの決め方は?→自分で。B=無限になると幅優先探索と同じ。
スコア計算の重さ?やっていることは同じ。CPの数字扱いの都合上、確率は小さくなるので log を用いる。
グリーディーサーチ:深さ優先
派生文法は丁寧、命令、完了などがローマ字でシンプルに表せて興味深い。
派生文法の使い道?30〜40年前はありがたく使っていた。
言語自体の勉強もしておくべき。


鈴木「深層学習を用いた自然言語処理」

最適なパラメータを決めるのは難しい。
層の数え方は入力以外の数を見る。
深層学習:広義「複数層」狭義「4層以上」
Negative Samplingとは?→損失関数。確率分布はコーパス全て。間違いも教える。小川さんのスライドも見ると良い。
実装してみた系もアリ。
Comments