aitoの日記: 2010年7月24日(土)SP&SLP研究会まとめ 午前後半
(SLP15) 未知語認識のための仮名・漢字単位の構築手法と性能評価
奈良先端.文字単位で未知語のサブワードモデルを構築.文字に対する発音の獲得に確率的な枠組みを使
うところが面白い.文字単位で分割をするのだが,それを音節列に変換して複数音節の列として利用する
.エントロピー基準でボトムアップに作った音節列単位による未知語モデルよりも少しよい.
(SLP16) ベイズ推論を用いた連続音声からの言語モデル学習
京大の河原研のNeubigさん.流暢な日本語で発表.単語の定義も何もまったくなしに連続音声だけから言
語モデルを構築する.単語分割の言語モデルとして階層的Pitman-Yor言語モデルを使い,複数の分割可能
性をWFSTで統合する.音素ラティスを作っておいて,そこから候補をサンプリングすることで,単語の候
補とその並びの言語モデルを一気に学習する.非常にエレガントな枠組み.
(SLP17) Uyghur Morpheme-based Language Models and ASR
河原研のAblimitさん.ウイグル語の形態素の扱いについて.ウイグル語は膠着語なので,そのままだと
語彙が爆発する.そのため,より小さい形態素に分割するが,母音調和とかめんどくさい言語現象があっ
て簡単ではない.確率的な枠組みによる形態素への分割.形態素単位も試したが,音声認識では単語単位
が一番よかった.テキストサイズに比べて語彙サイズが異様に大きいのだが,それに比べて性能がよく,
未知語率も低いのが謎だった.
(SLP18) 教師なし言語モデル適応のためのWeb Documentを用いた単語のトピック表現
うちの増村君が元気に発表.すべての単語について検索結果をあらかじめ保持しておくという富豪的手法
.プレゼンは割とうまく言ったのではないかと思う.プレゼン内容が「未知語」に偏りすぎていたかもし
れない.
(SLP19) 単語重要度を用いたN-gram補完手法が与える音声認識性能の調査
和歌山大.作成しようとするN-gramに,Google N-gramから選んだエントリを追加する.頻度基準,TF-
IDF,Yahoo関連キーワードなどの基準でエントリを追加するかどうかを制御する.通常の言語モデル適応
ではないので,理論的に妥当なのかというところに質問が集中した.Google N-gramを使いたいというの
はよくわかるのだが,なんとかしてGoogle N-gramを普通の言語モデルとして利用できるようにしてから
適応の枠組みにしたほうがいいんじゃないかという気がする.
2010年7月24日(土)SP&SLP研究会まとめ 午前後半 More ログイン