mots quotidiens.
Daichi Mochihashi (持橋大地) daichi <at> ism.ac.jp by hns, version 2.10-pl1.

先月 2005年08月 来月
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31

2005年08月01日(月) [n年日記]

#1 またですか。。

HLT/EMNLP 2005の結果が返ってきた。 難しくて理解できないので, ICMLかNIPSに出せ, らしい。
去年のCOLINGの時と, レベルを上げて同じことが繰り返されているような。 またですか。。

3人のうち2人は Confidence が2で, 片方はICMLかNIPSに出せ, もう片方は 全く理解できない, らしい。
もう1人は4なのだが, 理論の部分については全く触れておらず, 実験の所だけ について, よく読めばわかるのでは.. と思うようなコメントがついていた。 EMNLPだから多少難しくても理解されるかと思っていたのだが, そうではなかった ようで, 残念。

ちなみに, NIPSの中間結果は3人ともかなりいい評価で, "Clear, interesting and promising." とのことでした。
コメントも非常に的確で, review の時に最初に書く論文の概要も, いや, その通りでございます, というような感じの素晴らしい concise なまとめだった。

理論的な話 *1 なのだからそういう会議に出す方が適切というのはわかるのだが, 言語のためにやっていることなのに, 理論ぽい話が来ると他に行って下さい, では, 自然言語処理は結局機械学習の応用では, という批判を自ら認めている のでは, という気がするので, そこが少し釈然としない。
たった8ページの中に, MSMとParticle FilterとDMの話を全部説明した上で 自分の話を書いて, その上で言語的な分析を充分に入れるのはどうやっても無理だったと思うので, まあ仕方なかったとは思うのだけど。
上司と話したところでは, ACLに出しても結果は同じだったのでは, という話だった。CVSリビジョンが 1.26 になるまで書き直したのに, 残念。 (1行加えても8ページを超えてしまうので, ギリギリまで表現を詰める必要が あった。) これでだめということは, もう言語系の会議には通らない ということなので, うーむ。
もう特許も書いて, それくらいだったら問題ないと思うので, 1週間だけ論文を置いておきます。

acl2005pf.pdf


*1: 完全に理論かというと, ハイパーパラメータのオンライン推定が 漸近的に正しいか, という証明etc. はしていないので, そうではない と思います。

2005年08月09日(火) [n年日記]

#1 MT fundamentals

Kevin Knightの, "Automating Knowledge Acquisition for Machine Translation" (1997) を読み終わった。

これは最近までずっとATRにいらした渡辺太郎さん が推薦されていた(ような気がする。記憶が定かではない)もの。
これまでずっと, タイトルからAI系の話が書いてあるのかと思っていたが, 実際は "Centauri" と "Arcturan" という異星人の言語(コンピューターからは どんな言語でも, そう見える。ちなみにその正体は..) を使った, MTの原理の非常にわかりやすい説明になっている。
IBMモデルを頭から与えられると, 例えばどうして fertility model を 考えなければいけないのかいまいち腑に落ちないところがあるが, これを読むと, なるほどそういうのが必要だ, ということがわかると思う。
原理的な部分を, 実例を使って丁寧に解説してあって, IBMモデルを知っている 人が読んでも, 示唆を得られる内容になっていると思う。修士の人はもちろん。 おすすめです。
AI Magazine の記事の方は こちら にあるようです。


2 days displayed.
タイトル一覧
カテゴリ分類
 なかのひと
Powered by hns-2.10-pl1, HyperNikkiSystem Project