mots quotidiens.
Daichi Mochihashi (持橋大地) daichi <at> ism.ac.jp by hns, version 2.10-pl1.

先月 2005年08月 来月
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31

2005年08月01日(月) [n年日記]

#1 またですか。。

HLT/EMNLP 2005の結果が返ってきた。 難しくて理解できないので, ICMLかNIPSに出せ, らしい。
去年のCOLINGの時と, レベルを上げて同じことが繰り返されているような。 またですか。。

3人のうち2人は Confidence が2で, 片方はICMLかNIPSに出せ, もう片方は 全く理解できない, らしい。
もう1人は4なのだが, 理論の部分については全く触れておらず, 実験の所だけ について, よく読めばわかるのでは.. と思うようなコメントがついていた。 EMNLPだから多少難しくても理解されるかと思っていたのだが, そうではなかった ようで, 残念。

ちなみに, NIPSの中間結果は3人ともかなりいい評価で, "Clear, interesting and promising." とのことでした。
コメントも非常に的確で, review の時に最初に書く論文の概要も, いや, その通りでございます, というような感じの素晴らしい concise なまとめだった。

理論的な話 *1 なのだからそういう会議に出す方が適切というのはわかるのだが, 言語のためにやっていることなのに, 理論ぽい話が来ると他に行って下さい, では, 自然言語処理は結局機械学習の応用では, という批判を自ら認めている のでは, という気がするので, そこが少し釈然としない。
たった8ページの中に, MSMとParticle FilterとDMの話を全部説明した上で 自分の話を書いて, その上で言語的な分析を充分に入れるのはどうやっても無理だったと思うので, まあ仕方なかったとは思うのだけど。
上司と話したところでは, ACLに出しても結果は同じだったのでは, という話だった。CVSリビジョンが 1.26 になるまで書き直したのに, 残念。 (1行加えても8ページを超えてしまうので, ギリギリまで表現を詰める必要が あった。) これでだめということは, もう言語系の会議には通らない ということなので, うーむ。
もう特許も書いて, それくらいだったら問題ないと思うので, 1週間だけ論文を置いておきます。

acl2005pf.pdf


*1: 完全に理論かというと, ハイパーパラメータのオンライン推定が 漸近的に正しいか, という証明etc. はしていないので, そうではない と思います。

2005年08月09日(火) [n年日記]

#1 MT fundamentals

Kevin Knightの, "Automating Knowledge Acquisition for Machine Translation" (1997) を読み終わった。

これは最近までずっとATRにいらした渡辺太郎さん が推薦されていた(ような気がする。記憶が定かではない)もの。
これまでずっと, タイトルからAI系の話が書いてあるのかと思っていたが, 実際は "Centauri" と "Arcturan" という異星人の言語(コンピューターからは どんな言語でも, そう見える。ちなみにその正体は..) を使った, MTの原理の非常にわかりやすい説明になっている。
IBMモデルを頭から与えられると, 例えばどうして fertility model を 考えなければいけないのかいまいち腑に落ちないところがあるが, これを読むと, なるほどそういうのが必要だ, ということがわかると思う。
原理的な部分を, 実例を使って丁寧に解説してあって, IBMモデルを知っている 人が読んでも, 示唆を得られる内容になっていると思う。修士の人はもちろん。 おすすめです。
AI Magazine の記事の方は こちら にあるようです。


2005年08月19日(金) [n年日記]

#1 NIPS 2005

NIPSに通りました。
D. Mochihashi, Y. Matsumoto: Context as Filtering
Wednesday(3日目) のようです。
http://www.kyb.tuebingen.mpg.de/bs/people/bs/nips05posters.html
ちなみに, 206/753 で倍率は4倍弱くらいだったようです。

NIPSに通るのは個人的に夢だったので, とても嬉しいです。
実際, 多くのNIPSの論文が僕を感動させてくれたので, それに少しでも貢献できる というのは嬉しいです。
実際はポスターでのTalkとか, そもそも今回のreviewerのうち 絶対に誰かが超有名人だったりすると思うので, その辺りがガクガクブルブルです。 と言っても, 地道に準備するしかないのですけれども。


2005年08月23日(火) [n年日記]

#1 Rao-Blackwellization

Rao-Blackwellizationが何のことか, 長いこと全然わからなかったのだが,
"Rao-Blackwellisation of Sampling Schemes", George Casella and Christian P. Robert. Biometrika, 83(1), pp.81-94, 1996.
の最初の方を読んでいたら, 少しわかってきた気がした。
θ^ をθの不偏推定量としたとき, データ y が与えられた時に θに対する十分統計量を t(y) とすれば, θ^ のいろいろな値に対する期待値を p(θ^|t(y)) で取って, θ* = E[θ^|t(y)] を作れば, その分散は
E(θ* - θ)^2 ≦ E(θ^ - θ)^2
になるという話。
いちおう Cambridge に 解説[PS] があるのだが, ずいぶん前に読んだ時には, 全然わからなかった。
Wikipedia の解説 や, 「経済分析のための統計的方法」p.359 あたりを見ると, わりとわかってきた 感じ。
つまり, ある不偏推定量θ^ に対して, 他の nuisance parameter に対する依存を 積分消去してやって期待値を作れば, 推定が必ずよくなる, ということ。
この話は東大出版会の「自然科学の統計学」etc.にも載ってない気がするんだけど..。 どれを見ればいいのだろうか。

これが何でNLに関係あるかというと, LDAに対する Griffiths の Gibbs sampler は 実は Rao-Blackwellized Gibbs らしい, ということ。それに対して, Pritchard が独立に発見した LDA と同じモデル (Pritchard 2000)でのサンプラーは 多項分布を積分消去せずに, 単に順番にサンプリングしているので, 能率が悪いかも。 という話。

#2 メモ

個人用メモ: Kevin Murphy's advice for graduate students
http://www.cs.ubc.ca/~murphyk/Teaching/guideForStudents.html


2005年08月29日(月) [n年日記]

#1 Win書道

漢字Talk 7が出たころからのMacユーザーとして, 演算星組の Mac書道 Pro はとても気に入っている, 名作ソフトです。
( Mac書道 山水 も持っています。が, これはG3くらいの速度がないとまともに動かなくて, 前に持っていた8100/80AVでは使えなかった。)
何が素晴らしいと言って, 上のページの真ん中から下あたりにある, 「Macは「気」のメディアになった。..」で始まる アオリ文句が素晴らしいのです。(笑) ちなみに, パッケージもいかしまくってます (特に Mac書道 山水)。

最近たまたま, これの Windows 版の 「Win書道」 が出ているのを知りました。 Mac版が18000円くらいだったのに対して, なんと1980円!。
当然, 即座にオンラインで購入しました。
Mac版と基本的な機能は同じで, 違うのはMac版にある「筆休め」がついて いないことや (Mac版では, 上のメニューから「筆休め」を選択すると, 「カコーン」と鹿おどしの鳴るわびさびの世界が全画面で展開されるという, 超絶イカス機能がついていた。), 筆, 硯, 墨, 紙等の選択が限定されているということです。

で, 買ったので, とりあえず何かお習字してみました。(ぉ

墨を硯の上でドラッグして墨を摺って色を調節して, マウスで書きます。 もちろん色は黒だけではなくて, カラーが全部使えます。
やっぱり, タブレットを買った方がいいかも。
ちなみに X には豊橋技科大で開発された Xshodo [RPM] というソフト(前の名前はX莫山)があって, 前に隣の席の森川君に紹介したら, 遊び心のある彼は色々面白い/可愛い絵を描いていたのだった。
というわけで, 僕は演算星組/ソースネクストの回し者ではありませんが, この Win書道 はかなりおすすめです。送料を入れても2500円くらいなので, もう買うしか!(笑) という感じです。

・ Mac書道

なお, Plusでも動くMac書道の元祖については, 名作ソフトとして このあたり に色々解説があるようです。


5 days displayed.
タイトル一覧
カテゴリ分類
 なかのひと
Powered by hns-2.10-pl1, HyperNikkiSystem Project