mots quotidiens.
Daichi Mochihashi (持橋大地) daichi <at> ism.ac.jp by hns, version 2.10-pl1.

先月 2024年05月 来月
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31

2007年09月04日(火) [n年日記]

#1 NIPS 2007

NIPSに通りました。&, Accepted papers 217本のうち, 26本の oral presentation の中に入りました。
Daichi Mochihashi and Eiichiro Sumita: "The Infinite Markov Model". *1

submissionの総数は975本で, 倍率はだいたい4.5倍くらいだったようです。
スコアは9-8-7でした。(大体6以上がaccept. 数値の意味は こちら にあります。)
内容的には Singer の "The Power of Amnesia" 以来の問題をノンパラメトリック ベイズで解いたことになっているのですが, アイデアは自分でもシンプルだと思うので, 階層クラスタリング等に使える (階層CRPの階層の深さ自体をベイズ推定する)という部分が評価されたのだと思います。
今年のレビューの途中で査読基準(上のページの最後)が変わって, ACLと同時に出すことはできなくなったため, もしACLに通っていたらNIPSには出せなかったわけなので, まぁ終わりよければ 全てよし, というところなのかも。

それより今回痛感したのは, ACLは結局応用の会議なんだなあ, ということ。 後でLiangの論文もちゃんと読んだわけですが, ただHDPを応用しただけの The Infinite Tree が通って, Matrixの新しいpriorやHDPの変分近似が含まれている Liangの論文が通らないのはどう考えてもおかしくて, レビュアーが理解できなかっただけだと思う。 レビュアーが理解できる範囲の簡単な数学だったら通る, みたいなのはどうよ.. という感じ。
一応計算言語学で一番の会議ということになっているのだから, ちょっと難しいのが来ると理解できません *2 , みたいなのはやめて,

Econometrica has no tightly controlled policy towards subject matter. No paper is rejected because it is "too mathematical" or "too quantitative," nor is a paper rejected because it is "not mathematical enough" or "too applied." ..

という Econometricaのポリシー を見習ってほしいよなあ..と思う。

Talkの準備をしないといけないのですが, NIPSはシングルセッションで, 超凄い Audience が話を聞くことになるので, 20分とはいえ, ガクガクブルブルです。

・ 追記

いつの間にか, Accepted Papers のリスト が出ているようです。


*1: 言うまでもなく, 共著という形になっていますが, 隅田さんはノータッチです。
*2: Hal Daume IIIも同じようにACLにrejectされて, それはJAIRに普通に通ったらしい。

2006年09月04日(月) [n年日記]

#1 ベイズ手ブレ補正

LUMIXの手ブレ補正付きカメラとかが流行っていますが, すでに撮影された1枚の 手ブレ画像から, 手ブレを除去して鮮明な画像にするアルゴリズムが SIGGRAPH 2006 で発表されたという話を たまたま読んで, 誰だろう, と思って調べてみたら, HertzmannとRoweisだった;。 しかも中身は、variational Bayes。
論文とスライドの置いてある Hertzmann のページは ここ です。

画像の研究者ではないので専門的な所はわかりませんが, 要するに手ブレ画像を, 原画像とブレを表現する Blur kernel と呼ばれるものの畳み込み(+ノイズ) *1 と捉えて, 原画像と Blur kernel の両方を1枚の手ブレ画像から推定するという問題 になるらしい。
感じとしては, 自然言語処理の分野では5月に紹介したGaP(NMF)での文書の分解の話と 似ています。画像なので細かい所は違いますが, ざっと見た感じでは関連があって, 当たらずとも遠からずだと思う。
何となく, ブレた画像との重ね合わせがあると情報が失われてしまっているのでは ないかという気がしてしまいますが(特に、視覚的なものなので), 実際にはpixelの中 に情報が残っていて, 相関を利用して分解できるという所が面白い。

内部的には Blur kernel を推定しながら, variational approximation を作って尤度を上げるということを繰り返すようです。
少し思ったのは, 内部でこうやって色々やっていても, ニュース等で紹介される 時には 「1枚の画像から手ブレが補正できる」という結果だけが広まるわけで, これは 自然言語処理でも同じなんだろうなあ, ということ。研究者としては中で使われている 細かい技術が重要なわけですが, 外から見ると, 「..ができる」というような形でしか 見えないんだろうなあ, ということ。当たり前のことだけれども。


*1: この畳み込みが実際にどういう演算をするのかは, 専門家ではないのでわからない のですが..。(Forsythの本は持っているから, 見ればいいんだけど。)

2 days displayed.
タイトル一覧
カテゴリ分類
 なかのひと
Powered by hns-2.10-pl1, HyperNikkiSystem Project