mots quotidiens. | |
Daichi Mochihashi (持橋大地) daichi <at> ism.ac.jp | by hns, version 2.10-pl1. |
|
||||||||||||||||||||||||||||||||||||||||||||||
参加予定者(敬称略): Collins(guest), 磯崎,鈴木,須藤,塚田,平尾,藤野,持橋,安田,山田,渡辺というCS研NLPオールスターズ?で歓迎会。(その割に途中まで関係ない話を していたような気がしますが‥(笑))
Collins氏は紳士だという話を聞いていたので, もっとおじさんかと思っていた
のですが, かなり若い感じの方で驚きました。
昼間のTalkは, 係り受け解析の対数線形モデルの時に,
Matrix-Tree theoremで分配関数を逆行列の行列式として計算する
という話と, Exponentiated Gradient (EG)の話。
対数線形モデルは専門ではないですが, 大体の感じはわかったような気が
します。
岡野原君の話が, Gaussian prior のEGでは解けない Laplacian prior
をどうやって解くか, という話なのがよくわかりました。
とりあえず, 赤池先生が本当にゴルフの話を始められたのにびっくりしたわけですが(w,
甘利先生を含めて, 全体的に強調されていたのは, AICのポイントはその
(結果的に簡単な)式自体というより, 訓練データではなく, それから導かれる予測力
をもとに統計モデルの基準を考える点だった, という話だったと思います。
AIC自体は, それを金科玉条のように考える必要はなく, モデルに許される複雑さの
上限を与えるものとして, それよりコンパクトなモデルを選ぶのは自由だ, と
いう話でした。ただしこの際にも, AICがあまり下がるようではまずいという意味で
AICはやはり基準となりうる, ということ。
赤池先生ご自身を含めて, AICは「次元数の選択」を行うもの
ではなく, 「モデルの選択」を行うものであり, 新しいモデルを考えることが
最も重要である, ということが強調されていたように思います。
(ベイジアンとしては, 結局それは事前分布の設定を含めたベイズモデルに繋がって
いくのではないかという感想を持ったのですが..。)
RissanenのMDLとの比較が当然問題になりますが, MDLはモデルの最小記述長を問題にしたもので,
優れた理論ではあるものの, 予測を最初から狙っているものではないので,
使うべき場所が本来違うはずだ, という議論を甘利先生がおっしゃっておられました。
甘利先生の話, 北川先生の話を含めて他の講演も非常に興味深い内容でした。 個人的には, Particle Filterを勉強した者にとって北川先生は神なので, *1 若々しい声の時系列モデルのお話が聞けて, たいへん有意義でした。:-)
タイトル一覧 |