mots quotidiens. | |
Daichi Mochihashi (持橋大地) daichi <at> ism.ac.jp | by hns, version 2.10-pl1. |
|
|||||||||||||||||||||||||||||||||||||||||||||||||
国内でこういう話はほとんど誰もやっていないと思いますので,
ご興味のある方はぜひお越しください。
7/26(火) 15:00〜17:00, 統数研セミナー室5 (統数研第4回統計的機械学習セミナー)
の予定です。
Title: Probabilistic Models of Language Change Abstract: I will talk about probabilistic models of language change, and how we used these models to reconstruct proto-languages and to understand the statistical regularities of the language change process itself. I will illustrate the potential of our methods with our results on the so called functional load hypothesis. This conjecture has eluded classical models for decades, but here I will show how we obtained compelling evidence for it by using our probabilistic models. If time permits, I will also talk about new Sequential Monte Carlo algorithms for the related problems of phylogenetic tree and cognate inference. The technique we used to construct these algorithms also has applications in other NLP inference tasks over combinatorial spaces, for example alignment and parsing.
e7 = 1096ということを知った。へー。 つまり, log(1100) 〜 7 くらい, ということ。(底は e)
ちなみに, 正確には
くらいのようだ。つまり, log(1000) 〜 6.91 くらい。
(exp(6.91) = 1002.2)
何が嬉しいかというと,
log(1100) 〜 7 を参考にして,
もう少し小さい数の log(1000) 〜 6.91 を覚えておけば,
log(10^3) = 3log(10) 〜 6.91 ∴ log(10) 〜 6.91/3 = 2.3 (2.303) なので,
log(10000)は何? と言われたら,
log(10000) = log(10^4) = 4log(10) 〜 9.2 くらい, と簡単にわかる
ということ。
つまり, 10^x くらいの数の自然対数は, 2.3x くらいになるとわかる。
逆に, log(x) = y がわかっているとき, この x は 10^(y/2) くらい,
ということ。
計算機に入っている log はたいてい自然対数なので, この関係は
役に立つと思う。たとえば, x の確率が log(p(x)) = -1000 だったとすると,
実際は p(x) ~ 10^(-500) くらいかなとわかる。
log(x) = log2(x)/log2(10)なので,
log2(10) = 3.321を覚えておけば, 2^10 = 1024 を使うという方法もあるが, もっと直接的な
方法ということで。
「ご冗談でしょう、ファインマンさん」とかを読んでいると,
物理の人にはこういうのは常識なのかも知れないと思うけれども。
タイトル一覧 |