Entries

スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。
この記事にトラックバックする(FC2ブログユーザー)
http://exphenomenologist.blog100.fc2.com/tb.php/833-5c448756

トラックバック

コメント

コメントの投稿

コメントの投稿
管理者にだけ表示を許可する

岩波データサイエンス刊行委員会『岩波データサイエンス Vol. 1』


買った当初は難しそうだと思って本棚にしまっていた。取り出して読んでみたら案外に読めた。内容はベイズ推論とMCMCの解説。ベイズ推論の基本的な理解、MCMCを扱うソフトウェアの比較、ベイズモデルの四つの表現方法について。薄い本なので解説はそこまで詳細ではない。むしろ、ベイズ推論やベイズモデルの考え方の要点を伝えようとしている。雰囲気を知るにはなかなかよいかと思った。

階層ベイズの解説(p.20-37)はとても良い。この解説ではあえて不正確な単純な線形モデルをまず作る。それをベイズモデルに変えることにより、ベイズ統計学の方法を解説。そして、階層ベイズにより問題点を修正するという説明の方法。きれいで分かりやすい解説との印象。

また、時系列データに対する状態空間モデルの話もとても面白い。時系列データを、ノイズを含んだ状態間の遷移と、それら状態から別のノイズを含んで生成される観測値の二段組で考える。時系列とはデータ内に自己相関があることに他ならない。だから容易に空間的に自己相関のあるデータに拡張できる。時系列データに対する状態空間モデルのローカルレベルモデルは、1次元1階差分のintrinsic CAR modelにより表現できる(p.55)。

PythonやRでのStanなどの使い方の解説は、それによって記述される当該のベイズモデルの知識があることが前提。ちょっとこれだけでは分からないところは謎のままだ。また、本書のまとめにあたる、ベイズモデルの4つの表現形式。状態空間モデルによる表現、条件付き分布による表現は他の章にもあるのでまだ分かる。残りの、マルコフ場モデルによる表現とFull Conditionalによる表現はいまひとつだった。

本書のテーマからは外れるが、脳とニューラルネットの話が面白かった。言及されている研究(p.118-124)では、サルの側頭葉(TE野)に微小電極を埋め込み、物体画像に対する神経細胞群の電気的活動を繰り返し計測した。学習済みのAlexNetに対して、サルの場合と同じ画像を入力した時の各層の活動度ベクトルをPCAで次元削減して特徴量表現とする。この二つに対してリッジ回帰を行って線形変換を求めた。すると、AlexNetの最上層との相関が最も高かった(といってもR=0.57)。この結果が得られれば、未学習の画像をサルに見せた場合の神経活動パターンから相関によりAlexNetでの特徴量表現を求めて、AlexNetで類似の特徴量表現となる画像を探せば、サルが見ている画像を推測できる。これはとても面白い。
このように、TE野の神経細胞群による視覚情報表現が多層ニューラルネットの上位層の情報表現とよく対応するのであれば、神経活動データからリッジ回帰して画像の特徴量表現を推定し、類似の特徴量表現をもつ画像をデータベースから検索することで、元の提示画像を可視化することも可能になる。(p.119)
スポンサーサイト
この記事にトラックバックする(FC2ブログユーザー)
http://exphenomenologist.blog100.fc2.com/tb.php/833-5c448756

トラックバック

コメント

コメントの投稿

コメントの投稿
管理者にだけ表示を許可する

上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。