Entries

甘利俊一『脳・心・人工知能』


数理脳科学という、脳の情報処理の数学的モデルを構築する学問を切り拓いてきた碩学が、その研究を平易に振り返ったもの。昔からこの人の名前はよく見てきたが、雲の上で凄まじく高度な研究をしている人という印象だった。

本書はいきなり宇宙開闢から始まり、脳を備えた生物がいかにして地球上に誕生したかを述べる。その後は、三次に渡るニューロブームの展開に絡めながら、自身が切り拓いてきた分野について語る。このニューロブームは、同じく三次に渡る人工知能ブームとは異なる。とはいえ、もちろん深く関係している。ときおり挟まれるコラムには、研究業界の裏話や現在の大学行政についての不満、小言が聞かれる。

著者は基本的に、並列コンピューターとして捉える。ただ並列しているだけでなく、ある程度の処理のまとまりで階層化されている。大脳皮質ではこれらはコラム状の小さな領域に分かれる。すなわち、脳は階層並列コンピュータである(p.37-40)。もちろん大脳皮質以外にも様々な部位があって数理脳科学的に重要だ。例えば大脳基底核のニューロンから出るドーパミンは、強化学習において報酬の役割を果たしていると考えられる(p.49f, 144-150)。

なかでも話題の中心は海馬だ。海馬にどのようにして(短期)記憶が形成されるのかについての数学的モデルは面白い。しかもそれなりに平易に書かれている。記憶=メモリは、コンピューターなら特定の番地に書き込まれる。番地はそれぞれ単独の値を取る。海馬にはそんな離散的なアドレスはない。海馬における記憶は、ニューロンの興奮パターンとして形成される。しかもそれは複数のパターンの重ねあわせでなっている。ニューロン間の重み付けの値からなる行列がうまく直交行列になっていれば、初期状態を適切に選んで一つのパターンだけを取り出せる。もちろんそんな直交化は無理だが、直交でないことが記憶の連想を可能にする(p.115-122)。

三次に渡るニューロブームは、著者が当事者だったこともあり様々な話が聞ける。ある意味、本書の貴重なところだろう。第一次ニューロブームはローゼンプラットのパーセプトロンが1950年代後半に与えた衝撃を中心とする。それは1960年代後半にミンスキーがパーセプトロンでXORパターンが実現できないことを明らかにして終わった、というのが通説だ。著者の見解はミンスキーの結果よりも、「コンピュータの性能が格段に向上して、郵便番号読み取りなどの実用的なパターン認識がコンピュータでできるようになってきたからである」(p.73)と捉えている。

第一次ニューロブームの後の暗黒期に著者が確立したのが確率降下学習法。これは特性関数を0と1の非連続関数ではなくシグモイド関数のような連続関数にして、誤差を微分することによりニューラルネットワークの学習を可能にするもの。1966年頃に著者が九州の温泉で思いついたが、IEEEに投稿するもインパクトがなかったそうだ。ほぼ同じアイデアが15年後の第二次ニューロブームのなかで誤差逆伝播法として普及した。もともと考案したのは著者だ、ということのようだ(p.76f, 132-134)。しかし例えば誤差逆伝播法の歴史を詳細に辿った人のサーベイ(J. Schmidhuber, "Who Invented Backpropagation?")の中には、甘利氏の名前は出てこない。ちなみに他にもこうした元々考えたのは著者だ、という話がいくつか出てくる。

この確率降下学習法の解説と、パーセプトロンの万能性の説明はとてもよいと思う。パーセプトロンは任意の関数を展開できるから万能機械だとされる。このことは、任意の関数を書き直す仕方としての、テイラー展開とフーリエ展開に並べて書かれている。パーセプトロンによる関数の実装、パーセプトロン展開は、テイラー展開やフーリエ展開と基底となる関数の選び方が違うだけである(p.136-138)。

第二次ニューロブームは多額の金が動き、巨大産業が誕生するという期待があった。しかしニューロチップは到底普及するような価格ではなく、ブームはしぼむ。しかしこのブームが残したものが、計算論的神経科学と機械学習だという(p.82)。

他には、実際に脳の動きをシミュレートできたとしても、それは理解したことにはならないという論点。確かにシミュレーションは実験、理論に次ぐ第三の科学的方法論だろう。しかしネズミの脳をうまくシミュレートできても、仕組みは分からない。理解するにはやはり理論が必要なのだ、というのが著者の主張だ(p.91-93)。

最後に、いわゆるグーグルの猫についての話をメモ。著者によれば、多くの画像をCNNで学習した結果の、高次のノードが表した猫の画像は、脳の高次概念の形成を説明するものではない。なぜなら、脳には猫に対応するようなニューロンは無いからだ。そうした単独の表象を行うニューロンなど無くて、こうした高次概念は複数のニューロンに分散され、分散表象の形で保持されている(p.188-191)。たしかそれはそうだ。「人工知能はまだ脳のダイナミックスの仕組みを十分に利用していない」(p.191)。
スポンサーサイト
この記事にトラックバックする(FC2ブログユーザー)
http://exphenomenologist.blog100.fc2.com/tb.php/824-e4745e21

トラックバック

コメント

コメントの投稿

コメントの投稿
管理者にだけ表示を許可する