2024年10月、ノーベル物理学賞が発表された。今年の物理学賞は二人いる。米国プリンストン大学名誉教授のジョン・ポップフィールドとカナダ、トロント大学名誉教授のジェフェリー・ヒントン。受賞理由は、「人工ニューラルネットワークによる機械学習を可能にする基礎的発見と発明」。
AI関連でノーベル賞を取ったのは今回が初めてではない。だが、AI理論の応用ではなく、AIそのものの基礎研究で受賞したのは初めてである。ITとかAIの関連でノーベル賞を受賞する時に、IT賞やAI賞といった直接の分野のノーベル賞がない。アルフレッド・ノーベルが生まれた時代にIT、AIがなかったといえばそれまでであるが。今までITやAIに関連したノーベル賞は、物理学、化学、生理学・医学、はたまた経済学にまで及んでいる。今後、文学賞、平和賞にもAIが登場する可能性がある。(冗談のようで、冗談ではない)横道に逸れたので元に戻す。
先ず、ホップフィールド教授であるが、人間のニューロン(脳神経)ネットワークに関係する基礎研究を行った。人類の脳内に約一千億あるニューロンは、複雑なネットワークで繋がっている。一つ一つのニューロンは、サイズの差や、軸索と呼ばれる管の長さが多少異なる程度で、どれをとってもほぼ均一である。一個のニューロン構造を調べることによって、他の1千億個のニューロン構造も同時に理解することができる。その証拠に、あるニューロンの代わりに別のニューロンを代替えすることができる。そして生理学的なニューロン構造は、ほぼあきらかになってきている。
残る問題はニューロン間のネットワークだ。一個のニューロンは多数のニューロンと繋がっており、それらが複雑に絡み合いながら脳内に広がっている。ビジュアル的に分かり易い例えとして、ボウルに多くの納豆が入っている様子を想像してほしい。納豆は他の納豆と同じ性質を持ち、お互いに糸で結ばれている。そこで納豆をニューロンに置き換え、納豆の糸をニューロン間のネットワークに置き換えてみてほしい。納豆の構造が明らかになったら、あと残るは糸の絡みの研究だ。
ニューロン・ネットワークの仕組みを解明しようと半世紀以上前から多くの研究者が切磋琢磨してきた。だが大きな問題があった。脳は生身の人間の中に存在する。しかも生きていないと実験できない。生きた人の脳を実験の対象とするには、医学上、倫理上多くの難関があった。脳波測定器、fMRI、PETスキャンなどという機械や道具が発明されたが、まだまだ脳の不思議を解明するには十分ではない。
そこで、人々が考えたのは人間の脳を直接研究するのではなく、機械的なモデルでシミュレーションしようとした。つまりAIによるシミュレーションである。人類の脳のネットワークを真似した機械モデルで、どこまで人類の脳に迫ることができるのか? 今まで多くの学者、企業がいろんなモデルを作った。例えば、IBMは一個のICチップがニューロン100万個にあたるものを作った。これを繋ぎあわせることにより、1千億個ある人類のニューロンを実現されることが事実上できることになった。だが、どう結び付けたらよいのかというネットワークの問題が残った。
ホップフィールド教授は、入力したデータパターンを記憶する仕組みを、磁性体モデルを使って模倣した。具体的には、NとSとを結ぶ軸に自転する電子のスピンが一個のモデルになる。複数のスピンを縦横に配列する。スピンする磁性体の一個一個は、お互いの距離と相互作用で、全体のエネルギーが最も少なくなる方向を向くという性質を利用する。ホップフィールド教授は、これらスピンの向きを白と黒で表した。また配列のパターンをスピン同士の相互作用の強さによって記録する「ホップフィールド・ネットワーク」を考案した。詳しい理論は、日経サイエンスやウィキペディアなどを参照していただきたいが、ホップフィールド・ネットワークを簡単に言ってしまうと、機械による「連想記憶」だ。
一方、ヒントン教授は、ホップフィールド教授のパターン記憶想起からヒントを得て、さらに発展させた「ボルツマン・マシン」を開発した。ちなみにボルツマンというのは、19世紀の物理学者の名前で、ヒントンの理論の基礎になった理論である。このボルツマン・マシンは、ビッグデータの大量のパターンから、ある記憶パターンの特徴を学習するというモデルである。ヒントンは、後にボルツマン・マシンに何層かのレイヤーを取り入れ、その仕組みを「深層学習」と名付けた。
ポップフィールド・ネットワークは、記憶できる情報量が限られていたため実用性を欠いていた。そこにヒントンの深層学習が登場し、記憶できる情報量が爆発的に増えたため一気に実用化に至った。今日のChatGPTなどの最先端AIは、これらの恩恵を受けている。
(参照:日経サイエンス https://www.nikkei-science.com/?p=74090)