[解説追加しました(10/10)]2024年ノーベル物理学賞は、「人工ニューラルネットワークによる機械学習を可能にした基礎的発見と発明に対する業績」によりJohn J. Hopfield 氏(プリンストン大学、アメリカ)、Geoffrey E. Hinton 氏(トロント大学、カナダ)の2氏が受賞することに決定。
公開日:2024年10月8日
解説
2024年のノーベル物理学賞は、「人工ニューラルネットワークによる機械学習を可能にした基礎的発見と発明に対する業績」に対して、ジョン・ホップフィールド氏(プリンストン大学、アメリカ)、ジェフリー・ヒントン氏(トロント大学、カナダ)の両氏に授与されることになった。
脳はニューロンと呼ばれる神経細胞が多数結合したシステムである。ニューロンは電気的に発火した状態と非発火の状態の2状態を取り、シナプスと呼ばれる結合を通じて他のニューロンを刺激することが知られている。これを極力単純化し、ニューロンiの発火/非発火を2値の状態変数si∈{+1,-1}で表現する。また、ニューロンjからニューロンiへの刺激はシナプス伝達効率Wijを用いてWij sjで与えられるとする。更に、他のニューロンからの刺激を受けた結果、ニューロンiは刺激の総和があるしきい値を超えるとsi=+1、そうでなければsi=-1となるように状態を更新すると考える。
こうした人工的なニューロンモデルを多数結合させたものが人工ニューラルネットワークである。結合のさせ方によって、さまざまなタイプのネットワークを作ることができる。ホップフィールド氏が提案したのはその中でも画像などのパターンを記憶し、思い出す機能を持つ「連想記憶モデル」と呼ばれるものである。結合のさせ方は至極簡単である。N個のニューロンに対して、記憶させたいp個のランダムなパターンの組が与えられたとする。これらをネットワークに"記憶させる"にはとすればよい。パターン数pが限界値以下であれば、上述の更新則により状態を変化させていくとニューロン集団の状態は記憶させたp個のパターンのうち初期状態に最も近かったパターンに収束する。この過程を"記憶していたパターンを思い出した"と解釈するのである。
1980年代初頭、ホップフィールド氏が連想記憶モデルに関する論文を発表するやいなや、これほど簡単なモデルで脳機能の一端が再現できることに多くの研究者が衝撃を受けた。実のところ、同様の機能を有するモデルは、国内では中野馨氏、甘利俊一氏、海外ではウィルショウ氏やコホーネン氏らにより1970年代初頭までに提案されている。それでもホップフィールド氏の論文は、連想記憶に関する無駄な部分を極力削ぎ落とし本質だけを残したモデル化を与えた点、また、磁性体のイジングモデルとの類似性に着目し見通しのよい考え方の筋道を示した点で他の論文よりも可読性、波及性に優れていた。結果、この論文が呼び水となり、多数の物理学者が連想記憶モデルの研究に参入することとなった。その後、この流れは連想記憶にとどまらず、今日の深層学習につながるパーセプトロンなど層状ネットワークを用いた機械学習、更には、誤り訂正符号、無線通信、組み合わせ最適化などの情報科学・工学の研究一般に物理の知見を活用する情報統計力学と呼ばれる分野として大きく発展している。ホップフィールド氏の業績は、物理と情報の架け橋となる新しい研究分野をゼロから生み出した"ビッグバン"のような存在である。
ホップフィールドモデルの提案から数年後、このモデルとイジングモデルとの類似性を更に押し進め、ニューラルネットワークを用いた機械学習に新たな展開をもたらしたのがヒントン氏である。一言で表現すると、ヒントン氏が提案したのは今日生成AIと呼ばれる機械学習器である。画像、音声、文章など自然や人が生み出す情報は何らかの規則性にしたがう一方で、極めて多様性に富んでいる。こうした情報を機械に自律的に生成させるにはどうすればよいか?ヒントン氏が考えた答えは、確率分布を使って生成する、というアイデアであった。ただし、こうした情報がしたがう複雑な分布をヒトの手で設計するのは不可能である。ここに機械学習の出番がある。多数の調整可能なパラメータを含み、多様な分布を表現できる機械をニューラルネットワークで表現しておく。訓練データにもとづいて、このネットワークのパラメータを学習することで適切な確率分布を得ようとするアプローチである。では、パラメータの学習は具体的にどうすればよいのか?
ヒントン氏は、イジングモデルのボルツマン分布を一種のニューラルネットワークとみなした「ボルツマンマシン」を提案し、最尤法にもとづく学習アルゴリズムを用いることで、訓練データから相互作用係数や外場などのパラメータを適切に学習できることを数値実験で示した。これは生成AIの最初の実現と位置づけられる。ただし、1980年代当時は計算機の性能も低く、訓練データの量も十分ではない。そのため、示したタスクは実用からは程遠いものであった。また、素朴なボルツマンマシンの学習アルゴリズムは計算量的な負荷が重く大規模化は困難である。これらの問題を克服するため、ヒントン氏のグループはその後も毎年のように新しい構造のネットワークや学習アルゴリズムを提案し、試行錯誤を続けた。こうした地道な努力を約30年続けた結果得られたのが現在の機械学習において不可欠な技術となっている深層学習である。ビッグデータの出現やGPUを用いた計算技術の発展といった僥倖にも恵まれたとはいえ、1つのゴールに向かって30年間試行錯誤をし続ける執念と忍耐には敬服の念を感じざるを得ない。
以上、ホップフィールド氏、ヒントン氏の業績をごく簡単に紹介した。ここでは両氏のみに焦点を当てて記したが、もちろん学問は多数の研究者の共同作業によって発展するものである。今日のニューラルネットワーク、機械学習研究の隆盛にはすでに触れた中野馨氏、甘利俊一氏をはじめ、福島邦彦氏、西森秀稔氏など日本人研究者も重要な貢献を果たしていることを申し添えておく。
ノーベル賞は「人類に最大の貢献をもたらした人々」に贈られる賞である。近年の機械学習技術の発展は目覚ましく、人類に大きなインパクトを与えていることは間違いない。選考委員会はそのプラスの面を評価し、自然界に存在する物質を対象とした研究に限っていた従来の枠を取り払い、機械学習という"アルゴリズム"を対象とした研究に物理学賞を授与する英断を下した。一方で、ヒントン氏は機械学習が人類最大の脅威になりうる危険性について警鐘を鳴らしている。ノーベル賞はノーベルが、自身が発明したダイナマイトの負の側面に心を痛めたことから創設された賞である。技術に意思はない。機械学習が21世紀のダイナマイトになるかならないかは、我々自身にかかっている。
(東京大学 大学院理学系研究科 知の物理学研究センター 教授 樺島 祥介)
日本物理学会誌に掲載された以下の記事もご覧ください。
甘利 俊一「発展する脳の数理モデル」
1988年43巻12号 pp. 914-920
西森 秀稔 「ニューラルネットワーク」
1994年49巻1号 pp.2-9
樺島 祥介「コトの物理学 : 誤り訂正符号を例として」
2003年58 巻4 号 pp. 239-246
瀧 雅人, 田中 章詞
「物理屋のための深層学習」(シリーズ「人工知能と物理学」)
2019 年74巻11号 pp. 759-764
野村 悠祐, 山地 洋平, 今田 正俊
「機械学習を用いて量子多体系を表現する」(シリーズ「人工知能と物理学」)
2019年74巻2号 pp. 72-81
吉野 元
「深層ニューラルネットワークの解剖――統計力学によるアプローチ」
2021年 76 巻 9 号 pp. 589-594