科学技術未来戦略ワークショップ報告書
  • 情報・システム

次世代AIモデルの研究開発 ~技術ブレークスルーとAI×哲学~

エグゼクティブサマリー

本報告書は、2023年11月・12月に開催した科学技術未来戦略ワークショップ「次世代AIモデルの研究開発」の内容をまとめたものである。第1回「技術ブレークスルー編」では、現在のAIモデルの本質的問題と次世代AIモデルへの技術的アプローチ、第2回「AI×哲学編」では、AIと人間・社会との関係のあるべき姿や哲学の貢献などを中心に議論した。

ChatGPTに代表される基盤モデル・生成AIは、高い汎用性・マルチモーダル性を示し、⼈間の知的作業全般に急激な変革をもたらしつつある。その一方で、超大規模な計算資源・データを必要とし、論理推論や実世界操作が苦手であり、フェイクやなりすましなどへの悪用、ハルシネーション、社会的バイアスの増長、著作権侵害をはじめ、ELSI面からさまざまな懸念も指摘されている。しかも、なぜ高い性能が出るのか、そのメカニズムは分かっていない。

ここで日本が後追い開発や応用開発にとどまらず、その先の次世代AIモデルの基礎研究で先行することを狙うため、幅広い切り口から15名の専門家を招いて2回のワークショップを開催した。ワークショップではさまざまな観点から話題提供と議論がなされたが、以下、大きく三つにまとめる。

第1点は、現在の基盤モデル・生成AIの限界や問題点についての議論である。ワークショップの中で出された指摘をもとに、現状の問題点を、実世界操作(身体性)に関する問題、論理性に関する問題、安全性・信頼性に関する問題、資源効率に関する問題という形に整理した。このような問題の克服につながる技術的アプローチとして、(a)基盤モデルの仕組みをベースに外付けの改良を加えたり、使い方を工夫したりする取り組み、(b)基盤モデルのメカニズムを解明し、その原理を改良しようという取り組み、(c)人間の知能に関する知見をもとにAIモデルを設計しようという取り組み、(d)AIと他者や環境とのインタラクションという面からのAIを発展させようという取り組みが進められている。

第2点は、AIと人間・社会の関係についての議論である。AIの発展の方向性として、(A)汎用性の高い道具としてのAI、(B)人間のパートナーとして望ましいAI、(C)人間の知能により近づいたAI、が考えられる。これら3パターンは融合していく、もしくは、3パターン間の区別は難しくなっていくという見方が多勢と見られたものの、哲学者によっても異なる捉え方が示され、哲学分野においてもAIの在り方・方向性が検討していくべきテーマと捉えられていることを確認した。また、生成AIの急速な性能向上に伴い、いわゆる超知能の可能性を含め、AI技術の発展が招く人類滅亡のリスク(存在論的リスク)についての議論も高まりつつある(欧米に比べて日本ではこの議論が相対的に少ないが)。

第3点は、次世代AIモデル研究への取り組み方についての議論である。最先端の超大規模AIモデルの研究開発に大規模な資金投入が必要になっている状況で、日本が研究開発において世界に伍するにはどうすれば良いのか、というのは重要な問題提起である。基礎研究の戦略検討のスコープを超える問題だが、そのシナリオの一案を含めて議論された。関連して、基礎研究の戦略を推進する上でボトルネックとなる問題として、データの確保・共有や人材の確保・育成が指摘された。また、AI研究と哲学の連携の意義や期待、および、超学際的な議論や分野横断的な研究を促進する場の必要性も強調された。

※本文記載のURLは2024年2月時点のものです(特記ある場合を除く)。