2022.09.22

インタビュー「哲学の視点から考える、脳神経科学とAIのもたらす未来」

Category

新しい技術によって変化する価値観や倫理を考える上では、哲学の知見が不可欠となる。脳神経倫理学や「人工知能の哲学2.0」などのプロジェクトを通して、脳神経科学やAIの発展を哲学の分野から見通してきた鈴木貴之教授は、BRAIN-AI×HITEプロジェクトに哲学チームとして携わるひとりだ。国際的に議論されている脳神経科学の倫理をはじめ、これからの議論の筋道をつくる倫理的な視座について尋ねた。

鈴木 貴之

鈴木 貴之
東京大学大学院総合文化研究科教授。
著書に『ぼくらが原子の集まりなら、なぜ痛みや悲しみを感じるのだろう』(勁草書房、2015年)、『100年後の世界』(化学同人、2018年)、『実験哲学入門』(編著、勁草書房、2020年)、『脳神経科学リテラシー』(共著、勁草書房、2010年)ほか。

―― 鈴木先生のご研究の内容について教えてください。

鈴木貴之(以下、鈴木):私の専門は心の哲学です。これは、人間の脳と心の関係に関する理論的な問題を考える分野です。その応用問題として、人工知能の哲学や精神医学の哲学、そして脳神経倫理学にも取り組んでいます。

―― 脳神経倫理学とはどのような研究分野なのでしょうか。

鈴木:脳神経科学研究やその応用に関連する倫理学的な問題、あるいは社会的な問題について考える分野で、応用倫理学と呼ばれる分野のひとつです。応用倫理学には、例えば医療に関しては、安楽死や臓器移植などに関する問題を考える医療倫理や生命倫理と呼ばれる分野があり、環境問題に関しては、地球温暖化の問題や資源の枯渇といった問題について考える環境倫理という分野があります。同様に、脳神経科学研究やそこで開発された技術の利用に関連して生じるさまざまな問題を扱うのが脳神経倫理学です。

脳神経倫理学は、医療倫理や遺伝子倫理など、応用倫理学の既存の分野とも密接に関係しています。例えば遺伝子を操作して人間の能力を増強する技術が将来実用化された場合にどのような問題が生じるかは、1990年代から議論されてきました。脳神経倫理学でも、それと類似の問題が議論されています。頭が良くなる薬が将来実用化された場合にどのようなことが起きるかといった問題です。このように、別の分野で議論されている内容を参照しつつ、人間の脳に関して新たに生じる倫理的問題を考えるのが脳神経倫理学です。

約20年にわたる
脳神経倫理の議論

―― 脳神経科学の知見が技術転用されるとき、どのような課題が生じると思われますか。

脳神経科学の技術転用としては、脳の活動を読み取る方向性と、脳に介入して脳の働きを人為的に操作する方向性の二つがあり、それぞれに関して大きな問題がひとつずつあります。

前者に関するものは、脳の活動からその人の心を読み取るマインドリーティングに関連する問題です。脳の活動を解析すれば、ある人が嘘をついているかどうか、あるいは何を視覚的にイメージしているかを読み取ることが現在でもある程度可能です。そうした研究がさらに進むと、この技術をマーケティングに活用しようと考える企業が消費者の脳を無許可で読み取り、売れる商品を開発したりセールスに活用したりすることが可能になるかもしれません。また、司法分野では、犯罪者の脳の活動を読み取り、それにもとづいて責任能力を評価し、量刑判断の参考にするといったことも考えられます。これらの技術を利用することの是非を誰が判断するのかも問題になります。

一方で、後者の脳の働きに介入して能力を高めるエンハンスメント(能力増強)に関する問題も重要です。脳に介入することで人の記憶力や頭の回転の速さなどを改善することは、一見すると人類の発展につながる素晴らしいことのようにも思われます。しかし、そのような技術が高額で、富裕層しか利用できないものだとすれば、新たな格差を生むことにもつながります。あるいは、仕事の生産性を向上させるために企業が従業員にエンハンスメントを強要することも考えられるでしょう。

このような脳神経倫理学に関わる議論は、すでに20年くらい続いています。その中でもマインドリーディングの問題とエンハンスメントの問題は、二つの大きな問題として議論され続けています。

―― 脳AI融合プロジェクトに対しては、哲学という視点からどのように関わることができそうでしょうか?

鈴木:まず、脳神経倫理などですでに進められている議論を参照しつつ、脳AI融合プロジェクトで生じうる新たな問題を発見することが考えられます。脳と機械を接続する技術はブレイン・マシン・インターフェース(BMI)と呼ばれ、すでに研究が進められています。脳AI融合プロジェクトでも、頭の中で「暗くなれ」と思うだけで部屋の電気のスイッチを切るというような技術の可能性が検討されています。しかし、パッと頭の中で思い浮かべるだけで何か変化を生み出せることは、良い結果につながることもあれば悪い結果につながる場合もあります。BMIを軍事利用する研究もありますが、ほんの少し思いがよぎっただけでミサイルが発射されてしまえば、人の命に関わるようなことにもなりかねません。

もちろん、一見すると便利に見えるものが悪い結果をもたらす可能性はどの技術にもありえます。したがって、研究開発や実用化にブレーキをかけるのではなく、そうした問題に注意をしながらも、世の中にプラスになるように使っていく方法を模索することが大切です。そのとき、人間の意識的なコントロールに委ねることには限界があるかもしれません。そこで、良くない結果をもたらすような使い方を人間がした場合でも、テクノロジーの側でコントロールするといった研究も同時に必要になるでしょう。こういったことを考えるのが第一の役割です。

世の中にプラスになるような使い方を模索することが大切です

新たな社会への
ビジョンを描く

もうひとつの役割は、科学技術の研究開発の指針となるビジョンを考えることです。たとえば、エンハンスメントによって先天的な能力の制約から解放されたならば、われわれはいまよりも幸せになれるのでしょうか、あるいは、エンハンスメントによる競争が激化したり、できることの選択肢が増えすぎて途方に暮れてしまったりして、むしろ不幸になるのでしょうか。

このような問題を考えるには、どうすればより良い社会が実現できるのか、科学技術はそのためにどう役立つのか、そもそも良い社会とは何なのか、こういったことに関するビジョンを描くことが最終的な課題になるはずです。そうしたビジョンを科学者の方々とともに考えることは、科学技術の研究開発にとってもプラスになると思います。

哲学や倫理学は、科学技術の開発や社会実装に制約をかけるようなものと考えられがちですが、もっとポジティブな提案も可能なはずです。哲学を古代ギリシャまでたどると「良い生とはなにか、良く生きるにはどうしたらよいのか」ということが哲学の大きな関心であることが分かります。哲学の立場からより良い社会を実現させるための技術を考えることは、哲学本来のあり方に立ち返るということでもあるわけです。

―― 脳AI融合の研究チームと人文社会学の研究者が共同で関わっていく意義についてはどう考えていらっしゃいますか?

鈴木:科学技術それ自体は中立的な存在で、問題は使い方次第だと考えられがちです。しかし、かならずしもそうではないかもしれません。例えば、SNSが社会に浸透することで、人間のコミュニケーションのあり方自体が悪い方向に変容しつつあるのかもしれない、というのはその一例です。科学技術はかならずしも中立ではないという認識を共有しつつ、技術の実用化にあたってどのようなことが起こりうるか、それにどう対処すべきかを一緒に考えていきたいと思います。

―― 「脳AI融合」という言葉はインパクトがあるが故に、研究の実態よりも大きく誤解されたかたちで世の中に広まってしまう可能性もあります。一般の方々とコミュニケーションについてはどうお考えでしょうか?

鈴木:「脳AI融合」という言葉はもともと非常にSF的な響きをもっているので、研究の実情を知らない人には、「マッドサイエンティストが面白半分で脳とAIをつなげている」という受け止め方をされてしまう危険性もあります。したがって、興味本位の研究などではなく、身体が不自由な人がより自由に生活することを可能にするなど、その知見を社会に役立てる意図があっての研究であることを積極的に伝えることが重要だと思います。また、社会実装に伴う格差の拡大などに関する問題についても、研究者はそのような問題が存在することを認識しており、対策も考えているというプロセス自体を発信し続けることも重要なのではないでしょうか。

※本インタビュー記事は、「BRAIN-AI×HITE活動紹介冊子」に収録されています。冊子の入手については以下をご確認ください。
「BRAIN-AI×HITE」の活動紹介動画・冊子公開