2021.07.16

インタビュー「「人工知能の哲学2.0」に挑む」

Category

これからのAIと社会の行く末を検証する上で、第1次、第2次AIブームで考察された哲学的課題をアップデートする必要があるでしょう。果たして、AIは有用な"道具"なのか。汎用人工知能の実現は可能なのか。
過去の考察と反省を未来の提言につなげ、AIが人間と協働する可能性を探る試み「人と情報テクノロジーの共生のための人工知能の哲学2.0の構築」を推進する鈴木貴之氏に話を訊きました。

鈴木貴之

鈴木貴之
東京大学大学院総合文化研究科 准教授。HITE「人と情報テクノロジーの共生のための知能の哲学2.0の構築」。専門は心の哲学、その応用問題として人工知能の哲学を研究。
HITE「人と情報テクノロジーの共生のための知能の哲学2.0の構築」

Writer: 野口理恵/Photo: 牧口英樹

過去のAIブームから哲学的課題の変遷を辿る

─ご自身の専門とHITEでのプロジェクトについて教えてください。

鈴木貴之(以下、鈴木):私の専門は「心の哲学」と呼ばれる分野です。脳と心の関係に関する問題、たとえば、認知科学、人工知能研究、あるいは精神医学の理論的基礎に関する問題に取り組んでいます。近年、第3次AIブームに伴って、情報テクノロジーに関する法制度や倫理問題が緊急の課題として浮上し、倫理学者や法学研究者も関わるようになってきました。私は心の哲学の観点からもこれらの議論に貢献できると考え、HITEでプロジェクトを始動しました。AIにまつわる哲学的議論は、第2次AIブームが起こった1980年代前後にも一度大きく盛り上がりましたが、技術の進歩によってAIが日常生活に深く関わるようになった今こそ、その成果を見直し、さらなる議論を深めていくべきだと思っています。

─第1次、第2次のAIブームと現在で異なる点はどこにあるのでしょうか。

鈴木:人工知能研究開始直後の第1次AIブームを経て、第2次ブームの1970年代後半~90年代はじめにかけて、哲学的な議論が盛り上がるようになりました。当時の議論の焦点は、AIにはできないことを明らかにすることでした。たとえば、哲学者ジョン・サールによる「中国語の部屋」の議論はその一例です。当時はAIの性能が限られていたこともあり、AIの限界を主張する哲学者の議論は一定の説得力をもっていました。しかし、2010年代になると第3次ブームが訪れます。ディープラーニングなどの技術が開発され、様々なビッグデータも収集されるようになり、ハードウェアの性能も大幅に向上しました。その結果、AIの性能が飛躍的に向上し、AIにできることも、以前とは比べものにならないくらいに多様化しています。したがって、第2次ブーム期の議論についても再検討が必要になっていると思います。最近では、AIが人間の能力を超えたら何が起こるのかというAI脅威論が注目を集めていますが、AIによる人類の支配というやや遠い未来の問題よりも、そこに至るまでの中間領域にこそ、より重要な問題が多くあると思います。10~20年といったもう少し短期的なスパンで、AIには何が可能か、可能でないかを考えていきたいのです。

─哲学者の考察からはどのような教訓が得られるのでしょうか。

鈴木:第2次ブーム期のAI研究はエキスパートシステムと呼ばれる、記号計算的なアプローチで専門家が持つノウハウを再現しようとする試みが中心でした。たとえば、医者のもつ知識をAIに実装し、AIに専門家レベルの診断をさせるといったものです。しかし、たとえば哲学者のヒューバート・ドレイファスは、多くの知識があるからといって人間のように適切な判断を下せるわけではないとこれを批判しました。言葉で明示的に表現できるような知識が「知能」の本質だという前提自体が間違っているというのです。

─その前提が間違いだとすると、一体「知能」とは何なのでしょうか。

鈴木:広義の知能は、状況に応じて適切な行動ができることだと思います。その意味では、知能とは人間だけのものではなく、広く生物が持っているものです。生物が生き残るためには、周囲の状況を観察し、状況に応じて行動しなければなりません。そしてそのためには、知識だけが重要なわけではありません。ですから、「人工知能」を作ろうというときに、チェスや囲碁で人間に勝つとか、病気の診断を下すといったことだけを目指すのは、ある意味では不自然です。もちろん、病気の診断を下せるならば、道具として有用であることは間違いありませんが、知能はそういった能力に尽きるものではないはずです。

鈴木貴之

第3次AIブームにおいて、いま考えるべきこと

─第3次AIブームを経たいま、「人工知能の哲学2.0」ではどんなビジョンを描かれているのでしょうか。

鈴木:現在のAI研究でおもに用いられている深層ニューラルネットワークは、大量のデータをもとにAIが自ら学習し、データに隠されたパターンを発見するという点で、古典的なAIとは異なります。そこで「人工知能の哲学2.0」では、古典的なAIに関する知見では十分に対応できない部分をアップデートしていく必要があると考えています。深層ニューラルネットワークと人間の脳にはどのような違いがあるか、深層ニューラルネットワークに限界があるとすればそれはどのようなことかといったことです。他方で、80年代の議論に見られる重要な指摘─例えば身体の重要性などは、いまでも重要性を失っていないと思います。

─「AIが徳を身につけることはできるか」という問いを掲げられているのも印象的でした。

鈴木:一言で言えば、「徳」とは状況に応じて適切な判断や行動が行える能力です。たとえば、一般的には嘘をつくのはよくないことですが、ときには相手を傷つけないために罪のない嘘をつくほうがよいこともあります。徳とは、このような多様な例外的状況にうまく対処できる能力で、明示的なルールでは捉えることが難しいものです。それは、人間の知能のもっとも核心的な部分にほかならないように思われます。その意味で、「AIは徳をもてるか」という問いは、「AIは知能をもてるか」という問いでもあると言えます。

─AIを様々な分野に取り入れようとする動きが起きる中で、AIを相対的に考えることで、これまで顕在化していなかった問題が浮かび上がるきっかけにもなるでしょうか。

鈴木:そうなるべきだと思います。たとえば自動運転でもそうですが、現状では、人間の判断の方が信頼に足るものであり、少しでもずれると「AIはダメだ」という話になってしまいます。しかし、トロリー問題のように、人間でも答えを出せないような問題をAIに解かせるのは、そもそも無理があります。また、最近ではアルゴリズムのバイアスが問題になっていますが、人間の判断にもさまざまなバイアスは存在します。チェスや将棋、あるいは科学研究では、人間には発見できなかった手や法則性をAIが発見することもあります。これらのことを考えると、人間と同じように思考や判断ができる汎用人工知能の実現を目指すよりも、特化型の人工知能を活用する可能性を考える方が生産的であるように思われます。AIと人間の知能はそもそも異質なのだと考えた上で、AIをどう活用したらよいのか、両者をどう組み合わせたらよいのかを考えていきたいと思っています。

――――――

鈴木貴之

『100年後の世界 SF映画から考えるテクノロジーと社会の未来』
鈴木貴之(化学同人)
遺伝子操作やサイボーグ、人工知能、仮想現実など、これまでSF 作品で描かれてきた様々なトピックを中心に、まだ見ぬテクノロジーと社会の関係を予測した一冊。

※本記事は、「人と情報のエコシステム(HITE)」領域冊子vol.04に収録されています。
そのほかの記事、そのほかの号については以下をご確認ください。
HITE領域冊子