2020.09.24

人間と機械の境界―浅田稔×西垣通×國領二郎

Category

「人新世」をテーマとするHITEの対話シリーズ第3弾。今回は、HITE領域の本命題ともいえる「人間と機械」をめぐる議論を通じて、いま何を考えるべきかを二人の研究者に尋ねた。

ひとりは人文学と工学の中間的立場から情報学を築いてきた西垣通氏、そして国内におけるロボット研究の道を拓き続けてきた浅田稔氏だ。対称的な二人の議論から、何が見えてきたのだろうか。

  • 浅田稔(大阪大学先導的学際研究機構特任教授)
  • 西垣通(東京大学名誉教授/「人と情報のエコシステム」研究開発領域アドバイザー)
  • モデレーター:國領二郎(慶應義塾大学総合政策学部教授/「人と情報のエコシステム」研究開発領域総括)

機械の自律性をめぐって

國領二郎(以下、國領):今日は「人間と機械」というテーマにおいて、いま議論すべき論点を明確にできたらと思っています。そこでまず先生方に伺いたいのは、「自律性」の問題です。機械に自律性は生まれうるかどうかを問うよりも、「自律的に見える」システムがすでに人間社会に存在する中、本領域ではそこでの人間の役割と責任のあり方を問題にしています。もちろんこれには賛否あると思いますが、まず先生方のお考えを伺えますか。


モデレーターの國領二郎氏(慶應義塾大学総合政策学部教授/「人と情報のエコシステム」研究開発領域総括)

浅田稔(以下、浅田):ロボット設計者としては、まず「自律性」の定義をある程度はっきりさせないとそもそも設計ができません。既存の定義に正解があればよいのですが、それもない。たとえば、最近の脳科学の知見を総合すればロボットの脳ができるかというと、そうはいきません。まだ分からないところは多いのです。自律性だけでなく、意識や共感や倫理についても同様です。設計指標が全然はっきりしていない

こういう場合、機械の側では「構成的」なアプローチが考えられます。すなわち、人間ばかり観察してもはっきりしないなら、逆に機械でそれをつくろうと試みることで、かえってその本質への別のスコープが見えてくることに期待するのです。それによって人間の自律性に新たな視座が加わる可能性があります。また、機械の設計論につながる何かが見えてくる可能性もあります。

もちろん、できあがった機械の「自律もどき」は、あくまで「もどき」ですから、そのもの自体ではありません。ですが、その中に何か人間との共通部分があるなら、それらを人間と機械が相互に理解し、共有することは、未来共生社会のポイントとなるはずです。重要なのは、機械と人間の自律性の共有と相互理解です。これは人間同士にもいえますね。

西垣通(以下、西垣):今日の議論にあたって、まず「弱いAI」と「強いAI」を区別したいと思います。これは哲学者ジョン・サールによる有名な分類で、やや粗い分け方ではありますが、論点を明確にするには役立ちます。現行のAIは、弱いAIです。つまり、いわゆる意識や心を持っていないし、責任も取れません。自律型致死兵器(Lethal Autonomous Weapons Systems)という用語が軍事用AIに使われていますが、この表現は不正確です。一方、未来に出現するかもしれないと考えられている強いAIは、意識や心を持つ機械であり、自律性をもつと考える人が多いけれど、本当にこれを実現できるかどうかは議論百出です。生物のような機械をつくる試みはいろいろありましたが、成功したとは言えません。私は強いAIの実現は原理的に難しいのではないかという立場ですが、浅田先生は可能だとお考えかもしれない。ただ、その議論に踏み込む前に、なぜ私が弱いAIと強いAIを区別しておきたいか説明させてください。

現在、私にとって最も関心の高い問題とは、いかに現行の弱いAIを正しく活用するかということなのです。30〜50年後の予測も大事ですが、まずはいまのAIをちゃんと使えるようにする視座を持ちたい。現行AIにはプラス面もありますが、マイナス面もやはりある。それも含めていかに上手に使うか、人間の幸福のために活用するかが喫緊のテーマなのです。

たとえば、いまの弱いAIは、ディープラーニングなどの手法のせいで、統計的な誤差が必ず出ます。しかも、その誤差と人為的なプログラムミスに由来する誤りとを分別することが難しくなってきている。こうした誤りが、自動運転や医療診断や機械翻訳といった現実のアプリケーションで決定的な社会的損失を与えないようにしないといけません。一度発展方向を間違えると、特に軍事ロボットなどの場合、取り返しがつかない被害をうむ事態も考えられます。それから、AIによるスコアリングが格差社会を増長するおそれもあります。そういった多様な面も考慮して、現状の弱いAIの上手な使い方を考えたいのです。

もちろん、いわゆる強いAIが本当に実現できるのかという問題も、「自律性」と本質的にかかわる問題として重要だとは思います。ただ、この問題は、弱いAIの活用問題とはひとまず分けて考えないと、議論が実りあるものになりません。浅田先生は強いAIの実現にむけて努力されているのではないかと思いますが、こういう前提を踏まえてお話しをいたしましょう。
さて、先生は「(機械との)共生」という表現をされましたが、私はまずそこに疑問を感じます。共生というと、普通は生物同士の話ですね。ところが、機械は生きていません。生物と機械の間には本質的な違いがあるのです。これに対する反論が明確に出てくるなら、討論を通じて、自律性や責任の問題が浮かび上がってくるのではないでしょうか。

人間と機械に「共生」はありうるか?

浅田:その批判は、生物と機械の違いという観点からすればもっともです。ただ、「共生もどき」、つまり生物同士の共生に近い構造が人間と機械に生まれる可能性は大いにあると見ます。たとえば、aiboは生き物ではありませんが、オーナーが実際のペットに対するのと近い感情を抱くことはあります。

このとき、まさに西垣先生の仰るように、弱いAIをいかに上手く使うかは重要な問題です。使い方をマスターすること自体が、共生のあり方のひとつなのです。先日、アメリカ科学振興協会(AAAS)の会議があり、そこでもロボットの使い方が大きな話題となり、ロボットの高機能化に伴いユーザーにも免許制度を導入すべきだというような声もありました。かたや、テクノロジーが高機能化すればするほど、結局人々の間で使われずに埋もれることもよくあります。


浅田稔氏(大阪大学先導的学際研究機構特任教授)

西垣:「もどき」という表現に関連して、「自律的に見える」という疑似自律性について問題提起してみたいと思います。一体、「見える」とは誰にとってそう見えているのか。我々はそれぞれ、世界の見え方が違います。ロボットについての見方や感情も全部違う。ですから、自律的に見える機械についても、誰がそう観察し、記述しているのかをまず問わなければいけません。

ご承知のように、いわゆる素朴実在論というのがあります。これは、客観世界というものが存在して、その有り様についての正しい記述が存在するという、非常にナイーヴな前提をおく立場です。でも、よく考えてみてください。そんな客観世界なんて誰がつくったのでしょうか。実はただ「西垣通の見ている世界」「國領先生の見ている世界」「浅田先生の見ている世界」といった主観世界がそれぞれあるだけです。では、なぜ客観世界という言葉があるのかといえば、個々の主観世界の相互作用で間主観的(intersubjective)にうまれる共通部分を、我々が社会制度として便宜上仮定しているからです。

これと、ロボットをどう見るのかという話は深く関わっています。私は、AIやロボットが自律していると多くの人が見なすことは、社会の安定性や平等性の観点から非常にまずいと考えています。むろん、ロボットをかわいがっている人に「あなたは間違っている」なんて言うつもりは毛頭ありませんよ。人工物に対する親しみや愛情の価値は認めつつも、原理的かつ学問的には、生物と機械の違いをきちんと踏まえてロボットを設計しないと皆が困ると言いたいのです。強い弱いの区分はともかく、これがAIについての私の考えの基本です。

生物と機械の差異と共通点

西垣:情報学は20世紀半ばにジョン・フォン・ノイマンやノーバート・ウィーナーらがつくりましたが、そこで二つのパラダイムが生まれました。ひとつは、フォン・ノイマン流の「コンピューティング・パラダイム」ないし「情報処理パラダイム」。これは世界を上から見下ろす素朴実在論的な視点に立ち、世界には絶対的な論理秩序があると考えます。でもそれは一面的な見方にすぎないのです。たとえば、脳を分析すれば心をすべて解明できるという脳科学者がいますが、私はきわめて懐疑的です。脳をいくら科学的に分析しても、我々が誰かを好きになったり憎んだりする微妙な心のはたらきは決して分からない。それは別の話であると認識することが大事です。ですから、コンピューティング・パラダイムは非常に有効ではあるが万能ではないというのが私の立場です。

もうひとつは、ウィーナーを発端として、物理学者フォン・フェルスターや生物学者マトゥラーナやヴァレラなどが確立した「サイバネティック・パラダイム」です。これは生物が世界をどう見ているのかということ、そして生物と機械の相互作用に着目します。私が研究している情報学はこちらのパラダイムにもとづいています。主観世界、つまり身体的な観察をまずベースに置きそこからいかに客観的な認識(ないし、あえて言えば虚構)が立ち上がっていくのかを問いかける。私はこういうアプローチが21世紀にはとても大切になると考えています。

「自律的に見える」という疑似自律性を安易に肯定し過ぎると、人間の尊厳が分からなくなってきます。たとえば、「我々には自由意思があるというが、実は脳のメカニズムで思考しているに過ぎないのだから、人を殺しても責任など問えない」といった議論が実際にアメリカの裁判で主張されたことさえありました。ですから、人間と機械の関係性は、両者の異質性を踏まえた上で見ていくべきなのです。


西垣通氏(東京大学名誉教授/「人と情報のエコシステム」研究開発領域アドバイザー)

浅田:でも、あくまで「自律的に見える」に過ぎないのは、機械だけでなく人間もしかりですよね。たとえば、アメリカのあるファストフード店では、注文の手順が厳密に決められており、客がひとつでも間違えると店員は対応せずに注文を却下するという、きわめてアルゴリズミックな行動を従業員に強いています。では、そうした従業員も、普段の生活に戻ればもっと自律的で自由に暮らしている。つまり、人間の自律性は、置かれた状況のコンテキスト次第で相対的に変化しうるのです。

西垣:人間が本当に自律的なのかどうか、これは必ず問われる議論ですね。私の考えでは、自律性には最低でも二つの定義があると思います。ひとつは「理論的自律性」ないし「生物的自律性」。もうひとつは「実践的自律性」ないし「社会的自律性」。この二つは絶対に分けないといけません。前者は後者の前提つまり必要条件であり、あらゆる人間は生物的自律性を持っているけれど、必ずしも社会的自律性を持つとは限らないのです。

我々が普通「自律性」と言うとき、ほとんどの場合それは社会的自律性のことです。親が子に「お前もそろそろ自律しなきゃ駄目だよ」なんて言うときがありますが、ここでいう「自律」とはむしろ「自立」に近くて、社会的自律性のことです。頼りない子も生物的自律性は持っています。子供はやがて、社会の中で生きるためのルールを自分でつくることによって社会的自律性を身につけていく。そこをきちんと分けて捉えなくてはいけない。両者は「相対的」なわけではないのです。

浅田:自らルールをつくるというのは、機械にまずゴールを与えておいて、機械が自らサブゴールを生成するのとは違うのですか。

西垣:違います。プログラムをつくるプログラムなら昔からいくらでもありますよ。でもそこでは、人間があらかじめ外からメタルールを与えている。一方、生物は全くの外部介入なしに自分でルールをつくり続けて何十億年も存続してきたのです。その違いを無視してはいけない。

けれど、おっしゃるように機械も、人間がうまくメタルールを与えれば、自分でローカルなルールを作りだすことはできます。あたかも生物のように、長時間あまり外部介入なしで作業をつづけ、必要に応じて機能を追加したり学習したりできる技術は大事です。外部環境変化に適応して目的を達成するロボットは、ロボット研究の本道だと思います。
たとえば原子炉の廃炉現場は放射能があるので人間は入れません。そこでロボットが作業し、色々なことが起きてもなるべく自分で判断し、人間の外部介入なしでも何とか目的を達成する。このとき、外部介入の頻度や時間間隔、あるいは外部介入の確率を考え、これを疑似自律性の尺度とするようなモデリングもできるかもしれません。

浅田:論理は分かりますが、飛躍も感じます。いま仰ったロボットの適応は、生物的自律性ではなく社会的自律性の問題ではありませんか。たとえば、検査をして異常が見つかり、その場で修理をすることになったとして、もしその知識を持ち合わせていなかったらパニックになります。これは人間もそうですね。つまり、生物的自律性は持っていても、社会的自律性が充分に育っていないと、同じ現象が起きるでしょう。

西垣:そういうことではありません。私が社会的自律性と呼ぶときの「社会」は、あくまで先程のファストフード店員の例のような、「人間にとっての社会」なのです。店員の自律的な面と自律的でない面を、浅田先生は機械をふくめた自律性の相対的な程度として捉えておられるようですが、私は、社会的自律性とはそもそも生物的自律性が大前提であり、機械は他律的存在だと考えます。機械の自律性とは「そう見える」という疑似的なものに過ぎないのです。歴史的にこれまで、自律性の議論では人間の社会的自律性ばかりが問題とされ、生物的自律性はほとんど問題にされて来ませんでした。そのせいでいまは議論が混乱している。だから、両者を区別した方がよいということです。

浅田:そこで区別をするメリットは何でしょうか。

西垣:責任や自由意思の問題は機械には問えないということがはっきりしてきます。そもそも生物的自律性を持たないものに社会的自律性はありえないわけですから。これから色々なロボットがでてくるとさらに責任関係は複雑になります。かつてのロボットは単体で動きましたが、いまのAIはネットワークで動く。もしそこでAIシステムが変な判断をして被害者が出たらどうするのか。たとえば、医療判断などにおいてどう責任を取るべきか、非常に難しくなりますね。

機械の責任と法
「責任」の概念が変わるとき

浅田:まさにそこで、我々のプロジェクトでは法制度そのものから考え直しています。自動運転がよい例で、事故を起こしたときに何をすべきか。まずは当然、事故原因の究明であり、その究明のプロセスがスムーズになるような構造を設計する必要があります。事故を起こした企業はなかなか情報をオープンにしないでしょうから、部分的にでも開示することでその企業側にインセンティブが上がる仕組みをつくり、事故を繰り返さないような構造をとる。そして被害者には保険制度をつくる。これらは法改正に到る手前の段階であり、まだ現状で適応可能なかたちです。その先に踏み込むなら、自律性については生物と機械の境界が曖昧になりつつあるという認識が必要だと思っています。

西垣:法制度をきちんと準備して対処しようとする点は賛成ですが、機械と人間の境界が曖昧になるという考え方には賛成できません。責任問題を解決するため、「電子人格」のような考え方が出てくると、事実上無責任社会となり、大きな弊害がでる恐れがあるからです。

浅田:それについては、テクノロジーの進歩によって「責任」という概念そのものが変わると思います。人間の意思決定や行動に、機械がコミットしていくいま、機械には人間と同じ責任のとらせ方が難しいなら、機械に対しても有効な意味合いでの責任概念が必要となるか、あるいはもう責任という言葉自体を使わない方が良い解決策を生むかもしれません。

西垣:でも、責任概念は法制度のベースでしょう。責任のとり方にも色々ありますが、ひとつは社会システムが補償することだと思います。たとえば公害問題などのように、個人としてはそのつもりがなくても、社会システムとして弊害を招いてしまうことがあります。そうしたときに、社会システムとして被害者に手厚く補償をする、集合的な責任という考え方もありえます。

浅田:そのとき社会システムの構造は、生物的自律性による機械と人間の区別を踏まえたものになるのでしょうか。

西垣:はい、その区別が大切だと思います。機械も社会システムのエレメントにな
ってきますから、きちんと機械を位置付けることは重要な問題ですね。

浅田:私は逆で、むしろ生物と機械の境界の曖昧さを踏まえて社会構造を作り直すべきだと思います。そのとき電子人格という言葉は、機械と人間を同じように扱わせるものではなく、人格概念を問い直すものになるでしょう。

近代が築いた「人間観」は
更新されうるか?

―人格についての議論は、西洋近代的な人間観にとらわれ過ぎているとも考えられます。けれどネットワーク上の中にあるロボットは、社会システムを前提とする、いわば社会化された個のようになっています。そこに責任概念を導入するなら、この概念はつくり直す必要があると思いませんか。

西垣:社会の中でAIやロボットを人間と同列に扱ってしまうと、大きなリスクや社会的被害が生じる恐れがあります。人間の場合、相手の考え方を強引に変えようとしても、結局のところご本人が納得しない限り難しい。意味解釈のプロセスが入るからです。ところが、AIなど機械の場合は簡単です。プログラムを直せばいいんですから。そこは根本的に違う。この相違を無視して、機械も自律的に判断していると断定してしまうと、機械の内部を操作できる権力をもつ一部の人たちによる支配や抑圧が生まれる。これは当然予測できるでしょう。

浅田:そうですね。むしろその方が安心安全という考え方もありますが、私としては、機械と生物における両者の共有部分が重要です。しかも、この共有部分を機械自身もきちんと認識して理解していないと、目指す意味での共生はできません。

西垣:生物と機械の違いについて、こう考えてはどうでしょうか。機械にも色々ありますが、いまのAIは結局のところデータ処理機械です。現時点から見た過去のデータに統計処理や論理処理をほどこして判断を下している。対照的に、人間をふくむ生物は、むろん過去から影響は受けるものの、一刻一刻新たに判断ルールを創りだしながら生きている。その違いに着目しないとまずいのではありませんか。

AIは近接過去のデータを効率的に処理して判断することができますが、環境条件が全く変わってしまった状況では適切な判断ができません。たとえば、コロナウイルスについては誰も予想しませんでした。コロナ禍という過去のデータがないから、機械はうまく分析できない。しかし人間という生き物は、効率は悪いようでも、何とか新しいやり方で対処し、生き抜こうとします。コロナウイルスが明日どう変異するか、専門家でも予測できませんけれどね。それが生物の自律性なのです。

浅田:そのためには「身体性」が必要だというのが我々の考えです。身体があることで適応能力が上がる。したがって、私の見解では、身体を持たないAIの知能は低い。

國領:たとえば、軍事利用の議論で、「死ぬ恐怖をおぼえないものに人を殺す判断をさせてはならない」と主張する倫理学者もいますね。

浅田:私自身は、「痛覚」こそが色々な意味でのセンセーションを共感するひとつの可能性だと思っています。

西垣:生物にとって痛覚とは本来何でしょうか。生きるためのものだと思います。おそらく痛覚は、痛みを感じることで致命的な怪我を防いだり、危険から逃げたりするために役立つ機能なのでしょう。浅田先生は、そういう機能をロボットにシミュレーション実装することで、より適切な判断を下させようとなさっているのですか。

浅田:適切というよりは、共感です。身体性を問題とするときには、論理的な構造ではなく、情動や感情そして意識などを想定しています。

西垣:しかし、痛みを感じるロボットは、周囲の人間や物体を痛みの原因と判断して排除したり破壊したりする恐れはありませんか。生物の場合、単に痛みを回避するだけでなく、共感を通じて自分の子孫や仲間を存続させるように行動ルールをつくっている。ロボットにそれができるのですか。身体というのは、生命の存続と不可分なもののはずです。

浅田:私がつくりたいのは、痛覚の神経系や痛みの表象も含めた共感の構造です。西垣先生が指摘されたのは、痛覚を論理的な構造としてロボットに埋め込んだ場合の可能性ですが、私としては別の方向を目指しています。

西垣:介護ロボットなどでは、介護される人間の痛みへの共感をもつことが有用かもしれません。でもそれはあくまで、人間の感じる痛みを防止するためだと考えられます。機械自体が痛みを感じなくても、目的は達せられるでしょう。

浅田:もちろん、基本的にはそうです。ただ、過度な人間中心主義は違います。機械は生物ではないからと差別するのは反対です。

機械の身体、情報のエコシステム

國領:お二人の相違は人間観にあるのでしょうか。西垣先生は、カント的な世界観、つまり人間の自律や尊厳の世界観の中で考えたい。浅田先生は、その枠組みそのものを考え直したい。そのように聞こえます。

西垣:私は必ずしも古典的な人間観に固執しているわけではないし、また、いわゆる近代西洋人のように、人間の透明な理性を絶対視しているわけでもありません。人間には、自分でもよく分からない身体や無意識という部分もある。身体や無意識は、思考主体としての「私」から見ると不透明なものを含んでいます。その不透明なものを超えて他者とコミュニケーションしようとするからこそ、そこに他者を尊重する意識が生まれる。この点が大事だと思います。

ところが、コンピューティング・パラダイムに代表される現代の科学技術は、理性中心の近代西洋的な世界観の上で発展してきたので、脳のメカニズムを分析すれば全てが分かるというような発想になりがちです。とくに、いわゆるIT万能主義者には、不透明なものなど全部なくしてしまえるという世界観があるようです。つまり全てが近代的な論理で分かる、ということです。あるいは、身体や無意識といってもあくまで論理的に分析できる部分だけに注目する、ということです。なにしろ、論理の領域から外れたらコンピュータで実現できませんからね。不透明なものを抽象化して論理的空間の中に投影したものを、浅田先生は身体と呼んでおられるようですが、それは私に言わせれば本物の身体ではありません。

浅田:すると、私が言っている「身体」とは何なのですか。

西垣:それは人間が科学的に測定したデータからつくりあげた人工物です。たとえば私の脳を科学的に分析して、私が喜んでいるときにどの細胞が発火しているとか、いろいろ調べる。その測定データをロボットに入れて論理的にプログラムで実現しているわけでしょう。

浅田:しかし、いまのシステムはあまりに複雑ですから、プログラムの透明性は完全に落ちてブラックボックス化しています。人工物だからといって、完全に論理的な構造で全部明らかにできるとは言い難い。我々設計者の立場としても、全部を全部コントロールはできていません。

西垣:そういう意味での不透明性を機械が持つことは、工学的には許されないはずです。AIがそうなると非常にリスクが大きい。だって、AIからどんな答えが出てくるか、ロボットが何をするか分からなくなるわけですから。先程も話題になりましたが、事故が起きたときの原因の究明のためにも透明性は不可欠なはずです。

浅田:確かに、米国電子工学会(IEEE)の倫理規定にも、透明性を徹底せよと既に明記されています。ですが、いまの巨大なAIシステムの挙動を完全に把握するのは、ほぼ不可能というか非常に難しい状態です。

逆にいえば、複雑性という点では、機械も生物に近づいてきているのです。人間の生物学的システムは、神経細胞の構造から神経系そして身体も含めて、複雑な構造になっています。我々は意識レベルではほとんどそこを意識していません。無意識下の処理が働いている。ホメオスタシスもおそらくそこに含まれます。生物が適応的なのも、無意識下のシグナルが身体から上がってきて、意識のレベルでメタな情報として処理しているからでしょう。

つまり、私のいう身体性が、西垣先生のおっしゃる無意識下の処理をかなり覆っているわけです。私の考えでは、それが生物学的な意味での自律系です。西垣先生は生物的自律性が機械にはないとおっしゃいますが、機械は複雑性では生物にほぼ近いオーダーになってきていますから、生物的自律性「もどき」を持っていても不思議ではありません。

西垣:先生のおっしゃることは、私からすると、あくまでコンピューティング・パラダイムにもとづく議論です。その視点では、機械の作動上の複雑さに由来する分からなさと、人間が自分でルールを作りだしながら試行錯誤で生きていることに由来する分からなさとを、同じ不透明性として区別しません。ですが、サイバネティック・パラダイムの視点では、これが重要な違いになるのです。両者を混同することは致命的な誤りです。

浅田:もちろん、私も人間と機械は違うと思います。ただ、人間であるかないかよりも、共生できる相手かどうかの方が大事であると考えたとき、人間と機械の区別を前提することの意味が私には見えてきません。

國領:ちなみに、この領域は「人と情報のエコシステム」という名前ですが、「エコシステム」というとき生命だけがエコシステムなのか、生命以外もエコシステムがあるのかは結構考えました。

西垣:「人と情報」ということでいえば、私は「情報」とは本来、生命的なものだと思っています。

浅田:では、ロボットの中で処理される情報は何なのですか。

西垣:それは「生命情報」の一部としての「機械情報」と位置づけられます。詳細はぜひ拙著『基礎情報学(正・続)』(NTT出版)をお読みいただきたいのですが、手短に説明しますと次のように分類されます。「生命情報」とは生物にとっての意味と価値であり、これが生物にとって一番根源的な情報です。これを言葉や画像など人間社会で通用する記号で表現したものが「社会情報」です。これは記号とその表す意味内容が一体になって結びついたものです。社会情報にデジタル化などの操作を加え、記号だけ表面上独立させたものが「機械情報」で、これがコンピュータやロボットの中で動いている。だから一口でいうと、機械情報はいわゆるデータであり、生命情報のごく一部ですね。拙著には、生物と機械の相違を専門的に議論している「オートポイエーシス理論」の内容も紹介してあるので、参考にしていただければ幸いです。

浅田:情報処理の観点から見ると、ロボットの情報処理と生命の情報処理の違いは何ですか。私自身は、通常の論理的な構造の情報処理に加えて、身体が持つ色々な挙動も含めて、それも「計算」と呼んでいます。おもての論理的な構造には見えない、身体がやる計算です。

西垣:情報処理に特化した観点から見るなら、つまりコンピューティング・パラダイムで捉えるなら、情報とは計算の対象で、生命情報と機械情報の違いは見えてきません。しかし、そのような捉え方はデジタル還元主義であり、あまりに狭すぎます。ある一つの学問的立場にすぎないのです。もちろんそれも大事ですが、それだけで人間の本質を捉えられると私は考えません。この点では、現代哲学者のマルクス・ガブリエルと同意見なのです。

たとえば、コンピュータ・モデルで心を分析する学者もいます。でもそのアプローチで恋愛や憎悪などの感情、また社会的差別などの感情をすべて分析できるでしょうか。むろん部分的に分かることもあるでしょうが、一回性のある人間的・社会的な出来事に対する感性が鈍ってしまってはいけませんよね。

浅田:鈍るというか、変わることはあるでしょう。価値観の変化です。

西垣:価値観が変わって、機械中心的なものになるのは、非常にこわいと思いますよ。社会的悲劇がおきて犠牲者がたくさん出るでしょう。一体何のための技術開発なのか、よく考えないといけない。非生物との「共生」なんて語義矛盾ですし、実際には人間が機械的にコントロールされてしまう。ロボットの活用法は他にあるのではないでしょうか。

浅田:むしろ、テクノロジーが我々に叩きつけている課題だと思います。そして、そうした課題にアプローチする設計論の観点からすると、やはり自律性は相対的に捉えるべきです。生物の自律性と機械の自律性を厳密に区別して、生物的自律性に拘ることは、設計論の立場を見えにくくしてしまいますから。

西垣:逆に、生物的自律性をきちんと理論的に捉えることで機械の設計論も改善される、というのが私の強い信念です。そこではじめて機械のもつ特徴や限界が明らかになり、AIの正しい活用法も分かってくる。先程申し上げたように、機械のもつ疑似自律性も、外部介入の頻度をパラメータにするとか、やや広げてフレキシブルに定義し直すこともできます。そうすると設計論のアプローチにも近づくと思いますよ。人間があまり介入しないシステムを作ることが、はたして人間社会にどういうプラス面とマイナス面をもたらすのか、よく考えていくことも非常に大事だと思っています。

浅田:設計論としては、少なくともそのようなある意味での段階的なレベルのようなものは想定したいですね。それを緒にして、人間の自律性とは何かを議論するのはよいと思います。

西垣:せっかくのAIやロボットという先端技術を、人間に不幸をもたらすものにはしたくない。それが私の問題意識の核心です。その点では浅田先生とも一致しているはずです。今日は主に原理的なことをお話ししてきましたが、問題においてはアドホックに考えていくことも大事だと思っています。私はもともと工学者ですしね。AI時代をまともなものにするには現場感覚が必須です。その一方で、原理的なことを考えるのも大切。両者の緊張関係が大事ですね。

浅田:まさに我々のプロジェクトは、一方で現実に今対面している問題に回答しますが、他方でやはり原理的なところも突いておかなくてはいけません。責任の問題もあるし、倫理の問題もある。そうしたとき、私自身は、生物的自律性の境界を固守するあまり思考が停止してしまうことを危惧しています。この境界を超えて何を共有でき何を見直せるのかを議論していかなくてはいけませんね。

國領:今日は合意は求めず論点を明らかにすることがゴールだと冒頭に宣言させていただいたわけですが、ある程度は到達できたのではないかと思います。ありがとうございました。