2021.08.13

対談「デジタル化する法 司法判断へのAIの導入は何を変えるのか」

Category

法制度の世界にもAIを取り入れる流れが始まっています。
司法判断にAIが介入するとき、そこにはどんな倫理課題が問われてくるのでしょうか。HITEプロジェクト「法制度と人工知能」を推進する一橋大学の角田美穂子氏と山本和彦氏に、オンライン裁判やAI導入の現状を語っていただきました。

photo

角田美穂子
一橋大学大学院法学研究科教授。
HITE「法制度と人工知能」代表。専門は民法、消費者法。

山本和彦
一橋大学大学院法学研究科 教授。
HITE「法制度と人工知能」。専門は民事訴訟法、裁判外紛争解決手続き(ADR)。

文・菊池拓哉

─まずは、角田先生、山本先生がご専門とされている研究と、これまでのご活動について教えてください。

角田美穂子(以下、角田):私は民法が専門でして、誰がどのような権利をもち、義務を負っているのかという市民生活上の法律関係について研究しています。人は契約を結べば基本的にその契約に拘束されるというのが原則ですが、裁判所で争うような場合はその契約の効果が認められない場合もあります。そうした「契約自由の限界」というものに興味をもって、これまで研究をしてきました。

山本和彦(以下、山本):私は民事訴訟法という民事関係の裁判に関する研究を専門としています。日頃は細かな条文の解釈などを研究しながら、法制審議会民事訴訟法(裁判IT化)部会という会の会長として、訴訟手続き、裁判手続きのIT化を進めるための法律の改正作業、法律案の策定作業の取りまとめにも従事しています。そのようなところに関連して、裁判手続きのオンライン化、IT化についての研究も行っています。

司法のAI導入への期待

─今回は、デジタル化する法と司法判断へのAIの導入についてお聞きしていきたいのですが、その前段として、角田先生がこの研究テーマに関心をもたれたきっかけは何だったのでしょうか。

角田:転機になったのは、2005年に起きたみずほ証券のジェイコム株大量誤発注事件*1 をめぐる裁判です。私はこの裁判において、東京証券取引所という日本が誇る最新鋭の技術をもつプラットフォーマーが利用者に対してどのような法的責任をおっているのか、という観点について意見書を執筆しました。それは、「いままで人が行っていた業務が機械に代替されたときに、従来の法律関係は変わるのか」という問題でした。この裁判に関わった経験を通して、改めて機械代替は法律の風景をどう変えるのかという、その問題の広がりの大きさに気づかされ、このテーマを研究することに決めました。

─HITE採択プロジェクト「法制度と人工知能」というテーマの概要について教えてください。

角田:このプロジェクトの目的は、紛争解決の司法判断におけるコンピューテーションの可能性と、その限界に挑むことにあります。法学だけではなくフィンテックや経済学など、一橋大学のさまざまな社会科学分野の先生方にご参加いただきながら、イギリスのケンブリッジ大学と共同で研究を行っています。
このプロジェクトには3つのワーキングパッケージがあります。本日の対談相手でもあり、日本の民事訴訟における紛争解決の第一人者である山本先生と、ケンブリッジ大学のフェリックス・シュテフェック先生が率いる紛争解決予測研究。これがひとつめです。
ふたつめは、法的推論はどこまで機械学習と同視可能かを研究するパッケージ。こちらは、イギリス側のP・Iで、労働法の権威で、かつ日本と中国のフィンテック事情にもお詳しいケンブリッジ大学のサイモン・ディーキン先生と、一橋大学で産・官・学連携のフィンテック研究フォーラムを主宰されている野間幹晴先生が率いています。三つめは、本学の未来洞察の第一人者であります、鷲田祐一先生が率いておられるホライゾンスキャニングによる法律と人工知能の未来シナリオの研究です。そして、これら3つのワーキングパッケージが相互に連携しながら、また、司法関係者や国際機関とも連携しながら、「紛争解決におけるAI利用ガイド」を策定する予定です。

─山本先生が主導されている、AIによる紛争解決予測のご研究では、具体的にどのような研究が行われているのでしょうか。

山本:AIによる紛争解決予測のためには、大前提として過去の裁判関係書類の膨大なビッグデータが必要です。当然ながらそのビッグデータは電子化されたものでなければなりません。しかし現時点では、日本の裁判所にあるすべての記録は紙で存在しています。裁判官はもちろんコンピュータで判決を書いているのですが、最終的な正式な記録となると紙に打ち出したものしかないのです。いまも裁判所に行くと、膨大な紙の記録があり、大きな事件だとロッカーひとつぶんの紙の山になることもあります。現在行っている法務省のプロジェクトでは、これら全記録の電子化の検討を進めています。法律が改正され、この作業が完了すれば、判決を含めたすべての裁判の証拠書類などが電子データになりますので、ようやくAIが活用できるビッグデータに近づくことになります。

─AIの司法導入における基盤をつくられているということですね。集積した裁判記録をAIに分析させることで、今後どのような展開が期待されているのでしょうか。

山本:私のもうひとつの研究分野に、いま世界的に脚光を浴びているODR(オンライン・ディスピュート・リゾリューション)というものがあり、これはつまり裁判所の外でのオンラインでの紛争解決です。ODRにおいて、裁判情報は電子データとしてAIに解析され、紛争が生じたときにはそれに基づいた解決案が自動で作成されます。つまり、紛争の当事者はAIを活用することで自らの紛争解決を図ることができるわけです。つい最近、日本にも日本ODR協会という団体が設立され、私はそこの代表理事を務めておりまして、まだ端緒ではありますが日本にODRという仕組みを定着させていく運動をしています。

角田:この研究では、日本のデータベース会社、ロンドンのリーガルテックスタートアップ、さらには東京工業大学で自然言語処理を研究されている徳永健伸先生の研究室とも連携をとりながら、日本で紛争解決予測AIを開発するためのデータセットをどのように構築していったらいいのかを検討しています。もし開発できた暁には、さまざまな実験をしたいとも考えています。まだこの分野は黎明期にあり、また、日本語というAI研究のなかではチャレンジングな言語で、発展の目覚ましい機械学習の技術を駆使し裁判文書を用いた紛争解決予測AIに関する研究はまだ知られていません。我々としては、日本の特徴を踏まえたAI実験をしていきたいと考えております。

photo
角田美穂子

AIがユーザー同士の紛争解決をサポートする

─AIは裁判のどの工程に活用されるのか、その具体例や展望を教えていただけますでしょうか。

山本:裁判手続き全体が電子化されるのは、現時点での予定だと2025年ごろと予想されています。そこではじめてビッグデータによってAIを活用する基礎ができるという段階です。実際に裁判のなかでAIを活用するのはそれよりも後の段階ですので、まだまだ未来の話です。そのあたりの実情は諸外国でもあまり変わらない状況でして、裁判手続きでAIを実用化している国はそれほどないのではと思います。

─現時点で、裁判でAIが活用されている事例はあるのでしょうか。

山本:報道によれば、アメリカの一部の州では、刑事裁判のなかで被告に執行猶予をつける判断をする際に、過去のビッグデータを用いてAIで再犯の可能性を分析し、そのデータを参考にしているそうです。このようにAIを活用している州のほうが、人間の裁判官だけで判決している州よりも再犯率が低いという報道もあります。しかし、まだまだ科学的なエビデンスには乏しい状況かと思います。
一方、裁判外でビッグデータとAIを活用する事例は増えてきています。たとえばECサービスやユーザー間の商品の取引などでは、お金が振り込まれないとか、商品が届かないとか、あるいは提示された情報と違う商品が届くなど、さまざまなトラブルが発生しますよね。世界最大級のオークションサイトeBay(イーベイ)では、比較的早い段階からオンラインで顧客同士に紛争を解決してもらうODRの仕組みを提供してきました。eBayの公式声明によれば、このオンラインパッケージによって年間で数千万件の紛争解決をしているそうです。

─裁判に至る前の段階における紛争を、AIが解決しているということですね。

山本:そうです。この数千万件というのは、本当に小さな、数ドル単位の取引から何百万単位の取引の紛争も含めての数字ですが、その9割以上は当事者間の交渉だけで解決しているそうです。紛争の中身についてこういった状況です、と当事者たちがAIに情報を渡すと、「このようなケースでは傾向として、こうした解決になることが多いですよ」とAIが自動的に提示してくれるので、その情報を元に当事者同士が交渉し、紛争を解決するわけです。
このような裁判所に代わる民間紛争解決をADR(オルタナティブ・ディスピュート・リゾリューション)というのですが、これは近い将来にさらに普及していくツールだと思います。今では、中国のアリババなどもeBayと同じようなオンラインでの紛争解決システムを提供しているようです。

─eBayのオンライン取引のように、トラブルの事例がある程度テンプレート化しやすい業態では、人的コストをかけずにAIによる紛争解決を導きやすいということですね。

山本:ええ。そもそも数ドル程度の紛争であれば、裁判所に訴えを起こす人はほとんどいないはずですから、これまでは泣き寝入りに終わっていたのでしょうが、ODRのようにハードルの低い紛争解決手段が提供されるようになると、より納得度の高い形で解決がなされます。これも大きなメリットですね。

角田:以前、ODRのシンポジウムを一橋大学で行った時に、eBayシステムを開発された方がおっしゃったことがとても印象的でした。その方は「クレーマーはグッドカスタマーです」と仰ったんですね。クレームを出す方ほど熱心なカスタマーでもあるので、適切な対応をすれば結果いいリピーターになってくれる傾向にあると。だから企業としてはODRに投資することで十分にペイするのだ、と。この主張は印象的でした。

山本:紛争解決システムを利用したことで有利な解決を得た人のみならず、不利な結果となった人であっても、ODRをまったく利用していない顧客に比べるとeBayに対するロイヤリティが高まった、という調査結果もあるそうです。eBayとしては顧客のロイヤリティが高まり、自分たちのサービスをより広く使ってもらえることにつながるわけですから、多額の投資も厭わないのでしょう。

日本が抱えるODR普及の課題

─日本でもODRへの関心は高まっているのでしょうか?

山本:残念ながら、導入を検討した時期はあったようですが、必ずしも積極的ではありません。その理由は明確にはわからないのですが、日本人の国民性として人と争うような状況で必ずしも声を上げないところがあるのも関係しているのかもしれません。ちなみにeBayも当初は、「自分たちは顧客同士をつなぐ立場であり、顧客間のトラブルには関与しない」というスタンスをとっていたようです。しかし、顧客側からかなりの量のクレームが届き、それならば自分たちが乗り出して紛争解決をサポートしたほうが良いのではないか、と方針を転換して現在のシステムの構築へとつながったようです。おそらく日本では、クライアント側からの要求やプレッシャーがそれほど大きくないのではないでしょうか。その「大人しさ」もODRの普及が促進されない要因のひとつなのではと思います。

─プロジェクトでは日英共同で研究が進められているとのことですが、このような日本と海外の差異は、ほかにもあるのではないでしょうか。

山本:イギリスには金融オンブズマンという金融関係の紛争を取り扱う準裁判所のような機関があるのですが、ここである実験をしたときにAIに読み込ませた判例データの数は10万件だったそうです。一方で、日本にもイギリスを模倣してつくった金融ADRという金融紛争解決手続き機関があるのですが、そこの判断の件数は年間わずか数百件程度です。つまり、10万件集めるまでに途方もない年月がかかってしまう、それが日本の現状です。先ほど、日本人は必ずしも紛争を好まないとお話ししましたが、やはりイギリスと日本では表に出る紛争の桁が全く違うんですね。これがビッグデータの観点からすると日本の非常に大きな課題です。

角田:同じことを日本でやろうとしても、そもそもADRの結果が公表されていないというのも大きな課題かと思います。ただ、イギリスの研究者によれば、ひとつのトピックについて200~300件程度の判例データを集めることさえできれば、アルゴリズムの開発は可能なのだそうです。このアドバイスに基づけば、適切なトピックスさえ決めてしまえば、日本の少ない判例データでも開発は可能ということになります。現在、私たちもトピックスを検討しているところです。

山本:もう一点補足しますと、いますべての裁判記録をデータ化しているとお話ししましたが、それに先行して判決だけをオープンデータ化するプロジェクトも別途進んでおります。これは先ほどのODRの話とも関連しておりまして、政府としてもODRを推進していくという方針のもと、先行して判決をビッグデータにしていこうという政策をとっています。そこでの大きな問題はプライバシーの問題です。判決文には実名が書かれているわけですが、それをすべてみんなが閲覧できるオープンデータ化してよいのだろうかという議論があります。やはりそれは匿名にしないと、特に日本人は自分が裁判を起こしてその判決が多くの人の目に留まるということになれば、訴えを起こすこと自体を躊躇してしまうという懸念もあります。そこで匿名化の作業がオープンデータ化の前段階で必要になるのですが、実はこの匿名化作業もAIでやろうとしているんです。判決すべてをオープンデータ化しようとすると、年間20万件ある判決文をすべて手で塗りつぶしていくことになり、これは不可能ですからね。

─AIによる匿名化はうまくいきそうなのでしょうか。

山本:実証実験の結果、90%を超えるかなりの精度で匿名化できることがわかっています。担当の方に言わせると、日本の判決文はわかりにくいと言われるけれども、日本語の文章としては非常に論理的にできているので、AIで匿名化をする際には比較的対応しやすいと。だからAIも慣れてくるとかなりの高い水準で匿名化していけるわけです。それができていけば、少なくとも判決についてはビッグデータを積み重ねていくことはできるかと思います。角田さんが先ほどおっしゃった量の問題というのも、今後は解消していくことが可能かもしれません。

photo
山本和彦

個人情報はどこまで保護すべきか?

─個人情報保護との兼ね合いについて、もう少し詳しくお聞かせください。仮に個人名を黒塗りにしたとしても、オープンソース化されていれば、珍しい判例などは個人が特定できてしまう懸念もあるかと思います。著名人などは、特にそのリスクが大きいのではないのでしょうか。

角田:プライバシーというのは国民の感度と深くかかわる法的概念なので、ほかの国でもできているから日本でもできるというわけでもないですし、自分のデータをどう管理するかというルール作りにおいても国際間で競争が起きている状況です。そのような状況のなかで日本ではどうするかということもかなり慎重にやらなければと法学者としても責任を感じています。

山本:インターネットでの付随情報が多くなればなるほど、どの部分を隠せばよいのかという判断が難しくなると思います。名前だけ隠しても、判決に書かれている様々な事実を見てインターネットに載っている情報と突き合わせれば誰の情報かが分かってしまいますから。さらに、AIで匿名化しても、さらにそれを破るAIもあるらしいという話もあります。そういうこともあるので、いたちごっこみたいな部分もあって、そこは非常に難しい問題で解はないというのが現状ですね。

角田:技術の進歩も早いですからね。オープンソース・インベスティゲーションという技術もあるようで、オープンソースを使って国家機密ですら暴けますよね。それを絶対に防ぐのは難しいのではと思います。

─こうした個人情報に対する考え方ひとつとっても日本とイギリスやそのほかの国ではまったく違うということですね。

山本:仰るとおり、裁判という営みは相当程度ドメスティックな部分があって、土着のいろいろな側面に左右される部分があるんですね。一方で紛争そのものはグローバル化しており、各国間の紛争解決の調和の機運もあるわけです。その調和も非常に難しいところはあるかと思います。

AIを活用する人間が負うべき責任

─日本でのアルゴリズム解析などはまだそれほど進んでいないとのことでしたが、今後の開発をすすめるうえで、考えられる課題はありますか?

山本:まだ十分な議論ができているわけではないのですが、AIは結局過去のビッグデータを機械処理してアルゴリズムをつくって予測をしていくものなので、そもそも基本的なデータに偏りがあるとアルゴリズムにも偏りが出てしまいます。その偏りが出たときも、AIは原因を説明してくれず、結果だけを提示してくるので、偏りがそのままになってしまう恐れがあります。紛争解決の局面においては、これは特に懸念されるところかと思います。先ほどアメリカの再犯率のお話しをしましたが、たとえばAIにそのままデータを入れてしまうと、白人よりも黒人のほうが再犯率は高いという結果が出る可能性はあるわけです。しかし、そのデータの背景には、白人に比べて黒人の収入が低い傾向にあり、さらに低収入の人ほど再犯率が高いのだという傾向があるのかもしれません。ところが、こうしたデータの関連性が検討されないまま「黒人は白人よりも再犯率が高い」と単純化した結論だけが導き出され、バイアスを増長させてしまう。これは大きな問題です。

─AIは答えを出すのはうまいけれど、その答えが正解である理由やロジックの筋道を説明することはできないということですね。

山本:はい。裁判では、結論の正しさだけでなく、その結論に至るまでの理由の説明が重要になります。なぜそのような結論になるのか、という理由がきちんと説明され、人々が納得することで裁判の正当性が保たれるわけですから。少なくとも現段階のAIはこの原理原則とはある意味で正反対の性質をもっているとも言えます。ですので、裁判官がAIを使うときには慎重になる必要があるわけで、AIのデータを参考にするというのはいいことである可能性はあるわけですが、出てきた結果をきちんと説明する責任は裁判官が負うことになるだろうと思います。

角田:司法に対して社会全体がもつ信頼感を確保する必要がありますよね。先ほどご紹介しましたディーキン先生の研究チームは、機械学習という技術を用いたAIでどのような処理がなされているのかを可視化して議論しようという課題に挑んでいます。AIのアカウンタビリティという点ではブラックボックス問題を避けて通ることはできないわけですが、ディーキン先生のチームではオントロジーという技術を用いて、どうしてそのような結論が導き出されたかというのを説明可能にする形でアルゴリズムを開発されています。これは司法へのAI導入をめぐる議論の精度を一段階あげると思われ、楽しみにしています。

─機械学習かオントロジーか。これはAIを社会に実装していくうえであらゆる分野に共通する重要な問題ですね。しかし今後、裁判官がAIを活用するのと、弁護士が活用するのとではまた話が違うように思います。裁判官は正当な判決を下すためにAIを活用するわけですが、弁護士は依頼人を勝たせるためにそれを活用することになるわけですよね。

山本:仰るとおりです。今後はそれぞれの立場から求められる形でAIを提供する企業が出てくるのではと思います。

角田:紛争解決に関与する者のひとりとしての素朴な感想ですが、「どうしてそのロジックで争ってしまっているんだ?」という事例もあるような気もしています。別のロジックで議論したほうがよりトラブルに即した解決になりそうなのに......というわけです。弁護士、あるいは場合によっては紛争当事者本人もAIを活用することでそういった生産性という面からみて不思議な紛争を減らすことができるだろうと思いますし、裁判官であれば、「別のロジックで立て直したほうがよいのでは」という適切な提案をするための判断材料としてAIを活用できるのではと思います。

─最後になりますが、このプロジェクトを推進していく中で、今後社会にはどのような変化が起きていくと思われますか。

角田:AIは非常に進化が早くて、人間と違って過労死しません。しかも働くほど性能が向上していくわけですから、昨今の働き方改革とは正反対です。今後の経済発展のためにも市民生活の質的向上のためにも使わない手はないわけですが、ではどうやって使っていけばいいのか、という課題はついて回ります。思考パターンが人間とはまったく異なる、ともすると厄介な隣人かもしれません。しかし、ドラえもんのようにうまく付き合っていくためには、いかに法制度を整えていくのかというのが重要です。AIガバナンスという検討会をこの半年間行い、いろいろな分野の方々と議論をしてきて実感しているのは、従来のガバナンスのありかたとはかなり風景が変わるのではということです。ひとつ先行事例としては、金融規制があると思います。金融もこれまでいくつもの危機を経てその風景を変えてきています。金融において起きる損害はあくまで財産的な損害であって、AIが及ぼすインパクトに比べれば、ある意味限られているかもしれません。そこで行われてきた紆余曲折の振れ幅はAIガバナンスほどではないかもしれませんが、その経験は参考にしていけるのではないかと考えています。
もうひとつ、大きな問題だと思うのは、裁判所が技術の発展についていけるかということです。ライブドア事件が起きた際に、検察は書類としての証拠がない状況でいかにしてそれを裁判所に持ち込むか、という問題に直面したわけですが、その時に復元されたデジタルデータを裁判所が証拠として採用したことは大きな転機となりました。この事件以降、デジタル・フォレンジック*2 は産業としても確立し、金融当局にもチームができることになりました。やはり裁判所が採用するかしないかというのはひとつの大きなポイントかなと思います。

山本:よく「AIが発展していくとなくなる職業は何か」という議論がなされていますが、裁判官や弁護士の職業自体がなくなるとは思われていないですよね。しかし、弁護士事務所で弁護士を補助するパラリーガルという人たちが担う情報収集などの仕事はAIに代替されていくのではと言われています。いまも、判例を収集するのがうまい弁護士と下手な弁護士がいるんですね。検索の言葉をうまく設定できる弁護士は的確な判例を見つけてきていい書面が書けるのですが、そうでない弁護士は的外れな判例ばかり引っ張ってきてしまう。しかし、AIが発展してくると検索用語ではなく、「こういう事件です」と入力しさえすればあとはAIのほうで判断して最も適切な判例を提案してくれるわけですから、これから先の弁護士の力量の差は情報収集能力ではなくなってくるのではないかなとは思っています。たとえば、AIにはないコミュニケーション能力や問題発見能力といった創造的な能力は人間に求められる力として、まだ当分は残ると思います。私が今担当している法曹養成の教育等もかなり視点が違ってくることになるかもしれません。

――――
*1 2005年12月8日に、東証マザーズ市場に新規上場したジェイコムの株式において、みずほ証券が誤注文した事件。みずほ証券の担当者が「61万円1株売り」とすべき注文を「1円61万株売り」と誤ってコンピュータに入力し、その直後に誤発注に気付いて取消注文を出したがシステムにバグがあったため取消しができず、結局、みずほ証券が大量の反対注文で吸収せざるを得なくなり、400億円超の損失を被った事件。

*2 デジタルデバイスに記録された情報の回収と分析調査などを行うこと。

※本記事は、「人と情報のエコシステム(HITE)」領域冊子vol.05に収録されています。
そのほかの記事、そのほかの号については以下をご確認ください。
HITE領域冊子