2021.08.13

インタビュー「人の感情をゆさぶるAI技術の法的課題とは」

Category

いま都市のあらゆるところで、顔認証や渋滞情報などを予測するAI技術が使われはじめています。その中には、人々の感情や行動にも大きな影響を及ぼすという懸念も論じられています。今後ますます進むスマートシティ施策において、プライバシーなどの法的、倫理的課題をどう考えるべきなのでしょうか。
HITEプロジェクト「都市における感情認識AI~日英発倫理的生活設計に関する異文化比較研究」を進める宮下紘氏に話を聞きました。

宮下紘
中央大学総合政策学部教授。
HITE「都市における感情認識AI~日英発倫理的生活設計に関する異文化比較研究」
専門は憲法、情報法。内閣府国民生活局個人情報保護推進室政策企画専門職などを経て現職。
主著『プライバシーという権利』(岩波新書、2021)。

文・野口理恵

AIは人の感情を操作する

─まずはHITE「都市における感情認識AI」の概要を教えてください。

宮下紘(以下、宮下):技術が人の感情をどのように認識し、自動処理していくのか、日常生活にそれがどういう影響をもたらしているのかをイギリスとの共同研究で進めています。日本でも自動運転や顔認証カメラが広まっていますし、中国では交通渋滞や迂回路へ誘導したりする技術などが使われています。私たちのプロジェクトでは、こうしたスマートシティのなかで起こりうる問題を、文化人類学、社会学、法律、技術などの視点から探求しています。私は法政策の観点から日本のスーパーシティ構想と、イギリスのスマートシティ構想との比較をする役割を担っています。他にも似た研究はありますが、このプロジェクトで顕著なのは「感情」に着目している点ですね。

─具体的にどのようなことが議論されているのでしょうか。

宮下:日本ではあまり議論されていないのですが、イギリスのチームが常に念頭に置いているのは2016年の「ケンブリッジ・アナリティカ事件」です。これは膨大なFacebook上の個人プロフィールを取得し、アメリカ大統領選挙の際にはドナルド・トランプ、イギリスではブレグジットを支持するような情報を個別の有権者のタイムラインに流すという事件でした。SNSの「いいね」は人の心理状態や感情を表しますが、その履歴を監視することで、この人がどの政党を支持しうるかも85%の確率で予測できました。さらには「AIがブレグジットをもたらした」と言われましたが、ピンポイントに広告をターゲットで送ることで、投票行動を操作することすらできてしまう。人の心理が無意識に動いていることに付け込んだ事件です。

─AI技術が人の感情につけ込む恐れがあることを示した事件でしたね。

宮下:そうですね。この事件が、AI技術を使う上で倫理的、法的な問題を考える必要があるという出発点となりました。たとえば顔認証でいうと、とある日本の大学のオンライン面接ではAIデジタル面接ソフト「HireVue」という、目の動きや口の動き、声のトーンを分析するAI技術を用いて、1500か所以上の顔のパーツから、その人が本当のことを言っているかを認識しています。また国内のタクシーでも乗客の性別や年齢を顔から分析して、ターゲット似合ったタブレット広告を出していました。こうした人の心理状態にフォーカスするAI技術は、日常生活における倫理的、法的な課題をもたらしました

─法政策の観点では、どのような施策を進めていく方向が議論されているのでしょうか。

宮下:2020年2月にEUでAIに関するホワイトペーパー(報告書)が出たので、議論はまだ始まったばかりですが、感情を含めたAI技術の「規律」をどう考えるかが、まさにいまテーブルに乗せられたという段階です。EUのウルズラ・フォン・デア・ライエン欧州委員会委員長は、ソフトローではなくてハードローというかたちでの法律をつくることを表明しています。例えばイギリスでは、警察が捜査のために防犯カメラに顔認証を導入するのはプライバシー侵害であり、違法だという判決が2020年8月に出たばかりです。こうした法で規制するハードローという対応ができているのが欧州の動きです。日本はソフトローの動きで「様子見」という段階です。

─日本とイギリスでは他にどのような違いがありますか。

宮下:現状で顕著な違いはありませんが、基本的な姿勢に異なるところがあるのではないかと思っています。日本では2019年3月に内閣府が「人間中心のAI社会原則」を示しました。これは文字通り「人間を中心に考える」ということで、この言葉はEUのホワイトペーパーにも使われています。しかしこの「人間中心」という言葉の意味合いを深く考えると、欧州的な発想では人間の尊厳やヒューマニティなど哲学的なテーマが語られます。一方、日本では機械に依存しすぎないとか、ゲーム中毒にならない、といった発想がきかれます。欧州と日本が同じ言葉を使っていても根っこにある哲学的な価値観が異なるために、具体的な運用面でズレが生じていく可能性はあると思いますね。

EUと日本のプライバシー意識

─イギリスで顔認証がプライバシー侵害とみなされた事例があったとのことですが、日本でプライバシーに関する議論はどれくらい行われているのでしょうか。

宮下:2020年6月「個人情報保護法」が改正され、16条の2に「不適正な利用の禁止」が追加されました。この背景には2019年3月に起きた「破産者マップ事件」があります。この事件は、破産者の情報がインターネットの官報に掲載されたとき、何者かがその情報をグーグルマップに落とし込み、誰が破産者なのか、どこにいるのかがわかってしまうというものでした。こうした事件を防止するという目的で「個人情報保護法」の法改正が行われた経緯があります。逆を言えば、日本は目に見える形でのファクトがないと法改正はなかなか進まないのです。

─そうなると、事件が起きるまで何もしないという状態になってしまいますね。

宮下:ヨーロッパ型の予防原則の発想だとまず先回りをして、「こういう技術を使うと、こうしたリスクが伴う」といった抽象的な形で規制の網をかけて行く。一方、アメリカ型は事件や害悪が起きてから考えるというかなり楽観的なアプローチです。日本はその中間くらいで、データ利用の慎重論がある一方で、ビジネスとしても進めたいので、強固に規制をかけすぎることまではしないといったところでしょうか。

─EUでは、個人情報データの保護という基本的人権の確保を目的とした「EU一般データ保護規則(GDPR)」が2018年5月から適用されました。GDPRについて先生の見解をお聞かせいただけますか?

宮下:GDPRには、ナチスがポーランド語を話すユダヤ系の家族に対しパンチカードを用いてプロファイリングして、アウシュビッツに連行したという人権問題が根っこにあります。昨今のAIの問題も「人間そのものに対する脅威」であるという人権の発想から、強力な規制をつくるべきとEUは考えているのだと思います。EUの発想には「データは保護する」といことが前提にあり、データが漏洩したり、売買の対象になったりするところに、人はデータを預けないですよね。かたや日本の場合は、データを使いたいし、守りたいしという板挟みの状況で停滞しています。

─GDPRの思想は日本にも引き継ぐべきか、日本の法制度はどういう立ち位置なのでしょうか。

宮下:人間が主でコンピューターが従という主従関係で、人間はデータの道具にはならない。このように人間を中心に据えるという点において、日本とEUのプライバシー観は一定の共通点があると思います。

─プライバシー理念、データ理念という視点で、日本がいますべきことはどんなことでしょうか。

宮下:いま日本に足りないものは、AI技術のもたらすプロファイリング規制です。先の「個人情報保護法」の改正は、必ずしもAI技術を念頭に置くものではないため、AIが個々人のデータを分析し、操作しうることができるという点から法規制を考えることが今後の日本で必要になると思います。これは人権問題、ナチスのような状態まで発展しうる問題で、決して対岸の火事ではなく、「ケンブリッジ・アナリティカ事件」でも約10万人の日本人が被害に遭っています。国の規制のみならず、今後は市民一人ひとりのプライバシーの意識を高めていくことも重要だと思いますね。

─日本人はプライバシーに関して無自覚な人も多い印象があります。

宮下:とはいえ、日本人のプライバシー意識はある意味とても強いとも言えます。以前、大阪駅構内で顔認証の実証実験を行おうとしたところ、大阪市民からの大反発がありました。COVID-19の追跡にしても、アプリから個人データが抜かれることには抵抗感が強い。しかし実際、具体的にどの部分に反発したのかは不明瞭で、漠然と「プライバシーが守られない」というイメージに反発をしているように思います。つまり、新たな技術を前にして、果たしてプライバシーとは何を守るべきことなのかという概念が明確になっていないのです。

─マイナンバー制度に対する反発もまさに似た印象を受けますね。一方で中国のような国家型監視が進む国もありますが、スマートシティと関連付けるとどのような議論がありますか。

宮下:日本のスーパーシティ法は基本的に企業と自治体に委託するかたちで成立しています。各自治体が企業に委託しながら実証実験を行うので、国がひとつの巨大なデータベースセンターをつくって管理するような懸念はなさそうです。中国は国全体を単一システムで管理しようとする動きがあるので、監視の問題は今後も尽きないでしょうね。一方で他国を見ると、スマートシティ化の進むデンマークやスペインで調査をした際には、アプリをインストールしておくと、トラムに乗った履歴とともに付近のレストランがオススメされるような仕組みになっていました。ただ、まだどの国も実証実験の段階で、そこから生じる問題を探っている状況だと思いますね。

プライバシーをデザインする

─デンマーク、スペインは市民参加型の政策づくりが注目される国でもありますね。

宮下:デンマークやスペインは「シビルソサエティ」という理念の通りに、国家がシティをつくるのではなく、市民が社会をつくるという発想に基づいています。日本だと国家、自治体、企業がまちをつくるという視点が強いので、そうしたNGO団体もあまり存在しません。この課題を解決すべく、今回このプロジェクトではオンラインベースの民間シンクタンクを立ち上げようと試みています。欧州各地のNGO団体と協働して、市民の力でスマートシティを実現させる計画が出ています。

─そこでのNGO団体は具体的にどんな活動をしていくのでしょうか。

宮下:たとえばイギリスの「プライバシーインターナショナル」という団体は、市民の立場からより良いかたちでスマートシティを実現するにはどうすればいいのかを議論し、問題が発生すれば具体的にプライバシーに関する訴訟を起こして市民をサポートしています。似たような話は日本であまり聞かないですよね。

─問題が起きたとき、個別に弁護士などに相談するのではなく、こうしたプラットフォームに相談することで問題解決につながるということですね。

宮下:そうですね。「デジタル庁」という国の一大機関をつくることも大切ですが、「デジタルNGO」のような「デジタル専門のエキスパートが集う組織」をつくっていく発想だと思います。日英どちらでもベストプラクティスを紹介できるような組織を目指しています。

─今後、NGO設立を進めていくにあたり、想定されるステークホルダーにはどのような人々を想定されていますか。

宮下:スマートシティ実現のためには、民間の開発者、自治体関係者も入るといいのですが、距離が近すぎると利害関係できるので、健全な距離を保った第三者的な独立組織、つまり市民側からの専門家組織がほしいですね。たとえば、オーストリアの例ですが、高性能の防犯カメラを開発するにあたって、プライバシーを保護するためには、常にクリアな画像をカメラが撮る必要はなく、最初からグーグルストリートビューのように顔にぼかしが入るようにして、事故や事件が起きたときだけぼかしを外せばいいわけです。そうした企業の開発段階からも意見を交わせる場がスマートシティの構想には必要だと思っています。

─お互いがインセンティブを持ちあえるような競争関係をつくっていくイメージでしょうか。

宮下:その通りだと思います。現状のプライバシー保護の観点から問題があるから、ダメ出しをするだけではなくて、「プライバシーデザイン」という発想を設計段階からプライバシーを埋め込み、一緒に創り上げていく。今後、こうした視点のプラットホームがもっと増えれば、日本企業にとっても得るものがあると信じています。

※本インタビュー記事は、「人と情報のエコシステム(HITE)」領域の小冊子Vol.05に収録されています。小冊子の入手については以下をご確認ください。
「人と情報のエコシステム(HITE)」領域の小冊子Vol.05
「人と情報のエコシステム(HITE)」領域の小冊子Vol.04
「人と情報のエコシステム(HITE)」領域の小冊子Vol.03
「人と情報のエコシステム(HITE)」領域の小冊子Vol.02
「人と情報のエコシステム(HITE)」領域の小冊子Vol.01