- 情報・システム
公開ワークショップ「意思決定のための情報科学~情報氾濫・フェイク・分断に立ち向かうことは可能か~」
エグゼクティブサマリー
本報告書は、2019年7月25日に開催した公開ワークショップ「意思決定のための情報科学 ~情報氾濫・フェイク・分断に立ち向かうことは可能か~」の内容をまとめたものである。
わが国が描く社会像Society 5.0 は「人間中心の社会」であり、社会に広がる人工知能(AI)技術に関して「人間中心のAI 社会原則」を掲げている。AI 技術が進化し、さまざまなタスクの自動化が可能になりつつあるが、自動化するタスクの定義や結果の最終判断等、上位の意思決定に責任を持つのは人間である。しかし、そのように人間の主体的意思決定が求められる一方で、情報の氾濫、社会のボーダーレス化、フェイク情報の流通等によって、人間の主体的意思決定が難しくなり、悪意・扇動意図を持った情報操作によって社会の方向性が左右される危険性さえ生じている。このような状況において、上記懸念を回避し、人間の主体的意思決定を支援するための情報科学の重要性が増している。
この問題意識のもと、JST CRDS では、この技術分野における研究開発の状況・動向の調査や、有識者へのインタビュー、技術課題を俯瞰するためのワークショップ等を実施し、2018 年3 月にはこの問題に取り組む研究開発のための戦略プロポーザルも発行した。今回、さらに公開ワークショップの形で、より広く問題意識を共有し、技術のみで解決できるものではないという現実を踏まえつつも、情報科学技術によってどのようなアプローチが可能かを掘り下げることにした。
ワークショップでは、冒頭、CRDS から開催趣旨として、情報の氾濫、社会のボーダーレス化、フェイク情報の流通等によって、人間の主体的意思決定が難しくなり、社会の分断・混乱さえ引き起こされつつある等の問題意識を共有した。続く5 件の発表では、5 つの技術的アプローチが紹介された。
まず笹原和俊氏(名古屋大学)から計算社会科学によるアプローチとして、フェイクニュース問題を中心に、人間の認知特性やSNS(Social Networking Service)における拡散傾向の分析や、それを踏まえた対策の可能性が示された。次に山岸順一氏(国立情報学研究所)からメディア解析技術によるアプローチとして、フェイク動画やフェイク音声の検出技術の現状が示された。乾健太郎氏(東北大学)からは自然言語処理技術によるアプローチとして、肯定・否定の両面でネット上の意見を整理して見せる言論マップや、人間が行うファクトチェックを支援するシステムの事例等が紹介された。伊藤孝行氏(名古屋工業大学)からは集合知・エージェント技術によるアプローチとして、エージェントによる自動ファシリテーションを行う大規模意見集約システムD-Agree の技術と適用事例が紹介された。最後に森永聡氏(NEC)から機械学習・最適化技術によるアプローチとして、自動意思決定システム、および、そのようなシステム間の自動交渉技術への取り組みが示された。
最後に総合討論で、まずコメンテーターの立場で小林正啓氏(花水木法律事務所)から「法はなぜフェイクニュースを直接規制しないのか?」「フェイクニュースを研究する実益は?」「集団的意思決定支援技術の実益は?」等について、法律家の視点からの見解や問題提起が示された。これを踏まえた登壇者や参加者との討論では、課題の重要性や技術的対策の必要性が確認されるとともに、人間・社会の側の変化や受け止め方も含めて、多面的な取り組み・議論を進めていくことの必要性が再認識された。
※本文記載のURLは2020年2月時点のものです(特記ある場合を除く)。