研究への情熱映像と取材記事

SHARE

  • Facebook
  • Twitter
  • Google

インフォデミックを克服するソーシャル情報基盤技術

  • 人工知能
  • セキュリティ・プライバシー

越前 功

(国立情報学研究所 情報社会相関研究系 教授)

スマホやSNSの普及で情報資源が大量に蓄積され、不特定多数の人がそれを共有するようになっている。一方で、コンテンツの加工や拡散が容易になり、画像、映像、音声、文書などのフェイクメディアが広がってきた。新型コロナウイルス感染症の流行(パンデミック)についても、フェイクニュースや不確かな情報がSNSに投稿され、拡散した。こうした「インフォデミック」は、社会に深刻な不安や混乱をもたらしかねない。これを防いで健全なサイバー社会を育てるための技術がいま強く求められている。その取り組みの最前線にいるのが、越前さんたちの研究チームだ。

増え続けるフェイクメディアに立ち向かうプログラムを開発する

学生時代に応用物理を専攻した越前さんは、就職した企業研究所ではじめてサイバーセキュリティーの専門家と出会った。その勧めで取り組んだのがDVDの電子透かし技術だった。DVDが不正にコピーされると、製造元やコンテンツ製作者の権利が著しく侵害される。越前さんはデータをわずかに変更した透かしを埋め込む技術の開発に成功し、それが世界に先駆けて規格化された。透かしが入っているので、コピーされたことがわかる仕組みだ。

だが、不正コピーを検出できる技術を開発しても不正行為そのものを食い止めることはできない。「もっと能動的に不正を防ぐ技術はできないものか」、そう考えて2007年に国立情報研究所に移り、研究を続けることにした。

その後の情報技術の著しい進歩は、社会の利便性を高めた反面、不正や偽造の状況をいっそう複雑にしている。2010年代後半以降、高機能カメラ付きスマホやSNSの爆発的な普及によって大量の情報が蓄積され、誰でもそこにアクセスできるようになった。同時に、文書や音声、画像や映像を細工してフェイクメディアを拡散させることが容易になってきた。人工知能(AI)技術を駆使して生み出す「ディープフェイク」は、偽物とわからないレベルにまで巧妙化し、フェイクを識別するアルゴリズムを騙して顔認証システムを突破する技術まで生まれている。

最近は、映像の登場人物の顔を別人と入れ替える、実在しない人物の顔を登場させる、口元や表情に細工を加えて実際には話していないことを話しているかのように見せる、などのフェイク映像を拡散させる迷惑行為や犯罪が後を絶たない。

海外では、企業トップのフェイク映像をオンライン会議に登場させた事例、社長のフェイク音声で多額の現金の振り込みを指示し、実行させる犯罪も発生した。本物にそっくりだが本物ではない「メディアクローン型」と呼ばれるフェイクメディアだ。日本でも逮捕者が出ている。思いつきのいたずらから目的をもった偽造まで、動機も結果の重大性もさまざまだが、ウェブ上のフェイクメディアの件数は半年で倍増する勢いだ。

越前さんたちは、CRESTのプロジェクトで顔のフェイク映像に対抗する技術の開発に取り組んできた。誕生したのが、チェックしたい顔映像を判定用サーバにアップロードすると、顔映像がフェイクかどうかを自動的に判定するプログラム「SYNTHETIQ VISION」だ。

フェイク顔映像の判定技術は各方面で必要とされているが、越前さんたちは、2018年にAIを用いてフェイク顔映像を自動判定する手法を世界で初めて提案した。真偽判定だけでなく、どんなモデルを使ったフェイク顔映像か、どの部分が変えられているかを分析することや、改ざんされたフェイク顔映像から改ざん前の顔映像を復元する「無毒化」も重要である。これらが実用化されて使われるようになれば、オンライン顔認証などのリスク軽減に役立つに違いない。

一方、不特定多数を対象として、価値観、好み、意見、行動を誘導することを目的とする「プロパガンダ型」フェイクメディアも登場している。フェイクメディア対策は、個人のプライバシーや権利の保護だけでなく、偽情報の拡散による世論操作や社会への脅威を警戒すべき局面を迎えている。新たなサイバー技術が開発された場合、それによってどんな影響があるか、悪意で使われた場合にどんな被害が生じるかを想像し、常に先手を打ってリスクを回避する必要がある。

だが、偽造と対策はイタチごっこを繰り返す。多種多様なフェイクメディア生成手法が次々に現れるなかで、開発したSYNTHETIQ VISIONも決して万能とは言えない。フェイクメディア判定を行う機械学習モデルは、既知のモデルで生成されたフェイクメディアに対しては判定精度が高いが、新たな概念に基づいたモデルで生成したフェイクメディアについては判定精度が低くなる。モデルが学習するデータの定期的な更新が欠かせないが、全てのフェイクメディアに対して精度を上げることはできないジレンマがある。それでも、「そうしたことはセキュリティー研究の宿命」と、越前さんはめげていない。

「社会からの期待が大きく、大変やりがいがありますが、研究と社会実装のバランスが難しいところです」と、越前さんはこの研究独特の苦労を明かす。論文を書いてデータセットを公表する場合も、悪用される恐れがないかを慎重に見極める必要がある。

CRESTの共同研究チーム員の専門分野は、情報技術だけでなく、計算社会科学、国際関係論、自然言語処理、倫理・法律・社会問題、社会心理学、計算社会生態学など、多方面にわたっている。技術と倫理のバランスが強く求められ、社会への影響の周到な分析が欠かせないからこその広がりである。

さらに、この分野の研究者として欠かせないと越前さんが考えるもう一つ活動が、人々への啓発だ。「フェイクへの理解とリスク認識がみんなの常識になれば、インフォデミックを防ぐ重要な壁になる」。越前さんはこう考えて一般向け講演や取材に積極的に取り組んでいる。

*取材した研究者の所属・役職の表記は取材当時のものです。

研究者インタビュー

インタビュー動画

SHARE

  • Facebook
  • Twitter
  • Google

研究について

この研究は、CREST研究領域「信頼されるAIシステムを支える基盤技術(相澤彰子 研究総括)」の一環として進められています。また、CREST制度の詳細はこちらをご参照ください。

  • CREST
  • 戦略的創造研究推進事業 研究提案募集