[信頼されるAIシステム] 2021年度採択課題

鹿島 久嗣

人とAIの協働ヒューマンコンピュテーション基盤

研究代表者
鹿島 久嗣

京都大学
大学院情報学研究科
教授

主たる共同研究者
荒井 ひろみ 理化学研究所 革新知能統合研究センター ユニットリーダー
小山 聡 名古屋市立大学 データサイエンス学部 教授
森 純一郎 東京大学 大学院情報理工学系研究科 准教授
研究概要

人-AI系の設計において信頼して利用できるヒューマンコンピュテーションシステム設計論の確立を目指して(1) 人間参加型機械学習による人とAIの協働データ解析 (2) ヒューマンコンピュテーションの信頼性基準の定義・評価と信頼性の実現 (3) その社会受容のための倫理的課題解決 (4) ヒューマンコンピュテーションによる知的創造活動や能力開発の支援を行う。

高前田 伸也

D3-AI: 多様性と環境変化に寄り添う分散機械学習基盤の創出

研究代表者
高前田 伸也

東京大学
大学院情報理工学系研究科
准教授

主たる共同研究者
今泉 允聡 東京大学 大学院総合文化研究科 准教授
木谷 友哉 静岡大学 学術院 准教授
髙瀬 英希 東京大学 大学院情報理工学系研究科 准教授
吉岡 健太郎 慶應義塾大学 理工学部 専任講師
研究概要

利用者やデータの多様性を尊重し、時間的・空間的な性質の変動に適応できる、連合学習に基づく分散型・省エネルギーなAIシステムの基盤技術を創出します。プライバシー、公平性、変容適応性、省エネルギー性の4つの「信頼」の要件を備える分散AIシステムをD3-AIと呼び、機械学習理論、計算機アーキテクチャ、IoT基盤、データ利活用の異なる技術階層間で連携して、D3-AIの要素技術の開発と応用展開を進めます。

竹内 一郎

AI駆動仮説の静的・動的信頼性保証と医療への展開

研究代表者
竹内 一郎

名古屋大学
大学院工学研究科
教授

主たる共同研究者
川口 淳 佐賀大学 大学院医学系研究科 教授
佐久間 淳 東京工業大学 情報理工学院 教授
松井 茂之 名古屋大学 大学院医学系研究科 教授
三好 寛明 久留米大学 医学部 准教授
研究概要

本研究では、AI駆動の科学技術を健全に発展させるため、AI駆動仮説の信頼性を評価するための新しい理論、アルゴリズム、ソフトウェアを開発します。静的・動的環境におけるAI駆動仮説を研究し、その信頼性をどのように評価するかを理論と実践の両面から追求します。数理・計算的な枠組みに基づいてAI医療技術の信頼性評価プロトコルを開発し、AIによる悪性リンパ腫の病理診断システムの開発において有用性を実証します。

山田 誠二

納得感のある人間-AI協調意思決定を目指す信頼インタラクションデザインの基盤構築と社会浸透

研究代表者
山田 誠二

国立情報学研究所 コンテンツ科学研究系 教授

主たる共同研究者
小野 哲雄 北海道大学 大学院情報科学研究院 教授
熊﨑 博一 長崎大学 生命医科学域 教授
寺田 和憲 岐阜大学 工学部 教授
原 武史 岐阜大学 工学部 教授
研究概要

「信頼できるAI」の目的の一つに、様々な場面における人間とAIの協調意思決定の実現があります。本研究では、人間とAIが互いに相手を適切に信頼できる関係構築を目指し、人間の行動からAIに対する信頼レベルを判定して、人間自身による過信・不信の是正を促すことができる信頼較正AIを開発します。そして、その信頼較正AIを人間-AI協調画像診断、人間-AI協調検診に応用し、実験的評価の基に実稼働を目指します。

プログラム

  • CREST
  • さきがけ
  • ERATO
  • ACT-X
  • ALCA
  • CRONOS
  • AIPネットワークラボ
  • 終了事業アーカイブズ
  • ご意見・ご要望