第305回「人・AI 協働する時代に」
生成AI(人工知能)はAIエージェントへと発展しつつあり、2025年は「AIエージェント元年」といわれる。生成AIは人からの問いかけに沿って文章や画像を生成してくれるが、AIエージェントは人からの指示に従って仕事を代行してくれる。例えば、旅行先の希望を伝えると、旅程を作り、宿や交通経路の予約までしてくれる。
「マルチ」活用
AIエージェントは、1人の利用者と1対1の関係であれば、利用者の助手や秘書のような役割を果たす。さらに、そのような「シングルAIエージェント」としての利用にとどまらず、より先進的な活用が広がりつつある。例えば、取引相手のAIエージェントと価格交渉をしたり、同じ目的・環境の下で複数のAIエージェント間で役割を分担したりと、AIエージェント同士の交渉や協力を伴う「マルチAIエージェント」の活用が始まっている。
マルチAIエージェントによって、複雑な社会課題を模擬的に分析して、効果的な打ち手を見つけたり、さまざまな利害関係者が合意し得る条件を高速に探したりできるようになると期待される。
新たなリスク
その一方で、AIエージェントに関わるリスクが指摘されている。シングルAIエージェントでは、情報管理や業務代行手順をAIに委ねることに伴い、情報漏えい・プライバシー侵害や、指示や文脈の誤認による事故・暴走などの恐れが生じる。マルチAIエージェントになると、さらに複雑な問題が起こり得る。例えば複数のAIがそれぞれ勝手に物事を進めてしまうことで、「システミックリスク」と呼ばれる急速で連鎖的な事故・暴走が引き起こされたり、連鎖的・複合的な動作によってその原因や責任の究明が困難になったりといった恐れが生じる。
AIエージェントは、もはや道具にとどまらず、助手や秘書、あるいは仕事の依頼先・交渉相手にもなりつつある。そのため、AIの研究開発においては、AI単体での機能・性能を高める取り組みだけでなく、人とAIの協働のあり方(ヒューマン・AIチーミング)や、マルチAIエージェントのリスク対策・信頼形成などの重要性が高まっている。文部科学省は重点領域(25年度戦略目標)の一つとして「安全かつ快適な“人とAIの共生・協働社会”の実現」を掲げ、これを受けた研究開発プログラムも発足した。研究開発の進展を期待したい。

※本記事は 日刊工業新聞2025年9月19日号に掲載されたものです。
<執筆者>
福島 俊一 CRDSフェロー(システム・情報科学技術ユニット)
東京大学理学部物理学科卒、IT企業にて自然言語処理・情報検索の研究開発に従事後、16年から現職。工学博士。11-13年東大大学院情報理工学研究科客員教授、情報処理学会フェロー。
<日刊工業新聞 電子版>
科学技術の潮流(305)人・AIが協働する時代に(外部リンク)