ポイント
- 視覚情報だけから「崩しそう」「つぶしそう」と想像する力をAIが獲得
- 物体を「壊さないよう」人間らしい推論に基づく行動をAIが立案
- 店舗や工場、物流倉庫におけるロボットの作業、カメラによる事故予測などの応用に期待
産業技術総合研究所 インダストリアルCPS研究センター オートメーション研究チームの花井 亮 主任研究員、堂前 幸康 研究チーム長、Ixchel Ramirez 主任研究員、牧原 昂志 リサーチアシスタント、原田 研介 特定フェロー、人工知能研究センター 尾形 哲也 特定フェローは、視覚情報から物体間に働く力を想起するAI技術を開発しました。
人間は物体にかかるおおまかな力や物体の柔らかさなどを視覚のみから経験的に推論し作業することができます。例えば崩れやすそうなものや柔らかそうなものを見つけたら、崩したりつぶしたりしないように丁寧に扱わなければいけないと考えます。このように人間は経験に基づき視覚から異なる感覚を呼び起こすことで、多様な行動を計画することができます。
本研究では、このような人間らしい「視覚から異なる感覚を想起する能力」をAIが再現することに成功しました。物理シミュレーター上で物体間にかかる力を可視化した仮想的な経験データを構築し、この仮想的な経験から視覚と別の感覚(力)の関係をAIが学習することでこれを実現しました。
実験では、カメラ1台で未知の物体間に発生するおおまかな力分布をリアルタイムで可視化することに成功しました。また力分布を理解したロボットが周辺の物体の損傷が小さくなるように指定された対象物を持ち上げるなど、人間らしい推論に基づく行動ができることを確認しました。今後、ロボットによる丁寧な物体操作や、自動運転における事故予測などに役立つことが期待されます。
本研究開発成果は、2023年10月1日から5日まで開催のロボット分野の国際会議「IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS)2023」にて発表されます。
本研究開発は、科学技術振興機構(JST) ムーンショット型研究開発事業 研究開発プログラム:「2050年までに、AIとロボットの共進化により、自ら学習・行動し人と共生するロボットを実現」(2020~2025年度)による支援を受けた研究開発プロジェクト「一人に一台一生寄り添うスマートロボット(PM:菅野 重樹(早稲田大学)」の研究課題の1つとして取り組んでいます。
<プレスリリース資料>
- 本文 PDF(1.85MB)
<論文タイトル>
- “Forcemap: Learning to Predict Contact Force Distribution from Vision”
<お問い合わせ先>
-
<研究に関すること>
花井 亮(ハナイ リョウ)
産業技術総合研究所 インダストリアルCPS研究センター オートメーション研究グループ 主任研究員
〒135-0064東京都江東区青海2-4-7 産総研臨海副都心センター
Tel:029-861-2780
E-mail:ryo.hanaiaist.go.jp
-
<JST事業に関すること>
古賀 明嗣(コガ アキツグ)
科学技術振興機構 ムーンショット型研究開発事業部
〒102-0076 東京都千代田区五番町7 K’s五番町
Tel:03-5214-8419 Fax:03-5214-8427
E-mail:moonshot-infojst.go.jp
-
<報道担当>
産業技術総合研究所 ブランディング・広報部 報道室
E-mail:hodo-ml
aist.go.jp
科学技術振興機構 広報課
〒102-8666 東京都千代田区四番町5番地3
Tel:03-5214-8404 Fax:03-5214-8432
E-mail:jstkohojst.go.jp