成果概要

多様な環境に適応しインフラ構築を革新する協働AIロボット[3] 現場を俯瞰するセンサポッドシステム

2023年度までの進捗状況

1. 概要

「協働AIロボットシステムによる多様な環境に適応したインフラ構築の実現」のためには、時々刻々と変化する環境情報を正確に取得し、その情報に基づいて環境の評価や予測を行う必要があります。特に、土砂災害現場では土質情報が非常に重要です。このような状況下での遠隔からの土質情報取得技術や、時々刻々と変動する環境情報の収集技術、また、そこから将来の環境推移を予測する技術は、これまでに実現されていませんでした。
そこで本研究開発項目「現場を俯瞰するセンサポッドシステム」では、土質情報を含む環境情報や各建設ロボットの作業情報を取得するための据置型センサシステム「センサポッド」を環境内に設置し、情報収集を行うことを目指します(図1参照)。さらに、得られた情報を集約し、各建設ロボットやオペレータに提供するシステムを構築します。また、この情報を解析して河道閉塞環境や土砂崩れ環境における地盤変動の未来予測を行う「環境評価AI」も構築します。

図1 センサポッドによる環境情報ならびに建設ロボットの作業情報の取得イメージ
図1 センサポッドによる環境情報ならびに建設ロボットの作業情報の取得イメージ

2. これまでの主な成果

2023年度には、九州大学が開発した据置型センサシステム「センサポッド」を利用したCyber-Physicalシステムを開発し、九州大学フィールドでセンサポッドを用いた情報提示試験を実施しました。建設機械の作業環境内に設置するセンサポッドは、視覚センサやGNSS、LiDARを搭載しており、ここから電送される情報を用いて、環境情報や建設ロボットの状況(実画像ならびにCG画像)をVRゴーグルで確認できるようになりました(図2)。このシステムにより、オペレータは、立入禁止現場に立ち入らずとも、環境情報を取得することが可能となりました。

図2 センサポッドを用いたCyber-Physicalシステム
図2 センサポッドを用いたCyber-Physicalシステム

さらに、環境に設置した複数のLiDAR搭載センサポッドを使用して、複数の建設ロボットの位置をリアルタイムで推定する技術の開発を行い、この位置情報を用いた複数台建設機械の自動制御を実現しました。図3は、2台のLiDARを用いて5台の建設機械の位置をリアルタイムで取得している図です。このセンサポッドを用いた位置推定システムは、研究開発項目「複数台ロボットの動的協働システム」に適用し、6台の建設機械を用いた動的協働作業のデモンストレーションを実現しました。
この他にも、センサポッドに搭載するサーマルカメラを⽤いた非接触で広範囲の地盤状態推定(含水率推定)や、センサポッドに搭載した振動センサを用いてロボットの走行振動を計測することで地盤強度を推定する手法などの要素技術研究を行いました。

図3 センサポッドを用いた複数建設ロボットの位置推定
図3 センサポッドを用いた複数建設ロボットの位置推定

3. 今後の展開

本研究プロジェクトの2030年の目標は、複数台の小型ロボットを使用して、時々刻々と変化する状況下における災害応急復旧作業を実現することです。そのため、本プロジェクトでは2025年までに、防水かつ長時間稼働が可能なセンサポッドの研究開発を進め、河道閉塞災害環境に対応可能なロボットシステムのプロトタイプのインテグレーションを進めます。これにより、遠隔操縦が可能な建設ロボットを利用した、センサポッドの模擬災害環境への遠隔設置システムを開発する予定です。