JSTnews

JSTnews最新号

JSTnewsは、国立研究開発法人科学技術振興機構(略称JST)の広報誌です。

2020年2月号のPDFを見る

2020年2月号

特集
人間と機械が協働する時代へ
調和を創る知的情報処理システム

PDF一括ダウンロード(PDF:9 MB)

P.03特集― 人間と機械が協働する時代へ 調和を創る知的情報処理システム

特集の写真

人間と機械が調和した協働関係を追究し、個人や集団の知的活動の向上を目指すのが、CREST「人間と調和した創造的協働を実現する知的情報処理システムの構築(以下、「知的情報処理」)」研究領域だ。技術が社会にもたらす影響を考慮しながら、人間と機械の協働による新たな知の創出に挑む。2月号特集は、萩田紀博研究総括のインタビューとともに、 第1期に採択された早稲田大学の渡邊克巳教授と慶應義塾大学の山口高平教授の研究成果、高校生を対象に開催されたシンポジウム「人とAIの未来スクール2019」を紹介する。

P.03-04をPDFで読む(PDF:4 MB)

P.05特集― 人と人との相互作用を解明 雰囲気の力で能力を向上

特集の写真

環境やその場の雰囲気は、人の心や行動に働きかけ影響を与えている。そういった無意識の影響は無自覚な動作や自律神経系の反応として表出すると考え、これを科学的に解析しようと挑戦を続けているのが早稲田大学理工学術院の渡邊克巳教授だ。人と人との相互作用の効果を計測技術、生理学、認知科学といった異分野の連携により明らかにし、スポーツなどのパフォーマンスの向上や人に近い知的情報処理システムの開発に生かそうとしている。

P.05-07をPDFで読む(PDF:3 MB)

P.08特集― 誰でも使える人工知能で働くロボットをつくる

特集の写真

専門知識がなくても簡単に人工知能(AI)プログラムを作成し、働くロボットを自在に操るツールを開発したのが、慶應義塾大学理工学部の山口高平教授だ。日本語で業務プロセスを記述すると、自動的にプログラムが生成されて、ロボットが動き始める。人間とロボットの調和関係や他の仕事現場への応用可能性を探るため、喫茶店での接客や小学校の授業支援の実証実験を積み重ねてきた。目指すのは、誰もがAIを使いこなせる未来社会だ。

P.08-10をPDFで読む(PDF:3 MB)

P.11特集― 公開シンポジウム「人とAIの未来スクール2019」開催 AIを巡る高校生との真剣対話

特集の写真

社会を変える可能性を持つAI。だからこそ、次世代を担う若者に最新の成果を伝え、技術の在り方を共に考えたい。そんな研究者の思いから、公開シンポジウム「人とAIの未来スクール2019」が開催された。

P.11をPDFで読む(PDF:2 MB)

P.12世界を変える STORY― 労働力の偏在を分身ロボットで解決

世界を変える STORY
Vol.5 出資型新事業創出支援プログラムSUCCESS TELEXISTENCE

テレイグジスタンス(遠隔存在)とは、分身ロボットを遠隔操作して、離れた場所で現実社会との相互作用を可能にする技術。この技術をまずは小売・物流業界に応用し、人手不足の解消に挑むのがTELEXISTENCE(東京都港区)だ。富岡仁最高経営責任者(CEO)は、労働場所の物理的制約を取り払い、ロボットとインターネットを通じて人がどこからでも働ける仕組みを作ろうとしている。

P.12-13をPDFで読む(PDF:2 MB)

P.14NEWS & TOPICS― JSTの最近のニュースから

NEWS & TOPICSの写真
開催報告
社会課題の解決に向けた取り組みを議論 ムーンショット国際シンポジウムを開催
話題
「STI for SDGs」アワードを受賞した取り組みを発信 SDGs達成への貢献を目指す
研究成果
鉄細菌が集団で伸長していく仕組みを解明 分泌されるナノ繊維が制御し環境に適応
研究成果
新物質の合成条件を人工知能が予測するシステムを開発 24万通りの実験をせずとも「おすすめ」提示

P.14-15をPDFで読む(PDF:0.91 MB)

P.16さきがける科学人― コンクリート研究で日本と世界をつなぐ架け橋に

さきがける科学人の写真
地球規模課題対応国際科学技術協力プログラム(SATREPS)
ミャンマーの災害対応力強化システムと産学官連携プラットフォームの構築

東京大学 生産技術研究所 准教授

長井 宏平

P.16をPDFで読む(PDF:0.77 MB)

ロゴ:未来をひらく科学技術 JST news

編集発行/ 国立研究開発法人科学技術振興機構 総務部広報課

住所/ 〒102-8666 東京都千代田区四番町5-3 サイエンスプラザ

電話/ 03-5214-8404 FAX/ 03-5214-8432

ISSN 2433-7927