JSTトッププレス一覧科学技術振興機構報 第551号資料2 > 研究領域:「知の創生と情報社会」
資料2

平成20年度 戦略的創造研究推進事業(CREST・さきがけ)
新規採択研究代表者・研究者および研究課題概要(第2期)


【さきがけ】
戦略目標:「多様で大規模な情報から『知識』を生産・活用するための基盤技術の創出」
研究領域:「知の創生と情報社会」
研究総括:中島 秀之(公立はこだて未来大学 学長)

【3年型】
氏名 所属機関 役職 研究課題名 研究課題概要
猪口 明博 大阪大学産業科学研究所 助教 大規模グラフ系列からの知識体系化と理解支援手法の開発  近年の情報化社会において、蓄積された複雑で大規模なデータから有用な知識を獲得することは重要な課題です。WWWのリンク構造、人間関係、生態制御ネットワークなどは時間の経過とともに変化する複雑で大規模なネットワークですが、構造の変化に着目した研究は、現時点で十分になされていません。本研究では、変化するネットワークをグラフ系列で表現し、そこから特徴的パターンを探索・発見する分析技術の開発を目指します。
大野 和則 東北大学大学院情報科学研究科 講師 ロボットの視覚・触覚を用いた環境情報獲得手法の開発  実世界に存在する未知の情報や変化する情報をロボットが自ら集め、地図を構築することを目指します。本研究では、その基盤技術となる実世界の物体情報を視覚と触覚を用いて自ら集める移動ロボットの知能を開発します。視覚情報とは対象の形状・色・動きに相当し、触覚情報は対象とロボットの接触位置と接触力に相当します。視覚情報に基づき"仮説を立て"、触覚情報により"仮説の確認"を行い、未知情報を獲得します。
岸本 章宏 公立はこだて未来大学システム情報科学部 助教 大規模並列化によるハイパフォーマンス人工知能技術  人工知能技術において代表的な手法である探索アルゴリズムは、大規模な空間を探索し、有益な情報を求めるための基盤技術です。本研究では、大多数の計算機を利用した並列計算によって、探索アルゴリズムの超高速化を行い、現状の計算機で取り扱えるデータよりも、はるかに大規模なものを取り扱うことを可能にします。その一例として、ゲームとプランニングを研究題材として取り扱い、これらの題材で、高性能なシステムを開発します。
島野 美保子 東京大学生産技術研究所 特任研究員 大規模画像データの潜在情報抽出に基づく画像生成  画像を手軽に扱える現在、コンピュータビジョンは2次元画像と実世界とをつなぐ重要な分野です。本研究では、web上に存在する大量の画像のような、自由な条件下で撮影された大規模画像データを用い、対象の情報を抽出する技術の確立を目指します。物理モデルベースと事例ベースを融合するというコンセプトによって、大規模画像データの潜在的な情報を有効活用し、1枚の画像のみからでは獲得できなかった反射モデルの構築、画像生成や画質改善を実現します。
寺沢 憲吾 北海道大学大学院情報科学研究科 博士研究員 擬似コード変換と統計解析による文書画像からの知識抽出  手書き文字や保存状態の悪い文書など、従来の技術では「取り扱いにくい」ものであった文書画像データを、画像特徴量に基づく擬似コード変換技術を用いて「取り扱いやすい」データに変換します。これにより、近年加速度的に流通量を増している文書画像データベースを対象として、ウェブ検索で一般に用いられているような全文検索が可能となるとともに、さらに進んだ統計解析による知識の抽出・知識の創出を目指します。
Nigel Collier 情報・システム研究機構国立情報学研究所 准教授 健康被害を監視するための多言語ウェブサーベイランスシステム  感染症の拡大を阻止するには、公衆衛生の専門家や政府が多くのソースから信頼できる情報をタイムリーに得る手段が必要です。本研究では、健康被害の監視対象範囲を広げると共に、アジア太平洋地域の諸言語で、発生例の深刻度の自動的な判断や、複数の情報の組合せによる状況の把握などの課題を解決することを目指します。
福田 健介 情報・システム研究機構国立情報学研究所 准教授 時空間解析に基づくインターネット異常トラフィックの検出とそのデータベース化  本研究では、インターネット利用者の安全を脅かす異常トラフィック(ワーム、ウィルスなど)のマクロな時間・空間変動を統計的に理解することを目指します。従来の時系列解析とは異なる二次元画像解析に基づく異常検出アルゴリズムを確立するとともに、2000-2010年に渡るトラフィックデータを用いて異常トラフィックの統計的特性を明らかにします。
星野 崇宏 名古屋大学大学院経済学研究科 准教授 マルチソースデータ高度利用のための統計的データ融合  政策意思決定やマーケティングにおいて正確な予測や推論を行うためには、全調査対象に対して各変数が測定されている「シングルソースデータ」を得ることが必要ですが、研究目的やコストを考慮すると多くの困難が予想されます。本研究では、調査対象の背景情報を利用することで、変数によって調査対象者が異なるデータの集合である「マルチソースデータ」からシングルソースデータをシミュレートし補完する統計的なデータ融合手法の開発を目指します。
松尾 豊 東京大学大学院工学系研究科 准教授 ネットワーク理論と機械学習を用いたウェブ情報の構造化・知識化  本研究では、ネットワーク理論と機械学習に基づく、画期的なウェブ情報の統合・知識化アルゴリズムの構築を目指します。特に、エンティティ(人物や組織、物質、製品名など)のネットワークに着目し、目的に応じた予測のための構造化技術を構築します。大量のウェブ情報に書かれたエンティティ間の構造を抽出し、目的に応じて知識として利用するための基盤であり、ウェブの次世代「知識エンジン」につながる技術です。

【5年型】
氏名 所属機関 役職 研究課題名 研究課題概要
大羽 成征 京都大学大学院情報学研究科 講師 仮説世界と物理世界の相互浸透モデリングによる知の創生  科学的な「知」は、観測データを物理世界(物理モデルに基づく仮想世界)に当てはめ、科学的仮説を検証するという過程から「創出」されますが、ここでは物理世界の作り方が知の枠組みを規定することになります。本研究では、物理世界を作るうえで仮説検証性能を最重要視してリアリティをあえて度外視する新コンセプト「仮説世界ベースモデリング」を提唱し、その理論的枠組みの整備発展と方法論としての有効性の実証を目指します。
(五十音順に掲載)

<総評> 研究総括:中島 秀之(公立はこだて未来大学 学長)

 本研究領域は、多様もしくは大規模なデータから有用な情報である「知識」を生産し、社会で活用するための基盤的技術となる研究を対象として、本年度から募集を開始しました。具体的には、大規模データを処理するための革新的な技術、統計数理科学を応用した分析・モデル化技術、あるいは実社会から得られる多様なデータを構造化・分析して知識を抽出する技術、センサによる情報取得やシミュレーション結果などの複数のリソースから新たな知識を創出する技術などの基盤技術に加えて、獲得した知識を実社会に適用するために必要とされる、シミュレーション、データの可視化、新しい情報社会の仕組みを支える応用技術などに関する研究提案を取り上げることにしました。
 本公募に対して、情報通信分野はもちろん、社会学やライフサイエンス、心理学、経済学など、実にさまざまな範囲に渡る幅広い研究分野から計104件の応募がありました。これらの研究提案を9名の領域アドバイザーのご協力を得て書類選考を行い、特に優れた研究提案22件を面接対象としました。面接選考に際しては、研究構想が本領域の趣旨に合っていること、特に、研究計画が高い独創性と新規性を有し、挑戦的であること、将来の実社会応用が期待できること、また提案者が明確な目的意識を有していることを重視して厳正な審査を行いました。また、審査に当たっては、応募課題の利害関係者の審査への関与や、他制度の助成金などとの関係も留意し、公平・厳正に行いました。
 選考の結果、初年度の採択課題数は5年型1件、3年型9件の計10件となりました。面接選考で採択されなかった提案、また書類選考の段階で面接選考の対象とならなかった提案の中にも、重要な提案や独自性の高い提案が数多くありました。ただ、重要であっても、デバイスやシステムを作るだけでその後の活用が考えられていない、技術の用途や応用が考えられていないなど、社会での適用が具体的でないものは、不採択としました。5年型の提案については、特に研究構想が本領域の趣旨に合っていることと同時に、研究期間の後半あるいは期間終了後において、実社会での応用がしっかりと考えられていることを採択条件にしました。そのため、本年度の採択は1件に留まりましたが、3年型であれば十分採択に値したと考えられる提案が数件あり、再提案を勧めました。不採択となった提案者につきましては、今回の不採択理由を踏まえて提案を練り直し、是非とも再挑戦して頂きたいと思います。
 来年度も、本年度同様、多様もしくは大規模なデータから、有用な情報である「知識」を生産し、社会で活用するための基盤的技術を目指すという視点から募集を行います。本年度以上に多様な分野から夢のある優れた提案が積極的になされることを期待しています。