慶應義塾大学,科学技術振興機構(JST)

令和6年2月19日

慶應義塾大学
科学技術振興機構(JST)

アナログコンピュート・イン・メモリー回路で
TransformerとCNNのハイブリッド処理を世界で初めて実現

~対従来比10倍の演算エネルギー効率を達成し、AIの環境負荷を低減~

慶應義塾大学 理工学部 電気情報工学科の吉岡 健太郎 専任講師は、エッジコンピューティングの普及に伴い、より身近なデバイスへの人工知能(AI)応用を促進するため、深層ニューラルネットワーク(DNN)、特にTransformer処理の高効率な推論を実現する高精度かつ省エネルギーなコンピュート・イン・メモリー(CIM)回路を開発しました。

本研究では、従来のCIMが抱えていたTransformerの推論に必要な演算精度を実現するために、データ格納、演算、アナログ-デジタル(A/D)変換を1つのメモリーセルに集積した「容量再構成型CIM(CR-CIM)」構造を提案しました。この構造によって、アナログCIMで初めてTransformer処理に必要な演算精度を達成しつつ、消費電力1ワットあたりの処理速度が818TOPS(兆回/秒)と非常に高い電力効率を実現しました。また畳み込みニューラルネットワーク(CNN)処理を行う際は、同等の演算精度を持つ従来技術と比べ10倍のエネルギー効率となる4094TOPS/ワットを達成しました。

本研究成果は、エッジコンピューティングやAIの分野で、電力効率と処理速度の両面で効率的なAIハードウエアの開発に貢献します。また将来的にはより多くの人々が大規模言語モデル(LLM)といったAIサービスを利用しやすくなると期待されます。

研究成果の詳細は、米国時間2024年2月18日から開催されている「ISSCC2024(国際固体素子回路会議)」にて発表されました。ISSCCは集積回路に関するオリンピックとも称される、最難関国際会議です。

本研究成果は、科学技術振興機構(JST) 戦略的創造研究推進事業 チーム型研究(CREST)「信頼されるAIシステムを支える基盤技術」研究領域(研究総括:相澤 彰子)「D3-AI:多様性と環境変化に寄り添う分散機械学習基盤の創出」(研究代表者:高前田 伸也、グラント番号:JPMJCR21D2)の事業・研究課題の助成により得られました。

<プレスリリース資料>

<論文タイトル>

“A 818-4094TOPS/W Capacitor-Reconfigured CIM Macro for Unified Acceleration of CNNs and Transformers”

<お問い合わせ先>

前に戻る