【ITニュース解説】Revolutionary Artificial Neurons Merging DRAM and MoS₂ Circuits

2025年09月06日に「Medium」が公開したITニュース「Revolutionary Artificial Neurons Merging DRAM and MoS₂ Circuits」について初心者にもわかりやすいように丁寧に解説しています。

作成日: 更新日:

ITニュース概要

韓国の研究チームが、DRAMと新素材MoS₂を組み合わせた画期的な人工ニューロンを開発。脳の仕組みを模倣し、処理と記憶を一体化することで、AIの性能向上と省エネ化を実現。従来の計算機の課題解決に繋がる技術として期待される。

ITニュース解説

人工知能(AI)技術の進化は目覚ましいが、その性能向上には大きな課題が存在する。それは、現代のコンピュータが持つ構造的な限界、通称「フォン・ノイマン・ボトルネック」である。これは、計算を行う中央処理装置(CPU)と、データを記憶するメモリが物理的に分離しているために発生する問題だ。AIが大量のデータを処理する際、CPUとメモリの間で絶えずデータのやり取りが発生し、このデータの移動時間が処理速度全体の足かせとなり、また、多大な電力を消費する原因にもなっている。この根本的な課題を解決するため、科学者たちは人間の脳の仕組みにヒントを得た新しいコンピューティング技術「ニューロモルフィック・コンピューティング」の研究を進めている。

人間の脳は、情報を処理する機能と記憶する機能が神経細胞であるニューロンとその結合部であるシナプスにおいて一体化している。そのため、データ移動に伴う遅延や電力消費が極めて少なく、非常に効率的な情報処理を実現している。この脳の構造を半導体チップ上で模倣し、データが記憶されている場所で直接計算を行う「メモリ内コンピューティング」を実現することが、ニューロモルフィック技術の目標である。この目標に向け、韓国科学技術院(KAIST)の研究チームが、画期的な人工ニューロンデバイスを開発した。この新しいデバイスは、広く普及しているメモリ技術である「DRAM」と、次世代の半導体材料として注目される「二硫化モリブデン(MoS₂)」を融合させた点に大きな特徴がある。

この人工ニューロンの仕組みを理解するためには、まずDRAMとMoS₂の役割を個別に見ていく必要がある。DRAMは、コンピュータの主記憶装置として広く利用されており、微小なコンデンサに電荷を蓄えることで情報を記憶する。今回のデバイスでは、このDRAMの構造が、人間のニューロンが他のニューロンから信号を受け取り、その情報を一時的に蓄積する機能として活用されている。一方、MoS₂はグラフェンと同様の2次元材料であり、原子数個分の厚さしかない非常に薄い半導体である。優れた電気的特性を持ち、消費電力が少なく、柔軟性にも富むため、次世代のトランジスタ材料として期待されている。この人工ニューロンでは、MoS₂で作られたトランジスタが、ニューロンの「発火」を制御するスイッチの役割を担う。

具体的な動作プロセスはこうだ。まず、外部からの入力信号がDRAM部分のコンデンサに電荷として徐々に蓄積されていく。これは、脳内でニューロンが他のニューロンからシナプスを介して信号を受け取るプロセスに相当する。そして、蓄積された電荷がある一定のしきい値に達すると、接続されたMoS₂トランジスタが作動して電流を流す。これがニューロンの「発火」であり、次のニューロンへと信号が出力される。この一連の動作、すなわち信号の蓄積(記憶)から発火(処理)までが、一つのデバイス内で完結している。これにより、データを別の場所に移動させる必要がなくなり、フォン・ノイマン・ボトルネックの問題を根本的に回避できる。

この技術が持つもう一つの重要な利点は、既存の半導体製造プロセスとの互換性である。半導体チップの製造は、CMOS(相補型金属酸化膜半導体)プロセスと呼ばれる標準的な技術で行われている。全く新しい材料や構造を用いたデバイスを実用化するには、製造ラインを根本から作り変える必要があり、莫大なコストと時間がかかる。しかし、今回のデバイスはDRAMという既存の技術を基盤としているため、現在のCMOSプロセスに比較的容易に統合できる可能性がある。これは、研究室レベルの成果から産業レベルでの大量生産へと移行する上で、非常に大きな強みとなる。

研究チームは、この人工ニューロンを使ってニューラルネットワークを構築し、手書き数字を認識させる実験を行った。その結果、約94%という高い認識精度を達成し、このデバイスがAIの計算に実用的な性能を持つことを証明した。この成果は、AI専用ハードウェアの開発に新たな道を開くものである。将来的には、この技術を基にしたプロセッサが、スマートフォンからデータセンターまで、あらゆる場所でAI処理の効率を飛躍的に向上させることが期待される。もちろん、一つのデバイスから大規模なネットワークへと拡張していくなど、まだ解決すべき課題は残されているが、脳のように効率的に動作するコンピュータの実現に向けた、重要な一歩であることは間違いない。

関連コンテンツ