【ITニュース解説】富士通、AIの軽量化・省電力を実現する新技術を開発--大規模言語モデル「Takane」を強化
2025年09月08日に「ZDNet Japan」が公開したITニュース「富士通、AIの軽量化・省電力を実現する新技術を開発--大規模言語モデル「Takane」を強化」について初心者にもわかりやすく解説しています。
ITニュース概要
富士通が、AIの動作を軽くし消費電力を抑える「生成AI再構成技術」を開発した。これにより、同社の大規模言語モデル(LLM)「Takane」を強化。少ない計算資源でも、専門的な知識を持つAIの利用が可能になる。
ITニュース解説
現在、様々な場面で活用されているChatGPTのような大規模言語モデル(LLM)は、非常に高度な文章生成能力を持つ一方で、その運用には大きな課題が存在する。それは、膨大な計算資源と電力を必要とする点である。LLMは、その名の通り巨大なAIモデルであり、動作させるためには高性能なGPU(Graphics Processing Unit)を多数搭載したサーバーが必要不可欠となる。これにより、AIを導入・運用する企業にとっては高額なコストが大きな負担となり、また、大量の電力消費は環境負荷の観点からも問題視されている。富士通が開発した「生成AI再構成技術」は、こうしたLLMが抱える根本的な課題を解決し、より効率的で持続可能なAIの利用を目指す新しいアプローチである。
この新技術を理解するためには、まず従来のLLMがどのように動作し、専門的なタスクに対応してきたかを知る必要がある。従来のLLMは、インターネット上の膨大なテキストデータなどを学習した、汎用的な知識を持つ巨大な一つのAIとして機能する。これを特定の企業の業務、例えば法律相談や医療診断の補助などに特化させたい場合、「ファインチューニング」と呼ばれる追加学習を行うのが一般的だ。しかし、このファインチューニングは、巨大なAIモデル全体に対して行われるため、やはり多大な計算コストと時間が必要となる。さらに、元々持っている汎用的な知識が、専門的な回答を生成する際に干渉し、事実に基づかない情報、いわゆる「ハルシネーション」を引き起こす原因となることもあった。
富士通の「生成AI再構成技術」は、この「巨大な一つのAI」という構造そのものを見直すことで、上記の問題を解決する。この技術の核心は、LLMが持つ広範な知識を、あらかじめ専門分野ごとの小さな「知識モジュール」に分割しておくという点にある。例えば、「金融知識モジュール」「法務知識モジュール」「自社の社内規定モジュール」といったように、知識を機能的な単位で整理し、独立して動作可能な部品のように扱う。そして、ユーザーから質問が入力されると、システムはその内容を瞬時に解析し、回答の生成に必要となる知識モジュールだけを選択して組み合わせ、動的にAIを再構成する。つまり、質問に関係のない膨大な知識まで全てを動かすのではなく、その都度、最適な規模の専門AIを組み立てて応答する仕組みである。
このモジュール化されたアプローチは、AIの運用にいくつもの大きなメリットをもたらす。最も直接的な効果は、AIの軽量化と省電力化である。回答を生成する「推論」と呼ばれる処理の際に、動作させるAIの規模を必要最小限に絞ることができるため、計算量を劇的に削減できる。富士通の発表によれば、この技術を同社のLLM「Takane」に適用した結果、従来の方式に比べて計算コストを約3分の1にまで低減できた。これは、必要なGPUの数を減らしたり、より安価なハードウェアでの運用を可能にしたりすることに繋がり、導入・運用コストの大幅な削減を実現する。
さらに、専門性と回答精度の向上も期待できる。質問内容に応じて関連する知識モジュールだけで回答を生成するため、専門外の余計な知識が干渉しにくくなる。これにより、特定の分野においてより正確で信頼性の高い回答を提供でき、ハルシネーションの発生を抑制する効果も見込める。また、新しい知識の追加や更新が非常に容易になる点も、システム開発・運用の観点から重要である。例えば、新しい法律が施行された場合、LLM全体を再学習させることなく、「法務知識モジュール」を新しい内容に更新するか、新しい法律に対応したモジュールを追加するだけで対応が完了する。この柔軟性と拡張性は、変化の速いビジネス環境においてAIを継続的に活用していく上で大きな強みとなる。
富士通は、この「生成AI再構成技術」を自社のAIサービス「Fujitsu Kozuchi」の中核技術と位置づけ、今後、金融や医療、製造といった専門知識が求められる分野や、各企業の業務マニュアルに基づいた応答システムなど、幅広い領域への展開を目指している。この技術は、これまでコストや精度の問題でAI導入をためらっていた企業にとって、そのハードルを大きく下げる可能性を秘めている。システムエンジニアを目指す者にとって、このようなAIの基盤技術の進化を理解することは、将来、より効率的で高性能なAIシステムを設計・構築する上で不可欠な知識となるだろう。