
電力を大量に消費するデジタルアクセラレータが支配する状況の中で、IBM Researchは深層学習(deep learning)の経済性を再定義する可能性のある画期的な64コア・アナログAIチップ(analog AI chip)を発表しました。人工知能産業が大規模な推論(inference)ワークロードの増大によるエネルギー需要の高まりに対応に苦慮する中—最近のMicrosoftのMaia 200のようなデジタル大規模装置の登場がその一例です—IBMの最新のイノベーションは従来のアーキテクチャからの抜本的な脱却を示しています。生物学的な脳のシナプス結合を模倣することで、この新しいミックスドシグナル(mixed-signal)プロセッサは、CIFAR-10データセットで92.81%の精度を実証し、メモリ内演算技術にとって画期的な節目を迎えました。
現在のAIハードウェア(AI hardware)の潮流は、しばしばエネルギー効率を犠牲にしてまでフローティングポイント演算量(FLOPS)を追求することによって定義されてきました。最新のGPUやASICを含む従来のデジタルアーキテクチャは、フォン・ノイマンモデル(von Neumann model)に依存しており、データをメモリと処理ユニット間で絶えずやり取りする必要があります。このデータ移動は「メモリウォール」と呼ばれるボトルネックを生み、計算を遅くし、AIタスクにおけるエネルギー消費の大部分を占めます。
IBMの新しいアナログチップ(analog technology)は、これを完全に回避する「メモリ内計算(in-memory computing)」を通じてボトルネックを解消します。データをプロセッサに移動する代わりに、計算はメモリアレイ内で直接行われます。このアプローチはコンダクタンスの物理特性を利用して、深層ニューラルネットワークの基本となる行列-ベクトル乗算を光速で実行し、レイテンシと消費電力を劇的に削減します。
IBMの突破口の核心には、相変化メモリ(Phase-Change Memory、PCM)の利用があります。従来のDRAMやSRAMとは異なり、PCMデバイスは物質中の原子配列を結晶相と非晶相の間で変化させることにより、連続的な状態で情報を保持できます。この「アナログ」値を保持する能力により、チップは高密度かつ高精度でシナプス重みを表現でき、生物学的な脳の可塑性を効果的にエミュレートします。
このチップは64個のアナログ・メモリ内演算コア(analog in-memory compute cores)を搭載し、それぞれが必要なデジタル補助ロジックと密接に統合されています。このハイブリッド設計は極めて重要です。コアの行列乗算はアナログ領域で行われる一方、非線形活性化関数や通信にはデジタルプロセッサを使用します。このミックスドシグナル(mixed-signal)アプローチにより、アナログ計算のエネルギー面での利点を保持しつつ、現代のディープラーニング(deep learning)アルゴリズムに必要なプログラマビリティと精度を確保します。
アーキテクチャはこれらのコアをオンチップ通信ネットワークで接続し、並列動作を可能にします。このスケーラビリティは、コンピュータビジョンや自然言語処理で使われる複雑な多層ニューラルネットワークを扱ううえで不可欠です。アナログ領域で計算を行うことで、IBMはこのアーキテクチャが現行のデジタルの最先端システムに比べて桁違いのエネルギー効率(energy efficiency)を実現する可能性があると見積もっています。
精度は歴史的にアナログ計算のアキレス腱でした。アナログ信号はノイズ、ドリフト、デバイス間変動に影響されやすく、ニューラルネットワーク出力の精度を低下させる可能性があります。IBMがCIFAR-10で達成した92.81%の精度は、アナログハードウェアが信頼性を犠牲にすることなく、複雑な認識タスクでデジタルシステムと競合できることを証明する点で重要です。
CIFAR-10データセットは、10クラスにまたがる60,000枚の32x32フルカラー画像で構成される、機械学習の標準ベンチマークです。このデータセットで高い忠実度を達成するには、以前のアナログ試みが維持するのに苦労したレベルの精度が必要でした。IBMの成功は、GlobalFoundriesでの高度なファブリケーション技術と、ハードウェアノイズを緩和する洗練されたアルゴリズム補償手法に由来します。
さらに、このチップは面積当たりのスループット(平方ミリメートル当たりのGiga-operations per second、GOPS)において優れています。この指標は、物理的スペースや熱設計が厳しく制限されるエッジAI(Edge AI)アプリケーションにとって重要です。高性能な推論機能をコンパクトで省電力なダイに詰め込める能力は、モバイルデバイス、自律ドローン、IoTセンサーへの高度なAIモデルの展開に新たな道を開きます。
この変化の大きさを理解するには、IBMのアナログアプローチと現在市場を支配している標準的なデジタルアクセラレータの動作パラダイムを比較することが有益です。
Table 1: Architectural Comparison of AI Compute Paradigms
| Feature | Digital Accelerators (e.g., GPUs) | IBM Analog AI Chip |
|---|---|---|
| Data Movement | High (Von Neumann Bottleneck) | Minimal (In-Memory Computing) |
| Computation Method | Binary Logic Gates (0s and 1s) | Physics-based (Ohm's & Kirchhoff's Laws) |
| Memory Type | SRAM / HBM (Volatile) | Phase-Change Memory (Non-volatile) |
| Energy Efficiency | Low to Moderate | Extremely High |
| Precision | Exact (FP32, FP16, FP8) | Approximate (Analog Conductance) |
| Primary Bottleneck | Memory Bandwidth | Analog Noise & Calibration |
この比較は戦略的な分岐を際立たせます。デジタルチップは生の精度と汎用性に注力する一方、IBMのアナログチップはAI推論の大部分を構成する特定の数学演算に最適化し、汎用ロジックのオーバーヘッドを削ぎ落としています。
テック業界は現在、生成AI(Generative AI)の爆発的な普及によって引き起こされたエネルギー危機に直面しています。大規模言語モデル(Large Language Models、LLMs)や複雑なビジョンモデルは、都市規模の電力を消費するデータセンターを必要とします。MicrosoftのMaia 200の最近のリリースが示すように、業界の標準的な対応はより大きく、より高密度なデジタルチップを構築することでした。効果的ではありますが、この戦略は持続可能性の天井に近づいています。
IBMのアナログ技術は、このエネルギーの罠から抜け出す道を提供します。メモリデバイス自体の物理を使って計算を行うことで、1演算あたりのエネルギーコストは劇的に低下します。エンタープライズ顧客にとって、これは総所有コスト(TCO)の大幅な低減とカーボンフットプリントの削減を意味します。データセンターでは、アナログアクセラレータのラックが、画像タグ付け、音声認識、ビデオ分析といった大量の日常的な推論リクエストを、GPUが必要とする電力予算のごく一部で処理できる可能性があります。
この技術の影響はデータセンターをはるかに超えます。IBMのアナログチップの高いエネルギー効率とコンパクトなフットプリントは、エッジAI(Edge AI)にとって理想的な候補となります。クラウド接続が不安定であるかレイテンシが重要なシナリオ—自律運転や産業用ロボティクスなど—では、ローカル処理が必須です。
現在のエッジデバイスはバッテリー寿命を節約するためにしばしば縮小化され「量子化」されたモデルしか実行できません。IBMのアナログアーキテクチャは、こうしたデバイスがバッテリーを消耗したり過熱したりすることなく、フルスケールのディープラーニングモデルをローカルで実行できる可能性をもたらします。この能力は、医療モニタリングやスマートホームセキュリティのようなプライバシー重視のアプリケーションに特に関連します。これらではデータは理想的にはデバイス上に留めておくべきです。
さらに、相変化メモリの不揮発性という性質は、これらのチップが完全に電源を切っても状態を失わず、即座に起動できることを意味します。これは「ノーマリーオフ(normally-off)コンピューティング」として知られる機能で、断続的に動作するバッテリ駆動のIoTデバイスには大きな変革をもたらします。
産業が前進するにつれて、デジタルとアナログの共存は不可避に思えます。高精度な浮動小数点演算が不可欠なトレーニングワークロードではデジタルチップが引き続き優勢であるでしょう。しかし、急増するAI推論の市場において、IBMのアナログの突破は、インテリジェンスが遍在し、効率的で、本質的にアナログである未来を示唆しています。