
上海交通大学と清華大学の共同研究チームは、特定の生成AI(Generative AI)タスクにおいて、広く普及しているNvidiaのA100 GPUを100倍以上上回る性能を持つと報告されている革新的な全光演算チップ(all-optical computing chip)「LightGen」を発表しました。著名な学術誌『Science』に掲載されたこの研究成果は、従来のシリコンベースの半導体(silicon-based semiconductors)の物理的限界を克服するための探求における重要な節目となります。
人工知能モデルの規模と複雑さが指数関数的に増大するにつれ、電子チップの消費電力と熱管理は深刻なボトルネックとなっています。LightGenは、電子を光子に置き換えることでこれらの課題に対処し、光本来の速度と光の干渉特性を利用して、前例のない効率で計算を実行します。この画期的な進歩は、かつてはニッチな用途や単純な分類タスクに限られていたフォトニックコンピューティング(photonic computing)が、現代の生成AIワークロードに求められる重い処理を間もなく担えるようになる可能性を示唆しています。
LightGenの性能の中核となるのは、200万個以上の人工フォトニックニューロンを単一のデバイスに統合する能力です。従来の光コンピューティングの試みは、多くの場合、数千個のニューロンに限定されており、その用途は基本的なパターン認識に留まっていました。上海交通大学(Shanghai Jiao Tong University)の陳怡通教授(Professor Chen Yitong)率いる研究チームは、高度な3Dパッケージング技術と超薄型メタサーフェスを活用して、この大規模なスケーリングを達成しました。
コンポーネントを横に並べて配置する従来の平面チップとは異なり、LightGenは三次元構造を採用しています。この積層構造により、チップのフットプリントを増大させることなく、ニューロン密度を劇的に向上させることが可能になりました。この設計は、標準的な2D電子回路よりも生物学的な神経ネットワークの複雑な接続性をより忠実に模倣しており、大規模な並列処理を促進します。
LightGenの最も革新的な機能の一つは、「光潜在空間(Optical Latent Space)」の活用です。一般的なハイブリッドシステムでは、データは光ドメインと電子ドメインの間で頻繁に変換(O/E変換)される必要があり、このプロセスが遅延を引き起こし、多大なエネルギーを消費します。LightGenは、処理パイプラインの大部分でデータを光ドメインに保持することにより、これらの変換を最小限に抑えます。
自然界には存在しない特性を持つように設計された材料であるメタサーフェスを使用することで、チップは光学エンコーダとして機能します。これは、フル解像度の画像などの高次元データをコンパクトな光表現に圧縮します。その後、このデータは光ファイバーアレイを通過し、光の干渉を介して実際の計算(推論)が行われます。これにより、計算自体におけるエネルギー消費をほぼゼロに抑えつつ、光速で行列演算を効果的に実行します。
研究チームが発表した性能指標は、特定のワークロードにおけるフォトニックコンピューティングと電子コンピューティングのパラダイムの鮮明な対照を浮き彫りにしています。Nvidia A100が多用途で汎用性の高い強力なツールであることに変わりはありませんが、LightGenはドメイン特化型の光学加速によって何が可能になるかを示しています。
表:比較性能指標
| 指標 | LightGen(光学式) | Nvidia A100(電子式) |
|---|---|---|
| 演算速度(TOPS) | 35,700 | ~624 (Int8 Tensor)* |
| エネルギー効率 (TOPS/Watt) | 664 | ~1.5 - 2.0 |
| ニューロン数 | 200万以上 | 該当なし(トランジスタベース) |
| 処理媒体 | 光子(光) | 電子 |
| 主な用途 | 生成ビジョンタスク | 汎用AIトレーニング/推論 |
注:Nvidia A100の性能は精度(FP16, FP32, Int8)によって異なります。この比較は、推論タスクのピークスループットを強調しています。
「100倍高速」という見出しの数字は、画像やビデオフレームなどのコンテンツの高スループット生成に特に関連しています。ラボテストにおいて、LightGenは35,700 TOPS(Tera Operations Per Second)の演算速度を達成しました。この数値は、消費電力を考慮して調整した場合、現在のシリコンベースの消費者向けハードウェアの理論上の最大値を圧倒します。さらに印象的なのは、ワットあたり664 TOPSというエネルギー効率でこの速度を達成したことであり、大規模なAI導入に伴う膨大なカーボンフットプリントに対する潜在的な解決策を提供しています。
歴史的に、光チップは生成タスクに求められる精度に苦労してきました。画像内の猫を識別すること(分類)には優れていましたが、ゼロから猫を描くこと(生成)を効果的に行うことはできませんでした。LightGenはこの障壁を打ち破ります。
研究者たちは、複雑な「入力ー理解ー意味操作ー生成」のループを完全に光学的に実行するLightGenの能力を実証しました。スタイル変換、画像デノイジング、3Dシーン生成を含むテストにおいて、このチップは主要な電子ニューラルネットワークに匹敵する品質の結果を生成しました。
このチップは、メモリを節約するために画像を小さな「パッチ」に分割するという電子処理で一般的な手法を必要とせず、フル解像度の画像を処理するため、全域的な意味情報をより効果的に保持します。その結果、生成された画像はより高速に作成されるだけでなく、高い構造的整合性を維持しています。
LightGenで導入されたもう一つの重要な進歩は、フォトニックハードウェア向けに調整された新しい教師なし学習(unsupervised training)アルゴリズムです。従来のディープラーニングは、ラベル付きデータセットと誤差逆伝播法に大きく依存していますが、これらを光学システムに実装するには計算コストが高くなります。LightGenのアプローチは統計的なパターン認識に依存しており、チップがデータの確率的表現を学習することを可能にします。これにより、大規模なラベル付きデータセットへの依存が軽減され、光の干渉の物理法則ともより良く整合します。
LightGenの発表は、世界の半導体業界にとって極めて重要な局面で行われました。ムーアの法則(Moore's Law)が鈍化し、トランジスタのスケーリングの物理的限界が顕著になる中、業界は「ポスト・ムーア(Post-Moore)」の代替案を積極的に模索しています。
LightGenによって実証された効率がスケールアップされ商業化されれば、AIデータセンターの経済性を根本的に変える可能性があります。現在、GPUクラスターに必要な冷却インフラは、チップ自体とほぼ同等の電力を消費しています。発熱が極めて少ない光学プロセッサは、このオーバーヘッドの多くを排除し、より高密度で環境に優しいサーバーファームを実現する可能性があります。
中国の半導体産業にとって、フォトニックコンピューティングにおけるブレイクスルーは、先端リソグラフィ装置への制限を回避するための潜在的な経路を提供します。最先端の電子チップを製造するには極端紫外線(EUV)露光装置が必要であり、現在その入手は制限されていますが、LightGenのようなフォトニックチップは、性能を損なうことなく、より旧式で入手しやすい製造ノード(65nmや45nmなど)を使用して製造できることが多いです。これは、光の波長が現代のCPUにおけるナノメートル規模のトランジスタよりもはるかに大きいため、製造プロセスが絶対的な最小フィーチャサイズに依存しにくいためです。
印象的なスペックにもかかわらず、LightGenは依然として実験室のプロトタイプであり、商業市場でNvidiaの支配に挑むまでには大きな障害が存在します。
LightGenは、光コンピューティングの分野における画期的な瞬間を象徴しています。フォトニックチップがシリコンよりも桁違いに高い効率で複雑な生成ワークロードを処理できることを実証したことで、上海交通大学と清華大学の研究者たちは、長らく理論的であると考えられていた技術パスを検証しました。明日すぐにGPUに取って代わることはないかもしれませんが、LightGenは、電気ではなく光が次世代の人工知能を動かす未来を照らしています。