AI News

光子計算(Photonic Computing)的新範式

上海交通大學與清華大學的合作研究團隊揭曉了「LightGen」,這是一款革命性的全光計算晶片,據報導,在特定的生成式人工智慧(Generative AI)任務中,其表現優於廣泛使用的 Nvidia A100 GPU 100 倍以上。這項發表在權威期刊《科學》(Science)上的研究結果,標誌著在克服傳統矽基半導體(Silicon-based semiconductors)物理限制的探索中,邁出了一個重要的里程碑。

隨著人工智慧模型在規模和複雜性上呈指數級增長,電子晶片的能耗和熱管理已成為關鍵瓶頸。LightGen 透過以光子取代電子來應對這些挑戰,利用光的內在速度和光學的干涉特性,以史無前例的效率進行計算。這項突破顯示,光子計算曾被歸類為利基應用和簡單的分類任務,可能很快就能夠處理現代生成式人工智慧工作負載所需的高強度運算。

LightGen 的架構

LightGen 效能的核心在於其能夠在單個設備上整合超過 200 萬個人工光子神經元(Artificial photonic neurons)。以往的光學計算嘗試通常局限於數千個神經元,使其用途受限於基礎的模式識別。由上海交通大學陳毅聰教授領導的研究團隊,利用先進的 3D 封裝(3D packaging)技術和超薄超構表面(Metasurfaces)實現了這種大規模的擴展。

3D 光子整合

與組件並排佈局的傳統平面晶片不同,LightGen 採用了三維架構。這種堆疊方式允許在不相應增加晶片佔地面積的情況下,大幅提高神經元密度。該設計比標準的 2D 電子電路更緊密地模擬了生物神經網絡的複雜連接性,促進了大規模平行處理。

光學潛空間

LightGen 最具創新性的功能之一是其對「光學潛空間(Optical Latent Space)」的利用。在典型的混合系統中,數據必須頻繁地在光域和電域之間進行轉換(光電轉換,O/E conversion),這一過程會引入延遲並消耗大量能量。LightGen 透過在大部分處理流程中將數據保留在光域中,最大限度地減少了這些轉換。

透過使用超構表面——經工程設計具有自然界中未發現特性的材料——該晶片充當了光學編碼器。它將高維數據(如全解析度圖像)壓縮成緊湊的光學表示。隨後,這些數據通過光纖陣列,在其中透過光干涉進行實際計算(推理),以光速有效地執行矩陣乘法(Matrix multiplications),且計算本身的能量消耗趨近於零。

效能基準:LightGen vs. Nvidia A100

研究團隊發布的效能指標突顯了特定工作負載下光子與電子計算範式之間的鮮明對比。雖然 Nvidia A100 仍然是一個多功能、通用的效能強者,但 LightGen 展示了特定領域光學加速的可能性。

表格:效能指標對比

指標 LightGen(光學) Nvidia A100(電子)
計算速度 (TOPS) 35,700 ~624 (Int8 Tensor)*
能源效率 (TOPS/Watt) 664 ~1.5 - 2.0
神經元數量 200 萬+ 不適用(基於電晶體)
處理介質 光子(光) 電子
主要應用 生成式視覺任務 通用 AI 訓練/推理

註:Nvidia A100 的效能隨精度(FP16、FP32、Int8)而異。此對比強調推理任務的峰值吞吐量。

「快 100 倍」的核心數據特別適用於高吞吐量(High-throughput)的內容生成,如圖像和影片幀。在實驗室測試中,LightGen 達到了每秒 35,700 兆次操作(TOPS)的計算速度,這一數字在針對功耗進行調整後,使當前矽基消費級硬體的理論最大值相形見絀。更令人印象深刻的是,它以每瓦 664 TOPS 的能源效率實現了這一速度,為與大規模 AI 部署相關的海量碳足跡提供了潛在的解決方案。

解鎖生成能力

從歷史上看,光學晶片在生成任務所需的精度方面面臨困難。雖然它們擅長識別圖片中的貓(分類),但無法有效地從頭開始畫出一隻貓(生成)。LightGen 突破了這一障礙。

高保真圖像與影片生成

研究人員展示了 LightGen 完全以光學方式執行複雜的「輸入-理解-語義操作-生成」循環的能力。在涉及風格遷移、圖像去噪和 3D 場景生成的測試中,該晶片產生的結果在品質上與領先的電子神經網絡相當。

由於該晶片處理全解析度圖像時無需將其拆分為較小的「補丁」(patch)——這是電子處理中為了節省記憶體而常用的技術——LightGen 更有效地保留了全局語義信息。這使得生成的圖像不僅生產速度更快,而且保持了高度的結構連貫性。

無監督光學訓練

LightGen 引入的另一項重大進展是專為光子硬體量身定制的新穎無監督訓練(Unsupervised training)算法。傳統的深度學習高度依賴於標記數據集和反向傳播,這在光學系統上實現的計算成本很高。LightGen 的方法依賴於統計模式識別,允許晶片學習數據的概率表示。這減少了對大規模標記數據集的依賴,並更好地與光學干涉的物理學相契合。

行業影響與未來展望

LightGen 的亮相正值全球半導體產業的關鍵時刻。隨著摩爾定律放緩以及電晶體縮放的物理限制日益明顯,業界正積極尋求「後摩爾」替代方案。

數據中心的能源效率

如果 LightGen 所展示的效率能夠實現規模化和商業化,它可能會徹底改變 AI 數據中心的經濟模式。目前,GPU 集群所需的冷卻基礎設施消耗的電力幾乎與晶片本身一樣多。產生極少熱量的光學處理器可以消除大部分此類開銷,從而實現更密集、更環保的伺服器集群。

對中國的戰略意義

對於中國半導體產業而言,光子計算的突破提供了一條繞過先進光刻(Lithography)設備限制的潛在路徑。雖然生產尖端的電子晶片需要極紫外光(EUV)光刻機——目前其獲取受到限制——但像 LightGen 這樣的光子晶片通常可以使用較舊、更易獲得的製造工藝節點(如 65nm 或 45nm)進行製造,而不會犧牲性能。這是因為光的波長遠大於現代 CPU 中奈米級的電晶體,使得製造過程對絕對最小特徵尺寸的依賴程度降低。

商業化挑戰

儘管規格令人印象深刻,但 LightGen 仍是一個實驗室原型,在挑戰 Nvidia 在商業市場的統治地位之前,仍存在重大障礙。

  • 專業化 vs. 通用化: Nvidia A100 和 H100 是可編程的通用設備,能夠運行從天氣模擬到大語言模型(LLM)訓練的一切任務。LightGen 目前是針對特定視覺生成任務優化的專用加速器。它目前還不能簡單地「運行 Python 代碼」。
  • 系統整合: 將光子晶片與現有的電子基礎設施(CPU、RAM、存儲)整合會產生數據瓶頸。如果光子晶片花費太多時間等待電子數據轉換為光信號,其速度優勢可能會喪失。
  • 製造複雜性: 雖然光刻要求可能較低,但大規模生產具有數百萬個精確超構表面的 3D 堆疊光子晶片,在良率和可靠性方面面臨著自身的一系列挑戰。

結論

LightGen 代表了光學計算領域的一個分水嶺時刻。透過證明光子晶片能以比矽晶片高出幾個數量級的效率處理複雜的生成式工作負載,上海交通大學和清華大學的研究人員驗證了一條長期以來被認為是理論性的技術路徑。雖然它可能不會在明天就取代 GPU,但 LightGen 照亮了一個未來:光,而非電力,將驅動下一代人工智慧。

精選