
在一個以耗電量龐大的數位加速器為主導的領域中,IBM Research 推出了具顛覆性的 64 核心類比 AI 晶片,承諾將重新定義深度學習(deep learning)的經濟面。當人工智慧產業在大量推理工作負載不斷提升的能量需求下掙扎──例如最近推出的 Microsoft 的 Maia 200──IBM 最新的創新提供了一種與傳統架構截然不同的路徑。此混合訊號處理器透過模擬生物大腦的突觸連結,已在 CIFAR-10 圖像資料集上展現出令人印象深刻的 92.81% 正確率,標誌著記憶體內運算(in-memory computing)技術的一個關鍵時刻。
目前的 AI 硬體(AI hardware) 發展軌跡,由對浮點運算次數(FLOPS)的不懈追求所定義,往往以犧牲能源效率為代價。傳統數位架構,包括最新的 GPU 與 ASIC,採用馮·諾依曼(Von Neumann)模型,資料必須在記憶體與處理單元之間不斷來回搬移。這種資料移動造成所謂的「記憶體牆」,成為減緩運算速度並消耗 AI 任務中絕大多數能源的瓶頸。
IBM 的新型 類比晶片(analog chip) 完全繞過了這一瓶頸,透過 記憶體內運算(in-memory computing)。計算不是把資料搬到處理器,而是直接在記憶體陣列內部發生。此方法利用導電度的物理特性來執行矩陣-向量乘法──這是深度神經網路背後的基礎數學──以接近光速的方式完成,大幅降低延遲與功耗。
IBM 這項突破的核心在於採用 相變記憶體(Phase-Change Memory)(PCM)。與傳統的 DRAM 或 SRAM 不同,PCM 裝置可藉由改變材料中原子的物理排列,於結晶相與非結晶相之間呈現連續態來儲存資訊。這種儲存「類比」值的能力,使晶片能以高密度與高精度表示突觸權重,有效模擬生物大腦的神經可塑性。
該晶片具有 64 個類比記憶體內計算核心,每個核心都緊密整合必要的數位支援邏輯。這種混合設計至關重要;當核心的矩陣乘法在類比領域中進行時,晶片仍以數位處理器執行非線性啟動函數與通訊。這種「混合訊號(mixed-signal)」方法確保系統保有類比計算的能源優勢,同時維持現代深度學習 的可程式性與所需精度。
該架構透過片上通訊網路將這些核心連接起來,使其能夠並行運作。此可擴展性對處理用於電腦視覺與自然語言處理的複雜多層神經網路至關重要。透過在類比領域執行計算,IBM 估計此架構在能源效率 上可能比現有數位最先進系統高出數個量級。
準確性歷來是類比計算的軟肋。類比訊號容易受到雜訊、漂移與裝置差異影響,這些都會降低神經網路輸出的精度。IBM 在 CIFAR-10 上達成 92.81% 的正確率 意義重大,因為它證明了類比硬體能在複雜的辨識任務上與數位系統競爭,而不犧牲可靠性。
CIFAR-10 資料集是一個機器學習的標準基準,包含 60,000 張 32x32 彩色影像,分屬 10 個類別。要在此資料集上達到高準確度,需具備過去類比嘗試難以維持的精度。IBM 的成功來自於 GlobalFoundries 的先進製程技術以及能減緩硬體雜訊的複雜演算法補償方法。
此外,該晶片在每面積吞吐量方面表現出色,以每平方毫米的 Giga-operations per second(GOPS)衡量。這項指標對於物理空間與散熱限制嚴格的邊緣 AI 應用至關重要。能夠將高效能推理能力封裝在緊湊且節能的矽片中,為在行動裝置、自主飛行器與 IoT 感測器上部署複雜 AI 模型開啟了新契機。
為了理解這一變革的規模,比較 IBM 的類比方法與目前市場上主導的標準數位加速器的運作範式很有幫助。
Table 1: Architectural Comparison of AI Compute Paradigms
| Feature | Digital Accelerators (e.g., GPUs) | IBM Analog AI Chip |
|---|---|---|
| Data Movement | 高(Von Neumann 瓶頸) | 低(記憶體內運算) |
| Computation Method | 二進位邏輯閘(0 與 1) | 以物理為基礎(歐姆定律與基爾霍夫定律,Ohm's & Kirchhoff's Laws) |
| Memory Type | SRAM / HBM(揮發性) | 相變記憶體(非揮發性) |
| Energy Efficiency | 低到中等 | 極高 |
| Precision | 精確(FP32、FP16、FP8) | 近似(類比導電度) |
| Primary Bottleneck | 記憶體頻寬 | 類比雜訊與校準 |
此比較突顯了策略上的分歧。數位晶片專注於原始精度與多功能性,而 IBM 的類比晶片則針對構成 AI 推理大宗的特定數學運算進行最佳化,去除通用邏輯的額外負擔。
科技產業目前面臨一場由生成式 AI(Generative AI)爆炸性成長所引發的能源危機。大型語言模型(Large Language Models,LLMs)與複雜的視覺模型需要耗電如同城市規模的資料中心。正如 Microsoft 的 Maia 200 最近發佈所顯示,業界的標準回應是打造更大、更密集的數位晶片。雖然有效,但這一策略正接近可持續性的天花板。
IBM 的類比技術提供了一條走出能源陷阱的路。透過利用記憶體裝置本身的物理特性來執行運算,每次運算的能量成本驟降。對企業客戶而言,這轉化為顯著較低的總擁有成本(Total Cost of Ownership,TCO)與減少的碳足跡。在資料中心中,一排排的類比加速器可以以遠低於 GPU 所需的電力預算來處理大量常規推理請求──例如圖像標註、語音辨識與影片分析。
這項技術的影響遠超過資料中心。IBM 類比晶片的高能效與小巧體積,使其成為邊緣人工智慧(Edge AI)的理想候選。在連線到雲端不可靠或延遲至關重要的情境中,例如自動駕駛或工業機器人,本地處理是必需的。
目前的邊緣裝置常被限制為執行精簡的「量化」模型以節省電力。IBM 的類比架構可讓這些裝置在本地執行完整規模的深度學習模型,而不會耗盡電池或過熱。此能力對於注重隱私的應用特別重要,例如醫療監測與智慧家庭安全,這些情況下資料理想上應保留在裝置端。
此外,相變記憶體的非揮發性意味著這些晶片可以完全斷電並立即喚醒而不遺失狀態,這種所謂的「通常關閉(normally-off)」運算對於間歇性運作的電池供電 IoT 裝置是一項重大的改變。
隨著產業前進,數位與類比系統的共存似乎不可避免。數位晶片可能會繼續主導需高精度浮點數學的訓練工作負載。然而,對於龐大且持續成長的 AI 推理市場,IBM 的類比突破預示著一個智慧無處不在、效率高且本質上以類比為主的未來。