
상하이 교통대학교 (Shanghai Jiao Tong University)와 칭화대학교 (Tsinghua University)의 공동 연구팀이 특정 생성형 AI (Generative AI) 작업에서 널리 사용되는 Nvidia의 A100 GPU보다 100배 이상 뛰어난 성능을 발휘하는 혁신적인 전광(all-optical) 컴퓨팅 칩인 "LightGen"을 공개했습니다. 권위 있는 학술지인 Science에 게재된 이번 연구 결과는 전통적인 실리콘 기반 반도체의 물리적 한계를 극복하려는 여정에서 중요한 이정표가 되었습니다.
인공지능 모델의 크기와 복잡성이 기하급수적으로 증가함에 따라 전자 칩의 에너지 소비와 열 관리는 중요한 병목 현상이 되었습니다. LightGen은 전자를 광자로 대체하여 빛의 고유한 속도와 광학적 간섭 특성을 활용함으로써 전례 없는 효율로 계산을 수행하여 이러한 과제를 해결합니다. 이러한 돌파구는 한때 틈새 애플리케이션이나 단순한 분류 작업에 머물렀던 광 컴퓨팅 (photonic computing)이 곧 현대 생성형 AI 워크로드에 필요한 고난도 작업을 처리할 수 있게 될 것임을 시사합니다.
LightGen 성능의 핵심은 단일 장치에 200만 개 이상의 인공 광학 뉴런을 통합하는 능력에 있습니다. 이전의 광학 컴퓨팅 시도는 종종 수천 개의 뉴런으로 제한되어 기초적인 패턴 인식에만 활용되었습니다. 상하이 교통대학교 (Shanghai Jiao Tong University)의 진이통 (Chen Yitong) 교수가 이끄는 연구팀은 고급 3D 패키징 기술과 초박형 메타표면 (metasurfaces)을 활용하여 이러한 대규모 확장을 달성했습니다.
구성 요소가 나란히 배치되는 기존의 평면 칩과 달리, LightGen은 3차원 아키텍처를 채택했습니다. 이러한 적층 방식은 칩의 면적을 늘리지 않고도 뉴런 밀도를 획기적으로 높일 수 있게 해줍니다. 이 설계는 표준 2D 전자 회로보다 생물학적 신경망의 복잡한 연결성을 더 가깝게 모방하여 대규모 병렬 처리를 용이하게 합니다.
LightGen의 가장 혁신적인 특징 중 하나는 "광학 잠재 공간 (Optical Latent Space)"의 활용입니다. 일반적인 하이브리드 시스템에서 데이터는 광학 영역과 전자 영역 사이를 자주 전환(O/E 변환)해야 하며, 이 과정에서 지연 시간이 발생하고 상당한 에너지가 소비됩니다. LightGen은 처리 파이프라인의 대부분 동안 데이터를 광학 영역에 유지함으로써 이러한 변환을 최소화합니다.
자연에서 발견되지 않는 특성을 갖도록 설계된 재료인 메타표면을 사용함으로써 이 칩은 광학 인코더 역할을 합니다. 고해상도 이미지와 같은 고차원 데이터를 압축된 광학 표현으로 변환합니다. 그런 다음 이 데이터는 광섬유 배열을 통해 이동하며, 여기서 실제 계산(추론)은 빛의 간섭을 통해 발생합니다. 이는 계산 자체에 거의 제로에 가까운 에너지를 소비하면서 빛의 속도로 행렬 곱셈을 효과적으로 수행합니다.
연구팀이 발표한 성능 지표는 특정 워크로드에 대해 광학 및 전자 컴퓨팅 패러다임 간의 극명한 대조를 보여줍니다. Nvidia A100이 다재다능한 범용 강자로 남아 있는 반면, LightGen은 도메인 특정 광학 가속으로 무엇이 가능한지를 보여줍니다.
표: 비교 성능 지표
| 지표 | LightGen (광학) | Nvidia A100 (전자) |
|---|---|---|
| 연산 속도 (TOPS) | 35,700 | ~624 (Int8 Tensor)* |
| 에너지 효율 (Energy Efficiency) (TOPS/Watt) | 664 | ~1.5 - 2.0 |
| 뉴런 수 | 200만 개 이상 | 해당 없음 (트랜지스터 기반) |
| 처리 매체 | 광자 (빛) | 전자 |
| 주요 응용 분야 | 생성형 비전 작업 | 범용 AI 학습/추론 |
참고: Nvidia A100 성능은 정밀도(FP16, FP32, Int8)에 따라 다릅니다. 이 비교는 추론 작업에 대한 피크 처리량을 강조합니다.
"100배 더 빠름"이라는 헤드라인 수치는 이미지 및 비디오 프레임과 같은 콘텐츠의 고처리량 생성에 구체적으로 적용됩니다. 실험실 테스트에서 LightGen은 초당 35,700 테라 연산(TOPS)의 연산 속도를 달성했으며, 이는 전력 소비를 고려할 때 현재 실리콘 기반 소비자 하드웨어의 이론적 최대치를 압도하는 수치입니다. 더 인상적인 것은 와트당 664 TOPS의 에너지 효율로 이 속도를 달성했다는 점이며, 이는 대규모 AI 배포와 관련된 막대한 탄소 발자국에 대한 잠재적인 해결책을 제시합니다.
역사적으로 광학 칩은 생성 작업에 필요한 정밀도를 구현하는 데 어려움을 겪어왔습니다. 사진에서 고양이를 식별하는 것(분류)에는 뛰어났지만, 무에서 고양이를 그리는 것(생성)은 효과적으로 수행할 수 없었습니다. LightGen은 이러한 장벽을 허물었습니다.
연구원들은 "입력-이해-의미론적 조작-생성" 루프를 완전히 광학적으로 수행하는 LightGen의 능력을 입증했습니다. 스타일 전이 (style transfer), 이미지 노이즈 제거 (image denoising), 3D 장면 생성과 관련된 테스트에서 이 칩은 선도적인 전자 신경망과 대등한 품질의 결과를 생성했습니다.
메모리를 절약하기 위해 이미지를 더 작은 "패치"로 나누어야 하는 전자 처리 방식과 달리, 이 칩은 고해상도 이미지를 그대로 처리하기 때문에 LightGen은 전역적인 의미 정보를 더 효과적으로 보존합니다. 그 결과 생성된 이미지는 더 빠르게 제작될 뿐만 아니라 높은 구조적 일관성을 유지합니다.
LightGen과 함께 도입된 또 다른 중요한 발전은 광학 하드웨어에 맞춤화된 새로운 비지도 학습 알고리즘 (unsupervised training algorithm)입니다. 전통적인 딥러닝은 라벨링된 데이터셋과 역전파(backpropagation)에 크게 의존하는데, 이는 광학 시스템에서 구현하기에 계산 비용이 많이 듭니다. LightGen의 방식은 통계적 패턴 인식에 의존하여 칩이 데이터의 확률적 표현을 학습할 수 있게 합니다. 이는 방대한 라벨링 데이터셋에 대한 의존도를 줄이고 광학 간섭의 물리학적 특성과 더 잘 부합합니다.
LightGen의 등장은 글로벌 반도체 산업의 중요한 전환점에 이루어졌습니다. 무어의 법칙이 둔화되고 트랜지스터 스케일링의 물리적 한계가 명확해짐에 따라 업계는 적극적으로 "포스트 무어 (Post-Moore)" 대안을 찾고 있습니다.
LightGen이 보여준 효율성을 확장하고 상용화할 수 있다면 AI 데이터 센터의 경제성을 근본적으로 바꿀 수 있습니다. 현재 GPU 클러스터에 필요한 냉각 인프라는 칩 자체만큼이나 많은 전력을 소비합니다. 열 발생을 최소화하는 광학 프로세서는 이러한 오버헤드의 상당 부분을 제거하여 더 밀집되고 친환경적인 서버 팜을 구축할 수 있게 해줍니다.
중국 반도체 산업에 있어 광 컴퓨팅의 돌파구는 첨단 노광 장비에 대한 제한을 우회할 수 있는 잠재적 경로를 제공합니다. 최첨단 전자 칩을 생산하려면 현재 접근이 제한된 극자외선 (EUV) 노광 장비가 필요하지만, LightGen과 같은 광학 칩은 성능 저하 없이 구형의 더 접근하기 쉬운 제조 공정(예: 65nm 또는 45nm)을 사용하여 제조할 수 있는 경우가 많습니다. 이는 빛의 파장이 현대 CPU의 나노미터급 트랜지스터보다 훨씬 크기 때문에 제조 공정이 절대적인 미세 공정에 덜 의존하기 때문입니다.
인상적인 사양에도 불구하고 LightGen은 여전히 실험실 프로토타입 단계에 있으며, 상업 시장에서 Nvidia의 지배력에 도전하기 전까지는 상당한 장애물이 존재합니다.
LightGen은 광 컴퓨팅 분야의 획기적인 순간을 나타냅니다. 광학 칩이 실리콘보다 수십 배 더 높은 효율로 복잡한 생성형 워크로드를 처리할 수 있음을 입증함으로써, 상하이 교통대학교와 칭화대학교의 연구팀은 오랫동안 이론적으로만 여겨졌던 기술 경로의 타당성을 확인했습니다. 비록 당장 내일 GPU를 대체하지는 못하더라도, LightGen은 전기가 아닌 빛이 차세대 인공지능을 구동하는 미래를 밝히고 있습니다.