
이번 주 뉴델리에서 열린 인도 AI 임팩트 서밋(India AI Impact Summit)에서 Google DeepMind의 CEO 데미스 허사비스(Demis Hassabis)는 기술적 낙관론과 긴급한 지정학적 주의의 균형을 맞춘 결정적인 기조연설을 진행했습니다. 정책 입안자, 업계 리더, 연구원들이 모인 글로벌 회의에서 허사비스는 인공 일반 지능(AGI, Artificial General Intelligence)의 도래에 대해 가장 구체적인 타임라인 중 하나를 제시하며, 향후 "5년에서 10년" 이내에 등장할 것이라고 예측했습니다. 그러나 이러한 예측에는 강력한 경고가 수반되었습니다. AI 시스템이 수동적 도구에서 자율 에이전트(Autonomous agents)로 전환됨에 따라 강력한 국제 안전 프레임워크를 구축할 기회의 창이 닫히고 있다는 것입니다.
생성형 AI(Generative AI) 역량이 급격히 가속화되는 시기에 개최된 이번 서밋은 허사비스가 업계가 현재 직면한 "임계점의 순간(threshold moment)"을 설명하는 배경이 되었습니다. 그는 새로운 "과학적 발견"의 황금기에 대한 잠재력을 높이 평가하면서도, 엄청난 혜택과 심각한 해악을 모두 초래할 수 있는 첨단 AI의 이중 용도(Dual-use) 특성으로 인해 현재의 기술 발전에 비해 뒤처져 있는 수준의 글로벌 협력이 필요하다고 강조했습니다.
허사비스의 연설은 현재 최첨단 모델의 한계에에 대한 드문 솔직한 평가를 제공했습니다. 최근 생성형 AI의 비약적 발전을 둘러싼 열풍에도 불구하고, 그는 오늘날의 시스템을 "들쭉날쭉한 지능(jagged intelligences)"으로 규정했습니다. 이 용어는 코딩이나 창의적 글쓰기와 같은 특정 영역에서는 초인적인 천재성을 발휘하면서도, 어린아이도 쉽게 해결할 수 있는 기본적인 추론 과제에는 동시에 실패하는 모델을 설명합니다.
"우리는 이러한 시스템이 무엇을 할 수 있는지 보기 시작했지만, 여전히 취약합니다."라고 허사비스는 세션 중에 언급했습니다. 그는 어떤 모델이 국제 수학 올림피아드에서 금메달을 딸 수도 있지만, 질문이 관습적이지 않은 방식으로 표현되면 간단한 산수에서 실수할 수 있다는 점을 지적했습니다. 그는 이러한 불일치가 현재의 좁은 AI와 진정한 AGI를 구분하는 주요 장벽이라고 주장했습니다.
AGI에 도달하는 데 필요한 도약을 설명하기 위해, 허사비스는 과학적 혁신과 관련된 야심 찬 사고 실험을 제안했습니다. 그는 진정한 AGI라면 1911년까지의 지식만을 학습한 상태에서 독자적으로 일반 상대성 이론을 도출해 내어, 알베르트 아인슈타인(Albert Einstein)의 1915년 돌파구를 재현할 수 있어야 한다고 시사했습니다. "추측을 해결하는 것보다 올바른 질문과 올바른 가설을 생각해 내는 것이 훨씬 더 어렵습니다."라고 그는 설명했습니다. 기존 데이터 내에서의 보간(interpolation)에는 뛰어나지만, 그러한 독창적인 개념적 도약에 필요한 "세계 모델(world models)"과 장기 계획 능력이 현재 시스템에는 여전히 부족합니다.
그러나 DeepMind의 공동 창립자인 그는 이러한 격차가 빠르게 메워지고 있다고 확신합니다. 그는 높은 수준의 목표를 달성하기 위해 자율적인 행동을 취할 수 있는 AI인 "에이전트형(agentic)" 시스템의 등장을 다음 주요 단계로 꼽았습니다. 챗봇 스타일의 상호작용에서 에이전트 기반 워크플로우로의 이러한 전환은 내년에 걸쳐 가속화되어, 업계를 5~10년 내 AGI 목표로 이끌 것으로 예상됩니다.
AGI로 가는 타임라인이 압축됨에 따라 오용의 가능성도 커집니다. 허사비스는 연설의 상당 부분을 프런티어 AI 시스템의 "이중 용도" 특성에 할애했습니다. AI가 신약 발견을 가속화하거나 에너지 그리드를 최적화할 수 있게 해주는 동일한 기능이 불량 개인부터 적대적인 국가에 이르기까지 "악의적인 행위자"에 의해 해를 끼치는 용도로 재사용될 수 있습니다.
그는 즉각적인 우려가 있는 두 가지 특정 분야로 **생물 보안**과 사이버 리스크를 강조했습니다.
생물 보안 분야에서의 우려는 AI가 유해한 생물학적 작용제를 만드는 진입 장벽을 낮출 수 있다는 점입니다. AlphaFold와 같은 AI 도구는 단백질 구조를 예측함으로써 생물학에 혁명을 일으켰지만, 적절한 안전장치가 없다면 유사한 기술이 이론적으로 독소나 병원체를 설계하는 데 사용될 수 있습니다.
사이버 보안은 훨씬 더 즉각적인 변동성을 나타냅니다. "현재 시스템은 사이버 분야에서 꽤 뛰어난 성능을 보이고 있습니다."라고 허사비스는 경고하며, 업계가 "방어가 공격보다 강력하도록" 보장해야 한다고 강조했습니다. AI 에이전트가 복잡한 코드를 작성하고 실행할 수 있게 됨에 따라, 자동화된 사이버 공격이 인간 방어팀의 역량을 넘어 확장될 위험은 가시적인 현실이 되었습니다. 이는 AI를 사용하여 취약점이 악용되기보다 더 빠르게 패치하는 선제적인 접근 방식을 필요로 합니다.
다음 표는 허사비스가 오늘날 배포된 AI 모델과 향후 10년 이내에 예상되는 AGI 시스템 간에 도출한 핵심적인 차이점을 요약한 것입니다.
| 지표 | 현재의 "들쭉날쭉한" 지능 | 미래의 인공 일반 지능 (AGI) |
|---|---|---|
| 성능 일관성 | 높은 가변성; 일부 작업에는 뛰어나지만 기본에서 실패 | 모든 인지 영역에서 균일하게 높은 역량 |
| 학습 방법론 | 정적 학습 세트; 배포 후 "고정"됨 | 지속적인 온라인 학습; 실시간 경험을 통한 업데이트 |
| 추론 능력 | 패턴 매칭 및 통계적 예측 | 인과 추론, 가설 생성 및 세계 모델링 |
| 자율성 수준 | 인간의 프롬프트가 필요한 수동적 도구 | 에이전트형; 장기 계획 및 독립적 행동 가능 |
| 주요 리스크 요인 | 환각(Hallucination) 및 편향 | 정렬 불량(Misalignment), 통제 상실 및 이중 용도 확산 |
디지털 지능의 국경 없는 특성은 이를 독특한 규제적 과제로 만듭니다. 허사비스는 데이터와 모델이 관할권을 넘어 즉각적으로 흐르기 때문에 단일 국가가 AI의 리스크를 효과적으로 억제할 수 없다고 주장했습니다. 그는 현재의 파편화된 지정학적 상황에서 이를 달성하기 어렵다는 점을 인정하면서도, 원자력이나 기후 변화를 위해 구축된 것과 유사한 국제적 프레임워크를 촉구했습니다.
"이번 서밋은 국제적 대화를 위한 믿을 수 없을 정도로 중요한 소집 지점이 되고 있습니다."라고 허사비스는 서밋에 대해 언급하며, 이러한 비판적 대화를 촉진하는 인도의 역할을 높이 평가했습니다. 그는 인도의 깊이 있는 엔지니어링 인재와 디지털 인프라의 빠른 채택을 언급하며 인도를 미래의 "AI 강국"으로 명시적으로 위치시켰습니다.
그러나 글로벌 협력으로 가는 길은 긴장으로 가득 차 있습니다. 현재 여러 국가가 AI 정책의 서로 다른 측면을 우선시하고 있으며, 일부는 혁신 주도권에 집중하고 다른 국가들은 엄격한 안전 준수에 집중하고 있습니다. 허사비스의 메시지는 분명했습니다. 특히 자율 에이전트의 배포와 생물 보안 안전장치에 관한 최소한의 글로벌 표준 없이는 전 세계가 안전에 대한 "바닥을 향한 경쟁(race to the bottom)"의 위험에 처하게 될 것이라는 점입니다.
리스크에 대한 집중적인 논의에도 불구하고, 허사비스 메시지의 핵심은 과학을 위한 AI의 변혁적 잠재력에 뿌리를 두고 있었습니다. 그는 다가올 10년을 AI 도구가 수십 년 동안 연구자들을 당혹스럽게 했던 물리학, 생물학, 재료 과학의 미스터리를 풀어낼 "새로운 르네상스"라고 묘사했습니다.
이러한 낙관론은 DeepMind 자체의 실적에 의해 뒷받침됩니다. 바둑을 정복하는 것부터 단백질 구조 예측 문제를 해결하는 것까지, 이 회사는 AI가 복잡하고 정의되지 않은 문제를 해결할 수 있음을 지속적으로 입증해 왔습니다. 허사비스의 관점에서 AGI로의 전환은 단순히 더 똑똑한 챗봇을 만드는 것이 아니라 지식 확장을 위한 궁극적인 도구를 만드는 것입니다. 그는 "나는 항상 AI가 지금까지 발명된 기술 중 가장 중요하고 유익한 기술 중 하나가 될 것이라고 믿어 왔습니다."라고 회상하며, 자신의 커리어 내내 이어진 추구는 과학적 발견을 가속화하려는 열망에 의해 주도되었다고 언급했습니다.
Creati.ai의 관점에서, 인도 AI 임팩트 서밋에서 나온 허사비스의 발언은 업계 내러티브의 중대한 변화를 시사합니다. 우리는 생성형 텍스트와 이미지에 대한 초기 경외감을 넘어 신뢰할 수 있고 자율적인 에이전트를 구축하는 진지하고 까다로운 작업으로 나아가고 있습니다.
기업과 개발자들에게 현재 모델의 "들쭉날쭉한" 특성은 이미 잘 알려진 마찰 지점입니다. AGI의 약속은 AI 신뢰성이 더 이상 운에 맡기는 것이 아니라 보장되는 미래를 의미합니다. 그러나 5년에서 10년이라는 타임라인은 기업들이 현재의 도구에 투자하는 동시에 역량의 급격한 도약에 대비해 인프라를 준비하며 민첩성을 유지해야 함을 시사합니다.
보안에 대한 강조는 또한 다음 세대의 AI 제품들이 "이중 용도" 잠재력과 관련하여 더 엄격한 정밀 조사를 받게 될 것임을 나타냅니다. 우리는 에이전트형 AI 시스템을 모니터링, 감사 및 방화벽으로 보호하기 위해 특별히 설계된 도구인 AI 보안 플랫폼에 대한 수요가 급증할 것으로 예상합니다. 업계가 허사비스의 경고를 소화함에 따라, 오늘날 우리가 구축하는 시스템이 내일의 취약점이 되지 않도록 보장하는 "방어 우선" AI 개발로 초점이 옮겨갈 것입니다.