
100명 이상의 선도적인 인공지능(AI) 전문가들로 구성된 글로벌 연합이 **제2차 국제 AI 안전 보고서(Second International AI Safety Report)**를 발표하며, 범용 AI 시스템의 예측 불가능한 진화에 대해 강력한 경고를 보냈습니다. 뉴델리에서 열리는 중대한 **인도 AI 임팩트 서밋(India AI Impact Summit)**을 불과 며칠 앞두고 공개된 이 보고서는, 빠르게 발전하는 AI 역량과 이를 관리하기 위해 현재 마련된 "불충분한" 안전장치 사이의 심각한 괴리를 강조하고 있습니다.
튜링상 수상 과학자인 **요슈아 벤지오(Yoshua Bengio)**가 의장을 맡은 이 보고서는 다가오는 서밋에서 정책 입안자들을 안내하기 위한 과학적 합의 문서 역할을 합니다. AI가 경제 성장과 과학적 발견을 촉진할 수 있는 엄청난 잠재력을 인정하면서도, 조사 결과는 종종 인간의 이해나 통제 능력을 앞지르며 맹렬한 속도로 진보하는 기술의 복잡한 모습을 그려내고 있습니다.
보고서의 가장 중요한 발견 중 하나는 최첨단 AI 모델에서 나타나는 "들쭉날쭉한(Jagged)" 성능 현상입니다. 이러한 시스템은 국제 수학 올림피아드 문제에서 "금메달급 성능"을 달성하고 특정 과학 벤치마크에서 박사 수준의 전문성을 능가했지만, 인간에게는 사소한 작업에서 여전히 처참하게 실패하고 있습니다.
이러한 불일치는 능력에 대한 위험한 착각을 불러일으킵니다. 사용자들은 다른 고차원 영역에서의 성능을 근거로 의료 진단이나 법률 분석과 같은 중요한 시나리오에서 시스템을 과도하게 신뢰할 수 있습니다. 보고서는 이러한 예측 불가능성이 다단계 작업을 완료하기 위해 자율적으로 행동할 수 있는 **에이전트 시스템(Agentic systems)**의 등장으로 더욱 심화되고 있다고 지적합니다.
보고서는 " 범용 AI(General-purpose AI) 모델이 새로운 기능을 습득하고 특정 방식으로 행동하는 방법과 이유는 개발자조차 예측하기 어려운 경우가 많다"고 명시하고 있습니다.
전문가들은 이러한 에이전트 시스템이 경제에 더욱 통합됨에 따라, 직접적인 인간 통제의 상실로 인해 배포 전까지 "위험한 역량"이 감지되지 않은 채 방치될 수 있다고 경고합니다.
2026년 보고서는 2025년 창간호에서 식별된 위험 범주를 대폭 확장했습니다. 이 보고서는 악의적인 행위자의 진입 장벽이 낮아지고 있음을 시사하는 새로운 실증적 증거를 제시합니다.
주요 우려 분야는 다음과 같습니다:
표: 2026년 보고서에서 식별된 주요 위험 범주
| 위험 범주 | 주요 우려 사항 | 현재 상태 |
|---|---|---|
| 악의적 사용 | 사이버 공격 및 생물 무기 진입 장벽 완화 | 매우 긴급; 활발한 악용 관찰됨 |
| 시스템적 위험 | 노동력 대체 및 글로벌 불평등 심화 | 장기적 위협; 정책적 개입 필요 |
| 기술적 실패 | 자율 에이전트 시스템에 대한 통제 상실 | 매우 불확실; 안전장치는 "결함이 있을 수 있음" |
| 허위 정보 | AI 생성 영향력 공작의 규모 | 급속히 성장 중; 민주적 절차에 영향 |
세계가 **인도 AI 임팩트 서밋(India AI Impact Summit)**을 준비함에 따라, 보고서는 AI 혜택의 불균등한 분배에 주목합니다. 최소 7억 명의 사람들이 매주 선도적인 AI 시스템을 사용하는 등 채택이 "신속하게" 이루어졌지만, 이러한 사용은 주로 글로벌 노스(Global North)에 집중되어 있습니다.
대조적으로, 아프리카, 아시아, 라틴 아메리카의 많은 지역에서 채택률은 10% 미만으로 남아 있습니다. 이러한 "디지털 격차"는 심각한 위험을 초래합니다. 첨단 AI가 미래 경제 성장의 주요 엔진이 된다면, 기술이나 이를 지원할 인프라에 접근할 수 없는 국가들은 영구적으로 뒤처질 수 있습니다.
이러한 격차는 다가오는 뉴델리 서밋의 핵심 주제와 일치합니다. **사람, 지구, 진보(People, Planet, and Progress)**라는 "수트라(Sutras)" 아래 브랜드화된 이번 서밋은 글로벌 대화의 중심을 이론적인 안전 논쟁에서 글로벌 사우스(Global South)에 이익이 되는 실질적이고 포괄적인 결과로 전환하는 것을 목표로 합니다.
주목할 만한 지정학적 전개로, 미국은 초안 작성 과정에서 피드백을 제공했음에도 불구하고 보고서의 최종 버전 서명을 거부했습니다. 이는 전년도의 만장일치에서 벗어난 행보입니다. 일부 관찰자들은 이 조치를 "주로 상징적"이라고 설명하지만, 이는 빠른 혁신과 국제적 규제 프레임워크 사이의 커지는 긴장을 강조합니다.
미국의 입장은 보고서의 조사 결과를 지지해 온 유럽 연합(European Union) 및 중국을 포함한 다른 주요 강대국들의 입장과 대조를 이룹니다. 이러한 이견은 국가들이 "AI 패권 경쟁"과 조율된 글로벌 거버넌스의 필요성 사이에서 균형을 맞추기 위해 고군분투함에 따라 뉴델리 서밋에서 논쟁적인 토론의 장을 마련할 수 있습니다.
이 보고서의 발표는 2026년 2월 16일부터 20일까지 예정된 인도 AI 임팩트 서밋의 의제를 설정합니다. 아슈위니 바이슈나우(Ashwini Vaishnaw) 장관을 포함한 인도 관리들은 이번 모임이 컴퓨팅 자원에 대한 "책임 있는 개방성"과 "공정한 접근"에 초점을 맞출 것이라고 강조했습니다.
모인 정책 입안자들에게 과제는 보고서의 과학적 경고를 실행 가능한 정책으로 변환하는 것입니다. 문서의 결론처럼 현재의 위험 관리 기술은 "개선되고는 있지만 불충분"합니다. 이제 세계는 이러한 실존적 위험을 식별하는 것과 실제로 이를 완화하는 것 사이의 간극을 메우기 위해 뉴델리를 주목하고 있습니다.