AI News

인도 서밋 앞두고 AI 궤적의 "깊은 불확실성"에 대해 경고하는 글로벌 전문가들

100명 이상의 선도적인 인공지능(AI) 전문가들로 구성된 글로벌 연합이 **제2차 국제 AI 안전 보고서(Second International AI Safety Report)**를 발표하며, 범용 AI 시스템의 예측 불가능한 진화에 대해 강력한 경고를 보냈습니다. 뉴델리에서 열리는 중대한 **인도 AI 임팩트 서밋(India AI Impact Summit)**을 불과 며칠 앞두고 공개된 이 보고서는, 빠르게 발전하는 AI 역량과 이를 관리하기 위해 현재 마련된 "불충분한" 안전장치 사이의 심각한 괴리를 강조하고 있습니다.

튜링상 수상 과학자인 **요슈아 벤지오(Yoshua Bengio)**가 의장을 맡은 이 보고서는 다가오는 서밋에서 정책 입안자들을 안내하기 위한 과학적 합의 문서 역할을 합니다. AI가 경제 성장과 과학적 발견을 촉진할 수 있는 엄청난 잠재력을 인정하면서도, 조사 결과는 종종 인간의 이해나 통제 능력을 앞지르며 맹렬한 속도로 진보하는 기술의 복잡한 모습을 그려내고 있습니다.

"들쭉날쭉한(Jagged)" 지능의 역설

보고서의 가장 중요한 발견 중 하나는 최첨단 AI 모델에서 나타나는 "들쭉날쭉한(Jagged)" 성능 현상입니다. 이러한 시스템은 국제 수학 올림피아드 문제에서 "금메달급 성능"을 달성하고 특정 과학 벤치마크에서 박사 수준의 전문성을 능가했지만, 인간에게는 사소한 작업에서 여전히 처참하게 실패하고 있습니다.

이러한 불일치는 능력에 대한 위험한 착각을 불러일으킵니다. 사용자들은 다른 고차원 영역에서의 성능을 근거로 의료 진단이나 법률 분석과 같은 중요한 시나리오에서 시스템을 과도하게 신뢰할 수 있습니다. 보고서는 이러한 예측 불가능성이 다단계 작업을 완료하기 위해 자율적으로 행동할 수 있는 **에이전트 시스템(Agentic systems)**의 등장으로 더욱 심화되고 있다고 지적합니다.

보고서는 " 범용 AI(General-purpose AI) 모델이 새로운 기능을 습득하고 특정 방식으로 행동하는 방법과 이유는 개발자조차 예측하기 어려운 경우가 많다"고 명시하고 있습니다.

전문가들은 이러한 에이전트 시스템이 경제에 더욱 통합됨에 따라, 직접적인 인간 통제의 상실로 인해 배포 전까지 "위험한 역량"이 감지되지 않은 채 방치될 수 있다고 경고합니다.

고조되는 위험: 생물학적 위협에서 시스템적 불평등까지

2026년 보고서는 2025년 창간호에서 식별된 위험 범주를 대폭 확장했습니다. 이 보고서는 악의적인 행위자의 진입 장벽이 낮아지고 있음을 시사하는 새로운 실증적 증거를 제시합니다.

주요 우려 분야는 다음과 같습니다:

  • 생물학적 및 사이버 위험(Biological & Cyber Risks): AI 시스템은 이제 바이러스학 실험실 프로토콜의 문제 해결과 같이 생물학 무기 개발과 관련된 작업에서 전문가 수준의 성능과 일치하거나 이를 능가합니다. 마찬가지로, 이러한 도구들은 정교한 사이버 공격을 시작하기 위한 기술 문턱을 낮추는 데 사용되고 있습니다.
  • 딥페이크 및 비동의 이미지(Deepfakes & Non-Consensual Imagery): AI 생성 콘텐츠의 확산은 사기와 비동의 성적 이미지(NCII)의 증가를 부채질하고 있으며, 이는 여성과 소녀들을 불균형적으로 표적으로 삼고 있습니다. 보고서는 인기 있는 20개의 "누디파이(nudify)" 앱 중 19개가 이러한 형태의 학대에 특화되어 있다는 연구 결과를 인용했습니다.
  • 시스템적 노동 시장 교란(Systemic Labor Disruption): 즉각적인 안전 위험을 넘어, 보고서는 더 광범위한 구조적 위험을 식별합니다. 노동 시장에 대한 AI의 통합은 불평등을 악화시킬 위협이 있으며, 이전에는 자동화로부터 안전하다고 여겨졌던 부문에서 대규모 실직이 발생할 가능성이 있습니다.

표: 2026년 보고서에서 식별된 주요 위험 범주

위험 범주 주요 우려 사항 현재 상태
악의적 사용 사이버 공격 및 생물 무기 진입 장벽 완화 매우 긴급; 활발한 악용 관찰됨
시스템적 위험 노동력 대체 및 글로벌 불평등 심화 장기적 위협; 정책적 개입 필요
기술적 실패 자율 에이전트 시스템에 대한 통제 상실 매우 불확실; 안전장치는 "결함이 있을 수 있음"
허위 정보 AI 생성 영향력 공작의 규모 급속히 성장 중; 민주적 절차에 영향

글로벌 격차: 두 세계의 이야기

세계가 **인도 AI 임팩트 서밋(India AI Impact Summit)**을 준비함에 따라, 보고서는 AI 혜택의 불균등한 분배에 주목합니다. 최소 7억 명의 사람들이 매주 선도적인 AI 시스템을 사용하는 등 채택이 "신속하게" 이루어졌지만, 이러한 사용은 주로 글로벌 노스(Global North)에 집중되어 있습니다.

대조적으로, 아프리카, 아시아, 라틴 아메리카의 많은 지역에서 채택률은 10% 미만으로 남아 있습니다. 이러한 "디지털 격차"는 심각한 위험을 초래합니다. 첨단 AI가 미래 경제 성장의 주요 엔진이 된다면, 기술이나 이를 지원할 인프라에 접근할 수 없는 국가들은 영구적으로 뒤처질 수 있습니다.

이러한 격차는 다가오는 뉴델리 서밋의 핵심 주제와 일치합니다. **사람, 지구, 진보(People, Planet, and Progress)**라는 "수트라(Sutras)" 아래 브랜드화된 이번 서밋은 글로벌 대화의 중심을 이론적인 안전 논쟁에서 글로벌 사우스(Global South)에 이익이 되는 실질적이고 포괄적인 결과로 전환하는 것을 목표로 합니다.

글로벌 합의의 분열?

주목할 만한 지정학적 전개로, 미국은 초안 작성 과정에서 피드백을 제공했음에도 불구하고 보고서의 최종 버전 서명을 거부했습니다. 이는 전년도의 만장일치에서 벗어난 행보입니다. 일부 관찰자들은 이 조치를 "주로 상징적"이라고 설명하지만, 이는 빠른 혁신과 국제적 규제 프레임워크 사이의 커지는 긴장을 강조합니다.

미국의 입장은 보고서의 조사 결과를 지지해 온 유럽 연합(European Union)중국을 포함한 다른 주요 강대국들의 입장과 대조를 이룹니다. 이러한 이견은 국가들이 "AI 패권 경쟁"과 조율된 글로벌 거버넌스의 필요성 사이에서 균형을 맞추기 위해 고군분투함에 따라 뉴델리 서밋에서 논쟁적인 토론의 장을 마련할 수 있습니다.

뉴델리를 향한 전망

이 보고서의 발표는 2026년 2월 16일부터 20일까지 예정된 인도 AI 임팩트 서밋의 의제를 설정합니다. 아슈위니 바이슈나우(Ashwini Vaishnaw) 장관을 포함한 인도 관리들은 이번 모임이 컴퓨팅 자원에 대한 "책임 있는 개방성"과 "공정한 접근"에 초점을 맞출 것이라고 강조했습니다.

모인 정책 입안자들에게 과제는 보고서의 과학적 경고를 실행 가능한 정책으로 변환하는 것입니다. 문서의 결론처럼 현재의 위험 관리 기술은 "개선되고는 있지만 불충분"합니다. 이제 세계는 이러한 실존적 위험을 식별하는 것과 실제로 이를 완화하는 것 사이의 간극을 메우기 위해 뉴델리를 주목하고 있습니다.

추천