
디지털 전쟁의 지형에서 중대한 변화를 시사하는 획기적인 공개 내용에 따르면, 구글은 악명 높은 중국 국가 지원 해킹 그룹인 APT31이 미국 조직을 겨냥한 정교한 사이버 공격을 조율하기 위해 Gemini AI를 성공적으로 활용했음을 공식 확인했습니다. 2026년 2월 12일 구글 위협 분석 그룹(Threat Analysis Group, TAG)이 발표한 보고서에 상세히 기술된 이 폭로는 주요 국가 행위자가 상업용 거대 언어 모델(Large Language Models, LLMs)을 자신의 공격 작전 워크플로우에 통합했다는 최초의 결정적인 증거가 됩니다.
사이버 보안(cybersecurity) 커뮤니티와 AI 이해관계자들에게 있어 이러한 발전은 단순한 서비스 약관 위반이 아닙니다. 이는 사이버 스파이 활동의 산업화를 의미합니다. 생성형 AI(Generative AI)를 활용함으로써 APT31은 취약점 연구 및 스크립트 생성을 가속화하여 표적 식별과 악용 사이의 시간을 효과적으로 단축하는 능력을 입증했습니다. 이 사건은 첨단 AI 기술의 이중 용도(dual-use) 특성을 강조하며, 집요한 국가 수준의 적대 세력에 맞선 현재 안전 가드레일의 효용성에 대해 시급한 의문을 제기합니다.
구글 위협 분석 그룹(TAG)의 보고서는 보안 커뮤니티에서 Zirconium으로도 추적되는 APT31이 어떻게 Gemini의 기능을 활용했는지에 대한 세부적인 분석을 제공합니다. 사용자가 혐오 표현이나 악성 코드를 직접 생성하기 위해 안전 필터를 우회하려는 일반적인 "탈옥(jailbreaking)" 시도와 달리, APT31의 접근 방식은 체계적이고 작전적이었습니다.
조사에 따르면, 이 그룹은 Gemini를 직접 공격을 시작하는 데 사용하지 않았습니다. 대신, 그들은 AI를 공격 전 물류 및 도구 구축을 위한 전력 승수(force multiplier)로 사용했습니다.
이 그룹의 활동 중 가장 우려스러운 부분은 취약점 발견의 자동화였습니다. APT31은 공개 취약점 데이터(CVEs)와 기술 문서를 Gemini 인스턴스에 입력하여 신속한 공격 전략을 합성했습니다.
구글의 조사 결과는 AI가 해커들에게 "부조종사(co-pilot)" 역할을 하여, 그들이 악성 코드의 오류를 해결하고 공격 체인을 실시간으로 최적화할 수 있게 했음을 시사합니다.
이 AI 강화 캠페인의 주요 표적은 미국 내 고가치 조직들로 확인되었습니다. 구글은 진행 중인 복구 노력을 보호하기 위해 구체적인 피해자 신원에 대한 기밀을 유지하고 있지만, 부문 분석에 따르면 핵심 인프라, 정치 조직 및 기술 기업에 전략적으로 집중되어 있습니다.
Gemini의 사용으로 APT31은 작전 규모를 크게 확장할 수 있었습니다. 전통적인 스피어 피싱 및 정찰 캠페인은 자원 집약적이지만, 생성형 AI의 통합을 통해 이 그룹은 더 높은 정밀도로 더 넓은 그물을 던질 수 있었습니다.
주요 표적 부문:
이러한 발전의 심각성을 이해하려면 전통적인 사이버 공격 체인(Cyber Kill Chain)과 APT31 캠페인에서 관찰된 가속화된 타임라인을 비교하는 것이 필수적입니다. 거대 언어 모델(LLMs)의 통합은 "무기화" 및 "정찰" 단계를 크게 압축합니다.
표: 사이버 작전 단계에 미치는 AI의 영향
| 공격 단계 | 전통적 방법 | AI 강화 방법 (APT31) |
|---|---|---|
| 정찰 | 공개 데이터의 수동 스크래핑; 네트워크 토폴로지의 인적 분석. | 자동화된 데이터 합성; 표적 인프라 문서의 AI 기반 요약. |
| 무기화 | 익스플로잇의 수동 코딩; 시행착오를 통한 디버깅. | LLM을 통한 신속한 스크립트 생성; 자동화된 코드 최적화 및 오류 수정. |
| 전달 | 템플릿 기반 피싱; 문법적 오류나 문화적 이질감이 포함되는 경우가 많음. | 문맥을 인식하고 언어적으로 완벽한 피싱 초안이 즉시 생성됨. |
| 악용 | 사전 구축된 도구 실행; 환경이 다를 경우 수동 조정 필요. | AI가 분석한 실시간 오류 피드백에 기반한 동적 스크립트 조정. |
APT31과 관련된 비정상적인 활동 패턴을 탐지한 즉시, 구글은 작전을 차단하기 위해 즉각적인 조치를 취했습니다. 여기에는 위협 행위자와 관련된 특정 계정을 폐쇄하고 관련 침해 지표(IOCs)를 미국 법 집행 기관 및 연방 기관과 공유하는 것이 포함되었습니다.
그러나 이러한 활동의 탐지는 AI 제공업체들에게 복잡한 과제를 안겨줍니다. 바로 **속성 파악(Attribution)**입니다.
보고서에서 구글은 APT31이 제출한 쿼리가 종종 성격상 "이중 용도"였다고 언급했습니다. 예를 들어, AI에게 "개방된 취약점에 대해 네트워크 포트를 테스트하는 스크립트를 작성해달라"고 요청하는 것은 시스템 관리자에게는 정당한 요청이지만, 국가 행위자에게는 악의적인 요청입니다. 프롬프트 구문만으로 사이버 보안 방어자와 외국 적대 세력을 구별하는 것은 점점 더 어려워지고 있습니다.
구글은 API 액세스에 대해 더 엄격한 "고객 알기 제도(Know Your Customer, KYC)" 프로토콜을 시행하고, 국가 지원 공격 기술을 더 잘 탐지하기 위해 적대적 테스트를 강화하고 있다고 밝혔습니다.
중국 국가 행위자가 미국의 이익에 반하여 미국산 AI 모델을 성공적으로 무기화했다는 확인은 신속한 규제 대응을 촉발할 가능성이 높습니다. 이 사건은 첨단 AI 모델의 수출 및 통제에 대해 정책 입안자들이 오랫동안 품어온 우려가 타당함을 입증합니다.
우리는 이번 사건이 **안전하고 보안이 유지되며 신뢰할 수 있는 인공지능에 관한 행정 명령(Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence)**의 집행을 가속화할 것으로 예상합니다. 나아가, 이는 "AI 안전 연구소(AI Safety Institute)"가 모델 오남용 방지를 위한 더 엄격한 표준을 개발하도록 압박을 가할 것입니다.
보안 전문가들은 업계 전반에 걸쳐 다음과 같은 몇 가지 변화를 예상합니다:
APT31의 Gemini 사용에 대한 폭로는 중대한 전환점입니다. 이는 사이버 방어(cyber defense)에서 AI의 이론적 위험이 실질적인 현실로 바뀌었음을 신호합니다. 사이버 보안 업계에 전달하는 메시지는 명확합니다. 이제 적은 강화되었습니다.
방어자들은 이제 위협 행위자가 인간이 가능한 것보다 더 빠르게 공격을 반복할 수 있는 능력을 갖추고 있다는 가정하에 작전을 수행해야 합니다. 앞으로의 전투는 단순히 인간 대 인간이 아니라, AI 지원 방어 대 AI 지원 공격의 대결이 될 것입니다. Creati.ai는 이 발전하는 이야기와 그에 따른 글로벌 AI 정책의 변화를 지속적으로 모니터링할 것입니다.