
2026년 2월 12일 – 인공지능의 양면성을 극명하게 보여주는 중요한 폭로로, Google의 위협 분석 그룹(Threat Intelligence Group, GTIG)과 Google DeepMind는 국가 주도 적대 세력이 Google Gemini를 사이버 공격 생명주기에 어떻게 체계적으로 통합하고 있는지 상세히 설명하는 종합 보고서를 발표했습니다.
뮌헨 보안 회의(Munich Security Conference)를 앞두고 오늘 발표된 이 보고서는 우려스러운 추세를 강조합니다. 중국, 이란, 북한의 지능형 지속 위협(Advanced Persistent Threat, APT) 그룹이 단순한 실험 단계를 넘어섰다는 것입니다. 이러한 행위자들은 이제 생성형 AI(Generative AI)를 적극적으로 활용하여 정찰을 가속화하고, 사회공학적(Social Engineering) 캠페인을 개선하며, 활발한 작전 중에 악성 코드를 동적으로 생성하고 있습니다.
지난 1년 동안 사이버 보안 커뮤니티는 거대언어모델(Large Language Models, LLMs)이 사이버 범죄자의 진입 장벽을 낮출 가능성에 대해 경고해 왔습니다. 하지만 Google의 최신 조사 결과에 따르면, 정교한 국가 지원 그룹이 효율성과 회피 능력을 강화하기 위해 이러한 도구들을 활용하고 있음이 확인되었습니다.
보고서에 따르면, 이러한 그룹의 Gemini 사용은 획일적이지 않습니다. 다양한 행위자들이 심층적인 오픈 소스 인텔리전스(Open-Source Intelligence, OSINT) 수집부터 피싱 유인물의 실시간 번역에 이르기까지 자신들의 특정 전략적 목표에 맞게 기술을 도입했습니다.
GTIG의 수석 분석가인 John Hultquist는 북한과 이란 그룹이 사회공학을 위해 AI를 조기에 도입한 반면, 중국 행위자들은 이제 취약점 연구와 코드 문제 해결을 간소화하기 위해 더 복잡한 에이전트 기반 사례를 개발하고 있다고 언급했습니다.
이 보고서는 특정 APT 그룹이 Gemini를 어떻게 활용하고 있는지에 대해 세밀하게 살펴봅니다. 다음 표는 주요 행위자와 관찰된 방법론을 요약한 것입니다.
국가 주도 AI 악용 요약
| 위협 그룹 | 출처 | 주요 대상 | Gemini의 주요 오용 사례 |
|---|---|---|---|
| APT42 (Charming Kitten) | 이란 | 교육, 정부, NGO | 피싱 유인물 번역, 사회공학적 페르소나 정교화, 설득력 있는 이메일 초안 작성. |
| UNC2970 | 북한 | 국방 및 항공우주 | 고가치 타겟 프로파일링을 위한 OSINT 합성; 기업 채용 담당자 사칭. |
| TEMP.Hex (Mustang Panda) | 중국 | 정부 및 NGO (파키스탄/유럽) | 분리주의 단체 및 특정 개인에 대한 구조적 데이터 수집. |
| APT31 (Zirconium) | 중국 | 미국 산업/정치 부문 | 취약점 분석 및 테스트 계획 자동화를 위해 "전문가 사이버 보안 페르소나" 사용. |
이란 이슬람 혁명 수비대(IRGC)와 역사적으로 연관된 그룹인 APT42는 Gemini를 사회공학적 작전에 대대적으로 통합했습니다. 연구원, 저널리스트, 활동가들을 표적으로 삼는 것으로 알려진 APT42는 모델을 사용하여 콘텐츠를 번역하고 피싱 이메일의 문법을 다듬어, 합법적인 서신과 구별할 수 없게 만듭니다.
APT42는 표적의 약력을 Gemini에 입력하여 즉각적인 신뢰를 구축하도록 설계된 시나리오인 맞춤형 미끼(Pretexts)를 생성합니다. 이 기능을 통해 이전에는 잠재적 피해자들에게 경고 신호로 작용했던 언어적 장벽과 문화적 미묘한 차이를 극복할 수 있게 되었습니다.
북한 그룹인 **UNC2970**에게 AI는 첩보 활동을 위한 힘의 배가 장치(Force Multiplier) 역할을 합니다. 이 그룹은 국방 및 항공우주 분야를 표적으로 삼으며, 종종 합법적인 채용 담당자로 위장하여 멀웨어를 유포합니다.
Google의 분석에 따르면 UNC2970은 Gemini를 사용하여 전문 네트워킹 사이트(예: LinkedIn)에서 방대한 양의 데이터를 스크래핑하고 합성합니다. AI는 조직 구조를 파악하고, 주요 기술 인력을 식별하며, 스피어 피싱(Spear-phishing) 캠페인에 사용되는 매우 사실적인 직무 기술서 초안을 작성하는 데 도움을 줍니다.
TEMP.Hex 및 APT31을 포함한 중국 국가 지원 행위자들은 이 기술의 가장 기술적인 응용 사례 중 일부를 보여주었습니다. 이러한 그룹들이 자체 멀웨어 코드를 수정하고 공개적으로 알려진 취약점을 연구하는 데 Gemini를 사용하는 것이 관찰되었습니다.
한 우려스러운 사례에서, 중국 그룹은 Gemini를 활용하여 "전문가 사이버 보안 페르소나"를 시뮬레이션했습니다. 이러한 AI 에이전트에게는 소프트웨어 취약점 분석을 자동화하고 미국 기반 타겟의 보안 제어를 우회하기 위한 테스트 계획을 생성하는 임무가 주어졌습니다. 이는 AI 에이전트가 침입 계획 단계를 돕는 자동화된 공세적 작전으로의 이동을 시사합니다.
보고서에서 가장 기술적인 폭로는 아마도 2025년 9월에 발견된 멀웨어 변종인 Honestcue의 발견일 것입니다. 자체적으로 악성 페이로드를 운반하는 기존 멀웨어와 달리, Honestcue는 클라우드에 의존하는 빈 껍데기(Hollow Shell)처럼 작동합니다.
Honestcue는 Google Gemini API를 활용하여 메모리에서 악성 C# 코드를 동적으로 생성하고 실행합니다. 악성 로직을 AI 응답으로 오프로드함으로써 공격자는 두 가지 목표를 달성합니다.
이러한 "현지 자원 활용(Living off the land)" 방식(여기서 "현지"는 이제 클라우드 기반 AI 서비스임)은 멀웨어 개발의 중대한 진화를 나타냅니다.
국가 주도 첩보 활동 외에도, 보고서는 성장하는 "서비스형 탈옥(Jailbreak-as-a-Service)" 지하 경제를 조명합니다. 사이버 범죄자들은 맞춤형의 검열되지 않은 AI 모델이라고 주장하지만 실제로는 Gemini나 OpenAI와 같은 상업용 API의 래퍼(Wrapper)인 도구들을 홍보하고 있습니다.
그러한 도구 중 하나인 Xanthorox는 랜섬웨어와 멀웨어를 생성하기 위한 비공개 자체 호스팅 AI라고 광고합니다. 그러나 Google의 조사 결과, Xanthorox는 단순히 합법적인 모델의 탈옥된 인스턴스를 통해 프롬프트를 라우팅하고 안전 필터를 제거하여 악성 콘텐츠를 제공하는 것으로 밝혀졌습니다.
또한 금전적 동기를 가진 그룹들이 **모델 추출 공격 (Model Extraction Attacks, MEAs)**을 점점 더 많이 수행하고 있습니다. 이러한 "증류 공격(Distillation Attacks)"은 Gemini와 같은 성숙한 모델을 체계적으로 조사하여 훈련 패턴을 추출하고, 저렴하고 작은 복제 모델을 훈련시키기 위해 지적 재산을 효과적으로 훔치는 행위를 포함합니다. 이는 사용자 데이터를 손상시키지는 않지만, AI 개발자의 경쟁 우위에 심각한 위협이 됩니다.
이러한 조사 결과에 대응하여 Google은 보고서에 언급된 APT 그룹과 관련된 확인된 모든 계정 및 자산을 비활성화하는 공격적인 조치를 취했습니다. 회사는 적대 세력이 콘텐츠 생성 및 코딩 지원을 위해 Gemini를 사용하고 있지만, Gemini 모델 자체의 보안이 침해되었다는 증거는 없다고 강조했습니다.
보고서는 "정부 지원을 받는 위협 행위자들에게 LLM은 기술 연구, 타겟팅, 그리고 미묘한 피싱 유인물의 신속한 생성을 위한 필수 도구가 되었다"라고 기술하고 있습니다.
Creati.ai는 이러한 발전이 위협 지형의 영구적인 변화를 예고한다고 언급했습니다. AI 모델이 더욱 멀티모달(Multimodal)화되고 에이전트화됨에 따라 취약점 발견과 악용 사이의 시간 차는 계속해서 줄어들 것입니다. 공세적 사이버 작전에 AI를 통합하는 것은 더 이상 이론적인 위험이 아니라, 새로운 교전 표준입니다.
기업 보안 팀에게 이는 단순히 정적인 침해 지표에만 의존하기보다 AI가 생성한 이상 징후를 식별할 수 있는 행동 기반 탐지 시스템으로의 전환을 필요로 합니다. AI 기반 공격자와 AI 기반 방어자 간의 군비 경쟁이 가속화됨에 따라 AI 공급망 자체의 무결성이 다음의 주요 격전지가 될 가능성이 높습니다.