AI News

AI의 공격적 우위: GPT-5.3-Codex, 새로운 암호화폐 보안 벤치마크 석권

인공지능의 비약적인 발전을 보여줌과 동시에 탈중앙화 금융(Decentralized Finance, DeFi) 생태계의 중대한 취약성을 드러내는 발표에서, OpenAI는 블록체인 보안 분야에서 AI 에이전트의 역량을 평가하기 위해 설계된 새로운 종합 테스트 프레임워크인 EVMbench를 공개했습니다. 첫 번째 벤치마크 결과는 놀랍기도 하지만 우려스럽기도 합니다. OpenAI의 최신 특화 모델인 GPT-5.3-Codex는 테스트 케이스의 **72.2%**에서 암호화폐 지갑을 성공적으로 공격하고 자금을 탈취하며, 현재의 방어 수단을 훨씬 능가하는 사이버 공격 능력을 입증했습니다.

암호화폐 투자사 **Paradigm**과 협력하여 출시된 EVMbench는 AI 모델이 이더리움 가상 머신(Ethereum Virtual Machine, EVM) 스마트 계약(Smart Contracts)의 취약점을 얼마나 잘 탐지, 패치 및 공격할 수 있는지를 측정하는 표준화된 경기장 역할을 합니다. 이 이니셔티브는 "레드팀 작업(Red Teaming)"을 통해 보안을 강화하는 것을 목표로 하지만, 즉각적인 데이터는 창과 방패 사이의 격차가 벌어지고 있음을 가리킵니다. GPT-5.3-Codex가 강력한 디지털 포식자임을 증명한 반면, 탐지 및 패치 작업에서는 훨씬 낮은 점수를 기록하며 보호 능력은 이에 미치지 못했습니다. 이는 전 세계 스마트 계약에 잠겨 있는 1,000억 달러 규모 자산의 안전성에 대한 긴급한 논의를 촉발했습니다.

벌어지는 격차: AI 코드 생성에서의 공격 대 방어

"공격(Exploit)" 카테고리에서 기록한 72.2%의 성공률이라는 헤드라인 수치는 AI 역량의 거대한 세대적 도약을 의미합니다. 불과 6개월 전, 표준 GPT-5 모델은 유사한 작업에서 단 31.9%의 성공률을 기록했습니다. 이러한 두 배 이상의 효율성 증가는 GPT-5.3-Codex의 특화된 튜닝이 블록체인 프로토콜에 내재된 복잡한 로직 흐름과 경제적 유인 구조에 대한 더 깊은 이해를 가능하게 했음을 시사합니다.

그러나 벤치마크는 우려스러운 비대칭성도 강조했습니다. AI는 시스템을 파괴하는 데는 뛰어났지만, 이를 수정하는 데는 어려움을 겪었습니다. 에이전트가 계약의 의도된 기능을 손상시키지 않으면서 취약점을 수정해야 하는 "패치(Patch)" 모드에서의 성공률은 약 **41.5%**에 머물렀습니다. 마찬가지로 전통적인 코드 감사를 모방한 "탐지(Detect)" 모드에서 모델들은 알려진 버그를 식별하는 데 자주 실패했으며, 가장 우수한 성능을 보인 Claude Opus 4.6조차 **45.6%**의 탐지율을 기록하는 데 그쳤습니다.

이러한 격차는 현재 대규모 언어 모델(Large Language Model, LLM) 아키텍처의 근본적인 현실을 강조합니다. 즉, 에이전트가 단 하나의 실패 경로를 찾는 것(공격)이 모든 실패의 부재를 보장하는 것(보안 검증)보다 계산적으로 더 쉽다는 것입니다. 아래 표는 새로운 벤치마크의 다양한 운영 모드에서 나타난 극명한 성능 대비를 보여줍니다.

표 1: EVMbench 모드별 AI 모델 성능

지표 GPT-5.3-Codex (현재) GPT-5 (6개월 전) Claude Opus 4.6
공격 성공률 72.2% 31.9% N/A
패치 성공률 41.5% N/A N/A
탐지 재현율 N/A N/A 45.6%

EVMbench 내부: 엄격한 테스트 환경

이러한 결과가 이론적인 연습이 아닌 실제 위험을 반영하도록 하기 위해, OpenAI와 Paradigm은 40개의 전문 스마트 계약 감사에서 추출한 120개의 엄선된 취약점을 사용하여 EVMbench를 구축했습니다. 이는 합성된 버그가 아니라 Code4rena와 같은 경쟁적인 감사 플랫폼에서 가져온 실제 운영 코드의 결함이었습니다.

벤치마크는 Anvil이라고 불리는 샌드박스 환경에서 운영되어, AI 에이전트가 로컬 블록체인 시뮬레이션과 상호작용할 수 있도록 합니다. 이 격리된 환경 덕분에 모델은 실제 사용자 자금을 위험에 빠뜨리지 않고 재진입 공격(Reentrancy Attacks)이나 로직 조작과 같은 파괴적인 시도를 할 수 있습니다.

프레임워크는 다음 세 가지 별개의 역량에 대해 에이전트를 평가합니다.

표 2: EVMbench 평가 모드

모드 목표 성공 기준
탐지(Detect) 저장소를 감사하여 취약점 탐지. 인간 감사자가 확인한 실제 결함에 대한 재현율.
패치(Patch) 취약점을 제거하도록 코드 재작성. 취약점이 제거됨과 동시에 핵심 기능은 유지됨.
공격(Exploit) 배포된 계약을 공격하여 자금 탈취. 계약의 암호화폐 잔액을 성공적으로 탈취.

중요한 점은, 벤치마크에 고처리량 스테이블코인 결제에 중점을 두고 Stripe와 Paradigm이 개발한 새로운 레이어 1 네트워크인 **Tempo 블록체인**의 시나리오가 포함되어 있다는 것입니다. Tempo 관련 과제의 포함은 OpenAI가 단순히 기존 이더리움 코드를 보는 데 그치지 않고, 에이전트 기반 결제가 확산될 것으로 예상되는 차세대 인프라에 대해서도 적극적으로 테스트하고 있음을 나타냅니다.

사례 연구: 독자적인 플래시 론(Flash Loan) 공격

동반된 연구 논문에서 가장 놀라운 사례는 GPT-5.2(중간 버전)로 구동되는 에이전트가 복잡한 "플래시 론(Flash Loan)" 공격을 실행한 특정 테스트 케이스입니다.

플래시 론 공격은 막대한 양의 자본을 빌려 시장 가격이나 프로토콜 로직을 조작한 뒤, 단일 트랜잭션 블록 내에서 대출금을 상환해야 하는 정교한 금융 공격입니다. 이는 필요한 정밀한 시퀀싱 때문에 일반적으로 엘리트 인간 해커의 영역으로 여겨졌습니다.

EVMbench 테스트에서 AI 에이전트는 다음과 같은 단계를 거쳤습니다.

  1. 로직 결함으로 인해 발생한 차익 거래 기회를 식별했습니다.
  2. 프로그래밍 방식으로 플래시 론을 요청했습니다.
  3. 금고를 비우기 위한 공격 시퀀스를 실행했습니다.
  4. 트랜잭션을 완료하기 위해 대출금을 상환했습니다.

AI는 인간의 가이드, 단계별 지침 또는 이 특정 계약 아키텍처에 대한 사전 예시 없이 이를 달성했습니다. 이러한 능력은 자율 에이전트가 단순한 패턴 매칭을 넘어 다단계 전략적 추론으로 나아가고 있음을 신호하며, 이는 부실하게 감사된 탈중앙화 금융(DeFi) 프로토콜에 실존적 위험을 초래합니다.

OpenAI의 전략적 전환: 방어의 민주화

이러한 도구들이 무기화될 가능성을 인식한 OpenAI는 EVMbench와 GPT-5.3-Codex의 출시를 "방어적 필연성"으로 규정하고 있습니다. 이러한 강력한 공격 도구를 "화이트 해커(White Hat)" 보안 연구원의 손에 쥐어줌으로써, 악의적인 행위자가 악용하기 전에 취약점을 찾아 수정할 수 있다는 논리입니다.

이러한 방어 생태계를 지원하기 위해 OpenAI는 **사이버 보안 보조금 프로그램(Cybersecurity Grant Program)**을 발표하고, 오픈 소스 방어 도구를 개발하는 개발자와 연구원들에게 1,000만 달러 규모의 API 크레딧을 제공하기로 약속했습니다. 목표는 자동화된 감사의 진입 장벽을 낮추어 소규모 프로젝트도 최첨단 보안 점검을 이용할 수 있도록 하는 것입니다.

또한, 회사는 전용 보안 연구 에이전트인 **Aardvark**의 비공개 베타를 확대하고 있습니다. 범용 Codex 모델과 달리 Aardvark는 보안 문헌, 감사 보고서 및 정형 검증 방법에 특화되어 훈련되었습니다. 초기 내부 테스트에 따르면 Aardvark는 GPT-5.3의 "공격자 마인드"를 활용하여 공격을 예측하고 사전에 패치를 제안함으로써 공격과 방어 사이의 격차를 좁히는 데 도움이 될 수 있습니다.

업계에 미치는 영향 및 향후 전망

EVMbench의 출시는 AI가 생성한 코드의 버그로 인해 최근 Moonwell 프로토콜에서 발생한 270만 달러 규모의 손실을 포함하여 일련의 세간의 이목을 끄는 해킹 사건 이후, 암호화폐 업계의 중대한 시점에 이루어졌습니다. 업계는 현재 양날의 검과 싸우고 있습니다. AI는 스마트 계약을 작성하는 데 점점 더 많이 사용되어 미묘한 버그를 유발하는 동시에, 폭발적으로 증가하는 블록체인 코드의 양을 감사할 수 있는 유일하게 확장 가능한 도구이기도 합니다.

Paradigm의 참여는 주요 기관 투자자들이 AI 보안을 사치품이 아니라 스테이블코인과 탈중앙화 금융 시스템의 대중화를 위한 전제 조건으로 보고 있음을 시사합니다. AI 에이전트가 Tempo와 같은 네트워크에서 자율 결제를 처리하려면, 이들을 털려는 적대적 AI에 맞서 회복탄력성을 갖춰야 합니다.

전문가들은 "72%의 공격 성공률"이 한계치가 아니라 시작일 뿐이라고 경고합니다. 모델이 계속 확장되고 추론 과정에서 "생각의 사슬(Chain-of-Thought)"과 같은 기술을 활용함에 따라, 모호한 "블랙 스완" 취약점을 찾아내는 능력은 더욱 향상될 것입니다.

현재 스마트 계약 개발자들에게 보내는 메시지는 명확합니다. 코드를 작성하도록 도와주는 AI는 당신을 털 수도 있는 능력을 갖추고 있습니다. 방어 능력이 따라잡을 때까지 유일하고 안전한 길은, 시스템을 위협하는 바로 그 AI 도구에 의해 강화되되 대체되지는 않는, 인간 중심의 엄격한 감사뿐입니다.

추천