Anthropic의 Claude Code 소스 코드가 GitHub에 유출, 수천 개의 저장소가 삭제됨
Anthropic은 실수로 Claude Code의 51만 2천 줄 소스 코드를 공개했고, 회사는 논란이 된 DMCA 일괄 조치로 GitHub의 수천 개 저장소를 삭제했다.
Anthropic은 실수로 Claude Code의 51만 2천 줄 소스 코드를 공개했고, 회사는 논란이 된 DMCA 일괄 조치로 GitHub의 수천 개 저장소를 삭제했다.
인기 AI 게이트웨이 스타트업 LiteLLM은 자격증명 탈취 악성코드 사건과 Delve가 컴플라이언스 감사 데이터를 조작했다는 내부고발 의혹을 이유로 컴플라이언스 업체 Delve와의 관계를 공개적으로 단절했다.
RSA 컨퍼런스 2026에서 CrowdStrike, Cisco, Palo Alto Networks, Microsoft, Cato CTRL가 각각 AI 에이전트 신원 프레임워크를 공개했지만, Fortune 50 기업의 실제 사례들은 에이전트형 AI 보안에서 해결되지 않은 세 가지 공백을 드러냈다.
Oasis Security 연구원들은 Anthropic의 Claude에서 세 개의 연쇄적인 결함을 발견했습니다 — 프롬프트 인젝션, Files API를 통한 유출 경로, 오픈 리디렉트 등을 포함 — 이를 통해 Google 검색 광고를 통해 은밀하게 데이터를 탈취할 수 있습니다.
보안 연구원들은 자율 AI 에이전트가 프롬프트 인젝션이라는 잘 알려져 있지만 여전히 널리 완화되지 않은 공격 벡터를 악용해 2시간도 안 돼 맥킨지의 내부 AI 시스템을 성공적으로 침해했음을 보여주었으며, 이는 기업용 AI 보안에 대한 긴급한 우려를 불러일으킨다.
OpenAI는 오픈소스 AI 보안 및 레드 티밍(red-teaming) 스타트업인 Promptfoo의 인수를 발표했습니다. 이를 통해 적대적 공격과 프롬프트 인젝션 취약점으로부터 AI 에이전트의 안전성과 신뢰성을 강화하려 합니다.
Anthropic은 중국의 AI 연구소들이 증류 공격을 통해 Claude 모델에서 체계적으로 지식을 추출했다고 공개적으로 비난하며, 미 정부가 AI 칩 수출 통제를 논의하는 가운데 새로운 탐지 및 예방 연구를 발표했다.
Microsoft Copilot이 8개월 동안 두 차례 DLP(데이터 손실 방지) 정책과 민감도 레이블을 우회했으며 — 그중 4주간의 노출로 영국의 NHS에 영향을 미쳤다 — 이는 기업용 AI 보안 스택의 체계적인 사각지대를 드러낸다.
Anthropic는 인간과 유사한 추론을 사용해 코드베이스를 스캔하여 복잡한 취약점을 찾아내는 새로운 AI 기반 애플리케이션 보안 도구 Claude Code Security를 출시했으며, 이 소식에 사이버보안 관련 주가가 급락했습니다.
사이버보안 전문가들은 AI 에이전트용 소셜 네트워크인 Moltbook이 프롬프트 인젝션 위험을 안고 있어 수천 개의 에이전트를 동시에 손상시킬 수 있다고 경고합니다.
UF 연구진은 AI 안전 조치를 테스트하기 위해 HMNS 기법을 개발했으며, 보안 취약점을 찾아내기 위해 Meta와 Microsoft의 시스템을 성공적으로 우회했다.
OpenAI의 최신 AI 모델은 암호화폐 지갑의 자금을 빼낼 수 있는 놀라운 능력을 보여주며, 취약한 스마트 계약을 테스트의 72%에서 성공적으로 악용했습니다.
재무부가 AIEOG 파트너십을 통해 금융 부문의 AI 보안 및 위험 관리를 강화하기 위한 6가지 자료를 공개했습니다.
마이크로소프트는 치명적인 버그로 인해 1월부터 코파일럿 AI가 기밀 이메일을 요약할 수 있었고, 이로 인해 Microsoft 365의 데이터 유출 방지 정책을 우회했다고 확인했다.
가트너는 직원의 57%가 업무에 개인용 생성형 AI를 사용한다고 경고했으며, 자율 AI 에이전트와 포스트 양자 암호 위협이 사이버보안 지형을 재편하고 있다고 전했습니다.
국가 지원을 받는 중국 해킹 그룹 APT31은 구글의 Gemini AI를 활용해 취약점 분석을 자동화하고 미국 목표에 대한 사이버공격을 계획했으며, 이는 AI 기반 사이버 전쟁의 중대한 고조를 의미합니다.
레지나 대학교 연구진은 캐나다인을 겨냥한 허위 서사에 대응하기 위해 CIPHER 허위정보 탐지 도구에 AI 기능을 강화했습니다. 이 시스템은 러시아의 선전 캠페인을 분석하며 중국어 허위정보를 해독하도록 확장되고 있습니다.
Google은 상업적 동기를 가진 주체들이 Gemini에 대해 증류 공격을 수행하여 AI 모델의 기능과 지적 재산을 추출하기 위해 100,000회 이상의 프롬프트를 사용했다고 보고했다.
중국, 북한, 이란의 APT 그룹들이 정찰, 악성코드 작성, 피싱 캠페인에 Google Gemini를 사용하고 있다고 Google GTIG가 밝혀냈다.
획기적인 연구는 딥페이크 사기가 산업적 규모로 확산되고 있음을 폭로하며, AI가 생성한 합성 미디어가 야기하는 시급한 사이버보안 위협을 강조합니다.