AI News

"Chat & Ask AI" 앱 대규모 데이터 유출 발생: 3억 개의 메시지 노출

인공지능 시대에 디지털 프라이버시가 얼마나 취약한지를 여실히 보여주는 놀라운 사실이 밝혀졌습니다. 대규모 데이터 유출로 인해 수백만 명의 사용자 개인 정보가 노출된 것입니다. 구글 플레이와 애플 앱스토어에서 모두 이용 가능한 인기 모바일 애플리케이션인 Chat & Ask AI에서 2,500만 명 이상의 사용자에 해당하는 약 3억 개의 개인 메시지가 노출된 것으로 확인되었습니다.

이 사건은 제3자 AI 래퍼 앱(Wrapper Application) — ChatGPT나 Claude와 같은 주요 AI 모델을 위한 인터페이스를 제공하지만 자체적인 독립 인프라를 통해 사용자 데이터를 처리하는 서비스 — 과 관련된 보안 위험을 극명하게 상기시켜 줍니다.

유출 규모

이번 취약점은 "Harry"로 알려진 독립 보안 연구원에 의해 발견되었으며, 그는 해당 애플리케이션의 백엔드 인프라에서 중대한 결함을 확인했습니다. 조사 결과에 따르면, 노출된 데이터베이스는 단순히 익명 로그의 모음이 아니라 매우 민감하고 식별 가능한 대화 기록을 포함하고 있었습니다.

유출 규모는 전 세계에 걸친 방대한 사용자 층에 영향을 미칠 정도로 상당합니다. 연구원들은 약 60,000명의 사용자와 100만 개 이상의 메시지로 구성된 샘플 세트를 분석하여 노출의 심각성을 확인할 수 있었습니다.

유출 관련 주요 통계:

지표 세부 정보
총 노출 메시지 수 약 3억 개
영향을 받은 사용자 2,500만 명 이상
유출된 데이터 유형 전체 채팅 로그, 타임스탬프, 모델 설정
취약점 원인 잘못 설정된 파이어베이스(Firebase) 백엔드
앱 퍼블리셔 Codeway

유출된 데이터는 사용자들이 AI와 상호작용하는 방식에 대해 우려스러운 모습을 보여줍니다. 공개적인 소셜 미디어 게시물과 달리, 이러한 상호작용은 종종 개인적인 일기나 상담 세션과 같은 역할을 합니다. 노출된 로그에는 정신 건강 문제나 자살 충동부터 약물 제조 및 해킹 기술에 대한 불법적인 문의에 이르기까지 매우 개인적인 내용이 포함된 것으로 알려졌습니다.

기술적 분석: 파이어베이스 설정 오류

이 보안 실패의 핵심에는 **잘못 설정된 파이어베이스 백엔드(Misconfigured Firebase backend)**가 있습니다. 파이어베이스(Firebase)는 구글이 인수한 널리 사용되는 모바일 및 웹 애플리케이션 개발 플랫폼으로, 사용 편의성과 실시간 데이터베이스 기능으로 잘 알려져 있습니다. 그러나 이러한 편의성은 종종 보안 관리의 소홀로 이어지기도 합니다.

이번 사례의 경우, Chat & Ask AI의 개발자들은 데이터베이스에 적절한 인증 규칙을 구현하는 데 실패했습니다.

취약점 작동 방식

  1. 열린 문: 데이터베이스 권한이 인증되지 않았거나 부적절하게 인증된 액세스를 허용하도록 설정되어 있었습니다. 즉, 올바른 URL을 알고 있거나 앱 구조를 파악하고 있는 사람이라면 누구나 유효한 자격 증명 없이 데이터를 "읽을" 수 있었습니다.
  2. 암호화 부족: 데이터가 전송 중(HTTPS)에는 암호화되었을 수 있지만, 액세스 가능한 데이터베이스 버킷 내의 *저장된 데이터(Data at rest)*는 엔드포인트에 접근할 수 있는 누구에게나 읽을 수 있는 상태였던 것으로 보입니다.
  3. 래퍼 아키텍처: 이 앱은 "래퍼(Wrapper)"로 작동하여 사용자와 OpenAI(ChatGPT), Anthropic(Claude) 또는 Google(Gemini)과 같은 주요 거대 언어 모델(Large Language Model, LLM) 제공자 사이의 중간자 역할을 합니다. 지능적인 처리는 이러한 대기업들이 수행하지만, 대화 기록의 저장은 앱 자체 서버(이 경우에는 보안되지 않은 파이어베이스 인스턴스)에서 처리됩니다.

"래퍼" 앱의 위험성이 높은 이유:

  • 독립적인 보안 표준: 대규모 보안 팀을 보유한 주요 빅테크 기업과 달리, 래퍼 앱은 엄격한 보안 프로토콜이 부족할 수 있는 소규모 팀이나 개인 개발자에 의해 구축되는 경우가 많습니다.
  • 데이터 보존 정책: 이러한 앱은 자체 서비스를 개선하거나 단순히 채팅 기록을 유지하기 위해 사용자 쿼리를 저장하는 경우가 많으며, 이는 민감한 데이터의 새롭고 취약한 저장소를 생성하게 됩니다.
  • 인증 공백: 제3자 API를 사용자 로그인과 통합하는 과정에서 Chat & Ask AI에서 발생한 것과 같은 보안 공백이 쉽게 발생할 수 있는 복잡성이 생깁니다.

인간적 대가: AI 친밀감과 프라이버시

이 유출 사고에서 가장 우려되는 부분은 기술적 결함이 아니라 관련된 데이터의 성격입니다. AI가 점점 더 대화 지향적이고 공감 능력을 갖추게 됨에 따라, 사용자들은 이러한 챗봇을 비밀을 털어놓는 친구처럼 대하고 있습니다. **AI 친밀감(AI Intimacy)**이라고 불리는 이 현상은 사용자로 하여금 경계심을 늦추고 다른 사람에게는 절대 공개하지 않을, 하물며 온라인에 게시하지도 않을 정보를 공유하게 만듭니다.

유출에서 확인된 민감 데이터 유형:

  • 정신 건강 데이터: 우울증, 불안 및 자해에 대한 상세한 대화.
  • 개인 식별: 채팅 내용 자체가 주요 유출 항목이지만, 긴 대화 기록 내의 맥락 단서를 통해 사용자의 실제 신원, 위치 및 직장을 쉽게 파악할 수 있습니다.
  • 직업적 비밀: 사용자들이 업무 관련 브레인스토밍에 AI를 자주 사용함에 따라 독점적인 비즈니스 전략이나 코드가 노출될 가능성이 있습니다.
  • 불법 활동: 불법 활동과 관련된 문의는 법적으로 복잡할 수 있지만, 사용자들을 협박이나 법적 조사의 위험에 노출시킵니다.

보안 전문가들은 AI 채팅 로그와 관련된 데이터 유출이 신용카드나 비밀번호 유출과는 근본적으로 다르다고 주장합니다. 신용카드 번호는 바꿀 수 있지만, 가장 깊은 두려움이나 의료 기록에 대한 대화는 "바꿀" 수 없습니다. 일단 이 데이터가 악의적인 행위자에 의해 수집되고 보관되면, 매우 정교한 타겟형 사회 공학적 공격, 갈취 또는 신상 털기(Doxxing)에 사용될 수 있습니다.

업계 반응 및 E-E-A-T 분석

Creati.ai에서는 구글의 E-E-A-T(Experience, Expertise, Authoritativeness, and Trustworthiness — 경험, 전문성, 권위성, 신뢰성) 기준의 관점에서 이러한 사건을 분석합니다. 이번 유출 사고는 앱 퍼블리셔인 Codeway의 신뢰성(Trustworthiness) 측면에서 치명적인 실패를 의미합니다.

  • 신뢰(Trust): 사용자들은 보안 표준이 존재하지 않았음에도 불구하고 이를 인지하지 못한 채 자신의 사적인 생각을 앱에 암묵적으로 신뢰하고 맡겼습니다.
  • 전문성(Expertise): 표준 파이어베이스 데이터베이스를 보호하지 못한 것은 개발 팀 내에 기본적인 사이버 보안 전문성이 부족함을 시사합니다.
  • 권위(Authority): 퍼블리셔의 침묵(Codeway는 아직 논평 요청에 응답하지 않음)은 권위와 대중의 신뢰를 더욱 실추시킵니다.

대조적으로, 주요 AI 제공업체(OpenAI, Google, Anthropic)는 SOC 2 준수와 같은 엄격한 보안 인증을 유지합니다. 이번 사건은 직접 사용(ChatGPT를 직접 사용)과 제3자 사용(래퍼 앱 사용) 사이의 격차를 부각시킵니다.

사용자를 위한 권장 사항

이번 유출 사고와 관련하여, Creati.ai는 "Chat & Ask AI" 및 이와 유사한 제3자 AI 애플리케이션 사용자들에게 즉각적인 조치를 취할 것을 권장합니다.

피해자를 위한 즉각적인 단계:

  1. 앱 사용 중단: 즉시 데이터 입력을 중단해야 합니다. 앱을 삭제하면 향후 데이터 수집은 방지할 수 있지만 과거 데이터가 삭제되지는 않습니다.
  2. 데이터 삭제 요청: 앱에서 GDPR 또는 CCPA를 준수하는 데이터 삭제 요청 메커니즘을 제공하는 경우 즉시 사용하십시오. 다만, 백엔드가 침해된 상태라면 이러한 요청이 안전하게 처리되거나 이행되지 않을 수 있음에 유의하십시오.
  3. 디지털 발자국 모니터링: 챗봇과만 논의했을 법한 세부 정보를 언급하는 피싱 시도가 있는지 주의 깊게 살피십시오.

AI 사용을 위한 모범 사례:

  • 공식 앱 사용: 가능하면 모델 제공업체의 공식 애플리케이션(예: OpenAI의 공식 ChatGPT 앱)을 사용하십시오. 이러한 조직은 더 높은 수준의 조사를 받으며 보안에 훨씬 더 많은 리소스를 투입합니다.
  • 입력 정보 정제: 제작자가 누구인지에 관계없이 AI 챗봇과 개인 식별 정보(Personally Identifiable Information, PII), 금융 데이터, 비밀번호 또는 매우 민감한 의료 정보를 공유하지 마십시오.
  • 개인정보 처리방침 확인: 새로운 AI 도구를 다운로드하기 전에 데이터를 기기에 로컬로 저장하는지 아니면 클라우드 서버에 저장하는지 확인하십시오. 일반적으로 로컬 저장이 프라이버시 측면에서 더 안전합니다.
  • 앱 권한 검토: 연락처 접근이나 정확한 위치 정보와 같이 기능과 관련 없어 보이는 권한을 요청하는 AI 앱을 경계하십시오.

결론

"Chat & Ask AI" 유출 사고는 AI 산업 전체에 보내는 경종입니다. 우리가 인공지능을 삶의 모든 영역에 통합하기 위해 서두르는 동안, 흥분이 보안을 앞질러서는 안 됩니다. 개발자들에게는 백엔드 설정과 데이터 거버넌스의 중대한 중요성을 깨닫게 하는 교훈이며, 사용자들에게는 디지털 세계에서 편의성이 종종 프라이버시를 대가로 한다는 사실을 상기시켜 주는 가혹한 사례입니다.

Creati.ai는 이 상황을 계속 모니터링할 것이며, Codeway의 대응 및 잠재적인 규제 조치와 관련하여 더 많은 정보가 입수되는 대로 업데이트를 제공할 것입니다.

자주 묻는 질문

질문: 이번 유출 사고로 내 데이터가 노출되었는지 확인할 수 있나요?
답변: 현재 이 특정 유출 사고에 대해 공개적으로 검색 가능한 데이터베이스는 없습니다. 그러나 데이터가 다크 웹에 널리 유포될 경우 "Have I Been Pwned"와 같은 서비스에서 기록을 업데이트할 수 있습니다.

질문: 모든 AI 앱이 안전하지 않은가요?
답변: 아닙니다. 주요 공식 앱들은 일반적으로 강력한 보안을 갖추고 있습니다. 보안 모범 사례를 따르지 않을 수 있는 알려지지 않은 제3자 "래퍼" 앱의 경우 위험이 상당히 더 높습니다.

질문: 파이어베이스 설정 오류란 무엇인가요?
답변: 개발자가 데이터베이스에 데이터를 읽거나 쓸 수 있는 권한을 가진 사람을 지정하는 "규칙"을 설정하지 못할 때 발생합니다. 기본 설정이나 실수로 인해 이러한 규칙이 열려 있게 되어 인터넷상의 누구나 데이터에 접근할 수 있게 되는 경우가 있습니다.

추천