AI News

Крупная утечка данных в приложении «Chat & Ask AI»: раскрыто 300 миллионов сообщений

В ходе сенсационного разоблачения, подчеркивающего хрупкость цифровой конфиденциальности в эпоху искусственного интеллекта, масштабная утечка данных поставила под угрозу личную информацию миллионов пользователей. Было обнаружено, что популярное мобильное приложение Chat & Ask AI, доступное как в Google Play, так и в Apple App Store, раскрыло около 300 миллионов личных сообщений, принадлежащих более чем 25 миллионам пользователей.

Этот инцидент служит суровым напоминанием о рисках безопасности, связанных со сторонними приложениями-«оболочками» ИИ (AI wrapper applications) — сервисами, которые предоставляют интерфейс для основных моделей ИИ, таких как ChatGPT или Claude, но обрабатывают пользовательские данные через собственную независимую инфраструктуру.

Масштаб утечки

Уязвимость была обнаружена независимым исследователем безопасности, известным под псевдонимом «Гарри» (Harry), который выявил критический изъян в серверной инфраструктуре приложения. Согласно полученным данным, открытая база данных представляла собой не просто коллекцию анонимных логов, а содержала конфиденциальную историю переписки с возможностью идентификации пользователей.

Масштаб утечки значителен и затрагивает обширную базу пользователей по всему миру. Проанализировав выборку из примерно 60 000 пользователей и более миллиона сообщений, исследователи смогли подтвердить глубину компрометации.

Ключевая статистика утечки:

Метрика Детали
Всего раскрыто сообщений ~300 миллионов
Пострадавшие пользователи > 25 миллионов
Типы утекших данных Полные логи чатов, временные метки, настройки моделей
Источник уязвимости Неправильно настроенный бэкенд Firebase
Издатель приложения Codeway

Утекшие данные рисуют тревожную картину того, как пользователи взаимодействуют с ИИ. В отличие от публичных постов в социальных сетях, эти взаимодействия часто напоминают личные дневники или сеансы терапии. Сообщается, что раскрытые логи включают глубоко личный контент: от проблем с психическим здоровьем и мыслей о самоубийстве до незаконных запросов об изготовлении наркотиков и методах хакинга.

Технический разбор: неправильная настройка Firebase

В основе этого провала в безопасности лежит неправильно настроенный бэкенд Firebase (misconfigured Firebase backend). Firebase — это широко используемая платформа для разработки мобильных и веб-приложений, приобретенная Google, известная своей простотой использования и возможностями работы с базами данных в реальном времени. Однако ее удобство часто приводит к недосмотрам.

В данном конкретном случае разработчики Chat & Ask AI не смогли внедрить надлежащие правила аутентификации в своей базе данных.

Как работала уязвимость

  1. Открытые двери: Права доступа к базе данных были настроены таким образом, чтобы разрешать неаутентифицированный или ненадлежащим образом аутентифицированный доступ. Это означает, что любой человек, имеющий правильный URL-адрес или знание структуры приложения, мог «читать» данные без действительных учетных данных.
  2. Отсутствие шифрования: Хотя данные могли быть зашифрованы при передаче (HTTPS), данные в покое (at rest) внутри доступных сегментов базы данных, по всей видимости, были читаемы для любого, кто мог получить доступ к эндпоинту.
  3. Архитектура оболочки: Приложение функционирует как «оболочка», фактически выступая посредником между пользователем и крупными поставщиками больших языковых моделей (LLM), такими как OpenAI (ChatGPT), Anthropic (Claude) или Google (Gemini). В то время как основная интеллектуальная работа выполняется этими гигантами, хранение истории разговоров осуществляется на собственных серверах приложения — в данном случае в небезопасном экземпляре Firebase.

Почему приложения-«оболочки» представляют высокий риск:

  • Независимые стандарты безопасности: В отличие от крупных технологических компаний с огромными командами по безопасности, приложения-оболочки часто создаются небольшими командами или отдельными разработчиками, у которых могут отсутствовать строгие протоколы безопасности.
  • Политика хранения данных: Эти приложения часто сохраняют запросы пользователей для улучшения собственных услуг или просто для ведения истории чатов, создавая новое уязвимое хранилище конфиденциальных данных.
  • Пробелы в аутентификации: Интеграция сторонних API с логинами пользователей часто создает сложности, при которых могут легко возникнуть пробелы в безопасности, подобные тому, что произошел в Chat & Ask AI.

Человеческий фактор: близость с ИИ и конфиденциальность

Самым тревожным аспектом этой утечки является не технический изъян, а природа затронутых данных. По мере того как ИИ становится все более разговорчивым и эмпатичным, пользователи все чаще относятся к этим чат-ботам как к доверенным лицам. Этот феномен, часто называемый близостью с ИИ (AI intimacy), заставляет пользователей ослаблять бдительность и делиться информацией, которую они никогда бы не раскрыли другому человеку, не говоря уже о публикации в интернете.

Типы конфиденциальных данных, выявленных в ходе утечки:

  • Данные о психическом здоровье: Подробные разговоры о депрессии, тревоге и членовредительстве.
  • Личная идентификация: Хотя сами чаты являются первичной утечкой, контекстные подсказки в длинных историях разговоров могут легко раскрыть реальную личность пользователя, его местоположение и место работы.
  • Профессиональные секреты: Пользователи часто используют ИИ для рабочих мозговых штурмов, потенциально раскрывая проприетарные бизнес-стратегии или код.
  • Незаконная деятельность: Запросы, связанные с противоправными действиями, которые, будучи юридически сложными, подвергают пользователей риску шантажа или судебного преследования.

Эксперты по безопасности утверждают, что утечки данных, связанные с логами чатов ИИ, фундаментально отличаются от утечек номеров кредитных карт или паролей. Вы можете изменить номер кредитной карты; вы не можете «изменить» разговор о ваших самых глубоких страхах или истории болезни. Как только эти данные будут собраны и заархивированы злоумышленниками, они могут быть использованы для высокоцелевых атак с использованием социальной инженерии, вымогательства или доксинга.

Реакция отрасли и анализ E-E-A-T

В Creati.ai мы анализируем подобные инциденты через призму стандартов Google E-E-A-T (Experience, Expertise, Authoritativeness, and Trustworthiness — опыт, экспертиза, авторитетность и надежность). Эта утечка представляет собой катастрофический провал в надежности (Trustworthiness) издателя приложения, компании Codeway.

  • Доверие (Trust): Пользователи безоговорочно доверили приложению свои личные мысли, предполагая наличие стандарта безопасности, который на самом деле отсутствовал.
  • Экспертиза (Expertise): Неспособность защитить стандартную базу данных Firebase свидетельствует о нехватке фундаментальных знаний в области кибербезопасности у команды разработчиков.
  • Авторитетность (Authority): Молчание издателя (Codeway до сих пор не ответила на запросы о комментариях) еще больше подрывает авторитет и доверие общественности.

Напротив, основные поставщики ИИ (OpenAI, Google, Anthropic) поддерживают строгие сертификации безопасности (такие как соответствие SOC 2). Этот инцидент подчеркивает разрыв между использованием сервисов напрямую (например, использование ChatGPT напрямую) и использованием сторонних приложений.

Рекомендации для пользователей

В свете этой утечки Creati.ai рекомендует пользователям «Chat & Ask AI» и аналогичных сторонних приложений ИИ предпринять немедленные действия.

Немедленные шаги для пострадавших:

  1. Прекратите использование приложения: Необходимо немедленно прекратить ввод данных. Удаление приложения предотвратит сбор данных в будущем, но не сотрет прошлые данные.
  2. Запросите удаление данных: Если приложение предлагает механизм запроса на удаление данных в соответствии с GDPR или CCPA, воспользуйтесь им немедленно. Однако учтите, что если бэкенд скомпрометирован, эти запросы могут быть не выполнены или обработаны небезопасно.
  3. Мониторинг цифрового следа: Будьте бдительны в отношении попыток фишинга, в которых упоминаются детали, которые вы могли обсуждать только с чат-ботом.

Лучшие практики использования ИИ:

  • Придерживайтесь официальных приложений: По возможности используйте официальные приложения от разработчиков моделей (например, официальное приложение ChatGPT от OpenAI). Эти организации подвергаются более пристальному контролю и располагают гораздо большими ресурсами, выделяемыми на безопасность.
  • Очищайте вводимые данные: Никогда не делитесь персонально идентифицируемой информацией (PII), финансовыми данными, паролями или конфиденциальной медицинской информацией с чат-ботом ИИ, независимо от того, кто его создал.
  • Проверяйте политику конфиденциальности: Перед загрузкой нового инструмента ИИ проверьте, хранит ли он данные локально на вашем устройстве или на облачном сервере. Локальное хранение обычно безопаснее для конфиденциальности.
  • Проверяйте разрешения приложения: Скептически относитесь к приложениям ИИ, запрашивающим разрешения, которые кажутся не связанными с их функциями, например, доступ к контактам или точному местоположению.

Заключение

Утечка данных «Chat & Ask AI» — это тревожный звонок для всей индустрии ИИ. В то время как мы спешим интегрировать искусственный интеллект во все аспекты нашей жизни, мы не должны позволять азарту опережать безопасность. Для разработчиков это урок критической важности конфигурации бэкенда и управления данными. Для пользователей это суровое напоминание о том, что в цифровом мире удобство часто дается ценой конфиденциальности.

В Creati.ai мы продолжим следить за этой ситуацией и предоставлять обновления по мере появления новой информации о реакции Codeway и возможных мерах регулирования.

Часто задаваемые вопросы

В: Могу ли я проверить, были ли мои данные раскрыты в ходе этой утечки?
О: В настоящее время не существует публичной базы данных с возможностью поиска по этой конкретной утечке. Однако такие сервисы, как «Have I Been Pwned», могут обновить свои записи, если данные получат широкое распространение в даркнете.

В: Все ли приложения ИИ небезопасны?
О: Нет. Крупные официальные приложения обычно имеют надежную защиту. Риск значительно выше при использовании неизвестных сторонних приложений-«оболочек», которые могут не следовать лучшим практикам безопасности.

В: Что такое неправильная настройка Firebase?
О: Это происходит, когда разработчик не устанавливает «правила», которые указывают базе данных, кому разрешено читать или записывать данные. По умолчанию или из-за ошибки эти правила иногда могут быть оставлены открытыми, что позволяет любому пользователю интернета получить доступ к данным.

Рекомендуемые