
В ходе сенсационного разоблачения, подчеркивающего хрупкость цифровой конфиденциальности в эпоху искусственного интеллекта, масштабная утечка данных поставила под угрозу личную информацию миллионов пользователей. Было обнаружено, что популярное мобильное приложение Chat & Ask AI, доступное как в Google Play, так и в Apple App Store, раскрыло около 300 миллионов личных сообщений, принадлежащих более чем 25 миллионам пользователей.
Этот инцидент служит суровым напоминанием о рисках безопасности, связанных со сторонними приложениями-«оболочками» ИИ (AI wrapper applications) — сервисами, которые предоставляют интерфейс для основных моделей ИИ, таких как ChatGPT или Claude, но обрабатывают пользовательские данные через собственную независимую инфраструктуру.
Уязвимость была обнаружена независимым исследователем безопасности, известным под псевдонимом «Гарри» (Harry), который выявил критический изъян в серверной инфраструктуре приложения. Согласно полученным данным, открытая база данных представляла собой не просто коллекцию анонимных логов, а содержала конфиденциальную историю переписки с возможностью идентификации пользователей.
Масштаб утечки значителен и затрагивает обширную базу пользователей по всему миру. Проанализировав выборку из примерно 60 000 пользователей и более миллиона сообщений, исследователи смогли подтвердить глубину компрометации.
Ключевая статистика утечки:
| Метрика | Детали |
|---|---|
| Всего раскрыто сообщений | ~300 миллионов |
| Пострадавшие пользователи | > 25 миллионов |
| Типы утекших данных | Полные логи чатов, временные метки, настройки моделей |
| Источник уязвимости | Неправильно настроенный бэкенд Firebase |
| Издатель приложения | Codeway |
Утекшие данные рисуют тревожную картину того, как пользователи взаимодействуют с ИИ. В отличие от публичных постов в социальных сетях, эти взаимодействия часто напоминают личные дневники или сеансы терапии. Сообщается, что раскрытые логи включают глубоко личный контент: от проблем с психическим здоровьем и мыслей о самоубийстве до незаконных запросов об изготовлении наркотиков и методах хакинга.
В основе этого провала в безопасности лежит неправильно настроенный бэкенд Firebase (misconfigured Firebase backend). Firebase — это широко используемая платформа для разработки мобильных и веб-приложений, приобретенная Google, известная своей простотой использования и возможностями работы с базами данных в реальном времени. Однако ее удобство часто приводит к недосмотрам.
В данном конкретном случае разработчики Chat & Ask AI не смогли внедрить надлежащие правила аутентификации в своей базе данных.
Почему приложения-«оболочки» представляют высокий риск:
Самым тревожным аспектом этой утечки является не технический изъян, а природа затронутых данных. По мере того как ИИ становится все более разговорчивым и эмпатичным, пользователи все чаще относятся к этим чат-ботам как к доверенным лицам. Этот феномен, часто называемый близостью с ИИ (AI intimacy), заставляет пользователей ослаблять бдительность и делиться информацией, которую они никогда бы не раскрыли другому человеку, не говоря уже о публикации в интернете.
Типы конфиденциальных данных, выявленных в ходе утечки:
Эксперты по безопасности утверждают, что утечки данных, связанные с логами чатов ИИ, фундаментально отличаются от утечек номеров кредитных карт или паролей. Вы можете изменить номер кредитной карты; вы не можете «изменить» разговор о ваших самых глубоких страхах или истории болезни. Как только эти данные будут собраны и заархивированы злоумышленниками, они могут быть использованы для высокоцелевых атак с использованием социальной инженерии, вымогательства или доксинга.
В Creati.ai мы анализируем подобные инциденты через призму стандартов Google E-E-A-T (Experience, Expertise, Authoritativeness, and Trustworthiness — опыт, экспертиза, авторитетность и надежность). Эта утечка представляет собой катастрофический провал в надежности (Trustworthiness) издателя приложения, компании Codeway.
Напротив, основные поставщики ИИ (OpenAI, Google, Anthropic) поддерживают строгие сертификации безопасности (такие как соответствие SOC 2). Этот инцидент подчеркивает разрыв между использованием сервисов напрямую (например, использование ChatGPT напрямую) и использованием сторонних приложений.
В свете этой утечки Creati.ai рекомендует пользователям «Chat & Ask AI» и аналогичных сторонних приложений ИИ предпринять немедленные действия.
Немедленные шаги для пострадавших:
Лучшие практики использования ИИ:
Утечка данных «Chat & Ask AI» — это тревожный звонок для всей индустрии ИИ. В то время как мы спешим интегрировать искусственный интеллект во все аспекты нашей жизни, мы не должны позволять азарту опережать безопасность. Для разработчиков это урок критической важности конфигурации бэкенда и управления данными. Для пользователей это суровое напоминание о том, что в цифровом мире удобство часто дается ценой конфиденциальности.
В Creati.ai мы продолжим следить за этой ситуацией и предоставлять обновления по мере появления новой информации о реакции Codeway и возможных мерах регулирования.
В: Могу ли я проверить, были ли мои данные раскрыты в ходе этой утечки?
О: В настоящее время не существует публичной базы данных с возможностью поиска по этой конкретной утечке. Однако такие сервисы, как «Have I Been Pwned», могут обновить свои записи, если данные получат широкое распространение в даркнете.
В: Все ли приложения ИИ небезопасны?
О: Нет. Крупные официальные приложения обычно имеют надежную защиту. Риск значительно выше при использовании неизвестных сторонних приложений-«оболочек», которые могут не следовать лучшим практикам безопасности.
В: Что такое неправильная настройка Firebase?
О: Это происходит, когда разработчик не устанавливает «правила», которые указывают базе данных, кому разрешено читать или записывать данные. По умолчанию или из-за ошибки эти правила иногда могут быть оставлены открытыми, что позволяет любому пользователю интернета получить доступ к данным.