
OpenAI официально начала развёртывание сложной модели предсказания возраста для ChatGPT, что знаменует собой значительный отказ от верификации возраста на основе самоутверждений в пользу проактивного обеспечения безопасности, основанного на поведении. Анонсированная на этой неделе, новая система призвана автоматически выявлять пользователей младше 18 лет и применять строгие механизмы защиты контента, отвечая на растущие глобальные опасения по поводу безопасности ИИ для несовершеннолетних.
Этот шаг представляет собой одну из самых решительных мер со стороны поставщика фундаментальных моделей по кураторству пользовательского опыта на основе демографического вывода, а не только ввода от пользователя. Анализируя паттерны использования, OpenAI намерена создать «цифровой периметр», который защищает более молодых пользователей от чувствительного материала и одновременно прокладывает путь к более неограниченному «Adult Mode» для верифицированных пользователей позже в этом году.
Традиционно онлайн‑платформы полагались на ворота с указанием даты рождения, которые легко обходят технически подкованные подростки. Новый подход OpenAI использует собственную модель машинного обучения, которая оценивает сложную матрицу сигналов уровня аккаунта и поведенческих признаков, чтобы приблизительно определить возрастную группу пользователя.
Согласно технической документации, опубликованной вместе с обновлением, модель не сканирует приватный контент на предмет биометрических данных, а скорее анализирует метаданные и паттерны вовлечённости. Ключевые сигналы включают:
Когда система определяет высокую вероятность того, что пользователь является несовершеннолетним — или когда уровень уверенности неоднозначен — по умолчанию она выбирает «более безопасный путь», автоматически переводя аккаунт в режим с ограниченной защитой.
Суть этого обновления — конкретный набор ограничений, применяемых к аккаунтам, идентифицированным как принадлежащие несовершеннолетним. Эти меры защиты выходят за рамки стандартной модерации контента и активно вмешиваются в разговоры, которые заходят в зоны психологического или физического риска.
«Режим защиты несовершеннолетних» специально нацелен на:
OpenAI заявила, что эти категории были определены в консультации с организациями по защите детей и Американской психологической ассоциацией, чтобы обеспечить соответствие фильтров потребностям развития, а не только снижению юридической ответственности.
Признавая возможность ложных положительных срабатываний — когда взрослого могут пометить как подростка из‑за его привычек использования — OpenAI внедрила надёжный процесс устранения последствий. Пользователи, считающие, что их неправомерно ограничили, могут восстановить полный доступ, подтвердив свою личность через Persona, стороннюю службу верификации личности. Этот процесс обычно требует государственного удостоверения личности или биометрической проверки селфи, чтобы подтвердить, что пользователю больше 18 лет.
Эта инфраструктура верификации также закладывает основу для дорожной карты OpenAI. Надёжно сегментируя базу пользователей, компания планирует внедрить «Adult Mode» (ожидается позже в Q1 2026), который позволит верифицированным взрослым получать доступ к контенту, ранее ограниченному общими правилами безопасности, фактически раздваивая платформу на «безопасную» версию для публики и «нефильтрованную» версию для верифицированных взрослых.
Ниже приведена таблица, описывающая операционные различия между стандартным опытом для взрослых и новой защищённой средой для несовершеннолетних.
| Feature | Standard Experience (Verified Adult) | Minor Protection Mode (Under 18) |
|---|---|---|
| Content Access | Full access to general knowledge, creative writing, and complex reasoning tasks | Restricted access; blocks sensitive topics like graphic violence and risky challenges |
| Intervention Logic | Standard safety refusals for illegal acts | Proactive redirection to helplines for mental health and body image topics |
| Verification Requirement | Optional (Required for future "Adult Mode") | None; automatically applied based on behavioral signals |
| Roleplay Capabilities | Flexible persona adoption within safety limits | Strictly limited to educational or neutral personas; no romantic/violent roleplay |
| Data Privacy | Standard data retention and training options | Enhanced privacy settings; reduced data usage for model training (defaults to stricter privacy) |
Это развитие происходит в критический момент для индустрии ИИ. С внедрением Kids Online Safety Act (KOSA) в Соединённых Штатах и строгими требованиями соответствия GDPR в Европе в отношении данных детей, технологические гиганты испытывают огромное давление, чтобы доказать, что они могут эффективно устанавливать возрастные ограничения на своих платформах.
Поведенческая модель прогнозирования OpenAI предлагает потенциальное решение общей для отрасли проблемы «подтверждения возраста» без необходимости инвазивных проверок удостоверений для каждого отдельного пользователя. Однако это также порождает вопросы приватности относительно того, насколько глубоко ИИ должен «знать» пользователя, чтобы угадать его возраст.
Критики утверждают, что поведенческое профилирование может быть навязчивым, потенциально влекущим санкции против нейроразнообразных взрослых или людей с нетрадиционными графиками, пометив их как несовершеннолетних. OpenAI возражает, подчёркивая «сохраняющий приватность» характер используемых сигналов и простоту оспаривания через интеграцию Persona.
С нашей точки зрения в Creati.ai, это обновление означает созревание генеративного ИИ (Generative AI) из экспериментальной технологии в регулируемую потребительскую утилиту. Подобно тому как платформы социальных медиа были вынуждены осознать своё влияние на психическое здоровье подростков, поставщики ИИ теперь заблаговременно создают инфраструктуру для управления этими рисками.
Успех этой модели предсказания возраста может задать новый отраслевой стандарт. Если OpenAI сможет продемонстрировать высокую точность при низком трении, мы ожидаем, что такие конкуренты, как Anthropic и Google DeepMind, ускорят собственные меры поведенческой безопасности. В конечном счёте такое раздвоение пользовательской базы позволяет инструментам ИИ оставаться мощными и универсальными для профессионалов, одновременно становясь более безопасными игровыми площадками для следующего поколения цифровых аборигенов.