AI News

OpenAI внедряет прогнозирование возраста по поведению для усиления безопасности несовершеннолетних в ChatGPT

OpenAI официально начала развёртывание сложной модели предсказания возраста для ChatGPT, что знаменует собой значительный отказ от верификации возраста на основе самоутверждений в пользу проактивного обеспечения безопасности, основанного на поведении. Анонсированная на этой неделе, новая система призвана автоматически выявлять пользователей младше 18 лет и применять строгие механизмы защиты контента, отвечая на растущие глобальные опасения по поводу безопасности ИИ для несовершеннолетних.

Этот шаг представляет собой одну из самых решительных мер со стороны поставщика фундаментальных моделей по кураторству пользовательского опыта на основе демографического вывода, а не только ввода от пользователя. Анализируя паттерны использования, OpenAI намерена создать «цифровой периметр», который защищает более молодых пользователей от чувствительного материала и одновременно прокладывает путь к более неограниченному «Adult Mode» для верифицированных пользователей позже в этом году.

Переход к поведенческому анализу

Традиционно онлайн‑платформы полагались на ворота с указанием даты рождения, которые легко обходят технически подкованные подростки. Новый подход OpenAI использует собственную модель машинного обучения, которая оценивает сложную матрицу сигналов уровня аккаунта и поведенческих признаков, чтобы приблизительно определить возрастную группу пользователя.

Согласно технической документации, опубликованной вместе с обновлением, модель не сканирует приватный контент на предмет биометрических данных, а скорее анализирует метаданные и паттерны вовлечённости. Ключевые сигналы включают:

  • Длительность аккаунта: Срок существования аккаунта и его исторические данные использования.
  • Временные паттерны: Анализ «типичных часов активности», выявление использования, соответствующего школьному расписанию, в отличие от взрослого рабочего режима.
  • Лингвистическая сложность: Хотя детали не раскрываются во избежание компрометации модели, эксперты отрасли предполагают, что система, вероятно, анализирует синтаксис и выбор тем, чтобы отличать подростковые запросы от взрослых.
  • Согласованность заявленного возраста: Перекрёстная проверка ранее указанного пользователем возраста с его реальным поведением на платформе.

Когда система определяет высокую вероятность того, что пользователь является несовершеннолетним — или когда уровень уверенности неоднозначен — по умолчанию она выбирает «более безопасный путь», автоматически переводя аккаунт в режим с ограниченной защитой.

Режим защиты несовершеннолетних: закрытая среда

Суть этого обновления — конкретный набор ограничений, применяемых к аккаунтам, идентифицированным как принадлежащие несовершеннолетним. Эти меры защиты выходят за рамки стандартной модерации контента и активно вмешиваются в разговоры, которые заходят в зоны психологического или физического риска.

«Режим защиты несовершеннолетних» специально нацелен на:

  • Самоповреждение и психическое здоровье: Более строгие отказы и немедленное перенаправление на ресурсы при запросах, связанных с самоповреждением, суицидом или расстройствами пищевого поведения.
  • Графический контент: Нулевая терпимость к описаниям с кровью, насилием или явно сексуального характера.
  • Опасные вирусные тренды: Блокировка контента, связанного с опасными челленджами в социальных сетях, которые часто распространяются среди подростков.
  • Ограничения ролевых игр: Ограничения на взаимодействие с ИИ‑персонами, включающие романтику, насилие или сильные межличностные конфликты.

OpenAI заявила, что эти категории были определены в консультации с организациями по защите детей и Американской психологической ассоциацией, чтобы обеспечить соответствие фильтров потребностям развития, а не только снижению юридической ответственности.

Верификация и путь к «Adult Mode»

Признавая возможность ложных положительных срабатываний — когда взрослого могут пометить как подростка из‑за его привычек использования — OpenAI внедрила надёжный процесс устранения последствий. Пользователи, считающие, что их неправомерно ограничили, могут восстановить полный доступ, подтвердив свою личность через Persona, стороннюю службу верификации личности. Этот процесс обычно требует государственного удостоверения личности или биометрической проверки селфи, чтобы подтвердить, что пользователю больше 18 лет.

Эта инфраструктура верификации также закладывает основу для дорожной карты OpenAI. Надёжно сегментируя базу пользователей, компания планирует внедрить «Adult Mode» (ожидается позже в Q1 2026), который позволит верифицированным взрослым получать доступ к контенту, ранее ограниченному общими правилами безопасности, фактически раздваивая платформу на «безопасную» версию для публики и «нефильтрованную» версию для верифицированных взрослых.

Сравнительный обзор: уровни безопасности

Ниже приведена таблица, описывающая операционные различия между стандартным опытом для взрослых и новой защищённой средой для несовершеннолетних.

Feature Standard Experience (Verified Adult) Minor Protection Mode (Under 18)
Content Access Full access to general knowledge, creative writing, and complex reasoning tasks Restricted access; blocks sensitive topics like graphic violence and risky challenges
Intervention Logic Standard safety refusals for illegal acts Proactive redirection to helplines for mental health and body image topics
Verification Requirement Optional (Required for future "Adult Mode") None; automatically applied based on behavioral signals
Roleplay Capabilities Flexible persona adoption within safety limits Strictly limited to educational or neutral personas; no romantic/violent roleplay
Data Privacy Standard data retention and training options Enhanced privacy settings; reduced data usage for model training
(defaults to stricter privacy)

Отраслевой контекст и регуляторное давление

Это развитие происходит в критический момент для индустрии ИИ. С внедрением Kids Online Safety Act (KOSA) в Соединённых Штатах и строгими требованиями соответствия GDPR в Европе в отношении данных детей, технологические гиганты испытывают огромное давление, чтобы доказать, что они могут эффективно устанавливать возрастные ограничения на своих платформах.

Поведенческая модель прогнозирования OpenAI предлагает потенциальное решение общей для отрасли проблемы «подтверждения возраста» без необходимости инвазивных проверок удостоверений для каждого отдельного пользователя. Однако это также порождает вопросы приватности относительно того, насколько глубоко ИИ должен «знать» пользователя, чтобы угадать его возраст.

Критики утверждают, что поведенческое профилирование может быть навязчивым, потенциально влекущим санкции против нейроразнообразных взрослых или людей с нетрадиционными графиками, пометив их как несовершеннолетних. OpenAI возражает, подчёркивая «сохраняющий приватность» характер используемых сигналов и простоту оспаривания через интеграцию Persona.

Точка зрения Creati.ai

С нашей точки зрения в Creati.ai, это обновление означает созревание генеративного ИИ (Generative AI) из экспериментальной технологии в регулируемую потребительскую утилиту. Подобно тому как платформы социальных медиа были вынуждены осознать своё влияние на психическое здоровье подростков, поставщики ИИ теперь заблаговременно создают инфраструктуру для управления этими рисками.

Успех этой модели предсказания возраста может задать новый отраслевой стандарт. Если OpenAI сможет продемонстрировать высокую точность при низком трении, мы ожидаем, что такие конкуренты, как Anthropic и Google DeepMind, ускорят собственные меры поведенческой безопасности. В конечном счёте такое раздвоение пользовательской базы позволяет инструментам ИИ оставаться мощными и универсальными для профессионалов, одновременно становясь более безопасными игровыми площадками для следующего поколения цифровых аборигенов.

Рекомендуемые