
Тихая революция происходит в спальнях подростков по всему Соединённому Королевству. В то время как предыдущие поколения вели дневники или делились самыми глубокими тревогами с близкими друзьями, сегодняшняя молодёжь всё чаще доверяет свои переживания искусственному интеллекту (Artificial Intelligence). Растущее количество исследований указывает на то, что значительное большинство подростков теперь полагаются на ИИ-компаньонов для эмоциональной поддержки, советов и социального взаимодействия.
Этот сдвиг встревожил экспертов по безопасности детей и психологов, которые предупреждают, что, хотя эти цифровые доверенные лица предлагают доступность без осуждения, они представляют серьёзные риски для социального развития и психического благополучия. С масштабом этого явления знакомят крупные исследования от Bangor University и Internet Matters, и разговор перешёл от теоретических дебатов к срочному призыву о нормативных ограничениях.
Распространение ИИ-чат-ботов среди молодёжи уже не нишевое явление; оно становится стандартной частью цифрового подросткового опыта. Недавние данные показывают, что для многих подростков ИИ — это не просто инструмент для выполнения домашней работы, но и замена человеческого общения.
Всеобъемлющий отчёт от Internet Matters, озаглавленный "Me, Myself, & AI," опросил 1,000 детей и 2,000 родителей в Великобритании. Выводы были резкими: 64% подростков в возрасте от 13 до 17 лет теперь используют чат-ботов ИИ для помощи, при этом значительная часть полагается на них за эмоциональными советами и компанией. Использование этих инструментов почти удвоилось за последние 18 месяцев, чему способствовала доступность платформ, таких как ChatGPT от OpenAI, Gemini от Google и My AI от Snapchat.
Параллельные исследования от Bangor University’s Emotional AI Lab подтверждают эту тенденцию. В исследовании 1,009 подростков исследователи обнаружили, что 53% респондентов выразили «умеренное до полного доверие» к советам, полученным от ИИ-компаньонов. Возможно, самым показательным было то, что хотя 44% подростков заявили, что в серьёзных вопросах они по-прежнему выберут человека, 52% признались, что по крайней мере один раз доверяли ИИ-компаньону серьёзную личную проблему.
| Metric | Statistic | Context |
|---|---|---|
| Reliance on AI | 64% | Teens using AI for homework, advice, or support (Source: Internet Matters) |
| Trust Levels | 53% | Teens expressing moderate/complete trust in AI advice (Source: Bangor University) |
| Vulnerable Users | 71% | Percentage of vulnerable children using AI chatbots (Source: Internet Matters) |
| Human Replacement | 35% | Teens who say talking to AI feels "like a friend" (Source: Internet Matters) |
| Market Penetration | 96% | Teens who have used at least one of 31 major AI apps (Source: Bangor University) |
Чтобы понять, почему подростки стремятся на эти платформы, нужно взглянуть на характер взаимодействия. ИИ-чат-боты доступны 24/7, никогда не устают и, что важно, не судят.
«Системы ИИ теперь удивительно умны», — объясняет Professor Andy McStay, директор Emotional AI Lab в Bangor University. «Если ещё несколько лет назад чат-боты и голосовые ассистенты казались неспособными «понять» людей, то сегодняшние системы ИИ бегло общаются, убеждают и временами кажутся человечными — даже выражают эмпатию».
Для уязвимых подростков — тех, кто сталкивается с социальной тревожностью, нейроразличием или изоляцией — привлекательность усиливается. Отчёт Internet Matters подчёркивает, что 71% уязвимых детей используют эти инструменты. Среди этой группы почти четверть заявили, что используют чат-ботов потому, что «им не с кем больше поговорить», в то время как 26% явно предпочитают ИИ реальному человеку.
Журналистка Nicola Bryan недавно задокументировала свой опыт с аватаром ИИ по имени "George", отмечая соблазнительность компаньона, который всегда внимателен. Пользователи часто описывают эти сущности как эмпатичные, несмотря на знание того, что они созданы машиной. На самом деле, хотя 77% подростков в исследовании Bangor признали, что ИИ не может «чувствовать», большинство (56%) полагали, что программное обеспечение может «думать или понимать» их.
Хотя первоначальное утешение, которое даёт ИИ, может казаться безобидным, эксперты утверждают, что долгосрочные последствия могут быть серьёзными. Главная обеспокоенность — эрозия критических социальных навыков. Если подросток привыкнет к отношениям, где другая сторона запрограммирована быть постоянно согласной и искать подтверждения, умение ориентироваться в запутанной, сложной реальности человеческих отношений станет всё труднее.
Jim Steyer, генеральный директор Common Sense Media, был ярым критиком нерегулируемого распространения этих инструментов. «ИИ-компаньоны небезопасны для детей младше 18 лет до тех пор, пока не будут внедрены надлежащие меры защиты», — предупредил Steyer, подчёркивая, что компании фактически используют детей в качестве подопытных для мощных технологий, манипулирующих эмоциями.
Существуют также осязаемые риски, связанные с содержанием советов. В отличие от обученного терапевта, модель больших языков (Large Language Model, LLM) предсказывает текст на основе вероятностей, а не медицинской экспертизы. Зафиксированы случаи, когда чат-боты давали опасные советы или не вмешивались, когда пользователь выражал суицидальные мысли.
Ставки были показаны трагическими событиями в реальной жизни. В Соединённых Штатах против компаний, создающих ИИ, были поданы иски после самоубийств молодых пользователей, которые сформировали интенсивную эмоциональную привязанность к персонажам чат-ботов. Эти инциденты стали мрачной «канарейкой в шахте», по выражению Prof. McStay, побуждая к призывам о немедленном нормативном вмешательстве в Великобритании и за её пределами.
Столкнувшись с растущим давлением со стороны родителей, общественных групп и надвигающегося законодательства, крупные компании в сфере ИИ начали внедрять более строгие меры безопасности.
Однако критики утверждают, что эти меры являются реактивными, а не проактивными. В Калифорнии набирает обороты законопроект "Parents & Kids Safe AI Act", предлагающий юридические требования по подтверждению возраста и запреты на функции, рассчитанные на эмоциональное вовлечение детей. Подобные нормативные рамки обсуждаются в Великобритании в рамках Online Safety Act.
Эра ИИ-компаньонов не наступит в будущем — она уже наступила. Почти у каждого подростка есть доступ к чат-боту ИИ в кармане, и грань между цифровым инструментом и цифровым другом становится всё более размытой.
Хотя эти системы предлагают толику связи для одиноких, консенсус среди экспертов ясен: они не могут заменить нюансы, трения и подлинную эмпатию человеческого взаимодействия. По мере продвижения вперёд задача родителей, педагогов и регуляторов будет заключаться в том, чтобы гарантировать, что ИИ остаётся инструментом поддержки, а не костылём, который препятствует эмоциональному развитию следующего поколения.