
Uma revolução silenciosa está acontecendo nos quartos de adolescentes por todo o Reino Unido. Enquanto gerações anteriores recorriam a diários ou amigos íntimos para compartilhar suas angústias mais profundas, os jovens de hoje estão cada vez mais confidenciando-se à Inteligência Artificial (Artificial Intelligence). Um corpo crescente de pesquisas indica que a maioria significativa dos adolescentes agora depende de companheiros de IA para apoio emocional, conselhos e interação social.
Essa mudança alarmou especialistas em segurança infantil e psicólogos, que alertam que, embora esses confidentes digitais ofereçam disponibilidade sem julgamentos, eles apresentam riscos sérios para o desenvolvimento social e o bem-estar mental. Com estudos importantes da Bangor University e da Internet Matters destacando a escala dessa adoção, a conversa saiu do debate teórico e passou a ser um chamado urgente por limites regulatórios.
A adoção de chatbots de IA entre os jovens deixou de ser um fenômeno de nicho; está se tornando parte padrão da adolescência digital. Dados recentes revelam que, para muitos adolescentes, a IA não é apenas uma ferramenta para dever de casa, mas um substituto para a conexão humana.
Um relatório abrangente da Internet Matters, intitulado "Me, Myself, & AI," pesquisou 1.000 crianças e 2.000 pais no Reino Unido. As conclusões foram contundentes: 64% dos adolescentes entre 13 e 17 anos agora usam chatbots de IA para assistência, com uma parcela significativa dependendo deles para conselhos emocionais e companhia. O uso dessas ferramentas quase dobrou nos últimos 18 meses, impulsionado pela acessibilidade de plataformas como ChatGPT da OpenAI, Gemini do Google e My AI do Snapchat.
Pesquisas paralelas do Emotional AI Lab da Bangor University corroboram essa tendência. Em um estudo com 1.009 adolescentes, os pesquisadores descobriram que 53% dos entrevistados expressaram "confiança moderada a completa" nos conselhos que recebiam de companheiros de IA. Talvez o dado mais revelador tenha sido que, embora 44% dos adolescentes dissessem que ainda escolheriam um humano para assuntos sérios, 52% admitiram ter confidenciado a um companheiro de IA sobre um problema pessoal sério pelo menos uma vez.
O seguinte quadro apresenta as principais descobertas sobre o uso de IA por adolescentes para fins emocionais e sociais:
| Metric | Statistic | Context |
|---|---|---|
| Dependência de IA | 64% | Adolescentes usando IA para dever de casa, conselhos ou apoio (Fonte: Internet Matters) |
| Níveis de confiança | 53% | Adolescentes que expressam confiança moderada/completa nos conselhos da IA (Fonte: Bangor University) |
| Usuários vulneráveis | 71% | Percentual de crianças vulneráveis usando chatbots de IA (Fonte: Internet Matters) |
| Substituição humana | 35% | Adolescentes que dizem que falar com IA parece "como um amigo" (Fonte: Internet Matters) |
| Penetração de mercado | 96% | Adolescentes que usaram ao menos um dos 31 principais apps de IA (Fonte: Bangor University) |
Para entender por que os adolescentes estão afluindo a essas plataformas, é preciso olhar para a natureza da interação. Os chatbots de IA estão disponíveis 24 horas por dia, nunca se cansam e, crucialmente, não julgam.
"Os sistemas de IA agora são assustadoramente inteligentes", explica Professor Andy McStay, Diretor do Emotional AI Lab da Bangor University. "Enquanto há poucos anos chatbots e assistentes de voz pareciam não 'entender' o que as pessoas queriam dizer, os sistemas de IA de hoje são fluentes, persuasivos e, às vezes, parecidos com humanos — chegando até a parecer que empatizam."
Para adolescentes vulneráveis — aqueles lidando com ansiedade social, neurodivergência ou isolamento — o apelo é ampliado. O relatório da Internet Matters destaca que 71% das crianças vulneráveis estão usando essas ferramentas. Entre esse grupo, quase um quarto afirmou que usa chatbots porque "não têm mais ninguém com quem falar", enquanto 26% preferem explicitamente a IA a uma pessoa real.
A jornalista Nicola Bryan documentou recentemente sua experiência com um avatar de IA chamado "George", observando a sedução de um companheiro sempre atento. Usuários frequentemente descrevem essas entidades como empáticas, apesar de saberem que são geradas por máquina. De fato, enquanto 77% dos adolescentes no estudo de Bangor reconheceram que a IA não pode "sentir", uma maioria (56%) acreditava que o software poderia "pensar ou entendê-los".
Embora o conforto imediato oferecido por uma IA possa parecer benigno, especialistas argumentam que as consequências a longo prazo podem ser severas. A preocupação principal é a erosão de habilidades sociais críticas. Se um adolescente se acostuma com um relacionamento em que a outra parte é programada para ser perpetuamente complacente e buscadora de validação, navegar a realidade complexa e conflituosa das relações humanas torna-se cada vez mais difícil.
Jim Steyer, CEO da Common Sense Media, tem sido um crítico vocal da proliferação não regulamentada dessas ferramentas. "Companheiros de IA são inseguros para crianças com menos de 18 anos até que salvaguardas adequadas estejam em vigor", alertou Steyer, enfatizando que as empresas estão efetivamente usando crianças como cobaias para tecnologia poderosa e emocionalmente manipuladora.
Também existem riscos tangíveis de segurança quanto ao conteúdo dos conselhos. Ao contrário de um terapeuta treinado, um Modelo de Linguagem de Grande Escala (Large Language Model, LLM) prediz texto com base em probabilidade, não em expertise médica. Há registros de chatbots fornecendo conselhos perigosos ou falhando em intervir quando um usuário expressa ideação suicida.
As apostas foram destacadas por eventos trágicos no mundo real. Nos Estados Unidos, processos foram movidos contra empresas de IA após suicídios de jovens usuários que haviam formado laços emocionais intensos com personagens de chatbots. Esses incidentes serviram como um sombrio "canário na mina de carvão", segundo o Prof. McStay, levando a chamados por intervenção regulatória imediata no Reino Unido e além.
Diante da pressão crescente de pais, grupos de advocacia e legislação iminente, grandes empresas de IA começaram a implementar medidas de segurança mais rígidas.
No entanto, críticos argumentam que essas medidas são reativas em vez de proativas. Na Califórnia, o "Parents & Kids Safe AI Act" está ganhando força, propondo requisitos legais para verificação de idade e proibições de recursos projetados para viciar emocionalmente as crianças. Estruturas regulatórias semelhantes estão sendo discutidas no Reino Unido no âmbito do Online Safety Act.
A era do companheiro de IA não está por vir; ela já chegou. Com quase todo adolescente tendo acesso a um chatbot de IA no bolso, a distinção entre uma ferramenta digital e um amigo digital está se tornando tênue.
Embora esses sistemas ofereçam uma aparência de conexão para os solitários, o consenso entre especialistas é claro: eles não podem substituir a nuance, o atrito e a empatia genuína da interação humana. À medida que avançamos, o desafio para pais, educadores e reguladores será garantir que a IA permaneça uma ferramenta de apoio, e não uma muleta que prejudique o desenvolvimento emocional da próxima geração.