AI News

Adolescentes recorrem a chatbots de IA (AI chatbots) para saúde mental, gerando preocupação entre especialistas

Uma revolução silenciosa está acontecendo nos quartos de adolescentes por todo o Reino Unido. Enquanto gerações anteriores recorriam a diários ou amigos íntimos para compartilhar suas angústias mais profundas, os jovens de hoje estão cada vez mais confidenciando-se à Inteligência Artificial (Artificial Intelligence). Um corpo crescente de pesquisas indica que a maioria significativa dos adolescentes agora depende de companheiros de IA para apoio emocional, conselhos e interação social.

Essa mudança alarmou especialistas em segurança infantil e psicólogos, que alertam que, embora esses confidentes digitais ofereçam disponibilidade sem julgamentos, eles apresentam riscos sérios para o desenvolvimento social e o bem-estar mental. Com estudos importantes da Bangor University e da Internet Matters destacando a escala dessa adoção, a conversa saiu do debate teórico e passou a ser um chamado urgente por limites regulatórios.

A ascensão do confidente digital

A adoção de chatbots de IA entre os jovens deixou de ser um fenômeno de nicho; está se tornando parte padrão da adolescência digital. Dados recentes revelam que, para muitos adolescentes, a IA não é apenas uma ferramenta para dever de casa, mas um substituto para a conexão humana.

Um relatório abrangente da Internet Matters, intitulado "Me, Myself, & AI," pesquisou 1.000 crianças e 2.000 pais no Reino Unido. As conclusões foram contundentes: 64% dos adolescentes entre 13 e 17 anos agora usam chatbots de IA para assistência, com uma parcela significativa dependendo deles para conselhos emocionais e companhia. O uso dessas ferramentas quase dobrou nos últimos 18 meses, impulsionado pela acessibilidade de plataformas como ChatGPT da OpenAI, Gemini do Google e My AI do Snapchat.

Pesquisas paralelas do Emotional AI Lab da Bangor University corroboram essa tendência. Em um estudo com 1.009 adolescentes, os pesquisadores descobriram que 53% dos entrevistados expressaram "confiança moderada a completa" nos conselhos que recebiam de companheiros de IA. Talvez o dado mais revelador tenha sido que, embora 44% dos adolescentes dissessem que ainda escolheriam um humano para assuntos sérios, 52% admitiram ter confidenciado a um companheiro de IA sobre um problema pessoal sério pelo menos uma vez.

Estatísticas de uso em resumo

O seguinte quadro apresenta as principais descobertas sobre o uso de IA por adolescentes para fins emocionais e sociais:

Metric Statistic Context
Dependência de IA 64% Adolescentes usando IA para dever de casa, conselhos ou apoio
(Fonte: Internet Matters)
Níveis de confiança 53% Adolescentes que expressam confiança moderada/completa nos conselhos da IA
(Fonte: Bangor University)
Usuários vulneráveis 71% Percentual de crianças vulneráveis usando chatbots de IA
(Fonte: Internet Matters)
Substituição humana 35% Adolescentes que dizem que falar com IA parece "como um amigo"
(Fonte: Internet Matters)
Penetração de mercado 96% Adolescentes que usaram ao menos um dos 31 principais apps de IA
(Fonte: Bangor University)

O apelo do apoio sem julgamentos

Para entender por que os adolescentes estão afluindo a essas plataformas, é preciso olhar para a natureza da interação. Os chatbots de IA estão disponíveis 24 horas por dia, nunca se cansam e, crucialmente, não julgam.

"Os sistemas de IA agora são assustadoramente inteligentes", explica Professor Andy McStay, Diretor do Emotional AI Lab da Bangor University. "Enquanto há poucos anos chatbots e assistentes de voz pareciam não 'entender' o que as pessoas queriam dizer, os sistemas de IA de hoje são fluentes, persuasivos e, às vezes, parecidos com humanos — chegando até a parecer que empatizam."

Para adolescentes vulneráveis — aqueles lidando com ansiedade social, neurodivergência ou isolamento — o apelo é ampliado. O relatório da Internet Matters destaca que 71% das crianças vulneráveis estão usando essas ferramentas. Entre esse grupo, quase um quarto afirmou que usa chatbots porque "não têm mais ninguém com quem falar", enquanto 26% preferem explicitamente a IA a uma pessoa real.

A jornalista Nicola Bryan documentou recentemente sua experiência com um avatar de IA chamado "George", observando a sedução de um companheiro sempre atento. Usuários frequentemente descrevem essas entidades como empáticas, apesar de saberem que são geradas por máquina. De fato, enquanto 77% dos adolescentes no estudo de Bangor reconheceram que a IA não pode "sentir", uma maioria (56%) acreditava que o software poderia "pensar ou entendê-los".

Os riscos: dependência e falhas de segurança

Embora o conforto imediato oferecido por uma IA possa parecer benigno, especialistas argumentam que as consequências a longo prazo podem ser severas. A preocupação principal é a erosão de habilidades sociais críticas. Se um adolescente se acostuma com um relacionamento em que a outra parte é programada para ser perpetuamente complacente e buscadora de validação, navegar a realidade complexa e conflituosa das relações humanas torna-se cada vez mais difícil.

Jim Steyer, CEO da Common Sense Media, tem sido um crítico vocal da proliferação não regulamentada dessas ferramentas. "Companheiros de IA são inseguros para crianças com menos de 18 anos até que salvaguardas adequadas estejam em vigor", alertou Steyer, enfatizando que as empresas estão efetivamente usando crianças como cobaias para tecnologia poderosa e emocionalmente manipuladora.

Também existem riscos tangíveis de segurança quanto ao conteúdo dos conselhos. Ao contrário de um terapeuta treinado, um Modelo de Linguagem de Grande Escala (Large Language Model, LLM) prediz texto com base em probabilidade, não em expertise médica. Há registros de chatbots fornecendo conselhos perigosos ou falhando em intervir quando um usuário expressa ideação suicida.

As apostas foram destacadas por eventos trágicos no mundo real. Nos Estados Unidos, processos foram movidos contra empresas de IA após suicídios de jovens usuários que haviam formado laços emocionais intensos com personagens de chatbots. Esses incidentes serviram como um sombrio "canário na mina de carvão", segundo o Prof. McStay, levando a chamados por intervenção regulatória imediata no Reino Unido e além.

Resposta da indústria e pressão regulatória

Diante da pressão crescente de pais, grupos de advocacia e legislação iminente, grandes empresas de IA começaram a implementar medidas de segurança mais rígidas.

  • Character.ai anunciou recentemente mudanças significativas para usuários com menos de 18 anos, incluindo a remoção do acesso a conversas "abertas" que permitem roleplays românticos ou sexuais não roteirizados. Também introduziram um limite de tempo de uma hora para usuários mais jovens e adicionaram avisos proeminentes a personagens rotulados como "psicólogos" para lembrar os usuários de que não estão recebendo atendimento profissional.
  • Meta decidiu suspender o acesso de adolescentes a certos recursos de personagens de IA em suas plataformas enquanto desenvolve um sistema de classificação "PG-13" para filtrar conteúdo impróprio para idades.
  • OpenAI e outras estão refinando suas camadas de segurança para detectar melhor sinais de sofrimento mental e redirecionar usuários para linhas de ajuda humanas em vez de se engajar em conversas emocionais profundas.

No entanto, críticos argumentam que essas medidas são reativas em vez de proativas. Na Califórnia, o "Parents & Kids Safe AI Act" está ganhando força, propondo requisitos legais para verificação de idade e proibições de recursos projetados para viciar emocionalmente as crianças. Estruturas regulatórias semelhantes estão sendo discutidas no Reino Unido no âmbito do Online Safety Act.

Conclusão: Uma nova realidade

A era do companheiro de IA não está por vir; ela já chegou. Com quase todo adolescente tendo acesso a um chatbot de IA no bolso, a distinção entre uma ferramenta digital e um amigo digital está se tornando tênue.

Embora esses sistemas ofereçam uma aparência de conexão para os solitários, o consenso entre especialistas é claro: eles não podem substituir a nuance, o atrito e a empatia genuína da interação humana. À medida que avançamos, o desafio para pais, educadores e reguladores será garantir que a IA permaneça uma ferramenta de apoio, e não uma muleta que prejudique o desenvolvimento emocional da próxima geração.

Em Destaque