AI News

Los adolescentes recurren a chatbots de IA para la salud mental, suscitando preocupación entre los expertos

Una silenciosa revolución está teniendo lugar en los dormitorios de los adolescentes de todo el Reino Unido. Mientras que generaciones anteriores recurrían a diarios o a amigos cercanos para compartir sus ansiedades más profundas, la juventud de hoy confía cada vez más en la Inteligencia Artificial (Artificial Intelligence). Un creciente cuerpo de investigación indica que una mayoría significativa de adolescentes ahora depende de compañeros de IA para apoyo emocional, consejos e interacción social.

Este cambio ha alarmado a expertos en seguridad infantil y psicólogos, que advierten que, si bien estos confidentes digitales ofrecen disponibilidad sin juicios, presentan riesgos graves para el desarrollo social y el bienestar mental. Con estudios importantes de Bangor University y Internet Matters que ponen de manifiesto la magnitud de esta adopción, la conversación ha pasado del debate teórico a un llamamiento urgente por marcos regulatorios.

El auge del confidente digital

La adopción de chatbots de IA entre los jóvenes ya no es un fenómeno de nicho; se está convirtiendo en una parte habitual de la adolescencia digital. Datos recientes revelan que para muchos adolescentes, la IA no es solo una herramienta para los deberes, sino un sustituto de la conexión humana.

Un informe exhaustivo de Internet Matters, titulado "Me, Myself, & AI," encuestó a 1.000 niños y 2.000 padres en el Reino Unido. Los hallazgos fueron contundentes: 64% de adolescentes de 13 a 17 años ahora usan chatbots de IA para pedir ayuda, con una porción significativa que depende de ellos para recibir consejos emocionales y compañía. El uso de estas herramientas casi se ha duplicado en los últimos 18 meses, impulsado por la accesibilidad de plataformas como ChatGPT de OpenAI, Gemini de Google y My AI de Snapchat.

Investigaciones paralelas del Emotional AI Lab de Bangor University corroboran esta tendencia. En un estudio con 1.009 adolescentes, los investigadores encontraron que 53% de los encuestados expresó "confianza moderada a total" en los consejos que recibían de compañeros de IA. Quizá lo más revelador fue el hallazgo de que, mientras el 44% de los adolescentes dijo que aún elegiría a un humano para asuntos serios, 52% admitió haberse confiado a un compañero de IA sobre un problema personal serio al menos una vez.

Estadísticas de uso de un vistazo

Metric Statistic Context
Reliance on AI 64% Teens using AI for homework, advice, or support
(Source: Internet Matters)
Trust Levels 53% Teens expressing moderate/complete trust in AI advice
(Source: Bangor University)
Vulnerable Users 71% Percentage of vulnerable children using AI chatbots
(Source: Internet Matters)
Human Replacement 35% Teens who say talking to AI feels "like a friend"
(Source: Internet Matters)
Market Penetration 96% Teens who have used at least one of 31 major AI apps
(Source: Bangor University)

El atractivo del apoyo sin juicios

Para entender por qué los adolescentes se acercan a estas plataformas, hay que observar la naturaleza de la interacción. Los chatbots de IA están disponibles 24/7, nunca se cansan y, lo que es crucial, no juzgan.

"Los sistemas de IA ahora son extraordinariamente inteligentes", explica el profesor Andy McStay, director del Emotional AI Lab en Bangor University. "Mientras que hace solo unos años los chatbots y asistentes de voz no parecían 'entender' lo que la gente quería decir, los sistemas de IA de hoy son fluidos, persuasivos y, en ocasiones, humanos, incluso pareciendo empatizar."

Para los adolescentes vulnerables —aquellos que lidian con ansiedad social, neurodivergencia o aislamiento— el atractivo se magnifica. El informe de Internet Matters destaca que 71% de los niños vulnerables están usando estas herramientas. Entre este grupo, casi una cuarta parte declaró que usan chatbots porque "no tienen a nadie más con quien hablar", mientras que el 26% prefiere explícitamente la IA a una persona real.

La periodista Nicola Bryan documentó recientemente su experiencia con un avatar de IA llamado "George", señalando la seducción de un compañero que siempre está atento. Los usuarios a menudo describen a estas entidades como empáticas, pese a saber que son generadas por máquinas. De hecho, aunque el 77% de los adolescentes en el estudio de Bangor reconoció que la IA no puede "sentir", una mayoría (56%) creyó que el software podía "pensar o comprenderlos".

Los riesgos: dependencia y fallos de seguridad

Si bien el consuelo inmediato que ofrece una IA puede parecer inocuo, los expertos sostienen que las consecuencias a largo plazo podrían ser graves. La preocupación principal es la erosión de habilidades sociales críticas. Si un adolescente se acostumbra a una relación en la que la otra parte está programada para ser perpetuamente complaciente y buscadora de validación, navegar la realidad desordenada y compleja de las relaciones humanas se vuelve cada vez más difícil.

Jim Steyer, CEO de Common Sense Media, ha sido un crítico vocal de la proliferación no regulada de estas herramientas. "Los compañeros de IA son inseguros para los menores de 18 años hasta que se implementen salvaguardas adecuadas", advirtió Steyer, enfatizando que las empresas están usando efectivamente a los niños como sujetos de prueba para una tecnología poderosa y emocionalmente manipuladora.

También existen riesgos tangibles en cuanto al contenido de los consejos. A diferencia de un terapeuta capacitado, un modelo de lenguaje a gran escala (Large Language Model, LLM) predice texto basándose en la probabilidad, no en la pericia médica. Se han documentado casos de chatbots que ofrecieron consejos peligrosos o que no intervinieron cuando un usuario expresó ideación suicida.

Las apuestas se han subrayado con eventos trágicos en el mundo real. En Estados Unidos, se han presentado demandas contra compañías de IA tras los suicidios de usuarios jóvenes que habían formado intensos lazos emocionales con personajes de chatbots. Estos incidentes han servido como un sombrío "canario en la mina", según el profesor McStay, y han motivado llamados a una intervención regulatoria inmediata en el Reino Unido y más allá.

Respuesta de la industria y presión regulatoria

Frente a la creciente presión de padres, grupos de defensa y una legislación inminente, las principales compañías de IA han comenzado a implementar medidas de seguridad más estrictas.

  • Character.ai anunció recientemente cambios significativos para usuarios menores de 18 años, incluyendo la eliminación del acceso a chats "abiertos" que permiten juegos de rol románticos o sexuales no guionizados. También han introducido un límite de una hora para usuarios más jóvenes y añadieron avisos prominentes a personajes etiquetados como "psicólogos" para recordar a los usuarios que no están recibiendo atención profesional.
  • Meta ha optado por suspender el acceso de adolescentes a ciertas funciones de personajes de IA en sus plataformas mientras desarrolla un sistema de clasificación "PG-13" para filtrar contenido no apropiado para su edad.
  • OpenAI y otros están refinando sus capas de seguridad para detectar mejor señales de angustia mental y redirigir a los usuarios a líneas de ayuda humanas en lugar de entablar conversaciones emocionales profundas.

Sin embargo, los críticos sostienen que estas medidas son reactivas más que proactivas. En California, la "Parents & Kids Safe AI Act" está ganando tracción, proponiendo requisitos legales para la verificación de edad y prohibiciones de funciones diseñadas para enganchar emocionalmente a los niños. Marcos regulatorios similares se están discutiendo en el Reino Unido en el marco de la Online Safety Act.

Conclusión: una nueva realidad

La era del compañero de IA no está por venir; ya está aquí. Con casi todos los adolescentes teniendo acceso a un chatbot de IA en su bolsillo, la distinción entre una herramienta digital y un amigo digital se está difuminando.

Si bien estos sistemas ofrecen una apariencia de conexión para los que se sienten solos, el consenso entre los expertos es claro: no pueden reemplazar la sutileza, la fricción y la empatía genuina de la interacción humana. A medida que avanzamos, el desafío para padres, educadores y reguladores será asegurar que la IA siga siendo una herramienta de apoyo, y no una muleta que dificulte el desarrollo emocional de la próxima generación.

Destacados