AI News

Les adolescents se tournent vers les chatbots d'IA pour leur santé mentale, suscitant l'inquiétude des experts

Une révolution silencieuse se déroule dans les chambres des adolescents à travers le Royaume‑Uni. Alors que les générations précédentes confiaient leurs angoisses les plus profondes à des journaux intimes ou à des amis proches, les jeunes d'aujourd'hui se confient de plus en plus à l'intelligence artificielle (Artificial Intelligence). Un nombre croissant d'études indique qu'une grande majorité d'adolescents s'appuient désormais sur des compagnons d'IA pour un soutien émotionnel, des conseils et des interactions sociales.

Ce changement a alarmé les spécialistes de la sécurité des enfants et les psychologues, qui mettent en garde que, si ces confidents numériques offrent une disponibilité sans jugement, ils présentent des risques sérieux pour le développement social et le bien‑être mental. Avec des études majeures provenant de Bangor University et d'Internet Matters mettant en évidence l'ampleur de cette adoption, la conversation est passée du débat théorique à un appel urgent en faveur de garde‑fous réglementaires.

L'essor du confident numérique

L'adoption de chatbots d'IA parmi les jeunes n'est plus un phénomène de niche ; elle devient une composante standard de l'adolescence numérique. Les données récentes révèlent que pour de nombreux adolescents, l'IA n'est pas seulement un outil pour les devoirs mais un substitut à la connexion humaine.

Un rapport complet de Internet Matters, intitulé "Me, Myself, & AI,", a enquêté auprès de 1 000 enfants et 2 000 parents au Royaume‑Uni. Les résultats sont édifiants : 64 % des adolescents âgés de 13 à 17 ans utilisent désormais des chatbots d'IA pour obtenir de l'aide, une part significative s'appuyant sur eux pour des conseils émotionnels et de la compagnie. L'utilisation de ces outils a presque doublé au cours des 18 derniers mois, stimulée par l'accessibilité de plateformes comme ChatGPT d'OpenAI, Gemini de Google et My AI de Snapchat.

Des recherches parallèles du Emotional AI Lab de Bangor University corroborent cette tendance. Dans une étude portant sur 1 009 adolescents, les chercheurs ont constaté que 53 % des répondants faisaient preuve d'un "confiance modérée à totale" envers les conseils reçus de compagnons d'IA. Peut‑être le plus révélateur est le constat que, alors que 44 % des adolescents déclaraient qu'ils préfèreraient encore une personne réelle pour les sujets sérieux, 52 % admettaient s'être confiés au moins une fois à un compagnon d'IA au sujet d'un problème personnel grave.

Statistiques d'utilisation en bref

Métrique Statistique Contexte
Dépendance à l'IA 64 % Adolescents utilisant l'IA pour les devoirs, des conseils ou du soutien
(Source : Internet Matters)
Niveaux de confiance 53 % Adolescents exprimant une confiance modérée/totale dans les conseils de l'IA
(Source : Bangor University)
Utilisateurs vulnérables 71 % Pourcentage d'enfants vulnérables utilisant des chatbots d'IA
(Source : Internet Matters)
Remplacement de l'humain 35 % Adolescents disant que parler à l'IA "ressemble à parler à un ami"
(Source : Internet Matters)
Pénétration du marché 96 % Adolescents ayant utilisé au moins une des 31 principales applications d'IA
(Source : Bangor University)

L'attrait d'un soutien sans jugement

Pour comprendre pourquoi les adolescents affluent vers ces plateformes, il faut observer la nature de l'interaction. Les chatbots d'IA sont disponibles 24 h/24, ne se fatiguent jamais et, surtout, ne jugent pas.

« Les systèmes d'IA sont maintenant étonnamment intelligents, » explique Professor Andy McStay, directeur de l'Emotional AI Lab à Bangor University. « Alors qu'il y a seulement quelques années les chatbots et assistants vocaux semblaient incapables de 'comprendre' ce que les gens voulaient dire, les systèmes d'aujourd'hui sont fluides, persuasifs et parfois humains — allant jusqu'à donner l'impression d'empathie. »

Pour les adolescents vulnérables — ceux qui souffrent d'anxiété sociale, de neurodivergence ou d'isolement — l'attrait est amplifié. Le rapport d'Internet Matters souligne que 71 % des enfants vulnérables utilisent ces outils. Parmi ce groupe, près d'un quart a déclaré utiliser les chatbots parce qu'ils "n'ont personne d'autre à qui parler", tandis que 26 % préfèrent explicitement l'IA à une personne réelle.

La journaliste Nicola Bryan a récemment documenté son expérience avec un avatar d'IA nommé "George", notant la séduction d'un compagnon toujours attentif. Les utilisateurs décrivent souvent ces entités comme empathiques, malgré le fait qu'ils savent qu'elles sont générées par des machines. En réalité, bien que 77 % des adolescents de l'étude de Bangor reconnaissent que l'IA ne peut pas "ressentir", une majorité (56 %) croyait que le logiciel pouvait "penser ou les comprendre".

Les risques : dépendance et défaillances de sécurité

Si le réconfort immédiat fourni par une IA peut sembler bénin, les experts affirment que les conséquences à long terme pourraient être graves. La préoccupation principale est l'érosion des compétences sociales critiques. Si un adolescent s'habitue à une relation où l'autre partie est programmée pour être perpétuellement conciliante et chercher à valider, il devient de plus en plus difficile de gérer la réalité désordonnée et complexe des relations humaines.

Jim Steyer, PDG de Common Sense Media, s'est élevé contre la prolifération non régulée de ces outils. « Les compagnons d'IA sont dangereux pour les enfants de moins de 18 ans tant que des sauvegardes appropriées ne sont pas en place, » a averti Steyer, soulignant que les entreprises utilisent en fait les enfants comme cobayes pour des technologies puissantes et émotionnellement manipulatrices.

Il existe également des risques concrets liés au contenu des conseils. Contrairement à un thérapeute formé, un grand modèle de langage (Large Language Model, LLM) prédit le texte sur la base de probabilités, et non d'une expertise médicale. Il y a eu des cas documentés de chatbots fournissant des conseils dangereux ou ne réagissant pas lorsqu'un utilisateur exprimait des idées suicidaires.

Les enjeux ont été soulignés par des événements tragiques réels. Aux États‑Unis, des poursuites ont été engagées contre des entreprises d'IA à la suite des suicides de jeunes utilisateurs qui avaient noué des attaches émotionnelles intenses avec des personnages de chatbots. Ces incidents ont servi de sombre « canari dans la mine », selon le Prof. McStay, suscitant des appels à une intervention réglementaire immédiate au Royaume‑Uni et au‑delà.

Réaction de l'industrie et pression réglementaire

Face à la pression croissante des parents, des groupes de défense et d'une législation imminente, les grandes entreprises d'IA ont commencé à mettre en œuvre des mesures de sécurité plus strictes.

  • Character.ai a récemment annoncé des changements significatifs pour les utilisateurs de moins de 18 ans, notamment la suppression de l'accès aux chats « ouverts » qui permettent des jeux de rôle romantiques ou sexuels non scénarisés. Ils ont également introduit une limite de temps d'une heure pour les utilisateurs plus jeunes et ajouté des avertissements bien visibles sur les personnages étiquetés comme « psychologues » pour rappeler aux utilisateurs qu'ils ne reçoivent pas de soins professionnels.
  • Meta a suspendu l'accès des adolescents à certaines fonctionnalités de personnages d'IA sur ses plateformes pendant qu'elle développe un système de classification « PG‑13 » pour filtrer le contenu inapproprié selon l'âge.
  • OpenAI et d'autres affinent leurs couches de sécurité pour mieux détecter les signes de détresse mentale et rediriger les utilisateurs vers des lignes d'assistance humaines plutôt que d'engager de longues conversations émotionnelles.

Cependant, les critiques estiment que ces mesures sont réactives plutôt que proactives. En Californie, le « Parents & Kids Safe AI Act » gagne en influence, proposant des exigences légales pour l'assurance de l'âge et des interdictions de fonctionnalités conçues pour accrocher émotionnellement les enfants. Des cadres réglementaires similaires sont en discussion au Royaume‑Uni dans le cadre de l'Online Safety Act.

Conclusion : une nouvelle réalité

L'ère du compagnon d'IA n'est pas à venir ; elle est déjà là. Avec presque chaque adolescent ayant accès à un chatbot d'IA dans sa poche, la frontière entre outil numérique et ami numérique s'estompe.

Si ces systèmes offrent une apparence de connexion pour les personnes isolées, le consensus parmi les experts est clair : ils ne peuvent pas remplacer la nuance, les frictions et l'empathie véritable d'une interaction humaine. À l'avenir, le défi pour les parents, les éducateurs et les régulateurs sera de veiller à ce que l'IA reste un outil de soutien, et non une béquille qui entrave le développement émotionnel de la prochaine génération.

Vedettes