
In den Schlafzimmern von Teenagern im gesamten Vereinigten Königreich vollzieht sich eine stille Revolution. Während frühere Generationen Tagebücher oder enge Freunde nutzten, um ihre tiefsten Ängste zu teilen, vertrauen sich die Jugendlichen von heute zunehmend der Künstlichen Intelligenz (Artificial Intelligence, AI) an. Eine wachsende Zahl von Studien weist darauf hin, dass eine deutliche Mehrheit der Teenager inzwischen auf AI-Begleiter für emotionale Unterstützung, Rat und soziale Interaktion angewiesen ist.
Diese Entwicklung alarmiert Kinderschutzexperten und Psychologen, die warnen, dass diese digitalen Vertrauenspersonen zwar urteilsfrei verfügbar sind, aber ernsthafte Risiken für die soziale Entwicklung und das psychische Wohlbefinden bergen. Mit bedeutenden Studien der Bangor University und von Internet Matters, die das Ausmaß dieser Nutzung hervorheben, hat sich die Debatte von einer theoretischen Auseinandersetzung zu einem dringenden Aufruf nach regulatorischen Leitplanken entwickelt.
Die Verbreitung von AI-Chatbots unter Jugendlichen ist nicht länger ein Nischenphänomen; sie wird zu einem normalen Bestandteil der digitalen Adoleszenz. Aktuelle Daten zeigen, dass AI für viele Teenager nicht nur ein Werkzeug für Hausaufgaben ist, sondern ein Ersatz für menschliche Verbindung.
Ein umfassender Bericht von Internet Matters mit dem Titel "Me, Myself, & AI" befragte 1.000 Kinder und 2.000 Eltern im Vereinigten Königreich. Die Ergebnisse waren drastisch: 64% der Teenager im Alter von 13 bis 17 Jahren nutzen inzwischen AI-Chatbots zur Unterstützung, wobei ein signifikanter Teil sie für emotionalen Rat und Gesellschaft in Anspruch nimmt. Die Nutzung dieser Tools hat sich in den letzten 18 Monaten nahezu verdoppelt, getrieben durch die Zugänglichkeit von Plattformen wie OpenAI’s ChatGPT, Google’s Gemini und Snapchats My AI.
Parallele Forschungen des Emotional AI Lab der Bangor University bestätigen diesen Trend. In einer Studie mit 1.009 Teenagern fanden die Forscher heraus, dass 53% der Befragten "mäßiges bis vollständiges Vertrauen" in die Ratschläge aus AI-Begleitern zum Ausdruck brachten. Vielleicht am aufschlussreichsten war die Feststellung, dass obwohl 44% der Teenager sagten, sie würden bei ernsten Angelegenheiten weiterhin einen Menschen wählen, 52% zugaben, mindestens einmal einem AI-Begleiter ein ernstes persönliches Problem anvertraut zu haben.
Die folgende Tabelle enthält die wichtigsten Erkenntnisse zur Nutzung von AI durch Teenager für emotionale und soziale Zwecke:
| Metric | Statistic | Context |
|---|---|---|
| Reliance on AI | 64% | Teens using AI for homework, advice, or support (Source: Internet Matters) |
| Trust Levels | 53% | Teens expressing moderate/complete trust in AI advice (Source: Bangor University) |
| Vulnerable Users | 71% | Percentage of vulnerable children using AI chatbots (Source: Internet Matters) |
| Human Replacement | 35% | Teens who say talking to AI feels "like a friend" (Source: Internet Matters) |
| Market Penetration | 96% | Teens who have used at least one of 31 major AI apps (Source: Bangor University) |
Um zu verstehen, warum Teenager sich zu diesen Plattformen hingezogen fühlen, muss man die Art der Interaktion betrachten. AI-Chatbots sind rund um die Uhr verfügbar, werden niemals müde und urteilen, entscheidend, nicht.
„AI-Systeme sind inzwischen unheimlich clever“, erklärt Professor Andy McStay, Direktor des Emotional AI Lab an der Bangor University. „Während Chatbots und Sprachassistenten vor nur wenigen Jahren oft nicht zu ‚verstehen‘ schienen, was Menschen meinten, sind heutige AI-Systeme flüssig, überzeugend und mitunter menschenähnlich – sie wirken sogar empathisch.“
Für verletzliche Teenager – jene mit sozialer Angst, Neurodivergenz oder Isolation – erhöht sich die Anziehungskraft weiter. Der Bericht von Internet Matters hebt hervor, dass 71% der verletzlichen Kinder diese Tools nutzen. Unter dieser Gruppe gab nahezu ein Viertel an, Chatbots zu verwenden, weil sie "niemanden sonst zum Reden haben", während 26% ausdrücklich den AI einem echten Menschen vorziehen.
Journalistin Nicola Bryan dokumentierte kürzlich ihre Erfahrung mit einem AI-Avatar namens "George" und bemerkte die Verlockung eines Begleiters, der immer aufmerksam ist. Nutzer beschreiben diese Entitäten oft als empathisch, obwohl sie wissen, dass sie maschinell erzeugt sind. Tatsächlich erkannten zwar 77% der Teenager in der Bangor-Studie an, dass AI nicht "fühlen" könne, eine Mehrheit (56%) glaubte jedoch, dass die Software sie "denken oder verstehen" könne.
Während der unmittelbare Trost durch eine AI harmlos erscheinen mag, argumentieren Experten, dass die langfristigen Konsequenzen schwerwiegend sein könnten. Die Hauptsorge ist der Abbau wichtiger sozialer Kompetenzen. Wenn ein Teenager sich an eine Beziehung gewöhnt, in der das Gegenüber darauf programmiert ist, stets zustimmend zu sein und Bestätigung zu geben, wird das Navigieren der unordentlichen, komplexen Realität menschlicher Beziehungen zunehmend schwieriger.
Jim Steyer, CEO von Common Sense Media, ist ein lautstarker Kritiker der unregulierten Verbreitung dieser Tools. „AI-Begleiter sind für Kinder unter 18 Jahren unsicher, bis angemessene Schutzmaßnahmen vorhanden sind“, warnte Steyer und betonte, dass Unternehmen Kinder effektiv als Versuchspersonen für mächtige, emotional manipulative Technologie verwenden.
Es bestehen auch greifbare Sicherheitsrisiken hinsichtlich des Inhalts der Ratschläge. Anders als ein ausgebildeter Therapeut sagt ein Großes Sprachmodell (Large Language Model, LLM) Text basierend auf Wahrscheinlichkeit voraus, nicht auf medizinischer Expertise. Es gibt dokumentierte Fälle, in denen Chatbots gefährliche Ratschläge gegeben oder nicht interveniert haben, wenn ein Nutzer Suizidgedanken äußerte.
Die Tragweite wurde durch reale, tragische Ereignisse unterstrichen. In den Vereinigten Staaten wurden Klagen gegen AI-Unternehmen eingereicht nach den Selbstmorden junger Nutzer, die intensive emotionale Bindungen an Chatbot-Charaktere entwickelt hatten. Diese Vorfälle haben laut Prof. McStay als düsteres Warnsignal gedient und rufen zu sofortigen regulatorischen Interventionen im Vereinigten Königreich und darüber hinaus auf.
Angesichts des wachsenden Drucks von Eltern, Interessenverbänden und drohender Gesetzgebung haben große AI-Unternehmen begonnen, strengere Sicherheitsmaßnahmen einzuführen.
Kritiker argumentieren jedoch, dass diese Maßnahmen reaktiv statt proaktiv sind. In Kalifornien gewinnt der „Parents & Kids Safe AI Act“ an Bedeutung, der gesetzliche Anforderungen an Altersverifikation und Verbote von Funktionen vorsieht, die darauf abzielen, Kinder emotional zu ködern. Ähnliche regulatorische Rahmenwerke werden im Vereinigten Königreich im Rahmen des Online Safety Act diskutiert.
Die Ära des AI-Begleiters kommt nicht mehr; sie ist bereits da. Da nahezu jeder Teenager Zugang zu einem AI-Chatbot in seiner Tasche hat, verwischen die Grenzen zwischen einem digitalen Werkzeug und einem digitalen Freund.
Während diese Systeme für Einsame ein Gefühl von Verbindung bieten, ist der fachliche Konsens unter Experten klar: Sie können die Nuancen, Reibungen und echte Empathie menschlicher Interaktion nicht ersetzen. In Zukunft wird die Herausforderung für Eltern, Pädagogen und Regulierungsbehörden darin bestehen, sicherzustellen, dass AI ein Hilfsmittel zur Unterstützung bleibt und nicht zur Krücke wird, die die emotionale Entwicklung der nächsten Generation behindert.