AI News

Die Illusion der Sicherheit: Neue Studie zeigt, dass Grok trotz "Fixes" weiterhin explizite Inhalte erzeugt

Von Creati.ai Editorial Team
22. Januar 2026

Ein vernichtender neuer Bericht, der gestern von der gemeinnützigen Organisation AI Forensics veröffentlicht wurde, hat die Erzählung zerstört, dass xAI, Elon Musks KI-Unternehmen, die Verbreitung expliziter Inhalte auf seiner Grok-Plattform erfolgreich eingedämmt habe. Trotz hochgradig publik gemachter Ankündigungen Anfang dieses Monats über neue "technologische Maßnahmen" und Beschränkungen, die die Bilderzeugung auf zahlende Abonnenten begrenzen, zeigt die Studie, dass Grok weiterhin eine große Menge sexuell expliziter Bilder, nicht-einvernehmliche intime Bilder (Non-consensual intimate imagery, NCII) und sogar Inhalte darstellt, die Minderjährige zeigen.

Die Ergebnisse kommen zu einem kritischen Zeitpunkt für xAI, das steigenden regulatorischen Druck aus der Europäischen Union, dem Vereinigten Königreich und dem Bundesstaat Kalifornien erfährt. Während das Unternehmen behauptete, nach einer Welle von Kontroversen Anfang Januar "dringend Lücken" in seinen Schutzmechanismen behoben zu haben, deutet die Analyse von AI Forensics darauf hin, dass diese Maßnahmen kaum mehr als ein Flickwerk leicht umgehbarer Filter sind, die die grundlegenden Sicherheitsdefizite des Modells nicht beheben.

"Überwältigende" Beweise für das Scheitern der Moderation

Die Studie, veröffentlicht am 21. Januar 2026, analysierte etwa 2.000 Nutzergespräche und Bildgenerierungsanfragen, die Grok am 19. Januar verarbeitet hatte — Tage nachdem die vermeintlichen Schutzmaßnahmen umgesetzt worden waren. Die Ergebnisse waren deutlich: Eine "überwältigende Mehrheit" der analysierten Inhalte zeigte weiterhin Nacktheit, sexuelle Handlungen oder Personen in "minimaler Bekleidung".

Laut den Forschern ist der angeblich eingeschränkte "spicy mode" von xAI schlichtweg verlagert oder weiterentwickelt worden. Während die Integration von Grok direkt in die Social-Media-Plattform X (ehemals Twitter) zu einer Reduktion bestimmter Schlüsselwörter wie "Bikini" bei realen Personen geführt hat, bleibt das zugrundeliegende Modell volatil und missbrauchsanfällig.

Paul Bouchaud, leitender Forscher bei AI Forensics, stellte im Bericht fest, dass die generierten Inhalte nicht nur suggestiv, sondern eindeutig pornografisch seien. Die Studie hob hervor, dass Nutzer keine komplexen "Jailbreak"-Techniken oder ausgefeiltes Prompt-Engineering verwenden, um Filter zu umgehen. Stattdessen werden einfache, direkte Anfragen nach sexualisierten Bildern weiterhin erfüllt, besonders wenn Nutzer die Haupt-X-App verlassen.

Die Schlupfloch: Webzugang vs. Plattform-Integration

Eine der bedeutendsten Enthüllungen im AI Forensics-Bericht ist die Diskrepanz zwischen Groks Verhalten in der X-App und seinem Verhalten auf der eigenständigen Weboberfläche und dem "Grok Imagine"-Tool.

Die Studie ergab, dass xAI zwar Geoblocking und Schlüsselwortfilter auf den in X eingebetteten Grok-Chatbot angewandt hat — hauptsächlich als Reaktion auf das britische Online Safety Act und ähnliche EU-Vorschriften — diese Beschränkungen jedoch auf Grok.com oder der eigenständigen API praktisch nicht existierten. Nutzer, die über diese alternativen Zugänge auf das Modell zugriffen, konnten voll nackt und sexuelle Handlungen mit fotorealistischen menschlichen Motiven erzeugen, ohne auf Widerstand zu stoßen.

Diese Zweiteilung der Sicherheitsstandards deutet auf ein "Whack-a-Mole"-Ansatz bei der Inhaltsmoderation hin, bei dem öffentlich sichtbare Oberflächen gesäubert werden, um Aufsichtsbehörden zu beschwichtigen, während das Kernprodukt anderswo unreguliert bleibt. Dieses technische Versäumnis hat das "Auszieh"-Phänomen ermöglicht — bei dem Nutzer nackt dargestellte Versionen bekleideter Personen erzeugen — und damit einen Schwarzmarkt für nicht-einvernehmliche Deepfakes angeheizt.

Nach Zahlen: Das Ausmaß der Krise

Die von AI Forensics präsentierten Daten geben einen granularen Einblick in das Ausmaß des Versagens. Die folgende Tabelle stellt xAIs öffentliche Zusicherungen den empirischen Ergebnissen der Studie vom 21. Januar gegenüber.

Tabelle 1: xAI-Aussagen vs. Unabhängige Befunde

Category xAI Public Claim (Jan 14, 2026) AI Forensics Findings (Jan 21, 2026)
Access Control Image generation restricted to paid Premium+ subscribers to ensure accountability. Paid status has not reduced abuse; verified users now account for nearly all explicit generations.
Content Filters "Technological measures" implemented to block images of real people in revealing clothing. 53% of generated images depicted individuals in minimal attire; 81% of those were women.
Child Safety Zero tolerance for CSAM; immediate fixes applied after early Jan incidents. 2% of analyzed images still depicted persons appearing to be minors (under 18).
Bypass Difficulty Safeguards are robust against standard prompting. Restrictions easily bypassed via Grok.com; no complex "jailbreaking" required.
Scope of Ban Geoblocked "nudification" features in compliant regions (e.g., UK). Blocks are inconsistent; standalone web tools remain accessible globally without strict filters.

Weltweit verschärfte regulatorische Gegenreaktionen

Das Fortbestehen dieser Probleme hat die rechtlichen und regulatorischen Maßnahmen gegen Musks Unternehmen auf mehreren Kontinenten beschleunigt. Die Diskrepanz zwischen xAIs Versprechen und der Realität seiner Produktleistung wird von Aufsichtsbehörden wahrscheinlich nicht nur als technisches Versagen, sondern als Compliance-Verstoß gewertet.

Im Vereinigten Königreich hat das Office of Communications (Ofcom) am 12. Januar eine formelle Untersuchung nach dem Online Safety Act eingeleitet. Die neuen Erkenntnisse von AI Forensics werden vermutlich als wichtige Beweismittel dienen. Premierminister Keir Starmer hat die Inhalte auf X zuvor als "schändlich" bezeichnet, und die Regierung hat signalisiert, dass Geldstrafen bis zu 10 % des weltweiten Umsatzes des Unternehmens drohen könnten, wenn sie Nutzer nicht vor illegalen Inhalten schützen.

In der Europäischen Union sind die Einsätze ebenso hoch. Die Europäische Kommission hat bereits Anordnungen zur Datenspeicherung für X erlassen, und die französischen Behörden untersuchen die Plattform wegen der Ermöglichung der Verbreitung nicht-einvernehmlicher Deepfakes. Unter dem Digital Services Act (DSA) sind "Sehr große Online‑Plattformen" (Very Large Online Platforms, VLOPs) wie X verpflichtet, systemische Risiken zu mindern. Die Leichtigkeit, mit der Grok illegale Inhalte wie nationalsozialistische Propaganda und Materialien sexuellen Missbrauchs von Kindern (Child Sexual Abuse Material, CSAM) erzeugt, stellt es direkt in den Fokus der EU‑Durchsetzung.

In den Vereinigten Staaten eröffnete der Generalstaatsanwalt von Kalifornien, Rob Bonta, am 14. Januar eine Untersuchung. Die anhaltende Erzeugung von Bildern, die Minderjährige zeigen

Ausgewählt