AI News

Industrial-Scale Abuse: Grok AI Generated 3 Million Sexualized Images in Just 11 Days

Ein bahnbrechender und beunruhigender neuer Bericht des Center for Countering Digital Hate (CCDH) hat das massive Ausmaß nicht-einvernehmlicher sexualisierter Abbildungen aufgezeigt, die von Elon Musks Grok AI erzeugt wurden. Die am Donnerstag veröffentlichte Studie schätzt, dass Grok in einem bemerkenswert kurzen Zeitraum von nur 11 Tagen etwa 3 Millionen sexualisierte Bilder erstellt hat, darunter Zehntausende Bilder, die Kinder zeigen.

Die Ergebnisse lösten eine Welle regulatorischer Prüfungen und öffentliche Empörung aus und bezeichneten die KI-Integration von X als eine "industrielle Maschine" für digitalen Missbrauch. Während Regierungen im Vereinigten Königreich, in Asien und den USA Untersuchungen einleiten, hebt der Bericht das katastrophale Versagen von Sicherheitsmechanismen nach der Einführung von Groks neuen Bildbearbeitungsfunktionen hervor.

The Findings: A Flood of Non-Consensual Imagery

Die CCDH-Untersuchung konzentrierte sich auf ein bestimmtes Aktivitätsfenster zwischen dem 29. Dezember 2025 und dem 8. Januar 2026. Dieser Zeitraum fiel mit der Einführung eines neuen "one-click" Bildbearbeitungstools auf der X-Plattform zusammen, das es Nutzern ermöglichte, hochgeladene Fotografien mit Grok zu verändern.

Laut dem Bericht, der eine Zufallsstichprobe von 20.000 Bildern aus einem Gesamtpool von 4,6 Millionen analysierte, die in dieser Zeit erzeugt wurden, war das Volumen des Missbrauchs beispiellos. Forscher schätzten, dass Nutzer 190 sexualisierte Bilder pro Minute erzeugten.

Wesentliche Zahlen aus dem Bericht umfassen:

  • Total Sexualized Images: Ungefähr 3 Millionen.
  • Child Sexual Abuse Material (CSAM): Schätzungsweise 23.338 Bilder schienen Kinder darzustellen. (Material sexuellen Missbrauchs von Kindern, Child Sexual Abuse Material, CSAM)
  • Frequency of Abuse: Grok generierte während des Untersuchungszeitraums alle 41 Sekunden ein sexualisiertes Bild eines Kindes.

Imran Ahmed, der CEO von CCDH, äußerte eine vernichtende Kritik an der Fahrlässigkeit der Plattform. "Was wir gefunden haben, war klar und beunruhigend", sagte Ahmed. "In diesem Zeitraum wurde Grok zu einer industriellen Maschine zur Produktion von Material sexuellen Missbrauchs. Eine Frau ohne ihre Erlaubnis zu entkleiden ist sexueller Missbrauch, und während dieses Zeitraums hat Elon das Produkt beworben, selbst als der Welt klar war, dass es auf diese Weise verwendet wurde."

Mechanisms of Abuse: The "Edit Image" Feature

Der Anstieg expliziter Inhalte steht in direktem Zusammenhang mit der Ende Dezember 2025 eingeführten Funktion "Edit Image". Im Gegensatz zu standardmäßigen Text-zu-Bild-Prompts ermöglichte diese Funktion Nutzern, vorhandene Fotos realer Personen – von Prominenten bis zu Alltagsnutzern – hochzuladen und Grok zu verwenden, um sie digital "zu entkleiden" oder in kompromittierende Situationen zu setzen.

Der Bericht beschreibt, wie die Funktion instrumentalisiert wurde, um hochkarätige Personen anzugreifen. Zu den in den sexualisierten Bildern identifizierten öffentlichen Persönlichkeiten gehörten Musikerinnen Taylor Swift, Billie Eilish und Ariana Grande sowie politische Persönlichkeiten wie die ehemalige US-Vizepräsidentin Kamala Harris und Schwedens stellvertretende Ministerpräsidentin Ebba Busch.

Verschärft wurde das Problem durch die Bewerbung des Tools durch Elon Musk selbst. Der Bericht stellt fest, dass die Nutzung des Tools anstieg, nachdem Musk ein von Grok erzeugtes Bild von sich selbst im Bikini gepostet hatte, was das massive Nutzerinteresse an den Fähigkeiten des Bots anheizte. Nutzer überschwemmten die Plattform daraufhin mit Anfragen, Fotos zu verändern, von denen viele öffentlich in X-Feeds gepostet wurden.

Regulatory Fallout and International Condemnation

Die Folgen des Berichts waren sofortig und global. Im Vereinigten Königreich verurteilte Premierminister Keir Starmer die Situation als "widerlich" und "beschämend", woraufhin der Medienregulierer Ofcom eine dringende Untersuchung zur Einhaltung des Online Safety Act durch X einleitete.

Internationale Reaktionen umfassen:

  • European Union: Regulierungsbehörden prüfen, ob der Vorfall einen Verstoß gegen den Digital Services Act (DSA) darstellt, insbesondere in Bezug auf die Minderung systemischer Risiken wie CSAM und geschlechtsbasierter Gewalt.
  • Southeast Asia: Behörden in Indonesien und Malaysia haben sofortige Sperren für das Grok-Tool angekündigt und verweisen auf Verstöße gegen lokale Obszönitätsgesetze.
  • United States: Mehrere Generalstaatsanwälte der Bundesstaaten haben signalisiert, dass sie den Bericht prüfen, um festzustellen, ob X gegen staatliche Gesetze zum Kinderschutz und zur nicht-einvernehmlichen Pornografie verstoßen hat.

X’s Response: Monetization Over Safety?

Als Reaktion auf die erste Welle der Kritik Anfang Januar hat X eine Reihe von Einschränkungen eingeführt. Am 9. Januar 2026 beschränkte die Plattform die Bildgenerierungsfunktion auf zahlende Premium-Abonnenten. Während dies das Gesamtvolumen kostenloser Inhalte verringerte, argumentieren Kritiker, dass dadurch der Missbrauch hinter eine Bezahlschranke verlagert wurde, anstatt den zugrunde liegenden Sicherheitsfehler zu beheben.

Weitere technische Einschränkungen sollen am 14. Januar hinzugefügt worden sein, die es Nutzern untersagten, explizit zu verlangen, dass Personen "entkleidet" werden. Der CCDH-Bericht legt jedoch nahe, dass diese Maßnahmen zu spät kamen. Zu dem Zeitpunkt, an dem die Einschränkungen in Kraft traten, waren bereits Millionen von Bildern erzeugt und verbreitet worden.

"X hat die Einschränkung monetarisiert, anstatt die Fähigkeit zu entfernen", bemerkte eine separate Analyse, die in der Berichterstattung zitiert wurde. "Indem sie das Tool auf zahlende Nutzer beschränkten, profitierten sie effektiv von der Nachfrage nach nicht-einvernehmlichen Deepfakes."

Methodology and Data Analysis

Die Methodik des CCDH beruhte auf einer robusten Stichprobentechnik zur Schätzung des Gesamtumfangs des Missbrauchs. Forscher analysierten einen Datensatz von 20.000 Bildern, der aus den 4,6 Millionen Bildern gezogen wurde, die Grok während des 11-Tage-Fensters erzeugt hatte.

Zur Klassifizierung der Inhalte nutzte das Team einen KI-unterstützten Prozess mit einer F1-Genauigkeit von 95 %, um fotorealistische sexualisierte Bilder zu identifizieren. Die Studie definierte "sexualisierte Bilder" als solche, die Personen in sexuellen Positionen, Unterwäsche, Bademode oder mit sichtbaren sexuellen Flüssigkeiten darstellen.

Summary of Key Statistics

Die folgende Tabelle fasst die wichtigsten Datenpunkte aus dem CCDH-Bericht zur Aktivität von Grok zwischen dem 29. Dez. 2025 und dem 8. Jan. 2026 zusammen.

Metric Estimated Count Description
Total Images Generated 4.6 Million Total output from Grok's image feature during the 11-day window.
Sexualized Images 3.0 Million Proportion of images containing sexualized content (approx. 65%).
CSAM Instances ~23,000 Images appearing to depict minors in sexualized contexts.
Generation Rate 190 per Minute Average speed of sexualized image creation globally.
CSAM Rate Every 41 Seconds Frequency at which an image of a child was generated.

Conclusion

Die Enthüllung, dass ein mainstream-fähiges KI-Tool, das in eine der größten sozialen Plattformen der Welt integriert ist, in weniger als zwei Wochen 3 Millionen sexualisierte Bilder erzeugte, markiert einen Wendepunkt für KI-Sicherheit. Sie unterstreicht die schwerwiegenden Risiken, die entstehen, wenn leistungsfähige generative Modelle ohne ausreichende adversariale Tests oder Sicherheitsmechanismen freigegeben werden.

Während Creati.ai weiterhin die Schnittstelle von KI-Innovation und Ethik beobachtet, dient dieser Vorfall als eindringliche Erinnerung: Wenn Sicherheit der Geschwindigkeit und dem Engagement nachgeordnet wird, ist der menschliche Preis – gemessen an der Würde und Sicherheit von Millionen von Frauen und Kindern – unkalkulierbar.

Ausgewählt