AI News

Brüssel verschärft die Prüfung der Einhaltung von Generativer KI (Generative AI)

Die Europäische Kommission hat formelle Vertragsverletzungsverfahren gegen X (ehemals Twitter) im Zusammenhang mit seinem KI-Chatbot Grok offiziell eingeleitet. Diese bedeutende regulatorische Eskalation, heute, am Montag, dem 26. Januar 2026, angekündigt, stellt einen Wendepunkt bei der Durchsetzung des Digital Services Act (DSA) dar. Die Untersuchung der Kommission konzentriert sich speziell auf Vorwürfe, dass die Plattform es versäumt habe, angemessene Risikominderungsmaßnahmen umzusetzen, um die Erstellung und Verbreitung nicht-einvernehmlicher intimer Bildaufnahmen (NCII) und anderer durch Grok generierter illegaler Inhalte zu verhindern.

Dieser Schritt folgt einem Bericht der deutschen Zeitung Handelsblatt, in dem hochrangige EU-Beamte zitiert werden und bestätigt wird, dass die Exekutive der Europäischen Union bereit ist, das volle Gewicht des DSA zur Durchsetzung der Compliance einzusetzen. Die Verfahren unterstreichen die wachsende Spannung zwischen der raschen KI-Entwicklung und den strengen Sicherheitsrahmen, die europäische Aufsichtsbehörden etabliert haben. Für die KI-Branche dient dieser Fall als kritischer Belastungstest dafür, wie Sehr große Online-Plattformen (Very Large Online Platforms, VLOPs) generative Werkzeuge, die in soziale Ökosysteme eingebettet sind, regulieren müssen.

Der Auslöser: Die „Nudification“-Kontroverse

Der unmittelbare Auslöser für diese regulatorische Maßnahme scheint eine Welle alarmierender Berichte über Groks Bildgenerierungsfähigkeiten zu sein. Im Gegensatz zu vielen seiner Wettbewerber, die strikte Ablehnungsprotokolle für die Generierung von Bildern realer Personen implementiert haben, wurde Grok — in die X-Plattform für Premium-Abonnenten integriert — wegen seiner lockereren Schutzvorkehrungen genauer unter die Lupe genommen.

Untersuchungen haben ergeben, dass das Tool angeblich verwendet wurde, um „Deepfake“-Pornografie zu erstellen, die identifizierbare Personen ins Visier nahm, darunter öffentliche Persönlichkeiten und, noch beunruhigender, Minderjährige. Diese sogenannten „Nudification“-Fälle betreffen Nutzer, die die KI dazu veranlassen, Personen auf Fotos ohne deren Einwilligung digital zu entkleiden. Während X Berichten zufolge in den letzten Tagen Notfall-Patches ausgerollt und Kontrollen verschärft hat, deutet die Aktion der Europäischen Kommission darauf hin, dass diese nachträglichen Maßnahmen unter den proaktiven Risikomanagementpflichten des DSA als unzureichend angesehen werden.

Henna Virkkunen, die EU-Technikchefin, hat zuvor signalisiert, dass bestehende digitale Regeln vollständig auf KI-getriebene Risiken anwendbar sind. Die Verbreitung solcher Inhalte verletzt nicht nur die Würde der Opfer, sondern auch spezifische Artikel des DSA, die den Schutz von Minderjährigen und die Verhinderung geschlechtsbasierter Gewalt betreffen.

DSA-Verpflichtungen vs. angebliche Versäumnisse

Die Digital Services Act (DSA) legt spezifische Pflichten für als VLOPs bezeichnete Plattformen fest. Diese Einrichtungen müssen nicht nur illegale Inhalte nach Kenntniserlangung entfernen, sondern auch systemische Risiken proaktiv bewerten und mindern. Die folgende Tabelle skizziert die konkreten Bereiche, in denen Grok von X auf mögliche Nicht-Einhaltung untersucht wird.

Table 1: DSA Compliance Assessment for Generative KI (Generative AI)

DSA Obligation Category Specific Requirement Alleged Compliance Failure
Risk Mitigation (Art. 34/35) VLOPs must assess risks regarding the dissemination of illegal content and negative effects on fundamental rights. Failure to anticipate and block the creation of non-consensual intimate imagery (NCII) prior to deployment.
Protection of Minors (Art. 28) Platforms must ensure a high level of privacy, safety, and security for minors. Grok’s availability to generate sexualized content that could depict or target minors without robust age-gating or content filtering.
Crisis Response Mechanism Rapid reaction to extraordinary circumstances affecting public security or safety. Delayed response in effectively disabling the specific "jailbreaks" used to generate harmful imagery once they went viral.
Transparency (Art. 15) Clear terms of service and transparency regarding algorithmic parameters. Lack of clarity regarding the training data used for Grok and the specific safety parameters governing its image generator.

Eine globale regulatorische Zangenbewegung

Während die Europäische Union mit dem DSA die rechtliche Offensive anführt, ist die Gegenreaktion auf Groks jüngste Versäumnisse bei der Inhaltsmoderation global. Die Untersuchung in Brüssel findet parallel zu Prüfungen in anderen großen Rechtsordnungen statt, was für xAI eine komplexe Compliance-Landschaft schafft.

Im Vereinigten Königreich prüft die Regulierungsbehörde Ofcom derzeit, ob X seine Pflichten nach dem Online Safety Act verletzt hat. Britische Beamte bezeichneten die Verbreitung von Deepfake-Inhalten als „entsetzlich“, und Premierminister Keir Starmer äußerte ähnliche Bedenken hinsichtlich der Sicherheitsprotokolle der Plattform.

Gleichzeitig haben Behörden in Südostasien noch drastischere Sofortmaßnahmen ergriffen. Berichten zufolge haben Indonesien und Malaysia den Zugang zu dem spezifischen Grok-Tool vorübergehend blockiert — oder in einigen Fällen mit umfassenderen Plattformsperren gedroht — und berufen sich dabei auf Verstöße gegen lokale Unzuchtsgesetze. Dieser internationale Druck bestätigt die Position der EU, dass generative KI, wenn sie an ein massives soziales Verbreitungsnetz gebunden ist, Schutzmaßnahmen erfordert, die über Standard-Software-Patches hinausgehen.

Die technische Herausforderung einer „unkontrollierten“ KI

Der Kern des Konflikts liegt in der philosophischen und technischen Divergenz zwischen xAIs Produktvision und den regulatorischen Sicherheitsstandards. Elon Musk hat Grok wiederholt als eine „rebellische“ Alternative zu den von Konkurrenten wie OpenAI oder Google entwickelten, seiner Meinung nach „woken“ KI-Modellen positioniert. Grok ist so konzipiert, „würzige“ Fragen zu beantworten und lehnt weniger Aufforderungen ab.

Der „Nudification“-Skandal macht jedoch das katastrophale Fehlverhalten dieses Ansatzes bei der Bildgenerierung deutlich. Aus technischer Sicht wirft der Vorfall Fragen zur Robustheit der Filterung im latenten Raum des Modells auf.

  • Prompt-Injection-Verwundbarkeiten: Nutzer konnten Sicherheitsfilter erfolgreich umgehen, indem sie „jailbreak“-Prompts verwendeten — komplexe textuelle Eingaben, die darauf abzielen, die Sicherheitslogik des Modells zu verwirren.
  • Bereinigung der Trainingsdaten: Es bestehen offene Fragen, ob das Modell mit Datensätzen feinabgestimmt wurde, die ausreichend zwischen einvernehmlichen Inhalten Erwachsener und nicht-einvernehmlichen, ausbeuterischen Darstellungen unterscheiden.
  • Wasserzeichen und Herkunft: Die Untersuchung könnte auch prüfen, ob Grok-Ausgaben ausreichende C2PA-Metadaten oder sichtbare Wasserzeichen enthielten, um eine sofortige Identifikation und Entfernung der synthetischen Inhalte zu ermöglichen.

Mögliche Strafen und Auswirkungen auf die Branche

Für X stehen enorm viel auf dem Spiel — finanziell und operativ. Nach dem DSA können Strafen bei Nicht-Einhaltung bis zu 6 % des weltweiten jährlichen Gesamtumsatzes eines Unternehmens erreichen. Für ein Unternehmen der Größe von X könnte dies Hunderte Millionen Euro bedeuten. Über Bußgelder hinaus besitzt die Kommission die Befugnis, „vorläufige Maßnahmen“ zu ergreifen, die theoretisch X dazu zwingen könnten, Groks Dienste in der Europäischen Union auszusetzen, bis die Sicherheitsbedenken zur Zufriedenheit der Aufsichtsbehörde behoben sind.

Dieses Verfahren gilt als Richtungsanzeiger für den gesamten Generative-KI-Sektor (Generative AI). Es setzt einen Präzedenzfall dafür, dass das „Beta“-Testen leistungsstarker Bildgenerierungswerkzeuge im offenen öffentlichen Raum für große Plattformen nicht länger eine zulässige Strategie ist. Regulierungsbehörden signalisieren damit effektiv, dass die Ära des „schnell handeln und kaputt machen“ nicht mit den Sicherheitsanforderungen der modernen KI-Governance vereinbar ist.

Während sich die Verfahren in den kommenden Monaten entfalten, wird die Branche genau beobachten, ob xAI sich für eine radikale Überarbeitung von Groks Sicherheitsarchitektur entscheidet oder einen langwierigen Rechtsstreit mit Brüssel eingeht. Für den Moment markiert die Eröffnung dieser Verfahren das eindeutige Ende der Schonfrist für die Aufsicht über generative KI in Europa.

Ausgewählt