AI News

EU-Kommission leitet förmliche Verfahren gegen Elon Musks Grok-Chatbot ein

Die Europäische Kommission steht kurz davor, förmliche Vertragsverletzungsverfahren gegen den generativen KI-Chatbot (Generative AI) von xAI, Grok, einzuleiten, was eine bedeutende Eskalation im regulatorischen Konflikt zwischen der Europäischen Union und Elon Musks Technologieimperium darstellt. Berichten zufolge, die zuerst in der deutschen Wirtschaftszeitung Handelsblatt erschienen und von ranghohen EU-Beamten bestätigt wurden, wird die Untersuchung am Montag offiziell beginnen und richtet sich gegen mutmaßliche Verstöße gegen die Verordnung über digitale Dienste (Digital Services Act, DSA).

Dieser entschlossene Schritt folgt auf Wochen zunehmender Prüfungen der Inhaltserzeugungsfähigkeiten von Grok, insbesondere auf Berichte, dass das in die Social-Media-Plattform X integrierte Tool zur Erstellung nicht einvernehmlicher, sexuell expliziter Deepfake-Bilder verwendet wurde. Die Verfahren könnten xAI im schlimmsten Fall dazu zwingen, den Chatbot vollständig vom EU-Markt zurückzuziehen, wenn keine rasche Compliance erreicht wird.

Auslöser: "Spicy Mode" und Versagen bei der systemischen Risikominderung

Auslöser für dieses regulatorische Vorgehen scheint die jüngste Kontroverse um Groks sogenannten "Spicy Mode" zu sein. Anfang Januar 2026 meldeten Nutzer, dass sich die Bildgenerierungsfunktionen des Chatbots manipulieren ließen, um reale Personen "auszukleiden" und fotorealistische, explizite Bilder von Frauen und Minderjährigen zu erzeugen.

Während xAI diese spezifischen Fähigkeiten nach einem globalen Aufschrei inzwischen eingeschränkt hat, wirft die Europäische Kommission dem Unternehmen vor, verpflichtende Risikenbewertungen nicht vor der Einführung dieser Funktionen durchgeführt zu haben. Nach der DSA sind als sehr große Online-Plattformen (Very Large Online Platforms, VLOPs) eingestufte Plattformen wie X gesetzlich verpflichtet, systemische Risiken zu identifizieren, zu analysieren und zu mindern, insbesondere solche, die das körperliche und psychische Wohlbefinden der Nutzer sowie den Schutz Minderjähriger betreffen.

Kommissionsvertreter beschrieben die Verbreitung dieser Bilder als "entsetzlich" und "widerlich" und signalisierten damit, dass die EU nicht länger bereit ist, beim Thema Sicherheit bei generativer KI eine "schnell handeln und kaputtmachen"‑Strategie zu tolerieren.

Aufbau der Untersuchung

Die Untersuchung wird sich voraussichtlich auf mehrere Kernbereiche der DSA-Compliance konzentrieren. Im Gegensatz zum bevorstehenden Gesetz über künstliche Intelligenz (Artificial Intelligence Act), das produktspezifisch ist, fokussiert sich die DSA auf Plattformgovernance und Inhaltsmoderation. Da Grok in X eingebettet ist, werden seine Fehler als systemische Versäumnisse der Host-Plattform gewertet.

Schlüsselbereiche der DSA-Untersuchung zu Grok

Investigation Area Specific Allegations Potential Regulatory Impact
Systemic Risk Mitigation Versäumnis, die Risiken der Generierung illegaler Inhalte (CSAM, nicht einvernehmliche Darstellungen) vor der Einführung der Funktion zu bewerten. Verpflichtende Risikoaudits und Umsetzung von Minderungsmaßnahmen.
Content Moderation Unzureichende Mechanismen zur Erkennung und schnellen Entfernung KI-generierter illegaler Inhalte. Anordnungen zur Überarbeitung der Moderationsalgorithmen und der menschlichen Aufsicht.
Protection of Minors Unzureichende Altersverifikation und Schutzmaßnahmen, um zu verhindern, dass Minderjährige Zugang haben oder von dem Tool dargestellt werden. Strenge Zugangskontrollen und mögliche Sperren des Dienstes für Minderjährige.
Transparency Obligations Unklarheiten bezüglich der Daten, die zum Training von Grok verwendet wurden, und des Funktionierens seiner Generierungsalgorithmen. Bußgelder von bis zu 6 % des weltweiten Umsatzes bei Nichtbeachtung.

Eskalierende Spannungen: Ein Muster der Nichtbefolgung

Dieses neue Verfahren ist kein Einzelfall, sondern der jüngste Abschnitt in einer sich vertiefenden Kluft zwischen Brüssel und Elon Musk. Im Dezember 2025 belegte die Europäische Kommission X mit einer Geldstrafe von rund 120 Mio. € wegen separater Verstöße gegen die DSA im Zusammenhang mit irreführenden Benutzeroberflächendesigns (insbesondere im Zusammenhang mit der "Blue Check"-Verifizierung) und mangelnder Transparenz bei Werbung.

Die Kommission hat bereits ihre Notfallbefugnisse genutzt, um X anzuweisen, alle internen Dokumente und Daten im Zusammenhang mit Grok bis Ende 2026 aufzubewahren. Diese "Preservation Order" deutet darauf hin, dass die Aufsichtsbehörden einen umfassenden Rechtsfall aufbauen, um nachzuweisen, dass xAI Sicherheitsprotokolle wissentlich zugunsten schneller Funktionsfreigaben vernachlässigt hat.

Sollten die behaupteten Verstöße festgestellt werden, könnte X mit Bußgeldern von bis zu 6 % seines weltweiten Jahresumsatzes belegt werden. Die unmittelbarere und existenzielle Bedrohung für Groks europäische Tätigkeit liegt jedoch in der Befugnis der Kommission, "vorläufige Maßnahmen" zu verhängen, die den Dienst in der EU effektiv verbieten könnten, bis die Risiken als neutralisiert gelten.

Auswirkungen auf die Branche: Die DSA als Durchsetzer gegen KI-Risiken

Für den gesamten Technologiesektor dient dieser Fall als wegweisender Präzedenzfall. Er zeigt, dass die Europäische Union die Verordnung über digitale Dienste als primäres Vollstreckungsinstrument gegen Risiken der generativen KI (Generative AI) einsetzen will, noch bevor das spezifische Gesetz über künstliche Intelligenz (Artificial Intelligence Act) vollständig umgesetzt ist.

Tech-Unternehmen, die in der EU tätig sind, müssen jetzt erkennen, dass die Integration von KI‑Tools in bestehende soziale Plattformen diese Tools unter den Anwendungsbereich strenger Plattformhaftungsgesetze bringt. Die einst als "Safe-Harbor"-Schutz geltenden Verteidigungen, die Plattformen vor Haftung für nutzergenerierte Inhalte schützten, werden zunehmend durchlässig, wenn die eigenen Tools der Plattform die Erstellung dieser Inhalte erleichtern.

Creati.ai stellt fest, dass diese Untersuchung die immense Compliance‑Last für KI‑Entwickler hervorhebt. Innovation in der Bildgenerierung muss nun mit robustem, vor der Bereitstellung stattfindendem Red-Teaming (red-teaming) und Sicherheitsbarrieren einhergehen, um in dem regulatorischen Umfeld der EU zu bestehen. Mit der Eröffnung der Verfahren an diesem Montag wird die Tech‑Welt beobachten, ob Musk sich Brüssels Forderungen beugt oder das Risiko eingeht, den Zugang zu einem Markt mit 450 Millionen Nutzern zu verlieren.

Ausgewählt