AI News

Indien verschärft digitale Grenzen: Neue Mandate für KI-Inhalte und schnelle Entfernungen

In einem entscheidenden Schritt zur Eindämmung der Verbreitung digitaler Fehlinformationen und Deepfakes hat die indische Regierung strenge Änderungen an ihren Informationstechnologie-Regeln bekannt gegeben. Die Information Technology (Intermediary Guidelines and Digital Media Ethics Code) Amendment Rules, 2026, die das Regelwerk für Silicon-Valley-Giganten und inländische Plattformen gleichermaßen neu schreiben, führen eine zweigleisige Strategie ein: eine drastische Verkürzung der Takedown-Fristen für schädliche Inhalte und einen umfassenden Rahmen für die Kennzeichnung von synthetisch generierten Informationen (Synthetically Generated Information, SGI).

Die Bekanntmachung, die vom Ministerium für Elektronik und Informationstechnologie (Ministry of Electronics and Information Technology, MeitY) herausgegeben und vom Joint Secretary Ajit Kumar unterzeichnet wurde, signalisiert das Ende der „Wildwest“-Ära für generative KI (Generative AI) in den indischen sozialen Medien. Mit dem Inkrafttreten dieser Regeln am 20. Februar 2026 stehen Plattformen wie Instagram, YouTube und Facebook vor einer sofortigen betrieblichen Überholung.

Das Drei-Stunden-Takedown-Mandat

Die aggressivste Änderung in der neuen Gesetzgebung ist die Komprimierung des Reaktionsfensters für die Entfernung rechtswidriger Inhalte. Zuvor hatten Intermediäre bis zu 36 Stunden Zeit, um auf Gerichtsbeschlüsse oder Regierungsmitteilungen bezüglich bestimmter Arten schädlicher Inhalte zu reagieren. Unter der neuen Änderung wurde dieses Zeitfenster auf nur drei Stunden verkürzt.

Dieses beschleunigte Zeitfenster gilt speziell für Inhalte, die eine unmittelbare gesellschaftliche oder individuelle Gefahr darstellen. Zu den Kategorien, die für diese schnelle Reaktion markiert wurden, gehören:

  • Material über sexuellen Missbrauch von Kindern (Child Sexual Abuse Material, CSAM)
  • Obszöne Inhalte
  • Falsche elektronische Aufzeichnungen mit Täuschungsabsicht
  • Sprengstoffbezogenes Material
  • Deepfakes, die die Identität oder Stimme einer realen Person falsch darstellen

Die Begründung der Regierung wurzelt in der viralen Natur moderner digitaler Medien, in denen ein Deepfake-Video oder ein bösartiges Gerücht innerhalb weniger Stunden irreparablen Schaden anrichten kann, was eine 36-stündige Reaktionszeit hinfällig macht. Darüber hinaus wurden auch andere allgemeine Compliance-Fristen verschärft: Das Fenster für die Beschwerdeabhilfe wurde von 15 Tagen auf sieben verkürzt, und die 24-Stunden-Frist für bestimmte andere Entfernungen wurde auf 12 Stunden halbiert.

Diese Verstöße sind nun direkt mit dem indischen Strafgesetzbuch verknüpft, insbesondere mit dem Bharatiya Nyaya Sanhita, dem POCSO-Gesetz und dem Explosive Substances Act. Diese rechtliche Verknüpfung stellt sicher, dass digitale Fahrlässigkeit reale strafrechtliche Konsequenzen hat.

Obligatorische Kennzeichnung und die „SGI“-Definition

Zum ersten Mal bietet das indische Recht eine formale Definition für „Synthetisch Generierte Informationen“ (Synthetically Generated Information, SGI). Die Regeln schreiben vor, dass alle Audio-, visuellen oder audiovisuellen Inhalte, die mit einer Computerressource erstellt oder verändert wurden und „echt aussehen“ oder als echt durchgehen könnten, klar gekennzeichnet werden müssen.

Die Verpflichtung liegt direkt bei den bedeutenden Social-Media-Intermediären (Significant Social Media Intermediaries, SSMIs). Sie müssen einen zweistufigen Verifizierungsprozess implementieren:

  1. Benutzererklärung: Bevor ein Benutzer Inhalte hochlädt, muss die Plattform explizit fragen, ob der Inhalt KI-generiert ist.
  2. Automatisierte Gegenprüfung: Plattformen können sich nicht allein auf die Ehrlichkeit der Benutzer verlassen; sie müssen automatisierte Tools einsetzen, um Format, Quelle und Art des Inhalts zu scannen, um nicht deklarierte synthetische Medien zu identifizieren.

Anforderungen an persistente Metadaten

Über sichtbare Kennzeichnungen hinaus verlangen die Regeln, dass Plattformen persistente Metadaten und eindeutige Identifikatoren in die Inhalte einbetten. Dieser „digitale Fingerabdruck“ soll die Rückverfolgbarkeit gewährleisten und es den Strafverfolgungsbehörden ermöglichen, den Ursprung eines Deepfakes zu verfolgen, selbst wenn dieser heruntergeladen und auf verschiedenen Plattformen geteilt wird. Die Verordnung legt explizit fest, dass diese Etiketten und Metadaten-Tags unveränderlich sein müssen – sie dürfen von der Plattform oder nachfolgenden Benutzern nicht modifiziert, unterdrückt oder entfernt werden.

Ausnahmen und Widerstand der Industrie

Nicht alle digitalen Bearbeitungen lösen diese strengen Kennzeichnungspflichten aus. Die Regierung hat Ausnahmen für „Routinebearbeitungen“ geschaffen, um einen betrieblichen Stillstand in der Kreativwirtschaft zu verhindern. Techniken, die die ursprüngliche Bedeutung des Inhalts nicht verzerren, bleiben außerhalb des Rahmens der SGI-Kennzeichnung.

Ausgenommene Aktivitäten umfassen:

  • Farbkorrektur und Grading
  • Rauschunterdrückung
  • Dateikomprimierung
  • Übersetzung
  • Forschungsarbeiten und pädagogische PDFs
  • Hypothetische Entwürfe und Präsentationen

Es ist erwähnenswert, dass die endgültigen Regeln einen Kompromiss zwischen der Regierungsabsicht und den Fähigkeiten der Industrie widerspiegeln. Ein früherer Entwurf vom Oktober 2025 schlug ein obligatorisches Wasserzeichen vor, das mindestens 10 % der Bildschirmfläche für alle KI-Visualisierungen einnimmt. Dieser Vorschlag stieß auf heftigen Widerstand der Internet and Mobile Association of India (IAMAI) – die Tech-Schwergewichte wie Google, Meta und Amazon vertritt –, die argumentierte, dies sei technisch starr und abträglich für die Benutzererfahrung. Die Regierung verwarf daraufhin die 10 %-Wasserzeichen-Anforderung zugunsten des aktuellen Kennzeichnungs- und Metadaten-Ansatzes.

Betriebliche Herausforderungen und Safe Harbor

Die neuen Regeln üben einen immensen technischen Druck auf Social-Media-Intermediäre aus. Um ihren „Safe Harbor“-Schutz (Haftungsprivileg) gemäß Abschnitt 79 des IT-Gesetzes aufrechtzuerhalten – der Plattformen vor der Haftung für nutzergenerierte Inhalte schützt –, ist die Einhaltung nicht verhandelbar. Während die Regierung den Plattformen versichert hat, dass Maßnahmen gegen synthetische Inhalte ihnen diesen Schutz nicht entziehen werden, wird das Versäumnis, Inhalte innerhalb des neuen Drei-Stunden-Fensters zu kennzeichnen oder zu entfernen, dies mit Sicherheit tun.

Zusätzlich sind Plattformen nun verpflichtet, Benutzer proaktiv vor den strafrechtlichen Folgen des Missbrauchs von KI-Inhalten zu warnen. Diese Warnungen müssen mindestens einmal alle drei Monate auf Englisch und in jeder in der achten Anlage der indischen Verfassung aufgeführten Sprache ausgegeben werden.

Vergleich der regulatorischen Änderungen

Die folgende Tabelle skizziert die wichtigsten Verschiebungen von den vorherigen IT-Regeln zur Änderung von 2026:

Tabelle: Auswirkungen der IT Amendment Rules 2026

Merkmal Vorherige Regelungen Änderungsregeln 2026
Takedown-Frist (Kritisch) 36 Stunden 3 Stunden (für Deepfakes, CSAM, etc.)
Beschwerdeabhilfe 15 Tage 7 Tage
Allgemeines Takedown-Fenster 24 Stunden 12 Stunden
Kennzeichnung von KI-Inhalten Freiwillig / Best Effort Obligatorisch mit persistenten Metadaten
Wasserzeichen Keine spezifische Anforderung Kennzeichnung erforderlich; 10 % Overlay-Vorschlag verworfen
Benutzerwarnungen Periodische Aktualisierungen Obligatorisch alle 3 Monate in lokalen Sprachen
Rechtlicher Rahmen IPC (Indian Penal Code) Bharatiya Nyaya Sanhita & POCSO Act

Fazit

Indiens Schritt, ein Drei-Stunden-Takedown-Fenster durchzusetzen, stellt eine der weltweit schnellsten regulatorischen Reaktionszeiten dar und übertrifft die Anforderungen in vielen westlichen Rechtsordnungen. Für die KI-Industrie signalisiert dies einen Übergang von freiwilligen ethischen Richtlinien zu streng durchgesetzten gesetzlichen Mandaten. Während der 20. Februar näher rückt, wird sich der Fokus der Tech-Giganten von der Innovation auf die Implementierung verlagern, um die automatisierte Erkennungs- und Meldeinfrastruktur aufzubauen, die notwendig ist, um eine rechtliche Haftung in einem der weltweit größten digitalen Märkte zu vermeiden.

Ausgewählt