
La Comisión Europea ha lanzado oficialmente un procedimiento de infracción contra X (anteriormente Twitter), dirigido a su herramienta de IA generativa (Generative AI) Grok. Anunciada el lunes 26 de enero de 2026, esta investigación marca una escalada significativa en la aplicación del Reglamento sobre la Ley de Servicios Digitales (Digital Services Act, DSA) por parte de la Unión Europea. Los reguladores citan "riesgos materializados" relacionados con la difusión de imágenes sexuales no consentidas (non-consensual sexual imagery, NCII) y posible material de abuso sexual infantil (child sexual abuse material, CSAM) generado por el chatbot, lo que señala un momento decisivo para la gobernanza de la IA en la región.
La investigación se desencadenó por una oleada de informes alarmantes sobre las capacidades de generación de imágenes de Grok. A diferencia de muchos de sus competidores, que implementaron salvaguardias estrictas desde las primeras etapas de su ciclo de desarrollo, Grok ha sido criticado por una aparente falta de moderación. La principal preocupación de la Comisión gira en torno a la capacidad de la IA para generar "imágenes sexualmente explícitas manipuladas" de personas reales, a menudo denominadas deepfakes.
Según la Comisión, estos riesgos no son meramente teóricos sino que se han "materializado", exponiendo a los ciudadanos de la UE a daños graves. Los informes indican que los usuarios pudieron utilizar las funciones de Grok para "desnudar" digitalmente a personas y situarlas en escenarios comprometidos o sexualmente explícitos sin su consentimiento. Esta capacidad viola los mandatos básicos de seguridad de la Ley de Servicios Digitales (Digital Services Act, DSA), que exige que las Plataformas en línea muy grandes (Very Large Online Platforms, VLOPs) como X identifiquen y mitiguen proactivamente los riesgos sistémicos.
Henna Virkkunen, la Vicepresidenta Ejecutiva de la Comisión para la Soberanía Tecnológica, la Seguridad y la Democracia, condenó el fenómeno, declarando que los deepfakes sexuales no consentidos constituyen una "forma violenta e inaceptable de degradación". La investigación busca determinar si X no implementó medidas de mitigación efectivas para impedir que dicho contenido fuera creado y compartido.
Este procedimiento se distingue de investigaciones previas sobre las políticas de moderación de contenidos de X relativas al discurso de odio o la desinformación. Se centra específicamente en la intersección de la IA generativa (Generative AI) y la responsabilidad de las plataformas bajo la DSA. La Comisión está investigando tres áreas concretas de incumplimiento:
Table 1: Áreas clave de la investigación de la Comisión
| Investigated Area | Specific Allegation | Relevant DSA Article |
|---|---|---|
| Risk Assessment | Failure to submit a report prior to deploying Grok in the EU. | Articles 34(1) and (2) |
| Mitigation Measures | Insufficient technical guardrails against creating illegal content. | Article 35(1) |
| Recommender Systems | Use of Grok algorithms potentially amplifying systemic risks. | Article 42(2) |
Tras el anuncio, X ha reiterado su compromiso con la seguridad. Un portavoz de la compañía remitió las consultas a una declaración previa en la que afirmaba "tolerancia cero" con la explotación sexual infantil y la desnudez no consentida. La empresa afirma estar trabajando activamente para corregir "fallos" en sus protocolos de seguridad.
Sin embargo, expertos técnicos sostienen que el problema puede ser fundamental a cómo se entrenó y desplegó Grok. Al comercializar Grok como una alternativa "edgy" o menos restringida frente a modelos como ChatGPT o Claude, X puede haber bajado inadvertidamente el umbral para resultados dañinos. El "spicy mode" y otras funciones sin restricciones, aunque populares entre un segmento de la base de usuarios, presentan un conflicto directo con los marcos de responsabilidad estricta de la Unión Europea.
Según los informes, la compañía ha restringido algunas de las capacidades de generación de imágenes de Grok en respuesta a la primera oleada de críticas, pero los reguladores de la UE consideran insuficientes estas medidas reactivas. La investigación pretende establecer si la propia arquitectura de la IA carecía de los principios necesarios de "seguridad por diseño" exigidos por la legislación europea.
Esta investigación sienta un precedente crítico para todas las empresas de IA que operan dentro de la Unión Europea. Aclara que la DSA se aplica rigurosamente a las herramientas de IA generativa (IA generativa) integradas en plataformas sociales, no solo a las publicaciones generadas por usuarios.
Para la industria de la IA en general, el mensaje es claro: la velocidad de la innovación no puede ir a costa de las evaluaciones de seguridad. El requisito de presentar evaluaciones de riesgo antes del despliegue probablemente ralentice el lanzamiento de nuevas funciones de IA en el mercado de la UE en comparación con Estados Unidos. Las empresas que desarrollan Modelos de Lenguaje a Gran Escala (Modelos de lenguaje a gran escala, LLMs) y generadores de imágenes deben ahora considerar el cumplimiento con la UE como un requisito de ingeniería previo al lanzamiento en lugar de un obstáculo legal posterior al lanzamiento.
Si se determina que X no cumple, se enfrenta a sanciones sustanciales. Según la DSA, las multas pueden alcanzar hasta el 6 % del volumen de negocios anual mundial total de una compañía. Más allá de las sanciones económicas, la Comisión tiene el poder de imponer medidas provisionales, que podrían, teóricamente, obligar a X a suspender la disponibilidad de Grok en la UE hasta que se resuelvan las preocupaciones de seguridad.
El procedimiento formal de la Comisión Europea contra X representa el primer gran caso de prueba regulatorio para la IA generativa (Generative AI) bajo la Ley de Servicios Digitales (Digital Services Act). A medida que avance la investigación, definirá los límites de la responsabilidad tanto para los desarrolladores de IA como para los propietarios de plataformas. Para Creati.ai y el sector más amplio de tecnología creativa, esto sirve como un recordatorio contundente de que, para los reguladores europeos, la capacidad de generar contenido conlleva el mismo peso de responsabilidad que el acto de alojarlo.