AI News

Programadores informáticos apelan una demanda de derechos de autor de 9.000 millones de dólares contra OpenAI y Microsoft

En un momento crucial para la industria de la inteligencia artificial generativa (Generative AI), un grupo de programadores informáticos ha instado al Tribunal de Apelaciones del Noveno Circuito de los EE. UU. a reactivar su demanda colectiva contra Microsoft, GitHub y OpenAI. La apelación, argumentada el 11 de febrero de 2026, busca restablecer las reclamaciones bajo la Ley de Derechos de Autor del Milenio Digital (Digital Millennium Copyright Act, DMCA) que podrían exponer a los gigantes tecnológicos a daños estatutarios estimados que superan los 9.000 millones de dólares.

El caso, Doe v. GitHub, Inc., se centra en GitHub Copilot, un asistente de programación impulsado por IA entrenado con miles de millones de líneas de código público. En el corazón de la disputa está si las empresas de IA violan la ley de derechos de autor cuando eliminan la «Información de Gestión de Derechos de Autor» (Copyright Management Information, CMI) —como nombres de autores y encabezados de licencias— durante el proceso de entrenamiento, incluso si la salida de la IA no es una copia idéntica del trabajo original.

Las apuestas de 9.000 millones de dólares: Reviviendo las reclamaciones de la DMCA

Los demandantes, un grupo de desarrolladores de software anónimos, argumentan que el tribunal inferior erró al desestimar sus reclamaciones bajo la Sección 1202 de la DMCA. La Sección 1202 prohíbe la eliminación o alteración intencional de la CMI con la intención de ocultar una infracción.

A mediados de 2024, el juez de distrito de los EE. UU. Jon S. Tigar desestimó estas reclamaciones específicas, estableciendo un polémico requisito de «identidad» (identicality). El juez Tigar dictaminó que para que ocurra una violación de la Sección 1202, los demandantes deben demostrar que la IA generó una copia exacta de su código sin la CMI. Debido a que los modelos de IA como Copilot suelen sintetizar código nuevo en lugar de regurgitar bloques exactos, el Tribunal de Distrito no encontró violación.

En la apelación, los demandantes sostuvieron que esta interpretación anula efectivamente la DMCA en la era de la inteligencia artificial. Su equipo legal argumentó ante el 9.º Circuito que el estatuto fue diseñado para proteger la integridad de la atribución de derechos de autor, independientemente de si la distribución posterior es una copia literal o una obra derivada.

Si el 9.º Circuito revoca la decisión del tribunal inferior, las implicaciones financieras son asombrosas. La DMCA permite daños estatutarios de 2.500 a 25.000 dólares por violación. Con Copilot teniendo millones de usuarios y generando innumerables líneas de código diariamente, los demandantes estiman que la responsabilidad potencial podría escalar hasta los 9.000 millones de dólares, una cifra que alteraría fundamentalmente la economía del desarrollo de la IA.

El campo de batalla de la «identidad»

Los argumentos orales destacaron una marcada división en cómo la ley de derechos de autor debe aplicarse al aprendizaje automático (Machine Learning). Los demandados —Microsoft y OpenAI— sostienen que el fallo del tribunal inferior es coherente con el propósito de la DMCA. Argumentan que sin un requisito de identidad, cualquier salida que supuestamente «se parezca» a los datos de entrenamiento pero carezca de atribución podría desencadenar responsabilidad, frenando la innovación y sometiendo a las herramientas de IA a demandas ilimitadas.

La siguiente tabla resume los argumentos legales centrales presentados por ambas partes con respecto a la interpretación de la Sección 1202 de la DMCA.

Argumentos legales sobre la Sección 1202 de la DMCA
---|---|----
Aspecto del argumento|Posición de los demandantes (Programadores)|Posición de los demandados (Microsoft/OpenAI)
Interpretación estatutaria|La Sección 1202 protege la integridad de la CMI en la obra original. Eliminarla durante la «ingestión» viola la ley independientemente de la salida.|La responsabilidad solo se aplica si la CMI se elimina de una copia idéntica de la obra que luego se distribuye.
La prueba de «identidad»|El Tribunal de Distrito inventó un requisito de «identidad» que no existe en el texto del estatuto.|Exigir identidad evita excesos; de lo contrario, el uso legítimo (fair use) y las obras transformadoras se verían sofocados.
Definición de daño|El daño ocurre cuando se elimina la atribución, cortando el vínculo entre el creador y su obra, facilitando futuras infracciones.|No se demuestra daño a menos que el código específico del demandante se reproduzca exactamente sin su CMI.
Impacto en la industria|Permitir la eliminación de CMI incentiva el «lavado» de código de código abierto para eludir los términos de la licencia (por ejemplo, GPL, MIT).|Imponer una responsabilidad estricta de CMI en el entrenamiento de IA haría imposible desarrollar la IA generativa legalmente.

Comprendiendo la CMI en la era de la IA

Para comprender la gravedad de esta apelación, se debe observar cómo funciona el software de código abierto (Open-Source). Las licencias de código abierto, como la Licencia MIT o la Licencia Pública General de GNU (GPL), permiten el uso gratuito del código bajo la condición de que se acredite al autor original y se preserven los términos de la licencia. Estos datos de atribución —la CMI— son cruciales para el cumplimiento y la confianza del ecosistema.

Cuando el modelo Codex de OpenAI (que impulsa a Copilot) ingiere este código, lo tokeniza, dividiéndolo efectivamente en relaciones estadísticas. En este proceso, los encabezados de licencia específicos y los comentarios de los autores a menudo se tratan simplemente como otro patrón que debe aprenderse o ignorarse, en lugar de metadatos legalmente vinculantes que deben preservarse.

Los demandantes argumentan que este proceso crea una herramienta que permite a los usuarios infringir involuntariamente los derechos de autor al utilizar código sin la atribución requerida. Afirman que Microsoft y OpenAI no solo están «leyendo» el código, sino eliminando activamente los mecanismos diseñados para protegerlo.

Implicaciones para la industria de la IA en general

Un fallo a favor de los demandantes por parte del 9.º Circuito enviaría ondas de choque a través del sector de la IA. Probablemente obligaría a las empresas a:

  1. Retrenar modelos: Los desarrolladores de IA podrían necesitar limpiar sus conjuntos de datos de entrenamiento de cualquier código o texto donde la CMI no pueda preservarse perfectamente en la salida.
  2. Implementar mecanismos de atribución: Se podría requerir que los futuros modelos de IA «citen sus fuentes», un desafío técnico que actualmente no está resuelto para los modelos de lenguaje extensos (LLM).
  3. Enfrentar responsabilidad retroactiva: Otros modelos de IA generativa, incluyendo generadores de texto como ChatGPT y generadores de imágenes como Midjourney, podrían enfrentar demandas similares si se descubre que han eliminado la CMI de los datos de entrenamiento.

Los expertos legales sugieren que la decisión del 9.º Circuito podría establecer el estándar para cómo se trata toda la «ingestión» de datos protegidos por derechos de autor bajo la ley estadounidense. Mientras que los demandados se apoyan fuertemente en la doctrina del «uso legítimo» (Fair Use) para el uso del contenido, las reclamaciones de la DMCA eluden el uso legítimo al centrarse en la eliminación de metadatos, lo cual es una violación estatutaria independiente.

¿Qué sigue ahora?

Se espera que el panel del 9.º Circuito emita su fallo a finales de este año. Dada la novedad de las cuestiones legales —aplicar un estatuto de 1998 a la tecnología de 2026—, es probable que la decisión sea apelada ante el Tribunal Supremo independientemente del resultado.

Por ahora, la comunidad de desarrolladores observa de cerca. El caso representa más que una simple disputa financiera; es un desacuerdo fundamental sobre el valor de la autoría humana en un mundo cada vez más automatizado. Si los programadores tienen éxito, podría afirmar que las reglas del código abierto no pueden ser reescritas por algoritmos. Si fallan, puede consolidar la práctica actual de la industria donde los datos son combustible y la atribución es opcional.

Destacados