
OpenAI ha firmado oficialmente un acuerdo histórico con el fabricante de chips de IA Cerebras Systems, comprometiéndose aproximadamente con $10 mil millones para desplegar 750 megavatios de potencia informática para 2028. Este movimiento estratégico marca una desviación significativa de la dependencia casi exclusiva de OpenAI en Nvidia, señalando una estrategia de diversificación más amplia diseñada para asegurar el hardware necesario para la próxima generación de inteligencia artificial (artificial intelligence).
El acuerdo, finalizado a mediados de enero de 2026, representa uno de los contratos de adquisición más grandes hasta la fecha para aceleradores de IA no basados en GPU. Al integrar la tecnología wafer-scale (wafer-scale technology) de Cerebras, OpenAI busca abordar un cuello de botella crítico en el despliegue de avanzados modelos de "razonamiento": la latencia de inferencia (inferencia (inference)). Si bien las GPUs de Nvidia siguen siendo el estándar de la industria para entrenar modelos fundacionales masivos, la arquitectura de Cerebras ofrece ventajas únicas para el procesamiento en tiempo real que requieren los agentes de IA cada vez más complejos.
Durante años, la industria de la IA ha operado bajo un paradigma "Nvidia-first", con los chips de las series H100 y Blackwell sirviendo como el motor vital del entrenamiento. Sin embargo, la demanda exponencial de capacidad de cómputo, junto con las limitaciones de la cadena de suministro y los crecientes costos, ha obligado a OpenAI a cultivar un ecosistema de múltiples proveedores.
Este acuerdo con Cerebras no es un evento aislado, sino parte de una estrategia tripartita de hardware calculada. Complementa la hoja de ruta existente de OpenAI, que incluye un compromiso masivo de infraestructura de 10 gigavatios con Nvidia y una asociación de despliegue de 6 gigavatios con AMD. Al fragmentar sus dependencias de hardware, OpenAI está efectivamente cubriéndose contra faltantes de suministro mientras aprovecha las fortalezas arquitectónicas específicas de distintos proveedores para cargas de trabajo especializadas.
El compromiso de $10 mil millones está estructurado alrededor de un modelo de "capacidad a cambio de acciones" y servicios. En lugar de simplemente comprar hardware, OpenAI ha entrado en un acuerdo a largo plazo donde Cerebras gestionará el despliegue de sus sistemas en centros de datos dedicados. El despliegue ocurrirá en fases, con la primera capacidad sustancial entrando en línea a finales de 2026 y escalando hasta los 750 megavatios completos para 2028.
De forma crucial, esta asociación se centra en la inferencia (inference)—el proceso de ejecutar modelos en vivo para generar respuestas—más que en el entrenamiento. A medida que OpenAI transiciona del entrenamiento de GPT-5 al despliegue de modelos de razonamiento (modelos de razonamiento (reasoning models))—como la serie o (o-series)—el costo y la velocidad de la inferencia se han vuelto primordiales. La arquitectura de Cerebras, que elimina el lento movimiento de datos entre chips separados, está teóricamente preparada para ofrecer la latencia ultra-baja requerida por estos modelos "pensantes".
Para entender por qué OpenAI apostaría $10 mil millones en una marca retadora, hay que mirar la diferencia fundamental en la arquitectura. Los clústeres GPU tradicionales dependen de miles de pequeños chips interconectados por cables y switches. Los datos deben viajar constantemente entre estos chips, creando penalizaciones de latencia que ralentizan los tiempos de respuesta del modelo.
Cerebras adopta un enfoque radical con su Wafer-Scale Engine (WSE-3). En lugar de cortar una oblea de silicio en cientos de chips individuales, Cerebras mantiene la oblea intacta, creando un único procesador del tamaño de un plato.
El WSE-3 es una potencia monolítica. Integra memoria y cómputo en el mismo sustrato de silicio, proporcionando un ancho de banda que eclipsa las configuraciones GPU tradicionales. Esto permite que todo el modelo (o capas masivas del mismo) resida en el chip, posibilitando que modelos de IA a "escala cerebral" funcionen a velocidades previamente inalcanzables.
Diferenciadores técnicos clave:
La cartera de hardware de OpenAI ahora incluye tres actores principales, cada uno sirviendo un propósito estratégico distinto. La siguiente comparación destaca cómo encaja Cerebras en el ecosistema más amplio junto a Nvidia y AMD.
Comparative Analysis of OpenAI's Hardware Partnerships
| Vendor | Commitment Scale | Primary Workload Focus | Strategic Value Proposition |
|---|---|---|---|
| Nvidia | 10 Gigawatts (GW) ~$100B Investment |
Training & General Inference La columna vertebral de GPT-5 y Stargate. |
Ecosistema probado: Dominio de la pila de software CUDA y fiabilidad establecida para entrenamientos masivos. |
| AMD | 6 Gigawatts (GW) | Cost-Effective Inference Despliegue de modelos de gama media. |
Palanca y costo: Proporciona apalancamiento en negociaciones de precios y un suministro secundario para cargas de trabajo estándar y de alto volumen. |
| Cerebras | 750 Megawatts (MW) ~$10B Deal |
Low-Latency Inference Modelos de razonamiento y agentes. |
Velocidad: Latencia inigualable para modelos "pensantes" donde el tiempo de respuesta es la métrica crítica para el usuario. |
Este acuerdo provoca una onda expansiva en el mercado de semiconductores, validando la tesis de que el futuro del hardware de IA será heterogéneo. Para Cerebras, esto es una victoria definitoria para la compañía. Tras un intento de IPO retirado en 2024 y escepticismo respecto a su dependencia de un único cliente en Oriente Medio (G42), el respaldo de OpenAI consolida efectivamente su estatus como un actor de primer nivel. Los analistas esperan que este acuerdo allane el camino para una oferta pública inicial exitosa de Cerebras a mediados de 2026.
Para Nvidia, aunque el acuerdo de 750MW es una fracción de su canal de 10GW, representa la primera grieta en su monopolio sobre el cómputo de IA de alto nivel. Demuestra que los hyperscalers están dispuestos a sortear el foso de CUDA por ganancias de rendimiento específicas en inferencia—un segmento de mercado que se espera que eventualmente supere en valor al entrenamiento.
A medida que los modelos de IA pasan de los laboratorios de investigación a los productos de consumo, el enfoque económico cambia de "costo de entrenar" a "costo por token" y "tiempo por token". Los modelos de razonamiento, que pueden "pensar" durante segundos o minutos antes de responder, requieren recursos de cómputo masivos en el momento de la interacción. La capacidad de Cerebras para entregar estos tokens más rápido que un clúster GPU permite a OpenAI mejorar la experiencia de usuario para su nivel de productos más avanzado, potencialmente justificando tarifas de suscripción más altas para clientes empresariales que requieren análisis complejos instantáneos.
La hoja de ruta de OpenAI apunta hacia la construcción de "Stargate", un hipotético proyecto de supercomputadora de $100 mil millones. Si bien se espera que Nvidia potencie los clústeres centrales de entrenamiento de Stargate, la inclusión de Cerebras sugiere que la instalación probablemente será un entorno híbrido.
Podemos anticipar un futuro donde una petición de IA se enrute dinámicamente: consultas amplias y creativas podrían ir a un clúster Nvidia H200; el procesamiento estándar a AMD MI450s; y tareas complejas y de lógica intensiva a nodos Cerebras WSE-3. Este enfoque de "cómputo especializado" refleja la evolución del mercado de CPU, donde diferentes núcleos manejan distintas tareas, asegurando que OpenAI maximice la eficiencia por vatio y por dólar.
Al asegurar ahora 750MW de potencia de inferencia especializada, OpenAI está garantizando que cuando sus próximos agentes de razonamiento estén listos para el mundo, la infraestructura estará allí para permitirles pensar en tiempo real.