- El plan de inversión de Nvidia de hasta 100 mil millones de dólares para respaldar el entrenamiento y la operación de los modelos de IA de próxima generación de OpenAI no avanza debido a la oposición interna y la incertidumbre
- La estructura de arrendamiento de chips y construcción de infraestructura de cómputo de 10 GW, anunciada en septiembre de 2025, se quedó en el nivel de un memorando de entendimiento inicial y no avanzó hacia un contrato definitivo
- Dentro de Nvidia han surgido preocupaciones sobre la falta de disciplina operativa del acuerdo original, que no era vinculante, y el aumento de la competencia
- OpenAI enfrenta obstáculos en su estrategia para asegurar gran capacidad de cómputo mientras se prepara para una IPO a finales de 2026
- Con el crecimiento de Google Gemini y Anthropic Claude, la dinámica competitiva de los modelos de IA está jugando en contra de OpenAI
Resumen del acuerdo y contenido del anuncio inicial
- Nvidia firmó un memorando de entendimiento para OpenAI prometiendo construir al menos 10 gigavatios de capacidad de cómputo
- Incluía una estructura en la que OpenAI arrendaría esa infraestructura a Nvidia
- Se discutió una propuesta para que Nvidia aportara una inversión o financiamiento de hasta 100 mil millones de dólares
- En ese momento, Jensen Huang lo describió como el mayor proyecto de cómputo de la historia
- Tras el anuncio, la acción de Nvidia subió alrededor de 4% y su capitalización de mercado alcanzó aproximadamente 4.5 billones de dólares
Estancamiento de las negociaciones y preocupaciones internas
- Sin embargo, las negociaciones de este acuerdo actualmente están estancadas en una etapa inicial sin avances sustanciales
- Jensen Huang subrayó en privado que el acuerdo no era vinculante ni estaba cerrado
- También expresó preocupación por la falta de disciplina operativa de OpenAI y por la intensificación de la competencia con Google y Anthropic
- Aun así, los voceros de Nvidia y OpenAI expresaron su disposición a seguir colaborando
Carga financiera de OpenAI y preocupación de los inversionistas
- OpenAI está preparando el terreno con el objetivo de salir a bolsa a finales de 2026
- Durante el último año, se ha concentrado en la competencia por asegurar capacidad de cómputo a gran escala
- Sam Altman mencionó que los contratos acumulados ascienden a compromisos de cómputo por un total de 1.4 billones de dólares
- Eso equivalía a más de 100 veces la estimación de ingresos de ese momento
- OpenAI explicó que, si se consideran los elementos superpuestos entre contratos, la carga real sería menor
Cambios en el entorno competitivo y reacción del mercado
- El éxito de Google Gemini ha desacelerado el crecimiento de ChatGPT, y dentro de OpenAI se declaró una situación de código rojo
- Claude Code de Anthropic está funcionando como un factor de presión en el segmento de IA para programación
- Nvidia también prometió por separado una inversión de hasta 10 mil millones de dólares en Anthropic
- OpenAI firmó varios acuerdos con empresas de semiconductores y nube, impulsando el alza de los mercados bursátiles globales, pero
los inversionistas han expresado dudas sobre si realmente tiene la capacidad de financiar esos acuerdos, y continúan las ventas de acciones tecnológicas vinculadas a OpenAI
- En una divulgación de noviembre, Nvidia señaló que "no hay garantía de que se celebre un acuerdo definitivo relacionado con una oportunidad de inversión en OpenAI u otras inversiones potenciales, ni de que la inversión se complete según lo previsto"
- En la conferencia de UBS de diciembre, el CFO de Nvidia reconfirmó que no se ha firmado un contrato definitivo
El dilema estratégico de Nvidia
- Nvidia reconoce que necesita brindar cierto nivel de apoyo porque OpenAI es uno de sus clientes clave
- Si OpenAI pierde terreno frente a la competencia, podría traducirse en una menor demanda de GPU
- Anthropic y Google utilizan AWS Trainium y Google TPU
- Esto representa una amenaza competitiva estructural para las GPU de Nvidia
1 comentarios
Opiniones en Hacker News
Enlace al archivo del artículo
En los últimos 6 meses, la cuota de mercado de OpenAI ha caído de forma importante
Mientras tanto, Nvidia está entrenando su propia familia de modelos con la liquidez que aseguró recientemente
En esta situación, su alianza con OpenAI parece menos significativa que antes
Para más contexto, ver el blog de Nvidia
Desde 2019, estos modelos han servido como plano de referencia para otras empresas
Enlace al paper
Perdió confianza por sus cambios de postura sobre regulación, filtraciones de correos internos y más
Los modelos se parecen más con cada actualización y al final solo quedará la competencia por precio
Se están desmoronando las valuaciones de empresas de IA basadas en la idea de que el ganador se lo lleva todo
En cambio, Anthropic se concentró en B2B y en el mercado de programación, y quedó mucho mejor posicionada
Y Sam Altman sigue cayendo mal
El último párrafo del artículo es interesante
Anthropic entrena sus modelos usando Trainium de AWS y las TPU de Google
Esos chips son una amenaza competitiva importante para las GPU de Nvidia
Si es así, quizá la única gran empresa de IA que entrene sus modelos sobre Nvidia termine siendo OpenAI
No solo Google y Amazon, también Microsoft, Meta, xAI, Tesla y Oracle siguen intentando asegurar la mayor cantidad posible de GPU de Nvidia
pero si otras empresas empiezan a fabricar sus propios chips, podría meterse directamente a la mina (desarrollo de modelos)
Como OpenAI se ve inestable, hace falta una estrategia de diversificación de riesgo
Parece un intento de salirse de la competencia por chips de Nvidia
El video sobre CoreWeave es interesante
Muestra bien la compleja estructura de financiamiento de las empresas de IA
Ver el artículo de TechCrunch
Blog oficial
Parece una jugada estratégica
Los recientes anuncios de inversión no vinculantes parecen básicamente un show para generar confianza
A Amazon le cuesta entrenar sus propios modelos y por eso invierte en Anthropic y OpenAI
Oracle está en una situación parecida y también colabora con OpenAI
Nvidia se está moviendo para seguir dentro del stack tecnológico de estas empresas
En 10 años habrá una seguidilla de revelaciones sobre problemas éticos,
y para entonces los de adentro ya habrán vendido todas sus RSU y se habrán ido
El bug que OpenAI no ha podido resolver en 2 semanas muestra una falta de capacidad operativa de la empresa
Enlace al issue en GitHub
Que la mayoría de los usuarios empresariales ni siquiera pueda iniciar sesión en la CLI
y aun así no sea una gran noticia indica la debilidad del ecosistema de desarrolladores
La UI funciona, pero el entorno headless no,
y los errores ocurren por restricciones de funciones exclusivas del plan Enterprise
Al final lo están resolviendo con parches como túneles SSH o copiar la autenticación desde la UI
Mucha gente ya preveía desde hace tiempo que la estrategia de OpenAI de que “el modelo en sí es el producto” estaba equivocada
El valor real está en las herramientas y la velocidad construidas encima del modelo
porque sin él en cualquier momento te pueden hacer un rug pull
La estructura circular de inversión en la industria de IA se está haciendo cada vez más evidente
Video al respecto
Es un momento interesante junto con la noticia de ayer sobre el plan de IPO de OpenAI
Artículo del WSJ
La reciente sobrevaluación de la IA y el frenesí de inversión me tenían inquieto
Al probar directamente modelos locales, el camino hacia el colapso se volvió más claro
pero en realidad AMD también fabrica GPU bastante buenas
Al final, Nvidia está sobrevaluada gracias a su ventaja de primer jugador
pero los modelos open-weight pronto las alcanzan
En pocos años desaparecerá la ventaja competitiva de los modelos de pago
y cualquiera podrá implementarlo gracias a los modelos abiertos y las interfaces abiertas
y para entonces los modelos de Anthropic u OpenAI no tendrán nada especial
Como los LLM se basan en reaprender datos del pasado,
no pueden evolucionar como el aprendizaje continuo (aprendizaje por refuerzo)
La eficiencia frente a la inversión caerá y terminarán entrando en un estancamiento
pero gracias a toda la inversión que se ha volcado mientras tanto, el ecosistema de modelos abiertos seguirá siendo útil
ni dependería de una empresa concreta de modelos frontier
los modelos open source son atractivos por el tema de la privacidad,
pero que seguirán siendo un nicho para power users
Él usa Claude y Gemini en paralelo,
y espera que los LLM cerrados, entrenados con más datos privados,
terminen manteniendo ventaja en calidad
Aun así, usemos el modelo que usemos, la demanda de cómputo va a aumentar de forma explosiva,
y él está concentrando sus inversiones en infraestructura física de IA como chips y RAM