6 puntos por GN⁺ 2026-02-01 | 1 comentarios | Compartir por WhatsApp
  • El plan de inversión de Nvidia de hasta 100 mil millones de dólares para respaldar el entrenamiento y la operación de los modelos de IA de próxima generación de OpenAI no avanza debido a la oposición interna y la incertidumbre
  • La estructura de arrendamiento de chips y construcción de infraestructura de cómputo de 10 GW, anunciada en septiembre de 2025, se quedó en el nivel de un memorando de entendimiento inicial y no avanzó hacia un contrato definitivo
  • Dentro de Nvidia han surgido preocupaciones sobre la falta de disciplina operativa del acuerdo original, que no era vinculante, y el aumento de la competencia
  • OpenAI enfrenta obstáculos en su estrategia para asegurar gran capacidad de cómputo mientras se prepara para una IPO a finales de 2026
  • Con el crecimiento de Google Gemini y Anthropic Claude, la dinámica competitiva de los modelos de IA está jugando en contra de OpenAI

Resumen del acuerdo y contenido del anuncio inicial

  • Nvidia firmó un memorando de entendimiento para OpenAI prometiendo construir al menos 10 gigavatios de capacidad de cómputo
    • Incluía una estructura en la que OpenAI arrendaría esa infraestructura a Nvidia
    • Se discutió una propuesta para que Nvidia aportara una inversión o financiamiento de hasta 100 mil millones de dólares
  • En ese momento, Jensen Huang lo describió como el mayor proyecto de cómputo de la historia
    • Tras el anuncio, la acción de Nvidia subió alrededor de 4% y su capitalización de mercado alcanzó aproximadamente 4.5 billones de dólares

Estancamiento de las negociaciones y preocupaciones internas

  • Sin embargo, las negociaciones de este acuerdo actualmente están estancadas en una etapa inicial sin avances sustanciales
  • Jensen Huang subrayó en privado que el acuerdo no era vinculante ni estaba cerrado
    • También expresó preocupación por la falta de disciplina operativa de OpenAI y por la intensificación de la competencia con Google y Anthropic
  • Aun así, los voceros de Nvidia y OpenAI expresaron su disposición a seguir colaborando

Carga financiera de OpenAI y preocupación de los inversionistas

  • OpenAI está preparando el terreno con el objetivo de salir a bolsa a finales de 2026
  • Durante el último año, se ha concentrado en la competencia por asegurar capacidad de cómputo a gran escala
  • Sam Altman mencionó que los contratos acumulados ascienden a compromisos de cómputo por un total de 1.4 billones de dólares
    • Eso equivalía a más de 100 veces la estimación de ingresos de ese momento
  • OpenAI explicó que, si se consideran los elementos superpuestos entre contratos, la carga real sería menor

Cambios en el entorno competitivo y reacción del mercado

  • El éxito de Google Gemini ha desacelerado el crecimiento de ChatGPT, y dentro de OpenAI se declaró una situación de código rojo
  • Claude Code de Anthropic está funcionando como un factor de presión en el segmento de IA para programación
  • Nvidia también prometió por separado una inversión de hasta 10 mil millones de dólares en Anthropic
  • OpenAI firmó varios acuerdos con empresas de semiconductores y nube, impulsando el alza de los mercados bursátiles globales, pero
    los inversionistas han expresado dudas sobre si realmente tiene la capacidad de financiar esos acuerdos, y continúan las ventas de acciones tecnológicas vinculadas a OpenAI
  • En una divulgación de noviembre, Nvidia señaló que "no hay garantía de que se celebre un acuerdo definitivo relacionado con una oportunidad de inversión en OpenAI u otras inversiones potenciales, ni de que la inversión se complete según lo previsto"
  • En la conferencia de UBS de diciembre, el CFO de Nvidia reconfirmó que no se ha firmado un contrato definitivo

El dilema estratégico de Nvidia

  • Nvidia reconoce que necesita brindar cierto nivel de apoyo porque OpenAI es uno de sus clientes clave
  • Si OpenAI pierde terreno frente a la competencia, podría traducirse en una menor demanda de GPU
  • Anthropic y Google utilizan AWS Trainium y Google TPU
    • Esto representa una amenaza competitiva estructural para las GPU de Nvidia

1 comentarios

 
GN⁺ 2026-02-01
Opiniones en Hacker News
  • Enlace al archivo del artículo

  • En los últimos 6 meses, la cuota de mercado de OpenAI ha caído de forma importante
    Mientras tanto, Nvidia está entrenando su propia familia de modelos con la liquidez que aseguró recientemente
    En esta situación, su alianza con OpenAI parece menos significativa que antes
    Para más contexto, ver el blog de Nvidia

    • Nvidia ya llevaba mucho tiempo desarrollando sus propios modelos, incluida la familia Megatron
      Desde 2019, estos modelos han servido como plano de referencia para otras empresas
      Enlace al paper
    • Por muy buenos que sean los modelos de OpenAI, no dan ganas de usarlos por los problemas de credibilidad de Sam Altman
      Perdió confianza por sus cambios de postura sobre regulación, filtraciones de correos internos y más
    • Ahora la industria de IA ha entrado en una fase de comoditización (commodity)
      Los modelos se parecen más con cada actualización y al final solo quedará la competencia por precio
      Se están desmoronando las valuaciones de empresas de IA basadas en la idea de que el ganador se lo lleva todo
    • Nvidia no está compitiendo con OpenAI en modelos frontier
    • OpenAI se enfocó en el mercado de consumo, pero al público le incomoda o no le gusta la IA
      En cambio, Anthropic se concentró en B2B y en el mercado de programación, y quedó mucho mejor posicionada
      Y Sam Altman sigue cayendo mal
  • El último párrafo del artículo es interesante
    Anthropic entrena sus modelos usando Trainium de AWS y las TPU de Google
    Esos chips son una amenaza competitiva importante para las GPU de Nvidia
    Si es así, quizá la única gran empresa de IA que entrene sus modelos sobre Nvidia termine siendo OpenAI

    • La palabra “la mayoría” es una exageración
      No solo Google y Amazon, también Microsoft, Meta, xAI, Tesla y Oracle siguen intentando asegurar la mayor cantidad posible de GPU de Nvidia
    • OpenAI va a seguir usando GPU de Nvidia, pero ahora tendrá que pagar precio completo
    • Hasta ahora Nvidia se había mantenido como quien vende picos y palas (proveedor de hardware)
      pero si otras empresas empiezan a fabricar sus propios chips, podría meterse directamente a la mina (desarrollo de modelos)
      Como OpenAI se ve inestable, hace falta una estrategia de diversificación de riesgo
    • Que Anthropic use chips propios es una estrategia interesante
      Parece un intento de salirse de la competencia por chips de Nvidia
    • Si Nvidia invierte demasiado en ClosedAI, otras empresas podrían empezar a evitar usar Nvidia
  • El video sobre CoreWeave es interesante
    Muestra bien la compleja estructura de financiamiento de las empresas de IA

    • CoreWeave recibió recientemente un rescate de 2 mil millones de dólares por parte de Nvidia
      Ver el artículo de TechCrunch
    • El año pasado CoreWeave adquirió Weights & Biases (W&B)
      Blog oficial
      Parece una jugada estratégica
    • Resulta convincente la explicación de que Microsoft y Google están metiendo IA a la fuerza en sus productos por esta compleja estructura de inversión
    • También llama la atención que el colateral del préstamo que recibió Nvidia sean GPU antiguas
  • Los recientes anuncios de inversión no vinculantes parecen básicamente un show para generar confianza

    • Pero algunos no son simple fraude, sino posicionamiento frente a la incertidumbre futura
      A Amazon le cuesta entrenar sus propios modelos y por eso invierte en Anthropic y OpenAI
      Oracle está en una situación parecida y también colabora con OpenAI
      Nvidia se está moviendo para seguir dentro del stack tecnológico de estas empresas
    • Pero al final todo esto parece una carrera antes del colapso
      En 10 años habrá una seguidilla de revelaciones sobre problemas éticos,
      y para entonces los de adentro ya habrán vendido todas sus RSU y se habrán ido
  • El bug que OpenAI no ha podido resolver en 2 semanas muestra una falta de capacidad operativa de la empresa
    Enlace al issue en GitHub
    Que la mayoría de los usuarios empresariales ni siquiera pueda iniciar sesión en la CLI
    y aun así no sea una gran noticia indica la debilidad del ecosistema de desarrolladores

    • Hasta salen bromas de “¿no se supone que la IA sola debería arreglarlo?”
    • En realidad parece el típico manejo de tickets enterprise
      La UI funciona, pero el entorno headless no,
      y los errores ocurren por restricciones de funciones exclusivas del plan Enterprise
      Al final lo están resolviendo con parches como túneles SSH o copiar la autenticación desde la UI
    • El hecho de que el issue solo tenga un “me gusta” sugiere que a nadie le importa
  • Mucha gente ya preveía desde hace tiempo que la estrategia de OpenAI de que “el modelo en sí es el producto” estaba equivocada
    El valor real está en las herramientas y la velocidad construidas encima del modelo

    • Pero algunos siguen argumentando que el modelo es el activo central
      porque sin él en cualquier momento te pueden hacer un rug pull
    • Aun así, también existe la opinión de que es difícil monetizar todo ese valor en un solo lugar
  • La estructura circular de inversión en la industria de IA se está haciendo cada vez más evidente
    Video al respecto

  • Es un momento interesante junto con la noticia de ayer sobre el plan de IPO de OpenAI
    Artículo del WSJ

  • La reciente sobrevaluación de la IA y el frenesí de inversión me tenían inquieto
    Al probar directamente modelos locales, el camino hacia el colapso se volvió más claro

    • Nvidia se convirtió en la empresa más valiosa por su monopolio de GPU,
      pero en realidad AMD también fabrica GPU bastante buenas
      Al final, Nvidia está sobrevaluada gracias a su ventaja de primer jugador
    • Las empresas de modelos frontier han invertido miles de millones de dólares,
      pero los modelos open-weight pronto las alcanzan
      En pocos años desaparecerá la ventaja competitiva de los modelos de pago
    • El futuro de la programación con IA va hacia el trabajo paralelo basado en agentes
      y cualquiera podrá implementarlo gracias a los modelos abiertos y las interfaces abiertas
    • En 5 a 10 años volveremos a los clústeres de GPU basados en la nube
      y para entonces los modelos de Anthropic u OpenAI no tendrán nada especial
    • Al final, los LLM llegarán a su límite en menos de 10 años
      Como los LLM se basan en reaprender datos del pasado,
      no pueden evolucionar como el aprendizaje continuo (aprendizaje por refuerzo)
      La eficiencia frente a la inversión caerá y terminarán entrando en un estancamiento
    • Nvidia probablemente volverá a ser una empresa de hardware para gaming,
      pero gracias a toda la inversión que se ha volcado mientras tanto, el ecosistema de modelos abiertos seguirá siendo útil
    • Personalmente, no compraría acciones de Nvidia
      ni dependería de una empresa concreta de modelos frontier
    • En respuesta, otro usuario dice que
      los modelos open source son atractivos por el tema de la privacidad,
      pero que seguirán siendo un nicho para power users
      Él usa Claude y Gemini en paralelo,
      y espera que los LLM cerrados, entrenados con más datos privados,
      terminen manteniendo ventaja en calidad
      Aun así, usemos el modelo que usemos, la demanda de cómputo va a aumentar de forma explosiva,
      y él está concentrando sus inversiones en infraestructura física de IA como chips y RAM