3 puntos por GN⁺ 2025-09-23 | 1 comentarios | Compartir por WhatsApp
  • OpenAI anunció un plan para construir al menos 10 GW de centros de datos de IA basados en sistemas NVIDIA, con el objetivo de preparar la infraestructura de IA de próxima generación
  • Como parte de este proceso, NVIDIA se compromete a invertir de forma gradual hasta 100 mil millones de dólares con cada despliegue a escala de gigavatios
  • El primer sistema de 1 GW está previsto para entrar en operación en la segunda mitad de 2026 sobre la plataforma Vera Rubin
  • Esta colaboración incluye la optimización conjunta de hardware y software entre OpenAI y NVIDIA, y también complementa las colaboraciones existentes con socios como Microsoft, Oracle, SoftBank y Stargate
  • Se espera que sea una base importante para que OpenAI avance hacia la AGI, respaldada por más de 700 millones de usuarios semanales y la adopción global en negocios

Resumen de la alianza

  • OpenAI y NVIDIA anunciaron una carta de intención (LOI) para una alianza estratégica con el fin de desplegar sistemas de al menos 10 GW
    • El objetivo es asegurar infraestructura para el entrenamiento y la ejecución de los modelos de próxima generación de OpenAI
    • Se presenta como parte de un avance gradual hacia la superinteligencia
  • NVIDIA dio a conocer un plan de inversión de hasta 100 mil millones de dólares conforme avance el despliegue, incluyendo la expansión de centros de datos y energía
  • La primera etapa está prevista para ponerse en línea en la segunda mitad de 2026 con la plataforma NVIDIA Vera Rubin

Declaraciones principales

  • Jensen Huang (CEO de NVIDIA)
    • Mencionó la historia de 10 años de colaboración con OpenAI y destacó el recorrido hasta el hito de ChatGPT
    • Afirmó que “el despliegue de una infraestructura de 10 GW es un salto que abrirá la próxima era de la inteligencia”
  • Sam Altman (CEO de OpenAI)
    • Enfatizó que “todo comienza con el cómputo” y que será la base de la economía futura
    • Explicó que junto con NVIDIA impulsarán nuevos avances en IA y su uso a gran escala para la humanidad y los negocios
  • Greg Brockman (presidente de OpenAI)
    • Señaló que han creado IA usada por cientos de millones de personas sobre la plataforma de NVIDIA
    • Declaró que espera que el despliegue de 10 GW permita ampliar los límites de la inteligencia y expandir los beneficios de la tecnología

Alcance de la colaboración

  • NVIDIA fue designada como socio estratégico de cómputo y redes de OpenAI
  • Ambas compañías acordaron optimizar conjuntamente los modelos y el software de infraestructura de OpenAI con el hardware y software de NVIDIA
  • Está previsto ampliar las sinergias con la red de colaboración existente, que incluye a Microsoft, Oracle, SoftBank y Stargate

Situación actual de OpenAI y significado

  • OpenAI registra actualmente más de 700 millones de usuarios activos semanales y tiene una amplia adopción entre grandes empresas, pymes y desarrolladores a nivel global
  • Esta alianza se considera una base para acelerar la misión de construir una AGI que beneficie a toda la humanidad
  • La compañía planea cerrar en las próximas semanas los términos detallados de la alianza

1 comentarios

 
GN⁺ 2025-09-23
Opiniones de Hacker News
  • Es muy interesante que lo expresen en gigavatios. En los últimos 3 años hubo controversia por los fuertes aumentos en las tarifas eléctricas de hogares y pequeños negocios debido al crecimiento de la IA impulsado por los centros de datos. Si 10GW equivale a lo que consumen juntos Chicago y Nueva York, entonces hay que discutir seriamente de dónde saldrá esa electricidad, dada la lamentable situación de la red e infraestructura eléctrica en EE. UU. Ya se les trasladó a los hogares el costo de suministrar energía barata a los centros de datos, así que esa desigualdad también es un problema. Que la tarifa residencial en EE. UU. haya subido un 46% en cinco años, de 13 a 19 centavos, no es ni justo ni sostenible. La duda es: ¿de dónde saldrán esos 10GW y quién va a pagar la cuenta? Como referencia, cuando se habla de escala de centros de datos suele hablarse en términos de potencia (vatios), pero esta vez la cifra viene desde la perspectiva de un proveedor de cómputo como Nvidia, no de un propietario u operador puro de centros de datos. Eso deja claro que el consumo eléctrico, la expansión de la red y la carga de costos son los temas centrales
    • Trabajo en la industria de centros de datos. Hablar del tamaño de un centro de datos según su consumo eléctrico (por ejemplo, 200MW) es el estándar. El equipo de cómputo puede actualizarse cada 5 años, pero la demanda eléctrica queda casi fija. Al final, esta unidad muestra bien que la IA es una forma de refinar energía
    • Sobre la afirmación de que “no es justo ni sostenible”, en comparación con Italia, en EE. UU. la electricidad cuesta la mitad. No creo que sea algo imposible de superar para el país más rico del mundo
    • La infraestructura de centros de datos siempre se asigna en vatios. De ese número se derivan todos los cálculos: carga IT, enfriamiento, etc.
    • Las empresas de servicios públicos tienen que justificar ante los reguladores cualquier aumento de tarifas. La principal causa del aumento de costos es la transición a energías renovables. No es difícil hacer que los grandes centros de datos paguen directamente los costos que generan. Pero producir la electricidad en sí es un problema más complejo. Antes se podía sacar energía barata de la hidroeléctrica del río Columbia, pero ahora ya empieza a competir directamente con el consumo residencial. Aun así, el costo de generación es una parte muy pequeña de la factura total
    • Un aumento anual del 8% es alto, pero hay que considerar que en 2022 hubo un shock global de combustibles. Por ejemplo, en Australia la tarifa eléctrica se duplicó ese año. En promedio, a largo plazo, el alza ha sido de alrededor de 6% anual, apenas por encima del aumento salarial de 4%. La electricidad sigue representando una porción pequeña del ingreso familiar. El aumento de salarios absorbe la mayor parte del impacto. Claro, para los hogares de bajos ingresos puede pegar fuerte, pero para la mayoría no es una gran sacudida
  • Todo el lenguaje del comunicado sobre una “landmark strategic partnership” es demasiado vago y suena a puro marketing corporativo. En la práctica, parece un anuncio del tipo “algún día haremos algo grande”
    • Las acciones de Nvidia subieron $6 hoy, así que en ese sentido el anuncio sí logró su efecto. Básicamente fue pasarle la gorra a los inversionistas con un “vamos a hacer algo increíble, dennos más dinero”, y muchos parecen haber respondido
  • Me pregunto qué significa en concreto esa escala de gigavatios de sistemas Nvidia. Haciendo mis propias estimaciones, y con ayuda de GPT, podría tratarse de casi 10 millones de unidades. Realmente suena gigantesco
    • Esa cifra sin duda es absurdamente grande. A nivel de sistema, un H100 consume alrededor de 1~2kW, así que usando 2kW da unas 5 millones de unidades. Por ejemplo, un rack NVL72 tiene 72 chips y consume 120kW, o sea alrededor de 2kW por unidad incluyendo enfriamiento
    • Decir “millones de unidades” no estaría mal. La cantidad real depende del entorno de infraestructura y, en la práctica, los aceleradores son solo una parte del consumo total, pero la escala claramente está en los millones
    • Antes de leer los comentarios hice un cálculo rápido: si cada GPU consume 600W, entonces 10,000,000,000/600 da 16.6 millones de unidades. Tomando en cuenta varios factores, seguro difiere bastante de la realidad, pero sirve como punto de partida. No incluye sobrecarga, calor ni eficiencia de conversión
    • Si calculas 3MW por cada 1000 GPU, entonces 10GW equivale a unas 3.33 millones de unidades
    • También me pregunto qué tipo de cables y qué longitud harían falta para conectar todas esas GPU. Pensaba que solo era cuestión de meterlas en racks metálicos, pero viendo fotos reales de centros de datos aparecen interminables líneas azules conectadas por todas partes
  • Ya siento que la tecnología LLM (modelos de lenguaje de gran tamaño) alcanzó su punto máximo. Ahora es como si la anunciaran igual que un calefactor de ambiente, fingiendo que hay un gran avance cuando en realidad la tecnología está estancada. Solo están haciendo caballos más rápidos. El mercado debería haber controlado racionalmente esta situación
    • Sin duda existe la posibilidad de que la burbuja de la IA estalle spectacularly en algún momento. Pero decir que este es el punto máximo de los LLM es como decir que internet también estaba en su punto máximo entre 1999 y 2001. En realidad después llegaron más innovaciones, como los smartphones, y los LLM basados en texto tampoco están estancados aún. La IA no es solo texto; también la IA del mundo real, como los autos autónomos, sigue avanzando exponencialmente
    • En la burbuja puntocom también hubo un enorme sobrecalentamiento seguido de un gran crash, y empresas que sobrevivieron, como Amazon, terminaron convirtiéndose en gigantes. Ojalá este boom de la IA deje resultados significativos de ese tipo
    • Creo que pronto vendrá una corrección del mercado. Pero así como internet siguió teniendo valor después del colapso puntocom, espero que a largo plazo aquí también quede valor real
    • Lo ven como que “ya se pasó” en el sentido de que todas las expectativas positivas ya están incorporadas en el precio
  • El agua es un recurso esencial y escaso en muchas regiones. Ya hubo varios casos de centros de datos absorbiendo agua en zonas de sequía. Me pregunto si la EPA de EE. UU. todavía tiene alguna voz en la gestión del uso de agua para proyectos así
    • En el Medio Oeste el agua subterránea se usa más para producir etanol, y en California para cultivar almendras. El impacto de esas dos industrias sobre los recursos hídricos es mucho mayor, y su utilidad real es menor que la de los centros de datos. Ojalá hubiera más foco en los problemas realmente serios
    • El tema del agua en los centros de datos no es tan importante como lo presenta la prensa. En algunas zonas hay problemas locales, pero el tema de la electricidad es aún más central
    • Me pregunto si el consumo de agua de los centros de datos de verdad es tan alto, o si en realidad los sistemas de enfriamiento de circuito cerrado solo la hacen circular con bombas
  • Casi nadie habla bien de la demanda eléctrica de estas instalaciones gigantes. En Nueva Jersey, mi factura de luz también subió más de 50% con PSEG. Dicen que la demanda se disparó por los centros de datos, pero la realidad es que no les aplican tarifas más altas a los centros de datos artículo relacionado
    • Estos aumentos de tarifas muestran la realidad política anti-consumidor de Nueva Jersey. Los centros de datos terminarán yéndose a regiones con tarifas eléctricas más competitivas
    • Quien permitió esto fue el gobierno estatal. Podían simplemente decir que no, pero lo autorizaron
  • Si Google usa 15TWh al año (unos 1.7GW), el nuevo plan de OpenAI y Nvidia consumiría 5.8 veces eso (5.8 Googles). A esta escala, se abre una oportunidad enorme para chips de cómputo de IA de ultra bajo consumo en comparación con las GPU actuales. Ya hay varios intentos técnicos en marcha, así que promete mucho
    • Me gustaría ver ejemplos concretos de chips de IA de ultra bajo consumo. Estaría bien tener cifras de cuánto ahorro eléctrico logran realmente
    • Solo este centro de datos podría reunir suficiente poder de cómputo para ejecutar un ataque del 51% sobre una criptomoneda importante. Si el mercado de IA se desinfla al final de la burbuja, podría convertirse en una especie de seguro interesante
  • Estoy esperando en silencio nada más el artículo de análisis de Ed Zitron sobre este tema
    • Si la gerencia no puede medir resultados por output, termina midiéndolos solo por input, y ahí la eficiencia se desploma. Obligar a los empleados a volver a la oficina es parte de esa misma lógica. Ahora para OpenAI y Nvidia parece que los gigavatios invertidos importan más como métrica de éxito que los resultados reales de IA
    • Publicación del propio Ed Zitron
    • También hubo gente que perdió mucho dinero por seguir una sola visión pesimista de Ed Zitron
  • Hay una estimación de que este centro de datos requeriría un terreno del tamaño de Mónaco (740 acres), asumiendo 80kW por rack
    • Mónaco es diminuto; cabe dentro del parque Tempelhofer Feld en el centro de Berlín
    • En la práctica también puede describirse como del tamaño de una sola fábrica de BYD
    • Mónaco tiene 2 kilómetros cuadrados. Si asumes 1 metro cuadrado por rack, el área real necesaria sería de 12 hectáreas, o unos 17 campos de fútbol (suponiendo una sola planta). Hasta pensé que quizá se podrían apilar verticalmente los centros de datos. No sé si fui el único que terminó buscando el tamaño de Mónaco Wikipedia de Mónaco cálculo directo del área
    • En todo el territorio de EE. UU. caben 4.8 millones de Mónacos
  • El reactor de un submarino de la Marina de EE. UU. en los años 60 generaba 78MW, así que 10GW equivalen a 128 submarinos nucleares
    • Visto de forma más simple, es el 2% del consumo eléctrico promedio de todo EE. UU., y una escala similar a la de todo el país de los Países Bajos con 18 millones de habitantes
    • Una planta nuclear suele llegar como máximo a 2GW, y hasta los parques eólicos marinos rondan el límite de 1.5GW. Incluso los sistemas de transmisión DC de 525kV de gran capacidad tienen un máximo de 2GW por cable. Solo agregar una carga adicional de 10GW ya causaría un impacto enorme en la red y requeriría inversiones masivas en infraestructura. Aunque una gran empresa pida hoy un cable de 525kV, probablemente no lo recibiría hasta después de 2030
    • Por otro lado, si el cerebro humano consume unos 20W, entonces 10GW equivalen a 500 millones de cerebros. Comparado con insectos como las moscas, que procesan información con poquísima energía, quizá la IA actual, incluidos los LLM, esté yendo en una dirección totalmente ineficiente. Si algún día aparece una forma mucho más eficiente y lo cambia todo, estas instalaciones podrían perder su valor, jaja
    • Diez reactores РБМК muy seguros de 1GW suman 10GW (sin riesgo de explosión)
    • Una central eléctrica suele rondar 1GW, y como construir nucleares es lento, lo más probable es que al final recurran a generación con gas natural