5 puntos por GN⁺ 2025-10-19 | 1 comentarios | Compartir por WhatsApp
  • OpenAI se enfrenta a levantar más de 400 mil millones de dólares en los próximos 12 meses
  • Esta cifra busca cubrir planes de expansión masivos, como la construcción de centros de datos a gran escala, contratos de chips de IA, costos de personal y gastos comerciales y operativos
  • La construcción de un solo centro de datos se estima entre 5 mil millones y 60 mil millones de dólares, y OpenAI busca asegurar 33 GW para 2029 y 250 GW para 2033
  • Ese ritmo y escala de expansión supera los límites financieros e infraestructurales globales y vuelve su ejecución casi inviable
  • Si el plan continúa como está, OpenAI terminaría presionando severamente los mercados de capitales mundiales y generando graves riesgos para inversores y para toda la industria

Resumen

  • Para impulsar sus planes ambiciosos de construcción de centros de datos a gran escala, contratos de chips e costos de mantenimiento, OpenAI debe reunir fondos a un ritmo sin precedentes
    • Solo durante el próximo año serían necesarios al menos 400 mil millones de dólares, lo que también implica una carga considerable para el sistema financiero mundial, no solo para OpenAI
  • Hay desacuerdo con la narrativa que presenta como “razonables y viables” colaboraciones de chips personalizados de 10 GW recién anunciadas y compromisos de despliegue de varios GW
    • Opina que hay que elevar el costo por 1 GW a 50 mil millones de dólares y considerar el costo total que incluya edificio, infraestructura eléctrica, redes y costos asociados
    • Incluso con un lead time mínimo de 2.5 años y capacidad eléctrica de reserva, el cronograma se vuelve prácticamente imposible
  • Se elevó la estimación previa de 32.5 mil millones de dólares/GW a 50 mil millones de dólares/GW por la necesidad de corregir una subestimación de precio de chips, red, infraestructura auxiliar y participación de terceros
    • Como ejemplo hay factores al alza en los supuestos de precio y volumen de GB200/Blackwell, aprovisionamiento de Lancium y una escala de 8 salas/50,000 GPU

Revisión de la agenda para la segunda mitad de 2026

  • Broadcom: planteó para la segunda mitad de 2026 un tape-out de chip de inferencia, inicio de producción en masa y despliegue de 1 GW
    • El sitio aún no está definido y la obra no ha comenzado, y con la necesidad de 1.2 a 1.3 GW totales de energía por cada GW de IT hay alta probabilidad de choques de cronograma
  • AMD: plan de 1.ª oleada de despliegue de MI450 de 1 GW para la segunda mitad de 2026
    • Para completar en ese punto sería necesario completar compras, contratos de energía y puesta de la obra desde el año anterior
  • NVIDIA: plan de despliegue de 1 GW Vera Rubin para la segunda mitad de 2026
    • Igual que en el caso anterior, el sitio, la energía y la obra tendrían que estar ya en marcha para poder cumplir
  • Aun con una hipótesis conservadora se requerirían más de 100 mil millones de dólares y se vuelve casi inevitable el pago anticipado de liquidez o la formación de un consorcio masivo

Escepticismo sobre demanda, tráfico y argumentos de capacidad

  • La cifra de 800 millones de MAU semanales plantea duplicación en el conteo y el objetivo de 250 GW y 10 billones de dólares en 2033 se considera irreal
    • Tomando como referencia la estimación de 55 GW de carga IT global en centros de datos en 2024, una expansión de 5x en 8 años por una sola empresa no tiene precedentes
  • En términos de producto, considerando el pobre desempeño y las limitaciones recientes de GPT-4.5, GPT-5 y Sora 2, se cuestiona el valor obtenido frente al enorme consumo de I+D
    • Un análisis externo citaba que durante 2024-2025 OpenAI gastó alrededor de 11 a 12 mil millones de dólares en I+D, pero el costo de entrenamiento para modelos realmente en producción fue limitado

Partidas de financiamiento requeridas en 12 meses (estimación del autor)

  • Broadcom para 1 GW: 50 mil millones de dólares aprox.
  • NVIDIA para 1 GW + compra de chips: 50 mil millones de dólares aprox.
  • Costo de cómputo 2026 (vía Oracle·CoreWeave·Azure·GCP): 40 mil millones de dólares aprox.
  • AMD para 1 GW + compra de chips: 50 mil millones de dólares aprox.
  • Desarrollo de dispositivos de consumo: 500 millones de dólares aprox.
  • Co-desarrollo de CPU basada en ARM: 1 mil millones de dólares aprox.
  • Ajuste de OPEX (ventas, marketing y salarios, entre otros): 10 mil millones de dólares aprox.
    • El total asciende a 391,500 millones de dólares ≈ 400,000 millones de dólares, con una necesidad de liquidez relevante antes de febrero de 2026

Restricciones financieras y riesgos estructurales

  • En el primer semestre de 2025, con estimaciones de 6.7 mil millones de dólares en I+D y 2 mil millones en ventas y marketing (S&M), se observa una salida continua de efectivo
    • Para el primer semestre de 2026 se estima una estructura de margen inverso con 9.2 mil millones de dólares en cómputo y 4.3 mil millones de dólares en ingresos
  • El plazo para la transición de sin fines de lucro a con fines de lucro y la condición condicional de 20 mil millones de dólares de SoftBank, entre otros, implican riesgos de gobernanza y de hitos contractuales
    • También pesa la condición de conversión de deuda del tramo de 6.6 mil millones de dólares de 2024 en octubre de 2026

Viabilidad de acuerdos de infraestructura como Oracle y CoreWeave

  • Se estima que para cumplir el contrato de 5 años por 300 mil millones de dólares con Oracle se necesitarían 4.5 GW de IT
    • Stargate Abilene solo asegura hoy 200 MW de potencia, que considerando reserva de contingencia bajaría a alrededor de 130 MW de IT
    • Shackelford de 1.4 GW está en fase inicial de construcción; con un objetivo de primera sala en H2 2026, la operación total debería corregirse hacia 2027 o después
  • Tomando la mención de CoreWeave de hasta 900 MW a fines de 2025, la brecha con “operar 2 GW en 2025” es muy grande

Límites del mercado de capitales, cadena de suministro y red eléctrica

  • El capital requerido supera los 368,000 millones de dólares del volumen total de capital riesgo global de 2024, y sigue siendo claro el límite de absorción incluso comparado con operaciones de capital privado y comercio global
  • Existen cuellos de botella simultáneos en transformadores, acero eléctrico, infraestructura de alta tensión, refrigeración, reservas del sistema eléctrico y mano de obra calificada, lo que hace inevitables conflictos de cronograma
  • Esta ola de anuncios parece tener un fuerte carácter de narrativa para impulsar acciones y acuerdos, y concluye que la ejecutabilidad es baja

Conclusión

  • Por las restricciones reales de tiempo, financiamiento, recursos, regulación y electricidad, alcanzar los cronogramas anunciados para 2026 es extremadamente difícil
  • En términos de absorción del mercado mundial de capital, levantar 400 mil millones de dólares en los próximos 12 meses también tiene un límite importante, y existe riesgo de erosión de confianza si no se cumple
  • El mensaje central es que hay una desalineación entre compromisos de capacidad sobredimensionados, demanda real, fuerza de producto y flujo de caja, y que sin re-racionalizar planes, ordenar la gobernanza y rediseñar la estructura de financiamiento, el camino no parece sostenible

1 comentarios

 
GN⁺ 2025-10-19
Comentarios de Hacker News
  • Incluso si se considera impresionante la tasa de crecimiento de OpenAI, existe la postura de que sumar 100 millones de usuarios en dos meses no significa que toda la humanidad vaya a usar siempre este servicio. Por otro lado, también se puede argumentar que, con una velocidad de crecimiento así de rápida, existe el potencial de que toda la humanidad lo use de forma constante. Aun así, hay que cuidarse de asumir un crecimiento geométrico infinito, porque la curva de crecimiento podría tomar una forma de S

    • Que haya aumentado 100 millones de usuarios en dos meses no es prueba de que toda la humanidad lo necesite siempre. Popularidad y utilidad son cosas distintas. Serían más convincentes los datos sobre cómo el aumento en el uso de LLM impacta indicadores como la productividad. De hecho, algunos estudios incluso muestran una caída en la productividad de profesionales. Ver estudio relacionado

    • Apenas recientemente empecé a usar ChatGPT de manera casual, como sustituto de búsqueda y para cosas menores. La búsqueda tradicional está tan mal hoy en día que se siente como una pelea entre un boxeador en estado dudoso y un campeón de 70 años. Si algún día esto corre en mi laptop, de verdad podría convertirse en una herramienta muy útil

    • El cuello de botella de OpenAI primero pasó de las GPU a la energía. El siguiente cuello de botella son los “humanos biológicos”. Incluso hay bromas de que probablemente OpenAI encontrará una forma de crear más humanidad para mantener su tasa de crecimiento

    • A largo plazo, si una IA razonablemente útil se integra en una amplia gama de productos como navegadores, sistemas operativos, smartphones y procesadores de texto, el mercado de IA independiente para el público general podría reducirse muchísimo. Seguiría habiendo demanda para herramientas especializadas, investigación de frontera y herramientas de programación, pero dudo que con eso se pueda construir una empresa valuada en billones

    • En realidad, solo alrededor del 5% paga $20 y se suscribe. Como con VR o AR, si es gratis la gente lo usa de vez en cuando, pero no lo necesita tanto como para pagar directamente. Creo que los LLM ya se convirtieron en un commodity

  • El contenido del artículo fue interesante, pero en realidad la mayor amenaza para OpenAI o Anthropic son los modelos de código abierto. Modelos como deepseek y llama 3 están alcanzándolos rápidamente, así que si puedo obtener casi la misma funcionalidad por mucho menos dinero, o gratis en mi propia GPU, queda la duda de cuál sería el valor diferencial de OpenAI. Personalmente sí pago una suscripción de OpenAI, pero la verdad es más por conveniencia, y me resulta bastante útil para verificación matemática y cosas así. Considerando el precio, sigo dudando que realmente pueda convertirse en un servicio indispensable para empresas. Claro, OpenAI reúne a la mejor gente y recibe inversión, así que podría estar equivocado

    • Se dice que el código abierto como deepseek y llama 3 los está alcanzando rápido, pero entrenar modelos grandes cuesta cantidades enormes, y lo que hoy se libera como open source en realidad existe porque empresas con fines de lucro aceptan pérdidas para sostener el ecosistema abierto. Me pregunto qué pasaría si esas empresas deciden “patear la escalera” en busca de rentabilidad

    • El punto que el autor quiere plantear es que hay que mirar las cifras reales con realismo. También toma bastante tiempo conseguir a la gente que construya y opere centros de datos. La afirmación es que el calendario presentado en el artículo es irrealizable

    • Se está metiendo mucho dinero en poco tiempo, pero queda la duda de de dónde viene realmente la demanda y cuánto aporta a los ingresos un modelo de autoservicio tipo “correr llama directamente en mi GPU”. Algo no termina de cuadrar

    • Para correr deepseek, kimi o glm rápido en mi propia GPU, necesitaría al menos más de $50,000 solo en hardware. Y para acercarme al rendimiento de OpenAI o Anthropic, se necesitarían cientos de GB de VRAM rápida

    • La mayoría usa OpenAI porque no domina mucho la tecnología. En la vida real casi nadie usa bloqueadores de anuncios. OpenAI ya quedó instalado en la mente del público. Si hubiera empujado anuncios como Google, habría consolidado una posición todavía más fuerte, pero elegir la economía de burbuja y el fraude de inversión fue un error de cálculo

  • Todos tienen que calmarse. Altman se encargará de todo. En 47 días saldrá un producto llamado ChatGPT 6 Recurd que sorprenderá a todos: en vez de un modelo mejor, reutilizará modelos viejos y comprará automáticamente 10 planes de ChatGPT 6 para que funcione mucho mejor. Luego lo irá actualizando más rápido, con mejoras repetidas del 1% en rendimiento. Es fácil subestimar el crecimiento hiperexponencial. A inicios de 2026 venderá billones de licencias sin límite en el número de clientes humanos. Altman ya tiene planeadas una moneda dedicada para todo esto, un sistema automático de préstamos e incluso futuros de cómputo. Es un mundo completamente nuevo. Un nuevo mundo llamado “Alt/World!”

  • Me pregunto por qué los centros de datos se miden en unidades de “gigavatios”. ¿Por qué no se miden por rendimiento de cómputo real, como flops? La verdad, hasta yo pienso que podría construir un centro de datos de “1 GW” con un solo CPU 6502 y un montón de resistencias

    • La razón es que la capacidad eléctrica y la refrigeración son las mayores restricciones al construir un centro de datos. El rendimiento de cómputo cambia mucho con el tiempo, y en la práctica, con chips de última generación como los GB200, 1 GW equivale a unos 5 exaflops de capacidad de cómputo, dependiendo de la precisión y otros factores

    • Yo también, con experiencia reciente aunque a pequeña escala en operación de hardware y centros de datos, me di cuenta de que no solo las GPU consumen mucha energía y refrigeración, sino también switches, firewalls, almacenamiento y demás. Una vez que se supera cierto tamaño, la restricción clave ya no es el cómputo máximo, los Hz o los GB, sino cuánta energía puedes meter y cuánto calor puedes sacar hacia afuera. Por ejemplo, hay proyectos en puertos donde se consume excedente de energía solar con grandes resistencias. El problema es conectarse de forma segura a una red de alta tensión y evacuar el calor rápidamente

    • Como la unidad de rendimiento de cómputo cambia según el hardware y la carga de trabajo, una medición universal es prácticamente imposible. La capacidad de energía puede verse como una aproximación a la máxima capacidad de cómputo posible en ese momento. También cubre variables como región y tipo de refrigeración

    • Haciendo cuentas rápidas, con 1 GW se podrían hacer funcionar alrededor de 1,430 millones de chips 6502

    • La razón de que la unidad real sea la “potencia” es que ese es el denominador final de todos los costos: eficiencia de cómputo, inversión en equipo, escalabilidad, etc.

  • Quiero enfatizar que, más que el capital inicial para construir centros de datos, el verdadero cuello de botella de la industria son los proveedores de electricidad. La red eléctrica de Norteamérica ahora mismo está muy limitada. Hace falta investigar a fondo cuánta energía excedente puede usar realmente un centro de datos a gran escala y cuándo será posible ampliar esa capacidad. Construir plantas eléctricas es un negocio extremadamente lento. Da la impresión de que la mayoría de los planes de inversión en centros de datos asumen que la capacidad eléctrica aparecerá “por arte de magia” o que no existe competencia por ella

    • Cuesta entender por qué no se discute mucho más este punto
  • La afirmación de que “OpenAI va a gastar $400 mil millones en el próximo año” tiene un problema. En realidad, OpenAI no hace esa inversión directamente; empresas como Oracle construyen los centros de datos y OpenAI paga renta. Como son contratos de arrendamiento, no se arranca poniendo todo el costo de construcción por adelantado. Por ejemplo, OpenAI empezaría a pagar rentas anuales de alrededor de $30 mil millones desde 2027/2028, incrementándose gradualmente durante cinco años. NVIDIA y AMD también recuperan su inversión según hitos o adopción de chips, y más bien son los proveedores quienes están “apostando” al crecimiento de OpenAI al extenderle crédito. Puede ser una estructura muy inusual e inestable, pero decir que “necesita tener $400 mil millones en efectivo ya mismo” es una lógica equivocada. La verdadera cuestión es si los ingresos de OpenAI pueden crecer hasta por lo menos $60~70 mil millones para 2028~2029. La tesis no se sostiene; el verdadero riesgo está más bien en el cronograma de ejecución y el avance del crecimiento de ingresos. Enlaces de referencia: CNBC - Centro de datos de OpenAI, w.media - Contrato de arrendamiento con Oracle, CNBC - Colaboración con Nvidia, TechCrunch - Suministro de chips AMD

    • Ed Zitron, como analista, hace muchas afirmaciones equivocadas y errores de hecho. También publicó sobre su insistencia en que el “costo de inferencia” está subiendo Texto relacionado

    • El WAU (usuarios activos semanales) de OpenAI está creciendo a un ritmo anualizado de aproximadamente 122.8%, aunque bajó desde 461.8% hace 10 meses. Si el crecimiento se estabiliza, podría alcanzar como máximo $104 mil millones en ingresos anuales y 6.4 mil millones de WAU para finales de 2028. No se puede garantizar la cifra, pero Oracle y Nvidia, de algún modo, tienen que sostener su propia valuación bursátil sobre esa premisa. En la práctica, como la desaceleración del crecimiento es de alrededor del 20% cada dos meses, sería difícil esperar más de 1.2 mil millones de WAU para estas fechas el próximo año, y 1.4 mil millones al año siguiente. Sigue siendo una cifra baja frente a Google o Facebook

    • Dado que OpenAI está “aguantando” mediante arrendamientos, en la práctica el riesgo se va trasladando cada vez más a inversionistas de menor prioridad o al público, como afiliados a fondos de pensiones Ver Turtles all the way down

  • Viendo Sora 2 y la controversia sobre animación, confirmé que una temporada promedio de anime para TV o una película puede producirse por entre $10 y $20 millones. No sé cuánto costó realmente desarrollar Sora 2, pero si estamos hablando de cientos de miles de millones o billones, con eso podrían hacerse miles de obras animadas. Aunque está algo alejado de los LLM, al final incluso si la IA reemplaza a trabajadores especializados, queda la duda de si el beneficio frente a la inversión será realmente razonable

    • De hecho, parece que el costo de desarrollo de Sora 2 sería mucho menor, no de decenas de miles de millones

    • Dudo que con Sora 2 se pueda producir de verdad un “show”. Siempre oigo hablar de video corto; para crear una serie formal todavía parece faltar un salto técnico importante

    • Con herramientas como Sora o Google Flow, probablemente en el futuro incluso aficionados podrán producir contenido de calidad profesional a bajo costo. Hacer miles de animaciones no está fuera de lo posible

    • Creo que una inversión tan gigantesca solo tendría sentido si se compensa con algo más que simplemente el ROI de un chatbot

  • Me pregunto qué tan rápido una cantidad tan grande de dinero podría invertirse realmente en plantas de energía, centros de datos, diseño y fabricación de silicio, y si la industria de infraestructura también pasará por una gran corrección tras una burbuja acelerada, o si de verdad viene una transformación del tamaño de una revolución industrial. También hay una propuesta para cofundar una startup de infraestructura de sistemas embebidos de alta seguridad

    • Creo que, salvo el reciclaje de oro, no existe nada verdaderamente “sostenible” en la industria tecnológica
  • Existe la pregunta de por qué Anthropic no tendría una necesidad de capital similar

    • Anthropic es más conservadora al revelar costos. Ed Zitron actualmente está rastreando de cerca sus costos en GCP

    • Como se trata de una discusión sobre construir “AGI”, es algo distinto del servicio actual de Anthropic. Además, tampoco hay garantía de que la inteligencia aumente indefinidamente en función del cómputo

    • En realidad, parece que Anthropic también necesitaría una inversión similar. Solo que el autor parece centrarse en OpenAI

    • Si la tendencia de crecimiento continúa, Anthropic también terminará necesitando una inversión a gran escala

    • Parece que Anthropic usa TPU de forma más agresiva cuando hay overflow. La reciente caída en el rendimiento de Claude se debió a bugs relacionados con TPU y diferencias de implementación, y eso permitió estimar en cierta medida cómo operan su mezcla Nvidia/TPU. Al parecer, todavía no hay señales de que OpenAI haya distribuido cargas hacia infraestructura de Google

  • También me gustaría preguntar cómo podría cambiar el modelo capex de los centros de datos si la meta fuera 100% de utilización y la eficiencia del capex importara más que el node uptime (disponibilidad). Creo que, dependiendo de cómo Nvidia ajuste sus márgenes y demás, todavía hay espacio para que los costos bajen a uno o dos dígitos. Si OpenAI construyera centros de datos menos confiables de lo habitual en ubicaciones baratas, me parece que habría algo de viabilidad. Aun así, es muy probable que OpenAI termine invirtiendo más de $40 mil millones en centros de datos para el próximo año. Los centros de datos tradicionales son muy sensibles a la disponibilidad, pero a esta escala creo que a OpenAI no le importará tanto el uptime de los racks o de toda la instalación

    • Quienes han hecho cálculos directos con números reales siguen queriendo confiabilidad de nivel Tier IV. Nunca he visto un caso en que un centro de datos de minería cripto tipo “Tier 0” (confiabilidad mínima y costo mínimo) haya sido reconvertido de verdad para uso de IA