5 puntos por GN⁺ 2025-07-19 | 2 comentarios | Compartir por WhatsApp
  • El gasto de capital en centros de datos de IA ha llegado a representar una proporción sin precedentes dentro de la economía de Estados Unidos y la economía global
  • Se estima que la inversión estadounidense en centros de datos vinculados a IA en 2025 equivale a alrededor del 2% del PIB, con una contribución al crecimiento del PIB de 0.7%
  • Esta enorme cantidad de inversión se está concentrando en la IA, saliendo de sectores como la manufactura, la infraestructura y otras inversiones de venture capital
  • Este fenómeno se está expandiendo a una velocidad comparable al boom de inversión en ferrocarriles e infraestructura de telecomunicaciones, y ya superó el anterior pico de inversión en infraestructura de telecomunicaciones
  • Como resultado, la inversión en centros de datos de IA está amortiguando la desaceleración económica, pero al mismo tiempo está provocando agotamiento de capital en otras industrias, grandes reestructuraciones y reducción del empleo

Updates & Erasures

  • Mientras continúa la controversia por la remodelación del edificio de la Reserva Federal en EE. UU., siguen las críticas al gasto público
  • En artículos recientes, funcionarios del gobierno han expresado descontento por la remodelación del edificio del banco central
  • Entre el liderazgo del presidente de la Fed, Powell, y la remodelación del edificio, se vive una situación marcada por la sátira y el descontento

Honey, AI Capex Ate the Economy

Estado del gasto de capital en centros de datos de IA

  • La escala de la inversión en centros de datos de IA es tan grande que incluso Xi Jinping, de China, advirtió a los gobiernos locales que tuvieran cuidado con invertir en IA, cómputo y nuevas energías
  • Solo en China se han creado más de 250 nuevos centros de datos, y a nivel global se está extendiendo el furor por invertir en infraestructura de IA
  • En el caso de EE. UU., si se estima con base en los ingresos de Nvidia por centros de datos, el capex de IA en 2025 alcanzaría el 2% del PIB estadounidense, y su contribución al crecimiento del PIB sería de 0.7%

Revisión del piso mínimo del tamaño de la inversión en IA

  • Se estima que el PIB de EE. UU. en 2025 será de alrededor de $25T
  • Ingresos anuales de Nvidia provenientes de centros de datos: aproximadamente $156.4B, de los cuales 99% está relacionado con IA
  • Participación estimada de Nvidia dentro del gasto total de capital en centros de datos: 25~35%
  • Aplicando un multiplicador económico de 1.5 a 2 veces, se calcula que el capex anual total de centros de datos se amplía a aprox. $520B
  • Antes de 2022, el capex de IA era menos de 0.1% del PIB, pero en tres años creció más de 10 veces
  • Incluso comparado con inversiones históricas de gran escala como las de ferrocarriles y telecomunicaciones, su tamaño sigue creciendo fuertemente
  • En particular, ya superó el pico de inversión en telecomunicaciones de la burbuja puntocom y sigue en ascenso
  • El monto invertido en centros de datos equivale a 20% del nivel del auge ferroviario del siglo XIX, pero se disparó en un periodo mucho más corto

De dónde viene el gasto de capital en IA

  • Las fuentes de financiamiento de la inversión en centros de datos e infraestructura de IA son las siguientes
    • Flujo de caja interno (grandes empresas tecnológicas como Microsoft, Google, Amazon y Meta)
    • Emisión de deuda (bonos, entre otros, con una participación en aumento)
    • Acciones y ofertas adicionales
    • Venture capital / private equity (startups de infraestructura de IA como CoreWeave y Lambda)
    • SPV, arrendamiento y financiamiento alternativo respaldado por activos (como en el caso de Meta)
    • Compromisos de consumo de nube (principalmente de empresas hyperscaler)
  • La inversión centrada en IA está reduciendo la entrada de capital hacia otras industrias
    • El capital de riesgo casi no está fluyendo hacia áreas fuera de la IA
    • Los VC no enfocados en ciencias de la vida hoy operan prácticamente solo alrededor de inversiones en IA
    • Las empresas de cloud computing están concentrando su inversión en IDC centrados en GPU en lugar de su negocio tradicional de nube
    • En empresas como Amazon y Microsoft ya se observan ajustes de personal y reestructuraciones por el aumento del costo de los centros de datos de IA
    • Los múltiplos precio/utilidad de las empresas públicas relacionadas con IA se dispararon, mientras que compañías de otros sectores tienen más dificultades para conseguir capital
    • A medida que el dinero se concentra en empresas de IA, la manufactura y otra infraestructura enfrentan escasez relativa de financiamiento

Cambios en la estructura económica por la inversión en IA

  • El boom de inversión en IA está acelerando la contracción de inversión en otros sectores de infraestructura y la reconfiguración de la estructura industrial
  • Esto se parece al precedente en que la burbuja de infraestructura de telecomunicaciones llevó a una fuerte caída de la inversión en otras infraestructuras
  • También existe preocupación de que esta fiebre de inversión en centros de datos de IA provoque efectos negativos como agotamiento del capital en áreas no relacionadas con IA, grandes reestructuraciones y reducción de empleos

Resolviendo el misterio económico

  • En la economía reciente, pese a factores de incertidumbre como conflictos comerciales, incertidumbre política y riesgo burocrático, resultaba un misterio que las preocupaciones por una recesión fueran relativamente bajas
  • La razón es que está en marcha una enorme “política de estímulo privada” impulsada por la inversión del sector privado en centros de datos de IA
  • Ya superó el pico de inversión en telecomunicaciones de la burbuja puntocom y se está acercando al pico de inversión ferroviaria del siglo XIX
  • Al hacer el cálculo inverso, es muy probable que sin la inversión en centros de datos de IA, el crecimiento del PIB de EE. UU. en el primer trimestre de 2025 habría caído hasta –2.1%
  • En consecuencia, el capex de IA está compensando la caída económica y, en la práctica, también está ocultando la fragilidad económica real

Conclusión

  • La explosión de inversión en IA y centros de datos en tan poco tiempo es un momento excepcional incluso en la historia económica
  • Más allá de estar a favor o en contra del crecimiento explosivo de la IA y los centros de datos, la velocidad del avance tecnológico y de la inyección de capital es anormalmente alta
  • Los centros de datos de IA no son infraestructura que se use durante décadas o siglos como los ferrocarriles o las carreteras, sino que se caracterizan por una vida útil corta y una depreciación acelerada
  • A medida que se realizan inversiones masivas ajustadas a ciclos tecnológicos de corto plazo, también avanzan al mismo tiempo la contracción de la inversión en otras industrias, los despidos masivos y la desaceleración del crecimiento en áreas no relacionadas con IA
  • Actualmente el capital se está reasignando rápidamente hacia TI desde el venture capital y los presupuestos internos, y como resultado algunos sectores están sufriendo agotamiento de inversión a largo plazo y grandes reestructuraciones
  • Aun antes de que la IA se utilice de forma amplia y real, ya se está dando una situación irónica en la que la reducción del empleo y la reconfiguración industrial avanzan rápidamente

Rougher Notes

2 comentarios

 
youknowone 2025-07-20

Viendo el resumen de los comentarios, parece que ahora piensan que 2% no es tanto, pero si sigue creciendo a este ritmo, creo que hay que pensar en cuánto será en 2026. Si la AGI no es posible en el muy corto plazo, hasta 2026, o quizá incluso 2027, de verdad parece que habrá mucha confusión por el choque entre optimistas y pesimistas.

 
GN⁺ 2025-07-19
Opiniones de Hacker News
  • El comentario de Xi Jinping parece provenir de un artículo exagerado del FT. El artículo original en chino tiene un tono mucho más moderado. La IA y los EV ni siquiera fueron temas centrales de la reunión o del informe; solo se mencionaron. La advertencia de Xi Jinping se refiere a la “competencia por logros políticos” que vuelve a observarse en las industrias de IA y EV. Cuando el gobierno central fija objetivos de política industrial, los gobiernos locales se coluden con empresas para impulsar “proyectos” de escaparate, y al final la mayoría termina construyendo fábricas para luego detenerse ahí. Esto desde hace tiempo ha sido un gran dolor de cabeza para el gobierno central, y la advertencia principal de Xi Jinping es que el mismo problema existe también en los sectores de IA y EV. Artículo original: https://paper.people.com.cn/rmrb/pc/content/202507/17/content_30088242.html

  • 1.2% del PIB no se siente tan extremo. Comparado con otros proyectos transformadores, es bastante menor. Por ejemplo, el programa Apolo llegó a 4%, los ferrocarriles a 6%, los estímulos económicos por COVID a 27%, y el gasto militar de la Segunda Guerra Mundial llegó hasta 40%

    • Mi reacción inicial también fue parecida. 1.2% no parece tanto. Suena más bien a que los medios están sacando un titular alarmista. Si se midiera en términos de consumo de agua y energía, quizá sí sería más preocupante. Un poco fuera de tema, pero cerca del 9% del PIB de EE. UU. proviene de servicios financieros, y personalmente me parece una cifra más alarmante

    • Como porcentaje del PIB total parece poco, pero eso es porque nuestro PIB en sí es enorme. Ese 1.2% equivale a todo el PIB de Noruega. Puede parecer poca cosa, pero incluso comparado con el gasto militar de este año, que es 3.4%, sigue siendo una cantidad muy grande

    • Creo que ahora no hay que fijarse solo en la cifra, sino en la trayectoria del cambio, la tendencia y el significado de su pendiente. El capital se está moviendo de muchos sectores hacia la IA, y también cambia la duración útil del valor de los activos (los ferrocarriles duran décadas o siglos; la IA, quién sabe si años). También está el punto del autor de que “sin la inversión en centros de datos para IA, la caída del PIB del primer trimestre habría llegado a –2.1%”

    • ¡Apenas van 2 años desde que esto empezó! 1.2% ya es una cifra enorme. El simple hecho de que esta comparación sea posible ya sorprende

    • El punto central del artículo es preguntarse si una inversión tan gigantesca puede justificarse. Responder solo con que es cierto porcentaje del PIB y por tanto está bien es esquivar lo esencial

  • Los ferrocarriles distribuyeron el capital por toda la sociedad y llevaron a un aumento de riqueza de largo plazo para muchos. Pero la IA puede concentrar el capital en los ya ricos y terminar reduciendo la riqueza de largo plazo de la clase media. Si baja el poder adquisitivo de la población, eso no ayuda al crecimiento económico, por eso hay dudas sobre este boom de inversión en IA

    • Tengo mis dudas con eso de que “los ferrocarriles distribuyeron el capital”. En su época, los ferrocarriles también eran grandes monopolios tipo Vanderbilt. La fijación de precios y el alza de tarifas de transporte para los agricultores eran tan comunes que hizo falta regulación antimonopolio. Sí es cierto que “la IA profundiza la concentración de capital”, pero en realidad eso aplica a cualquier industria intensiva en capital. No hay razón para señalar solo a la IA, y la IA tampoco es un monopolio natural; la competencia es posible
  • Ojalá que cuando se termine el bandwagon de la IA y los centros de datos, esa capacidad pueda usarse para algo más útil, como el descubrimiento de fármacos

    • En el boom puntocom de los 90 también se tendieron redes de fibra óptica de manera descontrolada y excesiva, y después del estallido de la burbuja esos activos se liquidaron a precio de remate, lo que permitió a nuevas startups construir redes nacionales a bajo costo. Estos “restos” de las burbujas han servido como combustible barato para la siguiente generación de empresas. Los centros de datos probablemente seguirán ese mismo patrón: aunque hoy haya sobrecapacidad, después seguro se usarán para nuevos fines

    • Sobre el tema de la moda, no entiendo por qué tanta gente está tan obsesionada con que la IA reemplace al 100% a los desarrolladores y otros empleos de oficina. Me parece una fantasía extrañamente apocalíptica y nihilista, y yo no compro ese hype. Me pregunto si solo soy yo

    • A escala global, ni siquiera se han adoptado por completo las capacidades actuales de los LLM. Incluso si desde aquí ya no pudiéramos construir algo más inteligente, todavía es probable que en los próximos años siga avanzando la automatización de tareas repetitivas en muchas industrias

    • Me sorprende que aquí siga apareciendo gente que minimiza la IA y su avance imparable. Basta con ver ejemplos que ya ocurrieron —ajedrez, Go, juegos de estrategia, predicción de estructuras proteicas— para que quede claro que casi cualquier problema que pueda formalizarse y verificarse eventualmente puede ser resuelto por la IA. También creo que la ASI especializada por dominio es solo cuestión de tiempo. Recomiendo muchísimo que todos lean The Bitter Lesson y Verifier’s Law

    • No podemos. Al final van a despedir ingenieros para ajustarse a los objetivos y también eliminarán la capacidad sobrante

  • Ojalá se obligara a que todos los nuevos centros de datos se construyan con energía renovable. En proporción al costo total, el costo adicional tampoco debería ser tan grande, y empresas así de grandes lo pueden absorber sin problema. Tal vez una política así incluso impulse avances en la próxima generación de reactores modulares pequeños

    • Muchas grandes empresas ya están interesadas en tecnología nuclear pequeña como fuente de energía para centros de datos. El mayor problema es la ubicación de la red eléctrica capaz de operar estas instalaciones. Basta hablar media hora con alguien del sector para ver que el tema central termina siendo la energía nuclear. Sería un gran efecto positivo que esta moda, tan cargada de capital, durara lo suficiente como para que realmente se instalen reactores de uranio en el terreno. Ojalá deje infraestructura física sobrante, como los ferrocarriles o la fibra óptica. Los antiguos ‘robber barons’ al menos dejaron infraestructura física; los booms recientes casi no dejan nada

    • En Europa ya se exige que todos los nuevos centros de datos usen energía renovable. En EE. UU., Google, Microsoft, Meta y AWS ya firman más contratos de compra de energía renovable que nadie en el mundo. Solo Microsoft ha invertido unos 20 mil millones de dólares. En EE. UU. el cuello de botella no es la falta de demanda, sino los permisos, la zonificación y otros problemas para instalar renovables. Solo la capacidad esperando conectarse a la red suma 100GW, equivalente al 10% de toda la electricidad de EE. UU. Pedir más no resuelve por sí mismo un cuello de botella que tarda años. Como excepción, lugares como xAI/Grok operan clústeres grandes 100% con gas. En sitios deficientes tanto en energía como en refrigeración, están usando 35 turbinas de gas en remolque y unas 50 camionetas refrigeradas. Me parece bajísimo en eficiencia y demasiado dañino para el ambiente; sistemas así deberían prohibirse

    • En EE. UU., incluso sin obligación, el mercado ya está cambiando. El 94% de la nueva capacidad de generación en 2024 y el 93% en 2025 es renovable o almacenamiento en baterías, y la tendencia parece seguir igual. Las nuevas plantas fósiles apenas añaden algo de gas natural, y aun eso muchas veces consiste en convertir viejas plantas de carbón. Los planes de expansión de gas natural nuevo están en su nivel más bajo desde el boom del shale. Las renovables ya ganaron

    • Los centros de datos prefieren energía firme para evitar que activos costosos se queden ociosos. La solar y la eólica son intermitentes. Planear nuevas plantas de gas toma años. Y asegurar más de 12 horas de baterías frente al sol invernal tampoco es gratis del todo

    • Ojalá el hardware también fuera renovable

  • No tiene sentido afirmar por un lado que gran parte del dinero gastado en CapEx de IA salió de otras industrias y las está “matando de hambre” al reducir su inversión, y al mismo tiempo decir que ese dinero multiplica el PIB total. Si el dinero simplemente se movió de lugar, entonces el efecto multiplicador tendría que aplicarse igual a ambos lados

    • Por eso el título del artículo es “Honey, AI Capex is Eating the Economy.”
  • El argumento principal del texto parte de asumir que la economía es de suma cero. Pero claramente no lo es. Que la inversión se esté concentrando en IA no significa que ese mismo capital pueda redirigirse de inmediato y con la misma eficacia a otros sectores. Lo que hoy se invierte en IA es porque se espera que genere ese valor. Personalmente creo que ese valor será mucho mayor que el de los ferrocarriles. Puede haber una burbuja o sobreinversión en cierto hardware o en algunas regiones, pero todavía no parece la situación de “al borde del colapso” que describe el autor

    • Como la economía siempre actúa de forma compleja, tampoco hay que verla con un optimismo excesivo. Como señala el autor, sí es cierto que en el corto plazo la inversión en IA reduce la inversión en otros sectores

    • Incluso si una inversión masiva termina siendo excesiva, es muy probable que acabe siendo útil a largo plazo. Se sobreconstruyó infraestructura de internet inicialmente por pets.com, pero después aparecieron aplicaciones realmente decisivas como Amazon, YouTube y Zoom, y aquella inversión equivocada terminó siendo base de la sociedad futura. La inversión actual en IA puede dejar una huella histórica parecida. Sobre esto, recomiendo Technological Revolutions and Financial Capital de Carlota Perez

  • Así que el avance del transistor, es decir, Moore’s Law, probablemente seguirá al menos otros 10 años. Fue lo que impulsó la era de crecimiento de los smartphones (2008~2023), y la inversión actual ya está yendo hacia 2 a 3 años de producción de semiconductores (2nm, A20, luego A18/14). Para 2030~2032 todavía habría suficiente impulso como para llegar a A10 y A8. Incluso si el ritmo se desacelera, habría margen para estirarlo hasta 2035. Aun si en 2035 se llegara a A5, eso sería un aumento de densidad de alrededor de 12x. Incluyendo mejoras en packaging, chiplets e interconexión, tal vez estaríamos hablando de 30~40x. Eso todavía queda muy lejos del aumento de cómputo de 1000~10000x que muchas empresas de IA están pidiendo. El ancho de banda de memoria también tendría que escalar al mismo nivel

  • El aspecto paradójico de la automatización es que, en lugar de solo expandir la economía, elimina ciertas industrias. Puede haber más bienes, pero si esos bienes ya no elevan el estatus social, entonces su valor incluso baja. Antes un clavo podía representar 0.5% de la economía; hoy ni el dueño de una fábrica de clavos tiene margen alto ni estatus social. Si el desarrollo frontend de software se automatiza, también perderá peso tanto económico como social. El estatus social, al final, sí es de suma cero, así que la gente termina gastando en buscarlo en otra parte

    • He escuchado eso de que “la automatización elimina partes de la economía”, pero yo más bien creo que las nuevas capacidades estimulan demanda latente y agrandan el pastel total. Los deseos no tienen límite, e incluso la automatización con IA tendrá dificultades para ponerse al día con esa demanda
  • Estoy esperando el momento en que aparezca una manera de optimizar cómputo reconfigurable con FPGA para bajar en más de 90% el costo de cómputo de los LLM

    • Ojalá hubiera más investigación de ciencias de la computación teórica en esta área. Si reconocemos que todas las técnicas de machine learning son, al final, técnicas de “compresión”, entonces debería ser posible estimar el tamaño mínimo de un LLM con solo conocer cuánta información puede codificarse en un tamaño dado de parámetros, la relación entre pérdida de información y desempeño, y la cantidad de información del dataset original. Creo que los LLM son demasiado grandes, pero al mismo tiempo los datos que intentan contener son tan vastos que en realidad quizá sí necesitan ser más grandes de lo que parece. Si la compresión con pérdida es el principio de “generalización” de los LLM, entonces hace falta una capacidad muy grande para conservar la información de forma útil

    • Me da curiosidad de dónde vendría esa mejora de rendimiento. El hardware ya está bastante cerca de ejecutar GEMM (multiplicación general de matrices) tan rápido como es posible

    • Entre amigos del mundo de chips hay muchas quejas de que Qualcomm tiene muchas patentes relacionadas con FPGA, y que eso está bloqueando innovaciones realmente significativas en ese campo

    • No hace falta esperar. Los FPGA no están diseñados para esta arquitectura. Son eficientes en consumo eléctrico, pero por la sobrecarga de placement y routing, la memoria limitada (la mayoría de los FPGA disponibles en el mercado no tienen HBM), los clocks lentos y una experiencia de desarrollo incómoda, es difícil que se conviertan en la solución principal

    • Los ASIC ya existen. Por ejemplo, basta ver Google TPU para tener una idea de los costos. El propio HBM (memoria de alto ancho de banda) también es muy caro