- El gasto de capital en centros de datos de IA ha llegado a representar una proporción sin precedentes dentro de la economía de Estados Unidos y la economía global
- Se estima que la inversión estadounidense en centros de datos vinculados a IA en 2025 equivale a alrededor del 2% del PIB, con una contribución al crecimiento del PIB de 0.7%
- Esta enorme cantidad de inversión se está concentrando en la IA, saliendo de sectores como la manufactura, la infraestructura y otras inversiones de venture capital
- Este fenómeno se está expandiendo a una velocidad comparable al boom de inversión en ferrocarriles e infraestructura de telecomunicaciones, y ya superó el anterior pico de inversión en infraestructura de telecomunicaciones
- Como resultado, la inversión en centros de datos de IA está amortiguando la desaceleración económica, pero al mismo tiempo está provocando agotamiento de capital en otras industrias, grandes reestructuraciones y reducción del empleo
Updates & Erasures
- Mientras continúa la controversia por la remodelación del edificio de la Reserva Federal en EE. UU., siguen las críticas al gasto público
- En artículos recientes, funcionarios del gobierno han expresado descontento por la remodelación del edificio del banco central
- Entre el liderazgo del presidente de la Fed, Powell, y la remodelación del edificio, se vive una situación marcada por la sátira y el descontento
Honey, AI Capex Ate the Economy
Estado del gasto de capital en centros de datos de IA
- La escala de la inversión en centros de datos de IA es tan grande que incluso Xi Jinping, de China, advirtió a los gobiernos locales que tuvieran cuidado con invertir en IA, cómputo y nuevas energías
- Solo en China se han creado más de 250 nuevos centros de datos, y a nivel global se está extendiendo el furor por invertir en infraestructura de IA
- En el caso de EE. UU., si se estima con base en los ingresos de Nvidia por centros de datos, el capex de IA en 2025 alcanzaría el 2% del PIB estadounidense, y su contribución al crecimiento del PIB sería de 0.7%
Revisión del piso mínimo del tamaño de la inversión en IA
- Se estima que el PIB de EE. UU. en 2025 será de alrededor de $25T
- Ingresos anuales de Nvidia provenientes de centros de datos: aproximadamente $156.4B, de los cuales 99% está relacionado con IA
- Participación estimada de Nvidia dentro del gasto total de capital en centros de datos: 25~35%
- Aplicando un multiplicador económico de 1.5 a 2 veces, se calcula que el capex anual total de centros de datos se amplía a aprox. $520B
- Antes de 2022, el capex de IA era menos de 0.1% del PIB, pero en tres años creció más de 10 veces
- Incluso comparado con inversiones históricas de gran escala como las de ferrocarriles y telecomunicaciones, su tamaño sigue creciendo fuertemente
- En particular, ya superó el pico de inversión en telecomunicaciones de la burbuja puntocom y sigue en ascenso
- El monto invertido en centros de datos equivale a 20% del nivel del auge ferroviario del siglo XIX, pero se disparó en un periodo mucho más corto
De dónde viene el gasto de capital en IA
- Las fuentes de financiamiento de la inversión en centros de datos e infraestructura de IA son las siguientes
- Flujo de caja interno (grandes empresas tecnológicas como Microsoft, Google, Amazon y Meta)
- Emisión de deuda (bonos, entre otros, con una participación en aumento)
- Acciones y ofertas adicionales
- Venture capital / private equity (startups de infraestructura de IA como CoreWeave y Lambda)
- SPV, arrendamiento y financiamiento alternativo respaldado por activos (como en el caso de Meta)
- Compromisos de consumo de nube (principalmente de empresas hyperscaler)
- La inversión centrada en IA está reduciendo la entrada de capital hacia otras industrias
- El capital de riesgo casi no está fluyendo hacia áreas fuera de la IA
- Los VC no enfocados en ciencias de la vida hoy operan prácticamente solo alrededor de inversiones en IA
- Las empresas de cloud computing están concentrando su inversión en IDC centrados en GPU en lugar de su negocio tradicional de nube
- En empresas como Amazon y Microsoft ya se observan ajustes de personal y reestructuraciones por el aumento del costo de los centros de datos de IA
- Los múltiplos precio/utilidad de las empresas públicas relacionadas con IA se dispararon, mientras que compañías de otros sectores tienen más dificultades para conseguir capital
- A medida que el dinero se concentra en empresas de IA, la manufactura y otra infraestructura enfrentan escasez relativa de financiamiento
Cambios en la estructura económica por la inversión en IA
- El boom de inversión en IA está acelerando la contracción de inversión en otros sectores de infraestructura y la reconfiguración de la estructura industrial
- Esto se parece al precedente en que la burbuja de infraestructura de telecomunicaciones llevó a una fuerte caída de la inversión en otras infraestructuras
- También existe preocupación de que esta fiebre de inversión en centros de datos de IA provoque efectos negativos como agotamiento del capital en áreas no relacionadas con IA, grandes reestructuraciones y reducción de empleos
Resolviendo el misterio económico
- En la economía reciente, pese a factores de incertidumbre como conflictos comerciales, incertidumbre política y riesgo burocrático, resultaba un misterio que las preocupaciones por una recesión fueran relativamente bajas
- La razón es que está en marcha una enorme “política de estímulo privada” impulsada por la inversión del sector privado en centros de datos de IA
- Ya superó el pico de inversión en telecomunicaciones de la burbuja puntocom y se está acercando al pico de inversión ferroviaria del siglo XIX
- Al hacer el cálculo inverso, es muy probable que sin la inversión en centros de datos de IA, el crecimiento del PIB de EE. UU. en el primer trimestre de 2025 habría caído hasta –2.1%
- En consecuencia, el capex de IA está compensando la caída económica y, en la práctica, también está ocultando la fragilidad económica real
Conclusión
- La explosión de inversión en IA y centros de datos en tan poco tiempo es un momento excepcional incluso en la historia económica
- Más allá de estar a favor o en contra del crecimiento explosivo de la IA y los centros de datos, la velocidad del avance tecnológico y de la inyección de capital es anormalmente alta
- Los centros de datos de IA no son infraestructura que se use durante décadas o siglos como los ferrocarriles o las carreteras, sino que se caracterizan por una vida útil corta y una depreciación acelerada
- A medida que se realizan inversiones masivas ajustadas a ciclos tecnológicos de corto plazo, también avanzan al mismo tiempo la contracción de la inversión en otras industrias, los despidos masivos y la desaceleración del crecimiento en áreas no relacionadas con IA
- Actualmente el capital se está reasignando rápidamente hacia TI desde el venture capital y los presupuestos internos, y como resultado algunos sectores están sufriendo agotamiento de inversión a largo plazo y grandes reestructuraciones
- Aun antes de que la IA se utilice de forma amplia y real, ya se está dando una situación irónica en la que la reducción del empleo y la reconfiguración industrial avanzan rápidamente
Rougher Notes
2 comentarios
Viendo el resumen de los comentarios, parece que ahora piensan que 2% no es tanto, pero si sigue creciendo a este ritmo, creo que hay que pensar en cuánto será en 2026. Si la AGI no es posible en el muy corto plazo, hasta 2026, o quizá incluso 2027, de verdad parece que habrá mucha confusión por el choque entre optimistas y pesimistas.
Opiniones de Hacker News
El comentario de Xi Jinping parece provenir de un artículo exagerado del FT. El artículo original en chino tiene un tono mucho más moderado. La IA y los EV ni siquiera fueron temas centrales de la reunión o del informe; solo se mencionaron. La advertencia de Xi Jinping se refiere a la “competencia por logros políticos” que vuelve a observarse en las industrias de IA y EV. Cuando el gobierno central fija objetivos de política industrial, los gobiernos locales se coluden con empresas para impulsar “proyectos” de escaparate, y al final la mayoría termina construyendo fábricas para luego detenerse ahí. Esto desde hace tiempo ha sido un gran dolor de cabeza para el gobierno central, y la advertencia principal de Xi Jinping es que el mismo problema existe también en los sectores de IA y EV. Artículo original: https://paper.people.com.cn/rmrb/pc/content/202507/17/content_30088242.html
1.2% del PIB no se siente tan extremo. Comparado con otros proyectos transformadores, es bastante menor. Por ejemplo, el programa Apolo llegó a 4%, los ferrocarriles a 6%, los estímulos económicos por COVID a 27%, y el gasto militar de la Segunda Guerra Mundial llegó hasta 40%
Mi reacción inicial también fue parecida. 1.2% no parece tanto. Suena más bien a que los medios están sacando un titular alarmista. Si se midiera en términos de consumo de agua y energía, quizá sí sería más preocupante. Un poco fuera de tema, pero cerca del 9% del PIB de EE. UU. proviene de servicios financieros, y personalmente me parece una cifra más alarmante
Como porcentaje del PIB total parece poco, pero eso es porque nuestro PIB en sí es enorme. Ese 1.2% equivale a todo el PIB de Noruega. Puede parecer poca cosa, pero incluso comparado con el gasto militar de este año, que es 3.4%, sigue siendo una cantidad muy grande
Creo que ahora no hay que fijarse solo en la cifra, sino en la trayectoria del cambio, la tendencia y el significado de su pendiente. El capital se está moviendo de muchos sectores hacia la IA, y también cambia la duración útil del valor de los activos (los ferrocarriles duran décadas o siglos; la IA, quién sabe si años). También está el punto del autor de que “sin la inversión en centros de datos para IA, la caída del PIB del primer trimestre habría llegado a –2.1%”
¡Apenas van 2 años desde que esto empezó! 1.2% ya es una cifra enorme. El simple hecho de que esta comparación sea posible ya sorprende
El punto central del artículo es preguntarse si una inversión tan gigantesca puede justificarse. Responder solo con que es cierto porcentaje del PIB y por tanto está bien es esquivar lo esencial
Los ferrocarriles distribuyeron el capital por toda la sociedad y llevaron a un aumento de riqueza de largo plazo para muchos. Pero la IA puede concentrar el capital en los ya ricos y terminar reduciendo la riqueza de largo plazo de la clase media. Si baja el poder adquisitivo de la población, eso no ayuda al crecimiento económico, por eso hay dudas sobre este boom de inversión en IA
Ojalá que cuando se termine el bandwagon de la IA y los centros de datos, esa capacidad pueda usarse para algo más útil, como el descubrimiento de fármacos
En el boom puntocom de los 90 también se tendieron redes de fibra óptica de manera descontrolada y excesiva, y después del estallido de la burbuja esos activos se liquidaron a precio de remate, lo que permitió a nuevas startups construir redes nacionales a bajo costo. Estos “restos” de las burbujas han servido como combustible barato para la siguiente generación de empresas. Los centros de datos probablemente seguirán ese mismo patrón: aunque hoy haya sobrecapacidad, después seguro se usarán para nuevos fines
Sobre el tema de la moda, no entiendo por qué tanta gente está tan obsesionada con que la IA reemplace al 100% a los desarrolladores y otros empleos de oficina. Me parece una fantasía extrañamente apocalíptica y nihilista, y yo no compro ese hype. Me pregunto si solo soy yo
A escala global, ni siquiera se han adoptado por completo las capacidades actuales de los LLM. Incluso si desde aquí ya no pudiéramos construir algo más inteligente, todavía es probable que en los próximos años siga avanzando la automatización de tareas repetitivas en muchas industrias
Me sorprende que aquí siga apareciendo gente que minimiza la IA y su avance imparable. Basta con ver ejemplos que ya ocurrieron —ajedrez, Go, juegos de estrategia, predicción de estructuras proteicas— para que quede claro que casi cualquier problema que pueda formalizarse y verificarse eventualmente puede ser resuelto por la IA. También creo que la ASI especializada por dominio es solo cuestión de tiempo. Recomiendo muchísimo que todos lean The Bitter Lesson y Verifier’s Law
No podemos. Al final van a despedir ingenieros para ajustarse a los objetivos y también eliminarán la capacidad sobrante
Ojalá se obligara a que todos los nuevos centros de datos se construyan con energía renovable. En proporción al costo total, el costo adicional tampoco debería ser tan grande, y empresas así de grandes lo pueden absorber sin problema. Tal vez una política así incluso impulse avances en la próxima generación de reactores modulares pequeños
Muchas grandes empresas ya están interesadas en tecnología nuclear pequeña como fuente de energía para centros de datos. El mayor problema es la ubicación de la red eléctrica capaz de operar estas instalaciones. Basta hablar media hora con alguien del sector para ver que el tema central termina siendo la energía nuclear. Sería un gran efecto positivo que esta moda, tan cargada de capital, durara lo suficiente como para que realmente se instalen reactores de uranio en el terreno. Ojalá deje infraestructura física sobrante, como los ferrocarriles o la fibra óptica. Los antiguos ‘robber barons’ al menos dejaron infraestructura física; los booms recientes casi no dejan nada
En Europa ya se exige que todos los nuevos centros de datos usen energía renovable. En EE. UU., Google, Microsoft, Meta y AWS ya firman más contratos de compra de energía renovable que nadie en el mundo. Solo Microsoft ha invertido unos 20 mil millones de dólares. En EE. UU. el cuello de botella no es la falta de demanda, sino los permisos, la zonificación y otros problemas para instalar renovables. Solo la capacidad esperando conectarse a la red suma 100GW, equivalente al 10% de toda la electricidad de EE. UU. Pedir más no resuelve por sí mismo un cuello de botella que tarda años. Como excepción, lugares como xAI/Grok operan clústeres grandes 100% con gas. En sitios deficientes tanto en energía como en refrigeración, están usando 35 turbinas de gas en remolque y unas 50 camionetas refrigeradas. Me parece bajísimo en eficiencia y demasiado dañino para el ambiente; sistemas así deberían prohibirse
En EE. UU., incluso sin obligación, el mercado ya está cambiando. El 94% de la nueva capacidad de generación en 2024 y el 93% en 2025 es renovable o almacenamiento en baterías, y la tendencia parece seguir igual. Las nuevas plantas fósiles apenas añaden algo de gas natural, y aun eso muchas veces consiste en convertir viejas plantas de carbón. Los planes de expansión de gas natural nuevo están en su nivel más bajo desde el boom del shale. Las renovables ya ganaron
Los centros de datos prefieren energía firme para evitar que activos costosos se queden ociosos. La solar y la eólica son intermitentes. Planear nuevas plantas de gas toma años. Y asegurar más de 12 horas de baterías frente al sol invernal tampoco es gratis del todo
Ojalá el hardware también fuera renovable
No tiene sentido afirmar por un lado que gran parte del dinero gastado en CapEx de IA salió de otras industrias y las está “matando de hambre” al reducir su inversión, y al mismo tiempo decir que ese dinero multiplica el PIB total. Si el dinero simplemente se movió de lugar, entonces el efecto multiplicador tendría que aplicarse igual a ambos lados
El argumento principal del texto parte de asumir que la economía es de suma cero. Pero claramente no lo es. Que la inversión se esté concentrando en IA no significa que ese mismo capital pueda redirigirse de inmediato y con la misma eficacia a otros sectores. Lo que hoy se invierte en IA es porque se espera que genere ese valor. Personalmente creo que ese valor será mucho mayor que el de los ferrocarriles. Puede haber una burbuja o sobreinversión en cierto hardware o en algunas regiones, pero todavía no parece la situación de “al borde del colapso” que describe el autor
Como la economía siempre actúa de forma compleja, tampoco hay que verla con un optimismo excesivo. Como señala el autor, sí es cierto que en el corto plazo la inversión en IA reduce la inversión en otros sectores
Incluso si una inversión masiva termina siendo excesiva, es muy probable que acabe siendo útil a largo plazo. Se sobreconstruyó infraestructura de internet inicialmente por pets.com, pero después aparecieron aplicaciones realmente decisivas como Amazon, YouTube y Zoom, y aquella inversión equivocada terminó siendo base de la sociedad futura. La inversión actual en IA puede dejar una huella histórica parecida. Sobre esto, recomiendo Technological Revolutions and Financial Capital de Carlota Perez
Así que el avance del transistor, es decir, Moore’s Law, probablemente seguirá al menos otros 10 años. Fue lo que impulsó la era de crecimiento de los smartphones (2008~2023), y la inversión actual ya está yendo hacia 2 a 3 años de producción de semiconductores (2nm, A20, luego A18/14). Para 2030~2032 todavía habría suficiente impulso como para llegar a A10 y A8. Incluso si el ritmo se desacelera, habría margen para estirarlo hasta 2035. Aun si en 2035 se llegara a A5, eso sería un aumento de densidad de alrededor de 12x. Incluyendo mejoras en packaging, chiplets e interconexión, tal vez estaríamos hablando de 30~40x. Eso todavía queda muy lejos del aumento de cómputo de 1000~10000x que muchas empresas de IA están pidiendo. El ancho de banda de memoria también tendría que escalar al mismo nivel
El aspecto paradójico de la automatización es que, en lugar de solo expandir la economía, elimina ciertas industrias. Puede haber más bienes, pero si esos bienes ya no elevan el estatus social, entonces su valor incluso baja. Antes un clavo podía representar 0.5% de la economía; hoy ni el dueño de una fábrica de clavos tiene margen alto ni estatus social. Si el desarrollo frontend de software se automatiza, también perderá peso tanto económico como social. El estatus social, al final, sí es de suma cero, así que la gente termina gastando en buscarlo en otra parte
Estoy esperando el momento en que aparezca una manera de optimizar cómputo reconfigurable con FPGA para bajar en más de 90% el costo de cómputo de los LLM
Ojalá hubiera más investigación de ciencias de la computación teórica en esta área. Si reconocemos que todas las técnicas de machine learning son, al final, técnicas de “compresión”, entonces debería ser posible estimar el tamaño mínimo de un LLM con solo conocer cuánta información puede codificarse en un tamaño dado de parámetros, la relación entre pérdida de información y desempeño, y la cantidad de información del dataset original. Creo que los LLM son demasiado grandes, pero al mismo tiempo los datos que intentan contener son tan vastos que en realidad quizá sí necesitan ser más grandes de lo que parece. Si la compresión con pérdida es el principio de “generalización” de los LLM, entonces hace falta una capacidad muy grande para conservar la información de forma útil
Me da curiosidad de dónde vendría esa mejora de rendimiento. El hardware ya está bastante cerca de ejecutar GEMM (multiplicación general de matrices) tan rápido como es posible
Entre amigos del mundo de chips hay muchas quejas de que Qualcomm tiene muchas patentes relacionadas con FPGA, y que eso está bloqueando innovaciones realmente significativas en ese campo
No hace falta esperar. Los FPGA no están diseñados para esta arquitectura. Son eficientes en consumo eléctrico, pero por la sobrecarga de placement y routing, la memoria limitada (la mayoría de los FPGA disponibles en el mercado no tienen HBM), los clocks lentos y una experiencia de desarrollo incómoda, es difícil que se conviertan en la solución principal
Los ASIC ya existen. Por ejemplo, basta ver Google TPU para tener una idea de los costos. El propio HBM (memoria de alto ancho de banda) también es muy caro