La inversión en centros de datos supera en 6 años el gasto de los megaproyectos históricos de EE. UU.
(twitter.com/finmoorhouse)- El capex de centros de datos alcanzó cerca de 930 mil millones de dólares en solo 6 años, superando el gasto acumulado de los principales megaproyectos de Estados Unidos
- Es un gráfico comparado en dólares de 2024, ajustados por inflación
- Los megaproyectos tradicionales, como el Interstate Highway System (620 mil millones de dólares, 37 años) y los US Railroads (550 mil millones de dólares, 71 años), implicaron inversiones de largo plazo
- El capex de centros de datos muestra tanto el punto de referencia de 2025 como la proyección de 2026, y su ritmo de crecimiento es abrumadoramente superior al de los otros proyectos
- Las cifras se basan en estimaciones de la proporción destinada a centros de datos por parte de los big-5 hyperscalers de EE. UU.: Amazon, Microsoft, Alphabet, Meta y Oracle
Resumen del gráfico
- El título es "Data centers vs. megaprojects", y el subtítulo indica costo acumulado ajustado por inflación (en miles de millones de dólares)
- El eje X muestra los años transcurridos desde el inicio del programa, y el eje Y el gasto acumulado (hasta una escala máxima de 1 billón de dólares)
- Todos los montos están convertidos a dólares de 2024
Trayectoria del capex de centros de datos
- El capex de centros de datos alcanza un gasto acumulado de aproximadamente 930 mil millones de dólares en 6 años, marcado como punto de referencia de 2025
- La proyección de 2026 aparece con línea punteada y apunta a superar 1 billón de dólares
- En el gráfico muestra una pendiente mucho más pronunciada que la de cualquier otro megaproyecto
Megaproyectos comparados
- Interstate Highway System: 620 mil millones de dólares, 37 años
- US Railroads: 550 mil millones de dólares, 71 años
- F-35 Program: 400 mil millones de dólares, 25 años (acumulado hasta la fecha)
- Apollo Program: 257 mil millones de dólares, 14 años
- Marshall Plan: 170 mil millones de dólares, 4 años
- International Space Station: 150 mil millones de dólares, 27 años
- Manhattan Project: 36 mil millones de dólares, 5 años
Método de cálculo de los datos
- El capex de IA se calcula a partir de la proporción estimada destinada a centros de datos dentro del capex global reportado por los big-5 hyperscalers de EE. UU. (Amazon, Microsoft, Alphabet, Meta y Oracle)
- Se utilizaron datos de Epoch AI + Platformonomics
- Se asume que la proporción destinada a centros de datos aumenta de alrededor de 55% en 2020 a alrededor de 80% en 2026
- No se incluyen los hyperscalers chinos
Fuente
- Company reports, Epoch AI, FHWA, NASA, CRS, GAO, Brookings
1 comentarios
Comentarios de Hacker News
Viéndolo como porcentaje del PIB de EE. UU., como en este tuit, hasta se siente menos sensacionalista.
Aun así, al mismo tiempo se ve con más claridad qué tan gran acontecimiento industrial fueron los ferrocarriles.
Los megaproyectos de antes tenían períodos de depreciación de varias décadas, y muchos ferrocarriles, puentes, túneles y presas de hace 50 a 100 años o más siguen en uso solo con mantenimiento.
En cambio, los GPU, que son un componente grande del gasto actual, se deprecian en apenas 6 años, así que si lo ves en términos de depreciación anual, el gasto actual parece mucho más abrumador.
En esa época ni siquiera existía el concepto de PIB, así que todas estas cifras son cálculos hechos a posteriori y tienen un margen de error grande.
Da la impresión de que ahora hay un incentivo por fijar el dato de los ferrocarriles lo más alto posible para crear un precedente para la inversión en centros de datos.
Me pregunto si comparar como porcentaje del PIB inversiones de una época en la que las estimaciones del PIB moderno eran imprecisas realmente refleja bien el tamaño total de la economía.
Era una época sin finanzas modernas, sin impuesto sobre la renta y con la mayor parte del trabajo concentrado en la agricultura; me pregunto si de verdad está en la misma escala cuánto sentía la persona promedio el costo de los ferrocarriles entonces, frente a cuánto siente hoy el contribuyente el costo del F-35.
El hecho de que el gasto de EE. UU. en un solo modelo, el F-35, sea comparable al Marshall Plan para reconstruir Europa después de la Segunda Guerra Mundial, al Interstate Highway System o incluso a toda la inversión en centros de datos deja muy claras las prioridades.
Apollo, Manhattan Project, la ISS, el Interstate Highway System, el Marshall Plan y el F-35 que aparecen en la lista tienen algo en común: fueron proyectos en los que el gobierno invirtió pensando en el bien público de largo plazo, sin exigir ROI de corto plazo.
Los retornos de esos proyectos llegaban en un horizonte larguísimo, en forma de crecimiento económico, seguridad o avance científico décadas después.
En particular, el Marshall Plan prácticamente dio dividendos durante 77 años, y hasta diría que parte de su efecto fue evitar que la buena voluntad europea hacia EE. UU. terminara reemplazada por un proteccionismo fuerte contra Big Tech.
En cambio, los ferrocarriles y los AI datacenters son inversión privada, así que no tienen margen para esperar 50 años.
Así como el estallido de la burbuja ferroviaria provocó un gran shock económico, preocupa que si OpenAI no logra mostrar una recuperación parcial de la inversión este año o alrededor de este año, pueda venir un shock parecido junto con un fracaso del IPO.
Siento que aquí hay una desalineación en las categorías de comparación.
Solo los ferrocarriles fueron un caso de construcción de infraestructura desplegada masivamente por empresas privadas, así que son lo más parecido.
Para comparar con el boom de centros de datos, me parecerían más adecuados casos como construcción de fábricas, expansión de la red eléctrica, agua corriente, gasoductos o la electrificación de principios del siglo XX.
Sin un punto de comparación equivalente, no se puede saber si ese número realmente representa algo excepcional.
Es como si yo dijera, basándome solo en el numerador, que consumo una cantidad enorme de algo por minuto; con contexto, a nadie le parecería impresionante.
El Panic of 1873 llegó a llamarse en su momento la Great Depression, y el pánico de 1893 también surgió de sobreinversión y del estallido de una burbuja.
La IA actual se parece bastante en el sentido de que va muy por delante en inversión masiva sin que se vea una rentabilidad clara.
Todo el mundo sabe que el software y el hardware se vuelven más eficientes y más baratos con el tiempo, así que su valor cae, y además sigue siendo débil la evidencia de que el beneficio para los usuarios justifique esta escala de inversión.
Si la burbuja revienta, probablemente el golpe inicial no lo reciban los bancos sino el capital privado, y si se derrumban los balances de los hyperscalers y de los tech unicorns, el efecto en cadena podría alcanzar a las empresas construidas sobre ellos, al empleo y hasta a los activos de los hogares vía el S&P 500.
Como difícilmente habrá rescates al estilo de una crisis bancaria, el shock podría ser incluso más inmediato.
Fue un proyecto completado cediendo a las compañías ferroviarias casi el 10% del territorio nacional.
Ya debería estar llegando el momento de mostrar con números cuánto valor económico están generando realmente los LLM.
Después de varios años, uno pensaría que ya se pueden citar resultados concretos.
El equipo que se mete dentro de un centro de datos es un activo cuyo valor desaparece antes de que pasen 10 años, y muchas veces la energía se resuelve con turbinas de gas, así que tampoco deja mucho la impresión de infraestructura duradera.
Creo que la ansiedad alrededor de la IA desaparecería rápido si resolviera aunque sea un gran problema importante de la humanidad.
Por ejemplo, si lograra un avance del nivel de nanotubos de carbono para un ascensor espacial o de fusión nuclear sostenible, el ambiente cambiaría por completo.
Probablemente las máquinas de escribir o las laptops también recibieron escepticismo parecido al principio.
Creo que aquí falta un caso grande en la comparación: las armas nucleares.
EE. UU. gastó alrededor de 12 billones de dólares en armas nucleares entre 1940 y 1996, medidos en dólares de 2024, y la mayor parte se concentró en los años 50 y comienzos de los 60.
Los datos pueden verse en Wikipedia: Nuclear weapons of the United States.
Cada vez me pregunto más si este gasto y este riesgo realmente son apropiados.
Me preocupa que colectivamente estemos deslumbrados por la IA y tomando decisiones no muy sanas.
En YouTube, Ed Zitron suele hablar de este tema con bastante enojo, y la verdad resulta bastante entretenido y también convincente.
Los grandes laboratorios de IA todavía están compitiendo por asegurar compute, y además parece que también les cuesta seguirle el ritmo a la demanda de inferencia.
Yo lo veo no como un solo proyecto, sino como un fenómeno de volcar dinero en compute a lo largo de cientos o miles de proyectos similares.
Como analogía, se parece más a sumar todo el gasto en infraestructura de transporte durante cierto período que a hablar de un proyecto puntual.
Sobre este tema, la presentación de Justin Lebar me pareció excelente.
Es alguien que construyó el compilador xla y también trabajó en OpenAI; esta charla ayuda bastante a entender el contexto.
En relación con esta discusión, también me parece útil otro gráfico.
Me pregunto si esto es realmente gasto efectivamente ejecutado.
No me queda claro si son montos de dinero que de verdad ya cambiaron de manos, o cifras comprometidas en anuncios del tipo “vamos a invertir $X”.
También me pregunto cómo se reflejan cosas como contratos con inversión circular.
Me pregunto qué incluye exactamente el datacenter capex del que hablan aquí.
En particular, quiero saber si incluye también instalaciones de generación eléctrica.
Incluso si el auge de la IA no termina dando los resultados esperados, si al menos se construyó mucha infraestructura de generación como solar, eólica o hidroeléctrica, eso por sí solo podría ser una gran ganancia.
Incluso con baterías no alcanza, y la percepción es que muchas instalaciones nuevas dependen de gas y carbón, como en el caso de xAI de Musk.