1 puntos por GN⁺ 2025-10-06 | 1 comentarios | Compartir por WhatsApp
  • A medida que Nvidia inyecta grandes sumas de capital en infraestructura de IA, incluyendo OpenAI, mediante una inversión de 110 mil millones de dólares, se discute la preocupación de que se esté reproduciendo una estructura de financiamiento circular de proveedores similar a la de la antigua burbuja de las telecomunicaciones
  • Las principales empresas de TI de Estados Unidos anticipan en 2025 inversiones en infraestructura de IA por 300 a 400 mil millones de dólares, ampliando riesgos como la concentración de la base de clientes y los préstamos respaldados por GPU
  • A diferencia del historial de fracaso de Lucent, Nvidia muestra diferencias en flujo de caja, solvencia de clientes y transparencia contable, aunque la concentración de clientes, la valuación de activos y la expansión del desarrollo de silicio personalizado son señaladas como factores de cautela
  • Se enfatiza la necesidad de monitoreo continuo para determinar si la demanda de IA es una demanda real, si se convertirá en infraestructura esencial como la nube, o si no es más que una burbuja
  • Para evitar que se repitan riesgos estructurales del pasado, como el caso de fraude contable de Lucent, se deben observar cuidadosamente el valor de los activos, el modelo de ingresos y los riesgos de deuda tanto de Nvidia como de toda la industria

Introducción: Nvidia, las finanzas circulares y la sombra de la burbuja de las telecomunicaciones

  • En 2025, Nvidia ejecutó financiamiento de proveedor por 110 mil millones de dólares para OpenAI y otros, resaltando similitudes con la estructura de financiamiento circular masivo de la época de la burbuja telecom
  • Las grandes tecnológicas de Estados Unidos anticipan en 2025 la mayor inversión histórica en infraestructura de IA, por 300 a 400 mil millones de dólares
  • Esta escala de inversión supera ampliamente los récords previos de inversión corporativa en infraestructura en un solo año

La estrategia de Lucent: lecciones del financiamiento circular

  • En 1999, Lucent Technologies registró ingresos por 37.9 mil millones de dólares en el pico de la burbuja puntocom; apenas tres años después, cayeron 69%, y finalmente terminó fusionándose con Alcatel
  • En ese momento, proveedores de equipos como Lucent, Nortel y Cisco ofrecían miles de millones de dólares en financiamiento de proveedor, proporcionando directamente a sus clientes de telecomunicaciones el dinero para comprar equipos
    • Lucent: 8.1 mil millones de dólares, Nortel: 3.1 mil millones, Cisco: compromisos de préstamo por 2.4 mil millones
  • Al principio, esta estrategia parecía beneficiar a todos, pero cuando llegaron la saturación del mercado y la restricción de liquidez, la mayoría de los clientes (47 CLEC) quebraron, entre 33% y 80% de los préstamos no se recuperaron, y el valor de los equipos se desplomó, con consecuencias devastadoras
  • De hecho, las redes de fibra óptica solo utilizaban 0.002% de la capacidad disponible, lo que muestra que la inversión se adelantó enormemente a la demanda

La estrategia de Nvidia: una estructura diferenciada de financiamiento circular

  • En 2025, Nvidia opera con 110 mil millones de dólares en inversión directa (85% de sus ingresos) y más de 15 mil millones de dólares en préstamos respaldados por GPU
    • Con OpenAI existe un compromiso específico de 100 mil millones de dólares (10 tramos escalonados, pagos por etapa de construcción de infraestructura, con entrada efectiva de fondos en forma de leasing de GPU)
    • También hay inversiones adicionales y expansión del mercado de préstamos respaldados por GPU en CoreWeave, NVentures y otros
  • En el caso de CoreWeave, la empresa mantiene 10.45 mil millones de dólares en deuda respaldada por GPU, y otras startups de IA como Lambda Labs también utilizan GPU como colateral para préstamos

Comparación numérica: Lucent vs Nvidia (convertido a dólares de 2024)

Concepto Lucent (2000) Nvidia (2025)
Financiamiento de proveedor 15 mil millones de dólares 110 mil millones de dólares
Flujo de caja operativo 300 millones de dólares 15.4 mil millones de dólares (2T fiscal 2022)
Ingresos anuales 34 mil millones de dólares 130 mil millones de dólares
Participación de los 2 principales clientes 23% 39%

Puntos de atención: una nueva estructura de riesgo de mercado

1. Una base de clientes de IA más concentrada

  • Entre 46% de los ingresos de Nvidia se concentra en sus 2 a 4 principales clientes, un nivel de concentración de clientes que duplica al de Lucent
  • El 88% de sus ingresos proviene del datacenter

2. Expansión de los préstamos respaldados por GPU y riesgo de inventario

  • Las GPU se usan para préstamos de alta tasa, al 14%, bajo la premisa de conservar valor durante 4 a 6 años (unas 3 veces el nivel de los bonos corporativos con grado de inversión)
  • Sin embargo, la vida útil real de uso de las GPU parece ser de solo 1 a 3 años (según casos reales de Google y Meta)
Empresa Antes de 2020 2020 2022~2023 2024~2025 Cambio
Amazon 3 años 4→5 años 5 años 6→5 años Primera reducción
Microsoft ~3 años 4 años 6 años 6 años +100%
Google ~3 años 4 años 6 años 6 años +100%
Meta ~3 años 4 años 4.5→5 años 5.5 años +83%
CoreWeave N/A N/A 4→6 años 6 años +50% (GPU)
Nebius N/A N/A 4 años 4 años Estándar de la industria
  • En 2025, Amazon volvió a reducir el período de depreciación de 6 a 5 años, convirtiéndose en la primera en aplicar una práctica contable más conservadora

  • Mientras que los CPU suelen usarse entre 5 y 10 años, en los datacenters de IA es frecuente que las GPU se reemplacen en 1 a 3 años de uso real (Meta Llama 3: tasa anual de fallas de 9% → proyección de 27% de fallas en 3 años)

  • Grandes instituciones financieras (por ejemplo, Cerno Capital) cuestionan si “estas políticas de depreciación reflejan realmente la realidad económica y tecnológica, o si son una estrategia de ‘ilusión’ para desviar la atención de los inversionistas”

4. Uso de estructuras SPV (vehículos de propósito especial)

  • Las grandes tecnológicas financian la construcción de datacenters mediante joint ventures SPV con fondos de capital privado como Apollo

    • El SPV posee y opera el datacenter, y lo entrega a la empresa tecnológica mediante leasing de largo plazo
    • La deuda del SPV no se refleja contablemente en los estados financieros de la tecnológica (tratamiento off-balance sheet)
    • Generalmente, la estructura es de 10% a 30% de capital y 70% a 90% de deuda
  • Estas estructuras ofrecen ventajas como proteger el perfil crediticio y reducir la exposición visible del capex, pero si cae la utilización del datacenter o el valor de las GPU, las pérdidas golpearían primero a quienes tienen la capa delgada de capital (equity holders)

  • Actualmente, los activos de datacenters representan entre 10% y 22% de los portafolios de los principales REIT, tras subir rápidamente desde ‘0’ hace dos años

5. Riesgo competitivo del silicio personalizado

  • Se expande el uso de aceleradores de IA desarrollados internamente, como Microsoft (Maia), Google (TPU), Amazon (Trainium/Inferentia) y Meta (MTIA)
  • Si los clientes migran a chips propios, podría caer el valor de los activos respaldados por GPU de empresas como CoreWeave, amplificando el riesgo del financiamiento de proveedor de Nvidia

Diferencias esenciales entre Nvidia y Lucent

  • Lucent: manipulación de ingresos por 1.1 mil millones de dólares, 10 ejecutivos acusados por la SEC, desconfianza en los estados financieros
  • Nvidia: auditoría de PwC, mejora de calificación, más de 50 mil millones de dólares en generación de caja anual, 46.2 mil millones de dólares en caja neta (2024)
  • Lucent: la mayoría de sus clientes usaban apalancamiento excesivo y operaban con pérdidas
  • Nvidia: sus principales clientes (Microsoft, Alphabet, Amazon, Meta, etc.) mostraban en 2024 sólidos fundamentos, con 451 mil millones de dólares de flujo de caja operativo conjunto
  • En Lucent, la utilización frente a la inversión era de apenas 0.002%, mientras que en Nvidia sus principales clientes reportan escasez de infraestructura de IA (restricciones de oferta)

Indicadores a seguir

  1. Tasa de utilización de GPU: se necesita monitoreo constante para verificar si las GPU en los datacenters están siendo usadas lo suficiente o si solo se están acumulando como inventario
  2. Rentabilidad de OpenAI: hay que confirmar si la construcción masiva de infraestructura se traduce en ingresos suficientes
  3. Señales de deterioro de deuda: es necesario vigilar signos de impago en el mercado de préstamos respaldados por GPU, de 15 mil millones de dólares
  4. Tendencia en la gestión de AR (Accounts Receivable): aunque la proporción de AR ha mejorado (68%→30%), se debe prestar atención a un posible deterioro adicional
  5. Diversificación de clientes: seguir de cerca si Nvidia logra captar nuevas capas de clientes o si mantiene su dependencia de unos pocos grandes compradores
  6. Tema de silicio personalizado: si los hyperscalers migran a chips propios, aumentará el riesgo de exposición financiera de Nvidia
  7. Tendencia de consolidación de proveedores: tras probar muchas alternativas en el mercado, la demanda podría terminar concentrándose en unos pocos vendors
  • La tasa de uso real de IA en Estados Unidos subió de 20% en 2023 a 40% en 2025
  • Pero según investigaciones del MIT, 95% de los pilotos de adopción de IA no logra resultados financieros sustanciales, lo que también apunta a problemas de integración
  • Aun así, se observan señales positivas: los salarios de trabajadores de IA se duplicaron y la productividad de los usuarios mejoró hasta 40%
  • OpenAI reportó ingresos por 4.3 mil millones de dólares en la primera mitad de 2025 y pérdidas por 4.7 mil millones (la mitad en compensación accionaria), por lo que sigue operando con pérdidas
  • A diferencia del pasado, los grandes clientes actuales mantienen suficiente efectivo, gestión orientada al rendimiento y una demanda real de infraestructura

Conclusión: los riesgos estructurales del financiamiento circular y el mercado de IA en 2025

  • La estrategia de financiamiento de proveedor a gran escala de Nvidia aprovecha claramente el crecimiento y la demanda tecnológica, pero incorpora riesgos como la concentración de clientes, la volatilidad del valor de los activos y la adopción de silicio personalizado
  • Como mostró el caso de Lucent, si aparecen sobrevaloración de activos, deterioro de deuda y menor transparencia contable, el riesgo puede materializarse rápidamente, por lo que se requiere un monitoreo estricto de las métricas clave y de las tendencias del mercado

Apéndice: el fraude contable de Lucent y la crisis del financiamiento circular

  • Lucent fue investigada por la SEC por fraude contable en 2000 (manipulación de 1.15 mil millones de dólares en ingresos y 470 millones de dólares en utilidad antes de impuestos)
    • ‘Channel stuffing’: envío anticipado de productos no vendidos a distribuidores, registrados de inmediato como ventas
    • ‘Side agreement’: reconocimiento de ingresos tras otorgar por separado derechos de devolución y beneficios especiales, fuera del contrato de distribución
    • ‘Manipulación de provisiones’: reducción de volatilidad de resultados mediante constitución y liberación excesiva de reservas por pérdidas
  • Lucent recibió una multa de 250 millones de dólares y 10 ejecutivos fueron acusados
  • Un caso emblemático fue WinStar: tras otorgarle 2 mil millones de dólares de financiamiento, WinStar quebró y Lucent registró una pérdida de 700 millones de dólares
  • Con patrones como ese, entre 2001 y 2002 Lucent registró 3.5 mil millones de dólares en provisiones por incobrables, un caso típico en el que el riesgo real de deterioro se volvió evidente

1 comentarios

 
GN⁺ 2025-10-06
Opiniones en Hacker News
  • Trabajé en un pequeño ISP de barrio en los 90, y en ese entonces Lucent estaba a la vanguardia en equipos de internet; usábamos Portmaster 3 para manejar conexiones dial-up y también evaluamos las primeras tecnologías inalámbricas de Lucent
    Gracias a la Telecommunications Act de 1996, las telecos tuvieron que arrendar infraestructura a terceros, lo que redujo fuertemente el costo de alquiler de T1 para los ISP (un T1 bajó de 1800 dólares al mes en 1996 a 600 dólares en 1999); después las telecos demandaron a la FCC y en 2003 la ley quedó prácticamente anulada
    Explicación en Wikipedia sobre los operadores locales competitivos

    • Según la zona, había mucha diferencia de precios; en el pequeño ISP donde trabajaba, el T1 pasó de 1,500 dólares al mes a 500, y luego el loop T1 hasta el cliente costaba 100 dólares al mes, mientras que un anillo OC12 SONET para backhaul de toda la red al datacenter costaba miles de dólares
      La causa central de toda esta variación de precios fue la obligación, fijada por la ley de telecomunicaciones, de que los ILEC vendieran por separado elementos de su red
      Como la mayoría de los CLEC también terminaban usando la red física local del ILEC, el cambio estructural fue grande
      Curiosamente, a fines de los 90, cuando el dial-up todavía dominaba, la voz T1 PRI (250 dólares al mes) era más barata que un T1 de datos (500 dólares al mes), así que se aprovechaba mucho
      Incluso después de que la ley quedó debilitada, los ILEC siguieron vendiendo servicios mayoristas/desagregados, probablemente porque ya habían visto que era un negocio de alto margen

    • Trabajé en una startup durante el boom telecom
      En ese tiempo empresas como Cisco compraban startups que todavía ni tenían producto, el IPO era la única salida y los ingenieros quedaban atados a un lock-up de 6 meses
      Los afortunados lograron salir vía IPO o venta antes del desplome, y tras el estallido de la burbuja el financiamiento se secó y casi todas las startups murieron
      Después de varios años de recesión empezaron a surgir de nuevo nuevas empresas de TI

    • Suena interesante eso de que solo 4 años de regulación hayan cambiado el equilibrio de poder entre las grandes telecos y los pequeños ISP; me pregunto si realmente fue así
      La idea de que una regulación específica encendió el desarrollo de internet contradice la predicción habitual de que sin desregulación todo colapsa
      Es la primera vez que escucho que una ley aplicada tan poco tiempo haya bastado

    • Matar la competencia en telecom y permitir monopolios fue un gran problema del sistema judicial
      La ley era clara, pero los tribunales básicamente ignoraron al legislador con el argumento de que “tender fibra es caro”
      Sobre precios, aunque líneas como T1 u OCx siguieron usándose bastante, entre 1996 y 1999 apareció DSL y eso también empujó los precios hacia abajo

    • Los cambios legislativos quizá influyeron en el momento de la guerra de precios y de la burbuja telecom
      Pero la guerra de precios en sí era inevitable, y la burbuja también era muy probable
      La inversión en infraestructura telecom fue una reacción al alza desquiciada de la burbuja bursátil puntocom

  • Las redes de fibra usaban menos del 0.002% de su capacidad máxima y todavía tenían margen para subir su velocidad hasta 60,000 veces; simplemente era demasiado pronto
    No creo que con las GPU vaya a sobrar capacidad de esa manera
    Si se pueden usar para cosas como “piensa toda la noche sobre este codebase, encuentra una mejor forma de refactorizarlo y mañana proponla”, entonces se va a necesitar muchísimo más uso de GPU que ahora
    Si 1 minuto de GPU cuesta 0.1 dólares, dejarla corriendo toda la noche serían 48 dólares, y parece tener bastante valor (mejoras de código, diseño de autos, portadas de libros, planes de negocio, o lo que sea)

    • No creo que nunca sobren GPU, pero yo opino lo contrario: seguro van a sobrar
      Las empresas siguen comprando GPU asumiendo que la demanda es infinita conforme salen al mercado
      Mientras tanto está llegando la fatiga con los LLM, los modelos se hacen más pequeños y también mejora el hardware de consumo
      Al final va a haber muchas GPU ociosas

    • Decir que se necesitan GPU para mejorar código es pensar en pequeño
      Pronto la IA generativa se usará para crear cine en ultra alta resolución, incluso HDR y 120 fps
      Ese tipo de trabajo costará entre 100 y 1000 dólares por minuto y requerirá cantidades enormes de GPU
      El ejército de EE. UU. ya planea usar IA generativa para visualización de campo de batalla, y eso exige cómputo aún más denso que el video de alta resolución

    • Me parece interesante la idea de que la IA pueda “mejorar” un codebase
      En la práctica nunca he visto que realmente lo mejore, así que tendría que verlo para creerlo

    • Con mejoras en algoritmos y técnicas, incluso hardware viejo podría seguir siendo útil

    • La fantasía de “pon al modelo a pensar en el codebase toda la noche…” parte de una premisa equivocada
      Los LLM actuales no pueden resolver por sí solos problemas sustanciales de forma autónoma
      Mucha gente espera que algún día sí, pero yo creo que ya estamos viendo el límite de rendimiento de los LLM
      La burbuja actual de IA es el resultado de sobreinterpretar demasiado el inicio de la curva S tecnológica
      A día de hoy no alcanza

  • La historia de burbujas pasadas sirve un poco como referencia, pero no es tan significativa
    La burbuja puntocom, la burbuja ferroviaria, cada momento es distinto
    La esencia es la viabilidad del negocio y el ROI
    Aunque el flujo de capital sea sano, si el retorno económico no es históricamente extraordinario, al final el riesgo de colapso sigue ahí
    Todos están persiguiendo la gallina de los huevos de oro

    • Cuando Bezos habló de planes para construir en el espacio datacenters de más de 10 GW, me hizo pensar que tal vez esto no va tanto de ROI como de la estructura futura del poder: construir un mundo donde los ultrarricos ya no necesiten trabajo humano
      Comentario relacionado en HN
      Artículo sobre la mención de Bezos a datacenters espaciales

    • Si uno se obsesiona demasiado con mecanismos del pasado, termina limitando demasiado el espacio de posibilidades del futuro
      La burbuja puntocom fue solo uno de muchos “caminos posibles”
      Visto así, también podríamos pasar por alto la forma en que se materialice la próxima burbuja

    • Me preocupa que la diferencia contable entre Lucent y Nvidia, Microsoft, OpenAI o Google sea en realidad solo una evolución de “mentir más hábilmente y exagerar mejor que antes”
      Solo cuando estalla la burbuja salen a la luz los números reales

    • Esta vez también es diferente porque hay moneda fiat y respaldo estatal

  • Estuve en medio del colapso puntocom y telecom, y telecom fue mucho peor
    La fibra no se oxida, pero hubo una sobreinstalación brutal, y 10 años después, gracias a DWDM, de 8 hebras solo se usaban de verdad 2 (con muchísimas más longitudes de onda que antes)
    Me da curiosidad cuánto valdrán las GPU usadas dentro de 10 años y si podría aparecer para las GPU alguna “solución tipo DWDM” que absorba la sobreinversión
    Estamos viviendo una época increíblemente interesante

  • El mayor problema de Nvidia es que sus ingresos no son permanentes, pero el mercado los valora como si fueran recurrentes, cuando en realidad son inversiones de CAPEX que duran 1 o 2 años
    No parece posible que esta estructura siga así para siempre

    • La acción de NVDA tampoco está extremadamente cara; está apenas en 25 veces EPS
      Los ingresos crecen rápido y tenemos enfrente la transición tecnológica más importante de la historia
      El mercado ya está incorporando en parte una desaceleración del crecimiento en el precio

    • Empresas como Zoom o Peloton, muy favorecidas durante la pandemia, también fueron valoradas como si su futuro fuera a seguir igual para siempre
      El mercado siempre repite este patrón; hace poco pasó con impresión 3D y carne alternativa
      La inversión en OpenAI puede interpretarse como una cobertura ante una desaceleración del CAPEX

    • Cada vez que Nvidia anuncia algo, las tarjetas gráficas se agotan de inmediato
      Los márgenes son gigantescos, pero aun así no logran cubrir toda la demanda

    • Al final esto es simple lógica económica
      Basta con que la demanda falle una sola vez para que el mercado se inunde de GPU usadas y ya no haga falta comprar nuevas
      Cuando eso pase, a Nvidia le será imposible sostener el nivel actual de ingresos

    • TSLA es igual
      La bolsa es básicamente un banco para ricos, envuelto en préstamos y crédito
      En la práctica es una burbuja, pero es un terreno que solo les importa a los ricos
      Los comunes como nosotros solo somos hormigas

  • Cuando trabajaba en “la telecom de las telecom”, recién encendimos fibra oscura 15 años después (en 2015) gracias a la demanda de datos móviles
    La sobreinstalación había sido realmente gigantesca
    El cable de fibra siempre terminó siendo útil, pero dudo que las GPU tengan una vida útil tan larga
    Lo digo por experiencia personal

    • La fibra nueva no se volvió mucho más eficiente en energía
      Pero la eficiencia de la retroexcavadora que abre la zanja tampoco cambió en absoluto

    • Sobre la pregunta “¿estas tarjetas podrán usarse durante mucho tiempo?”, el ejemplo del artículo dice que por el estrés podrían durar solo 1 o 2 años

    • En 2005, las telecom eran una vaca lechera gracias a las tarifas de larga distancia, y si todavía usaban conmutadores mecánicos ya depreciados, imprimían dinero sin parar (la regulación garantizaba ingresos)
      Pero esa estructura tampoco duró tanto, y en muchas regiones trataron de expandirse hacia servicios administrados para buscar “ingresos no regulados” (por ejemplo, soluciones tipo DataDog)
      La naturaleza del negocio y el optimismo irracional pueden hundir a cualquier empresa en cualquier momento

    • El chip en sí quizá no tenga una vida larga, pero el I+D que lleva adentro sigue teniendo valor
      La cuestión es cuánto de ese valor se puede recuperar

    • Creo que los datacenters de alta densidad que se están construyendo para soportar a los hyperscalers son básicamente algo parecido a la sobreinstalación de fibra oscura
      Cuando encendieron esas fibras en 2015, seguro no usaron exactamente las mismas line cards compradas en 1998

  • En el fondo, el mayor tema es la incertidumbre sobre si se logrará AGI
    El 90% de la inversión actual de topline está apostada a que se alcance en 2 a 5 años
    Si no llega con suficiente rapidez, existe el riesgo de que el interés de los inversionistas se desplome
    Siguen sosteniendo el entusiasmo con mejoras en benchmarks, pero yo esperaría que en 6 a 12 meses hasta esos nuevos hitos se agoten
    La verdadera siguiente etapa sería mostrar resultados reales en desarrollo de software, investigación contra el cáncer, robótica, etc.
    No creo que con la estructura actual eso sea fácil

    • Creo que AGI todavía está lejos
      La mayor oportunidad está en áreas como derecho y medicina, donde la base de conocimiento es enorme y la gente invierte hasta posgrado para adquirirla
      La programación en particular va a aumentar mucho su uso de LLM
      El problema es que una vez se terminen las tareas atrasadas, como refactorizaciones pesadas de código viejo, generar código nuevo no podrá sostener jamás una burbuja de demanda de hardware como la actual

    • Los hyperscalers ni siquiera están usando la mitad de su flujo de caja operativo en inversión de IA (CAPEX)
      Si de verdad estuvieran apostando a alcanzar AGI, la escala sería mucho mayor

    • “Tu escepticismo actual podría ser tan infundado como el escepticismo de hace 5 años que decía que las máquinas pensantes eran imposibles; los LLM ya existen ahora”

    • No entiendo por qué la gente lo está votando negativamente
      Con solo hablar con investigadores de IA ya ves que tienen expectativas realistas
      Pero mientras más de negocios y menos de tecnología es alguien, más exageradas son sus expectativas
      Están recortando personal y ajustando presupuesto, planes y contrataciones con cálculos del tipo “ChatGPT por 20 dólares al mes va a hacer todo el trabajo”
      Cuando dentro de un año sea obvio que no funcionó tan bien, la actitud hacia la IA se va a dar vuelta de inmediato (enojo, evasión, desconfianza hacia nuevos productos, etc.)
      Si se acumulan los fracasos, se frenará el crecimiento, y entonces llegarán también el nerviosismo de los inversionistas, la caída de la acción y la compresión de valuaciones

  • Lo que no entiendo es el optimismo de que la demanda de GPU para “entrenamiento” vaya a seguir creciendo tan fuerte como ahora
    La demanda para inference sí la entiendo, pero ya hay muchos modelos gratuitos excelentes y además corren bien en hardware de consumo como el Apple M4 o los APU AMD Max
    En esta situación, me cuesta ver cuánta demanda adicional de inversión en GPU queda realmente por delante

    • Creo que Reinforcement Learning va a ser el nuevo campo de batalla de las GPU
      Por ejemplo: o1, o3, GPT-5, Sonnet 3.7, 4 y 4.5
      Cuando todos puedan hacer inference con B200, quizá los modelos vuelvan a crecer, pero por ahora donde más se siente el hambre de GPU es en el presupuesto de entrenamiento para RL

    • También está el argumento de que el objetivo final es una competencia infinita por correr más GPU y así acercarse un paso más a AGI

    • Supongo que las arquitecturas de Continuous Learning serán el próximo impulsor de demanda de GPU

    • En costo, inference al final será más barato si se hace sobre una base compartida en la nube
      Creo que la mayoría de los casos B2B se moverán a datacenters como AWS
      En casos especiales (CERN o Apple Siri), se usará hardware dedicado como FPGA o ASIC de bajo consumo, pero fuera de eso lo “basado en la nube” se volverá cada vez más el estándar

  • En la burbuja puntocom, la publicidad creó el efecto circular
    Los VC metían dinero en startups, y las startups gastaban ese dinero en publicidad con Yahoo y otros
    Los ingresos de Yahoo subían mucho, la acción subía, y eso se interpretaba como una señal de que se podía ganar dinero en internet, lo cual alimentaba el mercado de IPO para otras startups
    Mientras más circulaba el dinero, más seguía el ciclo de publicidad → ingresos → capitalización bursátil → más inversión VC → más publicidad

  • En la referencia 14, OpenAI dice que usará las GPU de Nvidia arrendadas en vez de comprarlas de contado,
    y me cuesta entender que Nvidia diga “invertimos aquí”
    Si es un arrendamiento, simplemente estaría cobrando renta; ¿por qué llamarlo inversión? ¿En qué exactamente “invirtió” Nvidia?

    • Nvidia tiene que poner primero el dinero para fabricar y suministrar las GPU, y si luego esa asignación de activos no se liquida bien (por ejemplo, si el cliente quiebra), asume un riesgo
      A cambio de tomar ese riesgo espera una compensación adicional, y por eso la estructura tiene características de inversión

    • No soy experto contable, pero supongo que al terminar el lease Nvidia solo se quedará con activos depreciados y baratos
      A diferencia del leasing de autos, no parece que exista un mercado secundario tan grande para GPU
      O sea, Nvidia básicamente estaría entregando GPU “a plazos” en vez de cobrar todo por adelantado
      Me pregunto si el total de pagos del lease equivale siquiera al costo original de las GPU