2 puntos por GN⁺ 9 일 전 | 1 comentarios | Compartir por WhatsApp
  • Se prevé que, debido a la escasez mundial de DRAM de uso general, solo podrá cubrirse el 60% de la demanda incluso hasta finales de 2027, y algunos estiman que podría continuar hasta 2030
  • Fabricantes principales como Samsung, SK Hynix y Micron están impulsando la expansión de nuevas fabs, pero la mayoría no podrá entrar en operación antes de 2027 o 2028
  • Para cubrir la demanda se necesita un aumento anual de producción del 12%, pero el crecimiento realmente planificado es de solo 7.5%
  • Las nuevas instalaciones están concentradas en la producción de HBM (memoria de alto ancho de banda) para centros de datos de IA, por lo que tienen limitaciones para aliviar la escasez de DRAM de uso general para electrónica de consumo
  • Ya se están registrando aumentos de precios en diversos productos electrónicos de consumo como smartphones, laptops, visores VR y consolas portátiles para gaming

Situación global de la escasez de suministro de memoria

  • Según un reporte de Nikkei Asia, aunque la producción de DRAM se está expandiendo, se espera que los fabricantes solo puedan cubrir el 60% de la demanda hasta finales de 2027
  • El presidente de SK Group mencionó que la escasez de chips y obleas podría continuar hasta 2030

Planes de expansión de producción de los principales fabricantes

  • Los tres mayores fabricantes de memoria del mundo, Samsung, SK Hynix y Micron, están impulsando la construcción de nuevas fabs
  • Sin embargo, la mayoría de las nuevas instalaciones comenzará a operar recién en 2027 y, como muy pronto, en 2028
  • En 2026, el único caso real de aumento de producción fue la fab de Cheongju de SK, que comenzó a operar en febrero

Tasa de crecimiento de producción y brecha de demanda

  • Según Counterpoint Research, para satisfacer la demanda se requiere un aumento anual de producción del 12% durante 2026 y 2027
  • La tasa de aumento de producción realmente planificada es de solo 7.5%
  • La brecha entre lo planificado y lo necesario es un factor clave que prolonga la escasez de suministro

Prioridad de producción de HBM e impacto en el mercado de consumo

  • Las nuevas fabs están enfocadas en producir HBM (High-Bandwidth Memory), utilizada en centros de datos de IA
  • Como los fabricantes ya están priorizando HBM sobre la DRAM de uso general, no está claro cuánto mejorará el suministro de memoria para computadoras y smartphones
  • Por ello, sigue siendo incierto si se aliviará la presión de precios en la electrónica de consumo

Casos de aumento de precios en productos electrónicos de consumo

  • Debido a la escasez de RAM, ya se han producido aumentos de precios en varias categorías de productos
    • Aumento de precio en smartphones y tablets Galaxy de Samsung
    • Aumento de precio en Surface de Microsoft
    • Aumento de 100 dólares en los visores VR Quest 3 / 3S de Meta
    • Aumento de precio en la consola portátil de gaming de doble pantalla de AYN

1 comentarios

 
GN⁺ 9 일 전
Opiniones de Hacker News
  • Según entiendo, Samsung, SK Hynix y Micron no tienen capacidad de producción para cubrir la demanda, y además están priorizando el volumen disponible para HBM en vez de DRAM. Como HBM no parece fácil de redirigir a electrónica de consumo, el mercado general de consumidores probablemente la tendrá bastante difícil durante los próximos 3 o 4 años. Encima, OpenAI también está atada por presiones de capital y están creciendo las dudas sobre su nivel de gasto y sus ingresos, así que incluso existe la posibilidad de que ni siquiera cumpla hasta el final los compromisos de compra que desataron este pánico por la RAM, y al final los fabricantes de memoria podrían terminar cargando con inventario sobrante

    • Esto me recuerda a que en 2019 la Radeon VII, aunque era una GPU de consumo de 700 dólares, lograba 1TB/s de ancho de banda con HBM2. En ese entonces AMD incluso puso HBM en líneas de gama media, así que no termino de entender por qué ahora hablan de una tecnología que antes se le podía vender al consumidor común como si fuera algo carísimo y especial, casi una tecnología divina
    • Las variables regionales también pesan mucho. En Países Bajos, por la saturación de la red eléctrica, empresas que querían construir centros de datos ya pagaron costos y hasta tenían conexión garantizada, pero aun así les están avisando que será difícil conectarse antes de 2030. Eso significaría que se está reservando capacidad de memoria asumiendo centros de datos que ni siquiera se han construido todavía, así que si esas obras se retrasan o se cancelan, la oferta y la demanda podrían enredarse todavía más
    • Tengo la impresión de que los fabricantes de memoria siempre terminan absorbiendo el golpe al final. Siento que ya he visto una escena parecida al menos tres veces
    • Aun así, esta vez los fabricantes de memoria no ampliaron capacidad de forma agresiva como antes, y justamente creo que esa fue una decisión para evitar una bomba de inventario
    • Yo creo que, a medida que se vengan abajo las distintas promesas de Altman de construir infraestructura, la balanza se va a inclinar más rápido de lo esperado hacia un exceso de oferta. También me parece que el sector financiero ya está empezando a darse cuenta de que esa infraestructura no se puede construir tan rápido y que, incluso si se construye, no necesariamente será rentable
  • La duda que todavía no logro ordenar es esta. Si la IA hace más fácil crear software, los precios van a bajar, pero en una situación donde el gasto en IA ya es varias veces mayor que todo el gasto mundial en software, no entiendo cómo las empresas de software van a poder absorber ese costo. Por eso la demanda actual de RAM me parece una base sobre arena, y creo que al final hay bastantes posibilidades de que termine en un gran exceso de oferta

    • Yo no lo veo tan extremo. Los LLM ya son lo bastante útiles como herramienta como para no desaparecer, y la cuestión central al final será la escalabilidad y la reducción de costos. Aunque las empresas pequeñas no puedan usarlos, las grandes sí pueden encontrar primero múltiples casos de uso en áreas como defensa, desarrollo de recursos y finanzas. Por otro lado, si el costo baja lo suficiente, los equipos pequeños también los usarán, pero si se vuelven demasiado baratos también podría darse la paradoja de que usuarios potenciales terminen creando software directamente en casa
    • Según cálculos de analistas, haría falta una nueva suscripción de 35 dólares al mes por cada usuario de iPhone, o de 180 dólares al mes por cada suscriptor de Netflix. Aunque el precio de Claude Max haya subido, dudo que todos los usuarios de Netflix estén dispuestos a pagar algo así. Se puede consultar más sobre esto en un artículo de Tom's Hardware
    • Todo el mundo parece estar apostando por la paradoja de Jevons. Básicamente esperan que la IA sea el próximo semiconductor o el próximo internet
    • Yo lo veo como un caballo de Troya. Se siente como una estrategia que apuesta a que el mundo termine acostumbrándose y volviéndose dependiente de esta tecnología
  • Yo creo que esta situación va a durar bastante. Después de la pandemia, los fabricantes aprendieron que restringir la oferta maximiza las ganancias, y viendo que los precios de los autos no han vuelto a bajar con facilidad, es muy posible que la RAM siga un camino parecido. A diferencia de clientes grandes como Apple u OpenAI, los consumidores comunes no pueden cerrar contratos masivos, así que probablemente seremos nosotros quienes terminemos pagando el costo

  • Yo soy un poco optimista. Espero que esto sirva de advertencia para los desarrolladores que usan RAM sin cuidado, y que obligue a que las aplicaciones sean más eficientes en memoria de aquí en adelante

    • Siento que esto se parece un poco a cómo terminó la era de los motores V8 después del shock petrolero de 1973
    • Aunque la demanda actual la está empujando sobre todo la inferencia, así que no creo que los desarrolladores tengan realmente una motivación tan urgente para optimizar
    • Ojalá esta sea la oportunidad para que Electron pierda fuerza. Nunca he entendido por qué algo que podría mostrar contenido simple con 500KB termina convertido en una app de más de 300MB
      • Eso sí que se siente como un escenario de ensueño
    • Para usar menos RAM a menudo hay que usar más CPU, así que aunque suba el precio de la RAM, muchas veces no termina siendo un buen trade-off en términos generales
  • Me sorprendió que el artículo no mencionara para nada TurboQuant de Google. Se publicó hace 26 días, se dice que reduce 6 veces la memoria del caché KV y que también aumenta la velocidad hasta 8 veces, y ya fue incorporado en llama.cpp, lo que ayuda a correr contextos más grandes sin tener que conformarse con modelos más pequeños. Claro, yo también sigo siendo escéptico sobre si esto realmente aliviará mucho el problema de la RAM. Parece muy posible que la demanda termine creciendo más que el ahorro logrado. Como referencia, se puede ver esta publicación de HN

    • En la industria también está bastante extendida la idea de que TurboQuant no es realmente SOTA de vanguardia. Hay métodos mejores de cuantización KV por bitrate, con alternativas como SpectralQuant, por ejemplo. Además, esa cifra de 6 veces está planteada frente a un caché KV en BF16, así que la comparación cambia bastante si se mide contra enfoques ya existentes de 8 bits o 4 bits
    • También hay una corrección importante. El paper de TurboQuant en realidad apareció en arXiv en abril de 2025, y la implementación actual logra más o menos entre 3.8x y 4.9x de compresión; la cifra más alta exige aceptar una degradación bastante fuerte en el rendimiento de GSM8K. En velocidad también se mueve en torno al 80~100% respecto a la referencia, así que puede no haber mejora o incluso volverse más lento. El estado de la implementación puede verse en este PR de vLLM, y la discusión en este issue de vLLM. En lo personal estoy probando DMS, que me parece más prometedor y además se puede combinar con otras cuantizaciones. Los ahorros mayores vendrán de mejoras en la arquitectura del modelo como el híbrido global SWA de Gemma 4, MLA, DSA, capas lineales y SSM, aunque incluso esas mejoras probablemente no reduzcan la demanda total de memoria por la paradoja de Jevons. Solo mi herramienta de programación ya consume entre 10 y 15 mil millones de tokens de caché al mes, y a medida que aumente el uso entre agentes y desarrolladores convencionales, parece que en la práctica no habrá un límite real a la cantidad de tokens que la gente querrá
    • Creo que sí ayuda que el trabajo en modelos locales esté apuntando a bajo RAM y bajo VRAM. Por ejemplo, Gemma 4 32B puede correr incluso en laptops comerciales, y siento que tiene una inteligencia comparable o superior a la de gpt-4o, que era SOTA hace dos años. Para cuando se estabilicen los precios de la memoria, espero que también sea posible ejecutar localmente algo del nivel de Opus 4.7. Los modelos grandes tienen más conocimiento incorporado, pero siento que eso se puede compensar bastante si saben decidir bien cuándo usar herramientas como búsqueda web
    • En mi opinión, el efecto neto no será hacer lo mismo con menos memoria, sino hacer más cosas con la misma memoria. Las empresas ampliarán todavía más la ventana de contexto de sus productos y la gente simplemente la usará. Me parece una realidad algo amarga sobre el futuro de la memoria
    • Aun así, el costo de tener el modelo cargado en memoria sigue siendo alto. Por ejemplo, si tu RAM es de 16GB, no creo que la mejora percibida sea tan grande
  • También me sorprendió que en el artículo faltara hablar de los nuevos fabricantes chinos de memoria. Como referencia, esto me hizo pensar en este artículo

    • Como dice el propio artículo, CXMT está alrededor de 3 años detrás de Samsung, SK Hynix y Micron en procesos avanzados de DRAM, y su línea de la segunda mitad de 2026 difícilmente pueda alterar mucho el equilibrio global entre oferta y demanda antes de 2027. En cambio, el artículo original prevé que la demanda supere a la oferta en 2028, así que el momento en que la producción china alcance el nivel tecnológico actual podría llegar alrededor de 2029. A largo plazo sí ayudaría a bajar precios, pero por ahora todavía no parece tener la eficiencia de producción suficiente como para evitar la escasez inmediata
  • Hace poco quería armar una PC gamer nueva, pero lo fui postergando por el golpe de precios y los problemas de disponibilidad de componentes individuales. Entonces vi por casualidad en un Microcenter cercano una prebuildeada prácticamente full equip, con una 5090 y una fuente de alta gama, por menos de 5 mil dólares, y la compré de inmediato. Hace diez y tantos años una prebuildeada era algo que solo comprabas si te sobraba muchísimo dinero y no tenías ni un solo día libre del fin de semana, pero ahora me pareció una opción en la que ni siquiera hacía falta pensarlo mucho

    • Yo sigo creyendo que la regla general es que conviene armarla uno mismo. Las prebuildeadas incluyen el costo del ensamblaje, así que estructuralmente suelen ser más caras, y tampoco es raro que hayan recortado en componentes menos visibles como la motherboard o la fuente. Claro, puede que hayas encontrado una muy buena oferta, pero esa excepción no cambia la regla general
  • Me pregunto si esto terminará empujando a usar software más eficiente en memoria. Últimamente siento que incluso programas muy pequeños consumen cientos de MB de RAM

    • Yo también he tenido claro, incluso haciendo vibe-coding, que reducir el uso de RAM era un objetivo explícito
  • Me emociona pensar que por fin llegó la era de la optimización

    • Aunque yo soy un poco escéptico. Las aplicaciones que uso suelen tener un lock-in fuerte, así que o no existe voluntad organizacional para optimizarlas, o directamente faltan recursos para hacerlo. Por eso, la optimización realista para mí consiste más bien en dejar herramientas pesadas e irme a opciones ligeras, esperando que muchas decisiones así mejoren las finanzas y los recursos de desarrollo de esas herramientas más livianas
    • Llevo mucho tiempo diciendo que los desarrolladores de sistemas operativos deberían concentrarse en optimizaciones agresivas. Incluso más allá de la escasez de chips, la desaceleración en la miniaturización de los semiconductores ya está ocurriendo, y optimizar software ayuda a todo el hardware, aunque no impulse directamente las ventas. En ese sentido Linux está menos atado, y hasta me hace imaginar que opciones como Haiku OS podrían volver a llamar la atención
  • Desde mi punto de vista, los fabricantes de RAM siguen siendo reacios a aumentar la producción. Me pregunto si estarán viendo antes que los inversionistas alguna señal de demanda de largo plazo que el mercado todavía no entiende

    • Ya se quemaron varias veces en el pasado. La industria DRAM ha tenido largos ciclos de auge y caída, y cada vez que subía la demanda, todos construían nuevas fábricas; luego los precios se desplomaban, no recuperaban la inversión y terminaban quebrando. Pasó en los 80, en los 90 y en los 2000, y ahora que solo quedan tres fabricantes, me da la impresión de que entienden mejor que nadie que la demanda es intrínsecamente cíclica
    • La industria de semiconductores ha sido un negocio de boom and bust durante más de 50 años. Incluso hay una imagen al respecto, y yo mismo, en 30 años de carrera, viví épocas en que apenas lográbamos cubrir el 30% de los pedidos de los clientes y, dos años después, otras en que las fábricas operaban al 50% y perdían dinero. Si construir una fábrica de última generación cuesta 20 mil millones de dólares y toma de 3 a 4 años, entonces, si uno cree que la IA podría ser una burbuja, es demasiado arriesgado tomar una decisión que después de un colapso de la demanda te deje solo con fábricas relucientes y vacías
    • Cualquiera que esté viendo la realidad probablemente pensará algo parecido. Los compromisos de compra de OpenAI parecen demasiado poco realistas y nada sostenibles
    • Desde su perspectiva, quizá el escenario de pérdidas tampoco sea tan grande. Es una estructura casi de cártel, y la RAM es un producto que de todos modos se necesita, así que probablemente calcularon la relación riesgo-recompensa que más les conviene dentro del equilibrio entre precio y demanda, incluso produciendo menos. Más que la simpatía o la reputación ante los consumidores, la clave parece ser que el mercado los necesita más a ellos