3 puntos por GN⁺ 2025-10-12 | 1 comentarios | Compartir por WhatsApp
  • AMD y Sony presentaron "Project Amethyst", un chipset para la próxima consola PlayStation, y están desarrollando una arquitectura centrada en procesamiento gráfico basado en machine learning para superar los límites de la estructura tradicional de las GPU
  • Buscan mejorar la eficiencia del procesamiento neuronal para resolver las ineficiencias de la rasterización existente (el método que calcula la imagen píxel por píxel)
  • El chipset ofrece un motor de shaders escalable mediante una estructura de Neural Array, donde las unidades de cómputo comparten datos y funcionan como un solo motor de IA, lo que permite procesar y mejorar con ML áreas más grandes de la pantalla
  • También incorpora Radiance Core, dedicado a Ray Tracing, y Universal Compression, aplicada a todos los datos transferidos, para lograr un uso más eficiente del ancho de banda
  • El objetivo es mejorar al mismo tiempo la calidad gráfica y la eficiencia de cómputo, y podría convertirse en una nueva vía de avance en una era en la que el progreso del hardware de consolas se ha desacelerado

Resumen de Project Amethyst

  • Mark Cerny (arquitecto de hardware de Sony) y Jack Huynh (vicepresidente sénior de AMD Computing and Graphics Group) publicaron un video de 9 minutos en el que presentan Project Amethyst, un proyecto de ingeniería conjunto entre ambas compañías
    • A casi 5 años del lanzamiento de la PS5, adelantaron una nueva tecnología de chips de AMD para una "consola del futuro que llegará en unos años"
    • Se anticipó por primera vez en julio de 2025 y por ahora solo existe en forma de simulación, pero se considera que los resultados son muy prometedores incluso en esta etapa temprana

Arquitectura centrada en machine learning

  • Las GPU actuales ya logran resolución 4K en tiempo real mediante tecnologías de escalado como FSR (AMD FidelityFX Super Resolution) y Sony PSSR
  • Sin embargo, Cerny señaló la ineficiencia del cómputo paralelo, diciendo que “la estructura esencial de la GPU obliga a dividir el procesamiento de los cálculos”
  • Project Amethyst introduce un enfoque de "Neural Array" diseñado para que múltiples unidades de cómputo compartan datos y operen como un único motor de IA
    • En vez de conectar toda la GPU, combina unidades pequeñas para formar un Shader Engine escalable
    • Al procesar grandes áreas de la pantalla de una sola vez, amplía la proporción de procesamiento gráfico basado en ML
  • Huynh comentó que “una mayor parte de la pantalla será mejorada con ML”

Mejora de la eficiencia en Ray Tracing

  • En el método actual, el mismo shader realiza tanto el cálculo de trayectorias de rayos como el shading de texturas, lo que genera una estructura ineficiente
  • Con base en una tecnología patentada que Sony solicitó en 2022, se introduce un bloque de hardware dedicado llamado "Radiance Core"
    • Se encarga exclusivamente del Ray Traversal (cálculo del recorrido del rayo hasta impactar un objeto)
    • La CPU y la GPU pueden concentrarse en los cálculos de shading basados en texturas y materiales
  • Esto permite una estructura que mejora simultáneamente la velocidad de procesamiento y la calidad de los cálculos de iluminación

Optimización del ancho de banda de memoria

  • El cuello de botella más importante que Sony y AMD buscan resolver es la limitación del ancho de banda de memoria de la GPU
  • AMD ya venía comprimiendo datos de texturas con su tecnología Delta Color Compression (DCC)
  • En Project Amethyst, esto se amplía con "Universal Compression", que comprime todos los datos de entrada de la GPU
    • Con ello, está diseñado para que el ancho de banda percibido en la práctica supere las especificaciones nominales
  • Cerny dijo que “el ancho de banda efectivo superará las cifras indicadas en las especificaciones”

Perspectivas a futuro

  • Sin siquiera un demo conceptual, todavía es demasiado pronto para juzgar cuánto rendimiento adicional podrá extraer esta nueva arquitectura
    • En un contexto donde la velocidad de mejora del silicio se ha desacelerado frente al pasado, habrá que ver qué tan efectivo resulta este nuevo enfoque
  • Aun así, el cambio hacia una estructura de procesamiento gráfico centrada en machine learning se considera una tendencia importante en el relevo generacional de las consolas
    • Se espera que la mejora del rendimiento mediante eficiencia e innovación estructural sea clave en la competencia de la próxima generación de consolas

1 comentarios

 
GN⁺ 2025-10-12
Opinión de Hacker News
  • Me pregunto si la PS6 podría ser la última generación de consolas que muestre avances realmente notables en cómputo y gráficos; los beneficios de la miniaturización son cada vez menores, el precio de los electrónicos sube y el costo de fabricar chips está llevando la carga. Se han ido introduciendo constantemente varias técnicas para compensar la falta de capacidad de cómputo, como AA de posprocesado, trucos temporales y escalado por IA. Últimamente se esperaba que el escalado por IA y la generación de cuadros cobraran cada vez más importancia. Pero soy pesimista sobre hacia dónde evolucionan estas tecnologías. El ray tracing ya consume muchos recursos de transistores y las soluciones avanzadas de IA acaparan todavía más. El escalado no generativo por IA y la generación de cuadros parecen estar casi al límite, así que en una PS7 probablemente solo sería posible si la IA generativa pudiera convertir cuadros burdos en fotorealismo detallado, y creo que eso excedería por varias veces un presupuesto de transistores económicamente viable. Al final, me pregunto si llegará el fin de la era de las consolas y si todo se moverá a la nube para que servidores de alto rendimiento se encarguen del renderizado de juegos, aunque espero que la tecnología de miniaturización mejore pronto y permita una nueva generación de consolas tan revolucionaria como el salto de SNES a N64

    • Mis hijos disfrutan mucho Fortnite en PS4 y sienten que el renderizado está bastante bien satisfecho (yo ya tengo mis años). De hecho, el mayor problema al jugar es la estabilidad de la conexión a internet. También disfrutamos mucho diseños de juego simples como juegos de mesa y de cartas, y ahí lo divertido es la jugabilidad. Un mejor hardware puede aportar más realismo, pero a largo plazo lo que de verdad importa es la calidad del gameplay, como pasa con la narrativa en una buena película

    • Creo que ni siquiera la PS6 mostrará una mejora clara y que, de hecho, la PS5 fue la última consola realmente innovadora. La PS5 Pro también es la primera consola enfocada en la generación de cuadros y, según el artículo, la PS6 seguiría esa tendencia

    • Creo que las consolas son la plataforma ideal para una revolución del ray tracing. El ray tracing es el camino más claro hacia un fotorealismo perfecto, pero cuesta demasiado, y el problema es cuánto hardware dedicado puedes meter en una GPU que también debe correr bien juegos antiguos. Por eso los juegos recientes no tienen más remedio que optar por enfoques híbridos, usando ray tracing solo en parte. El ray tracing de escena completa en realidad afecta principalmente la resolución y la tasa de cuadros, así que hasta desarrolladores indie podrían tener gráficos AAA. En ese punto ya no harían falta ni el escalado por IA ni la generación de cuadros. Lo óptimo sería una GPU enfocada al 100% en ray tracing y que abandone la canalización tradicional de triángulos, pero lo veo difícil en PC. En consola sí se puede experimentar porque la retrocompatibilidad perfecta no es indispensable

    • La siguiente gran revolución después del ray tracing probablemente será el path tracing. Las consolas suelen adoptar tarde las tecnologías gráficas más nuevas, pero tarde o temprano tanto el ray tracing como incluso el path tracing llegarán a los gráficos de consola. La ventaja de las consolas es que el hardware objetivo es fijo, así que los juegos pueden probar con precisión su rendimiento en ese hardware y la calidad de la experiencia es predecible

    • Creo que el escalado no generativo por IA podría traer un gran cambio. Se podría usar modelado 3D tradicional para toda la estructura general y aplicar IA generativa a las texturas detalladas y la iluminación. Agregar más polígonos o más iluminación ya se acerca cada vez más a sus límites, y mientras no haya que acertar siempre con la cantidad de dedos, la IA generativa podría aportar más mejoras aquí

  • Me hace sentir que el tiempo pasa volando pensar que DirectX 12 salió hace 10 años. Uno de sus objetivos principales era permitir aprovechar mejor el hardware a medida que este se alejaba del pipeline fijo. Funciones como generación de cuadros, escalado e interpolación de cuadros tienen potencial, pero creo que para dar resultados reales necesitan una integración completamente distinta

    • Yo diría que esa reestructuración ya empezó con mesh shaders y neural shaders. Pero el hardware todavía no está lo bastante difundido como para que los juegos lo usen ampliamente, y a los desarrolladores también les cuesta adoptarlo para mejorar la experiencia

    • Tampoco hay que olvidar mantle

    • Recuerdo haber conocido directx 1 por primera vez en la revista PC Gamer

  • Siento que la industria del videojuego y la comunidad en general ya no tienen demasiado interés en el avance gráfico por sí mismo. Los juegos AAA son demasiado complejos y caros, y seguir expandiendo experiencias cada vez más grandes y complejas no escala bien. Los jugadores se han fragmentado en muchísimos gustos pequeños, como los 80, los 90, PS1, etc. La era de las grandes empresas de consolas y de los estudios gigantes se está apagando

    • Yo no estoy de acuerdo. La gente sí quiere gráficos de gama alta, pero también espera simulaciones mucho mejores a la altura de eso. GTA6 genera expectativa no solo por los gráficos, sino porque se cree que tendrá un nivel de simulación nunca antes visto. Ambas cosas tienen que avanzar juntas

    • Siento que las consolas de la generación actual todavía se quedan cortas para ofrecer gráficos inmersivos y fluidos. Jugué BG3 primero en PS y luego en PC, y no hay comparación. Lo mismo con Cyberpunk. Yo sí estaría dispuesto a actualizar para tener 120/4K y gráficos consistentes de alta resolución, y también compraría juegos así. Los AAA todavía ponen los gráficos al frente y siguen generando muchísimo dinero

    • Los avances en iluminación pueden ayudar no solo a los AAA sino a todos los juegos. Por ejemplo, Tiny Glade y Teardown se ven excelentes en sus propios estilos artísticos gracias a la iluminación global basada en ray tracing, más que por buscar realismo. Pero por ahora es difícil implementarlo técnicamente y solo es posible en entornos limitados. Los desarrolladores tienen que soportar varias generaciones de GPU, lo cual es bueno para evitar residuos electrónicos y mejorar la accesibilidad, pero eso significa que los assets y niveles todavía deben crearse pensando en iluminación basada en rasterización y sombras imprecisas. Si simplemente aplicas una iluminación superior, esos viejos atajos se vuelven más evidentes y el acabado no está a la altura del nuevo sistema de iluminación, y por eso las opciones actuales de ray tracing no cumplen las expectativas

    • Viendo el éxito arrollador de la Switch en la generación pasada, muchos juegos iban en resolución HD y a 30fps, y algunos AAA ni siquiera fueron porteados. Aun así, se vendieron cantidades enormes de consolas y juegos, y la mayoría no lo sintió como una desventaja. Al final, lo importante en los juegos era que fueran divertidos

    • Battlefield 6 salió hoy, las reseñas son muy positivas y los gráficos se ven muy bien

  • Recuerdo que en los 90 yo decía que algún día el ray tracing dominaría todo el renderizado. Ahora me da gusto que, a diferencia de los amigos que se burlaban de esa predicción, se haya vuelto realidad

    • Si lo vemos con realismo, en juegos el uso de ray tracing (RT) normalmente se limita a rayos auxiliares, mientras que el renderizado principal sigue siendo rasterización. Aun así, cada vez se mueve más hacia renderizado por software usando compute shaders

    • Saludos a tu yo adolescente, tu predicción salió bastante bien. La idea de los radiance core también me parece genial

    • Me pregunto si me tocará vivir para ver objetos curvos reales renderizados tal cual, sin trucos

  • Siento que SCE siempre sale con alguna idea innovadora cada vez que lanza una consola, pero dos años después todo termina viéndose como una consola más

    • Creo que eso produce un fenómeno raro. Los juegos exclusivos de PlayStation aprovechan el hardware al máximo, pero no tienen punto de comparación. En cambio, los multiplataforma solo tienen el incentivo de ajustarse a los estándares de varias plataformas, así que hay poco motivo para hacer el esfuerzo de modificar el motor y lograr que la versión de PlayStation se vea mejor. Por eso suele pasar que solo hacia el final del ciclo de vida de la consola aparecen juegos impresionantes que de verdad aprovechan su potencial, y siento que llevamos décadas repitiendo ese ciclo

    • Puede que haya caído mucho en el marketing, pero siento que el soporte SSD de la PS5 elevó muchísimo el estándar de velocidad de carga en juegos, y eso se nota en todo el ecosistema multiplataforma

    • Sí, así terminó siendo, pero no me parece algo malo. Al menos las consolas todavía muestran disposición a asumir riesgos calculados en arquitectura. Ahora las consolas, por dentro, básicamente también son PCs

    • Siento que desde la Xbox 360 y Unity las consolas empezaron a ir por un camino algo distinto. Antes había que crear hardware raro, sistemas operativos, motores 3D y toolkits GUI propios, así que la barrera de entrada para desarrollo indie en consola era altísima. Las consolas empujaban esas rarezas también por la Ley de Moore, porque tenían que adelantarse unos años a las PCs para seguir siendo competitivas al final de su ciclo. Creo que todos ya dejamos atrás esa etapa, y veo positiva la dirección de la evolución

  • Creo que el mayor avance de la PS5 es su almacenamiento increíblemente rápido. No tener pantallas de carga sí marca un punto de inflexión real en la experiencia de juego. También me gustaría que PlayStation tuviera la función instant resume de Xbox. Los gráficos están bien, pero para mí no son la prioridad número uno

    • La aceleración por hardware de audio 3D (HRTF avanzado) es muy buena, pero da pena que casi ningún juego third-party la use. También he visto que la función instant resume de Xbox no siempre es estable por problemas como la sincronización de archivos guardados. Como los timestamps de los saves en la nube difieren, varias veces no pude usarla bien por conflictos entre archivos de guardado

    • Escuché que el medio de almacenamiento rápido de PS5 fue posible porque licenciaron un códec de compresión de RAD e hicieron una implementación por hardware. Parece que también van por un camino parecido en las velocidades de transferencia de la GPU

  • Este video es una continuación del mismo donde Cerny explicó la filosofía de diseño de PlayStation 5 Pro y el roadmap a futuro. Su enfoque es básicamente crear una imagen de baja resolución casi perfecta y luego escalarla a 4K mediante una red neuronal. Qué tan bien funcione eso está por verse; los upscalers actuales todavía no logran eliminar por completo artefactos, ruido y distorsiones ni siquiera en imágenes perfectamente renderizadas, y ni siquiera en tiempo real, así que al final lo único que queda es ocultar esos errores en la etapa de posprocesado, a costa de perder nitidez en la imagen

    • Creo que un buen eslogan de marketing puede cambiar por completo la percepción del usuario: “¿Cansado de la exactitud de los píxeles? ¿Te hiere la nitidez? Dale libertad a tu imaginación y abraza el futuro borroso. ¡Los artefactos son arte!”

    • Creo que si se hace un escalado personalizado para cada juego, se pueden obtener resultados muchísimo mejores. No se usaría solo un cuadro de baja resolución, sino también vectores de movimiento, profundidad de escena, normales de escena, color unlit, y escalado específico para transparencias y opacos, entre otros datos. Con eso se puede hacer muchísimo. Además, los upscalers de cámaras de celular hoy ya funcionan casi en tiempo real; comparar generación de imagen con simple escalado no es un enfoque correcto

  • Veo el ray tracing por hardware y el escalado por IA como las peores tendencias actuales en gráficos, y de verdad me desagrada un futuro donde todo dependa por completo de esas dos cosas

    • Siento que el debate alrededor del escalado por IA se ha salido demasiado de control. Puede sonar raro hablar de IA y píxeles imaginarios, pero en realidad el renderizado gráfico siempre ha funcionado con todo tipo de trucos y aproximaciones; incluso sin IA de deep learning, los píxeles del pipeline de renderizado tradicional tampoco son obras artesanales perfectas

    • Personalmente siento que estas dos tecnologías no significan absolutamente nada para los juegos que yo quiero, y me gustaría que AMD sacara una tarjeta gráfica sin ninguna de las dos, aunque siendo realista no espero que pase

    • Me da curiosidad qué es exactamente lo que te parece problemático del ray tracing por hardware

    • Los productos reales de tecnología avanzada no suelen ser más que demostraciones llamativas o ideas de moda, y el verdadero cliente de la tecnología de punta en la industria no es el consumidor común. Los compradores más leales o early adopters son, en la práctica, el equipo de QA. Las áreas de crecimiento futuro para tecnologías de aceleración computacional están en simulación, modelado, entrenamiento e inferencia. Por eso mucha gente no conecta con esta tendencia, pero Sony y AMD no están simplemente extendiendo la moda actual; están usando su portafolio para liderar un mercado futuro dentro de 20 a 40 años. Me parece una jugada muy audaz

    • Por lo que he leído, usar RT en juegos les ahorra muchísimo tiempo a los artistas en el trabajo iterativo de diseño de niveles. Antes había que colocar luces una por una y rehacer todo si cambiaba un poco el nivel. Con RT ya no hace falta precalcular y almacenar shadow maps, así que también hay ventajas en almacenamiento

  • Esta vez lo veo como un movimiento de AMD para ponerse al día en RT, escalado por IA y generación de cuadros, áreas donde iba detrás de Nvidia. En lo personal me alegra, como usuario de GPU AMD y de Linux. Eso sí, me parece algo exagerado presentarlo como si fuera revolucionario o como si fuera resultado exclusivo de la colaboración con Sony. AMD perfectamente podría lograrlo por su cuenta, y seguramente también llegará pronto a PC y Xbox

    • Todavía faltan muchos detalles, así que creo que es temprano para sacar conclusiones. Sony ya ha mostrado antes hardware de juego peculiar, como la arquitectura CELLS, así que espero que esta vez también hagan algo singular. O quizá solo usen un modelo ligeramente personalizado, o simplemente lo que AMD ya tenía planeado para los próximos años. Solo el tiempo lo dirá. Yo no compro consola desde hace mucho, pero ojalá salga un hardware realmente único; eso sí, espero que esta vez no olviden la lección de hacerlo amigable para desarrolladores
  • No me gusta que toda la conversación esté tan centrada en los gráficos, y creo que mucha gente está pasando por alto la parte de eficiencia que enfatiza el artículo. Si con texturas de alta calidad y eficiencia de ancho de banda se pueden ofrecer flujos duales 4K con el ancho de banda de 1080p, eso podría resolver la inestabilidad del VR. Reducir el consumo energético también reduce tamaño y calor, y con esas ventajas quizá en el futuro el propio PlayStation Portal termine siendo la consola. Estoy por tomar un vuelo a Suecia y de verdad me gustaría tener un dispositivo compacto como Steam Deck, que funcione fresco y con menos errores de renderizado. Sony ha tendido a enfocarse en los gráficos desde los 90, pero si por fin se acerca una transformación real de factor de forma y un soporte VR serio, eso sí podría cambiar por completo el juego