1 puntos por GN⁺ 2025-08-27 | 1 comentarios | Compartir por WhatsApp
  • Un video del concierto de Will Smith fue señalado como si mostrara público falso generado por IA, pero en realidad estaba basado en grabaciones de fans reales
  • El video en cuestión fue creado mezclando escenas del concierto con fotos de público de festivales reales, y algunas tomas de la audiencia fueron animadas con modelos de IA de imagen a video
  • Sin embargo, al añadirse un experimento de posprocesamiento de YouTube Shorts (desenfoque inverso y reducción de ruido), los rostros del público se deformaron de manera extraña y los letreros se distorsionaron, haciendo que pareciera una manipulación con IA
  • El mismo video publicado en Instagram y Facebook mostraba menos distorsión, por lo que la corrección automática de YouTube empeoró la situación
  • En conclusión, el público era real, pero la combinación del retoque con IA por parte del equipo del artista y los filtros de YouTube desató la polémica sobre qué era real y qué no

El inicio de la controversia

  • Cuando se publicó el video de 1 minuto, medios importantes como Rolling Stone, NME y Mashable informaron sobre sospechas de manipulación con IA
  • Los rostros del público en el video mostraban deformaciones típicas de la IA, dedos múltiples y símbolos extraños
  • En particular, un letrero con el texto “From West Philly to West Swizzy” fue mal interpretado y eso provocó aún más polémica

Verificación de escenas reales del concierto

  • El video fue editado alternando escenas del público de Positiv Festival en Orange, Francia, junto con Gurtenfestival y Paléo Festival en Suiza, y Ronquieres Festival en Bélgica
  • Con fotos relacionadas del concierto y videos grabados por fans se confirmó a las mismas personas y letreros, lo que demostró que el público era real
  • También existe un letrero con la historia de una pareja que enfrenta el cáncer, y en el Instagram de Will Smith quedaron varias fotos y videos

Dos etapas de manipulación con IA

  1. El equipo de Will Smith generó clips cortos usando fotos oficiales del concierto con modelos de IA de imagen a video (Runway, Veo 3, etc.)
  2. Luego se añadió el posprocesamiento automático de YouTube Shorts (unblur y denoise), haciendo que el video se viera aún más borroso y antinatural

Experimento de YouTube Shorts

  • Las versiones subidas a Instagram y Facebook eran relativamente nítidas, pero YouTube aplicó un “experimento de tecnología de mejora con IA”, produciendo en general un efecto visual deformado
  • YouTube explicó que se trataba de “tecnología de mejora de nitidez basada en machine learning tradicional”, pero su aplicación sin aviso previo hizo crecer la controversia
  • Después de las quejas de los creadores, anunció que agregaría una opción de exclusión voluntaria

Conclusión

  • La mayoría de usuarios de YouTube, Reddit y X cree que se trata de “un video hecho con IA generativa que creó fans falsos”
  • En realidad, sí aparecen espectadores reales, pero tras la conversión de imagen a video del equipo de Will Smith y el posprocesamiento de YouTube, su apariencia artificial se intensificó
  • Esto plantea la necesidad de una distinción ética entre aplicar breves efectos de animación a fotos de conciertos con modelos de imagen a video y generar por completo una multitud ficticia
  • En conclusión, este caso muestra cómo un evento real puede parecer ‘menos real’ por culpa de herramientas de IA

1 comentarios

 
GN⁺ 2025-08-27
Opiniones de Hacker News
  • El video reescalado con IA resulta tan molesto a la vista como esa incomodidad rara de una TV nueva antes de desactivar la interpolación de cuadros. Me pregunto quién piensa que esa nitidez artificial equivocada se ve mejor. Hace poco vi una versión reescalada con IA de un concierto de David Bowie & Nine Inch Nails, y especialmente cerca del minuto 2 me dio una sensación de realidad desajustada que me provocó muchísima incomodidad psicológica. El video original tiene baja resolución, pero aun así creo que conserva mucho mejor la atmósfera y la sensación intencional. Ahora ya tenemos cámaras y lentes excelentes, así que no hace falta forzar la calidad de imagen con IA
    • Lo sorprendente es que parece que a la gente sí le gusta esa calidad de imagen. Ayer mi pareja estaba eligiendo un smartphone nuevo, y como le importa la calidad de la cámara le gustó que al hacer zoom siguiera viéndose nítido. Pero al ver esa imagen distorsionada, reconstruida artificialmente tras un pequeño retraso, como un filtro de reescalado de un emulador viejo de consolas, me dio algo de tristeza pensar que alguien a quien quiero de verdad prefiera selfies con la cara suavizada y un falso bokeh antinatural de fondo, en vez de fotos naturales y realistas
    • Esta imagen es realmente graciosísima
    • Una vez vi mi serie favorita en la TV nueva de mis padres y sentí que algo estaba raro: parecía de bajo presupuesto, las actuaciones se veían incómodas y hasta los diálogos daban la impresión de ser peores. Me quedé pensando por qué sería. Con el tiempo descubrí que era por el auto smoothing de esa TV. Es el fenómeno conocido como Soap Opera Effect
    • Que sigan empujando tecnología que el consumidor no quiere pasa por algo así: presión para mantener el precio de la acción -> presión gerencial para subir cuota de mercado -> exigirles a los PM que agreguen funciones nuevas -> los desarrolladores quieren probar tecnologías nuevas -> y así terminamos con chatbots de IA, resúmenes con IA, pantallas táctiles en autos y reescalado con IA que nadie pidió
    • La mayoría de la gente no nota bien estas diferencias. No tengo TV en casa, pero cuando voy a la de un amigo detecto enseguida el Soap Opera Effect. Ya van dos veces que les digo que lo apaguen y, después de hacerlo, ellos también están de acuerdo y no lo vuelven a activar. Pero la verdad es que quizá solo me creyeron y no estoy seguro de que realmente notaran la diferencia. Si quieres desactivar eso, busca “marca de tu TV soap opera effect” y normalmente salen instrucciones para encontrar la opción. Hay que tener cuidado porque cada fabricante le pone nombres rarísimos. En la parte de 2:06 especialmente la cara cambia, y el original en ese tramo está muy borroso. La versión con IA no entiende en absoluto los efectos de cámara. Comparando la versión reescalada con IA y el original se nota clarísimo. Se agradece que compartieran ambos enlaces porque facilita mucho la comparación
  • Muchos comentarios hablan de YouTube, pero según el artículo la mayor parte del trabajo con IA la hizo el equipo de Will al convertir fotos fijas en video usando IA. En realidad, YouTube apenas hace que el resultado final se vea un poco menos borroso, y la mayoría de los artefactos extraños de IA se generan durante la producción del video. Esto solo aplica a Shorts. Aquí hay un video comparativo
    • En ese video no se aprecia muy bien la diferencia
  • Me pregunto cómo habría sido si Coldplay hubiera usado esta tecnología este verano. Hablando en serio, me preocupa bastante la tendencia de meter IA en todo. Antes de verdad disfrutaba descubrir música nueva en Spotify Discover Weekly, pero últimamente hay tantas canciones hechas por IA que rompe por completo la inmersión
    • Me dan ganas de dejar Spotify, comprar CDs en la tienda de música del barrio e ir armando mi propia colección con un lector de CD por USB. Por perseguir siempre lo más nuevo y esa idea de que “está toda la música ahí”, siento que se perdió ese componente emocional de personas reales compartiendo música
    • Puede ser. Gran parte de la magia de las recomendaciones musicales está en encontrar por accidente una joya escondida, y creo que cuando se mezclan canciones generadas por IA esa magia desaparece. Spotify nunca ha dicho oficialmente que recomiende más canciones de IA a propósito, pero en el último año la música generada por IA explotó en todas las plataformas de streaming. Y el algoritmo de Spotify muchas veces recomienda temas humanos y de IA sin distinguirlos, sobre todo en géneros que la IA imita fácilmente como ambient, lo-fi, EDM o pop genérico. Al final, mucha gente se siente incómoda viendo cómo la IA se mete en un espacio que antes dependía de la curaduría humana o de un enfoque artístico. Si te interesa, también podría buscar si hay formas de filtrar música hecha con IA o recibir solo recomendaciones de artistas humanos según el servicio
  • El verdadero tema aquí es el <i>consentimiento</i>. Todos entendemos que al entrar a un concierto estás aceptando que te tomen fotos o video, pero me pregunto cuánta gente dio un consentimiento claro para que el equipo del artista use IA para transformar su cara en un video falso. También me pregunto seriamente si esto es legal en todos los países
    • Probablemente en la letra pequeña de la compra del boleto o en avisos a la entrada del recinto había algo como “al ingresar, aceptas ser grabado” y cosas por el estilo. Moralmente no se siente bien, pero legalmente seguramente es un caso bastante cubierto
  • Si yo fuera marketero, haría que imágenes reales parezcan hechas por IA para buscar viralidad gratis. Nada llama tanto la atención como una supuesta metida de pata o una polémica por una imagen manipulada. Si en realidad no es falsa, no hay ninguna desventaja para el artista o su equipo. Una vez hablé con una social media manager de una gran marca y me contó que a propósito publican textos con errores ortográficos para provocar más comentarios y reacciones
    • A eso le llaman ragebait. En marketing ya es una táctica bastante común
    • La nueva película de Naked Gun también dibujó a propósito dedos de más en el póster como ejemplo de eso
  • No sé si mi hardware/software o mis ojos están fallando, pero incluso comparando YouTube e Instagram lado a lado no noto una diferencia tan grande. Si el problema no es mi vista, me pregunto qué debería revisar o si tendría que cambiar de monitor. Mi GPU no es mala, pero también estoy usando un adaptador HDMI-VGA. Eso sí, en las fotos sí se veía tan raro que era imposible ignorarlo. Supongo que en video también habrá muchas imágenes deformadas artificialmente a ese nivel
    • En video la diferencia está en detalles más sutiles. No se nota claramente en todos los cuadros, pero muchas veces el fondo de repente entra y sale de foco, o aparecen texturas raras en la cabeza y el cuello de la persona, y el contorno del rostro queda demasiado definido mientras la piel se ve antinaturalmente suave. Tiene un aire como de Max Headroom
  • No conozco literalmente a nadie a mi alrededor que de verdad quiera estas funciones. Me intriga muchísimo por qué siguen metiendo cosas tan complicadas e innecesarias
    • Igual que algunos países prueban su armamento en situaciones reales para acumular experiencia, a veces imagino que Google está construyendo capacidades organizacionales para el día en que de verdad quiera aprovechar esto a fondo
    • La complejidad existe también en cosas necesarias, pero si no hubiera ganancias de por medio no habría motivo para empujarla
  • PM de YouTube: “¡Hagamos más difícil distinguir los videos hechos con IA de los videos reales para que a los usuarios les parezcan naturales!”
    • Ni siquiera creo que haya tanta malicia planificada. La gente realmente entusiasmada con la IA quiere meterla en todos los productos, y si desde arriba alguien dice “la IA es increíble, métanla”, la echan encima de todo. Las reuniones dejan de centrarse en “resolvamos el problema X del usuario” y pasan a enfocarse en “¿en qué parte del producto podemos meter IA?”
    • Más que malicia, lo más realista son los incentivos equivocados. El KPI de alguien está ligado a introducir funciones de IA, y por eso el viejo filtro de sharpen + denoise de YouTube acaba siendo reemplazado por “AI enhancement”
    • De hecho YouTube tiene una guía que explica su transformación con IA
    • Este enfoque incluso puede hacer que videos de noticias reales sean confundidos con composiciones hechas con IA y pierdan credibilidad. Al contrario, puede volver a la gente más desconfiada y menos dispuesta a creer
    • Las próximas generaciones ya crecerán en un entorno mediático totalmente distinto al de las generaciones anteriores
  • Me pregunto de quién fue la brillante idea de esta función, otro intento de “hagamos útil la IA”. Si ya existe un original en HD, no veo por qué gastar dinero en ofrecer reescalado. Incluso si solo se aplicara a videos de baja calidad, se siente peor precisamente porque distorsiona la realidad
    • A Google no le importa la realidad. Solo le importan la publicidad y el engagement
  • Si vendieran camisetas con la frase “AI glitch”, podrían hacer que cada foto con ese efecto vuelva imposible distinguir lo real de lo falso
    • Con el tiempo, probablemente esas camisetas se vuelvan un accesorio de moda pasajero, como el sexto dedo postizo (un problema emblemático de la IA generativa) o las máscaras de cinco gafas para evadir reconocimiento facial
    • Esas camisetas ya existen, y muchas veces imprimen sin ninguna verificación frases generadas por ChatGPT directamente tal como salen