- Comenzó formalmente en Los Ángeles el primer juicio con jurado en Estados Unidos por acusaciones de que empresas de redes sociales priorizaron las ganancias por encima de la salud mental infantil y diseñaron intencionalmente plataformas adictivas
- Los abogados de la parte demandante sostienen que Meta y YouTube siguieron una estrategia de "adicción por diseño (addiction by design)" e implantaron la adicción en el cerebro de los niños
- La defensa de Meta respondió que los problemas mentales de la demandante no se originaron en Instagram, sino en el entorno familiar y el acoso en el mundo real
- Este juicio es un caso bellwether, por lo que podría convertirse en precedente para definir el rumbo y el nivel de indemnizaciones en cientos de demandas similares en todo Estados Unidos
- Mark Zuckerberg subirá al estrado la próxima semana, mientras que estrategias de litigio usadas contra la industria tabacalera en las décadas de 1990 y 2000 se están aplicando de forma similar contra las empresas de redes sociales
Resumen del juicio y puntos clave
- En un tribunal de California comenzó un juicio histórico sobre redes sociales por acusaciones de que Meta y YouTube, de Google, impulsaron apps altamente adictivas dirigidas a menores
- El juicio, que se desarrolla ante un jurado en Los Ángeles, podría sentar un precedente legal sobre si las grandes plataformas de redes sociales fueron diseñadas deliberadamente para provocar adicción en niños
- El CEO de Meta, Mark Zuckerberg, tiene previsto testificar la próxima semana, y el responsable de Instagram, Adam Mosseri, comparecerá ante el tribunal a partir del miércoles
- Entre las plataformas de Meta, además de Instagram, se incluyen Facebook y WhatsApp
Argumentos de la parte demandante
- En su alegato de apertura, el abogado de la demandante, Mark Lanier, afirmó que "este caso trata sobre las dos empresas más ricas de la historia diseñando la adicción en el cerebro de los niños"
- Dijo que era "un caso tan fácil como el A-B-C" y apiló bloques de juguete para explicar que A representa Addicting (adicción), B Brains (cerebros) y C Children (niños)
- También afirmó que "no solo crean apps, crean trampas", y usó como utilería un Ferrari de juguete y una mini tragamonedas
- Sostuvo que Meta y YouTube buscaron una "adicción por diseño (addiction by design)"
- Según la demanda, YouTube no le informó a la madre de Kaley que su objetivo era la adicción del espectador, y habría ignorado el riesgo "grave" de adicción incluso al apuntar a niños de hasta 2 años
Réplica de Meta
- El abogado de Meta, Paul Schmidt, respondió que los problemas de autoestima, imagen corporal y felicidad de la demandante se debían no a Instagram, sino a problemas familiares y al acoso en el mundo real
- Preguntó al jurado: "Si quitamos Instagram, pero todo lo demás en la vida de Kaley siguiera igual, ¿su vida habría sido completamente distinta o habría seguido sufriendo los mismos problemas?"
- También señaló que en ningún registro médico incluido como evidencia se mencionó una adicción a Instagram
Contexto del caso y la demandante
- El juicio, presidido por la jueza Carolyn Kuhl, aborda las acusaciones de que una joven de 20 años identificada como Kaley G.M. sufrió graves daños mentales tras volverse adicta a las redes sociales desde la infancia
- En cientos de demandas contra empresas de redes sociales, jóvenes usuarios alegan que se volvieron adictos al contenido y terminaron con depresión, trastornos alimentarios, hospitalización psiquiátrica e incluso suicidio
- Este caso fue clasificado como bellwether, por lo que su resultado podría servir de referencia para el rumbo de litigios similares y los montos de indemnización en todo Estados Unidos
Similitudes con los litigios contra la industria tabacalera
- Los abogados de la parte demandante están retomando estrategias utilizadas en las décadas de 1990 y 2000 en demandas contra la industria tabacalera
- La estructura del argumento es similar a la usada entonces contra tabacaleras acusadas de vender productos sabiendo que eran dañinos
- Matthew Bergman, fundador de Social Media Victims Law Center, afirmó que "esta es la primera vez que empresas de redes sociales comparecen ante un jurado por daños a menores"
- El equipo de ese centro participa en más de 1,000 demandas similares
Section 230 y cuestiones legales
- Las grandes empresas de internet han sostenido que la Section 230 de la Communications Decency Act de Estados Unidos las exime de responsabilidad por el contenido publicado por usuarios en redes sociales
- Sin embargo, esta demanda argumenta que las empresas deben responder por el propio modelo de negocio diseñado para retener la atención de los usuarios y promover contenido que puede dañar la salud mental
- La parte demandante prevé llamar a expertos que sostendrán que el cerebro adolescente no está lo suficientemente desarrollado para resistir los efectos de los algoritmos de Instagram y YouTube
Respuesta de cada empresa
- Meta mencionó recientemente sus esfuerzos para reforzar las medidas de seguridad para usuarios jóvenes y afirmó que "siempre está trabajando para mejorar"
- El vocero de YouTube, Jose Castaneda, respondió que las afirmaciones de la demanda "no son ciertas"
- Los abogados de YouTube presentarán su alegato de apertura ante el jurado el martes
Otros demandados y litigios relacionados
- Snapchat y TikTok también fueron señaladas como demandadas, pero llegaron a un acuerdo antes del inicio del juicio, y sus términos no fueron revelados
- Demandas que denuncian prácticas riesgosas de las plataformas de redes sociales para adolescentes, incluidas las presentadas por distritos escolares, siguen su curso en el tribunal federal del norte de California y en tribunales estatales de todo el país
- El lunes también comenzó en Nuevo México otra demanda separada que acusa a Meta de priorizar las ganancias sobre el bienestar de los usuarios adolescentes
1 comentarios
Opiniones de Hacker News
Una semana decía que “los videos del feed tenían que atrapar al usuario en 0.2 segundos”, y remarcaba que así se podía generar un efecto de adicción científicamente
En ese momento lo entendí: la empresa veía a los usuarios como una ‘presa’. Nuestro objetivo era convencer a los anunciantes de que “teníamos herramientas para reprogramar el cerebro de los usuarios”
Yo he hecho experimentos estadísticos como pruebas A/B y algoritmos de precios dinámicos, y mis amigos suelen quedar en shock cuando se enteran de estas cosas
Reacciones como “¿Amazon no le muestra la misma pantalla a todo el mundo?” me sorprenden
Esta manipulación ni siquiera es un secreto dentro de las empresas, y nadie siente culpa por la manipulación disfrazada de ‘optimización’
Por eso al final dejé el mundo D2C. Me di cuenta de que ahí no le daba valor real al usuario, sino que más bien le hacía daño
En B2B al menos existe una relación real, así que la manipulación de corto plazo resulta menos tentadora
Parece a la vez un anuncio de la empresa y algo personal. Si hubiera una foto, de verdad me gustaría verla
Cuando optimizas los datos con el objetivo de mantener al usuario dentro de la app todo el día, terminas creando un producto parecido a una adicción
Me pregunto si esto es simplemente un problema moral o si más bien refleja una falta de sensibilidad social
Pero la realidad no es así. Sin regulación, las empresas siguen teniendo conductas dañinas mientras sigan dejando utilidad neta
No era una droga, sino un dulce que generaba adicción solo mediante una optimización del sabor
El algoritmo de HN también hace que entre varias veces al día.
Si solo se actualizara una vez al día, esta adicción no existiría.
Al final, HN también está ‘diseñando adicción’
Últimamente incluso he empezado a pensar que necesitamos un internet de pago.
Antes creía que ‘la información debía ser libre’, pero ahora siento que hacen falta muros
En la crisis de los opioides, la familia Sackler también terminó resolviéndolo a punta de negociar multas
Viendo esos precedentes, parece que las grandes tecnológicas van a apelar durante décadas para esquivar su responsabilidad
Como el caso de Philip Morris, que pasó del tabaco al negocio de alimentos ‘de la caja a la boca’
Pero las empresas de redes sociales de hoy parecen no tener ni siquiera ese nivel de responsabilidad
Sinceramente me pareció demasiado infantil, pero este tipo de puesta en escena teatral podría funcionar con el jurado
Al final, la corte se vuelve una especie de escenario, y los abogados actúan como intérpretes
Según dicen, el abogado de Meta más bien insistió en que “el problema se debe al entorno familiar y al acoso escolar”
y subrayó que no hay mención de adicción en los historiales médicos
Igual que cuando antes se culpaba a los videojuegos, da la impresión de que otra vez se repite la narrativa de que ‘les vuelve adicto el cerebro a los niños’
También hay que pensar que este tipo de demandas termina llevando a regulaciones como la política de verificación de identidad de Discord
Por ahora sigue siendo solo el alegato de apertura del abogado, así que habrá que esperar las pruebas reales
Es parecido a por qué la comida en Estados Unidos se vuelve cada vez más dulce
Al final, como en la tragedia de los comunes, todos tienen un poco de responsabilidad pero nadie se detiene
Por eso se presentó esta demanda
Y me respondió: “De ninguna manera, está prohibido en la casa”
Con esa sola frase entendí todo: estaba claro por qué no consumen su propio producto
Al final, todos los medios compiten por captar la atención
Creo que es importante que cada persona cuide su higiene informativa
La adicción a la lectura, en todo caso, sería algo positivo
El problema es una estructura que debilita el autocontrol durante el consumo
Los autos, los medicamentos y los equipos de aire acondicionado tienen normas de seguridad, pero las redes sociales no tienen ninguna regulación
El punto clave es que todavía no existe un mecanismo de equilibrio para proteger al consumidor
las redes sociales provocan adicción no intencional. Al final, no hay más remedio que dejarlo
Pero tampoco esta vez parece que vaya a haber casi ninguna rendición de cuentas
existe el riesgo de que la adicción a las redes sociales se convierta en otra lógica para evadir responsabilidad
Casi no le deja espacio al usuario para elegir conscientemente