2 puntos por GN⁺ 2026-03-26 | 1 comentarios | Compartir por WhatsApp
  • Un jurado del condado de Los Ángeles determinó que Meta y YouTube diseñaron funciones adictivas que causaron daño psicológico a una usuaria
  • Se ordenó a Meta pagar 4.2 millones de dólares y a YouTube 1.8 millones de dólares, en lo que se considera el primer fallo que reconoce la adicción a las redes sociales como una lesión personal
  • El jurado reconoció que ambas empresas indujeron la inmersión del usuario mediante scroll infinito y algoritmos de recomendación, y decidió una indemnización total de 6 millones de dólares, incluyendo daños punitivos
  • Meta y Google dijeron que no están de acuerdo con el veredicto y evalúan apelar, mientras que YouTube sostuvo que es “una plataforma de streaming, no una red social”
  • Este fallo es visto como un punto de inflexión similar a las demandas contra las tabacaleras en los años 90, y podría impulsar cambios en el diseño de productos y las políticas de protección juvenil de las tecnológicas

Veredicto del jurado y panorama general del caso

  • Un jurado del Tribunal Superior del condado de Los Ángeles, California concluyó que Meta y YouTube diseñaron funciones que fomentan la adicción y causaron daño psicológico a una joven usuaria
    • Se ordenó a Meta pagar 4.2 millones de dólares y a YouTube 1.8 millones de dólares en compensación
    • Este fallo es considerado el primer caso que reconoce la adicción a las redes sociales y el daño a la salud mental como una lesión personal
  • La demandante, K.G.M. (hoy de 20 años), presentó la demanda contra Meta (operadora de Instagram y Facebook) y YouTube, de Google
    • Sostuvo que funciones como el scroll infinito y los algoritmos de recomendación provocaron ansiedad y depresión
    • Comparó las redes sociales con productos adictivos como el tabaco o los casinos digitales
  • El mismo conjunto de casos incluye miles de demandas similares presentadas por adolescentes, distritos escolares y fiscales generales estatales
    • Este veredicto podría funcionar como precedente legal para litigios similares en el futuro

Puntos legales y significado del fallo

  • La demanda se presentó sobre la base de negligencia en el diseño del producto, por lo que no aplicó la protección vinculada a la libertad de expresión de la Section 230
    • La defensa de la demandante tomó como referencia la estrategia de litigio contra Big Tobacco, usando el argumento de que “la empresa vendió un producto adictivo sabiendo que lo era”
  • El jurado concluyó que Meta y YouTube diseñaron intencionalmente funciones adictivas
    • Decidió una indemnización total de 6 millones de dólares, incluyendo 3 millones en daños punitivos
  • Expertos legales señalan que este veredicto podría detonar cambios en el diseño de productos y en las políticas de protección juvenil de las empresas tecnológicas

Desarrollo del juicio

  • El juicio se extendió durante 5 semanas y el jurado estuvo compuesto por 7 mujeres y 5 hombres
    • Declararon el CEO de Meta, Mark Zuckerberg, y el jefe de Instagram, Adam Mosseri
    • Ambos rechazaron la idea de que Instagram sea “clínicamente adictivo”
  • La demandante usó redes sociales desde los 6 años y comenzó a usar Instagram a los 9
    • Testificó que pasaba varias horas al día en la plataforma y que sufrió uso de filtros de apariencia y percepción distorsionada del cuerpo (body dysmorphia)
  • El abogado Mark Lanier presentó documentos internos y afirmó que la directiva ya conocía los efectos negativos en los niños
    • Explicó que el scroll infinito, la reproducción automática y los algoritmos de recomendación fomentaban la inmersión del usuario

Respuesta de las empresas e impacto social

  • Meta declaró que no está de acuerdo con el veredicto y evalúa su respuesta legal
    • El abogado Paul Schmidt dijo que Meta ya está impulsando cambios para proteger a los adolescentes
  • El vocero de Google, José Castañeda, sostuvo que “YouTube es una plataforma de streaming diseñada de forma responsable, y no una red social”
    • El abogado de YouTube, Luis Li, se disculpó con la demandante, pero la parte demandante respondió que “una disculpa no es asumir responsabilidad”
  • Este fallo ha sido comparado con las demandas contra las tabacaleras en los años 90
    • En ese entonces, Philip Morris y R.J. Reynolds alcanzaron en 1998 un acuerdo por 206 mil millones de dólares con 40 estados y detuvieron el marketing dirigido a menores
  • Recientemente, un jurado de Nuevo México también falló que Meta violó la ley estatal por no proteger a menores, y ordenó 375 millones de dólares en compensación
  • En Estados Unidos, la mayoría de los intentos legislativos para regular redes sociales han fracasado, pero
    • en 2024 el cirujano general de EE.UU. propuso etiquetas de advertencia
    • en 2025 Australia prohibió las redes sociales para menores de 16 años, y Malasia, España y Dinamarca también evalúan regulaciones similares

Próximos pasos y escena simbólica

  • En el tribunal del condado de Los Ángeles hay 8 demandas individuales adicionales programadas
    • A nivel federal, los casos presentados por gobiernos estatales y distritos escolares tendrán juicio con jurado en verano en el Tribunal Federal del Distrito Norte de California
  • El experto Clay Calvert evaluó que “este fallo es un punto de inflexión importante, y si se encadenan victorias de los demandantes, obligará a replantear el diseño de las plataformas y la forma en que se ofrece el contenido
  • Algunos miembros del jurado mencionaron que “esta decisión se enfocó en proteger a los adolescentes de las futuras generaciones
  • Durante la discusión sobre daños punitivos, el abogado Lanier usó chocolates M&M como símbolo del valor de la empresa
    • Dijo que “si se quita un puñado, no hace diferencia”, como metáfora de la capacidad financiera de las grandes corporaciones
    • Mordió un M&M azul y dijo: “Esto equivale a unos 200 millones de dólares”
  • El jurado decidió la cifra de daños punitivos tras menos de una hora de deliberación
    • La demandante escuchó el veredicto con serenidad en la sala, y el jurado subrayó que “es importante que las empresas reconozcan su responsabilidad”

1 comentarios

 
GN⁺ 2026-03-26
Opiniones de Hacker News
  • Artículo original (archive.is)

  • El artículo casi no incluye detalles del caso
    El artículo de NPR cubre un poco más, pero sigue siendo insuficiente
    Lo interesante es la parte en la que Zuckerberg dice: “si los usuarios no tuvieran una buena experiencia, ¿por qué lo seguirían usando?”
    En una demanda relacionada con adicción, una declaración así es muy mala como argumento de defensa
    Basta con imaginar si se podría decir lo mismo del oxicodona o del tabaco

    • Desde una postura que valora una sociedad liberal, hay que ser cautelosos con el uso excesivo de la palabra ‘adictivo’
      Es peligroso meterlo en la misma categoría que la oxy o la nicotina
    • No dirían eso del oxicodona o del tabaco, pero es fácil imaginar a buscadores de ganancias diciendo exactamente eso
      Hay muchas razones para oponerse a leyes que limitan la libertad individual, pero esta no es una de ellas
    • Que Zuckerberg básicamente diga “si no te gusta, vete” es una pelea desigual
      Después de contratar durante décadas a los mejores ingenieros para construir sistemas diseñados para capturar la atención de la gente, decir eso es irresponsable
    • Parafraseando a Marshall McLuhan, el argumento es que lo adictivo no es el contenido sino el medio mismo
      Es decir, el problema no son las publicaciones de influencers sino estructuras técnicas como el scroll infinito
      Por eso Meta o Google no pueden ampararse en la inmunidad de la Section 230 por ‘contenido generado por usuarios’
    • Lo satirizan con la réplica: “Si sientes que fumar causa cáncer de pulmón, ¿por qué sigues fumando?”
  • Es muy probable que este veredicto sea revertido en apelación
    Estados Unidos es prácticamente el único país que usa jurados en juicios civiles, y la mayoría de los litigios corporativos complejos los ven jueces
    Los jurados tienden a emitir fallos emocionalmente desfavorables para las grandes empresas
    Igual que el veredicto de mil millones de dólares contra Cox Communications terminó anulado por la Corte Suprema, esto podría ir por el mismo camino

    • Esta explicación ayuda a entender por qué la acción no se movió mucho hoy
    • Demandar al mismo tiempo a Facebook, TikTok, Snapchat y Google suena a una exageración tipo “demanda del café de McDonald’s”
      Puede ser posible demostrar la culpa de una empresa en particular, pero hacerlo contra todas a la vez resulta poco convincente
    • También hay muchos argumentos para apelar, porque no está claro cómo aplican la Section 230 y la Primera Enmienda (libertad de expresión)
    • Que muchos fallos millonarios sean revertidos no significa que siempre haya que culpar al jurado
      En algunos casos, ese tipo de veredictos sirve para corregir problemas estructurales de las empresas
  • Ojalá la próxima generación de redes sociales se enfoque en el crecimiento y aprendizaje colectivo, más que en reforzar el ego individual
    La generación joven de hoy está cansada de las UX diseñadas para extraer dopamina
    Si la IA o los bots terminaran derrumbando estas plataformas, hasta podría ser mejor para la humanidad

    • Ese ideal recuerda al internet temprano, antes de la tecnología publicitaria
    • Al final, lo importante es la conexión comunitaria real
      Hasta alrededor de 2005 uno se conectaba con amigos o colegas reales, pero después eso se deterioró rápidamente
    • Considerando la naturaleza humana, una plataforma orientada a la ‘mejora colectiva’ probablemente terminaría siendo un espacio para minorías
      En el pasado, comunidades como The WELL funcionaban bien para académicos o entusiastas de la tecnología, pero el público general no participa mucho en entornos así
    • Queda la duda de qué modelo de ingresos podría tener una plataforma así
    • Algunos países ya obligan por ley a límites de tiempo de pantalla y algoritmos que priorizan contenido educativo
      En tono de broma, lo satirizan diciendo que “nosotros somos civilizados libres de esa opresión”
  • Artículo de The New York Times (gift link)

  • Apps como Instagram o YouTube deberían estar obligadas a ofrecer una opción para desactivar Reels o Shorts

    • El derecho a desactivar las recomendaciones personalizadas por algoritmo debería estar garantizado por ley
      Antes no había problema con ver solo publicaciones de amigos, pero ahora es como si te obligaran 24 horas al día a consumir ‘contenido diseñado para provocar culpa’
    • En Android se pueden bloquear Shorts con ReVanced YouTube o uBlock Origin
      Si usas iPhone, bromean con que mejor simplemente borres la app
      Hacer eso sí mejoró claramente la calidad de vida
    • No hace falta solo “ver menos”, sino el derecho a rechazarlo por completo
      El usuario debería poder decir “no” de forma clara
    • WhatsApp también hace que los niños vean feeds de video, y los padres casi no tienen forma de controlarlo
      Hacen falta sí o sí funciones de control parental
    • En escritorio, los extensiones del navegador también pueden bloquear Shorts
  • Antes de que alguien diga “la culpa es de los padres”, primero hay que mirar la responsabilidad de empresas multimillonarias que fomentaron la adicción infantil

    • Ambos tienen responsabilidad
      Quien fabricó la droga, quien la vendió y los padres que lo permitieron tienen parte de culpa
    • Los padres también suelen mostrarse indiferentes al bienestar de largo plazo de sus hijos, y con frecuencia usan la pantalla como herramienta de cuidado infantil
      Las empresas solo maximizan ganancias dentro de lo que permite la ley, y esperar conducta moral de ellas es ingenuo
  • En el libro Careless People se dice que las empresas de redes sociales usan estrategias para influir en políticos y así reducir regulación e impuestos

    • Pero ese libro pasa por alto la hipocresía de su propia autora
      Ganó mucho dinero en la empresa y empezó a criticarla después de que la despidieran
      Ya en las elecciones de 2008 y 2012 se ejercía influencia electoral, así que no tiene sentido que la autora diga que no lo sabía
      La anécdota de que jugó Settlers of Catan con Zuckerberg fue interesante
    • La actitud de algunas figuras del sector tech metidas en el aceleracionismo de extrema derecha no parece que vaya a durar mucho
  • Si la ley no lo define con claridad, el riesgo de aplicación selectiva es alto
    Que los algoritmos son adictivos es cierto, pero solo porque recomiendan muy bien el contenido que el usuario quiere
    Un estándar ambiguo como “no lo hagas demasiado bien” puede terminar reduciéndose al juicio subjetivo de un juez
    La TV también buscaba retener audiencia, pero internet permite una segmentación mucho más precisa

    • Es parecido al caso de Juul, donde una tecnología era tan ‘eficiente’ que terminó convirtiéndose en un problema de salud pública
      Hace falta un enfoque a nivel de sistema, más que insistir en la responsabilidad individual
      Los problemas de adicción social deben abordarse desde una perspectiva epidemiológica
    • Lo que las empresas tienen que hacer es claro: desmantelar los elementos adictivos diseñados intencionalmente
    • Las empresas llevan más de 100 años gestionando responsabilidades éticas al vender productos al público
      No es un problema completamente nuevo
    • Ese es, en el fondo, el punto
    • En Estados Unidos, si tienes suficiente dinero, todo es legal; si dañas a niños, recién entonces llega algún castigo débil
  • Cuando éramos niños, los anuncios de TV estaban estrictamente regulados, y si salía algo inapropiado la cadena recibía una multa de inmediato
    Pero ahora las redes sociales esquivan ese tipo de regulación y encima culpan a los padres
    Porque los políticos les deben influencia electoral a las empresas de redes sociales
    Después de leer Careless People, entendí por qué líderes de distintos países quieren reunirse con Zuckerberg
    Ojalá este fallo sea el comienzo de un freno a su poder sin límites

    • El problema es la realidad en la que, por ser digital, se ignoran leyes ya existentes
      En muchos países es ilegal dirigir publicidad a menores, pero Meta permitió segmentar al grupo de 13 a 18 años
      Lo mismo pasa con los anuncios deepfake
      Si en TV hubiera salido un anuncio donde Warren Buffett promovía una estafa de inversión, la cadena se habría ido a la quiebra
      Pero en Meta no hay ninguna sanción