- Un jurado del estado de Nuevo México determinó que Meta no protegió a los menores de depredadores sexuales en Facebook e Instagram, violando la ley estatal
- Meta fue considerada responsable de “prácticas comerciales injustas y engañosas” y “conducta inconcebible”, y se le ordenó pagar 375 millones de dólares en daños; la empresa dijo que apelará
- Este caso es el primer veredicto de un jurado que aborda el deber de las empresas de redes sociales de proteger a los adolescentes, y marca la primera vez que Meta es considerada responsable en un tribunal
- Durante el juicio, testimonios de denunciantes internos y exejecutivos señalaron que el algoritmo operaba de forma favorable para los delincuentes
- El fallo es considerado un precedente importante para reforzar la responsabilidad legal de las empresas de redes sociales y establecer estándares de protección para adolescentes
Jurado de Nuevo México considera responsable a Meta por no prevenir la explotación sexual infantil
- Un jurado del estado de Nuevo México dictaminó que Meta violó la ley estatal al no advertir sobre los riesgos de sus plataformas ni proteger a los menores de depredadores sexuales
- Se determinó que Meta incurrió en “prácticas comerciales injustas y engañosas” y “conducta inconcebible”, por lo que se le ordenó pagar un total de 375 millones de dólares en daños y perjuicios
- Meta anunció que planea apelar el veredicto y declaró que “respetuosamente no está de acuerdo con esta decisión”
- El caso surge de una demanda presentada en 2023 por el fiscal general de Nuevo México, Raúl Torrez, basada en la acusación de que Meta convirtió Facebook e Instagram en espacios de actividad para delincuentes sexuales contra menores
- Aunque el estado pidió miles de millones de dólares en indemnización, el jurado reconoció una cifra menor
- En procedimientos posteriores, el tribunal podría imponer sanciones adicionales o cambios en las plataformas
- Este fallo es el primer veredicto de jurado dentro de una serie de demandas que cuestionan la responsabilidad de las empresas de redes sociales en la protección de adolescentes, y es la primera vez que Meta es considerada responsable en un tribunal
- Al mismo tiempo, en Los Ángeles avanza el veredicto de otra demanda separada contra Meta y YouTube por presuntamente dañar la salud mental de adolescentes mediante funciones adictivas
- En todo Estados Unidos se han presentado cientos de demandas similares por parte de particulares, escuelas y gobiernos estatales
- Durante las 6 semanas de juicio, continuaron los testimonios de denunciantes internos de Meta y exejecutivos
- Arturo Bejar, exdirector de ingeniería de Meta, testificó que su hija de 14 años recibió acercamientos sexuales en Instagram y señaló que el algoritmo de personalización de Meta también funcionaba a favor de los delincuentes
- Brian Boland, exvicepresidente, declaró que “la seguridad no era una prioridad para el CEO Mark Zuckerberg ni para la entonces COO Sheryl Sandberg”
- En cambio, el jefe de Instagram, Adam Mosseri, declaró que se introdujeron funciones de protección para adolescentes, como
Teen Accounts
- Meta sostuvo que 40,000 empleados trabajan en seguridad y que la empresa realiza grandes inversiones en la protección de adolescentes
- Frente a la crítica de Meta de que las cuentas encubiertas de la investigación de la fiscalía usaron fotos reales de menores, Torrez respondió que era “un ataque para evadir responsabilidades”
- Meta destacó el desarrollo de tecnología para prevenir la explotación sexual infantil y la cooperación con las fuerzas del orden, y anunció que suspenderá la función de mensajería cifrada de extremo a extremo en Instagram
- Torrez calificó el veredicto como una “victoria histórica contra Meta por priorizar las ganancias sobre la seguridad infantil”
Principales puntos revisados por el jurado
- El jurado evaluó si Meta hizo declaraciones falsas o engañosas sobre la seguridad de sus plataformas o si diseñó deliberadamente funciones que perjudican a los adolescentes
- La fiscalía general de Nuevo México afirmó que, tras crear cuentas falsas de menores y utilizarlas en Facebook e Instagram, estas recibieron propuestas sexuales y solicitudes de material obsceno
- Tres hombres adultos que tuvieron contacto con esas cuentas fueron arrestados en mayo de 2024, y dos de ellos están acusados de intentar concretar encuentros reales con cuentas que se hacían pasar por niñas de 12 años
- En testimonios internos de Meta se señaló que la función de conexión del algoritmo podía ser explotada por delincuentes
- Se presentó el testimonio de que “si el interés son las niñas pequeñas, la plataforma refuerza las conexiones en función de ese interés”
- La decisión de Meta de suspender su función de cifrado de extremo a extremo fue mencionada como una medida para facilitar el acceso de los organismos de investigación
- Meta explicó que “casi no hay usuarios que utilicen esta función, por lo que la eliminará de Instagram y seguirá ofreciendo mensajería cifrada en WhatsApp”
- Ravi Sinha, responsable de políticas de seguridad infantil de Meta, testificó que la empresa ha cooperado con las fuerzas del orden y desarrollado tecnología para prevenir la explotación infantil
- El vocero de Meta, Andy Stone, criticó la investigación de Nuevo México como “éticamente problemática”, pero Torrez respondió que era “un intento de evadir responsabilidades”
- El fallo es visto como un precedente importante dentro de la tendencia a reforzar la responsabilidad legal de las empresas de redes sociales
- Podría influir en futuras demandas relacionadas con la protección de adolescentes en otros estados y a nivel federal
1 comentarios
Comentarios en Hacker News
Mucha gente aplaude cualquier fallo en contra de Meta sin leer los detalles, pero hay que reconocer que este tipo de demandas es una de las principales razones por las que retroceden funciones como el cifrado de extremo a extremo (E2EE)
En la demanda del estado de Nuevo México se planteó la preocupación de que permitir que adolescentes usen E2EE en Instagram dificultaría que las autoridades atrapen a los delincuentes. Durante el juicio, Meta anunció que dejará de ofrecer soporte de mensajería E2EE en Instagram a finales de este año
La demanda del estado de Nueva York directamente tomó como blanco el propio soporte de E2EE (artículo de Reuters)
Las cuentas de niños deberían clasificarse dentro de una estructura supervisada por los padres, permitiendo que estos revisen el contenido o configuren las herramientas necesarias
Aun así, en internet todos deberían ser tratados por defecto como adultos, y si los padres permiten la actividad en línea de sus hijos, entonces deben asumir la responsabilidad de supervisarla
Esta regulación debería aplicarse solo a productos comerciales y no a proyectos comunitarios sin fines de lucro
Sería mejor obligarlas a dejar este teatro de seguridad (security theater), y quienes realmente necesiten privacidad buscarán alternativas
Últimamente me parece sospechoso que a nivel internacional se esté formando un consenso de “ya es hora de actuar”. En especial, inquieta que se estén impulsando al mismo tiempo iniciativas de verificación de identidad (ID verification) por varias vías
Mi hijo adolescente y sus amigos usan sobre todo chats grupales privados, y las redes sociales casi solo en modo “solo lectura”. No suben fotos ni información personal
Más bien quienes se sobreexponen son los millennials. Da hasta pena ver cómo comparten en exceso fotos familiares y su vida privada
La demanda del estado de Nuevo México surgió tras investigar la plataforma de Meta con perfiles falsos que se hacían pasar por cuentas infantiles, y efectivamente hombres adultos se acercaron e hicieron propuestas sexuales
Por lo que dice el artículo, no parece que el E2EE sea el punto central del caso. Meta anunció durante el juicio que pondrá fin al E2EE, pero la relación directa no está clara
Otra interpretación es que podría ser un cambio derivado del abandono del plan de Meta de integrar la mensajería de WhatsApp, Facebook e Instagram
No queremos verificación de edad, y sí queremos E2EE. Pero aplaudimos este fallo porque no nos gusta Meta. En la práctica, no se pueden tener ambas cosas al mismo tiempo
Si un usuario de 40 años le manda mensajes todos los días a alguien de 13, es importante entender qué está pasando. Meta sabe de estas cosas y aun así solo se enfoca en evadir su responsabilidad
De todos modos, es muy probable que el E2EE de Meta tenga una puerta trasera
Meta ha ignorado lo que su propia investigación reveló sobre la nocividad de sus productos. Ahora que el escudo de la Section 230 se está debilitando, me preocupa que otras empresas saquen como lección “mejor no investigar”
Meta fingía priorizar la “seguridad” para atraer talento, pero en la práctica siempre fue crecimiento primero
En los últimos años, tanto Meta como X han bloqueado el acceso de investigadores externos y se han vuelto más cerradas con sus datos
Estas multas solo funcionan si son lo bastante grandes como para cambiar el comportamiento de una empresa. 375 millones de dólares, para el tamaño de Meta, es apenas un asiento contable
Las redes sociales para niños deben ser supervisadas directamente por los padres. El E2EE ya existe y no puede eliminarse. Si alguien quiere, puede crear su propio servicio de chat cifrado
Esta multa equivale a alrededor del 0.6% de las ganancias anuales de Meta.
Si los 50 estados presentaran demandas en la misma proporción, el golpe podría llegar al 30%. Si las demandas fueran por montos mayores, sería una sanción histórica. Hay que expandirlo a nivel global
Esta multa es demasiado pequeña. Le faltan varios ceros