- Se publicó un informe que revela que el testimonio de Mark Zuckerberg, CEO de Meta, en la audiencia del Senado de EE. UU. de 2024 contradice documentos internos y contiene declaraciones falsas deliberadas
- The Tech Oversight Project analizó documentos confidenciales e informes de expertos, y afirmó que Zuckerberg distorsionó los hechos en sus declaraciones sobre protección infantil, salud mental y seguridad del contenido
- Según materiales internos, Meta conocía y aun así dejó sin atender problemas sistémicos como estrategias para atraer usuarios menores de 13 años, facilitación de prostitución y ocultamiento de investigaciones internas
- El informe señala que Meta promocionó funciones de seguridad para adolescentes, pero en realidad la mayoría eran ineficaces, y que sus estudios internos demostraban más bien un deterioro de la salud mental y un aumento del carácter adictivo
- La organización enfatizó que, para corregir estas conductas, se necesitan medidas legislativas como la ‘Kids Online Safety Act’
Resumen del informe de Tech Oversight Project
- Este informe, presentado en Washington D.C., compara el testimonio de Zuckerberg en la audiencia del Comité Judicial del Senado de 2024 con documentos internos divulgados recientemente
- Los documentos muestran que Zuckerberg le mintió al Congreso y que Meta ocultó su fracaso en la protección de adolescentes
- La organización abrió el micrositio ‘Big Tech on Trial’ para reunir la evidencia relacionada y planea seguir actualizándolo durante el proceso judicial
- La directora ejecutiva Sacha Haworth declaró: “Meta se ha escondido detrás de la Section 230, y ahora el Congreso debe actuar”
Inconsistencias entre sus declaraciones en la audiencia y la evidencia interna
1. Sobre las funciones de seguridad para adolescentes
- Zuckerberg afirmó que “estamos haciendo esfuerzos líderes en la industria para proteger a los adolescentes”, pero,
según una investigación de organizaciones como Fairplay, de las 53 funciones de seguridad de Instagram
- 64% estaban desactivadas o eran inútiles,
- 19% tenían efecto limitado,
- y solo 17% funcionaban con normalidad
- El informe concluye que “la mayoría de las funciones no logra proteger a los adolescentes”
2. Diseño del producto y seguridad infantil
- Zuckerberg dijo que “un fondo de compensación para las víctimas no es mi función”, pero
el informe pericial de Tim Estes establece que las plataformas de Meta fueron diseñadas sin considerar la seguridad infantil
- Se señalaron como problemas una verificación de edad débil, controles parentales ineficaces y scroll infinito, reproducción automática y notificaciones
3. Negación del impacto en la salud mental
- Zuckerberg afirmó que “la evidencia científica no respalda la idea de que las redes sociales sean dañinas”, pero
los Facebook Files del WSJ y estudios internos reportaron que Instagram agrava la baja autoestima, la ansiedad y el riesgo de trastornos alimentarios en adolescentes
- El impacto psicológico negativo se concentra especialmente en adolescentes mujeres
4. Contenido sexual y trata de personas
- Zuckerberg dijo que “no permitimos contenido sexual”, pero
según documentos internos Meta operaba una política que permitía hasta 17 infracciones a cuentas vinculadas con prostitución
- En 2020, 79% de los casos de trata sexual infantil ocurrieron en plataformas de Meta,
- y 22% de los menores que usan Instagram reportaron haber tenido contacto sexual
5. Afirmación de prohibición a menores de 13 años
- Zuckerberg aseguró que “los menores de 13 años no pueden usar el servicio”, pero
documentos internos describen una estrategia segmentada por edad que incluía a ‘Kid’ de 6 a 10 años y ‘Tween’ de 10 a 13
- Los documentos ‘Tweens Competitive Audit’ y ‘Youth Privacy’ confirman el objetivo de captar el mercado infantil
6. Ocultamiento de investigaciones sobre salud mental
- En una ‘investigación de desactivación’ interna, Meta confirmó que al dejar de usar redes sociales disminuían la ansiedad y la depresión, pero
suspendió la publicación de los resultados por ser negativos
- Quedó registrado que un empleado advirtió que “podríamos parecer una tabacalera”
7. Fallas en Messenger Kids
- Zuckerberg dijo que “Messenger Kids es más seguro”, pero
un bug en 2019 permitió chats grupales entre menores y usuarios no aprobados
- Meta lo corrigió discretamente, pero The Verge lo hizo público en un reportaje
8. Discurso de colaboración con padres vs. políticas internas
- Zuckerberg dijo que “protegemos a los niños junto con los padres”, pero
en correos internos quedó registrada una política para evitar notificar a los padres, con frases como “si se les avisa a los padres, el producto se arruinará”
- En otro correo aparece la frase: “debemos optimizar que revisen el teléfono a escondidas durante la clase de química”
9. Evaluación del valor de los adolescentes
- En un correo interno de 2018, el valor de vida de un adolescente de 13 años fue calculado en 270 dólares
- También se incluía la preocupación directiva de que “podríamos perder 30 millones de usuarios adolescentes para 2030”
Otros casos adicionales de Meta
1. Investigación sobre el carácter adictivo de Instagram
- Adam Mosseri dijo que “el impacto de la app es mínimo”, pero
una investigación interna de 2019, ‘Teen Mental Health: Creatures of Habit’, señaló que
- “los adolescentes no pueden dejar Instagram aunque quieran hacerlo”,
- y que “el uso adictivo y la presión por la perfección son factores centrales de la ansiedad”
2. Eficacia real del sistema de moderación de contenido
- En un informe de 2023, Meta afirmó que eliminaba automáticamente 99% del material de explotación infantil, pero
el denunciante interno Arturo Béjar reveló que la tasa real de detección era menor al 5%
- También salió a la luz que la directiva ignoró propuestas de mejora de diseño y desmanteló al equipo de investigación
Conclusión
- El informe sostiene que Meta ha repetido fallas en la protección de adolescentes y declaraciones falsas
- Advierte que, sin medidas legislativas obligatorias, la empresa no mejorará por voluntad propia
- En particular, destaca la aprobación de la Kids Online Safety Act como una herramienta clave para proteger a niños y adolescentes
1 comentarios
Comentarios en Hacker News
Por ejemplo, afirmar categóricamente que mintió sobre el nivel de inversión en herramientas de protección es ambiguo. Puede que hayan invertido mucho y aun así no haya funcionado
Al leerlo, sí hay mentiras reales, pero algunas cosas parecían solo diferencias de interpretación. Creo que sería mejor quitar esas expresiones fronterizas o presentarlas como algo tipo “es difícil confiar en él”
Hace poco, viendo Reels, encontré contenido claramente para adultos y lo reporté, pero lo marcaron como “no infringe las políticas”. Tal vez reciben demasiados reportes, pero Meta no está cumpliendo bien sus objetivos declarados de moderación de contenido
Por ejemplo, eso de que “Meta planeó un producto para niños de 6 a 13 años” provenía de unas diapositivas de Messenger Kids y tenía como objetivo cumplir con COPPA.
Y la crítica de que “dicen ayudar a los padres mientras permiten que los adolescentes se comuniquen a espaldas de ellos” en realidad surgía en el contexto de discutir un problema de diseño de la función de transmisiones en vivo.
A mí tampoco me gusta Facebook, pero aun así confío más en las palabras de Mark Zuckerberg que en este artículo
Incluso podría decirse que la situación actual sigue cumpliendo esa promesa
La disposición relevante está resumida en este documento de Congress.gov.
Hacer declaraciones falsas puede implicar hasta 5 a 8 años de cárcel, y si está relacionado con trata o explotación infantil puede llegar a 8 años
Viendo estos casos, da la impresión de que el procedimiento de jurar decir la verdad más bien fortalece la mentira
Ver el caso Watergate y el escándalo Clinton–Lewinsky
alguien expresó su preocupación usando como ejemplo la controversia reciente por la verificación de edad en Discord, argumentando que este tipo de regulación termina forzando la verificación de identidad para todos los usuarios
Incluso si uno no usa redes sociales, sitios como Hacker News podrían clasificarse legalmente como redes sociales
Si Facebook es perjudicial para los adolescentes y Meta lo sabía y aun así no hizo nada, entonces la regulación es un recurso inevitable