1 puntos por GN⁺ 2026-02-19 | 1 comentarios | Compartir por WhatsApp
  • Se publicó un informe que revela que el testimonio de Mark Zuckerberg, CEO de Meta, en la audiencia del Senado de EE. UU. de 2024 contradice documentos internos y contiene declaraciones falsas deliberadas
  • The Tech Oversight Project analizó documentos confidenciales e informes de expertos, y afirmó que Zuckerberg distorsionó los hechos en sus declaraciones sobre protección infantil, salud mental y seguridad del contenido
  • Según materiales internos, Meta conocía y aun así dejó sin atender problemas sistémicos como estrategias para atraer usuarios menores de 13 años, facilitación de prostitución y ocultamiento de investigaciones internas
  • El informe señala que Meta promocionó funciones de seguridad para adolescentes, pero en realidad la mayoría eran ineficaces, y que sus estudios internos demostraban más bien un deterioro de la salud mental y un aumento del carácter adictivo
  • La organización enfatizó que, para corregir estas conductas, se necesitan medidas legislativas como la ‘Kids Online Safety Act’

Resumen del informe de Tech Oversight Project

  • Este informe, presentado en Washington D.C., compara el testimonio de Zuckerberg en la audiencia del Comité Judicial del Senado de 2024 con documentos internos divulgados recientemente
    • Los documentos muestran que Zuckerberg le mintió al Congreso y que Meta ocultó su fracaso en la protección de adolescentes
  • La organización abrió el micrositio ‘Big Tech on Trial’ para reunir la evidencia relacionada y planea seguir actualizándolo durante el proceso judicial
  • La directora ejecutiva Sacha Haworth declaró: “Meta se ha escondido detrás de la Section 230, y ahora el Congreso debe actuar”

Inconsistencias entre sus declaraciones en la audiencia y la evidencia interna

1. Sobre las funciones de seguridad para adolescentes

  • Zuckerberg afirmó que “estamos haciendo esfuerzos líderes en la industria para proteger a los adolescentes”, pero,
    según una investigación de organizaciones como Fairplay, de las 53 funciones de seguridad de Instagram
    • 64% estaban desactivadas o eran inútiles,
    • 19% tenían efecto limitado,
    • y solo 17% funcionaban con normalidad
  • El informe concluye que “la mayoría de las funciones no logra proteger a los adolescentes”

2. Diseño del producto y seguridad infantil

  • Zuckerberg dijo que “un fondo de compensación para las víctimas no es mi función”, pero
    el informe pericial de Tim Estes establece que las plataformas de Meta fueron diseñadas sin considerar la seguridad infantil
    • Se señalaron como problemas una verificación de edad débil, controles parentales ineficaces y scroll infinito, reproducción automática y notificaciones

3. Negación del impacto en la salud mental

  • Zuckerberg afirmó que “la evidencia científica no respalda la idea de que las redes sociales sean dañinas”, pero
    los Facebook Files del WSJ y estudios internos reportaron que Instagram agrava la baja autoestima, la ansiedad y el riesgo de trastornos alimentarios en adolescentes
    • El impacto psicológico negativo se concentra especialmente en adolescentes mujeres

4. Contenido sexual y trata de personas

  • Zuckerberg dijo que “no permitimos contenido sexual”, pero
    según documentos internos Meta operaba una política que permitía hasta 17 infracciones a cuentas vinculadas con prostitución
    • En 2020, 79% de los casos de trata sexual infantil ocurrieron en plataformas de Meta,
    • y 22% de los menores que usan Instagram reportaron haber tenido contacto sexual

5. Afirmación de prohibición a menores de 13 años

  • Zuckerberg aseguró que “los menores de 13 años no pueden usar el servicio”, pero
    documentos internos describen una estrategia segmentada por edad que incluía a ‘Kid’ de 6 a 10 años y ‘Tween’ de 10 a 13
    • Los documentos ‘Tweens Competitive Audit’ y ‘Youth Privacy’ confirman el objetivo de captar el mercado infantil

6. Ocultamiento de investigaciones sobre salud mental

  • En una ‘investigación de desactivación’ interna, Meta confirmó que al dejar de usar redes sociales disminuían la ansiedad y la depresión, pero
    suspendió la publicación de los resultados por ser negativos
    • Quedó registrado que un empleado advirtió que “podríamos parecer una tabacalera”

7. Fallas en Messenger Kids

  • Zuckerberg dijo que “Messenger Kids es más seguro”, pero
    un bug en 2019 permitió chats grupales entre menores y usuarios no aprobados
    • Meta lo corrigió discretamente, pero The Verge lo hizo público en un reportaje

8. Discurso de colaboración con padres vs. políticas internas

  • Zuckerberg dijo que “protegemos a los niños junto con los padres”, pero
    en correos internos quedó registrada una política para evitar notificar a los padres, con frases como “si se les avisa a los padres, el producto se arruinará”
    • En otro correo aparece la frase: “debemos optimizar que revisen el teléfono a escondidas durante la clase de química”

9. Evaluación del valor de los adolescentes

  • En un correo interno de 2018, el valor de vida de un adolescente de 13 años fue calculado en 270 dólares
    • También se incluía la preocupación directiva de que “podríamos perder 30 millones de usuarios adolescentes para 2030”

Otros casos adicionales de Meta

1. Investigación sobre el carácter adictivo de Instagram

  • Adam Mosseri dijo que “el impacto de la app es mínimo”, pero
    una investigación interna de 2019, ‘Teen Mental Health: Creatures of Habit’, señaló que
    • “los adolescentes no pueden dejar Instagram aunque quieran hacerlo”,
    • y que “el uso adictivo y la presión por la perfección son factores centrales de la ansiedad”

2. Eficacia real del sistema de moderación de contenido

  • En un informe de 2023, Meta afirmó que eliminaba automáticamente 99% del material de explotación infantil, pero
    el denunciante interno Arturo Béjar reveló que la tasa real de detección era menor al 5%
    • También salió a la luz que la directiva ignoró propuestas de mejora de diseño y desmanteló al equipo de investigación

Conclusión

  • El informe sostiene que Meta ha repetido fallas en la protección de adolescentes y declaraciones falsas
  • Advierte que, sin medidas legislativas obligatorias, la empresa no mejorará por voluntad propia
  • En particular, destaca la aprobación de la Kids Online Safety Act como una herramienta clave para proteger a niños y adolescentes

1 comentarios

 
GN⁺ 2026-02-19
Comentarios en Hacker News
  • Sería mejor no mezclar mentiras reales con simples cuestiones de criterio
    Por ejemplo, afirmar categóricamente que mintió sobre el nivel de inversión en herramientas de protección es ambiguo. Puede que hayan invertido mucho y aun así no haya funcionado
    Al leerlo, sí hay mentiras reales, pero algunas cosas parecían solo diferencias de interpretación. Creo que sería mejor quitar esas expresiones fronterizas o presentarlas como algo tipo “es difícil confiar en él”
    • Totalmente de acuerdo. Si resumimos los casos graves del artículo, serían:
      1. Mark dijo que “prohíben el contenido sexualmente explícito para todas las edades”, pero en realidad existía una política de 17 advertencias, y se reportó que en 2020 el 65% de las víctimas de explotación sexual infantil captadas a través de redes sociales llegaron por Facebook y el 14% por Instagram (informe fuente)
      2. En investigación interna, los usuarios que dejaron de usar Facebook/Instagram redujeron ansiedad, depresión y soledad, pero Meta detuvo el estudio y no publicó los resultados
      3. Adam Mosseri dijo que “el impacto en la salud mental de los adolescentes es pequeño”, pero un informe interno concluía que “los adolescentes no pueden dejar la app, como si fuera una adicción, y sienten presión por ser perfectos”
    • Como mínimo, convendría presentar primero las mentiras más evidentes y dejar para después lo ambiguo
    • Es posible invertir mucho dinero y aun así obtener pocos resultados, o que solo el 17% de 71 herramientas haya sido efectivo pero eso haya bastado. La proporción de efectividad no equivale automáticamente al resultado total
    • Como dice el dicho, “si mezclas pasas con mierda, al final sigue siendo mierda”; si mezclas afirmaciones fuertes con otras débiles, cae la credibilidad de todo
    • Hay muchas personas furiosas y bots que odian todo lo que dicen los multimillonarios. Se siente difícil filtrar ese ruido y distinguir los problemas reales
  • La afirmación de que “el 79% de la explotación sexual infantil en 2020 ocurrió en plataformas de Meta” me pareció demasiado exagerada, así que revisé la fuente. En realidad decía que “entre las víctimas captadas a través de redes sociales, el 65% fue por Facebook y el 14% por Instagram”. Esa cifra inflada parece sensacionalismo. Para que quede claro, ni siquiera tengo cuenta de Facebook ni me interesa Meta
    • Yo vi lo mismo. El estudio solo trataba sobre “víctimas captadas a través de redes sociales”, y el 100% del grupo era de origen en redes sociales. Al final esto solo es un mapa de cuota de plataformas, así que decir que era el 79% de todas las víctimas es una distorsión evidente
    • Entiendo que esa cifra está mal, pero sería más convincente si también se presentaran las fuentes o la lógica detrás del argumento
  • No me importaba mucho este tema, pero viendo los ejemplos del artículo terminé coincidiendo con la conclusión de Tech Oversight
    Hace poco, viendo Reels, encontré contenido claramente para adultos y lo reporté, pero lo marcaron como “no infringe las políticas”. Tal vez reciben demasiados reportes, pero Meta no está cumpliendo bien sus objetivos declarados de moderación de contenido
    • A estas alturas ya es difícil usar como excusa “hay demasiados reportes”. Si es una empresa que invierte tanto en IA, debería poder priorizar con IA los casos obvios y luego hacer que una persona los revise
    • Yo antes reporté un video de decapitación y también lo cerraron como “no infringe las políticas”
    • Reporté amenazas de violencia y Instagram dijo que “no infringe las políticas”
    • Ya antes vi reportes ignorados y luego, días después, desaparecer la cuenta. Parece que ocultan el sistema con procesamiento por lotes
    • En Twitter también he reportado decenas de veces y casi nunca lo han manejado bien
  • Por los casos que conozco, la mayoría se acerca más a una distorsión de contexto que a una “mentira”
    Por ejemplo, eso de que “Meta planeó un producto para niños de 6 a 13 años” provenía de unas diapositivas de Messenger Kids y tenía como objetivo cumplir con COPPA.
    Y la crítica de que “dicen ayudar a los padres mientras permiten que los adolescentes se comuniquen a espaldas de ellos” en realidad surgía en el contexto de discutir un problema de diseño de la función de transmisiones en vivo.
    A mí tampoco me gusta Facebook, pero aun así confío más en las palabras de Mark Zuckerberg que en este artículo
  • Recuerdo que cuando compraron Instagram se dijo que una condición era “no integrarlo con FB”, pero en la práctica da la impresión de que quedó totalmente integrado por detrás. Incluso los dos servicios se caen al mismo tiempo
    • Eso no era una condición. Si lees el comunicado de entonces, solo decía que “mantendrían la independencia y las fortalezas de Instagram” (enlace al comunicado oficial)
      Incluso podría decirse que la situación actual sigue cumpliendo esa promesa
    • No es solo la gestión de cuentas; contenido y comentarios de Instagram también se envían automáticamente a Facebook
    • Al final, parece que ocultó sus intenciones desde el principio
    • FB incluso conoce el historial de búsquedas de eBay. Es una estructura donde las empresas comparten datos sin consentimiento del usuario
    • Siempre fue una persona manipuladora. La mayor parte de la cúpula de la industria es del mismo tipo, y la gente trabaja creyendo que está “del lado moral”. Si es una empresa basada en publicidad, todas terminan siendo parecidas
  • Puede que el Congreso o el DOJ no hagan nada, pero el castigo legal por perjurio ante el Congreso está claramente establecido
    La disposición relevante está resumida en este documento de Congress.gov.
    Hacer declaraciones falsas puede implicar hasta 5 a 8 años de cárcel, y si está relacionado con trata o explotación infantil puede llegar a 8 años
  • Esto me recordó el video del testimonio ante el Congreso de los CEO tabacaleros en 1994, cuando dijeron que “la nicotina no es adictiva”
    • También está Nixon con “no soy un corrupto”, Clinton con “no tuve relaciones con esa mujer”, y de Trump ni hablar
      Viendo estos casos, da la impresión de que el procedimiento de jurar decir la verdad más bien fortalece la mentira
      Ver el caso Watergate y el escándalo Clinton–Lewinsky
  • Cuando era niño creía que “si violas la ley, vas a la cárcel”, y extraño esa época
    • Eso todavía aplica solo para gente común como nosotros. Los ricos y poderosos son la excepción
    • Yo también creía de niño que la justicia funcionaba y que el gobierno trabajaba para el pueblo. Ahora siento que todo eso era una ilusión
    • Lo confirmé al ver los escándalos de grandes financieros. La ley no aplica a los ricos. Para tratar con gente así hacen falta medios fuera de la ley
    • No es culpa de jueces de izquierda. Es un problema estructural
  • Sobre la afirmación de que “para frenar las prácticas peligrosas de Meta se necesita una ley como la Kids Online Safety Act”,
    alguien expresó su preocupación usando como ejemplo la controversia reciente por la verificación de edad en Discord, argumentando que este tipo de regulación termina forzando la verificación de identidad para todos los usuarios
    Incluso si uno no usa redes sociales, sitios como Hacker News podrían clasificarse legalmente como redes sociales
    • Quizá algún día, cuando se hable de un “internet censurado”, la gente piense antes en países occidentales (especialmente Reino Unido o EE. UU.) que en China
    • Entonces, ¿cuál sería la alternativa?
    • La polémica de Discord era por el método de verificación de identidad, y KOSA no tiene una cláusula así. Confundir KOSA con una ley de verificación de identidad es ignorancia
    • Suena a una sobrerreacción del tipo “para eliminar al agresor doméstico del vecindario, hagamos explotar una bomba nuclear en medio del pueblo”
    • Sí estoy de acuerdo con la idea de que “cuando el interés empresarial choca con el bien humano, hace falta regulación”.
      Si Facebook es perjudicial para los adolescentes y Meta lo sabía y aun así no hizo nada, entonces la regulación es un recurso inevitable
  • En iOS Safari el CSS está completamente roto: la primera columna queda fija y demasiado angosta, así que las filas se vuelven anormalmente largas
    • En Firefox de Android pasa lo mismo. Con el modo lector mejora un poco, pero sigue siendo incómodo
    • Que un sitio web esté así de roto en iOS ya es grave. Hasta da para bromear con que el Congreso debería intervenir