1 puntos por GN⁺ 2026-03-19 | 1 comentarios | Compartir por WhatsApp
  • Denunciantes internos revelaron que Meta y TikTok, aun sabiendo por investigaciones internas que mientras más enojo provocaba el algoritmo mayor era la participación, expusieron a los usuarios a más contenido dañino en sus feeds
  • Un ingeniero de Meta dijo que recibió instrucciones de aumentar la exposición a “contenido fronterizo” por la caída del precio de la acción, y un empleado de TikTok mostró un panel interno donde casos relacionados con políticos se atendían antes que daños a menores
  • Reels de Meta fue lanzado para competir con TikTok sin suficientes medidas de seguridad, y una investigación interna confirmó que la proporción de comentarios con acoso, discurso de odio y violencia era mayor que en el feed principal de Instagram
  • Un integrante del equipo interno de seguridad de TikTok declaró que, para mantener relaciones políticas, la seguridad infantil quedó relegada, y advirtió: “los padres deberían borrar la app”
  • Ambas empresas negaron haber amplificado intencionalmente contenido dañino, pero los documentos internos y los testimonios exponen un problema estructural en el que los algoritmos centrados en la participación priorizaron las ganancias sobre la seguridad de los usuarios

Resumen de las revelaciones de los denunciantes internos

  • Más de 12 denunciantes y personas vinculadas declararon que se ignoraron problemas de seguridad como contenido relacionado con violencia, explotación sexual y terrorismo mientras se competía por la participación de los usuarios
    • Un ingeniero de Meta afirmó que recibió instrucciones de la dirección para dar más exposición a “contenido fronterizo” como misoginia y teorías de conspiración
    • Un empleado de TikTok presentó a la BBC casos donde reportes relacionados con políticos fueron priorizados por encima de daños a menores
  • Dentro de TikTok se mencionó que mantener relaciones con políticos era una razón para evitar riesgos regulatorios o de prohibición

Investigación interna de Meta y problemas de Reels

  • El investigador de Meta Matt Motyl dijo que en el momento del lanzamiento de Reels (2020) faltaban medidas de seguridad
    • Según investigaciones internas, los comentarios en Reels tenían tasas 75%, 19% y 7% más altas de acoso, discurso de odio e incitación a la violencia, respectivamente, que el feed principal de Instagram
  • La empresa destinó 700 personas al crecimiento de Reels, mientras que se rechazó ampliar el personal de equipos encargados de protección infantil e integridad electoral
  • Documentos internos señalaron que el algoritmo priorizaba maximizar ingresos antes que el bienestar del usuario
    • Incluían la expresión: “Facebook puede hacer que los usuarios se consuman como ‘comida rápida’, pero eso difícilmente será sostenible a largo plazo”

Testimonio del equipo interno de seguridad de TikTok

  • La BBC estuvo en contacto durante varios meses de 2025 con “Nick”, empleado del equipo de confianza y seguridad de TikTok
    • Él dijo que la adopción de IA y los recortes de personal debilitaron la respuesta al contenido dañino
    • Testificó que confirmó un aumento de materiales relacionados con terrorismo, violencia sexual, abuso y trata de personas
  • Se mostró un caso en un panel interno donde una publicación satírica sobre políticos fue revisada antes que un caso de sextorsión contra una adolescente
    • También se confirmó que, en casos como el de una víctima iraquí de 16 años, la urgencia fue clasificada como baja
  • Nick dijo que “la empresa valora más las relaciones políticas que la seguridad infantil” y aconsejó a los padres “borrar TikTok”
  • TikTok respondió que el contenido político no tiene prioridad sobre la seguridad infantil y calificó esas afirmaciones como una distorsión
    • Explicó que a las cuentas de adolescentes se les aplican más de 50 configuraciones de seguridad predeterminadas

Competencia algorítmica y respuesta de Meta

  • Durante 2020, en plena pandemia de COVID-19, Meta lanzó de emergencia Reels para responder al rápido crecimiento de TikTok
    • Motyl comentó que “la velocidad fue prioritaria por encima de la protección del usuario”
    • El equipo de Reels habría evitado introducir funciones de seguridad porque el contenido dañino generaba mayor participación
  • Brandon Silverman (fundador de Crowdtangle) declaró que en ese momento Mark Zuckerberg era extremadamente sensible a la competencia
    • Se asignaron 700 personas a la expansión de Reels, mientras los equipos de seguridad tenían dificultades para conseguir personal
  • Un exingeniero de Meta, “Tim”, afirmó que las restricciones sobre el “contenido fronterizo” se relajaron por la competencia con TikTok
    • Mencionó que “ante la caída del precio de la acción y la presión sobre ingresos, se decidió flexibilizar medidas para asegurar ingresos de corto plazo”

Cómo funciona el algoritmo y su impacto social

  • Documentos internos indican que el contenido que provoca enojo y estimulación moral genera alta participación, y que el algoritmo lo favorece
    • La lógica es que “cuanto más enojo siente el usuario, más contenido consume”
  • Expertos antiterrorismo de la policía británica reportaron recientemente haber observado una “normalización” de publicaciones antisemitas, racistas y de violencia de extrema derecha
  • Un usuario adolescente declaró que fue “radicalizado” por el algoritmo desde los 14 años, y explicó que esto reforzó su ira y su odio

Postura oficial de las empresas

  • Meta: “No es cierto que amplifiquemos contenido dañino por beneficio económico”
    • Recalcó que en la última década ha realizado grandes inversiones en seguridad y protección, y que ha introducido funciones de protección para adolescentes
  • TikTok: dijo que “las afirmaciones están manipuladas” y explicó que sigue invirtiendo en tecnología para evitar la exposición a contenido dañino
    • Añadió que “apoya a millones de personas para descubrir nuevos intereses y formar comunidad”

1 comentarios

 
GN⁺ 2026-03-19
Opiniones de Hacker News
  • Durante los últimos 5 años, esto ya parece haberse vuelto sentido común
    Pero la verdadera pregunta es: “entonces, ¿qué se supone que hagamos?”
    Yo trato de no desperdiciar tiempo enojándome en línea, pero esto es una patología social demasiado grande para que la cargue un individuo

    • Creo que habría que impedir este comportamiento con regulación, o de plano cerrar a las empresas
      Si Meta o TikTok tienen un balance neto negativo para la sociedad, no tienen ningún derecho natural a existir
    • Hay que gravar y regular con fuerza la publicidad en línea
      La raíz del problema es que “impulsar la participación” deja demasiado dinero. Mientras no desaparezca ese incentivo económico, el problema no va a desaparecer
    • Mi feed de Instagram últimamente está casi lleno de videos de políticos, polémicas sobre el presidente y contenido sensacionalista
      Siento que obtengo más información que escuchando solo NPR, pero evito el contenido fabricado (edición, música, narración, etc.)
      Quiero recibir solo la reacción emocional que proviene de algo que realmente pasó o de algo que alguien dijo
      El “contenido como noticia” tiene que tener autenticidad
    • Un enfoque tipo “reduzcamos el efecto de la droga” no es la respuesta. Prohibir tampoco lo es
      Si vemos por qué la Gen Z bebe menos alcohol que los millennials, quizá ahí haya una solución
    • Probablemente no hagamos nada y solo sigamos quejándonos
  • La expresión “contenido dañino” al final significa algo que no le gusta al gobierno o a cierto país
    Al final suena a otra exigencia más de censura

    • Según una investigación interna de la BBC, en los comentarios de Reels había mucho más acoso y discurso de odio que en otros lugares
      Si algún grupo se opone a ese tipo de violencia, ¿no sería más bien algo bueno?
    • En mi feed de TikTok a veces aparece incitación directa a la violencia contra judíos
      Aunque lo reporte, lo único que recibo es una respuesta de “no infringe las normas”
  • Es frustrante que estas plataformas sigan operando así
    El daño social ya se conoce desde hace más de 10 años y aun así no pasa nada
    Facebook y TikTok son básicamente drogas digitales, diseñadas además por personas sin empatía social

  • Este resultado no sorprende. A la mayoría de la gente tampoco
    Aun así, es bueno que por fin se presente evidencia clara

  • ¿Será que este fenómeno es inevitable?
    Como genera clics, vistas y participación del usuario, si una plataforma lo hace, las demás terminan siguiéndola

    • Ahora los usuarios tienen que administrar su propio feed. Ya no se puede esperar que la plataforma lo ordene por ti
    • La participación no es lo mismo que la cuota de mercado
      Por ejemplo, si un empleado de McDonald's insulta a los clientes, quizá aumente la “participación”, pero la cuota de mercado bajaría
  • Era obvio que iban a actuar así
    Mientras sea legal y les deje ganancias, lo seguirán haciendo

  • Esta historia se repite al menos desde 2012
    Está bien resumida en el libro de Max Fisher The Chaos Machine
    Tanto Facebook como YouTube, cuando reciben críticas, dicen que “tomaron medidas”, pero en la práctica repiten el ciclo de evadir, retrasar, minimizar y negar

  • Me pregunto si existe alguna organización que supervise los algoritmos dañinos e incluso presente demandas
    Reset.tech hace un buen trabajo en este campo, pero quisiera saber si hay otras, y también quién las financia

  • Si ganan 20 mil millones de dólares y la multa es de 200 millones, no les va a importar en absoluto la salud mental de los usuarios

  • Mientras el público siga respondiendo al contenido sensacionalista, no hay razón para que las plataformas no lo exploten
    La mayoría de las publicaciones al final no son más que cebo para clics