2 puntos por GN⁺ 2025-04-26 | 2 comentarios | Compartir por WhatsApp
  • En X.com, el algoritmo y las cuentas populares manipulan silenciosamente la exposición del contenido
  • La prueba social se manipula no a partir de la opinión pública real, sino de la cercanía con personas influyentes
  • A través de una reacción en cadena de la percepción, ciertas narrativas se refuerzan y se expanden gradualmente
  • En el pasado, el Astroturfing se hacía con cuentas falsas, pero ahora se aprovecha a usuarios reales seleccionados
  • Las personas creen que eligen por sí mismas, pero en realidad el algoritmo ajusta las opciones disponibles

Autoridad algorítmica

  • Los usuarios influyentes y el diseño de los algoritmos de recomendación ajustan silenciosamente qué ve la gente, qué recibe atención y qué queda enterrado
  • Si una cuenta con 219 millones de seguidores simplemente pone en 'mute' a una cuenta pequeña, las vistas de esa cuenta pueden desplomarse en un solo día de 150,000 a 20,000
  • Esto es una forma de shadowban realizada por el algoritmo, no por una infracción explícita de reglas ni por un aviso
  • En cambio, si una cuenta influyente envía una señal positiva, el contenido se difunde rápidamente y gana reconocimiento
  • Incluso un simple like o comentarios repetidos pueden funcionar como AstroBoost™, simulando actividad y provocando amplificación

Manipulación de ingeniería social de la prueba social

  • Antes, la prueba social reflejaba la sabiduría colectiva, pero hoy la aprobación algorítmica es el factor principal
  • Una sola interacción con una cuenta influyente puede distorsionar la popularidad de un contenido
  • Como resultado, se fabrica una popularidad artificial, se resaltan las narrativas elegidas por el algoritmo y las ideas orgánicas quedan sepultadas
  • Esto no se define como fraude, sino como infraestructura de influencia

Reacción en cadena de la percepción

  • Sin necesidad de borrar ni bloquear contenido, su visibilidad se reduce simplemente bajando su prioridad dentro del feed
  • De esta forma, el contenido naturalmente se ve menos y su presencia desaparece
  • En cambio, el contenido que recibe señales positivas desencadena una reacción en cadena, se expande entre cuentas similares y la misma narrativa se refuerza repetidamente
  • Los usuarios perciben este proceso como algo natural, pero en realidad es un resultado ya filtrado y jerarquizado

Astroturfing 2.0

  • El astroturfing del pasado usaba cuentas falsas y bots, pero ahora se aprovecha a usuarios reales seleccionados
  • Las cuentas de élite activan el algoritmo, y los demás usuarios quedan atrapados en su onda expansiva
  • No se trata de engañar a la multitud, sino de conducirla
  • Al amplificar selectivamente usuarios reales y participación real, se forma una ilusión de consentimiento generalizado
  • El contenido que permanece y sobrevive en el feed termina siendo percibido como el "consenso"

Lo visible y lo invisible

  • La manipulación de percepción a gran escala termina determinando qué ve, compra, apoya e ignora la gente
  • No solo distorsiona la atención, sino que ajusta el resultado final
  • La verdad no se define por 'qué es real', sino por 'qué se muestra'
  • Lo que no se muestra es como si no existiera
  • Este fenómeno no es un problema exclusivo de una sola red social

Apéndice: los ruidosos siempre caen primero

  • La influencia más efectiva no se exhibe; ajusta silenciosamente la percepción con una sola señal algorítmica
  • Las fuerzas que intentan controlarlo todo de forma descarada son detectadas con facilidad y no duran mucho
  • En cambio, sobreviven las fuerzas que manipulan las opciones mientras hacen creer a las personas que eligieron por sí mismas

2 comentarios

 
ndrgrd 2025-04-26

Más allá de si lo que dice el artículo es cierto o no, por mi experiencia usando Twitter, no solo en el feed sino también en las respuestas, parece que primero se muestran las cuentas con más seguidores, y no las que tienen más likes o retuits.
Entonces uno termina viendo solo las opiniones de personas que ya tienen mucha influencia (seguidores), y las decenas o cientos de opiniones que quedan enterradas abajo, tengan muchos likes o no, tienen muy pocas probabilidades de ser vistas.

De hecho, incluso fuera de las redes sociales, este tipo de exposición ya se adopta en muchos lugares, así que quizá habría que decir que buscar conscientemente la mayor cantidad posible de opiniones es una virtud esencial para moverse por internet.

 
GN⁺ 2025-04-26
Opiniones de Hacker News
  • Parece que Twitter suprime publicaciones, pero las expone si bots de odio las marcan como spam
    • También he visto evidencia de que publicaciones que le gustan a Twitter (publicaciones antiinmigración violentas y llenas de odio) son marcadas como spam por bots de amor
    • Twitter parece un canal de propaganda operado por Donald/Elon y compañía
  • Da escalofríos que estas políticas generen un efecto compuesto
    • Si tienes solo unas cuantas cuentas fuertes en X, obtienes la capacidad de crear más cuentas
    • No solo puedes silenciar a otras personas, también puedes aumentar tu capacidad de silenciarlas promoviendo aliados afines
  • Estamos en las primeras etapas de la captura de influencia, y hay una discusión sobre cómo la influencia es el nuevo capital
    • Estamos replicando sistemas que permiten la acumulación de capital en la nueva era digital
  • Reddit es el peor; en cualquier lugar que merezca atención, el consenso fabricado está por todas partes
  • Sorprende que esta publicación haya obtenido hasta 40 puntos
    • El autor presenta una gráfica en la que las vistas de cierto usuario caen en picada después de una "pelea con Musk"
    • Eso es sospechoso y vale la pena mencionarlo, pero el resto del blog no es más que sermonear sobre "ingeniería social" y "cascadas de percepción" sin ninguna evidencia
    • Me pregunto si la gente vota viendo solo el título y el primer párrafo
    • Casi no se perdería nada si este artículo se redujera solo a la gráfica
  • ¿El título es irónico? ¿Sirve de ayuda?
    • El libro de Chomsky y Herman "Manufacturing Consent" describe una técnica que casi no se usa en esta situación
    • Aquí se parece más a un medio operado por el Estado
    • En el caso de Chomsky, el poder del editor proviene de la discreción; aquí, en cambio, proviene de que no se le puede detener aunque se sepa quién es el editor
    • La gente queda expuesta como externa si no acepta su papel como fan
    • Como la mayoría da el paso predeterminado de no hacer nada, termina acumulando evidencia de que es fan o forma parte de la turba
    • Esa es una función coercitiva que condiciona la aceptación
  • En este caso, artículos que muestran lo que pasa cuando te opones al editor, y discusiones como esta, refuerzan al editor y aumentan el efecto de autocensura
    • Tal vez sea mejor abandonar una plataforma cuando no cumple con sus afirmaciones de imparcialidad
  • X vuelve a estar lleno de bots que venden criptomonedas y servicios financieros
  • El artículo sobre el "consenso fabricado" de X es exagerado
    • La influencia siempre ha sido curada
    • El pecado de X no es un algoritmo maligno, sino operar a escala planetaria
    • Convertimos miles de pequeñas comunidades en una sola competencia global de ruido
    • El algoritmo es solo el engranaje que mantiene este caos
    • También hay quienes fingen que existe un algoritmo perfecto
    • Un sistema "perfecto" es una red compleja de algoritmos distintos en espacios distintos
    • Señalar el código de X es perder de vista lo esencial
    • Nos inscribimos en este circo planetario y seguimos comprando boletos
  • No hay forma de saber si el algoritmo realmente funciona así
    • El artículo solo muestra una gráfica de una instancia específica, y puede haber muchas explicaciones para una caída abrupta en la audiencia
  • Sentí similitudes con HN
    • Al menos HN intenta ser transparente respecto al "algoritmo"
    • Es un algoritmo inherentemente simple en comparación con el que usan X/FB y otros
  • Me pregunto si el algoritmo se ve afectado por bloquear cuentas de alto perfil en estos casos
    • Por ejemplo, bloqueé a Musk hace mucho tiempo, porque si no el algoritmo seguía empujando su 'contenido'
    • Me pregunto si el algoritmo todavía prioriza para mí las cosas con las que él interactuó, o si eso solo pasa con quienes no lo han bloqueado
    • Se recomiendan cosas con las que se espera que él interactúe, pero no sé por qué exactamente eso termina siendo empujado hacia mí