Está creciendo la resistencia contra la IA
(stephvee.ca)- Mientras internet se llena de contenido de baja calidad generado por IA (
slop), se están extendiendo diversos movimientos en los que la gente resiste activamente a la IA - La comunidad de Reddit r/PoisonFountain trabaja con el objetivo de suministrar a los crawlers de IA 1 terabyte diario de datos contaminados para finales de 2026
- Están apareciendo distintas formas de resistencia, como técnicas para engañar a resumidores de video con IA o la inserción intencional de datos falsos en redes sociales
- El trasfondo de esta resistencia es la realidad de que los crawlers de IA ignoran
robots.txty provocan en sitios web pequeños una carga a nivel de DDoS - Existe la expectativa de que, si este sentimiento se traduce en actos de resistencia pacíficos y legales, podría cambiar la forma en que Silicon Valley recolecta datos
Comunidad de contaminación de datos dirigida a crawlers de IA
- La comunidad de Reddit r/PoisonFountain fue creada por personas que se presentan como integrantes de la industria de la IA, y anima a que la mayor cantidad posible de gente alimente a los crawlers web con grandes volúmenes de datos basura (
poison) - La meta es suministrar a los crawlers 1 terabyte diario de datos contaminados para finales de 2026
- El cuerpo principal de estos datos contaminados está alojado en rnsaffn.com, colocado entre enlaces basura que podrían atraer a crawlers de IA
- A simple vista parece código normal, pero en realidad incluye errores sutiles, lo que produce código inutilizable
- Filtrar estos errores es posible, pero a gran escala resulta costoso
- Como las empresas de IA no pueden mejorar sus modelos sin datos nuevos creados por humanos, la estrategia central es aumentar el tiempo y el costo del robo de datos
- Miasma es una herramienta que aprovecha estos datos contaminados para suministrar grandes cantidades de basura a bots maliciosos; su desarrollador la describe como un "buffet infinito de slop para las máquinas de slop"
Conductas problemáticas de los crawlers de IA
- Los equipos que envían crawlers de IA están provocando de forma regular cargas a nivel de DDoS en sitios web pequeños, elevando los costos de hosting para todo el mundo
- No respetan
robots.txty con frecuencia esconden sus crawlers detrás de proxies residenciales - Si no pueden obtener datos de entrenamiento de manera ética, no hay razón para que los administradores de sitios web faciliten el robo de datos
Intentos de contaminar resumidores de video con IA
- En un video dado a conocer a través de r/PoisonFountain, la creadora @f4mi demostró una técnica para contaminar resumidores de video con IA usando una vulnerabilidad en los subtítulos de YouTube
- Actualmente YouTube ya corrigió esa vulnerabilidad en los subtítulos, por lo que esta técnica ya no funciona
- Aunque fue temporal, es un caso exitoso de interferencia con sistemas de IA que muestra que la gente está intentando resistirse activamente
Sabotaje intencional contra la IA en redes sociales
- En plataformas de redes sociales como Reddit, están aumentando los casos de publicar deliberadamente información falsa para contaminar los datos de entrenamiento de IA
- Como ejemplo, hay publicaciones con la falsedad evidente de que Idris Elba interpretó a la madre de Raymond en "Everybody Loves Raymond"
- Los humanos pueden detectar de inmediato por el contexto que es falso, pero los web scrapers automatizados lo interpretan como datos de calidad generados por personas
- Si estos datos llegan a OpenAI y otras empresas, se requieren recursos adicionales para eliminarlos del conjunto de entrenamiento
- Esto puede verse como una variante moderna de cuando los trabajadores textiles destruían telares mecánicos durante la Revolución Industrial; si suficientes personas contaminan el espacio público con información falsa dirigida a bots, podrían presionar a las empresas de IA para que reconsideren cómo recopilan sus datos de entrenamiento
Amplio rechazo hacia la IA
- La gente siente rechazo por el impacto de la IA en el mundo, en concreto por sus efectos sobre las comunidades en línea, el medio ambiente, las escuelas primarias y universidades, las personas en riesgo de problemas de salud mental y los medios de vida
- Hay personas que consumen y generan
slopde IA, pero tanto fuera como dentro de internet son muchas más las que detestan y rechazan esta tecnología - Rara vez el odio conduce a buenos resultados, y aquí se adopta una postura contraria a actos violentos como patear o volcar robots repartidores con IA o el incidente de lanzar una bomba molotov a la casa de Sam Altman
- Aun así, si los sentimientos hacia la IA se transforman en actos de resistencia pacíficos y legales, existe la posibilidad de cambiar de verdad la forma en que actúa Silicon Valley
Posdata: revisión del texto original tras volverse viral en Hacker News
- Este texto llegó a la primera página de un gran hub de noticias (Hacker News) y recibió de forma inesperada un gran volumen de tráfico
- Se produjo un ataque malicioso de sobrecarga del servidor, con unos pocos IP enviando miles de solicitudes a esa página
- Si hubiera sido un hosting compartido barato, es muy probable que el sitio se hubiera caído por completo; como respuesta, se bloqueó temporalmente el tráfico hacia esa URL
- Aunque no es especialista en IA, algunas personas en los comentarios la criticaron en exceso exigiendo una precisión de nivel experto
- Un comentario llegó a decir que "no es mejor que un grupo que quema bibliotecas", una reacción especialmente decepcionante para una bloguera a la que le gustan las bibliotecas y compartir conocimiento
- La intención original era compartir enlaces sobre tendencias anti-IA para sus seguidores de un blog pequeño, y su postura es que no lo habría publicado si hubiera sabido que atraería atención negativa en una plataforma tan grande
- Después decidió abstenerse de publicar opiniones personales sobre IA y concentrarse en el propósito original de su blog: disfrutar de la small web
- Es un caso que muestra cómo la expresión libre de opiniones en la small web se ve inhibida por la difusión viral
5 comentarios
Opiniones de Hacker News
Me alegra que esta persona haya encontrado una comunidad, pero siento que está demasiado abrumada por el sentimiento anti-AI. Creo que durante los próximos 30 años va a seguir existiendo gente que odie y quiera frenar la AI. Siempre hubo grupos así con los smartphones, Internet y la TV. Por otro lado, si el poisoning de modelos realmente llegara a ser posible de forma estable, me parecería un problema de ciencias de la computación bastante interesante. No comparto la causa de los activistas anti-AI, pero sí me interesan mucho las técnicas de ataque en sí. Por eso, si siguen investigando eso, creo que incluso personas que no están de acuerdo con su causa van a leer esa discusión seriamente
Me da pena porque estos intentos de poisoning me parecen energía gastada en el lugar equivocado. Ya hay suficientes datos no contaminados para entrenar, y además se sigue generando contenido nuevo mediante recolección automática del mundo real o trabajo controlado en grandes talleres de África. Así que quizá se pueda ensuciar el Internet viejo, pero no revertir la flecha del tiempo. Además, ahora está creciendo un nuevo Internet más centrado en APIs y announce federation pública, así que siento que la importancia de ese poisoning tradicional va a ir disminuyendo
Recuerdo cuando la agenda principal de la vieja cultura hacker era eliminar barreras que dificultaban usar la información, como DRM, DMCA, patent trolls o los controles de exportación de PGP. Comparado con esa época en que “Information wants to be free” funcionaba casi como lema, ahora parece un giro enorme que haya crecido tanto la idea de que, si las empresas no pueden conseguir ethically training data, no hay por qué ponérsela fácil para robarla de los sitios web. Hace 25 años habría sido difícil predecir un cambio así
Siento que la forma más fácil de aumentar la resistencia a la AI es poner a Dario Amodei y Sam Altman en TV y simplemente dejarlos hablar
Veo la AI como una herramienta corporativa para sacarle más trabajo a los empleados. Al mismo tiempo, siento que también les mete en la cabeza la ilusión de que ahora son turbo-charged devs. Hoy la tech industry me parece más un circo al que se le fue el dinero encima que un esfuerzo serio por mejorar a la humanidad
Siento que este movimiento de poisoning se parece más a slacktivism. Entiendo hasta cierto punto el análisis de que se está reemplazando trabajo de la clase trabajadora por compute, y como el compute es capital puro, al final eso significa que la clase capitalista le aprieta el cuello a la clase trabajadora. Y también creo que los capitalistas realmente podrían querer ir en esa dirección. Pero si uno lo ve así, contaminar un poco los modelos está lejísimos de enfrentar de verdad lo que está pasando
Veo esta tendencia muy fuerte en Reddit. Algunas comunidades son tan pro-AI que hasta ponen comentarios de resumen hechos por AI y fomentan publicaciones escritas por AI, mientras que otros subreddits se mueven hacia posturas cautelosas o abiertamente anti-AI. Las comunidades de fotografía tienen el problema de que su trabajo sea sospechado de ser AI, y las de programadores en general parecen favorables pero al mismo tiempo escépticas. Al final, hasta los subreddits más tradicionales están encontrando su lugar en algún punto del espectro de la AI. Pienso en ejemplos como https://www.reddit.com/r/vibecoding/, https://www.reddit.com/r/isthisAI/, https://www.reddit.com/r/aiwars/, https://www.reddit.com/r/antiai/, https://www.reddit.com/r/photography/comments/1q4iv0k/what_do_you_say_to_people_who_think_every_photo/, https://www.reddit.com/r/webdev/comments/1s6mtt7/ai_has_sucked_all_the_fun_out_of_programming/
Ojalá en algún momento podamos tener una conversación más matizada sobre la AI y el papel que debería tener en el mundo. Ahora mismo el ambiente parece casi reducido a dos extremos. Entre la postura de sacar la AI por completo del mundo y la de entregarle todo, me gustaría discutir cosas más reales como el uso responsable, los amortiguadores sociales o el problema del consumo energético
Siento que la ira del blog original también es excesiva, pero igual me deja un mal sabor ver a gente que de verdad cree que estos intentos de poisoning no pueden perjudicar en absoluto el entrenamiento de modelos; eso también me suena a una falta de comprensión técnica
Quiero hacer el chiste de “Resistance is futile”, pero al mismo tiempo sí conecto bastante con la idea de que la AI está arruinando comunidades de verdad. Por ejemplo, YouTube hasta ha puesto el procesamiento de reportes en manos de AI, de modo que actores maliciosos pueden afirmar que videos originales de otros les pertenecen y quitarles ingresos mediante demonetize. A YouTubers conocidos como Davie504 les ha pasado, y encima hasta las apelaciones las procesa otro robot, lo que resulta desesperante
Aparte de contaminar los datos con los que aprende la IA, ¿no hay otras formas de resistencia?
Por ejemplo, no consumir contenido generado por IA...
Yo también, mientras leía esto, pensé que quizá sin querer también termina envenenando a los humanos.
No sé dónde se generó el problema, pero a
'kkim','bom','doem'y'jim'se les está agregando un'eum'que no encaja. ¿Será también poisoning? ;)Parece que el modelo cambió un poco, porque el mismo prompt está fallando. Ya corregí esta parte.