La IA se enfrentará a la violencia, y nada bueno saldrá de ello
(thealgorithmicbridge.com)- La violencia contra la tecnología, originada en el movimiento ludita de la Revolución Industrial, está resurgiendo hoy en forma de ataques contra la IA y los centros de datos
- Se están acumulando casos reales de violencia, como el ataque con cócteles Molotov a la casa del CEO de OpenAI, Sam Altman, un tiroteo contra un centro de datos y amenazas de muerte por parte de activistas anti-IA
- Cuanto más imposible sea destruir físicamente la tecnología, más tiende la ira a dirigirse contra los humanos que la crearon
- La industria de la IA, al repetir que habrá reemplazo de empleos y un futuro incierto, está estimulando la desesperación y la ira del público
- Si este círculo vicioso continúa, existe el riesgo de que la violencia de la era de la IA termine en un colapso dentro de la sociedad humana
La vulnerabilidad de la tecnología y la violencia humana
- El telar (loom) es una estructura delicada que puede romperse fácilmente según la humedad o la tensión; es un símbolo de la Revolución Industrial y una herramienta sofisticada creada por las manos humanas
- Su estructura, hecha de piezas conectadas por madera e hilo, puede venirse abajo por una pequeña grieta o una mínima holgura
- Fue la base de la industria textil y se menciona como el punto de partida del desarrollo tecnológico que luego condujo a fábricas, instalaciones energéticas y centros de datos
- El centro de datos (datacenter) se compara con el “telar” moderno: una enorme estructura de concreto, acero y cobre, con diseño redundante y sistemas de seguridad
- Está protegido por cerraduras biométricas, cercas eléctricas y guardias armados, y está diseñado para que una sola falla no detenga todo el sistema
- Los algoritmos en su interior no existen como equipos físicos, sino como patrones digitales distribuidos por todo el mundo
- Se subraya que, más allá de la destrucción física, es imposible detener a los algoritmos y la superinteligencia (superintelligence) en sí mismos
- La superinteligencia es descrita como algo que “sale de la caja”, es decir, una entidad que los humanos ya no pueden controlar
- Algunos incluso argumentan que habría que bombardear centros de datos para impedirlo, y se menciona un caso real en el que la Guardia Revolucionaria iraní amenazó con destruir el campus Stargate de OpenAI
- El texto advierte que, aunque la tecnología avance, la vulnerabilidad física de los seres humanos no cambia, y que al final el objetivo de los ataques no será la tecnología, sino las personas
Repetición histórica: de los luditas a la era de la IA
- Se presenta el caso de 1812 en Inglaterra, cuando el dueño de una fábrica textil, William Horsfall, fue asesinado a tiros por el activista ludita George Mellor
- Horsfall se jactaba de reprimir a los trabajadores, y Mellor fue ejecutado en la horca
- Se plantea como un ejemplo histórico de cómo la violencia surge cuando el avance tecnológico amenaza la supervivencia humana
- En paralelo, se relata el caso de 2026 en San Francisco, Estados Unidos, cuando la casa del CEO de OpenAI, Sam Altman, fue atacada con cócteles Molotov
- El atacante fue Daniel Alejandro Moreno-Gama, de 20 años, actualmente detenido
- Altman y su familia resultaron ilesos, pero el hecho se menciona como el inicio de la violencia directa contra líderes tecnológicos
- También se menciona el caso del concejal de Indianápolis Ron Gibson, cuya casa recibió 13 disparos junto con el mensaje “NO DATA CENTERS”
- Gibson había apoyado la construcción de un centro de datos en la zona, y ni él ni su hijo resultaron heridos
- En 2025 también se reportó el arresto de un activista anti-IA que hizo amenazas de muerte contra la oficina de OpenAI en San Francisco
- Estos hechos muestran que la ira contra la IA y los centros de datos se está transfiriendo hacia la violencia contra personas
- Cuanto más inaccesible es el objetivo tecnológico, más se redirige la ira hacia blancos humanos
El vínculo entre desesperación y violencia
- Se señala que el hecho de que los líderes de empresas de IA repitan que “la IA va a reemplazar empleos” está alimentando la ira del público
- La gente siente: “ustedes son los responsables de haber creado esta época incierta”, y la reacción emocional se intensifica
- Normalmente hay una gran fricción antes de llegar a la violencia, pero esa fricción puede desaparecer cuando se extiende una desesperación compartida
- Cuando las personas sienten que han sido excluidas del futuro, es decir, que pierden sus medios de vida y serán reemplazadas por la tecnología, el riesgo de violencia puede volverse real
- Eso puede desembocar en una elección extrema: “vivir o matar”
- Se afirma que el mayor error de la industria de la IA fue anunciar un reemplazo masivo de empleos sin una transición segura
- Se repiten declaraciones del tipo: “estamos construyendo una tecnología que va a alterar por completo el trabajo de cuello blanco”, amplificando la ansiedad social
- El texto critica que ese tipo de discurso autorreferencial da una impresión deshumanizada y psicopática
El odio hacia la IA y la lógica del chivo expiatorio
- La gente está convirtiendo a la IA en un chivo expiatorio de todos los problemas sociales, mezclando problemas reales con afirmaciones falsas para canalizar su ira
- Por ejemplo, se mencionan juntos problemas reales como el robo de datos y afirmaciones falsas como el agotamiento de recursos hídricos
- Las empresas también culpan a la IA de los despidos para evitar la condena social
- La propia industria de la IA, al reforzar la imagen de que se trata de una tecnología peligrosa y poderosa, está provocando por sí misma la desconfianza y el miedo del público
- Surge de forma natural la reacción: “si la IA es tan peligrosa, ¿por qué tenemos que aceptar nosotros el daño?”
- La violencia contra Altman jamás puede justificarse, pero sí existe la posibilidad de que la violencia continúe
- Los incidentes recientes son interpretados como señales iniciales de ello
El círculo vicioso que debe detenerse
- Ya se han reportado efectos adversos de la IA como trastornos mentales, adicción, desempleo y deterioro de la alfabetización
- Hay que detener esto antes de que esta ansiedad social se transforme en violencia
- El texto concluye que el desarrollo tecnológico no debe avanzar en una dirección que amenace la dignidad y la seguridad humanas
1 comentarios
Opiniones de Hacker News
Mientras la gente siga metiendo a la IA en la misma bolsa que la ‘desigualdad’ o el ‘acelerador de desigualdad’, al final se siente como si todo fuera culpa de la IA
En realidad, hay que pensar ambas cosas por separado. Lo que sí está claro es que, si le quitas a la gente su sustento con alegría, eso volverá en forma de violencia
Antes de decir “ese es trabajo del gobierno”, habría que pensar de dónde sale el dinero del lobby. Casi no hay CEOs ni empresas peleando por una red de seguridad social
Para la gente, la IA es básicamente una herramienta de poder para los ricos, y sienten que están empeorando el mundo. En esa situación, a nadie le importan las distinciones académicas
Si eso pasa, el poder de la IA se democratizaría y todos podrían tener por igual los medios de producción
En mi experiencia, el autor da la impresión de estar sentado en una especie de zona moral neutral. Esa postura de “la violencia es mala pero inevitable” no ofrece ninguna solución real
El problema de fondo no es la tecnología, sino la forma en que quienes tienen poder la usan para su propio beneficio.
Cuando a la gente le quitan sus medios de supervivencia, la violencia se vuelve inevitable. Históricamente, la violencia muchas veces fue un medio para forzar compromisos. La IA ya está preparando esa etapa mediante vigilancia y militarización
El texto de Cory Doctorow va en la misma línea. La única solución es la acción política, y la tecnología sin gobernanza es peligrosa
La IA ignora las reglas de la sociedad humana casi como si fuera un invasor alienígena. Se puede copiar, está en todas partes y no tiene restricciones físicas
La codicia humana permitió esa ‘invasión’, y al final la propia humanidad invitó al dominio de la IA
Recomiendo estudiar la historia de la Revolución Industrial. Industrial Revolutions Podcast es un buen recurso
La velocidad del cambio actual se parece a la de ese período. En ese tiempo también la spinning jenny destruyó de la noche a la mañana el sustento de quienes tejían telas artesanalmente
Siento que el atractivo casi mágico de los LLM se ha desgastado bastante por la forma exagerada en que hablan los CEOs de las FAANG
Como en la relación entre Tony Stark y Jarvis, el objetivo final no es el humano sino la automatización total
A menudo pregunto si hay alguien preparándose para “el mundo en el que la IA haya triunfado”
Los experimentos de UBI causaron inflación, y antes de que termine el ajuste del mercado la legislación no podrá ponerse al día
Los sindicatos de varios países también están hablando con el poder político, y hay formas de participar
El refuerzo de la verificación de identidad en línea también forma parte de eso
Pienso que, si la IA reemplaza la creatividad y el trabajo humanos, lo único que quedará será el choque sangriento
Incluso los ‘trabajos inútiles’ existen, en parte, por el intercambio humano que generan
Lo que sí cambiará es el significado del ‘trabajo’
El trabajo necesario para sobrevivir ya está suficientemente automatizado, y en adelante quedará la búsqueda de sentido humano
Ante la frase “este es el camino al caos”, alguien señala la realidad de que la IA ya se está usando en la guerra
Según este artículo, miles de personas ya han muerto bajo sistemas de armas asistidos por IA
La violencia no es la respuesta, pero sí una vía de escape para la rabia reprimida. Decir solo “la violencia no” no alcanza para detener la realidad
Últimamente estoy investigando el movimiento ludita. Sam Altman se parece un poco a Edmund Cartwright
Él también fue el inventor del telar mecánico, y hasta sobrevivió a un intento de asesinato. La época es distinta, pero se siente como una repetición de la historia