La industria de la IA está descubriendo que el público la detesta
(newrepublic.com)- La hostilidad hacia la IA y los centros de datos ha crecido hasta el punto de que ya aparecen actos de violencia con motivación política, incluyendo un ataque con bomba molotov contra la casa de un CEO de una empresa de IA y un tiroteo contra la casa de un concejal que apoyaba un centro de datos
- La brecha entre el optimismo de los expertos y la percepción pública también se ha ampliado mucho, y la proporción de personas que ve de forma positiva los efectos de largo plazo de la IA sobre el empleo y la economía es mucho menor entre el público general
- Las visiones extremas del futuro y las exigencias de inversión masiva se combinan con el empleo ya inestable, el alza del costo de vida y la preocupación por las tarifas eléctricas, haciendo que la IA parezca algo impuesto a una población que no la quiere
- La promesa de productividad todavía no ha sido demostrada con claridad: muchas empresas no han percibido mejoras de productividad tras adoptar IA, y muchos programas piloto tampoco han logrado generar ganancias
- Para recuperar la confianza, hoy importan más las acciones verificables, la transparencia sobre el desempeño real, la aceptación de regulación y responsabilidad, y la participación local en la expansión de centros de datos que los documentos de política o la publicidad
Rechazo creciente y señales de violencia
- La casa de Sam Altman, CEO de OpenAI, fue objeto de un ataque con bomba molotov, y el sospechoso dejó un manifiesto advirtiendo sobre la amenaza existencial de la IA
- El sospechoso fue arrestado ese mismo día, y los detalles aparecen en un reporte de SF Standard
- El manifiesto incluía una frase que decía que había que matar a los CEOs de empresas de IA, junto con una descripción en Instagram donde se llamaba a sí mismo “butlerian jihadist”
- En Indianapolis, la casa del concejal demócrata local Ron Gibson recibió 13 disparos, y dejaron una nota en la puerta que decía “No Data Centers”
- En ese momento estaba en la casa su hijo de 8 años, pero no resultó herido
- Gibson había apoyado un posible proyecto de centro de datos en su distrito, y el caso está resumido por PBS NewsHour
- Ambos casos fueron descritos como violencia con motivación política, y en redes sociales incluso hubo reacciones que parecían celebrarlo
- Un ejemplo relacionado enlaza a una publicación en X
Brecha de percepción entre el público y la industria
- El Artificial Intelligence Index 2026 de Stanford mostró una gran brecha entre el optimismo de los expertos y la percepción pública
- Sobre el impacto de largo plazo en el empleo, el 73 por ciento de los expertos fue positivo, y sobre el impacto económico el 69 por ciento también lo vio positivamente
- Entre el público general, solo el 23 por ciento y el 21 por ciento, respectivamente, tuvo una visión positiva, y casi dos tercios de los estadounidenses creen que la IA reducirá empleos en los próximos 20 años
- En la encuesta de Gallup de marzo de 2026, el escepticismo sobre la IA entre la Gen Z se intensificó
- La proporción que decía sentirse emocionada por la IA bajó de 36 por ciento a 22 por ciento
- La proporción que decía sentir enojo hacia la IA subió de 22 por ciento a 31 por ciento
- Esta tendencia se cruza con una reacción que ve la IA no como una tecnología común, sino como un proyecto político de las élites
- Jasmine Sun lo resume como una visión del mundo donde multimillonarios desconectados intentan imponerla a un público que no la quiere
El mensaje de la industria y los costos reales que alimentaron el rechazo
- Durante mucho tiempo, los principales CEOs de la industria de la IA han enfatizado alternativamente visiones extremas del futuro
- Por un lado, presentan amenazas como que la IA podría extinguir a la humanidad mediante superarmas biológicas
- Por el otro, difunden mensajes de que la IA podría reemplazar empleos enteros o incluso terminar creando una economía que empuje a la gente al gig economy
- Estos mensajes chocan con las condiciones de vida inestables que ya experimenta el público general
- En particular, el mercado laboral, incluyendo a los recién graduados, se presenta como muy inestable
- Los beneficios económicos están concentrados en el 0.1 por ciento más rico, mientras que los precios de alimentos, vivienda y gasolina siguen subiendo
- En este contexto, la industria exige al mismo tiempo inversiones gigantescas y una expansión masiva de centros de datos
- El informe de Stanford recoge esta tendencia en la que la industria pide atraer inversiones sostenidas por cientos de miles de millones de dólares
- La expansión de centros de datos también está afectando las tarifas eléctricas locales, como explica Brookings
- En Virginia, epicentro del boom de centros de datos en Estados Unidos, una proyección publicada por Georgetown Environmental Law Review señala que las tarifas residenciales de electricidad podrían subir hasta 25 por ciento para 2030
La brecha entre la promesa de productividad y los resultados reales
- Estos costos solo podrían asumirse si la IA mostrara beneficios públicos concretos o mejoras claras en el trabajo, pero la evidencia todavía es débil
- Según un artículo del NBER de febrero de 2026, el 80 por ciento de las empresas que comenzaron a adoptar IA de forma activa reportó que no hubo impacto en la productividad de la empresa
- La cifra se cita a través de un resumen de Tom's Hardware
- Un estudio del MIT de 2025 planteó que el 95 por ciento de los programas piloto de IA en empresas no generó ninguna ganancia
- Ese material aparece en el State of AI in Business 2025 Report
- Incluso en áreas con altas expectativas sobre la IA, como la programación y el trabajo técnico, la verificabilidad de las métricas de productividad se está debilitando
- El ingeniero de machine learning Han-Chung Lee señala en una publicación de GitHub que, aunque internamente aparezcan cifras positivas, podrían ser valores creados para cumplir metas de adopción y ser difíciles de auditar de forma efectiva desde afuera
- Aun así, considerando que ChatGPT fue el primer caso de demostración masiva lanzado en noviembre de 2022, es natural que una nueva tecnología pase por una etapa inicial accidentada
Qué se necesita para recuperar la confianza y cuáles son los límites actuales
- La brecha entre la experiencia tecnológica que percibe el público y la forma en que la industria habla de sí misma ya está produciendo consecuencias visibles
- En Estados Unidos, casi la mitad de los centros de datos previstos para 2026 fueron cancelados o retrasados, según TechRadar
- Incluso apareció una encuesta según la cual la industria de la IA es menos apreciada que ICE o Donald Trump
- Big Tech también ha comenzado a reconocer los problemas que podrían golpear al público general y a proponer algunas medidas de mitigación
- En abril, OpenAI publicó un Industrial Policy White Paper con propuestas como crear un Public Wealth Fund, rediseñar la red de protección social y medir en tiempo real el impacto laboral de la IA
- En enero, Microsoft prometió subsidios a servicios públicos en las comunidades donde construya centros de datos y minimizar el uso de agua mediante su Community-First AI Infrastructure Initiative
- Pero entre las promesas de los comunicados y la capacidad de ejecución real vuelve a quedar una brecha
- La Community-First Initiative de Microsoft no incluye un mecanismo independiente para rastrear responsabilidades
- El nuevo documento de OpenAI parece moverse hacia una política tecnológica más progresista, pero Greg Brockman envió millones de dólares a un SuperPAC que busca frenar la regulación estatal sobre IA, según Fortune
- OpenAI también apoya la Senate Bill 3444 de Illinois, presentada como una ley que protege a las empresas frente a daños masivos causados por modelos de IA
- En el mismo artículo se dice que Anthropic se opone a esa ley
- Junto con el artículo de New Yorker de Ronan Farrow sobre Sam Altman, también se destaca un patrón repetido: expresar apoyo público a ciertas posturas y luego cambiar rápidamente de dirección cuando eso beneficia a la empresa
- Para restaurar la confianza, importa más que otro white paper haya acciones sostenidas y verificables
- Hace falta transparencia real sobre lo que los productos realmente pueden hacer
- También hay que aceptar regulación y responsabilidad significativas, aunque impliquen costos financieros
- La expansión de centros de datos requiere una participación democrática real de las comunidades locales
- De lo contrario, el crecimiento del populismo anti-IA y la posibilidad de violencia asociada también podrían aumentar
1 comentarios
Opiniones de Hacker News
Creo que las críticas a la IA deben dividirse al menos en tres partes y discutirse por separado. Las soluciones son distintas
La primera es la pérdida de empleos, y esa es relativamente simple. La productividad de la IA debería compartirse con toda la sociedad, especialmente considerando que la IA se entrenó con el trabajo de la sociedad. La forma más fácil sería cobrar un impuesto al uso de la IA y destinarlo a una UBI. Si la gente mantiene sus ingresos aunque pierda el trabajo, el descontento sería mucho menor
La segunda es el costo ambiental, y esa es más complicada. La clave está en mejorar la eficiencia y ampliar la energía limpia, y los impuestos junto con regulaciones de eficiencia podrían ser un punto de partida. La tecnología de energía sostenible ya existe, pero es cara, y si la IA va a seguir consumiendo cantidades masivas de electricidad, esto no debería ser negociable
La última es la parte realmente difícil. No hay respuesta sobre cuánto trabajo creativo debería dejarse en manos de la IA, ni sobre cómo tratar las obras creativas hechas por IA
Relacionado con eso, también es grave que la IA pueda hacerse pasar por humana para cometer fraudes y engaños a gran escala. Los sistemas de respuesta actuales asumen que muchos fraudes requieren tiempo y esfuerzo, pero ese supuesto ya se está derrumbando
Creo que todos los centros de datos de IA deberían operar con generación sostenible propia. No tiene sentido pasarnos décadas mejorando la eficiencia de agua y electricidad para luego dejar que unas cuantas empresas codiciosas absorban todo eso
Puede sonar a broma, pero yo quiero que la IA lave los platos y doble la ropa por mí mientras yo escribo libros y hago música. No quiero lo contrario
No parece probable que gravar solo a las empresas de IA alcance para cubrir eso, y quienes hablan de ingreso básico tendrían que tomarse mucho más en serio los números. No parece una solución realista
Si de verdad llegan a reemplazar con IA al 50% de la fuerza laboral, su influencia superaría cualquier imaginación
La tecnología aún está lejos, pero como ejemplo de producción masiva al estilo IA se puede imaginar algo como la automatización de adaptaciones cinematográficas de novelas. Ese tipo de cambio podría empoderar más a las personas, podría bajar o subir la calidad del arte, y podría dividir a la sociedad o incluso unirla
[1]: https://en.wikipedia.org/wiki/Art_Deco#Late_Art_Deco
Los CEO de IA llevan años gritando que la IA da miedo y que te va a quitar el trabajo
“Mythos es demasiado peligroso como para publicarlo”
“Ofreceremos una recompensa si logras sacar de ChatGPT instrucciones para bioterrorismo”
“La IA basada en agentes va a eliminar categorías enteras de trabajo”
Ese mensaje no parece dirigido al público general, sino a gobiernos y grandes clientes corporativos con mucho dinero, recortes de costos por hacer y fronteras que defender o expandir
No sorprende en absoluto que la gente odie la IA. Casi nunca se promocionó como un producto para las personas
Fuera de la industria de IA, todo esto era demasiado obvio. Los líderes del sector hablaban de eliminar millones de empleos, de reestructurar masivamente otros trabajos e incluso de automatización letal de armamento, y aun así decían que iban a seguir desarrollándolo
Incluso la reciente inestabilidad económica y los despidos masivos fueron atribuidos a la IA por los ejecutivos que ejecutaban esos despidos, y las principales empresas de IA usaron sin pudor propiedad intelectual para el entrenamiento mientras metían IA a la fuerza en todas partes
No tiene nada de raro que el público odie la IA, y la industria casi no ha hecho ningún esfuerzo por caer bien
Al final, parece que los CEO de estas empresas solo quieren hacer crecer su compañía sin importar el costo social
En un mercado donde todos usan el mismo aceite de serpiente, esto no parece una ventaja competitiva, sino una forma de obtener un resultado promedio y caro
Los boosters de X, el tipo de mando medio, los influencers de IA en LinkedIn y hasta los creadores de videos falsos en Facebook parecen atraer exactamente a ese mismo tipo de gente
No sé si realmente sea así. El viernes escuché en el trabajo una presentación pro-IA, y dijeron que en una encuesta entre asistentes a una conferencia de IA, el 93% veía la IA con entusiasmo
Lo dijeron completamente en serio, con una expresión tipo “a la gente le gustan los perritos, ¿no?”
La falta de autoconciencia parecía enorme
Casi nadie quiere cargar con esa reputación, y por eso mismo se crea esa atmósfera de inevitabilidad en la que esta tecnología avanza quieras o no
También me hace pensar cuánta gente, en el mercado actual, se sentiría cómoda diciendo frente a su jefe o en público que “la IA parece bastante humo”
Si incluso las métricas internas de productividad están hechas para ajustarse a los objetivos de adopción y son difíciles de verificar externamente, entonces eso no es muy distinto de lo que hace mucho BI estilo MBA
En mi experiencia, BI a menudo parecía una casa de naipes, y muchas veces se acercaba más a adornar una narrativa bonita, como cuando escribes tu currículum
Al final, muchas veces da la impresión de que la unidad básica de la empresa estadounidense es qué tan bien puede construir una narrativa política convincente
En una época en la que el empleo ya se siente inestable, no tiene sentido esperar caerle bien al público después de decir “vamos a eliminar tu trabajo y a volverte inútil”
Más aún si no propones una ruta alternativa para acumular riqueza, no resuelves problemas económicos como vivienda o salud, y además empeoras la cohesión social y el costo de la energía
Si la industria sigue ignorando alegremente el rechazo del público ante el impacto social de la IA, creo que podría venir una reacción incluso más fuerte que el sentimiento antinuclear después de Chernóbil
Si ves la misma encuesta que trata este artículo, entre los encuestados casi no hay nada que guste en general. Es cierto que la IA es impopular, pero también forma parte de un clima más amplio de rechazo generalizado
Los políticos gastan dinero en guerra y destrucción mientras son tacaños con los programas sociales, y el auge de internet facilita tanto cuestionar las narrativas establecidas como dificultarlo
En medio de esta confusión e incertidumbre, no tiene nada de raro que aumenten las ganas de culpar a alguien
Ojalá este tipo de artículos reconociera más la adopción masiva entre programadores, al menos. No tiene nada que ver con usarla a veces para redactar un correo: ya está teniendo un impacto considerable en el desarrollo de software
Describirla como una herramienta menor que solo algunos siguen probando es perder de vista la realidad
Sobre todo, la tasa de adopción puede ser un indicador sin sentido. Puede imponerse aunque no ayude mucho en la práctica, o incluso aunque ayude, el proceso de usarla puede hacer miserable a la gente
Además, se está acumulando una expertise debt cuyos efectos a largo plazo todavía no conocemos
Mientras tanto, la industria de IA se está moviendo con ganas para eliminar esos mismos puestos de trabajo
Para mucha gente, la IA es simplemente generación de imágenes y generación de texto. Y viendo solo esos usos, se entiende que sientan que no vale la pena invertir tiempo, dinero y energía
Pero hay áreas que la gente no ve tanto, como la medicina, donde la IA sí puede ayudar de verdad. Ahí entran el descubrimiento de fármacos, la investigación y detección temprana del cáncer, y el análisis de CT y MRI, y esos usos son mucho más importantes, aunque no se hablen tanto
Si vemos la IA como una sola cosa uniforme, corremos el riesgo de desechar también sus partes buenas
También es un poco desacertado decir que los usos médicos son más importantes. Claro que curar a alguien importa más que arruinarle la vida a alguien, pero eso no borra los demás daños de la IA
Ser crítico con la IA no significa querer eliminar también sus aspectos positivos
La IA la están vendiendo abiertamente, desde la propia industria, como una herramienta para reemplazar tu trabajo. Si ese es el caso, entonces o la están comercializando pésimamente, o sus beneficios en otras industrias son mínimos o no generan valor para el accionista
Si la IA llega a producir avances realmente significativos en esos campos, entonces se podrá discutir en serio en ese momento. Al menos hasta donde yo sé, candidatos a mayores innovaciones médicas del siglo XXI como mRNA o GLP-1 no son casos donde los LLM hayan jugado un papel central
Hasta que esos resultados existan de verdad, este argumento se parece más a fanfiction; y dicho con más dureza, cuando te están quitando el trabajo, se derrumba la confianza en la información y todo se llena de slop, uno termina preguntándose qué sentido tiene simplemente vivir más tiempo. Eso no es una fantasía sobre el futuro, es un daño que ya está ocurriendo
De ahí sale precisamente la narrativa de ingresos por billones de dólares
Entre la gente no tech con la que hablo, una parte considerable del público odia la IA. De hecho, eso me parece una conclusión de sentido común
En lo personal, siento que la suscripción a Gemini Ultra sí vale lo que cuesta, y también me divierte y me estimula intelectualmente usar APIs potentes en AntiGravity o usar la línea de Claude, Gemini App y NotebookLM
Pero si me preguntas si puedo justificar los costos sociales, como el costo de los centros de datos o la posibilidad de un rescate gubernamental en EE. UU. para las grandes empresas de IA, no puedo
De hecho, parece que China nos está superando. La estrategia ganadora parece ser construir IA más barata, y GLM-5.1 y Deepseek v4 son sorprendentemente efectivos dado su costo de inferencia mucho menor