3 puntos por GN⁺ 3 일 전 | 1 comentarios | Compartir por WhatsApp
  • La hostilidad hacia la IA y los centros de datos ha crecido hasta el punto de que ya aparecen actos de violencia con motivación política, incluyendo un ataque con bomba molotov contra la casa de un CEO de una empresa de IA y un tiroteo contra la casa de un concejal que apoyaba un centro de datos
  • La brecha entre el optimismo de los expertos y la percepción pública también se ha ampliado mucho, y la proporción de personas que ve de forma positiva los efectos de largo plazo de la IA sobre el empleo y la economía es mucho menor entre el público general
  • Las visiones extremas del futuro y las exigencias de inversión masiva se combinan con el empleo ya inestable, el alza del costo de vida y la preocupación por las tarifas eléctricas, haciendo que la IA parezca algo impuesto a una población que no la quiere
  • La promesa de productividad todavía no ha sido demostrada con claridad: muchas empresas no han percibido mejoras de productividad tras adoptar IA, y muchos programas piloto tampoco han logrado generar ganancias
  • Para recuperar la confianza, hoy importan más las acciones verificables, la transparencia sobre el desempeño real, la aceptación de regulación y responsabilidad, y la participación local en la expansión de centros de datos que los documentos de política o la publicidad

Rechazo creciente y señales de violencia

  • La casa de Sam Altman, CEO de OpenAI, fue objeto de un ataque con bomba molotov, y el sospechoso dejó un manifiesto advirtiendo sobre la amenaza existencial de la IA
    • El sospechoso fue arrestado ese mismo día, y los detalles aparecen en un reporte de SF Standard
    • El manifiesto incluía una frase que decía que había que matar a los CEOs de empresas de IA, junto con una descripción en Instagram donde se llamaba a sí mismo “butlerian jihadist”
  • En Indianapolis, la casa del concejal demócrata local Ron Gibson recibió 13 disparos, y dejaron una nota en la puerta que decía “No Data Centers”
    • En ese momento estaba en la casa su hijo de 8 años, pero no resultó herido
    • Gibson había apoyado un posible proyecto de centro de datos en su distrito, y el caso está resumido por PBS NewsHour
  • Ambos casos fueron descritos como violencia con motivación política, y en redes sociales incluso hubo reacciones que parecían celebrarlo

Brecha de percepción entre el público y la industria

  • El Artificial Intelligence Index 2026 de Stanford mostró una gran brecha entre el optimismo de los expertos y la percepción pública
    • Sobre el impacto de largo plazo en el empleo, el 73 por ciento de los expertos fue positivo, y sobre el impacto económico el 69 por ciento también lo vio positivamente
    • Entre el público general, solo el 23 por ciento y el 21 por ciento, respectivamente, tuvo una visión positiva, y casi dos tercios de los estadounidenses creen que la IA reducirá empleos en los próximos 20 años
  • En la encuesta de Gallup de marzo de 2026, el escepticismo sobre la IA entre la Gen Z se intensificó
    • La proporción que decía sentirse emocionada por la IA bajó de 36 por ciento a 22 por ciento
    • La proporción que decía sentir enojo hacia la IA subió de 22 por ciento a 31 por ciento
  • Esta tendencia se cruza con una reacción que ve la IA no como una tecnología común, sino como un proyecto político de las élites
    • Jasmine Sun lo resume como una visión del mundo donde multimillonarios desconectados intentan imponerla a un público que no la quiere

El mensaje de la industria y los costos reales que alimentaron el rechazo

  • Durante mucho tiempo, los principales CEOs de la industria de la IA han enfatizado alternativamente visiones extremas del futuro
  • Estos mensajes chocan con las condiciones de vida inestables que ya experimenta el público general
  • En este contexto, la industria exige al mismo tiempo inversiones gigantescas y una expansión masiva de centros de datos
    • El informe de Stanford recoge esta tendencia en la que la industria pide atraer inversiones sostenidas por cientos de miles de millones de dólares
    • La expansión de centros de datos también está afectando las tarifas eléctricas locales, como explica Brookings
    • En Virginia, epicentro del boom de centros de datos en Estados Unidos, una proyección publicada por Georgetown Environmental Law Review señala que las tarifas residenciales de electricidad podrían subir hasta 25 por ciento para 2030

La brecha entre la promesa de productividad y los resultados reales

  • Estos costos solo podrían asumirse si la IA mostrara beneficios públicos concretos o mejoras claras en el trabajo, pero la evidencia todavía es débil
  • Según un artículo del NBER de febrero de 2026, el 80 por ciento de las empresas que comenzaron a adoptar IA de forma activa reportó que no hubo impacto en la productividad de la empresa
  • Un estudio del MIT de 2025 planteó que el 95 por ciento de los programas piloto de IA en empresas no generó ninguna ganancia
  • Incluso en áreas con altas expectativas sobre la IA, como la programación y el trabajo técnico, la verificabilidad de las métricas de productividad se está debilitando
    • El ingeniero de machine learning Han-Chung Lee señala en una publicación de GitHub que, aunque internamente aparezcan cifras positivas, podrían ser valores creados para cumplir metas de adopción y ser difíciles de auditar de forma efectiva desde afuera
  • Aun así, considerando que ChatGPT fue el primer caso de demostración masiva lanzado en noviembre de 2022, es natural que una nueva tecnología pase por una etapa inicial accidentada

Qué se necesita para recuperar la confianza y cuáles son los límites actuales

  • La brecha entre la experiencia tecnológica que percibe el público y la forma en que la industria habla de sí misma ya está produciendo consecuencias visibles
    • En Estados Unidos, casi la mitad de los centros de datos previstos para 2026 fueron cancelados o retrasados, según TechRadar
    • Incluso apareció una encuesta según la cual la industria de la IA es menos apreciada que ICE o Donald Trump
  • Big Tech también ha comenzado a reconocer los problemas que podrían golpear al público general y a proponer algunas medidas de mitigación
    • En abril, OpenAI publicó un Industrial Policy White Paper con propuestas como crear un Public Wealth Fund, rediseñar la red de protección social y medir en tiempo real el impacto laboral de la IA
    • En enero, Microsoft prometió subsidios a servicios públicos en las comunidades donde construya centros de datos y minimizar el uso de agua mediante su Community-First AI Infrastructure Initiative
  • Pero entre las promesas de los comunicados y la capacidad de ejecución real vuelve a quedar una brecha
    • La Community-First Initiative de Microsoft no incluye un mecanismo independiente para rastrear responsabilidades
    • El nuevo documento de OpenAI parece moverse hacia una política tecnológica más progresista, pero Greg Brockman envió millones de dólares a un SuperPAC que busca frenar la regulación estatal sobre IA, según Fortune
    • OpenAI también apoya la Senate Bill 3444 de Illinois, presentada como una ley que protege a las empresas frente a daños masivos causados por modelos de IA
    • En el mismo artículo se dice que Anthropic se opone a esa ley
  • Junto con el artículo de New Yorker de Ronan Farrow sobre Sam Altman, también se destaca un patrón repetido: expresar apoyo público a ciertas posturas y luego cambiar rápidamente de dirección cuando eso beneficia a la empresa
  • Para restaurar la confianza, importa más que otro white paper haya acciones sostenidas y verificables
    • Hace falta transparencia real sobre lo que los productos realmente pueden hacer
    • También hay que aceptar regulación y responsabilidad significativas, aunque impliquen costos financieros
    • La expansión de centros de datos requiere una participación democrática real de las comunidades locales
    • De lo contrario, el crecimiento del populismo anti-IA y la posibilidad de violencia asociada también podrían aumentar

1 comentarios

 
GN⁺ 3 일 전
Opiniones de Hacker News
  • Creo que las críticas a la IA deben dividirse al menos en tres partes y discutirse por separado. Las soluciones son distintas
    La primera es la pérdida de empleos, y esa es relativamente simple. La productividad de la IA debería compartirse con toda la sociedad, especialmente considerando que la IA se entrenó con el trabajo de la sociedad. La forma más fácil sería cobrar un impuesto al uso de la IA y destinarlo a una UBI. Si la gente mantiene sus ingresos aunque pierda el trabajo, el descontento sería mucho menor
    La segunda es el costo ambiental, y esa es más complicada. La clave está en mejorar la eficiencia y ampliar la energía limpia, y los impuestos junto con regulaciones de eficiencia podrían ser un punto de partida. La tecnología de energía sostenible ya existe, pero es cara, y si la IA va a seguir consumiendo cantidades masivas de electricidad, esto no debería ser negociable
    La última es la parte realmente difícil. No hay respuesta sobre cuánto trabajo creativo debería dejarse en manos de la IA, ni sobre cómo tratar las obras creativas hechas por IA
    Relacionado con eso, también es grave que la IA pueda hacerse pasar por humana para cometer fraudes y engaños a gran escala. Los sistemas de respuesta actuales asumen que muchos fraudes requieren tiempo y esfuerzo, pero ese supuesto ya se está derrumbando

    • Esa lógica ya apareció en la época de la automatización con robots, pero nunca se materializó. No se cobraron impuestos y tampoco se compartieron las ganancias de productividad. Al contrario, en casos como el self-checkout, el trabajo de la empresa se trasladó al cliente
      Creo que todos los centros de datos de IA deberían operar con generación sostenible propia. No tiene sentido pasarnos décadas mejorando la eficiencia de agua y electricidad para luego dejar que unas cuantas empresas codiciosas absorban todo eso
      Puede sonar a broma, pero yo quiero que la IA lave los platos y doble la ropa por mí mientras yo escribo libros y hago música. No quiero lo contrario
    • Cuando pierdes un trabajo de 60 mil dólares al año, cuesta creer que un ingreso básico financiado con recursos de la IA vaya a compensar esa pérdida. Incluso la UBI de 12 mil dólares al año que se menciona en EE. UU. requeriría 3 billones de dólares adicionales de presupuesto
      No parece probable que gravar solo a las empresas de IA alcance para cubrir eso, y quienes hablan de ingreso básico tendrían que tomarse mucho más en serio los números. No parece una solución realista
    • Desde Altman y, en cierta medida, Musk, las caras visibles del sector de IA resultan demasiado antipáticas. Esa gente lleva tiempo hablando en público de desempleo masivo e incluso de extinción humana, así que más allá del riesgo real, es inevitable que las empresas mismas terminen siendo odiadas
    • Un cuarto punto a considerar es el control de la influencia política. Si se permite que los CEO de empresas de IA, con su enorme poder financiero, influyan en la regulación, las elecciones, la seguridad social e incluso la política exterior, la democracia podría colapsar en la práctica
      Si de verdad llegan a reemplazar con IA al 50% de la fuerza laboral, su influencia superaría cualquier imaginación
    • En la época del Art Deco también hubo debates parecidos por el impacto de la producción en masa sobre el arte. Había división sobre si las obras hechas con nuevos métodos industriales podían tener una calidad equivalente a la artesanía, y seguramente hoy la gente seguiría opinando distinto
      La tecnología aún está lejos, pero como ejemplo de producción masiva al estilo IA se puede imaginar algo como la automatización de adaptaciones cinematográficas de novelas. Ese tipo de cambio podría empoderar más a las personas, podría bajar o subir la calidad del arte, y podría dividir a la sociedad o incluso unirla
      [1]: https://en.wikipedia.org/wiki/Art_Deco#Late_Art_Deco
  • Los CEO de IA llevan años gritando que la IA da miedo y que te va a quitar el trabajo
    “Mythos es demasiado peligroso como para publicarlo”
    “Ofreceremos una recompensa si logras sacar de ChatGPT instrucciones para bioterrorismo”
    “La IA basada en agentes va a eliminar categorías enteras de trabajo”
    Ese mensaje no parece dirigido al público general, sino a gobiernos y grandes clientes corporativos con mucho dinero, recortes de costos por hacer y fronteras que defender o expandir
    No sorprende en absoluto que la gente odie la IA. Casi nunca se promocionó como un producto para las personas

  • Fuera de la industria de IA, todo esto era demasiado obvio. Los líderes del sector hablaban de eliminar millones de empleos, de reestructurar masivamente otros trabajos e incluso de automatización letal de armamento, y aun así decían que iban a seguir desarrollándolo
    Incluso la reciente inestabilidad económica y los despidos masivos fueron atribuidos a la IA por los ejecutivos que ejecutaban esos despidos, y las principales empresas de IA usaron sin pudor propiedad intelectual para el entrenamiento mientras metían IA a la fuerza en todas partes
    No tiene nada de raro que el público odie la IA, y la industria casi no ha hecho ningún esfuerzo por caer bien

    • Me gustó la perspectiva de Roy Sutherland. Hoy las empresas de IA están apuntando más a la reducción de costos que a la creación de valor, y esa dirección es regresiva y destructiva incluso para su entorno
      Al final, parece que los CEO de estas empresas solo quieren hacer crecer su compañía sin importar el costo social
    • Algunos CEO tech estaban tan emocionados que se les cayó la máscara. Salieron con actitud de “¿no te gusta? ¿y qué vas a hacer?”, y si se dan cuenta de que se adelantaron demasiado, probablemente retrocedan rápido
    • Ni el aumento de productividad prometido ni el bajo costo prometido se están materializando realmente. Muchas veces quienes más entusiasmo muestran no son quienes hacen el trabajo, sino los mandos medios
      En un mercado donde todos usan el mismo aceite de serpiente, esto no parece una ventaja competitiva, sino una forma de obtener un resultado promedio y caro
    • Me sorprende más que la gente de la industria se sorprenda de que el público los odie. Llevan años con marketing del miedo y exageraciones, y casi no han mejorado de forma clara la vida de la gente común; no sé qué esperaban
    • Los boosters de la IA también caen mal porque casi todos parecen estafadores arrogantes
      Los boosters de X, el tipo de mando medio, los influencers de IA en LinkedIn y hasta los creadores de videos falsos en Facebook parecen atraer exactamente a ese mismo tipo de gente
  • No sé si realmente sea así. El viernes escuché en el trabajo una presentación pro-IA, y dijeron que en una encuesta entre asistentes a una conferencia de IA, el 93% veía la IA con entusiasmo
    Lo dijeron completamente en serio, con una expresión tipo “a la gente le gustan los perritos, ¿no?”
    La falta de autoconciencia parecía enorme

    • En consultoras o grandes corporaciones hay un ambiente donde tienes que aparentar interés por la IA. Así es la cultura organizacional
    • Basta pensar en la situación en que queda quien responda que no en esa encuesta. Decirle a tu jefe “la IA me parece mala para la sociedad y no quiero usarla” se parece mucho a declarar que no te interesa mejorar la productividad ni aumentar los ingresos de la empresa
      Casi nadie quiere cargar con esa reputación, y por eso mismo se crea esa atmósfera de inevitabilidad en la que esta tecnología avanza quieras o no
    • Si le preguntas a los gamers qué opinan de la IA, casi todos serán negativos. Basta con ver RAMageddon
    • Se parece a hacer una encuesta en una exposición canina preguntando a la gente si le gustan los perros
      También me hace pensar cuánta gente, en el mercado actual, se sentiría cómoda diciendo frente a su jefe o en público que “la IA parece bastante humo”
    • Esto simplemente parece un caso de sesgo de muestra no representativa
  • Si incluso las métricas internas de productividad están hechas para ajustarse a los objetivos de adopción y son difíciles de verificar externamente, entonces eso no es muy distinto de lo que hace mucho BI estilo MBA
    En mi experiencia, BI a menudo parecía una casa de naipes, y muchas veces se acercaba más a adornar una narrativa bonita, como cuando escribes tu currículum
    Al final, muchas veces da la impresión de que la unidad básica de la empresa estadounidense es qué tan bien puede construir una narrativa política convincente

  • En una época en la que el empleo ya se siente inestable, no tiene sentido esperar caerle bien al público después de decir “vamos a eliminar tu trabajo y a volverte inútil”
    Más aún si no propones una ruta alternativa para acumular riqueza, no resuelves problemas económicos como vivienda o salud, y además empeoras la cohesión social y el costo de la energía
    Si la industria sigue ignorando alegremente el rechazo del público ante el impacto social de la IA, creo que podría venir una reacción incluso más fuerte que el sentimiento antinuclear después de Chernóbil

  • Si ves la misma encuesta que trata este artículo, entre los encuestados casi no hay nada que guste en general. Es cierto que la IA es impopular, pero también forma parte de un clima más amplio de rechazo generalizado

    • Creo que ese rechazo generalizado simplemente refleja frustración y miedo por el estado del mundo. Los salarios están estancados mientras suben los precios, abundan las noticias de que la bolsa va bien pero ese beneficio no se siente en la vida real
      Los políticos gastan dinero en guerra y destrucción mientras son tacaños con los programas sociales, y el auge de internet facilita tanto cuestionar las narrativas establecidas como dificultarlo
      En medio de esta confusión e incertidumbre, no tiene nada de raro que aumenten las ganas de culpar a alguien
  • Ojalá este tipo de artículos reconociera más la adopción masiva entre programadores, al menos. No tiene nada que ver con usarla a veces para redactar un correo: ya está teniendo un impacto considerable en el desarrollo de software
    Describirla como una herramienta menor que solo algunos siguen probando es perder de vista la realidad

    • En software, el impacto es muy difícil de medir. Hay demasiadas subidas y bajadas, y demasiadas variables
      Sobre todo, la tasa de adopción puede ser un indicador sin sentido. Puede imponerse aunque no ayude mucho en la práctica, o incluso aunque ayude, el proceso de usarla puede hacer miserable a la gente
      Además, se está acumulando una expertise debt cuyos efectos a largo plazo todavía no conocemos
    • Muchos desarrolladores la aceptaron no porque quisieran, sino para seguir cobrando su sueldo
      Mientras tanto, la industria de IA se está moviendo con ganas para eliminar esos mismos puestos de trabajo
  • Para mucha gente, la IA es simplemente generación de imágenes y generación de texto. Y viendo solo esos usos, se entiende que sientan que no vale la pena invertir tiempo, dinero y energía
    Pero hay áreas que la gente no ve tanto, como la medicina, donde la IA sí puede ayudar de verdad. Ahí entran el descubrimiento de fármacos, la investigación y detección temprana del cáncer, y el análisis de CT y MRI, y esos usos son mucho más importantes, aunque no se hablen tanto
    Si vemos la IA como una sola cosa uniforme, corremos el riesgo de desechar también sus partes buenas

    • La gente también conoce esos usos médicos. Lo que pasa es que hay una cantidad abrumadoramente mayor de usos negativos, así que no sorprende que la atención se centre allí
      También es un poco desacertado decir que los usos médicos son más importantes. Claro que curar a alguien importa más que arruinarle la vida a alguien, pero eso no borra los demás daños de la IA
      Ser crítico con la IA no significa querer eliminar también sus aspectos positivos
    • Es una cuestión de enfoque. No es lo mismo vender un cuchillo como herramienta para cortar cebollas que promocionarlo como arma para matar al vecino
      La IA la están vendiendo abiertamente, desde la propia industria, como una herramienta para reemplazar tu trabajo. Si ese es el caso, entonces o la están comercializando pésimamente, o sus beneficios en otras industrias son mínimos o no generan valor para el accionista
    • Muchas veces suena como la excusa de “piensen en los niños
      Si la IA llega a producir avances realmente significativos en esos campos, entonces se podrá discutir en serio en ese momento. Al menos hasta donde yo sé, candidatos a mayores innovaciones médicas del siglo XXI como mRNA o GLP-1 no son casos donde los LLM hayan jugado un papel central
      Hasta que esos resultados existan de verdad, este argumento se parece más a fanfiction; y dicho con más dureza, cuando te están quitando el trabajo, se derrumba la confianza en la información y todo se llena de slop, uno termina preguntándose qué sentido tiene simplemente vivir más tiempo. Eso no es una fantasía sobre el futuro, es un daño que ya está ocurriendo
    • Ahora mismo, la IA no se vende como una herramienta para ayudarte a hacer mejor tu trabajo o el de tus subordinados, sino como una herramienta para reemplazar subordinados y aumentar las ganancias trimestrales
      De ahí sale precisamente la narrativa de ingresos por billones de dólares
  • Entre la gente no tech con la que hablo, una parte considerable del público odia la IA. De hecho, eso me parece una conclusión de sentido común
    En lo personal, siento que la suscripción a Gemini Ultra sí vale lo que cuesta, y también me divierte y me estimula intelectualmente usar APIs potentes en AntiGravity o usar la línea de Claude, Gemini App y NotebookLM
    Pero si me preguntas si puedo justificar los costos sociales, como el costo de los centros de datos o la posibilidad de un rescate gubernamental en EE. UU. para las grandes empresas de IA, no puedo
    De hecho, parece que China nos está superando. La estrategia ganadora parece ser construir IA más barata, y GLM-5.1 y Deepseek v4 son sorprendentemente efectivos dado su costo de inferencia mucho menor