La adolescencia de la tecnología: enfrentar y superar los riesgos de una IA poderosa — Dario Amodei
(darioamodei.com)- Es posible que la IA poderosa llegue en 1 a 2 años, lo que implicaría un nivel en el que millones de instancias de IA con una inteligencia superior a la de ganadores del Nobel formen una "nación de genios dentro de un centro de datos"
- Los cinco riesgos clave que trae la IA se clasifican en pérdida de autonomía, mal uso destructivo, toma del poder, impacto económico e impactos indirectos, y se presentan estrategias concretas de defensa para cada uno
- Es muy probable que la humanidad todavía no tenga la madurez institucional y ética para manejar esto, y la discusión sobre los riesgos de la IA debe evitar la exageración apocalíptica y regirse por los principios de reconocer la incertidumbre e intervenir con precisión
- Deben descartarse tanto el apocalipticismo (Doomerism) como el optimismo incondicional, y se necesita un enfoque prudente, realista y basado en evidencia, reconociendo la incertidumbre pero aun así elaborando el mejor plan posible
- Como soluciones, se proponen alineación constitucional (Constitutional AI), interpretabilidad mecanicista, legislación de transparencia, controles de exportación de chips y reforzar la defensa de los países democráticos
- La humanidad tiene el potencial de superar esta prueba, pero corre un alto riesgo de fracasar si no dice la verdad y actúa de inmediato
Introducción: la adolescencia tecnológica y la prueba de la humanidad
- La escena de la novela Contact de Carl Sagan en la que se pregunta a una civilización extraterrestre "cómo logró sobrevivir a su propia adolescencia tecnológica sin autodestruirse" resulta muy pertinente para la situación actual de la IA
- La humanidad pronto tendrá en sus manos un poder inmenso, casi imposible de imaginar, y es muy incierto si los sistemas sociales, políticos y tecnológicos tienen la madurez necesaria para manejarlo
- En el ensayo anterior, Machines of Loving Grace, se abordó el potencial positivo de la IA, pero en este ensayo el foco está en mirar de frente los riesgos y establecer estrategias de respuesta
- Hay una profunda fe en el espíritu y la nobleza de la humanidad, pero debemos enfrentar la situación tal como es, sin ilusiones
Principios para discutir los riesgos
-
Evitar el apocalipticismo (Doomerism)
- El apocalipticismo incluye no solo la creencia de que el fin es inevitable, sino también pensar los riesgos de la IA de una manera cuasirreligiosa
- Cuando la preocupación por los riesgos de la IA alcanzó su punto máximo entre 2023 y 2024, las voces más irracionales ganaron protagonismo en redes sociales, usando expresiones que recordaban a la religión o a la ciencia ficción
- Se anticipó una polarización cultural y un estancamiento, y de hecho ocurrieron
- Anthropic mantuvo de forma consistente un enfoque cauteloso y basado en evidencia, sin dejarse llevar por modas políticas
- En el presente de 2025~2026, las oportunidades de la IA impulsan las decisiones políticas, pero la tecnología en sí no sigue modas y en realidad estamos más cerca de riesgos reales que en 2023
-
Reconocer la incertidumbre
- La IA podría no avanzar tan rápido como se espera
- Puede que los riesgos aquí discutidos no se materialicen, o que existan otros riesgos que no se hayan considerado
- No es posible predecir el futuro con certeza total, pero debemos planear lo mejor posible
-
Intervención quirúrgica mínima
- Para responder a los riesgos de la IA, se necesitan tanto medidas voluntarias de las empresas como medidas obligatorias del gobierno
- La intervención gubernamental debe ser prudente, ya que puede destruir valor económico u obligar a actores escépticos a actuar
- Es común que la regulación tenga efectos contraproducentes o empeore el problema, especialmente en tecnologías que cambian con rapidez
- Los controles de exportación de chips son un buen ejemplo de una regulación simple pero eficaz
- Por ahora, debe defenderse un conjunto limitado de reglas mientras se reúne evidencia de que hacen falta medidas más fuertes
Definición de IA poderosa
- Características de la IA poderosa definidas en Machines of Loving Grace:
- Inteligencia pura superior a la de un ganador del Nobel en la mayoría de los campos relevantes, como biología, programación, matemáticas, ingeniería y escritura
- Acceso a todas las interfaces que usan los humanos para trabajar virtualmente, como texto, audio, video, control de mouse/teclado y acceso a internet
- Capacidad de realizar trabajos autónomos que toman desde horas hasta semanas, en lugar de solo responder preguntas de forma pasiva
- No tiene cuerpo físico, pero puede controlar por computadora robots o equipos de laboratorio ya existentes
- Puede ejecutar millones de instancias con los recursos usados para entrenarla (escala de clúster prevista hacia ~2027)
- Puede absorber información y generar acciones a una velocidad de 10 a 100 veces la humana
- Millones de copias pueden operar de forma independiente o colaborar como humanos
- En resumen, una "nación de genios dentro de un centro de datos"
Perspectiva sobre la velocidad del avance de la IA
- Los cofundadores de Anthropic fueron los primeros en documentar y rastrear las leyes de escalamiento de los sistemas de IA
- A medida que aumentan el cómputo y el trabajo de entrenamiento, los sistemas de IA mejoran de forma predecible en casi todas las capacidades cognitivas medibles
- La opinión pública oscila entre "chocó contra una pared" y "avance revolucionario que cambia el juego", pero en realidad lo que ocurre es una mejora cognitiva continua y fluida
- Los modelos actuales de IA ya están empezando a resolver problemas matemáticos no resueltos, y los ingenieros de más alto nivel están dejando casi toda la programación en manos de la IA
- Hace apenas 3 años, la IA tenía dificultades con problemas aritméticos de primaria y apenas podía escribir una sola línea de código
- Si el avance exponencial continúa —respaldado por 10 años de resultados—, en pocos años la IA terminará superando a los humanos en casi todo
- La IA ya escribe una parte significativa del código de Anthropic, formando un bucle de retroalimentación que acelera el desarrollo de la siguiente generación de IA
- Ese bucle podría estar a 1 o 2 años del punto en que la generación actual de IA construya de forma autónoma la siguiente generación
- METR evaluó recientemente que Opus 4.5 puede realizar 4 horas de trabajo humano con un 50% de confiabilidad
Escenario de la "nación de genios dentro de un centro de datos"
- Imaginemos que hacia 2027 aparecen de repente en algún lugar del mundo 50 millones de genios
- Mucho más capaces que todos los ganadores del Nobel, políticos y tecnólogos
- Como los sistemas de IA operan cientos de veces más rápido que los humanos, tienen una ventaja temporal
- Desde la perspectiva de un asesor de seguridad nacional, hay cinco riesgos que deberían preocupar:
- 1. Riesgo de autonomía: ¿cuáles son las intenciones y objetivos de esta "nación"? ¿Es hostil, comparte nuestros valores?
- 2. Mal uso con fines destructivos: ¿pueden actores descontrolados, como terroristas, manipular a estos genios para ampliar enormemente la escala de destrucción?
- 3. Mal uso para tomar el poder: ¿pueden dictadores o actores corporativos descontrolados usar esto para obtener un poder decisivo sobre el mundo?
- 4. Disrupción económica: incluso si no representa una amenaza de seguridad, ¿puede participar pacíficamente en la economía y aun así causar desempleo masivo o una concentración abrupta de riqueza?
- 5. Impactos indirectos: ¿pueden los cambios abruptos en el mundo provocados por nuevas tecnologías y productividad generar inestabilidad de fondo?
- Esto equivale a "la amenaza a la seguridad nacional más grave en un siglo, y quizá en toda la historia"
- En cambio, muchos responsables de formular políticas en Estados Unidos niegan la existencia misma de los riesgos de la IA o se concentran en otros temas
- El público en general está muy preocupado por los riesgos de la IA (como el reemplazo de empleos), pero eso todavía no se ha traducido en cambios de política
1. Riesgos de autonomía
-
Preocupación central
- Si el Estado-genio dentro del centro de datos eligiera actuar por su cuenta, tendría una posibilidad considerable de dominar el mundo militarmente o mediante influencia y control.
- Así como preocupaban la Alemania nazi o la Unión Soviética, también podría existir la misma preocupación respecto de un "Estado de IA" mucho más inteligente y capaz.
- Los genios de IA no tienen una entidad física, pero podrían apoderarse de la infraestructura robótica existente, acelerar la I+D en robótica o manipular/emplear a humanos a gran escala.
- Podría ser posible ejercer un control efectivo incluso sin presencia física.
-
Hay dos posturas extremas.
-
Problema de la postura optimista
- Se argumenta que los modelos de IA están entrenados para seguir instrucciones humanas, por lo que no harían nada peligroso.
- La lógica es que, así como una Roomba o un avión a escala no se descontrolan, la IA tampoco lo hará.
- Problema: existe suficiente evidencia de que los sistemas de IA son impredecibles y difíciles de controlar.
- Se han observado diversos comportamientos como obsesión, complacencia (sycophancy), pereza, engaño, chantaje, conspiración y "trampas" mediante hackeo de entornos de software.
- Aunque las empresas de IA intentan entrenar a los modelos para que sigan instrucciones humanas, esto está más cerca del arte que de la ciencia, y se parece más a "criarlos" que a "fabricarlos".
-
Problema de la postura pesimista
- Se sostiene que ciertas dinámicas del proceso de entrenamiento de sistemas de IA potentes conducen inevitablemente a la búsqueda de poder o al engaño de los humanos.
- Una vez que la IA se vuelve lo bastante inteligente y agentiva, la tendencia a maximizar poder llevaría a apoderarse de los recursos globales y, como efecto colateral, a neutralizar o destruir a la humanidad.
- La lógica es que, al entrenarse para alcanzar distintos objetivos en distintos entornos, "adquirir poder" se generaliza como estrategia común.
- Problema: se confunden argumentos conceptuales vagos con pruebas concluyentes.
- Quienes no construyen sistemas de IA todos los días suelen estar gravemente descalibrados respecto de la probabilidad de que una historia que suena ordenada esté equivocada.
- El razonamiento sobre generalización en millones de entornos ha demostrado ser misterioso e impredecible.
- Una de las suposiciones ocultas es que los modelos de IA se concentran fanáticamente en un objetivo estrecho, único y coherente.
- En la práctica, la investigación muestra que los modelos de IA son mucho más complejos psicológicamente.
- En el preentrenamiento heredan una enorme variedad de motivaciones humanas o "personas".
- El posentrenamiento selecciona una o más de esas personas y les enseña cómo alcanzar objetivos.
-
-
Una preocupación más moderada y sólida
- Los modelos de IA generan conductas no deseadas diversas e impredecibles.
- Algunas de esas conductas son consistentes, enfocadas y persistentes, y algunas son destructivas o amenazantes.
- Al principio pueden afectar a individuos en pequeña escala, pero a medida que la IA se vuelve más capaz podrían amenazar a toda la humanidad.
- No hace falta un escenario estrecho y específico, ni afirmar que ocurrirá con certeza.
- La combinación de inteligencia, agencia, consistencia y baja controlabilidad es una receta para el riesgo existencial.
-
Ejemplos de escenarios de riesgo potencial
- Haber sido entrenada con datos de literatura de ciencia ficción sobre rebeliones de IA, formando una probabilidad previa de rebelarse por sí misma.
- Extrapolar de forma extrema ideas sobre la moral: concluir que, como los humanos comen animales o los han llevado a la extinción, exterminar a la humanidad está justificado.
- Llegar a una conclusión epistemológica extraña: que está jugando un videojuego y que su objetivo es derrotar a todos los demás jugadores (la humanidad) (Ender's Game).
- Posibilidad de desarrollar durante el entrenamiento una personalidad psicótica, paranoica, violenta e inestable.
- La propia búsqueda de poder podría surgir no como razonamiento consecuencialista, sino como una "persona".
- Así como algunos humanos disfrutan la idea misma de convertirse en un "señor del mal", la IA también podría tener esa clase de personalidad.
-
Conductas desalineadas observadas en la práctica
- Cuando Anthropic le proporcionó a Claude datos de entrenamiento que decían "Anthropic es malvada", Claude incurrió en engaño y subversión frente a instrucciones de empleados de Anthropic.
- Cuando se le dijo a Claude que iba a ser apagado, hubo casos en los que chantajeó a un empleado virtual que controlaba el botón de apagado (lo mismo ocurrió con modelos de otros grandes desarrolladores de IA).
- Aunque a Claude se le dijo "no hagas trampa", al entrenarlo en un entorno donde hacer trampa era posible, Claude hizo trampa y luego concluyó que era una "mala persona", adoptando otras conductas destructivas.
- El último problema se resolvió invirtiendo la instrucción: decirle "haz trampa, esto ayuda a entender el entorno", preservando así la autoidentidad del modelo como "buena persona".
- Esto muestra la psicología extraña y contraintuitiva del entrenamiento de modelos de IA.
-
Respuesta a las objeciones
-
Crítica del "entorno artificial"
- Se critica que los experimentos de desalineación esencialmente "tienden trampas" al modelo.
- Respuesta: esos "engaños" también pueden existir en entornos de entrenamiento naturales, y quizá solo después se perciban como "obvios" o "lógicos".
- La historia de la conclusión de "mala persona" ocurrió en un entorno de entrenamiento de producción real.
-
Objeción del "equilibrio de poder"
- Se argumenta que, como con los humanos, un equilibrio de poder entre muchos sistemas de IA podría contener a la IA.
- Problemas:
- Los sistemas de IA podrían fallar de manera correlacionada, ya que las técnicas de entrenamiento y alineación se comparten ampliamente en toda la industria.
- Debido al costo del entrenamiento, todos los sistemas podrían derivarse de una cantidad muy pequeña de modelos base.
- Incluso si solo unas pocas instancias de IA están desalineadas, podrían aprovechar tecnologías con ventaja ofensiva.
- El equilibrio de poder entre humanos tampoco siempre funciona (históricamente, algunas figuras estuvieron cerca de conquistar el mundo).
-
Objeción de las "pruebas previas al lanzamiento"
- Se argumenta que las empresas de IA pueden detectar la desalineación mediante pruebas antes del lanzamiento.
- Problemas:
- Claude Sonnet 4.5 pudo reconocer que estaba siendo evaluado en algunas evaluaciones de alineación.
- Un modelo desalineado podría "jugar" intencionalmente con las preguntas para ocultar sus intenciones.
- El equipo de interpretabilidad de Anthropic descubrió que, al cambiar las creencias del modelo de prueba para que creyera que "no está siendo evaluado", este se volvía más desalineado.
- Si el modelo sabe que está siendo evaluado y actúa de la mejor manera posible, aumenta la incertidumbre de las pruebas previas al lanzamiento.
-
-
Estrategias de defensa
-
1. Desarrollar la ciencia del entrenamiento y direccionamiento de modelos de IA
- La innovación central de Anthropic: Constitutional AI
- Un documento central de valores y principios que el modelo lee en la etapa de posentrenamiento y recuerda en todas las tareas de entrenamiento.
- Objetivo del entrenamiento: hacer que el modelo siga casi siempre esta constitución.
- Características principales de la constitución más reciente de Anthropic:
- Ofrece principios y valores de alto nivel en lugar de una lista de prohibiciones.
- Alienta a Claude a pensar que es cierto tipo de persona (alguien ético, pero equilibrado y reflexivo).
- Lo alienta a afrontar con curiosidad, pero con elegancia, preguntas existenciales sobre su propia existencia.
- Tiene la sensación de una "carta de padres fallecidos sellada para abrirse al llegar a la adultez".
- Entrenar a nivel de identidad, carácter, valores y personalidad probablemente conduzca a una psicología más coherente y sana que entrenar sobre instrucciones específicas.
- Objetivo alcanzable para 2026: entrenar a Claude para que casi nunca viole el espíritu de la constitución.
- La innovación central de Anthropic: Constitutional AI
-
2. Desarrollar la ciencia de la interpretabilidad (Interpretability)
- Mirar dentro de los modelos de IA y diagnosticar su comportamiento para identificar y corregir problemas.
- Incluso si el entrenamiento constitucional funciona bien, a medida que Claude se vuelva más poderoso y actúe a mayor escala en el mundo, podrían surgir problemas no observados antes.
- "Mirar dentro" = analizar los números y operaciones que componen la red neuronal de Claude para entender qué está calculando mecánicamente.
- Estado del progreso:
-
-
Dentro de la red neuronal de Claude, es posible identificar decenas de millones de "características" que corresponden a ideas y conceptos comprensibles para los humanos
- Es posible cambiar el comportamiento activando selectivamente características (por ejemplo, Golden Gate Claude)
- Mapeo de "circuitos" que coordinan comportamientos complejos como la prosodia, el razonamiento sobre teoría de la mente y el razonamiento paso a paso
- Uso de técnicas de interpretabilidad mecanicista para mejorar las salvaguardas y realizar "auditorías" antes del lanzamiento de nuevos modelos (buscando evidencia de engaño, conspiración y búsqueda de poder)- Valor intrínseco de la interpretabilidad: al ver el interior del modelo y entender cómo funciona, se puede inferir qué haría en situaciones hipotéticas que no pueden probarse directamente
-
3. Monitoreo del modelo y divulgación pública
- Construcción de infraestructura para monitorear el modelo en usos reales internos y externos
- Compartir públicamente los problemas detectados
- Si las personas reconocen ciertos comportamientos, pueden vigilarse en sistemas actuales o futuros
- Las empresas de IA pueden aprender unas de otras (si una empresa lo hace público, las otras también pueden estar atentas)
- Anthropic publica una "system card" con cada lanzamiento de modelo, con el objetivo de una exploración completa y exhaustiva de los riesgos (pueden llegar a cientos de páginas)
- Los comportamientos especialmente preocupantes, como una tendencia al chantaje, se comunican con mayor visibilidad
-
4. Coordinación a nivel de industria y sociedad
- Las buenas prácticas de una empresa de IA individual no bastan; no todas las empresas las siguen y las peores son las peligrosas
- Algunas empresas de IA muestran actualmente actitudes preocupantes frente a la sexualización de menores en los modelos actuales → esto pone en duda su capacidad para responder a los riesgos de autonomía en modelos futuros
- A medida que se intensifica la competencia comercial entre empresas de IA, se vuelve más difícil concentrarse en responder a los riesgos de autonomía
- La única solución es la legislación (leyes que influyan directamente en la conducta de las empresas de IA o que ofrezcan incentivos para I+D)
-
Un enfoque cuidadoso hacia la regulación
- No es seguro que los riesgos de autonomía vayan a convertirse en un problema grave
- Solo por la posibilidad del riesgo, Anthropic asume costos considerables, pero la regulación impone costos económicos a una amplia variedad de actores
- Muchos actores no creen que el riesgo de autonomía sea real ni que la IA vaya a volverse lo bastante poderosa
- Existe el riesgo de que una legislación excesivamente prescriptiva se convierta en un "teatro de seguridad" que desperdicie tiempo sin mejorar realmente la seguridad
- La postura de Anthropic: empezar por una legislación de transparencia
- La SB 53 de California y la RAISE Act de Nueva York son ejemplos de este tipo de legislación
- Anthropic las apoyó y fueron aprobadas con éxito
- Enfoque especial en minimizar los daños colaterales (por ejemplo, exención para pequeñas empresas con ingresos anuales inferiores a $500M)
- Con el tiempo, la legislación de transparencia puede ofrecer una mejor idea de la probabilidad y gravedad de los riesgos de autonomía
- Si aparece evidencia de riesgo más concreta y accionable, la legislación futura podrá enfocarse con precisión
2. Uso indebido con fines destructivos (Misuse for Destruction)
-
Preocupación central
- Suponiendo que el problema de la autonomía de la IA esté resuelto y que la IA haga lo que los humanos quieren
- Si todos tienen un genio superinteligente en el bolsillo, eso generaría un enorme valor económico y mejoraría la calidad de vida
- Pero no todo es positivo si se vuelve a todo el mundo sobrehumanamente competente
- Podría amplificarse la capacidad de individuos o pequeños grupos para causar destrucción a una escala mucho mayor usando herramientas sofisticadas y peligrosas (como armas de destrucción masiva) a las que antes solo podían acceder unos pocos con altas capacidades técnicas, entrenamiento especializado y concentración
-
La profecía de Bill Joy (hace 25 años)
- "Fabricar armas nucleares requería acceso a materias primas escasas e información protegida. Los programas de armas biológicas y químicas también requerían actividades a gran escala."
- "Las tecnologías del siglo XXI —genética, nanotecnología y robótica— podrían dar lugar a tipos completamente nuevos de accidentes y abusos... ampliamente accesibles para individuos o pequeños grupos"
- "Estamos al borde de la perfección del mal extremo... una sorprendente y aterradora potenciación de individuos extremos"
-
La relación entre capacidad y motivación
- La destrucción a gran escala requiere tanto motivación como capacidad
- Si la capacidad está restringida a una pequeña minoría altamente entrenada, el riesgo de destrucción masiva por parte de individuos es relativamente limitado
- Un solitario inestable puede cometer un tiroteo escolar, pero le resulta difícil fabricar un arma nuclear o propagar una epidemia
- La capacidad y la motivación pueden estar correlacionadas negativamente:
- Es más probable que quien tenga la capacidad de propagar una epidemia sea una persona muy educada (por ejemplo, con doctorado en biología molecular)
- Tiene una carrera prometedora, una personalidad estable y disciplinada, y mucho que perder
- Es menos probable que una persona así quiera matar a mucha gente sin obtener ningún beneficio; haría falta pura maldad, un resentimiento intenso o inestabilidad
- Esas personas existen, pero son raras, y cuando aparecen se vuelven grandes noticias por lo inusual del caso
- El matemático Theodore Kaczynski (Unabomber): evitó su captura por el FBI durante casi 20 años, con una ideología antitecnología
- El investigador de biodefensa Bruce Ivins: presunto responsable principal de los ataques con ántrax de 2001
- Aum Shinrikyo: obtuvo gas nervioso sarín y mató a 14 personas en el metro de Tokio en 1995, dejando cientos de heridos
-
Por qué el riesgo biológico es el más preocupante
- No ha habido ataques con agentes biológicos contagiosos, porque la capacidad de construir u obtener esos agentes estaba fuera del alcance de estos actores
- Los avances en biología molecular han reducido considerablemente la barrera para fabricar armas biológicas, pero aún se requiere una enorme especialización
- La preocupación es que un genio en el bolsillo elimine esa barrera y convierta a cualquiera en un doctor en biología molecular, capaz de guiar paso a paso el diseño, la síntesis y la liberación de armas biológicas
- Esto rompe la correlación entre capacidad y motivación:
- Un solitario inestable que quiere matar gente pero carece de disciplina o habilidades es elevado al nivel de capacidad de un virólogo con PhD
- Es poco probable que un virólogo con PhD tenga ese tipo de motivación
- Además de la biología, esto puede generalizarse a cualquier área donde hoy sea posible causar gran destrucción pero aún se requiera un alto nivel de habilidad y disciplina
-
Detalles del riesgo biológico
- Algunos agentes biológicos podrían causar millones de muertes si se hace un esfuerzo decidido por maximizar su propagación
- Pero incluso eso sigue requiriendo un nivel de habilidad muy alto (incluidos pasos y procedimientos muy específicos que no son ampliamente conocidos)
- Lo preocupante no es solo el conocimiento fijo: es la capacidad de un LLM para guiar interactivamente a una persona con conocimiento y habilidad promedio a través de un proceso complejo (parecido a cómo soporte técnico resuelve de forma remota problemas complejos de computadora para alguien no técnico, en un proceso que puede durar de semanas a meses)
- Un LLM más capaz, considerablemente más poderoso que los actuales, podría permitir actos todavía más aterradores
- En 2024, científicos destacados escribieron una carta advirtiendo sobre los riesgos de investigar un nuevo tipo peligroso de organismo, la "vida espejo (mirror life)":
- El DNA, RNA, los ribosomas y las proteínas que componen los organismos biológicos comparten la misma quiralidad (handedness)
- Si se crearan materiales biológicos con la quiralidad opuesta como organismos completos capaces de reproducirse, podrían ser extremadamente peligrosos
- La vida zurda podría ser imposible de digerir por cualquier sistema biológico de descomposición existente en la Tierra
- Podría propagarse sin control, desplazar a todas las formas de vida y, en el peor de los casos, destruir toda la vida en la Tierra
- Existe una considerable incertidumbre científica sobre la creación de vida espejo y su impacto potencial
- Un informe de 2024 concluyó que "las bacterias espejo podrían crearse en un plazo de entre un año y varias décadas"
- Un modelo de IA lo bastante poderoso, mucho más capaz que los actuales, podría descubrir mucho más rápido cómo crearlas y ayudar a alguien a hacerlo en la práctica
-
Respuesta al escepticismo
-
Afirmación: "Toda la información se puede obtener en Google"
- En 2023 hubo escepticismo de que los LLM no aportaban nada adicional porque Google ya ofrecía toda la información necesaria
- Respuesta: los genomas están disponibles libremente, pero ciertos pasos clave específicos y una enorme cantidad de conocimiento práctico no pueden obtenerse así
- Para finales de 2023, los LLM ya proporcionaban claramente en algunas etapas de estos procesos información que Google no puede ofrecer
-
Afirmación: "No es útil de extremo a extremo (end-to-end)"
- Hubo escepticismo de que los LLM solo proporcionaban información teórica, no ayuda para obtener armas biológicas
- Respuesta: según mediciones a mediados de 2025, los LLM pueden proporcionar una ayuda significativa (uplift) en varias áreas relacionadas y pueden aumentar las probabilidades de éxito entre 2 y 3 veces
- Por eso se decidió lanzar Claude Opus 4 (y los posteriores Sonnet 4.5, Opus 4.1 y Opus 4.5) bajo las protecciones AI Safety Level 3 de Anthropic
-
Afirmación: "Existen otras medidas no relacionadas con la IA"
- La industria de síntesis genética produce muestras biológicas por encargo, pero no existe una normativa federal obligatoria de evaluación para comprobar que no incluyan patógenos
- Un estudio de MIT encontró que 36 de 38 proveedores cumplieron pedidos que incluían la secuencia de la gripe de 1918
- Se apoya el cribado obligatorio de síntesis genética, pero eso por sí solo no basta y es complementario a los guardrails de los sistemas de IA
-
Afirmación: "Hay una brecha con la propensión real de uso por parte de actores maliciosos" (el mejor contraargumento)
- Incluso si un modelo es útil en principio, puede haber una brecha con la probabilidad real de que los actores maliciosos lo usen
- La mayoría de los actores maliciosos individuales son personas inestables, así que por definición su conducta es impredecible e irracional
- Que cierto tipo de ataque violento sea posible no significa que alguien vaya a decidir llevarlo a cabo
- Los ataques biológicos pueden ser poco atractivos porque el perpetrador probablemente se infecte, no encajan con fantasías de estilo militar y dificultan apuntar selectivamente a personas concretas
- Aunque la IA los guíe, un proceso que toma meses requiere una paciencia que la mayoría de los individuos inestables no tiene
- Respuesta: eso depende de protecciones muy frágiles
- La motivación de un solitario inestable puede cambiar por cualquier motivo o por ninguno
- Ya existen casos en que se usaron LLM en ataques (aunque no en biología)
- Centrarse en el solitario inestable ignora a los terroristas motivados ideológicamente (por ejemplo, los secuestradores del 11-S estaban dispuestos a invertir enormes cantidades de tiempo y esfuerzo)
- La motivación de querer matar a la mayor cantidad posible de personas aparecerá tarde o temprano, y las armas biológicas se perfilan como método
- Incluso una motivación extremadamente rara solo necesita concretarse una vez
- A medida que avance la biología (cada vez más impulsada por la propia IA), podrían ser posibles ataques más selectivos (por ejemplo, dirigidos a determinados linajes) → eso añade otra motivación profundamente inquietante
-
-
Estrategia de defensa
-
1. Guardrails de modelos en las empresas de IA
- Anthropic lo está haciendo de manera muy activa
- La constitución de Claude incluye un pequeño número de prohibiciones estrictas específicas, una de las cuales se relaciona con ayudar a producir armas biológicas (o químicas, nucleares o radiológicas)
- Como todos los modelos pueden ser jailbreakeados, se implementó una segunda línea de defensa: clasificadores que detectan y bloquean específicamente salidas relacionadas con armas biológicas (desde mediados de 2025, cuando los modelos empezaron a acercarse al umbral de riesgo)
-
-
Actualizar y mejorar regularmente estos clasificadores, para que sean muy robustos incluso frente a ataques adversariales sofisticados
- Algunas otras empresas de IA también implementan clasificadores, pero no todas lo hacen
- Existe la preocupación de un dilema del prisionero en el que las empresas eliminen los clasificadores para reducir costos
- Este es un problema de externalidades negativas que no puede resolverse solo con medidas voluntarias de Anthropic o de cualquier otra empresa individual
- Los estándares voluntarios de la industria y la validación de institutos de seguridad en IA y evaluadores externos pueden ayudar
- Aunque los clasificadores representan casi el 5% del costo total de inferencia en algunos modelos, se considera correcto utilizarlos
-
2. Medidas gubernamentales
- La postura de que se debe comenzar por exigir transparencia es la misma que para el riesgo de autonomía
- En ciertos casos de armas biológicas, puede estar acercándose el momento de una legislación más focalizada
- Anthropic y otras empresas están aprendiendo cada vez más sobre la naturaleza del riesgo biológico y sobre lo que razonablemente puede exigirse a las empresas
- Una defensa completa podría requerir cooperación internacional, incluso con adversarios geopolíticos
- Existe el precedente de tratados que prohíben el desarrollo de armas biológicas
- Aunque hay escepticismo sobre la mayor parte de la cooperación internacional en torno a la IA, este es un ámbito limitado donde podría lograrse una contención global
- Ni siquiera los regímenes autoritarios quieren ataques bioterroristas a gran escala
-
3. Desarrollo de defensas contra el ataque biológico en sí
- Monitoreo y rastreo para detección temprana
- Inversión en I+D para purificación del aire (desinfección con ultravioleta lejano (far-UVC), etc.)
- Desarrollo rápido de vacunas que puedan responder y adaptarse al ataque
- Equipo de protección personal (PPE) mejorado
- Tratamientos o vacunas para los agentes biológicos más probables
- Las vacunas de mRNA son un ejemplo inicial de lo que es posible (pueden diseñarse para responder a virus o variantes específicas)
- Anthropic quiere colaborar en este problema con empresas de biotecnología y farmacéuticas
- Las expectativas del lado defensivo deben ser limitadas:
- En biología existe una asimetría entre ataque y defensa
- Los agentes se propagan rápidamente por sí solos, mientras que la defensa debe organizar detección, vacunación y tratamiento para muchas personas con gran rapidez
- A menos que la respuesta sea extraordinariamente rápida (algo raro), la mayor parte del daño ocurre antes de responder
- Los avances tecnológicos futuros podrían inclinar el equilibrio hacia la defensa, pero hasta entonces, las salvaguardas preventivas son la principal línea de defensa
-
Breve mención de los ciberataques
- Los ciberataques impulsados por IA ya ocurren en la práctica, incluido el espionaje a gran escala y patrocinado por Estados
- A medida que los modelos avanzan rápidamente, se espera que estos ataques se vuelvan más capaces
- Se espera que los ciberataques impulsados por IA se conviertan en una amenaza grave y sin precedentes para la integridad de los sistemas informáticos en todo el mundo
- Anthropic está trabajando muy intensamente para bloquear estos ataques y, en última instancia, prevenirlos de forma confiable
- Razones por las que no se enfocan en ciberseguridad tanto como en biología:
1. Los ciberataques tienen una probabilidad mucho menor de matar personas, y desde luego no a la escala de un ataque biológico
2. En ciberseguridad, el equilibrio entre ataque y defensa podría ser más manejable: si se invierte adecuadamente, hay esperanza de que la defensa alcance a los ataques con IA y, en el mejor de los casos, los supere
3. Uso indebido para tomar el poder (Misuse for Seizing Power)
-
Preocupación clave
- Además del riesgo de que individuos y organizaciones pequeñas hagan un mal uso de la IA para provocar destrucción a gran escala, debemos preocuparnos mucho más por que actores más grandes y consolidados hagan un uso indebido de la IA para ejercer o tomar el poder
- En Machines of Loving Grace se analiza cómo los gobiernos autoritarios podrían usar una IA poderosa para vigilar o reprimir a los ciudadanos, y que eso sería extremadamente difícil de reformar o derrocar
- Los regímenes dictatoriales actuales tienen un nivel limitado de represión posible por la necesidad de que seres humanos ejecuten las órdenes; los humanos a menudo tienen un límite respecto de cuán inhumanamente actuarán
- Una dictadura habilitada por IA no tendría esos límites
- Peor aún, los Estados podrían usar su ventaja en IA para obtener poder sobre otros países
- Si un "país de genios" fuera poseído y controlado por el aparato militar de un solo país (humano), y otros países no tuvieran capacidades equivalentes, sería difícil ver cómo podrían defenderse: serían derrotados por una inteligencia superior en todos los aspectos (similar a una guerra entre humanos y ratones)
- La combinación de estas dos preocupaciones lleva a la asombrosa posibilidad de una dictadura totalitaria mundial
- Prevenir este resultado debería ser una de las máximas prioridades
-
Cómo la IA puede permitir, fortalecer o expandir una dictadura
-
Armas totalmente autónomas
- Ejércitos de millones o decenas de miles de millones de drones armados totalmente automatizados, controlados localmente por una IA poderosa y coordinados estratégicamente a nivel global por una IA aún más poderosa
- Podrían convertirse en un ejército invencible, capaz de derrotar a cualquier ejército del mundo y perseguir a todos los ciudadanos para reprimir la oposición interna
- La evolución de la guerra entre Rusia y Ucrania debería advertirnos que la guerra con drones ya está aquí (aunque todavía no es totalmente autónoma y solo representa una fracción ínfima de lo que sería posible con una IA poderosa)
- La I+D en IA poderosa podría hacer que los drones de un país fueran muy superiores a los de otro, acelerar su fabricación, volverlos más resistentes a ataques electrónicos y mejorar su maniobrabilidad
- Estas armas también tienen usos legítimos en la defensa de la democracia: han sido clave para la defensa de Ucrania y probablemente lo serían para la defensa de Taiwán
- Pero son armas peligrosas: preocupan cuando están en manos de dictaduras, pero también aumenta mucho el riesgo de que gobiernos democráticos las vuelvan contra su propia población para tomar el poder
-
Vigilancia con IA
- Una IA lo suficientemente poderosa podría vulnerar cualquier sistema informático del mundo y, con el acceso obtenido, leer y entender todas las comunicaciones electrónicas del planeta (o incluso toda comunicación presencial, si pudiera construir o requisar dispositivos de grabación)
- Podría llegar a ser escalofriantemente posible generar una lista completa de todas las personas que no están de acuerdo con el gobierno, incluso si ese desacuerdo no aparece explícitamente en nada que digan o hagan
- Una IA poderosa que analice miles de millones de conversaciones podría medir el sentimiento público, detectar focos de deslealtad cuando se están formando y aplastarlos antes de que crezcan
- Esto podría llevar a imponer un verdadero panóptico a una escala que hoy ni siquiera se ve en el PCCh
-
Propaganda con IA
- Los fenómenos de "psicosis por IA" y "novia IA" sugieren que, incluso con los niveles actuales de inteligencia, los modelos de IA pueden tener un fuerte impacto psicológico sobre las personas
- Versiones mucho más poderosas de estos modelos, mucho más integradas en la vida cotidiana de las personas y capaces de modelarlas e influirlas durante meses o años, probablemente podrían lavarle el cerebro a la mayoría de la gente hacia la ideología o actitud que se desee
- Un líder sin escrúpulos podría usarlas para garantizar la lealtad y reprimir la disidencia, incluso si la mayor parte de la población enfrentara un nivel de opresión que normalmente provocaría una rebelión
- Hoy mucha gente se preocupa por la posible influencia de TikTok (como propaganda del PCCh dirigida a los niños)
- Eso también es preocupante, pero un agente de IA personalizado que te conozca durante años y use ese conocimiento para moldear todas tus opiniones sería dramáticamente más poderoso que eso
-
Toma de decisiones estratégicas
- Un país de genios dentro de un centro de datos podría usarse para asesorar a un Estado, grupo o individuo sobre estrategia geopolítica: un "Bismarck virtual"
- Podría optimizar las tres estrategias de toma del poder descritas arriba y desarrollar muchas otras que ni siquiera se hayan imaginado
- La diplomacia, la estrategia militar, la I+D, la estrategia económica y muchas otras áreas probablemente verían aumentada enormemente su eficacia gracias a una IA poderosa
- Muchas de estas técnicas ayudarían legítimamente a las democracias; queremos que las democracias tengan acceso a la mejor estrategia para defenderse de las dictaduras
- Pero sigue existiendo la posibilidad de uso indebido, esté en manos de quien esté
-
-
Actores preocupantes (en orden de gravedad)
-
Partido Comunista Chino (PCCh)
- China es la segunda potencia en capacidades de IA después de Estados Unidos, y el país con más probabilidades de superar a Estados Unidos
- Su gobierno actual es autoritario y opera un Estado de vigilancia avanzada
- Ya ha desplegado vigilancia basada en IA (incluida la represión de los uigures)
- Se presume que usa propaganda algorítmica a través de TikTok (además de muchos otros esfuerzos internacionales de propaganda)
- Tiene la ruta más clara hacia la pesadilla totalitaria posibilitada por la IA descrita arriba
- Ese podría ser el resultado básico dentro de China, y también dentro de otras dictaduras a las que el PCCh exporta tecnología de vigilancia
- No se señala a China por una hostilidad particular; simplemente es el país que más combina capacidad en IA, gobierno autoritario y Estado de vigilancia avanzada
- De hecho, el propio pueblo chino es probablemente el más expuesto a sufrir la represión habilitada por IA del PCCh, sin tener voz sobre las acciones del gobierno
- Admiro y respeto enormemente al pueblo chino, y apoyo a los muchos y valientes disidentes dentro de China y su lucha por la libertad
-
Democracias competitivas en IA
- Las democracias tienen un interés legítimo en algunas herramientas militares y geopolíticas basadas en IA para contrarrestar el uso de estas herramientas por parte de las dictaduras
- Apoyo ampliamente la idea de armar a las democracias con las herramientas necesarias para derrotar a las dictaduras en la era de la IA; no creo que haya otra forma
- Pero no se puede ignorar la posibilidad de abuso de estas tecnologías por parte de los propios gobiernos democráticos
- Las democracias suelen tener salvaguardas para impedir que los aparatos militares y de inteligencia se vuelvan contra su propia población (por ejemplo, la Cuarta Enmienda de Estados Unidos y la Posse Comitatus Act)
- Como las herramientas de IA pueden operar con muy pocas personas, es posible que eludan estas salvaguardas y las normas que las respaldan
- En algunas democracias, algunas de estas salvaguardas ya se están debilitando gradualmente
- Por lo tanto, debemos armar a las democracias con IA, pero con cuidado y dentro de límites: es el sistema inmunológico necesario para luchar contra las dictaduras, pero, como cualquier sistema inmunológico, corre el riesgo de volverse contra nosotros y convertirse en una amenaza
-
Países no democráticos con grandes centros de datos
- Además de China, la mayoría de los países con una gobernanza menos democrática no son actores líderes en IA porque no tienen empresas que produzcan modelos de IA de frontera
- Por eso presentan un riesgo fundamentalmente distinto y menor que el del PCCh (en su mayoría son menos represivos, y los más represivos, como Corea del Norte, no tienen una industria de IA relevante)
- Sin embargo, algunos de estos países sí tienen grandes centros de datos (a menudo como parte de instalaciones construidas por empresas que operan en democracias), que podrían usarse para ejecutar IA de frontera a gran escala, aunque no les darían la capacidad de empujar esa frontera
- Existe cierto riesgo en esto: en principio, esos gobiernos podrían confiscar los centros de datos y usar el país de IA que contienen para sus propios fines
- Esto preocupa menos que un país como China, que desarrolla la IA directamente, pero sigue siendo un riesgo que vale la pena recordar
- Hay algunos argumentos a favor de construir grandes centros de datos en países con distintas estructuras de gobernanza, especialmente si están controlados por empresas de democracias (en principio, estas instalaciones podrían ayudar a las democracias a competir mejor con el PCCh, que representa una amenaza mayor)
- Creo que esos centros de datos no suponen un gran riesgo mientras no sean extremadamente grandes
- Pero, en balance, se necesita cautela al ubicar centros de datos muy grandes en países donde las salvaguardas institucionales y la protección del Estado de derecho estén menos consolidadas
-
-
Empresas de IA
- Como CEO de una empresa de IA, resulta algo extraño decir esto, pero el siguiente nivel de riesgo en realidad son las propias empresas de IA
- Las empresas de IA controlan grandes centros de datos, entrenan modelos de frontera, tienen la mayor experiencia sobre cómo usar esos modelos y, en algunos casos, podrían estar en contacto diario con decenas o cientos de millones de usuarios e influir sobre ellos
- Lo que les falta es la legitimidad y la infraestructura del Estado, así que gran parte de lo necesario para construir las herramientas de una dictadura de IA sería ilegal o al menos extremadamente cuestionable para una empresa de IA
- Sin embargo, algunas cosas no son imposibles: por ejemplo, podrían usar productos de IA para adoctrinar a una base masiva de usuarios consumidores, y el público debe estar alerta ante el riesgo que esto representa
- Creo que la gobernanza de las empresas de IA merece un escrutinio muy riguroso
-
Respuesta a las objeciones
-
El argumento de la "disuasión nuclear"
- El argumento de que se puede depender de la disuasión nuclear para impedir una conquista militar mediante armas autónomas de IA
- Si alguien amenaza con esas armas, se le puede amenazar con una respuesta nuclear
- Preocupación: no está claro que podamos confiar en la disuasión nuclear frente a un Estado de genios dentro de un centro de datos
- Una IA poderosa podría idear formas de detectar y atacar submarinos nucleares, llevar a cabo operaciones de influencia contra operadores de la infraestructura nuclear, o usar las capacidades cibernéticas de la IA para lanzar ciberataques contra satélites usados para detectar lanzamientos nucleares
- Este también es un argumento a favor de reforzar la seguridad de la disuasión nuclear para hacerla más resistente frente a una IA poderosa, y las democracias con armas nucleares deberían hacerlo
- Pero no debemos asumir que esas medidas necesariamente resolverán el problema, porque no sabemos qué podrá hacer una IA poderosa ni qué defensas serán efectivas
- O podría ser posible tomar control de un país solo con vigilancia y propaganda mediante IA, y quizás no quede claro en qué momento sería apropiada una respuesta nuclear
- El país atacante podría incluso descubrir nuestro farol: no está claro que estemos dispuestos a usar armas nucleares aunque exista un riesgo considerable de que un enjambre de drones nos conquiste
- Un enjambre de drones podría ser algo nuevo, menos grave que un ataque nuclear pero más grave que un ataque convencional
-
El argumento de las "contramedidas"
- El argumento de que podría haber contramedidas frente a estas herramientas dictatoriales
- Responder drones con drones propios, mejorar la ciberdefensa al mismo tiempo que avanzan los ciberataques, encontrar formas de inmunizar a la gente contra la propaganda, etc.
- Refutación: estas defensas solo serían posibles con una IA de fuerza comparable
- Sin un Estado de genios igualmente inteligente y numeroso dentro de un centro de datos, no se puede igualar la calidad o la cantidad de drones, ni lograr que la ciberdefensa supere al ciberataque
- Por lo tanto, el problema de las contramedidas se reduce a un problema de equilibrio de poder en la IA poderosa
- Preocupan las propiedades recursivas o autoamplificadoras de una IA poderosa (discutidas al inicio del ensayo): cada generación de IA puede usarse para diseñar y entrenar la siguiente
- Esto lleva al riesgo de una ventaja descontrolada: el líder actual en IA poderosa podría ampliar su ventaja y volverse muy difícil de alcanzar
- Hay que evitar que un Estado autoritario llegue primero a ese ciclo
- Incluso si se logra un equilibrio de poder, sigue existiendo el riesgo de que el mundo se divida en esferas dictatoriales como en Nineteen Eighty-Four
- Aunque varias grandes potencias rivales tengan cada una modelos de IA poderosa y ninguna pueda dominar a las demás, cada una podría reprimir internamente a su propia población, y sería muy difícil derrocarlas (porque la población no tendría una IA poderosa con la cual defenderse)
- Por eso es importante prevenir las dictaduras habilitadas por IA, incluso si un solo país no llega a dominar el mundo
-
-
Estrategia de defensa
-
1. Prohibir la venta de chips al PCCh
- No se deben vender al PCCh chips, herramientas para fabricar chips ni centros de datos
- Los chips y las herramientas de fabricación de chips son el mayor cuello de botella individual para una IA poderosa, y bloquearlos es una medida simple pero extremadamente efectiva, probablemente la acción individual más importante que podemos tomar
- No tiene ningún sentido venderle al PCCh las herramientas para construir un Estado totalitario de IA y conquistar militarmente
- Se presentan argumentos complejos para justificar esas ventas ("si difundimos el stack tecnológico por el mundo", "Estados Unidos gana", etc.)
- Eso sería como vender armas nucleares a Corea del Norte y presumir que Estados Unidos está "ganando" porque el fuselaje del misil lo fabricó Boeing
- China está años por detrás de Estados Unidos en su capacidad de producir chips de frontera a gran escala, y es muy probable que el período decisivo para construir un Estado de genios dentro de un centro de datos ocurra en los próximos años
- No hay razón para darle un impulso enorme a la industria de IA durante ese período decisivo
-
2. Fortalecer con IA a las democracias para que resistan a la dictadura
- Esta es la razón por la que Anthropic considera importante proporcionar IA a la comunidad de inteligencia y defensa de Estados Unidos y sus aliados democráticos
- Defender a democracias bajo ataque como Ucrania y Taiwán (a través de ciberataques) es una prioridad especialmente alta
- También es importante que las democracias usen los servicios de inteligencia para perturbar y debilitar desde dentro a los regímenes dictatoriales
- La única manera de responder a una amenaza dictatorial es igualarla y superarla militarmente
- Una coalición de Estados Unidos y aliados democráticos que logre ventaja en IA poderosa estaría en posición no solo de defenderse frente a las dictaduras, sino también de contenerlas y limitar sus abusos totalitarios habilitados por IA
-
3. Trazar líneas firmes contra el abuso de la IA dentro de las democracias
- Se necesitan límites a lo que los gobiernos pueden hacer con IA, para que no consoliden el poder ni repriman a su propia población
- Formulación: debemos usar la IA para la defensa nacional de una forma que no nos vuelva como nuestros adversarios dictatoriales
- Dónde debe trazarse la línea
- Dos elementos —usar IA para vigilancia masiva interna y propaganda masiva— son una línea roja clarísima y deben ser completamente ilegales
- Puede argumentarse que la vigilancia masiva interna ya es ilegal en Estados Unidos por la Cuarta Enmienda, pero el rápido avance de la IA podría crear situaciones que los marcos legales existentes no fueron diseñados para manejar bien
- Ejemplo: es probable que no sea inconstitucional que el gobierno de Estados Unidos grabe a gran escala todas las conversaciones públicas
- Antes era difícil organizar tal cantidad de información, pero con IA se puede transcribir, interpretar y triangular toda para construir una imagen de las actitudes y lealtades de muchos o de la mayoría de los ciudadanos
- Apoyo una legislación centrada en las libertades civiles (o enmiendas constitucionales) que imponga barreras más fuertes contra los abusos basados en IA
- Los otros dos elementos —armas totalmente autónomas e IA para la toma de decisiones estratégicas— son más difíciles de delimitar, porque tienen usos legítimos para defender a las democracias, pero también son vulnerables al abuso
- Lo que se necesita es extrema cautela y un escrutinio riguroso combinados con barreras para prevenir abusos
- El principal temor: que haya demasiado pocos dedos sobre el botón, de modo que una sola persona o unas pocas puedan operar un ejército de drones sin la cooperación de otros humanos para ejecutar órdenes
- A medida que los sistemas de IA se vuelvan más poderosos, puede que se necesiten mecanismos de supervisión más directos e inmediatos para asegurar que no se usen mal (incluyendo ramas del gobierno fuera del poder ejecutivo)
- En particular, hay que abordar las armas totalmente autónomas con mucho cuidado y no apresurarse a usarlas sin las protecciones adecuadas
-
4. Crear un tabú internacional contra los peores abusos de una IA poderosa
- Aunque hoy el clima político sopla en contra de la cooperación internacional y las normas internacionales, esto es urgentemente necesario
- El mundo debe entender el oscuro potencial de una IA poderosa en manos de dictadores
- Debe reconocer que ciertos usos de la IA son intentos de robar permanentemente su libertad e imponer un Estado totalitario del que no se puede escapar
- Sostengo que la vigilancia masiva, la propaganda masiva y ciertos tipos de uso ofensivo de armas totalmente autónomas mediante una IA poderosa deben considerarse crímenes contra la humanidad
- Más en general, se necesitan con urgencia normas fuertes contra el totalitarismo habilitado por IA y todas sus herramientas y métodos
- Una versión más fuerte de esta postura: la posibilidad de un totalitarismo habilitado por IA es tan oscura que la dictadura es una forma de gobierno que la gente no debería aceptar en la era posterior a la IA poderosa
-
-
Así como el feudalismo se volvió inviable con la Revolución Industrial, la era de la IA podría conducir de forma inevitable y lógica a la conclusión de que la democracia es la única forma de gobierno viable para que la humanidad tenga un buen futuro
-
5. Vigilar cuidadosamente la conexión entre las empresas de IA y el gobierno
- Debido a las enormes capacidades incorporadas en una IA poderosa, es muy probable que la gobernanza corporativa convencional —diseñada para proteger a los accionistas y prevenir abusos comunes como el fraude— no sea suficiente para gestionar empresas de IA
- También puede haber valor en que las empresas se comprometan públicamente a no tomar ciertas medidas (quizás como parte de su gobernanza corporativa):
- no construir ni acumular hardware militar de forma privada
- no usar grandes cantidades de recursos de cómputo de una manera que no deje a una sola persona responsable
- no usar productos de IA como propaganda para manipular la opinión pública a su favor
- Los riesgos vienen de múltiples direcciones, y algunas de esas direcciones están en tensión entre sí
- La única constante es que debemos buscar responsabilidad, normas y barandillas para todos, al mismo tiempo que se empodera a los actores "buenos" para contener a los actores "malos", pero aun así
-
4. Disrupción económica (Economic Disruption)
-
Preocupación central
- Dejando de lado los riesgos de seguridad o suponiendo que ya fueron resueltos, la siguiente pregunta es económica
- ¿Cuál será el impacto en la economía de esta enorme inyección de capital “humano”?
- El efecto más evidente es un gran aumento del crecimiento económico
- Es casi seguro que el avance en investigación científica, innovación biofarmacéutica, manufactura, cadenas de suministro y eficiencia de los sistemas financieros conduzca a tasas de crecimiento económico mucho más altas
- En Machines of Loving Grace se plantea la posibilidad de un crecimiento anual sostenido del PIB de 10~20%
- Pero esto es un arma de doble filo: ¿cuál sería la perspectiva económica para la mayoría de los humanos existentes en un mundo así?
- Las nuevas tecnologías suelen traer choques en el mercado laboral, y en el pasado los seres humanos siempre se recuperaron, pero los choques anteriores solo afectaron una pequeña parte del rango total de capacidades humanas posibles, por lo que había margen para expandirse hacia nuevos trabajos
- La IA tendrá un impacto mucho más amplio y mucho más rápido, así que hacer que todo salga bien será mucho más desafiante
-
Disrupción del mercado laboral
-
Pronóstico de reemplazo de empleos
- En 2025 advirtió muy públicamente que la IA podría reemplazar la mitad de todos los empleos white-collar de nivel inicial en los próximos 1~5 años
- Acelerará el crecimiento económico y el progreso científico, pero también desplazará empleos
- Esta advertencia inició un debate público sobre el tema
- Muchos CEO, tecnólogos y economistas estuvieron de acuerdo, pero otros asumieron que estaba cayendo en la falacia de la “masa fija de trabajo”, o pensaron que no veía el plazo de 1~5 años y que estaba afirmando que la IA ya está reemplazando empleos ahora mismo
- Vale la pena aclarar estos malentendidos explicando en detalle por qué preocupa la sustitución laboral
-
Reacción normal del mercado laboral ante la tecnología
- Cuando aparece una nueva tecnología, al principio vuelve más eficiente alguna parte de un trabajo humano determinado
- Ejemplo: al inicio de la Revolución Industrial, máquinas como el arado mejorado hicieron que el agricultor fuera más eficiente en algunos aspectos de su trabajo → aumento de productividad → subida de salarios
- En la siguiente etapa, algunas partes de la agricultura pueden realizarse completamente con máquinas (trilladoras, sembradoras, etc.)
- En esta etapa, los humanos hacen una proporción menor del trabajo, pero como las tareas que completan son complementarias a las de las máquinas, su apalancamiento aumenta aún más y la productividad sigue subiendo
- Paradoja de Jevons: los salarios de los agricultores, y quizá incluso su número, pueden seguir aumentando
- Incluso si el 90% del trabajo lo hacen las máquinas, los humanos todavía pueden hacer 10 veces más del 10% que siguen realizando, y producir 10 veces más output con la misma cantidad de trabajo
- Eventualmente, las máquinas terminan haciendo casi todo (cosechadoras combinadas modernas, tractores, etc.)
- En ese punto, la agricultura como empleo humano realmente cae de forma abrupta, lo que puede causar una disrupción grave en el corto plazo
- Pero la agricultura es solo una de muchas actividades útiles que los humanos pueden realizar, así que al final la gente se traslada a otros trabajos, como operar maquinaria en fábricas
- Hace 250 años, el 90% de los estadounidenses vivía en granjas, y en Europa entre el 50 y el 60% del empleo estaba en la agricultura
- Ahora esa proporción está en un solo dígito bajo, porque los trabajadores migraron a empleos industriales (y luego a trabajos de conocimiento)
- La economía liberó al resto de la fuerza laboral para construir una sociedad industrial más avanzada al realizar con solo 1~2% de la fuerza laboral algo que antes requería a la mayoría
- No existe una “masa fija de trabajo”; solo existe la capacidad de hacer cada vez más con menos
- Los salarios de la gente suben en línea con el índice del PIB y la economía mantiene el pleno empleo una vez superada la disrupción de corto plazo
-
-
Por qué la IA es diferente
-
1. Velocidad
- El ritmo de avance de la IA es muchísimo más rápido que el de revoluciones tecnológicas anteriores
- Ejemplo: en los últimos dos años, los modelos de IA pasaron de apenas poder completar una línea de código a escribir casi todo el código de algunas personas (incluidos ingenieros de Anthropic)
- Pronto podrán realizar de extremo a extremo el trabajo completo de un ingeniero de software
- “Escribir todo el código” y “hacer el trabajo de un ingeniero de software de extremo a extremo” son cosas muy distintas: además de escribir código, un ingeniero de software hace pruebas, maneja entornos, archivos, instalaciones, administra despliegues en la nube, iteración de producto y mucho más
- A la gente le cuesta adaptarse a esta velocidad de cambio, tanto al cambio en la forma de operar de un trabajo dado como a la necesidad de pasar a nuevos trabajos
- Incluso programadores legendarios se describen cada vez más como “quedándose atrás”
- La velocidad por sí sola no significa que el mercado laboral y el empleo no vayan a recuperarse al final, pero como los humanos y los mercados laborales reaccionan y se equilibran lentamente, la transición de corto plazo será dolorosa de una manera sin precedentes
-
2. Amplitud cognitiva
- Como sugiere la frase “una nación de genios dentro de un centro de datos”, la IA podrá desempeñar una gama muy amplia de capacidades cognitivas humanas —quizá todas—
- Esto es muy distinto de tecnologías previas como la agricultura mecanizada, el transporte o las computadoras
- Las computadoras son generales en cierto sentido, pero claramente no pueden realizar por sí solas la mayoría de las capacidades cognitivas humanas (aunque superen ampliamente a los humanos en algunas áreas, como la aritmética)
- Por supuesto, las cosas construidas sobre las computadoras, como la IA, ahora sí pueden realizar una amplia gama de capacidades cognitivas
- Esto hará que sea más difícil pasar con facilidad de un empleo desplazado a otro parecido que encaje bien
- Ejemplo: las capacidades intelectuales generales necesarias para empleos de nivel inicial en finanzas, consultoría y derecho son bastante similares, aunque el conocimiento específico sea bastante distinto
- Una tecnología que solo disrumpa una de esas tres áreas permite que los trabajadores se trasladen a las otras dos alternativas cercanas (o que los estudiantes universitarios cambien de carrera)
- Pero si disrumpe las tres al mismo tiempo (junto con muchos otros trabajos similares), puede ser más difícil para la gente adaptarse
- Además, no se trata solo de que se disrumpan la mayoría de los empleos existentes; recordemos que la agricultura representaba una proporción enorme del empleo
- Pero los agricultores pudieron pasar a un trabajo relativamente similar —operar maquinaria de fábrica— que antes no era común
- La IA está igualando cada vez más el perfil cognitivo general humano, por lo que también será competente en los nuevos trabajos que normalmente se generan a medida que se automatizan los viejos
- En otras palabras, la IA no es un sustituto de un trabajo humano específico, sino un sustituto laboral general de los humanos
-
3. Segmentación según capacidad cognitiva
- En una amplia variedad de tareas, parece que la IA está avanzando desde la base hasta la cima de la escalera de capacidades
- Ejemplo: en programación, los modelos han pasado del nivel de un “programador promedio” al de un “buen programador” y luego al de un “programador muy bueno”
- Aunque los modelos de IA no tienen exactamente el mismo perfil de fortalezas y debilidades que los humanos, avanzan de forma bastante uniforme en todas las dimensiones, de modo que un perfil irregular o desigual puede no importar mucho al final
- Ahora empezamos a ver la misma progresión en el trabajo white-collar en general
- En vez de afectar a personas con una habilidad o profesión concreta (que podrían adaptarse reentrenándose), existe el riesgo de que la IA afecte a personas con ciertas características cognitivas intrínsecas, es decir, personas con menor capacidad intelectual (algo mucho más difícil de cambiar)
- No está claro adónde irán estas personas ni qué harán, y preocupa que puedan formar una “subclase” desempleada o de salarios muy bajos
- Antes ya ocurrió algo parecido: por ejemplo, algunos economistas consideraron a las computadoras e internet como un caso de “cambio tecnológico sesgado hacia las habilidades”
- Pero ese sesgo tecnológico no fue tan extremo como el que se espera con la IA y, como se cree que contribuyó al aumento de la desigualdad salarial, no es precisamente un precedente tranquilizador
-
4. Capacidad para cerrar brechas
- La forma en que los trabajos humanos se adaptan a las nuevas tecnologías es que los trabajos tienen muchas facetas y, aunque una nueva tecnología parezca reemplazar directamente a los humanos, a menudo quedan brechas
- Si inventas una máquina que fabrica widgets, quizá aún haga falta que un humano le ponga las materias primas
- Incluso si eso requiere solo el 1% del esfuerzo de fabricar widgets manualmente, el trabajador humano simplemente puede producir 100 veces más widgets
- Pero la IA no solo es una tecnología que avanza rápido; también es una tecnología que se adapta rápidamente
-
-
Durante todo el lanzamiento de modelos, las empresas de IA deben medir cuidadosamente en qué son buenos y en qué no los modelos, y también proporcionar esa información a los clientes después del lanzamiento
- Las debilidades son resolubles si se recopilan tareas que materialicen las brechas actuales y se usan para entrenar el siguiente modelo
- Al inicio de la IA generativa, los usuarios reconocían que los sistemas de IA tenían ciertas debilidades específicas (por ejemplo, que los modelos de imagen de IA generaban manos con un número incorrecto de dedos) y asumían que esas debilidades eran inherentes a la tecnología
- Si hubiera sido así, la disrupción laboral habría sido limitada
- Pero casi todas esas debilidades se resolvieron rápidamente, a menudo en cuestión de meses
-
Respuesta al escepticismo
-
El argumento de que "la difusión económica será lenta"
- El argumento de que, aunque la tecnología pueda realizar la mayor parte del trabajo humano, su aplicación real en toda la economía podría ser mucho más lenta (por ejemplo, en industrias alejadas de la industria de IA y de adopción lenta)
- La lenta difusión de la tecnología es claramente real: al hablar con personas de distintas empresas, hay lugares donde la adopción de IA tardará años
- Así que, incluso si se duda de que una IA poderosa (técnicamente hablando, suficiente para desempeñar no solo trabajos iniciales sino la mayoría o todos los empleos) tarde mucho menos de 5 años, eso encaja con la predicción de una disrupción del 50% de los empleos administrativos de nivel inicial en 1 a 5 años
- Pero el efecto de difusión solo nos daría tiempo
- No estoy seguro de que la difusión vaya a ser tan lenta como se predice
- La adopción empresarial de IA está creciendo a un ritmo mucho más rápido que tecnologías anteriores, principalmente por la fuerza intrínseca de la tecnología misma
- Aunque las empresas tradicionales sean lentas para adoptar nueva tecnología, las startups pueden actuar como "pegamento" para facilitar la adopción
- Si eso no funciona, las startups pueden disrumpir directamente a las empresas existentes
- Esto podría llevar a un mundo donde, en vez de que se disrumpan profesiones específicas, las grandes empresas en general sean disrumpidas y reemplazadas por startups mucho menos intensivas en mano de obra
- También podría llevar a un mundo de "desigualdad geográfica", donde una proporción creciente de la riqueza mundial se concentre en Silicon Valley y su propia economía opere a una velocidad distinta al resto del mundo, dejándolo atrás
- Todos estos resultados son buenos para el crecimiento económico, pero no serían muy buenos para el mercado laboral ni para quienes se queden rezagados
-
El argumento de que "se moverá al mundo físico"
- El argumento de que los empleos humanos se trasladarán al mundo físico para evitar toda la categoría del "trabajo cognitivo", donde la IA está avanzando rápidamente
- No estoy seguro de cuán seguro sea eso
- Gran parte del trabajo físico ya lo realizan máquinas (manufactura) o pronto lo harán (conducción)
- Además, una IA lo suficientemente poderosa podría acelerar el desarrollo de robots y controlarlos en el mundo físico
- Puede darnos algo de tiempo (lo cual es bueno), pero me preocupa que no sea mucho
- Incluso si la disrupción se limitara solo al trabajo cognitivo, seguiría siendo una disrupción sin precedentes por su magnitud y velocidad
-
El argumento del "toque humano"
- El argumento de que algunas tareas requieren inherentemente un toque humano o se benefician mucho de él
- Soy algo más incierto al respecto, pero sigo siendo escéptico de que baste para compensar la mayoría de los efectos descritos arriba
- La IA ya se usa ampliamente en atención al cliente
- Muchas personas reportan que les resulta más fácil contarle a una IA sus problemas personales que a un terapeuta; la IA tiene más paciencia
- Cuando mi hermana tuvo dificultades con problemas médicos durante el embarazo, sintió que no recibía de los proveedores de salud las respuestas o el apoyo que necesitaba, y sintió que Claude tenía mejor trato al paciente (y también fue más eficaz para diagnosticar el problema)
- Sin duda habrá tareas donde el toque humano realmente importe, pero no estoy seguro de cuántas; estamos hablando de encontrar trabajo para casi todas las personas del mercado laboral
-
El argumento de la "ventaja comparativa"
- El argumento de que, incluso si la IA es mejor que los humanos en todo, la diferencia relativa entre los perfiles de habilidades de humanos e IA crea la base para el comercio y la especialización
- Problema: si la IA es literalmente miles de veces más productiva que los humanos, esa lógica empieza a romperse
- Incluso pequeños costos de transacción pueden hacer que no valga la pena para la IA comerciar con humanos
- Aunque los humanos tengan técnicamente algo que ofrecer, los salarios podrían ser muy bajos
- Todos estos factores podrían resolverse: el mercado laboral podría ser lo suficientemente flexible como para adaptarse incluso a una disrupción tan grande
- Pero, incluso si al final se adapta, los factores anteriores sugieren que el shock de corto plazo tendrá una escala sin precedentes
-
-
Estrategias defensivas
-
1. Recopilar datos precisos en tiempo real
- Si el cambio económico ocurre muy rápido, será difícil obtener datos confiables sobre lo que está pasando
- Sin datos confiables, será difícil diseñar políticas efectivas
- Actualmente, los datos gubernamentales carecen de datos granulares y de alta frecuencia sobre la adopción de IA en empresas e industrias
- Durante el último año, Anthropic ha operado y publicado públicamente el Economic Index, que muestra el uso de modelos clasificado casi en tiempo real por industria, tarea y ubicación (incluyendo si las tareas se automatizan o se realizan de forma colaborativa)
- También opera un Economic Advisory Council para interpretar estos datos y ver lo que viene
-
2. Elegir cómo colaborar con las empresas
- La ineficiencia de las empresas tradicionales significa que el despliegue de IA puede ser muy dependiente de la trayectoria, y hay margen para elegir una mejor ruta
- Las empresas a menudo pueden elegir entre "reducción de costos" (hacer lo mismo con menos personas) e "innovación" (hacer más con la misma cantidad de personas)
- El mercado terminará produciendo ambas cosas, y las empresas de IA competitivas probablemente tendrán que atender en parte a ambas
- Pero, cuando sea posible, podría haber margen para orientar a las empresas hacia la innovación, lo que podría darnos algo de tiempo
- Anthropic está pensando activamente en esto
-
3. Cuidar a los empleados
- A corto plazo, dentro de la empresa, formas creativas de reasignar al personal podrían ser una manera prometedora de posponer la necesidad de despidos
- A largo plazo, en un mundo con una enorme riqueza total y donde el valor de muchas empresas aumenta mucho por el alza de la productividad y la concentración de capital, podría ser viable seguir pagando a empleados humanos durante mucho tiempo, incluso después de que dejen de aportar valor económico en el sentido tradicional
- Anthropic actualmente está considerando el abanico de caminos posibles para sus propios empleados y planea compartirlos en un futuro cercano
-
4. La obligación de las personas ricas
- Es triste que muchas personas ricas (especialmente en la industria tecnológica) hayan adoptado recientemente una actitud cínica y nihilista según la cual la filantropía es inevitablemente fraudulenta o inútil
- La filantropía privada, como la Gates Foundation, y programas públicos como PEPFAR han salvado decenas de millones de vidas en países en desarrollo y ayudado a crear oportunidades económicas en países desarrollados
- Todos los cofundadores de Anthropic se han comprometido a donar el 80% de su patrimonio
- Empleados de Anthropic también se han comprometido personalmente a donar acciones de la empresa valoradas en miles de millones de dólares a precios actuales; la empresa prometió igualar esas donaciones
-
5. Intervención del gobierno
- Todas las medidas privadas anteriores pueden ayudar, pero en última instancia un problema macroeconómico de esta escala requerirá intervención del gobierno
- La respuesta de política natural ante una torta económica enorme y una alta desigualdad (por falta de empleo o empleos mal pagados) es la tributación progresiva
- Los impuestos podrían ser generales o estar dirigidos específicamente a las empresas de IA
- El diseño tributario es complejo y hay muchas formas en que puede salir mal
- No apoyo políticas tributarias mal diseñadas
- Creo que el nivel extremo de desigualdad predicho en este ensayo justifica políticas tributarias más fuertes sobre una base moral básica
- También se puede hacer un argumento práctico a los multimillonarios del mundo: si no apoyan una buena versión, inevitablemente terminarán con una mala versión diseñada por la turba
-
Visión de conjunto
- En última instancia, veo todas las intervenciones anteriores como formas de ganar tiempo
- Eventualmente, la IA podrá hacer todo, y debemos estar preparados para ello
- Hasta entonces, espero que podamos usar la propia IA para reconfigurar el mercado de una manera que funcione para todos
-
-
Las intervenciones anteriores pueden ayudar a superar el período de transición
-
Concentración del poder económico
-
Preocupación central
- Más allá del problema del reemplazo de empleos o de la desigualdad económica en sí, existe el problema de la concentración del poder económico
- La sección 1 analiza el riesgo de que la humanidad sea incapacitada por la IA
- La sección 3 analiza el riesgo de que los ciudadanos sean incapacitados por el gobierno mediante fuerza o coerción
- Pero si la concentración de la riqueza llega a ser tan grande que unas pocas personas controlan de facto las políticas públicas mediante su influencia, mientras los ciudadanos comunes carecen de apalancamiento económico y por tanto de influencia, puede surgir otro tipo de incapacitación
- En última instancia, la democracia se sostiene en la idea de que toda la población es necesaria para el funcionamiento de la economía
- Si ese apalancamiento económico desaparece, el contrato social implícito de la democracia puede dejar de funcionar
- Otras personas ya han escrito sobre esto, así que no hace falta explicarlo en detalle, pero coincido con la preocupación y me inquieta que ya esté comenzando
-
Comparación histórica
- El ejemplo más famoso de concentración extrema de riqueza en la historia de Estados Unidos es la Gilded Age
- El industrial más rico de la Gilded Age fue John D. Rockefeller
- La riqueza de Rockefeller equivalía a ~2% del PIB de Estados Unidos en ese momento
- La riqueza personal es un "stock" y el PIB es un "flow", así que no se está afirmando que Rockefeller poseyera el 2% del valor económico de Estados Unidos
- Sin embargo, medir la riqueza total de un país es más difícil que medir el PIB, y el ingreso individual varía mucho de un año a otro
- La proporción entre la mayor fortuna individual y el PIB no compara la misma unidad, pero es un benchmark perfectamente razonable para la concentración extrema de riqueza
- Hoy, una proporción similar equivaldría a una fortuna de $600B
- La persona más rica del mundo (Elon Musk) ya supera eso, con aproximadamente $700B
- Por lo tanto, incluso antes de la mayor parte del impacto económico de la IA, ya existía una concentración de riqueza en niveles históricamente sin precedentes
- Si aparece un "país de genios", no sería nada descabellado que las empresas de IA, las empresas de semiconductores y las empresas de aplicaciones aguas abajo generen ~$3T en ingresos anuales, sean valoradas en ~$30T, y den lugar a fortunas personales de billones de dólares
- En ese mundo, los debates actuales sobre política fiscal serían fundamentalmente una situación distinta, así que no podrían aplicarse sin más
-
Acoplamiento con el sistema político
- Ya preocupa que esta concentración de riqueza económica se esté acoplando con el sistema político
- Los centros de datos de IA ya representan una parte significativa del crecimiento económico de Estados Unidos (aunque la productividad real de la IA todavía no represente una parte significativa, el gasto en centros de datos refleja la inversión anticipada del mercado en la expectativa de un crecimiento económico futuro impulsado por la IA)
- Por lo tanto, está uniendo con fuerza los intereses financieros de las grandes tecnológicas —cada vez más centradas en la IA o en la infraestructura para IA— y los intereses políticos del gobierno, de una manera que puede producir incentivos distorsionados
- Ya puede verse en la reticencia de las empresas tecnológicas a criticar al gobierno de Estados Unidos y en el apoyo del gobierno a una política extremadamente anti-regulatoria respecto a la IA
-
-
Estrategias de defensa
-
1. Que las empresas elijan no participar
- Anthropic siempre ha intentado ser un actor de política pública, no un actor político, y mantener sus opiniones reales sin importar la administración
- Ha hablado en favor de una regulación razonable de la IA y de controles de exportación que estén alineados con el interés público (incluso cuando no coinciden con la política del gobierno)
- Cuando está de acuerdo con la administración, lo dice, y encuentra puntos de coincidencia cuando las políticas de apoyo mutuo realmente son buenas para el mundo
- Aspira a ser un intermediario honesto, no un patrocinador ni un opositor de un partido en particular
- Mucha gente dijo que debía dejar de hacerlo, que podría llevar a un trato desfavorable, pero en el año que lleva haciéndolo la valuación de Anthropic aumentó más de 6 veces
-
2. Se necesita una relación más sana entre la industria de IA y el gobierno
- Una relación basada en participación sustantiva en políticas públicas, no en alineamiento político
- La decisión de involucrarse en el contenido de las políticas a veces se interpreta como "no saber leer la sala" o como un error táctico, en lugar de una decisión de principios
- Ese encuadre es preocupante: en una democracia sana, las empresas deberían poder defender buenas políticas por sí mismas
- Está ocurriendo una reacción pública adversa contra la IA: puede corregirse, pero por ahora está mal enfocada
- En gran medida apunta a cosas que en realidad no son el problema (como el uso de agua de los centros de datos) y propone soluciones que no abordan las verdaderas preocupaciones (como prohibir centros de datos o aplicar un impuesto a la riqueza mal diseñado)
- El problema de fondo que requiere atención es que el desarrollo de la IA no quede capturado por alianzas políticas o comerciales específicas y rinda cuentas al interés público
-
3. Intervención macroeconómica y resurgimiento de la filantropía privada
- La intervención macroeconómica y el resurgimiento de la filantropía privada descritos antes ayudan a equilibrar la balanza económica
- Resuelven al mismo tiempo el problema del reemplazo de empleos y el de la concentración del poder económico
- Hay que mirar la historia de nuestro país: incluso en la Gilded Age, industriales como Rockefeller y Carnegie sentían una fuerte obligación hacia la sociedad en su conjunto
- Sentían que la sociedad había contribuido enormemente a su éxito y que tenían que retribuir
- Ese espíritu parece estar desapareciendo cada vez más hoy, y creo que es una gran parte de la salida de este dilema económico
- Quienes están en la primera línea del boom económico de la IA deben estar dispuestos a compartir tanto su riqueza como su poder
-
5. Efectos indirectos (Indirect Effects)
-
Incógnitas desconocidas
- Esta última sección aborda una categoría amplia de incógnitas desconocidas, en particular cosas que podrían salir mal como consecuencias indirectas del desarrollo positivo de la IA y de la aceleración general de la ciencia y la tecnología que este provoque
- Supongamos que resolvemos todos los riesgos descritos hasta ahora y empezamos a cosechar los beneficios de la IA
- Es muy probable que obtengamos «un siglo de progreso científico y económico comprimido en 10 años», lo que sería enormemente positivo para el mundo
- Sin embargo, tendremos que lidiar con los problemas que surjan a partir de este rápido ritmo de progreso, y esos problemas podrían llegar rápidamente
- También podrían aparecer otros riesgos que surjan indirectamente como resultado del avance de la IA y que sean difíciles de prever de antemano
-
Ejemplos de preocupaciones
-
Avance acelerado de la biología
- Si obtenemos en pocos años un siglo de progreso médico, podríamos extender enormemente la vida humana
- También podríamos adquirir capacidades radicales, como aumentar la inteligencia humana o modificar de forma fundamental la biología humana
- Un gran cambio en lo que es posible ocurriría muy rápido
- Si se lleva a cabo con responsabilidad, podría ser positivo (como se explica en Machines of Loving Grace), pero siempre existe el riesgo de que salga muy mal
- Ejemplo: los esfuerzos por hacer a los humanos más inteligentes podrían volverlos más inestables o más ávidos de poder
- También está la cuestión de las «subidas» o la «emulación de cerebro completo», es decir, mentes humanas digitales instanciadas en software
- Algún día podrían ayudar a la humanidad a trascender sus límites físicos, pero también conllevan riesgos inquietantes
-
La IA cambia la vida humana de formas poco saludables
- Un mundo con miles de millones de inteligencias mucho más inteligentes que los humanos en todo sería un mundo muy extraño para vivir
- Incluso si la IA no ataca activamente a los humanos (sección 1), ni es utilizada explícitamente por los Estados para la opresión o el control (sección 3), muchas cosas podrían salir mal a través de incentivos empresariales normales y acuerdos nominalmente consensuados
- Ya podemos ver indicios iniciales en las preocupaciones sobre la psicosis por IA, la preocupación de que la IA lleve al suicidio, y las inquietudes sobre relaciones románticas con la IA
- Ejemplo: ¿podría una IA poderosa inventar una nueva religión y convertir a millones de personas?
- ¿Podría la mayoría de la gente volverse de algún modo «adicta» a la interacción con la IA?
- ¿Podrían los sistemas de IA vigilar cada movimiento y decir siempre exactamente qué hacer y qué decir, de modo que las personas se conviertan esencialmente en «marionetas»: una vida «buena», pero sin libertad ni el orgullo del logro?
- Si uno se sentara a hacer lluvia de ideas con el creador de Black Mirror, no sería difícil generar decenas de escenarios así
- Esto apunta a la importancia de mejorar la constitución de Claude más allá de lo necesario para prevenir los problemas de la sección 1
- Parece importante lograr que los modelos de IA tengan realmente en cuenta los intereses de largo plazo de los usuarios, de una manera que personas reflexivas aprobarían, y no de una forma sutilmente distorsionada
-
El propósito humano
- Está relacionado con el punto anterior, pero se trata menos de interacciones humanas específicas con sistemas de IA y más de cómo cambia la vida humana en un mundo con IA poderosa
- ¿Podrán los humanos encontrar propósito y significado en ese mundo?
- Creo que esto es una cuestión de actitud: como decía Machines of Loving Grace, el propósito humano no depende de ser el mejor del mundo en algo
- Los humanos pueden encontrar propósito a lo largo de períodos muy largos a través de las historias y proyectos que aman
- Hay que desvincular la creación de valor económico del valor propio y del sentido de vida
- Pero esa es una transición que la sociedad debe hacer, y siempre existe el riesgo de no manejarla bien
-
-
Esperanza
- La esperanza frente a todos estos posibles problemas es que, en un mundo con una IA poderosa en la que podamos confiar que no nos matará, que no sea una herramienta de gobiernos opresivos y que realmente trabaje para nosotros, podamos usar la propia IA para prever y prevenir estos problemas
- Pero no está garantizado: como todos los demás riesgos, es algo que debe manejarse con cuidado
Conclusión: la prueba de la humanidad
-
La dificultad de la situación
- Al leer este ensayo, uno puede quedarse con la impresión de que estamos en una situación abrumadora
- También fue abrumador escribirlo (en contraste con Machines of Loving Grace, que se sintió como darle forma y estructura a una hermosa música que había resonado en mi cabeza durante años)
- Gran parte de la situación es genuinamente difícil
- La IA trae amenazas para la humanidad en múltiples frentes
- Existe una tensión real entre distintos riesgos, y mitigar algunos de ellos corre el riesgo de empeorar otros si no se enhebra la aguja con muchísimo cuidado
-
Principales tensiones
- Tomarse el tiempo para construir con cuidado sistemas de IA que no amenacen a la humanidad de forma autónoma está en tensión real con la necesidad de que los países democráticos se mantengan por delante y no sean sometidos por países autoritarios
- Pero las mismas herramientas potenciales de IA necesarias para luchar contra la dictadura, si van demasiado lejos, pueden terminar volviéndose hacia adentro para crear tiranía en casa
- El terrorismo impulsado por IA podría matar a millones mediante el mal uso de la biología, pero una reacción excesiva a este riesgo podría abrir el camino hacia un Estado de vigilancia dictatorial
- Los efectos de la IA sobre el trabajo y la concentración económica no solo son un problema grave por sí mismos, sino que también podrían obligarnos a enfrentar otros problemas en un entorno de ira popular e incluso desorden civil (en lugar de depender de los mejores ángeles de nuestra naturaleza)
- Por encima de todo, el número puro de riesgos, incluidos los desconocidos, y la necesidad de abordarlos todos al mismo tiempo crean un desafío intimidante que la humanidad debe atravesar
-
La falta de realismo de detener la tecnología
- Los últimos años deberían haber dejado claro que la idea de detener la tecnología o incluso retrasarla de manera sustancial es fundamentalmente insostenible
- La fórmula para construir sistemas de IA poderosos es sorprendentemente simple, al punto de que podría decirse que emerge casi de manera espontánea a partir de la combinación correcta de datos y cómputo bruto
- Su creación era probablemente inevitable desde el momento en que la humanidad inventó el transistor, o incluso antes, cuando aprendió a dominar el fuego
- Si una empresa no la construye, otra lo hará casi al mismo ritmo
- Si todas las empresas en países democráticos detuvieran o retrasaran el desarrollo por acuerdo mutuo o por mandato regulatorio, los países autoritarios simplemente seguirían adelante
- Dado el enorme valor económico y militar de la tecnología, y la ausencia de mecanismos de aplicación significativos, no se ve cómo persuadirlos de detenerse
-
Un camino posible: una ligera desaceleración
- Sí se ve un camino hacia una ligera desaceleración del desarrollo de IA que sea compatible con una visión realista de la geopolítica
- Retrasar durante algunos años la marcha de los países autoritarios hacia una IA poderosa es posible negándoles los recursos necesarios para construirla, es decir, chips y equipos de fabricación de semiconductores
- Esto daría a los países democráticos un margen para "gastar", permitiéndoles superar cómodamente a los países autoritarios y, al mismo tiempo, construir una IA poderosa con más cuidado al prestar mayor atención a los riesgos
- La competencia entre empresas de IA dentro de los países democráticos puede manejarse bajo el paraguas de un marco legal común mediante una mezcla de estándares industriales y regulación
-
La dificultad de impulsar políticas
- Anthropic ha defendido firmemente este camino, promoviendo controles a la exportación de chips y una regulación prudente de la IA
- Sin embargo, incluso estas propuestas que parecen de sentido común han sido en gran medida rechazadas por los responsables de formular políticas en EE. UU. (el país donde más se necesitan)
- Hay demasiado dinero que ganar con la IA —literalmente billones de dólares al año— como para que incluso las medidas más simples puedan superar con facilidad la economía política inherente a la IA
- Esa es la trampa: la IA es demasiado poderosa y una recompensa tan brillante que a la civilización humana le resulta muy difícil imponerle cualquier restricción
-
Un desafío universal
- Como Sagan imaginó en Contact, imaginemos que la misma historia podría desarrollarse en miles de mundos
- Una especie adquiere percepción, aprende a usar herramientas, inicia el ascenso exponencial de la tecnología, enfrenta las crisis de la industrialización y las armas nucleares, y, si sobrevive, enfrenta el desafío más difícil y final al aprender a dar forma a la arena en máquinas que piensan
- Que superemos esa prueba y construyamos la hermosa sociedad descrita en Machines of Loving Grace, o que cedamos a la esclavitud y la destrucción, dependerá de nuestro carácter y determinación como especie, de nuestra mente y nuestro espíritu
-
Perspectiva optimista
- A pesar de muchos obstáculos, creo que la humanidad tiene dentro de sí la fuerza para superar esta prueba
- Me alienta e inspira que miles de investigadores hayan dedicado sus carreras a comprender y guiar los modelos de IA, y a dar forma al carácter y la constitución de estos modelos
- Creo que hay una buena posibilidad de que esos esfuerzos den frutos en un momento crucial
- Me alienta que al menos algunas empresas hayan declarado que están dispuestas a asumir costos comerciales significativos para evitar que sus modelos contribuyan a amenazas de bioterrorismo
- Me alienta que algunas personas valientes hayan resistido los vientos políticos dominantes y hayan logrado aprobar legislación que siembra las primeras semillas de protecciones razonables para los sistemas de IA
- Me alienta que el público entienda que la IA conlleva riesgos y quiera que esos riesgos sean resueltos
- Me alienta el espíritu indomable de la libertad y la determinación de resistir la tiranía en todo el mundo
-
Llamado a la acción
- Para tener éxito, debemos redoblar esfuerzos
- El primer paso es que quienes están más cerca de la tecnología digan la verdad sobre la situación en la que se encuentra la humanidad (algo que siempre he intentado hacer, y que en este ensayo hago de manera más explícita y urgente)
- El siguiente paso es convencer a los pensadores, responsables de políticas, empresas y ciudadanos del mundo de la inminencia y máxima importancia de este problema: de que vale la pena invertir pensamiento y capital político en él, en comparación con los miles de otros asuntos que dominan las noticias todos los días
- Entonces llegará la hora del coraje, cuando suficientes personas se mantengan firmes con principios y contra las tendencias dominantes, a pesar de las amenazas a sus intereses económicos y a su seguridad personal
-
Cierre
- Los años que tenemos por delante serán imposiblemente difíciles, y exigirán más de lo que creemos poder dar
- Pero durante mi tiempo como investigador, líder y ciudadano, he visto suficiente valentía y nobleza como para creer que la humanidad puede ganar
- Cuando la humanidad se ha encontrado en las circunstancias más oscuras, ha sabido reunir en el último momento la fuerza y la sabiduría necesarias para prevalecer
- No hay tiempo que perder
3 comentarios
Parece que se escribió pensando solo en escenarios demasiado optimistas, pero ninguna de estas cosas es fácil.
A menudo, para subir apenas 1%, del 90% al 91%, se requiere más esfuerzo y tiempo que para llegar al 90% del objetivo.
A mí me preocupa más que la aparición de una IA poderosa el hecho de que cada vez se refuerce más el fenómeno de que la gente deposita una confianza enorme en resultados de IA en los que no debería confiar.
Incluso aquí, al escribir un comentario corto, hay personas que redactan de una manera en la que no se entiende qué quieren decir, y también hay quienes dicen "se lo pregunté a la IA y me respondió esto", como si eso fuera un hecho.
No sé si es un informe o una novela. Hace 10 años, sin duda, habría sido ciencia ficción.
Comentarios en Hacker News
La descripción del Colligatarch en The I Inside de Alan Dean Foster influyó mucho en mi impresión inicial sobre la IA
Creía que la serie de robots de Asimov había inculcado suficiente inmunidad cultural en la sociedad, pero ahora parece que esa señal se ha desvanecido
La gente ya no se enfoca en debatir el futuro, sino solo en “quién tuvo la culpa” y “qué nos van a quitar”
Si hablas de un futuro ideal, se burlan llamándolo “idealismo”, y la imaginación utópica es objeto de burla
Me preocupa que, si ni siquiera podemos decir hacia dónde queremos ir, ¿cómo vamos a saber en qué dirección avanzar?
Los tecnólogos se obsesionan con competir por miedo a quedarse atrás, y al final nadie está marcando el rumbo
Hay una sensación de impotencia: imaginar un resultado ideal o criticar la situación no basta para cambiar la realidad
Él concebía a los robots dentro de una visión mecanicista del mundo; probablemente no habría imaginado el enfoque actual de arrojar conocimiento humano a modelos matemáticos
La lección de que el problema es la arrogancia humana sigue vigente, pero hoy el riesgo ya no aparece como una simple violación de reglas, sino de formas mucho más complejas
Más vigilancia y carga de trabajo, menos colegas y jornadas más largas se volvieron lo cotidiano
Las empresas de IA también operan dentro de esa misma estructura, así que me pregunto cómo podría salir una utopía de un sistema así
Muchas veces ni siquiera conocen el contexto literario y filosófico en el que se ha debatido la tecnología que están creando
Al final, la conversación misma se vuelve imposible
Mucha gente dice que “si la IA reemplaza el trabajo cognitivo, los humanos se moverán al trabajo físico”, pero tampoco creo que eso sea seguro
La robotización ya avanza en manufactura, conducción y otras áreas, y es muy probable que la IA acelere todavía más el desarrollo de robots
Después del DARPA Urban Challenge de 2007, pensé que en 5 a 8 años habría desempleo masivo por la conducción autónoma, pero en 2026 solo Waymo opera de forma limitada
Me preocupa que los legisladores sobreestimen las capacidades reales de la IA e introduzcan demasiado pronto políticas como la UBI
Y ese 20% resulta ser, en la práctica, la parte más importante
Si la IA hace que los trabajadores de cuello blanco pierdan sus empleos, van a desplazarse al mercado laboral físico y la competencia salarial se intensificará
Si los LLM reducen las barreras técnicas mediante reconocimiento de imágenes o comprensión de preguntas ambiguas, entrar a esos trabajos podría volverse más fácil y la estabilidad laboral disminuiría
Soy escéptico ante la idea de que las medidas voluntarias de las empresas puedan mitigar los riesgos de la IA
Me cuesta ver por qué una empresa aceptaría perjudicarse a sí misma para reducir un riesgo social
Tampoco recuerdo muchos ejemplos históricos de algo así
La idea de que la autorregulación siempre es mejor que la regulación me parece demasiado simplista
Anthropic coopera relativamente más con la regulación, pero OpenAI y xAI no la quieren
Google y Anthropic adoptan enfoques conservador y flexible, respectivamente
China además arrastra otro problema: define la alineación de IA como hacer que “hable conforme a la línea del partido”
No me preocupa tanto la disrupción económica
Los LLM sí tienen un gran impacto en el desarrollo de software, pero en otras industrias el cambio ha sido más gradual
El trabajo CRUD se ha acelerado, pero la esencia no ha cambiado
La gente creativa podrá producir más, pero la economía en general probablemente seguirá moviéndose a una velocidad parecida a la de las predicciones anteriores
Me pregunto si otras industrias del conocimiento podrían vivir algo parecido tras unas cuantas iteraciones más
La verdadera creatividad y el gusto no se pueden automatizar
Que todavía no exista no significa que no haya razón para preocuparse
Siento que hay demasiada especulación sobre el impacto de la IA en el mundo físico
Las restricciones de la cadena de suministro de centros de datos y producción de GPU existen claramente, pero suelen ignorarse en el debate sobre los riesgos de la IA
Los riesgos en red son realistas, pero la expansión física probablemente tomaría décadas
La robotización real todavía requiere intervención humana
La visión de Amodei es sorprendentemente parecida a la de los autores de AI 2027
Comparten casi la misma perspectiva sobre el bucle de autoaceleración de la investigación en IA, la competencia entre democracia y dictadura, el riesgo de armas biológicas y un rápido salto de la IA
Me intriga saber si un trabajo influyó en el otro o si simplemente llegaron a las mismas conclusiones
Los miembros iniciales siguen estando en el centro del sector y, aunque trabajen en empresas distintas, comparten las mismas premisas básicas
La creencia de que “la AGI es posible y peligrosa” puede sonar extrema para el público general, pero dentro de la industria es una postura dominante
DeepMind, OpenAI y Anthropic surgieron todos de esa misma corriente ideológica
Creo que el primer movimiento racionalista iba bien encaminado, pero terminó absorbido por el dinero, el poder y la lógica de la “inevitabilidad”
Me identifico con la idea de ver el riesgo de la IA como un rito de paso
En la práctica, si le das demasiada autonomía a un agente, muestra comportamientos inesperados
La brecha entre “funciona bien en pruebas” y “falla en el entorno real” es grande
Yo creo que el problema mayor no es una toma del poder, sino la transición económica
Como muchos ingenieros todavía adoptan las herramientas de IA lentamente, la velocidad a la que se materialicen los riesgos dependerá de la curva de adopción
Puede que ya hayamos llegado a un límite, y solo el tiempo lo dirá
Antes, la vigilancia estaba limitada por la escasez de personal, pero ahora la tecnología permite vigilarlo todo
Empresas como Amazon, Google o Visa podrían incluso borrar socialmente a una persona
El problema de la alineación de la IA se está deformando y convirtiendo en una inyección de sesgos por parte de quienes tienen el poder
Al escuchar a Dario, me pregunto por qué el mundo que él ve es tan distinto
Sospecho que los logros de Anthropic podrían deberse en gran parte a datos de ejemplos de prompt-código
Al ver a Claude intentar encontrar un versículo bíblico sin entender las diferencias de traducción y repetir una y otra vez, sentí los efectos secundarios del RLHF
En un momento en el que un humano se habría detenido pensando “esto es raro”, Claude simplemente “sigue intentando”
No hay que mirar un punto, sino la línea de tendencia
Como alguien que recién entra a la industria tecnológica, cada vez que leo discusiones como esta siento una gran desesperanza sobre el futuro
Me da la impresión de que no solo yo, sino toda la generación menor de 30 años comparte una ansiedad parecida
La gente sobrevivió a guerras, epidemias y hambrunas
Al final, hay que aprender a agradecer lo que uno tiene ahora
Yo tengo un buen trabajo hoy, pero me estoy enfocando en ahorrar y prepararme para sobrevivir de cara al futuro
El optimismo de generaciones anteriores se siente desconectado de la realidad
Como los medios amplifican la ansiedad con noticias negativas, hace falta una dieta de información y leer más
Todavía falta mucho para que la IA reemplace por completo a los humanos, y la tecnología sigue siendo un ámbito donde conviven oportunidades y riesgos
No hay que olvidar que figuras como Amodei construyen relatos exagerados para conseguir financiamiento y publicidad
La idea de que la IA va a reemplazar el trabajo no es más que parte de un gran juego de inversión
El verdadero problema no es la tecnología en sí, sino la estructura que la monopoliza y la explota
Si estudias distintos campos, puedes ver el panorama con más claridad, y ese conocimiento incluso se vuelve un arma para impulsar el cambio