- La empresa de investigación en inteligencia artificial Anthropic retiró compromisos clave de su política central de seguridad, la Responsible Scaling Policy (RSP)
- Antes había prometido detener el entrenamiento de modelos de IA si las medidas de seguridad no estaban suficientemente garantizadas, pero esa cláusula fue eliminada en la nueva política
- La nueva RSP promete mayor transparencia y esfuerzos de seguridad al menos al nivel de sus competidores, y especifica que podría “retrasar” el desarrollo si el riesgo es grave
- La empresa explicó que este cambio no se debe a presión del mercado, sino a una respuesta a la realidad política y científica
- Expertos consideran que esta medida es una señal de la falta de preparación social ante los riesgos catastróficos de la IA
Antecedentes del cambio en la RSP (Responsible Scaling Policy)
- En 2023, Anthropic anunció el compromiso de no entrenar sistemas de IA si no se demostraba suficientemente que las medidas de seguridad eran adecuadas
- Esta era una política clave que reforzaba la imagen de la empresa de priorizar la seguridad por encima de la competencia de mercado
- Recientemente, la empresa reformuló por completo la RSP y retiró la promesa de no lanzar modelos sin garantías previas de seguridad
- Jared Kaplan (Chief Science Officer) comentó que “como el avance de la IA es demasiado rápido, un compromiso unilateral no es realista”
Contenido principal de la nueva política
- La nueva RSP incluye una mayor transparencia sobre los riesgos de seguridad de la IA
- Establece que se divulgarán resultados adicionales de pruebas de seguridad de los modelos de Anthropic y que se mantendrán o superarán medidas de seguridad al nivel de sus competidores
- Si la empresa lidera la carrera de la IA y considera que existe un alto riesgo catastrófico, podría ‘retrasar’ el desarrollo
- Sin embargo, desaparece la línea de restricción clara que antes prohibía entrenar modelos por encima de cierto umbral
Contexto industrial del cambio de política
- Recientemente, Anthropic está obteniendo resultados comerciales gracias al éxito de los modelos Claude y Claude Code
- En febrero de 2026, reportó una captación de inversión de 30 mil millones de dólares, una valoración de aproximadamente 380 mil millones de dólares y una tasa de crecimiento anual de ingresos de 10 veces
- El modelo de negocio centrado en B2B de la empresa es considerado más confiable que la estrategia enfocada en consumidores de OpenAI
- Kaplan subrayó que este cambio no se debe a presión del mercado, sino a un ajuste práctico ante cambios en el entorno político y científico
Límites regulatorios y científicos
- Cuando Anthropic introdujo la RSP, esperaba que otras empresas adoptaran medidas similares, pero eso no ocurrió
- Han continuado la ausencia de una ley federal de regulación de IA en Estados Unidos, la postura de desregulación de la administración Trump y la frustración de la cooperación internacional
- También se señala como problema la complejidad de la ciencia de evaluación de IA
- En 2025, Anthropic anunció que no podía descartar la posibilidad de que sus modelos fueran utilizados para bioterrorismo, pero faltaban bases científicas suficientes para demostrarlo
Debate interno y proceso de decisión
- Durante aproximadamente un año, la dirección debatió cómo reformar la RSP para ajustarla al nuevo entorno
- El punto central era el principio fundacional de que para investigar la seguridad de la IA es necesario desarrollar directamente modelos de frontera
- Según Kaplan, el CEO Dario Amodei concluyó que “si los competidores siguen desarrollando, que solo Anthropic se detenga sería aún más peligroso”
- El prefacio de la nueva RSP señala que “si el desarrollador con las protecciones más débiles termina marcando la velocidad, los desarrolladores responsables perderán la capacidad de investigar la seguridad”
Evaluaciones externas y preocupaciones
- Chris Painter (director de políticas de METR) evaluó que el cambio es comprensible, pero que también revela la falta de preparación social ante los riesgos catastróficos de la IA
- Mencionó que Anthropic “cambió a un modo de respuesta de emergencia (modo de triage) porque la evaluación de riesgos y los métodos de mitigación no están siguiendo el ritmo del desarrollo tecnológico”
- Painter valoró positivamente la publicación transparente de riesgos y de la hoja de ruta de seguridad en la nueva política, pero
- advirtió que, al desaparecer el umbral binario de detención (binary threshold) de la RSP anterior, podría producirse un aumento gradual del riesgo tipo ‘efecto de la rana hervida’
Planes futuros y compromisos de divulgación
- Anthropic explicó que la nueva RSP mantiene las ventajas clave de la política anterior
- En el pasado, las restricciones al lanzamiento de modelos funcionaban como un incentivo para desarrollar medidas de mitigación de seguridad
- Para mantener ese incentivo en la nueva política, planea publicar periódicamente ‘Frontier Safety Roadmaps’
- Además, emitirá ‘Risk Reports’ cada 3 a 6 meses
- con evaluaciones sobre las capacidades de los modelos, escenarios de amenaza, medidas de mitigación de riesgos y el nivel general de riesgo
- Kaplan enfatizó que “si los competidores responden con transparencia a los riesgos catastróficos, Anthropic también mantendrá estándares de seguridad equivalentes o superiores”
2 comentarios
Por más terco que sea Anthropic, si el Departamento de Defensa de EE. UU. le ordena algo, al final tendrá que obedecer. A fin de cuentas, ¿no era este el desenlace que se veía venir?
Comentarios en Hacker News
Ver que Anthropic explicó que retiró su promesa de detener el entrenamiento de modelos de IA porque “los competidores se están adelantando” hace parecer que, al final, todo era por dinero
Suena a una lógica de “si todos están pateando al perro, nosotros también tenemos que hacerlo”.
La gente creía que Anthropic era una ‘empresa buena’, pero al final todos son iguales y solo persiguen las ganancias
Pero la realidad es que la mayoría de las empresas de IA están bajo un ‘gobierno de papel’
No es un problema exclusivo de las empresas de IA, pero eso no lo vuelve justificable
Por eso hacen falta regulaciones de seguridad, ambientales y anticorrupción
Parece el ciclo típico de una startup de IA
“Construyamos un foso para salvar a la humanidad” → “Regulemos a los competidores open source” → “La seguridad estorba a los resultados del Q3”
En realidad son cerradas, pero te gaslightean diciendo que son “abiertas”
Trabajé antes en Anthropic, y gente como Jared Kaplan realmente se tomaba en serio el equilibrio entre investigación de seguridad y tecnología de frontera
Pero esta decisión es decepcionante. Yo creía que la ‘Responsible Scaling Policy’ era un compromiso real que se mantendría incluso en una situación así
Esa promesa hacía que Anthropic pareciera “el laboratorio menos riesgoso”, pero ahora esa señal se debilitó
Me preocupa que, de ahora en adelante, conservar el puesto pase a estar por encima de los principios
Aun así, si todavía quedan valores, creo que es mejor intentar influir aunque sea entre laboratorios que no tienen ninguno
La responsabilidad moral tenemos que compartirla todos
Que la hayan retirado por cuenta propia significa que ahora se están moviendo hacia otro mercado
Hacían que los postulantes escribieran un ensayo sobre seguridad en IA, y todos actuaban como si estuvieran “salvando al mundo”
Pero ahora que hay dinero en juego, nadie dice nada
Porque estructuralmente las empresas no pueden escapar del instinto de maximizar ganancias
Esta decisión se parece al momento en que Mozilla aceptó DRM
No es perfecto, pero aun así Anthropic por lo menos está intentando actuar con sentido de responsabilidad
Comparada con OpenAI, todavía parece haber algo más de margen para confiar
El título del artículo está exagerado. Esta polémica no trata de negociaciones con el Pentágono, sino de la Responsible Scaling Policy 3.0 que Anthropic publicó
Más bien podría ser una medida preventiva
Hubo presión del gobierno, pero el artículo no la menciona para nada
El texto que empieza con “Al principio, cuando lanzaron el modelo sin validación de seguridad, nadie dijo nada…” suena como una fábula de advertencia
Al final nadie se preparó, y cuando estalló el problema ya era tarde
El problema real está más en el terreno de la política y la cultura que en la tecnología
Que hayan retirado la promesa de seguridad justo en este momento es muy revelador
Estas empresas siguen códigos éticos hasta que sus ganancias se ven amenazadas, y entonces los tiran por la borda
Al final, el objetivo es devaluar el trabajo de cuello blanco
La pregunta es si van a gestionar esa transición de forma ética, o si simplemente van a transferir la riqueza a los accionistas
Es como una serpiente comiéndose su propia cola
La esencia de una empresa es perseguir ganancias, y eso no tiene nada de malo por sí mismo, pero esos gestos morales se sienten hipócritas
El “Don’t be evil” de Google duró 15 años, pero la Responsible Scaling Policy de Anthropic desapareció en dos años y medio
La vida media del idealismo de la IA se está acortando cada vez más
Es una lástima ver este cambio en Anthropic, pero siendo realistas tampoco puede quedarse demasiado atrás en la competencia, ni siquiera por seguridad
Ahora hace falta pragmatismo. Anthropic podría “volverse mala” más adelante, pero por ahora sigue pareciendo la opción más segura
Valoran positivamente que el CEO haya rechazado el uso militar de la IA
Hay que tomar conciencia antes de que sea demasiado tarde