14 puntos por GN⁺ 2026-02-26 | 2 comentarios | Compartir por WhatsApp
  • La empresa de investigación en inteligencia artificial Anthropic retiró compromisos clave de su política central de seguridad, la Responsible Scaling Policy (RSP)
  • Antes había prometido detener el entrenamiento de modelos de IA si las medidas de seguridad no estaban suficientemente garantizadas, pero esa cláusula fue eliminada en la nueva política
  • La nueva RSP promete mayor transparencia y esfuerzos de seguridad al menos al nivel de sus competidores, y especifica que podría “retrasar” el desarrollo si el riesgo es grave
  • La empresa explicó que este cambio no se debe a presión del mercado, sino a una respuesta a la realidad política y científica
  • Expertos consideran que esta medida es una señal de la falta de preparación social ante los riesgos catastróficos de la IA

Antecedentes del cambio en la RSP (Responsible Scaling Policy)

  • En 2023, Anthropic anunció el compromiso de no entrenar sistemas de IA si no se demostraba suficientemente que las medidas de seguridad eran adecuadas
    • Esta era una política clave que reforzaba la imagen de la empresa de priorizar la seguridad por encima de la competencia de mercado
  • Recientemente, la empresa reformuló por completo la RSP y retiró la promesa de no lanzar modelos sin garantías previas de seguridad
  • Jared Kaplan (Chief Science Officer) comentó que “como el avance de la IA es demasiado rápido, un compromiso unilateral no es realista”

Contenido principal de la nueva política

  • La nueva RSP incluye una mayor transparencia sobre los riesgos de seguridad de la IA
    • Establece que se divulgarán resultados adicionales de pruebas de seguridad de los modelos de Anthropic y que se mantendrán o superarán medidas de seguridad al nivel de sus competidores
  • Si la empresa lidera la carrera de la IA y considera que existe un alto riesgo catastrófico, podría ‘retrasar’ el desarrollo
  • Sin embargo, desaparece la línea de restricción clara que antes prohibía entrenar modelos por encima de cierto umbral

Contexto industrial del cambio de política

  • Recientemente, Anthropic está obteniendo resultados comerciales gracias al éxito de los modelos Claude y Claude Code
    • En febrero de 2026, reportó una captación de inversión de 30 mil millones de dólares, una valoración de aproximadamente 380 mil millones de dólares y una tasa de crecimiento anual de ingresos de 10 veces
  • El modelo de negocio centrado en B2B de la empresa es considerado más confiable que la estrategia enfocada en consumidores de OpenAI
  • Kaplan subrayó que este cambio no se debe a presión del mercado, sino a un ajuste práctico ante cambios en el entorno político y científico

Límites regulatorios y científicos

  • Cuando Anthropic introdujo la RSP, esperaba que otras empresas adoptaran medidas similares, pero eso no ocurrió
  • Han continuado la ausencia de una ley federal de regulación de IA en Estados Unidos, la postura de desregulación de la administración Trump y la frustración de la cooperación internacional
  • También se señala como problema la complejidad de la ciencia de evaluación de IA
    • En 2025, Anthropic anunció que no podía descartar la posibilidad de que sus modelos fueran utilizados para bioterrorismo, pero faltaban bases científicas suficientes para demostrarlo

Debate interno y proceso de decisión

  • Durante aproximadamente un año, la dirección debatió cómo reformar la RSP para ajustarla al nuevo entorno
    • El punto central era el principio fundacional de que para investigar la seguridad de la IA es necesario desarrollar directamente modelos de frontera
  • Según Kaplan, el CEO Dario Amodei concluyó que “si los competidores siguen desarrollando, que solo Anthropic se detenga sería aún más peligroso”
  • El prefacio de la nueva RSP señala que “si el desarrollador con las protecciones más débiles termina marcando la velocidad, los desarrolladores responsables perderán la capacidad de investigar la seguridad”

Evaluaciones externas y preocupaciones

  • Chris Painter (director de políticas de METR) evaluó que el cambio es comprensible, pero que también revela la falta de preparación social ante los riesgos catastróficos de la IA
    • Mencionó que Anthropic “cambió a un modo de respuesta de emergencia (modo de triage) porque la evaluación de riesgos y los métodos de mitigación no están siguiendo el ritmo del desarrollo tecnológico”
  • Painter valoró positivamente la publicación transparente de riesgos y de la hoja de ruta de seguridad en la nueva política, pero
    • advirtió que, al desaparecer el umbral binario de detención (binary threshold) de la RSP anterior, podría producirse un aumento gradual del riesgo tipo ‘efecto de la rana hervida’

Planes futuros y compromisos de divulgación

  • Anthropic explicó que la nueva RSP mantiene las ventajas clave de la política anterior
    • En el pasado, las restricciones al lanzamiento de modelos funcionaban como un incentivo para desarrollar medidas de mitigación de seguridad
    • Para mantener ese incentivo en la nueva política, planea publicar periódicamente ‘Frontier Safety Roadmaps’
  • Además, emitirá ‘Risk Reports’ cada 3 a 6 meses
    • con evaluaciones sobre las capacidades de los modelos, escenarios de amenaza, medidas de mitigación de riesgos y el nivel general de riesgo
  • Kaplan enfatizó que “si los competidores responden con transparencia a los riesgos catastróficos, Anthropic también mantendrá estándares de seguridad equivalentes o superiores

2 comentarios

 
tsboard 2026-02-26

Por más terco que sea Anthropic, si el Departamento de Defensa de EE. UU. le ordena algo, al final tendrá que obedecer. A fin de cuentas, ¿no era este el desenlace que se veía venir?

 
GN⁺ 2026-02-26
Comentarios en Hacker News
  • Ver que Anthropic explicó que retiró su promesa de detener el entrenamiento de modelos de IA porque “los competidores se están adelantando” hace parecer que, al final, todo era por dinero
    Suena a una lógica de “si todos están pateando al perro, nosotros también tenemos que hacerlo”.
    La gente creía que Anthropic era una ‘empresa buena’, pero al final todos son iguales y solo persiguen las ganancias

    • Anthropic no puede representar la cordura del mercado. Ese papel le corresponde a los sistemas de regulación y supervisión del gobierno
      Pero la realidad es que la mayoría de las empresas de IA están bajo un ‘gobierno de papel’
    • En realidad, que “lo único que importa es ganar” es una realidad común en casi todas las industrias
      No es un problema exclusivo de las empresas de IA, pero eso no lo vuelve justificable
    • Si al final todo es dinero, entonces decidí votar con mi billetera y cancelé mi suscripción a Max
    • Si se deja la competencia sin regulación, al final todas las empresas exitosas terminan causando fraude y daños
      Por eso hacen falta regulaciones de seguridad, ambientales y anticorrupción
  • Parece el ciclo típico de una startup de IA
    “Construyamos un foso para salvar a la humanidad” → “Regulemos a los competidores open source” → “La seguridad estorba a los resultados del Q3”

    • Al final termina siendo una declaración del tipo “el presupuesto del Pentágono importa más que la seguridad”
    • Una vez que se conviertan en dominadores del mercado, van a impulsar regulación estatal a través de las ONG que patrocinan
    • Lo sorprendente es que este cambio ocurrió demasiado rápido
    • No solo en IA; otras empresas que se cuelgan la palabra “open” hacen algo parecido
      En realidad son cerradas, pero te gaslightean diciendo que son “abiertas”
    • A los políticos también les gusta regular. Sobre todo cuando viene con vino y steak, en una crítica medio en broma
  • Trabajé antes en Anthropic, y gente como Jared Kaplan realmente se tomaba en serio el equilibrio entre investigación de seguridad y tecnología de frontera
    Pero esta decisión es decepcionante. Yo creía que la ‘Responsible Scaling Policy’ era un compromiso real que se mantendría incluso en una situación así
    Esa promesa hacía que Anthropic pareciera “el laboratorio menos riesgoso”, pero ahora esa señal se debilitó
    Me preocupa que, de ahora en adelante, conservar el puesto pase a estar por encima de los principios

    • Decir “espero que actúen según sus valores” quizá sea una expectativa demasiado ingenua
      Aun así, si todavía quedan valores, creo que es mejor intentar influir aunque sea entre laboratorios que no tienen ninguno
    • Si uno mismo no está dispuesto a renunciar a los RSU (compensación en acciones), tampoco puede esperar eso de la dirección
      La responsabilidad moral tenemos que compartirla todos
    • La promesa no era legalmente vinculante, pero sí tenía sentido como señal al mercado
      Que la hayan retirado por cuenta propia significa que ahora se están moviendo hacia otro mercado
    • Entrevisté con Anthropic el año pasado, y se sintió como un show ético
      Hacían que los postulantes escribieran un ensayo sobre seguridad en IA, y todos actuaban como si estuvieran “salvando al mundo”
      Pero ahora que hay dinero en juego, nadie dice nada
    • Este tipo de principios al final solo pueden sostenerse a nivel gubernamental
      Porque estructuralmente las empresas no pueden escapar del instinto de maximizar ganancias
  • Esta decisión se parece al momento en que Mozilla aceptó DRM
    No es perfecto, pero aun así Anthropic por lo menos está intentando actuar con sentido de responsabilidad
    Comparada con OpenAI, todavía parece haber algo más de margen para confiar

  • El título del artículo está exagerado. Esta polémica no trata de negociaciones con el Pentágono, sino de la Responsible Scaling Policy 3.0 que Anthropic publicó

    • Claro, no se puede afirmar que ambos temas no tengan relación
      Más bien podría ser una medida preventiva
    • De hecho, creo que este cambio de política es una transformación más importante que el tema del Pentágono
  • Hubo presión del gobierno, pero el artículo no la menciona para nada

    • Según reportes relacionados, se confirmó una reunión entre Hegseth y el CEO de Anthropic, Dario Amodei
    • Por eso algunos creen que consiguieron una exclusiva
    • Algunos lo ven como fabricación del consentimiento (Consent manufacturing)
    • Critican que en el artículo ni siquiera aparezca el nombre de Hegseth
  • El texto que empieza con “Al principio, cuando lanzaron el modelo sin validación de seguridad, nadie dijo nada…” suena como una fábula de advertencia
    Al final nadie se preparó, y cuando estalló el problema ya era tarde

    • Este tipo de desatención colectiva es un problema crónico de la sociedad humana
    • Hubo suficientes advertencias, pero la gente estaba atrapada en la codicia y el pensamiento de corto plazo
    • Dicho al estilo de HN, al final todos fuimos cómplices de ese sistema
    • También hubo quien dijo que suena un poco como el prólogo de una narrativa tipo Terminator
    • Pero siendo realistas, el escenario de una IA fuera de control todavía está lejos
      El problema real está más en el terreno de la política y la cultura que en la tecnología
  • Que hayan retirado la promesa de seguridad justo en este momento es muy revelador
    Estas empresas siguen códigos éticos hasta que sus ganancias se ven amenazadas, y entonces los tiran por la borda
    Al final, el objetivo es devaluar el trabajo de cuello blanco
    La pregunta es si van a gestionar esa transición de forma ética, o si simplemente van a transferir la riqueza a los accionistas

    • Este timing también podría ser una señal de presión del gobierno
    • Pero si la clase media se derrumba, al final también desaparece la base de consumidores
      Es como una serpiente comiéndose su propia cola
    • Eslóganes como “Don’t be evil” al final no son más que envoltura para el lucro
      La esencia de una empresa es perseguir ganancias, y eso no tiene nada de malo por sí mismo, pero esos gestos morales se sienten hipócritas
  • El “Don’t be evil” de Google duró 15 años, pero la Responsible Scaling Policy de Anthropic desapareció en dos años y medio
    La vida media del idealismo de la IA se está acortando cada vez más

  • Es una lástima ver este cambio en Anthropic, pero siendo realistas tampoco puede quedarse demasiado atrás en la competencia, ni siquiera por seguridad
    Ahora hace falta pragmatismo. Anthropic podría “volverse mala” más adelante, pero por ahora sigue pareciendo la opción más segura

    • También hubo quien preguntó por qué confiar tanto en Anthropic
      Valoran positivamente que el CEO haya rechazado el uso militar de la IA
    • Pero este cambio ya podría ser una señal de que se está volviendo mala
      Hay que tomar conciencia antes de que sea demasiado tarde
    • También hubo una reacción cínica diciendo que el mundo se arruina por culpa de los pragmáticos