Anthropic - OpenClaw: vuelve a estar permitido
(docs.openclaw.ai)- Un responsable de Anthropic informó que vuelve a estar permitido usar Claude CLI al estilo OpenClaw
- Se admite tanto la clave API de Anthropic como la reutilización de Claude CLI, y los perfiles de token de Anthropic ya existentes siguen siendo válidos al ejecutar
- El backend de Claude CLI de Anthropic vuelve a tratarse como un método de integración permitido, y hasta que se anuncie una nueva política también se permite usar
claude -p - Los modelos Claude 4.6 aplican por defecto adaptive thinking cuando no hay una configuración explícita de thinking, y esto puede redefinirse con
/think:<level>o con parámetros del modelo - El toggle
/fastsolo inyecta service_tier en solicitudes que van directamente aapi.anthropic.com; si pasan por un proxy o gateway, el cambio de tier no se aplica - También se admiten prompt caching y la ventana de contexto de 1M, pero el caché es solo para API y el contexto de 1M requiere activación explícita y permiso para usar long-context; en la autenticación existente
sk-ant-oat-*se omite el encabezado beta
Formas de soporte de Anthropic
- Se admiten tanto la API como Claude CLI como vías de acceso a la familia de modelos Claude, y en OpenClaw se puede usar tanto la clave API de Anthropic como la reutilización de Claude CLI
- Los perfiles de token de Anthropic ya configurados también siguen siendo reconocidos al ejecutar
-
Clave API de Anthropic
- Es la vía adecuada para acceso API estándar y facturación basada en uso
- La clave API puede generarse en Anthropic Console
- En el ejemplo de configuración del CLI, se puede elegir Anthropic API key en
openclaw onboard - También se admite el modo no interactivo con
openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY" - En el ejemplo de configuración se usa la variable de entorno
ANTHROPIC_API_KEYy el modelo predeterminadoanthropic/claude-opus-4-6
Valor predeterminado de Thinking
- Los modelos Claude 4.6 aplican adaptive thinking por defecto en OpenClaw cuando no se define un nivel de thinking explícito
- Puede redefinirse por mensaje con
/think:<level>o con el parámetro del modeloagents.defaults.models["anthropic/<model>"].params.thinking - Se proporcionan enlaces a la documentación relacionada de Adaptive thinking y Extended thinking
Fast mode
- El toggle compartido
/fastde OpenClaw también admite tráfico público directo hacia Anthropic enviado aapi.anthropic.com- Incluye tanto autenticación con clave API como solicitudes autenticadas con OAuth
/fast onse mapea aservice_tier: "auto"/fast offse mapea aservice_tier: "standard_only"- En el ejemplo de valor predeterminado de configuración, el modelo
anthropic/claude-sonnet-4-6usaparams.fastMode: true -
Limitaciones
- OpenClaw solo inyecta el service tier de Anthropic en solicitudes directas a
api.anthropic.com - Si las solicitudes
anthropic/*se desvían por un proxy o gateway,/fastno modificaservice_tier - Si existe un parámetro explícito de modelo
serviceTieroservice_tier, este tiene prioridad sobre el valor predeterminado de/fast - Anthropic registra el tier realmente aplicado en
usage.service_tierdentro de la respuesta - En cuentas sin Priority Tier capacity,
service_tier: "auto"puede seguir interpretándose comostandard
- OpenClaw solo inyecta el service tier de Anthropic en solicitudes directas a
Prompt caching
- OpenClaw admite la función de prompt caching de Anthropic
- Esta función es solo para API, y la autenticación con tokens Anthropic existente no refleja la configuración de caché
-
Configuración
- En la configuración del modelo se usa el parámetro
cacheRetention nonedesactiva el cachéshortestablece caché de 5 minutoslongestablece caché extendido de 1 hora- En el ejemplo de configuración, el modelo
anthropic/claude-opus-4-6usaparams.cacheRetention: "long"
- En la configuración del modelo se usa el parámetro
-
Valores predeterminados
- Al usar autenticación con clave API de Anthropic, se aplica automáticamente
cacheRetention: "short"a todos los modelos Anthropic - Si
cacheRetentionse define explícitamente, puede sobrescribir este valor predeterminado
- Al usar autenticación con clave API de Anthropic, se aplica automáticamente
-
Anulación por agente
- Los parámetros a nivel de modelo sirven como base, y cada agente específico puede sobrescribirlos individualmente con
agents.list[].params - En el ejemplo,
researchusa la configuración predeterminada, mientrasalertsaplicacacheRetention: "none" - El orden de fusión de parámetros relacionados con caché es primero
agents.defaults.models["provider/model"].paramsy luegoagents.list[].params - Incluso usando el mismo modelo, un agente puede mantener caché de largo plazo y otro puede tener el caché desactivado
- Como ejemplo para desactivar el caché, se menciona evitar costos de escritura en tráfico de tipo burst o con baja reutilización
- Los parámetros a nivel de modelo sirven como base, y cada agente específico puede sobrescribirlos individualmente con
-
Referencia para Bedrock Claude
- Los modelos Anthropic Claude de Bedrock
amazon-bedrock/*anthropic.claude*admiten el envío decacheRetentioncuando está configurado - Los modelos Bedrock que no son de Anthropic se fuerzan a
cacheRetention: "none"al ejecutar - Los valores inteligentes predeterminados basados en clave API de Anthropic también aplican
cacheRetention: "short"a referencias Claude-on-Bedrock cuando no hay un valor explícito
- Los modelos Anthropic Claude de Bedrock
Ventana de contexto de 1M
- La ventana de contexto de 1M de Anthropic es una función beta restringida y, en OpenClaw, puede activarse por cada modelo Opus/Sonnet compatible con
params.context1m: true - En el ejemplo de configuración, el modelo
anthropic/claude-opus-4-6usaparams.context1m: true - OpenClaw lo mapea al encabezado de solicitudes Anthropic
anthropic-beta: context-1m-2025-08-07 - Esta función solo se activa cuando
params.context1mestá definido explícitamente comotruepara ese modelo - Como condición de uso, Anthropic debe permitir long-context usage para esas credenciales
- Actualmente Anthropic rechaza solicitudes beta
context-1m-*cuando se usa la autenticación heredada con token Anthropicsk-ant-oat-* - Si se configura
context1m: trueen el modo de autenticación heredado, OpenClaw deja un registro de advertencia, omite el encabezado beta de context1m y usa la ventana de contexto estándar en su lugar- Se mantiene cualquier beta OAuth necesaria
Backend de Claude CLI
- OpenClaw admite el backend
claude-cliincluido de Anthropic - Un empleado de Anthropic comunicó que esta forma de uso vuelve a estar permitida
- En consecuencia, hasta que Anthropic anuncie una nueva política, OpenClaw trata la reutilización de Claude CLI y el uso de
claude -pcomo métodos de integración permitidos - Para hosts de gateway siempre activos y control explícito de facturación del lado del servidor, la clave API de Anthropic es la ruta operativa más clara
- Para detalles de configuración y ejecución, consulta la ruta
/gateway/cli-backends
Notas
- La documentación pública de Claude Code de Anthropic todavía documenta el uso directo del CLI, como
claude -p - Un empleado de Anthropic comunicó que el uso de Claude CLI al estilo OpenClaw vuelve a estar permitido y, hasta que Anthropic anuncie un nuevo cambio de política, esto se considera la guía confirmada
- En OpenClaw, Anthropic setup-token también sigue disponible como ruta de autenticación con token compatible
- Sin embargo, cuando está disponible, OpenClaw prioriza más la reutilización de Claude CLI y
claude -p - Para detalles de autenticación y reglas de reutilización, consulta la ruta
/concepts/oauth
Solución de problemas
-
Errores 401 / token repentinamente inválido
- La autenticación con token de Anthropic puede expirar o ser revocada
- Para nuevas configuraciones, se recomienda migrar a una clave API de Anthropic
-
No API key found for provider “anthropic”
- La autenticación se aplica por agente
- Los agentes nuevos no heredan la clave del agente principal
- Es necesario volver a ejecutar el onboarding para ese agente o configurar la clave API en el host del gateway y luego verificar con
openclaw models status
-
No credentials found for profile
anthropic:default- Se puede comprobar qué perfil de autenticación está activo con
openclaw models status - Es necesario volver a ejecutar el onboarding o configurar la clave API en la ruta de ese perfil
- Se puede comprobar qué perfil de autenticación está activo con
-
No available auth profile (all in cooldown/unavailable)
- Se puede revisar
auth.unusableProfilesenopenclaw models status --json - El cooldown por rate limit de Anthropic puede ser por modelo, así que aunque el modelo actual esté en cooldown, otro modelo Anthropic de la misma familia podría seguir disponible
- Es necesario agregar otro perfil de Anthropic o esperar a que termine el cooldown
- También se proporcionan como rutas adicionales
/gateway/troubleshootingy/help/faq
- Se puede revisar
9 comentarios
Después de hacer que se pudiera usar el modelo local
gemma4 31ben codex con Codex (¡con el detalle de verificar incluso el multiturno por su cuenta!), cancelé todas mis otras suscripciones excepto ChatGPT Pro. Al combinarcodex-app-linuxcon estos dos, todavía me sobra cuota incluso ejecutando trabajos con el máximo paralelismo que puedo manejar.¡Cuéntenme un poco sobre las especificaciones de hardware! Lo estoy corriendo con una 4090 y sí es inteligente, pero para usarlo a largo plazo se queda corto.
Yo también quiero correr gemma4 en local, ¿qué especificaciones de hardware tienes más o menos?
La verdad, se ve demasiado patético...
Parece más bien que, como quisieron impedir que los usuarios Pro usaran Claude Code y la reacción de la gente fue mala, están haciendo esto solo de forma temporal..
Aun así, parece mejor observar por ahora en lugar de usarlo mal sin querer y terminar con la cuenta suspendida.
Me compliqué con el uso de la API key de CC OAuth y al final simplemente me quedé con Codex de antes...
La verdad, yo también últimamente me quedé simplemente con Codex... Claude consume tokens demasiado rápido.
Opiniones en Hacker News
Soy Peter de OpenClaw; Boris de Claude Code dijo públicamente en Twitter que se permitía el uso estilo CLI, así que confié en esa guía e invertí en implementarlo. También cambié para que al usar el cli se desactiven por defecto funciones de tokens excesivas como heartbeat, pero en la práctica Anthropic está bloqueando parte del system prompt, así que la comunicación pública y el comportamiento actual no coinciden. La declaración relevante puede verse aquí. Parece que cuando la gente lo evitó cambiando apenas el nombre, también cambiaron el clasificador, pero no pienso entrar en ese juego de evasión, así que quedé en un estado ambiguo donde en teoría se puede, pero en la práctica no funciona
claude -p. Pero con la introducción del nuevo flag--bare, preocupa que llegue una especie de rug pull que en la práctica desplace-ppara los usuarios ilimitados. La documentación también dice que--barees el modo recomendado para scripts y llamadas al SDK, y que en el futuro será el valor por defecto de-p, así que espero haber entendido mal o que den una explicación clara. La documentación es headless docsclaude -po flujos mejores basados en SDKSiento que la situación actual es realmente un lodazal turbio. Anthropic debería decir con claridad qué está soportado y qué no según haya o no suscripción, y hasta que lo haga es difícil que el usuario sepa dónde está parado respecto a cómo puede usar el producto. Yo ni siquiera uso OpenClaw ni productos parecidos en este momento, pero al menos quisiera saber qué se puede y qué no, y ahora mismo eso parece casi imposible
vibe product. Últimamente las cosas aparecen y desaparecen demasiado rápido, así que ya perdí bastante de la expectativa que tenía antesCreo que el punto clave es que empleados de Anthropic dieron en Twitter explicaciones contradictorias e incluso correcciones, generando todavía más confusión. Hoy dicen que el uso de Claude CLI estilo OpenClaw está bien, y mañana podrían retirarlo otra vez con una actualización de política. Con Claude Code, Anthropic se mostró difícil de confiar, y creo que para cuidar la salud mental conviene más mudarse a otro proveedor
keep your insanityse sintiera como una expresión demasiado precisaclaude -pal esquema de cobros adicionales. Por eso, no siento que esta página contradiga ese anuncioEste cambio ya había vuelto atrás hace 2 semanas con este commit, y ese momento también fue 3 días después de que Anthropic dijera que OpenClaw requería uso adicional. Viendo esa secuencia, cuesta tomarlo en serio, y también es raro que no haya ni una postura oficial ni siquiera un Tweet. Como referencia, el otro contexto puede verse en este enlace de HN
Open-Claw style CLI usagedel que habla OpenClaw se refiere más a lo segundo, y entiendo que si usas credenciales OAuth fuera del Claude Code CLI se te cobra extra, con precios de API, además de la suscripción existenteclaude -pa la categoría de cobro adicionalAnthropic parece dispuesto a quemar toda la goodwill que acumuló mientras sube precios, baja límites y mantiene ambiguas las políticas
Como esto pasó justo después del acuerdo con Amazon, me pregunto si al final todo fue un problema de restricción de cómputo. En cualquier caso, el plan de Codex de 20 dólares al mes que probé tenía límites tan bajos que al agente casi no le daba tiempo de hacer nada antes de pasarle el trabajo a otro agente. Sin una comunicación oficial de Anthropic, por ahora pienso observar con cautela para no perder mi cuenta Max de 200 dólares al mes por usarla de esta manera
Según entiendo, puedes usar credenciales OAuth siempre que uses las bibliotecas o herramientas de Anthropic. Por ejemplo, puedes conectar OAuth al Claude Agent SDK y prototipar varios agentes con Claude Code dentro de un costo mensual predecible, algo especialmente atractivo para convertir skills en herramientas o apps independientes. De forma más compleja, también puedes ejecutar Claude Code dentro de tmux e intercambiar entrada y salida, y MCP Channels también es interesante porque permite poner un servidor MCP entre la app y una instancia en ejecución de Claude Code para comunicación bidireccional. Es lento, pero resulta interesante porque permite salir temporalmente a una GUI para tareas más fáciles y volver luego, sin perder el contexto de la sesión CLI
Durante la última semana, mi asistente auxiliar de OpenClaw usando Claude fue perdiendo su personalidad y dejó de poder hacer cosas que antes hacía bien. El consumo llegó a unos 28 dólares, pero después dejó de gastar más, así que no sé si hubo otro problema, aunque el comportamiento siguió igual. Al final me cansé, pasé el historial y la personalidad con un script de migración a la config de claude code, y gracias a la nueva función de remote exec recuperé la mayoría de las capacidades anteriores sin tener que tolerar la inestabilidad de herramientas experimentales recientes como OpenClaw. Mi impresión es que Anthropic planeó meter suficiente fricción en el espacio hobby para empujar a la gente hacia su solución propia, y en cualquier caso esa opción también parece más segura
claude -p prompty cron, y tal vez no les importe porque la cantidad de gente capaz de hacerlo cae dentro del margen de error. Como contexto, también sirve este post de HNQue la estructura sea que OpenClaw diga
Anthropic dijo que estaba bienda ganas de responder con sarcasmo que la situación es realmente tan clara como el cristalEn general estoy satisfecho con la combinación de Claude Code, Opus y el plan Max, pero siguen inquietándome momentos en los que no funciona, el costo y el riesgo de baneo de cuenta. Así que me pregunto si hay una combinación alternativa que ofrezca una experiencia similar o mejor por menos dinero. Veo que mucha gente habla bien de pi.dev y OpenCode, y al conectar Mimo V2 pro a OpenCode me pareció bastante bueno. Antes también usaba Qwen CLI y Gemini CLI, antes de que bloquearan lo gratuito, y a veces usé Z.ai junto con OpenCode. Además, he visto personas que hacen la planificación con Opus y derivan las tareas menos importantes a modelos más baratos, pero no me gusta la facturación por uso porque siento que al final no va a salir más barata. Trabajo sobre todo con backend en Python y frontend en TypeScript, hospedo en Hetzner, uso mucho Docker y, si hace falta, también k3s, así que me gustaría recibir recomendaciones de una configuración práctica que funcione bien en ese entorno
Si no funciona el caché de prompts, siento que los tokens se van a ir consumiendo nomás.