15 puntos por GN⁺ 8 일 전 | 9 comentarios | Compartir por WhatsApp
  • Un responsable de Anthropic informó que vuelve a estar permitido usar Claude CLI al estilo OpenClaw
  • Se admite tanto la clave API de Anthropic como la reutilización de Claude CLI, y los perfiles de token de Anthropic ya existentes siguen siendo válidos al ejecutar
  • El backend de Claude CLI de Anthropic vuelve a tratarse como un método de integración permitido, y hasta que se anuncie una nueva política también se permite usar claude -p
  • Los modelos Claude 4.6 aplican por defecto adaptive thinking cuando no hay una configuración explícita de thinking, y esto puede redefinirse con /think:<level> o con parámetros del modelo
  • El toggle /fast solo inyecta service_tier en solicitudes que van directamente a api.anthropic.com; si pasan por un proxy o gateway, el cambio de tier no se aplica
  • También se admiten prompt caching y la ventana de contexto de 1M, pero el caché es solo para API y el contexto de 1M requiere activación explícita y permiso para usar long-context; en la autenticación existente sk-ant-oat-* se omite el encabezado beta

Formas de soporte de Anthropic

  • Se admiten tanto la API como Claude CLI como vías de acceso a la familia de modelos Claude, y en OpenClaw se puede usar tanto la clave API de Anthropic como la reutilización de Claude CLI
    • Los perfiles de token de Anthropic ya configurados también siguen siendo reconocidos al ejecutar
  • Clave API de Anthropic

    • Es la vía adecuada para acceso API estándar y facturación basada en uso
    • La clave API puede generarse en Anthropic Console
    • En el ejemplo de configuración del CLI, se puede elegir Anthropic API key en openclaw onboard
    • También se admite el modo no interactivo con openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY"
    • En el ejemplo de configuración se usa la variable de entorno ANTHROPIC_API_KEY y el modelo predeterminado anthropic/claude-opus-4-6

Valor predeterminado de Thinking

  • Los modelos Claude 4.6 aplican adaptive thinking por defecto en OpenClaw cuando no se define un nivel de thinking explícito
  • Puede redefinirse por mensaje con /think:<level> o con el parámetro del modelo agents.defaults.models["anthropic/<model>"].params.thinking
  • Se proporcionan enlaces a la documentación relacionada de Adaptive thinking y Extended thinking

Fast mode

  • El toggle compartido /fast de OpenClaw también admite tráfico público directo hacia Anthropic enviado a api.anthropic.com
    • Incluye tanto autenticación con clave API como solicitudes autenticadas con OAuth
  • /fast on se mapea a service_tier: "auto"
  • /fast off se mapea a service_tier: "standard_only"
  • En el ejemplo de valor predeterminado de configuración, el modelo anthropic/claude-sonnet-4-6 usa params.fastMode: true
  • Limitaciones

    • OpenClaw solo inyecta el service tier de Anthropic en solicitudes directas a api.anthropic.com
    • Si las solicitudes anthropic/* se desvían por un proxy o gateway, /fast no modifica service_tier
    • Si existe un parámetro explícito de modelo serviceTier o service_tier, este tiene prioridad sobre el valor predeterminado de /fast
    • Anthropic registra el tier realmente aplicado en usage.service_tier dentro de la respuesta
    • En cuentas sin Priority Tier capacity, service_tier: "auto" puede seguir interpretándose como standard

Prompt caching

  • OpenClaw admite la función de prompt caching de Anthropic
  • Esta función es solo para API, y la autenticación con tokens Anthropic existente no refleja la configuración de caché
  • Configuración

    • En la configuración del modelo se usa el parámetro cacheRetention
    • none desactiva el caché
    • short establece caché de 5 minutos
    • long establece caché extendido de 1 hora
    • En el ejemplo de configuración, el modelo anthropic/claude-opus-4-6 usa params.cacheRetention: "long"
  • Valores predeterminados

    • Al usar autenticación con clave API de Anthropic, se aplica automáticamente cacheRetention: "short" a todos los modelos Anthropic
    • Si cacheRetention se define explícitamente, puede sobrescribir este valor predeterminado
  • Anulación por agente

    • Los parámetros a nivel de modelo sirven como base, y cada agente específico puede sobrescribirlos individualmente con agents.list[].params
    • En el ejemplo, research usa la configuración predeterminada, mientras alerts aplica cacheRetention: "none"
    • El orden de fusión de parámetros relacionados con caché es primero agents.defaults.models["provider/model"].params y luego agents.list[].params
    • Incluso usando el mismo modelo, un agente puede mantener caché de largo plazo y otro puede tener el caché desactivado
    • Como ejemplo para desactivar el caché, se menciona evitar costos de escritura en tráfico de tipo burst o con baja reutilización
  • Referencia para Bedrock Claude

    • Los modelos Anthropic Claude de Bedrock amazon-bedrock/*anthropic.claude* admiten el envío de cacheRetention cuando está configurado
    • Los modelos Bedrock que no son de Anthropic se fuerzan a cacheRetention: "none" al ejecutar
    • Los valores inteligentes predeterminados basados en clave API de Anthropic también aplican cacheRetention: "short" a referencias Claude-on-Bedrock cuando no hay un valor explícito

Ventana de contexto de 1M

  • La ventana de contexto de 1M de Anthropic es una función beta restringida y, en OpenClaw, puede activarse por cada modelo Opus/Sonnet compatible con params.context1m: true
  • En el ejemplo de configuración, el modelo anthropic/claude-opus-4-6 usa params.context1m: true
  • OpenClaw lo mapea al encabezado de solicitudes Anthropic anthropic-beta: context-1m-2025-08-07
  • Esta función solo se activa cuando params.context1m está definido explícitamente como true para ese modelo
  • Como condición de uso, Anthropic debe permitir long-context usage para esas credenciales
  • Actualmente Anthropic rechaza solicitudes beta context-1m-* cuando se usa la autenticación heredada con token Anthropic sk-ant-oat-*
  • Si se configura context1m: true en el modo de autenticación heredado, OpenClaw deja un registro de advertencia, omite el encabezado beta de context1m y usa la ventana de contexto estándar en su lugar
    • Se mantiene cualquier beta OAuth necesaria

Backend de Claude CLI

  • OpenClaw admite el backend claude-cli incluido de Anthropic
  • Un empleado de Anthropic comunicó que esta forma de uso vuelve a estar permitida
  • En consecuencia, hasta que Anthropic anuncie una nueva política, OpenClaw trata la reutilización de Claude CLI y el uso de claude -p como métodos de integración permitidos
  • Para hosts de gateway siempre activos y control explícito de facturación del lado del servidor, la clave API de Anthropic es la ruta operativa más clara
  • Para detalles de configuración y ejecución, consulta la ruta /gateway/cli-backends

Notas

  • La documentación pública de Claude Code de Anthropic todavía documenta el uso directo del CLI, como claude -p
  • Un empleado de Anthropic comunicó que el uso de Claude CLI al estilo OpenClaw vuelve a estar permitido y, hasta que Anthropic anuncie un nuevo cambio de política, esto se considera la guía confirmada
  • En OpenClaw, Anthropic setup-token también sigue disponible como ruta de autenticación con token compatible
  • Sin embargo, cuando está disponible, OpenClaw prioriza más la reutilización de Claude CLI y claude -p
  • Para detalles de autenticación y reglas de reutilización, consulta la ruta /concepts/oauth

Solución de problemas

  • Errores 401 / token repentinamente inválido

    • La autenticación con token de Anthropic puede expirar o ser revocada
    • Para nuevas configuraciones, se recomienda migrar a una clave API de Anthropic
  • No API key found for provider “anthropic”

    • La autenticación se aplica por agente
    • Los agentes nuevos no heredan la clave del agente principal
    • Es necesario volver a ejecutar el onboarding para ese agente o configurar la clave API en el host del gateway y luego verificar con openclaw models status
  • No credentials found for profile anthropic:default

    • Se puede comprobar qué perfil de autenticación está activo con openclaw models status
    • Es necesario volver a ejecutar el onboarding o configurar la clave API en la ruta de ese perfil
  • No available auth profile (all in cooldown/unavailable)

    • Se puede revisar auth.unusableProfiles en openclaw models status --json
    • El cooldown por rate limit de Anthropic puede ser por modelo, así que aunque el modelo actual esté en cooldown, otro modelo Anthropic de la misma familia podría seguir disponible
    • Es necesario agregar otro perfil de Anthropic o esperar a que termine el cooldown
    • También se proporcionan como rutas adicionales /gateway/troubleshooting y /help/faq

9 comentarios

 
ceruns 7 일 전

Después de hacer que se pudiera usar el modelo local gemma4 31b en codex con Codex (¡con el detalle de verificar incluso el multiturno por su cuenta!), cancelé todas mis otras suscripciones excepto ChatGPT Pro. Al combinar codex-app-linux con estos dos, todavía me sobra cuota incluso ejecutando trabajos con el máximo paralelismo que puedo manejar.

 
woodev 7 일 전

¡Cuéntenme un poco sobre las especificaciones de hardware! Lo estoy corriendo con una 4090 y sí es inteligente, pero para usarlo a largo plazo se queda corto.

 
beoks 7 일 전

Yo también quiero correr gemma4 en local, ¿qué especificaciones de hardware tienes más o menos?

 
ingwannu 7 일 전

La verdad, se ve demasiado patético...
Parece más bien que, como quisieron impedir que los usuarios Pro usaran Claude Code y la reacción de la gente fue mala, están haciendo esto solo de forma temporal..

 
jimmy2056 7 일 전

Aun así, parece mejor observar por ahora en lugar de usarlo mal sin querer y terminar con la cuenta suspendida.

 
hmmhmmhm 8 일 전

Me compliqué con el uso de la API key de CC OAuth y al final simplemente me quedé con Codex de antes...

 
xguru 8 일 전

La verdad, yo también últimamente me quedé simplemente con Codex... Claude consume tokens demasiado rápido.

 
GN⁺ 8 일 전
Opiniones en Hacker News
  • Soy Peter de OpenClaw; Boris de Claude Code dijo públicamente en Twitter que se permitía el uso estilo CLI, así que confié en esa guía e invertí en implementarlo. También cambié para que al usar el cli se desactiven por defecto funciones de tokens excesivas como heartbeat, pero en la práctica Anthropic está bloqueando parte del system prompt, así que la comunicación pública y el comportamiento actual no coinciden. La declaración relevante puede verse aquí. Parece que cuando la gente lo evitó cambiando apenas el nombre, también cambiaron el clasificador, pero no pienso entrar en ese juego de evasión, así que quedé en un estado ambiguo donde en teoría se puede, pero en la práctica no funciona

    • Incluso fuera de OpenClaw, mucha gente confió en ese Tweet y construyó flujos de trabajo bastante profundos sobre claude -p. Pero con la introducción del nuevo flag --bare, preocupa que llegue una especie de rug pull que en la práctica desplace -p para los usuarios ilimitados. La documentación también dice que --bare es el modo recomendado para scripts y llamadas al SDK, y que en el futuro será el valor por defecto de -p, así que espero haber entendido mal o que den una explicación clara. La documentación es headless docs
    • Ya que estamos discutiendo el alcance permitido, también me da curiosidad el alcance de uso de la quota de Codex de OpenAI. Entiendo que usarla en OpenClaw está permitido, pero no encontré respuesta sobre si también se permite que usuarios consuman su propia quota de Codex dentro de otros harnesses de código o apps de pago. Para jugadores pequeños es difícil subsidiar el costo de tokens, así que si esa política se abriera, las posibilidades de uso crecerían muchísimo; quizá lo dejan deliberadamente ambiguo por la naturaleza del modelo de suscripción, y eso lo vuelve todavía más frustrante
    • Yo creo que bastaría con ponerle un simple rate limit al token de OAuth. El principio también es simple: la suscripción se usa para un consumo a escala humana que una persona pueda comprender, y el API key para cualquier otra automatización. Pienso que Anthropic debería limitar el uso mecánico, pero permitir que la gente construya con su propio token OAuth flujos con claude -p o flujos mejores basados en SDK
    • También entiendo que la posición de Anthropic es complicada. Como analogía, sería como si Waymo operara una tarifa por suscripción subsidiada y la gente empezara a reservar autos sin pasajeros con temporizadores para usarlos de una forma distinta a la intención original. Mandarlo ocasionalmente por las compras parece aceptable, pero ponerlo todos los días a la misma hora a comprar un helado queda en una zona gris. El problema es que si aclaras demasiado el criterio, la gente vuelve a esquivar solo esa redacción y explota la economía del sistema; pero tampoco parece correcto eliminar por completo un plan pensado para usuarios normales
    • Parece que ahora intentan corregir el rumbo, pero siento que ya perdieron mucha confianza. Además, considerando los nuevos límites más bajos, me pregunto si todavía vale la pena seguir usándolo en OpenClaw
  • Siento que la situación actual es realmente un lodazal turbio. Anthropic debería decir con claridad qué está soportado y qué no según haya o no suscripción, y hasta que lo haga es difícil que el usuario sepa dónde está parado respecto a cómo puede usar el producto. Yo ni siquiera uso OpenClaw ni productos parecidos en este momento, pero al menos quisiera saber qué se puede y qué no, y ahora mismo eso parece casi imposible

    • Viendo cómo Anthropic cambia semana a semana lo que ofrece con la suscripción, no quiero gastar más que en una licencia de hobby. El producto puede ser excelente, pero se siente como algo que depende de a qué hora lo uses y de cómo la empresa lo evalúe en ese momento. Por eso, el hecho de que haya bastantes modelos de pesos abiertos que ponen un techo a las malas prácticas me da cierta tranquilidad
    • Yo quiero usar con mi licencia de Claude Code un custom harness que pueda ampliar o incluso enganchar uno hecho por mí, y si es posible reducir también el costo de tokens. Creo que Anthropic necesita fijar un criterio para bajar el uso de tokens o el costo operativo a partir del siguiente modelo. Si el throughput fuera parecido, no me molestaría que fuera un poco más lento, con tal de que baje el costo y pueda usarlo junto con el harness que hice
    • Lo que me preocupa es la mala comunicación y el continuo cambio de discurso. Uno de mis flujos principales son scripts hook que enrutan tareas específicas a varios modelos, y nadie sabe si más adelante eso también va a quedar prohibido. Como Anthropic no puede dar una explicación consistente, es difícil invertir en el ecosistema
    • Me sorprende un poco que la gente esté tan impactada. Como ya vimos con casos como la API de Twitter, creo que se repite el patrón donde una API está abierta mientras ayuda a resolver problemas inmediatos de la empresa, pero luego, cuando la compañía construye directamente funciones que la gente usa de verdad, empieza a bloquear los usos que se parecen a clientes competidores
    • Como contraparte de vibe coding, se me ocurre vibe product. Últimamente las cosas aparecen y desaparecen demasiado rápido, así que ya perdí bastante de la expectativa que tenía antes
  • Creo que el punto clave es que empleados de Anthropic dieron en Twitter explicaciones contradictorias e incluso correcciones, generando todavía más confusión. Hoy dicen que el uso de Claude CLI estilo OpenClaw está bien, y mañana podrían retirarlo otra vez con una actualización de política. Con Claude Code, Anthropic se mostró difícil de confiar, y creo que para cuidar la salud mental conviene más mudarse a otro proveedor

    • Me dio risa que ese supuesto error tipográfico de keep your insanity se sintiera como una expresión demasiado precisa
    • No entiendo por qué siguen haciendo estos anuncios en Twitter. Deberían publicar la política en un anuncio oficial del blog y especificar también cómo deben funcionar los harnesses alternativos. La forma actual realmente se ve poco profesional
    • A mí también me parece rara esta forma de comunicar la noticia. No entiendo por qué lo anuncia OpenClaw y no Anthropic, y hasta que Anthropic lo diga directamente cuesta creerlo del todo
    • Hasta donde veo, el anuncio más reciente de Anthropic decía que a los usuarios con suscripción se les haría cobro adicional cuando usaran OpenClaw, no que estuviera prohibido. Y la razón del cambio unos días después probablemente fue que, en vez de bloquear de inmediato como antes el uso directo del token OAuth en harnesses de terceros, decidieron pasar tanto ese uso como el de claude -p al esquema de cobros adicionales. Por eso, no siento que esta página contradiga ese anuncio
    • Comparo cambiar de proveedor con mi experiencia alternando entre Uber One y Lyft Pink. Cada vez que la atención al cliente era pésima, me cambiaba, pero al final concluí que era mejor elegir un solo mal conocido y adaptarme a sus particularidades. Ahora sigo con Claude porque el tema de OpenClaw me afecta poco y por mi incomodidad con el asunto Hegseth-Altman DoD, pero sinceramente no diría que Google, Anthropic u OpenAI sean especialmente ejemplares en comunicación de IA y atención al cliente
  • Este cambio ya había vuelto atrás hace 2 semanas con este commit, y ese momento también fue 3 días después de que Anthropic dijera que OpenClaw requería uso adicional. Viendo esa secuencia, cuesta tomarlo en serio, y también es raro que no haya ni una postura oficial ni siquiera un Tweet. Como referencia, el otro contexto puede verse en este enlace de HN

    • Creo que parte de la confusión viene de que hay dos formas de usar credenciales de Claude Code. Una es tomar las credenciales OAuth y construir un agente propio; eso no está permitido. La otra es ejecutar directamente una app agente dentro de una sesión oficial de Claude Code, y eso sí está permitido. El Open-Claw style CLI usage del que habla OpenClaw se refiere más a lo segundo, y entiendo que si usas credenciales OAuth fuera del Claude Code CLI se te cobra extra, con precios de API, además de la suscripción existente
    • A mí también me parece en líneas generales consistente con los anuncios recientes de Anthropic. Aquí en ningún lado dice que no hay cobro adicional, y la clave es que la interpretación cambió de prohibición a mover tanto el uso directo del token OAuth en harnesses de terceros como el uso de claude -p a la categoría de cobro adicional
    • Sobre eso de que no hubo ni anuncio oficial ni Tweet, medio en broma medio en serio, ya parece que release notes y anuncios son un agentic anti-pattern. Casi da para decir con ironía que si uno se preocupa por esas cosas, entonces está haciendo mal lo agentic
    • También me parece que esta reacción se ve como una amplificación típica de FUD. Se agrandan las interpretaciones negativas y se entierran las señales positivas
  • Anthropic parece dispuesto a quemar toda la goodwill que acumuló mientras sube precios, baja límites y mantiene ambiguas las políticas

    • Estos cambios se sienten como la técnica de hervir lentamente a la rana, subiendo la temperatura poco a poco
    • Visto de otra manera, para que un servicio de LLM se sostenga, al final el proveedor tiene que ganar más dinero del que cuesta alojarlo. Y yo creo que todavía estamos bastante lejos de ese punto
    • En situaciones así dan ganas de soltar el comentario cínico de que hay que pensar un poco en los accionistas
    • Siguiendo esta lógica, hasta parece que Anthropic te estuviera empujando hacia clones chinos que considera actores maliciosos
    • Por otro lado, también puede ser que la empresa simplemente esté siguiendo al pie de la letra el viejo discurso de Hacker News sobre sostenibilidad. Siempre se dijo que la IA es útil pero con sostenibilidad incierta, y ahora que suben precios y bajan tokens todos se enojan; la ironía es evidente
  • Como esto pasó justo después del acuerdo con Amazon, me pregunto si al final todo fue un problema de restricción de cómputo. En cualquier caso, el plan de Codex de 20 dólares al mes que probé tenía límites tan bajos que al agente casi no le daba tiempo de hacer nada antes de pasarle el trabajo a otro agente. Sin una comunicación oficial de Anthropic, por ahora pienso observar con cautela para no perder mi cuenta Max de 200 dólares al mes por usarla de esta manera

    • Mi experiencia fue bastante distinta. Empecé con Claude web y Opus 4.7 y luego lo enlacé con Claude Code, y en apenas 6 a 10 prompts ya me había comido dos ciclos de quota. En cambio, con pi.dev y codex trabajé durante horas y solo consumí alrededor del 50% de la suscripción Codex Pro. Así que siento que la diferencia en el patrón de consumo es bastante grande
    • Si necesitas uso masivo, también vale la pena considerar Z.ai. GLM ahora está bastante bien y, aunque a veces la API es inestable, antes usaba principalmente GLM y dejaba Claude Pro para revisión y organización; ahora ya terminé usando solo GLM. Claude Max tampoco tiene una relación costo-beneficio terrible, pero para mí es más de lo que necesito y además mi simpatía por Anthropic sigue bajando
    • Recuerdo que Anthropic dijo desde el principio que esto era un problema de restricción de cómputo y que OpenClaw provocaba muchísimo más uso del que podían tolerar
    • Siento que GPT-5.4 es realmente un devorador de tokens. Aunque habla poco, gpt-5.3 codex era muy inteligente para programar y planificar, y además consumía bastantes menos tokens
  • Según entiendo, puedes usar credenciales OAuth siempre que uses las bibliotecas o herramientas de Anthropic. Por ejemplo, puedes conectar OAuth al Claude Agent SDK y prototipar varios agentes con Claude Code dentro de un costo mensual predecible, algo especialmente atractivo para convertir skills en herramientas o apps independientes. De forma más compleja, también puedes ejecutar Claude Code dentro de tmux e intercambiar entrada y salida, y MCP Channels también es interesante porque permite poner un servidor MCP entre la app y una instancia en ejecución de Claude Code para comunicación bidireccional. Es lento, pero resulta interesante porque permite salir temporalmente a una GUI para tareas más fáciles y volver luego, sin perder el contexto de la sesión CLI

    • En realidad, Claude Code CLI ni siquiera necesita tmux. El propio CLI soporta entrada y salida streaming JSON, así que puede controlarse por stdin y stdout con pipes. Yo lo uso ahora mismo de esta forma en ask y funciona bastante bien
  • Durante la última semana, mi asistente auxiliar de OpenClaw usando Claude fue perdiendo su personalidad y dejó de poder hacer cosas que antes hacía bien. El consumo llegó a unos 28 dólares, pero después dejó de gastar más, así que no sé si hubo otro problema, aunque el comportamiento siguió igual. Al final me cansé, pasé el historial y la personalidad con un script de migración a la config de claude code, y gracias a la nueva función de remote exec recuperé la mayoría de las capacidades anteriores sin tener que tolerar la inestabilidad de herramientas experimentales recientes como OpenClaw. Mi impresión es que Anthropic planeó meter suficiente fricción en el espacio hobby para empujar a la gente hacia su solución propia, y en cualquier caso esa opción también parece más segura

    • Según entiendo, OpenClaw fue bloqueado por la carga que generaba en el sistema. Las herramientas de terceros ya eran ilegales antes y técnicamente lo siguen siendo, pero ahora parecen estar toleradas de forma ambigua junto con el cobro por uso adicional. Pero no parece que añadirle 50 mil caracteres de system prompt propietario y poco relevante vaya a mejorar la situación. Al final me pregunto si Anthropic vería con buenos ojos que alguien recree OpenClaw con claude -p prompt y cron, y tal vez no les importe porque la cantidad de gente capaz de hacerlo cae dentro del margen de error. Como contexto, también sirve este post de HN
    • Si el intermediario entre el usuario y yo fue adquirido por un competidor, me parece natural querer reducir esa dependencia. Se siente como la situación incómoda de Apple vendiendo iPhones en una tienda de Microsoft
    • Me da curiosidad la configuración concreta de cómo se ve tu implementación de OpenClaw basada en Claude Code
  • Que la estructura sea que OpenClaw diga Anthropic dijo que estaba bien da ganas de responder con sarcasmo que la situación es realmente tan clara como el cristal

  • En general estoy satisfecho con la combinación de Claude Code, Opus y el plan Max, pero siguen inquietándome momentos en los que no funciona, el costo y el riesgo de baneo de cuenta. Así que me pregunto si hay una combinación alternativa que ofrezca una experiencia similar o mejor por menos dinero. Veo que mucha gente habla bien de pi.dev y OpenCode, y al conectar Mimo V2 pro a OpenCode me pareció bastante bueno. Antes también usaba Qwen CLI y Gemini CLI, antes de que bloquearan lo gratuito, y a veces usé Z.ai junto con OpenCode. Además, he visto personas que hacen la planificación con Opus y derivan las tareas menos importantes a modelos más baratos, pero no me gusta la facturación por uso porque siento que al final no va a salir más barata. Trabajo sobre todo con backend en Python y frontend en TypeScript, hospedo en Hetzner, uso mucho Docker y, si hace falta, también k3s, así que me gustaría recibir recomendaciones de una configuración práctica que funcione bien en ese entorno

 
ajh508 7 일 전

Si no funciona el caché de prompts, siento que los tokens se van a ir consumiendo nomás.