- Desde las 12:00 PT del 5/4 (04:00 del 6/4, hora de Corea), el plan de suscripción de Claude ya no podrá usarse con herramientas de terceros como OpenClaw
- En su lugar, habrá que cambiar a la compra de paquetes adicionales de uso con descuento o al uso de una clave de API de Claude
- El trasfondo de este cambio de política es que los patrones de uso de las herramientas de terceros no encajaban con los criterios de diseño del plan de suscripción y generaban una carga para la gestión de capacidad
- A los suscriptores actuales se les otorgará un crédito único equivalente al monto de la tarifa mensual, y si desean un reembolso completo, podrán solicitarlo mediante el enlace que se enviará por correo electrónico mañana
- Las herramientas locales que usan productos propios de Anthropic, como Claude Code y Agent SDK, podrán seguir utilizándose con la suscripción actual
2 comentarios
Opiniones en Hacker News
Parece que mucha gente no entiende bien la estructura de los servicios por suscripción
La mayoría de los servicios sobrevende capacidad, y opera de forma que una gran mayoría de usuarios de bajo uso subsidia a los usuarios intensivos
Si aumentan los power users automatizados como OpenClaw, el costo de Claude sube o no quedaba más opción que prohibirlo
Anthropic ya tiene límites duros de tokens (5 horas, límite semanal)
Esto no es solo un cambio de ToS, sino una estrategia de Anthropic para mantener sus propias herramientas de forma subsidiada
OpenClaw es solo una buena excusa, y funciones como
/looptambién pueden generar la misma cargaYo no uso OpenClaw, pero sí uso
claude -pcon frecuenciaEn ese rango de precio, la mayoría de los usuarios intenta exprimir el límite al máximo y es muy sensible a los aumentos de precio
Si Anthropic calculó mal los tokens o fue demasiado agresivo al buscar cuota de mercado, entonces fue un error costoso
Una suscripción de $200 no es igual a una suscripción normal que se mantiene por su ‘valor opcional’
Es una lástima tener que volver a un Claude Code inestable
Creo que muchos usuarios estarían dispuestos a pagar más por estabilidad que por precio
Debería encargarse del trabajo sin que el usuario tenga que intervenir a cada rato; si todavía hay que estar convenciéndola, entonces la propuesta de valor se viene abajo
Si incluso un usuario normal como yo está en ese nivel, veo casi imposible que los usuarios ligeros se pasen a la API para ahorrar
Creo que todos están interpretando mal por qué Anthropic prohibió OpenClaw
Más que un problema financiero, es una restricción de capacidad (capacity constraint)
Anthropic, en lugar de firmar agresivamente con grandes nubes como OpenAI, hizo contratos pequeños centrados en neo-clouds, y estas no están entregando a tiempo la capacidad prometida
El uso de Claude Code creció mucho más rápido de lo previsto, y también hubo inestabilidad del servicio (brown-out)
Al final, parece que Anthropic eligió a qué clientes priorizar en vez de subir precios
Algo como OpenClaw jamás se permitiría por seguridad
Por eso, parece natural que Anthropic priorice la capacidad para clientes empresariales
A partir del próximo mes voy a bajar al plan Pro y cambiarme a modelos chinos
Entre los errores frecuentes de Claude y el desajuste de valor de $200/mes, ya es difícil justificarlo
La mayor parte del tiempo lo uso para autocompletado simple de código, pero justo en los momentos importantes decepciona
Prefiero pagar menos por un modelo menos inteligente pero consistente
Con $200 puedo usar mucho más GLM o Minimax
Supongo que solo me pasa cuando sin querer lo dejé en modo haiku
Hasta hace dos semanas eso solo me había pasado una vez, pero ahora es diario
Escuché que el harness de CLIO es bueno, así que también planeo usarlo
OpenClaw no es lo mismo que OpenCode
OpenCode secuestraba e imitaba la sesión de Claude Code del usuario, pero OpenClaw usaba un harness legítimo mediante
claude -pEntiendo por qué Anthropic prohibió desarrollar productos así, pero me preocupa que Conductor también sea bloqueado pronto
Enlace a la documentación relacionada
También va en contra de la filosofía Unix
No es distinto de que el usuario ejecute
claude -ppor su cuentaEste tipo de prohibición arbitraria daña la confiabilidad de la plataforma
Si pueden bloquear algo en cualquier momento solo porque “no les gusta”, ¿cómo se supone que se construye un ecosistema?
Usa las mismas herramientas core de Claude, así que no entiendo por qué estaría prohibido
Si esto sigue así, voy a mover mi suscripción de $200 a OpenAI
Esa es la razón por la que mantengo el plan Max
Hasta hace una semana,
claude -pseguía cumpliendo las reglasMe parece razonable prohibir OpenClaw
No solo rompe la premisa del modelo por suscripción (bajo costo, alta eficiencia), sino que también implica riesgos de seguridad
De hecho, en OpenClaw se reportó una vulnerabilidad de escalación de privilegios
No hay razón para que Anthropic asuma ese riesgo
Últimamente el rendimiento de CC ha bajado, y creo que Anthropic hace bien en concentrarse en mantener la calidad de su propio producto
Lo razonable sería que la familia Claw se mudara a otro servicio o pagara un plan aparte
Parece que pronto van a salir muchas herramientas agent-agnostic
Estoy experimentando con combinar MCP y una UI personalizada para convertir Claude Code en la UX que yo quiero
Hay casos como Cline Kanban
Me da curiosidad cómo Anthropic va a manejar esta tendencia
Procesan prompts, salidas y solicitudes de permisos sin usar directamente la TUI interna
Casos así probablemente se tratarán distinto según el contexto
Claude es una herramienta de línea de comandos de UNIX y también un SDK
Tiene modo interactivo, pero también puede conectarse a otras herramientas mediante pipelines
Entonces no entiendo cuál sería la diferencia entre un harness de terceros y un shell script
También me pregunto cómo detectan OpenClaw
claude -pestán prohibidos, pero eso también se puede ocultar mediante filtración de código fuenteEs totalmente un juego del gato y el ratón
Si yo mismo construyo una plataforma local parecida y uso
claude -p, ¿eso también sería una infracción?¿O solo están prohibidos ciertos servicios?
Si al final la regla es “si escala mucho, lo bloqueamos”, entonces sí que sería un dolor de cabeza (pita)
GitHub Copilot soporta modelos de Anthropic, pero si excedes el uso mensual, cambia a cobro por solicitud
Según los planes de Copilot y la documentación oficial
por $40/mes tienes 1500 solicitudes, y después cuesta $0.04 por solicitud; Opus consume 3 veces más solicitudes
Aun así, me parece un servicio excelente por el precio
La gente está interpretando todo esto de manera demasiado filosófica, pero en realidad la razón es simple
Faltan GPUs, así que tenían que recortar por algún lado, y ese lado fue OpenClaw
Si mañana necesitan más GPU, el plan de $20 podría desaparecer igual
El desarrollador de OpenClaw, Boris, subió esta semana varios PR para mejorar la eficiencia del prompt cache
Enlace a la lista de PR
Parece que los patrones de uso de varios harness están presionando la capacidad planificada de Anthropic
Aun así, me gustaría que Anthropic explicara esta situación de forma más clara
Estaba operando agentes con herramientas de terceros y, para prepararme para este cambio de política, resumí cómo migrar de forma nativa a Claude Code.
Es una guía para pasar a Claude Code + Telegram Channels manteniendo tal cual el archivo de persona (
SOUL.md), más de 300 archivos de memoria y las reglas de seguridad.También hice un plugin open source:
Guía de migración: https://docs.clawsouls.ai/docs/guides/migration-to-claude-channels
Plugin (Apache 2.0): https://github.com/clawsouls/clawsouls-claude-code-plugin
Blog: https://blog.clawsouls.ai/posts/claude-code-plugin-launch/