Claude Code rechaza solicitudes o cobra cargos extra cuando se menciona "OpenClaw" en un commit
(twitter.com/theo)- Al invocar Claude Code directamente en un repo vacío, si OpenClaw aparece en el blob JSON del commit más reciente, se observaron rechazos de solicitudes o cobros adicionales
- Debido al flujo en el que parece leer
package.jsonpara determinar si es un competidor, crece la preocupación de que el editor de código cambie su comportamiento según los metadatos del proyecto - En
claude -p "'{\"schema\": \"openclaw.inbound_meta.v1\"}'"funciona normalmente, por lo que la condición del problema podría no ser solo una cadena simple en el prompt - Si
git logentra en el system prompt del agente, podría convertirse en un vector de prompt injection, y el mismo problema no ocurrió en tareas relacionadas con OpenClaw que no eran JSON - Algunos usuarios ya cambiaron o están considerando cambiar de Claude Code a Codex o FactoryAI, y OpenClaw se describe como una herramienta open-source para agentes que corre localmente y funciona con cualquier modelo
Condiciones de reproducción y alcance posible
- También se incluye que, al preguntarle a Claude Code si OpenClaw ayuda en cierto flujo, siempre respondía que “no hace falta”
- El mismo problema no apareció en tareas relacionadas con OpenClaw que no eran JSON, y podría tratarse de una falla general de disponibilidad de la API o de un problema limitado a JSON
- Surgen críticas fuertes de que Anthropic hace grep de “OpenClaw” en el historial de commits y en blobs JSON para provocar rechazos o cargos por “extra usage”, lo que lleva al argumento de que conviene elegir modelos abiertos y herramientas que no castiguen a los usuarios
Reacciones de usuarios y enlaces relacionados
- Claude Code es limitado, pero Opus en claude.ai es bueno para conversación e investigación; también se menciona que, especialmente en reportes con más de 3k fuentes, los límites son amplios
- OpenClaw se describe como una herramienta open-source para agentes que corre localmente y funciona con cualquier modelo, y se critica que un agente de programación se rompa solo porque en los metadatos aparece el nombre de un competidor
- Se vincula un problema similar con HERMES.md y un “overactive anti-abuse system”: https://github.com/anthropics/claude-code/issues/53262
- También se compartió un clip de Twitch como escena de prueba: https://www.twitch.tv/theo/clip/AverageRockyTapirHeyGirl-4Z_aCCSPbuVg-RZz
- En el contexto de volver a usar una suscripción de Claude, también se incluye un enlace de GitHub: GitHub.com/askalf/dario
- Un usuario dice que ejecuta 12 agentes de Claude Code en producción, y que si la toolchain castiga al usuario porque un blob JSON contiene el nombre de un competidor, entonces la herramienta deja de servir a quienes construyen
1 comentarios
Comentarios de Hacker News
También se reproduce en mi cuenta
Creé un repo en
/tmp, puse{"schema": "openclaw.inbound_meta.v1"}en el mensaje del commit y luego ejecutéclaude -p "hi"; la conexión se cortó de inmediato y el uso de la sesión subió a 100%No hice nada malo, solo ejecuté un comando, y aun así me quitaron el fair usage que ya había pagado
Habría que abrir un ticket o al menos un issue en GitHub para darle visibilidad
Ya parece algo por lo que pronto habría que presentar una queja ante las autoridades comerciales correspondientes
Yo no pude reproducirlo directamente
Todo esto parece un comportamiento delictivo y fraudulento, y gente que ya debería haber aprendido la lección sigue enviándole dinero a Anthropic mientras hacen posible un abuso a gran escala
Impedir que se eluda un modelo de precios preferenciales y castrar el modelo para ciertos usos son dos cosas completamente distintas
Ya se ve hacia dónde va la cosa: vibe coding para scripts desechables a $0.20, búsqueda de documentos legales a $10k, y luego cobrando hasta 20% de los ingresos de la app en tiempo real
Esto parece todavía más grave
Estaba editando con Claude una entrada de blog que mencionaba OpenClaw, y recibí una respuesta diciendo: “La expresión OpenClaw parece un error tipográfico o una broma. Si te refieres a un producto real, no se puede encontrar con esa ortografía, así que corrígelo o agrega una nota al pie”
Le pasé un enlace directo a openclaw.ai y el chat se cerró al instante, dejándome con el límite de uso de 5 horas
Puede haber sido coincidencia, pero en la mañana apenas había usado sonnet de forma ligera, así que no parece muy probable; es muy raro
Casi no puede distinguir entre una buena obra y una mala, pero normalmente sí conoce bastante bien el valor de mercado
Esta gente no tiene moral
La disponibilidad de Claude.ai ahora es de 98.85%
Últimamente ha habido demasiadas cosas molestas con Claude / Anthropic: límites de uso muy duros, pruebas A/B equivocadas, etc.
Estado de Claude: https://status.claude.com/
Últimamente he estado bastante satisfecho con la suscripción a Codex, pero estas cosas parecen cambiar cada dos días
También parece útil la suscripción de OpenCode Go para probar GLM, Kimi, Qwen, Deepseek y otros
Aun así, Opus 4.6 es un modelo muy potente, pero cada vez cuesta más justificar una suscripción a Claude
Supongo que a veces lo usaré por OpenRouter o como parte de algo tipo Cursor, aunque tampoco estoy seguro del valor de una suscripción a Cursor
OpenCode Go: https://opencode.ai/go
Cursor: https://cursor.com
El auth gateway seguía devolviendo 500 o hacía timeout, y en status.claude.com apareció un incidente de “elevated errors”, pero el downtime registrado fue de 0 minutos
Ni siquiera lo marcaron como “partial outage”, así que la disponibilidad real debe ser peor
Uso Claude Code para el trabajo y Kimi 2.6 para proyectos personales, y Kimi ha estado muy bien
GLM-5.1 también es excelente; Qwen, Mimo y Deepseek necesitan más pruebas, pero todos están dando buenos resultados
Mi impresión es que todos están al nivel de Sonnet 4.6 o bastante cerca
Esto me preocupa mucho
Aún no me ha afectado directamente el enfoque agresivo de Anthropic, pero poco a poco estoy buscando una ruta de escape por si llega el momento de abandonar Claude Code
De verdad espero que pisen el freno y reorienten el rumbo por completo
Hay muchas presiones en conflicto, como hacer cuadrar crecimiento y capacidad, así que no debe ser fácil tomar decisiones sin molestar a alguien, pero ahora mismo van directo al peor desenlace posible
Por ejemplo, puede que ahora mismo no tengan capacidad para aceptar más clientes
Si están dañando seriamente la relación con sus clientes actuales, deberían admitir que ya no pueden vender más el plan 20x hasta tener la capacidad necesaria y limitarse a aceptar nuevos clientes de niveles más bajos
Esto también es un DoS lo bastante grande como para que pase un camión, y preocupa que se haya lanzado una vulnerabilidad tan obvia
Sería mucho más fácil de aceptar un aumento general, transparente y anunciado de antemano, que este cobro oculto basado en el contexto
La idea es usar para la orquestación modelos caros de gran contexto como GLM-5.1, y modelos más baratos para coding e iteración sobre acceptance criteria
Para trabajo de UI, a veces también se usan modelos caros con capacidad de visión como Gemini 3 Flash, combinados con Playwright para tareas iterativas
Si combinas el uso base de Go con pay-as-you-go de modelos baratos como MiniMax, puedes hacer bastante sin gastar una fortuna
[1] https://github.com/anomalyco/opencode
[2] https://opencode.ai/go
Pensando en lo que se sabe de Altman, quiero quedarme con Anthropic, pero de verdad están haciendo speedrun del manual de cómo arruinar tu reputación
También hacen muchas cosas cuestionables y están igual de metidos en aplicaciones militares
En el podcast reciente de Cal Newport se habló bien de esto: https://youtu.be/BRr3pAPsQAk?si=jaRJYJ_XQE7VpxPN
Aquí hubo bastante gente defendiendo las acciones de Anthropic diciendo que probablemente existían optimizaciones en el harness de Claude Code que no eran posibles en OpenCode
Pero las filtraciones del código dejaron claro que no era eso en absoluto, sino simplemente que intentaban evitar que otros destilaran su modelo
GLM y Qwen no están al nivel de Opus, pero son lo bastante buenos, y ni corriendo 2 o 3 sesiones me he topado con límites de uso
Se venden de forma vaga como la opción más ética y por eso “mejor”, pero en la práctica demuestran que no son mucho mejores que OAI
La expresión que me vino a la cabeza fue “enshittification speedrun”
Los planes de tarifa plana en realidad fueron el inicio de la pendiente resbaladiza hacia la enshittification
Si todo hubiera sido por consumo, no habría motivo para imponer límites de uso opacos y disimulados como estos
La gente pagaría por lo que recibe y recibiría por lo que paga
Hay dos cosas aquí
Primero, esto se siente como una práctica anticompetitiva que no debería aceptarse ni permitirse
Segundo, no entiendo cómo alguien puede defender esto
En este hilo hay varios comentarios tipo “seguro no fue intencional, no asumamos mala fe”
Pero aquí hay abogados, y un largo ida y vuelta entre OpenCode, OpenClaw y varios harness “Open”
Revisar mi commit history y bloquearme el acceso por una sola cadena es inaceptable como producto, y no creo que haya sido un accidente puro
También se ve gente diciendo que tienen tan poca capacidad de cómputo que necesitan hacer esto para seguir operando, pero entonces no deberían sobrevender
Igual que la sobreventa de boletos de avión da asco, también da asco sobrevender cualquier producto sabiendo que afectará a clientes legítimos
Si suben el precio o dejan de aceptar invitaciones, la conclusión sería inmediata
La empresa ya no merece seguir recibiendo una interpretación de buena fe una y otra vez
En general estoy tomando distancia de los LLM, y este mes también cancelé mi suscripción a Claude Code
Porque me respeto a mí mismo y creo que merezco un trato mejor y más transparente
Si de verdad tengo que usar algo, en mi experiencia Deepseek v4 tiene una relación costo-beneficio increíble en todos los sentidos y un precio transparente
Aun teniendo saldo en varios AI gateways, prefiero escribir las cosas a mano porque no quiero que el resultado final venga mezclado con bugs sorprendentes y código innecesario
Se siente bastante refrescante
Aun así, quizá me convenzas de probarlo
Es tremendamente frustrante
Tengo una VM de NixOS Qemu que uso para correr OpenClaw
Claude me ayudó con la configuración, y ejecuto modelos locales en mi máquina dentro de un sandbox basado en config
Pero ¿por qué Claude tendría que bloquear ese trabajo o cobrarme extra por eso?
¿Por qué debería importarle a Claude que mi repo del proyecto tenga instrucciones para Hermes o OpenClaw?
Considerando el nivel de acceso que Claude Code tiene a la máquina, este tipo de fingerprinting es demasiado chapucero
Si dependes de un agent no confiable, te atas a sus caprichos estúpidos
Hay que tener cuidado con quién te asocias
¿Unos centavos, no?
Esto es una enorme señal de alerta
Puedo entender cierto nivel de policing/censorship, pero esto se pasa muchísimo de lo que yo podría aceptar
Pueden existir planes de precio distintos para trabajo agentic
Pero este tipo de coincidencia “accidental” con ciertas keywords que dispara cargos extra se siente a evil Microsoft
¿No es el mismo contexto que https://news.ycombinator.com/item?id=47952722?
Por HERMES.md en el mensaje del commit, la solicitud termina enroutada a extra usage billing
1203 points | 21 hours ago | 524 comments
@bcherny, aquí hace falta muchísimo más que un simple “Fixed”: https://github.com/anthropics/claude-code/issues/53262#issuecomment-4320819355
En vez de reconocer que “este enfoque para bloquear OAuth de terceros no funciona” y revertirlo, parece que intentaron seguir empujando la misma estrategia con un fix-forward