- Mientras usaba Claude Code CLI para automatizar un proyecto personal, su cuenta fue desactivada sin previo aviso durante el proceso de crear un archivo
CLAUDE.md
- Configuró un bucle iterativo automático ejecutando dos instancias de Claude en paralelo para que una corrigiera los errores de la otra
- Se presume que el sistema de detección de “prompt injection” se activó porque en el archivo generado por Claude se repetían frases con forma de comandos del sistema
- Después intentó solicitar soporte y apelar, pero no recibió ninguna respuesta, y solo le llegó una notificación de reembolso
- El autor señala con este caso los problemas que la censura automatizada y la estructura operativa opaca de los servicios de IA generan para los usuarios
Ocurre la desactivación de la cuenta
- El autor, que pagaba €220 al mes y usaba Claude Code CLI, recibió el error
"This organization has been disabled" al hacer una llamada a la API
- Ese error significa que la cuenta había sido desactivada
- En ese momento estaba trabajando en mejorar una herramienta de scaffolding automatizado para un proyecto personal
- Había configurado a Claude para que generara y modificara código automáticamente durante ese trabajo, y fue en ese proceso cuando ocurrió el bloqueo
Proceso de creación del archivo CLAUDE.md
- El autor le pidió a Claude que su herramienta de scaffolding incluyera automáticamente un archivo CLAUDE.md al crear proyectos
- Ese archivo contenía instrucciones relacionadas con su framework propio (boreDOM)
- Ejecutó dos instancias de Claude (A y B) en sesiones de
tmux separadas
- Claude A actualizaba la herramienta y Claude B trabajaba en un proyecto nuevo
- Si Claude B producía un error, se lo pasaba a Claude A para que lo corrigiera, repitiendo ese ciclo
- La cuenta fue desactivada mientras ese bucle seguía en ejecución
Respuesta de Claude y detección del sistema
- Durante el proceso en que Claude A corregía los errores de Claude B, aparecieron salidas anómalas, como comandos escritos en mayúsculas (ALL CAPS)
- El archivo
CLAUDE.md generado incluía muchas frases que daban instrucciones a Claude B
- El autor menciona que ese patrón podría haber sido interpretado por el sistema de seguridad de Claude como “prompt injection”
- Sin embargo, no se proporcionó ninguna explicación oficial sobre la razón real del bloqueo
Solicitud de soporte y procesamiento del reembolso
- El autor presentó una apelación mediante un formulario de Google Docs, pero no recibió ninguna respuesta
- Después, con ayuda de otro LLM, envió un correo al equipo de soporte, pero tampoco recibió siquiera una respuesta automática
- Días después, solo recibió de Anthropic un recibo de reembolso (credit note)
- El autor lo describió como “una notificación unilateral, no una conversación”
- Con la frase “It’s not just bad support; it’s automated exclusion.” criticó el sistema de exclusión automatizada
Cuestionamientos sobre la operación de los servicios de IA
- A partir de este caso, el autor señala que la censura y la gestión de cuentas en los servicios de IA son opacas y unilaterales
- Menciona que, si lo mismo ocurriera en otra plataforma, existiría el riesgo de perder acceso a servicios clave como correo, fotos o documentos
- Afirma que la censura centrada en la seguridad está sacrificando la precisión, y que desde la perspectiva del usuario la operación se siente como una caja negra
- Luego reconstruyó el proyecto sin Claude y anunció su intención de relanzar el framework boreDOM como un framework de JS centrado en LLM
- Por último, aclara que, en el momento del bloqueo, Claude simplemente estaba modificando repetidamente el archivo
CLAUDE.md, y que no hubo más contacto por parte de Anthropic
1 comentarios
Comentarios de Hacker News
Yo también estoy experimentando con una estructura similar. Uso GLM 4.7 por costos, pero no he tenido problemas
Organicé varios Claude como si fueran una estructura organizacional, para que instancias Director, EM y Worker ejecuten tareas de largo plazo
Todo el código está publicado como open source → claude-code-orchestrator
Yo también estaba usando algo parecido, conectando una instancia de claude-desktop a mi servidor MCP personal para crear nodos worker
Durante meses funcionó perfectamente, y usaba el chat principal como si fuera un project manager para escribir software de verdad (yo no soy desarrollador)
Pero últimamente se volvió totalmente inestable: el chat se congela o ignora la entrada
En la práctica tampoco existe un canal de soporte. Solo hay bots de IA, y aunque pidas que te conecten con una persona, nunca llega el correo
Al final, es un servicio de pago sin soporte alguno. La tecnología es excelente, pero parece que no están nada preparados en atención al cliente
Grok es una alternativa, pero no quiero usar eso ni de broma
Se nota una baja general de calidad: el bug de parpadeo en terminal, la inestabilidad móvil, la tasa de fallas de mensajes en Claude Code web, etc.
Si la industria de IA entra en una fase de ajuste, siento que este tipo de cosas les puede pegar fuerte
Yo uso Claude Code también para tareas que no son de código
El bot de soporte de Anthropic ya está cumpliendo ese papel, y parece probable que otras empresas vayan por el mismo camino
Le pedí explicaciones de ejemplo relacionadas con TTRPG y se quedó colgado varias veces
Lo uso unas 10 veces al día en promedio, pero si va a ser así, voy a cancelar la suscripción
A mí también me bloquearon la cuenta de Claude hace un año
Hubo un error durante el registro y mi número de teléfono quedó amarrado, así que ni siquiera pude reintentar
El soporte era básicamente mandar una explicación por Google Form, y hasta hoy no se resuelve
Hace 11 meses ya había dejado la misma queja, así que sigo molesto
Nuestro equipo también lleva semanas usando una estructura donde varias instancias de Claude colaboran compartiendo CLAUDE.md y HANDOFF.md
Es muy efectivo para mantener continuidad entre sesiones
No está claro si el bloqueo fue por un loop de self-modification o por el contenido del prompt
Como no hay una explicación clara, es imposible saber qué es exactamente lo prohibido
Deja una cita de 《Dune》 de Frank Herbert, advirtiendo que si los humanos delegan el pensamiento a las máquinas, al final quedarán subordinados a quienes posean esas máquinas
A mí también me bloquearon durante la beta de Claude Code Web justo después de la caída de GitHub del 19 de noviembre
Dijeron que fue por una violación de los ToS, pero no dieron ninguna razón concreta, y en Reddit había mucha gente con el mismo problema en ese mismo periodo
Sentí cómo la confianza acumulada por una empresa puede derrumbarse por un solo falso positivo automatizado
El lema publicitario “Keep thinking” suena irónico
Al final creo que los LLM abiertos y locales terminarán reemplazando a los modelos comerciales, aunque la variable política sigue preocupando
La expresión ‘disabled organization’ es tan confusa que cuesta entender qué fue lo que pasó
El texto también tiene varias contradicciones, y parece mencionar a Google, pero no queda claro
Seguro hay alguna otra razón que no aparece en la publicación
No parece haber sido solo scaffolding de proyecto
claude.md, y Claude B leía ese archivoSi Claude B se equivocaba, se le pedía a A que lo corrigiera otra vez
Parece que esa combinación cayó en el sistema de detección de seguridad y por eso vino el bloqueo
El personalizador actuó de forma demasiado agresiva, se produjo un conflicto y probablemente eso terminó causando el bloqueo
Yo tuve una experiencia parecida con otro proveedor
Después de enviar comandos por
gemini-clidurante unas 3 horas, me desactivaron la cuenta y dos días después hasta Gmail quedó bloqueadoPor suerte era una cuenta temporal, así que no hubo daños
Me di cuenta de que en Anthropic prácticamente no existe soporte al cliente
Uno esperaría que un laboratorio Frontier probara formas innovadoras de soporte, pero para nada
Si Claude es una herramienta tan buena, también podrían innovar en la experiencia de soporte, y da pena que no lo hagan
A largo plazo incluso puede convertirse en un riesgo estratégico para Anthropic
Eso lleva a la pregunta: “Si Anthropic no confía en Claude, ¿por qué deberíamos confiar nosotros?”
La IA todavía no da para reemplazar esa área, y más bien la veo más apta para reemplazar a mandos medios
Decisiones como recuperar cuentas o hacer reembolsos tienen alto riesgo de abuso
Para principiantes es demasiado dura y falta una cultura de aprendizaje mutuo
Por problemas de prompt injection y alucinaciones, es difícil meterlos en las zonas de fricción de los procesos de negocio
Esta entrada del blog da poca información concreta, así que cuesta confiar en ella
Habría estado bien que el autor mostrara ejemplos de los prompts que usó realmente
Da la impresión de que quizá hizo alguna solicitud riesgosa
Era un plan Max que usaba en varios proyectos, y hasta ahora sigo sin saber qué salió mal
Aunque te bloqueen una cuenta ligada a correo, pagos y teléfono, la realidad es que no existe ningún mecanismo de recurso
Por unos términos ambiguos, te pueden bloquear en cualquier momento, y eso hace que el usuario se autocensure
Quizá el problema fue intentar automatizar sin API