- Anthropic prohíbe crear modelos de generación de código equivalentes o competitivos usando Claude Code
- Esta es una restricción explícitamente indicada en los términos de servicio (terms of service)
- Los usuarios no pueden usar Claude Code para entrenar modelos, crear modelos derivados ni construir servicios competidores
- Estas cláusulas buscan la protección comercial de Claude Code y prevenir el uso indebido de la tecnología
Reacción de la industria y significado
- La medida llama la atención como un caso de empresa que protege su propia tecnología en medio de la competencia entre modelos de IA
- En la comunidad de desarrolladores de IA se debate el equilibrio entre la libertad de uso de las herramientas y la protección de los derechos de las empresas
- Es posible que las políticas de restricción de uso para herramientas de generación de código con IA influyan en otras empresas en el futuro
2 comentarios
Dejen ya ese Claude Code que no deja dinero…
Hay que salir a vender Claude Cowork…
Opiniones de Hacker News
Al principio me enojó pensando “si compré el producto, ¿no debería ser libre de crear lo que quiera?”, pero al final esta polémica depende de la definición de ‘use’ (uso)
Está bien escribir código con Claude Code para crear un producto competidor, pero está prohibido hacer ingeniería inversa de la API para replicar funciones internas (por ejemplo, acceso al plan Max)
Según el resumen del hilo, “mostrar la pantalla OAuth de Claude Code y capturar el token” viola los términos del servicio
Sin embargo, en la mayoría de los casos casi nunca se aplica realmente
Pero a los grandes laboratorios de modelos sí los están bloqueando sin excepción
En los términos está explícitamente indicado como no permitido
Remataron con el chiste de “estoy escondido detrás de 7 proxies”
Lo que cambió recientemente no fue una nueva restricción, sino un refuerzo en la validación del formato del payload
La captura del mensaje de error relacionado puede verse aquí
Siento que Anthropic mostró su verdadera cara al usar Claude Code como datos de entrenamiento
Tiene derecho a hacerlo, pero ya no veo motivo para pensar que sea fundamentalmente mejor que la competencia
Según un mensaje recibido en el Discord de Zed, “puedes usar Claude Code en Zed, pero está prohibido eludir el rate limit para otras tareas de IA”
Es decir, no se puede usar el plan Max para el asistente inline de Zed
Personalmente, siento que un asistente inline dentro del editor da mucha más inmersión que una interfaz de “Chat to Code”
Es decir, no existe una respuesta correcta tan clara como en el código
Secuestrar el rate limit ya era ilegal de por sí
Sigue siendo poco claro cómo se debe usar el plan Max en Zed, OpenCode y otros
Los desarrolladores quieren pagar 200 dólares al mes, así que no entienden por qué lo hacen tan incómodo
Entiendo la intención, pero este fracaso de comunicación podría terminar causando la caída de Claude Code
Al final parece ser un producto gancho para atraer usuarios a su propio ecosistema, y si no lo usas así, básicamente te dicen que te vayas a OpenAI
Pero cuando los modelos abiertos ganen competitividad, esta estrategia cerrada podría terminar siendo un autogol
Incluso los ingenieros de Anthropic dijeron que no esperaban que se volviera tan popular
Además, Aider llegó primero
El costo por token del acceso vía API es bastante alto
Siento que OpenCode es mucho mejor
Además, su flujo de trabajo no cambia tan seguido
Enlace relacionado
Puede que Opus sea el mejor modelo hoy, pero si la gente se cambia a OpenCode + combinación de varios modelos, será difícil hacerla volver
Yo cancelé tanto Claude Pro como GPT Plus, y me cambié a una combinación de Gemini Pro + modelos locales
Aunque el rendimiento es un poco menor, estoy satisfecho por la mayor consistencia
En su lugar, pienso trabajar alternando entre varios proveedores de modelos
Así no se desperdician tokens del agente principal como en Claude Code
Aun así, de verdad espero que OpenCode siga creciendo
Enlace al tuit relacionado: Xcancel
Lo mencionan con ironía como “esto sí que es la democratización del desarrollo de software”
Esto recuerda al caso de Borland, que en su momento intentó prohibir crear compiladores con su propio C++ y terminó enfrentando una fuerte reacción
Da la impresión de que la historia se repite
Siento que el deterioro de calidad reciente de Claude Code es grave
Hay respuestas preguntando si existe algún caso repetible
Me pregunto qué impacto tendrá esta medida en los productos futuros de Anthropic
En una situación donde ya existen productos previos construidos sobre Claude, restricciones demasiado amplias podrían terminar provocando la pérdida de nuevos clientes
Técnicamente, se puede eludir en cuestión de horas