6 puntos por GN⁺ 2026-01-12 | 2 comentarios | Compartir por WhatsApp
  • Anthropic prohíbe crear modelos de generación de código equivalentes o competitivos usando Claude Code
    • Esta es una restricción explícitamente indicada en los términos de servicio (terms of service)
  • Los usuarios no pueden usar Claude Code para entrenar modelos, crear modelos derivados ni construir servicios competidores
  • Estas cláusulas buscan la protección comercial de Claude Code y prevenir el uso indebido de la tecnología

Reacción de la industria y significado

  • La medida llama la atención como un caso de empresa que protege su propia tecnología en medio de la competencia entre modelos de IA
  • En la comunidad de desarrolladores de IA se debate el equilibrio entre la libertad de uso de las herramientas y la protección de los derechos de las empresas
  • Es posible que las políticas de restricción de uso para herramientas de generación de código con IA influyan en otras empresas en el futuro

2 comentarios

 
iolothebard 2026-01-13

Dejen ya ese Claude Code que no deja dinero…
Hay que salir a vender Claude Cowork…

 
GN⁺ 2026-01-12
Opiniones de Hacker News
  • Al principio me enojó pensando “si compré el producto, ¿no debería ser libre de crear lo que quiera?”, pero al final esta polémica depende de la definición de ‘use’ (uso)
    Está bien escribir código con Claude Code para crear un producto competidor, pero está prohibido hacer ingeniería inversa de la API para replicar funciones internas (por ejemplo, acceso al plan Max)
    Según el resumen del hilo, “mostrar la pantalla OAuth de Claude Code y capturar el token” viola los términos del servicio

    • Según los términos, también está prohibido usar Claude Code para crear productos competidores
      Sin embargo, en la mayoría de los casos casi nunca se aplica realmente
      Pero a los grandes laboratorios de modelos sí los están bloqueando sin excepción
    • Es incorrecto decir “puedes crear productos competidores con Claude Code”
      En los términos está explícitamente indicado como no permitido
    • Hicieron el chiste de una replicación circular: crear un clon de Claude Code con Codex, luego un clon de Antigravity con Claude Code y después un clon de Codex con Antigravity
      Remataron con el chiste de “estoy escondido detrás de 7 proxies”
    • La razón por la que creció la polémica es que desarrolladores terceros ocultaron que estaban eludiendo la API OAuth aun sabiendo que era exclusiva para Claude Code
      Lo que cambió recientemente no fue una nueva restricción, sino un refuerzo en la validación del formato del payload
      La captura del mensaje de error relacionado puede verse aquí
    • Pagar y usarlo con una API key basada en tokens está bien, pero secuestrar el sistema de inicio de sesión es un asunto completamente distinto
  • Siento que Anthropic mostró su verdadera cara al usar Claude Code como datos de entrenamiento
    Tiene derecho a hacerlo, pero ya no veo motivo para pensar que sea fundamentalmente mejor que la competencia

  • Según un mensaje recibido en el Discord de Zed, “puedes usar Claude Code en Zed, pero está prohibido eludir el rate limit para otras tareas de IA
    Es decir, no se puede usar el plan Max para el asistente inline de Zed
    Personalmente, siento que un asistente inline dentro del editor da mucha más inmersión que una interfaz de “Chat to Code”

    • Se señala que, a diferencia del código, en el arte (texto, imagen, video) no es posible una verificación objetiva
      Es decir, no existe una respuesta correcta tan clara como en el código
    • Aun así, creo que esto debió estar explícito en los términos
      Secuestrar el rate limit ya era ilegal de por sí
  • Sigue siendo poco claro cómo se debe usar el plan Max en Zed, OpenCode y otros
    Los desarrolladores quieren pagar 200 dólares al mes, así que no entienden por qué lo hacen tan incómodo
    Entiendo la intención, pero este fracaso de comunicación podría terminar causando la caída de Claude Code

    • Probablemente se deba a que el plan de 200 dólares es un producto con pérdidas
      Al final parece ser un producto gancho para atraer usuarios a su propio ecosistema, y si no lo usas así, básicamente te dicen que te vayas a OpenAI
    • Es muy probable que el plan de 200 dólares les haga perder dinero, y parece una estrategia para construir un ecosistema controlado alrededor del editor
      Pero cuando los modelos abiertos ganen competitividad, esta estrategia cerrada podría terminar siendo un autogol
    • Considero que el éxito de Claude Code fue un golpe de suerte
      Incluso los ingenieros de Anthropic dijeron que no esperaban que se volviera tan popular
      Además, Aider llegó primero
    • Creo que en muchos casos sobrarán tokens cada mes
      El costo por token del acceso vía API es bastante alto
  • Siento que OpenCode es mucho mejor
    Además, su flujo de trabajo no cambia tan seguido

    • Aviso: OpenCode debe usarse obligatoriamente en v1.1.10 o superior
      Enlace relacionado
    • La medida de Anthropic esta vez parece una sobreconfianza defensiva
      Puede que Opus sea el mejor modelo hoy, pero si la gente se cambia a OpenCode + combinación de varios modelos, será difícil hacerla volver
      Yo cancelé tanto Claude Pro como GPT Plus, y me cambié a una combinación de Gemini Pro + modelos locales
      Aunque el rendimiento es un poco menor, estoy satisfecho por la mayor consistencia
    • Antes me suscribía porque podía usar Claude Pro en OpenCode, pero ahora que eso fue bloqueado, planeo cancelar la suscripción
      En su lugar, pienso trabajar alternando entre varios proveedores de modelos
    • En OpenCode se pueden cambiar agentes con pestañas, lo cual es cómodo
      Así no se desperdician tokens del agente principal como en Claude Code
    • Personalmente, siento que Cursor CLI ahora es mejor que OpenCode
      Aun así, de verdad espero que OpenCode siga creciendo
  • Enlace al tuit relacionado: Xcancel

  • Lo mencionan con ironía como “esto sí que es la democratización del desarrollo de software

  • Esto recuerda al caso de Borland, que en su momento intentó prohibir crear compiladores con su propio C++ y terminó enfrentando una fuerte reacción
    Da la impresión de que la historia se repite

    • Se burlan de la autojustificación tipo “esa vez no funcionó, pero ahora será diferente”
  • Siento que el deterioro de calidad reciente de Claude Code es grave

    • Este tipo de comentarios aparecen periódicamente, pero casi nunca se han demostrado con pruebas reproducibles
      Hay respuestas preguntando si existe algún caso repetible
  • Me pregunto qué impacto tendrá esta medida en los productos futuros de Anthropic
    En una situación donde ya existen productos previos construidos sobre Claude, restricciones demasiado amplias podrían terminar provocando la pérdida de nuevos clientes

    • Pero creer que un cambio de términos así puede impedir los intentos de destilación de conocimiento o evasión por parte de grandes empresas es ingenuo
      Técnicamente, se puede eludir en cuestión de horas