5 puntos por GN⁺ 2025-07-18 | 2 comentarios | Compartir por WhatsApp
  • Desde principios de esta semana, Anthropic endureció sin previo aviso los límites de uso para usuarios de Claude Code
  • Las quejas se dispararon, especialmente entre los usuarios intensivos del plan Max de $200 al mes; al llegar al límite solo aparece el mensaje “Claude usage limit reached”, sin explicación concreta
  • Al reducirse el límite sin notificación previa ni anuncio del cambio, algunos usuarios pensaron que su plan había sido degradado o que había errores en el seguimiento del uso
  • Anthropic solo mencionó oficialmente, sin dar detalles, que “algunos usuarios están experimentando respuestas lentas”, sin indicar una fecha de solución ni la causa exacta
  • También hubo sobrecarga de API y errores de red, lo que aumentó las quejas; los usuarios exigen más claridad sobre los límites y una mejor comunicación ante la pérdida de confianza

Endurecimiento repentino de los límites y confusión

  • Desde el lunes pasado, los límites de uso de Claude Code se endurecieron de repente, provocando que muchos usuarios quedaran restringidos de forma inesperada
  • Solo se muestra el mensaje “Claude usage limit reached” y que la restricción se levantará después de un tiempo determinado (unas horas), pero no se explica en detalle qué cambió en los límites
  • La desconfianza aumentó, sobre todo entre suscriptores de alto costo como el plan Max de $200, con sospechas de errores en el seguimiento del uso y de una posible degradación del plan
  • En páginas de issues de GitHub, se multiplicaron las quejas sobre la falta de transparencia en el cálculo del uso, con comentarios como: “hice unas cuantas solicitudes en 30 minutos y aun así superé el límite de 900 mensajes”
  • Un usuario afirmó que “con este límite es imposible avanzar el proyecto” y lamentó que “ni Gemini ni Kimi son sustitutos viables”

Postura oficial y problemas de red

  • Anthropic declaró únicamente que “algunos usuarios están experimentando respuestas lentas”, evitando dar más explicaciones
  • Durante el mismo periodo también ocurrieron errores de sobrecarga de API y fallas de red de forma simultánea, pero la página oficial de estado seguía mostrando un 100% de disponibilidad, generando inconsistencias en la información
  • La confusión aumentó por una estructura informal y variable en la que los límites y la capacidad disponible parecen ajustarse según la demanda

La estructura compleja de planes y políticas de uso que provocó la confusión

  • Los planes de Anthropic solo ofrecen límites por tramos y mensajes orientativos, sin garantizar una cantidad de uso clara; en Free/Pro/Max la indicación sigue siendo que el uso varía según la demanda, lo que provoca confusión
    • Plan Max: oficialmente ofrece 20 veces más uso que Pro, y Pro ofrece 5 veces más que Free, pero los valores absolutos del límite no se hacen públicos
    • Incluso el límite gratuito se describe como algo que “varía según la demanda”, por lo que no existe una garantía absoluta de uso
  • Los usuarios ya percibían el plan Max como un modelo inestable y difícil de sostener a largo plazo, dado que antes de este endurecimiento era posible usar el servicio a un nivel muy alto (por ejemplo, más de mil dólares al día en llamadas a la API)
  • Por eso, el endurecimiento en sí no sorprendió tanto; lo que más se critica es la falta de transparencia
    • Una opinión representativa fue: “Comuniquen con transparencia. La falta de comunicación hace que se pierda la confianza

El fondo del problema: comunicación y confianza

  • Algunos usuarios dicen entender que los límites del plan Max quizá no sean sostenibles a largo plazo, pero insisten en que “al menos comuniquen con transparencia”
  • Los cambios sin aviso y la información poco clara terminan deteriorando la confianza de los usuarios
  • Explicar claramente los límites con anticipación, junto con una comunicación previa adecuada y una respuesta rápida a los problemas, es clave para mantener el servicio y conservar la confianza del cliente

2 comentarios

 
princox 2025-07-22

Parece que, al ser un producto que está en la primera línea del agentic coding, le está llegando bastante tráfico..

 
GN⁺ 2025-07-18
Opiniones de Hacker News
  • Un usuario, que pidió permanecer en el anonimato, comentó que ya no pudo seguir avanzando en su proyecto después de que aparecieron las restricciones de uso. Se siente como haber llegado al límite del vibe, y que ahora es momento de pensar por cuenta propia

    • Es cierto, pero la premisa fundamental que venden estas empresas es que se puede subcontratar una parte importante del “pensamiento”, y gran parte de la inversión en IA también depende de esa premisa. Se siente un poco extraño que se haya metido tanto dinero y que el mercado siga igual
    • No parece que vaya a quedarse en solo pensar un poco más. Para seguir con el proyecto, probablemente hará falta una reflexión mucho más profunda, quizá hasta un nivel extremo de concentración mental
    • Da una sensación de ironía pensar quién podría haber anticipado que depender fuertemente de un servicio de terceros con disponibilidad a largo plazo incierta podía ser problemático. Se siente como volver a la época de los compiladores de pago o los mainframes remotos, y la gente siempre repite estos errores
    • Estoy 99% seguro de que estos usuarios no son vibe coders incapaces de programar por sí mismos. Esa gente usaría herramientas como lovable, no tocaría herramientas de terminal
    • Entré justo para comentar sobre esa misma cita. Sorprende que ya hayamos llegado a esta situación, aunque en realidad tampoco debería sorprender tanto
  • Claude 4.0 no puede considerarse más inteligente que otros modelos importantes en términos de inteligencia bruta. Pero sí está extremadamente bien pulido para usar las herramientas correctas durante la programación. Si otros modelos lo alcanzan pronto, va a ser difícil mantener restricciones tan estrictas de esta forma. Desde la perspectiva de Google, tienen una posición ventajosa en flujo de caja absoluto porque despliegan su propio silicio y además lo optimizan. Curiosamente, en estos comentarios casi no se ve gente que entienda las leyes de escalado del cómputo. La gente tiene metida en la cabeza la idea de que, como en el modelo de Uber, el sistema en algún momento tiene que subir precios, pero la IA no es trabajo humano. Con el tiempo, el costo de cómputo va a bajar. Apostar a corto plazo incluso absorbiendo pérdidas es, de hecho, la estrategia con mayor probabilidad de éxito, y no me parece una tontería. Mucha gente está esperando ansiosamente que esta burbuja reviente para poder hacerse los listos diciendo “yo lo predije”, pero a largo plazo esta dirección sí es la correcta

    • Incluso si la ley de Moore sigue vigente, eso solo significaría que el costo de cómputo bajaría a la mitad cada 18 meses, asumiendo que la eficiencia del uso de recursos informáticos no cambia y que la eficiencia eléctrica por cálculo también se mantiene igual. En los comentarios había un caso donde con un plan de $200 al mes el consumo subió hasta $4000; en términos de eficiencia de costos, eso tomaría 8 años. No está claro si están dispuestos a aguantar pérdidas durante 8 años
    • En realidad, los modelos actuales no son tan “inteligentes” como se dice. Están lejos de AGI. Lo más importante es el manejo de contexto, la separación de tareas, los reintentos, evitar bucles infinitos, exponer las herramientas adecuadas, etc.
    • Yo no uso el plan de $100 al mes, pago por tarifa de API y uso Claude Code con mucho cuidado. El primer día cayó en un bucle y repitió las mismas dos soluciones equivocadas hasta quemar $30 antes de detenerse. Desde entonces gasto unos $3 a $5 al día y aun así logro bastante de forma eficiente. Anthropic debería encontrar formas de incentivar a los desarrolladores a usar Claude Code con más criterio. Si no se controla, realmente se dispara y se desboca
    • El problema del modelo es que produce una enorme cantidad de contenido inútil. Cuando la industria es pequeña, este nivel de contaminación no molesta tanto, pero si escala a nivel mundial, limpiar todo eso no va a ser sencillo
    • Claude está bien, pero si lo que se necesita es “inteligencia”, la conversación cambia. Personalmente siento que los modelos medium 3 o devstral medium de Mistral están subestimados. Ninguno de los dos es realmente “inteligente”, pero cuando se necesita código útil para tareas simples, tienen una relación precio-rendimiento muy buena
  • Probé Claude Code con el plan base de $20/mes en un proyecto personal. No usé todo mi horario de trabajo, pero aun así la cantidad de llamadas fue suficiente. Pensé que iba a llegar rápido al límite de $20, pero al final no pasó. Sinceramente, sí tuve que corregir yo mismo o programar bastante a mano las partes que la IA no pudo resolver, pero el consumo de tokens me pareció realmente generoso. Si lo comparo con precios de API, se sentía como usar entre $10 y $20 de tokens por día. Parece que durante un tiempo pusieron límites muy generosos para captar usuarios y ahora están apretando porque ya no les alcanza la capacidad. Tal como dice el artículo, no me imagino cuánto habría que usarlo para programar al nivel de superar el límite del plan de $200/mes

    • En Claude Code hay muchísimas formas de usar los tokens con más eficiencia. Me atrevería a predecir que pronto saldrá un modelo específico para Claude Code. Por lo que he experimentado, gran parte del desperdicio de tokens viene de repeticiones sin sentido, por ejemplo volver a leer un script completo de Python para revisar el estado de los comentarios, o releer un script de R solo para verificar el cierre de corchetes. Con solo corregir este tipo de patrones ineficientes ya se podría ahorrar bastantes recursos
    • Hoy en día este tipo de límites cambia muy rápido, incluso por semana o por días, y también varía según la hora, la ubicación o la fecha de creación de la cuenta
    • Yo llegué al límite en CC en apenas una hora con una sola solicitud. Ni siquiera era opus. Si lo usas un poco, en algún momento casi siempre aparece un mensaje de advertencia anticipada, y da la sensación de que no quieren dejar el límite bien claro sino más bien hacer upsell al plan superior
    • El proceso de Thinking suele ser mucho más ineficiente que el chat normal. Si se usa mucho, se pueden gastar cientos de dólares muy rápido
    • Si no logras llegar al límite, tal vez sea una señal de que necesitas escribir prompts más creativos. Yo a veces lanzo un prompt y hago que trabaje de forma autónoma durante casi una hora, y así sí llega al límite. También se pueden crear subagentes y operarlos en paralelo, o dejarlo trabajando por largo tiempo de manera totalmente automatizada. Conviene pensar con una visión más amplia que solo “hazme esto”
  • Si Apple comprara una MacBook M4 y sin ninguna advertencia le bajara el rendimiento al nivel de una M1, los medios de tecnología y las organizaciones de consumidores harían un escándalo. Pero las empresas de IA cobran $100 por derecho de uso y, aun si reducen el rendimiento sin decir nada, todo sigue en silencio. Me pregunto cómo es posible

    • Desde el punto de vista de la empresa, la capacidad es limitada y quieren ofrecer un producto razonable a todos los usuarios. Parece que les resultó muy difícil fijar y hacer cumplir límites adecuados. Da la impresión de que todavía tienen problemas para prever la capacidad real y el número de participantes. Aún casi no hay competencia y tampoco existe un estándar claro de precios. Espero que esto mejore en el futuro
  • Creo que este no es el momento de enojarse, porque probablemente ahora mismo están operando con pérdidas. Cursor también tiene una política de precios poco transparente. Estoy pagando el plan Max, pero si veo el reporte de API ya llevo casi $1,000 de uso. Ni siquiera sé cuánto cupo me queda, y la información de precios que da la API tampoco me resulta convincente

    • Un colega mío asegura que este mes quemó $1,000 por semana. Desde el punto de vista de la empresa, es impresionante pensar que solo paga una suscripción de $200 al mes
    • Nosotros acabamos de cerrar ayer la alfa cerrada y estamos pensando cuál es la mejor política de precios. Si pueden darnos feedback, realmente lo agradeceríamos: https://www.charlielabs.ai/pricing
    • Me da curiosidad saber qué herramienta usan para revisar los precios. Quisiera preguntar si es cursor-stats
    • No estoy de acuerdo con eso de que hay que ser indulgentes porque están operando con pérdidas. Ya estoy realmente cansado de productos que intentan lanzarse sin un modelo de ingresos claro
  • Me gustaría ver en video flujos de trabajo reales donde la gente llegue a esos límites de forma habitual. Yo uso principalmente sonnet para programar y, con el plan de $20/mes, ni siquiera he logrado agotar el límite base. Lo uso para redactar especificaciones, documentar, hacer tareas repetitivas basadas en ejemplos conocidos, o recrear servicios concretos una y otra vez. A menos que se trate de reescribir toda una base de código, siento que para ajustes pequeños suele ser más rápido arreglarlo yo mismo que explicarle el problema en inglés a la IA y pasar por todo ese ciclo grande

    • Yo llego al límite con Opus y flujos de trabajo largos. En concreto, lo separo en dos grandes flujos de trabajo, planificación e implementación, y solo la investigación de ideas y la generación del documento de plan ya cuestan entre $10 y $30 de API. Mientras reviso, corrijo yo mismo pequeños errores o cosas excesivas, y luego sigo con la implementación en la siguiente etapa. La etapa de implementación, de hecho, suele ser más barata. A partir de ese documento de plan hago que genere automáticamente hasta el GitHub PR. Para alcanzar el rate limit del plan Max de $100 basta con repetir este ciclo 3 o 4 veces en 5 horas. También se le pueden lanzar instrucciones complejas a Opus directamente, así que el nivel de confianza es bastante alto. Si usas Code solo como una interacción simple, casi nunca llegas al límite. Parece que quienes más lo rompen son los vibe coders
    • Cuando llega el punto en que la IA no puede converger hacia la dirección correcta, al final termina siendo una persona quien remata el trabajo
    • Me pregunto si están usando Claude Code junto con sonnet. Si solo se usa vía web, se siente que el límite es muchísimo más holgado
    • Esta semana, incluso con el plan Max, ni siquiera pude completar con éxito tareas simples. No es solo que los usuarios Max estén sobrecargando el sistema. Se siente como si aplicaran rate limits aleatorios en cualquier momento. A veces te bloquea desde el primer prompt
    • En general, hacerlo yo mismo es más rápido, pero como trabajo saltando entre muchas tareas impulsadas por interrupciones, me basta con lanzar el prompt rápido y esperar mientras corre en segundo plano. Aunque el agente tarde tres veces más, mi consumo de tiempo real se reduce a solo unos segundos escribiendo el prompt
  • Hace unos días hice un refactor grande en dos proyectos mientras avanzaba en paralelo con trabajo de diseño en otros dos. Revisé mi consumo de Gemini API y ya había gastado $200 en un solo día. Los usuarios pueden llevarlo a una intensidad mucho mayor que esa. No creo que una política de uso ilimitado por $200/mes deje mucho margen de ganancia a la empresa. Probablemente en el futuro aparezcan sistemas que asignen el trabajo de forma inteligente teniendo en cuenta el costo. Parece que openrouter también se está moviendo en esa dirección, aunque para enrutar correctamente va a hacer falta muchísima información de contexto

  • Hubo un comentario que decía que, tras aparecer las restricciones de uso, “de verdad ya no se puede avanzar con el proyecto”. Decía que había probado Gemini, Kimi y otros, pero que no encontró ninguna herramienta con un conjunto de funciones tan amplio como Claude Code. Lo calificaba como PMF

  • Esta semana empecé el plan de $200/mes, y originalmente ya gastaba más de $300 al mes en tokens de API. Incluso pensé: “¿cómo le cierran las cuentas a Anthropic con esto?”. Pero como seguían apareciendo errores de sobrecarga de API, terminé cancelando el plan y volví a los tokens de API. No sé con qué intención manejan esta política, pero yo sí estaría dispuesto a pagar para usarlo. Ojalá no se queden solo con el cartel de $200/mes y de verdad garanticen acceso como corresponde

    • Me pregunto si tuviste esta experiencia con Opus. También me gustaría saber qué tipo de trabajo estabas haciendo. Yo solo he gastado una barbaridad de tokens al trabajar con un archivo de código grande de 2.5MB. Fuera de eso, ni siquiera logro agotar el plan de 100EUR. Uso casi siempre Opus
    • Desde el inicio me queda la duda de si el precio de la API no estará fijado muy por encima del costo real. Yo simplemente cargué $5 para probar por diversión y vi que ejecutó cómputo por unos 30 minutos, lo que en la práctica equivalía como a 3 horas de experiencia. A ojo, eso da unos $10 por hora, o $90,000 al año. Todavía no estoy convencido de que comprar y operar GPUs realmente cueste esos 90 mil dólares al año. Aún no me convence la idea de que el costo de infraestructura GPU pueda escapar tanto del nivel de inversión en hardware
  • No queda claro si bajaron intencionalmente la calidad del servicio o si la demanda creció tan rápido que los servidores no dan abasto y reducir límites fue una medida temporal. Si la demanda sigue creciendo, estas restricciones podrían volverse aún más severas de forma permanente. No creo que Anthropic justo ahora esté intentando optimizar COGS. Tienen la oportunidad de quedarse con todo el mercado de DevTools, tienen mucho efectivo y fuerte disposición a invertir, así que debilitar el poder del producto me parece una visión de corto plazo

    • Muchísima gente abandonó Cursor muy rápido. Cambiar de IDE es algo importante para mí, así que ni siquiera probé Cursor. Claude Code es un concepto mucho mejor y no necesita estar atado necesariamente a un IDE. Por eso, en cierto sentido, es incluso más fácil cambiarse a un competidor. Visto así, las características propias del modelo de Claude Code también implican el riesgo de que ganar cuota de mercado termine siendo irrelevante.