- Anthropic anunció que ampliará los límites de uso de Claude Code y la API de Claude mediante su alianza con SpaceX y varios acuerdos de cómputo firmados recientemente
- El límite de uso de 5 horas de Claude Code se duplica (planes Pro, Max, Team y Enterprise basado en asientos), y se elimina la reducción de límites en horas pico para las cuentas Pro y Max
- Los API rate limits del modelo Claude Opus aumentaron de forma significativa, y la capacidad adicional mejora directamente la disponibilidad para los suscriptores de Claude Pro y Claude Max
- Anthropic firmó un acuerdo para usar toda la capacidad de cómputo del centro de datos Colossus 1 de SpaceX, lo que le dará acceso en el plazo de un mes a más de 300 MW de nueva capacidad y a más de 220,000 GPU de NVIDIA
- La expansión de cómputo de Anthropic avanza además de sus acuerdos con Amazon, Google y Broadcom, Microsoft y NVIDIA, y Fluidstack, considerando también la infraestructura regional, el costo de la electricidad y la inversión en las comunidades locales
Expansión de los límites de uso de Claude
- Anthropic aumentó los límites de uso de Claude Code y la API de Claude mediante su alianza con SpaceX y varios acuerdos de cómputo firmados recientemente
- Los tres cambios entran en vigor desde el mismo día del anuncio
- En los planes Pro, Max, Team y Enterprise basado en asientos, el límite de uso de 5 horas de Claude Code se duplica
- En las cuentas Pro y Max, se elimina la reducción de límites en horas pico de Claude Code
- Los API rate limits del modelo Claude Opus también aumentaron de forma importante
Nueva alianza de cómputo con SpaceX
- Anthropic firmó un acuerdo para usar toda la capacidad de cómputo del centro de datos Colossus 1 de SpaceX
- Con este acuerdo, en el plazo de un mes tendrá acceso a más de 300 MW de nueva capacidad y a más de 220,000 GPU de NVIDIA
- La capacidad adicional mejora directamente la disponibilidad para los suscriptores de Claude Pro y Claude Max
- Este acuerdo se suma a los anuncios previos más importantes de expansión de cómputo de Anthropic
- Acuerdo de hasta 5 GW con Amazon: incluye cerca de 1 GW de nueva capacidad para finales de 2026
- Acuerdo de 5 GW con Google y Broadcom: se prevé que entre en operación a partir de 2027
- Alianza estratégica con Microsoft y NVIDIA: incluye capacidad de Azure por un valor de 30 mil millones de dólares
- Inversión de $50 mil millones en infraestructura de IA en EE. UU. junto con Fluidstack
- Para el entrenamiento y la ejecución de Claude se usan distintos tipos de hardware de IA, incluidos AWS Trainium, Google TPUs y NVIDIA GPUs
- Anthropic sigue buscando oportunidades para poner capacidad adicional en línea
- Como parte del acuerdo con SpaceX, también expresó interés en colaborar con SpaceX para desarrollar varios GW de capacidad de cómputo de IA en órbita
Expansión internacional e infraestructura regional
- Los clientes empresariales de industrias altamente reguladas, como servicios financieros, salud y gobierno, necesitan cada vez más infraestructura regional para cumplir con los requisitos de compliance y residencia de datos
- Por ello, parte de la expansión de capacidad de Anthropic avanzará a nivel internacional
- La colaboración anunciada recientemente con Amazon incluye capacidad adicional de inferencia en Asia y Europa
- Las regiones donde se añadirá capacidad se seleccionan cuidadosamente, y la empresa colabora con democracias que cuentan con marcos legales y regulatorios capaces de respaldar inversiones a gran escala
- También es un criterio importante que la cadena de suministro de hardware, redes e instalaciones necesarias para el cómputo sea segura
Costo de la electricidad e inversión en la comunidad
- Anthropic anunció recientemente su compromiso de cubrir cualquier aumento en las tarifas eléctricas al consumidor que pudiera causar un centro de datos en EE. UU.
- Como parte de su expansión internacional, está evaluando extender ese compromiso a nuevas jurisdicciones
- También está impulsando formas de colaborar con líderes locales para reinvertir en las comunidades donde se ubiquen las instalaciones
1 comentarios
Comentarios en Hacker News
En cambio, el entrenamiento sigue siendo caro, así que Anthropic/OpenAI terminan yéndose más hacia el negocio del entrenamiento
Los modelos se vuelven activos que se pueden alquilar por unidad o comprar, y los usuarios los ejecutan en hardware de inferencia, o alquilan o poseen ese hardware de inferencia
O terminan pagando un premium a una empresa que les resuelva todo eso
Me pregunto si hay algún post de blog o algo así que explique qué tipo de infraestructura se usa siquiera para la inferencia de modelos recientes como Opus
Supongo que será secreto, pero si el modelo puede usarse directamente desde AWS Bedrock, parecería que eso al menos da alguna pista
A veces los centros de datos operan de formas absurdas porque para ellos expandirse rápido es más importante que el costo
Hay regulación de las eléctricas y cosas como tasas de rampa para no destrozar la red, y se dice que los centros de datos están violando eso de forma grave
Tienen una variabilidad de carga enorme, se alimentan con generación a gas natural detrás del medidor, y ejes que deberían durar 7 años solo aguantan 10 meses por las partidas y paradas repetidas
https://www.volts.wtf/p/doing-data-centers-the-not-dumb-way
En lo de cómputo, NVIDIA tiene una arquitectura de referencia estándar
https://www.nvidia.com/en-us/technologies/enterprise-referen...
No lo revisé en detalle, pero supongo que habrá red Mellanox entre GPU, mucho código personalizado a gran escala para repartir tensores entre GPU, y código para mover activaciones entre nodos de GPU
Anthropic aloja sus modelos dentro de AWS Bedrock como un servicio administrado, y los clientes llaman al LLM como llamarían a cualquier otra API
No se ve qué infraestructura de AWS termina procesando esas solicitudes de API
Está convirtiendo en una fuente importante de ingresos antes del IPO un activo que se construyó para Grok, un pozo sin fondo de dinero
Al mismo tiempo también sirve para pasarle al público la deuda de Twitter, así que claramente sus contadores son muy competentes
Anthropic consigue el cómputo que necesita desesperadamente para seguir creciendo, Elon arrienda cómputo que xAI no estaba usando bien porque la demanda de Grok es baja, y SpaceX puede registrar ingresos en sus libros de cara al IPO
La frase “agregaremos capacidad con cuidado trabajando con democracias que tengan marcos legales y regulatorios capaces de respaldar inversiones de esta escala” traducida al lenguaje real se parece más a “vamos a priorizar las ganancias por encima de todo”
Elon es una figura de extrema derecha que apoyó a Trump y Trump tampoco es precisamente muy democrático, pero significa que realmente necesitamos más dinero
También parece un intento de hacer olvidar que xAI recibió financiamiento de gobiernos no democráticos de Medio Oriente, y da la impresión de que Anthropic compraría incluso cómputo chino si pudiera vender sus modelos
No es como si un centro de datos fuera equipo plug-and-play con especificaciones bien escritas e interfaces estándar internacionales
Si Elon quiere construir un centro de datos orbital, Anthropic feliz ejecutaría sus modelos ahí
No hay mucha razón para dudar de que Elon pueda construir un centro de datos orbital; la pregunta es si sería económicamente viable frente a uno en tierra
Si sale, sale; si no, no
Como parte de un acuerdo para conseguir acceso a centros de datos terrestres, están adornando el cómputo orbital espacial, obviamente fantasioso, como si fuera algo más de lo que es
Creo que algún día algo así podría existir, pero no parece ni remotamente cerca de hacerse realidad, como FSD
Decirlo cuesta prácticamente cero, y luego siempre pueden alegar que más adelante perdieron el interés
Si hay algún costo, es apenas un poco de reputación
Además agrega demanda a la red y probablemente hace más vulnerables a los residentes al aumentar el riesgo de apagones masivos en eventos climáticos extremos
https://en.wikipedia.org/wiki/Colossus_(supercomputer)#Envir...
Así que Anthropic también puede agregarse a la lista de empresas que hablan mucho de seguridad pero en la práctica priorizan las ganancias por encima de la seguridad
Incluso el enlace de Wikipedia que incluyes dice que puede haber matices con los permisos, pero no vi nada que sostenga la afirmación de que la electricidad sea “ilegal”
No produce químicos ni hace ese tipo de cosas
Hay que ser muy escéptico con este tipo de alegatos, y más cuando hay empresas con mucho dinero involucradas, porque con afirmaciones de daño “plausibles y persistentes” ya te pueden demandar o presionar para un acuerdo
Si eso es cierto, es un vacío fiscal enorme, y ya no sorprende tanto que haya tanta inversión de capital en centros de datos
[0] https://www.datacenterknowledge.com/regulations/how-are-data...
Solo significa que ahora puedes llegar al límite semanal en 3 días en vez de 5
En semanas de mucho uso, suelo usarlo de forma constante más de 6 horas al día
Eso sí, siempre soy bastante estricto con mantener las sesiones por debajo de 200 mil a 250 mil tokens
Hago entre 3 y 5 sesiones por semana
Si hago tareas más complejas, me consumo rápido la ventana de 5 horas, lo cual frustra, pero todavía no he llegado al límite semanal
Me imagino que hay bastante gente como yo
Si de verdad lo exprimes, incluso el límite semanal del plan Max de $200 al mes se puede agotar fácilmente en un solo día
Mentalmente calculo mi uso semanal a escala diaria, o sea unos 14% por día, así que al inicio de la semana intento usar menos y al final darme un poco más de libertad
Y entonces en los últimos dos días termino pensando cómo gastar el uso que me quedó guardado
La ventana de 5 horas hace esto más difícil, y en el último día de la semana acabo intentando meter 10% en cada ventana de 5 horas mientras estoy despierto, cosa que realmente odio
Quiero trabajar en mis horas más productivas, no acomodarme a ventanas de tiempo ridículas
No quiero estar pensando “como probablemente voy a usar más Claude a las 11 a. m., mejor le mando un mensaje tonto a Haiku a las 7:30 a. m. para arrancar la ventana de 5 horas y que vuelva a cambiar a las 12:30”
Así que este cambio me alegra, pero sigue siendo básicamente que están aliviando un poco un problema 100% creado por ellos y haciéndose pasar por generosos con el usuario
Entiendo la intención de bajar el uso en horas pico, pero aun así no me gusta
Al final parece que Elon dejó de lado xAI y se fue por vender cómputo
Grok 4.1 Fast era la forma más barata de investigar en X, incluso más barata que la API de X, y desapareció el 15 de mayo
https://docs.x.ai/developers/models
Tal vez están liberando cómputo para venderlo
Pero los modelos open source como Gemma y Qwen están mejorando tan rápido que hasta Anthropic parece ver un riesgo real a largo plazo para el valor de sus propios modelos y herramientas
Básicamente, si yo fuera Anthropic o xAI, intentaría generar ingresos en todos los frentes posibles y ver qué sobrevive
No tiene sentido apostar por dominio monopólico cuando todo es tan volátil
Podría ser simplemente tiempo de GPU que estaba desperdiciándose, o Anthropic pudo haber hecho una oferta difícil de rechazar
Especulando, si fue una oferta imposible de rechazar para Elon, quizá Anthropic aceptó dar algo de datos de entrenamiento o tecnología
Es difícil ver a xAI como un laboratorio serio
Obtiene información interna sobre cómo funciona Claude, y también un flujo gigantesco de datos de uso de Claude
Todo eso probablemente termine influyendo en el desarrollo futuro de Grok
Llevaba varios días usando Claude Code y seguía topándome con los límites, así que intenté subir a Max, pero en el flujo de actualización me exigieron verificación de identidad a través de Persona
Pensé “bueno, está bien” e intenté cancelar la actualización, pero me bloquearon por completo incluso el acceso a Claude Code de mi plan actual, y no lo puedo desbloquear sin completar la verificación de identidad
No pienso hacerlo jamás, y fue una experiencia realmente mala
Si algo bueno salió de eso, es que me hizo darme cuenta de que Deepseek es mucho más barato y en trabajo de ingeniería inversa está en un nivel parecido
Es buena noticia, pero no voy a volver
Anthropic hizo demasiadas cosas mal en muy poco tiempo y me perdió
Opus fue reemplazado por GPT 5.5, DeepSeek, Kimi y Qwen, todos usando mi mismo harness único que me permite cambiar de modelo fácilmente
Si cualquiera de ellos empieza a comportarse igual, me cambio de inmediato