1 puntos por GN⁺ 1 시간 전 | 1 comentarios | Compartir por WhatsApp
  • Anthropic anunció que ampliará los límites de uso de Claude Code y la API de Claude mediante su alianza con SpaceX y varios acuerdos de cómputo firmados recientemente
  • El límite de uso de 5 horas de Claude Code se duplica (planes Pro, Max, Team y Enterprise basado en asientos), y se elimina la reducción de límites en horas pico para las cuentas Pro y Max
  • Los API rate limits del modelo Claude Opus aumentaron de forma significativa, y la capacidad adicional mejora directamente la disponibilidad para los suscriptores de Claude Pro y Claude Max
  • Anthropic firmó un acuerdo para usar toda la capacidad de cómputo del centro de datos Colossus 1 de SpaceX, lo que le dará acceso en el plazo de un mes a más de 300 MW de nueva capacidad y a más de 220,000 GPU de NVIDIA
  • La expansión de cómputo de Anthropic avanza además de sus acuerdos con Amazon, Google y Broadcom, Microsoft y NVIDIA, y Fluidstack, considerando también la infraestructura regional, el costo de la electricidad y la inversión en las comunidades locales

Expansión de los límites de uso de Claude

  • Anthropic aumentó los límites de uso de Claude Code y la API de Claude mediante su alianza con SpaceX y varios acuerdos de cómputo firmados recientemente
  • Los tres cambios entran en vigor desde el mismo día del anuncio
  • En los planes Pro, Max, Team y Enterprise basado en asientos, el límite de uso de 5 horas de Claude Code se duplica
  • En las cuentas Pro y Max, se elimina la reducción de límites en horas pico de Claude Code
  • Los API rate limits del modelo Claude Opus también aumentaron de forma importante

Nueva alianza de cómputo con SpaceX

  • Anthropic firmó un acuerdo para usar toda la capacidad de cómputo del centro de datos Colossus 1 de SpaceX
  • Con este acuerdo, en el plazo de un mes tendrá acceso a más de 300 MW de nueva capacidad y a más de 220,000 GPU de NVIDIA
  • La capacidad adicional mejora directamente la disponibilidad para los suscriptores de Claude Pro y Claude Max
  • Este acuerdo se suma a los anuncios previos más importantes de expansión de cómputo de Anthropic
  • Para el entrenamiento y la ejecución de Claude se usan distintos tipos de hardware de IA, incluidos AWS Trainium, Google TPUs y NVIDIA GPUs
  • Anthropic sigue buscando oportunidades para poner capacidad adicional en línea
  • Como parte del acuerdo con SpaceX, también expresó interés en colaborar con SpaceX para desarrollar varios GW de capacidad de cómputo de IA en órbita

Expansión internacional e infraestructura regional

  • Los clientes empresariales de industrias altamente reguladas, como servicios financieros, salud y gobierno, necesitan cada vez más infraestructura regional para cumplir con los requisitos de compliance y residencia de datos
  • Por ello, parte de la expansión de capacidad de Anthropic avanzará a nivel internacional
  • La colaboración anunciada recientemente con Amazon incluye capacidad adicional de inferencia en Asia y Europa
  • Las regiones donde se añadirá capacidad se seleccionan cuidadosamente, y la empresa colabora con democracias que cuentan con marcos legales y regulatorios capaces de respaldar inversiones a gran escala
  • También es un criterio importante que la cadena de suministro de hardware, redes e instalaciones necesarias para el cómputo sea segura

Costo de la electricidad e inversión en la comunidad

  • Anthropic anunció recientemente su compromiso de cubrir cualquier aumento en las tarifas eléctricas al consumidor que pudiera causar un centro de datos en EE. UU.
  • Como parte de su expansión internacional, está evaluando extender ese compromiso a nuevas jurisdicciones
  • También está impulsando formas de colaborar con líderes locales para reinvertir en las comunidades donde se ubiquen las instalaciones

1 comentarios

 
GN⁺ 1 시간 전
Comentarios en Hacker News
  • Parece que la economía de la IA va a ir por este camino: la inferencia se abarata, empiezan a salir al mercado aceleradores especializados y arranca la competencia de precios
    En cambio, el entrenamiento sigue siendo caro, así que Anthropic/OpenAI terminan yéndose más hacia el negocio del entrenamiento
    Los modelos se vuelven activos que se pueden alquilar por unidad o comprar, y los usuarios los ejecutan en hardware de inferencia, o alquilan o poseen ese hardware de inferencia
    O terminan pagando un premium a una empresa que les resuelva todo eso
  • La escala de 300 megavatios de nueva capacidad y más de 220 mil GPU de NVIDIA es realmente absurda
    Me pregunto si hay algún post de blog o algo así que explique qué tipo de infraestructura se usa siquiera para la inferencia de modelos recientes como Opus
    Supongo que será secreto, pero si el modelo puede usarse directamente desde AWS Bedrock, parecería que eso al menos da alguna pista
    • Probablemente se referían a la infraestructura de cómputo, pero la de energía también es interesante
      A veces los centros de datos operan de formas absurdas porque para ellos expandirse rápido es más importante que el costo
      Hay regulación de las eléctricas y cosas como tasas de rampa para no destrozar la red, y se dice que los centros de datos están violando eso de forma grave
      Tienen una variabilidad de carga enorme, se alimentan con generación a gas natural detrás del medidor, y ejes que deberían durar 7 años solo aguantan 10 meses por las partidas y paradas repetidas
      https://www.volts.wtf/p/doing-data-centers-the-not-dumb-way
      En lo de cómputo, NVIDIA tiene una arquitectura de referencia estándar
      https://www.nvidia.com/en-us/technologies/enterprise-referen...
      No lo revisé en detalle, pero supongo que habrá red Mellanox entre GPU, mucho código personalizado a gran escala para repartir tensores entre GPU, y código para mover activaciones entre nodos de GPU
    • No funciona exactamente así
      Anthropic aloja sus modelos dentro de AWS Bedrock como un servicio administrado, y los clientes llaman al LLM como llamarían a cualquier otra API
      No se ve qué infraestructura de AWS termina procesando esas solicitudes de API
  • Que Anthropic le arriende a SpaceX el centro de datos que Elon construyó para Grok parece un giro de trama imposible de inventar
    • Desde el punto de vista de SpaceX, es bastante inteligente
      Está convirtiendo en una fuente importante de ingresos antes del IPO un activo que se construyó para Grok, un pozo sin fondo de dinero
    • Esa fusión parecía bastante obviamente una forma de dejar morir a xAI en silencio mientras se mantenía contentos a los inversionistas
      Al mismo tiempo también sirve para pasarle al público la deuda de Twitter, así que claramente sus contadores son muy competentes
    • Es un giro que tiene sentido para ambas empresas
      Anthropic consigue el cómputo que necesita desesperadamente para seguir creciendo, Elon arrienda cómputo que xAI no estaba usando bien porque la demanda de Grok es baja, y SpaceX puede registrar ingresos en sus libros de cara al IPO
      La frase “agregaremos capacidad con cuidado trabajando con democracias que tengan marcos legales y regulatorios capaces de respaldar inversiones de esta escala” traducida al lenguaje real se parece más a “vamos a priorizar las ganancias por encima de todo”
      Elon es una figura de extrema derecha que apoyó a Trump y Trump tampoco es precisamente muy democrático, pero significa que realmente necesitamos más dinero
      También parece un intento de hacer olvidar que xAI recibió financiamiento de gobiernos no democráticos de Medio Oriente, y da la impresión de que Anthropic compraría incluso cómputo chino si pudiera vender sus modelos
  • La parte de en menos de un mes es lo más alucinante de todo
    No es como si un centro de datos fuera equipo plug-and-play con especificaciones bien escritas e interfaces estándar internacionales
  • Cuando dicen: “Como parte de este acuerdo, expresó interés en trabajar con SpaceX para desarrollar varios gigavatios de capacidad de cómputo de IA en órbita”, una de dos: o Anthropic se toma este negocio espacial más en serio que el público general, o publicar esa frase era una condición del contrato para conseguir cómputo
    • Estoy 100% de acuerdo con que publicar esa frase era una condición para conseguir el cómputo
    • Anthropic necesita todo el cómputo posible
      Si Elon quiere construir un centro de datos orbital, Anthropic feliz ejecutaría sus modelos ahí
      No hay mucha razón para dudar de que Elon pueda construir un centro de datos orbital; la pregunta es si sería económicamente viable frente a uno en tierra
    • No creo que el cómputo espacial vaya a funcionar, pero claro que uno puede decir “si después me lo ofreces a buen precio, con gusto lo compro”
      Si sale, sale; si no, no
    • Solo parece quedar bien con el poderoso
      Como parte de un acuerdo para conseguir acceso a centros de datos terrestres, están adornando el cómputo orbital espacial, obviamente fantasioso, como si fuera algo más de lo que es
      Creo que algún día algo así podría existir, pero no parece ni remotamente cerca de hacerse realidad, como FSD
      Decirlo cuesta prácticamente cero, y luego siempre pueden alegar que más adelante perdieron el interés
      Si hay algún costo, es apenas un poco de reputación
    • La mayoría de los CEO de grandes tecnológicas ya han dicho cosas así alguna vez
  • El centro de datos Colossus 1 usa electricidad ilegal, contamina el aire de una zona pobre cerca de Memphis y hasta podría estar contaminando el agua
    Además agrega demanda a la red y probablemente hace más vulnerables a los residentes al aumentar el riesgo de apagones masivos en eventos climáticos extremos
    https://en.wikipedia.org/wiki/Colossus_(supercomputer)#Envir...
    Así que Anthropic también puede agregarse a la lista de empresas que hablan mucho de seguridad pero en la práctica priorizan las ganancias por encima de la seguridad
    • La palabra ilegal aquí suena fuerte
      Incluso el enlace de Wikipedia que incluyes dice que puede haber matices con los permisos, pero no vi nada que sostenga la afirmación de que la electricidad sea “ilegal”
    • No entiendo cómo un centro de datos contaminaría el agua
      No produce químicos ni hace ese tipo de cosas
    • No toda acusación publicada es cierta
      Hay que ser muy escéptico con este tipo de alegatos, y más cuando hay empresas con mucho dinero involucradas, porque con afirmaciones de daño “plausibles y persistentes” ya te pueden demandar o presionar para un acuerdo
    • Buscando un poco, parece que la mayoría de los centros de datos casi no pagan impuestos estatales sobre los ingresos generados por ese centro de datos
      Si eso es cierto, es un vacío fiscal enorme, y ya no sorprende tanto que haya tanta inversión de capital en centros de datos
      [0] https://www.datacenterknowledge.com/regulations/how-are-data...
  • Duplicar el límite de velocidad de 5 horas es puro marketing si no duplican también el límite semanal
    Solo significa que ahora puedes llegar al límite semanal en 3 días en vez de 5
    • Nunca me he acercado siquiera al límite semanal, pero sí me topo seguido con el límite por hora
    • Desde que subí al plan de $100, en los últimos 5 meses creo que no he tocado ninguno de los dos límites ni una sola vez
      En semanas de mucho uso, suelo usarlo de forma constante más de 6 horas al día
      Eso sí, siempre soy bastante estricto con mantener las sesiones por debajo de 200 mil a 250 mil tokens
    • Yo personalmente uso la suscripción base de Claude Code y lo uso para despejarme programando 1 o 2 horas por la noche entre semana o en fines de semana
      Hago entre 3 y 5 sesiones por semana
      Si hago tareas más complejas, me consumo rápido la ventana de 5 horas, lo cual frustra, pero todavía no he llegado al límite semanal
      Me imagino que hay bastante gente como yo
    • Sí, la limitación real es el límite semanal
      Si de verdad lo exprimes, incluso el límite semanal del plan Max de $200 al mes se puede agotar fácilmente en un solo día
    • Con Opus 4.6, que por alguna razón sigo usando con terquedad, en mi flujo de trabajo puedo quemar alrededor del 10% de mi uso semanal dentro de una ventana de 5 horas
      Mentalmente calculo mi uso semanal a escala diaria, o sea unos 14% por día, así que al inicio de la semana intento usar menos y al final darme un poco más de libertad
      Y entonces en los últimos dos días termino pensando cómo gastar el uso que me quedó guardado
      La ventana de 5 horas hace esto más difícil, y en el último día de la semana acabo intentando meter 10% en cada ventana de 5 horas mientras estoy despierto, cosa que realmente odio
      Quiero trabajar en mis horas más productivas, no acomodarme a ventanas de tiempo ridículas
      No quiero estar pensando “como probablemente voy a usar más Claude a las 11 a. m., mejor le mando un mensaje tonto a Haiku a las 7:30 a. m. para arrancar la ventana de 5 horas y que vuelva a cambiar a las 12:30”
      Así que este cambio me alegra, pero sigue siendo básicamente que están aliviando un poco un problema 100% creado por ellos y haciéndose pasar por generosos con el usuario
      Entiendo la intención de bajar el uso en horas pico, pero aun así no me gusta
  • Dicen que van a duplicar el límite de velocidad de 5 horas de Claude Code en los planes Pro, Max, Team y Enterprise por asiento, eliminar las reducciones de límites en horas pico para Pro y Max, y aumentar mucho también los límites de velocidad de la API del modelo Claude Opus
    Al final parece que Elon dejó de lado xAI y se fue por vender cómputo
    • No sé si está relacionado con el mismo centro de datos, pero este anuncio salió apenas horas después de que varios modelos recientes de Grok fueran retirados tras un aviso corto
      Grok 4.1 Fast era la forma más barata de investigar en X, incluso más barata que la API de X, y desapareció el 15 de mayo
      https://docs.x.ai/developers/models
      Tal vez están liberando cómputo para venderlo
    • Todavía no se puede afirmar que Elon haya abandonado xAI
      Pero los modelos open source como Gemma y Qwen están mejorando tan rápido que hasta Anthropic parece ver un riesgo real a largo plazo para el valor de sus propios modelos y herramientas
      Básicamente, si yo fuera Anthropic o xAI, intentaría generar ingresos en todos los frentes posibles y ver qué sobrevive
      No tiene sentido apostar por dominio monopólico cuando todo es tan volátil
    • Los detalles son secretos
      Podría ser simplemente tiempo de GPU que estaba desperdiciándose, o Anthropic pudo haber hecho una oferta difícil de rechazar
      Especulando, si fue una oferta imposible de rechazar para Elon, quizá Anthropic aceptó dar algo de datos de entrenamiento o tecnología
    • Honestamente, hasta podría ser una buena idea
      Es difícil ver a xAI como un laboratorio serio
    • No creo que sea abandono
      Obtiene información interna sobre cómo funciona Claude, y también un flujo gigantesco de datos de uso de Claude
      Todo eso probablemente termine influyendo en el desarrollo futuro de Grok
  • Ojalá hubiera sabido esto hace dos días
    Llevaba varios días usando Claude Code y seguía topándome con los límites, así que intenté subir a Max, pero en el flujo de actualización me exigieron verificación de identidad a través de Persona
    Pensé “bueno, está bien” e intenté cancelar la actualización, pero me bloquearon por completo incluso el acceso a Claude Code de mi plan actual, y no lo puedo desbloquear sin completar la verificación de identidad
    No pienso hacerlo jamás, y fue una experiencia realmente mala
    Si algo bueno salió de eso, es que me hizo darme cuenta de que Deepseek es mucho más barato y en trabajo de ingeniería inversa está en un nivel parecido
  • Al final cancelé mi suscripción por los límites y cambié por completo mi flujo de trabajo a pi para que fuera agnóstico al modelo
    Es buena noticia, pero no voy a volver
    Anthropic hizo demasiadas cosas mal en muy poco tiempo y me perdió
    Opus fue reemplazado por GPT 5.5, DeepSeek, Kimi y Qwen, todos usando mi mismo harness único que me permite cambiar de modelo fácilmente
    Si cualquiera de ellos empieza a comportarse igual, me cambio de inmediato