Estados Unidos está ganando la competencia de IA en el área más importante: la comercialización
(avkcode.github.io)- La métrica clave de la competencia en IA es la comercialización, y después de DeepSeek R1, OpenAI y Anthropic comercializaron más rápido agents, Codex y Claude Code
- El valor estratégico de DeepSeek dentro de China está menos en los ingresos y más en reducir la dependencia de Nvidia y mover la inferencia a stacks nacionales como Huawei Ascend
- Europa gastó alrededor de 58.8 mil millones de dólares en servicios de software de India en FY 2023~2024, y cerca de 67.1 mil millones de dólares al año siguiente, pero los modelos por sí solos no generan suficiente valor
- El costo de la electricidad barata también importa, pero es más decisivo el alcance de nube y datos de AWS·Azure·Google Cloud y de YouTube·Microsoft 365·GitHub
- La IA militarizada y modelos ciber de frontera como Mythos de Anthropic pueden empujar a los Estados y a las empresas de defensa hacia stacks cerrados y seguridad por ocultamiento
Dónde lleva ventaja Estados Unidos
- La comercialización es la métrica central de la competencia en IA, y después de que DeepSeek R1 sacudiera al mercado en enero de 2025, las empresas estadounidenses se movieron más rápido
- OpenAI impulsó con más fuerza agents y Codex, y Anthropic comercializó Claude Code
- China también tiene competidores, pero en ingresos, adopción, herramientas y alcance, Estados Unidos va adelante
- El valor estratégico de DeepSeek dentro de China está más en reducir la dependencia de Nvidia y trasladar la inferencia a stacks nacionales como Huawei Ascend que en el desempeño comercial
- Eso respalda la autonomía de la cadena de suministro, pero es un tema distinto al liderazgo rentable en IA
- Christian Klein de SAP considera que Europa no necesita más centros de datos y que los modelos de lenguaje de gran escala por sí solos no son suficientes; en la práctica, los modelos por sí solos no bastan
- Europa gastó aproximadamente 58.8 mil millones de dólares en servicios de software de India en FY 2023~2024, y alrededor de 67.1 mil millones de dólares al año siguiente
- La IA genera valor cuando se conecta con datos reales, flujos de trabajo reales y productos reales
- Estados Unidos amplía su ventaja porque está construyendo al mismo tiempo chips, electricidad, centros de datos, plataformas de nube, herramientas para desarrolladores, plataformas de consumo y software empresarial
- El número de papers o de ingenieros no demuestra por sí solo el liderazgo en IA
- La prueba decisiva es la financiación de infraestructura, el entrenamiento y servicio de modelos a gran escala, y la capacidad de aplicar IA en toda la economía
El poder de la nube y los datos es mayor que el de la electricidad
- El costo de la electricidad es importante porque los sistemas modernos de GPU y TPU convierten electricidad en cómputo, y la energía barata reduce el costo de los modelos
- En comparación de tarifas eléctricas, Estados Unidos es más barato que las principales economías de Europa occidental, y Canadá es más barato que Estados Unidos
- China y Rusia tienen costos más bajos que Estados Unidos en esta comparación
- Las tarifas eléctricas residenciales/comerciales son Alemania 0.436/0.279, Reino Unido 0.420/0.415, España 0.282/0.136, Francia 0.274/0.174, Estados Unidos 0.201/0.154, Canadá 0.125/0.106, Rusia 0.087/0.131 y China 0.078/0.117
- La infraestructura de nube y los datos son una capa más decisiva que la electricidad
- Estados Unidos puede desplegar los modelos de sus empresas al mundo a través de los hiperescaladores globales AWS, Azure y Google Cloud
- YouTube es un corpus de video, Google Drive y Microsoft 365 están dentro del trabajo de oficina cotidiano, y GitHub está integrado en el desarrollo de software
- Son sistemas de distribución y también plataformas de datos, y permiten insertar nuevos modelos dentro de productos que la gente usa todos los días
- Solo con electricidad barata es difícil ganar la competencia de IA
- Sin escala de nube, alcance de plataforma, ecosistema de desarrolladores y acceso a grandes flujos de datos útiles, se puede perder incluso con costos eléctricos bajos
- Estados Unidos reúne estos elementos al mismo tiempo, China tiene una parte importante de ellos dentro de su gran mercado interno, y Europa no
- Europa ha tenido por mucho tiempo un fuerte talento de ingeniería, pero el talento por sí solo no basta
- Los hiperescaladores estadounidenses ya dominan el mercado, así que alcanzarlos tomará mucho tiempo
- Aunque Europa invirtiera desde ahora dinero real en un campeón de nube, construir infraestructura sería apenas el primer paso; después tendría que mover bancos, fabricantes y organismos públicos a esa plataforma
- Ese proceso puede tomar casi una década, y mientras tanto AWS, Azure y Google Cloud seguirán ampliando su ventaja en escala, software y datos
- Arkady Volozh intenta convertir a Nebius en una empresa europea de infraestructura de IA, pero Europa sigue estando cerca del punto de partida
- La IA militarizada también es otro frente
- La siguiente fase podría ser una en la que la IA de ciertos países se enfrente a la IA de otros países en redes de bots, campañas cibernéticas y armas autónomas
- No es difícil ajustar sistemas para deshumanizar a competidores, justificar la violencia o apuntar contra grupos enteros de población
- Cuando los modelos se integran en medios, redes y armas, el sesgo se convierte en fuerza, y la competencia en IA también pasa a ser una competencia de seguridad
- Modelos como Mythos de Anthropic pueden empujar a los Estados y a las empresas de defensa en otra dirección
- La intuición tradicional al estilo Linux era que el código abierto gana más ojos, pero los modelos ciber de frontera pueden crear una lógica opuesta
- Puede haber un movimiento hacia la seguridad por ocultamiento mediante software cerrado, herramientas cerradas, firmware cerrado y chips cerrados
- Si un modelo no puede entrenarse con el código y la arquitectura del stack objetivo, normalmente pierde contexto y velocidad
- Eso no vuelve seguro al sistema, pero sí aumenta el valor de stacks propietarios que llegan hasta el hardware
1 comentarios
Comentarios de Hacker News
Aunque Anthropic, OpenAI y Google destacan, la duda más grande es por qué a esto le llaman una guerra
China ha sacado una gran ventaja en su propio contexto y también ha reforzado su capacidad de diseño y fabricación de GPU
Si de verdad fuera una guerra, Trump estaría frenando a su propio país al debilitar el Estado de derecho y reducir la buena voluntad hacia EE. UU. Si el mundo siente que es difícil confiarle datos a China y difícil confiar en servicios estables de EE. UU., entonces incluso si EE. UU. gana la guerra de la IA, los beneficios que reciba podrían ser limitados
De hecho, podría ser bueno para regiones como Europa, que pueden construir su propia pila tecnológica, y como la pila de IA es tan cara, se da la extraña situación de que los fuertes modelos open source de China podrían ayudarle más al mundo que los de EE. UU.
Me parece una idea absurda, pero esa es la fuerza que empuja el discurso. La expresión fue acuñada por el escritor de ciencia ficción Charles Stross en The Jennifer Morgue (2006)
Aunque fabriques un arma mejor, hay un límite en cuánta gente puede cargarla, así que no conquistas el mundo así. Pero si alguien inventa una superinteligencia, podría dominar la nueva investigación en IA, controlar la economía mundial y pelear mucho mejor, muy rápido
Lo reporté como contenido generado por IA. Este texto no debería estar en portada, y viendo el historial de publicaciones y comentarios del autor, parece que ya amerita sanción
Sobre la afirmación de que “EE. UU. está ganando la competencia de IA en el ámbito más importante, la comercialización”, puede haber muchos criterios para definir quién gana, y comercialización no es lo primero que se me viene a la mente
https://english.www.gov.cn/news/202604/15/content_WS69df29e6...
https://fortune.com/2026/05/03/chinese-court-layoffs-workers...
https://www.reuters.com/world/china/china-moves-regulate-dig...
Tampoco convence mucho la idea de que YouTube, Google Drive, Microsoft 365 y GitHub sean las plataformas que crean y ordenan los datos de la era de la IA. Lo plantea como si en China no hubiera ni plataformas ni datos
Ojalá hubiera una regla para exigir divulgación o borrar textos generados por LLM. Hasta el blog completo parece generado por IA
No entiendo cómo algo tan incoherente llega a despegar en HN. ¿Cómo ha cambiado la cultura de HN para que algo así termine tan arriba?
La fortaleza de la comunidad dependía totalmente de ser relativamente desconocida, pero eso ya no es así. En el momento en que creció lo suficiente como para usarse como plataforma de propaganda política, ya murió como espacio de intelectuales
Aclaro que no voté por este envío
El título llama bastante la atención, pero el contenido es basura generada de baja calidad
La rebelión de las masas es real
No, EE. UU. solo va adelante en la competencia de IA; la competencia no ha terminado
¿De qué sirve ir al frente durante el 90% del trayecto si al final te resbalas con tu propio sudor? Aunque gastes decenas de miles de millones de dólares para conseguir la mejor tecnología de IA cueste lo que cueste, si tu competidor puede destilar ese avance y alcanzarte en 6 a 12 meses gastando solo el 1%, el valor de eso se reduce mucho
Incluso en la comercialización que tanto enfatiza el artículo, EE. UU. ya está empezando a perder cuota. Últimamente he visto gente moverse de planes cc/codex a planes glm/opencode cuando las empresas estadounidenses empezaron a restringir el uso en sus planes. Si esa tendencia se consolida, las empresas de EE. UU. van a tener problemas. No todo el mundo necesita modelos de punta; muchos solo quieren pagar 20 dólares al mes por un modelo bastante útil
También es posible un escenario en el que la IA se vuelva como la capacidad genérica de servidores. Si los clientes pueden sobrevivir sin depender de hiperescaladores gigantes, quizá todo el mercado actual termine viéndose bastante tonto
Creo que mientras mejor se vuelva la IA, más sustituible será. Puede terminar siendo algo valioso como la electricidad. Muchas empresas ganan dinero produciendo electricidad, pero no al nivel que esperan los inversionistas actuales
Que de verdad vaya a quedar solo una es debatible, pero según Cuban, al menos así es como están pensando
Antes existía algo llamado ganancias, y existía algo llamado retorno de inversión
Si tu estrategia de salida es que Google te compre, entonces enfocarte en ingresos puede ser una estrategia válida. Pero si tú eres Google, el dinero que metiste tiene que recuperarse en algún momento. Parece que ya lo olvidamos
El nivel actual de comercialización solo significa que EE. UU. está quemando inversión más rápido que cualquier otro. Tal vez eso cambie algún día y la apuesta salga bien, pero por cada minuto adicional que esto continúe así, el rendimiento esperado tiene que crecer lo suficiente para cubrir la pérdida de ese minuto y además los intereses del tiempo anterior. No estoy muy seguro de que eso se vea como “estar ganando”. TikTok
El ganador de largo plazo será quien ofrezca el mejor rendimiento en modelos locales con la menor proporción de uso de memoria
Anthropic, OpenAI y Mistral son solo empresas que hoy están haciendo dinero, pero todavía no son rentables y a largo plazo perderán tracción y valor
Aun así, me parece más interesante ver qué pasa con la suscripción de OpenCode Go en adelante. Es más barata que las big tech, incluye más tokens y, según dicen, tampoco entrena con nuestros datos para intentar mejorar
La era de entrenar solo con datos públicos ya terminó. Todos pueden acceder a esos datos, pero solo hay unos pocos modelos en la frontera
Los dos caminos se van a separar. Los modelos de frontera se volverán tan caros de ejecutar que probablemente terminen cerrados y accesibles solo para actores estatales. En Mythos eso ya empezó
La explicación más simple de por qué EE. UU. va ganando es que está metiendo la mayor cantidad de dinero, y por un margen enorme
Los pagarés circulares entre las empresas de IA y los hiperescaladores de nube son deuda, o sea una forma de creación monetaria. Claro que también entra mucho dinero real, pero invertir dinero que no existe siempre implica un riesgo enorme
No, no es que EE. UU. vaya ganando. Solo lo parece porque en Occidente está prohibido usar modelos chinos para fines laborales
China va adelante en modelos open source de frontera, así que no entiendo muy bien cómo se supone que EE. UU. estaría ganando esta competencia. En algún momento, empresas y personas empezarán a ejecutar sus propios modelos en la nube y en local, y los modelos chinos van a estar en todas partes
Por ejemplo, alojar y ejecutar tú mismo
deepseek-r1-distill-qwen-7bestá bien. En cambio, descargar la app de DeepSeek y correrla en un dispositivo de trabajo no es aceptable para quienes impusieron estas prohibiciones“¿Ahora ya puedo usar Qwen?” no parece algo que vaya a golpear tan fuerte a EE. UU.
Visto desde lejos, esta afirmación no tiene sentido. Anthropic, OpenAI, xAI, Google, Meta y Microsoft no están obteniendo ganancias en IA, y sobreviven con fondos de sus matrices o de inversionistas, especialmente dinero de inversionistas, mientras absorben pérdidas
Los modelos chinos los están alcanzando mientras ofrecen los modelos gratis, pueden correr en hardware de consumo y, más importante aún, se entrenan más barato. Los modelos de IA son productos extremadamente volátiles que pueden volverse obsoletos en cuestión de semanas. Al final, tienen que seguir tirando recursos al desarrollo de modelos cada vez mejores sin otro objetivo que una expansión interminable
El comportamiento real de los usuarios termina siendo: “No uso Gemini porque es peor que Claude en XYZ”. Si el modelo Gemini empeora más, la gente se va con Anthropic. Entonces, ¿qué pasa cuando el modelo de Anthropic sea peor que otros? Si tu producto es objetivamente inferior, ¿de qué sirve comercializarlo bien?
Entiendo que EE. UU. domina la distribución, la integración, los contratos empresariales, el ecosistema y la infraestructura. El artículo no está completamente equivocado, pero ese dominio es frágil y exige mejoras continuas
Si tu rival siempre viene justo detrás buscando rebasarte y tú necesitas expansión infinita para mantenerte, ¿qué significa realmente eso? La expansión infinita es imposible y el dinero de VC se va a secar algún día. Cuando eso pase, todos tendrán que recortar para poder pagar el costo real de los modelos más recientes, y cubrir esos costos enormes con suscripciones u otras formas de monetización. Ya vimos cómo SORA se suspendía por quemar dinero demasiado rápido, mientras China lanzaba entre tanto modelos de video muy superiores uno tras otro
Integrar modelos en otros productos también es clave, y ahí el open source también viene alcanzando terreno; cuando se acabe el dinero de VC, probablemente termine adelantando
Según los reportes, sí son rentables en inferencia, y el dinero de VC se está usando para construir centros de datos que permitan correr todavía más inferencia. Los modelos de suscripción para programación quizá, en promedio, anden cerca del punto de equilibrio, pero el dinero está en las API
También es exagerado decir que los modelos chinos corren en hardware de consumo. Nadie está ejecutando en hardware de consumo un modelo de 1.6T tokens como DeepSeek v4
El costo de entrenamiento tampoco es muchísimo menor que el de los modelos estadounidenses. Las big tech chinas están subsidiando el entrenamiento, y son modelos un poco más baratos porque son más pequeños y menos potentes que los modelos de 5T o 10T que entrenan los laboratorios de frontera de EE. UU. Los laboratorios estadounidenses también gastan en datos de aprendizaje por refuerzo más variados, y esa diferencia aparece en varios benchmarks de rendimiento
El caso de Sora en realidad prueba la tesis del artículo. OpenAI no cerró Sora; solo retiró la versión por suscripción y esa extraña red social, pero sigue disponible vía API
Los modelos chinos de video también son modelos de API, y así como los LLM son rentables para los laboratorios de frontera de EE. UU., probablemente también lo sean para ellos. Los precios de los modelos de video están en [1]; el rango es amplio, pero Google Veo y OpenAI Sora están en niveles de precio similares a los modelos chinos
[1] https://openrouter.ai/models?output_modalities=video
Lo interesante que ha hecho Anthropic es montar su stack sobre varios proveedores de nube. Primero lo puso en AWS a un nivel que rara vez se ve con grandes proveedores de IA, así que me pregunto si después lo pondrá también en GCP y Azure
Si una empresa puede tener su propio stack de Claude en su nube, como una pila ELK, entonces si eso también se vuelve posible en Azure y GCP, OpenAI de verdad va a tener que ponerse al día
Personalmente, me gustaría usar más IA que pueda correr sobre infraestructura que yo pago, porque si hay una caída queda aislada y además podría sustituirse por otra región o centro de datos
También me sigue sorprendiendo que Microsoft o Amazon no ofrezcan de forma más visible sus propios modelos como productos de nube. Uno pensaría que Microsoft ya habría puesto Phi, aunque no lo promueven mucho. Sobre todo en algo como Copilot for Devs, donde podrían usar cómputo más barato con modelos como Phi. Microsoft necesita hasta cambiar el nombre para dejar claro qué significa Copilot
Asignar cómputo es un problema de hardware, pero para sacar un buen modelo hace falta más que cómputo: hacen falta buenos ingenieros de IA. SpaceX, Amazon y otras pueden ser excelentes en hardware, pero no necesariamente igual de buenas en ingeniería de IA
https://azure.microsoft.com/en-us/blog/introducing-anthropic...
https://docs.cloud.google.com/gemini-enterprise-agent-platfo...
Claude también está disponible desde hace tiempo en AWS Bedrock
El nuevo anuncio de “Claude Platform” se refiere a una versión operada por Anthropic sobre AWS, no a operarlo directamente desde Bedrock. La diferencia puede verse aquí: https://platform.claude.com/docs/en/build-with-claude/claude...
Y la petición de poder correrlo en infraestructura propia de pago también la ha cumplido Claude desde hace bastante tiempo
Una de las razones por las que OpenAI rompió con Microsoft fue precisamente para poder ofrecerse en AWS. Vieron una demanda considerable ahí, y estar solo en Azure los estaba limitando