1 puntos por GN⁺ 3 시간 전 | 1 comentarios | Compartir por WhatsApp
  • La métrica clave de la competencia en IA es la comercialización, y después de DeepSeek R1, OpenAI y Anthropic comercializaron más rápido agents, Codex y Claude Code
  • El valor estratégico de DeepSeek dentro de China está menos en los ingresos y más en reducir la dependencia de Nvidia y mover la inferencia a stacks nacionales como Huawei Ascend
  • Europa gastó alrededor de 58.8 mil millones de dólares en servicios de software de India en FY 2023~2024, y cerca de 67.1 mil millones de dólares al año siguiente, pero los modelos por sí solos no generan suficiente valor
  • El costo de la electricidad barata también importa, pero es más decisivo el alcance de nube y datos de AWS·Azure·Google Cloud y de YouTube·Microsoft 365·GitHub
  • La IA militarizada y modelos ciber de frontera como Mythos de Anthropic pueden empujar a los Estados y a las empresas de defensa hacia stacks cerrados y seguridad por ocultamiento

Dónde lleva ventaja Estados Unidos

  • La comercialización es la métrica central de la competencia en IA, y después de que DeepSeek R1 sacudiera al mercado en enero de 2025, las empresas estadounidenses se movieron más rápido
    • OpenAI impulsó con más fuerza agents y Codex, y Anthropic comercializó Claude Code
    • China también tiene competidores, pero en ingresos, adopción, herramientas y alcance, Estados Unidos va adelante
  • El valor estratégico de DeepSeek dentro de China está más en reducir la dependencia de Nvidia y trasladar la inferencia a stacks nacionales como Huawei Ascend que en el desempeño comercial
    • Eso respalda la autonomía de la cadena de suministro, pero es un tema distinto al liderazgo rentable en IA
  • Christian Klein de SAP considera que Europa no necesita más centros de datos y que los modelos de lenguaje de gran escala por sí solos no son suficientes; en la práctica, los modelos por sí solos no bastan
    • Europa gastó aproximadamente 58.8 mil millones de dólares en servicios de software de India en FY 2023~2024, y alrededor de 67.1 mil millones de dólares al año siguiente
    • La IA genera valor cuando se conecta con datos reales, flujos de trabajo reales y productos reales
    • Estados Unidos amplía su ventaja porque está construyendo al mismo tiempo chips, electricidad, centros de datos, plataformas de nube, herramientas para desarrolladores, plataformas de consumo y software empresarial
  • El número de papers o de ingenieros no demuestra por sí solo el liderazgo en IA
    • La prueba decisiva es la financiación de infraestructura, el entrenamiento y servicio de modelos a gran escala, y la capacidad de aplicar IA en toda la economía

El poder de la nube y los datos es mayor que el de la electricidad

  • El costo de la electricidad es importante porque los sistemas modernos de GPU y TPU convierten electricidad en cómputo, y la energía barata reduce el costo de los modelos
    • En comparación de tarifas eléctricas, Estados Unidos es más barato que las principales economías de Europa occidental, y Canadá es más barato que Estados Unidos
    • China y Rusia tienen costos más bajos que Estados Unidos en esta comparación
    • Las tarifas eléctricas residenciales/comerciales son Alemania 0.436/0.279, Reino Unido 0.420/0.415, España 0.282/0.136, Francia 0.274/0.174, Estados Unidos 0.201/0.154, Canadá 0.125/0.106, Rusia 0.087/0.131 y China 0.078/0.117
  • La infraestructura de nube y los datos son una capa más decisiva que la electricidad
    • Estados Unidos puede desplegar los modelos de sus empresas al mundo a través de los hiperescaladores globales AWS, Azure y Google Cloud
    • YouTube es un corpus de video, Google Drive y Microsoft 365 están dentro del trabajo de oficina cotidiano, y GitHub está integrado en el desarrollo de software
    • Son sistemas de distribución y también plataformas de datos, y permiten insertar nuevos modelos dentro de productos que la gente usa todos los días
  • Solo con electricidad barata es difícil ganar la competencia de IA
    • Sin escala de nube, alcance de plataforma, ecosistema de desarrolladores y acceso a grandes flujos de datos útiles, se puede perder incluso con costos eléctricos bajos
    • Estados Unidos reúne estos elementos al mismo tiempo, China tiene una parte importante de ellos dentro de su gran mercado interno, y Europa no
  • Europa ha tenido por mucho tiempo un fuerte talento de ingeniería, pero el talento por sí solo no basta
    • Los hiperescaladores estadounidenses ya dominan el mercado, así que alcanzarlos tomará mucho tiempo
    • Aunque Europa invirtiera desde ahora dinero real en un campeón de nube, construir infraestructura sería apenas el primer paso; después tendría que mover bancos, fabricantes y organismos públicos a esa plataforma
    • Ese proceso puede tomar casi una década, y mientras tanto AWS, Azure y Google Cloud seguirán ampliando su ventaja en escala, software y datos
    • Arkady Volozh intenta convertir a Nebius en una empresa europea de infraestructura de IA, pero Europa sigue estando cerca del punto de partida
  • La IA militarizada también es otro frente
    • La siguiente fase podría ser una en la que la IA de ciertos países se enfrente a la IA de otros países en redes de bots, campañas cibernéticas y armas autónomas
    • No es difícil ajustar sistemas para deshumanizar a competidores, justificar la violencia o apuntar contra grupos enteros de población
    • Cuando los modelos se integran en medios, redes y armas, el sesgo se convierte en fuerza, y la competencia en IA también pasa a ser una competencia de seguridad
  • Modelos como Mythos de Anthropic pueden empujar a los Estados y a las empresas de defensa en otra dirección
    • La intuición tradicional al estilo Linux era que el código abierto gana más ojos, pero los modelos ciber de frontera pueden crear una lógica opuesta
    • Puede haber un movimiento hacia la seguridad por ocultamiento mediante software cerrado, herramientas cerradas, firmware cerrado y chips cerrados
    • Si un modelo no puede entrenarse con el código y la arquitectura del stack objetivo, normalmente pierde contexto y velocidad
    • Eso no vuelve seguro al sistema, pero sí aumenta el valor de stacks propietarios que llegan hasta el hardware

1 comentarios

 
GN⁺ 3 시간 전
Comentarios de Hacker News
  • Aunque Anthropic, OpenAI y Google destacan, la duda más grande es por qué a esto le llaman una guerra
    China ha sacado una gran ventaja en su propio contexto y también ha reforzado su capacidad de diseño y fabricación de GPU
    Si de verdad fuera una guerra, Trump estaría frenando a su propio país al debilitar el Estado de derecho y reducir la buena voluntad hacia EE. UU. Si el mundo siente que es difícil confiarle datos a China y difícil confiar en servicios estables de EE. UU., entonces incluso si EE. UU. gana la guerra de la IA, los beneficios que reciba podrían ser limitados
    De hecho, podría ser bueno para regiones como Europa, que pueden construir su propia pila tecnológica, y como la pila de IA es tan cara, se da la extraña situación de que los fuertes modelos open source de China podrían ayudarle más al mundo que los de EE. UU.

    • La respuesta a “¿por qué guerra?” es que detrás está la promesa exagerada de que la organización que llegue primero a una AGI todavía cercana a lo teórico podrá hacer bootstrap hasta obtener capacidades casi divinas e instalar un Planetary Overlord para dominar el mundo
      Me parece una idea absurda, pero esa es la fuerza que empuja el discurso. La expresión fue acuñada por el escritor de ciencia ficción Charles Stross en The Jennifer Morgue (2006)
    • Es porque EE. UU. no sabe imaginarlo de otra manera. Todo es una guerra, y EE. UU. siempre tiene que ganar
    • Se vuelve una guerra porque los inversionistas quieren monopolizar el mercado. Eso es lo que hacen, y siempre van a querer hacerlo
    • ¿Le cambiaron el título? Ahora dice race y no ‘war’
    • La palabra guerra sale, al final, del temor de que al llegar a la singularidad uno pueda escapar de las limitaciones de escala humana y aplastar a los demás
      Aunque fabriques un arma mejor, hay un límite en cuánta gente puede cargarla, así que no conquistas el mundo así. Pero si alguien inventa una superinteligencia, podría dominar la nueva investigación en IA, controlar la economía mundial y pelear mucho mejor, muy rápido
  • Lo reporté como contenido generado por IA. Este texto no debería estar en portada, y viendo el historial de publicaciones y comentarios del autor, parece que ya amerita sanción
    Sobre la afirmación de que “EE. UU. está ganando la competencia de IA en el ámbito más importante, la comercialización”, puede haber muchos criterios para definir quién gana, y comercialización no es lo primero que se me viene a la mente
    https://english.www.gov.cn/news/202604/15/content_WS69df29e6...
    https://fortune.com/2026/05/03/chinese-court-layoffs-workers...
    https://www.reuters.com/world/china/china-moves-regulate-dig...
    Tampoco convence mucho la idea de que YouTube, Google Drive, Microsoft 365 y GitHub sean las plataformas que crean y ordenan los datos de la era de la IA. Lo plantea como si en China no hubiera ni plataformas ni datos

    • Según Pangram, esto es totalmente un texto generado por IA
      Ojalá hubiera una regla para exigir divulgación o borrar textos generados por LLM. Hasta el blog completo parece generado por IA
    • Bien señalado. Dudaba en llamarlo un texto terrible, pero en realidad sí lo es
    • Ojalá se pudiera bloquear a ciertos usuarios para no ver sus publicaciones. La portada sería mucho mejor sin gente como el OP
  • No entiendo cómo algo tan incoherente llega a despegar en HN. ¿Cómo ha cambiado la cultura de HN para que algo así termine tan arriba?

    • https://paulgraham.com/submarine.html
    • Es un sitio donde cualquiera puede crear varias cuentas en pocos minutos, y además casi no hay mecanismos contra abusos
      La fortaleza de la comunidad dependía totalmente de ser relativamente desconocida, pero eso ya no es así. En el momento en que creció lo suficiente como para usarse como plataforma de propaganda política, ya murió como espacio de intelectuales
    • Aunque la publicación en sí sea mala, su premisa central todavía puede valer la pena discutirla
      Aclaro que no voté por este envío
    • Seguramente porque mucha gente vota solo por el título sin leer el contenido
      El título llama bastante la atención, pero el contenido es basura generada de baja calidad
    • En HN y en cualquier lado despegan muchos textos absurdos
      La rebelión de las masas es real
  • No, EE. UU. solo va adelante en la competencia de IA; la competencia no ha terminado
    ¿De qué sirve ir al frente durante el 90% del trayecto si al final te resbalas con tu propio sudor? Aunque gastes decenas de miles de millones de dólares para conseguir la mejor tecnología de IA cueste lo que cueste, si tu competidor puede destilar ese avance y alcanzarte en 6 a 12 meses gastando solo el 1%, el valor de eso se reduce mucho
    Incluso en la comercialización que tanto enfatiza el artículo, EE. UU. ya está empezando a perder cuota. Últimamente he visto gente moverse de planes cc/codex a planes glm/opencode cuando las empresas estadounidenses empezaron a restringir el uso en sus planes. Si esa tendencia se consolida, las empresas de EE. UU. van a tener problemas. No todo el mundo necesita modelos de punta; muchos solo quieren pagar 20 dólares al mes por un modelo bastante útil

    • ¿Y si no fuera un mercado donde el ganador se lo lleva todo? ¿Y si desde el inicio ni siquiera hubiera una competencia? ¿Y si lo que está haciendo EE. UU. fuera solo quemar dinero con deuda potencialmente insostenible y valuaciones infladas en exceso?
      También es posible un escenario en el que la IA se vuelva como la capacidad genérica de servidores. Si los clientes pueden sobrevivir sin depender de hiperescaladores gigantes, quizá todo el mercado actual termine viéndose bastante tonto
    • Si alguien dijera que un equipo de fútbol va ganando al medio tiempo, ¿le responderías: “No, no está ganando, solo va adelante”?
    • Ir al frente solo importa si es un mercado de ganador único. Pero la IA no puede convertirse en eso por razones de seguridad nacional
      Creo que mientras mejor se vuelva la IA, más sustituible será. Puede terminar siendo algo valioso como la electricidad. Muchas empresas ganan dinero produciendo electricidad, pero no al nivel que esperan los inversionistas actuales
    • Mark Cuban dijo en una entrevista reciente que las empresas temen que al final solo quede una. Lo comparó con cómo ahora, en la práctica, hay una sola empresa de publicidad en internet; todos quieren ser esa única empresa
      Que de verdad vaya a quedar solo una es debatible, pero según Cuban, al menos así es como están pensando
  • Antes existía algo llamado ganancias, y existía algo llamado retorno de inversión
    Si tu estrategia de salida es que Google te compre, entonces enfocarte en ingresos puede ser una estrategia válida. Pero si tú eres Google, el dinero que metiste tiene que recuperarse en algún momento. Parece que ya lo olvidamos
    El nivel actual de comercialización solo significa que EE. UU. está quemando inversión más rápido que cualquier otro. Tal vez eso cambie algún día y la apuesta salga bien, pero por cada minuto adicional que esto continúe así, el rendimiento esperado tiene que crecer lo suficiente para cubrir la pérdida de ese minuto y además los intereses del tiempo anterior. No estoy muy seguro de que eso se vea como “estar ganando”. TikTok

  • El ganador de largo plazo será quien ofrezca el mejor rendimiento en modelos locales con la menor proporción de uso de memoria
    Anthropic, OpenAI y Mistral son solo empresas que hoy están haciendo dinero, pero todavía no son rentables y a largo plazo perderán tracción y valor
    Aun así, me parece más interesante ver qué pasa con la suscripción de OpenCode Go en adelante. Es más barata que las big tech, incluye más tokens y, según dicen, tampoco entrena con nuestros datos para intentar mejorar

    • Claude es bueno porque usa aprendizaje por refuerzo con historiales de chat y casos de uso de usuarios, así que no entrenar con datos no es una ventaja sino una desventaja
      La era de entrenar solo con datos públicos ya terminó. Todos pueden acceder a esos datos, pero solo hay unos pocos modelos en la frontera
    • Los modelos locales no pueden competir con los modelos grandes más recientes. Es como si un iPhone compitiera con una supercomputadora que corre simulaciones nucleares
      Los dos caminos se van a separar. Los modelos de frontera se volverán tan caros de ejecutar que probablemente terminen cerrados y accesibles solo para actores estatales. En Mythos eso ya empezó
    • ¿Mistral? Esos “ingresos” parecen ser como 1/150 de los de OpenAI y Anthropic
  • La explicación más simple de por qué EE. UU. va ganando es que está metiendo la mayor cantidad de dinero, y por un margen enorme

    • Más que meter dinero, se parece a imprimirlo
      Los pagarés circulares entre las empresas de IA y los hiperescaladores de nube son deuda, o sea una forma de creación monetaria. Claro que también entra mucho dinero real, pero invertir dinero que no existe siempre implica un riesgo enorme
    • Puede que no entienda bien el capitalismo, pero se supone que gana “el que obtiene más ganancias”, ¿no? Si se gana solo gastando, entonces quizá haya que reajustar los parámetros del mercado capitalista
  • No, no es que EE. UU. vaya ganando. Solo lo parece porque en Occidente está prohibido usar modelos chinos para fines laborales

    • Exacto. Mucha gente no sabe que GLM 5.1 y Kimi 2.6 de verdad están muy cerca de los modelos de frontera. También están Minimax 2.7, DeepSeek 4, Qwen, Xiaomi 2.5 Pro y otros
      China va adelante en modelos open source de frontera, así que no entiendo muy bien cómo se supone que EE. UU. estaría ganando esta competencia. En algún momento, empresas y personas empezarán a ejecutar sus propios modelos en la nube y en local, y los modelos chinos van a estar en todas partes
    • Según entiendo, lo que está prohibido no son los modelos, sino las plataformas
      Por ejemplo, alojar y ejecutar tú mismo deepseek-r1-distill-qwen-7b está bien. En cambio, descargar la app de DeepSeek y correrla en un dispositivo de trabajo no es aceptable para quienes impusieron estas prohibiciones
    • Porque los modelos alojados en China no inspiran confianza. Eso también forma parte al 100% de la comercialización
    • ¿Hay evidencia sólida de que estos modelos superen a los occidentales en calidad? ¿O más bien les cuesta competir porque, al estar prohibidos, no consiguen suficientes datos de entrenamiento o visibilidad?
    • ¿Eso significa que si se puede usar algo como qwen más ampliamente cambia la posición estratégica de EE. UU.? EE. UU. tiene los mejores modelos y también posee las empresas que construyen la mejor infraestructura y las mejores nubes hiperescalables
      “¿Ahora ya puedo usar Qwen?” no parece algo que vaya a golpear tan fuerte a EE. UU.
  • Visto desde lejos, esta afirmación no tiene sentido. Anthropic, OpenAI, xAI, Google, Meta y Microsoft no están obteniendo ganancias en IA, y sobreviven con fondos de sus matrices o de inversionistas, especialmente dinero de inversionistas, mientras absorben pérdidas
    Los modelos chinos los están alcanzando mientras ofrecen los modelos gratis, pueden correr en hardware de consumo y, más importante aún, se entrenan más barato. Los modelos de IA son productos extremadamente volátiles que pueden volverse obsoletos en cuestión de semanas. Al final, tienen que seguir tirando recursos al desarrollo de modelos cada vez mejores sin otro objetivo que una expansión interminable
    El comportamiento real de los usuarios termina siendo: “No uso Gemini porque es peor que Claude en XYZ”. Si el modelo Gemini empeora más, la gente se va con Anthropic. Entonces, ¿qué pasa cuando el modelo de Anthropic sea peor que otros? Si tu producto es objetivamente inferior, ¿de qué sirve comercializarlo bien?
    Entiendo que EE. UU. domina la distribución, la integración, los contratos empresariales, el ecosistema y la infraestructura. El artículo no está completamente equivocado, pero ese dominio es frágil y exige mejoras continuas
    Si tu rival siempre viene justo detrás buscando rebasarte y tú necesitas expansión infinita para mantenerte, ¿qué significa realmente eso? La expansión infinita es imposible y el dinero de VC se va a secar algún día. Cuando eso pase, todos tendrán que recortar para poder pagar el costo real de los modelos más recientes, y cubrir esos costos enormes con suscripciones u otras formas de monetización. Ya vimos cómo SORA se suspendía por quemar dinero demasiado rápido, mientras China lanzaba entre tanto modelos de video muy superiores uno tras otro
    Integrar modelos en otros productos también es clave, y ahí el open source también viene alcanzando terreno; cuando se acabe el dinero de VC, probablemente termine adelantando

    • La parte de “no obtienen ganancias en IA” necesita respaldo
      Según los reportes, sí son rentables en inferencia, y el dinero de VC se está usando para construir centros de datos que permitan correr todavía más inferencia. Los modelos de suscripción para programación quizá, en promedio, anden cerca del punto de equilibrio, pero el dinero está en las API
      También es exagerado decir que los modelos chinos corren en hardware de consumo. Nadie está ejecutando en hardware de consumo un modelo de 1.6T tokens como DeepSeek v4
      El costo de entrenamiento tampoco es muchísimo menor que el de los modelos estadounidenses. Las big tech chinas están subsidiando el entrenamiento, y son modelos un poco más baratos porque son más pequeños y menos potentes que los modelos de 5T o 10T que entrenan los laboratorios de frontera de EE. UU. Los laboratorios estadounidenses también gastan en datos de aprendizaje por refuerzo más variados, y esa diferencia aparece en varios benchmarks de rendimiento
      El caso de Sora en realidad prueba la tesis del artículo. OpenAI no cerró Sora; solo retiró la versión por suscripción y esa extraña red social, pero sigue disponible vía API
      Los modelos chinos de video también son modelos de API, y así como los LLM son rentables para los laboratorios de frontera de EE. UU., probablemente también lo sean para ellos. Los precios de los modelos de video están en [1]; el rango es amplio, pero Google Veo y OpenAI Sora están en niveles de precio similares a los modelos chinos
      [1] https://openrouter.ai/models?output_modalities=video
    • Si los modelos chinos no hubieran podido hacer destilación desde modelos más grandes, se habrían quedado en un nivel tipo gpt2 o 3
  • Lo interesante que ha hecho Anthropic es montar su stack sobre varios proveedores de nube. Primero lo puso en AWS a un nivel que rara vez se ve con grandes proveedores de IA, así que me pregunto si después lo pondrá también en GCP y Azure
    Si una empresa puede tener su propio stack de Claude en su nube, como una pila ELK, entonces si eso también se vuelve posible en Azure y GCP, OpenAI de verdad va a tener que ponerse al día
    Personalmente, me gustaría usar más IA que pueda correr sobre infraestructura que yo pago, porque si hay una caída queda aislada y además podría sustituirse por otra región o centro de datos
    También me sigue sorprendiendo que Microsoft o Amazon no ofrezcan de forma más visible sus propios modelos como productos de nube. Uno pensaría que Microsoft ya habría puesto Phi, aunque no lo promueven mucho. Sobre todo en algo como Copilot for Devs, donde podrían usar cómputo más barato con modelos como Phi. Microsoft necesita hasta cambiar el nombre para dejar claro qué significa Copilot