8 puntos por GN⁺ 16 일 전 | 5 comentarios | Compartir por WhatsApp
  • A medida que se acelera la comoditización de la inteligencia en IA, mientras todas las empresas compiten por el mejor modelo, Apple, con enormes reservas de efectivo, está asegurando una posición incluso más ventajosa
  • OpenAI, pese a una valuación de $300B, está viendo materializarse el riesgo de invertir en infraestructura sin un modelo de ingresos, con hechos como la suspensión del servicio Sora y la cancelación de Stargate Texas
  • Gracias a 2,500 millones de dispositivos activos y una arquitectura de procesamiento on-device, Apple cuenta con un foso basado en datos de contexto personal y un diseño centrado en la privacidad
  • El modelo de pesos abiertos Gemma 4 muestra un rendimiento comparable al de Claude Sonnet 4.5 Thinking, y la brecha entre modelos se está reduciendo rápidamente hasta el punto de poder ejecutarse incluso en laptops
  • La arquitectura de memoria unificada de Apple Silicon hace posible ejecutar modelos grandes en local, y el framework MLX está sentando las bases para expandir el ecosistema
  • Sea estrategia o casualidad, Apple ya aseguró una nueva ventaja competitiva sobre una base de hardware y software optimizada para la era de la IA

El ‘foso accidental’ de Apple, la empresa que “perdió” en la carrera de la IA

  • En la tendencia hacia la comoditización de la inteligencia, cuanto mejores modelos crean las empresas, más rápido los modelos rivales se ponen al día
    • Las grandes inversiones en entrenamiento reducen el costo de los modelos de generaciones anteriores, y la brecha entre los modelos frontier y los modelos open source se está cerrando con rapidez
    • Modelos abiertos recientes como Gemma4, Kimi K2.5 y GLM 5.1 ya alcanzaron un nivel en el que pueden funcionar suficientemente bien incluso en hardware personal
    • Mientras tanto, en empresas como OpenAI surgen dudas sobre la sostenibilidad debido a estructuras de costos enormes y modelos de ingresos inestables
  • Este cambio favorece a Apple, que era señalada como un ‘perdedor de la IA’
    • Apple tuvo Siri antes que nadie, pero tras el lanzamiento de ChatGPT fue clasificada como “perdedora de la IA” por no tener un modelo frontier insignia ni haber prometido inversiones de cómputo por $500B
    • Mientras otros laboratorios de IA y Big Tech quemaban enormes cantidades de dinero para quedarse con el primer lugar en los benchmarks más recientes, Apple acumuló efectivo no utilizado e incluso amplió sus recompras de acciones, aumentando así sus opciones

El gasto excesivo y los riesgos de OpenAI

  • OpenAI levantó capital con una valuación de $300B y luego operó el servicio de video Sora con un costo diario de aproximadamente $15M frente a ingresos de $2.1M, hasta que finalmente suspendió el servicio
  • Disney había firmado con Sora un acuerdo de licencia por 3 años para generar contenido con personajes de Marvel, Pixar y Star Wars, y además impulsaba una inversión accionaria de $1B en OpenAI, pero con la suspensión de Sora esa inversión de $1B se cayó
  • En infraestructura, OpenAI firmó con Samsung y SK Hynix cartas de intención no vinculantes para hasta 900 mil obleas DRAM por mes (aproximadamente el 40% de la producción global)
  • Micron, al ver esa señal de demanda, cerró Crucial, su marca de memoria de consumo con 29 años de historia, para reorientarse hacia clientes de IA, pero al cancelarse Stargate Texas la demanda desapareció y la acción de Micron se desplomó
  • Sin importar los resultados en benchmarks o la escala de la infraestructura, un pequeño error en los ingresos esperados puede dejarte fuera del juego

El cambio de inteligencia a capacidad

  • La suposición central de los laboratorios de IA era que la capacidad bruta del modelo (inteligencia) y la infraestructura para operarla seguirían siendo recursos escasos, pero modelos menos potentes están alcanzando rápidamente el nivel de los antiguos modelos frontier
  • El modelo de pesos abiertos de Google, Gemma 4, puede ejecutarse en teléfonos, logró 85.2% en MMLU Pro y en el leaderboard de Arena está al nivel de Claude Sonnet 4.5 Thinking
    • Alcanzó 2 millones de descargas en su primera semana
    • Un modelo que era SOTA hace 18 meses ahora puede ejecutarse en una laptop y mejora trimestre a trimestre
  • Al ejecutar directamente Gemma 4 en un AMD Ryzen AI Max+, el rendimiento en tokens por segundo y el nivel de inteligencia resultaron tan buenos que fue posible migrar el backend de herramientas personales a este modelo sin degradación en la calidad de salida
  • Anthropic reconoció esta tendencia y está lanzando rápidamente herramientas prácticas como Claude Code, Claude Cowork y Claude Managed Sessions para encerrar a los usuarios dentro de su ecosistema
    • La lógica central: si el modelo en sí no puede ser el foso, entonces hay que dominar la capa de uso y elevar el costo de cambio
    • Según un análisis, los suscriptores del plan Max ($200) consumen el equivalente a $27,000 en cómputo, lo que muestra una estructura donde los laboratorios sostienen la demanda mediante subsidios
  • Como Apple casi no gasta en infraestructura de IA ni en subsidiar el consumo de tokens de los usuarios, tiene más opciones y más palanca que otras empresas

El contexto como recurso clave

  • Cuando la inteligencia se vuelve abundante, el contexto pasa a ser el recurso escaso
    • Un modelo que puede razonar sobre todo pero no sabe nada del usuario no es más que una herramienta genérica
    • Para que la IA sea realmente útil en la vida diaria, necesita capacidad de razonamiento + contexto personal (mensajes, calendario, código, datos de salud, fotos, hábitos, etc.)
  • Apple ya posee ese contexto a través de 2,500 millones de dispositivos activos
    • Datos de salud del Apple Watch, fotos del iPhone, notas, mensajes, historial de ubicación, comportamiento en apps, correos electrónicos y percepción del entorno mediante sensores del dispositivo
  • Con el procesamiento on-device, es posible darle al modelo todo el contexto sin sacar los datos fuera del dispositivo
    • El posicionamiento de "Privacy. That's iPhone" puede pasar de ser simple PR a una propuesta de valor central
    • Entregarle a OpenAI historiales médicos y 15 años de fotos es un asunto fundamentalmente distinto a permitir acceso a un modelo que funciona solo dentro del dispositivo
  • El acuerdo con Gemini ($1B) que Apple firmó con Google sirve para consultas que requieren razonamiento a escala de nube, y representa un costo que apenas se redondea frente al gasto semanal de cómputo de OpenAI
    • Lo que Apple mantuvo internamente: la capa de contexto, el stack on-device y el sistema operativo que arbitra todo

Por qué Apple Silicon encaja tan bien con la IA

  • Como mostró la fiebre por la Mac Mini tras el lanzamiento de OpenClaw, Apple Silicon no fue desarrollado para IA sino para eficiencia, batería, rendimiento térmico e integración hardware/software, pero terminó siendo una arquitectura óptima para ejecutar modelos locales
  • Diseño clave: memoria unificada (Unified Memory)
    • En las arquitecturas tradicionales, CPU y GPU están en chips separados y con pools de memoria distintos, por lo que mover datos es lento y consume mucha energía
    • Las GPU de Nvidia son rápidas en operaciones matriciales, pero la transferencia de datos entre CPU y GPU por el bus PCIe se vuelve un cuello de botella
    • Las series M y A de Apple colocan CPU, GPU y Neural Engine en el mismo die y comparten un único pool de memoria de alto ancho de banda, sin cruces de bus, sin overhead de transferencia y sin latencia adicional
  • En la inferencia de LLM, hoy el cuello de botella no es el cómputo sino el ancho de banda de memoria
    • Lo central es la velocidad para hacer streaming de los pesos del modelo desde memoria hacia las unidades de cómputo, y el tamaño de memoria disponible para guardar el caché KV
    • El pool de memoria unificada de Apple ofrece a todas las unidades de cómputo acceso directo de alto ancho de banda al mismo tiempo
  • La técnica LLM in a Flash es particularmente efectiva en hardware de Apple
    • En una Mac con M3 Max se ejecutó Qwen 397B (modelo de 209GB) con solo 5.5GB de RAM activa a aproximadamente ~5.7 tokens/segundo
    • Los pesos se almacenaban en SSD y se transmitían a ~17.5 GB/s, y gracias a la arquitectura MoE (Mixture-of-Experts) cada token activaba solo una parte de las capas expertas
    • Para esa ejecución, Claude escribió ~5,000 líneas de Objective-C y shaders de Metal

Dinámica de plataforma y ubiquidad de la App Store

  • Igual que con la App Store, Apple no creó las apps, sino que construyó la plataforma donde las apps corren mejor, y luego el ecosistema la siguió
    • Los desarrolladores apuntan a iOS no porque Apple se los pida, sino por su base de usuarios, sus herramientas y la consistencia del hardware
  • Es posible que ocurra el mismo fenómeno con la inferencia local
    • MLX ya está emergiendo como el framework estándar de facto para IA on-device
    • Arquitecturas de modelos importantes como Gemma, Qwen y Mistral ya soportan MLX
    • Aunque Apple no gane la competencia de modelos, puede convertirse en la plataforma de facto donde se ejecutan los modelos (o agentes)
    • La fiebre por la Mac Mini tras la viralización de OpenClaw es una muestra de esa posibilidad

¿Estrategia o suerte?

  • La estrategia de Apple de diseñar de forma integrada hardware y software ha sido un foco central durante años, y tanto su posicionamiento en privacidad, como su énfasis en el procesamiento on-device y su decisión de desarrollar silicio propio mientras la industria dependía de Nvidia e Intel, fueron apuestas comercialmente riesgosas
    • Esas decisiones se tomaron no por la IA sino por costos y gobernanza, pero terminaron jugando a su favor en la era de la IA
  • Lo que Apple quizá no pudo prever:
    • Que la arquitectura de memoria unificada encajaría perfectamente con los LLM
    • Que los modelos de pesos abiertos avanzarían tan rápido
    • Que hacer streaming de un modelo de 400B parámetros desde SSD realmente funcionaría
  • Parte de esto es suerte, pero del tipo de suerte que llega a las empresas que construyeron la base correcta
  • Mientras el resto de la industria pasó 3 años obsesionada con la carrera por el mejor modelo, Apple observó desde la banca cómo sus dispositivos y su ecosistema podían encajar en ese futuro
  • Siguen existiendo partes incompletas, como las limitaciones de Siri, pero
    • 2,500 millones de dispositivos, todo el contexto personal, ejecución local de modelos sobre silicio dedicado y Gemini disponible bajo demanda para consultas difíciles
    • Una estructura de inferencia basada en costos variables y no en CAPEX fijo difícilmente puede considerarse una mala posición en una era de adopción masiva de IA
  • En conclusión, Apple podría seguir ocupando una posición importante incluso en un futuro centrado en la IA
    • Sea estrategia o casualidad, lo clave es que está parada sobre la base correcta

5 comentarios

 
j2sus91 16 일 전

Es medio una tontería,
lo que están diciendo es que como ahora las empresas de modelos de IA están compitiendo a pérdida,
Apple, que no ha hecho nada, es la gran beneficiada, ¿no?

Pero eso es solo porque ahorita la tendencia es esta competencia excesiva entre modelos LLM,
si los modelos de IA estuvieran en una etapa de estabilización o crecimiento, ¿de verdad creen que Meta estaría loca como para publicar Gemma?

Todo el know-how acumulado al desarrollar y operar modelos es lo que termina volviéndose oro y diamante.

 
wang3281 16 일 전

Meta -> Google

Viendo el gasto de Apple, no parece que se vaya a quedar quieta. También es una empresa bien posicionada para lograr la IA física... Al final, Nvidia también está yendo hacia lo físico... Lo impresionante es Google, que lo tiene todo.

 
sudoeng 16 일 전

Más bien, creo que la idea es que los datos de personalización terminarán siendo un foso importante en la próxima era de la IA, y como Apple ya los tiene, quedaría en una posición ventajosa.

 
kimjoin2 16 일 전

Vamos, MLX de Apple

 
GN⁺ 16 일 전
Opiniones de Hacker News
  • Creo que Gemma4 sirve bien para ayuda con código o sugerencias de errores, pero le falta capacidad para el uso complejo de herramientas o una comprensión de contexto de nivel experto
    Si mejora unas cuantas veces más y para algo como Gemma6 puede correr completamente en local en una Mac al nivel del Opus actual, no creo que haya mucha razón para usar modelos en la nube

    • A mí me pasó algo parecido. Al principio me decepcionó que Gemma4 fuera menos compatible con agentes de programación que Qwen3.5, pero para otros usos estuvo bastante bien
      Acabo de ver que en Ollama 0.20.6 mejoraron la función de llamada de herramientas de Gemma4. Lo voy a volver a probar después del desayuno
    • Tiene un aire parecido a aquella vieja frase de “640k es suficiente para cualquiera”
    • La economía al final es competencia. Alguien puede conseguir un buen hacha y quedar satisfecho, pero otros están manejando bulldozers. Aunque seas feliz con un hacha, eso significa que ya estás fuera de la competencia
    • Entonces no era solo yo. La calidad de Gemma4 me impresionó, pero al usarlo con opencode fallaba en registrar correctamente cambios en archivos 9 de cada 10 veces
    • Si soy sincero, ahora mismo no hace falta tener un modelo local para trabajo de alto rendimiento. En sitios como OpenRouter puedes usar varios modelos abiertos, y ya están cerca del nivel SOTA
      Como varios proveedores ofrecen el mismo modelo y compiten en precio y rendimiento, también baja el riesgo de monopolio
      En mi equipo tengo Gemma, así que las conversaciones privadas o tareas no relacionadas con programación las puedo hacer completamente offline
      En una situación así, si yo fuera OpenAI o Anthropic, quizá intentaría todo tipo de trucos poco éticos para amarrar a los clientes, pero al final no les va a funcionar
  • Creo que la valuación de OpenAI partió de la premisa de que la IA iba a funcionar como la búsqueda
    Pero en la búsqueda, el producto mejoraba cada vez que los usuarios hacían consultas, y durante mucho tiempo Google fue el mejor producto de verdad
    En cambio, en IA el entrenamiento y la inferencia están separados, y después de las divisiones internas de OpenAI los competidores se pusieron al día rápidamente
    Ahora se volvió una guerra de desgaste en la que solo puedes competir si quemas miles de millones de dólares, y mientras la diferencia entre modelos se reduce, la capacidad de distribución es lo que define al ganador
    Google, Meta, MSFT y Amazon pueden hacerlo, pero OpenAI no tiene suficiente poder financiero

    • El valor de OpenAI no está solo en reemplazar la búsqueda, sino en la posibilidad de convertirse en una plataforma de toda la web
      Había mucha expectativa de que abarcara desde automatización empresarial hasta reemplazo de redes sociales, y a eso se sumaba el valor futuro incierto de la posibilidad de AGI
      El papel de Sam Altman es inflar esas expectativas para maximizar el valor de inversión
    • A inicios de los 2000 no había capital ni talento para enfrentar a Google, pero ahora la competencia en IA es intensa y, desde el punto de vista del usuario, eso deja una ganancia neta de menores costos y progreso más rápido
    • Pienso parecido. Al final Google va a aguantar, y OpenAI y Anthropic probablemente terminen absorbidas por MSFT o Amazon por problemas de financiamiento
      La alianza de Apple con Google también parece parte de esa misma tendencia
    • Es una lástima que Google haya arruinado por sí mismo la calidad de la búsqueda. Decisiones como quitar el operador + o la censura política son difíciles de entender
    • En búsqueda real, parece que la curación de datos basada en RAG sería más eficiente que crear un modelo nuevo desde cero
  • Apple siempre ha usado una estrategia de esperar y luego dar el salto
    Mientras otras compañías pasan por prueba y error, Apple identifica los límites de la tecnología y luego lidera el mercado con un producto más pulido

    • Exacto. Esta vez también anunció ‘Apple Intelligence’ para tranquilizar al mercado, pero está avanzando con cautela sin invertir de más
      Es muy probable que en unos años lance un producto realmente bien terminado
    • Ya está mostrando progreso discretamente en funciones como OCR en el dispositivo y copiar/pegar
    • Casos como Newton, Pippin y Vision Pro muestran que los intentos experimentales de Apple siguen un patrón repetido
    • No sé si desde el iPhone de 2007 ha habido de verdad otro producto de “gran salto”. El Watch fue lo más cercano, pero no estoy seguro
    • Mis padres usan Android para cosas como “borrar a una persona de una foto”, mientras que mi iPhone sigue en modo “Siri, inicia el cronómetro”
      Aun así uso iPhone porque no quiero confiarle mis datos personales a Google
  • Apple no es una vitrina de chatbot para inversionistas, sino una empresa centrada en hardware de consumo
    El iPhone y futuros lentes AR son lo principal, y el machine learning en el dispositivo es la razón detrás del diseño de sus chips
    No tiene motivo para fabricar un producto competidor de OpenAI

    • En FY25, alrededor del 25% de los ingresos de Apple vienen de servicios, 50% del iPhone y el resto de hardware. Solo servicios ya representa cerca de 100 mil millones de dólares
    • Los lentes AR no parecen la apuesta principal, sino más bien un proyecto de investigación o de cobertura
    • A veces la gente no usa iPhone porque lo quiera, sino para no quedar fuera de iMessage
  • Cuando otras empresas abandonaban VR y se pasaban a la IA, no entendí por qué Apple hizo lo contrario y lanzó un headset de VR
    Se juntaron precio alto, falta de desarrolladores y además la entrada tardía a la IA

    • Apple siempre entra tarde, pero quizá está creando las condiciones para bajar el precio
    • Lo veo como una estrategia de checkpoint para no quedarse atrás tecnológicamente. Está sentando bases para evitar patentes y defender la marca
    • El hardware tarda en madurar. Es probable que Apple haya estado haciendo prototipos desde 2015~18
      Si los lentes AR se implementan bien, serían una plataforma enorme, y parece que Apple está esperando el momento de entrar después de que Meta fracase
  • Lo mejor de todo es que todo corre en local. Los datos no salen del dispositivo
    Creo que los creadores también serían más favorables a la IA de Apple, porque usa datos de entrenamiento éticos y se siente como algo propio, sin suscripción

    • Me pregunto por qué creen que los creadores odian tanto a la IA
  • Desde Sequoia tengo Siri desactivado, y me gusta que Apple no me obligue a volver a encenderlo
    En cambio, JIRA o Slack me lanzan funciones nuevas de IA a cada rato y se vuelve molesto

    • No me gusta la actitud de las empresas de empujar funciones nuevas como si fueran ruido. Pero todavía me molesta más que metan anuncios en productos de pago
      Incluso Apple ya se pasa de la raya al poner anuncios patrocinados hasta arriba en la App Store
      En Android hay alternativas como F-Droid, pero en iOS es difícil evitarlo
    • Por esto mismo borré Google Maps. Los resúmenes generados por IA tapan las reseñas y eso es incómodo
      Amazon, Uber y Google Workspace también fuerzan la IA de manera parecida
    • Me molesta más que Apple siga empujando la actualización a Tahoe.
      Lo que yo quiero es un simple parche de Sequoia, pero Tahoe siempre viene como opción predeterminada
      Hasta la integración de Claude Code en Xcode es exclusiva de Tahoe, lo cual no tiene sentido
  • Que Apple haya lanzado la MacBook Neo justo ahora fue una gran estrategia
    Mientras observa la competencia en IA, logra amarrar a la próxima generación de usuarios al ecosistema Apple
    Neo se siente como el iPod de esta generación

    • Pero el verdadero rival de Neo no es un dispositivo virtual de OpenAI, sino las Chromebook y laptops Windows
  • Nvidia limita que las GPU para gamers se usen en centros de datos,
    así que si Apple amenaza el mercado de IA local, podría incluso sacar tarjetas de IA para consumidores por separado
    Tal vez venga un futuro en el que vendan el mismo chip con precios diferenciados según el uso

    • Según un artículo de Forbes, las laptops con Arm de Nvidia-Mediatek se presentarían en la primera mitad de 2026
      Si el rendimiento de la NPU supera al de Intel y AMD, y pueden integrar una GPU nivel RTX 5070 en un formato delgado, la estructura misma de las laptops gamer va a cambiar
    • La separación entre GPU profesional y de consumo existe desde hace mucho
    • Otras empresas como Intel también ponen limitaciones parecidas. Pero en el precio de las GPU pesan mucho la capacidad y el ancho de banda de memoria
      Las de consumo son más baratas, pero tienen menos memoria y son más lentas
    • Al final es una estrategia para buscar al mismo tiempo favor del consumidor y maximización de ganancias
  • Apple no se metió a competir en la carrera de los LLM. Su fortaleza está en el diseño centrado en humanos
    El iPod no fue el primer reproductor MP3, y el iPhone tampoco tenía 3G, pero aun así triunfó
    Apple se ha enfocado en la eficiencia energética y la arquitectura de memoria unificada, pensando en productos futuros como lentes AR
    Apple ha venido preparándose con diseño integrado de chip, memoria y SSD para hacer cosas que NVidia o Intel no pueden lograr por sí solas
    Igual que cuando adoptó ARM de 64 bits en el pasado, mucha gente hoy sigue subestimando lo que eso significa
    Una GPU de NVidia puede rendir 2 o 3 veces más, pero consume 10 veces más energía
    Apple compite con eficiencia por precio y está optimizada para usos de LLM local que requieren inmediatez, privacidad y un enfoque personal