- La startup Advanced Machine Intelligence (AMI), cofundada por el ex científico jefe de IA de Meta, Yann LeCun, completó una ronda de inversión de más de 1,000 millones de dólares
- AMI busca desarrollar un modelo del mundo (world model) para comprender el mundo físico y construir una nueva clase de sistema de IA con capacidades de razonamiento, planificación y memoria
- LeCun critica que los modelos de lenguaje a gran escala (LLM) no pueden alcanzar inteligencia a nivel humano y sostiene que el aprendizaje basado en el mundo físico es la clave de la inteligencia real
- En la inversión participaron figuras destacadas como Bezos Expeditions, Eric Schmidt y Mark Cuban, y LeCun también mencionó la posibilidad de colaborar con Meta
- AMI apunta al desarrollo de tecnología de código abierto y planea construir en el futuro un modelo universal del mundo para aplicarlo en toda la industria
Fundación de AMI y financiamiento
- Advanced Machine Intelligence (AMI) es una startup con sede en París, cofundada por Yann LeCun tras dejar Meta
- LeCun dirigió el laboratorio Fundamental AI Research (FAIR) de Meta y dejó la empresa en noviembre de 2025
- En esta ronda de inversión aseguró más de 1,000 millones de dólares, con una valoración de la empresa de 3,500 millones de dólares
- Entre los principales inversionistas están Cathay Innovation, Greycroft, Hiro Capital, HV Capital y Bezos Expeditions
- También participaron Mark Cuban, Eric Schmidt y Xavier Niel
- Además de París, AMI planea operar globalmente con oficinas en Montreal, Singapur y Nueva York
La filosofía de IA de LeCun y sus críticas a los LLM
- LeCun enfatiza que el razonamiento humano se basa en la experiencia del mundo físico más que en el lenguaje
- Afirmó que “la idea de que escalar los LLM puede llevar a una inteligencia de nivel humano es una ilusión total”
- Reconoce la capacidad de los LLM para generar código, pero señala que eso no conduce a inteligencia de nivel humano
- LeCun impulsó dentro de Meta investigaciones sobre modelos del mundo como Joint-Embedding Predictive Architecture (JEPA), pero
decidió independizarse cuando Meta cambió a una estrategia centrada en los LLM
- Explicó que “desde fuera se puede desarrollar más rápido, más barato y de forma más eficiente”
Objetivos técnicos de AMI y aplicación industrial
- AMI busca desarrollar sistemas de IA con memoria persistente, razonamiento y capacidad de planificación
- Su objetivo es una “IA controlable y segura”
- Se mencionan Toyota y Samsung como empresas colaboradoras iniciales
- Como ejemplo, se plantea construir un modelo del mundo de un motor de avión para mejorar su eficiencia y confiabilidad
- A largo plazo, planea desarrollar un modelo universal del mundo (universal world model) para aplicarlo a toda la industria
Equipo fundador
- Además de LeCun, entre los cofundadores hay varias figuras provenientes de Meta
- Michael Rabbat (exdirector de ciencia de investigación), Laurent Solly (exvicepresidente para Europa), Pascale Fung (exdirectora de investigación en IA)
- Alexandre LeBrun (ex CEO de Nabla) participa como CEO de AMI, y Saining Xie (ex investigador de Google DeepMind) como director científico (CSO)
Código abierto y debate sobre el control de la IA
- LeCun subrayó que la IA no debe quedar monopolizada por empresas específicas y remarcó su política de desarrollo de código abierto
- Mencionó el reciente caso en el que el Departamento de Defensa de EE. UU. incluyó a Anthropic en una lista negra, señalando la controversia sobre quién controla la IA
- También afirmó que “el juicio sobre lo bueno o lo malo de la IA no debe decidirlo una persona, sino un proceso democrático”
- Recordó que las redes neuronales convolucionales (CNN), en cuyo desarrollo contribuyó, fueron usadas en sistemas de vigilancia en algunos países
- Sobre el uso militar de la IA, explicó que antes existió un movimiento para prohibir las armas autónomas, pero que hoy ha evolucionado hacia usos defensivos, como los drones autónomos en Ucrania
Próximos planes
- AMI planea presentar su primer modelo de IA lo antes posible, aunque no espera gran atención pública en la etapa inicial
- A través de la colaboración con socios industriales, busca ampliar el alcance de aplicación de su tecnología y, a largo plazo, evolucionar hacia un sistema de inteligencia general
- LeCun cerró sus declaraciones con una sonrisa, diciendo que se trata de “un plan muy ambicioso”
1 comentarios
Comentarios en Hacker News
Los modelos del mundo tienen muchos más grados de libertad
Los LLM, en esencia, aprenden texto estático, es decir, solo datos lingüísticos con los que los humanos describieron el mundo, así que no pueden aprender del mundo real
Por eso pueden recombinar ideas existentes, pero es casi imposible que logren un verdadero descubrimiento creativo o una invención
Si surge una startup que aprenda una comprensión espaciotemporal basada en el mundo físico, sería un intento de resolver el verdadero cuello de botella para llegar a la AGI
Incluso si solo tiene un éxito parcial, creo que podría abrir una generalización y una creatividad a las que los LLM actuales estructuralmente no pueden llegar
Creo que el cuello de botella de la AGI está en el aprendizaje continuo y en la retropropagación (backpropagation)
El cerebro humano no aprende mediante retropropagación, y los modelos del mundo al final no son tan distintos de las arquitecturas de deep learning que ya conocemos
Si el cuello de botella fuera “aprender del mundo”, bastaría con ejecutar un LLM visión-acción en un bucle de aprendizaje por refuerzo con robots o en entornos de simulación
No todos los campos interactúan directamente con el mundo físico, y con la información de la historia ya registrada también se pueden construir simulaciones virtuales donde se aplican leyes físicas 3D
Lo que les falta a los LLM actuales es motivación interna: la capacidad de pensar por sí mismos, reflexionar y autocorregirse
Yo también creo dentro de las limitaciones de memoria y atención, pero cuando consulto con una IA obtengo ideas nuevas
Al final, el pensamiento humano también es solo una combinación de lo aprendido, y la IA está en esa misma línea
Según escuché en una charla de Yann LeCun, los bebés humanos experimentan durante sus primeros años mucha más información sensorial que los datos con los que aprende un LLM
Creo que esa es una limitación fundamental de los modelos basados en lenguaje
LeCun es un excelente vendedor, pero aunque fracase, la sociedad lo va a proteger
Así que, sinceramente, no le tengo mucha admiración
Tenenbaum ya venía investigando modelos del mundo desde hace mucho, pero la gente del ecosistema venture no conoce bien estas corrientes de investigación
Por eso es fácil usarlas como objeto de inversión
Cuando almorcé con Yann en agosto del año pasado, me dijo que estaba pensando si dejar Meta o no
Yo le aconsejé que, en vez de ayudar a cumplir los sueños de otros, fundara su propia empresa
Estoy de acuerdo con su visión de que los LLM no conducen a una inteligencia de nivel humano, pero no estoy seguro de que la estrategia de modelos del mundo sea la respuesta correcta
Al final sí va a salir en formato startup
Personalmente, me parecía más adecuado un modelo de instituto de investigación como Mila
Aun así, la carrera de LeCun y su respuesta en X hablan por sí solas
Tengo curiosidad por cómo van a generar ingresos, pero les deseo éxito
Históricamente, la investigación realmente importante siempre ha salido de laboratorios corporativos estables — Bell Labs, IBM Research, Xerox PARC, MSR, etc.
La influencia de Yann es indiscutible, pero incluso con los enormes recursos de Meta no hubo resultados especialmente visibles
El enfoque de entender el mundo a través de video ya lo vienen trabajando modelos de video como Seedance, Kling y Sora
Por eso no me queda claro qué tan diferente será este intento
Meta publicó mucha investigación de nivel mundial y también hizo grandes contribuciones al open source
Por ejemplo, el paper Beyond Language Modeling: An Exploration of Multimodal Pretraining contiene insights basados en experimentos a gran escala
Creo que LeCun cumplió muy bien su papel como líder de investigación, no como responsable de producto
La ciencia no es un mercado competitivo
Y la palabra “entender” carga con demasiados significados: los modelos siguen repitiendo los mismos errores
A veces, la pasión y la libertad son motores más importantes
Él cree que los LLM no son el camino hacia la AGI
Yann LeCun estaría fundando la startup de modelos del mundo AMI (Amilabs) con el objetivo de alcanzar una valuación de más de 5 mil millones de dólares
Dicen que incorporó a LeBrun como CEO, a LeFunde como CFO y a LeTune a cargo del posprocesamiento
Ver artículo de TechCrunch
Esto también llega en un buen momento
Como el mundo está demasiado concentrado en los LLM, hace falta que se siga investigando en otros tipos de modelos
También espero que esto sirva para que Europa tenga un entorno atractivo para la investigación en IA
Estés o no de acuerdo con la visión de LeCun, creo que esto es algo bueno para Europa
Hace falta un instituto con capital suficiente para hacer frente al ecosistema de IA dominado por Estados Unidos y China
Como Mistral viró hacia integración y consultoría, quedó vacante la frontera de la investigación
Si revisas el documento de visión de LeCun, A Path Towards Autonomous Machine Intelligence, se ve bien su planteamiento
JEPA es una arquitectura que incluso una startup puede intentar, y nuestra startup de tres personas también entrenó JEPA usando datos médicos de series temporales
Europa también necesita una línea de investigación independiente como esta
Artículo de Straits Times
Tiene una relación precio-rendimiento excelente y para tareas relacionadas con aprendizaje de idiomas es de lo mejor
Si su visión es correcta, sería de gran ayuda para Europa; si está equivocado, entonces solo será una inversión de suma cero
Aun así, como hay muchísimos datos de video todavía inexplorados, espero buenos resultados
Si crees que los LLM ya son suficientes y que el RSI (Recursive Self-Improvement) es inminente, entonces esto sería más bien una distracción
Enlace al artículo de FT
Sinceramente, todavía no entiendo el boom de los modelos del mundo
La teoría lleva décadas existiendo, mientras que los LLM sí cambiaron de verdad a la industria
Y aun así la gente sigue diciendo “no son los LLM, lo de verdad son los modelos del mundo”
Los modelos del mundo predicen el futuro, y a un LLM también se lo puede entrenar para predecir tokens de imagen
Eso puede convertirse en una señal de supervisión muy poderosa
Las representaciones internas que forma un LLM durante el entrenamiento también podrían verse como una especie de modelo del mundo
Pero los LLM se parecen más a una tecnología de replicación, y carecen de verdadero aprendizaje o creatividad
En cambio, el enfoque de la inteligencia animal predice cambios en el mundo real y se corrige a sí mismo a través de feedback
Es decir, es una estructura de aprendizaje basada en la realidad, que puede reducir alucinaciones y planificar conductas orientadas a objetivos
En ese sentido, un “modelo del mundo” no es solo una representación interna, sino un modelo conductual que aprende interactuando con el mundo
En medio de una competencia de IA centrada en Estados Unidos, este nuevo desafío surgido desde Europa se siente fresco
Los modelos existentes solo han competido copiándose entre sí, y ha faltado verdadera innovación