- Gemini 3 de Google ha evolucionado más allá de un simple chatbot conversacional para convertirse en una IA tipo colega digital capaz de realizar tareas reales como escribir código, navegar por la web y manipular archivos
- Antigravity, presentado junto con él, es una herramienta basada en agentes que accede a la computadora del usuario para escribir programas de forma autónoma y pedir aprobación o ayuda mediante un sistema de Inbox
- Gemini 3 puede, según las instrucciones del usuario, crear sitios web, analizar datos e incluso redactar artículos académicos, mostrando una capacidad de investigación de nivel PhD
- Aunque todavía existen errores, estos se parecen más a diferencias de criterio o comprensión, lo que lo acerca a la forma de un “compañero de equipo de IA” que colabora con humanos
- El texto enfatiza que estamos pasando “de la era de los chatbots a la era de los colegas digitales”, y que los humanos ya no son quienes corrigen los errores de la IA, sino gestores que dirigen su trabajo
La llegada de Gemini 3 y los cambios de estos tres años
- Google Gemini 3, aparecido unos tres años después del lanzamiento de ChatGPT, es un ejemplo de la velocidad del avance de la IA
- En la época de GPT-3.5 en 2022, apenas podía generar párrafos o poemas
- En 2025, Gemini 3 ha avanzado hasta el punto de programar y diseñar directamente juegos interactivos
- Gemini 3 generó un juego realmente jugable llamado “Candy-Powered FTL Starship Simulator” según la solicitud del usuario
- Esto muestra la evolución desde una etapa en la que la IA solo describía texto, hacia otra en la que implementa directamente código e interfaces
Antigravity y la IA tipo agente
- Google presentó junto con Gemini 3 una herramienta para desarrolladores llamada Antigravity
- Se trata de un sistema similar a Claude Code u OpenAI Codex, que accede a la computadora del usuario para escribir código de manera autónoma
- Antigravity introduce el concepto de Inbox, mediante el cual la IA envía notificaciones al usuario cuando necesita aprobación o ayuda durante una tarea
- El usuario da instrucciones en inglés y la IA las ejecuta en código
- Como ejemplo, analizó archivos del boletín del autor y generó automáticamente un sitio web que organiza predicciones relacionadas con IA
- La IA realizó búsquedas web, ejecutó código, probó en el navegador y empaquetó el resultado para poder desplegarlo en Netlify
Gemini 3 como IA colaborativa
- Gemini 3 comparte su progreso de forma transparente durante el trabajo mediante solicitudes de aprobación al usuario
- El usuario revisa y corrige las propuestas de la IA mientras colabora con ella
- Esta experiencia se parece más a “gestionar una IA”
- La IA no es perfecta, pero sus errores están más cerca de diferencias de criterio o malentendidos en la interpretación de la intención, y casi no presenta los problemas tradicionales de alucinación (hallucination)
- La colaboración con Gemini 3 se compara con “gestionar a un compañero de equipo”, subrayando una interacción que va mucho más allá de simplemente escribir prompts
Capacidad de investigación y evaluación de “nivel PhD”
- Gemini 3 llevó a cabo tareas de análisis de datasets de investigación y redacción académica
- Recuperó y ordenó archivos antiguos de datos de crowdfunding y realizó nuevos análisis
- Redactó un artículo de 14 páginas sobre el tema de emprendimiento y estrategia de negocios
- La IA formuló hipótesis propias, realizó análisis estadísticos y generó métricas propias (medición de originalidad de ideas)
- El resultado mostró un nivel comparable al de un estudiante de posgrado, aunque con carencias en algunas técnicas estadísticas y en el desarrollo teórico
- Con instrucciones adicionales, la calidad mejoró de forma importante
- El autor evaluó que la “inteligencia de nivel PhD no está lejos”
La transición hacia colegas digitales
- Gemini 3 es una IA socia que piensa y ejecuta, accesible para miles de millones de personas en todo el mundo
- No hay señales de desaceleración en el avance de la IA, mientras cobran relevancia el auge de los modelos tipo agente y la importancia de la capacidad de gestionar IA
- El autor describe esto como una “transición de la era de los chatbots a la era de los colegas digitales”
- Ahora los humanos ya no son quienes corrigen los errores de la IA, sino gestores que dirigen su trabajo
- Por último, Gemini 3 también demostró capacidades creativas más allá del texto, como generar una imagen de portada para un blog solo con código
- Aun así, dar a la IA acceso a una computadora implica riesgos de seguridad, por lo que se requiere precaución
1 comentarios
Opiniones de Hacker News
Cada vez que veo este tipo de artículos, siento que siempre falta una parte: la pregunta de “¿es bueno?, ¿es preciso?”
edgeDetect(image), y según el modelo, a veces lo resolvía y a veces noEs interesante que, hasta ahora, la forma de interactuar con la IA haya estado centrada sobre todo en una caja de texto
El problema de las “alucinaciones (hallucination)” sigue existiendo
Sobre la pregunta de si “¿tiene inteligencia de nivel PhD?”, como estudiante de posgrado siento algo parecido
El avance de Google no se está dando solo en software, sino también en hardware
Gemini 3 es impresionante, pero todavía da la impresión de quedarse dentro de los límites de la literatura existente
GPT-3 se lanzó en junio de 2020, y ChatGPT era la versión 3.5
Hace tiempo que se escucha la idea de que el “Human in the loop” está evolucionando de un humano que corrige los errores de la IA a un humano que dirige a la IA
Me pregunto si es seguro ejecutar herramientas como Claude Code o Antigrav directamente en un sistema local