- Gemini 3 Flash es el modelo de IA más reciente de Google, que ofrece inteligencia de nivel frontera con alta velocidad y bajo costo
- Mantiene la capacidad de razonamiento de Gemini 3 Pro mientras combina la latencia y eficiencia de la serie Flash, para impulsar tareas cotidianas y flujos de trabajo agénticos
- Supera a Gemini 2.5 Pro en benchmarks clave como GPQA Diamond 90.4%, Humanity’s Last Exam 33.7% y MMMU Pro 81.2%
- Los desarrolladores pueden acceder a él desde Google AI Studio, Gemini CLI, Antigravity y Vertex AI, mientras que los usuarios generales pueden usarlo gratis mediante la app de Gemini y el modo IA de Search
- Redefine el equilibrio entre velocidad, costo e inteligencia, posicionándose como un modelo escalable tanto para grandes volúmenes de usuarios como para entornos empresariales
Resumen de Gemini 3 Flash
- Gemini 3 Flash es una expansión de la familia de modelos Gemini 3, un modelo de nueva generación que maximiza velocidad y eficiencia
- Fue presentado después de Gemini 3 Pro y el modo Deep Think, y ya se están procesando más de 1 billón de tokens por día a través de la API
- Ya se reportan casos de uso en aprendizaje de temas complejos, diseño de juegos interactivos y comprensión de contenido multimodal
- Conserva las funciones avanzadas de razonamiento, comprensión visual y codificación agéntica de Gemini 3, al tiempo que combina la latencia y la eficiencia en costos del nivel Flash
- Fue diseñado como un modelo optimizado para mejorar la precisión en tareas cotidianas y para flujos de trabajo agénticos
Rendimiento y benchmarks
- Gemini 3 Flash demuestra que la velocidad y la escala no implican sacrificar inteligencia
- Con GPQA Diamond 90.4%, Humanity’s Last Exam 33.7% (sin uso de herramientas) y MMMU Pro 81.2%, muestra un rendimiento comparable al de modelos grandes
- También registra mejores resultados que Gemini 2.5 Pro en múltiples benchmarks
- Amplía la frontera de Pareto entre calidad, costo y velocidad
- En tareas complejas dedica más tiempo a pensar, pero en tráfico general mantiene alto rendimiento usando 30% menos tokens en promedio
- Según Artificial Analysis, procesa a una velocidad 3 veces mayor que 2.5 Pro, con un costo de $0.50 por 1 millón de tokens de entrada y $3.00 de salida
- La entrada de audio cuesta $1.00 por 1 millón de tokens
Funciones para desarrolladores
- Ofrece rendimiento de codificación de baja latencia adecuado para desarrollo iterativo y flujos de trabajo de alta frecuencia
- En el benchmark SWE-bench Verified obtuvo 78%, superando tanto a la serie 2.5 como a Gemini 3 Pro
- Destaca en tareas multimodales complejas como análisis de video, extracción de datos y preguntas y respuestas visuales
- Permite crear aplicaciones inteligentes para asistencia en juegos en tiempo real, pruebas A/B y automatización de diseño
- Empresas como JetBrains, Bridgewater Associates y Figma ya lo están adoptando, y se ofrece mediante Vertex AI y Gemini Enterprise
Funciones para usuarios generales
- Sustituye a 2.5 Flash como modelo predeterminado de la app de Gemini, disponible gratis para usuarios de todo el mundo
- Refuerza sus capacidades de razonamiento multimodal, como la generación de planes accionables a partir de análisis de video e imágenes
- Ejemplos: análisis de swing de golf, reconocimiento de dibujos y creación de quizzes personalizados basados en audio
- Permite crear prototipos de apps solo con comandos de voz, para que incluso personas no expertas puedan desarrollar apps rápidamente
- También se aplica como modelo predeterminado en el modo IA de Search
- Basado en la capacidad de razonamiento de Gemini 3 Pro, analiza con detalle el contexto de las preguntas y ofrece respuestas organizadas visualmente e información en tiempo real
- Destaca en el manejo de objetivos de varios pasos, como planes de viaje complejos o aprendizaje de conceptos educativos
Acceso y despliegue
- Para desarrolladores: disponible en vista previa a través de Google AI Studio, Gemini CLI, Antigravity, Vertex AI y Gemini Enterprise
- Para usuarios generales: despliegue global gradual en la app de Gemini y el modo IA de Google Search
- Gemini 3 Flash se expande como uno de los pilares principales de la familia Gemini 3, junto con Gemini 3 Pro y Deep Think
1 comentarios
Comentarios en Hacker News
No se dejen engañar por el nombre “Flash”. Este modelo realmente muestra un rendimiento sorprendente
Lo he usado durante varias semanas y, además de ser rápido, tiene un alcance de conocimiento muy amplio, así que es mucho más eficiente que Claude Opus 4.5 o GPT 5.2 Extra High. El tiempo de razonamiento y el costo son casi una décima parte
El tiempo de respuesta sigue igual, pero los resultados son mucho mejores. La relación precio-rendimiento es una locura
Me da curiosidad qué diferencia técnica hay entre los modelos Pro y Flash para que Google haya logrado este nivel de rendimiento
Como referencia, uso seguido la API de Gemini y cada vez que sale un modelo nuevo me gusta probarlo con benchmarks internos
Pero Gemini 3 Flash fue el primero en dar una respuesta casi correcta a una pregunta específica de benchmark que tengo
Todavía hay poca muestra, pero se nota claramente una mejora en la precisión
La estrategia de querer resolver todo con solo GPT 5 fracasó.
Ahora mismo estoy probando Gemini 3 Flash y tanto la latencia como el rendimiento salen mejor que en GPT 5 Thinking
OpenAI debería enfocarse en desarrollar modelos prácticos en vez de hacer publicidad
Los resultados detallados se pueden ver en la página de evaluación de Artificial Analysis
Está bueno que este lanzamiento pueda aplicarse directamente a producción sin pasar por preview
Pero los aumentos de precio siguen
Por ejemplo, Gemini 1.5 Flash pasó de $0.075/M de entrada a $0.50/M en 3.0 Flash
El modelo Pro anda por $2/M de entrada y $12/M de salida
Corrijo: este modelo también es una versión preview
En la mayoría de las tareas que no son de programación, la diferencia entre Flash y Flash Lite puede ser más importante que la diferencia con Pro
Pero la competencia está fuerte, así que pronto probablemente salgan modelos más baratos con rendimiento similar
Da la impresión de que Google de verdad logró el equilibrio entre velocidad, precio y calidad
Si además se considera la integración con Android y G Suite, la combinación es potentísima
Parece una estrategia para lanzar un smartphone AI-first antes que el proyecto de hardware de OpenAI–Jony Ive o Apple Intelligence
Por ejemplo, Gemini 3 Pro es lento y falla seguido incluso en llamadas simples a la herramienta
EditClaude-Code termina la misma tarea en 5 minutos, mientras que Gemini tarda 27
Más bien creo que una tablet o unos smart glasses son más adecuados para aprovechar la smol AI
Gemini 3 Flash (non-thinking) fue el primer modelo en sacar 50% en mi “prueba del número de patas del perrito”
Cuando le mostré una imagen sintética con 5 patas, la mayoría de los modelos respondió 4, pero 3 Flash acertó con 5
Solo contó correctamente cuando le agregué tatuajes a las patas; en la imagen sin tatuajes siguió respondiendo 4
Merece media puntuación
Los modelos Flash se están encareciendo, pero este 3.0 Flash tiene una relación costo-beneficio brutal
Logró 78% en benchmarks y superó tanto a la serie 2.5 como a 3 Pro
Es ideal para programación agentiva y apps interactivas en tiempo real
Para quienes usan 2.5 Flash, el upgrade puede doler un poco en costos, pero vale la pena
Si alguien quiere algo barato, ahí está Flash Lite, así que el equilibrio se mantiene
Es rápido, inteligente y también soporta 1M de contexto
Ojalá los modelos de pesos abiertos compitan en este espacio
Ya siento que con la combinación de Claude Code y Gemini llegamos a un nivel “suficientemente bueno”
Ahora es difícil que otra empresa me convenza.
Con este lanzamiento se llegó al punto en que se cruzan “lo suficientemente bueno y lo suficientemente barato”
Solo tengo que cambiar la selección del modelo en el CLI o en el plugin del IDE
La precisión era demasiado impredecible
Las empresas quieren inteligencia ilimitada, pero para una persona eso no hace tanta falta
Sacó 69% en el benchmark SimpleQA, que es una prueba de conocimiento extremadamente raro
Si consideras que Gemini 2.5 Pro había sacado 55%, es una puntuación enorme
Parece que Google aprovechó muy bien la compresión de conocimiento o una arquitectura MoE (mezcla de expertos)
No me queda clara la diferencia entre ‘Thinking’ y ‘Pro’ en Gemini 3
La explicación dice “resolución de problemas complejos” vs. “pensamiento prolongado para matemáticas avanzadas y código”
Probablemente la diferencia esté en el presupuesto de razonamiento (thinking budget)
thinking_levelGemini siempre hace razonamiento basado en consultas.
Si le agregas loops y contexto persistente, podría parecer AGI, pero el costo subiría
Google probablemente ya haya hecho experimentos así
Mi principal queja es la falta de función para borrar conversaciones
En cuentas de negocio no se pueden borrar conversaciones individuales; solo se puede configurar el período total de retención (mínimo 3 meses)
Como usuario de pago, siento que faltan funciones básicas para lo caro que se está poniendo
En una comparación rápida de precios según LLM Prices,
Gemini 3 Flash cuesta 1/4 frente a Pro ≤200k y 1/8 frente a Pro >200k
Impresiona que el precio no suba incluso después de 200k tokens
En entrada cuesta el doble que GPT-5 Mini y la mitad que Claude 4.5 Haiku