4 puntos por GN⁺ 2025-12-18 | 1 comentarios | Compartir por WhatsApp
  • Gemini 3 Flash es el modelo de IA más reciente de Google, que ofrece inteligencia de nivel frontera con alta velocidad y bajo costo
  • Mantiene la capacidad de razonamiento de Gemini 3 Pro mientras combina la latencia y eficiencia de la serie Flash, para impulsar tareas cotidianas y flujos de trabajo agénticos
  • Supera a Gemini 2.5 Pro en benchmarks clave como GPQA Diamond 90.4%, Humanity’s Last Exam 33.7% y MMMU Pro 81.2%
  • Los desarrolladores pueden acceder a él desde Google AI Studio, Gemini CLI, Antigravity y Vertex AI, mientras que los usuarios generales pueden usarlo gratis mediante la app de Gemini y el modo IA de Search
  • Redefine el equilibrio entre velocidad, costo e inteligencia, posicionándose como un modelo escalable tanto para grandes volúmenes de usuarios como para entornos empresariales

Resumen de Gemini 3 Flash

  • Gemini 3 Flash es una expansión de la familia de modelos Gemini 3, un modelo de nueva generación que maximiza velocidad y eficiencia
    • Fue presentado después de Gemini 3 Pro y el modo Deep Think, y ya se están procesando más de 1 billón de tokens por día a través de la API
    • Ya se reportan casos de uso en aprendizaje de temas complejos, diseño de juegos interactivos y comprensión de contenido multimodal
  • Conserva las funciones avanzadas de razonamiento, comprensión visual y codificación agéntica de Gemini 3, al tiempo que combina la latencia y la eficiencia en costos del nivel Flash
  • Fue diseñado como un modelo optimizado para mejorar la precisión en tareas cotidianas y para flujos de trabajo agénticos

Rendimiento y benchmarks

  • Gemini 3 Flash demuestra que la velocidad y la escala no implican sacrificar inteligencia
    • Con GPQA Diamond 90.4%, Humanity’s Last Exam 33.7% (sin uso de herramientas) y MMMU Pro 81.2%, muestra un rendimiento comparable al de modelos grandes
    • También registra mejores resultados que Gemini 2.5 Pro en múltiples benchmarks
  • Amplía la frontera de Pareto entre calidad, costo y velocidad
    • En tareas complejas dedica más tiempo a pensar, pero en tráfico general mantiene alto rendimiento usando 30% menos tokens en promedio
  • Según Artificial Analysis, procesa a una velocidad 3 veces mayor que 2.5 Pro, con un costo de $0.50 por 1 millón de tokens de entrada y $3.00 de salida
    • La entrada de audio cuesta $1.00 por 1 millón de tokens

Funciones para desarrolladores

  • Ofrece rendimiento de codificación de baja latencia adecuado para desarrollo iterativo y flujos de trabajo de alta frecuencia
    • En el benchmark SWE-bench Verified obtuvo 78%, superando tanto a la serie 2.5 como a Gemini 3 Pro
  • Destaca en tareas multimodales complejas como análisis de video, extracción de datos y preguntas y respuestas visuales
    • Permite crear aplicaciones inteligentes para asistencia en juegos en tiempo real, pruebas A/B y automatización de diseño
  • Empresas como JetBrains, Bridgewater Associates y Figma ya lo están adoptando, y se ofrece mediante Vertex AI y Gemini Enterprise

Funciones para usuarios generales

  • Sustituye a 2.5 Flash como modelo predeterminado de la app de Gemini, disponible gratis para usuarios de todo el mundo
    • Refuerza sus capacidades de razonamiento multimodal, como la generación de planes accionables a partir de análisis de video e imágenes
    • Ejemplos: análisis de swing de golf, reconocimiento de dibujos y creación de quizzes personalizados basados en audio
  • Permite crear prototipos de apps solo con comandos de voz, para que incluso personas no expertas puedan desarrollar apps rápidamente
  • También se aplica como modelo predeterminado en el modo IA de Search
    • Basado en la capacidad de razonamiento de Gemini 3 Pro, analiza con detalle el contexto de las preguntas y ofrece respuestas organizadas visualmente e información en tiempo real
    • Destaca en el manejo de objetivos de varios pasos, como planes de viaje complejos o aprendizaje de conceptos educativos

Acceso y despliegue

  • Para desarrolladores: disponible en vista previa a través de Google AI Studio, Gemini CLI, Antigravity, Vertex AI y Gemini Enterprise
  • Para usuarios generales: despliegue global gradual en la app de Gemini y el modo IA de Google Search
  • Gemini 3 Flash se expande como uno de los pilares principales de la familia Gemini 3, junto con Gemini 3 Pro y Deep Think

1 comentarios

 
GN⁺ 2025-12-18
Comentarios en Hacker News
  • No se dejen engañar por el nombre “Flash”. Este modelo realmente muestra un rendimiento sorprendente
    Lo he usado durante varias semanas y, además de ser rápido, tiene un alcance de conocimiento muy amplio, así que es mucho más eficiente que Claude Opus 4.5 o GPT 5.2 Extra High. El tiempo de razonamiento y el costo son casi una décima parte

    • Yo también corrí benchmarks y, entre 2.5 Flash, 2.5 Pro y 3.0 Flash, 3.0 Flash fue el mejor
      El tiempo de respuesta sigue igual, pero los resultados son mucho mejores. La relación precio-rendimiento es una locura
      Me da curiosidad qué diferencia técnica hay entre los modelos Pro y Flash para que Google haya logrado este nivel de rendimiento
      Como referencia, uso seguido la API de Gemini y cada vez que sale un modelo nuevo me gusta probarlo con benchmarks internos
    • Yo soy escéptico de la GenAI. Suelo probar con temas complejos o de nicho, y la mayoría de los modelos dan respuestas terribles
      Pero Gemini 3 Flash fue el primero en dar una respuesta casi correcta a una pregunta específica de benchmark que tengo
      Todavía hay poca muestra, pero se nota claramente una mejora en la precisión
    • Creo que fue un gran error que OpenAI descuidara los modelos de razonamiento rápido
      La estrategia de querer resolver todo con solo GPT 5 fracasó.
      Ahora mismo estoy probando Gemini 3 Flash y tanto la latencia como el rendimiento salen mejor que en GPT 5 Thinking
      OpenAI debería enfocarse en desarrollar modelos prácticos en vez de hacer publicidad
    • Si ves los benchmarks, Flash es débil en la parte de alucinación (hallucination), pero en general supera a Gemini 3 Pro y GPT 5.1 Thinking
      Los resultados detallados se pueden ver en la página de evaluación de Artificial Analysis
    • Puede llegar el momento en que las empresas que sobreinvirtieron en OpenAI se arrepientan. Nvidia quizá sea la excepción, pero a Microsoft probablemente le importe menos porque vende modelos a través de Azure
  • Está bueno que este lanzamiento pueda aplicarse directamente a producción sin pasar por preview
    Pero los aumentos de precio siguen
    Por ejemplo, Gemini 1.5 Flash pasó de $0.075/M de entrada a $0.50/M en 3.0 Flash
    El modelo Pro anda por $2/M de entrada y $12/M de salida
    Corrijo: este modelo también es una versión preview

    • A mí más bien me interesa ver el rendimiento y el precio cuando salga Gemini 3 Flash Lite
      En la mayoría de las tareas que no son de programación, la diferencia entre Flash y Flash Lite puede ser más importante que la diferencia con Pro
    • Gracias por resumir los precios. Como Gemini 3.0 tiene tan buen rendimiento, parece una política de precios con bastante confianza
      Pero la competencia está fuerte, así que pronto probablemente salgan modelos más baratos con rendimiento similar
    • Si activas el modo Thinking, el uso de tokens cambia, así que hay que tenerlo en cuenta al calcular el costo real
    • GPT-5 Mini cuesta $0.25/M de entrada y $2/M de salida, así que frente a Flash vale la mitad en entrada y 50% menos en salida
  • Da la impresión de que Google de verdad logró el equilibrio entre velocidad, precio y calidad
    Si además se considera la integración con Android y G Suite, la combinación es potentísima
    Parece una estrategia para lanzar un smartphone AI-first antes que el proyecto de hardware de OpenAI–Jony Ive o Apple Intelligence

    • Pero en uso real depende del caso.
      Por ejemplo, Gemini 3 Pro es lento y falla seguido incluso en llamadas simples a la herramienta Edit
      Claude-Code termina la misma tarea en 5 minutos, mientras que Gemini tarda 27
    • Según un artículo de MacRumors, Apple Intelligence estará basado en Gemini
    • Aun así, me pregunto para qué se usaría la IA en un smartphone.
      Más bien creo que una tablet o unos smart glasses son más adecuados para aprovechar la smol AI
  • Gemini 3 Flash (non-thinking) fue el primer modelo en sacar 50% en mi “prueba del número de patas del perrito
    Cuando le mostré una imagen sintética con 5 patas, la mayoría de los modelos respondió 4, pero 3 Flash acertó con 5
    Solo contó correctamente cuando le agregué tatuajes a las patas; en la imagen sin tatuajes siguió respondiendo 4
    Merece media puntuación

  • Los modelos Flash se están encareciendo, pero este 3.0 Flash tiene una relación costo-beneficio brutal
    Logró 78% en benchmarks y superó tanto a la serie 2.5 como a 3 Pro
    Es ideal para programación agentiva y apps interactivas en tiempo real

    • 3.0 Flash es más barato, más rápido y rinde mejor que 2.5 Pro
      Para quienes usan 2.5 Flash, el upgrade puede doler un poco en costos, pero vale la pena
    • Creo que es una buena dirección posicionar cada vez más a Flash como un modelo centrado en programación y razonamiento
      Si alguien quiere algo barato, ahí está Flash Lite, así que el equilibrio se mantiene
    • Nemotron 3 Nano de Nvidia podría ser una alternativa OSS similar
      Es rápido, inteligente y también soporta 1M de contexto
    • En los benchmarks de mi app, solo Gemini Flash y Grok 4 Fast valían la pena
      Ojalá los modelos de pesos abiertos compitan en este espacio
    • Según el benchmark de Epoch.ai, también supera al GPT 5.2 de OpenAI
  • Ya siento que con la combinación de Claude Code y Gemini llegamos a un nivel “suficientemente bueno”
    Ahora es difícil que otra empresa me convenza.
    Con este lanzamiento se llegó al punto en que se cruzan “lo suficientemente bueno y lo suficientemente barato

    • Yo casi no tengo costo de cambio, así que puedo cambiar de modelo fácilmente
      Solo tengo que cambiar la selección del modelo en el CLI o en el plugin del IDE
    • Los modelos recientes por fin están haciendo realidad la promesa de la programación agentiva
    • Los modelos anteriores se equivocaban muy seguido y al final solo me hacían perder tiempo
      La precisión era demasiado impredecible
    • Con Opus 4.5, los problemas de ingeniería de software ya están prácticamente “resueltos”
      Las empresas quieren inteligencia ilimitada, pero para una persona eso no hace tanta falta
  • Sacó 69% en el benchmark SimpleQA, que es una prueba de conocimiento extremadamente raro
    Si consideras que Gemini 2.5 Pro había sacado 55%, es una puntuación enorme
    Parece que Google aprovechó muy bien la compresión de conocimiento o una arquitectura MoE (mezcla de expertos)

    • También vale la pena revisar la evaluación Omniscience de Artificial Analysis
    • Gracias a una estructura MoE, quizá lograron usar muchísimos parámetros sobre TPU sin perder throughput
    • Este tipo de modelo también podría funcionar excelente en interfaces de voz. Quizá Apple también lo adopte
    • O tal vez esté razonando con llamadas a herramientas internas (por ejemplo, búsqueda de Google)
    • También podría ser una arquitectura que aumenta la cantidad de expertos y baja la proporción de activación para elevar la esparsidad (sparsity)
  • No me queda clara la diferencia entre ‘Thinking’ y ‘Pro’ en Gemini 3
    La explicación dice “resolución de problemas complejos” vs. “pensamiento prolongado para matemáticas avanzadas y código”
    Probablemente la diferencia esté en el presupuesto de razonamiento (thinking budget)

    • Parece una estructura de Fast = Flash (bajo presupuesto de razonamiento), Thinking = Flash (alto presupuesto de razonamiento), Pro = Pro (alto presupuesto de razonamiento)
    • En la práctica, parece controlarse con el parámetro thinking_level
    • Me pregunto en qué se diferencia el ‘Thinking’ de Gemini del AGI
      Gemini siempre hace razonamiento basado en consultas.
      Si le agregas loops y contexto persistente, podría parecer AGI, pero el costo subiría
      Google probablemente ya haya hecho experimentos así
  • Mi principal queja es la falta de función para borrar conversaciones
    En cuentas de negocio no se pueden borrar conversaciones individuales; solo se puede configurar el período total de retención (mínimo 3 meses)
    Como usuario de pago, siento que faltan funciones básicas para lo caro que se está poniendo

    • Si lo usas por API, puedes evitar este problema
    • Tanto en consumo como en empresas, el control de retención de datos es pésimo. Es el peor entre los principales competidores
  • En una comparación rápida de precios según LLM Prices,
    Gemini 3 Flash cuesta 1/4 frente a Pro ≤200k y 1/8 frente a Pro >200k
    Impresiona que el precio no suba incluso después de 200k tokens
    En entrada cuesta el doble que GPT-5 Mini y la mitad que Claude 4.5 Haiku