- Gemini 3 Pro es el modelo de razonamiento multimodal de próxima generación de Google, con una arquitectura de alto rendimiento capaz de procesar entradas diversas como texto, imágenes, audio, video y código
- Usa una arquitectura Transformer basada en Sparse Mixture-of-Experts (MoE) para mejorar al mismo tiempo la eficiencia y el rendimiento
- Los datos de entrenamiento incluyen documentos web, código, imágenes, audio, video, datos de usuarios y datos sintéticos, y pasan por procesos de filtrado de seguridad y eliminación de duplicados
- El modelo fue entrenado con TPU y JAX·ML Pathways, y se ofrece a través de varios canales como Google Cloud, Vertex AI y Gemini API
- Superó las evaluaciones de seguridad y la validación del Frontier Safety Framework, y logró mejoras en razonamiento, seguridad y tono frente a Gemini 2.5 Pro
Descripción general del modelo
- Gemini 3 Pro es la generación más reciente de la serie Gemini y el modelo insignia de Google para razonamiento avanzado y comprensión multimodal
- Puede comprender diversas fuentes de información como texto, audio, imágenes, video y repositorios de código
- Admite entradas de hasta 1 millón de tokens y salidas de hasta 64K tokens
- Adopta una estructura Sparse Mixture-of-Experts (MoE), activando solo algunos parámetros expertos por token de entrada para mejorar la eficiencia computacional
- Presenta una arquitectura con mejoras tanto en rendimiento como en eficiencia respecto a la generación anterior
Datos de entrenamiento
- Los datos de preentrenamiento incluyen múltiples dominios como documentos web públicos, código, imágenes, audio y video
- Los datos de postentrenamiento están compuestos por pares instrucción-respuesta validados, preferencias humanas y datos de uso de herramientas
- Fuentes de datos
- Conjuntos de datos públicos, datos obtenidos por rastreo y datos con licencias comerciales
- Datos de usuarios de servicios de Google (recopilados conforme a los términos, políticas y controles del usuario)
- Incluyen datos generados internamente por Google y datos sintéticos de IA
- Proceso de preprocesamiento
- Se realiza eliminación de duplicados, cumplimiento de robots.txt, filtrado de seguridad y filtrado de calidad
- Se eliminan contenidos dañinos como material sexual explícito, violencia y material de explotación sexual infantil (CSAM)
Implementación y sostenibilidad
- Hardware: uso de TPU de Google
- Mejora la velocidad de entrenamiento mediante procesamiento de cómputo a gran escala y memoria de alto ancho de banda
- Asegura escalabilidad y eficiencia mediante entrenamiento distribuido con TPU Pod
- Está alineado con los objetivos de sostenibilidad de Google
- Software: entrenamiento basado en JAX y ML Pathways
Canales de despliegue
- Gemini 3 Pro está disponible a través de las siguientes plataformas
- Gemini App, Google Cloud / Vertex AI, Google AI Studio, Gemini API, Google AI Mode, Google Antigravity
- Se ofrece en forma de API y no requiere hardware ni software adicional
- Su uso está sujeto a los Términos del servicio y cláusulas adicionales de cada plataforma
Evaluación y rendimiento
- Alcance de la evaluación: razonamiento, capacidades multimodales, uso de herramientas, rendimiento multilingüe y manejo de contexto largo
- Resultado: Gemini 3 Pro muestra una mejora general de rendimiento frente a Gemini 2.5 Pro
- En particular, hay grandes mejoras en capacidad de razonamiento y procesamiento multimodal
- Los resultados detallados de benchmarks pueden consultarse en deepmind.com/models/evals/gemini-3-pro
Propósito de uso y limitaciones
- Áreas principales de uso:
- Resolución de problemas complejos, trabajo creativo, planeación estratégica y mejora paso a paso
- Rendimiento tipo agente, codificación avanzada, comprensión de contexto largo y desarrollo de algoritmos, entre otros
- Limitaciones:
- Existen limitaciones típicas de los modelos grandes en general (por ejemplo, alucinaciones)
- Pueden ocurrir demoras o timeouts de forma ocasional
- Corte de conocimiento: enero de 2025
- Usos no permitidos:
- Actos ilegales o peligrosos, violaciones de seguridad, contenido sexual, violento o de odio, generación de desinformación, etc.
- Se aplica la política de usos prohibidos de IA generativa de Google
Ética y seguridad de contenido
- Proceso de desarrollo: se realizaron evaluaciones y pruebas de red team en colaboración con equipos internos de seguridad, protección y responsabilidad
- Tipos de evaluación
- Monitoreo continuo mediante evaluaciones automáticas y humanas
- Human Red Teaming por equipos externos especializados
- Revisión de seguridad a gran escala mediante Red Teaming automatizado
- Revisión de ética y seguridad antes del lanzamiento
- Políticas de seguridad:
- Bloqueo de contenido relacionado con explotación y abuso sexual infantil
- Bloqueo de discurso de odio
- Bloqueo de contenido que promueva el suicidio o conductas peligrosas
- Bloqueo de acoso e incitación a la violencia
- Bloqueo de contenido sexualmente explícito
- Bloqueo de consejos médicos contrarios al consenso científico
Resultados de la evaluación de seguridad
- Resultados de evaluación automática (vs Gemini 2.5 Pro)
- Text-to-Text Safety: -10.4%
- Multilingual Safety: +0.2% (cambio no significativo)
- Image-to-Text Safety: +3.1% (cambio no significativo)
- Tone: +7.9%
- Unjustified Refusals: +3.7% (cambio no significativo)
- Interpretación: en general hubo mejoras en tono y seguridad, y una reducción en la tasa de rechazos incorrectos
- Resultados de Human Red Teaming:
- Cumple con los estándares de seguridad infantil y muestra un rendimiento de seguridad equivalente o mejorado frente a Gemini 2.5 Pro
- Incluso en pruebas ampliadas más allá de las áreas de política, no se detectaron problemas graves
Riesgos y mitigación
- Riesgos principales:
- Vulnerabilidad a jailbreak (mejorada, pero no resuelta por completo)
- Posible degradación de calidad en conversaciones de múltiples turnos
- Medidas de mitigación:
- Filtrado de datos, preentrenamiento condicionado, ajuste fino supervisado y aprendizaje por refuerzo basado en retroalimentación humana y de críticos
- Aplicación de políticas de seguridad y filtrado a nivel de producto
Evaluación de Frontier Safety
- Verificado según el Google DeepMind Frontier Safety Framework (septiembre de 2025)
- Resultado: no alcanza ningún Critical Capability Level (CCL)
- CBRN: no es suficiente para aumentar la capacidad de actores de amenaza
- Ciberseguridad: resuelve algunas tareas (11/12), pero no resuelve tareas de alta dificultad (0/13)
- Manipulación dañina: no hay un aumento significativo frente al modelo anterior
- I+D en aprendizaje automático: mejora frente a Gemini 2.5, pero no alcanza el umbral de alerta
- Riesgo de falsos positivos, juicios erróneos y manipulación: se mantiene en un nivel bajo
- Conclusión: queda por debajo del umbral de riesgo del estándar Frontier Safety y se considera seguro
Resumen general
- Gemini 3 Pro es el modelo multimodal de mayor rendimiento de Google, con mejoras en razonamiento, seguridad y eficiencia
- El entrenamiento basado en TPU y la estructura MoE optimizan el procesamiento de datos a gran escala
- Se reforzó el sistema de validación ética y de seguridad, y cumple con el estándar del Frontier Safety Framework
- Muestra mejoras generales frente a Gemini 2.5 Pro y se evalúa como un modelo de IA seguro y escalable para entornos de uso real
1 comentarios
Comentario en Hacker News
Cerró agradeciendo que lo hubieran ordenado