Google presenta Gemma 4: un nuevo estándar para los modelos abiertos ligeros, ahora también en smartphones
(blog.google)Google presenta Gemma 4: un nuevo estándar para los modelos abiertos ligeros
Google presentó su nueva serie de modelos abiertos, Gemma 4. Esta versión mantiene la filosofía de la línea Gemma existente, pero se caracteriza por estar diseñada con el objetivo de ofrecer mayor rendimiento y funcionar en una variedad más amplia de entornos de ejecución. En particular, su punto clave es que está optimizada para poder ejecutarse en un amplio rango de entornos, desde centros de datos hasta smartphones.
⸻
🧠 ¿Qué es Gemma?
Gemma es una familia de modelos abiertos ligeros (SLM, Small Language Model) creada por Google DeepMind y basada en la tecnología de los modelos Gemini.
Es decir, tiene el siguiente posicionamiento:
• Gemini = modelo grande centrado en la nube
• Gemma = modelo centrado en entornos locales y ligeros
⸻
🚀 Cambios clave en Gemma 4
- Enfoque en el “mejor rendimiento por byte”
Gemma 4 fue diseñado con el objetivo de ofrecer mayor rendimiento para un mismo tamaño de modelo.
Se distingue especialmente por estar optimizado para razonamiento (Reasoning) y flujos de trabajo con agentes.
→ No es solo un modelo para generar texto
→ También considera tareas de automatización basadas en agentes
⸻
- Puede ejecutarse en diversos entornos
El mayor cambio de esta versión es su alcance de ejecución.
• Centro de datos (servidores de alto rendimiento)
• Entorno de desarrollo personal
• Smartphones / dispositivos edge
Cubre todos esos escenarios.
Es decir:
“nube → local → móvil”
una dirección que prácticamente derriba las fronteras de los entornos de ejecución de IA
⸻
- Estrategia de modelo abierto amigable para desarrolladores
Gemma fue diseñado desde el inicio como un modelo abierto centrado en desarrolladores.
• Disponible para uso mediante descarga
• Permite personalización y fine-tuning
• Formación de un ecosistema diverso de modelos derivados
De hecho, Gemma ya había construido un ecosistema con:
• más de 400 millones de descargas
• más de 100 mil modelos derivados
⸻
- Diseño orientado a la “era de los agentes”
Gemma 4 no apunta a ser solo un LLM, sino que busca habilitar lo siguiente:
• ejecución automatizada de código
• procesamiento de tareas basado en llamadas a funciones
• razonamiento de múltiples pasos
Es decir,
un modelo alineado con la transición de LLM → Agent
⸻
📱 ¿Por qué es importante?
El significado de Gemma 4 no se limita a una simple actualización del modelo.
- Está cambiando el lugar donde se ejecuta la IA
• Antes: centrada en la nube
• Ahora: expansión hacia lo local + móvil
→ un gran cambio en costo, privacidad y velocidad
⸻
- Se intensifica la competencia “modelo abierto vs. modelo cerrado”
• OpenAI, Anthropic → centrados en API en la nube
• Google Gemma → modelo abierto ejecutable localmente
→ una situación en la que las opciones para desarrolladores se están bifurcando claramente
⸻
- Un punto de inflexión importante para desarrolladores individuales
Ahora es posible:
• ejecutar apps de IA sin servidor
• hacerlas funcionar en una PC personal / Mac mini / smartphone
• implementar automatización basada en agentes
→ se acelera la era del desarrollo individual + automatización con IA
⸻
🧩 Resumen
Gemma 4 no es solo una actualización de modelo,
sino un modelo que propone una dirección sobre “dónde se ejecutará la IA”.
• Ligereza + alto rendimiento
• Ejecución local posible
• Diseño amigable para Agent
• Expansión del ecosistema abierto
En definitiva, Gemma 4 puede verse como un eje clave en la transición de:
“la era de la IA en la nube → la era de la ejecución personal de IA”
1 comentarios
En los benchmarks multilingües,
gemma-4-31b-itparece rendir mejor que Qwen3.5 27B, y además su licencia es Apache 2.0, así que ojalá se convierta en una alternativa al modelo Qwen, que algunos clientes rechazan por temas relacionados con el país de origen.