Google lanza Gemma 4 para llevar modelos abiertos más eficientes a móviles, portátiles y hardware local sin renunciar del todo a la ambición
por Edgar OteroGoogle DeepMind ha presentado Gemma 4, una nueva familia de modelos abiertos que llega con un mensaje bastante claro: ofrecer más inteligencia por parámetro y hacer que esa capacidad sea utilizable en hardware mucho más accesible. La compañía lanza cuatro variantes, desde tamaños pensados para ejecución en local y dispositivos edge hasta modelos mayores para estaciones de trabajo y aceleradores, todo ello bajo licencia Apache 2.0. Sobre el papel, es una de las señales más claras de que Google quiere jugar en serio también en el terreno del modelo abierto, aunque siga reservando su tecnología más puntera para Gemini.
La propuesta combina dos lecturas que no se excluyen entre sí. Por un lado, Gemma 4 es una buena noticia para el ecosistema abierto porque Google no se limita a publicar un modelo menor o experimental, sino una familia con razonamiento avanzado, soporte multimodal, ventanas de contexto largas, función de agentes y ejecución en entornos muy diversos. Por otro, también deja claro que la compañía sigue entendiendo estos modelos como complemento de Gemini, no como sustituto. Es una apertura útil y estratégica, pero no un gesto de renuncia a su capa más cerrada y comercial.
Eso no le quita interés. De hecho, el anuncio llega en un momento en el que el mercado de modelos abiertos se está volviendo mucho más competitivo. Como vimos cuando Mistral presentó Small 4, el foco ya no está solo en quién tiene más parámetros, sino en quién logra combinar razonamiento, programación, multimodalidad y menor coste de despliegue. Ahí es exactamente donde Google quiere colocar a Gemma 4.
Más inteligencia con menos hardware, una obsesión cada vez más clara en Google
La parte más importante del anuncio está en la eficiencia. Google insiste en que Gemma 4 ofrece más capacidad por parámetro y en que puede ejecutarse y ajustarse con mucha menos infraestructura que otros modelos comparables. Los tamaños pequeños, E2B y E4B, están diseñados para preservar memoria y batería y apuntan directamente a teléfonos, Raspberry Pi o dispositivos edge. Los modelos mayores, 26B MoE y 31B Dense, quieren ofrecer razonamiento más serio en hardware todavía relativamente accesible, incluso con versiones cuantizadas para GPUs de consumo.

Eso encaja perfectamente con la dirección que Google viene marcando desde hace semanas. Cuando presentó TurboQuant para comprimir la memoria de la IA hasta seis veces, la idea de fondo era la misma. En pocas palabras, se trata de que la inteligencia artificial no solo tiene que ser capaz, también debe ser viable en coste, consumo y latencia. Gemma 4 traslada esa lógica al modelo abierto. No se trata solo de abrir pesos, sino de hacer que esos pesos sirvan en escenarios reales donde no tiene sentido depender siempre de la nube.
Y ahí aparece la lectura más interesante de producto. Google quiere que la IA local gane peso en el móvil y en dispositivos cotidianos para tareas donde la latencia, la privacidad o el coste importan más que la potencia bruta. No hace falta llamar a un gran modelo en la nube para crear una tarea en el calendario, resumir algo breve, controlar un dispositivo doméstico o resolver una consulta simple en un teléfono. Gemma 4 parece diseñada precisamente para empujar esa capa de inteligencia práctica, local y de baja fricción.
Google abre más, pero sigue marcando una frontera clara con Gemini
En términos técnicos, Gemma 4 llega bien armada: razonamiento paso a paso, soporte nativo para JSON estructurado y function calling, generación de código, contexto de hasta 256K en los modelos grandes, más de 140 idiomas y capacidades multimodales que incluyen imagen y, en los tamaños pequeños, audio. Es una familia bastante completa para ser abierta, y además con soporte desde el primer día en herramientas como Hugging Face, Ollama, vLLM o llama.cpp.
Sin embargo, también conviene leer el anuncio con algo de realismo. Google habla de Gemma 4 como familia abierta de referencia, pero al mismo tiempo la presenta como complemento de Gemini. Eso significa que la compañía sigue manteniendo una jerarquía bastante clara. Sí, está abriendo sus modelos mucho más que antes, pero no está regalando su mejor tecnología de frontera. La apertura existe, pero tiene límites estratégicos evidentes.
Aun así, el movimiento es positivo. Gemma 4 mejora la posición de Google en el mercado abierto, refuerza su apuesta por la eficiencia y ayuda a construir una base local para Android, Pixel y otros dispositivos donde la IA necesita ser ligera, rápida y autónoma. No reemplaza a Gemini ni pretende hacerlo. Pero sí demuestra que Google quiere participar también en el futuro abierto de la IA. Y quiere hacerlo buscando la eficiencia, la reducción del coste y la viabilidad de la ejecución local en cada vez más dispositivos.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!



