La publicación Google Jumps Back Into the Open Source AI Race With Gemma 4 apareció en BitcoinEthereumNews.com. En resumen, Google lanzó Gemma 4, una familia de modelos abiertosLa publicación Google Jumps Back Into the Open Source AI Race With Gemma 4 apareció en BitcoinEthereumNews.com. En resumen, Google lanzó Gemma 4, una familia de modelos abiertos

Google vuelve a la carrera de IA de código abierto con Gemma 4

2026/04/03 03:49
Lectura de 5 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

En resumen

  • Google lanzó Gemma 4, una familia de modelos abiertos bajo la licencia Apache 2.0.
  • La alineación de cuatro modelos abarca desde teléfonos hasta centros de datos, con el modelo 31B ya clasificado como #3 a nivel mundial.
  • La IA de código abierto de EE.UU. recibe un impulso necesario, ya que Gemma 4, respaldado por DeepMind, se posiciona como el contendiente estadounidense más fuerte contra DeepSeek, Qwen y otros líderes chinos.

Las ambiciones de Google en IA abierta se volvieron mucho más serias hoy. La compañía lanzó Gemma 4, una familia de cuatro modelos de peso abierto construidos sobre la misma investigación que Gemini 3, y licenciados bajo Apache 2.0, una desviación significativa de los términos más restrictivos de las versiones anteriores de Gemma.

Los desarrolladores han descargado generaciones pasadas de Gemma más de 400 millones de veces, generando más de 100,000 variantes comunitarias. Este lanzamiento es el más ambicioso hasta ahora.

Durante el último año, la clasificación de IA de código abierto ha sido en gran medida un asunto chino. DeepSeek, Minimax, GLM y Qwen han dominado los primeros puestos, dejando a las alternativas estadounidenses luchando por relevancia. Como informó Decrypt el año pasado, los modelos abiertos chinos pasaron de apenas 1.2% del uso global de modelos abiertos a finales de 2024 a aproximadamente 30% a finales de 2025, con Qwen de Alibaba incluso superando a Llama de Meta como el modelo auto-hospedado más utilizado en todo el mundo.

Llama de Meta solía ser la opción predeterminada para desarrolladores que querían un modelo capaz y ejecutable localmente. Esa reputación se ha erosionado: la licencia controlada por Meta de Llama planteó preguntas sobre su verdadero estado de código abierto, y su rendimiento se quedó atrás de la competencia china. La familia OLMo del Allen Institute intentó llenar el vacío pero no logró obtener tracción significativa. OpenAI lanzó sus modelos gpt-oss en agosto de 2025, lo que dio al ecosistema un soplo de aire fresco, pero nunca fueron diseñados para ser competidores de frontera.

Y ayer, una startup estadounidense de 30 personas llamada Arcee AI lanzó Trinity, un modelo abierto de 400 mil millones de parámetros que presentó un argumento convincente de que la escena estadounidense no estaba completamente muerta. Gemma 4 sigue ese impulso, esta vez con todo el peso de Google DeepMind detrás, convirtiéndolo posiblemente en el mejor modelo estadounidense en la escena de IA de código abierto.

El modelo está "construido a partir de la misma investigación y tecnología de clase mundial que Gemini 3", dijo Google en su anuncio. Gemma 4 se envía en cuatro tamaños: Effective 2B y 4B para teléfonos y dispositivos edge, un modelo Mixture of Experts de 26B enfocado en velocidad, y un modelo Dense de 31B optimizado para calidad pura.

El 31B Dense actualmente ocupa el tercer lugar entre todos los modelos abiertos en la clasificación de texto de Arena AI. El 26B MoE se sitúa en sexto lugar. Google afirma que ambos superan a modelos 20 veces su tamaño, una afirmación que se sostiene, al menos frente a los números de Arena AI, donde los modelos chinos aún mantienen los dos primeros puestos.

Probamos Gemma 4. Es capaz, con algunas salvedades. El modelo aplica razonamiento incluso a tareas que no lo requieren, lo que puede hacer que las respuestas se sientan sobre-diseñadas para prompts simples. La escritura creativa es decente, funcional pero no inspirada, y probablemente mejora con orientación más específica e ingeniería de prompts.

Donde entregó más claramente fue en código. Al pedirle generar un juego, la salida no fue particularmente llamativa o elaborada, pero funcionó sin errores en el primer intento. No está mal para un modelo de 41 mil millones de parámetros. Esa confiabilidad zero-shot es posiblemente más valiosa que un resultado más bonito que necesita depuración.

Puedes probar el juego (básico, pero funcional) aquí.

Las cuatro variantes cubren el espectro completo de hardware. Los modelos E2B y E4B están construidos para teléfonos Android, Raspberry Pi y dispositivos edge, funcionando completamente offline con latencia casi cero, entrada de audio nativa y una ventana de contexto de 128K. Los modelos de 26B y 31B apuntan a estaciones de trabajo y despliegues en la nube, extendiendo el contexto a 256K y agregando llamadas de función nativas y salida JSON estructurada para construir agentes autónomos. Los cuatro modelos procesan imágenes y video de forma nativa. Los pesos de precisión completa de los modelos más grandes caben en una sola GPU NVIDIA H100 de 80GB; las versiones cuantizadas funcionan en hardware de consumo.

La licencia Apache 2.0 es el otro titular. Los lanzamientos anteriores de Gemma de Google usaban una licencia personalizada que creaba ambigüedad legal para productos comerciales. Apache 2.0 elimina esa fricción por completo: los desarrolladores pueden modificar, redistribuir y comercializar sin preocuparse de que Google cambie los términos más tarde. El cofundador de Hugging Face, Clement Delangue, lo elogió, diciendo que "La IA local está teniendo su momento", y es el futuro de la industria de la IA. El CEO de Google DeepMind, Demis Hassabis, fue más allá, llamando a Gemma 4 "los mejores modelos abiertos del mundo para sus respectivos tamaños".

Esa es una afirmación fuerte. Los sistemas propietarios de Anthropic, OpenAI y el propio Gemini de Google todavía lideran en los benchmarks más difíciles. ¿Pero para modelos de peso abierto que puedes ejecutar localmente, modificar libremente y desplegar en tu propia infraestructura? La competencia acaba de reducirse significativamente. Puedes probar Gemma 4 ahora en Google AI Studio (31B y 26B) o Google AI Edge Gallery (E2B y E4B). Los pesos del modelo también están disponibles en Hugging Face, Kaggle y Ollama.

Boletín Daily Debrief

Comienza cada día con las principales noticias del momento, además de funciones originales, un podcast, videos y más.

Fuente: https://decrypt.co/363178/google-gemma-4-open-source-ai

Oportunidad de mercado
Logo de 4
Precio de 4(4)
$0.011959
$0.011959$0.011959
-1.99%
USD
Gráfico de precios en vivo de 4 (4)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.

Opera GOLD, gana 1,000,000 USDT

Opera GOLD, gana 1,000,000 USDTOpera GOLD, gana 1,000,000 USDT

0 tarifas, 1,000x de apalancamiento y alta liquidez