Google rilascia Gemma 4: l’AI avanzata disponibile su PC e smartphone anche offline

Google lancia Gemma 4, la nuova generazione di modelli open, in grado di migliorare la sua efficienza. Tra le principali novità c'è l'utilizzo dell'AI anche in modalità offline, sia sul computer che sullo smartphone.

Giorgia Fazio
Ad image

Google DeepMind ha annunciato Gemma 4, la nuova generazione di modelli open, che si fonda sulla stessa base tecnologica dei modelli Gemini. L’intento è svolgere varie attività, includendo dai dispostivi mobili fino alle workstation.

Tra gli obiettivi dei nuovi modelli c’è quello di migliorare la loro efficienza e la loro possibilità di esecuzione locale. A riportare tali informazioni è HDblog, che sottolinea come questa nuova versione arrivi dopo il successo di Gemma 3, che ha collezionato milioni di download.

Vediamo, quindi, in che modo questi nuovi modelli Google sembrano essere rivoluzionari nel mondo tecnologico, con la caratteristica principale di funzioni utilizzabili anche in modalità offline.

Google lancia Gemma 4, cos’è?

È in arrivo Gemma 4, la nuova generazione di modelli open di Google, che punta all’efficienza e alla possibilità di esecuzione locale. Dopo il successo della versione precedente che, come fa sapere HDblog, ha ottenuto oltre 400 milioni di download e più di 100.000 varianti sviluppate dalla community, il colosso si avvia verso un ulteriore passo avanti.

Nello specifico, il rilascio di Gemma 4 avviene sotto la licenza Apache 2.0, che ne consente l’utilizzo anche in ambito commerciale. I modelli sono composti, poi, da quattro varianti quali Effective 2B (E2B), Effective 4B (E4B), 26B Mixture of Experts e 31B Dense. La struttura, quindi, presenta un approccio modulare, con modelli in grado di adattarsi a diversi livelli di hardware.

In particolare, il 31B Dense rientra tra i modelli open più performanti secondo la classifica Arena AI, mentre il 26B utilizza un’architettura Mixture of Experts, che attiva solo una parte dei parametri durante l’inferenza, riflettendosi su latenza e velocità di generazione. I modelli più compatti, E2B ed E4B, invece, sono progettati per l’edge computing.

Questi ultimi attivano rispettivamente 2 e 4 miliardi di parametri durante l’uso, così da contenere consumi e memoria occupata. Inoltre, tutti i vari modelli possono funzionare in modalità offline su smartphone, Raspberry Pi e dispositivi embedded, con tempi di risposta molto ridotti.

Leggi anche: Google lancia Gemini Enterprise per mobile: ora le aziende creano agenti AI personalizzati

Come funziona il nuovo modello Google?

Gemma 4 Google

Per quanto riguarda le funzioni di Gemma 4, i nuovi modelli sono stati pensati per gestire ragionamenti multi-step, pianificare sequenze di azioni e operare all’interno di flussi di lavoro strutturati. Grazie al supporto nativo al function calling, agli output in formato JSON e alle istruzioni di sistema si possono creare agenti in grado di interagire con API, strumenti esterni e servizi software, eseguendo task in modo coerente e ripetibile.

I nuovi modelli Google, poi, sono capaci di generare un codice, utilizzabile anche offline. Dunque, Gemma 4 trasforma una workstation o un laptop in un assistente di sviluppo locale, senza bisogno di connettersi a servizi cloud. Tutti i modelli, inoltre, possono elaborare immagini e video, con supporto a diverse risoluzioni e applicazioni, quali OCR e interpretazione di grafici.

I modelli E2B ed E4B presentano la funzione aggiuntiva di gestire l’audio in input, permettendo il riconoscimento e la comprensione del parlato direttamente sul dispositivo. In aggiunta, i modelli edge possono gestire fino a 128K token, mentre quelli più grandi fino a 256K. In questo modo è possibile lavorare su documenti lunghi, basi di codice o interi repository in una singola richiesta, senza dover suddividere l’input.

A rendere il tutto più fruibile, in contesti internazionali, è il supporto a oltre 140 lingue. Gemma 4, quindi, è disponibile su piattaforme come Hugging Face, Kaggle e Ollama. I modelli possono essere eseguiti in locale oppure distribuiti su infrastrutture cloud tramite Google Cloud, con opzioni che includono TPU, ambienti containerizzati e configurazioni adatte anche a carichi regolamentati.

Leggi anche: Gemini 3 è ora disponibile: quali sono le novità principali del modello AI di Google?

Condividi
Ad image