Google DeepMind ha annunciato il rilascio di Gemma 2, una famiglia di modelli AI all’avanguardia, disponibili per ricercatori e sviluppatori di tutto il mondo. Gemma 2, che arriva in due varianti da 9 miliardi (9B) e 27 miliardi (27B) di parametri, promette prestazioni eccezionali e un’efficienza senza precedenti nell’inferenza.
La nuova architettura di Gemma 2 è stata progettata per offrire prestazioni superiori rispetto ai modelli della stessa classe. In particolare, il modello da 27B è in grado di competere con modelli di dimensioni doppie, offrendo risultati che fino a pochi mesi fa erano possibili solo con modelli proprietari. Inoltre, Gemma 2 può essere eseguito su un singolo NVIDIA H100 Tensor Core GPU o TPU host, riducendo significativamente i costi di implementazione.
Il vicepresidente della ricerca di Google DeepMind, Clement Farabet, ha dichiarato che Gemma 2 è stato costruito su una nuova architettura che combina performance straordinarie con efficienza nell’inferenza. Tris Warkentin, direttore di Google DeepMind, ha aggiunto che Gemma 2 è ottimizzato per funzionare a velocità incredibili su una gamma di hardware, dai laptop da gaming ai setup cloud-based.
Gemma 2 è anche progettato per integrarsi facilmente nei flussi di lavoro degli sviluppatori, con compatibilità con i principali framework AI come Hugging Face Transformers, JAX, PyTorch e TensorFlow. Gli sviluppatori possono utilizzare Gemma 2 per una vasta gamma di compiti di intelligenza artificiale, grazie anche alle integrazioni con partner come Hugging Face, NVIDIA e Ollama.
Per facilitare l’adozione di Gemma 2, Google DeepMind ha reso disponibile un cookbook con esempi pratici e ricette per aiutare i ricercatori e gli sviluppatori a costruire e personalizzare le proprie applicazioni. Inoltre, Gemma 2 è accessibile gratuitamente su Kaggle e tramite una fascia gratuita per i notebook Colab, con ulteriori crediti disponibili per i nuovi clienti Google Cloud.