Google ha annunciato il rilascio di un nuovo modello sperimentale di incorporamento del testo, Gemini Embedding (gemini-embedding-exp-03-07), attraverso l’API Gemini. Il modello migliora le capacità di elaborazione del linguaggio naturale, superando il precedente standard di Google e ottenendo il primo posto nel benchmark multilingue MTEB.
Google ha introdotto il modello Gemini Embedding , progettato per offrire una maggiore comprensione del linguaggio naturale e migliorare le prestazioni nei campi della ricerca, classificazione e generazione aumentata dal recupero (RAG). Addestrato sulla stessa architettura di Gemini 2.0 , il modello si distingue per una maggiore accuratezza e flessibilità, risultando più efficace nei settori della finanza, scienza e diritto.
Secondo il benchmark Massive Text Embedding Benchmark (MTEB) , Gemini Embedding ha ottenuto un punteggio medio di 68,32 , superando di 5,81 punti il miglior concorrente. Questo risultato conferma il suo primato nella comprensione semantica dei testi in più lingue.
Principali vantaggi del modello Gemini Embedding
- Maggiore capacità di token : fino a 8.000 token in input, consentendo l’elaborazione di documenti di grandi dimensioni.
- Output di alta dimensionalità : supporta fino a 3.000 dimensioni , migliorando la precisione dei risultati.
- Tecnologia MRL (Matryoshka Representation Learning) : permette di ridurre le dimensioni degli incorporamenti per ottimizzare costi e archiviazione.
- Ampio supporto linguistico : ora compatibile con oltre 100 lingue , raddoppiando la copertura dei modelli precedenti.
Gli sviluppatori possono accedere a Gemini Embedding tramite l’ API Gemini , utilizzando l’endpoint embed_content
. Google ha dichiarato che, pur essendo in fase sperimentale, il modello verrà migliorato nei prossimi mesi prima del rilascio ufficiale.
Fonti
- Blog di Google AI: blog.google