Mistral AI ha annunciato il lancio di Mistral Small 3, un modello di linguaggio con 24 miliardi di parametri, progettato per offrire elevate prestazioni con una latenza minima. Distribuito sotto licenza Apache 2.0, Mistral Small 3 si propone come un’alternativa open source ai modelli proprietari esistenti.
Secondo i dati forniti dall’azienda, Mistral Small 3 raggiunge un’accuratezza dell’81% su benchmark standard come MMLU e una velocità di elaborazione di 150 token al secondo. Queste caratteristiche lo rendono competitivo con modelli di dimensioni maggiori, come Llama 3.3 70B e Qwen 32B, offrendo al contempo una maggiore efficienza computazionale.
Una delle principali innovazioni di Mistral Small 3 risiede nella sua architettura ottimizzata, che riduce il numero di strati rispetto ai modelli concorrenti, diminuendo significativamente il tempo di elaborazione per ciascun passaggio. Questa progettazione lo rende particolarmente adatto per applicazioni che richiedono risposte rapide, come assistenti virtuali e flussi di lavoro automatizzati.
Inoltre, Mistral Small 3 può essere eseguito localmente su hardware accessibile, come una singola GPU RTX 4090 o un MacBook con 32 GB di RAM, offrendo vantaggi significativi per sviluppatori e organizzazioni che gestiscono informazioni sensibili o proprietarie. La sua versatilità lo rende ideale per una vasta gamma di settori, tra cui servizi finanziari per il rilevamento delle frodi, assistenza sanitaria per il triage dei pazienti e aziende manifatturiere per il controllo dei dispositivi.
Con il rilascio di Mistral Small 3, Mistral AI rafforza il proprio impegno verso l’open source, offrendo alla comunità uno strumento potente e flessibile per lo sviluppo di applicazioni basate sull’intelligenza artificiale. L’azienda prevede ulteriori sviluppi nelle prossime settimane, con l’introduzione di modelli sia piccoli che grandi dotati di capacità di ragionamento potenziate.