Mistral AI ha annunciato il lancio di Mistral Large 2, la nuova generazione del suo modello di punta. Rispetto al suo predecessore, Mistral Large 2 offre capacità significativamente migliorate nella generazione di codice, nelle competenze matematiche e nel ragionamento. Un altro punto di forza è il supporto multilingue ampliato e le avanzate capacità di chiamata di funzioni.
Mistral Large 2 continua a spingere i confini dell’efficienza dei costi, della velocità e delle prestazioni. Esso dispone di una finestra di contesto di 128k e supporta dozzine di lingue, tra cui francese, tedesco, spagnolo, italiano, portoghese, arabo, hindi, russo, cinese, giapponese e coreano, oltre a oltre 80 linguaggi di programmazione, tra cui Python, Java, C, C++, JavaScript e Bash. Con 123 miliardi di parametri, Mistral Large 2 è progettato per l’inferenza a nodo singolo, garantendo un alto throughput.
Il modello è rilasciato sotto la Mistral Research License per usi di ricerca e non commerciali. Per utilizzi commerciali che richiedono l’autodeploy, è necessaria una licenza commerciale. Nei test di valutazione, Mistral Large 2 ha raggiunto un’accuratezza dell’84.0% su MMLU, stabilendo un nuovo standard in termini di rapporto prestazioni/costo.
Uno degli obiettivi principali durante l’addestramento è stato migliorare le capacità di ragionamento e ridurre la tendenza del modello a generare informazioni errate o irrilevanti. Mistral Large 2 è stato addestrato per riconoscere quando non è in grado di trovare soluzioni o non ha informazioni sufficienti per fornire una risposta sicura.
L’attenzione alla diversità linguistica rende Mistral Large 2 particolarmente adatto per l’uso aziendale su documenti multilingue. Il modello eccelle in diverse lingue, dimostrando prestazioni elevate nei benchmark multilingue. Inoltre, le capacità migliorate di chiamata di funzioni lo rendono uno strumento potente per applicazioni aziendali complesse.
Mistral Large 2 è disponibile su la Plateforme sotto il nome mistral-large-2407 e può essere testato su le Chat. Gli utenti possono accedere ai pesi del modello su HuggingFace e attraverso principali fornitori di servizi cloud, inclusi Google Cloud Platform, Azure AI Studio, Amazon Bedrock e IBM watsonx.ai.