Una nuova era per l’intelligenza artificiale generativa potrebbe essere all’orizzonte. Inception, startup con sede a Palo Alto fondata dal professore di informatica di Stanford Stefano Ermon, ha annunciato lo sviluppo di un innovativo modello di linguaggio basato sulla tecnologia della diffusione. L’azienda ha presentato il suo DLM (Diffusion Language Model), un’alternativa ai tradizionali modelli autoregressivi come GPT, promettendo prestazioni senza precedenti in termini di velocità, efficienza e qualità.
Il cuore della tecnologia di Inception si ispira ai modelli di diffusione già impiegati per la generazione di immagini e video, come Midjourney e Sora. Secondo l’azienda, i modelli DLM sono fino a 10 volte più veloci ed economicirispetto agli attuali LLM, garantendo al contempo una maggiore capacità di ragionamento, multimodalità e controllosugli output.
L’azienda ha anche annunciato il lancio di Mercury, il primo modello linguistico di diffusione su scala commerciale, che sfrutta i vantaggi di questa tecnologia per offrire prestazioni migliorate in vari settori. Tra i principali benefici dei DLM, Inception evidenzia la capacità di correggere errori e ridurre le allucinazioni, una maggiore efficienza nel trattare dati multimodali e un controllo avanzato per applicazioni specifiche come la generazione di dati strutturati.
Fondata da esperti nel campo dell’IA, tra cui gli inventori di Flash Attention, Decision Transformers, AlpacaLora e Direct Preference Optimization, Inception si propone come un attore di primo piano nella corsa all’IA di nuova generazione. Con il lancio di Mercury, l’azienda punta a ridefinire gli standard dei modelli linguistici, aprendo nuove possibilità per l’intero settore.