Hugging Face ha annunciato l’integrazione di quattro provider serverless – fal, Replicate, SambaNova e Together AI – direttamente nelle pagine dei modelli presenti sulla piattaforma. Questa innovazione permette agli utenti di accedere con maggiore semplicità a soluzioni di inferenza avanzate, migliorando l’efficienza e la scalabilità dell’intelligenza artificiale.
Lanciato inizialmente nel 2020, l’Inference API di Hugging Face si è evoluto in uno strumento chiave per sviluppatori e ricercatori. Con questa nuova integrazione, gli utenti possono scegliere tra due modalità di utilizzo: inserire una chiave API personalizzata per interagire direttamente con un provider o utilizzare il routing di Hugging Face, con la fatturazione centralizzata sulla piattaforma.
Tra i vantaggi principali, l’integrazione consente di eseguire modelli AI come DeepSeek-R1 su Together AI o generare immagini con FLUX.1-dev su fal.ai, semplicemente modificando il provider nel codice. Hugging Face ha inoltre reso disponibile l’utilizzo di questi servizi attraverso le proprie SDK per Python e JavaScript, oltre a supportare chiamate dirette via HTTP.
Rodrigo Liang, CEO di SambaNova, ha sottolineato l’importanza della partnership, evidenziando i miglioramenti in termini di velocità ed efficienza dell’inferenza. Anche Zeke Sikelianos, Founding Designer di Replicate, ha elogiato Hugging Face per il suo ruolo centrale nella diffusione dell’AI open-source.
Gli utenti PRO della piattaforma riceveranno 2 dollari in crediti di inferenza mensili, mentre per gli utenti gratuiti è previsto un piccolo quantitativo di inferenze senza costi. Hugging Face conferma così il proprio impegno nel rendere l’intelligenza artificiale più accessibile e performante.