Perplexity ha annunciato il rilascio open source di R1-1776 (scaricalo su Hugging Face), una versione modificata del modello di linguaggio DeepSeek-R1, progettata per fornire risposte imparziali e prive di censura. L’iniziativa nasce dalla necessità di superare le restrizioni imposte su temi considerati sensibili, come il rapporto tra Cina e Taiwan.
DeepSeek-R1, pur essendo un modello avanzato, presentava limitazioni nel trattare argomenti ritenuti controversi dal Partito Comunista Cinese. Perplexity ha quindi sviluppato un metodo di post-addestramento mirato a eliminare le distorsioni, raccogliendo oltre 40.000 prompt su temi censurati e addestrando il modello con dati verificati. Il risultato è un LLM che preserva le capacità di ragionamento avanzato senza limitazioni imposte da specifiche ideologie politiche.
Uno degli esempi più evidenti riguarda l’analisi delle conseguenze economiche di una possibile indipendenza di Taiwan. Mentre DeepSeek-R1 si atteneva a narrazioni ufficiali cinesi, R1-1776 fornisce una valutazione dettagliata dell’impatto sulle catene di fornitura, sul mercato azionario e sulle tensioni geopolitiche.
Il modello è stato validato attraverso benchmark di qualità e valutazioni umane, confermando la sua capacità di rispondere in modo accurato senza autocensura. Gli utenti possono ora accedere ai pesi del modello su HuggingFace o utilizzarlo tramite la Sonar API, segnando un passo avanti nella creazione di IA trasparenti e affidabili.