OpenAI ha recentemente annunciato che il suo agente AI, Deep Research, ha raggiunto un’accuratezza del 26,6% nel benchmark “Humanity’s Last Exam”, superando modelli precedenti come ChatGPT o3-mini e DeepSeek R1.
“Humanity’s Last Exam” è un benchmark progettato per valutare le capacità delle intelligenze artificiali attraverso una serie di domande complesse che spaziano dalla matematica alle scienze umane e naturali. Inizialmente, i modelli AI raggiungevano un’accuratezza intorno al 9%, ma Deep Research ha significativamente superato queste prestazioni.
Deep Research è un agente AI avanzato che combina capacità di ricerca sul web con potenti strumenti di analisi, permettendo una comprensione e una sintesi delle informazioni più approfondite rispetto ai modelli precedenti. Questa integrazione di ricerca e analisi consente a Deep Research di fornire risposte più accurate e dettagliate.
Nonostante questi progressi, è importante notare che Deep Research ha accesso a funzionalità di ricerca che altri modelli non possiedono, il che potrebbe influenzare i confronti diretti. Tuttavia, il rapido miglioramento delle prestazioni evidenzia l’accelerazione nello sviluppo delle capacità delle intelligenze artificiali.
Questo risultato solleva anche questioni riguardanti la progettazione di benchmark per valutare le AI. Se i nuovi test vengono superati troppo rapidamente, potrebbe essere necessario rivedere gli standard di valutazione per mantenere una misura accurata dei progressi nel campo dell’intelligenza artificiale.
In conclusione, l’avanzamento di Deep Research rappresenta un passo significativo nel campo dell’intelligenza artificiale, dimostrando la capacità dei modelli AI di affrontare compiti sempre più complessi e di migliorare rapidamente le proprie prestazioni.