Un mese dopo aver lasciato OpenAI, Ilya Sutskever, co-fondatore e ex capo scienziato dell’azienda pioniera nell’intelligenza artificiale, ha lanciato una nuova e ambiziosa startup chiamata Safe Superintelligence Inc. (SSI). Questa nuova impresa, nata dalla collaborazione con Daniel Gross, ex socio di Y Combinator, e Daniel Levy, ingegnere con esperienza in OpenAI, mira a creare un sistema AI sicuro e potente che darà priorità alla sicurezza rispetto alle pressioni commerciali.
Durante il suo tempo in OpenAI, Sutskever ha giocato un ruolo cruciale nel miglioramento della sicurezza dell’AI, concentrandosi in particolare sul controllo dei sistemi AI superintelligenti, dotati di intelligenza superiore a quella umana. Questo lavoro lo ha visto collaborare strettamente con Jan Leike, che successivamente ha lasciato OpenAI per unirsi ad Anthropic, un’altra azienda leader nel campo dell’AI.
Nel 2023, Sutskever e Leike avevano pubblicato un post sul blog di OpenAI in cui prevedevano che un’intelligenza artificiale con capacità cognitive superiori a quelle umane potrebbe emergere entro un decennio. Tuttavia, avevano avvertito che una tale conquista non garantirebbe automaticamente che l’AI sia benevola nei confronti dell’umanità. Questa consapevolezza ha reso imperativo trovare modi per controllare e limitare un’AI così avanzata e potenzialmente pericolosa.
SSI ha chiarito la sua missione con un tweet, delineando la roadmap dei prodotti e l’obiettivo di raggiungere una “Superintelligenza sicura”. La strategia di sviluppo di SSI è audace: avanzare le capacità dell’AI rapidamente, assicurandosi che la sicurezza sia sempre al primo posto. Con uffici a Palo Alto e Tel Aviv, SSI sta reclutando talenti tecnici per perseguire questa missione cruciale.