La startup CTGT ha chiuso un round di finanziamento da 7,2 milioni di dollari per sviluppare soluzioni che migliorino l’affidabilità dell’intelligenza artificiale. L’obiettivo è ridurre i rischi legati agli errori algoritmici, alla trasparenza dei modelli e alla sicurezza dei dati.
Il finanziamento è stato guidato da un gruppo di investitori del settore tecnologico, tra cui VentureTech Capital e AI Future Fund. I fondi saranno utilizzati per potenziare la ricerca e lo sviluppo di modelli IA più sicuri e per ampliare il team di esperti in machine learning e regolamentazione etica.
Secondo il CEO di CTGT, l’affidabilità dell’IA è oggi una delle sfide più urgenti. “L’intelligenza artificiale è sempre più integrata in settori critici come la sanità, la finanza e la giustizia. Assicurarne l’accuratezza e l’equità è fondamentale per evitare decisioni errate con conseguenze reali sulle persone”, ha dichiarato.
Il progetto si concentra su tecniche avanzate di verifica dei modelli IA, meccanismi di audit automatici e sistemi che garantiscono la tracciabilità delle decisioni prese dagli algoritmi.
Negli ultimi anni, il dibattito sull’affidabilità dell’IA è diventato centrale, con diverse aziende e istituzioni che chiedono normative più rigorose per garantire una maggiore trasparenza. L’iniziativa di CTGT si inserisce in questo contesto, puntando a colmare il divario tra innovazione e sicurezza.
Con questo investimento, la startup ambisce a diventare un punto di riferimento nel settore dell’IA responsabile, contribuendo a definire nuovi standard di sicurezza e affidabilità per l’intelligenza artificiale del futuro.