Le principali autorità di concorrenza dell’Unione Europea, del Regno Unito e degli Stati Uniti hanno rilasciato una dichiarazione congiunta per affrontare le sfide e le opportunità legate ai modelli di base dell’intelligenza artificiale (IA) generativa e ai prodotti correlati. Margrethe Vestager, Vicepresidente esecutiva della Commissione Europea, Sarah Cardell, Amministratrice delegata della Competition and Markets Authority del Regno Unito, Jonathan Kanter, Assistente procuratore generale del Dipartimento di Giustizia degli Stati Uniti, e Lina M. Khan, Presidente della Federal Trade Commission degli Stati Uniti, hanno sottolineato l’importanza di mercati equi, aperti e competitivi.
Le autorità hanno riconosciuto che, sebbene i loro contesti giurisdizionali e i loro poteri legali siano diversi, i rischi legati alla concorrenza non rispettano i confini internazionali. Hanno ribadito l’impegno a condividere le conoscenze e a utilizzare i rispettivi poteri per affrontare questi rischi in modo appropriato.
In un momento di svolta tecnologica, i modelli di IA generativa rappresentano una delle innovazioni più significative degli ultimi decenni. Questi strumenti potrebbero portare notevoli benefici ai cittadini, promuovere l’innovazione e stimolare la crescita economica. Tuttavia, esistono rischi che potrebbero limitare la concorrenza, come il controllo concentrato di risorse chiave e la possibilità che le imprese dominanti nel mercato digitale rafforzino ulteriormente la loro posizione.
Le autorità hanno evidenziato l’importanza di principi comuni per proteggere la concorrenza nell’ecosistema dell’IA. Tra questi, l’equità nelle pratiche commerciali, l’interoperabilità dei prodotti e dei servizi, e la scelta per i consumatori e le imprese. Sono stati inoltre menzionati i rischi per i consumatori, tra cui pratiche ingannevoli e uso scorretto dei dati personali.
Le autorità hanno espresso la loro determinazione a monitorare e affrontare questi rischi, garantendo che i mercati dell’IA restino competitivi e benefici per tutti.