Recenti analisi hanno evidenziato che Image Playground, l’applicazione di Apple per la generazione di immagini, manifesta pregiudizi razziali e di genere. Lanciata con l’obiettivo di combinare foto e descrizioni testuali per creare nuove immagini, l’app prometteva un’esperienza “incredibilmente sicura”, implementando funzionalità atte a limitare la creazione di deepfake e contenuti potenzialmente dannosi.
Tuttavia, test condotti da esperti hanno rivelato che l’app tende a riflettere stereotipi impliciti. Jochem Gietema, specialista in Machine Learning, ha notato anomalie significative: alcune immagini generate presentavano tonalità della pelle più scure e caratteristiche facciali alterate rispetto alla foto originale. Tentativi di influenzare il tono della pelle attraverso prompt specifici hanno ulteriormente confermato la presenza di bias nell’algoritmo. Termini come “ricco” o “povero”, sport come lo sci o il basket, professioni come agricoltore o banchiere, generi musicali come rap o musica classica e persino stili di abbigliamento sembrano influenzare il colore della pelle nelle immagini prodotte.
Questi risultati si inseriscono in un contesto più ampio, dove modelli di intelligenza artificiale per la generazione di immagini spesso perpetuano stereotipi culturali e sociali. Uno studio recente ha evidenziato come anche prompt apparentemente neutri possano produrre rappresentazioni distorte, rafforzando ideali di pelle chiara, amplificando disparità razziali e di genere nelle professioni e consolidando norme culturali specifiche.
La buona notizia è che, a differenza dei pregiudizi umani, quelli presenti nei modelli di intelligenza artificiale possono essere identificati e corretti più facilmente. Ricercatori di Apple stanno attualmente studiando come questi bias si trasferiscano nei modelli linguistici, con l’obiettivo di sviluppare metodi efficaci per rilevare e ridurre tali distorsioni.
Sebbene Image Playground di Apple sia stato concepito come uno strumento innovativo e sicuro, le recenti scoperte sottolineano l’importanza di un’attenzione continua nella progettazione e nell’implementazione di tecnologie AI, affinché non perpetuino stereotipi e pregiudizi esistenti nella società.