La semplificazione della costruzione dei modelli non garantisce la loro utilizzabilità: come garantire l’affidabilità dei modelli di intelligenza artificiale

Nuova sezione #newsETHOS AIopenmind che in greco significa “carattere” o “abitudini”. Ethos può essere utilizzato per descrivere l’etica dell’AI, ovvero il modo in cui l’intelligenza artificiale viene creata, utilizzata e governata, e come questo influisce sul carattere o sull’identità dell’AI. Inoltre, può anche essere utilizzato per descrivere l’etica degli sviluppatori e degli utilizzatori dell’AI, ovvero il loro modo di pensare e agire in relazione all’utilizzo dell’AI.
_________

Fonte: Can We Build a Trustworthy ‘AI’ While Models-As-A-Service (Maas) Is Projected To Take Over?
_________
La costruzione dei modelli è ora più semplice che mai grazie all’automazione e all’intelligenza artificiale raggiunta nella costruzione dei modelli. Con un eccesso di strumenti MLOps, gli utenti di tutte le dimensioni e background si stanno ora concentrando sulla produzione dei modelli. Ma la domanda rimane: tutti i modelli sono utilizzabili?

Con l’aumento dell’utilizzo dell’intelligenza artificiale e del machine learning, c’è stata una crescita esponenziale nella disponibilità di strumenti per la costruzione dei modelli. Questi strumenti automatizzano molte delle attività manuali richieste per costruire un modello, rendendo più facile per gli utenti di tutte le dimensioni e background creare modelli di intelligenza artificiale.

Tuttavia, la semplicità nella costruzione dei modelli non garantisce che tutti i modelli creati siano utilizzabili. Molti modelli possono essere costruiti senza tenere conto dei requisiti di affidabilità, spiegabilità e responsabilità, rendendoli inutilizzabili per molti scopi importanti. Inoltre, molti modelli possono essere costruiti utilizzando dati che sono stati raccolti in modo non etico o non rappresentativo, il che può portare a decisioni sbagliate.

Per garantire che i modelli siano utilizzabili, è importante che gli sviluppatori e gli utilizzatori seguano buone pratiche per la costruzione dei modelli, tra cui la valutazione della qualità dei dati, la verifica della spiegabilità del modello e la definizione di responsabilità per le decisioni prese dal modello. Inoltre, è importante che gli sviluppatori e gli utilizzatori lavorino insieme per creare una cultura di trasparenza e responsabilità nell’utilizzo dei modelli.

Alcuni punti da considerare:

  1. Spiegabilità dell’IA: comprendere e capire il comportamento del modello, dall’input all’output, per risolvere il problema della “scatola nera” rendendo i modelli trasparenti.
  2. Responsabilità dell’IA: definire i ruoli e le responsabilità per l’utilizzo della soluzione IA e individuare la causa dei fallimenti.
  3. Promessa di coerenza: assicurare che i modelli IA in produzione siano coerenti con quelli utilizzati per il training e il test e che non subiscano drift nei dati o nei obiettivi.
  4. Prevenzione delle bias*: evitare che i modelli IA replichino le associazioni presenti nei dati di training e quindi i bias presenti in essi.
  5. Necessità di adattamento continuo: aggiornare costantemente la conoscenza e le informazioni utilizzate dai modelli IA per tenere conto dei cambiamenti nella ricerca e nella comprensione delle condizioni.
  6. Controlli con la partecipazione umana: utilizzare il controllo umano per governare e determinare il comportamento dell’IA in base alle preferenze organizzative, sociali e aziendali.

In sintesi, la semplificazione della costruzione dei modelli attraverso l’automazione e l’intelligenza artificiale è un passo importante nell’adozione dell’IA e del ML, ma è importante che gli sviluppatori e gli utilizzatori seguano buone pratiche per garantire che i modelli siano utilizzabili e affidabili.

_________

* Il bias in ambito di intelligenza artificiale e machine learning si riferisce alla tendenza dei modelli a produrre risultati non equi o non rappresentativi a causa dei dati di addestramento utilizzati per addestrarli. Ciò può verificarsi a causa di una rappresentazione non equilibrata dei dati, ad esempio se i dati di addestramento sono stati raccolti solo da un sottoinsieme specifico della popolazione, o a causa di una mancata considerazione dei fattori importanti nei dati.

Esistono diversi tipi di bias, tra cui:

  • Bias di rappresentatività: si verifica quando i dati di addestramento non rappresentano adeguatamente la popolazione di interesse.
  • Bias di inclusione: si verifica quando alcuni gruppi di persone sono esclusi dai dati di addestramento.
  • Bias di confondimento: si verifica quando i dati di addestramento contengono informazioni che non sono pertinenti per il problema di previsione.
  • Bias di attribuzione: si verifica quando i modelli assegnano un peso eccessivo a una caratteristica specifica dei dati di addestramento.

I bias possono avere conseguenze negative sulla qualità delle previsioni dei modelli e sull’equità delle decisioni prese sulla base di queste previsioni. Pertanto, è importante che gli sviluppatori di modelli prendano in considerazione i bias durante la costruzione dei modelli e utilizzino tecniche per mitigare i bias.

________
Foto di Gerd Altmann da Pixabay 

NEWS AIopenmind su:

3D (6)6G (1)Accademia di Comunicazione (4)Acer (1)Adobe (39)Aeronautica (9)Africa (3)Agenti AI (1)Agenti autonomi (1)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (7)AGID (1)Amazon (37)Ambiente (3)AMD (1)Android (6)Animali (6)Animazione (4)Anthropic (17)Anziani (1)App (10)Apple (63)Archeologia (3)Architettura (4)Archivi storici (1)Armi (3)Arredamento interni (2)Arte (28)Assistente vocale (6)Astronomia (2)Asus (2)AT&T (1)Audi (1)Audio (54)Autoapprendimento (1)Avatar (7)Aviazione (1)Avvocati (2)Aziende (19)Banca (3)Bard (3)Biblioteca (1)Bill Gates (2)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)Canva (7)Cattolicesimo (3)Certificazioni (1)Cesintes (1)chataudio (1)Chatbot IA (52)Chip (3)Cina (54)Cinema (11)Claude (19)Clima (3)CNR (1)Coca-Cola (1)Commercio (2)Commissione Europea (2)Compagnie aeree (1)Computer (3)Computer quantistici (32)Computer Vision (3)Comuni italiani (1)Comunicazione (9)Comunicazioni vocali (2)Concorso bellezza AI (1)Consiglio d'Europa (1)Contabilità (1)Convegno (13)Copilot (5)Copyright (14)Criptovalute (1)Cybersecurity (1)Dalle-2 (3)Dark web (2)Data center (2)Dating (1)Deepfake (2)Design automobilistico (2)Design Industriale (6)Diritti Autore (1)Disney (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)eBay (1)Editing fotografico (3)Editoria (10)Email (1)ENEA (2)Esercito (2)Etica (131)Europol (1)Eventi (7)Evento (7)Facebook (4)FakeNews (18)Falegnameria (1)Fauna selvatica (1)Film (5)Finanza (9)Finanziamenti Italia (3)Firefly (3)Firefox (1)Fondo Monetario Internazionale (1)Formazione (19)Fotografia (110)Francia (1)Free lance (1)G7 (1)Gaming (1)Garante privacy (19)Giappone (9)Giochi (7)Giornalismo (17)Giustizia (1)Google (304)Governo (7)Governo Italiano (3)Grafica (6)Guerra (12)Guida autonoma (5)Hong Kong (1)Hugging Face (3)IBM (7)Illustrazioni (1)iMessage (1)Immobiliare (1)India (3)Indossabili (3)Influencer (1)Informazione (9)Inghilterra (7)INPS (2)Intel (7)ISO (1)Istruzione (16)Jailbreaking (1)Kamala Harris (1)Lavoro (44)Libri (3)Linguistica computazionale (7)Linkedin (8)Linux (1)Luma AI (1)Maltrattamento infantile (1)Marina (1)Marketing (71)Medicina (27)Mercedes-Benz (1)Meta (88)Metaverso (17)Microsoft (183)Midjourney (18)Mobilità sostenibile (1)Moda (5)Modelli AI (42)Motori di Ricerca (12)Mozilla (2)Museo (1)Musica (37)NASA (1)Nato (2)Natura (2)Natural Language Processing (2)Nazioni Unite (1)NBA (1)NFT (3)Nvidia (36)Occhiali (7)Occhiali Intelligenti (2)Occhiali Smart (1)Oculistica (1)Odore (1)OMS (1)ONU (1)Open Source (2)OpenAI (252)Opera (12)Opera Browser (1)Oppo (3)Oracle (2)Orologio (1)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Perplexity (7)Pianeta (2)Plugin (1)Polizia (2)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Intelligenza Artificiale: Bruxelles prepara le linee guida contro i rischi inaccettabili

La Commissione Europea ha avviato un processo di consultazione rivolto alle parti interessate per definire le future linee guida sulla regolamentazione dell’Intelligenza Artificiale (IA)....

Occhiali Samsung XR: le nuove lenti intelligenti senza display, ma con tante funzioni avanzate

Samsung sta sviluppando occhiali intelligenti XR in collaborazione con Google, previsti per il lancio nella seconda metà del 2025. Secondo un report proveniente dalla...

Mi sono imparato la scienza?

Fahrenheit.iit e il potere della narrazione. Mercoledì 13 marzo, ore 17:00 in Accademia di Comunicazione e in streaming Registrati La narrazione può essere la lama...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines