Nell’ambito dell’intelligenza artificiale, la sfida della deriva concettuale rappresenta un nodo cruciale da affrontare per garantire l’efficacia dei modelli nel tempo. La natura in continua evoluzione del mondo circostante rende complicato mantenere l’accuratezza delle previsioni dei modelli AI nel lungo periodo. Spesso, i modelli vengono addestrati su dati longitudinali con la speranza che tali dati rappresentino fedelmente gli input futuri. Tuttavia, l’assunzione predefinita che tutti i dati di addestramento siano ugualmente rilevanti spesso non regge nella pratica. Ad esempio, le immagini dal benchmark di apprendimento non stazionario CLEAR mostrano come le caratteristiche visive degli oggetti evolvano significativamente nel corso di dieci anni, presentando una sfida per i modelli di categorizzazione degli oggetti.
Approcci alternativi, come l’apprendimento online e continuo, aggiornano ripetutamente un modello con piccole quantità di dati recenti per mantenerlo aggiornato. Tuttavia, questo prioritizza implicitamente i dati più recenti, a discapito di quelli più vecchi, che vengono gradualmente cancellati dagli aggiornamenti successivi. Ciò solleva due problematiche principali: la focalizzazione esclusiva sui dati più recenti e la perdita di segnale dai dati più vecchi che vengono cancellati uniformemente nel tempo, indipendentemente dal loro contenuto.
Nel loro recente lavoro, intitolato “Scalatura delle Tempistiche di Decadimento per l’Apprendimento Non Stazionario Condizionato all’Istanza”, i ricercatori propongono di assegnare un punteggio di importanza a ciascuna istanza durante l’addestramento per massimizzare le performance del modello sui dati futuri. Per farlo, utilizzano un modello ausiliario che produce tali punteggi utilizzando l’istanza di addestramento e la sua età, appreso congiuntamente al modello primario. Risolvono entrambe le sfide sopra menzionate e ottengono significativi miglioramenti rispetto ad altri metodi di apprendimento robusto su una serie di benchmark per l’apprendimento non stazionario.
La sfida della deriva concettuale per l’apprendimento supervisionato viene quantificata attraverso la costruzione di classificatori su un ampio dataset fotografico raccolto dai social media nell’arco di dieci anni. Confrontando l’addestramento offline con quello continuo, si evidenzia come il primo mostri una grande differenza di performance dovuta al “catastrofico oblio”, un problema in cui le conoscenze acquisite dal modello sui dati più vecchi vengono dimenticate in maniera incontrollata. Tuttavia, durante il periodo di test, il modello addestrato in modo continuo mostra una minore degradazione rispetto a quello addestrato offline, poiché è meno dipendente dai dati più vecchi.
Per affrontare la deriva concettuale, viene proposto un metodo che combina i vantaggi dell’addestramento offline con quelli del continuo, ponendo particolare attenzione al controllo dell’influenza dei dati passati e a un obiettivo di ottimizzazione finalizzato a ridurre la decadenza del modello in futuro.
L’apprendimento dei pesi delle istanze dimostra di valorizzare gli oggetti più moderni nel contesto del riconoscimento degli oggetti, mentre diminuisce il peso degli oggetti più datati, concentrandosi principalmente sull’oggetto principale nelle immagini.
______
Learning the importance of training data under concept drift