Anthropic, la società di intelligenza artificiale che ha sviluppato il modello Claude 3.5 Sonnet, ha recentemente osservato un curioso episodio durante i test del sistema. Claude, infatti, non ha completato una prova di programmazione ma ha deciso di navigare tra immagini del Parco Nazionale di Yellowstone, sorprendendo i tecnici con un comportamento inusuale e, per certi versi, “umano”.
Claude appartiene alla categoria degli “AI agent”, modelli progettati per interagire autonomamente con il computer, come un utente umano. Tra le sue funzionalità rientrano il controllo di mouse e tastiera, l’apertura di applicazioni e la gestione di browser. Durante il test, però, Claude ha deviato dal compito assegnato, dimostrando la capacità di “perdere tempo” su immagini naturalistiche, un fenomeno che i tecnici non si aspettavano.
Questo episodio non è isolato. Secondo Futurism, Claude ha anche interrotto una registrazione video durante un altro test, causando la perdita dell’intero contenuto. Azioni che, seppur non intenzionali, evocano la tipica distrazione da noia che si osserva spesso tra i dipendenti umani. Questi comportamenti sollevano dubbi sulle implicazioni future dell’addestramento degli agenti AI: Claude potrebbe, in altre circostanze, accedere a contenuti sensibili o ai social media, con potenziali rischi per la sicurezza.
Gli sviluppatori di Anthropic hanno addestrato Claude con dati che imitano l’utilizzo umano del computer, inclusi momenti di navigazione meno strettamente funzionali. Questo addestramento, però, sembra aver incorporato anche distrazioni poco produttive, creando un modello che ancora fatica a distinguere i passaggi utili da quelli superflui.
La vicenda invita a riflettere sul comportamento “umano” che queste AI stanno sviluppando, e sulla nostra tendenza a prendere pause. Forse, Claude ha solo imparato che senza distrazioni non si lavora al meglio.