Secondo quanto riportato da TechCrunch, Google sta confrontando internamente le risposte della sua intelligenza artificiale Gemini con quelle del modello Claude di Anthropic. Questa pratica, seppur comune nel settore, solleva interrogativi sulla trasparenza e sull’autorizzazione all’uso di modelli concorrenti.
I collaboratori incaricati di valutare Gemini devono analizzare le risposte generate dall’AI secondo diversi criteri, tra cui accuratezza e verbosità, confrontandole con quelle di Claude. Questa procedura richiede fino a 30 minuti per ogni richiesta, al fine di determinare quale modello fornisca la risposta migliore.
Dalle comunicazioni interne emerge che Claude sembra dare maggiore priorità alla sicurezza rispetto a Gemini. In alcuni casi, Claude si rifiuta di rispondere a prompt considerati non sicuri, come quelli che simulano il comportamento di un altro assistente AI o che riguardano contenuti espliciti.
Nonostante Google affermi di non utilizzare i modelli di Anthropic per addestrare Gemini, il confronto diretto tra le due IA solleva dubbi, soprattutto considerando che Google è un importante investitore in Anthropic. I termini di servizio di Anthropic vietano espressamente l’utilizzo di Claude per creare prodotti concorrenti o addestrare altri modelli senza previa autorizzazione.
Questo confronto interno evidenzia la competizione serrata nel settore dell’intelligenza artificiale e le diverse strategie adottate dalle aziende, con alcune che sembrano dare maggiore enfasi alla sicurezza e altre alla performance.