Le licenze “aperte” dei modelli di intelligenza artificiale spesso includono restrizioni che sollevano preoccupazioni tra gli sviluppatori. In particolare, la licenza di Gemma 3, rilasciata da Google DeepMind, è stata criticata per le sue limitazioni d’uso commerciale e il rischio di un’interruzione forzata da parte del fornitore.
Secondo Nathan Lambert, ricercatore esperto in AI, le restrizioni di Gemma sono meno problematiche rispetto a quelle di Llama, ma restano un ostacolo per le aziende. Un’altra voce critica, xlr8harder, sottolinea che la licenza di Gemma 3 presenta tre problemi principali: restrizioni d’uso, effetti virali sulle derivazioni e la possibilità che Google revochi l’accesso in qualsiasi momento, rendendo l’adozione commerciale rischiosa. Anche lo sviluppatore Han ribadisce che modelli come Gemma o Llama, pur essendo ottimi per la ricerca, non sono adatti all’industria a causa delle loro limitazioni di accesso e licenza.
Le critiche evidenziano un tema centrale: mentre le grandi aziende investono in modelli open-weight, la natura delle loro licenze può rendere questi strumenti meno affidabili per l’uso commerciale. Questo solleva un dibattito più ampio sull’equilibrio tra apertura e controllo nei modelli di IA di nuova generazione.
Fonti:
