Link “MusicLM: Generating Music From Text“
Google ha appena pubblicato una dimostrazione del un nuovo servizio MusicLM, un modello di testo-in-musica per generare musica ad alta fedeltà dalle descrizioni testuali. Il modello in sé non è ancora disponibile al pubblico, ma è già possibile navigare tra decine di esempi audio che mostrano le straordinarie capacità del modello.
La diversità e l’accuratezza di questi campioni audio sono semplicemente mozzafiato: dagli strumenti, generi e stili alle epoche, luoghi e livelli di esperienza dei musicisti, MusicLM lo fa alla grande.
Per una rapida panoramica di MusicLM: generazione di musica come attività di modellizzazione gerarchica sequenza-a-sequenza, producendo musica a 24 kHz che rimane coerente per diverse minuti. superando i metodi precedenti in termini di qualità audio e aderenza alla descrizione testuale. la capacità di generare musica sia condizionata dal testo che guidata melodicamente.
Quest’ultimo punto è particolarmente interessante perché significa che il modello può lavorare sia con descrizioni testuali che con melodie fischiate o cantate.
Ciò rende possibile combinare le due approcci di input e fornire un prompt multimodale con testo E una melodia cantata, e quindi avere MusicLM generare musica che viene automaticamente trasformata nello stile descritto nel testo. Inoltre, Google ha rilasciato il dataset MusicCaps, una raccolta di 5500 coppie di musica-testo che darà agli ricercatori l’opportunità di acquisire conoscenze sul processo generativo di MusicLM.
Con la sua capacità di generare musica fedele al testo e di alta qualità, MusicLM potrebbe davvero rivoluzionare il modo in cui produciamo canzoni e interagiamo con la musica. E i generatori di musica AI potrebbero vedere uno sviluppo e una popolarità simili quest’anno come i generatori di immagini AI hanno fatto nel 2022.