Lyria 3 sbarca su Gemini: adesso si può generare musica partendo da testo

Lyria 3 sbarca su Gemini: adesso si può generare musica partendo da testo

Il modello audio generativo Lyria 3 debutta ufficialmente su Gemini per consentire a tutti gli utenti di comporre brevi brani musicali sulla base di prompt testuali o visivi e offre al contempo un controllo rigoroso a tutela dei diritti d'autore

di pubblicata il , alle 10:01 nel canale Web
GoogleGemini
 

Google DeepMind ha ufficializzato la disponibilità globale del suo recente modello musicale, Lyria 3, che è adesso integrato direttamente all'interno di Gemini per tutti gli utenti maggiorenni a livello mondiale, senza alcuna limitazione linguistica. L'obiettivo è quello di facilitare la composizione di frammenti audio, per permettere a chiunque, indipendentemente dalle proprie competenze tecniche, di tradurre una semplice idea in una traccia strutturata da condividere con i propri contatti.

Gli utenti hanno a disposizione molteplici modalità per interagire con il motore generativo: la funzione primaria consente di digitare una descrizione testuale dettagliata per indicare il genere musicale o l'umore desiderato, per ottenere in risposta una composizione coerente con le istruzioni fornite. Ma non solo da testo a musica: un utente può infatti caricare una fotografia, un documento testuale in formato PDF oppure una slide di presentazione, e Gemini analizzerà a fondo il contenuto per strutturare una colonna sonora adeguata al contesto esaminato.

Google lancia Lyria 3 su Gemini

Ogni singola richiesta genera un frammento musicale completo della durata fissa di trenta secondi. Per arricchire l'esperienza visiva, il sistema associa al brano una copertina personalizzata generata da Nano Banana, con il pacchetto finale che è pensato per essere facilmente condivisibile con altre persone tramite la creazione di un apposito link, oppure può essere scaricato e salvato sulla memoria del proprio dispositivo.

Rispetto alla precedente edizione lanciata originariamente nel 2023, l'architettura del modello ha ricevuto tre aggiornamenti sostanziali per migliorare la resa finale. Prima di tutto, le persone non devono più preoccuparsi di redigere i testi, poiché il motore li elabora in totale autonomia sulla base del comando iniziale. Come secondo aspetto, risulta possibile esercitare un maggiore controllo creativo su parametri altamente specifici, per definire lo stile generale, la tipologia di voce e la velocità misurata in battiti al minuto. Infine, le tracce prodotte risultano musicalmente più complesse, stratificate e molto più vicine a una vera produzione in studio, secondo Google.

Oltre all'utenza consumer standard, i creatori di contenuti video possono sperimentare le medesime potenzialità su YouTube Dream Track. L'integrazione è attualmente in fase di distribuzione progressiva per i creator residenti al di fuori del territorio degli Stati Uniti e promette di espandere notevolmente la libreria sonora a disposizione per i filmati brevi in formato Shorts.

L'aumento costante di contenuti sintetici richiede l'implementazione di strumenti di controllo adeguati e affidabili. Tutte le composizioni elaborate tramite la piattaforma includono al loro interno SynthID, una particolare filigrana digitale che risulta del tutto impercettibile all'orecchio umano. Chi nutre dubbi sull'origine di un file può caricarlo direttamente su Gemini per domandare se l'elemento è stato realizzato tramite Google AI. Il sistema individua l'eventuale presenza di SynthID, sfrutta le proprie capacità di ragionamento e fornisce all'utente un riscontro analitico.

Lo sviluppo tecnologico ha seguito un percorso estremamente attento alle logiche del mercato discografico, grazie ai benefici derivati dalle collaborazioni nate con progetti sperimentali mirati come Music AI Sandbox. L'intera fase di addestramento di Lyria 3 ha rispettato rigorosamente gli accordi di partnership stipulati e le normative vigenti in materia di copyright. L'intento primario dello strumento mira a favorire la libera espressione personale quotidiana ed evita categoricamente l'imitazione diretta di artisti famosi o di brani protetti. Quando un individuo menziona un musicista specifico all'interno del proprio comando testuale, il motore generativo assimila l'informazione e la utilizza come una generica ispirazione per delineare l'atmosfera globale, senza però procedere a clonarne la voce reale o lo stile esatto.

Appositi filtri di sicurezza analizzano costantemente l'output per prevenire sovrapposizioni con opere coperte da diritti, mentre le norme relative all'uso vietato bloccano tempestivamente qualsiasi tentativo di infrangere la proprietà intellettuale altrui. I risultati finali non mirano in alcun modo a proporsi come capolavori della discografia moderna, ma forniscono piuttosto un mezzo alternativo per la comunicazione amichevole. Chiunque desideri testare direttamente tali dinamiche può collegarsi all'indirizzo gemini.google.com/music.

6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
mozzarello19 Febbraio 2026, 10:27 #1
Bè, vista la musica moderna e visto che i sistemi di streaming già ti propinano musica IA nelle playlist di scoperta, potrebbe essere interessante per farsi una playlist ad hoc.
GianMi19 Febbraio 2026, 11:12 #2
Con ComfyUI e il modello ACE Step 1.5 si può già da un po' generare musica da testo con anche parti cantate
pengfei19 Febbraio 2026, 14:02 #3
Originariamente inviato da: GianMi
Con ComfyUI e il modello ACE Step 1.5 si può già da un po' generare musica da testo con anche parti cantate


Però non sono riuscito a migliorare la mia immond...ehm, i miei demo, me li stravolge completamente. Ho provato solo l'interfaccia ufficiale, magari provo qualche workflow su Comfy
aqua8419 Febbraio 2026, 14:26 #4
Andrà ad aiutare tutti quelli che già oggi incassano milioni con la musica non sapendo suonare nemmeno uno strumento musicale e permettendogli di fare ancora meno “sforzo” per creare le canzoni
mozzarello19 Febbraio 2026, 14:49 #5
Originariamente inviato da: aqua84
Andrà ad aiutare tutti quelli che già oggi incassano milioni con la musica non sapendo suonare nemmeno uno strumento musicale e permettendogli di fare ancora meno “sforzo” per creare le canzoni


Oppure verrà usata da :

1 - Chi vuole creare musica originale per i suoi contenuti (video, giochi, ecc), ma non ha i soldi per assumere professionisti

2 - Chi vuole semplicemente ascoltare qualcosa di un certo mood in un particolare momento della giornata: "Alexa, oggi ho voglia di produrre, creami una canzone adatta a iniziare la giornata in maniera positiva, qualcosa di energico con un testo incoraggoiante, mentre faccio colazione"
GianMi19 Febbraio 2026, 15:35 #6
Originariamente inviato da: pengfei
Però non sono riuscito a migliorare la mia immond...ehm, i miei demo, me li stravolge completamente. Ho provato solo l'interfaccia ufficiale, magari provo qualche workflow su Comfy


L'ho usato solo una volta per creare la musichetta (cantata) per un video per S. Valentino Alla fine, mi servivano 20 secondi e ho creato una clip di 60s che ho tagliato e sfumato con Audacity.

Non so cosa devi fare tu, ma se usi il template di ComfyUI (portable), ti da una buona base. Poi dovrai fare diverse prove cambiando il seed e adattando i due prompt, in particolare il secondo dove inserisci le parti e il testo

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^