Microsoft ha lanciato uno strumento per creare deepfake perfetti

Microsoft ha lanciato uno strumento per creare deepfake perfetti

Uno dei prodotti più inaspettati lanciati dall'evento Microsoft Ignite 2023 è uno strumento in grado di creare un avatar fotorealistico di una persona e fargli pronunciare delle parole che non ha mai detto.

di pubblicata il , alle 11:01 nel canale Web
MicrosoftAzure
 

Con il nome di Azure AI Speech text to speech avatar, Microsoft ha presentato uno strumento che consente agli utenti di generare video di un avatar creato sulla base delle immagini fornite dall'utente e in grado di pronunciare un discorso completamente inedito, anch'esso caricato dall'utente. Lo strumento di Microsoft si basa su due componenti separate: un modello per gestire l'avatar e uno strumento di sintesi vocale per "leggere" il testo inoltrato dall'utente.

Azure AI Speech text to speech avatar

"Con l'avatar di sintesi vocale, gli utenti possono creare video in modo più efficiente... per creare video di formazione, presentazioni di prodotti, testimonianze di clienti [e così via] semplicemente con l'immissione di testo", scrive Microsoft in un post sul suo blog. "Si può utilizzare l'avatar per creare agenti conversazionali, assistenti virtuali, chatbot e altro ancora."

Nel video di presentazione della tecnologia, rilasciato insieme all'annuncio, la persona che parla è stata ricreata con Azure text to speech, sia per quanto riguarda la sua immagine che per il parlato.

Gli avatar possono parlare lingue diverse e sfruttare modelli di intelligenza artificiale come GPT-3.5 di OpenAI per rispondere alle domande degli utenti. La maggior parte degli abbonati di Azure sarà in grado di accedere solo ad avatar precostruiti, non personalizzati, al momento del lancio; mentre gli avatar personalizzati sono attualmente una funzionalità di "accesso limitato" disponibile solo tramite registrazione e "solo per determinati casi d'uso", afferma Microsoft.

Inoltre, all'interno del servizio vocale neurale personalizzato di Microsoft troviamo anche lo strumento Personal voice, il quale è in grado di replicare la voce di un utente in pochi secondi dopo che si fornisce un campione vocale di un minuto come messaggio audio. Microsoft lo propone come un modo per creare assistenti vocali personalizzati, doppiare contenuti in diverse lingue e generare racconti su misura per storie, audiolibri e podcast.

Per scongiurare potenziali problemi legali, Microsoft richiede che gli utenti diano un “consenso esplicito” sotto forma di una dichiarazione registrata prima che possano utilizzare la voce personale per sintetizzare la propria voce.

Naturalmente, queste funzionalità sollevano una serie di questioni etiche. Qui Microsoft sta semplicemente fornendo la tecnologia, ma i deepfake come questo possono essere utilizzati in maniera fraudolenta in tantissimi scenari: allo scopo di propaganda politica o per alimentare false credenze. Uno dei punti salienti del recente sciopero promosso dal sindacato SAG-AFTRA (e da poco finito), che ha interessato gli attori di Hollywood, ha riguardato proprio l’uso dell’intelligenza artificiale per ricreare i tratti somatici.

15 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
WarSide16 Novembre 2023, 11:08 #1
Se questa è la perfezione...
TorettoMilano16 Novembre 2023, 11:08 #2
affascinante e inquietante
Marci16 Novembre 2023, 11:59 #3
Originariamente inviato da: WarSide
Se questa è la perfezione...


Per me è inquietante invece, non sarà perfetto però siamo agli albori, pensiamo solo a cos avevamo appena 5-6 anni fa, questa roba può aprire scenari futuri veramente incredibili e non penso ci vorrà molto perché venga perfezionata al punto da confondersi con la realtà.
WarSide16 Novembre 2023, 12:02 #4
Originariamente inviato da: Marci
Per me è inquietante invece, non sarà perfetto però siamo agli albori, pensiamo solo a cos avevamo appena 5-6 anni fa, questa roba può aprire scenari futuri veramente incredibili e non penso ci vorrà molto perché venga perfezionata al punto da confondersi con la realtà.


Ho visto startup già fare di meglio rispetto a questa demo di Ms. Non ho il video sotto mano, ma quelli si che erano inquietanti.
silvanotrevi16 Novembre 2023, 12:04 #5
ed è pure sexy quella brunettina! mmm!! e pensare che è finta!!
TorettoMilano16 Novembre 2023, 12:05 #6
Originariamente inviato da: silvanotrevi
ed è pure sexy quella brunettina! mmm!! e pensare che è finta!!


avere fantasie su un'IA è tradimento?
Marci16 Novembre 2023, 12:07 #7
Originariamente inviato da: WarSide
Ho visto startup già fare di meglio rispetto a questa demo di Ms. Non ho il video sotto mano, ma quelli si che erano inquietanti.


Interessante, non ricordi nemmeno il nome?
travelmatto16 Novembre 2023, 12:11 #8
Originariamente inviato da: Marci
Interessante, non ricordi nemmeno il nome?


Sì, lei si chiamava Ursula.
WarSide16 Novembre 2023, 12:20 #9
Originariamente inviato da: Marci
Interessante, non ricordi nemmeno il nome?


Una delle startup se non sbaglio è entrata in YC, dovrei controllare la loro directory per recuperare il nome. Non vado troppo dietro a questo tipo di uso dell'IA. Preferisco quella che mi aiuta nel concreto senza t3tt3 e
matsnake8616 Novembre 2023, 12:37 #10
sta roba va regolamentata prima di subito.

Niente che non si possa già fare applicandosi con le tecnologie di AI esistenti, ma se sta roba diventa facile e fruibili da tutti diventa pericolosa.

Ci sono già parecchi casi di ragazze che si ritrovano video loro su pornhub e simili , peccato che sono tutti deepfake realizzati con i loro volti.

Immaginate se diventasse "easy" produrre video del genere.
Prendi le foto instagram di una tizia che ti piace, le dai in pasto all'ai e ti genera il tuo bel video da condividere su ph.

Servono leggi prima che sia troppo tardi.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^