OpenAI, l'IA che clona le voci è pronta, ma la società ha paura a rilasciarla

Voice Engine può clonare qualsiasi voce da uno spezzone audio di 15 secondi. La resa è impressionante e OpenAI ha qualche dubbio sugli usi impropri della tecnologia
di Andrea Bai pubblicata il 02 Aprile 2024, alle 15:31 nel canale WebOpenAI
36 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoO la fanno loro, o sarà qualcun altro. Tanto è inevitabile.
Domanda stupida. Ci si potrebbe in qualche modo tutelare "marchiando", stile "watermark" con le immagini, i flussi audio generati da un'intelligenza artificiale...la voce sarà identica all'originale ma ci sarà un check universale per capire che non è genuina...ma suppongo che ci abbiano già pensato...e che se non lo hanno implementato è perchè sarebbe bucabile in men che non si dica...
BOH. Non so che dire.
Certo, questo però implica un aggiornamento normativo urgente ed anche una complicazione di tutta una serie di situazioni.
Nah.
Stai decisamente sopravvalutando una abbondante fetta di persone.
Se poi davvero sei un impiegato e ti arriva una chiamata incazzata con la voce perfetta del tuo capo voglio vedere se gli dici "potresti essere un truffatore con voce artificiale creata con AI".
Se non fotte te stai sereno che su cento ne fotte come minimo 70.
Succedeva l'altro ieri, succedeva ieri, succede oggi.
Figurati se adesso i truffatori possono contare sulla VERA voce di parenti o conoscenti.
Su Instagram già girano i reel con i personaggi famosi che dicono cose mai dette realmente, con la stessa voce.
Stessa voce o simile. Magari tu non noti la differenza ma un'analisi della traccia audio la troverebbe.
Bisogna capire questa IA è in grado di generare lo stesso timbro vocale, per questo ho scritto 2 anni.
L'accesso a queste tecnologie dev'essere assolutamente messo sotto controllo, a fanc**** qualsiasi ca@@@@ di liberismo. La tecnologia sta correndo molto più della nostra capacità di giudizio.
La bomba atomica aveva u qualche effetto deterrente sul suo uso ma IA sembra che non ce l'abbia o comunque si sottovaluta/ignora in favore del successo economico di veramente pochi
Figurati se adesso i truffatori possono contare sulla VERA voce di parenti o conoscenti.
15 sec di voce li posso recuperare anche io con un semplice drink offerto durante aperitivo sui Navigli, e non sono certo Brad Pitt
quando hai 3-4 tutti con la stessa voce è uno spasso, certo c'è chi gli gira.. ma anche chi sta allo scherzo e poi si unisce a noi a cercare il prossimo obiettivo.
il problema è l'accento e la cadenza, ma credo che prima o poi l'AI correggerà anche questo, anche se è molto complesso per la latenza. mi spiego, un conto è l'AI che elabora 10 sec di audio e cambia la cadenza, ma in real time, non è proprio logicamente possibile cambiare cadenza. l'accento e cadenza sono distribuite su una traccia sonora di diversi secondi.
spero di essermi spiegato.
probabilmente hai preso per ironico il mio messaggio, tieni
https://www.instagram.com/thousandgerry/
https://www.instagram.com/travis.scotti.official/
Quando una tecnologia puo essere sviluppata, qualcuno lo farà cmq e in quel caso tanto vale essere i primi.
Rendere illegale sta roba non servirà a niente, ma potrebbe essere uno spunto per smuoversi cambiare il modo di rendere valido un contratto a distanza .
Magari perfezionandolo con spid o cie o un acconto simbolico con carta.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".