Il futuro di call e videoconferenze sono i deepfake IA: parola del CEO di Zoom

Il futuro di call e videoconferenze sono i deepfake IA: parola del CEO di Zoom

Veri e propri cloni digitali che, grazie all'IA, potranno interagire e prendere decisioni durante le call: la visione, forse un po' estrema, del CEO di Zoom per il futuro delle comunicazioni professionali

di pubblicata il , alle 13:11 nel canale Web
Zoom
 

Eric Yuan, CEO del servizio di videochiamate Zoom, ha avuto modo di esprimere la sua visione sul futuro delle comunicazioni in ambiente lavorativo e professionale: le riunioni in telepresenza saranno partecipate da cloni digitali basati sull'intelligenza artificiale capaci di interagire, rispondere e prendere decisioni.

Secondo Yuan si tratta di un'eventualità possibile, grazie all'opportuno sfruttamento dei modelli linguistici di grandi dimensioni. Il CEO di Zoom tuttavia riconosce che al momento la tecnologia presenta ancora delle limitazioni che impediscono la realizzazione di questa visione: gli LLM odierni, pur capaci di produrre testo convincente simile a quello umano, sono ancora lontani dal replicare il ragionamento umano in modo completo.

In ogni caso, secondo il CEO di Zoom, futuro ogni individuo potrebbe addestrare un LLM personalizzato per imitare se stesso. "Adesso tutti condividono gli stessi LLM, ma è una cosa che non ha alcun senso. Dovrei avere il mio LLM: l'LLM di Eric, l'LLM di Nilay. Tutti noi avremo il nostro LLM. Questa è sostanzialmente la base per un gemello digitale su cui posso contare. Ci saranno momenti in cui desidero partecipare ad una call, e quindi lo faccio. Se non voglio partecipare, posso mandare il mio gemello digitale per unirsi. Questo è il futuro" ha dichiarato Yuan in un'intervista a The Verge, sottolineando come questa visione potrebbe diventare realtà nel giro di cinque o sei anni.


Eric Yuan, CEO di Zoom

Il CEO di Zoom ha inoltre osservato: "Diciamo che il team sta aspettando che il CEO prenda una decisione o magari partecipi una conversazione significativa, il mio gemello digitale può davvero rappresentarmi e può anche essere parte del processo decisionale".

Si è trattato di dichiarazioni che hanno suscitato le perplessità dell'intervistatore di Yuan, il giornalista di The Verge Nilay Patel, il quale ha posto alcune obiezioni partendo dai problemi di "allucinazioni" degli attuali LLM (cioè i casi in cui l'IA generativa prende vere e proprie "cantonate" proponendo conclusioni imprecise se non del tutto errate) e toccando anche il tema della privacy e della sicurezza in relazione alla creazione di gemelli digitali deepfake.

Secondo Yuan le "allucinazoni" sono un problema che andrà via via risolvendosi con il maturare della tecnologia, com'è avvenuto in passato in cui molte limitazioni tecnologiche in genere sono state risolte semplicemente con il percorso del progresso. Il tema della sicurezza è stato però affrontato dal CEO di Zoom in maniera meno convincente, indicando semplicemente sistemi di riconoscimento dei deepfake e tecniche di crittografia end-to-end a protezione delle comunicazioni. 

La possibilità di usare un clone digitale potenziato dall'IA come sostituto durante le call o le riunioni può essere una prospettiva che a qualcuno apparirà particolarmente intrigante, unendosi a quelle soluzioni - già oggi disponibili - che permettono di sfruttare l'intelligenza artificiale per produrre resoconti e sintesi di videoconferenze e chiamate. Ma è altresì una prospettiva che solleva non pochi dubbi: alcuni di questi saranno probabilmente dissipati, come afferma il CEO di Zoom, con il progredire delle tecnologie, ma in ultima istanza sarà davvero una buona idea usare un gemello digitale che operi per conto nostro quando siamo virtualmente assenti? Quale grado di fiducia si può accordare ad un'IA designata per prendere decisioni in nostra vece? Vogliamo esagerare: cosa potrebbe accadere in una riunione in cui tutti i partecipanti sono cloni digitali?

10 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Cfranco05 Giugno 2024, 15:16 #1
Nelle riunioni ad alto livello le decisioni sono prese a caso già adesso, che differenza farebbe far partecipare una AI ?
DjLode05 Giugno 2024, 15:23 #2
Originariamente inviato da: Cfranco
Nelle riunioni ad alto livello le decisioni sono prese a caso già adesso, che differenza farebbe far partecipare una AI ?


Che le decisioni sarebbero prese nello stesso modo, ma chi parla avrebbe l'aspetto di Jessica Alba
bonzoxxx05 Giugno 2024, 15:33 #3
Originariamente inviato da: DjLode
Che le decisioni sarebbero prese nello stesso modo, ma chi parla avrebbe l'aspetto di Jessica Alba


Perlomeno sarebbe più interessante

Probabilmente userò Valentina Nappi, mi dispiace sono un nazionalista
silvanotrevi05 Giugno 2024, 15:46 #4
Non ci vedo nulla di male nell'usare questi cloni digitali. Io stesso uso l'IA ad esempio per rispondere in alcuni forum online, l'ho addestrata in base alle mie conoscenze e al mio stile di rispondere e mai nessuno si è accorto finora della differenza. Questo mi permette di partecipare a molte discussioni pur essendo impegnato in altre attività. Mi piacerebbe fare lo stesso con le videocall in futuro quando questo sarà possibile
Cfranco05 Giugno 2024, 16:18 #5
Originariamente inviato da: silvanotrevi
Non ci vedo nulla di male nell'usare questi cloni digitali. Io stesso uso l'IA ad esempio per rispondere in alcuni forum online, l'ho addestrata in base alle mie conoscenze e al mio stile di rispondere e mai nessuno si è accorto finora della differenza. Questo mi permette di partecipare a molte discussioni pur essendo impegnato in altre attività. Mi piacerebbe fare lo stesso con le videocall in futuro quando questo sarà possibile


Il problema sarà quando quella IA darà risposte sbagliate o dannose
Cosa dirai a chi te lo rinfaccia ?
E se qualcuno ti chiede dei danni in tribunale per una cosa che la IA ha detto al posto tuo ?
Se fossi stato tu in persona potresti difenderti con un "credevo che quello che dicevo fosse giusto" ma se hai mandato una IA a rispondere per te non hai questa difesa, anzi, il fatto che tu abbia ingannato l'interlocutore facendogli credere di stare parlando con te sarebbe un'aggravante.
silvanotrevi05 Giugno 2024, 16:31 #6
Originariamente inviato da: Cfranco
Il problema sarà quando quella IA darà risposte sbagliate o dannose
Cosa dirai a chi te lo rinfaccia ?
E se qualcuno ti chiede dei danni in tribunale per una cosa che la IA ha detto al posto tuo ?
Se fossi stato tu in persona potresti difenderti con un "credevo che quello che dicevo fosse giusto" ma se hai mandato una IA a rispondere per te non hai questa difesa, anzi, il fatto che tu abbia ingannato l'interlocutore facendogli credere di stare parlando con te sarebbe un'aggravante.


Finora nessun rischio sia perché controllo sempre io dopo le risposte (diciamo massimo a distanza di poche ore, se sono impegnato altrove) sia perché l'ho addestrata a non essere troppo "creativa", diciamo così.
E comunque anche se sorgessero problemi legali, si può sempre dimostrare dal punto di vista tecnico forense di non essere stato al pc in quel particolare momento ma di aver lasciato attiva solo l'IA: basta vedere i tasks della macchina, l'attività di navigazione, l'eventuale multitasking fatto in parallelo a quello, e tanti altri piccoli dettagli che fanno la differenza
Cfranco05 Giugno 2024, 17:09 #7
Originariamente inviato da: silvanotrevi
E comunque anche se sorgessero problemi legali, si può sempre dimostrare dal punto di vista tecnico forense di non essere stato al pc in quel particolare momento

Il problema è che questo non solo non ti discolpa, ma anzi è un'aggravante

Poniamo il caso in cui un avvocato risponde a un cliente su quello che deve fare in una certa pratica
Se il consiglio si rivela sbagliato, la difesa migliore è quella "con i dati in mio possesso in quel momento la risposta che ho dato era quella che pensavo fosse giusta"
Ma se la risposta l'ha data la AI, quella difesa cade in quanto non si può dire che la risposta fosse quella che pensava in quanto non l'ha data lui, non solo, ma il fatto che ha ingannato il suo interlocutore facendogli credere di stare parlando con un'avvocato quando invece stava parlando con l'AI che gli ha dato il consiglio sbagliato è un'ulteriore aggravante.

Farsi impersonare da un'AI in certi frangenti, specialmente lavorativi, si potrebbe persino configurare come reato
silvanotrevi05 Giugno 2024, 21:55 #8
Originariamente inviato da: Cfranco
Il problema è che questo non solo non ti discolpa, ma anzi è un'aggravante

Poniamo il caso in cui un avvocato risponde a un cliente su quello che deve fare in una certa pratica
Se il consiglio si rivela sbagliato, la difesa migliore è quella "con i dati in mio possesso in quel momento la risposta che ho dato era quella che pensavo fosse giusta"
Ma se la risposta l'ha data la AI, quella difesa cade in quanto non si può dire che la risposta fosse quella che pensava in quanto non l'ha data lui, non solo, ma il fatto che ha ingannato il suo interlocutore facendogli credere di stare parlando con un'avvocato quando invece stava parlando con l'AI che gli ha dato il consiglio sbagliato è un'ulteriore aggravante.

Farsi impersonare da un'AI in certi frangenti, specialmente lavorativi, si potrebbe persino configurare come reato


certamente. In questo caso si. Se lo fai per lavoro devi dare la massima qualità e affidabilità. Ed è giusto che il cliente pretenda massima qualità e trasparenza sul tuo modo di lavorare. In questo caso io non userei la IA, o comunque lo farei con molta cautela. Ma io mi limito per il momento ad usarla soltanto a fini ricreativi e personali, per svago. Non l'ho mai fatto a fini lavorativi o per lucro. Anzi io credo che errori compiuti dalla IA per tuo conto in ambito lavorativo e dietro compenso economico potrebbero far configurare anche il reato di truffa se il tuo cliente non sapeva che tu usavi la IA. E' un inganno bello e buono perché il cliente sicuramente non avrebbe acconsentito al compimento dell'opera se avesse saputo che sarebbe stata impiegata una IA. Qui si, hai perfettamente ragione e bisogna prestare molta attenzione a IA usate in tal senso
das06 Giugno 2024, 11:14 #9
Forse in futuro le intelligenze naturali saranno così tanto disallenate, che lasciar parlare quelle artificiali sarà un obbligo de facto
Giuss06 Giugno 2024, 12:21 #10
Magari, mi risparmierebbero un bel pò di riunioni più o meno inutili che mi fanno dare in Teams, una scocciatura

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^