Il futuro di call e videoconferenze sono i deepfake IA: parola del CEO di Zoom

Veri e propri cloni digitali che, grazie all'IA, potranno interagire e prendere decisioni durante le call: la visione, forse un po' estrema, del CEO di Zoom per il futuro delle comunicazioni professionali
di Andrea Bai pubblicata il 05 Giugno 2024, alle 13:11 nel canale WebZoom
Eric Yuan, CEO del servizio di videochiamate Zoom, ha avuto modo di esprimere la sua visione sul futuro delle comunicazioni in ambiente lavorativo e professionale: le riunioni in telepresenza saranno partecipate da cloni digitali basati sull'intelligenza artificiale capaci di interagire, rispondere e prendere decisioni.
Secondo Yuan si tratta di un'eventualità possibile, grazie all'opportuno sfruttamento dei modelli linguistici di grandi dimensioni. Il CEO di Zoom tuttavia riconosce che al momento la tecnologia presenta ancora delle limitazioni che impediscono la realizzazione di questa visione: gli LLM odierni, pur capaci di produrre testo convincente simile a quello umano, sono ancora lontani dal replicare il ragionamento umano in modo completo.
In ogni caso, secondo il CEO di Zoom, futuro ogni individuo potrebbe addestrare un LLM personalizzato per imitare se stesso. "Adesso tutti condividono gli stessi LLM, ma è una cosa che non ha alcun senso. Dovrei avere il mio LLM: l'LLM di Eric, l'LLM di Nilay. Tutti noi avremo il nostro LLM. Questa è sostanzialmente la base per un gemello digitale su cui posso contare. Ci saranno momenti in cui desidero partecipare ad una call, e quindi lo faccio. Se non voglio partecipare, posso mandare il mio gemello digitale per unirsi. Questo è il futuro" ha dichiarato Yuan in un'intervista a The Verge, sottolineando come questa visione potrebbe diventare realtà nel giro di cinque o sei anni.

Eric Yuan, CEO di Zoom
Il CEO di Zoom ha inoltre osservato: "Diciamo che il team sta aspettando che il CEO prenda una decisione o magari partecipi una conversazione significativa, il mio gemello digitale può davvero rappresentarmi e può anche essere parte del processo decisionale".
Si è trattato di dichiarazioni che hanno suscitato le perplessità dell'intervistatore di Yuan, il giornalista di The Verge Nilay Patel, il quale ha posto alcune obiezioni partendo dai problemi di "allucinazioni" degli attuali LLM (cioè i casi in cui l'IA generativa prende vere e proprie "cantonate" proponendo conclusioni imprecise se non del tutto errate) e toccando anche il tema della privacy e della sicurezza in relazione alla creazione di gemelli digitali deepfake.
Secondo Yuan le "allucinazoni" sono un problema che andrà via via risolvendosi con il maturare della tecnologia, com'è avvenuto in passato in cui molte limitazioni tecnologiche in genere sono state risolte semplicemente con il percorso del progresso. Il tema della sicurezza è stato però affrontato dal CEO di Zoom in maniera meno convincente, indicando semplicemente sistemi di riconoscimento dei deepfake e tecniche di crittografia end-to-end a protezione delle comunicazioni.
La possibilità di usare un clone digitale potenziato dall'IA come sostituto durante le call o le riunioni può essere una prospettiva che a qualcuno apparirà particolarmente intrigante, unendosi a quelle soluzioni - già oggi disponibili - che permettono di sfruttare l'intelligenza artificiale per produrre resoconti e sintesi di videoconferenze e chiamate. Ma è altresì una prospettiva che solleva non pochi dubbi: alcuni di questi saranno probabilmente dissipati, come afferma il CEO di Zoom, con il progredire delle tecnologie, ma in ultima istanza sarà davvero una buona idea usare un gemello digitale che operi per conto nostro quando siamo virtualmente assenti? Quale grado di fiducia si può accordare ad un'IA designata per prendere decisioni in nostra vece? Vogliamo esagerare: cosa potrebbe accadere in una riunione in cui tutti i partecipanti sono cloni digitali?
10 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoChe le decisioni sarebbero prese nello stesso modo, ma chi parla avrebbe l'aspetto di Jessica Alba
Perlomeno sarebbe più interessante
Probabilmente userò Valentina Nappi, mi dispiace sono un nazionalista
Il problema sarà quando quella IA darà risposte sbagliate o dannose
Cosa dirai a chi te lo rinfaccia ?
E se qualcuno ti chiede dei danni in tribunale per una cosa che la IA ha detto al posto tuo ?
Se fossi stato tu in persona potresti difenderti con un "credevo che quello che dicevo fosse giusto" ma se hai mandato una IA a rispondere per te non hai questa difesa, anzi, il fatto che tu abbia ingannato l'interlocutore facendogli credere di stare parlando con te sarebbe un'aggravante.
Cosa dirai a chi te lo rinfaccia ?
E se qualcuno ti chiede dei danni in tribunale per una cosa che la IA ha detto al posto tuo ?
Se fossi stato tu in persona potresti difenderti con un "credevo che quello che dicevo fosse giusto" ma se hai mandato una IA a rispondere per te non hai questa difesa, anzi, il fatto che tu abbia ingannato l'interlocutore facendogli credere di stare parlando con te sarebbe un'aggravante.
Finora nessun rischio sia perché controllo sempre io dopo le risposte (diciamo massimo a distanza di poche ore, se sono impegnato altrove) sia perché l'ho addestrata a non essere troppo "creativa", diciamo così.
E comunque anche se sorgessero problemi legali, si può sempre dimostrare dal punto di vista tecnico forense di non essere stato al pc in quel particolare momento ma di aver lasciato attiva solo l'IA: basta vedere i tasks della macchina, l'attività di navigazione, l'eventuale multitasking fatto in parallelo a quello, e tanti altri piccoli dettagli che fanno la differenza
Il problema è che questo non solo non ti discolpa, ma anzi è un'aggravante
Poniamo il caso in cui un avvocato risponde a un cliente su quello che deve fare in una certa pratica
Se il consiglio si rivela sbagliato, la difesa migliore è quella "con i dati in mio possesso in quel momento la risposta che ho dato era quella che pensavo fosse giusta"
Ma se la risposta l'ha data la AI, quella difesa cade in quanto non si può dire che la risposta fosse quella che pensava in quanto non l'ha data lui, non solo, ma il fatto che ha ingannato il suo interlocutore facendogli credere di stare parlando con un'avvocato quando invece stava parlando con l'AI che gli ha dato il consiglio sbagliato è un'ulteriore aggravante.
Farsi impersonare da un'AI in certi frangenti, specialmente lavorativi, si potrebbe persino configurare come reato
Poniamo il caso in cui un avvocato risponde a un cliente su quello che deve fare in una certa pratica
Se il consiglio si rivela sbagliato, la difesa migliore è quella "con i dati in mio possesso in quel momento la risposta che ho dato era quella che pensavo fosse giusta"
Ma se la risposta l'ha data la AI, quella difesa cade in quanto non si può dire che la risposta fosse quella che pensava in quanto non l'ha data lui, non solo, ma il fatto che ha ingannato il suo interlocutore facendogli credere di stare parlando con un'avvocato quando invece stava parlando con l'AI che gli ha dato il consiglio sbagliato è un'ulteriore aggravante.
Farsi impersonare da un'AI in certi frangenti, specialmente lavorativi, si potrebbe persino configurare come reato
certamente. In questo caso si. Se lo fai per lavoro devi dare la massima qualità e affidabilità. Ed è giusto che il cliente pretenda massima qualità e trasparenza sul tuo modo di lavorare. In questo caso io non userei la IA, o comunque lo farei con molta cautela. Ma io mi limito per il momento ad usarla soltanto a fini ricreativi e personali, per svago. Non l'ho mai fatto a fini lavorativi o per lucro. Anzi io credo che errori compiuti dalla IA per tuo conto in ambito lavorativo e dietro compenso economico potrebbero far configurare anche il reato di truffa se il tuo cliente non sapeva che tu usavi la IA. E' un inganno bello e buono perché il cliente sicuramente non avrebbe acconsentito al compimento dell'opera se avesse saputo che sarebbe stata impiegata una IA. Qui si, hai perfettamente ragione e bisogna prestare molta attenzione a IA usate in tal senso
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".