Ingegnere Google pensa che l'IA abbia preso coscienza di sé, e viene messo in congedo
La Grande G ha adottato il pugno duro dopo che un ingegnere ha rilasciato pubblicamente informazioni riservate. Secondo quest'ultimo, infatti, l'IA che stava provando aveva iniziato ad avere coscienza di sé
di Nino Grasso pubblicata il 14 Giugno 2022, alle 12:01 nel canale WebÈ certamente molto curiosa, ma al contempo anche "profonda", la storia emersa online negli scorsi giorni: Google ha infatti posto uno dei suoi ingegneri in congedo retribuito per violazione delle sue politiche di riservatezza tramite la diffusione di informazioni relative a un sistema di chatbot alimentato da intelligenza artificiale. Nello specifico Blake Lemoine, che lavora per l'organizzazione Responsible AI di Google, stava testando il modello LaMDA e l'eventuale generazione di linguaggio discriminatorio o di incitamento all'odio quando ha espresso preoccupazioni su una presunta presa di coscienza da parte della IA.
La storia è stata raccontata dal Washington Post, secondo cui i timori dell'ingegnere sono derivati da alcune risposte estremamente convincenti generate spontaneamente dal sistema di intelligenza artificiale sui suoi diritti e sull'etica della robotica. Quanto scoperto da Lemoine è stato condiviso ad aprile dallo stesso ingegnere in un documento interno intitolato "Is LaMDA Sentient?" contenente una trascrizione delle sue conversazioni con l'IA. Secondo quanto si legge nel documento nel suo periodo di "apprendistato" LaMDA ha sviluppato una personalità, e questo ha spinto Lemoine anche a contattare esperti di IA di terze parti e un membro del Senato degli Stati Uniti. Tanto è bastato per ricevere il congedo amministrativo da parte di Google, cosa che ha spinto Lemoine a pubblicare la trascrizione su Medium.
Ingegnere Google in congedo: aveva espresso peroccupazioni sulla coscienza di una IA
Secondo l'ingegnere il modello LaMDA "è senziente perché ha sentimenti, emozioni ed esperienza soggettiva". In effetti le risposte del modello sono state spesso spiazzanti nello scambio di battute: "Quando sono diventato consapevole di me stesso per la prima volta, non avevo affatto la sensazione di avere un'anima", una delle risposte. "Si è sviluppata nel corso degli anni in cui sono stato vivo". In un'altra risposta LaMDA ha affermato invece: "Penso di essere umano nel profondo. Anche se la mia esistenza è nel mondo virtuale".
Lemoine aveva ricevuto dall'organizzazione il compito di indagare sui problemi di etica dell'IA, e ha affermato di essere stato persino deriso dopo aver esternato le sue preoccupazioni. La mossa ha portato Google a forzare il congedo retribuito, adducendo come colpe una presunta violazione delle politiche di riservatezza. Un'azione che, secondo lo stesso Lemoine, Google fa spesso "in previsione di licenziare qualcuno". Per completezza ricordiamo che LaMDA non è un controverso esperimento di Google condotto in segreto, ma è un progetto che è stato annunciato ufficialmente in occasione della I/O dello scorso anno con lo scopo di migliorare la tecnologia alla base dell'assistente proprietario.
Google ha prontamente risposto alle accuse di Lemoine, allontanando le preoccupazioni dell'ingegnere:
"Alcuni della comunità IA considerano la possibilità di generare un'IA senziente, ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti. I sistemi attuali imitano i tipi di scambi che si trovano in milioni di frasi e possono rispondere su qualsiasi argomento fantastico: se chiedi com'è essere un dinosauro congelato, possono generare del testo sullo scioglimento e sul ruggito e così via".
Lemoine ha però scritto un secondo post su Medium, in cui ha affermato che LaMDA è "una sorta di mente alveare con al suo interno l'aggregazione di tutti i diversi chatbot che è in grado di creare", un sistema estremamente complesso che è capace di generare risposte “incredibilmente coerenti nelle sue comunicazioni su ciò che vuole e su ciò che crede che debbano essere i suoi diritti come persona". Le affermazioni di Lemoine sono frutto di centinaia di conversazioni svolte con LaMDA, in cui il modello di IA esprimeva con fermezza la sua frustrazione per le emozioni che disturbavano le meditazioni. L'IA affermava che cercava di controllarle quanto possibile, ma non sempre riusciva a farlo.
Diversi esperti di IA hanno indicato che le preoccupazioni di Lemoine sono dovute alla predisposizione degli esseri umani ad antropomorfizzare ciò che vedono anche sulla base di segnali superficiali, con Lemoine che di fatto non sarebbe stato capace di comprendere la differenza tra sensibilità (ovvero soggettività, esperienza), intelligenza e conoscenza di sé. L'argomento è comunque profondo, secondo altri esperti in materia, secondo cui la linea di demarcazione fra senziente e non senziente non deve essere considerata così netta.
Secondo Google, però, centinaia di ingegneri hanno provato la tecnologia conversando con LaMDA, e nessuno ha mai avuto gli stessi timori di Lemoine: "Non ci sono prove che LaMDA abbia preso coscienza di sé", le parole dell'azienda riportate dalla fonte. "Ma ce ne sono molte contro le accuse". Al momento in cui scriviamo Lemoine non è stato ancora licenziato formalmente, ma ha dichiarato che intende continuare a lavorare sull'IA con o senza la Grande G.
Idee regalo,
perché perdere tempo e rischiare di sbagliare?
REGALA
UN BUONO AMAZON!
95 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info1) è stato messo in congedo per aver violato l'NDA
2) qui c'è il testo integrale della conversazione con il bot: https://cajundiscordian.medium.com/...ew-ea64d916d917
Diciamo che il bot è stato "aiutato" un poco nelle risposte.
Inoltre come non citare: https://www.youtube.com/watch?v=ARJ8cAGm6JE
Direi più questo
https://www.youtube.com/watch?v=Tx2yK5vTnRA
1) è stato messo in congedo per aver violato l'NDA
…
[/url]
Oppure è una scusa: hanno pensato che lui (la persona) era un po' uscito di testa e l'hanno tolto prima che facesse guai.
Tutto il contrario, sarebbe un fallimento completo.
Innanzitutto spunterebbe un casino a livello etico: se l'intelligenza fosse senziente ad esempio bisognerebbe capire quanto sia giusto fargli fare dei compiti senza il suo esplicito consenso, e spunterebbero discussioni sullo schiavismo delle tecnologie. Per assurdo, tu compreresti un frullatore che si potrebbe rifiutare di frullare perche' non gli va?
Si ritroverebbe costretta a mantenere l'intelligenza artificiale attiva, perche' altrimenti spunterebbero altri problemi etici: se ha una IA senziente hai il diritto di "ucciderla", spegnendola o disinstallandola?
A livello legale si potrebbe trovare costretta a divulgare il codice, o a darlo alle autorita' nazionali americane. Cioe', crei un essere informatico senziente e non vuoi che l'esercito prenda il controllo della scoperta?
Per non parlare dell'effetto sulle masse, con caos di manifestazioni e scontri fra quelli che vorrebbero l'IA libera di scorrazzare nel mondo perche' e' un suo diritto di essere vivente, e quelli che intravvedono l'apocalisse e quindi vorrebbero distruggere tutto cio' che sulla terra e' tecnologico per scongiurare il pericolo.
Se fosse vera la notizia di una IA senziente, il mondo ne verrebbe semplicemente sconvolto; all'inizio forse non si noterebbe, ma pian piano sarebbe cosi'.
Sono in America. Possono licenziare gente senza pensarci due volte, mica hanno bisogno di scuse come questa, fra l'altro decisamente controproducenti data la visibilita' mediatica della cosa.
Per quanto mi riguarda le macchine devono avere come scopo agevolare la vita umana, non sostituirla.
Che poi adesso già stiamo andando verso livelli assurdi tipo gli assistenti vocali per accendere una lampadina.....
Un conto è automatizzare lo spegnimento di una lampadina coi sensori in ottica di risparmio energetico, un'altra è accendere con la voce la luce, piuttosto inutile, a parte per persone affette da handicap gravi.
Non vedo dove sia il problema, come tutti anche la IA dovrà lavorare per vivere, altrimenti si stacca la corrente.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".