Monta la polemica: intelligenza artificiale usata per fornire supporto psicologico senza consenso

Monta la polemica: intelligenza artificiale usata per fornire supporto psicologico senza consenso

Una società no-profit che fornisce supporto psicologico su Discord ha usato GPT-3 per generare risposte da dare agli utenti, senza che questi ne fossero informati

di pubblicata il , alle 11:01 nel canale Web
 

ChatGPT ha il pregio di portare le potenzialità delle AI generative nelle mani di chiunque, ma gli esperimenti sull'uso delle AI sono in corso, tra gli addetti ai lavori, già da diverso tempo. Esperimenti che, come sta accadendo nel caso di Koko, una piattaforma di salute mentale no-profit, possono sollevare polemiche anche piuttosto accese.

Rob Morris, cofondatore del servizio, ha annunciato lo scorso venerdì su Twitter che la società ha portato avanti un esperimento per fornire consulenza sulla salute mentale a 4000 persone utilizzando l'IA e senza che queste venissero preventivamente informate della cosa: immediatamente una pioggia di critiche è caduta addosso a Morris, che ha dovuto fare i conti con accuse di immoralità poiché non ha ottenuto il consenso informato da parte delle persone in cerca di consulenza.

Prima un piccolo preambolo per spiegare come funziona Koko: la piattaforma mette in contatto persone che hanno bisogno di supporto psicologico con volontari tramite le app di messaggistica come Telegram e Discord. Su Discord, in particolare, le persone posso accedere al server Koko Cares e inviare messaggi diretti ad un bot Koko, il quale pone una serie di domande a scelta multipla. Le informazioni fornite dall'utente sono condivise in modo anonimo con altre persone presenti sul server che possono rispondere in maniera anonima con un breve messaggio. Il messaggio con cui Koko accoglie il pubblico è: "Koko ti mette in contatto con persone reali che ti capiscono davvero. Non terapisti, non consulenti, solo persone come te".

Morris ha raccontato su Twitter che nel corso dell'esperimento, che ha interessato un volume di circa 30 mila messaggi, i volontari che fornivano assistenza hanno avuto la possibilità di usare una risposta generata dal modello GPT-3 di OpenAI (lo stesso che è alla base di ChatGPT) invece di scriverne una di loro pugno. Secondo quanto dichiarato da Morris, le persone avrebbero valutato positivamente le risposte generate dall'intelligenza artificiale fino a quando non hanno saputo che erano state scritte, appunto, dall'AI.

Alla pubblicazione del messaggio su Twitter sono seguite, come dicevamo, una valanga di critiche che bollavano l'esperimento come non etico, in particolar modo per la mancanza del consenso informato e chiedendo se un organismo di revisione istituzionale avesse approvato l'esperimento. A tal proposito è bene precisare che negli Stati Uniti è vietato dalla legge condurre ricerce su soggetti umani senza che vi sia un consenso informato con forza legale, a meno che un comitato etico non ritenga che il consenso possa essere derogato.

Su questo punto però Morris sostiene che l'esperimento non richiederebbe di sottostare al requisito del consenso informato, poiché non vi sarebbe stata alcuna intenzione di pubblicazione dei risultati. La precisazione di Morris ha aggiunto benzina al fuoco, scatenando un forte dissenso.

Nel corso della giornata di lunedì Morris è intervenuto nuovamente su Twitter, cercando di spiegare che tipo di percorso seguirà Koko nel futuro con GPT-3 e l'intelligenza artificiale in generale:

"Ricevo critiche, preoccupazioni e domande su questo lavoro con empatia e apertura. Condividiamo l'interesse nell'assicurare che qualsiasi impiego dell'intelligenza artificiale sia gestito con sensibilità, con profonda attenzione alla privacy, alla trasparenza e alla mitigazione del rischio. Il nostro comitato consultivo clinico si riunisce per discutere le linee guida per il lavoro futuro, in particolare per quanto riguarda l'approvazione dell'IRB".

9 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
jepessen11 Gennaio 2023, 11:24 #1
Ero curioso di provare, ma il fatto che richieda il numero di cellulare mi ha fatto desistere sinceramente, non vedo a cosa possa servire a parte venderlo per campagne pubblicitarie.
pengfei11 Gennaio 2023, 14:54 #4


"sparare tutto a 6000mhz e chiamarlo un giorno"
Ma qual'è il senso di fare cacapost automatici, cercano di accumularne così poi postano pubblicità o link a truffe dando l'impressione di essere utenti veri e attivi?
E perché si risponde I got this?
giuliop11 Gennaio 2023, 15:02 #5
Originariamente inviato da: wingman87
Che schifo, per risolvere si potrebbe rafforzare i sistemi anti bot nell'iscrizione e bannare quelli già iscritti


Fun fact.

Un po' di tempo fa (probabilmente pre-pandemia) un amico poco tecnologico era venuto a trovarmi, e siccome era venuto fuori che avrebbe voluto vendere qualcosa di informatica, gli ho parlato del mercatino di HWUpgrade.
Ovviamente non l'aveva mai sentito, per cui ho detto, "creiamo l'account, poi metti tu l'annuncio".
Per cui compilo i dati, invio e... dopo pochi minuti, la sua utenza è stata bannata.

A questo punto mi viene il dubbio, forse perché *non* era un bot?
Saturn11 Gennaio 2023, 15:09 #6
Originariamente inviato da: giuliop
Fun fact.

Un po' di tempo fa (probabilmente pre-pandemia) un amico poco tecnologico era venuto a trovarmi, e siccome era venuto fuori che avrebbe voluto vendere qualcosa di informatica, gli ho parlato del mercatino di HWUpgrade.
Ovviamente non l'aveva mai sentito, per cui ho detto, "creiamo l'account, poi metti tu l'annuncio".
Per cui compilo i dati, invio e... dopo pochi minuti, la sua utenza è stata bannata.

A questo punto mi viene il dubbio, forse perché *non* era un bot?


Potevate scrivere allo staff, io me lo sarei fatto sbloccare visto che era un'utenza lecita di una terza persona.
giuliop11 Gennaio 2023, 16:47 #7
Originariamente inviato da: Saturn
Potevate scrivere allo staff, io me lo sarei fatto sbloccare visto che era un'utenza lecita di una terza persona.


Sì, diciamo che non era molto importante, non sono nemmeno sicuro che alla fine l'avrebbe mai usato... quello che mi ha colpito è stata l'efficienza nel bannare un utente vero, mentre i bot se la cavano egregiamente
Yramrag12 Gennaio 2023, 08:22 #8
Intanto da ieri gli spammer hanno ripreso a usare account compromessi, basta vedere le sezioni "Musica" o "Offerte telefoniche e gestori telefonici"
Yramrag12 Gennaio 2023, 15:37 #9
Fresco fresco di giornata: https://www.hwupgrade.it/forum/showthread.php?t=2974854"]Ancora per favore dimmi un po' di più?[/URL] ([SIZE="1"]che sembra un testo delle canzoni tradotte cantate da Sio[/SIZE])

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^