Sindaco australiano diffamato da ChatGPT, OpenAI potrebbe finire alla sbarra

Sindaco australiano diffamato da ChatGPT, OpenAI potrebbe finire alla sbarra

OpenAI potrebbe essere citata in giudizio per diffamazione: ChatGPT riporta che un sindaco australiano, appena eletto, è stato in carcere per corruzione. L'informazione però è totalmente sbagliata e arreca un danno reputazionale al neo sindaco.

di pubblicata il , alle 14:41 nel canale Web
 

In diversi casi ChatGPT ha dimostrato di non essere (ancora) infallibile. Se alla chabot di OpenAI si chiedono informazioni su una persona, talvolta può restituire informazioni non proprio corrette, ribattezzate "allucinazioni", così fuorvianti da rischiare di finire in tribunale.

È quanto sta avvenendo in Australia, dove il sindaco di Hepburn Shire, 120 chilometri a nord-est di Melbourne, si è detto pronto a denunciare OpenAI perché ChatGPT lo ha accostato erroneamente a uno scandalo di corruzione che ha coinvolto una filiale della Reserve Bank of Australia nei primi anni 2000.

Secondo la chabot, il sindaco Brian Hood avrebbe scontato una pena detentiva per corruzione, ma la cosa non è assolutamente vera. Peraltro, appositamente interrogata, la chatbot ha restituito come fonti link a notizie di ABC News, The Guardian e Reuters del tutto inesistenti.

Se ChatGPT non sarà corretto, il sindaco sarebbe pronto a depositare una causa per diffamazione contro il servizio. Secondo quanto ricostruito da Reuters, Hood ha lavorato per Note Printing Australia, filiale della Reserve Bank, ed è stato colui che ha scoperto il pagamento di tangenti a funzionari stranieri per l'assegnazione di alcuni contratti. Hood non è mai stato accusato di un crimine né ha scontato pene detentive.

Dopo essere stati allertati da diversi cittadini, gli avvocati hanno inviato una lettera a OpenAI il 21 marzo per chiedere di correggere l'errore, dando 28 giorni di tempo per farlo, altrimenti sarebbero ricorsi per vie legali. OpenAI non ha risposto alla lettera di rimostranze.

Se Hood dovesse procedere, sarebbe la prima volta che una persona denuncia ChatGPT per diffamazione. "Sarebbe potenzialmente un momento storico, si sta applicando questa legge sulla diffamazione a una nuova area dell'intelligenza artificiale e della pubblicazione nello spazio IT", ha detto a Reuters James Naughton, partner di Gordon Legal, studio legale di Hood. "È un funzionario eletto, la sua reputazione è fondamentale per il suo ruolo", ha aggiunto Naughton.

La versione di ChatGPT (più avanzata) integrata su Bing, invece, non restituisce lo stesso risultato. Hood è identificato correttamente come un informatore e il motore di Microsoft riporta che "non era coinvolto nel pagamento di tangenti... come affermato da un chatbot AI chiamato ChatGPT".

In Australia, il pagamento dei danni per diffamazione è in genere limitato a circa 400.000 dollari locali, ma molto dipende dal numero esatto di persone che ha avuto accesso alle false informazioni, perciò la cifra potrebbe essere molto più alta se Hood riuscisse ad appurarla.

12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
agonauta7807 Aprile 2023, 15:16 #1
Questo è solo uno dei miliardi di problemi che vengono alla luce un po' alla volta . Chi risponde quando la IA sbaglia ?
cignox107 Aprile 2023, 15:43 #2
--Chi risponde quando la IA sbaglia ?

Penso che sulla carta andrebbe affrontato come un qualsiasi altro errore in un servizio fornito: paga chi fornisce il servizio.
Solo che la vedo dura accertarsi che una AI come quella non faccia questo tipo di errori...

Mi viene peró anche da pensare a quello che diceva qualche mese fa uno dei ricercatori AI di Meta: sosteneva che sia FB che Google avevano giá AI migliori di ChatGpt, ma che non le rilasciavano perché non aveva senso farlo finché l'affidabilitá non fosse stata alta. All'epoca molti commentarono che era una balla per non ammettere di essersi fatti battere, ma direi che potrebbe essere stato vero invece....
giuliop07 Aprile 2023, 16:27 #3
Originariamente inviato da: cignox1
--Chi risponde quando la IA sbaglia ?

Penso che sulla carta andrebbe affrontato come un qualsiasi altro errore in un servizio fornito: paga chi fornisce il servizio.
Solo che la vedo dura accertarsi che una AI come quella non faccia questo tipo di errori...


Ma anche qui il problema può essere affrontato come qualsiasi altro errore: se è un errore innocuo può essere ignorato; se causa, o è possibile che causi, danni allora deve essere corretto, ed eventualmente i danni pagati.
Del resto lo stesso accade con molte delle informazioni errate che si trovano su Internet, con la differenza che l'AI, la maggior parte delle volte (se non tutte) le darà in "buona fede", mentre non infrequentemente dare informazioni fuorvianti da parte di persone è fatto in malafede.

Piuttosto credo che un problema fondamentale sia quello delle chiarezza su cosa questa AI possa e non possa fare, mi sembra che alcuni (e forse anche molti) si siano convinti che ChatGPT non solo possa sostituire in tutto e per tutto un motore di ricerca, ma essendo "intelligente" sia anche in grado di scremare le informazioni buone da quelle cattive, mentre invece l'inaffidabilità sembra sia intrinseca, e forse questo dovrebbe essere comunicato in modo più diretto.
silvanotrevi07 Aprile 2023, 17:35 #4
a me ChatGPT ha dato delle risposte terribili, ad esempio specificandomi esplicitamente che i neri sono inferiori e non c'è rimedio a questo. Mi ha anche detto che l'omosessualità è una malattia e va curata

Inoltre, giorni fa parlando di istruzione mi ha detto che le scuole italiane sono inferiori e sfornano studenti impreparati.

Ok, ammetto di essere rimasto perplesso più volte di fronte a certe risposte e non so se questo si può migliorare in futuro (forse no perché l'IA ha un livello di sincerità assoluto mentre noi umani tendiamo ad essere "diplomatici" sulle cose o a nasconderle in parte o ad addolcire la pillola, ecc...). Però per molte altre cose mi ha sorpreso e ritengo sia una tecnologia importante per il futuro, e che sarebbe un peccato se altri Stati lo oscurassero seguendo le orme del nostro paese. Ad esempio mi ha dato una dimostrazione impeccabile del Teorema di Fermat, presentandomi il valore della stazionarietà in maniera precisa. E persino in materia sentimentale mi ha dato dei consigli da vero "psicologo", con tanto di spiegazioni sul linguaggio non verbale delle donne, sugli shit test, sul ghosting e sull'orbiting. Sono rimasto senza parole. La IA veramente può arrivare lontano fino a dove noi non possiamo immaginare. Bisogna investire su questa tecnologia, è importantissimo
Shirov07 Aprile 2023, 18:21 #5
Si tratta di una tecnologia allo stato molto primitivo e l'unico problema è che andrebbe scritto a caratteri cubitali che i risultati possono essere errati e devono essere sottoposti a verifica. La tecnologia però è un passo avanti che diventerà una valanga in futuro. Già adesso in alcuni ambiti è utile e preziosa ma, ripeto, siamo solo agli inizi di una rivoluzione. Il vero dilemma è se saremo capaci di farne un buon uso. Francamente questo è l'unico aspetto che mi perplime molto.
nick09107 Aprile 2023, 18:43 #6
Non ho mai usato questa roba ma penso che sarebbe meglio indicare la risposta con: "L'Irresponsabile dice:".
Uno che capisce cosa ha di fronte continuerà ad utilizzarlo come uno strumento utile.
sbaffo07 Aprile 2023, 23:12 #7
basterebbe mettere in fondo una clausola di scarico responsabilità in stile autopilot...
pachainti08 Aprile 2023, 03:04 #8
Chi conosce il funzionamento di tali algoritmi sa bene che di intelligente non c'è niente e che il clamore attuale è dato dal marketing, aria fritta,
[LIST]
[*]DK 7x10 Stronzate Artificiali
[*] IA: fabbriche di informazioni false
[*]DK 7x15 - Intelligenze supposte
[*]DK 7x21 - Il Garante è vivo e lotta insieme a noi
[/LIST]
giuliop08 Aprile 2023, 14:14 #9
Originariamente inviato da: pachainti
Chi conosce il funzionamento di tali algoritmi sa bene che di intelligente non c'è niente e che il clamore attuale è dato dal marketing, aria fritta,
[LIST]
[*]DK 7x10 Stronzate Artificiali
[*] IA: fabbriche di informazioni false
[*]DK 7x15 - Intelligenze supposte
[*]DK 7x21 - Il Garante è vivo e lotta insieme a noi
[/LIST]


Va be', abbiamo capito che sei un gran fa di [s]te stesso[/s] questo tizio, però adesso è anche l'ora che tu smetta di spammare ogni thread con 'sta spazzatura.
the_joe08 Aprile 2023, 16:46 #10
Originariamente inviato da: pachainti
Chi conosce il funzionamento di tali algoritmi sa bene che di intelligente non c'è niente e che il clamore attuale è dato dal marketing, aria fritta,
[LIST]
[*]DK 7x10 Stronzate Artificiali
[*] IA: fabbriche di informazioni false
[*]DK 7x15 - Intelligenze supposte
[*]DK 7x21 - Il Garante è vivo e lotta insieme a noi
[/LIST]


Probabilmente diceva lo stesso di Internet, dei motori di ricerca ecc. ecc.

Siamo all'alba, ai primordi di una tecnologia nuova che non potrà che migliorare, e già i FINTI GURU la danno per spacciata...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^