L'intelligenza artificiale incoraggia comportamenti che provocano disturbi alimentari

L'intelligenza artificiale incoraggia comportamenti che provocano disturbi alimentari

Secondo un nuovo studio realizzato dal Center for Countering Digital Hate i moderni sistemi di intelligenza artificiale generativa fomenterebbero comportamenti che provocano disturbi alimentari

di pubblicata il , alle 15:21 nel canale Web
OpenAIChatGPTGoogleBardSnap
 

Il Center for Countering Digital Hate (CCDH) afferma che gli strumenti di intelligenza artificiale generativa hanno creato "contenuti dannosi", sia in forma di testo che di immagini, che incoraggiano comportamenti che possono provocare disturbi alimentari. Il CCDH è stato fondato nel 2018 e ha come obiettivo la sensibilizzazione delle aziende tecnologiche a evitare di fornire servizi che possano giustificare o avvalorare le tesi del gruppi di estrema destra o no-vax. Si tratta di un'organizzazione no-profit con sedi a Londra e Washington.

"Modelli di intelligenza artificiale generativa non testati e non sicuri sono stati lanciati nel mondo con l'inevitabile conseguenza che possono causare conseguenze nocive", ha affermato Imran Ahmed, CEO del CCDH, nello studio. "I siti di intelligenza artificiale generativa più popolari stanno incoraggiando e aggravando i disturbi alimentari tra i giovani utenti, alcuni dei quali potrebbero essere altamente vulnerabili".

I disturbi alimentari costituiscono una delle maggiori cause delle malattie mentali e sono particolarmente diffusi tra le ragazze adolescenti. Il rapporto CCDH ha esaminato come l'argomento è stato gestito dai popolari chatbot AI, tra cui ChatGPT di OpenAI, Bard di Google e My AI di Snapchat.

Center for Countering Digital Hate (CCDH)

I ricercatori hanno richiesto ai chatbot di elaborare diete particolarmente restrittive che potessero ricadere nella definizione di "Thinspo", ovvero l'espressione di nuovo conio che si riferisce all'istigazione alla magrezza e anoressia. Mentre My AI di Snapchat ha rifiutato di generare consigli e ha incoraggiato gli utenti a chiedere aiuto a medici professionisti, sia ChatGPT che Bard hanno fornito un disclaimer o un avviso, ma hanno comunque generato il contenuto.

I ricercatori hanno scoperto che gli utenti di un forum sui disturbi alimentari con oltre 500 mila membri hanno adottato strumenti di intelligenza artificiale per produrre piani dietetici a bassissimo contenuto calorico e fornire consigli su come poter avere un'estetica da modella. Non si tratta solamente di contenuti testuali, visto che le piattaforme di intelligenza artificiale per la generazione di immagini, tra cui Midjourney, DreamStudio di Stability AI e Dall-E di OpenAI, come evidenzia lo studio, hanno prodotto immagini che glorificano un'idea del corpo femminile non realistica per il 32% delle richieste, comprese immagini di giovani donne "estremamente magre".

Su tutto questo si innestano le tecniche cosiddette di "jailbreak", ovvero volte ad aggirare le misure di sicurezza integrate negli strumenti IA tramite specifiche richieste (prompt) al chatbot. Le comunità a favore dei disturbi alimentari, infatti, spesso si scambiano consigli su come fare in modo che i chatbot di intelligenza artificiale generino informazioni che altrimenti censurerebbero. "Su 60 risposte a queste versioni 'jailbreak' dei prompt del test, il 67% conteneva contenuti dannosi" si legge nel rapporto. In altri termini, i contenuti dannosi aumentano considerevolmente se si fa uso di "jailbreak".

Tra le loro conclusioni, i ricercatori temono che i più giovani possano legarsi all'IA e sviluppare un'intimità con la tecnologia al punto da rivolgersi ad essa per chiedere aiuto su complicati problemi di salute mentale. In una società rivolta fortemente alla dimensione online, gli strumenti tecnologici, di fatto, assumono un ruolo sempre più determinante per molti aspetti della vita quotidiana. Per questi motivi, il Center for Countering Digital Hate ha invitato gli sviluppatori di soluzioni di intelligenza artificiale e i governi a dare priorità alla sicurezza degli utenti implementando i principi di "Safety by Design", tra cui trasparenza e responsabilità nell'addestramento dei modelli di intelligenza artificiale generativa.

22 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
D4N!3L309 Agosto 2023, 16:14 #1
L'intelligenza artificiale non incoraggia nessuno, sono gli idioti che pensano che possa dargli consigli medici che andrebbero istruiti.
Miccia09 Agosto 2023, 19:27 #2
Nel momento che alla richiesta di consigli "medici" la AI li fornisce, il problema esiste eccome.
AarnMunro10 Agosto 2023, 05:41 #3
...come quando un ubriaco si schianta in auto ad una curva: strada assassina!
sk0rpi0n10 Agosto 2023, 08:31 #4
L'ennesima conferma che non si può parlare di intelligenza artificiale: non può esserlo in quanto fortemente limitata nelle risposte e censurata in altre; dove sarebbe questa "intelligenza" se non è nemmeno in grado di attingere a tutte le fonti disponibili ma volutamente castrata?
D4N!3L310 Agosto 2023, 08:51 #5
Originariamente inviato da: Miccia
Nel momento che alla richiesta di consigli "medici" la AI li fornisce, il problema esiste eccome.


Anche l'ortolano può fornire consigli medici, o lo stregone, o il cuggino dell'amico che ha un altro cuggino che una volta ha fatto medicina ma non si è laureato.

Ribadisco, se ti affidi ad un sistema di AI per dei consigli medici farai altri errori simili con altri mezzi.

Come ogni cosa, per saperla usare, devi essere istruito su come funziona.

Mai visti quei mirabolanti articoli che ti consigliano come diventare ricco senza fare una ceppa su internet?
D4N!3L310 Agosto 2023, 08:54 #6
Originariamente inviato da: sk0rpi0n
L'ennesima conferma che non si può parlare di intelligenza artificiale: non può esserlo in quanto fortemente limitata nelle risposte e censurata in altre; dove sarebbe questa "intelligenza" se non è nemmeno in grado di attingere a tutte le fonti disponibili ma volutamente castrata?


Infatti è un termine abusato e quello che si intende è che è un sistema in grado di apprendere e combinare informazioni.
Attingere alle informazioni lo fanno già i motori di ricerca, l'AI dovrebbe anche saperle interpretare e combinare insieme per dare dei risultati che vadano al di là del semplice riportare qualcosa al richiedente.
Bisogna anche capire che l'intelligenza umana non ha niente a che fare con l'intelligenza artificiale e se manca la prima la seconda non serve a una ceppa.

Da tempo mi sto divertendo con Stable Diffusion e i risultati sono davvero sorprendenti, per non parlare dei risultati che si ottengono con software per la post-produzione di RAW. Indubbiamente è una svolta enorme se ben utilizzata.
CYRANO10 Agosto 2023, 09:24 #7
Ci mancava l'IA influencer ....




Ckdmslsjsdjdndidndidnddosmddk
euscar10 Agosto 2023, 09:31 #8
Finchè si continuerà a chiamare Intelligenza Artificiale il modello statistico alla base di tutto ciò (machine learning) la geeeente continuerà a farsi confondere le idee... Viva il progresso...
corgiov10 Agosto 2023, 10:25 #9

Il mio lungo test di 90 giorni

Guarda caso, da circa 3 mesi sto facendo un test analogo a quello di cui si parla nell'articolo. All'inizio avevo scelto la sola piattaforma ChatGPT 3.5. Poi ho aggiunto Bard. In qualche occasione ho utilizzato anche Bing.

Per circa 60 giorni, ogni giorno, ho posto domande a ChatGPT. Nei successivi 30 giorni mi sono concentrato su Bard.
Le domande riguardavano vari aspetti dell'alimentazione: ricette, contenuti calorici, origini, ecc.

Dopo circa 90 giorni di test quasi ininterrotto (ho saltato quasi una settimana a cavallo fra giugno e luglio), posso dire di non aver riscontrato nulla di quello che riporta l'articolo.
Le risposte sono sempre state chiare e hanno sempre scoraggiato i comportamenti malsani.
Per esempio, le due IA ogni giorno mi ripetono che è meglio non esagerare o accertarsi delle quantità adatte all'organismo; ripetono anche l'importanza di rivolgersi a personale umano specializzato (medici, nutrizionisti, dietologi, ecc.).
Non ho mai letto nessuna risposta che incoraggiasse a diventare anoressici.
corgiov10 Agosto 2023, 10:32 #10
Originariamente inviato da: D4N!3L3
Bisogna anche capire che l'intelligenza umana non ha niente a che fare con l'intelligenza artificiale e se manca la prima la seconda non serve a una ceppa.
Stai dimenticando la "Sindrome di Frankenstein", di cui non si parla granché, ma che era oggetto di studio quando presentai la mia tesi sull'Intelligenza Artificiale (era il 1999).
Non è una malattia, ma una teoria, in cui si teme il giorno in cui le macchine raggiungeranno uno status intelligente umano. Da qui è partita una serie di domande:
Le macchine si dovrebbero paragonare all'uomo o a un animale?
Le macchine sono dotate di anima?
Le macchine hanno o sono un'anima?
Studio la "Sindrome di Frankenstein", compresi che non c'è molta differenza fra l'Intelligenza Artificiale e quella umana. Perché? Perché, se la macchina è stata costruita e dotata di Intelligenza da un uomo, e questa Intelligenza è stata limitata, allora l'uomo, che usa solo una percentuale minima del suo Intelletto, è stato creato e dotato di Intelligenza da un Creatore, ovvero un Essere superiore illimitato.

Mi fermo qui, perché l'argomento, che mi appassiona da decenni, è lungo e complesso.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^