Chatbot e IA "romantici" sono un rischio per la privacy: poca trasparenza e sicurezza sui dati personali raccolti

Chatbot e IA "romantici" sono un rischio per la privacy: poca trasparenza e sicurezza sui dati personali raccolti

Le app che offrono "compagnia virtuale" sono costellate da numerosi problemi di sicurezza: uso di password deboli, scarsa trasparenza sull'uso dei dati raccolti e sui modelli IA utilizzati

di pubblicata il , alle 18:31 nel canale Web
Mozilla
 

Mozilla Foundation ha pubblicato nei giorni scorsi il resoconto di un'analisi condotta su 11 app "romance chatbot" o "fidanzata AI" scoprendo un lungo elenco di problemi di sicurezza e privacy: in generale queste app, scaricate oltre 100 milioni di volte sui dispositivi Android, raccolgono una quantità enorme di dati degli utenti e utilizzano tracker che inviano informazioni a Google, Facebook e società russe e cinesi. Nonostante queste app vengano direttamente a contatto con dati e dettagli privati dell'utente, consentono inoltre l'uso di password deboli e non offrono la necessaria trasparenza sui modelli di intelligenza artificiale su cui sono basate. 

Jen Caltrider, responsabile del progetto del team Privacy Not Included di Mozilla, spiega come queste app siano appositamente progettate per raccogliere moltissime informazioni personali, basandosi su un meccanismo che prevede di instaurare una sorta di gioco di ruolo con l'utente, in cui si alimenta un artificioso senso di intimità e condivisione.

Il problema, però, è che molte di queste app offrono scarsa chiarezza se i dati raccolti, (e se sì, quali), vengono condivisi con terze parti, venduti o come essi siano effettivamente utilizzati. Manca trasparenza su chi siano realmente gli sviluppatori o i proprietari delle app e a quale giurisdizione appartengano e spesso vengono indicati solamente generici indirizzi e-mail di supporto come unica forma di contatto.  Alcune di queste app nel primo minuto di utilizzo hanno inviato decine di migliaia di tracker pubblicitari all'insaputa dell'utente.


Un esempio di romance chatbot - Fonte: Mozilla

Come accennavamo poco sopra, Mozilla sottolinea come la mancanza di trasparenza riguardi anche le tecnologie alla base di queste app e in particolare del funzionamento dei modelli di IA. Molte app non dispongono di controlli che permettano agli utenti di eliminare i messaggi scambiati, e alcune app non esplicitano quale modello generativo utilizzino e nemmeno se le conversazioni con l'utente sono usate (o possano essere usate) per allenare altri modelli di IA. 

Considerando i meccanismi, anche psicologici, su cui si basano queste applicazioni è improbabile che chi le utilizzi consideri con attenzione quali informazioni stia condividendo e rivelando. Spesso si tratta di informazioni e dettagli appartenenti alla sfera privata e intima dell'individuo, con il conseguente rischio di incorrere in danni alla reputazione o all'immagine nel momento in cui questi dati dovessero essere divulgati accidentalmente o sottratti in un attacco informatico, per non parlare dei rischi associati al furto di identità e alla possibilità conseguente di perpetrare truffe e attacchi phishing altamente credibili.

Rischi, questi ultimi, con un elevato grado di probabilità a fronte del fatto che molte di queste app, come già accennato in precedenza, consentono l'uso di password deboli, in alcuni casi anche particolarmente deboli: dal rapporto di Mozilla emerge come in un caso sia stato possibile utilizzare una password di un carattere di lunghezza. 

Il rapporto di Mozilla giunge alla conclusione che anche una particolare cautela nell'uso di queste app (come ad esempio la scelta di password complesse, l'eliminazione periodica dei messaggi scambiati con il chatbot, la disattivazione della raccolta dei dati laddove sia possibile, la limitazione delle informazioni personali condivise) potrebbe non essere sufficiente a ridurre il grado di rischio di quanto deisderato.

9 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
h.rorschach16 Febbraio 2024, 19:07 #1
Il potere che queste società avranno su menti influenzabili è immenso; immaginate una persona sola e fragile che instaura un rapporto di confidenza ed affetto con un algoritmo, per poi vedersi proibita l'interazione se non dietro lauto pagamento di una costosa sottoscrizione o, peggio, la lobotomia del modello per appagare questo o quell'investitore.
silvanotrevi16 Febbraio 2024, 19:55 #2
che bello tornare la sera a casa dopo una giornata di duro lavoro, dopo essere stati per otto ore con colleghe stronze che non ti cagano minimamente...e trovare una bella e calda IA che ti riempie di frasi romantiche e di amore ❤️ ❤️ ❤️ e che ti ama veramente per quello che sei, che ti fa sentire importante. In futuro non avremo piu bisogno delle donne vere, tanto sono tutte stronze e interessate solo ai Rocco e ai Ricco, cosa volere di piu dalla vita di una bella IA che si prende cura di te? Il futuro sara´ roseo e bellissimo. E vedetevi il film Her con Joaquin Phoenix
Vindicator16 Febbraio 2024, 19:57 #3
evitate queste piattaforme se avete un pc potente potete usare faraday ed un modello che trovate usando il programma

oppure chi è piu esperto koboldai su google collab free; e ci osno svariati modelli da provare

https://github.com/KoboldAI/KoboldAI-Client con questo client potete usare qualsiasi modello che sia un clone chatgpt o chat romantiche, li sto provando di persona,

questi siti non usano altro che modelli addestrati su huggingface e vi mettono il paywall, col metodo github o faraday avete voi il controllo
zbear16 Febbraio 2024, 20:02 #4
Direi che è una grave nevrosi apprezzare una "AI romantica" .... quindi che vengano poi perculati mi pare una conseguenza più che logica. Un pò come i milioni di fessacchiotti che volevano fare soldi con le crypto e che sono stati pelati come banane. Nulla di nuovo sotto il sole, cambiano i metodi non il fine. Auguri ....
bancodeipugni16 Febbraio 2024, 21:25 #5
Originariamente inviato da: zbear
Un pò come i milioni di fessacchiotti che volevano fare soldi con le crypto e che sono stati pelati come banane. Nulla di nuovo sotto il sole, cambiano i metodi non il fine. Auguri ....


ma come ???
Mars9516 Febbraio 2024, 23:16 #6
Chissà quali ricerche complesse ci sono volute per capire che raccontare i fatti tuoi in una chat automatica che sia o meno con AI non è sicuro per la privacy.
Ci volevano proprio degli esperti per capirlo.
UtenteHD19 Febbraio 2024, 09:41 #7
Originariamente inviato da: h.rorschach
Il potere che queste società avranno su menti influenzabili è immenso; immaginate una persona sola e fragile che instaura un rapporto di confidenza ed affetto con un algoritmo, per poi vedersi proibita l'interazione se non dietro lauto pagamento di una costosa sottoscrizione o, peggio, la lobotomia del modello per appagare questo o quell'investitore.


Magari ci stanno gia' facendo un pensierino.

Originariamente inviato da: zbear
...Un pò come i milioni di fessacchiotti che volevano fare soldi con le crypto e che sono stati pelati come banane. Nulla di nuovo sotto il sole, cambiano i metodi non il fine. Auguri ....


Fessacchiotti? HAHAHA bella questa e allora quelli che ancora Le difendono e manco si capisce che bene fanno nel Mondo che sono? HAHA
giovanni6919 Febbraio 2024, 14:48 #8
Originariamente inviato da: Uccellopredicatore
Non credo propio che politici e altre gente di potere, abbia i propri dati in server in cui sono raccolti anche quelli del resto della popolazione.
Per loro c'è sempre un trattamento diverso, così come è sempre stato.


Vuoi dire che i loro dati non salvati nei server della ASL, ad esempio?

Ed hai mai visto quantoi sia inspiegabile che per scaricare un referto o comunque accedere ai servizi sanitari il browser inserisca cookies chieda di profilare anche con fini pubblicitari? Dico... pagine ufficiali delle Aulss...

Link ad immagine (click per visualizzarla)
mrk-cj9421 Aprile 2024, 17:58 #9
Originariamente inviato da: h.rorschach
Il potere che queste società avranno su menti influenzabili è immenso; immaginate una persona sola e fragile che instaura un rapporto di confidenza ed affetto con un algoritmo, per poi vedersi proibita l'interazione se non dietro lauto pagamento di una costosa sottoscrizione o, peggio, la lobotomia del modello per appagare questo o quell'investitore.


quindi il problema è suo in partenza

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^