PDA

View Full Version : ChatGPT, il Garante della Privacy detta le condizioni per sospendere il blocco in Italia


Redazione di Hardware Upg
13-04-2023, 06:21
Link alla notizia: https://www.hwupgrade.it/news/web/chatgpt-il-garante-della-privacy-detta-le-condizioni-per-sospendere-il-blocco-in-italia_115828.html

OpenAI ha fino al 30 aprile per adeguarsi alle richieste del Garante della Privacy: se adempierà, il provvedimento che blocca l'accesso a ChatGPT in Italia sarà sospeso. Tra le misure, anche una campagna di informazione su radio, televisione, giornali e web.

Click sul link per visualizzare la notizia.

matsnake86
13-04-2023, 06:31
Se il controllo dell'età viene implementato come quello dei siti porno, fanno prima a non metterlo.

Sasuke@81
13-04-2023, 07:12
solite cavolate inutili che non legge nessuno e che non interessano nessuno.
mi immagino quanti minorenni clicchino su si sono minorenne :doh:

ezellohar
13-04-2023, 07:13
"promuovere una campagna di informazione su radio, televisione, giornali e web per avvisare le persone sull'uso dei loro dati personali ai fini dell'addestramento degli algoritmi".

Nient'altro? Perché non obbligare openAI a noleggiare aeroplani e lanciare volantini su tutte le città?

Unrue
13-04-2023, 07:36
Un'informativa che non leggerà nessuno e la useranno tutti come sempre.

Chi usa questi strumenti se ne frega di come vengono gestiti i dati. Se si vuol star sicuri non si usa del tutto e buonanotte.

SpyroTSK
13-04-2023, 08:15
Un'informativa che non leggerà nessuno e la useranno tutti come sempre.

Chi usa questi strumenti se ne frega di come vengono gestiti i dati. Se si vuol star sicuri non si usa del tutto e buonanotte.

Non è questo il problema, il reale problema è che OpenAI ha dichiarato palesemente che usa i dati per farci cose (specificate qui: https://openai.com/policies/privacy-policy), ma no...il garante vuole le cose più chiare, tipo una foto del CEO di OpenAI davanti ad un monitor dov'è aperta la finestra di un file Access o Excel (possibilmente salvato su un floppy disk) con la tabellina di nome, cognome, checazzoabbiamoscritto, data, ora e se il tipo/a è maggiorenne oppure no, ma senza poterlo verificare, ovviamente.

GGG_Giovanni
13-04-2023, 08:18
il punto è semplicemente che questo servizio / applicazione deve rispettare la normativa come tutte le altre. se non lo fa (e non lo fa al momento) non può operare in italia. è tutto molto semplice.

per il resto, dovremmo essere tutti un pò più attenti ai nostri dati, ed alle implicazioni di strumenti come questi

SpyroTSK
13-04-2023, 08:24
il punto è semplicemente che questo servizio / applicazione deve rispettare la normativa come tutte le altre. se non lo fa (e non lo fa al momento) non può operare in italia. è tutto molto semplice.

per il resto, dovremmo essere tutti un pò più attenti ai nostri dati, ed alle implicazioni di strumenti come questi

non è vero che non lo fa, siamo noi che pensiamo che la GDPR sia la soluzione al problema dei dati, quando invece il problema non è chi fornisce il servizio, ma chi lo usa che sottoscrive a cazzum le cose senza leggere.

Informative
13-04-2023, 08:50
Quindi il solito nulla burocratico che non cambia nè protegge/previene nulla, giusto per far vedere che l'organo c'è e i soldi pubblici che prende sono ben spesi. Fiat agencies doing their fiat agencies thing, tutto nella norma.
Che almeno si sbrighino: swappare regione nella vpn è un po' inutilmente fastidioso :asd:

berson
13-04-2023, 08:58
Burocrati fuori dal mondo che guardano la pagliuzza nell'occhio di qualcuno e ignorano la trave nell'occhio di altri.

demonsmaycry84
13-04-2023, 09:02
inutilità della burocrazia..potevano lasciarla operare ed iniziare un dialogo per avere le modifiche richieste avvisando le persone...ci vuole un garante europeo che eventualmente può avere la forza necessaria per trattare con un colosso americano...chissà che danno per openai chiudere il nostro mercato...vorrei sapere chi ci rimette di più..
francia, germania e spagna per esempio hanno chiuso anche loro?

djfix13
13-04-2023, 09:14
...e tutti a cliccare "avanti...avanti...avanti" per poter usare in servizio...

"permettere il diritto di opposizione al trattamento dei dati personali utilizzati per l'esercizio degli algoritmi"

a cosa porta? anche se vinco una causa mica possono togliere solo i miei dati dall'algoritmo...la AI si è mangiata già tutte le informazioni...e mica ne addestri una nuova "eliminando" quei dati in particolare... mera teoria senza possibilità di realizzazione

GGG_Giovanni
13-04-2023, 10:32
giusto per fare chiarezza... il garante ha solo chiesto il rispetto della normativa e loro per risposta hanno chiuso l'accesso da parte degli utenti italiani.

è chiaramente una mossa ostile di OpenAI per far rumore

pachainti
13-04-2023, 12:57
giusto per fare chiarezza... il garante ha solo chiesto il rispetto della normativa e loro per risposta hanno chiuso l'accesso da parte degli utenti italiani.

è chiaramente una mossa ostile di OpenAI per far rumore

Esatto.

Ago72
13-04-2023, 14:05
...la AI si è mangiata già tutte le informazioni...

Il punto è proprio questo ed è molto critico.
Se oggi metto un dato sensibile nella ricerca di google, (forse) non corro il rischio che il dato venga reso pubblico ad altri. Se invece inserisco un dato sensibile su ChatGPT, come posso essere sicuro che questo non venga utilizzato e passato ad altri?

Altro scenario nel quale io vengo accusato ingiustamente di un reato. Dopo anni (lentezza della giustizia rispetto all'informatica) riesco a dimostrare la mia innocenza. Come fa l'AI a gestire questa informazione e quando interrogata dare la versione giusta?

Su questi punti il garante (giustamente) vuole sapere che azioni OpenAI mette in atto.

Phoenix Fire
14-04-2023, 13:29
Il punto è proprio questo ed è molto critico.
Se oggi metto un dato sensibile nella ricerca di google, (forse) non corro il rischio che il dato venga reso pubblico ad altri. Se invece inserisco un dato sensibile su ChatGPT, come posso essere sicuro che questo non venga utilizzato e passato ad altri?

Altro scenario nel quale io vengo accusato ingiustamente di un reato. Dopo anni (lentezza della giustizia rispetto all'informatica) riesco a dimostrare la mia innocenza. Come fa l'AI a gestire questa informazione e quando interrogata dare la versione giusta?

Su questi punti il garante (giustamente) vuole sapere che azioni OpenAI mette in atto.

si ma il garante non sa neanche di cosa sta parlando, alcune cose sono ben specificate nella "documentazione" come ad esempio che le info sono "non sono affidabili al 100%" o che risalgono a un training su documenti fino al 2021
Poi ripeto anche qui, ma visto che queste dovrebbero essere infrazioni al GDPR, gli altri paesi che stanno facendo? Siamo sicuri che non sia un'interpretazione "errata" o "esagerata" italiana?