PDA

View Full Version : ChatGPT può ricordare tutte le conversazioni passate con l'utente, ma non in Italia


Redazione di Hardware Upg
11-04-2025, 10:01
Link alla notizia: https://www.hwupgrade.it/news/web/chatgpt-puo-ricordare-tutte-le-conversazioni-passate-con-l-utente-ma-non-in-italia_137640.html

OpenAI ha implementato un miglioramento delle capacità mnemoniche di ChatGPT, permettendo al sistema di consultare l'intera cronologia delle interazioni con l'utente. La funzionalità è disponibile per gli abbonati Pro, ma non è prevista per i mercati europei.

Click sul link per visualizzare la notizia.

Klontz
11-04-2025, 10:27
Cioè.. per quale motivo esattamente ?? niente UE ??
Perchè i dati per essere elaborati DEVONO risiedere su un serve di uno stato UE.. o a prescindere, i dati storici non possono essere "elaborati" e basta, in quanto violazione di qualche norma sulla privacy.
Così azzoppano il funzionamento che sta alla base di una IA.

Spero sia per la questione privacy dati in locale.. che mettessero sto benedetto server sul territorio UE e fine della storia.

lollo9
11-04-2025, 12:11
Non è solo per l’elaborazione in EU o non-EU.
È che la nuova “memoria infinita”, sebbene resti gestibile dall’utente, è, appunto, potenzialmente infinita. E qui viola già diversi aspetti GDPR. Non si può fare un lookup su qualcosa di potenzialmente infinito ed infinitamente complesso. Anche se fosse semplicemente “molto grande” sarebbe comunque tirata per i capelli, in GDPR devi garantire un metodo ragionevolmente semplice per fare lookup.
Questo già contrasta col principio di minimizzazione e limitazione della conservazione dei dati.

Poi c’è il problema dei diritti garantiti di accesso, cancellazione ecc.
Anche se si può disattivare l’uso dei dati per il training del modello, la cosa diviene potenzialmente colossale se si tiene lo storico illimitato. Il problema risiede nel fatto che il mondo reale non è illimitato, quindi per fare funzionare tutto OpenAI è obbligata a fare degli aggregati da tokenizzare per il training. Ma così facendo si pone di aperto conflitto coi diritti all’accesso, alla cancellazione ecc.

Già oggi è la cosa è dibattuta, stile “come può il modello dimenticare i miei input se decido di rimuoverli 1000 giorni dopo averli inseriti? Magari openAI li ha usati per il training, magari no. Chi lo sa? Come può openAI garantire di rimuovere ciò dal modello se il digest è già stato fatto ed i dati già assorbiti dal modello?”
Per ora ciò viene tollerato, almeno finché il contesto resta limitato, ma è già un’area fumosa. OpenAI certamente sa quanto abbia tirato la corda finora, evidentemente sanno che il margine attualmente non c’è.

La francese Mistral AI per esempio usa contesti enormi per l’addestramento, ma il refinement eventuale del modello è scorporato dal modello principale di base e resta agganciato all’utenza che se vuole lo condivide, se vuole lo usa solo per sé, se vuole disattiva tutto.

Klontz
11-04-2025, 13:29
Non è solo per l’elaborazione in EU o non-EU.
È che la nuova “memoria infinita”, sebbene resti gestibile dall’utente, è, appunto, potenzialmente infinita. E qui viola già diversi aspetti GDPR. Non si può fare un lookup su qualcosa di potenzialmente infinito ed infinitamente complesso. Anche se fosse semplicemente “molto grande” sarebbe comunque tirata per i capelli, in GDPR devi garantire un metodo ragionevolmente semplice per fare lookup.
Questo già contrasta col principio di minimizzazione e limitazione della conservazione dei dati.

Poi c’è il problema dei diritti garantiti di accesso, cancellazione ecc.
Anche se si può disattivare l’uso dei dati per il training del modello, la cosa diviene potenzialmente colossale se si tiene lo storico illimitato. Il problema risiede nel fatto che il mondo reale non è illimitato, quindi per fare funzionare tutto OpenAI è obbligata a fare degli aggregati da tokenizzare per il training. Ma così facendo si pone di aperto conflitto coi diritti all’accesso, alla cancellazione ecc.

Già oggi è la cosa è dibattuta, stile “come può il modello dimenticare i miei input se decido di rimuoverli 1000 giorni dopo averli inseriti? Magari openAI li ha usati per il training, magari no. Chi lo sa? Come può openAI garantire di rimuovere ciò dal modello se il digest è già stato fatto ed i dati già assorbiti dal modello?”
Per ora ciò viene tollerato, almeno finché il contesto resta limitato, ma è già un’area fumosa. OpenAI certamente sa quanto abbia tirato la corda finora, evidentemente sanno che il margine attualmente non c’è.

La francese Mistral AI per esempio usa contesti enormi per l’addestramento, ma il refinement eventuale del modello è scorporato dal modello principale di base e resta agganciato all’utenza che se vuole lo condivide, se vuole lo usa solo per sé, se vuole disattiva tutto.

Grazie per la dettagliata spiegazione, non so chi sei, ma penso che dovresti scrivere un articolo sull argomento o fart intervistare !