ChatGPT è un pericolo per le aziende? Il caso Samsung apre il dibattito

ChatGPT è un pericolo per le aziende? Il caso Samsung apre il dibattito

L'uso di ChatGPT da parte dei dipendenti avrebbe esposto Samsung Semiconductor a enormi rischi a causa della condivisione di informazioni strettamente interne. Tra queste vi sarebbe il codice sorgente di un'applicazione top secret.

di pubblicata il , alle 10:21 nel canale Sicurezza
SamsungChatGPT
 

L'esperienza di Samsung con ChatGPT rivela quanto possa essere rischiosa l'intelligenza artificiale generativa. I dipendenti di Samsung Semiconductor avrebbero infatti usato l'IA condividendo dati interni che potrebbero rivelare informazioni critiche sui processi produttivi e altri segreti aziendali. Lo scrive il sito sudcoreano Economist.

Se da un lato ChatGPT semplifica e ottimizza lo svolgimento delle mansioni in numerosi ambiti, dall'altro va sottolineato che i dati vengono raccolti e archiviati su server esterni. Questo significa che ogni informazione immessa nella chatbot verrà salvata e risulterà impossibile da recuperare.

Nello specifico, Samsung avrebbe registrato tre fughe di dati in soli 20 giorni che potrebbero avere conseguenze disastrose sull'attività aziendale. Per tali ragioni, la società adotterà dei sistemi di sicurezza in attesa di sviluppare un proprio servizio, simile a ChatGPT, a uso esclusivamente interno.

Nel primo caso, un dipendente avrebbe immesso l'intero codice sorgente di un'applicazione top secret per consentire all'intelligenza artificiale di correggerne gli errori. Ciò significa che l'intero software è stato condiviso con una società esterna senza alcuna possibilità di essere recuperato.

Il secondo, invece, riguarda il processo adottato da Samsung per la produzione dei semiconduttori. Il dipendente avrebbe condiviso in chat i modelli di test utilizzati dall'azienda per individuare le unità difettose richiedendone un'ottimizzazione. L'obiettivo era velocizzare le procedure di test e verifica dei chip malfunzionanti con un impatto positivo sui costi di produzione.

Nel terzo caso, in seguito all'uso di Naver Clova per convertire in testo l'intera registrazione di una riunione, questa sarebbe stata inviata a ChatGPT per preparare una presentazione. Insomma, i dati interni condivisi con la chat in soli 20 giorni sono stati davvero tanti, il che espone l'azienda a rischi enormi per la sua competitività.

Il problema maggiore, infatti, riguarda le capacità di apprendimento dell'algoritmo che potrebbe consentire ad altre aziende di accedere alle informazioni senza che neanche OpenAI possa intervenire.

A tal proposito, Samsung avrebbe deciso di limitare la dimensione delle informazioni immesse sulla chatbot a 1024 byte. In ogni caso, pare che la realtà coreana stia valutando il blocco totale dell'accesso a ChatGPT dai terminali interni.

Nel frattempo, il portavoce di Samsung a cui sono stati chiesti chiarimenti sulla faccenda si è rifiutato di commentare, senza confermare né smentire le voci sulla fuga di dati.

16 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
TorettoMilano04 Aprile 2023, 10:24 #1
dei geni sti qui
randorama04 Aprile 2023, 10:26 #2
si, vabbeh, che hanno fatto? copia incollato migliaia di righe di codice?
demonsmaycry8404 Aprile 2023, 10:33 #3
ancora una volta non si è dimostrata la macchina stupida..e poi danno la colpa alle IA
Saturn04 Aprile 2023, 10:38 #4
Questo è esattamente come incolpare un COLTELLO perchè "responsabile di un omicidio". Sarà mica che il responsabile era lo squilibrato assassino che lo maneggiava...no eh ?

Pericolo per le aziende. Per le aziende dove lavorano persone diversamente intelligenti che si mettono a condividere segreti aziendali e codice con un servizio esterno senza alcuna garanzia di riservatezza.

Da licenziare in tronco subito. Ed è pure il minimo.
Phoenix Fire04 Aprile 2023, 10:40 #5
Originariamente inviato da: Saturn
Questo è esattamente come incolpare un COLTELLO perchè "responsabile di un omicidio". Sarà mica che il responsabile era lo squilibrato assassino che lo maneggiava...no eh ?

Pericolo per le aziende. Per le aziende dove lavorano persone diversamente intelligenti che si mettono a condividere segreti aziendali e codice con un servizio esterno senza alcuna garanzia di riservatezza.

Da licenziare in tronco subito. Ed è pure il minimo.


Concordo, questi geni avranno postato il codice sotto NDA su stackoverflow in passato
benderchetioffender04 Aprile 2023, 11:19 #6
al netto del cretino qui che mette codice "top secret" (tutto da verificare, ma prendiamola er buona), si apre un grande quesito per la gestione delle aziende:

Microsoft sta già implementando l'AI nella sua suite Office e Bing, un domani potremmo trovarci quasi "a non avere scelta", ovvero: potremmo trovarci le AI infrattate anche nel panino che stiamo mangiando, un pò come avviene oggi coi cookies, che gia sono ampiamente fuori controllo (con buon guadagno economico solo di una parte), domani con le AI?
Warlord83204 Aprile 2023, 12:07 #7
Beh, in questo caso non è colpa dell'intelligenza artificiale ma dell'idiozia naturale/genetica.
zancle04 Aprile 2023, 12:14 #8
Originariamente inviato da: benderchetioffender
al netto del cretino qui che mette codice "top secret" (tutto da verificare, ma prendiamola er buona), si apre un grande quesito per la gestione delle aziende:

Microsoft sta già implementando l'AI nella sua suite Office e Bing, un domani potremmo trovarci quasi "a non avere scelta", ovvero: potremmo trovarci le AI infrattate anche nel panino che stiamo mangiando, un pò come avviene oggi coi cookies, che gia sono ampiamente fuori controllo (con buon guadagno economico solo di una parte), domani con le AI?


nuvola è bello. come si fa a mandare in rete propri dati riservati sperando o credendo che nessuno le legga al di fuori della propria organizzazione?
tornado alla news, sicuramente qualcuno in vece di perdere qualche settimana di lavoro noioso, darà in pasto il tutto all' IA e dopo qualche minuto ha il lavoro è già fatto. se nessuno se ne accorge, tutti penseranno che sei proprio bravo e ti meriti un aumento di stipendio.
Ago7204 Aprile 2023, 14:21 #9
Originariamente inviato da: benderchetioffender
Microsoft sta già implementando l'AI nella sua suite Office e Bing, un domani potremmo trovarci quasi "a non avere scelta", ovvero: potremmo trovarci le AI infrattate anche nel panino che stiamo mangiando, un pò come avviene oggi coi cookies, che gia sono ampiamente fuori controllo (con buon guadagno economico solo di una parte), domani con le AI?


Commento interessante. Anche se questo già si materializza, in parte, con Cortana.
Come faremo ad avere la certezza che i dati rimaranno On-premises
sbaffo04 Aprile 2023, 19:42 #10
Originariamente inviato da: demonsmaycry84
ancora una volta non si è dimostrata la macchina stupida..e poi danno la colpa alle IA
La IA forse supererà presto l'intelligenza umana, ma la stupidità umana è ancora ben lontana.

Originariamente inviato da: Saturn
Da licenziare in tronco subito. Ed è pure il minimo.

Crocifissi in sala mensa! (cit.)

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^