Slack, algoritmi IA allenati con i dati delle chat degli utenti

Slack, algoritmi IA allenati con i dati delle chat degli utenti

L'app popolare negli ambienti di lavoro è finita sotto i riflettori per le sue pratiche di data training non dichiarate, sollevando preoccupazioni sulla privacy. L'azienda ha ammesso di utilizzare i dati degli utenti, una rivelazione che ha suscitato non poca indignazione

di pubblicata il , alle 13:21 nel canale Software
Slack
 

Slack, l'applicazione di messaggistica ampiamente utilizzata negli ambienti di lavoro, si trova al centro delle polemiche dopo che è emerso che l'azienda ha utilizzato i dati degli utenti, fra cui messaggi e file, per addestrare i suoi modelli di machine learning. Del resto l'informativa è presente nero su bianco sul sito ufficiale, ma agli utenti non viene mai richiesto l'esplicito consenso per utilizzare i propri dati privati.

A scoprire il comportamento di Slack è stato Corey Quinn, un dirigente del Gruppo DuckBill, che ha individuato la clausola nel documento e ha sollevato la polemica riguardo l'analisi dei dati degli utenti di Slack per lo sviluppo di modelli di intelligenza artificiale e machine learning. Le analisi avvengono senza che l'utente abbia mai offerto il proprio consenso esplicito, con la procedura di opt-out che è possibile ma fin troppo complessa richiedendo un contatto diretto con Slack da parte della dirigenza dell'organizzazione a cui appartiene il canale Slack.

Slack ha allenato la propria IA con i dati degli utenti, senza chiederli esplicitamente

"Se desideri escludere i tuoi dati dai modelli globali Slack, puoi decidere di negare il consenso", si legge infatti sul sito ufficiale. "Per negare il consenso, chiedi ai proprietari dell’organizzazione o dell’area di lavoro o al proprietario di contattare il team di Customer Experience all’indirizzo feedback@slack.com, indicando l’URL dell’area di lavoro/organizzazione e usando come oggetto 'Richiesta di negazione del consenso per il modello globale di Slack'".

Slack ha giustificato le sue azioni affermando che i dati degli utenti non vengono utilizzati per addestrare i suoi prodotti di IA generativa, ma solo per modelli di apprendimento automatico legati a funzionalità come suggerimenti sui canali, emoji e risultati di ricerca. L'azienda ha inoltre pubblicato un post in cui ha dettagliato in maniera più precisa il modo in cui usa i dati degli utenti per il training della sua IA. Le spiegazioni hanno, tuttavia, fatto poco per placare le preoccupazioni degli utenti legate alla trasparenza e al controllo effettivo che gli utenti hanno sulle proprie conversazioni private e professionali all'interno della piattaforma.

La controversia solleva interrogativi più ampi sulle pratiche di raccolta e utilizzo dei dati delle aziende tecnologiche, in un periodo in cui tutti i grandi nomi tendono a sfruttare i vantaggi dell'intelligenza artificiale e del machine learning, allenando i propri modelli con pratiche che non risultano sempre chiarissime.

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Max_R20 Maggio 2024, 14:40 #1
Lo usavamo nel mio precedente lavoro, durante il quale ho avuto una tresca con una collega che aveva in corso una convivenza di 6 anni con il compagno ufficiale. Avremo dato anche il nostro apporto all'istruzione di questa IA
il_pess20 Maggio 2024, 15:29 #2
E pensare che in azienda non volevamo usare Skype per temi di rilevanza strategica perché pensavamo che fosse più "vulnerabile". Allora tutti su Slack. Bene ma non benissimo.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^