Facebook: il disagio dei moderatori continua a essere un problema, anche in Europa

Facebook: il disagio dei moderatori continua a essere un problema, anche in Europa

Un'inchiesta del Guardian fa eco a quella di The Verge: anche negli uffici per la moderazione di Facebook europei ci sarebbero casi di condizioni di lavoro critiche

di pubblicata il , alle 16:41 nel canale Web
Facebook
 

Facebook gestisce in tutto il mondo degli uffici che si occupano di revisione e moderazione manuale dei contenuti pubblicati dalla gente sul noto social network. Dopo aver fallito nello sviluppare un'intelligenza artificiale che possa occuparsi automaticamente di questo compito, e deciso di affidarlo a persone, sembra aver perso il controllo su ciò che accade in questi uffici. Nei mesi scorsi un'inchiesta di The Verge aveva portato alla luce casi molto preoccupanti e riferito della morte di un impiegato nell'unità di moderazione di Tampa, in Florida.

Il Guardian fa eco a quell'inchiesta, riferendo di casi limite anche per quanto riguarda gli uffici europei, nello specifico a Berlino. Il Guardian ha raccolto testimonianze secondo le quali alcuni contractor sarebbero diventati "dipendenti" rispetto a certe immagini rinvenute durante il lavoro di moderazione, iniziando delle collezioni personali. Altri si sarebbero ritrovati su posizioni di estrema destra dalla gran quantità di ragionamenti di odio e dalle notizie false che hanno dovuto leggere ogni giorno per lavoro.

Facebook

Queste unità di moderazione sono state criticate negli Usa, e adesso anche in Europa, perché sottopongono i dipendenti a lunghi turni di lavoro ripetitivo esponendoli alla visione e valutazione di contenuti molto spesso raccapriccianti e inneggianti all'odio. Solitamente gli uffici sono gestiti da società terze a cui Facebook si rivolge per il lavoro di moderazione.

Gli ex-impiegati dell'ufficio di Berlino hanno detto al Guardian di aver dovuto gestire carichi enormi di lavoro in cui hanno dovuto esaminare contenuti di violenza visiva, nudità, casi di bullismo e altre oscenità pubblicate dalla gente su Facebook, per una "retribuzione minima". Secondo la ricostruzione del Guardian, gli algoritmi evidenziano i contenuti che potrebbero essere a rischio, tra i quali anche le conversazioni private, ma poi sarebbe necessario l'intervento umano per verificare definitivamente ciò che sta accadendo.

"Ti rendi conto del tipo di società distopica che stiamo costruendo", ha detto uno degli impiegati intervistati dal Guardian. "Abbiamo ricchi bianchi che risiedono in Europa o negli Stati Uniti, che scrivono a bambini delle Filippine cercando di ottenere foto sessuali in cambio di $ 10 o $ 20".

"Penso che sia una violazione dei diritti umani. Non puoi chiedere a qualcuno di lavorare velocemente, di lavorare bene e di vedere contenuti di quel tipo. Abbiamo visto cose orribili" è la testimonianza di un'altra impiegata. Tutti loro hanno parlato in condizioni di anonimato perché hanno firmato un accordo di non divulgazione con Facebook. "Siamo una sorta di avanguardia in questo campo" ha detto un altro moderatore. "È un lavoro completamente nuovo e per questo è fondamentalmente un esperimento".

"Stiamo denunciando questi fatti perché vogliamo evitare che altre persone si ritrovino in questa situazione. La società contemporanea deve affrontare i nuovi problemi legati a internet e stabilire alcune regole per affrontarli. È importante creare dei team che proteggano le persone che frequentano i social network da maltrattamenti, odio, pregiudizi razziali, contenuti pornografici. Ma allo stesso tempo penso che sia importante aprire un dibattito su questo lavoro".

"I discorsi di odio che dobbiamo affrontare ogni giorno influenzano anche la nostra visione politica. Quindi una persona normale, una persona liberale, forse anche una persona progressista, può diventare più conservatrice, più preoccupata per le questioni attinenti ai migranti, ad esempio. In realtà, questi contenuti il più delle volte sono delle notizie false, che mirano a diffondere opinioni politiche molto particolari".

L'articolo del Guardian punta il dito anche sul tipo di assistenza psicologica che gli impiegati europei ricevono grazie al servizio sanitario nazionale, giudicata insufficiente dagli stessi protagonisti della vicenda. Inoltre, mentre ai tempi dello scandalo americano riportato da The Verge sembrava che Facebook fosse sul punto di affrontare il problema per risolverlo definitivamente, le nuove testimonianze evidenziano come poco o nulla si cambiato, e che gli algoritmi di intelligenza artificiale continuano ad aver bisogno del supporto umano per portare proficuamente a termine il lavoro di moderazione.

Il Guardian chiude con un comunicato ufficiale di Facebook: "I moderatori di contenuti svolgono un lavoro vitale per proteggere la nostra community e ci assumiamo seriamente la responsabilità di garantire il loro benessere. Lavoriamo a stretto contatto con i nostri partner per garantire che forniscano il supporto di cui le persone hanno bisogno, inclusi formazione, supporto psicologico e tecnologia per limitare la loro esposizione ai contenuti grafici".

"La moderazione dei contenuti è un settore nuovo e stimolante, quindi stiamo imparando come migliorarla. Prendiamo in esame tutti i report che riferiscono che i nostri elevati standard non vengono rispettati e stiamo lavorando con i nostri partner per esaminare tutti i problemi".

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

126 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
tony35918 Settembre 2019, 16:53 #1
Per quanto sia dura da digerire, serve che chi scrive quelle porcherie su facebook sia perseguibile per legge - così come accade per affermazioni verbali o scritte su un giornale.
Finché la conseguenza è solo un profilo chiuso o un messaggio cancellato, non cambierà niente.
acerbo18 Settembre 2019, 17:02 #2
Originariamente inviato da: tony359
Per quanto sia dura da digerire, serve che chi scrive quelle porcherie su facebook sia perseguibile per legge - così come accade per affermazioni verbali o scritte su un giornale.
Finché la conseguenza è solo un profilo chiuso o un messaggio cancellato, non cambierà niente.


e i soldi per andare a cercare milioni di persone e altrettanti milioni di fake users la polizia e la magistratura dove li prendono?
Ennesima riprova che l'intelligenza artificiale é tutta fuffa e marketing, un colosso come fb non sa ancora analizzare e gestire i contenuti pubblicati sui propri server in maniera automatica.
AD ogni modo le foto e i video di nudi e simboli vari sono già censurati dagli algoritmi, evidentemente la parte complessa é analizzare i testi e far capire ad un sw che certi discorsi vanno censurati al di là della presenza di semplici parole chiave come possono essere delle banali parolacce.
daniele86Z18 Settembre 2019, 17:26 #3
8 ore al giorno tutti i giorni di analisi di testi / foto / video della feccia della società.. io non riuscirei, ma credo proprio che non si possa fare un analisi di questo tipo per tutte quelle ore ma scherziamo ?
Ragerino18 Settembre 2019, 18:15 #4
Oppure potrebbero fare dei test psicologici per selezionare persone in grado di svolgere il lavoro. E sostituire il personale regolarmente.
Ma suppongo che pagare le persone spiccioli per fare lavori del cavolo sia più conveniente.
palarran18 Settembre 2019, 18:25 #5
Comunque la moderazione funziona da fare schifo.
Ma proprio nelle funzioni basilari.

Esempi:
- mesi fa posto il link di TPI che parla della copertina vergognosa di AffariItaliani pr un articolo sul calcio femminile: dopo mesi mi bloccano per 24 ore per pornografia.

- provo a vendere uno zaino fotografico: annuncio bloccato.
Faccio ricorso: ricorso bocciato.

- annuncio per ripetizioni di matematica: annuncio bloccato.

Altre mille cose (e mille annunci) non hanno avuto problemi ma che cavolo, l'IA fa schifo e i moderatori pure!
Falken7218 Settembre 2019, 18:48 #6
Mi raccomando! Il manuale del buon mondialista grande fratello impone lo specificare che i moderatori si ritrovino in posizioni "di estrema destra" a causa di esposizione a contenuti ineggianti all'odio! A sinistra troviamo tutti angioletti e soprattutto certe posizioni estremiste sono benefiche! Complimenti alla straripante imparzialità!
Ragerino18 Settembre 2019, 18:52 #7
Originariamente inviato da: Falken72
Mi raccomando! Il manuale del buon mondialista grande fratello impone lo specificare che i moderatori si ritrovino in posizioni "di estrema destra" a causa di esposizione a contenuti ineggianti all'odio! A sinistra troviamo tutti angioletti e soprattutto certe posizioni estremiste sono benefiche! Complimenti alla straripante imparzialità!



Il falso buonismo ed il politicamente corretto a tutti i costi è imperante.
Sempre paladini della libertà di parola e di pensiero, ma solo se la pensi come loro.
macs31118 Settembre 2019, 18:53 #8
ah, chi non si imbatte in contenuti violenti di matrice sinistroide su facebook? è un continuo!
Flortex18 Settembre 2019, 20:42 #9
La soluzione è semplice: non usare fb.
fracama8718 Settembre 2019, 21:36 #10
Le notizie false sono il 99% di destra. D'altronde la destra ha più soldi visto che fa gli interessi dei ricchi e degli usa...

Basta fare un giro su Bufale.net.
Ci sono giornaletti, il cui nome farebbe insospettire un scemo e che non so come sono riusciti a farsi invitare in TV, che sono un livello sotto al Vernacoliere come attendibilità. Se leggi li qualcosa è una conferma che è falsa, tendenziosa o manipolata.

La sinistra? esattamente quali sarebbero i media, giornali, tv ecc di sinistra?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^