Facebook: il disagio dei moderatori continua a essere un problema, anche in Europa
Un'inchiesta del Guardian fa eco a quella di The Verge: anche negli uffici per la moderazione di Facebook europei ci sarebbero casi di condizioni di lavoro critiche
di Rosario Grasso pubblicata il 18 Settembre 2019, alle 16:41 nel canale WebFacebook gestisce in tutto il mondo degli uffici che si occupano di revisione e moderazione manuale dei contenuti pubblicati dalla gente sul noto social network. Dopo aver fallito nello sviluppare un'intelligenza artificiale che possa occuparsi automaticamente di questo compito, e deciso di affidarlo a persone, sembra aver perso il controllo su ciò che accade in questi uffici. Nei mesi scorsi un'inchiesta di The Verge aveva portato alla luce casi molto preoccupanti e riferito della morte di un impiegato nell'unità di moderazione di Tampa, in Florida.
Il Guardian fa eco a quell'inchiesta, riferendo di casi limite anche per quanto riguarda gli uffici europei, nello specifico a Berlino. Il Guardian ha raccolto testimonianze secondo le quali alcuni contractor sarebbero diventati "dipendenti" rispetto a certe immagini rinvenute durante il lavoro di moderazione, iniziando delle collezioni personali. Altri si sarebbero ritrovati su posizioni di estrema destra dalla gran quantità di ragionamenti di odio e dalle notizie false che hanno dovuto leggere ogni giorno per lavoro.
Queste unità di moderazione sono state criticate negli Usa, e adesso anche in Europa, perché sottopongono i dipendenti a lunghi turni di lavoro ripetitivo esponendoli alla visione e valutazione di contenuti molto spesso raccapriccianti e inneggianti all'odio. Solitamente gli uffici sono gestiti da società terze a cui Facebook si rivolge per il lavoro di moderazione.
Gli ex-impiegati dell'ufficio di Berlino hanno detto al Guardian di aver dovuto gestire carichi enormi di lavoro in cui hanno dovuto esaminare contenuti di violenza visiva, nudità, casi di bullismo e altre oscenità pubblicate dalla gente su Facebook, per una "retribuzione minima". Secondo la ricostruzione del Guardian, gli algoritmi evidenziano i contenuti che potrebbero essere a rischio, tra i quali anche le conversazioni private, ma poi sarebbe necessario l'intervento umano per verificare definitivamente ciò che sta accadendo.
"Ti rendi conto del tipo di società distopica che stiamo costruendo", ha detto uno degli impiegati intervistati dal Guardian. "Abbiamo ricchi bianchi che risiedono in Europa o negli Stati Uniti, che scrivono a bambini delle Filippine cercando di ottenere foto sessuali in cambio di $ 10 o $ 20".
"Penso che sia una violazione dei diritti umani. Non puoi chiedere a qualcuno di lavorare velocemente, di lavorare bene e di vedere contenuti di quel tipo. Abbiamo visto cose orribili" è la testimonianza di un'altra impiegata. Tutti loro hanno parlato in condizioni di anonimato perché hanno firmato un accordo di non divulgazione con Facebook. "Siamo una sorta di avanguardia in questo campo" ha detto un altro moderatore. "È un lavoro completamente nuovo e per questo è fondamentalmente un esperimento".
"Stiamo denunciando questi fatti perché vogliamo evitare che altre persone si ritrovino in questa situazione. La società contemporanea deve affrontare i nuovi problemi legati a internet e stabilire alcune regole per affrontarli. È importante creare dei team che proteggano le persone che frequentano i social network da maltrattamenti, odio, pregiudizi razziali, contenuti pornografici. Ma allo stesso tempo penso che sia importante aprire un dibattito su questo lavoro".
"I discorsi di odio che dobbiamo affrontare ogni giorno influenzano anche la nostra visione politica. Quindi una persona normale, una persona liberale, forse anche una persona progressista, può diventare più conservatrice, più preoccupata per le questioni attinenti ai migranti, ad esempio. In realtà, questi contenuti il più delle volte sono delle notizie false, che mirano a diffondere opinioni politiche molto particolari".
L'articolo del Guardian punta il dito anche sul tipo di assistenza psicologica che gli impiegati europei ricevono grazie al servizio sanitario nazionale, giudicata insufficiente dagli stessi protagonisti della vicenda. Inoltre, mentre ai tempi dello scandalo americano riportato da The Verge sembrava che Facebook fosse sul punto di affrontare il problema per risolverlo definitivamente, le nuove testimonianze evidenziano come poco o nulla si cambiato, e che gli algoritmi di intelligenza artificiale continuano ad aver bisogno del supporto umano per portare proficuamente a termine il lavoro di moderazione.
Il Guardian chiude con un comunicato ufficiale di Facebook: "I moderatori di contenuti svolgono un lavoro vitale per proteggere la nostra community e ci assumiamo seriamente la responsabilità di garantire il loro benessere. Lavoriamo a stretto contatto con i nostri partner per garantire che forniscano il supporto di cui le persone hanno bisogno, inclusi formazione, supporto psicologico e tecnologia per limitare la loro esposizione ai contenuti grafici".
"La moderazione dei contenuti è un settore nuovo e stimolante, quindi stiamo imparando come migliorarla. Prendiamo in esame tutti i report che riferiscono che i nostri elevati standard non vengono rispettati e stiamo lavorando con i nostri partner per esaminare tutti i problemi".
124 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoFinché la conseguenza è solo un profilo chiuso o un messaggio cancellato, non cambierà niente.
Finché la conseguenza è solo un profilo chiuso o un messaggio cancellato, non cambierà niente.
e i soldi per andare a cercare milioni di persone e altrettanti milioni di fake users la polizia e la magistratura dove li prendono?
Ennesima riprova che l'intelligenza artificiale é tutta fuffa e marketing, un colosso come fb non sa ancora analizzare e gestire i contenuti pubblicati sui propri server in maniera automatica.
AD ogni modo le foto e i video di nudi e simboli vari sono già censurati dagli algoritmi, evidentemente la parte complessa é analizzare i testi e far capire ad un sw che certi discorsi vanno censurati al di là della presenza di semplici parole chiave come possono essere delle banali parolacce.
Ma suppongo che pagare le persone spiccioli per fare lavori del cavolo sia più conveniente.
Ma proprio nelle funzioni basilari.
Esempi:
- mesi fa posto il link di TPI che parla della copertina vergognosa di AffariItaliani pr un articolo sul calcio femminile: dopo mesi mi bloccano per 24 ore per pornografia.
- provo a vendere uno zaino fotografico: annuncio bloccato.
Faccio ricorso: ricorso bocciato.
- annuncio per ripetizioni di matematica: annuncio bloccato.
Altre mille cose (e mille annunci) non hanno avuto problemi ma che cavolo, l'IA fa schifo e i moderatori pure!
Il falso buonismo ed il politicamente corretto a tutti i costi è imperante.
Sempre paladini della libertà di parola e di pensiero, ma solo se la pensi come loro.
Basta fare un giro su Bufale.net.
Ci sono giornaletti, il cui nome farebbe insospettire un scemo e che non so come sono riusciti a farsi invitare in TV, che sono un livello sotto al Vernacoliere come attendibilità. Se leggi li qualcosa è una conferma che è falsa, tendenziosa o manipolata.
La sinistra? esattamente quali sarebbero i media, giornali, tv ecc di sinistra?
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".