Un morto nell'unità di moderazione dei contenuti di Facebook

Un morto nell'unità di moderazione dei contenuti di Facebook

Il sistema di moderazione dei contenuti di Facebook, da qualche anno affidato a revisori umani, è al centro delle attenzioni ormai da diverso tempo: adesso un'approfondita inchiesta di The Verge fa luce su nuovi preoccupanti aspetti

di pubblicata il , alle 13:41 nel canale Web
Facebook
 

Dal 2017 in poi Facebook ha ampliato in maniera considerevole il proprio organico che si occupa della revisione e della censura dei contenuti che passano attraverso il famoso social network, soprattutto in seguito alla diffusione di fake news relative a certi fatti di cronaca accaduti negli Stati Uniti (a partire dalle stragi di Charlottesville e di Cleveland del 2017) e alla manipolazione avvenuta in occasione della campagna elettorale Usa che ha portato anche alla storica convocazione di Mark Zuckerberg al Parlamento Europeo.

Già da diversi mesi si parla insistentemente di condizioni di lavoro critiche nelle unità di moderazione dei contenuti di Facebook, con dipendenti che sono sottoposti a lunghi turni di lavoro ripetitivo che li espone alla visione e valutazione di contenuti molto spesso raccapriccianti e inneggianti all'odio. Nel 2017 il Wall Street Journal aveva definito la moderazione dei contenuti come "il peggior lavoro nell'ambito tecnologico" con Facebook che impiega migliaia di moderatori che ricercano continuamente contenuti che violano le regole imposte dalla compagnia, o le leggi. E naturalmente i moderatori sono continuamente esposti a qualsiasi tipo di contenuto.

Facebook

Secondo alcune ricostruzioni Facebook impiega più di 8 mila persone nella moderazione dei contenuti, ovvero un organico più grande di quello delle intere Twitter e NVIDIA, tanto per rendere l'idea. Dal 2017 in poi si è accorta di non poter controllare i contenuti a rischio solamente tramite gli algoritmi di intelligenza artificiale e ha cominciato ad affidarsi alla revisione umana, ingrandendo le unità di moderazione in maniera molto importante sulla scia delle polemiche a cui Zuckerberg e la sua azienda sono andati incontro.

The Verge ha pubblicato una nuova approfondita inchiesta su un argomento che è molto dibattuto ormai da diversi mesi, alla luce della notizia di una morte presso l'unità di moderazione meno efficiente che si trova a Tampa, in Florida avvenuta lo scorso anno. Per la gestione di questa unità Facebook si affida a un'azienda di erogazione di servizi professionali esterna, Cognizant.

Nel centro di moderazione vi lavorano 800 dipendenti che, stando al reportage, sono "sottoposti a pressioni incessanti da parte dei loro capi nell'obiettivo di mettere in pratica le modalità di intervento volute dalla direzione del social network. Aggiornamenti sulle modalità di intervento vengono trasmessi su base pressoché giornaliera mettendo i contractor in una situazione di perenne incertezza sul come agire". Facebook ha un obiettivo di "accuratezza" del 98% riguardo ai contenuti da moderare, ma il sito di Tampa è quello che raggiunge i risultati peggiori, attestandosi intorno al 92%.

La vittima è Keith Utley, il quale prima di iniziare a lavorare per Facebook ha prestato servizio nella Guardia costiera, dove ha raggiunto il grado di tenente comandante. Dopo aver lasciato l'esercito ha iniziato a lavorare come moderatore per conto di Facebook. Il suo lavoro consiste nell'eliminare le cose più turpi che gli utenti del social network pubblicano quotidianamente come incitamento all'odio, omicidi e pedo-pornografia.

Tutti i contractor che lavorano in questa unità devono firmare un accordo di non divulgazione di 14 pagine con Facebook ma, stando al resoconto di The Verge, tre impiegati hanno deciso di violare l'accordo, raccontando la storia di Utley, e molte altre (l'articolo è decisamente lungo). "Lo stress a cui era sottoposto non è normale" ha detto uno dei superiori di Utley. "Ho dedicato molto tempo a parlargli per capire cosa non andava. Lui era sempre preoccupato di poter essere licenziato da un giorno all'altro".

La notte del 9 marzo 2018 Utley si è accasciato sulla scrivania, momento in cui i suoi colleghi, una volta che si sono accorti che qualcosa non andava, sono andati alla ricerca di defibrillatori e hanno chiamato un'ambulanza. Tra la scarsa illuminazione notturna e l'insufficiente segnaletica esterna, sembra che l'ambulanza abbia avuto problemi a trovare l'edificio. I paramedici sono arrivati ​​13 minuti dopo la prima chiamata, secondo la ricostruzione di The Verge, quando Utley aveva ormai assunto un colorito blu.

Da diversi mesi si parla insistentemente di condizioni di lavoro critiche nelle unità di moderazione dei contenuti di Facebook
I paramedici hanno condotto Utley in un ospedale, mentre nella sede di Tampa era scoppiato ormai il panico. Alcuni hanno iniziato a pregare, mentre altri continuavano tranquillamente con la moderazione dei contenuti mentre i paramedici erano al lavoro. Utley è stato dichiarato morto poco dopo in ospedale, vittima di un infarto. The Verge sostiene che non è stato possibile ottenere ulteriori informazioni sulle sue condizioni di salute o sulle circostanze della sua morte. Ha lasciato una moglie, Joni, e due giovani figlie. Aveva 42 anni.

Questo capitò un venerdì, mentre il lunedì successivo la notizia iniziò a circolare in tutto lo stabilimento e alcuni dipendenti iniziarono a raccogliere soldi per gli omaggi funebri. I dirigenti dello stabilimento, però, cercarono di impedire che la notizia si diffondesse subito, imponendo di non parlarne troppo per paura che questo fatto potesse avere ripercussioni sulla produttività, già bassa, del centro.

Indagando sull'accaduto, i giornalisti di The Verge si sono resi conto che non è l'unica storia anomala che riguarda questa unità. Da aprile due lavoratrici del centro hanno denunciato alla Commissione per le pari opportunità del lavoro degli Stati Uniti due separati casi di molestie sessuali. Le strutture del sito di Tampa sono spesso sporche, con i lavoratori che riferiscono che l'unico bagno dell'ufficio è stato ripetutamente trovato sporco di feci e di sangue mestruale. I lavoratori hanno anche trovato peli pubici e unghie sulle loro scrivanie, mentre le liti verbali e fisiche, così come i casi di furto, sono all'ordine del giorno. Molti altri siti controllati da Facebook versano in condizioni altrettanto critiche: per esempio nel centro di Phoenix si è dovuta affrontare un'infestazione di cimici.

Facebook dice che condurrà una verifica dei suoi siti partner e apporterà delle modifiche per migliorare le condizioni di lavoro. Sostiene che prenderà in considerazione l'offerta di un maggior numero di contratti a tempo indeterminato e che fornirà assistenza a quei lavoratori che decideranno di lasciare le unità di moderazione dei contenuti. Condizioni talmente insostenibili, d'altra parte, dipendono anche dal tipo di lavoro richiesto a questi impiegati.

Secondo un'altra fonte di The Verge, Shawn Spagle, nei sei mesi successivi alla sua assunzione, avrebbe moderato da 100 a 200 messaggi al giorno. Fra le cose più raccapriccianti foto e video di persone che lanciavano cuccioli in un fiume e violenze di altro tipo verso gli animali. Persone intente a mutilare i genitali di un topo vivo e ferire la faccia di un gatto con un'accetta. La fonte ha visto video di persone che giocano con feti umani e dice di aver appreso che sono autorizzati su Facebook "finché la pelle è limpida". Ha scoperto che non poteva più dormire per più di due o tre ore a notte e spesso si svegliava piangendo.

Proprio dopo l'omicidio di Cleveland, documentato con un video condiviso su Facebook, il social network annunciava l'assunzione di ben 3 mila revisori di contenuti video, in modo da bloccare la condivisione capillare preventiva di contenuti così critici. L'azienda ammetteva di non riuscire a prevenire condivisioni di massa di questa natura tramite algoritmi e machine learning. Da quel momento le unità di revisione dei contenuti sono cresciute progressivamente, ma non sembrerebbe il modo giusto per affrontare il problema.

Zuckerberg ha chiesto aiuto ai governi con una lettera aperta pubblicata sul Washington Post. Secondo Zuckerberg i legislatori dovrebbero intervenire con nuove leggi in quattro aree: "Contenuti pericolosi, integrità delle elezioni, privacy e portabilità dei dati". Continua il CEO di Facebook: "Molto spesso i legislatori ci accusano di avere troppo potere sull'informazione, e francamente sono d'accordo". Facebook ha creato "un organismo indipendente in modo tale che le persone abbiano la possibilità di appellarsi alle nostre decisioni".

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

30 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
demon7720 Giugno 2019, 14:02 #1
Mah.. sinceramente mi pare tutto molto "tirato per i capelli".

A conti fatti si parla di una persona che ha avuto un infato.
Una cosa che ha mille cause dovute a mille fattori, mi pare quantomeno forzato andarlo a legare a doppio filo col lavoro che faceva quasi fosse quella la causa principe del fatto.

Oltretutto, andando nel merito del lavoro di moderatore di facebook:
Ok, non sarà certo un sogno di lavoro ma non è che lavori nelle miniere di sale in bangladesh.
Ok, probabilmente i turni sono pesanti, ma non è che hai le scadenze coi clienti che ti alitano sul collo e ti fanno causa se sfori. Alla fine devi far passare dei post e togliere le puttanate.. non è esattamente un lavoro di chissà che responsabilità.
LukeIlBello20 Giugno 2019, 14:04 #2
con tutti i soldi che fanno alla faccia degli utonti, tengono i dipendenti pure in regime di lavoro cinese
ma intanto gli utonti lo usano
Opteranium20 Giugno 2019, 14:04 #3
la speranza è che fb fallisca, in quanto racchiude in sé il peggio di ogni visione distopica: controllo, profilazione, oppressione, falso senso di libertà, totale perdita di privacy, e così via.
LukeIlBello20 Giugno 2019, 14:10 #4
Originariamente inviato da: Opteranium
la speranza è che fb fallisca, in quanto racchiude in sé il peggio di ogni visione distopica: controllo, profilazione, oppressione, falso senso di libertà, totale perdita di privacy, e così via.


sono d'accordo
lupoblu929320 Giugno 2019, 14:28 #5
Quanto sono illusi quelli che criticano Zuckerberg ma non si rendono conto che l'obbietto dell'attacco continuo a Facebook è dovuto al fatto che vogliono censurare tutto. Il fine ultimo è fare in modo che le persone comuni non possano più pubblicare nulla. Su i miliardi di contenuti tra commenti,video,meme pubblicati ogni giorno è normale che ci sia della merda, è utopia pensare in un internet perfetto. Ma poi menomale e ci sono le persone reali che moderano. Immaginatevi un algoritmo a cui viene affidato il compito della censura è qualcosa di spaventoso, immaginate che potere di influenza può avere un algoritmo programmato per eliminare ogni cattiveria,ogni comportamento tossico da internet. Ragazzi illusi è in arrivo una censura di internet spaventosa.
lupoblu929320 Giugno 2019, 14:31 #6
Avremo la dittatura dell'algoritmo
recoil20 Giugno 2019, 14:34 #7
Originariamente inviato da: demon77
Oltretutto, andando nel merito del lavoro di moderatore di facebook:
Ok, non sarà certo un sogno di lavoro ma non è che lavori nelle miniere di sale in bangladesh.
Ok, probabilmente i turni sono pesanti, ma non è che hai le scadenze coi clienti che ti alitano sul collo e ti fanno causa se sfori. Alla fine devi far passare dei post e togliere le puttanate.. non è esattamente un lavoro di chissà che responsabilità.


non credo sia un lavoro particolarmente piacevole, se leggi l'inchiesta di The Verge è emerso che guardano schifezze dalla mattina alla sera e che c'è abbastanza pressione perché si può essere licenziati per errori commessi in fase di moderazione, inoltre c'è un certo grado di responsabilità in quello che fanno perché hanno potere di censura sui post

sicuramente meglio che lavorare in miniera, ma se si considera l'ambito IT credo sia uno dei lavori meno desiderabili da fare
Eress20 Giugno 2019, 14:55 #8
Originariamente inviato da: Opteranium
la speranza è che fb fallisca, in quanto racchiude in sé il peggio di ogni visione distopica: controllo, profilazione, oppressione, falso senso di libertà, totale perdita di privacy, e così via.

A volte i sogni si avverano
gd350turbo20 Giugno 2019, 15:02 #9
Fallisca ?
Ma se sta creando una sua moneta, altrochè fallire, tra un pò diventerà matrix !
E se per caso fallisse davvero troveresti una sollevazione popolare che i "gilet gialli" in francia, a confronto sono un gruppo di chierichetti in pellegrinaggio !

Questo comunque sarebbe il lavoro ideale per me...
8 ore al giorno a premere Canc,Canc,Canc,Canc,Canc,Canc,Canc,Canc,Canc,Canc,Canc,Canc...
Phopho20 Giugno 2019, 15:53 #10
Originariamente inviato da: lupoblu9293
Quanto sono illusi quelli che criticano Zuckerberg ma non si rendono conto che l'obbietto dell'attacco continuo a Facebook è dovuto al fatto che vogliono censurare tutto. Il fine ultimo è fare in modo che le persone comuni non possano più pubblicare nulla. Su i miliardi di contenuti tra commenti,video,meme pubblicati ogni giorno è normale che ci sia della merda, è utopia pensare in un internet perfetto. Ma poi menomale e ci sono le persone reali che moderano. Immaginatevi un algoritmo a cui viene affidato il compito della censura è qualcosa di spaventoso, immaginate che potere di influenza può avere un algoritmo programmato per eliminare ogni cattiveria,ogni comportamento tossico da internet. Ragazzi illusi è in arrivo una censura di internet spaventosa.


sei serio?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^