L'IA si impalla e Facebook lancia l'allarme esplosione, ma non c'è nessuna bomba

L'IA si impalla e Facebook lancia l'allarme esplosione, ma non c'è nessuna bomba

L'algoritmo del Safety Check ha nuovamente fatto cilecca, scatenando il panico negli abitanti di Bangkok per un'ora nel corso della serata di martedì

di pubblicata il , alle 16:31 nel canale Web
Facebook
 

Viviamo agli albori dell'intelligenza artificiale, un'epoca senza dubbio affascinante e intrisa di passione verso le nuove tecnologie di apprendimento delle macchine. Tuttavia è anche un'epoca intrisa di errori: Google nel suo cammino ne ha commesso alcuni, e Facebook ne sta commettendo di altri. È inevitabile e gli strafalcioni di oggi renderanno più forte la tecnologia di domani. L'ultimo è di Facebook, in Thailandia, dove ha attivato il Safety Check terrorizzando gli abitanti di Bangkok con un allarme esplosione. Nella capitale però non c'è stata nessuna bomba.

Gli utenti del paese hanno ricevuto il 27 dicembre un avviso con il quale potevano informare amici e parenti del loro stato in seguito ad un'esplosione apparentemente avvenuta a Bangkok. Si tratta del Safety Check, che la compagnia attiva manualmente o automaticamente in risposta ad una calamità in determinate aree. La feature è stata attivata nel paese intorno alle 21 locali e disattivata circa un'ora dopo per via di una notizia (correlata all'avviso) datata 2015 e firmata Bangkok Informer. L'attentato - in cui sono morti 20 uomini - c'è stato, ma è successo nell'estate di due anni fa.

Secondo quanto riporta la BBC l'algoritmo di Facebook è stato ingannato da una serie di coincidenze che hanno portato all'attivazione automatica del Safety Check. Martedì un uomo ha lanciato alcuni fuochi artificiali di piccole dimensioni dal tetto di un edificio governativo, notizia ripresa da Facebook per lanciare l'avviso: "Il Safety Check è stato attivato oggi in seguito ad un esplosione. Come in tutti i casi Facebook si basa su fonti di terze parti per confermare l'incidente, e poi sulla community per utilizzare il tool per avvisare amici e famiglie", ha commentato un portavoce del social network.

Ma in realtà non c'è stata nessuna esplosione, come invece recitava il titolo della pagina del Safety Check attivata a Bangkok, mentre tre link correlati al tool citavano l'attentato del 2015. Al momento Facebook sta compiendo alcune analisi sull'algoritmo per capire come le tre news di un anno fa siano finite nel Safety Check, e rimaniamo in attesa di una nota ufficiale in merito. Non è comunque la prima volta che l'intelligenza artificiale di Facebook fa cilecca: lo scorso marzo infatti il tool veniva attivato negli USA e nel Regno Unito per un attentato avvenuto in Pakistan.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Mparlav28 Dicembre 2016, 16:37 #1
Per il procurato allarme, la legge non fa' troppa distinzione tra una IA che ha dato i numeri ed un idiota che ha scritto un post allarmistico su Facebook.

Anzi, nel primo caso, l'allarme su vasta scala e da "fonte" attendibile (Facebook stesso), sono persino un'aggravante.

Il panico tra la folla può essere molto più dannoso del pericolo stesso, quindi sarebbe bene che quelli di Facebook testassero con molta più attenzione il loro Safety Check.
benderchetioffender28 Dicembre 2016, 17:00 #2
prove di manipolazione della realtà?
dado197928 Dicembre 2016, 18:17 #3
Originariamente inviato da: Mparlav
Per il procurato allarme, la legge non fa' troppa distinzione tra una IA che ha dato i numeri ed un idiota che ha scritto un post allarmistico su Facebook.

Anzi, nel primo caso, l'allarme su vasta scala e da "fonte" attendibile (Facebook stesso), sono persino un'aggravante.

Il panico tra la folla può essere molto più dannoso del pericolo stesso, quindi sarebbe bene che quelli di Facebook testassero con molta più attenzione il loro Safety Check.

Non direi... c'è tutto il discorso di dolo (aggravante) nel secondo caso o colpa del primo caso (meno gravante).
gianluca.f28 Dicembre 2016, 18:50 #4
perchè rendere automatico un processo così delicato?
Schaduw28 Dicembre 2016, 20:14 #5
Imho secondo me l'algoritmo così strutturato in questi casi è solo inutile.
Considerando che c'è internet si farebbe prima ad usare un aggregatore di notizie reali da un certo numero di fonti e lasciare che sia una persona in carne ed ossa a valutare se attivare il safety check.

E già così mi sembrerebbe influenzabile: qualcuno potrebbe riuscire ad entrare nei siti reali di notizie e diffondere una bufala che viene presa per vera, o alterare notizie esistenti.
sterock7728 Dicembre 2016, 21:01 #6
Sempre più felice di non usare più questo social maledetto !
s-y28 Dicembre 2016, 21:41 #7
c'entra parzialmente ma mi ricordo quando ero nano, a fine anni '70, che gli allarmi bomba erano non dico all'ordine del giorno ma quasi, e ogni volta da qualsiasi piccolezza si scatenava l'effetto domino

la differenza sta nei numeri, coi social globali ogni rutto puo' diventare un terremoto alla fine del percorso, e quindi ovviamente bisognerebbe andarci molto cauti, e possibilmente senza strumenti automatici almeno fin quando non siano fault-proof (e magari possibilmente con dei target chiari e condivisi col mondo)

scritto questo... burp
NighTGhosT29 Dicembre 2016, 07:30 #8
......VI PRESENTO JARVIS!!!!



....UGUALE UGUALE a Tony Stark di Ironman......


.......A Zukkenberg.....mavva....puntinipuntini

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^