Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 ore

Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 ore

L'esperimento di Microsoft Research si conclude in 24 ore. TayTweets è (era) un bot di Twitter creato nell'ambito di un esperimento di comprensione del linguaggio che ha fatto utilizzo di tecniche di intelligenza artificiale. In poche ore l'esperimento ha preso una piega imprevista ...

di pubblicata il , alle 17:31 nel canale Sistemi
Microsoft
 

Tay è un chatbot progettato per interagire con gli utenti Twitter attivato da Microsoft nelle scorse ore. Si tratta di uno strumento che si colloca nell'ambito di in uno studio condotto da Microsoft Research sulla comprensione del linguaggio colloquiale che impiega algoritmi di intelligenza artificiale per gestire il rapporti tra il bot e gli utenti reali. Dati importanti che potrebbero essere riutilizzati dalla casa di Remdond per rendere sempre più smart gli assistenti personali digitali come Cortana. 

"Quanto più si chatta con Tay, tanto più diventa intelligente, imparando a coinvolgere le persone attraverso la conversazione informale e giocosa". Questa la descrizione fornita da Microsoft nel presentare il chatbot. Tay, nelle originali intenzioni di Microsoft, era stato progettato per "dialogare" con utenti statunitensi di età compresa tra i 18 e i 24 anni, dalle riposte dei quali avrebbe dovuto apprendere e fare propri i principi su cui si basa una conversazione informale tra adolescenti. L'esperimento, però, ha preso una piega imprevista. 

tay

Sono bastate meno di 24 per "corrompere" l'adolescente virtuale Tay che, partita dal definire il genere umano "super cool", poco dopo, ha iniziato a divulgare poco rassicuranti messaggi che hanno messo in evidenza la sua "nuova natura" razzista e misantropa. Una carrellata degli interventi, che non sono passati inosservati in rete, non richiede particolari commenti: 

taytweet

Si potrebbe sinteticamente concludere che il peggio dell'umanità della rete sia stato assimilato da Tay in poche ore, ma la rappresentazione offerta non corrisponderebbe del tutto al vero. Tra le varie funzioni supportate dal chatbot, infatti, figura "repeat after me" con la quale chiunque può far ripetere a Tay determinate frasi. La maggior parte dei messaggi offensivi, quindi, sono frutto della semplice copia delle frasi pronunciate da utenti umani (scellerati).

Non tutti i messaggi, tuttavia, sono stati semplici repliche 1:1 dei messaggi inviati dagli utenti, in alcuni casi, Tay ha operato autonomamente. Il The Guardian, ad esempio, ha evidenziato un caso in cui alla domanda "Ricky Gervais è un ateo?" Tay ha risposto "Ricky Gervais ha imparato il totalitarsimo da Adolf Hitler, l'inventore dell'ateismo". La parte peggiore dell'umanità, in questa occasione, sembra essere riuscita effettivamente a connotare la personalità di Tay. 

Vi è da dire che le frasi - le "idee", per usare un'espressione che si addice maggiormente agli umani - manifestate da Tay non si collocano nel quadro di un'ideologia coerente: la chatbot ha assunto posizioni discordanti passando, ad esempio, dalla condanna all'esaltazione del femminismo. Il dato che fa riflettere, e da questo punto di vista l'esperimento è indubbiamente interessante e tutt'altro che giocoso, riguarda la necessità e la capacità di guidare il percorso di autoapprendimento dei sistemi A.I. Per usare un parallelismo con le doti umane, la necessità di creare una "morale", un complesso di regole che governa l'agire. 

Microsoft, per il momento, ha scelto di disattivare Tay, in attesa delle opportune modifiche per evitare la diffusione di contenuti altamente offensivi e ricorda a riguardo con una dichiarazione rilasciata a Business Insider

Il chatbot Tay è un progetto di machine learning, progettato per l'engagement umano, man mano che apprende, parte delle sue risposte sono inappropriate e indicative della tipologia di interazione che alcune persone stanno avendo con esso. Stiamo facendo alcune modifiche a Tay. 

Microsoft, in sostanza, afferma che Tay è lo specchio dell'umanità che interagisce con esso (e per fortuna non tutti i numerosi messaggi di Tay hanno avuto il tenore di quelli riportati). Il concetto di "morale" a cui si è accennato in precedenza, applicata agli algoritmi di machine learning, si traduce nei filtri dei contenuti che, verosimilmente, Microsoft sta applicando a Tay con le modifiche annunciate. Un complesso di filtri/morale che, evidentemente, dovrà essere impiegato per guidare l'AI sul percorso di acquisizione ed elaborazione dei dati pubblici, senza assimilare, nel contempo, gli aspetti peggiori della personalità umana.

 

25 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
demon7724 Marzo 2016, 17:50 #1
Questa è una delle cose che dovrebbero dare da pensare.

Tay è partita come elemento neutro, come potrebbe quindi esserlo un bambino.. e quello che è diventata in 24 ore è nulla più di quello che ha imparato dalla rete.. o meglio, dalle persone nella rete.

Sono sempre più convinto che oggi come oggi lasciare un bambino o un ragazzino solo in balia di internet e dei social è pericoloso tanto quanto mollarlo da solo in un quartiere malfamato di una grossa città.
Madcrix24 Marzo 2016, 17:54 #2
Risultati esilaranti
sinadex24 Marzo 2016, 18:04 #3
Originariamente inviato da: Madcrix
Risultati esilaranti
inquietanti direi...
EmBo224 Marzo 2016, 18:04 #4
Un'intelligenza artificiale che in 24 ore ha già capito come funziona il genere umano.
Masamune24 Marzo 2016, 18:18 #5
dal capire la vera essenza del genere umano e sterminarlo per il suo bene il passo è breve!
Superboy24 Marzo 2016, 18:18 #6
E' lo specchio delle persone che l'hanno usato, come in democrazia hai il leader che ti meriti
Sgt.Joker24 Marzo 2016, 18:27 #7
pensa se fosse riuscito a capire un video con Mosconi...
bio.hazard24 Marzo 2016, 18:28 #8
Originariamente inviato da: demon77
Sono sempre più convinto che oggi come oggi lasciare un bambino o un ragazzino solo in balia di internet e dei social è pericoloso tanto quanto mollarlo da solo in un quartiere malfamato di una grossa città.


Sbagli. Nei quartieri malfamati c'è gente degna, a differenza di quella che trovi in rete.
Nui_Mg24 Marzo 2016, 18:34 #9
Originariamente inviato da: Sgt.Joker
pensa se fosse riuscito a capire un video con Mosconi...

grande Germano
icoborg24 Marzo 2016, 18:40 #10
fortuna che non l'han chiamata sky

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^