PDA

View Full Version : Microsoft spegne Tay, il chatbot Twitter diventato razzista e misantropo in 24 ore


Redazione di Hardware Upg
24-03-2016, 16:31
Link alla notizia: http://www.hwupgrade.it/news/sistemi/microsoft-spegne-tay-il-chatbot-twitter-diventato-razzista-e-misantropo-in-24-ore_61756.html

L'esperimento di Microsoft Research si conclude in 24 ore. TayTweets è (era) un bot di Twitter creato nell'ambito di un esperimento di comprensione del linguaggio che ha fatto utilizzo di tecniche di intelligenza artificiale. In poche ore l'esperimento ha preso una piega imprevista ...

Click sul link per visualizzare la notizia.

demon77
24-03-2016, 16:50
Questa è una delle cose che dovrebbero dare da pensare.

Tay è partita come elemento neutro, come potrebbe quindi esserlo un bambino.. e quello che è diventata in 24 ore è nulla più di quello che ha imparato dalla rete.. o meglio, dalle persone nella rete.

Sono sempre più convinto che oggi come oggi lasciare un bambino o un ragazzino solo in balia di internet e dei social è pericoloso tanto quanto mollarlo da solo in un quartiere malfamato di una grossa città.

Madcrix
24-03-2016, 16:54
Risultati esilaranti

sinadex
24-03-2016, 17:04
Risultati esilarantiinquietanti direi...

EmBo2
24-03-2016, 17:04
Un'intelligenza artificiale che in 24 ore ha già capito come funziona il genere umano.

Masamune
24-03-2016, 17:18
dal capire la vera essenza del genere umano e sterminarlo per il suo bene il passo è breve! :D

Superboy
24-03-2016, 17:18
E' lo specchio delle persone che l'hanno usato, come in democrazia hai il leader che ti meriti :D

Sgt.Joker
24-03-2016, 17:27
pensa se fosse riuscito a capire un video con Mosconi...

bio.hazard
24-03-2016, 17:28
Sono sempre più convinto che oggi come oggi lasciare un bambino o un ragazzino solo in balia di internet e dei social è pericoloso tanto quanto mollarlo da solo in un quartiere malfamato di una grossa città.

Sbagli. Nei quartieri malfamati c'è gente degna, a differenza di quella che trovi in rete.
;)

Nui_Mg
24-03-2016, 17:34
pensa se fosse riuscito a capire un video con Mosconi...
:rotfl: grande Germano

icoborg
24-03-2016, 17:40
fortuna che non l'han chiamata sky

Evil_Sephiroth
24-03-2016, 18:09
Ammesso che non sia stato sabotato..non mi meraviglierei in tanti avessero fatto di tutto volutamente per portarlo a quella situazione...

Alla fine basterebbe che un progetto simile finisse su 4chan per avere risultati simili

Kael
24-03-2016, 18:20
Ci fosse stato 4chan di mezzo avrebbero dovuto spegnerlo dopo mezz'ora :D

Rubberick
24-03-2016, 18:48
Ci fosse stato 4chan di mezzo avrebbero dovuto spegnerlo dopo mezz'ora :D

lmao :sofico:

cmq sia questa è un ottima risposta a chi vuole realizzare le intelligenze artificiali e dotarle anche di mezzi per muoversi e far altro.

per quanto possano realizzare tutto bene prima o poi te li ritrovi contro... e sono cazzi, meglio una programmazione + ridotta all'osso e + buggata che un auto apprendimento senza soluzione di continuità

LMCH
24-03-2016, 21:59
Ci fosse stato 4chan di mezzo avrebbero dovuto spegnerlo dopo mezz'ora :D

Ci fosse stato ? ;)

C'e' stato eccome 4chan! :D

Date un occhiata qui, dove si trovano maggiori dettagli:
https://www.washingtonpost.com/news/the-intersect/wp/2016/03/24/the-internet-turned-tay-microsofts-fun-millennial-ai-bot-into-a-genocidal-maniac/

Except Tay learned a lot more, thanks in part to the trolls at 4chan’s /pol/ board.

Microsoft said on Thursday that Tay is “as much a social and cultural experiment, as it is technical.”

“Unfortunately, within the first 24 hours of coming online,” an emailed statement from a Microsoft representative said, “we became aware of a coordinated effort by some users to abuse Tay’s commenting skills to have Tay respond in inappropriate ways. As a result, we have taken Tay offline and are making adjustments.”

Poi vengono parecchi dubbi sulla qualità di quel chatterbot perchè dicono anche che: :rolleyes:
Many of the really bad responses, as Business Insider notes, appear to be the result of an exploitation of Tay’s “repeat after me” function — and it appears that Tay was able to repeat pretty much anything.

Dopo il Test di Turing mi sa che dovranno introdurre il Test di 4chan per identificare vere AI dotate di senso critico. :sofico:

carlito85
24-03-2016, 22:19
Bam giu nel canestro!

EmBo2
24-03-2016, 22:39
Dopo il Test di Turing mi sa che dovranno introdurre il Test di 4chan per identificare vere AI dotate di senso critico. :sofico:

Su 4chan non sopravvivono nemmeno le persone normali, figurarsi un bot :asd: :asd:

ondinet
24-03-2016, 22:40
quello che possiamo fare è "creare a nostra immagine" a Toy è mancato del tutto l'imprinting una forma di legge morale che lo aiuti a discriminare.

E' stato come lasciare un bambino disabile nelle mani di una gang di bimbiMinchia stupidi e feroci.

benderchetioffender
25-03-2016, 08:42
quello che possiamo fare è "creare a nostra immagine" a Toy è mancato del tutto l'imprinting una forma di legge morale che lo aiuti a discriminare.

E' stato come lasciare un bambino disabile nelle mani di una gang di bimbiMinchia stupidi e feroci.

mi sembra la miglior descrizione dell'accaduto

quello che mi inquieta è che Hitler gli saltava in bocca così facilmente
cos'è? una grossa fetta di bimbiminkia anglofoni è nazista o trova divertente il nazismo?

r1348
25-03-2016, 10:04
Trollato alla grande da 4chan, tutto orchestrato su /pol/. L'errore di Microsoft? Dire che Tay avrebbe imparato dalle proprie relazioni con altri utenti.
In realtà l'esperimento è comunque significativo: una IA deve essere in grado di riconoscere degli evidenti tentativi di manipolazione, cosa che negli umani è data dall'educazione sociale. Diciamo che se al posto di un'IA ci fosse stato un ipotetico bambino cresciuto dalle scimmie nella giungla, il risultato non sarebbe stato molto diverso.

Noir79
25-03-2016, 10:19
Hahahaha fantastico

Noir79
25-03-2016, 10:22
Trollato alla grande da 4chan, tutto orchestrato su /pol/. L'errore di Microsoft? Dire che Tay avrebbe imparato dalle proprie relazioni con altri utenti.
In realtà l'esperimento è comunque significativo: una IA deve essere in grado di riconoscere degli evidenti tentativi di manipolazione, cosa che negli umani è data dall'educazione sociale. Diciamo che se al posto di un'IA ci fosse stato un ipotetico bambino cresciuto dalle scimmie nella giungla, il risultato non sarebbe stato molto diverso.

Ottimo commento.

LMCH
25-03-2016, 12:42
mi sembra la miglior descrizione dell'accaduto

quello che mi inquieta è che Hitler gli saltava in bocca così facilmente
cos'è? una grossa fetta di bimbiminkia anglofoni è nazista o trova divertente il nazismo?

Niente di che, trollaggi assortiti di 4chan /pol/ e naturalmente la Reduction ad Hitlerium (https://it.wikipedia.org/wiki/Reductio_ad_Hitlerum) e Legge di Godwin (https://it.wikipedia.org/wiki/Legge_di_Godwin). ;)

achab_66
26-03-2016, 08:52
Ma perché non provano ad inserire delle leggi in linea con la teoria di Asimov? Magari solo abbozzate, ma comunque qualcosa che sia un limite invalicabile. Chiamiamoli anche "filtri", il concetto non cambia.

Phoenix Fire
26-03-2016, 21:46
esperimento interessante, dispiace per la trollata però è una cosa che è successa pure a google, se non sbaglio riuscirono a influenzare delle traduzioni di google translate semplicemente riempiendo il motore di correzzioni errate, probabilmente perchè non c'erano grossi filtri a monte. Interessato a vedere la versione "moralizzata"

omihalcon
27-03-2016, 22:25
fortuna che non l'han chiamata sky

Vorrai dire fortuna che non l' hanno chiamato skynet. Vediamo se Microsoft fa la m*nch*ata?