|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
Senior Member
Iscritto dal: Sep 2004
Messaggi: 1261
|
Arrivano i chatbot, supereranno il test di Turing?
Sembra che sia già successo!
300 studenti del Georgia Institute of Technology sono inconsapevolmente stati sottoposti a un esperimento di intelligenza artificiale, servendo da "sperimentatori di Turing" per una chatbot unversitaria. In pratica si sono scambiati messaggi (non ho capito se mail o chat) per due mesi con una certa assistente di nome Jill Watson... che però non era un prof, ma un bot programmato per rispondere a "domande di routine", lasciando al vero prof soltanto le domande più "interessanti". Gli studenti non si sono accorti di niente. Ma se questa cosa vi sembra inquietante... sentite quest'altra: il chatbot Tay è stato... zittito? ...spento? ...terminato? ...dalla Microsoft perchè, interagendo con degli adolescenti, in poche ore è diventato un adolescente xenofobo e razzista! ![]() Cosa succederebbe se l'agoritmo di apprendimento di questo bot fosse installato sulle auto driverless di cui si parla in altro thread? ![]() Spirito di HAL aiutaci tu....
__________________
La scienza è provvisoria -- Jumpjack -- |
![]() |
![]() |
![]() |
#2 |
Bannato
Iscritto dal: Oct 2002
Messaggi: 29264
|
Diventerebbe il perfetto automobilista milanese/napoletano. Clacsonata a quello davanti 15centesimi di secondo dopo il verde, pedale dell'acceleratore in binario (tutto giù o tutto su), parcheggio in doppia fila, parcheggio su striscie pedonali, parcheggio su marciapiede, parcheggio su rampa disabili, animazione dito medio sullo schermo...
|
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Sep 2012
Messaggi: 687
|
Basta mettere delle regole di partenza che non sono modificabili dalla rete neurale di apprendimento
|
![]() |
![]() |
![]() |
#4 | |
Senior Member
Iscritto dal: Oct 1999
Messaggi: 1565
|
Quote:
Come si vede dal nome è IBM Watson, già in vendita come applicazione da almeno due anni, sul sito di IBM ci sono i tutorial per addestrare il sistema. E' l'oggetto dell'accordo firmato in Italia da IBM per l'impiego dell'area Expo 2015, verrà installata la server farm dedicata all'implementazione di Watson Health, sistema esperto a linguaggio naturale dedicato a medicina e prevenzione. |
|
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Sep 2004
Messaggi: 1261
|
Cosa pensi che sia un "chatbot"?
![]() Letteralmente, è un "software che chiacchiera".
__________________
La scienza è provvisoria -- Jumpjack -- |
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Dec 2004
Città: IV Reich
Messaggi: 18597
|
quoto
__________________
Wind3 4G CA |
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Jan 2012
Messaggi: 3733
|
Non saprei, non mi fido troppo di queste cose... A dire il vero anzi sono molto diffidente sugli studi sull'IA... Non sono un esperto ma se da un lato penso che si e' ancora in alto mare in questo dall'altro penso che piu' ci stiamo in alto mare e meglio e'.
Le macchine sono degli strumenti, sono sostanzialmente degli schiavi senza che questo sia un problema per nessuno meglio tenercela noi l'intelligenza perche' dopo se no non so quanto sarebbero contente di continuare ad esserle schiave...
__________________
![]() |
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Dec 2004
Città: IV Reich
Messaggi: 18597
|
ma che ragionamento è scusa... un eventuale robot intelligente non sarà schiavo, una lavatrice continuerà ad esserlo. o un robot con funzioni base
__________________
Wind3 4G CA |
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Jan 2012
Messaggi: 3733
|
Il ragionamento e': che kaz di motivo c'e' di creare un robot se non per avere uno schiavo?
Cioe' le macchine sono nate per essere strumenti, per servirci, per scopi seri o frivoli poco importa il lorobscopo e' quello e solo quello ha senso. Abbiamo gia abbastanza problemi, siamo gia' abbastanza insoddisfatti per conto nostro, e l'intelligenza porta solo aspirazioni e desideri, cioe' ulteriori probabilita' di insoddisfazione, quindi attrito, magari violenza anche. Crei un robot in grado di pensare e il giorno dopo ti dice "perche' mi hai creato? Mi rompo i c####, la casa dove mi hai messo fa schifo, voglio una Ferrari: compramela" te cosa gli dici? Cosa lo crei a fare? Ti piace complicarti la vita???
__________________
![]() |
![]() |
![]() |
![]() |
#10 | |
Senior Member
Iscritto dal: Sep 2012
Messaggi: 687
|
Quote:
Ma anche fosse messo su un sistema autonomo diventa più come un cane, impara da quello che gli fai fare. Le reti neurali sono molto influenzabili dai dati di partenza, si possono ingannare. Poi essendo un programma basta mettere delle regole qualsiasi percui se l'output non ti piace lo blocchi. Come fa un robot a riscrivere il suo programma? Ma anche potesse deve imparare il linguaggio di programmazione giusto e credo sia estremamente difficile creare un sistema che si autoprogrammi. Infine, tu credi che siamo in alto mare, secondo me le prove le hanno già fatte, per esempio perché non testare un ai su droni a guida autonoma? O per l'analisi di problemi scientifici complessi, o magari per la gestione di una linea produttiva industriale. Le applicazioni sono infinite, non solo il robot umanoide, che ha senso solo nei film e per i giapponesi. |
|
![]() |
![]() |
![]() |
#11 | |
Member
Iscritto dal: Aug 2006
Messaggi: 92
|
Quote:
![]() 1) Una macchina intelligente è uno schiavo migliore di una macchina stupida. Se il tuo robot-lavatrice è in grado di separare da solo i bianchi dai colorati, riconoscere i tipi di macchie, programmare in anticipo i lavaggi della settimana, decidere quali capi sono più urgenti in base alle tue attività... bhe, è tutto di guadagnato. L'intelligenza non deve essere necessariamente essere una "intelligenza a tutto tondo", con tanto di software aggiornato di esistenzialismo e il chip per la lotta di classe e la difesa dei diritti dei robot. Può anche essere un "lavare i panni con intelligenza" e limitarsi a quello. 2) Intelligenza non significa umoralità, sensibilità, ambizione, gusti personali o altro. Semplicemente, una macchina intelligente ha una (maggiore) comprensione di ciò che sta facendo e potrebbe cercare modi via via migliori per farlo. Questo nei limiti della sua programmazione. Non si inventa un comportamento reazionario se il programmatore non ha permesso questa eventualità. Non si sceglie nuovi scopi, non si annoia, non si compra l'auto, non fa assolutamente niente di niente se non è stato predisposto in quel senso. La sua intelligenza risiede semplicemente nella capacità di trovare soluzioni a problemi, eventualmente imparando dall'esperienza. Se poi qualcuno ha volutamente deciso di programmare un robot in stile Bender di Futurama allora ti do ragione, è una fesseria. Ma non penso sia il caso. ![]()
__________________
" L'uomo è lo zimbello più facile di sé stesso, perché quello che vuole che sia vero generalmente lo ritiene vero. " Demostene - Kung Fu! |
|
![]() |
![]() |
![]() |
#12 | |
Senior Member
Iscritto dal: Sep 2004
Messaggi: 1261
|
Quote:
E' vero, le macchine sono nostre "schiave". Se un giorno si metteranno a pensare e ad avere una coscienza... saremo rovinati. ![]() Non ci avevo mai pensato a questo aspetto "a doppio taglio" dell'A.I. Una definizione precisa di "intelligenza" non esiste, nemmeno per gli umani, figuriamoci per i robot. Una "rete neurale" non è un "computer intelligente". Autocoscienza e intelligenza sono due cose diverse. Questa faccenda sta per diventae un problema serio. ![]() Oltre che serio diventa pure inquietante, se pensate a quante informazioni intime e personali state dando in pasto a tutti i computer che vi circondano: cellulare, tablet, computer. Tutto quello che scrivete su whatsapp e facebook viene passivamente incamerato da delle macchine... che tra 20 anni se lo ricorderanno ancora e potrebbero essere diventate in grado di capire tutto quello che avete scritto.
__________________
La scienza è provvisoria -- Jumpjack -- Ultima modifica di jumpjack : 25-05-2016 alle 09:21. |
|
![]() |
![]() |
![]() |
#13 | ||
Senior Member
Iscritto dal: Sep 2004
Messaggi: 1261
|
Quote:
Quote:
Che non c'entra niente con quello che farà un computer dotato di capacità di ragionare come un cervello umano, quando raggiungeremo la Singolarità nel 2035. Il 2035 sembra lontano... ma sono meno di 20 anni. Meno di una generazione umana. La persona che vedrà comparire il messaggio "perchè vuoi spegnermi?" sul monitor potrebbe essere già nata.
__________________
La scienza è provvisoria -- Jumpjack -- |
||
![]() |
![]() |
![]() |
#14 |
Senior Member
Iscritto dal: Jan 2012
Messaggi: 3733
|
Tutto dipende da cosa si intende con intelligenza. Per come la vedo io non e' corretto parlare di intelligenza se non si intende qualcosa che implica autonomia e coscienza di se'... E' diverso sviluppate una IA vera dal dotare una macchina di algoritmi molto buoni e organizzati in modo tale da affrontare nel migliore dei modi un determinato problema facilmente prevedibile.
Quindi in quel caso non parlerei di intelligenza. L'intelligenza vera, l'autonomia di pensiero, implica la possibilita' di evolvere se' stessa, e quindi sviluppare gusti, desideri eccetera. Di mettersi magari contro ai propri creatori sentendosi abusati da loro. Certo come si e' detto una macchina dovrebbe concretamente imparare ad autoprogrammarsi ma a me sinceramente spaventerebbe gia' abbastanza il pensiero che a una macchina possa venire in mente di volerlo fare, possa venire in mente che le conviene, anche se nella pratica fosse poco probabile realizzare rale intento
__________________
![]() |
![]() |
![]() |
![]() |
#15 | ||
Member
Iscritto dal: Aug 2006
Messaggi: 92
|
Quote:
Non la semplice esecuzione di passi preimpostati, che sono d'accordo, è solo questione di velocità di calcolo. Quote:
Per me una macchina intelligentissima può anche essere completamente "asservita". In altre parole, potrebbe capire quello che la circonda, ragionare astrattamente, comprendere e formulare idee complesse, sviluppare nuove strategie ecc ecc senza per questo avere il minimo accenno di sentimenti o di amor proprio. Se si comporta in modo "umano" (non vuole essere spenta, si fa domande esistenziali, desidera uno scopo ed altri simili esempi) è perché è stata programmata per questa possibilità. Ricordiamo che noi stessi siamo "programmati" per avere istinto di sopravvivenza, desideri, emozioni. Al contrario, la mente di una macchina (compreso il suo modo di apprendere e le sue possibilità di "cambiare") è stabilita a tavolino.
__________________
" L'uomo è lo zimbello più facile di sé stesso, perché quello che vuole che sia vero generalmente lo ritiene vero. " Demostene - Kung Fu! Ultima modifica di Il_Grigio : 25-05-2016 alle 10:49. |
||
![]() |
![]() |
![]() |
#16 |
Senior Member
Iscritto dal: Jan 2012
Messaggi: 3733
|
Una mente costruita a tavolino non avra' mai la versatilita' per fare cose come inventarsi soluzioni in mancanza di esperienza pregressa quindi delle due l'una, o non arrivi a quel risultato o se ci vuoi arrivare ti prendi un rischio piuttosto consistente. Quella stessa chatbot nazista, per quanto in quel caso sia ancora solo una cosa che fa piu' ridere che altro, dimostra quanto sia inadeguata la nostra preparazione e piu' in generale il controllo che si puo' avere su una cosa del genere, e li era ancora soltanto una emulazione di intelligenza, una semplice imitazione, non intelligenza reale
__________________
![]() |
![]() |
![]() |
![]() |
#17 |
Senior Member
Iscritto dal: Sep 2012
Messaggi: 687
|
Ma è solo con le prove che si può comprendere come svilupparle bene. Un'AI che impara dai sui errori è molto comoda, e possono anche diventare pericolose, MA non perché acquisicono coscienza, non accadrà mai. Quello che può accadere è che vengano programmate male, consapevolmente o meno.
E non bisogna aspettare il 2035, ci sono già adesso. Un drone a guida autonoma che sgancia una bomba in base a quello che gli dice il chip, e non il pilota. Fantascienza? Non credo proprio, è realtà, e fattibilissimo. Programmi che autoimparano e poi prendono decisioni riguardo a eventi nuovi, ma basandosi sulle esperienze pregresse? Esistono eccome. Ma mai e poi mai un robot avrà ispirazione e fantasia, si limiterà a reagire agli stimoli e compiere azioni sulla base delle sue esperienze. E qui si inserisce il controllo umano. La chatbot che parlando coi ragazzini è diventata xenofoba è l'esempio lampante di questa cosa. Il paragone è da fare con un animale da addestrare, che risponde solo all'istinto. Non a un essere umano. Poi se a quell'animale dai il controllo di un mezzo da combattimento è un'altro paio di maniche. Per la cronaca, esistono già anche chatbot programmate per decidere in base alla conversazione se dire la verità o mentire, ma questo non implica che il computer abbia capito il valore della menzogna. Per lui è un parametro per arrivare a uno scopo, che gli hanno dato in partenza. In fin dei conti non vi dovete preoccupare del futuro, ma del presente ![]() |
![]() |
![]() |
![]() |
#18 | |||||
Senior Member
Iscritto dal: Sep 2004
Messaggi: 1261
|
Quote:
In più, vuoi mettere il vantaggio di poter dire a una macchina di fare una certa cosa, piuttosto che imparare un linguaggio di programmazione per insegnargli passo passo, fino a bassisismo livello, cosa fare per riuscire a fare quella certa cosa? Quote:
Quote:
Quote:
Quote:
Non possiamo sapere con certezza del 100% se succederà o meno: al massimo possiamo essere discretamente sicuri che non riusciremo mai a CAPIRE come PROGRAMMARE la fantasia. Ma... c'è un grosso "ma". La "singolarità" di cui parlavo. Secondo le linee di tendenza attuale dello sviluppo tecnologico, si può ipotizzare che tra 20 anni la tecnologia di scansione cerebrale raggiungerà una risoluzione tale da permettere di esaminare in tempo reale l'attività di ogni singolo neurone. Contemporaneamente, diventerà possibile simulare su un singolo computer l'attività di 100 miliardi di "entità". A quel punto la catastrofe sarà inevitabile, perchè sarà diventato tecnicamente possibile clonare su PC un cervello funzionante anche senza avere la più pallida idea di come funziona un cervello. Ma parlare di "catastrofe" è limitante, perchè non ci saranno solo conseguenze negative. Per esempio, un "cervello positronico" (chiamiamolo così per comodità...) sarà in grado di leggere, capire ed elaborare tutti i libri che nel 2035 saranno disponibili online (vedasi googlebooks, che pubblica anche libri scritti 100 o 1000 anni fa). Cioè avrà una visione d'insieme dell'umanità e della sua storia ben più ampia di qualunque umano. Potrà anche capire tutte le conversazioni che abbiamo memorizzato su Internet nei precedenti 30 anni. Potrà scovare in pochi millisecondi falle di sicurezza che noi scopriamo solo per caso dopo anni, quindi potenzialmente potrà entrare in qualunque sistema. Potrà imparare tutte le lingue del mondo e capire testi scritti e parlati in qualunque lingua del mondo in qualunque epoca. Impossibile dire oggi cosa comporterà tutto questo. So solo che non mi piacerà.
__________________
La scienza è provvisoria -- Jumpjack -- |
|||||
![]() |
![]() |
![]() |
#19 | |
Member
Iscritto dal: Aug 2006
Messaggi: 92
|
Quote:
Vuoi un esempio? Il buon DeepMind. http://www.wired.it/attualita/tech/2...ficiale-atari/ Questa intelligenza artificiale ha imparato a giocare a dei (semplici) videogiochi. In alcune occasioni ha brutalmente stracciato i record umani. Attenzione: a DeepMind non è stato fornito un algoritmo per vincere a quei giochi. È stato programmato per imparare a giocare. Non aveva alcuna esperienza di quei giochi, non aveva strategie di base e non aveva alcun'altra informazione se non quello che vedeva sullo schermo. Inutile dire che le prime partite le perdeva miseramente, non potendo riconoscere neppure il proprio cursore. Ha imparato giocando, giocando e giocando. È migliorato ed è arrivato a ideare strategie di vittoria sue proprie. Qui un esempio dei suoi progressi : https://www.youtube.com/watch?v=V1eYniJ0Rnk Come puoi vedere ad 1:13, DeepMind non si è limitato a vincere, ma ha sviluppato una strategia per massimizzare i risultati (in questo caso, scavare un tunnel sul lato dello schermo). Nessuno glielo ha insegnato. Ma andiamo avanti: recentemente, il team di DeepMind si è dedicato al gioco del Go. Un obiettivo molto ambizioso, perché la natura di questo gioco lo ha sempre reso estremamente impervio agli automi. Diversamente da scacchi e dama, in questo gioco non esiste una strategia univoca e definita. La stessa teoria "umana" del gioco analizza piccole azioni locali, mentre per l'andamento complessivo va molto a "sensazione" e ogni partita costituisce una storia a sè. Non solo: le possibili combinazioni di mosse sono troppe per poter affrontare il gioco analizzandole tutte. Per questo e altri motivi, il migliore dei Go-bot non si è mai neppure avvicinato al livello di un giocatore professionista. Che risultato ha ottenuto DeepMind? ha battuto LeeSedol, uno dei più forti giocatori del mondo, in una serie di match semplicemente spettacolare*. Come ha fatto a raggiungere questo livello? Non c'è un programmatore in grado in insegnare ad una macchina a giocare a Go a questi livelli. Neppure tra gli esseri umani esiste una teoria codificata che permetta di affrontare certe situazioni "nel modo giusto". Ma DeepMind c'è arrivato. E c'è arrivato da solo, partendo dai rudimenti e poi giocando migliaia e migliaia di partite. Che altro aggiungere? Se proprio l'intelligenza robotica vi spaventa, dovreste cominciare a temere il presente, non il futuro ![]() *almeno spettacolare per me che conosco i rudimenti del gioco. Immagino che per qualcun altro sarebbe la fiera della noia ![]()
__________________
" L'uomo è lo zimbello più facile di sé stesso, perché quello che vuole che sia vero generalmente lo ritiene vero. " Demostene - Kung Fu! Ultima modifica di Il_Grigio : 25-05-2016 alle 13:52. |
|
![]() |
![]() |
![]() |
#20 |
Senior Member
Iscritto dal: Jan 2012
Messaggi: 3733
|
Ma infatti dicendo queste cose non fai altro che dare conferma alle mie preoccupazioni (preoccupazioni tra vorgolette comunque perche' non mi aspetto che il processo sia tanto veloce da assistere io in prima persona all'arrivo di Terminator).
Se una IA gia' ora impara cosi tante cose che non solo non gli sono state insegnate, ma che i suoi stessi sviluppatori non sarebbero stati capaci di provrammargli nativamente, perche' dovrei ritenere sicuri i blocchi e i limiti imposti a monte e non temere che la macchina, per caso o con l'intenzione, trovi il modo di aggirarli o almeno allentarli?
__________________
![]() |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 12:49.