View Full Version : Arrivano i chatbot, supereranno il test di Turing?
jumpjack
12-05-2016, 14:13
Sembra che sia già successo!
300 studenti del Georgia Institute of Technology sono inconsapevolmente stati sottoposti a un esperimento di intelligenza artificiale, servendo da "sperimentatori di Turing" per una chatbot unversitaria.
In pratica si sono scambiati messaggi (non ho capito se mail o chat) per due mesi con una certa assistente di nome Jill Watson... che però non era un prof, ma un bot programmato per rispondere a "domande di routine", lasciando al vero prof soltanto le domande più "interessanti".
Gli studenti non si sono accorti di niente.
Ma se questa cosa vi sembra inquietante... sentite quest'altra: il chatbot Tay è stato... zittito? ...spento? ...terminato? ...dalla Microsoft perchè, interagendo con degli adolescenti, in poche ore è diventato un adolescente xenofobo e razzista! :eek:
Cosa succederebbe se l'agoritmo di apprendimento di questo bot fosse installato sulle auto driverless di cui si parla in altro thread? :eek:
Spirito di HAL aiutaci tu....
Dumah Brazorf
12-05-2016, 16:21
Cosa succederebbe se l'agoritmo di apprendimento di questo bot fosse installato sulle auto driverless di cui si parla in altro thread? :eek:
Diventerebbe il perfetto automobilista milanese/napoletano. Clacsonata a quello davanti 15centesimi di secondo dopo il verde, pedale dell'acceleratore in binario (tutto giù o tutto su), parcheggio in doppia fila, parcheggio su striscie pedonali, parcheggio su marciapiede, parcheggio su rampa disabili, animazione dito medio sullo schermo...
Basta mettere delle regole di partenza che non sono modificabili dalla rete neurale di apprendimento
Sembra che sia già successo!
300 studenti del Georgia Institute of Technology sono inconsapevolmente stati sottoposti a un esperimento di intelligenza artificiale, servendo da "sperimentatori di Turing" per una chatbot unversitaria.
In pratica si sono scambiati messaggi (non ho capito se mail o chat) per due mesi con una certa assistente di nome Jill Watson... che però non era un prof, ma un bot programmato per rispondere a "domande di routine", lasciando al vero prof soltanto le domande più "interessanti".
Gli studenti non si sono accorti di niente.
Ma se questa cosa vi sembra inquietante... sentite quest'altra: il chatbot Tay è stato... zittito? ...spento? ...terminato? ...dalla Microsoft perchè, interagendo con degli adolescenti, in poche ore è diventato un adolescente xenofobo e razzista! :eek:
Cosa succederebbe se l'agoritmo di apprendimento di questo bot fosse installato sulle auto driverless di cui si parla in altro thread? :eek:
Spirito di HAL aiutaci tu....
Non è un chatbot ma un sistema esperto ed è già un prodotto commerciale.
Come si vede dal nome è IBM Watson, già in vendita come applicazione da almeno due anni, sul sito di IBM ci sono i tutorial per addestrare il sistema.
E' l'oggetto dell'accordo firmato in Italia da IBM per l'impiego dell'area Expo 2015, verrà installata la server farm dedicata all'implementazione di Watson Health, sistema esperto a linguaggio naturale dedicato a medicina e prevenzione.
jumpjack
14-05-2016, 15:30
Non è un chatbot
Cosa pensi che sia un "chatbot"? :mbe:
Letteralmente, è un "software che chiacchiera".
marchigiano
15-05-2016, 13:08
Basta mettere delle regole di partenza che non sono modificabili dalla rete neurale di apprendimento
quoto
quoto
Non saprei, non mi fido troppo di queste cose... A dire il vero anzi sono molto diffidente sugli studi sull'IA... Non sono un esperto ma se da un lato penso che si e' ancora in alto mare in questo dall'altro penso che piu' ci stiamo in alto mare e meglio e'.
Le macchine sono degli strumenti, sono sostanzialmente degli schiavi senza che questo sia un problema per nessuno meglio tenercela noi l'intelligenza perche' dopo se no non so quanto sarebbero contente di continuare ad esserle schiave...
marchigiano
24-05-2016, 21:34
ma che ragionamento è scusa... un eventuale robot intelligente non sarà schiavo, una lavatrice continuerà ad esserlo. o un robot con funzioni base
Il ragionamento e': che kaz di motivo c'e' di creare un robot se non per avere uno schiavo?
Cioe' le macchine sono nate per essere strumenti, per servirci, per scopi seri o frivoli poco importa il lorobscopo e' quello e solo quello ha senso.
Abbiamo gia abbastanza problemi, siamo gia' abbastanza insoddisfatti per conto nostro, e l'intelligenza porta solo aspirazioni e desideri, cioe' ulteriori probabilita' di insoddisfazione, quindi attrito, magari violenza anche.
Crei un robot in grado di pensare e il giorno dopo ti dice "perche' mi hai creato? Mi rompo i c####, la casa dove mi hai messo fa schifo, voglio una Ferrari: compramela" te cosa gli dici? Cosa lo crei a fare? Ti piace complicarti la vita???
Il ragionamento e': che kaz di motivo c'e' di creare un robot se non per avere uno schiavo?
Cioe' le macchine sono nate per essere strumenti, per servirci, per scopi seri o frivoli poco importa il lorobscopo e' quello e solo quello ha senso.
Abbiamo gia abbastanza problemi, siamo gia' abbastanza insoddisfatti per conto nostro, e l'intelligenza porta solo aspirazioni e desideri, cioe' ulteriori probabilita' di insoddisfazione, quindi attrito, magari violenza anche.
Crei un robot in grado di pensare e il giorno dopo ti dice "perche' mi hai creato? Mi rompo i c####, la casa dove mi hai messo fa schifo, voglio una Ferrari: compramela" te cosa gli dici? Cosa lo crei a fare? Ti piace complicarti la vita???
Un robot non pensa, al massimo agisce d'istinto sulla base delle info pregresse, se il suo apprendimento deriva da rete neurale. E finché è confinato al pc gli si toglie la spina.
Ma anche fosse messo su un sistema autonomo diventa più come un cane, impara da quello che gli fai fare. Le reti neurali sono molto influenzabili dai dati di partenza, si possono ingannare. Poi essendo un programma basta mettere delle regole qualsiasi percui se l'output non ti piace lo blocchi. Come fa un robot a riscrivere il suo programma? Ma anche potesse deve imparare il linguaggio di programmazione giusto e credo sia estremamente difficile creare un sistema che si autoprogrammi.
Infine, tu credi che siamo in alto mare, secondo me le prove le hanno già fatte, per esempio perché non testare un ai su droni a guida autonoma? O per l'analisi di problemi scientifici complessi, o magari per la gestione di una linea produttiva industriale. Le applicazioni sono infinite, non solo il robot umanoide, che ha senso solo nei film e per i giapponesi.
Il_Grigio
25-05-2016, 08:15
Il ragionamento e': che kaz di motivo c'e' di creare un robot se non per avere uno schiavo?
Cioe' le macchine sono nate per essere strumenti, per servirci, per scopi seri o frivoli poco importa il lorobscopo e' quello e solo quello ha senso.
Abbiamo gia abbastanza problemi, siamo gia' abbastanza insoddisfatti per conto nostro, e l'intelligenza porta solo aspirazioni e desideri, cioe' ulteriori probabilita' di insoddisfazione, quindi attrito, magari violenza anche.
Crei un robot in grado di pensare e il giorno dopo ti dice "perche' mi hai creato? Mi rompo i c####, la casa dove mi hai messo fa schifo, voglio una Ferrari: compramela" te cosa gli dici? Cosa lo crei a fare? Ti piace complicarti la vita???
Troppa fantascienza di serie B. :D
1) Una macchina intelligente è uno schiavo migliore di una macchina stupida. Se il tuo robot-lavatrice è in grado di separare da solo i bianchi dai colorati, riconoscere i tipi di macchie, programmare in anticipo i lavaggi della settimana, decidere quali capi sono più urgenti in base alle tue attività... bhe, è tutto di guadagnato.
L'intelligenza non deve essere necessariamente essere una "intelligenza a tutto tondo", con tanto di software aggiornato di esistenzialismo e il chip per la lotta di classe e la difesa dei diritti dei robot. Può anche essere un "lavare i panni con intelligenza" e limitarsi a quello.
2) Intelligenza non significa umoralità, sensibilità, ambizione, gusti personali o altro. Semplicemente, una macchina intelligente ha una (maggiore) comprensione di ciò che sta facendo e potrebbe cercare modi via via migliori per farlo. Questo nei limiti della sua programmazione.
Non si inventa un comportamento reazionario se il programmatore non ha permesso questa eventualità. Non si sceglie nuovi scopi, non si annoia, non si compra l'auto, non fa assolutamente niente di niente se non è stato predisposto in quel senso.
La sua intelligenza risiede semplicemente nella capacità di trovare soluzioni a problemi, eventualmente imparando dall'esperienza.
Se poi qualcuno ha volutamente deciso di programmare un robot in stile Bender di Futurama allora ti do ragione, è una fesseria. Ma non penso sia il caso. :D
jumpjack
25-05-2016, 09:08
ma che ragionamento è scusa... un eventuale robot intelligente non sarà schiavo, una lavatrice continuerà ad esserlo. o un robot con funzioni base
E' un punto molto interessante, invece.
E' vero, le macchine sono nostre "schiave".
Se un giorno si metteranno a pensare e ad avere una coscienza... saremo rovinati. :stordita:
Non ci avevo mai pensato a questo aspetto "a doppio taglio" dell'A.I.
Una definizione precisa di "intelligenza" non esiste, nemmeno per gli umani, figuriamoci per i robot.
Una "rete neurale" non è un "computer intelligente".
Autocoscienza e intelligenza sono due cose diverse.
Questa faccenda sta per diventae un problema serio. :help:
Oltre che serio diventa pure inquietante, se pensate a quante informazioni intime e personali state dando in pasto a tutti i computer che vi circondano: cellulare, tablet, computer. Tutto quello che scrivete su whatsapp e facebook viene passivamente incamerato da delle macchine... che tra 20 anni se lo ricorderanno ancora e potrebbero essere diventate in grado di capire tutto quello che avete scritto.
jumpjack
25-05-2016, 09:26
La sua intelligenza risiede semplicemente nella capacità di trovare soluzioni a problemi, eventualmente imparando dall'esperienza.
Guarda che questa non è intellligenza... è solo velocità di calcolo e capacità di elaborazione.
Non si inventa un comportamento reazionario se il programmatore non ha permesso questa eventualità. Non si sceglie nuovi scopi, non si annoia, non si compra l'auto, non fa assolutamente niente di niente se non è stato predisposto in quel senso.
Questo è quello che fa un computer attuale.
Che non c'entra niente con quello che farà un computer dotato di capacità di ragionare come un cervello umano, quando raggiungeremo la Singolarità nel 2035.
Il 2035 sembra lontano... ma sono meno di 20 anni. Meno di una generazione umana.
La persona che vedrà comparire il messaggio "perchè vuoi spegnermi?" sul monitor potrebbe essere già nata.
Tutto dipende da cosa si intende con intelligenza. Per come la vedo io non e' corretto parlare di intelligenza se non si intende qualcosa che implica autonomia e coscienza di se'... E' diverso sviluppate una IA vera dal dotare una macchina di algoritmi molto buoni e organizzati in modo tale da affrontare nel migliore dei modi un determinato problema facilmente prevedibile.
Quindi in quel caso non parlerei di intelligenza. L'intelligenza vera, l'autonomia di pensiero, implica la possibilita' di evolvere se' stessa, e quindi sviluppare gusti, desideri eccetera. Di mettersi magari contro ai propri creatori sentendosi abusati da loro.
Certo come si e' detto una macchina dovrebbe concretamente imparare ad autoprogrammarsi ma a me sinceramente spaventerebbe gia' abbastanza il pensiero che a una macchina possa venire in mente di volerlo fare, possa venire in mente che le conviene, anche se nella pratica fosse poco probabile realizzare rale intento
Il_Grigio
25-05-2016, 10:27
Guarda che questa non è intellligenza... è solo velocità di calcolo e capacità di elaborazione.
Per "trovare soluzioni a problemi" intendevo (anche) inventare soluzioni. E (anche) affrontare problemi di cui non si hanno precedenti esperienze.
Non la semplice esecuzione di passi preimpostati, che sono d'accordo, è solo questione di velocità di calcolo.
Questo è quello che fa un computer attuale.
Che non c'entra niente con quello che farà un computer dotato di capacità di ragionare come un cervello umano, quando raggiungeremo la Singolarità nel 2035.
Il 2035 sembra lontano... ma sono meno di 20 anni. Meno di una generazione umana.
La persona che vedrà comparire il messaggio "perchè vuoi spegnermi?" sul monitor potrebbe essere già nata.
Ti do ragione se supponiamo che un computer intelligente debba ragionare come un essere umano. Ma io non vedo questa necessità.
Per me una macchina intelligentissima può anche essere completamente "asservita". In altre parole, potrebbe capire quello che la circonda, ragionare astrattamente, comprendere e formulare idee complesse, sviluppare nuove strategie ecc ecc senza per questo avere il minimo accenno di sentimenti o di amor proprio.
Se si comporta in modo "umano" (non vuole essere spenta, si fa domande esistenziali, desidera uno scopo ed altri simili esempi) è perché è stata programmata per questa possibilità.
Ricordiamo che noi stessi siamo "programmati" per avere istinto di sopravvivenza, desideri, emozioni.
Al contrario, la mente di una macchina (compreso il suo modo di apprendere e le sue possibilità di "cambiare") è stabilita a tavolino.
Una mente costruita a tavolino non avra' mai la versatilita' per fare cose come inventarsi soluzioni in mancanza di esperienza pregressa quindi delle due l'una, o non arrivi a quel risultato o se ci vuoi arrivare ti prendi un rischio piuttosto consistente. Quella stessa chatbot nazista, per quanto in quel caso sia ancora solo una cosa che fa piu' ridere che altro, dimostra quanto sia inadeguata la nostra preparazione e piu' in generale il controllo che si puo' avere su una cosa del genere, e li era ancora soltanto una emulazione di intelligenza, una semplice imitazione, non intelligenza reale
Ma è solo con le prove che si può comprendere come svilupparle bene. Un'AI che impara dai sui errori è molto comoda, e possono anche diventare pericolose, MA non perché acquisicono coscienza, non accadrà mai. Quello che può accadere è che vengano programmate male, consapevolmente o meno.
E non bisogna aspettare il 2035, ci sono già adesso. Un drone a guida autonoma che sgancia una bomba in base a quello che gli dice il chip, e non il pilota. Fantascienza? Non credo proprio, è realtà, e fattibilissimo.
Programmi che autoimparano e poi prendono decisioni riguardo a eventi nuovi, ma basandosi sulle esperienze pregresse? Esistono eccome.
Ma mai e poi mai un robot avrà ispirazione e fantasia, si limiterà a reagire agli stimoli e compiere azioni sulla base delle sue esperienze. E qui si inserisce il controllo umano. La chatbot che parlando coi ragazzini è diventata xenofoba è l'esempio lampante di questa cosa. Il paragone è da fare con un animale da addestrare, che risponde solo all'istinto. Non a un essere umano. Poi se a quell'animale dai il controllo di un mezzo da combattimento è un'altro paio di maniche.
Per la cronaca, esistono già anche chatbot programmate per decidere in base alla conversazione se dire la verità o mentire, ma questo non implica che il computer abbia capito il valore della menzogna. Per lui è un parametro per arrivare a uno scopo, che gli hanno dato in partenza.
In fin dei conti non vi dovete preoccupare del futuro, ma del presente :D
jumpjack
25-05-2016, 13:38
Ti do ragione se supponiamo che un computer intelligente debba ragionare come un essere umano. Ma io non vedo questa necessità.
Eppure è l'unico modo per permettere a una macchina di tradurre una lingua.
In più, vuoi mettere il vantaggio di poter dire a una macchina di fare una certa cosa, piuttosto che imparare un linguaggio di programmazione per insegnargli passo passo, fino a bassisismo livello, cosa fare per riuscire a fare quella certa cosa?
[....]
Se si comporta in modo "umano" (non vuole essere spenta, si fa domande esistenziali, desidera uno scopo ed altri simili esempi) è perché è stata programmata per questa possibilità.
[...]
Al contrario, la mente di una macchina (compreso il suo modo di apprendere e le sue possibilità di "cambiare") è stabilita a tavolino.
Una mente costruita a tavolino non avra' mai la versatilita' per fare cose come inventarsi soluzioni in mancanza di esperienza pregressa
Magari fosse vero!
Quella stessa chatbot nazista, per quanto in quel caso sia ancora solo una cosa che fa piu' ridere che altro
Non ci trovo niente da ridere nell'aver scoperto che le intelligenze artificiali avranno bisogno di genitori ed educatori che gli insegnino la morale!
MA non perché acquisicono coscienza, non accadrà mai. [...]
Ma mai e poi mai un robot avrà ispirazione e fantasia, si limiterà a reagire agli stimoli e compiere azioni sulla base delle sue esperienze.
Ribadisco: magari fosse vero!
Non possiamo sapere con certezza del 100% se succederà o meno: al massimo possiamo essere discretamente sicuri che non riusciremo mai a CAPIRE come PROGRAMMARE la fantasia.
Ma...
c'è un grosso "ma".
La "singolarità" di cui parlavo.
Secondo le linee di tendenza attuale dello sviluppo tecnologico, si può ipotizzare che tra 20 anni la tecnologia di scansione cerebrale raggiungerà una risoluzione tale da permettere di esaminare in tempo reale l'attività di ogni singolo neurone.
Contemporaneamente, diventerà possibile simulare su un singolo computer l'attività di 100 miliardi di "entità".
A quel punto la catastrofe sarà inevitabile, perchè sarà diventato tecnicamente possibile clonare su PC un cervello funzionante anche senza avere la più pallida idea di come funziona un cervello.
Ma parlare di "catastrofe" è limitante, perchè non ci saranno solo conseguenze negative.
Per esempio, un "cervello positronico" (chiamiamolo così per comodità...) sarà in grado di leggere, capire ed elaborare tutti i libri che nel 2035 saranno disponibili online (vedasi googlebooks, che pubblica anche libri scritti 100 o 1000 anni fa).
Cioè avrà una visione d'insieme dell'umanità e della sua storia ben più ampia di qualunque umano.
Potrà anche capire tutte le conversazioni che abbiamo memorizzato su Internet nei precedenti 30 anni.
Potrà scovare in pochi millisecondi falle di sicurezza che noi scopriamo solo per caso dopo anni, quindi potenzialmente potrà entrare in qualunque sistema.
Potrà imparare tutte le lingue del mondo e capire testi scritti e parlati in qualunque lingua del mondo in qualunque epoca.
Impossibile dire oggi cosa comporterà tutto questo.
So solo che non mi piacerà.
Il_Grigio
25-05-2016, 13:46
Una mente costruita a tavolino non avra' mai la versatilita' per fare cose come inventarsi soluzioni in mancanza di esperienza pregressa
E per quale motivo, di grazia?
Vuoi un esempio? Il buon DeepMind.
http://www.wired.it/attualita/tech/2015/02/26/deepmind-intelligenza-artificiale-atari/
Questa intelligenza artificiale ha imparato a giocare a dei (semplici) videogiochi. In alcune occasioni ha brutalmente stracciato i record umani.
Attenzione: a DeepMind non è stato fornito un algoritmo per vincere a quei giochi. È stato programmato per imparare a giocare.
Non aveva alcuna esperienza di quei giochi, non aveva strategie di base e non aveva alcun'altra informazione se non quello che vedeva sullo schermo. Inutile dire che le prime partite le perdeva miseramente, non potendo riconoscere neppure il proprio cursore. Ha imparato giocando, giocando e giocando.
È migliorato ed è arrivato a ideare strategie di vittoria sue proprie.
Qui un esempio dei suoi progressi : https://www.youtube.com/watch?v=V1eYniJ0Rnk
Come puoi vedere ad 1:13, DeepMind non si è limitato a vincere, ma ha sviluppato una strategia per massimizzare i risultati (in questo caso, scavare un tunnel sul lato dello schermo). Nessuno glielo ha insegnato.
Ma andiamo avanti: recentemente, il team di DeepMind si è dedicato al gioco del Go. Un obiettivo molto ambizioso, perché la natura di questo gioco lo ha sempre reso estremamente impervio agli automi. Diversamente da scacchi e dama, in questo gioco non esiste una strategia univoca e definita. La stessa teoria "umana" del gioco analizza piccole azioni locali, mentre per l'andamento complessivo va molto a "sensazione" e ogni partita costituisce una storia a sè.
Non solo: le possibili combinazioni di mosse sono troppe per poter affrontare il gioco analizzandole tutte. Per questo e altri motivi, il migliore dei Go-bot non si è mai neppure avvicinato al livello di un giocatore professionista.
Che risultato ha ottenuto DeepMind? ha battuto LeeSedol, uno dei più forti giocatori del mondo, in una serie di match semplicemente spettacolare*.
Come ha fatto a raggiungere questo livello? Non c'è un programmatore in grado in insegnare ad una macchina a giocare a Go a questi livelli. Neppure tra gli esseri umani esiste una teoria codificata che permetta di affrontare certe situazioni "nel modo giusto".
Ma DeepMind c'è arrivato. E c'è arrivato da solo, partendo dai rudimenti e poi giocando migliaia e migliaia di partite.
Che altro aggiungere? Se proprio l'intelligenza robotica vi spaventa, dovreste cominciare a temere il presente, non il futuro :stordita:
*almeno spettacolare per me che conosco i rudimenti del gioco. Immagino che per qualcun altro sarebbe la fiera della noia :D
Ma infatti dicendo queste cose non fai altro che dare conferma alle mie preoccupazioni (preoccupazioni tra vorgolette comunque perche' non mi aspetto che il processo sia tanto veloce da assistere io in prima persona all'arrivo di Terminator).
Se una IA gia' ora impara cosi tante cose che non solo non gli sono state insegnate, ma che i suoi stessi sviluppatori non sarebbero stati capaci di provrammargli nativamente, perche' dovrei ritenere sicuri i blocchi e i limiti imposti a monte e non temere che la macchina, per caso o con l'intenzione, trovi il modo di aggirarli o almeno allentarli?
L'AI mi ha sempre affascinato, ma allo stesso tempo spaventato, non credo possa avere sentimenti o almeno non come li conosciamo noi umani, quindi per una macchina uccidere 100 persone per salvarne 1000 ha senso! Parliamoci chiaro matematicamente parlando ha senso anche per noi umani, ma per fortuna i sentimenti ci impediscono di fare queste cose! Ma una macchina? Quale freni avrà? Se deep mind ha scavato i bordi significa che è uscita dagli schemi fissati, chi mi dice che non farebbe lo stesso anche per tutto il resto? Non voglio sembrare matto, ma ogni tanto mi pongo questi quesiti e le probabili risposte mi spaventano.
Se una IA gia' ora impara cosi tante cose che non solo non gli sono state insegnate, ma che i suoi stessi sviluppatori non sarebbero stati capaci di provrammargli nativamente, perche' dovrei ritenere sicuri i blocchi e i limiti imposti a monte e non temere che la macchina, per caso o con l'intenzione, trovi il modo di aggirarli o almeno allentarli?
Qui c'è una distinzione da fare. Una cosa è programmare una macchina in modo deterministico. Cioè stabilire a priori che a un certo input corrisponde un preciso output. Un conto è usare un approccio stocastico. Alla macchina vengono dati input e output e lei costruisce il collegamento, il" conto". Dopo n esempi se si dà alla macchina solo l'input essa genererà un output in linea con quelli precedenti..
Nel caso di deep mind i confini di lavoro sono chiari, in input c'è l'interfaccia di gioco, in output un semplice si/no. La macchina si è fatta la sua statistica su quali strade portavano a un si e quali a un no. Il fatto che ha scavato i bordi non vuol dire che ha barato, probabilmente era un bug di cui nessuno si era accorto, e al miliardesimo tentativo è stato trovato e usato.
Detto questo in robot non può auto programmarsi, primo perché i linguaggi sono human friendly, facili per noi, ma quanto ci mette un robot a testare tutte le combinazioni di lettere per ottenere parole e poi metterle in sintassi giusta, se nessuno gli carica le regole? Ricordate che va per tentativi..
Inoltre non so bene come funziona l'assembly ma programmare un chip non può essere fatto dal chip stesso..
jumpjack
26-05-2016, 09:01
Detto questo un robot non può auto programmarsi
Dipende da cosa si intende per "programmare".
Se si intende "scrivere linee di codice in linguaggio C" è un conto.
Se si intende "dire al computer di produrre un certo output a seguito di certi input" è un'altra cosa.
Le reti neurali si autoriprogrammano in continuazione... sono state inventate per questo!
Dipende da cosa si intende per "programmare".
Se si intende "scrivere linee di codice in linguaggio C" è un conto.
Se si intende "dire al computer di produrre un certo output a seguito di certi input" è un'altra cosa.
Le reti neurali si autoriprogrammano in continuazione... sono state inventate per questo!
Io intendo in C, Java o qualunque linguaggio con cui la rete è stata scritta. Le reti non si autoprogrammano a quel livello, i nodi e i collegamenti sono stabiliti, quello che cambia sono i pesi (le probabilità), che vengono assegnate sulla base dell'esperienza. Una rete, per uscire dai suoi limiti, dovrebbe poter conoscere il codice con cui è stata scritta e modificarlo. Questa cosa è praticamente impossibile. Le reti neurali non sono altro che matrici di numeri.
La cosa sicuramente piu' inquietante - ed e' l'unica che io definisco vera intelligenza - sarebbe se la macchina stessa cominciasse a stabilire quali sono i suoi si e i suoi no in base a criteri stabiliti da lei.
Finche' si tratta di non poterlo fare e i si e i no sono solo strettamente e inequivocabilmente stabiliti dal programmatore - chiariamoci, resta sempre uno scenario che non mi attira molto - ma non mi spaventa nemmeno.
Solo che appunto quella non la definirei intelligenza.
Se io faccio corrispondere il si al buttarsi nel cratere di un vulcano attivo e la macchina trova il modo piu' efficiente di arrivare al si e ci arriva non la chiamo intelligenza.
Al limite sono i risultati di potenza e velocita' di calcolo enormemente elevati e algoritmi particolarmente efficaci ma la macchina in se' resta stupida come quelle che uso tutti i giorni. Poi appunto dipende da cosa si vuole intendere con intelligenza.
La cosa sicuramente piu' inquietante - ed e' l'unica che io definisco vera intelligenza - sarebbe se la macchina stessa cominciasse a stabilire quali sono i suoi si e i suoi no in base a criteri stabiliti da lei.
Finche' si tratta di non poterlo fare e i si e i no sono solo strettamente e inequivocabilmente stabiliti dal programmatore - chiariamoci, resta sempre uno scenario che non mi attira molto - ma non mi spaventa nemmeno.
Solo che appunto quella non la definirei intelligenza.
Se io faccio corrispondere il si al buttarsi nel cratere di un vulcano attivo e la macchina trova il modo piu' efficiente di arrivare al si e ci arriva non la chiamo intelligenza.
Al limite sono i risultati di potenza e velocita' di calcolo enormemente elevati e algoritmi particolarmente efficaci ma la macchina in se' resta stupida come quelle che uso tutti i giorni. Poi appunto dipende da cosa si vuole intendere con intelligenza.
Forse siamo arrivati al punto della questione, può una macchina darsi uno scopo da sola? Secondo me no, sarà sempre l'uomo a dare uno scopo. Poi la macchina cercherà in autonomia di perseguirlo, magari anche con scelte discutibili.
hanno dato in pasto a una rete neurale i testi di un sacco di film di fantascienza, e poi la rete neurale ha scritto, in completa autonomia, il suo film :)
https://www.youtube.com/watch?v=LY7x2Ihqjmc
zulutown
20-06-2016, 18:51
Non capisco tutti questi discorsi che non si potrà fare quello che fa il cervello umano. Il cervello è qualcosa che "esiste" ed è basato sulle leggi fisiche e chimiche. Quindi è ovvio che prima o poi saremo in grado di replicare il funzionamento. Anzi sarà infinitamente piu intelligente di noi .
hanno dato in pasto a una rete neurale i testi di un sacco di film di fantascienza, e poi la rete neurale ha scritto, in completa autonomia, il suo film :)
https://www.youtube.com/watch?v=LY7x2Ihqjmc
Purtroppo non capisco molto l'inglese parlato ma dai commenti si può intuire il succo hehe
comunque, in pratica possiamo vedere l'idea del genere umano che, tramite una vagonata di copioni cinematografici, una IA che non è in grado di essere consapevole della propria idea si è fatta di noi.
Quale sarebbe la traduzione migliore per mindfuck? Perché secondo me non c'è niente di meglio per definire questa cosa
Non capisco tutti questi discorsi che non si potrà fare quello che fa il cervello umano. Il cervello è qualcosa che "esiste" ed è basato sulle leggi fisiche e chimiche. Quindi è ovvio che prima o poi saremo in grado di replicare il funzionamento. Anzi sarà infinitamente piu intelligente di noi .
In che orizzonte temporale? Di sicuro non nei prossimi decenni. E il vero problema è il passaggio dall'essere un mero esecutore di codice ad avere consapevolezza di essere un codice.
Purtroppo non capisco molto l'inglese parlato ma dai commenti si può intuire il succo hehe
comunque, in pratica possiamo vedere l'idea del genere umano che, tramite una vagonata di copioni cinematografici, una IA che non è in grado di essere consapevole della propria idea si è fatta di noi.
Quale sarebbe la traduzione migliore per mindfuck? Perché secondo me non c'è niente di meglio per definire questa cosa
Esatto, è stranissimo! Però è bello avere una IA che compone arte! Ma è anche la dimostrazione che le IA non sono ancora pronte a fare richieste. E passerà ancora tantissimo tempo prima che lo possano fare
zulutown
22-06-2016, 12:52
In che orizzonte temporale? Di sicuro non nei prossimi decenni. E il vero problema è il passaggio dall'essere un mero esecutore di codice ad avere consapevolezza di essere un codice.
dipende quanto ci investi.
La nasa poteva andare su Marte persino negli anni 70 se l'avessero riempita di soldi
Potremmo costruire una vela spaziale e arrivare chissà dove se ci venissero buttati trilioni di dollari.
Ma I soldi non ci sono.
Idem per l'intelligenza artificiale che voglia replicare la mente umana. Non è un investimento che interessa. Interessa molto di piu fare algoritmi che risolvano problemi che danno ritorni economici (auto che si guida da sola)
Con il cloud computing si ha tutto l hardware necessario per replicare cervello.. semplicemente mancano investimenti e ritorni economici certi.
Manca che non abbiamo una conoscenza silufficiente neppure della nostra stessa mente, come penseresti di replicare qualcosa che tu stesso ancora non comprendi in ogni minimo dettaglio? Sarebbe possibile solo come (molto improbabile comunque) casualita' avvenuta per un errore o comunque non perseguita volontariamente il che ingigantirebbe i rischi e i pericoli che gia' di base ci sono a mio avviso quindi meglio che non succeda.
A parte questo cosa ti aspetti di tanto strafigo da un computer che ragiona come un essere umano? Che huadagno penseresti di trarne (genericamente, non per forza economico).. Per quale motivo il computer non dovrebbe vederci come dei tiranni, odiarci, e avere voglia di riempirci di calci nel posteriore? Perche' per me, mettendomi nel suo punto di vista, sarebbe la cosa piu' logica e intelligente...
jumpjack
27-06-2016, 08:57
Mi chiedo quanto tempo dovrà passare prima che una proposta di legge come questa passi dall'essere accolta con sberleffi e perplessità all'essera accolta con interesse e preoccupazione:
Sempre più numerosi, autonomi, intelligenti e diffusi nelle industrie, i robot dovranno avere diritti e doveri. Saranno registrati e muniti di una sorta di carta d’identità, pagheranno per i danni che commettono e contribuiranno – ancora non è ben chiaro come – al welfare delle nazioni che li impiegano.
http://www.repubblica.it/tecnologia/2016/06/24/news/legge_robot_personalita_elettronica_ue-142679939/
jumpjack
30-06-2016, 15:10
Le 3 leggi di Asimov stanno per uscire dalla cerchia degli appassionati di fantascienza, presto tutti le conosceranno... e scopriranno che in realtà non esistono e non possono esistere! (almeno per il momento)
http://www.repubblica.it/motori/sezioni/sicurezza/2016/06/30/news/il_codice_del_suicidio_nell_auto_senza_pilota-143115735/
jumpjack
30-06-2016, 15:18
...e poi ci sono i bug e le situazioni impreviste (ultimi 10 secondi di questo filmato già di per se da brividi):
https://m.youtube.com/watch?v=tf7IEVTDjng
Le 3 leggi di Asimov stanno per uscire dalla cerchia degli appassionati di fantascienza, presto tutti le conosceranno... e scopriranno che in realtà non esistono e non possono esistere! (almeno per il momento)
http://www.repubblica.it/motori/sezioni/sicurezza/2016/06/30/news/il_codice_del_suicidio_nell_auto_senza_pilota-143115735/
Ma solo a me la risposta "si e' giusto che la macchina uccida il conducente per salvare tante vite basta che il conducente non sono io" sembra imbecille anziche' ovvia? Cioe' come si puo' "non ragionare" cosi? Prendi una posizione no? Tanto fare una scelta nonsense come quella e' uguale a non fare nessuna scelta, se non peggio perche' ci perdi anche la faccia...
Ma solo a me la risposta "si e' giusto che la macchina uccida il conducente per salvare tante vite basta che il conducente non sono io" sembra imbecille anziche' ovvia? Cioe' come si puo' "non ragionare" cosi? Prendi una posizione no? Tanto fare una scelta nonsense come quella e' uguale a non fare nessuna scelta, se non peggio perche' ci perdi anche la faccia...
La soluzione sta nel far prevenire alla macchina la possibile situazione, e quindi mitigare gli effetti. Mi spiego, in città, e l'auto autonoma sa di essere in un'area popolata, limita in automatico la vel massima a 30km/h. Traffico fluido e i pochi incidenti hanno feriti lievi, perché a basse velocità anche se un pedone compare all'improvviso c'è lo spazio per frenare. In caso di sterzata la velocità è bassa e il conducente non muore.
Caso autostrada, velocità elevata ma rischio di ostacoli basso. Si risolve con un sistema di comunicazione attivo fra le auto. Se una macchina vede un tizio che passeggia allegramente a bordo autostrada induce le altre a rallentare. Cosa che, per inciso, dovremmo fare noi alla presenza di un possibile ostacolo sulla strada. Se poi il tizio decide di buttarsi in mezzo alle corsie, non è detto che l'auto sterzi per evitarlo. Se arrivano altre auto da dietro per salvarne uno si mette a rischio la sicurezza di più autisti+passeggeri, causando una carambola.
Infine un algoritmo di guida può prevedere una traiettoria che anche in caso di impatto riduca i danni al conducente, magari evitando sterzate secche, tipiche dell'uomo in panico.
Il discorso regge però se per ogni strada c'è una classifica di priorità di utilizzo. In città è il pedone e il ciclista ad avere la priorità, e la macchina si adegua. In autostrada il contrario, e il pedone, che non dovrebbe essere li, dovrebbe perdere il diritto di vedersi salvaguardato dall'algoritmo. Altrimenti sai quanti scemi che invece di tirare i sassi dai cavalcavia si lancerebbero in autostrada per vedere le auto sbandare?
La soluzione sta nel far prevenire alla macchina la possibile situazione, e quindi mitigare gli effetti. Mi spiego, in città, e l'auto autonoma sa di essere in un'area popolata, limita in automatico la vel massima a 30km/h. Traffico fluido e i pochi incidenti hanno feriti lievi, perché a basse velocità anche se un pedone compare all'improvviso c'è lo spazio per frenare. In caso di sterzata la velocità è bassa e il conducente non muore.
Caso autostrada, velocità elevata ma rischio di ostacoli basso. Si risolve con un sistema di comunicazione attivo fra le auto. Se una macchina vede un tizio che passeggia allegramente a bordo autostrada induce le altre a rallentare. Cosa che, per inciso, dovremmo fare noi alla presenza di un possibile ostacolo sulla strada. Se poi il tizio decide di buttarsi in mezzo alle corsie, non è detto che l'auto sterzi per evitarlo. Se arrivano altre auto da dietro per salvarne uno si mette a rischio la sicurezza di più autisti+passeggeri, causando una carambola.
Infine un algoritmo di guida può prevedere una traiettoria che anche in caso di impatto riduca i danni al conducente, magari evitando sterzate secche, tipiche dell'uomo in panico.
Il discorso regge però se per ogni strada c'è una classifica di priorità di utilizzo. In città è il pedone e il ciclista ad avere la priorità, e la macchina si adegua. In autostrada il contrario, e il pedone, che non dovrebbe essere li, dovrebbe perdere il diritto di vedersi salvaguardato dall'algoritmo. Altrimenti sai quanti scemi che invece di tirare i sassi dai cavalcavia si lancerebbero in autostrada per vedere le auto sbandare?
Io mi riferivo alle risposte del sondaggio di cui parlava l'articolo, e al fatto che l'articolo definisce quella risposta scontata. A me sembra scema, non scontata.
Io avrei risposto che sono contrario punto e basta ad un'auto che sacrifica il conducente. A parte che comunque sono sempre stato contrario all'idea di auto che si guidano da sole.
So che ci sono già mezzi come la metropolitana che un pò mi fanno strano lo stesso, ma comunque meno, a quel punto direttamente eliminiamo le auto e teniamo solo quelli.
Io comunque non penso affatto che le soluzioni sarebbero tanto semplici e tanto funzionali, ogni cosa sulla carta funziona sempre molto molto meglio che dopo aver fatto qualche prova effettiva e a me questa delle auto che si guidano da sole sembra una ca224ta allucinante.
Anziché studiare auto che si guidano da sole sarebbe meglio studiare e impegnarsi per migliorare e rendere più funzionali le strutture urbane e le possibilità di lavorare e usufruire di servizi a distanza, in modo da rendere sempre meno necessario l'utilizzo di automobili, secondo me, tanto per fare un esempio.
jumpjack
01-07-2016, 15:51
Ma solo a me la risposta [...] sembra imbecille anziche' ovvia?
Quando si tratta di salvare la pelle, gli umani fanno sempre scelte "imbecilli ma ovvie", o, usando una parola sola, "emotive".
La soluzione sta nel far prevenire alla macchina la possibile situazione,
Spiacente, è impossibile: "Shit happens".
Ci sarà sempre un furgone bianco pronto a spiaccicarti perchè non ti ha visto:
https://www.youtube.com/watch?v=9I5rraWJq6E
E se quella Tesla era a Roma e a destra stava sopraggiungendo un tizio in scooter a 80 all'ora?!? :stordita:
Ed ecco invece l'uomo che, suo malgrado, verrà ricordato nei secoli a venire come la prima vittima di una macchina automatica! :eek:
7 maggio 2016, Williston, Florida, USA
http://insideevs.com/fatal-accident-tesla-model-s-autopilot-opens-nhtsa-investigation
Una Tesla S si spiaccica contro un camion che "si immette di traverso sull'autostrada" senza fermarsi (?!? :confused: )
the vehicle was on a divided highway with Autopilot engaged when a tractor trailer drove across the highway perpendicular to the Model S.
Motivo dell'incidente? (secondo Tesla) Nè la macchina nè il guidatore sono riusciti a distinguere il lato del camion, bianco, dal cielo, così chiaro da apparire bianco, quindi nessuno dei due ha frenato.
Neither Autopilot nor the driver noticed the white side of the tractor trailer against a brightly lit sky, so the brake was not applied.
Quando si tratta di salvare la pelle, gli umani fanno sempre scelte "imbecilli ma ovvie", o, usando una parola sola, "emotive".
si ma qua è un sondaggio, si tratta di rispondere con calma a una domanda, hai tutto il tempo che vuoi. Puoi fare una scelta egoista o puoi fare una scelta non egoista, puoi immedesimarti nel guidatore oppure in un pedone ma scegli qualcosa se ti chiedono di scegliere. Tanto se in concreto non sarebbe possibile salvare capra e cavoli non è che basta dirlo per farlo avverare.
Già sarebbe diverso dire che, se qualcuno volesse per forza produrre una macchina del genere tu vorresti che avesse "l'algoritmo suicida" per il bene comune ma ti rifiuteresti di comprarla e chi è tanto scemo da prenderla cacchi suoi... detto così ha già più senso...
magari poi era questo il risultato originale del sondaggio e il giornalista ha trovato un modo particolarmente infelice di riportare la cosa, facendola sembrare stupida...
jumpjack
08-07-2016, 17:03
Milioni di investimenti per il "bot traduttore":
http://www.tomshw.it/news/il-traduttore-europeo-definitivo-5-6-mln-di-investimento-78556
jumpjack
21-07-2016, 08:18
Leggete e rabbrividite:
http://punto-informatico.it/4329683/PI/Commenti/cassandra-crossing-tre-passi-nel-delirio-dalle-ai-skynet.aspx
passo 1:
autoreplicazione+evoluzione
passo 2:
sette squadre di sviluppatori sguinzaglieranno le loro rispettive AI, ciascuna su un server di un gruppo di 7; dovranno individuare le falle appositamente lasciate nei server ed agire in modo non da sfruttarle ma di correggerle.
https://www.cybergrandchallenge.com/
passo 3: 4 agosto 2016, dalle 5:00pm alle 8:00pm fuso orario del Pacifico, il rilascio di AI autonome, in grado di imparare ed in concorrenza tra loro, in un ambiente informatico.
Il 4 agosto di un immaginario 1997 fu rilasciata Skynet nella rete; divenne autocosciente il 29 agosto successivo.:help:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.