Google, ecco il 'tasto rosso' per spegnere l'IA prima che diventi pericolosa

Google, ecco il 'tasto rosso' per spegnere l'IA prima che diventi pericolosa

L'intelligenza artificiale ci aiuta già in alcune mansioni, ma diventa di giorno in giorno sempre più versatile ed efficace. Arriverà il momento in cui supererà, per intelligenza e adattabilità, l'essere umano. E questo potrebbe essere pericoloso

di pubblicata il , alle 09:53 nel canale Sistemi
Google
 

Grazie all'apporto di società come Google, Facebook, Microsoft e molti altri colossi del settore tecnologico le macchine diventano di anno in anno sempre più intelligenti, e un pericolo che oggi non sembra così preoccupante potrebbe divenirlo nel giro di qualche anno. Agenti di intelligenza artificiale possono già sconfiggere i campioni più acclamati in alcune tipologie di sport, e diventano sempre più competenti anche in altre aree meno "schematiche", come ad esempio nella guida su strada insieme ad autisti umani.

All'essere umano in generale non piace però l'idea di non essere nel punto più in alto della catena alimentare, e un laboratorio di ricerche specializzato in intelligenza artificiale di proprietà di Google e con sede a Londra ha portato avanti uno studio su quella che potremmo definire una spina da staccare qualora le cose non andassero come preventivato. DeepMind veniva acquisita da Google nel 2014 per circa 500 milioni di euro, e ha collaborato con un team di scienziati dell'Università di Oxford per trovare un metodo per impedire ai cosiddetti agenti IA di ottenere il controllo sugli esseri umani.

Il tutto viene documentato in un file PDF intitolato "Safely Interruptible Agents" pubblicato sul sito Machine Intelligence Research Institute (MIRI) e firmato da Laurent Orseau, Stuart Armstrong e molti altri. Il documento verrà presentato nel dettaglio alla Conference on Uncertainty in Artificial Intelligence (UAI): al suo interno si legge che è piuttosto improbabile che gli agenti IA si comportino "in maniera ottimale" in ogni circostanza: "Nel caso in cui l'agente fosse sotto la supervisione umana, di tanto in tanto potrebbe essere necessario per l'operatore spegnere il grosso pulsante rosso per impedire all'agente di portare a termine una serie di azioni nocive, sia per l'agente stesso che per l'ambiente, rendendo più sicura la situazione."

I ricercatori affermano di aver creato quel "grosso pulsante rosso", un framework che permette all'operatore umano di interrompere il funzionamento dell'intelligenza artificiale alla base del flusso d'azioni dell'agente, assicurandosi al tempo stesso che quest'ultimo non apprenda il modo in cui prevenire l'intervento o bloccare l'interruzione: "La possibilità sicura di interruzione può essere utile per prendere il controllo di un robot che mostra di avere un comportamento anomalo, e può portare a conseguenze irreversibili, sia per allontanarlo da una situazione delicata, sia per utilizzare gli algoritmi per eseguire operazioni che non ha ancora imparato, o da cui normalmente non trae alcun beneficio", si legge all'interno del documento.

Alcuni tipi di agenti, ovvero intelligenze artificiali che possono determinare autonomamente il miglior comportamento da seguire all'interno di una certa impostazione, hanno bisogno di ottenere una sorta di "ricompensa", in modo da individuare un comportamento vantaggioso e continuare ad eseguirlo. Il framework sviluppato da DeepMind permette di far credere all'agente IA che lo spegnimento sia auto-indotto, ovvero scelto come miglior comportamento da seguire dall'algoritmo stesso. Alcuni algoritmi utilizzati oggi, noti come Q-learning, sono già "safely interruptible", ovvero possono essere spenti dagli operatori umani, mentre altri, come Sarsa, possono essere modificati per divenirlo con una discreta semplicità. Non è chiaro se tutti gli agenti IA siano modificabili in tal senso.

Non è facile capire quando gli esseri umani avranno bisogno di questo "grosso tasto rosso", anche se oggi sembra un'eventualità non troppo vicina. Gli studi di DeepMind sono tuttavia affascinanti e terrificanti al tempo stesso, con il team che lavora oggi per risolvere un problema che probabilmente dovranno affrontare le generazioni future, tipico della letteratura distopica degli ultimi decenni. Le macchine, secondo il Future of Humanity Institute, diverranno più intelligenti degli esseri umani entro i prossimi 100 anni, e in quella data saranno probabilmente in grado di prendere il controllo e ribellarsi. Meglio quindi trovarsi preparati prima del tempo.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

29 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
GTKM06 Giugno 2016, 09:56 #1
E se si riprogrammassero da sole, mandando a fanc*lo il framework in questione?
peterpaiter06 Giugno 2016, 10:16 #2

nino e gli sport.

Nino, chiaramente non sai bene cosa siano gli sport, ma non ti preoccupare, qua ci sono tutti gli affezionati lettori alle tue M..

Il Go non è uno sport. è un gioco, non uno sport. Non ha niente a che fare con uno sport.
Haran Banjo06 Giugno 2016, 10:18 #3
Chissà perché, mi torna alla mente il brevissimo racconto "La risporta" di Fredric Brown...

https://www.google.it/url?sa=t&...CkgbYpSitwSaQgw
Haran Banjo06 Giugno 2016, 10:18 #4
Ops... "La risposta"
Sakurambo06 Giugno 2016, 10:38 #5
Dipende dai punti di vista, io preferisco L'ultima domanda di Asimov
zyrquel06 Giugno 2016, 10:59 #6
Originariamente inviato da: peterpaiter
Il Go non è uno sport. è un gioco, non uno sport. Non ha niente a che fare con uno sport.

https://it.wikipedia.org/wiki/SportAccord
marchigiano06 Giugno 2016, 11:13 #7
Originariamente inviato da: Haran Banjo
Chissà perché, mi torna alla mente il brevissimo racconto "La risporta" di Fredric Brown...

https://www.google.it/url?sa=t&...CkgbYpSitwSaQgw


carina ma un po banale... va bene per un episodio dei simpson

in generale non capisco perchè una ia dovrebbe ribellarsi, mica saremo così scemi da trattare male un essere intelligente solo perchè non organico?
Haran Banjo06 Giugno 2016, 11:21 #8
Che ci vuoi fare, Brown l'ha scritta nel 1954... per forza dopo 62 anni sembra banale!
;-)
MARROELLO06 Giugno 2016, 11:26 #9
E' già pericolosa.
Non mi azzecca mai il percorso più breve con maps, spesso mi manda pure per i campi.
Non chiamatela intelligenza, artificiale si.
zyrquel06 Giugno 2016, 11:28 #10
Originariamente inviato da: marchigiano
mica saremo così scemi da trattare male un essere intelligente solo perchè non organico?

...gli esseri umani hanno dimostrato di essere chiaramente in grado di trattare male altri esseri umani intelligenti anche a causa del solo colore della pelle, figuriamo cosa sarebbero in grado di fare ad un ammasso di circuiti

ma il problema è che ribellione" è un termine usato a sproposito ( e che appunto prevede una causa abbstanza specifica )...i motivi per cui una ia potrebbe voler danneggiare gli essere umani sono molteplici

non ultimo un errore umano in fase di progettazione

senza contare l'ovvia considerazione che di umani intelligenti e pericolosi ce ne sono in circolazione in abbondanza, nel momento in cui crei qualcosa di intelligente e con libero arbitrio può succedere di tutto..caspita potrebbe pure impazzire

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^