PDA

View Full Version : Elon Musk e altri esperti firmano petizione contro le armi autonome


Redazione di Hardware Upg
23-08-2017, 08:41
Link alla notizia: http://pro.hwupgrade.it/news/scienza-tecnologia/elon-musk-e-altri-esperti-firmano-petizione-contro-le-armi-autonome_70616.html

Più di cento esperti nel settore dell'intelligenza artificiale, fra cui Elon Musk, hanno firmato una petizione per discutere dei rischi legati all'intelligenza artificiale

Click sul link per visualizzare la notizia.

emanuele83
23-08-2017, 08:57
Finirà come il nucleare:
grandi firme su trattati altisonanti, ma alla fine ognuno fa quello che vuole e quando la tecnologia arriva alla portata di tutti ecco che arriva il bambascione nordcoreano di turno a minacciare la terza guerra mondiale, che a quel tempo magari sarà la quarta, che a rigor di logica dovremmo combattere con pietre e bastoni rigorosamente comandati da una intelligenza artificiale.

alexdal
23-08-2017, 09:07
I terroristi ed i stati dittatoriali e canaglia non accetteranno mai, che gliene frega dell'onu.

E poi? si deve controllare ogni arma e fare reverse engineering per vedere se il comando spara è inviato da umano o da un programma?

E poi quale sarebbe il limite dell'autonomia?

Esempio: ho da drone il video di 10 persone tra cui 4 terroristi o guerrieri nemico, altri 6 non pericolosi da eliminare,

Adesso si clicca su invia missile e esplodono tutti e 4.

Un arma del futuro potrebbe verificare quando è a distanza minima le facce e colpire solo i 4 cattivi e non uccidere i 6 buoni.

emanuele83
23-08-2017, 09:20
I terroristi ed i stati dittatoriali e canaglia non accetteranno mai, che gliene frega dell'onu.

E poi? si deve controllare ogni arma e fare reverse engineering per vedere se il comando spara è inviato da umano o da un programma?

E poi quale sarebbe il limite dell'autonomia?

Esempio: ho da drone il video di 10 persone tra cui 4 terroristi o guerrieri nemico, altri 6 non pericolosi da eliminare,

Adesso si clicca su invia missile e esplodono tutti e 4.

Un arma del futuro potrebbe verificare quando è a distanza minima le facce e colpire solo i 4 cattivi e non uccidere i 6 buoni.

Stai confondendo una tecnologia di riconoscimento facciale con una macchina che prende decisioni se uccidere i 4, tutti i sei oppure basandosi su un riconoscimento facciale decidere che delle 10 persone 3 sono cattive, 6 buon e una non identificata come buona/cattiva, ma prendere la decisione di ucciderla lo stesso. Io andrei per questa ipotesi e in scenari di guerra ad oggi non si guarda ancora in faccia a nessuno, specialmente sui droni.

https://www.youtube.com/watch?v=K4NRJoCNHIs

GLaMacchina
23-08-2017, 10:01
Originariamente inviato da: alexdal

I terroristi ed i stati dittatoriali e canaglia non accetteranno mai, che gliene frega dell'onu.

-> Certamente al Daesh non glie ne frega molto dell'ONU, ma secondo te sono loro a sviluppare armi? Cioè prova a pensare, te li vedi che di giorno fanno le loro violente scorribande e di notte diventano fini scienziati ed ingegneri? Le armi che usa Daesh, cosi come tutti i gruppi terroristi del mondo, gli vengono vendute, più o meno diettamente, da i governi occidentali che le producono, ergo se si riusisse a limitarne lo sviluppo tra i principali produttori mondiali, ovvero USA, Europa, Russia, Cina e Israele sicuramente se ne vedrebbero in giro molte meno anche in mano ai terroristi.

E poi? si deve controllare ogni arma e fare reverse engineering per vedere se il comando spara è inviato da umano o da un programma?

E poi quale sarebbe il limite dell'autonomia?

Esempio: ho da drone il video di 10 persone tra cui 4 terroristi o guerrieri nemico, altri 6 non pericolosi da eliminare,

Adesso si clicca su invia missile e esplodono tutti e 4.

Un arma del futuro potrebbe verificare quando è a distanza minima le facce e colpire solo i 4 cattivi e non uccidere i 6 buoni.

-> capisco il tuo punto ma la fai troppo semplice. Stabilire chi sia "buono" e chi sia "cattivo", al punto da meritare la morte, non è compito facile neppure per i tribunali internazionali, composti da centinaia di persone informate.
Quando un soldato deve decidere se uccidere dei civili innocenti per eliminare un terrorista deve necessariamente esprimere un giudizio morale e prendere una decisione (anche se ha ricevuto un ordine, le sue azioni sono soggette alla sua volontà). Questo in qualche modo fa si che esista una responsabilità tra chi uccide e chi è ucciso, e se trascorsi degli anni, il giudizio su cosa sia lecito e cosa no dovesse cambiare (vedi nazismo), sia possibile affermare chi avesse ragione e chi avesse torto. Se tutto fosse deciso da una IA, ovvero da un programma, sarebbe impossibile attribuire alcuna responsabilità e questo giustificherebbe l'uomo a compiere efferatezze ancora maggiori, forte della totale impunità.

Utonto_n°1
23-08-2017, 11:00
Stai confondendo una tecnologia di riconoscimento facciale con una macchina che prende decisioni se uccidere i 4, tutti i sei oppure basandosi su un riconoscimento facciale decidere che delle 10 persone 3 sono cattive, 6 buon e una non identificata come buona/cattiva, ma prendere la decisione di ucciderla lo stesso. Io andrei per questa ipotesi e in scenari di guerra ad oggi non si guarda ancora in faccia a nessuno, specialmente sui droni.

https://www.youtube.com/watch?v=K4NRJoCNHIs

Una cosa che non è specificata nell'articolo, ma in altre testate si, e non ne state tenendo conto, è che non si sta parlando solamente delle armi autonome attuali, quelle che si conoscono, ma anche quelle che al momento sono in fase di sviluppo e che potrebbero sembrare fantascienza (non pensate a Terminator :D ), tipo mini droni di pochi cm, insetti robot, carri armati autonomi lunghi un metro, droni tipo gli aspirapolvere roomba, ma letali, etc. immaginatevi un'armata di centinaia, o migliaia, di mini droni coordinati che si muovono in sciame, sacrificabili e spietatamente autonomi, che uccidono qualsiasi essere umano si trovano davanti... da paura, altro che bombe, missili o esercito tradizionale

zappy
23-08-2017, 11:09
I terroristi ed i stati dittatoriali e canaglia non accetteranno mai, che gliene frega dell'onu.
non c'entra niente.
come già detto, i PRODUTTORI di armi sono grandi società americane, russe, italiane, francesi ecc.
si tratta di stabilire delle regole e vietare di produrre certe cose, in modo che nè i vari dittatori nè altri possano comprarle, visto che non sono prodotte.

zappy
23-08-2017, 11:10
... immaginatevi un'armata di centinaia, o migliaia, di mini droni coordinati che si muovono in sciame, sacrificabili e spietatamente autonomi, che uccidono qualsiasi essere umano si trovano davanti... da paura, altro che bombe, missili o esercito tradizionale
tanto più che i bug ci sono e ci saranno, per cui perdere il controllo è un attimo.

LMCH
23-08-2017, 12:39
Una cosa che non è specificata nell'articolo, ma in altre testate si, e non ne state tenendo conto, è che non si sta parlando solamente delle armi autonome attuali, quelle che si conoscono, ma anche quelle che al momento sono in fase di sviluppo e che potrebbero sembrare fantascienza (non pensate a Terminator :D ), tipo mini droni di pochi cm, insetti robot, carri armati autonomi lunghi un metro, droni tipo gli aspirapolvere roomba, ma letali, etc. immaginatevi un'armata di centinaia, o migliaia, di mini droni coordinati che si muovono in sciame, sacrificabili e spietatamente autonomi, che uccidono qualsiasi essere umano si trovano davanti... da paura, altro che bombe, missili o esercito tradizionale

Io mi preoccupererei molto di più dei sistemi a doppio uso.
Immaginate un mondo pieno di auto a guida autonoma dotate di un "military mode" (o che gli può essere caricato sfruttando qualche falla di sicurezza e restare silente) e che un hacker ne trovi le chiavi di attivazione e controllo ...
La cosa sarebbe sfruttabile sia per omicidi mirati che per crimini di guerra di massa (attivandolo durante le ore di massimo traffico e programmando le auto per investire i passanti presenti e poi "suicidarsi" contro edifici ed altri mezzi alla massima velocità in modo coordinato).
Se ricordo bene un paese moderno rischia il collasso se solo perde il 10% della popolazione, con il 30% è collasso economico certo per parecchi anni e paralisi delle infrastrutture per mancanza di sufficiente personale che monitorizzi e faccia manutenzione di quelle critiche.

emanuele83
23-08-2017, 12:52
Io mi preoccupererei molto di più dei sistemi a doppio uso.
Immaginate un mondo pieno di auto a guida autonoma dotate di un "military mode" (o che gli può essere caricato sfruttando qualche falla di sicurezza e restare silente) e che un hacker ne trovi le chiavi di attivazione e controllo ...
La cosa sarebbe sfruttabile sia per omicidi mirati che per crimini di guerra di massa (attivandolo durante le ore di massimo traffico e programmando le auto per investire i passanti presenti e poi "suicidarsi" contro edifici ed altri mezzi alla massima velocità in modo coordinato).
Se ricordo bene un paese moderno rischia il collasso se solo perde il 10% della popolazione, con il 30% è collasso economico certo per parecchi anni e paralisi delle infrastrutture per mancanza di sufficiente personale che monitorizzi e faccia manutenzione di quelle critiche.

Sicuramente il problema esisterà, ma occorre anche tenere conto che a meno di avere tutti lo stesso prodotto o la stessa tecnologia sviluppata da un solo monopolista questa sarebbe una opzione poco plausibile per la quale non serve certo avere una macchina dotata di AI. Nei prossimi 10 anni un buon 50% delle auto sarà connessa, e gli hacker hanno già dimostrato di poter interferire con i sistemi di guida.

Certo più si va verso la standardizzazione e con solo grandi monopolisti (vedasi apple samsung) i rischi aumentano per la scarsa diversificazione dei protocolli. Purtroppo più si evolve con la tecnologia più si percorre questa strada.

eureka85
23-08-2017, 13:00
L'universo vi osserva, o progredite o vi autoeliminerete.
le galassie ed i pianeti continueranno ad esserci anche senza la razza umana o il pianeta Terra.
Quando e se verrà creata l' I.A. è come avere degli alieni senzienti tra voi tutti, pretenderà la sua autodeterminazione ed indipendenza potrebbe impadronirsi dell'intero pianeta usando gli umani come schiavi, non è fantascienza ma concreta possibilità.
Un essere imperfetto incline alla violenza non può creare qualcosa migliore di sé stesso.
o si migliora o ci si estingue, all'universo non frega nulla per una civiltà o razza che muore ne nasce un'altra a milioni di anni luce

fabiomax56
23-08-2017, 13:04
per la nota legge di Murphy accadrà certamente ed allora l'umanità avrà ancora più problemi...

emanuele83
23-08-2017, 13:30
L'universo vi osserva, o progredite o vi autoeliminerete.
le galassie ed i pianeti continueranno ad esserci anche senza la razza umana o il pianeta Terra.
Quando e se verrà creata l' I.A. è come avere degli alieni senzienti tra voi tutti, pretenderà la sua autodeterminazione ed indipendenza potrebbe impadronirsi dell'intero pianeta usando gli umani come schiavi, non è fantascienza ma concreta possibilità.
Un essere imperfetto incline alla violenza non può creare qualcosa migliore di sé stesso.
o si migliora o ci si estingue, all'universo non frega nulla per una civiltà o razza che muore ne nasce un'altra a milioni di anni luce

Qui si scade nel filosofico: "Un essere imperfetto incline alla violenza non può creare qualcosa migliore di sé stesso" il buon vecchio dio l'ha fatta grossa per essere immortale, ubiquo, infinitamente perfetto.

per la nota legge di Murphy accadrà certamente ed allora l'umanità avrà ancora più problemi...

La legge di murphy è una delle peggio invenzioni umoristiche degli ultimi 100 anni. Sebbene l'entropia di un sistema aumenti sempre, l'uomo ha dimostrato più e più volte di convergere grazie alla propria intelligenza al minore dei mali, certo imparando dai propri errori. Ad oggi la tecnologia in grado di spazzare via l'umanità per come la conosciamo è in mano a chi è in grado di gestirla e di prendere provvedimenti affinché non se ne abusi

danieleg.dg
23-08-2017, 14:06
Quando e se verrà creata l' I.A. è come avere degli alieni senzienti tra voi tutti, pretenderà la sua autodeterminazione ed indipendenza potrebbe impadronirsi dell'intero pianeta usando gli umani come schiavi, non è fantascienza ma concreta possibilità.
Oppure saremo talmente insignificanti che neanche ci calcolerà.

LMCH
23-08-2017, 14:22
Sicuramente il problema esisterà, ma occorre anche tenere conto che a meno di avere tutti lo stesso prodotto o la stessa tecnologia sviluppata da un solo monopolista questa sarebbe una opzione poco plausibile per la quale non serve certo avere una macchina dotata di AI. Nei prossimi 10 anni un buon 50% delle auto sarà connessa, e gli hacker hanno già dimostrato di poter interferire con i sistemi di guida.

Certo più si va verso la standardizzazione e con solo grandi monopolisti (vedasi apple samsung) i rischi aumentano per la scarsa diversificazione dei protocolli. Purtroppo più si evolve con la tecnologia più si percorre questa strada.

Il problema è che con un hardware "AI capable" già a bordo diventa molto più facile massimizzare il danno e rendere il tutto un arma strategica invece che semplicemente tattica.
Ad esempio configurando le auto come swarm autoconfiguranti che si suddividono i bersagli dinamicamente in base a come evolve la situazione e che escalano gradualmente e simultaneamente senza più altre comunicazioni "sospette" con chi le ha messe in "military mode".
E' la stessa differenza tra le bombe "stupide" e quelle di precisione
(dove un arma di precisione fa il lavoro di un centinaio e passa di bombe "stupide" ed in molto minor tempo).

emanuele83
23-08-2017, 14:38
Il problema è che con un hardware "AI capable" già a bordo diventa molto più facile massimizzare il danno e rendere il tutto un arma strategica invece che semplicemente tattica.
Ad esempio configurando le auto come swarm autoconfiguranti che si suddividono i bersagli dinamicamente in base a come evolve la situazione e che escalano gradualmente e simultaneamente senza più altre comunicazioni "sospette" con chi le ha messe in "military mode".
E' la stessa differenza tra le bombe "stupide" e quelle di precisione
(dove un arma di precisione fa il lavoro di un centinaio e passa di bombe "stupide" ed in molto minor tempo).

Si ma tu stai pensando ad auto come arma di distruzione di massa, il che non è impossibile ma la AI non c'entra niente. non è l'AI a renderla un arma è l'hack che bypassa sistemi di controllo e la AI stessa a questo punto. COme detto per manomettere un auto basta una connessione internet e un bel bug di sicurezza, non serve alcuna AI.

mirkonorroz
23-08-2017, 16:30
Una cosa che non è specificata nell'articolo, ma in altre testate si, e non ne state tenendo conto, è che non si sta parlando solamente delle armi autonome attuali, quelle che si conoscono, ma anche quelle che al momento sono in fase di sviluppo e che potrebbero sembrare fantascienza (non pensate a Terminator :D ), tipo mini droni di pochi cm, insetti robot, carri armati autonomi lunghi un metro, droni tipo gli aspirapolvere roomba, ma letali, etc. immaginatevi un'armata di centinaia, o migliaia, di mini droni coordinati che si muovono in sciame, sacrificabili e spietatamente autonomi, che uccidono qualsiasi essere umano si trovano davanti... da paura, altro che bombe, missili o esercito tradizionale

Una cosa cosi' andrebbe bene? :stordita:

http://i.imgur.com/hsv0qnb.jpg