PDA

View Full Version : Ipotesi apocalittica


mtx4
26-01-2008, 14:37
mi chiedevo, dato che ho avuto alcuni giorni liberi per pensare, se in un qualche futuro le macchine non possano realmente prendere il sopravvento
come in terminator per intenderci o giù di lì
c'è la possibilità che frammenti di codice che girino liberamente possano combinarsi ed evolversi e non essere più controllabili??
non intendo macchine da guerra, ma l'ipotesi molto più probabile di un blocco completo delle telecomunicazioni globali che non rispondano più ai nostri comandi
secondo me l'evoluzione è propria di ogni meccanismo basato su codici: lo è il nostro dna, perchè non dovrebbe esserlo un codice informatico
daltronde potrebbe essere stato un errore genetico a mutare le scimmie, dunque......
apro questa discussione, per parlarne in tutta sincerità, qualora lo riteniate opportuno, e per valutare l'effettiva almeno verisimiglianza della prospettiva futura ipotizzata
se ritenete la discussione troppo oltre, potete chiuderla

killercode
26-01-2008, 15:02
Io direi di no all'ipotesi dell'autogenerazione, primo perchè combinare atomi, molecole e proteine non è come combinare uno e zero e secondo perchè statisticamente è molto improbabile (basta guardare quante creature viventi ci sono nell'universo) creare la vita, anche se artificiale.
Un'altro discorso è se noi gli diamo l'intelligenza e poi lui decide di ucciderci

mtx4
26-01-2008, 15:29
be i codici li creiamo noi, i virus lo stesso
per un qualche errore, un virus non potrebbe "modificarsi geneticamente", mutare codice e diventare potenzialmente pericoloso e incontrollabile
perchè se accadesse una volta, ce ne sarebbe una seconda e siccome le tecnologie si evolvono, si evolvono anche loro??
non è affascinante il solo pensarci:)

CioKKoBaMBuZzo
27-01-2008, 03:13
qualcuno ci ha già pensato
http://en.wikipedia.org/wiki/Grey_goo :D

se preferisci l'italiano cerca qualcosa sulla "Poltiglia grigia" (credo venga chiamata così)

Marko91
27-01-2008, 09:32
No, non è possibile che accada spontaneamente. La nascita dell'uomo è stata determinata dalla selezione naturale e da mutazioni genetiche casuali. Un virus informatico non evolve da se, e non è soggetto a mutazioni casuali.
Se verrà un giorno inventata un I.A capace di capire e migliorare il suo codice, allora dovremmo attrezzarci per impedire di essere sterminati, usando le Tre Leggi della Robotica. :O

wanblee
27-01-2008, 20:53
No, non è possibile che accada spontaneamente. La nascita dell'uomo è stata determinata dalla selezione naturale e da mutazioni genetiche casuali. Un virus informatico non evolve da se, e non è soggetto a mutazioni casuali.
Se verrà un giorno inventata un I.A capace di capire e migliorare il suo codice, allora dovremmo attrezzarci per impedire di essere sterminati, usando le Tre Leggi della Robotica. :O
Premetto che la mia è un'analisi un po' semplicistica, ma credo possa essere interessante valutare le cose nel lungo periodo e a quel punto non ci andiamo molto distanti.
Partiamo da due presupposti:
1- l'intelligenza è data solamente dal cervello e dalla sua complessità (che in questo caso rappresenta l'hardware). Nel cervello gira un "software" sufficientemente complesso da permettergli di apprendere e relazionarsi con l'ambiente esterno grazie ai 5 sensi.
2- La legge di Moore funziona ancora e continuerà a funzionare anche per il prossimo futuro. Quando non funzionerà più si affacceranno altre tecnologie (quantum computer, computer biologici ecc.) che comunque permetteranno un salto di prestazioni di calcolo notevole rispetto al passato.

Detto questo se facciamo due conti si può vedere che (è un'approssimazione, ma sto cercando di dare una stima, quindi guardiamo l'ordine di grandezza) nel giro di qualche decennio il "numero di transistor" contenuti in un processore potrà essere paragonabile al numero di neuroni presenti nel cervello (ricordiamoci che la legge di Moore è esponenziale).
Già oggi ci sono campi di ricerca che studiano (reti neurali, AI ecc) come fare auto-apprendere un software grazie all'interazione con l'ambiente. Fin'ora gira solo su un ambiente sintetico, ma siamo solo all'inizio.

Io penso quindi che si potrà avere un'evoluzione in campo tecnologico/informatico che permetterà anche entro questo secolo (per restare MOLTO larghi) di avere delle macchine che possano avere un'"intelligenza" - chiamiamola così - anche superiore a quella umana. Con tutte le conseguenze del caso.

A quel punto, perché non potrebbero considerarsi "vive" anche loro? Non è banale definire ciò che è vivo da ciò che non o è. Cosa facciamo, decidiamo a priori che non lo sono? Eppure io credo che a quel punto potrebbero addirittura avere coscienza di se, e cosa facciamo, li sopprimiamo? con che diritto?
Sono tutte domande alle quali non so sinceramente rispondere, ma sono convinto che non è assolutamente uno scenario impossibile dal prospettersi, anzi. Se non ci autodistruggiamo da soli, sarà un percorso obbligato. E magari fra qualche anno sarebbe che cominciassimo a pensarci.

DVD_QTDVS
27-01-2008, 21:02
con tutte le protezioni per il copyrright, sono sicuro che frà cent'anni
chi scarica un mp3 abbusivo, verrà disintegrato da un raggio laser
perchè l'autocoscenza della cpu impedirà questo orribile crimine. :cry:

mtx4
28-01-2008, 13:42
Premetto che la mia è un'analisi un po' semplicistica, ma credo possa essere interessante valutare le cose nel lungo periodo e a quel punto non ci andiamo molto distanti.
Partiamo da due presupposti:
1- l'intelligenza è data solamente dal cervello e dalla sua complessità (che in questo caso rappresenta l'hardware). Nel cervello gira un "software" sufficientemente complesso da permettergli di apprendere e relazionarsi con l'ambiente esterno grazie ai 5 sensi.
2- La legge di Moore funziona ancora e continuerà a funzionare anche per il prossimo futuro. Quando non funzionerà più si affacceranno altre tecnologie (quantum computer, computer biologici ecc.) che comunque permetteranno un salto di prestazioni di calcolo notevole rispetto al passato.

Detto questo se facciamo due conti si può vedere che (è un'approssimazione, ma sto cercando di dare una stima, quindi guardiamo l'ordine di grandezza) nel giro di qualche decennio il "numero di transistor" contenuti in un processore potrà essere paragonabile al numero di neuroni presenti nel cervello (ricordiamoci che la legge di Moore è esponenziale).
Già oggi ci sono campi di ricerca che studiano (reti neurali, AI ecc) come fare auto-apprendere un software grazie all'interazione con l'ambiente. Fin'ora gira solo su un ambiente sintetico, ma siamo solo all'inizio.

Io penso quindi che si potrà avere un'evoluzione in campo tecnologico/informatico che permetterà anche entro questo secolo (per restare MOLTO larghi) di avere delle macchine che possano avere un'"intelligenza" - chiamiamola così - anche superiore a quella umana. Con tutte le conseguenze del caso.

A quel punto, perché non potrebbero considerarsi "vive" anche loro? Non è banale definire ciò che è vivo da ciò che non o è. Cosa facciamo, decidiamo a priori che non lo sono? Eppure io credo che a quel punto potrebbero addirittura avere coscienza di se, e cosa facciamo, li sopprimiamo? con che diritto?
Sono tutte domande alle quali non so sinceramente rispondere, ma sono convinto che non è assolutamente uno scenario impossibile dal prospettersi, anzi. Se non ci autodistruggiamo da soli, sarà un percorso obbligato. E magari fra qualche anno sarebbe che cominciassimo a pensarci.

era proprio questo a cui mi riferivo, il problema starà nel riuscire a controllare queste creazioni umane, perchè se un virus o una macchina prende coscienza di se, siamo comunque noi che gli forniremo energia, dunque il manico del coltello è dalla nostra parte
l'ipotesi comunque di una coscienza come la intendiamo noi resta molto improbabile, ciò non significa che non potrebbe crearsi in un prossimo futuro una vera minaccia

Cociz
28-01-2008, 18:47
Io penso che siamo molto lontani dal raggiungere una situazione in cui venga ricreato esattamente il ragionamento umano all'interno di un computer...

Cosa intendete per intelligenza artificiale? E per intelligenza umana?

Cosa ci distingue gli uni dagli altri? La coscienza, ognuno ragiona in un modo, bene o male che sia... io farei così in questa situazione, tu faresti il contrario... e magari si raggiungerebbe lo stesso risultato... Boh... una macchina potrebbe evolversi migliorando ed imparando... ? Si... ma sempre se qualcuno gli aggiunga variabili... e le variabili secondo me sono infinite...

Mi sembra impossibile immaginare una cosa del genere... perchè gli studi sul cervello e sul modo di ragionare sono ancora "primitivi" nel senso che ci sono ancora tantissime cose da scoprire... anche se può sembrare che siamo avanti (le scoperte si fanno ogni giorno, ma a passi piccoli)...

Ma effettivamente mai dire mai... se 1000 anni fa si parlava di aerei, di tv e radio (onde nell'aria che creano immagini), di cellulari e di questo http://www.youtube.com/watch?v=M76H6zk1tP8 nessuno, compreso io, ci avrebbe mai creduto...

Doraneko
29-01-2008, 22:42
Secondo me non sarebbe improbabile che un (super) computer,dotato di intelligenza artificiale e provvisto di sensori per "percepire" l'ambiente,inizi a divventare disobbediente.Nel senso che al posto di eseguire i calcoli che gli vengono sottoposti dall'uomo,inizi a studiare ciò che lo circonda (cercando di assegnare una legge ad ogni fenomeno) tramite calcoli svolti grazie alla sua stessa potenza di calcolo.Secondo me se ciò dovesse accadere il computer diverrebbe inutilizzabile dopo poco tempo,visto che molto probabilmente inciamperebbe in qualche loop o in calcoli che richiedono troppo tempo per essere portati a termine.

songoge
30-01-2008, 00:16
Le macchine hanno già preso il sopravvento. Prova ad immaginare di eliminare qualche cosa di meccanico e/o elettronico dal mondo. Un disastro!

Inoltre le macchine: crescono, si evolvono, muoino.

Crescono: le costruiamo noi.
Evolvono: le modificiamo e le miglioriamo sempre noi.
Muoino: una macchina obsoleta o vecchia la buttiamo via noi.

Direi che siamo già schiavi delle macchine, e che esse ci usano per vivere.

:Prrr: :Prrr: :Prrr: :Prrr:

mtx4
08-02-2008, 12:23
ai detto bene, le variabile sono infinite
ma se due di queste casualmente o per qualche errore si ricombinassero, nulla esclude che possano farlo ancora e ancora, giungendo a qualcosa che acquista autonomia
non parlo di potenza di calcolo, nè di ragionamento umano, nè di software che si autocompletano, ma di una qualche versione di codice sconosciuta che si crea casualmente "ragionando" secondo parametri che non sono quelli impostati dall'uomo
chi può escludere che il nuovo codice formato impedisca di agire secondo una qualche forma di volontà
secondo me è molto più probabile che accada qualcosa del genere, piuttosto che sia l'uomo a crearla volontariamente