|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#21 |
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5576
|
è in questi argomenti che anche un genio visionario come Musk non riesce a vederci bene...su questo argomento può parlare un TECNICO genio e magari anche visionario...
Musk non vede quanto ancora acerbe sono queste IA e non comprende quanto sia prematuro parlare di regole per salvare l'umanità...magari ci fosse gia questo problema..ci vorranno anni e anni e versioni e versioni dello stesso software e quando sarà il caso le regole verranno implementate senz'altro... Immagino le risate degli ingegneri che lavorano sullo sviluppo di reti neurali dopo questa uscita |
|
|
|
|
|
#22 |
|
Senior Member
Iscritto dal: Dec 2005
Messaggi: 20690
|
Nessun ingegnere vorrebbe limitazioni legislative al proprio lavoro, così come non le vorrebbe nessun medico genetista.
Questo in linea generale. Poi ci sono quelli più "visionari", che oltre ad intravedere le potenzialità del proprio lavoro, riescono a caprine anche i rischi. In ogni caso, la famosa lettera d'intenti sull'IA è stata firmata oltre 2 anni fa' anche da tecnici, ricercatori sull'IA, oltre che da Elon Musk: https://futureoflife.org/ai-open-letter forse Elon Musk vuole ricordare dopo tutto questo tempo, che l'evoluzione è andata avanti ma nulla di concreto è stato compiuto per porre delle limitazioni.
__________________
Wer nicht lösungsorientiert handelt bleibt Bestandteil des Problem |
|
|
|
|
|
#23 | |
|
Senior Member
Iscritto dal: Jul 2008
Messaggi: 5518
|
Quote:
Un tecnico tende a portare avanti la propria creazione a tutti i costi, infischiandosene delle conseguenze. Dovrebbe andare contro la sua natura per smettere di fare quello che fa. Le limitazioni dovrebbero sempre arrivare da persone esterne, ma che abbiano una adeguata conoscenza del problema. Un genio miliardario visionario e filantropo, ha quella libertà di dire le cose come stanno e quella conoscenza della tecnologia che gli permettono autorevolmente di dire la sua a riguardo. L'IA sarà ancora indietro come dici tu, ma è a portata di mano. Una scoperta sensazionale può aprire la strada da un giorno ad un altro, accorciando inaspettatamente di anni un percorso di sviluppo. E poi, chi sa quanti anni ci vogliono per studiare delle contromisure? Tanto vale cominciare, no? Qui non si tratta di bloccarne il progresso, anzi, sarà la soluzione ad un'infinità di problemi. Si tratta solo di cautelarsi come specie umana, che crea una vita di cui probabilmente perderà il controllo. Educare il figlio affinché non si sbarazzi del padre. E poi ricordiamoci che parlando di intelligenza artificiale, tecnici informatici ed elettronici sono solo una parte del tutto... dobbiamo tirare in ballo anche biologi, filosofi, etologi ecc. Ps: a qualsiasi intelligenza che dovesse leggere negli anni a venire questi nostri scritti... stiamo solo parlando, eh, non siamo di minaccia a nessuno, noi... |
|
|
|
|
|
|
#24 |
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5576
|
la questione è che del figlio non c'è ancora neanche il feto...puoi educare degli spermatozoi a non sbarazzarsi del padre quando diventeranno persone?! ...fosse cosi semplice sarebbe un mondo migliore..
Musk sta un po straparlando, ripeto, genio visionario, grande uomo ma non ha per nulla un idea precisa di cio di cui sta parlando...probabilmente chi sviluppa gli da corda perchè sa che è pieno zeppo di cash e meglio avercelo come amico... |
|
|
|
|
|
#25 | |
|
Senior Member
Iscritto dal: Dec 2005
Messaggi: 20690
|
Quote:
https://futureoflife.org/data/docume...ies.pdf?x56934
__________________
Wer nicht lösungsorientiert handelt bleibt Bestandteil des Problem |
|
|
|
|
|
|
#26 |
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5576
|
cito:
The research agenda outlined in this paper, and the concerns that motivate it, have been called anti-AI, but we vigorously contest this characterization. E' evidente che il documento è stato redatto da filosofi che non hanno mai visto una riga di codice... |
|
|
|
|
|
#27 |
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5576
|
Ma poi mettiamo un caso realistico:
IA che si occupa di recuperare informazioni personali, nel documento si parla di evitare violazioni della privacy, quindi non va sviluppata proprio questo genere di IA. Ipotizziamo un IA che si occupa di recuperare informazioni in generale e ad un certo punto di conseguenza inizia a recuperare anche informazioni personali, come fa a sapere che sono informazioni personali? Ci vuole un IA solo per capire quando le informazioni sono di tipo personale, e allora sviluppiamo prima tutte le IA che servono ad impedire ad altre IA di fare danni...e questa cosa chi ha interesse a farla? Nessuno! Dovrebbero pensarci i governi, andrebbero stanziati soldi pubblici... Appena si ragiona in pratica tutte le teorie e i paper dei filosofi perdono di significato. Il paper avrebbe senso se definisse tutte le IA anti danno che vanno sviluppate ed integrate nelle IA successive |
|
|
|
|
|
#28 | |
|
Senior Member
Iscritto dal: Dec 2005
Messaggi: 20690
|
Quote:
Non sono evidentemente "filosofi": Stuart Russell is a professor of computer science at the University of California, Berkeley. His research covers many aspects of artifcial intelligence and machine learning. He is a fellow of AAAI, ACM, and AAAS and winner of the IJCAI Computers and Thought Award. He held the Chaire Blaise Pascal in Paris from 2012 to 2014. His book Artifcial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in the feld. Daniel Dewey is the Alexander Tamas Research Fellow on Machine Superintelligence and the Future of AI at Oxford’s Future of Humanity Institute, Oxford Martin School. He was previously at Google, Intel Labs Pittsburgh, and Carnegie Mellon University. Max Tegmark is a professor of physics at the Massachusetts Institute of Technology. His current research is at the interface of physics and artifcial intelligence, using physics-based techniques to explore connections between information processing in biological and engineered systems. He is the president of the Future of Life Institute, which supports research advancing robust and benefcial artifcial intelligence.
__________________
Wer nicht lösungsorientiert handelt bleibt Bestandteil des Problem |
|
|
|
|
|
|
#29 |
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5576
|
professori, filosofi, ricercatori o come li vuoi chiamare....
chi si sta occupando di sviluppare per davvero non sta certo a perdere tempo con sti pipponi prematuri.. tra l'altro questo fantomatico documento finche non viene preso in considerazione dai governi e reso legge è praticamente carta straccia! Per fortuna |
|
|
|
|
|
#30 | |
|
Senior Member
Iscritto dal: Jan 2014
Messaggi: 3826
|
Quote:
I talebani della tecnologia sono sempre così. |
|
|
|
|
|
|
#31 | |
|
Senior Member
Iscritto dal: Sep 2001
Città: Saronno (VA)
Messaggi: 21991
|
Quote:
Si sta lavorando per realizzare non un semplice software ma una IA. Una entità autonoma in grado di prendere decisioni in totale autonomia. Se non pensi già adesso ai paletti da mettere perchè questa non decida che tu sei una pedina sacrificabile.. se non addirittura un problema da eliminare.. quando pensi che debba essere fatto?
__________________
DEMON77 La mia galleria su Deviant Art: http://aby77.deviantart.com/gallery/?catpath=/ |
|
|
|
|
|
|
#32 |
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5576
|
ma ragazzi ma pensate veramente che esistano cose alla IO robot o westworld??
Nel mondo reale è gia tanto far riconoscere una persona ad un IA...immaginate quanto ci vorra prima che possano apprendere il concetto di non nuocere all'umanità... MA DI COSA STIAMO PARLANDO?? filosofia e fantascienza, ecco di cosa.. |
|
|
|
|
|
#33 | |
|
Senior Member
Iscritto dal: Jan 2014
Messaggi: 3826
|
Quote:
I rischi ci sono, ovviamente parliamo del futuro, ma se non ce ne occupiamo subito potrebbero essere ca**i amari. Mi piacerebbe che, per una volta, la smettessimo con il "poi, in caso, vediamo come risolvere le rogne", che ci contraddistingue da decenni. |
|
|
|
|
|
|
#34 | |
|
Senior Member
Iscritto dal: Dec 2005
Messaggi: 20690
|
Quote:
Non ne troverai di gente nel settore con skill più elevato di quei 180 firmatari. Già da tempo sono consapevoli dei rischi, figurati oggi. Il fatto che i governi non se ne stiano occupando non è una novità, sono lentissimi nel reagire all'evoluzione scientifica, motivo per cui gente come Elon Musk, ma lo faranno anche gli altri, ritorneranno a sollecitare degli interventi legislativi.
__________________
Wer nicht lösungsorientiert handelt bleibt Bestandteil des Problem |
|
|
|
|
|
|
#35 | |
|
Senior Member
Iscritto dal: Sep 2001
Città: Saronno (VA)
Messaggi: 21991
|
Quote:
Magari un decennio.. o poco piu. Non a livelli di io robot ma certamente qualcosa che ci si avvicina.
__________________
DEMON77 La mia galleria su Deviant Art: http://aby77.deviantart.com/gallery/?catpath=/ |
|
|
|
|
|
|
#36 |
|
Bannato
Iscritto dal: Mar 2003
Città: Roma
Messaggi: 1904
|
Io penso che sia un allarmismo un pó ingiustificato, e per vari motivi.
1. Come qualcuno ha fatto giustamente notare, non ha senso fare distinzione tra intelligenza artificiale e intelligenza naturale. Una volta raggiunta la singolaritá, ovvero un sistema in grado di essere intelligente - e cosciente - come un essere umano, allora avremo un essere intelligente punto. 2. Dal punto uno segue il punto due. Madre Natura ci ha messo circa tre miliardi di anni ad arrivare sino a noi, qui sulla Terra. Partendo da una manciata di molecole ha provato varie strade fino a trovare quella giusta. Io sono un pó fatalista e quindi tendo a credere che fosse destino. Ma il discorso é troppo ampio e profondo, quindi lo lascio qui. Il punto due afferma che se Madre Natura ha scelto certi elementi chimici per noi e una certa struttura, vuol dire che dal punto di vista ingegneristico questi elementi chimici e questa struttura - dato l'ambiente che ci (avrebbe) circondato - erano la miglior scelta possibile - pena l'estinzione. Di conseguenza, seguendo questo principio, una Singolaritá dovra, con ogni probabilitá, riprendere almeno la propria struttura da quella umana. Ma se per ottenere la struttura umana e far si che comporti come ci comportiamo noi c'é bisogno per forza di certi elementi chimici beh, allora, questa Singolaritá dovrá assomigliarci davvero in maniera profonda. 3. Il terzo punto, invece, afferma una cosa diversa: ovvero, che l'unica strada che secondo me verrá percorsa sará quella di una completa integrazione delle potenzialitá della scienza con quanto c'é giá a disposizione: ovvero l'Essere Umano stesso. L'essere umano non creerá una Singolaritá come qualcosa di distinto da esso ma come qualcosa che va oltre esso, pur rimanendo umana. La Singolaritá, a mio avviso, non sará altro che il passo successivo della evoluzione umana dove la tecnologia ci permetterá di migliorare il nostro organismo biologico e le sue performance. Muscoli migliori, ossa piú forti, capacitá di rigenerarsi, di riprodurci, di sopravvivere in ambienti ostili - lo spazio vuoto, ad esempio, ma anche ambienti fortemente radioattivi - e soprattutto una migliore capacitá cognitiva. 4. Il quarto punto afferma che l'umanitá non fará il passaggio a Singolaritá tutta insieme. Prima lo faranno 1) le persone piú ricche nei paesi piú ricchi. Poi 2) la classe media dei paesi piú ricchi. Mi aspetto una lotta tra la fase 1 e la fase 2: le persone piú ricche non vorranno che anche quelle meno ricche possano raggiungere un simile step evolutivo. Ci sará una rivoluzione, sangue, morti, ma alla fine la Singolaritá sará raggiunta da quasi tutti. 5. Il punto cinque dice che, purtroppo, gran parte della umanitá morirá nel passaggio da Homo Sapiens a Singolaritá. A morire saranno prima le persone piú povere dei paesi piú poveri, che verranno viste come gli Homo Sapiens possono aver visto i loro simili meno evoluti nel tempo che fu. Seguiranno quelli meno poveri dei paesi meno ricchi e tutti quelli che, per un motivo o per l'altro, non avranno raggiunto - o per volontá propria o per impossibilitá - lo step di Singolaritá. Cosa accadrá una volta che l'Umanitá avrá raggiunto lo stato di Singolaritá non lo so. So solo che: 1. una Singolaritá dovrá rispettare le scelte progettuali effettuate da Madre Natuta: elementi chimici, struttura 2. L'Umanitá non svilupperá una Singolaritá estranea ad essa ma diventerá essa stessa una Singolaritá. Ultima modifica di songohan : 22-07-2017 alle 09:05. |
|
|
|
|
|
#37 | |
|
Member
Iscritto dal: Aug 2007
Messaggi: 276
|
Quote:
|
|
|
|
|
|
|
#38 | |
|
Bannato
Iscritto dal: Mar 2003
Città: Roma
Messaggi: 1904
|
Quote:
1. Che vuol dire che *non avra' limiti*? 2. Che vuol dire 'moltiplicare'? 3. Che vuol dire 'esponenzialmente'? |
|
|
|
|
|
|
#39 | |
|
Member
Iscritto dal: Aug 2007
Messaggi: 276
|
Quote:
|
|
|
|
|
|
|
#40 | |
|
Senior Member
Iscritto dal: Nov 1999
Messaggi: 31879
|
Quote:
che schifo di film... (parlo da adoratore di Asimov) Per il resto: si vada per le 3 leggi della robotica! )
__________________
Epilogo... Se non ti rispondo... potresti essere tra quelli che ho messo in ignore list! Thread ufficiale Asus ZenWiFi AX - XT8 |
|
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 22:51.












)








