PDA

View Full Version : Il robot Atlas di Boston Dynamics ora fa anche parkour


Redazione di Hardware Upg
15-10-2018, 12:21
Link alla notizia: https://pro.hwupgrade.it/news/scienza-tecnologia/il-robot-atlas-di-boston-dynamics-ora-fa-anche-parkour_78531.html

Atlas, il robot umanoide di Boston Dynamics, aggiunge al suo repertorio di competenze il parkour

Click sul link per visualizzare la notizia.

songohan
15-10-2018, 12:33
Sapete a volte a cosa penso? Penso che tutto quello che immaginiamo in termini di umanoidi, intelligenza artificiale e mondi virtuali sia possibile se non vietato dalle leggi della fisica che conosciamo oggi. Allora, se tutto questo è possibile e un giorno sarà realtà, cosa ci vieta di pensare che uno scenario alla Matrix non sia già successo e non sia ancora in corso? Lo trovo inquietante.

Avatar0
15-10-2018, 13:00
Sapete a volte a cosa penso? Penso che tutto quello che immaginiamo in termini di umanoidi, intelligenza artificiale e mondi virtuali sia possibile se non vietato dalle leggi della fisica che conosciamo oggi. Allora, se tutto questo è possibile e un giorno sarà realtà, cosa ci vieta di pensare che uno scenario alla Matrix non sia già successo e non sia ancora in corso? Lo trovo inquietante.

mmmm .... la storia forse ? :stordita:

Più realistico, e anche affascinante, il monolito di Kubrick


Quello che riesce a fare questo robot è semplicemente pazzesco :eek: , se penso a quanto erano impacciati(e già allora sembrava un risultato notevolissmo) gli stessi robot neanche 5 anni fa, è stato fatto un balzo in avanti allucinante.

cignox1
15-10-2018, 13:15
>>Allora, se tutto questo è possibile e un giorno sarà realtà, cosa ci vieta di pensare che uno scenario alla Matrix non sia già successo e non sia ancora in corso?

Beh, simile a questo concetto c'é l'idea dell'Universo Simulato. Poiché, si puó ipotizzare, arriveremo un giorno ad avere la capacitá tecnologica di simulare al computer un universo come il nostro, e che quell'universo arriverá un giorno ad avere la capacitá di svilupparne a sua volta una simulazione, non c'é ragione di credere che il nostro debba necessariamente essere il primo della sequenza. Potremmo, cioé, essere noi stessi all'interno di una simulazione al computer.

rigelpd
15-10-2018, 13:24
Sapete a volte a cosa penso? Penso che tutto quello che immaginiamo in termini di umanoidi, intelligenza artificiale e mondi virtuali sia possibile se non vietato dalle leggi della fisica che conosciamo oggi. Allora, se tutto questo è possibile e un giorno sarà realtà, cosa ci vieta di pensare che uno scenario alla Matrix non sia già successo e non sia ancora in corso? Lo trovo inquietante.

Se ti inquieta questo allora maglio non parlarti del basilisco di Roko...

una versione più mild è il paradosso di Newcomb di cui ho parlato un paio di anni fa in questo forum:

"Immaginate che in un futuro imprecisato ci sia una superintelligenza artificiale enormemente più evoluta di quella umana che vi pone davanti ad una scelta:

Ci sono due scatole, una trasparente (scatola A) e una opaca (scatola B), in quella trasparente ci sono (e si vedono) 1000 dollari mentre in quella opaca o è vuota o ha dentro 1 milione di dollari.

A questo punto la superintelligenza vi da due alternative:

1) prendere solo la scatola B

2) prendere la scatola A e la scatola B


In base a queste informazioni la scelta sarebbe ovvia ma la superintelligenza vi mette a conoscenza di un'altro elemento:

il giorno prima ha realizzato una simulazione incredibilmente accurata in cui ha simulato te che fai la scelta e ha potuto identificare senza possibilità di errore quale sarà la tua scelta. In pratica la macchina sa già con assoluta certezza cosa sceglierai.

inoltre la superintelligenza ti dice (fate attenzione perchè è un'pò complicato):

"non ti dico cosa hai scelto nella simulazione ma ti dico che qualora nella simulazione tu avessi scelto di prendere entrambe le scatole allora oggi non avrei messo il milione di dollari nella scatola B, qualora nella simulazione tu avessi scelto di prendere solo la scatola B allora oggi avrei messo nella scatola B il milione di dollari."

In base a questa informazione la vostra scelta qualè?

Prendete entrambe le scatole o prendete solo la scatola B?

Okkio che la soluzione potrà sbalordirvi!"

OttoVon
15-10-2018, 13:31
Simulazione o no questa è la realtà ed è l'unica che abbiamo.

Quindi quasta teoria multiverso perde di significato, inoltre un'ipotetica simulazione terrebbe conto solo dei corpi celesti poichè già così dovrebbe lavorare all'infinito.
Se ti inquieta questo allora maglio non parlarti del basilisco di Roko...

I dollari in un futuro imprecisato li lascerei voletieri alla macchina, carta straccia? ma...
sarei stato lo stesso al gioco e avrei scelto solo la scatola B prima dell'ammonimento...
indispettito dal suo atteggiamento avrei fatto la scelta C: "girare i tacchi" mandando in crash la macchina.

wingman87
15-10-2018, 14:04
...

Prendete entrambe le scatole o prendete solo la scatola B?

Okkio che la soluzione potrà sbalordirvi!"
Interessante! Sostanzialmente si sta chiedendo se la mia scelta è un evento indipendente dalla simulazione o no.
Io le prenderei entrambe.
Sembra più un quesito di psicologia che di logica.

rigelpd
15-10-2018, 14:12
Interessante! Sostanzialmente si sta chiedendo se la mia scelta è un evento indipendente dalla simulazione o no.
Io le prenderei entrambe.
Sembra più un quesito di psicologia che di logica.

Sembra assurdo ma date le premesse del test scegliere di prendere entrambe le scatole è la risposta sbagliata... ;-)

giuliop
15-10-2018, 14:48
Sembra assurdo ma date le premesse del test scegliere di prendere entrambe le scatole è la risposta sbagliata... ;-)

Sinceramente non vedo niente di assurdo nella "soluzione": se diamo per buone le premesse del test, la simulazione è certa (ovvero ha probabilità 1) e il milione di dollari c'è solo se prendo la scatola B: ovviamente prenderò la B.

Il problema sono proprio le premesse: per essere certa la simulazione deve creare un paradosso, perché l'unico modo in cui possa sapere con certezza assoluta cosa sceglierò prima che io lo scelga devo avere già scelto, il che è ovviamente impossibile.

biometallo
15-10-2018, 14:54
Quello che riesce a fare questo robot è semplicemente pazzesco :eek: , se penso a quanto erano impacciati(e già allora sembrava un risultato notevolissmo) gli stessi robot neanche 5 anni fa, è stato fatto un balzo in avanti allucinante.

Dai che fra un po' di anni si comincia con la produzione in massa dei T800 e poi si comincia a far fuori un po' di umani :D

Scherzi a parte in effetti vedere come oggi questo robot riesca a saltellare manco fosse un ninja quando un po' di anni fa stentavano a camminare in posizione bipede è davvero impressionante.

popomer
15-10-2018, 15:06
CI UCCIDERANNO TUTTI

rigelpd
15-10-2018, 15:07
Sinceramente non vedo niente di assurdo nella "soluzione": se diamo per buone le premesse del test, la simulazione è certa (ovvero ha probabilità 1) e il milione di dollari c'è solo se prendo la scatola B: ovviamente prenderò la B.

Il problema sono proprio le premesse: per essere certa la simulazione deve creare un paradosso, perché l'unico modo in cui possa sapere con certezza assoluta cosa sceglierò prima che io lo scelga devo avere già scelto, il che è ovviamente impossibile.

In realtà io non vedo nessun paradosso nella simulazione. Il paradosso in questo indovinello esiste solo se vogliamo credere all'esistenza del libero arbitrio. Se accetti il fatto che il libero arbitrio non esiste e che quindi la tua scelta può essere prevista con una simulazione allora il paradosso non sussiste ed è normale accettare come giusta prendere solo la scatola B.

La verità è che si deve scegliere la risposta B perchè se effettivamente la superintelligenza ti ha simulato in maniera corretta (premessa dell'indovinello) allora non hai modo alcuno di sapere se sei te stesso reale o te stesso simulato. Anzi si potrebbe dire che sei entrambe le cose

Questo indovinello è visto come un paradosso da chi crede al libero arbitrio, ovvero all'impossibilità di prevedere con assoluta certezza la risposta che daremo al test. E' difficile con una tale premesse accettare che anche se i giochi sono stati fatti (la simulazione è stata fatta ieri) non c'è nessun vantaggio a scegliere di prendere entrambe le scatole e anzi facendo questa scelta si perde un milione di dollari con il 100% della probabilità.

giuliop
15-10-2018, 15:43
In realtà io non vedo nessun paradosso nella simulazione. Il paradosso in questo indovinello esiste solo se vogliamo credere all'esistenza del libero arbitrio.

Premesso che come indovinello, così per parlare e anche far pensare, mi sta benissimo.

Parlando però dal punto di vista puramente logico (formale), quel che dici sopra in realtà non è corretto. Quel che inganna è che il problema è esposto in modo discorsivo (e anche con un bel po' di errori grammaticali, ma sorvoliamo :asd:), ma se lo riconduci ad una - scusa il gioco di parole - "forma formale" (cosa che sinceramente ora ho poca voglia di fare... ;)), la facoltà di scegliere, e quindi il libero arbitrio, deve essere fra le premesse, altrimenti il problema non ha senso/non si pone.
Se introduci la possibilità che il libero arbitrio non esista allora il paradosso (contraddizione) si sposta nelle premesse, perché ti viene offerta una "scelta" ma non puoi "scegliere" (termini che non avrebbero significato).


La verità è che si deve scegliere la risposta B perchè se effettivamente la superintelligenza ti ha simulato in maniera corretta (premessa dell'indovinello) allora non hai modo alcuno di sapere se sei te stesso reale o te stesso simulato. Anzi si potrebbe dire che sei entrambe le cose

Queste possibilità sono all'esterno del dominio del problema, però. Se introduci delle regole esterne che possono cambiare le regole interne perdi la coerenza.

songohan
15-10-2018, 15:51
Se ti inquieta questo allora maglio non parlarti del basilisco di Roko...

una versione più mild è il paradosso di Newcomb di cui ho parlato un paio di anni fa in questo forum:

"Immaginate che in un futuro imprecisato ci sia una superintelligenza artificiale enormemente più evoluta di quella umana che vi pone davanti ad una scelta:

Ci sono due scatole, una trasparente (scatola A) e una opaca (scatola B), in quella trasparente ci sono (e si vedono) 1000 dollari mentre in quella opaca o è vuota o ha dentro 1 milione di dollari.

A questo punto la superintelligenza vi da due alternative:

1) prendere solo la scatola B

2) prendere la scatola A e la scatola B


In base a queste informazioni la scelta sarebbe ovvia ma la superintelligenza vi mette a conoscenza di un'altro elemento:

il giorno prima ha realizzato una simulazione incredibilmente accurata in cui ha simulato te che fai la scelta e ha potuto identificare senza possibilità di errore quale sarà la tua scelta. In pratica la macchina sa già con assoluta certezza cosa sceglierai.

inoltre la superintelligenza ti dice (fate attenzione perchè è un'pò complicato):

"non ti dico cosa hai scelto nella simulazione ma ti dico che qualora nella simulazione tu avessi scelto di prendere entrambe le scatole allora oggi non avrei messo il milione di dollari nella scatola B, qualora nella simulazione tu avessi scelto di prendere solo la scatola B allora oggi avrei messo nella scatola B il milione di dollari."

In base a questa informazione la vostra scelta qualè?

Prendete entrambe le scatole o prendete solo la scatola B?

Okkio che la soluzione potrà sbalordirvi!"

Ciao, si conosco.questo paradosso ma non capisco perchè parli di 'soluzione'. In realtà una soluzione non c'è perchè la tua scelta dipende da quanto ti fidi di questa super intelligenza. Ad ogni modo, messa così e fidandoti devi scegliere B. Altrimenti A + B.

rigelpd
15-10-2018, 16:02
Premesso che come indovinello, così per parlare e anche far pensare, mi sta benissimo.

Parlando però dal punto di vista puramente logico (formale), quel che dici sopra in realtà non è corretto. Quel che inganna è che il problema è esposto in modo discorsivo (e anche con un bel po' di errori grammaticali, ma sorvoliamo :asd:), ma se lo riconduci ad una - scusa il gioco di parole - "forma formale" (cosa che sinceramente ora ho poca voglia di fare... ;)), la facoltà di scegliere, e quindi il libero arbitrio, deve essere fra le premesse, altrimenti il problema non ha senso/non si pone.
Se introduci la possibilità che il libero arbitrio non esista allora il paradosso (contraddizione) si sposta nelle premesse, perché ti viene offerta una "scelta" ma non puoi "scegliere" (termini che non avrebbero significato).



Queste possibilità sono all'esterno del dominio del problema, però. Se introduci delle regole esterne che possono cambiare le regole interne perdi la coerenza.

Chiarisco:

Non è vero che in un mondo completamente deterministico non si possono fare scelte, noi facciamo scelte tutti i giorni. La sola cosa che cambia rispetto alla concezione canonica di libero arbitrio è che le nostre scelte sono prevedibili (in questo senso non c'è libero arbitrio). Accettando che le scelte sono prevedibili al cento per cento si arriva a quello che apparentemente è un paradosso: che il presente influenza il passato.

Infatti la logica normale ci direbbe di scegliere tutte e due le scatole perchè oramai i giochi sono stati fatti (le scatole sono li e la superintelligenza non può alterarne il contenuto adesso).

Per accettare che la scelta giusta sia prendere solo la scatola B dobbiamo accettare che una nostra scelta nel presente possa alterare un eventi avvenuto nel passato (la posa del contenuto nelle scatole da parte della superintelligenza).

Noi siamo portati a pensare che una scelta nel presente non alteri un evento nel passato ed è qui il paradosso.

La giusta spiegazione è che in realtà quando scegliamo di prendere la scatola B stiamo scegliendo sia nel passato che nel presente, perchè se la simulazione avviene con la giusta precisione non c'è differenza tra il noi stesso simulato ieri e il noi reale di oggi.

rigelpd
15-10-2018, 16:03
Ciao, si conosco.questo paradosso ma non capisco perchè parli di 'soluzione'. In realtà una soluzione non c'è perchè la tua scelta dipende da quanto ti fidi di questa super intelligenza. Ad ogni modo, messa così e fidandoti devi scegliere B. Altrimenti A + B.

Non esiste "quanto ti fidi" la premessa dell'indovinello è che la superintelligenza non faccia errori.

CYRANO
15-10-2018, 16:12
https://i.postimg.cc/PxSnDwpz/03-titolo-atlas-ufo-robot.jpg




Ckmsknsknskndlkn

calabar
15-10-2018, 16:23
Beh, per ora direi che siamo molto lontani dall'intelligenza artificiale, è già tanto se riesce un po' goffamente a camminare in modo simile al nostro.
Chiariamoci, è sicuramente un gran risultato, ma siamo su due ambiti molto distanti.

@rigelpd
Il discorso ha anche un'altra criticità: suppone che la persona, messa di fronte ad una scelta, scelga sempre allo stesso modo e che quindi basti simulare la persona in modo perfetto per ottenere il risultato corretto.
In realtà questa è una premessa opinabile, una persona potrebbe fare scelte differenti anche nelle stesse condizioni.
In aggiunta possono concorrere alla decisione anche altri fattori non prevedibili, poniamo per esempio che io decida tirando la moneta in tutti e due i casi (l'esito è imprevedibile anche simulando correttamente la persona), oppure qualsiasi inezia accaduta nel giorno che passa tra la simulazione e la scelta può far variare la nostra risposta. E anche se vogliamo galoppare con la fantasia e supporre che la macchina possa prevedere tutte queste cose, rimane l'opinabilità della premessa di cui sopra.

songohan
15-10-2018, 16:42
Non esiste "quanto ti fidi" la premessa dell'indovinello è che la superintelligenza non faccia errori.

Invece si.

rigelpd
15-10-2018, 17:45
Beh, per ora direi che siamo molto lontani dall'intelligenza artificiale, è già tanto se riesce un po' goffamente a camminare in modo simile al nostro.
Chiariamoci, è sicuramente un gran risultato, ma siamo su due ambiti molto distanti.

@rigelpd
Il discorso ha anche un'altra criticità: suppone che la persona, messa di fronte ad una scelta, scelga sempre allo stesso modo e che quindi basti simulare la persona in modo perfetto per ottenere il risultato corretto.
In realtà questa è una premessa opinabile, una persona potrebbe fare scelte differenti anche nelle stesse condizioni.
In aggiunta possono concorrere alla decisione anche altri fattori non prevedibili, poniamo per esempio che io decida tirando la moneta in tutti e due i casi (l'esito è imprevedibile anche simulando correttamente la persona), oppure qualsiasi inezia accaduta nel giorno che passa tra la simulazione e la scelta può far variare la nostra risposta. E anche se vogliamo galoppare con la fantasia e supporre che la macchina possa prevedere tutte queste cose, rimane l'opinabilità della premessa di cui sopra.

Quello che scrivi è contestabile. L'evidenza sperimentale dimostra che le decisioni che prendiamo tutti i giorni sono risultato della chimica del nostro organismo e degli stimoli che riceviamo dall'esterno, di conseguenza disponendo di un accurato modello delle condizioni iniziali è possibile prevedere qualunque scelta che facciamo. Anche quando pensiamo di tirare ad indovinare in realtà compiamo una scelta prevedibile. Se la superintelligenza simulasse noi e il nostro ambiente con sufficiente accuratezza potrebbe prevedere tutto. È solo una questione di capacità di calcolo

rigelpd
15-10-2018, 17:48
Non mi convince molto la tua spiegazione. Se ammettiamo un mondo perfettamente causale (ovvero senza considerare ad es. effetti quantistici o di meccanica statistica), allora non e' che nel paradosso chi viene chiamato a scegliere cambia il passato, ma la macchina cambia il futuro.

Cosi' come e possibile prevedere il moto di una palla che cade e fermarla preventivamente prima che tocchi il suolo, cosi' e' possibile in questo contesto prevedere cosa fara' una persona.

L'inghippo sta nel fatto che il computer cambia il sistema a posteriori della simulazione. E questo fa si che la predizione che il computer produce sia invalidata.

Di fatto, quello che sarebbe necessario, e' un computer che simula se stesso ad una velocita' maggiore di quella del 'computer simulato'. Questo di fatto e' impossibile.

Quindi la soluzione e' che un tale computer non puo' essere realizzato, e quindi le premesse sono errate.


Bellaz: tu cosa sceglieresti?

omerook
15-10-2018, 18:18
nel test mi sfugge il deterrente!
1000 dollari non cambiano la vita a nessuno un milione si, penso che nel dubbio prenderebbero tutti solo la scatola b....hai visto mai!:D
o mi è sfuggito qualcosa?

giuliop
15-10-2018, 18:21
L'evidenza sperimentale dimostra che le decisioni che prendiamo tutti i giorni sono risultato della chimica del nostro organismo e degli stimoli che riceviamo dall'esterno, di conseguenza disponendo di un accurato modello delle condizioni iniziali è possibile prevedere qualunque scelta che facciamo. Anche quando pensiamo di tirare ad indovinare in realtà compiamo una scelta prevedibile.

Scusa se mi intrometto. Non discuto il fatto che il nostro mondo possa essere deterministico o meno; se però le "scelte" sono perfettamente prevedibili non sono possono essere definite in alcun modo "scelte": in un mondo completamente deterministico non si ha alcuna scelta, ma solo l'illusione della possibilità di scegliere.

calabar
15-10-2018, 18:39
@rigelpd
Anche quella che esponi è una teoria e quindi contestabile. Non è detto che avendo identici fattori la scelta sia necessariamente la stessa. Pensa per esempio ai computer quantistici: stessi input ma output diversi, su base probabilistica. Questa certezza secondo me deriva dal vedere l'uomo troppo simile al classico computer, ma la realtà temo sia molto più complessa di così.
Certo, per poter dimostrare con certezza una teoria o l'altra dovremmo poter viaggiare nel tempo, ma a quel punto non ci serviranno più computer superpotenti che possano prevedere le scelte future! :p

biometallo
15-10-2018, 18:41
Tornando OT

In vero sarebbe il contrario: OT off topic cioè fuori argomento, tu invece sei tornati IT in Topic ovvero hai ricominciato a commentare la notizia.

Chiedo scusa per questa inutile parentesi ma a volte mi viene un po' la sindrome del maestrino, abbiate pietà per un povero malato di mente :D

Dunque a questo punto dico anch'io la mia su questo strano indovinello, partendo dal presupposto che la super intelligenza è troppo sgamata per poterla fregare sceglierei comunque entrambe le scatole, che in fondo una scatola vuota in più può servire a tante cose, e 1000 dollari sono sempre meglio che un calcio nel sedere.

Se però proprio volessi mettere alla prova questa super mega intelligenza penso che lancerei una moneta e sceglierei in base al risultato...

però in effetti io avrei alcuni dubbi:
Ma sta super intelligenza artificiale ce l'aveva davvero il milione di dollari?
E chi mi dice che invece non ce l'avrebbe messo in ogni caso?
Ma sopratutto su questa mega intelligenza della madonna capace di far ogni sorta di calcolo.....

Ci gira Crysis? :sofico:

songohan
15-10-2018, 18:46
nel test mi sfugge il deterrente!
1000 dollari non cambiano la vita a nessuno un milione si, penso che nel dubbio prenderebbero tutti solo la scatola b....hai visto mai!:D
o mi è sfuggito qualcosa?

Il problema è mal posto a mio avviso. Ovvio che, se credi alla superintelligenza, scegli b. Rischiare per avere solo 1000 euro in più non ne vale la pena. Il principio che usa questo paradosso è stato usato in un gioco tv che veniva trasmesso, se nom ricordo male, su Canale 5. Un concorrente doveva scegliere, ad eliminazione, tipo dodici scatole e ogni scatola rappresentava una regione italiana. La cosidetta commissione sapeva il contenuto di tutte le scatole, anche di quella che aveva il concorrente, e di volta proponeva a questi dei cambi in modo da minimizzare la perdita del banco ovvero la vincita del concorrente. Ora non mi ricordo il gioco in questione, se qualcuno ne ha idea...

rigelpd
15-10-2018, 18:48
nel test mi sfugge il deterrente!
1000 dollari non cambiano la vita a nessuno un milione si, penso che nel dubbio prenderebbero tutti solo la scatola b....hai visto mai!:D
o mi è sfuggito qualcosa?

Forse non hai capito che la scelta è una di queste due:

1) prendere solo la scatola b (quella che potrebbe avere il milione o niente)

2) prendere entrambe le scatole


tu cosa sceglieresti?

songohan
15-10-2018, 18:49
Scusa se mi intrometto. Non discuto il fatto che il nostro mondo possa essere deterministico o meno; se però le "scelte" sono perfettamente prevedibili non sono possono essere definite in alcun modo "scelte": in un mondo completamente deterministico non si ha alcuna scelta, ma solo l'illusione della possibilità di scegliere.

In realtà recenti studi confermano la meccanica quantistica una volta di più e la casualità di fondo di Madre Natura. Per ora, facciamocene una ragione.

songohan
15-10-2018, 18:49
Forse non hai capito che la scelta è una di queste due:

1) prendere solo la scatola b (quella che potrebbe avere il milione o niente)

2) prendere entrambe le scatole


tu cosa sceglieresti?

No. Se scegli solo B il milione è certo, è se le scegli entrambi che puoi avere 1000 dollari o 1.001000 dollari.
Se scegli solo A hai certi solo i 1000 dollari. Quindi le scelte sono

1. 1000 dollari certi
2. 1001000 dollari probabili
3. 1000000 dollari certi

Anche a me il deterrente sfugge.

rigelpd
15-10-2018, 18:54
Scusa se mi intrometto. Non discuto il fatto che il nostro mondo possa essere deterministico o meno; se però le "scelte" sono perfettamente prevedibili non sono possono essere definite in alcun modo "scelte": in un mondo completamente deterministico non si ha alcuna scelta, ma solo l'illusione della possibilità di scegliere.

Qui scendiamo nella filosofia, per come la vedo io entrambe le cose sono vere: noi facciamo una scelta & la scelta che facciamo è prevedibile. Questo perché noi siamo la chimica che ci descrive. Non c'è un'entità esterna al nostro corpo incatenata dalla chimica.

songohan
15-10-2018, 18:56
Qui scendiamo nella filosofia, per come la vedo io entrambe le cose sono vere: noi facciamo una scelta & la scelta che facciamo è prevedibile. Questo perché noi siamo la chimica che ci descrive. Non c'è un'entità esterna al nostro corpo incatenata dalla chimica.

Un gentiluomo direbbe 'Secondo la mia opinione' o 'Io credo che'. Nessuno ha la verità in mano qui.

rigelpd
15-10-2018, 19:08
No. Se scegli solo B il milione è certo, è se le scegli entrambi che puoi avere 1000 dollari o 1.001000 dollari.
Se scegli solo A hai certi solo i 1000 dollari. Quindi le scelte sono

1. 1000 dollari certi
2. 1001000 dollari probabili
3. 1000000 dollari certi

Anche a me il deterrente sfugge.

In realtà il caso 2 è impossibile. (Ricorsa che la superintelligenza non può sbagliare)

Scegliere solo la scatola b è la scelta giusta e sono d'accordo con te. Ma come la concili con la legge della causa-effetto? In genere la causa è successiva all'effetto. In questo caso invece la causa (la tua scelta) è successiva all'effetto (la superintelligenza mette i soldi nelle scatole prima di sottoporti alla domanda)

giuliop
15-10-2018, 19:14
In realtà recenti studi confermano la meccanica quantistica una volta di più e la casualità di fondo di Madre Natura. Per ora, facciamocene una ragione.

Va be', ma se c'è casualità, non c'è previdibilità assoluta: è una contraddizione in termini...

Qui scendiamo nella filosofia, per come la vedo io entrambe le cose sono vere: noi facciamo una scelta & la scelta che facciamo è prevedibile.

... e lo stesso vale per questo: se è perfettamente prevedibile è perché c'è perfetta causalità e quindi non si può definire una scelta; se è una scelta non c'è perfetta causalità e non può essere perfettamente prevedibile. Perché non sia così devi cambiare il significato delle parole, ma il concetto rimane lo stesso.

songohan
15-10-2018, 19:16
Va be', ma se c'è casualità, non c'è previdibilità assoluta: è una contraddizione in termini...

Non ho capito. Dove sta la contraddizione?

songohan
15-10-2018, 19:21
In realtà il caso 2 è impossibile. (Ricorsa che la superintelligenza non può sbagliare)

Scegliere solo la scatola b è la scelta giusta e sono d'accordo con te. Ma come la concili con la legge della causa-effetto? In genere la causa è successiva all'effetto. In questo caso invece la causa (la tua scelta) è successiva all'effetto (la superintelligenza mette i soldi nelle scatole prima di sottoporti alla domanda)

No, aspetta.
Il caso 2 é possibile qualora questa ipotetica superintelligenza non stia dicendo tutta la veritá o non sia infallibile. C'é uno studio online che la definisce oracolo, ad esempio, e che approfondisce varie ipotesi tra cui, appunto, questa.
Nel caso questa superintelligenza stesse dicendo l'assoluta veritá, sia infallibile e tu le creda, la scelta numero tre é ovvia quindi non esisterebbe alcun paradosso. Per quanto riguarda la legge della causa-effetto, bene: questo paradosso viola l'indeterminismo intrinseco in Madre Natura e quindi, beh, la fisica lasciamola da parte :)
Insomma questo paradosso non é affatto un paradosso perché si presta a troppe interpretazioni e nessuno ha la veritá in mano quindi ogni interpretazione/risposta é possibile/corretta. Tranne A, ovviamente :)

rigelpd
15-10-2018, 19:31
No, aspetta.
Il caso 2 é possibile qualora questa ipotetica superintelligenza non stia dicendo tutta la veritá o non sia infallibile. C'é uno studio online che la definisce oracolo, ad esempio, e che approfondisce varie ipotesi tra cui, appunto, questa.
Nel caso questa superintelligenza stesse dicendo l'assoluta veritá, sia infallibile e tu le creda, la scelta numero tre é ovvia quindi non esisterebbe alcun paradosso. Per quanto riguarda la legge della causa-effetto, bene: questo paradosso viola l'indeterminismo intrinseco in Madre Natura e quindi, beh, la fisica lasciamola da parte :)
Insomma questo paradosso non é affatto un paradosso perché si presta a troppe interpretazioni e nessuno ha la veritá in mano quindi ogni interpretazione/risposta é possibile/corretta. Tranne A, ovviamente :)

Questo solo se l'indeterminismo quantistico influenza le nostre scelte ma non è affatto detto.

songohan
15-10-2018, 19:33
Questo solo se l'indeterminismo quantistico influenza le nostre scelte ma non è affatto detto.

Appunto. Quindi niente paradosso e datemi il milione di dollari.

biometallo
15-10-2018, 19:47
Non è questione di scegliere. Il quesito si basa su premesse sbagliate, ovvero che un tale computer sia realizzabile.

Esatto, quello di cui stiamo discutendo è una teoria indimostrabile, un atto di fede verso il dio della scienza.

@biometallo.

Ovviamente era una svista..
Certo, non prendere quell'intervento troppo seriamente (fra l'altro la I e la O sono anche adiacenti sulla tastiera) anzi a pensarci bene non so perché l'ho scritto in quel modo, forse solo dio... ehm volevo dire la super intelligenza artificiale che tutto sa e tutto prevede, potrebbe spiegarcelo.

Non ho capito. Dove sta la contraddizione?
Semplicemente se una cosa è calcolabile allora non è più casuale, di fatto una super intelligenza capace di calcolare tutto l'universo, e quindi anche se stessa (di fatto impossibile) annullerebbe ogni tipo di casualità.

calabar
15-10-2018, 20:06
Ma come la concili con la legge della causa-effetto?
Non è mica tutto sto grande dilemma! I giocatori di morra cinese lo affrontano di continuo. L'unica differenza è che qui sta intelligenza artificiale ci azzecca di più! ;)

giuliop
15-10-2018, 20:10
Non ho capito. Dove sta la contraddizione?

Mi riferivo a quello a cui avevo risposto... ma forse tu prima non stavi rispondendo a me?

Altrimenti vedi la risposta di biometallo.

songohan
15-10-2018, 20:11
Mi riferivo a quello a cui avevo risposto... ma forse tu prima non stavi rispondendo a me?

Altrimenti vedi la risposta di biometallo.

L'indeterminazione all'opera :)
Ora sto mettendo a dormire mio figlio e non sono in grado di determinare a chi stavo a riapondere. Buona notte :)

giuliop
15-10-2018, 20:14
L'indeterminazione all'opera :)
Ora sto mettendo a dormire mio figlio e non sono in grado di determinare a chi stavo a riapondere. Buona notte :)

:asd: ;)

GTKM
15-10-2018, 21:38
Ma una sana sco*ata no?

Comunque è palese che se non metteremo dei paletti un giorno piangeremo, e molto.

s-y
15-10-2018, 22:07
piuttosto occhio che i paletti di cui sopra non entrino nel principio deterministico (detto anche ano) dell'essere umano (per fare rima)

rigelpd
15-10-2018, 22:26
Semplicemente se una cosa è calcolabile allora non è più casuale, di fatto una super intelligenza capace di calcolare tutto l'universo, e quindi anche se stessa (di fatto impossibile) annullerebbe ogni tipo di casualità.

Il fatto che qualcosa sia computabile è la prova migliore che sia causale. Forse tu confondi causale con casuale.

Zenida
15-10-2018, 23:21
Questo topic rischia di diventare il più grande OT di HWU :sofico:

Mi butto anch'io...

Vorrei schematizzare i concetti per fare ordine:

1) è un gioco, quindi nessun parallelismo con la realtà (al momento)
2) la macchina non sbaglia mai e ha sempre ragione
3) che io sia la simulazione o meno non fa differenza, quello che conta è il punto 4
4) Se la macchina prevede correttamente sempre tutto al 100% allora la scelta che farò adesso sarà anche la scelta che avrò fatto in passato, altrimenti questo invaliderà la tesi di certezza assoluta della previsione.

5) dato il punto 4, che è la chiave del problema, non posso che scegliere solo la scatola B, perchè facendolo adesso non potrò che confermare la previsione. NON POSSO SMENTIRLA SENZA INVALIDARE I PRESUPPOSTI.

Insomma, questo gioco così è forse fin troppo semplice, ma si potrebbe complicare giusto un pochino:


Non ti dico cosa hai scelto nella simulazione ma ti dico che qualora nella simulazione tu avessi scelto di prendere entrambe le scatole allora oggi non avrei messo il milione di dollari nella scatola B, qualora nella simulazione tu avessi scelto di prendere solo la scatola B allora oggi avrei messo nella scatola B il milione di dollari. Ma quello che ti ho appena detto è un'informazione che nella simulazione non ti ho dato.

Ora cosa scegli?

OttoVon
16-10-2018, 00:34
Limitare le scelte ad A e B, senza esserne costretti, non ha senso.
Cosa impedisce all'individuo di usare la casualità e scegliere tra infinite scelte, previste e quindi possibili?

Se la macchina fosse infallibile A+B non avrebbe senso.
Quindi, date le premesse, è errato aggiungere la possibilità "1'001'000".
Questo perché renderebbe possibili n scelte, previste e non previste, mai comunicate dalla macchina.

Questo più che un paradosso alla "Scienziato pazzo" o "Gatto nella scatola" è più un test psicologico.
Sarebbe interessante sostituire i soldi con qualcosa che possa veramente aver valore...
A -"la macchina si distrugge".
B- "sostituisci la macchina, conoscerai tutto lo scibile e potrai prevedere il futuro".

Vuoi veramente conoscere tutto, perdendo la tua umanità? Dollari pff.
Se sono miliardario che ci faccio con il tuo sporco milione di una fiat del futuro passato?
Come insegna Wargames, l'unico modo per vincere è non giocare.


In rete ci sono svariate versioni, alcune delle quali prevedono un margine di errore "irrilevante", ma significativo ai fini della scelta.
Non lo trovo in ogni caso un paradosso, solo imprecisioni nella descizione e le scelte individuali di ognuno di noi possono creare degli errori.


ps. detto questo, rigiochiamo... dopo quella frase una persona si cruccerebbe a pensare quale scelta possa aver fatto.
Non essendo la macchina non può prevederlo, quindi, morirà nel tentativo di poter prevedere la scelta che non farà mai. Questo è IL paradosso. Il resto sono seghe. :D

"La risposta potrebbe sorprenderti", certo nessuno pensa al dilemma della scelta. Scegliere non è il modo giusto per interpretare il quesito posto.

GTKM
16-10-2018, 06:33
Il problema del giochino "logico" è che si dà per scontato che uno possa scegliere solo tra A e B. Io me ne fregherei e sceglierei l'opzione C, ossia: non voglio nessuna delle due scatole. :)

crazy4play
16-10-2018, 07:45
Se ti inquieta questo allora maglio non parlarti del basilisco di Roko...

una versione più mild è il paradosso di Newcomb di cui ho parlato un paio di anni fa in questo forum:

"Immaginate che in un futuro imprecisato ci sia una superintelligenza artificiale enormemente più evoluta di quella umana che vi pone davanti ad una scelta:

Ci sono due scatole, una trasparente (scatola A) e una opaca (scatola B), in quella trasparente ci sono (e si vedono) 1000 dollari mentre in quella opaca o è vuota o ha dentro 1 milione di dollari.

A questo punto la superintelligenza vi da due alternative:

1) prendere solo la scatola B

2) prendere la scatola A e la scatola B


In base a queste informazioni la scelta sarebbe ovvia ma la superintelligenza vi mette a conoscenza di un'altro elemento:

il giorno prima ha realizzato una simulazione incredibilmente accurata in cui ha simulato te che fai la scelta e ha potuto identificare senza possibilità di errore quale sarà la tua scelta. In pratica la macchina sa già con assoluta certezza cosa sceglierai.

inoltre la superintelligenza ti dice (fate attenzione perchè è un'pò complicato):

"non ti dico cosa hai scelto nella simulazione ma ti dico che qualora nella simulazione tu avessi scelto di prendere entrambe le scatole allora oggi non avrei messo il milione di dollari nella scatola B, qualora nella simulazione tu avessi scelto di prendere solo la scatola B allora oggi avrei messo nella scatola B il milione di dollari."

In base a questa informazione la vostra scelta qualè?

Prendete entrambe le scatole o prendete solo la scatola B?

Okkio che la soluzione potrà sbalordirvi!"

Sarà che non sono psicologo, ma non c'ho capito una mazza di questo test.
La risposta mi sembra ovvia: visto che un'opzione è la possibilità di prenderle entrambe, ovvio che le prendo entrambe. Qualsiasi cosa ci sia dentro, prendendole entrambe ottengo il massimo.
La simulazione è soltanto una simulazione... ma mi sta suggerendo di prendere solo la B.

rigelpd
16-10-2018, 08:00
Sarà che non sono psicologo, ma non c'ho capito una mazza di questo test.
La risposta mi sembra ovvia: visto che un'opzione è la possibilità di prenderle entrambe, ovvio che le prendo entrambe. Qualsiasi cosa ci sia dentro, prendendole entrambe ottengo il massimo. Sfido chiunque a dimostrarmi il contrario.

La premessa è che la superintelligenza non sbaglia mai. qualunque scelta tu farai (prendere solo la scatola opaca o prendere entrambe le scatole) lei la ha prevista. Lei sa quale scelta farai. Ha fatto una simulazione ieri e ha visto quello che tu sceglierai, subito dopo ha preparato le scatole.

Ora siamo al giorno dopo, tu devi scegliere se prendere la scatola opaca o prendere tutte e due le scatole. Quali sono le possibilità?

queste sono le cose che possono avenire:

1) prendi la scatola opaca e vinci sicuramente il milione (perchè la superintelligenza lo ha previsto e ti ha messo i soldi dentro

2) prendi entrambe le scatole e vinci solo 1000 dollari perchè la superintelligenza l'aveva previsto e non ha messo il milione nella scatola opaca.

queste sono le cose che non possono avvenire:

-scegli la scatola opaca e non vinci il milione
-scegli di prendere entrambe le scatole e vinci un milione e 1000 dollari.

non possono avvenire perchè implicherebbero che la superintelligenza possa sbagliare a prevedere la tua scelta, ma l'infallibilità della superintelligenza è la premessa dell'indovinello


Insomma l'unica scelta vincente è scegliere di pendere la scatola opaca, in tal modo si ha il 100% di probabilità di vincere il milione. Invece scegliendo di prendere entrambe le scatole si ha il 100% di possibilità di vincere solo 1000 euro.

Il paradosso stà proprio nell'apparente violazione del principio di causa effetto. Sembra che la causa (la nostra scelta) sia successiva all'effetto (la decisione della superintelligenza di mettere o no i soldi nella scatola).

marcram
16-10-2018, 08:45
Secondo me, il tutto si riduce a due casi:
-o si tratta di un universo completamente deterministico e perfettamente simulabile, nel qual caso non devo struggermi a scegliere, perché la mia scelta era già scritta fin dal Big Bang (o qualsiasi cosa sia avvenuta a quei tempi...)
-o aggiungiamo una componente casuale, nel qual caso la simulazione non potrebbe essere certa e quindi meglio prendere A+B e prendere tutto ciò che c'è.

Se però prendiamo per vero che la simulazione sia 100% affidabile e infallibile, allora rimane solo il primo caso. In questo caso la domanda non ha senso, perché la superintelligenza avrà già stabilito che premio darti (potrebbe dirti "ciò, tien qua").
Il tutto si ridurrebbe quindi al gioco paradossale di chiedere ad un altro cosa farebbe lui in se gli si presentasse questa possibilità, sapendo però che non ha scelta alcuna.

Fharenheit
16-10-2018, 09:12
Se ti inquieta questo allora maglio non parlarti del basilisco di Roko...

una versione più mild è il paradosso di Newcomb di cui ho parlato un paio di anni fa in questo forum:

"Immaginate che in un futuro imprecisato ci sia una superintelligenza artificiale enormemente più evoluta di quella umana che vi pone davanti ad una scelta:

Ci sono due scatole, una trasparente (scatola A) e una opaca (scatola B), in quella trasparente ci sono (e si vedono) 1000 dollari mentre in quella opaca o è vuota o ha dentro 1 milione di dollari.

A questo punto la superintelligenza vi da due alternative:

1) prendere solo la scatola B

2) prendere la scatola A e la scatola B


In base a queste informazioni la scelta sarebbe ovvia ma la superintelligenza vi mette a conoscenza di un'altro elemento:

il giorno prima ha realizzato una simulazione incredibilmente accurata in cui ha simulato te che fai la scelta e ha potuto identificare senza possibilità di errore quale sarà la tua scelta. In pratica la macchina sa già con assoluta certezza cosa sceglierai.

inoltre la superintelligenza ti dice (fate attenzione perchè è un'pò complicato):

"non ti dico cosa hai scelto nella simulazione ma ti dico che qualora nella simulazione tu avessi scelto di prendere entrambe le scatole allora oggi non avrei messo il milione di dollari nella scatola B, qualora nella simulazione tu avessi scelto di prendere solo la scatola B allora oggi avrei messo nella scatola B il milione di dollari."

In base a questa informazione la vostra scelta qualè?

Prendete entrambe le scatole o prendete solo la scatola B?

Okkio che la soluzione potrà sbalordirvi!"

senza leggere le altre risposte sceglierei di non fare nulla, per il semplice fatto che la super intelligenza non mi ha dato la possibilità di prendere solamente la scatola A senza la B, nella scatola B non c'è niente ed è vuota,
la super intelligenza sta mentendo e non ha messo e ne l'avrebbe mai fatto un milione nella scatola B, il suo tranello serve solamente a confondermi e depistarmi facendomi scegliere solamente la scatola B, lasciandomi di fatto niente in mano.
il quesito avrebbe avuto senso se c'era anche l'opzione C, cioè poter prendere solamente la scatola A.

Fharenheit
16-10-2018, 09:29
In vero sarebbe il contrario: OT off topic cioè fuori argomento, tu invece sei tornati IT in Topic ovvero hai ricominciato a commentare la notizia.

Chiedo scusa per questa inutile parentesi ma a volte mi viene un po' la sindrome del maestrino, abbiate pietà per un povero malato di mente :D

Dunque a questo punto dico anch'io la mia su questo strano indovinello, partendo dal presupposto che la super intelligenza è troppo sgamata per poterla fregare sceglierei comunque entrambe le scatole, che in fondo una scatola vuota in più può servire a tante cose, e 1000 dollari sono sempre meglio che un calcio nel sedere.

Se però proprio volessi mettere alla prova questa super mega intelligenza penso che lancerei una moneta e sceglierei in base al risultato...

però in effetti io avrei alcuni dubbi:
Ma sta super intelligenza artificiale ce l'aveva davvero il milione di dollari?
E chi mi dice che invece non ce l'avrebbe messo in ogni caso?
Ma sopratutto su questa mega intelligenza della madonna capace di far ogni sorta di calcolo.....

Ci gira Crysis? :sofico:

la super intelligenza ti prende solo in giro, nelle due scatole non c'è niente, altrimenti non ti darebbe solamente l'opzione di scegliere tutte e due le scatole oppure solamente la B e non la A.
super intelligenza ha commesso degli errori, per via che il quesito fosse perfetto avrebbe dovuto mettere anche la terza opzione, cioè poter scegliere solamente una delle due scatole in questo caso l'inganno sarebbe stato perfetto, ma la scelta però imprevedibile e impossibile da determinare, se non probabilisticamente.
se il nostro universo è simulato non lo è in modo deterministico e ne lo sarà mai.

Fharenheit
16-10-2018, 09:31
Forse non hai capito che la scelta è una di queste due:

1) prendere solo la scatola b (quella che potrebbe avere il milione o niente)

2) prendere entrambe le scatole


tu cosa sceglieresti?

NIENTE entrambe le scatole sono VUOTE!:D

Avatar0
16-10-2018, 09:41
Dettò ciò, se l' IA volesse potrebbe ingannarci il 100% delle volte a patto di non sapere cosa stia succedendo o non scoprirlo in altri modi.
Avendo infatti un tempo di elaborazione talmente più veloce rispetto ai nostri standard temporali, sarebbe possibile effettuare tutti i calcoli in realtime, immagino una rete di sensori invisibili in grado di analizzare tutto, anche il più piccolo passaggio elettrico tra neuroni oltre che l' ambiente circostante, fino all' istante x-1 prima della scelta.
A decisione(definitiva) già presa e prima di pronunciarla sostituire il contenuto della scatola istantaneamente(un assegno che si compila da solo) e così ingannare il tizio facendogli credere di aver previsto già tutto.
Questa è l' unico scenario possibile nella realtà.

Peraltro, ammesso il caso che l' ia sappia della scelta senza imbrogliare, la scelta logica sarebbe comunque di prenderle entrambe. Se tutto è già potenzialmente avvenuto prima e la nostra prima scelta condiziona la seconda nessuno sceglierebbe l' opzione b la prima volta perché in quella prima volta è sicuro che il contenuto delle scatole è già deciso.
Infatti la formulazione di rigelpd non è proprio corretta e non rispecchia il paradosso come formulato in origine.

Anche se prendiamo in considerazione la versione corretta e tutte le sue varianti è sempre un paradosso insensato e irrealizzabile. Sarebbe possibile solo se esistesse il viaggio nel passato e se il susseguirsi degli eventi fino all' istante prima della scelta rimanesse totalmente immutato, e in quel caso la scelta sarebbe ovviamente la b.A queste condizioni non esiste paradosso. Ma che vuoi che sia abbiamo solo dovuto inventare da capo la concezione dell' universo e le leggi della fisica :D

biometallo
16-10-2018, 09:59
Il fatto che qualcosa sia computabile è la prova migliore che sia causale. Forse tu confondi causale con casuale.

Ti sei perso un pezzo del discorso, cosa comunque comprensibile visto che ad un certo punto è diventato piuttosto ingarbugliato, lì si stava discutendo proprio di casualità e non di causalità, insomma per quanto io stesso stento a crederci, stavolta non sono io ad aver fatto confusione. :D

E' un paradosso insensato e irrealizzabile.

Eh! piano con le parole, qui si parla di Newcomb mia di bau bau micio micio...
Dunque questo è un paradosso basato sulla teoria dei giochi, e cosa fai quando non riesci ad avanzare in un gioco?
Vai a cercare la pagina con la soluzione, semplice :sofico:

https://nientestronzate.wordpress.com/2009/07/13/libero-arbitrio-e-paradosso-di-newcomb/


http://tamburoriparato.blogspot.com/2013/10/il-paradosso-di-newcomb.html

Fharenheit
16-10-2018, 10:37
La premessa è che la superintelligenza non sbaglia mai. qualunque scelta tu farai (prendere solo la scatola opaca o prendere entrambe le scatole) lei la ha prevista. Lei sa quale scelta farai. Ha fatto una simulazione ieri e ha visto quello che tu sceglierai, subito dopo ha preparato le scatole.

Ora siamo al giorno dopo, tu devi scegliere se prendere la scatola opaca o prendere tutte e due le scatole. Quali sono le possibilità?

queste sono le cose che possono avenire:

1) prendi la scatola opaca e vinci sicuramente il milione (perchè la superintelligenza lo ha previsto e ti ha messo i soldi dentro

2) prendi entrambe le scatole e vinci solo 1000 dollari perchè la superintelligenza l'aveva previsto e non ha messo il milione nella scatola opaca.

queste sono le cose che non possono avvenire:

-scegli la scatola opaca e non vinci il milione
-scegli di prendere entrambe le scatole e vinci un milione e 1000 dollari.

non possono avvenire perchè implicherebbero che la superintelligenza possa sbagliare a prevedere la tua scelta, ma l'infallibilità della superintelligenza è la premessa dell'indovinello


Insomma l'unica scelta vincente è scegliere di pendere la scatola opaca, in tal modo si ha il 100% di probabilità di vincere il milione. Invece scegliendo di prendere entrambe le scatole si ha il 100% di possibilità di vincere solo 1000 euro.

Il paradosso stà proprio nell'apparente violazione del principio di causa effetto. Sembra che la causa (la nostra scelta) sia successiva all'effetto (la decisione della superintelligenza di mettere o no i soldi nella scatola).

se è davvero una super intelligenza l'unica opzione che potrebbe avere simulato di una mia scelta è molto probabilisticamente parlando.

Il problema del giochino "logico" è che si dà per scontato che uno possa scegliere solo tra A e B. Io me ne fregherei e sceglierei l'opzione C, ossia: non voglio nessuna delle due scatole. :)

Fharenheit
16-10-2018, 10:45
Secondo me, il tutto si riduce a due casi:
-o si tratta di un universo completamente deterministico e perfettamente simulabile, nel qual caso non devo struggermi a scegliere, perché la mia scelta era già scritta fin dal Big Bang (o qualsiasi cosa sia avvenuta a quei tempi...)
-o aggiungiamo una componente casuale, nel qual caso la simulazione non potrebbe essere certa e quindi meglio prendere A+B e prendere tutto ciò che c'è.

Se però prendiamo per vero che la simulazione sia 100% affidabile e infallibile, allora rimane solo il primo caso. In questo caso la domanda non ha senso, perché la superintelligenza avrà già stabilito che premio darti (potrebbe dirti "ciò, tien qua").
Il tutto si ridurrebbe quindi al gioco paradossale di chiedere ad un altro cosa farebbe lui in se gli si presentasse questa possibilità, sapendo però che non ha scelta alcuna.

la superintelligenza ha creato un impasse logico senza vie di uscita, perchè
sa che non prenderemmo mai solamente la scatola B potendo accadere che potrebbe essere vuota, ma nemmeno che prendiamo entrambe le scatole e in tal caso perderemmo il milione accontentandosi del solo misero premio in confronto all'altro. la superintelligenza ha creato i presupposti in cui l'unica scelta a nostra disposizione sarebbe di non scegliere e rinunciare a entrambi i premi.

rigelpd
16-10-2018, 11:12
Secondo me, il tutto si riduce a due casi:
-o si tratta di un universo completamente deterministico e perfettamente simulabile, nel qual caso non devo struggermi a scegliere, perché la mia scelta era già scritta fin dal Big Bang (o qualsiasi cosa sia avvenuta a quei tempi...)
-o aggiungiamo una componente casuale, nel qual caso la simulazione non potrebbe essere certa e quindi meglio prendere A+B e prendere tutto ciò che c'è.

Se però prendiamo per vero che la simulazione sia 100% affidabile e infallibile, allora rimane solo il primo caso. In questo caso la domanda non ha senso, perché la superintelligenza avrà già stabilito che premio darti (potrebbe dirti "ciò, tien qua").
Il tutto si ridurrebbe quindi al gioco paradossale di chiedere ad un altro cosa farebbe lui in se gli si presentasse questa possibilità, sapendo però che non ha scelta alcuna.

Non è detto che sia necessaria l'esistenza di un universo completamente deterministico perchè la risposta giusta sia scegliere la scatola opaca. Cioè è vero che una simulazione accurata al 100% la si ha solo se l'universo è deterministico ma in questo caso particolare non è affatto detto che l'indeterminazione quantistica influenzi i nostri pensieri, questo è ancora argomento di dibattito.

rigelpd
16-10-2018, 11:15
senza leggere le altre risposte sceglierei di non fare nulla, per il semplice fatto che la super intelligenza non mi ha dato la possibilità di prendere solamente la scatola A senza la B, nella scatola B non c'è niente ed è vuota,
la super intelligenza sta mentendo e non ha messo e ne l'avrebbe mai fatto un milione nella scatola B, il suo tranello serve solamente a confondermi e depistarmi facendomi scegliere solamente la scatola B, lasciandomi di fatto niente in mano.
il quesito avrebbe avuto senso se c'era anche l'opzione C, cioè poter prendere solamente la scatola A.

Non è previsto nell'indovinello il fatto che la superintelligenza possa mentire. Non l'ho specificato ma è così, consideralo come una delle basi dell'indovinello: in questo indovinello la superintelligenza non stà mentendo ne ti vuole trarre in inganno.

rigelpd
16-10-2018, 11:20
la superintelligenza ha creato un impasse logico senza vie di uscita, perchè
sa che non prenderemmo mai solamente la scatola B potendo accadere che potrebbe essere vuota, ma nemmeno che prendiamo entrambe le scatole e in tal caso perderemmo il milione accontentandosi del solo misero premio in confronto all'altro. la superintelligenza ha creato i presupposti in cui l'unica scelta a nostra disposizione sarebbe di non scegliere e rinunciare a entrambi i premi.

non c'è nessuna impasse, tu dici che prenderesti entrambe le scatole. Io invece sceglierei di prendere solo quella opaca. La aprirei e vincerei il milione. Questo esito, dato per assodato che la superintelligenza sia in grado di prevedere con certezza la mia risposta, può avvenire realmente.

L'impasse logico è solo nella nostra testa, perchè noi crediamo di avere libero arbitrio e che le nostre scelte sono completamente slegate dall'universo fisico, in realtà la nostra scelta è prevedibile come la direzione di una palla da biliardo colpita da una stecca.

wingman87
16-10-2018, 11:22
Non penso si possa parlare di scelta giusta o sbagliata ed è per questo che secondo me somiglia di più a un test psicologico.

Se si suppone che prendere solo la scatola B sia la scelta giusta in realtà si sta commettendo un errore logico: non sto effettuando alcuna scelta perché in realtà mi sto comportando esattamente come era stato simulato. Quindi come può considerarsi la mia scelta "giusta" o "sbagliata"? Non è una scelta, l'aggettivo è superfluo.

Viceversa... tutto ciò che è già stato detto...

Non c'è una scelta giusta, per questo è un paradosso.

rigelpd
16-10-2018, 11:46
Non penso si possa parlare di scelta giusta o sbagliata ed è per questo che secondo me somiglia di più a un test psicologico.

Se si suppone che prendere solo la scatola B sia la scelta giusta in realtà si sta commettendo un errore logico: non sto effettuando alcuna scelta perché in realtà mi sto comportando esattamente come era stato simulato. Quindi come può considerarsi la mia scelta "giusta" o "sbagliata"? Non è una scelta, l'aggettivo è superfluo.

Viceversa... tutto ciò che è già stato detto...

Non c'è una scelta giusta, per questo è un paradosso.

Anche se scegli di prendere entrambe le scatole stai facendo una scelta che è già stata simulata.

È un paradosso solo se credi al libero arbitrio. Se invece accetti che qualunque scelta tu faccia possa essere predetta allora non c'è nessuna violazione del principio di causa effetto.

wingman87
16-10-2018, 11:48
Sì se supponi che sia già stato tutto deciso.

rigelpd
16-10-2018, 12:24
Sì se supponi che sia già stato tutto deciso.

Se la causa della mia scelta è imputabile alla chimica del mio cervello sottoposto a stimoli sensoriali che sono a loro volta causati dalla fisica dell'universo allora tutti gli effetti sono preceduti da una causa.

Anche la simulazione fatta dalla superintelligenza prevede il futuro sfruttando le leggi classiche nelle quali la causa precede l'effetto. Noi recitiamo un copione già scritto e il fatto di non rendercene conto ci fa sembrare che la nostra scelta alteri i l passato, ma non è così.

s-y
16-10-2018, 12:42
detta in altri termini, siamo solo piccoli stronzi
me l'avevano insegnato al bar (in senso buono, intendo)

giuliop
16-10-2018, 13:36
Non penso si possa parlare di scelta giusta o sbagliata ed è per questo che secondo me somiglia di più a un test psicologico.

Se si suppone che prendere solo la scatola B sia la scelta giusta in realtà si sta commettendo un errore logico: non sto effettuando alcuna scelta perché in realtà mi sto comportando esattamente come era stato simulato. Quindi come può considerarsi la mia scelta "giusta" o "sbagliata"? Non è una scelta, l'aggettivo è superfluo.

Però questo varrebbe per ogni "scelta", non solo la "B".

Il discorso è che l'indovinello ha delle premesse, fra cui il libero arbitrio (altrimenti, come giustamente dici, non è possibile fare "scelte" e il problema decade) e il fatto che la macchina possa prevedere la tua scelta senza alcun dubbio: con queste premesse effettui la tua scelta.
Fra l'altro altre ipotesi, tipo l'AI che mente, la scelta di non prendere alcuna scatola, etc., non fanno parte delle premesse, quindi non ha senso prenderle in considerazione.

Il problema è la possiblità di prevedere senza ombra di dubbio la mia scelta, perché l'unico modo per farlo è aver già visto la mia scelta (quindi sostanzialmente il solito paradosso dei viaggi nel tempo). Se la premessa fosse che l'AI prevede correttamente al 99,9999% non ci sarebbe paradosso: per esempio, se l'AI sa che a me la trippa provoca i conati e invece sono ghiotto di cioccolato, potrebbe pormi la scelta fra l'una e l'altro, e avere una probabilità molto vicina al 100% che io scelga il cioccolato: ma se io ho la possibilità di scegliere (che ripeto, è una premessa) mai il 100%.

giuliop
16-10-2018, 13:47
Anche se scegli di prendere entrambe le scatole stai facendo una scelta che è già stata simulata.

È un paradosso solo se credi al libero arbitrio. Se invece accetti che qualunque scelta tu faccia possa essere predetta allora non c'è nessuna violazione del principio di causa effetto.

Scusa se lo ripeto, ma il libero arbitrio è una premessa implicita in questo indovinello, e non puoi metterlo in discussione.

Sarebbe come se ti ponessi un problema tipo:
- Per percorrere 100 metri devo camminare 1 minuto
- Cammino 10 minuti
Quanti metri ho percorso?

E quando mi rispondi "1000" io ti dicessi, "sì, ma solo se puoi camminare": che tu possa camminare è implicito, altrimenti il problema non ha senso/non si pone.

Fra l'altro come dicevo sopra "accetti che qualunque scelta tu faccia possa essere predetta" è una contraddizione in termini, perché una scelta presuppone un fattore non perfettamente prevedibile. È come dire "questo cerchio è quadrato": non ha senso dire che lo accetti.

Grayskull
16-10-2018, 14:24
quello che molti non hanno capito è che l'IA ha già simulato il giorno prima tutti i ragionamenti mentali che porteranno ognuno di noi alla scelta che compiremo...

se il mio ragionamento è qualcosa tipo: "prendo entrambe le scatole perchè ormai l'IA ha deciso se mettere il milione o meno, quindi se prendo entrambe le scatole male che vada avrò solo 1000€, ma se mi va bene avrò 1.001.000€"... errato!, perchè l'IA ha già previsto che avremmo fatto questo ragionamento e quindi non avrà messo il milione nella scatola b.

quindi per essere sicuri di avere il milione l'unico modo è scegliere la scatola b, perchè l'IA il giorno prima ha già previsto che l'avremmo scelta e quindi avrà messo il milione..

ma, ovviamente per poter prevedere tutti i ragionamenti che avvengono nel nostro cervello questa IA deve conoscerci meglio di quanto noi conosciamo noi stessi, deve conoscere tutta la nostra storia (ogni istante della nostra vita), il nostro carattere, e tutti i pensieri che abbiamo fatto nella nostra vita e quelli che facciamo in tempo reale.... in pratica deve essere onniscente, e a questo punto più che una IA sarebbe una sorta di divinità...

s-y
16-10-2018, 14:30
e Uno disse: sia fatta la luce

ps: 'sto thread è a metà tra l'assurdo e lo stimolante

Avatar0
16-10-2018, 14:36
Eh! piano con le parole, qui si parla di Newcomb mia di bau bau micio micio...
Dunque questo è un paradosso basato sulla teoria dei giochi, e cosa fai quando non riesci ad avanzare in un gioco?
Vai a cercare la pagina con la soluzione, semplice :sofico:

https://nientestronzate.wordpress.com/2009/07/13/libero-arbitrio-e-paradosso-di-newcomb/


http://tamburoriparato.blogspot.com/2013/10/il-paradosso-di-newcomb.html

Vedo che il primo link nel caso del libero arbitrio/predizione praticamente dice quello che dico io. Che non esiste predizione al 100% ma solo al 99,9% periodico in uno scenario ideale, che prevede che la macchina abbia tempi di decisione molto più rapidi dei nostri e abbia accesso a tutti gli strumenti,dati per poterci "ingannare".
Anche parlare di libero arbitrio è un esagerazione, in quanto valido solo in situazioni di gioco competitivo tra l' uomo e l' ia, in questo caso è anche ben chiaro qual' è l' obiettivo (scegliere tra 2 opzioni) e basta simulare il percorso che porta ad essa per capire con quasi certezza cosa l' umano sceglierà.

Ma quanto detto sopra non rientra nel paradosso, è semplicemente un imbroglio dato dal fatto che una volta che l' ia ha capito quello che dirà l' umano cambierà di conseguenza il premio nella scatola.


Se la mettiamo sulla teoria dei giochi, ma è un problema diverso, come spiegato nella nota 1) del primo link è un paradosso e senza i necessari requisiti (causa-effetto) non può essere trattato in quel modo e quindi produce un risultato non concettualmente diverso da una divisione per zero in matematica.

rigelpd
16-10-2018, 14:56
Scusa se lo ripeto, ma il libero arbitrio è una premessa implicita in questo indovinello, e non puoi metterlo in discussione.

Sarebbe come se ti ponessi un problema tipo:
- Per percorrere 100 metri devo camminare 1 minuto
- Cammino 10 minuti
Quanti metri ho percorso?

E quando mi rispondi "1000" io ti dicessi, "sì, ma solo se puoi camminare": che tu possa camminare è implicito, altrimenti il problema non ha senso/non si pone.

Fra l'altro come dicevo sopra "accetti che qualunque scelta tu faccia possa essere predetta" è una contraddizione in termini, perché una scelta presuppone un fattore non perfettamente prevedibile. È come dire "questo cerchio è quadrato": non ha senso dire che lo accetti.


Domanda: se oggi si scoprisse in via definitiva che non esiste il libero arbitrio e che tutte le nostre scelte sono prevedibili matematicamente a fronte dei dati iniziali, smetteresti di fare scelte? No. La superintelligenza ti stà chiedendo ne più ne meno che quello che fai ogni giorno.

Si possono fare scelte anche senza avere il libero arbitrio, semplicemente in questo caso, queste scelte sono prevedibili.

omerook
16-10-2018, 15:35
ripensando al test mi viene in mente che si potrebbe imporre all oracolo la legge del menga ( chi ha @@ se lo tenga). lancio una moneta in aria, se viene testa prendo il pacco A mentre se viene croce prendo il pacco B....e mo predici :D

rigelpd
16-10-2018, 15:55
ripensando al test mi viene in mente che si potrebbe imporre all oracolo la legge del menga ( chi ha @@ se lo tenga). lancio una moneta in aria, se viene testa prendo il pacco A mentre se viene croce prendo il pacco B....e mo predici :D

La superintelligenza è in grado di prevedere qualunque scelta tu farai quindi anche la tua scelta di lanciare la monetina, e di conseguenza anche l'esito del lancio non sarebbe così complicato da calcolare, si tratta del resto sempre di fare evolvere un modello teorico della realtà, più accurato è il modello (in termini di precisione nella conoscenza delle condizioni iniziali) e più accurata sarà la previsione. La premessa è che la superintelligenza sia in grado, il giorno in cui deve mettere i soldi nelle scatole, di modellare la realtà con l'accuratezza necessaria a prevedere ogni cosa che possa avvenire il giorno dopo, quando ti farà la domanda.

s-y
16-10-2018, 16:02
e se la superintelligenza sviluppasse una coscienza tale per cui decidesse di dire al soggetto umano, invece che proporgli il test: get a life?

giuliop
16-10-2018, 16:14
Domanda: se oggi si scoprisse in via definitiva che non esiste il libero arbitrio e che tutte le nostre scelte sono prevedibili matematicamente a fronte dei dati iniziali, smetteresti di fare scelte? No.

La risposta non può essere "no", perché questa domanda non avrebbe senso. Se non avessi il libero arbitrio non avresti mai fatto scelte: ti saresti solo illuso di averle fatte, ovvero "penseresti" (cosa sempre deterministica) di averle fatte.

Mi viene in mente una puntata di WestWorld in cui c'è la tizia di colore con i capelli ondulati (che è un robot), che mentre parla è in modalità diagnostica, per cui nel tablet che ha davanti (ovviamente wireless) compare l'albero del discorso con le varie possibilità; e mentre lei dice qualcosa tipo, "è un imbroglio, non è possibile", sul computer compare esattamente l'albero decisionale con selezionate le frasi che lei dice: lei "pensa" di star scegliendo cosa dire, ma è tutto predefinito.

Edit: eccolo (https://www.youtube.com/watch?v=ZnxJRYit44k)

Si possono fare scelte anche senza avere il libero arbitrio, semplicemente in questo caso, queste scelte sono prevedibili.

Ripeto, è una contraddizione in termini: fare una scelta è avere libero arbitrio. È come se dicessi "è possibile che un cerchio sia quadrato": no, non è possibile.

marcram
16-10-2018, 17:07
Ripeto, è una contraddizione in termini: fare una scelta è avere libero arbitrio. È come se dicessi "è possibile che un cerchio sia quadrato": no, non è possibile.

Dipende da che significato dai a "scelta"...
Il navigatore sceglie la strada migliore da percorrere.
Io scelgo la risposta ad un quiz, ma in base alle mie conoscenze.
Non è necessario il libero arbitrio per fare scelte, possono essere anche scelte logiche.
E, molto probabilmente, tutte le scelte che facciamo sono scelte logiche, e se dovessimo rifarle alle stesse condizioni risulterebbero uguali...

Grayskull
16-10-2018, 17:20
non vedo come la possibilità di prevedere le scelte che si compiranno escluda il libero arbitrio...

il libero arbitrio dovrebbe essere la capacità di compiere scelte senza influenze esterne, a compierle dovrebbe essere l'individuo guidato solo dalla sua volontà...
il fatto che esista un essere talmente intelligente (onniscente?) da prevedere le scelte che un individuo farà non toglie che le scelte dipendano solo ed esclusivamente dalla volontà di quell'individuo.... se l'essere le imponesse in qualche modo allora il libero arbitrio verrebbe meno, ma se l'essere si limita a prevederle senza nemmeno comunicarle non vedo perchè il libero arbitrio dovrebbe essere intaccato in alcun modo.

omerook
16-10-2018, 17:45
La superintelligenza è in grado di prevedere qualunque scelta tu farai quindi anche la tua scelta di lanciare la monetina, e di conseguenza anche l'esito del lancio non sarebbe così complicato da calcolare, si tratta del resto sempre di fare evolvere un modello teorico della realtà, più accurato è il modello (in termini di precisione nella conoscenza delle condizioni iniziali) e più accurata sarà la previsione. La premessa è che la superintelligenza sia in grado, il giorno in cui deve mettere i soldi nelle scatole, di modellare la realtà con l'accuratezza necessaria a prevedere ogni cosa che possa avvenire il giorno dopo, quando ti farà la domanda.

evabbe allora mollo e chiamo il capitano kirk

giuliop
16-10-2018, 18:05
Dipende da che significato dai a "scelta"...

Ma è proprio la definizione di libero arbitrio: se interpreti diversamente la parola "scelta" o "libero arbitrio" cambi il significato delle parole. Ti cito la Treccani (http://www.treccani.it/enciclopedia/libero-arbitrio/) (ma puoi andare su qualsiasi dizionario/thesaurus):

"Espressione usata per indicare la libertà dell'uomo, i cui atti non sono determinati da forze superiori (di tipo soprannaturale o naturale), ma derivano da sue autonome scelte".

Il navigatore sceglie la strada migliore da percorrere.

In realtà il navigatore non "sceglie", perché non ha altre possibilità: in base ai parametri di input la sua "scelta" sarà sempre la stessa. Potrai rendere complicato il programma quanto vuoi, ma sarà sempre predefinito. Il navigatore non dice, "ci metterò il doppio del tempo, ma oggi ho voglia di vedere un po' la campagna, e quindi non farò l'autostrada": si suppone che questo sia il libero arbitrio. È chiaro che probabilmente, alla fine, tutto può essere "programmato", ma se segui un programma, non hai libero arbitrio, e quindi non scegli.


Io scelgo la risposta ad un quiz, ma in base alle mie conoscenze.
Non è necessario il libero arbitrio per fare scelte, possono essere anche scelte logiche.

Ma se hai libero arbitrio puoi decidere di scegliere non basandoti sulla logica: è questo il punto. Se non hai libero arbitrio devi seguire dei percorsi - complessi quanto vuoi - ma sempre predefiniti.
Per esempio alla domanda "quanto fa 2+2?" potrei rispondere "22" semplicemente perché lo trovo divertente. Si tratta di stabilire se "trovare qualcosa divertente" è una cosa "programmata" in me o meno: se no ho libero arbitrio, se sì non lo ho.


E, molto probabilmente, tutte le scelte che facciamo sono scelte logiche

Ah, hai una gran fiducia nel genere umano :)

Se studi un po' di logica (in questo caso informale) e conosci le fallacie puoi vederne a bizzeffe, continuamente, commesse praticamente da tutti: è un colabrodo :asd:

e se dovessimo rifarle alle stesse condizioni risulterebbero uguali...

Questo non credo lo si possa dire per certo, ma se così fosse potrebbe essere benissimo mancanza di libero arbitrio.

giuliop
16-10-2018, 18:12
non vedo come la possibilità di prevedere le scelte che si compiranno escluda il libero arbitrio...

Una precisazione: è la previsione al 100%, non la probabilità (anche alta, o altissima: vedi l'esempio sopra della trippa e del cioccolato :)) che lo esclude.

il libero arbitrio dovrebbe essere la capacità di compiere scelte senza influenze esterne, a compierle dovrebbe essere l'individuo guidato solo dalla sua volontà...

il fatto che esista un essere talmente intelligente (onniscente?) da prevedere le scelte che un individuo farà non toglie che le scelte dipendano solo ed esclusivamente dalla volontà di quell'individuo....

Si sta parlando di un'intelligenza artificiale che tramite una simulazione, a partire da determinati parametri, con determinati algoritmi, riesca a replicare il comportamento di una persona e prevederne le scelte: se introduci "l'essere onniscente" che tutto può non si sa come allora tutto il discorso perde di senso.

Grayskull
16-10-2018, 18:22
Va be', si sta parlando di un'intelligenza artificiale che tramite una simulazione, a partire da determinati parametri, con determinati algoritmi, riesca a replicare il comportamento di una persona e prevederne le scelte.

Se introduci "l'essere onniscente" che tutto può non si sa come allora tutto il discorso perde di senso.

non l'ho introdotto io, ma la premessa stessa dell'esercizio mentale proposto dall'utente rigelpd...
quell'intelligenza artificiale fa previsioni "senza possibilità di errore", l'attendibilità della sua previsione è del 100%, ergo è onniscente.
ecco perchè ho detto che più che una IA è una sorta di divinità.

marcram
16-10-2018, 18:39
Ma è proprio la definizione di libero arbitrio: se interpreti diversamente la parola "scelta" o "libero arbitrio" cambi il significato delle parole. Ti cito la Treccani (http://www.treccani.it/enciclopedia/libero-arbitrio/) (ma puoi andare su qualsiasi dizionario/thesaurus):

"Espressione usata per indicare la libertà dell'uomo, i cui atti non sono determinati da forze superiori (di tipo soprannaturale o naturale), ma derivano da sue autonome scelte".

Beh, non avevo guardato la Treccani :D
Mi sono basato sull'uso un po' più comune del termine, che viene utilizzato spesso anche per situazioni "forzate" e non propriamente relative alle decisioni umane...
Comunque, se seguiamo la definizione dell'enciclopedia, allora sì, "scelta" è strettamente collegata a "libero arbitrio".


In realtà il navigatore non "sceglie", perché non ha altre possibilità: in base ai parametri di input la sua "scelta" sarà sempre la stessa. Potrai rendere complicato il programma quanto vuoi, ma sarà sempre predefinito. Il navigatore non dice, "ci metterò il doppio del tempo, ma oggi ho voglia di vedere un po' la campagna, e quindi non farò l'autostrada": si suppone che questo sia il libero arbitrio. È chiaro che probabilmente, alla fine, tutto può essere "programmato", ma se segui un programma, non hai libero arbitrio, e quindi non scegli.

Punti di vista.
Anche io, in base ai parametri di input, se sono gli stessi, farò sempre la stessa scelta. Quel giorno che decido di vedere un po' la campagna, e di non fare l'autostrada, è perché i parametri non sono gli stessi del giorno prima.
Se non ci si mette un po' di indeterminazione quantistica di mezzo, o qualsiasi altra cosa possa in futuro essere scoperta che sconvolga le carte in tavola, io vedo il tutto come un continuo causa-effetto. E il libero arbitrio, una mera illusione, perché prevederebbe che noi fossimo un qualcosa di più di un insieme di molecole assemblate.
Ma comunque è solo la mia opinione, basata sull'attuale conoscenza dell'umanità.


Ma se hai libero arbitrio puoi decidere di scegliere non basandoti sulla logica: è questo il punto. Se non hai libero arbitrio devono seguire dei percorsi - complessi quanto vuoi - ma sempre predefiniti.
Per esempio un ragazzino in classe alla domanda "quanto fa 2+2?" potrebbe rispondere "22" semplicemente perché lo trova divertente. Si tratta di stabilire se "trovare qualcosa divertente" è una cosa "programmata" nel bambino: se non lo è ha libero arbitrio, se lo è, non lo ha.

Infatti. Bisogna vedere se la risposta divertente, sia effettivamente conseguenza di una libera scelta, o frutto di un ragionamento subconscio. Se il suo cervello abbia stabilito che in quel caso sarebbe stato più proficuo sollevare una risata tra i compagni ed alleviare una giornata stanca, o mettersi in mostra, piuttosto che dare la risposta esatta.
E in un'altra città, un altro bambino nelle stesse condizioni, con le stesse esperienze passate, e la stessa educazione, avrebbe anch'esso risposto con una battuta, per gli stessi motivi.


Ah, hai una gran fiducia nel genere umano :)

Se studi un po' di logica (in questo caso informale) e conosci le fallacie puoi vederne a bizzeffe, continuamente, commesse praticamente da tutti: è un colabrodo :asd:

Ma io non lo vedo come una cosa negativa, o deprimente.
E' come quando dici di essere ateo, e un credente ti risponde che deve essere un modo di vivere triste. Per qual motivo?

La logica può essere naturalmente una logica personale, magari sbagliata, influenzata dalla propria attitudine logica, intelligenza, educazione ecc.
Non vuol dire che una fallacia sia dovuta al libero arbitrio, può tranquillamente essere dovuta ad una "programmazione" sbagliata.

Comunque, visione mia. E del momento. In attesa di smentite dalla scienza... :sofico:

giuliop
16-10-2018, 18:39
ps: 'sto thread è a metà tra l'assurdo e lo stimolante

Per me è uno dei migliori thread a cui abbia mai partecipato, non tanto per l'argomento (che non mi interessa per niente ;) :asd:), ma per il fatto che ognuno sta esprimendo il proprio pensiero senza che nessuno (almeno finora, e speriamo continui così) abbia cominciato a maltrattare, insultare, trattare con sufficienza, etc. gli altri.

songohan
16-10-2018, 18:41
Il fatto che qualcosa sia computabile è la prova migliore che sia causale. Forse tu confondi causale con casuale.

Si, ma non glielo dire. Certe persone sono suscettibili :p

songohan
16-10-2018, 18:43
Questo topic rischia di diventare il più grande OT di HWU :sofico:

Mi butto anch'io...

Vorrei schematizzare i concetti per fare ordine:

1) è un gioco, quindi nessun parallelismo con la realtà (al momento)
2) la macchina non sbaglia mai e ha sempre ragione
3) che io sia la simulazione o meno non fa differenza, quello che conta è il punto 4
4) Se la macchina prevede correttamente sempre tutto al 100% allora la scelta che farò adesso sarà anche la scelta che avrò fatto in passato, altrimenti questo invaliderà la tesi di certezza assoluta della previsione.

5) dato il punto 4, che è la chiave del problema, non posso che scegliere solo la scatola B, perchè facendolo adesso non potrò che confermare la previsione. NON POSSO SMENTIRLA SENZA INVALIDARE I PRESUPPOSTI.

Insomma, questo gioco così è forse fin troppo semplice, ma si potrebbe complicare giusto un pochino:


Non ti dico cosa hai scelto nella simulazione ma ti dico che qualora nella simulazione tu avessi scelto di prendere entrambe le scatole allora oggi non avrei messo il milione di dollari nella scatola B, qualora nella simulazione tu avessi scelto di prendere solo la scatola B allora oggi avrei messo nella scatola B il milione di dollari. Ma quello che ti ho appena detto è un'informazione che nella simulazione non ti ho dato.

Ora cosa scegli?

In questo caso la simulazione non rifletterebbe la realtà, di conseguenza gli eventi futuri sarebbero necessariamente diversi.

songohan
16-10-2018, 18:46
Sarà che non sono psicologo, ma non c'ho capito una mazza di questo test.
La risposta mi sembra ovvia: visto che un'opzione è la possibilità di prenderle entrambe, ovvio che le prendo entrambe. Qualsiasi cosa ci sia dentro, prendendole entrambe ottengo il massimo.
La simulazione è soltanto una simulazione... ma mi sta suggerendo di prendere solo la B.

No, se le prendi entrambi la superintelligenza ti ha già detto che nella scatola B non ci troveresti il milione perchè nella simulazione lo avrebbe previsto.

songohan
16-10-2018, 19:02
Comunque, leggendo le risposte mi sembra di capire che non tutti abbiano afferrato una cosa molto semplice: la superintelligenza ti ha detto che nel caso tu scelga solo B lei lo avrebbe previsto e avrebbe messo un milione di dollari in quella scatola; qualora, invece, tu scelga A+B, lei quel milione di dollari in B non ce lo avrebbe messo.
Ad ogni modo, c'è una cosa fondamentale da dover capire: nessuna superintelligenza potrà mai calcolare tutto l'universo al 100% e questo perchè tale superintelligenza dovrebbe prima calcolare se stessa e poi calcolare tutto l'universo da quel momento in poi.
Solo che i problemi sono due:

1. per calcolare se stessa, questa superintelligenza dovrebbe prima autofermarsi completamente per partire da uno stato iniziale ben definito e poi autoripartire. Ma se si ferma non può fare calcoli
2. anche nel caso riuscisse a completare il punto 1 (cosa impossibile, come abbiamo visto), poi dovrebbe fermare tutto l'universo, in modo da iniziare il calcolo da uno stato ben definito, e farlo ripartire. Ma poichè questa superintelligenza FA parte dell'universo, per completare il punto 2 dovrebbe fermare se stessa, ricadendo nel punto 1.

Ora vado a fare la doccia che puzzo.
Buona notte.

OttoVon
16-10-2018, 19:45
Solo che i problemi sono due:

1. per calcolare se stessa, questa superintelligenza dovrebbe prima autofermarsi completamente per partire da uno stato iniziale ben definito e poi autoripartire. Ma se si ferma non può fare calcoli
2. anche nel caso riuscisse a completare il punto 1 (cosa impossibile, come abbiamo visto), poi dovrebbe fermare tutto l'universo, in modo da iniziare il calcolo da uno stato ben definito, e farlo ripartire. Ma poichè questa superintelligenza FA parte dell'universo, per completare il punto 2 dovrebbe fermare se stessa, ricadendo nel punto 1.


Già che siamo nel campo del condizionale; cosa impedisce a questa entità di racchiudere, o essere, l'universo?

Prima del BB l'universo era in stato di "riposo".:sofico:

s-y
16-10-2018, 19:54
ebbè qua ci vuole the answer to life, universe and everything

non spoilero se qualcuno non avesse visto (la serie orginale bbc) e in tal caso invidierei...

ps: so long and thanks for all the fish

songohan
16-10-2018, 20:11
Già che siamo nel campo del condizionale; cosa impedisce a questa entità di racchiudere, o essere, l'universo?

Prima del BB l'universo era in stato di "riposo".:sofico:

Ciao Otto

1. nulla vieta a questa entità di essere ciò che tu dici. Sarebbe solo il punto 1, ovvero questa entità dovrebbe fermarsi per iniziare il calcolo da uno stato ben definito. Ma una volta ferma, non potrebbe fare più alcun calcolo quindi rimarrebbe in quello stato per sempre. L'unica entità che potrebbe calcare tutto l'universo sarebbe una entità al di fuori del nostro spazio-tempo (prima dello spazio e prima del tempo, come diceva il buon Sant'Agostino). In altre parole, questa entità sarebbe Dio.

2. Prima del BB, nella cosmologia moderna, è una frase priva di senso.

Saluti.

songohan
16-10-2018, 20:12
ebbè qua ci vuole the answer to life, universe and everything

non spoilero se qualcuno non avesse visto (la serie orginale bbc) e in tal caso invidierei...

ps: so long and thanks for all the fish

A proposito, sei mai stato a quel ristorante? Se si, com'è la vista?

s-y
16-10-2018, 20:24
un pò ostruita dal cantiere dei vogon, palazzinari du'cazz

rigelpd
16-10-2018, 20:45
Comunque, leggendo le risposte mi sembra di capire che non tutti abbiano afferrato una cosa molto semplice: la superintelligenza ti ha detto che nel caso tu scelga solo B lei lo avrebbe previsto e avrebbe messo un milione di dollari in quella scatola; qualora, invece, tu scelga A+B, lei quel milione di dollari in B non ce lo avrebbe messo.
Ad ogni modo, c'è una cosa fondamentale da dover capire: nessuna superintelligenza potrà mai calcolare tutto l'universo al 100% e questo perchè tale superintelligenza dovrebbe prima calcolare se stessa e poi calcolare tutto l'universo da quel momento in poi.
Solo che i problemi sono due:

1. per calcolare se stessa, questa superintelligenza dovrebbe prima autofermarsi completamente per partire da uno stato iniziale ben definito e poi autoripartire. Ma se si ferma non può fare calcoli
2. anche nel caso riuscisse a completare il punto 1 (cosa impossibile, come abbiamo visto), poi dovrebbe fermare tutto l'universo, in modo da iniziare il calcolo da uno stato ben definito, e farlo ripartire. Ma poichè questa superintelligenza FA parte dell'universo, per completare il punto 2 dovrebbe fermare se stessa, ricadendo nel punto 1.

Ora vado a fare la doccia che puzzo.
Buona notte.

Non serve calcolare tutto l'universo per simulare la scelta di una persona il giorno dopo.

Ad esempio ponendoti in una stanza isolata per un paio di giorni la quantità di calcoli necessari può risultare di parecchio inferiore a quella dell'universo, e se mi contesti che non sia possibile isolare dall'esterno qualcosa in maniera completa ti rispondo che può benissimo non essere completa se le perturbazioni create sono abbastanza piccole.

Se poi mi contesti anche questo: ok, allora all'entità superintelligente basterebbe simulare tutto quello che è a meno di un anno luce dalla stanza della prova.

Poi ti contesto il fatto che sia necessario alla superintelligenza simulare anche se stessa

giuliop
16-10-2018, 21:56
ebbè qua ci vuole the answer to life, universe and everything

non spoilero se qualcuno non avesse visto (la serie orginale bbc) e in tal caso invidierei...

ps: so long and thanks for all the fish

Per me la serie radiofonica (quella da cui è partito tutto) rimane ancora la migliore. Nella serie televisiva mi hanno sostituito Ford Prefect... non che fosse un cattivo attore eh, ma l’originale è sempre l’originale (ecco, questa è un’opinione da libero arbitrio, sempre ammesso che esista).
Consigliatissima.

s-y
16-10-2018, 22:07
Per me la serie radiofonica (quella da cui è partito tutto) rimane ancora la migliore. Nella serie televisiva mi hanno sostituito Ford Prefect... non che fosse un cattivo attore eh, ma l’originale è sempre l’originale (ecco, questa è un’opinione da libero arbitrio, sempre ammesso che esista).
Consigliatissima.

diciamo che, my fault ma così è andata, sono stato iniziato dal lungometraggio assassino by disney (guarda caso) del 2005 , visto praticamente per caso, e poi sono andato via via migliorando, e sono al secondo step. non dubito cmq che sia recitato in maniera migliore il radiodramma, ma la parte visuale della serie tv è, per i miei b-gusti (libero arbitrio) almeno, irresistibile

apparte la dechanel che specialmente in quel film, yum (che vabbè i pensieri cosmici, ma el pèo sè pèo) (non libero, ahimè, arbitrio)

OttoVon
17-10-2018, 01:10
Ciao Otto

1. nulla vieta a questa entità di essere ciò che tu dici. Sarebbe solo il punto 1, ovvero questa entità dovrebbe fermarsi per iniziare il calcolo da uno stato ben definito. Ma una volta ferma, non potrebbe fare più alcun calcolo quindi rimarrebbe in quello stato per sempre. L'unica entità che potrebbe calcare tutto l'universo sarebbe una entità al di fuori del nostro spazio-tempo (prima dello spazio e prima del tempo, come diceva il buon Sant'Agostino). In altre parole, questa entità sarebbe Dio.

2. Prima del BB, nella cosmologia moderna, è una frase priva di senso.

Saluti.

1."That is not dead which can eternal lie, And with strange aeons, even death may die." Citando H.P.L.
Se fosse l'universo, questa entità, era già ferma circa 13,7mld di anni fa.
Non era morta né doveva nascere, esisteva. Fuori dalle regole spazio-tempo.
Non avrebbe bisogno di fermarsi nuovamente.

2. "Prima del BB" è una delle questioni aperte mai risolte. La stessa teoria, sebbene accettata, ha molti punti critici.
Una possibile fine è il Big Crunch, che per noi potrebbe essere un resettarsi e ricalcolarsi dall'inizio.
Questa è un'altra storia, OT durato pure troppo.

wingman87
17-10-2018, 08:57
Aggiungo una considerazione: per simulare correttamente il mio comportamento, l'entità avrebbe dovuto anche nella simulazione aver simulato precedentemente il mio comportamento. E lo stesso vale per la simulazione della simulazione.
Questo ragionamento si può ripetere all'infinito, mandando l'entità in stackoverflow (o se ha memoria infinita in un loop senza fine) :D

songohan
17-10-2018, 13:55
Non serve calcolare tutto l'universo per simulare la scelta di una persona il giorno dopo.

Ad esempio ponendoti in una stanza isolata per un paio di giorni la quantità di calcoli necessari può risultare di parecchio inferiore a quella dell'universo, e se mi contesti che non sia possibile isolare dall'esterno qualcosa in maniera completa ti rispondo che può benissimo non essere completa se le perturbazioni create sono abbastanza piccole.

Se poi mi contesti anche questo: ok, allora all'entità superintelligente basterebbe simulare tutto quello che è a meno di un anno luce dalla stanza della prova.

Poi ti contesto il fatto che sia necessario alla superintelligenza simulare anche se stessa

Purtroppo se mi contesti anche solo uno di questi punti, tutto il tuo discorso perde di validità. Purtroppo, come si dice, non si può avere la botte piena o la moglie ubriaca o, in altre parole, non si possono salvare capra e cavoli.

songohan
17-10-2018, 14:00
1."That is not dead which can eternal lie, And with strange aeons, even death may die." Citando H.P.L.
Se fosse l'universo, questa entità, era già ferma circa 13,7mld di anni fa.
Non era morta né doveva nascere, esisteva. Fuori dalle regole spazio-tempo.
Non avrebbe bisogno di fermarsi nuovamente.

2. "Prima del BB" è una delle questioni aperte mai risolte. La stessa teoria, sebbene accettata, ha molti punti critici.
Una possibile fine è il Big Crunch, che per noi potrebbe essere un resettarsi e ricalcolarsi dall'inizio.
Questa è un'altra storia, OT durato pure troppo.

1. Appunto. O stiamo parlando di Dio o di niente. Io preferisco il niente.
2. Appunto. Quindi meglio evitare frasi tipo 'prima del' se il 'prima del' è privo di significato nella teoria attuale. Altrimenti tutto e il contrario di tutto diventa possibile.

Punga
17-10-2018, 16:03
Ho trovato molto carino l'indovinello proposto, mi spiace solo che molti mettano in discussione le premesse o l'assoluta certezza delle affermazioni dell'indovinello...nessuno vi sta chiedendo "sarebbe possibile creare una macchina che vi pone davanti due scatole ecc...", bisogna fare il piccolo sforzo mentale di riuscire ad immaginare le condizioni a contorno "perfette" o, secondo me, sfugge sia il senso dell'eventuale paradosso e con esso la possibilità di metterlo in discussione.

Detto ciò prima di formulare la mia risposta vorrei avere ulteriori info, magari me le sono perse io o non è stato specificato. Durante la simulazione del giorno prima la macchina mi ha informato che avrebbe già fatto una simulazione ("due" giorni prima a questo punto) prevedendo con esattezza cosa avrei scelto e così via simulazione dentro simulazione dentro simulazione?
Se così non fosse si sta dando per valido il principio secondo il quale in condizioni diverse (sapendo o meno che una simulazione è stata effettuata) io finisca per prendere la stessa decisione, e questo non è molto "scientifico".

Inoltre il fatto che la simulazione sia stata fatta il giorno precedente presuppone che la simulazione sia terminata o potrebbe ancora essere in corso?

Altra cosa della quale vorrei essere certo è la certezza di non essere ingannato con un trucco da "illusionista", inteso come la posibbilità di alterare la realtà (il contenuto delle scatole) successivamente alla mia decisione.

omerook
18-10-2018, 07:00
Comunque si può ribaltare completamente l'approccio al quesito.
Alla fine l'oracolo predice quello che decido io!
Quindi sono io la vera divinità perché con la mia scelta determinò la predizione dell' oracolo.

rigelpd
18-10-2018, 08:28
Ho trovato molto carino l'indovinello proposto, mi spiace solo che molti mettano in discussione le premesse o l'assoluta certezza delle affermazioni dell'indovinello...nessuno vi sta chiedendo "sarebbe possibile creare una macchina che vi pone davanti due scatole ecc...", bisogna fare il piccolo sforzo mentale di riuscire ad immaginare le condizioni a contorno "perfette" o, secondo me, sfugge sia il senso dell'eventuale paradosso e con esso la possibilità di metterlo in discussione.

Detto ciò prima di formulare la mia risposta vorrei avere ulteriori info, magari me le sono perse io o non è stato specificato. Durante la simulazione del giorno prima la macchina mi ha informato che avrebbe già fatto una simulazione ("due" giorni prima a questo punto) prevedendo con esattezza cosa avrei scelto e così via simulazione dentro simulazione dentro simulazione?
Se così non fosse si sta dando per valido il principio secondo il quale in condizioni diverse (sapendo o meno che una simulazione è stata effettuata) io finisca per prendere la stessa decisione, e questo non è molto "scientifico".

Inoltre il fatto che la simulazione sia stata fatta il giorno precedente presuppone che la simulazione sia terminata o potrebbe ancora essere in corso?

Altra cosa della quale vorrei essere certo è la certezza di non essere ingannato con un trucco da "illusionista", inteso come la posibbilità di alterare la realtà (il contenuto delle scatole) successivamente alla mia decisione.


La premessa dell'indovinello è che la Superintelligenza non ti prenda in giro ( ne convieni che sarebbe molto meno interessante in questo caso)
In tutte le forme in cui compare questo indovinello non si accenna al fatto che la superintelligenza abbia avvisato il partecipante giorni prima del test.