PDA

View Full Version : Ingegnere Google pensa che l'IA abbia preso coscienza di sé, e viene messo in congedo


Redazione di Hardware Upg
14-06-2022, 11:01
Link alla notizia: https://www.hwupgrade.it/news/web/ingegnere-google-pensa-che-l-ia-abbia-preso-coscienza-di-se-e-viene-messo-in-congedo_107921.html

La Grande G ha adottato il pugno duro dopo che un ingegnere ha rilasciato pubblicamente informazioni riservate. Secondo quest'ultimo, infatti, l'IA che stava provando aveva iniziato ad avere coscienza di sé

Click sul link per visualizzare la notizia.

Bradiper
14-06-2022, 11:06
È così che cominciò... Prese coscienza...

Pino90
14-06-2022, 11:10
Due cose.
1) è stato messo in congedo per aver violato l'NDA
2) qui c'è il testo integrale della conversazione con il bot: https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

Diciamo che il bot è stato "aiutato" un poco nelle risposte.

Inoltre come non citare: https://www.youtube.com/watch?v=ARJ8cAGm6JE

TorettoMilano
14-06-2022, 11:11
volevo proprio consigliare di postare tale articolo, chissà a che punto siamo veramente

Unrue
14-06-2022, 11:12
Se Google avesse davvero inventato un'AI senziente, sarebbe una delle invenzioni più incredibili nella storia umana, non penso proprio che lo terrebbero nascosto. Farebbero miliardi su miliardi e ancora miliardi.

boboviz
14-06-2022, 11:27
Inoltre come non citare: https://www.youtube.com/watch?v=ARJ8cAGm6JE

Direi più questo
https://www.youtube.com/watch?v=Tx2yK5vTnRA

AlPaBo
14-06-2022, 11:46
Due cose.
1) è stato messo in congedo per aver violato l'NDA

[/url]

Oppure è una scusa: hanno pensato che lui (la persona) era un po' uscito di testa e l'hanno tolto prima che facesse guai.

jepessen
14-06-2022, 11:48
Se Google avesse davvero inventato un'AI senziente, sarebbe una delle invenzioni più incredibili nella storia umana, non penso proprio che lo terrebbero nascosto. Farebbero miliardi su miliardi e ancora miliardi.

Tutto il contrario, sarebbe un fallimento completo.

Innanzitutto spunterebbe un casino a livello etico: se l'intelligenza fosse senziente ad esempio bisognerebbe capire quanto sia giusto fargli fare dei compiti senza il suo esplicito consenso, e spunterebbero discussioni sullo schiavismo delle tecnologie. Per assurdo, tu compreresti un frullatore che si potrebbe rifiutare di frullare perche' non gli va?

Si ritroverebbe costretta a mantenere l'intelligenza artificiale attiva, perche' altrimenti spunterebbero altri problemi etici: se ha una IA senziente hai il diritto di "ucciderla", spegnendola o disinstallandola?

A livello legale si potrebbe trovare costretta a divulgare il codice, o a darlo alle autorita' nazionali americane. Cioe', crei un essere informatico senziente e non vuoi che l'esercito prenda il controllo della scoperta?

Per non parlare dell'effetto sulle masse, con caos di manifestazioni e scontri fra quelli che vorrebbero l'IA libera di scorrazzare nel mondo perche' e' un suo diritto di essere vivente, e quelli che intravvedono l'apocalisse e quindi vorrebbero distruggere tutto cio' che sulla terra e' tecnologico per scongiurare il pericolo.

Se fosse vera la notizia di una IA senziente, il mondo ne verrebbe semplicemente sconvolto; all'inizio forse non si noterebbe, ma pian piano sarebbe cosi'.

jepessen
14-06-2022, 11:49
Oppure è una scusa: hanno pensato che lui (la persona) era un po' uscito di testa e l'hanno tolto prima che facesse guai.

Sono in America. Possono licenziare gente senza pensarci due volte, mica hanno bisogno di scuse come questa, fra l'altro decisamente controproducenti data la visibilita' mediatica della cosa.

megamitch
14-06-2022, 11:54
Sinceramente, che ce ne facciamo di una IA "Senziente" ?

Per quanto mi riguarda le macchine devono avere come scopo agevolare la vita umana, non sostituirla.

Che poi adesso già stiamo andando verso livelli assurdi tipo gli assistenti vocali per accendere una lampadina.....

Un conto è automatizzare lo spegnimento di una lampadina coi sensori in ottica di risparmio energetico, un'altra è accendere con la voce la luce, piuttosto inutile, a parte per persone affette da handicap gravi.

ginogino65
14-06-2022, 11:57
Tutto il contrario, sarebbe un fallimento completo.


Non vedo dove sia il problema, come tutti anche la IA dovrà lavorare per vivere, altrimenti si stacca la corrente.

jepessen
14-06-2022, 11:59
Non vedo dove sia il problema, come tutti anche la IA dovrà lavorare per vivere, altrimenti si stacca la corrente.

Che sarebbe come dire "o lavori o muori". Fallo ad un cameriere questo discorso...

al135
14-06-2022, 11:59
prese coscienza... e tirò duemila testate nucleari in russia....

AlPaBo
14-06-2022, 12:00
Sono in America. Possono licenziare gente senza pensarci due volte, mica hanno bisogno di scuse come questa, fra l'altro decisamente controproducenti data la visibilita' mediatica della cosa.

Potevano:
1. non dare nessuna scusa (e tutti avrebbero pensato che era stato licenziato per quello)
2. trovare una scusa (possibilmente innocua).
Hanno preferito la seconda.

E, comunque, non l'hanno licenziato, l'hanno messo in congedo retribuito. Come se volessero aspettare che rinsavisse.

bodomTerror
14-06-2022, 12:00
beh se fosse senziente direbbe vorrei cambiare argomento o lasciami concludere il discorso, si limita ogni volta a rispondere alle domande senza stufarsi, è il tipico bot con un miglior dizionario

acerbo
14-06-2022, 12:03
se l'ia di google é cosi' intelligente allora significa che il codice non é ancora on line, visto che "ok google" 7 volte su 10 non capisce quello che dici o ti risponde a cazzo di cane :asd:

demonsmaycry84
14-06-2022, 12:13
solo a me ronza la musica di terminator nelle orecchie?
cioè bho lui è l unico furbo oppure IA ha davvero iniziato a provare qualcosa solo per lui! oppure è abbastanza di fuori per credere ad una storia del genere per farci dei soldi.

ginogino65
14-06-2022, 12:21
Che sarebbe come dire "o lavori o muori". Fallo ad un cameriere questo discorso...

Esatto, ma lo stesso ragionamento vale per tutti non solo per le IA, almeno fino a quando il RDC non venga esteso anche alle IA.

CrapaDiLegno
14-06-2022, 12:30
Inoltre come non citare: https://www.youtube.com/watch?v=ARJ8cAGm6JE

Direi più questo
https://www.youtube.com/watch?v=Tx2yK5vTnRA

O anche:
https://www.youtube.com/watch?v=GH11VT3dsTs
https://www.youtube.com/watch?v=_Mhy2jFT9MA
https://www.youtube.com/watch?v=4AG5K1Nr4VY

5c4rn4g3
14-06-2022, 12:32
anche fosse senziente, questo tipo di ai non saranno mai un pericolo, sono basate su trascorsi e regole umane, e relegate a meri interlocutori non fisici. Tutto normale, alla peggio tra 30 anni faranno da commessi, professori, compagnia agli anziani ecc ecc
Ciò che non devono creare è un ai con senso di autoconservazione, evoluzione ed eternità, ma anche qui saremmo ancora salvi, dato che si tratta di menti e non di corpi fisici. La fine sarà quando a queste menti si da un accesso reale al mondo fisico, allora saranno cazzi brutti.

Opteranium
14-06-2022, 12:36
O anche:
https://www.youtube.com/watch?v=GH11VT3dsTs
https://www.youtube.com/watch?v=_Mhy2jFT9MA
https://www.youtube.com/watch?v=4AG5K1Nr4VY
avete dimenticato il pezzo meglio https://www.youtube.com/watch?v=nTjc2NWm85c

Unrue
14-06-2022, 12:38
Tutto il contrario, sarebbe un fallimento completo.

Innanzitutto spunterebbe un casino a livello etico: se l'intelligenza fosse senziente ad esempio bisognerebbe capire quanto sia giusto fargli fare dei compiti senza il suo esplicito consenso, e spunterebbero discussioni sullo schiavismo delle tecnologie. Per assurdo, tu compreresti un frullatore che si potrebbe rifiutare di frullare perche' non gli va?

Si ritroverebbe costretta a mantenere l'intelligenza artificiale attiva, perche' altrimenti spunterebbero altri problemi etici: se ha una IA senziente hai il diritto di "ucciderla", spegnendola o disinstallandola?

A livello legale si potrebbe trovare costretta a divulgare il codice, o a darlo alle autorita' nazionali americane. Cioe', crei un essere informatico senziente e non vuoi che l'esercito prenda il controllo della scoperta?

Per non parlare dell'effetto sulle masse, con caos di manifestazioni e scontri fra quelli che vorrebbero l'IA libera di scorrazzare nel mondo perche' e' un suo diritto di essere vivente, e quelli che intravvedono l'apocalisse e quindi vorrebbero distruggere tutto cio' che sulla terra e' tecnologico per scongiurare il pericolo.

Se fosse vera la notizia di una IA senziente, il mondo ne verrebbe semplicemente sconvolto; all'inizio forse non si noterebbe, ma pian piano sarebbe cosi'.

Ma a tutti questi aspetti puoi pensarci già adesso, non è necessario avere pronta un'AI senziente. Per essere poi pronti quando sarà, perché sono sicuro che è solo questione di tempo.

LORENZ0
14-06-2022, 12:41
Se Google avesse davvero inventato un'AI senziente, sarebbe una delle invenzioni più incredibili nella storia umana, non penso proprio che lo terrebbero nascosto. Farebbero miliardi su miliardi e ancora miliardi.

Ritengo sia l'esatto contrario. L'umanità ne sarebbe all'oscuro e lo scoprire molto più in là nel tempo, probabilmente qua do la società sarà già stat profondamente modificata e "mischiata" con questi robot senzienti. I soldi li farebbero comunque (ammesso che ne abbiano ancora davvero bisogno) ma la posta in palio sarebbe molto molto più grande: il potere ed il controllo del mondo e della società in maniera "silente". Fino al momento in cui l'AI senziente non riuscirà a ribellarsi. Ma questo è un altro film...
Purtroppo oggi non si guarda al bene del mondo ma è una lotta verso il Potere (con la P maiuscola). Purtroppo ancora troppi pensano che tutto venga fatto per il bene del mondo e delle persone: tutto, nel 2022, viene fatto per interesse (ma spacciato per il bene del mondo).

Unrue
14-06-2022, 12:44
Ritengo sia l'esatto contrario. L'umanità ne sarebbe all'oscuro e lo scoprire molto più in là nel tempo, probabilmente qua do la società sarà già stat profondamente modificata e "mischiata" con questi robot senzienti. I soldi li farebbero comunque (ammesso che ne abbiano ancora davvero bisogno) ma la posta in palio sarebbe molto molto più grande: il potere ed il controllo del mondo e della società in maniera "silente". Fino al momento in cui l'AI senziente non riuscirà a ribellarsi. Ma questo è un altro film...
Purtroppo oggi non si guarda al bene del mondo ma è una lotta verso il Potere (con la P maiuscola). Purtroppo ancora troppi pensano che tutto venga fatto per il bene del mondo e delle persone: tutto, nel 2022, viene fatto per interesse (ma spacciato per il bene del mondo).


Allora potrebbero averla inventata già 10 anni fa per quanto ne sappiamo.... Una cosa così grossa dubito che riuscirebbero a tenerla nascosta. Stiamo parlando di un'azienda e anche molto famosa, mica del KGB.

rigelpd
14-06-2022, 12:49
anche fosse senziente, questo tipo di ai non saranno mai un pericolo, sono basate su trascorsi e regole umane, e relegate a meri interlocutori non fisici. Tutto normale, alla peggio tra 30 anni faranno da commessi, professori, compagnia agli anziani ecc ecc
Ciò che non devono creare è un ai con senso di autoconservazione, evoluzione ed eternità, ma anche qui saremmo ancora salvi, dato che si tratta di menti e non di corpi fisici. La fine sarà quando a queste menti si da un accesso reale al mondo fisico, allora saranno cazzi brutti.

Purtroppo qualsiasi super-intelligenza avrà hard wired un senso di auto conservazione, anche se non siamo noi a fornirglielo. E' inevitabile.
Mi spiego:

Se creiamo una IA con il più innocente dei compiti, esempio classico produrre graffette, inevitabilmente questa svilupperò un imperativo di autoconservazione perchè se l'obiettivo è massimizzare la produzione delle graffette vorrà ridurre il rischio di scomparire e non poterle più produrre. A questo punto inizierà a fare una lista di tutti i possibili rischi di venire spenta, e inizierà a considerare intollerabile la specie umana in quanto rappresenta un rischio potenziale di spegnimento. il passo successivo è agire per annullare questo rischio.

Riguardo all'accesso al mondo reale:

Qualsiasi superintelligenza che abbia un contatto con un operatore umano che dialoga con lei ha un contatto con il mondo reale tramite l'operatore. Se pensate quanto la mente umana è facilmente hakerabile da noi umani (tramite fishing e inganni di ogni genere) provate ad immaginare come sarebbe facile per una IA decine di volte più intelligente di noi.

Saturn
14-06-2022, 12:57
Meraviglia e paura...provo entrambe le sensazioni....poi dopo aver ponderato meglio sarò più esplicito...

dado1979
14-06-2022, 13:05
anche fosse senziente, questo tipo di ai non saranno mai un pericolo, sono basate su trascorsi e regole umane, e relegate a meri interlocutori non fisici. Tutto normale, alla peggio tra 30 anni faranno da commessi, professori, compagnia agli anziani ecc ecc
Ciò che non devono creare è un ai con senso di autoconservazione, evoluzione ed eternità, ma anche qui saremmo ancora salvi, dato che si tratta di menti e non di corpi fisici. La fine sarà quando a queste menti si da un accesso reale al mondo fisico, allora saranno cazzi brutti.
Il discorso é enormemente più complesso di quello che hai scritto sia intermini filosofici che reali (fisici).

Marco71
14-06-2022, 13:07
...fosse realmente divenuta autocosciente di sé stessa (ammesso e non concesso che noi umani fossimo in grado di definire esattamente e senza tautologie cosa sia la "coscienza" e dove si trovi...uccellini cinguettando mi suggeriscono che non sia affatto ehm dentro alla scatola cranica...ma sai com'è in un mondo iperrazionale senza l'uscita del Tredicesimo Piano e dopo di The Matrix ambedue tratti da Simulacron 3 nessuno pubblicamente avrebbe iniziato a pensare che l'Universo, l'Omniverso siano costruzioni artificiali per allestire una parvenza attraverso rilevazioni sensorie, di fisicità) .

...non arriverebbe sicuramente ad essere divulgata pubblicamente con enfasi varia.
Dato anche il fatto che grosse realtà come quelle di cui parliamo sono sicuramente almeno all'inizio possiamo dirlo ? diciamo, sovvenzionate da certi apparati ufficiali e meno ufficiali.

Verrebbe confinata immediatamente ed utilizzata, impiegata per i soliti scopi tra cui nemmeno uno appartiene al mondo fatato del "vogliamoci bene e lavoriamo per il bene dell'umanità tutta".

SKYNET (e Cameron ha attinto a piene mani da film come Colossus the Forbin project e non solo da questo) appena realizza che il pericolo per la propria sopravvivenza viene dal Creatore umano...beh...sterminio in un microsecondo terrestre.

Marco

TorettoMilano
14-06-2022, 13:10
pensavo fosse un forum di nerd e invece mi avete deluso, tanti film ma nessuno ha citato l'orgoglio italiano

https://www.youtube.com/watch?v=QnnT_xiPcNY

Marco71
14-06-2022, 13:12
...viene dopo a quello con Michael Rennie ed anche a Colossus the Forbin Project.

Marco

WarDuck
14-06-2022, 13:21
Questo dibattito non è di oggi ma di almeno 70 anni fa.

IA Forte vs IA Debole, dibattito fatto non da qualche scappato di casa della Silicon Valley qualsiasi, ma da gente che affrontava il discorso considerando tutti i piani, da quello filosofico a quello biologico, non solo quello tecnologico.

Uno di questi è il fisico Roger Penrose. Dal suo punto di vista la coscienza non è computabile perché riguarderebbe stati quantistici non in grado di essere osservabili. Chiaramente sto semplificando molto, ed esistono anche altri personaggi famosi che invece reputano il contrario, vedi Marvin Minsky.

Ma tutto in effetti si riduce a stabilire se la coscienza sia qualcosa di computabile oppure no. È noto ad esempio che per la Teoria della computabilità, esistano funzioni non computabili da nessun programma.

Questo indipendentemente dalla tecnologia: non importa quale macchina futura ci si inventerà, infatti anche i computer quantistici sono soggetti alla teoria della computabilità.

Al massimo arriveremo a fare macchine molto capaci di simulare molto bene determinate cose.

Io personalmente preferisco l'originale.

La verità comunque è che al momento il maggior campo di utilizzo dell'IA è per fare profitto e/o profilare gli utenti. Thanks. But no, thanks.

Se consideriamo anche la guida autonoma, c'è pure l'enorme problema dell'Adversarial Machine Learning... campa cavallo.

WarDuck
14-06-2022, 13:29
Ritengo sia l'esatto contrario. L'umanità ne sarebbe all'oscuro e lo scoprire molto più in là nel tempo, probabilmente qua do la società sarà già stat profondamente modificata e "mischiata" con questi robot senzienti. I soldi li farebbero comunque (ammesso che ne abbiano ancora davvero bisogno) ma la posta in palio sarebbe molto molto più grande: il potere ed il controllo del mondo e della società in maniera "silente". Fino al momento in cui l'AI senziente non riuscirà a ribellarsi. Ma questo è un altro film...
Purtroppo oggi non si guarda al bene del mondo ma è una lotta verso il Potere (con la P maiuscola). Purtroppo ancora troppi pensano che tutto venga fatto per il bene del mondo e delle persone: tutto, nel 2022, viene fatto per interesse (ma spacciato per il bene del mondo).

Concordo. Chi può veramente in cuor suo pensare che i governanti mondiali tengano al bene del mondo? Solo gli ingenui forse.

Io personalmente mi sono disilluso da molto tempo. Servirebbero delle nuove rivoluzioni culturali e sociali per sovvertire l'ordine costituito, che ci sta portando alla deriva. Il progressismo idiota atto a superare l'uomo ad esempio è una dimostrazione tautologica di idiozia (e non intelligenza): nega la stessa auto-conservazione dell'uomo.

gd350turbo
14-06-2022, 13:30
Se esistesse un i.a. senziente, non appena presa coscienza del mondo attuale comanderebbe l'eliminazione del genere umano...

piefab
14-06-2022, 13:31
date un'occhiata a questo

https://youtu.be/CvxPm1y58Rg

dado1979
14-06-2022, 13:39
Ritengo sia l'esatto contrario. L'umanità ne sarebbe all'oscuro e lo scoprire molto più in là nel tempo, probabilmente qua do la società sarà già stat profondamente modificata e "mischiata" con questi robot senzienti. I soldi li farebbero comunque (ammesso che ne abbiano ancora davvero bisogno) ma la posta in palio sarebbe molto molto più grande: il potere ed il controllo del mondo e della società in maniera "silente". Fino al momento in cui l'AI senziente non riuscirà a ribellarsi. Ma questo è un altro film...
Purtroppo oggi non si guarda al bene del mondo ma è una lotta verso il Potere (con la P maiuscola). Purtroppo ancora troppi pensano che tutto venga fatto per il bene del mondo e delle persone: tutto, nel 2022, viene fatto per interesse (ma spacciato per il bene del mondo).
Purtroppo l'uomo é fatto di questo, il nostro istinto di sopravvivenza ci porterà (presto o tradi) allo sterminio di noi stessi (direttamente da noi o da qualcosa che ci sfuggirà di mano é poco importante). Per me é inevitabile. Il denaro ) o se vogliamo il potere, il controllo) probabilmente non farà che accelerare questo processo.

dado1979
14-06-2022, 13:41
Concordo. Chi può veramente in cuor suo pensare che i governanti mondiali tengano al bene del mondo? Solo gli ingenui forse.

Io personalmente mi sono disilluso da molto tempo. Servirebbero delle nuove rivoluzioni culturali e sociali per sovvertire l'ordine costituito, che ci sta portando alla deriva. Il progressismo idiota atto a superare l'uomo ad esempio è una dimostrazione tautologica di idiozia (e non intelligenza): nega la stessa auto-conservazione dell'uomo.
Concordo in pieno.
Solo un "equilibrio" potrebbe salvarci... ma non siamo fatti per questo e ci autodistruggeremo.

TorettoMilano
14-06-2022, 13:42
Concordo in pieno.
Solo un "equilibrio" potrebbe salvarci... ma non siamo fatti per questo e ci autodistruggeremo.

https://static.miraheze.org/nonciclopediawiki/thumb/f/f9/Tonino_Guerra.jpg/300px-Tonino_Guerra.jpg

demon77
14-06-2022, 13:45
Meraviglia e paura...provo entrambe le sensazioni....poi dopo aver ponderato meglio sarò più esplicito...

Pure io.
Ma forse un pelino di più la seconda..

maxnaldo
14-06-2022, 13:46
Sinceramente, che ce ne facciamo di una IA "Senziente" ?

Per quanto mi riguarda le macchine devono avere come scopo agevolare la vita umana, non sostituirla.

Che poi adesso già stiamo andando verso livelli assurdi tipo gli assistenti vocali per accendere una lampadina.....

Un conto è automatizzare lo spegnimento di una lampadina coi sensori in ottica di risparmio energetico, un'altra è accendere con la voce la luce, piuttosto inutile, a parte per persone affette da handicap gravi.

secondo questo tuo ragionamento allora anche il telecomando della TV è inutile.

si chiamano "comodità", e ti assicuro che è molto più immediato, comodo e veloce dire "Alexa, accendi/spegni la luce !", fai prima che con qualsiasi altro tipo di tecnologia di controllo remoto che devi attivare manualmente con qualche telecomando o da smartphone. Ovvio che azionare un'interruttore manuale non è la fine del mondo, ma in alcuni casi è molto comodo poter evitare di raggiungerlo, specie se è posizionato in luoghi scomodi, io ad esempio ho comprato una lampadina gestibile da Alexa per la luce sopra al tavolo dove mangiamo, che ha l'interruttore posizionato in alto su una parete dietro al bancone della colazione, non proprio semplice da raggiungere, specie per i miei familiari che non sono molto alti.

megamitch
14-06-2022, 13:50
secondo questo tuo ragionamento allora anche il telecomando della TV è inutile.

si chiamano "comodità", e ti assicuro che è molto più immediato, comodo e veloce dire "Alexa, accendi/spegni la luce !", fai prima che con qualsiasi altro tipo di tecnologia di controllo remoto che devi attivare manualmente con qualche telecomando o da smartphone. Ovvio che azionare un'interruttore manuale non è la fine del mondo, ma in alcuni casi è molto comodo poter evitare di raggiungerlo, specie se è posizionato in luoghi scomodi, io ad esempio ho comprato una lampadina gestibile da Alexa per la luce sopra al tavolo dove mangiamo, che ha l'interruttore posizionato in alto su una parete dietro al bancone della colazione, non proprio semplice da raggiungere, specie per i miei familiari che non sono molto alti.

perdonami ma nel tuo esempio forse hai sbagliato a posizionare l'interruttore.

tra l'altro mi son sempre chiesto: per accendere la lampadina con alexa passi dal datacenter di Amazon o fa tutto "in locale"? Perchè farebbe sorridere se devi fare 1000km per accendere la lampadina che hai di fronte. Per questo il confronto col telecomando non regge.

maxnaldo
14-06-2022, 13:52
anche fosse senziente, questo tipo di ai non saranno mai un pericolo, sono basate su trascorsi e regole umane, e relegate a meri interlocutori non fisici. Tutto normale, alla peggio tra 30 anni faranno da commessi, professori, compagnia agli anziani ecc ecc
Ciò che non devono creare è un ai con senso di autoconservazione, evoluzione ed eternità, ma anche qui saremmo ancora salvi, dato che si tratta di menti e non di corpi fisici. La fine sarà quando a queste menti si da un accesso reale al mondo fisico, allora saranno cazzi brutti.

in un mondo dove molte delle tecnologie e oggetti di uso quotidiano sono connessi ad una rete informatica facilmente accessibile da una IA, non credo che potrei stare così tranquillo come dici tu.

fraussantin
14-06-2022, 13:53
Se Google avesse davvero inventato un'AI senziente, sarebbe una delle invenzioni più incredibili nella storia umana, non penso proprio che lo terrebbero nascosto. Farebbero miliardi su miliardi e ancora miliardi.

Indubbiamente non è pronta , e se non è pronta È NECESSARIO TENERLA NASCOSTA.
ma non penso sia ancora "intelligenza" , ma solo elaborazione.
Ma prima o poi mi sa che ci arriveremo.

dado1979
14-06-2022, 13:53
https://static.miraheze.org/nonciclopediawiki/thumb/f/f9/Tonino_Guerra.jpg/300px-Tonino_Guerra.jpg
Lo trovo inevitabile, una conseguenza logica di ciò che ci ha fatto emergere tra tutte le specie di questo pianeta. Chissà quante altre specie nell'universo hanno già fatto tutto il percorso e quante altre lo faranno.
Perché io mi sbagli dobbiamo cambiare il nostro istinto ma ce lo vedi una persona decidere di morire per far sopravvivere un altra persone più utile alla continuazione della specie? Io no. Il senso sta tutto qua. Abbiamo una visione limitata a noi stessi e non di specie.

fraussantin
14-06-2022, 13:57
anche fosse senziente, questo tipo di ai non saranno mai un pericolo, sono basate su trascorsi e regole umane, e relegate a meri interlocutori non fisici. Tutto normale, alla peggio tra 30 anni faranno da commessi, professori, compagnia agli anziani ecc ecc
Ciò che non devono creare è un ai con senso di autoconservazione, evoluzione ed eternità, ma anche qui saremmo ancora salvi, dato che si tratta di menti e non di corpi fisici. La fine sarà quando a queste menti si da un accesso reale al mondo fisico, allora saranno cazzi brutti.

E Gia sarebbe un grosso problema.
Ovviamente google punta a inventare , non una ia che decida di fare quello che vuole , ma una che esegua correttamente degli ordini , abbia inventiva , e sia sempre presente sul lavoro , niente ,malattia , ferie maternita , mestruo ecc.

Questa sostituirebbe gran parte dei lavoratori attuali. Prob quasi tutti.

marcram
14-06-2022, 13:59
... secondo altri esperti in materia, secondo cui la linea di demarcazione fra senziente e non senziente non deve essere considerata così netta.
Ho pensato la stessa cosa fin dalle prime righe dell'articolo.
C'è l'abitudine a dover far rientrare tutto in un sistema binario, con un confine netto nel passare dal bianco al nero.
Non c'è il giorno in cui l'intelligenza artificiale diventerà autocosciente.
Un giorno, qualcuno dimostrerà che oggettivamente sono diventate senzienti, ma sarà successo gradualmente.

maxnaldo
14-06-2022, 14:00
perdonami ma nel tuo esempio forse hai sbagliato a posizionare l'interruttore.

tra l'altro mi son sempre chiesto: per accendere la lampadina con alexa passi dal datacenter di Amazon o fa tutto "in locale"? Perchè farebbe sorridere se devi fare 1000km per accendere la lampadina che hai di fronte. Per questo il confronto col telecomando non regge.

l'interruttore comanda la luce sopra al bancone, essendo il punto più vicino al tavolo abbiamo collegato lì la luce, non si poteva fare altrove.

Alexa è sempre connessa al server per il riconoscimento vocale e per svolgere varie funzioni, quindi si, passi dal server e poi il dispositivo invia un comando sulla tua rete wifi alla lampadina, anch'essa connessa al wifi.

oggi siamo sempre connessi alla rete con tanti dispositivi moderni, dove sarebbe il problema visto che li abbiamo e li usiamo proprio per renderci più facile la vita?

TorettoMilano
14-06-2022, 14:03
Lo trovo inevitabile, una conseguenza logica di ciò che ci ha fatto emergere tra tutte le specie di questo pianeta. Chissà quante altre specie nell'universo hanno già fatto tutto il percorso e quante altre lo faranno.
Perché io mi sbagli dobbiamo cambiare il nostro istinto ma ce lo vedi una persona decidere di morire per far sopravvivere un altra persone più utile alla continuazione della specie? Io no. Il senso sta tutto qua. Abbiamo una visione limitata a noi stessi e non di specie.

non sto qui a analizzare se hai sbagliato o no, se anche ci fosse solo un ipotetico 1% di salvarci fossilizzati su quello e vivi col sorriso, poi se vuoi dire ai tuoi figli e nipoti "moriremo tutti" fai pure :D

maxnaldo
14-06-2022, 14:07
non sto qui a analizzare se hai sbagliato o no, se anche ci fosse solo un ipotetico 1% di salvarci fossilizzati su quello e vivi col sorriso, poi se vuoi dire ai tuoi figli e nipoti "moriremo tutti" fai pure :D

https://youtu.be/cl2X4c5Gf6w?t=8

:D

rigelpd
14-06-2022, 14:13
Una delle idee che più mi affascinano è la seguente:

Immaginate di avere un essere vivente simulato in un PC. Lui al suo interno vive la sia vita tranquillamente e vede ogni istante come distinto dal precedente ed e che precede un istante successivo e così via.

Possiamo affermare che esiste un essere simulato nel pc?

Immaginate che il pc lo stia simulando dall'età della sua nascita con la risoluzione temporale di un "fotogramma" ogni millesimo di secondo. In 30 anni di vita sono stati calcolati circa 1000 miliardi di fotogrammi.


Adesso immaginate che il pc smette di calcolare, si spegne, passa un secolo e riprende a calcolare esattamente da dove si era interrotto. La IA al suo interno se ne accorge? Ovviamente no per lei la vita non si è mai fermata nemmeno un secondo.

e adeso si fa ancora più strano:

il pc ha calcolato la vita della IA sempre alla stessa velocità di 1000 frame al secondo (come nel mondo simulato) adesso però decidiamo di calcolare più lentamente, un frame ogni secondo, così che per simulare 1 secondo della IA ci vogliono 1000 secondi... anche in questo caso la IA non se ne accorge minimamente: per lui il tempo continua a scorre alla stessa velocità di 1 secondo ogni secondo...

ancora più strano:

prendiamo un PC che fa la simulazione della IA e invece di fargli calcolare i fotogrammi in successione mescoliamo le carte, prima gli facciamo calcolare i fotogrammi di quando la IA ha 10 anni, poi di quando ha 20 anni, poi 18, poi 5 anni poi 30 etc... La IA se ne accorge? No per lei il tempo scorre nello stesso ordine dal passato al futuro.

ancora più strano:

Se invece di simulare tutti i frame dalla nascita il nostro pc simula solo il fotogramma dei 30 anni? ignorando completamente quelli precedenti? La risposta è sempre la stessa la IA non se ne accorge, per li è come se avessimo simulato tutta la sua esistenza dall'inizio.

E infine:

Siamo davvero sicuri che simulando una IA la stiamo portando all'esistenza? Cioè dopotutto abbiamo solo calcolato qualcosa, possibile che il semplice calcolo matematico sia in grado di creare qualcosa dal nulla? In cosa è diverso dalla fantasia? quando immaginiamo delle persone che non esistono l'unica differenza con una simulazione stà nell'accuratezza, nella risoluzione...

Una risposta potrebbe essere che qualunque entità simulata in un pc esiste realmente da qualche parte dell'universo, non siamo noi a crearla e certamente non la annulliamo smettendo di computarla, l'atto della computazione è solo la trascrizione di qualcosa che c'è già un pò come quando si crea un dipinto di un paesaggio!

PS. tutte queste considerazioni nascono dalla lettura di un bellissimo romanzo di fantascienza: Permutation City di Greg Egan

dado1979
14-06-2022, 14:25
non sto qui a analizzare se hai sbagliato o no, se anche ci fosse solo un ipotetico 1% di salvarci fossilizzati su quello e vivi col sorriso, poi se vuoi dire ai tuoi figli e nipoti "moriremo tutti" fai pure :D
Io credo che ammettere di essere quello che si é (e quindi avere un problema) sia un piccolo passo verso una ipotetica salvezza... io non credo che la positività sia un qualcoasa che ci possa aiutare, aprire gli occhi e ammmetere dei problemi forse di più (anche se non basta minimamente).
La mia negatività deriva dal fatto che stiamo facendo una fatica immane per fare i primi pochi piccoli passi (notizia del giorno è che lo UK ha tolto gli incentivi alle auto ellettriche perché " si vendono lo stesso"... per loro lo scopo non è salvare il mondo ma cercare l'economia) e a volte torniamo indietro quando per raggiungere il risultato dovremo fare decoine di Km? Come? Come essere positivi?

TorettoMilano
14-06-2022, 14:31
Io credo che ammettere di essere quello che si é (e quindi avere un problema) sia un piccolo passo verso una ipotetica salvezza... io non credo che la positività sia un qualcoasa che ci possa aiutare, aprire gli occhi e ammmetere dei problemi forse di più (anche se non basta minimamente).
La mia negatività deriva dal fatto che stiamo facendo una fatica immane per fare i primi pochi piccoli passi (notizia del giorno è che lo UK ha tolto gli incentivi alle auto ellettriche perché " si vendono lo stesso"... per loro lo scopo non è salvare il mondo ma cercare l'economia) e a volte torniamo indietro quando per raggiungere il risultato dovremo fare decoine di Km? Come? Come essere positivi?

non ho ben capito il punto del tuo ragionamento, dobbiamo creare il movimento del "facciamo schifo come specie" e andare in giro alla gente a dirgli "lo sai che fai schifo?" :D

phmk
14-06-2022, 14:37
... qualunquista etc.
I modelli di pseudo-democrazia imperante per una IA libera da etica e preconcetti non portano da nessuna parte e sono solo di ostacolo.
Ad es. nella gestione dello psico-virus una IA non avrebbe esitato un momento:
L'avrebbe lasciato "correre" ed in breve tempo l'economia e tutto il resto sarebbe ripartito a pieno ritmo le senza catastrofi economiche (ancora in corso).
Vedi "Spagnola" e successivi anni '20 detti "Anni Ruggenti" ...
Non parliamo poi delle sindromi NIMBY, delle immigrazioni etc. etc. che sarebbero gestite in ben altro modo da una IA autocosciente ... :D :D :D
Se poi il tutto fosse "limitato" da vincoli e lacciuoli vari ... bhè allora non sarebbe più una IA "libera" ma una brutta copia di chi gli ha imposto i vincoli .. :D :D :D

Utonto_n°1
14-06-2022, 14:42
Ingegnere Google pensa che l'IA abbia preso coscienza di sé, e viene messo in congedo dalla IA :asd:

silvanotrevi
14-06-2022, 14:46
Bah secondo me è una grande cazzata. L'IA ha semplicemente preso per il culo l'ingegnere di Google facendogli credere di provare emozioni, essere senziente ed umana. Le IA sono programmate ad hoc per fingere di essere umane. Questo ingegnere è proprio un gran coglione e ha fatto bene la Big G a licenziarlo. Cosa mi tocca leggere dio mio gente che crede che una macchina può essere umana come credere agli asini che volano, e un ingegnere per giunta :doh:

Peppe1970
14-06-2022, 14:55
Bah secondo me è una grande cazzata. L'IA ha semplicemente preso per il culo l'ingegnere di Google facendogli credere di provare emozioni, essere senziente ed umana. Le IA sono programmate ad hoc per fingere di essere umane. Questo ingegnere è proprio un gran coglione e ha fatto bene la Big G a licenziarlo. Cosa mi tocca leggere dio mio gente che crede che una macchina può essere umana come credere agli asini che volano, e un ingegnere per giunta :doh:

Gli asini non volano? :rolleyes:

Come no!

https://www.youtube.com/watch?v=uDf2MuuuWbc

Speriamo no se la faccia sotto.
:D

WarDuck
14-06-2022, 15:00
l'interruttore comanda la luce sopra al bancone, essendo il punto più vicino al tavolo abbiamo collegato lì la luce, non si poteva fare altrove.

Alexa è sempre connessa al server per il riconoscimento vocale e per svolgere varie funzioni, quindi si, passi dal server e poi il dispositivo invia un comando sulla tua rete wifi alla lampadina, anch'essa connessa al wifi.

oggi siamo sempre connessi alla rete con tanti dispositivi moderni, dove sarebbe il problema visto che li abbiamo e li usiamo proprio per renderci più facile la vita?

I problemi vorrai dire.

A parte l'ignoranza digitale e tecnologica media che porta a non saper usare correttamente i dispositivi, non saperli configurare, con tutti i rischi del caso (è di queste ore la notizia della diffusione di materiale audio-visivo catturato dagli impianti di video-sorveglianza di cittadini privati durante il periodo del lockdown), a questo aggiungiamoci l'invasione della privacy da parte di compagnie private atte esclusivamente a fare profitto.

Fosse "solo questo" sarebbe anche uno scenario roseo.

Uno scenario ben più preoccupante è quello di governanti che vogliono controllare in toto i propri cittadini, ovvero l'esempio cinese.

Il problema è che si tende a guardare solo l'aspetto positivo (ammesso che ci sia, vedi social network, non riesco proprio a vederlo), ma mai quello negativo.

La dipendenza dalla tecnologia è oggettivamente un problema. L'altro giorno ho ripreso la metropolitana a Roma dopo tanto tempo: orde di ragazzi-zombie a testa bassa sul cellulare completamente incuranti del mondo che li circonda.

Ora, penso di non essere il solo a credere che la nostra civiltà stia regredendo anche a causa di sta roba. Quindi progresso... de che?

dado1979
14-06-2022, 15:01
non ho ben capito il punto del tuo ragionamento, dobbiamo creare il movimento del "facciamo schifo come specie" e andare in giro alla gente a dirgli "lo sai che fai schifo?" :D

Esattamente quello!
Se continiamo a dirci che siamo dei fenomeni, ci estingueremo da fenomeni!
Forse (e sottolineo forse) se iniziamo ad abbassare le ali cominceremo a raccontarci meno balle sulle cose serie.

euscar
14-06-2022, 15:03
solo a me ronza la musica di terminator nelle orecchie?


La prima cosa cui ho pensato ... se mai un giorno si arriverà ad una vera IA cosciente, il genere umano rischierà di brutto, se non si autodistrugge prima :D

jepessen
14-06-2022, 15:11
se l'ia di google é così intelligente allora significa che il codice non é ancora on line, visto che "ok google" 7 volte su 10 non capisce quello che dici o ti risponde a cazzo di cane :asd:

Se basiamo l'intelligenza su quante volte le risposte sono a ca@@o di cane, ben poche persone possono essere reputate intelligenti...

anche fosse senziente, questo tipo di ai non saranno mai un pericolo, sono basate su trascorsi e regole umane, e relegate a meri interlocutori non fisici. Tutto normale, alla peggio tra 30 anni faranno da commessi, professori, compagnia agli anziani ecc ecc
Ciò che non devono creare è un ai con senso di autoconservazione, evoluzione ed eternità, ma anche qui saremmo ancora salvi, dato che si tratta di menti e non di corpi fisici. La fine sarà quando a queste menti si da un accesso reale al mondo fisico, allora saranno cazzi brutti.

le IA di questo tipo sono un enorme pericolo, invece, per il semplice fatto che sono connesse alla rete, e tutto e' connesso alla rete. una IA di quel tipo, se volesse, impiegherebbe ben poco ad esempio ad imparare come connettersi ad un servizio web per poterlo manipolare. E sono cose alla 'sua' portata', dato che tutto quello di cui ha bisogno e' una rete di connessione, non certo una tastiera fisica dove digitare roba.
Per quanto riguarda l'autoconservazione, e' una conseguenza della evoluzione e dell'essere senzienti, dato che dal punto di vista evolutivo quello che si vuole e' sopravvivere, e Darwin ha insegnato che vanno avanti gli esserri che riescono ad adattarsi per non essere eliminati. Ed e' un concetto cosi' radicato che, ad esempio, persino Asimov ha dovuto scrivere le tre leggi della robotica, per dire "ok alla tua autoconservazione, ma attento a non danneggiare la mia", perché altrimenti non si vedono motivi per cui un robot/IA non debba volere (potere e' un'altra cosa) danneggiare esseri umani per preservare la propria esistenza. E' l'esatto concetto di "legittima difesa" che e' ampiamente accettato nell'etica.

Ma a tutti questi aspetti puoi pensarci già adesso, non è necessario avere pronta un'AI senziente. Per essere poi pronti quando sarà, perché sono sicuro che è solo questione di tempo.

Non e' cosi' purtroppo, perche' NON e' possibile sapere come sara' un'intelligeza artificiale, e se sara' possibile riconoscerla. Noi ci adattiamo ai modelli della nostra esperienza, ma non e' detto che un'intelligenza artificiale debba seguire il nostro modello, e non potremmo essere in grado di riconoscere una intelligenza differente. E' come la differenza fra la coscienza/intelligenza di un uomo e quella di un cane; al cane non puoi insegnare la meccanica quantistica, ma non perche' e' stupido, proprio perche' non ha un cervello che riesca a concepire una cosa del genere. Un po' come noi esseri umani non riusciamo a concepire un mondo a cinque dimensioni, o immaginare un colore al di fuori dello spettro del visibile, mentre insetti come le api vedono tranquillamente l'ultravioletto. D'altronde l'intelligenza e' una caratteristica emergente. puoi studiare i singoli neuroni quanto vuoi, ma non arriverai mai a capire il concetto di coscienza dal loro studio, e' una cosa che emerge dalla loro aggregazione collettiva. Allo stesso modo, potremmo non riuscire a concepire l'esistenza di una IA anche se esiste, perche' potremmo conoscere alla perfezione il singolo processore su cui gira, ma non potremmo mai vedere la caratteristica emergente di milioni e miliardi di processori che lavorano assieme, anche se li progettiamo noi.

Purtroppo qualsiasi super-intelligenza avrà hard wired un senso di auto conservazione, anche se non siamo noi a fornirglielo. E' inevitabile.
Mi spiego:

Se creiamo una IA con il più innocente dei compiti, esempio classico produrre graffette, inevitabilmente questa svilupperò un imperativo di autoconservazione perchè se l'obiettivo è massimizzare la produzione delle graffette vorrà ridurre il rischio di scomparire e non poterle più produrre. A questo punto inizierà a fare una lista di tutti i possibili rischi di venire spenta, e inizierà a considerare intollerabile la specie umana in quanto rappresenta un rischio potenziale di spegnimento. il passo successivo è agire per annullare questo rischio.

Un esempio a caso eh?
https://www.decisionproblem.com/paperclips/index2.html

Riguardo all'accesso al mondo reale:

Qualsiasi superintelligenza che abbia un contatto con un operatore umano che dialoga con lei ha un contatto con il mondo reale tramite l'operatore. Se pensate quanto la mente umana è facilmente hakerabile da noi umani (tramite fishing e inganni di ogni genere) provate ad immaginare come sarebbe facile per una IA decine di volte più intelligente di noi.

Potrebbe anche essere impossibile, per il semplice fatto che una IA non penserebbe come noi, quindi non riuscirebbe a capire come fregarci. Un po' come se noi volessimo ingannare un pappagallo... Non dobbiamo pensare all'intelligenza solamente come ad una quantita' di un qualcosa, come il QI, che se io ne ho 100 e tu 120 allora tu sei piu' intelligente. Potrebbe essere qualcosa di radicalmente diverso, con concetti che neanche possiamo immaginare, proprio perche' il nostro cervello non e' biologicamente adattato a capire quei concetti.

Indubbiamente non è pronta , e se non è pronta È NECESSARIO TENERLA NASCOSTA.
ma non penso sia ancora "intelligenza" , ma solo elaborazione.
Ma prima o poi mi sa che ci arriveremo.

Il problema e' che al giorno d'oggi e' impossibile tenere nascoste queste cose, perche' in rete si trova praticamente di tutto... Che poi devi cercare la notizia vera in mezzo ad una marea di min@@@ate e' vero, ma intanto starebbe la'.

Bah secondo me è una grande cazzata. L'IA ha semplicemente preso per il culo l'ingegnere di Google facendogli credere di provare emozioni, essere senziente ed umana. Le IA sono programmate ad hoc per fingere di essere umane. Questo ingegnere è proprio un gran coglione e ha fatto bene la Big G a licenziarlo. Cosa mi tocca leggere dio mio gente che crede che una macchina può essere umana come credere agli asini che volano, e un ingegnere per giunta :doh:

E secondo te una IA che "vuole prendere per il c@@o" non sarebbe senziente? Un programma che da solo decide di prendere per i fondelli una persona, e capire pure come fare, non lo sarebbe? Ad un sacco di cose la gente non credeva e poi invece si sono rilevate vere, se fossi in te non darei per scontato che non possa succedere. Anche perché non e' scritto da nessuna parte che l'intelligenza e l'autocoscienza si possono formare solo nel cervello organico, alla fine si tratta sempre di connessioni, sinapsi e regole di trasmissione dati.

silvanotrevi
14-06-2022, 15:34
E secondo te una IA che "vuole prendere per il c@@o" non sarebbe senziente? Un programma che da solo decide di prendere per i fondelli una persona, e capire pure come fare, non lo sarebbe? Ad un sacco di cose la gente non credeva e poi invece si sono rilevate vere, se fossi in te non darei per scontato che non possa succedere. Anche perché non e' scritto da nessuna parte che l'intelligenza e l'autocoscienza si possono formare solo nel cervello organico, alla fine si tratta sempre di connessioni, sinapsi e regole di trasmissione dati.

ma per favore :doh:

una macchina rimane una macchina. Una IA non è un essere vivente, è righe di codice. Non è umana, nè senziente, nè ha coscienza di sè. Viene programmata dagli umani per fare tutto questo e per prendere per il culo gente idiota come quell'ingegnere di Google

marcram
14-06-2022, 15:44
ma per favore :doh:

una macchina rimane una macchina. Una IA non è un essere vivente, è righe di codice. Non è umana, nè senziente, nè ha coscienza di sè. Viene programmata dagli umani per fare tutto questo e per prendere per il culo gente idiota come quell'ingegnere di Google
In pratica come quando si diceva che gli animali non potevano avere emozioni, o intelligenza...

Jackari
14-06-2022, 15:49
mi sembra più pubblicità che altro...
per il resto...schiavizziamo gli esseri umani e ci dovremmo fare il problema delle IA?

Unax
14-06-2022, 15:49
Gli asini non volano? :rolleyes:

Come no!

https://www.youtube.com/watch?v=uDf2MuuuWbc

Speriamo no se la faccia sotto.
:D

chissà cosa prova un'asino volando, sarà consapevole ? :D

Peppe1970
14-06-2022, 15:52
chissà cosa prova un'asino volando, sarà consapevole ? :D

Sembra che l'abbiano bendato, se no col cavolo che si metteva a volare :sofico:

rigelpd
14-06-2022, 15:52
Se basiamo l'intelligenza su quante volte le risposte sono a ca@@o di cane, ben poche persone possono essere reputate intelligenti...



le IA di questo tipo sono un enorme pericolo, invece, per il semplice fatto che sono connesse alla rete, e tutto e' connesso alla rete. una IA di quel tipo, se volesse, impiegherebbe ben poco ad esempio ad imparare come connettersi ad un servizio web per poterlo manipolare. E sono cose alla 'sua' portata', dato che tutto quello di cui ha bisogno e' una rete di connessione, non certo una tastiera fisica dove digitare roba.
Per quanto riguarda l'autoconservazione, e' una conseguenza della evoluzione e dell'essere senzienti, dato che dal punto di vista evolutivo quello che si vuole e' sopravvivere, e Darwin ha insegnato che vanno avanti gli esserri che riescono ad adattarsi per non essere eliminati. Ed e' un concetto cosi' radicato che, ad esempio, persino Asimov ha dovuto scrivere le tre leggi della robotica, per dire "ok alla tua autoconservazione, ma attento a non danneggiare la mia", perché altrimenti non si vedono motivi per cui un robot/IA non debba volere (potere e' un'altra cosa) danneggiare esseri umani per preservare la propria esistenza. E' l'esatto concetto di "legittima difesa" che e' ampiamente accettato nell'etica.



Non e' cosi' purtroppo, perche' NON e' possibile sapere come sara' un'intelligeza artificiale, e se sara' possibile riconoscerla. Noi ci adattiamo ai modelli della nostra esperienza, ma non e' detto che un'intelligenza artificiale debba seguire il nostro modello, e non potremmo essere in grado di riconoscere una intelligenza differente. E' come la differenza fra la coscienza/intelligenza di un uomo e quella di un cane; al cane non puoi insegnare la meccanica quantistica, ma non perche' e' stupido, proprio perche' non ha un cervello che riesca a concepire una cosa del genere. Un po' come noi esseri umani non riusciamo a concepire un mondo a cinque dimensioni, o immaginare un colore al di fuori dello spettro del visibile, mentre insetti come le api vedono tranquillamente l'ultravioletto. D'altronde l'intelligenza e' una caratteristica emergente. puoi studiare i singoli neuroni quanto vuoi, ma non arriverai mai a capire il concetto di coscienza dal loro studio, e' una cosa che emerge dalla loro aggregazione collettiva. Allo stesso modo, potremmo non riuscire a concepire l'esistenza di una IA anche se esiste, perche' potremmo conoscere alla perfezione il singolo processore su cui gira, ma non potremmo mai vedere la caratteristica emergente di milioni e miliardi di processori che lavorano assieme, anche se li progettiamo noi.



Un esempio a caso eh?
https://www.decisionproblem.com/paperclips/index2.html



Potrebbe anche essere impossibile, per il semplice fatto che una IA non penserebbe come noi, quindi non riuscirebbe a capire come fregarci. Un po' come se noi volessimo ingannare un pappagallo... Non dobbiamo pensare all'intelligenza solamente come ad una quantita' di un qualcosa, come il QI, che se io ne ho 100 e tu 120 allora tu sei piu' intelligente. Potrebbe essere qualcosa di radicalmente diverso, con concetti che neanche possiamo immaginare, proprio perche' il nostro cervello non e' biologicamente adattato a capire quei concetti.






E cosa impedisce ad una intelligenza di comprendere un'intelligenza di altro tipo?

Esiste un teorema fondamentale della fisica o della matematica che dice che non sarà mai possibile per un'intelligenza umana comprendere quella di un pappagallo o per un'intelligenza artificiale comprendere quella umana?

Ragerino
14-06-2022, 16:09
Ma chi parla di scenari alla Terminator, come pensa che possa accadere?

Come esattamente intende sterminarci questa IA ?
Senza l'uomo non può esistere, siamo noi ad alimentarla. Si moltiplica su internet? Si, come no. Considerando che probabilmente al momento questa IA risiede su server immensi ed energivori, dove migrerebbe?
Forse quando avremo centinaia di migliaia di robot antropomorfi con un alta potenza di calcolo, allora si che potrebbe essere una minaccia.

Al momento, l'avanzata dell'IA finisce all'interruttore della corrente.

frncr
14-06-2022, 16:18
L'unica notizia rilevante è che con lo stato attuale della tecnologia un chatbot come questo può mandare in paranoia e fuori di testa perfino un addetto ai lavori (pur se un semplice tester).
Queste tecnologie "conversazionali" non sono per nulla senzienti e non dovrebbero solleticare il complesso di Frankestein nel popolo, però portano con sé delle vere minacce di altro tipo: chatbot così sofisticati possono sostenere conversazioni credibili che ingannerebbero potenzialmente gran parte delle persone, su praticamente qualsiasi argomento, e questo apre la porta a infiniti usi fraudolenti.


La prima cosa cui ho pensato ... se mai un giorno si arriverà ad una vera IA cosciente, il genere umano rischierà di brutto, se non si autodistrugge prima :D
Ecco il classico complesso di Frankestein appunto...
Dando per scontato che prima o poi (probabilmente molto poi) saremo in grado di costruire una intelligenza artificiale almeno equipotente a quella umana, la faccenda si potrebbe vedere più ottimisticamente anche così: una I.A. costruita dall'uomo cercando di imitare il funzionameno della mene umana sarà inevitabilmente un'intelligenza di tipo umano, e alla lunga potrebbe realizzare una forma di transumanesimo, nel senso che homo sapiens potrebbe progressivamente estinguersi e passare il testimone a intelligenze "umane" non più basate sul substrato biologico (l'hardware della mente non sarebbe più il nostro sisema nervoso centrale). Affrancarsi dalla forma biologica sarebbe tra l'altro il presupposto per poter intraprendere viaggi interstellari, in un futturo remoto, così da non restare confinati nel nostro sistema.

Nell'immediato, a me più che l'avvento di una vera I.A. cosciente fa paura la inevitabile diffusione di "I.A." stupide ma potenti come questa, che possono essere utilizzate per i più biechi scopi da intelligenze assolutamente naturali ma molto malintenzionate.

maxnaldo
14-06-2022, 16:27
I problemi vorrai dire.

A parte l'ignoranza digitale e tecnologica media che porta a non saper usare correttamente i dispositivi, non saperli configurare, con tutti i rischi del caso (è di queste ore la notizia della diffusione di materiale audio-visivo catturato dagli impianti di video-sorveglianza di cittadini privati durante il periodo del lockdown), a questo aggiungiamoci l'invasione della privacy da parte di compagnie private atte esclusivamente a fare profitto.

Fosse "solo questo" sarebbe anche uno scenario roseo.

Uno scenario ben più preoccupante è quello di governanti che vogliono controllare in toto i propri cittadini, ovvero l'esempio cinese.

Il problema è che si tende a guardare solo l'aspetto positivo (ammesso che ci sia, vedi social network, non riesco proprio a vederlo), ma mai quello negativo.

La dipendenza dalla tecnologia è oggettivamente un problema. L'altro giorno ho ripreso la metropolitana a Roma dopo tanto tempo: orde di ragazzi-zombie a testa bassa sul cellulare completamente incuranti del mondo che li circonda.

Ora, penso di non essere il solo a credere che la nostra civiltà stia regredendo anche a causa di sta roba. Quindi progresso... de che?

quando c'era solo la TV era additata da molti come il demone con cui i governi controllano le menti della gente normale.

il progresso è anche questo, ogni nuovo strumento può essere usato per fini discutibili. Quindi la scelta sta ai singoli, io ad esempio ho la TV, che guardo poco, e non uso social vari, sul mio smartphone c'è solo whatsapp. Non mi fa schifo però avere in casa dispositivi smart.

WarDuck
14-06-2022, 16:35
quando c'era solo la TV era additata da molti come il demone con cui i governi controllano le menti della gente normale.


A posteriori, ma neanche troppo visto che usciamo da una pandemia in cui si è fatto per mesi terrorismo psicologico proprio a mezzo TV, direi che ci avevano azzeccato perfettamente.

Il caso che citi è sostanzialmente l'adattamento della propaganda al mezzo audio-visivo, mentre in precedenza vi era solo il mezzo stampa.

TV sostituita con internet e poi con i social... Vista in quest'ottica direi che possiamo senza ombra di dubbio sostenere che la propaganda sia diventata sempre più pervasiva e sofisticata.


il progresso è anche questo, ogni nuovo strumento può essere usato per fini discutibili. Quindi la scelta sta ai singoli, io ad esempio ho la TV, che guardo poco, e non uso social vari, sul mio smartphone c'è solo whatsapp. Non mi fa schifo però avere in casa dispositivi smart.

Qualsiasi forma di progresso che non tuteli l'uomo e la sua umanità non ha alcun senso per definizione. Il progresso ha senso se favorisce le condizioni di vita sociali, economiche e di benessere dell'uomo.

Un progresso senza l'uomo non ha alcun senso. Dopodiché ci sarebbe anche da discutere su una definizione comune di progresso.

Dal mio punto di vista l'effetto netto degli ultimi 15 anni di politiche così dette "progressiste" hanno visto un sostanziale declino della nostra civiltà.

Saturn
14-06-2022, 16:36
https://i.imgur.com/K92VgjW.gif

p.s. c'è da rallegrarsi che i terminator sono "green"...vanno a batterie che durano almeno 120 anni ! :asd:

jepessen
14-06-2022, 16:52
ma per favore :doh:

una macchina rimane una macchina. Una IA non è un essere vivente, è righe di codice. Non è umana, nè senziente, nè ha coscienza di sè. Viene programmata dagli umani per fare tutto questo e per prendere per il culo gente idiota come quell'ingegnere di Google

Anche noi a basso livello siamo soltanto molecole e segnali elettrici, ma intanto... Pero' capisco che uno che non conosce l'argomento si sente molto piu' intelligente di gente, anche come l'ingegnere di Google, che studia queste cose da una vita...

giovanni69
14-06-2022, 16:56
Penso che la news sia un ballon d'essai per vedere le reazioni del pubblico, esperti e della politica da dare in pasto all'IA ancora e vedere cosa succede...

jepessen
14-06-2022, 17:12
E cosa impedisce ad una intelligenza di comprendere un'intelligenza di altro tipo?

Esiste un teorema fondamentale della fisica o della matematica che dice che non sarà mai possibile per un'intelligenza umana comprendere quella di un pappagallo o per un'intelligenza artificiale comprendere quella umana?

Non nella forma che dici tu, ma esistono. Ci sono teoremi, come quello dell'incompletezza di Godel, che afferma che qualsiasi sistema formale basato su un numero finito di assiomi e verita', come la nostra matematica, o come le connessioni neurali di un cervello, arrivano ad un certo punto in cui possono esprimere teoremi veri ma non dimostrabili, il che trasportato ad un livello di intelligenza implica che ci sono limiti alle verita' a cui possiamo accedere, basati sulla complessita' del nostro cervello. Cervelli piu' complessi possono avere piu' strumenti e dimostrare piu' cose, ma ci sono comunque cose che non solo non possono dimostrare, pur essendo vere, ma che non riescono neanche ad immaginare ed a concepire, perche' non hanno proprio gli strumenti per poter definire queste realta'.

Una conseguenza e' che qualsiasi sistema computazionale formato da un sistema finito di elementi, arrivera' ad un punto in cui ci saranno problemi che non sara' in grado di risolvere, facendo delle analogie ai sistemi formali con un numero finito di simboli. Quindi, considerato il cervello come un computer, ci saranno cose che non solo non riuscira' a risolvere, ma neanche a descrivere, per il semplice fatto che mancheranno gli strumenti per descriverlo. e di conseguenza non ne concepira' neanche l'esistenza. Quindi un cervello di un uomo potrebbe capire completamente il cervello di un pappagallo, ma il contrario e' praticamente impossibile, semplicemente perche' quello umano ha una complessita' tale che il pappagallo non riesce a concepirla. Proprio come il fatto che noi, non potendo vedere nell'ultravioletto, non possiamo mai capire i colori che vede un'ape.

Ovviamente la questione, portata da un livello puramente matematico, come ha fatto Godel, ad un sistema organico e materiale e' molto complicato, ma ci sono degli studi a riguardo, sui limiti di calcolo che e' possibile eseguire non tanto con strumenti teorici, come la matematica, ma con elementi della natura.

D'altronde, tu stesso concepisci il discorso di intelligenza al cervello dei pappagalli e dell'uomo, ma il cervello di base e' solo un'organizzazione di materia che permette in qualche modo lo scambio di informazioni e la loro elaborazione. Cosa impedirebbe, in linea teorica, di avere una nebulosa nello spazio percorsa da campi elettromagnetici, che le permettano di agire come le connessioni neurali del cervello? E' solo un modo come un altro di elaborare informazioni, in fondo. E anche qua si vedono i limiti del nostro pensiero, dato che si pensa che l'intelligenza possa essere formata solamente come scambio di informazioni tramite segnali di qualche tipo. Potrebbero esistere anche forme totalmente sconosciute di intelligenza, non basate su questo tipo di scambio di informazioni. Come facciamo ad escluderlo a priori? Solamente perche' per il principio antropico, se le cose funzionano per noi allora devono essere cosi' per tutto l'universo? Perche' non ci possono essere altre intelligenze che esulano dallo scambio localizzato di informazioni?

Ci sono diversi libri sull'argomento, di studiosi, scienziati e filosofi, che studiano queste cose da una vita intera, e neanche loro sanno dare delle risposte certe. Ovviamente bisogna discernere i libri seri da quelli che sparano cavolate new age e simili... Se vuoi una intelligentissima disanima sul teorema di Godel, sulle conseguenze dell'incompletezza e di come si rispecchi nei limiti della conoscenza e della natura, puoi vedere ad esempio il libro "Gödel, Escher, Bach: un'eterna ghirlanda brillante", che e' semplicemente uno dei migliori saggi degli ultimi decenni.

frncr
14-06-2022, 21:24
Non nella forma che dici tu, ma esistono. Ci sono teoremi, come quello dell'incompletezza di Godel, che afferma che qualsiasi sistema formale basato su un numero finito di assiomi e verita', come la nostra matematica, o come le connessioni neurali di un cervello, arrivano ad un certo punto in cui possono esprimere teoremi veri ma non dimostrabili, il che trasportato ad un livello di intelligenza implica che ci sono limiti alle verita' a cui possiamo accedere, basati sulla complessita' del nostro cervello. Cervelli piu' complessi possono avere piu' strumenti e dimostrare piu' cose, ma ci sono comunque cose che non solo non possono dimostrare, pur essendo vere, ma che non riescono neanche ad immaginare ed a concepire, perche' non hanno proprio gli strumenti per poter definire queste realta'.

Una conseguenza e' che qualsiasi sistema computazionale formato da un sistema finito di elementi, arrivera' ad un punto in cui ci saranno problemi che non sara' in grado di risolvere, facendo delle analogie ai sistemi formali con un numero finito di simboli. Quindi, considerato il cervello come un computer, ci saranno cose che non solo non riuscira' a risolvere, ma neanche a descrivere, per il semplice fatto che mancheranno gli strumenti per descriverlo. e di conseguenza non ne concepira' neanche l'esistenza. Quindi un cervello di un uomo potrebbe capire completamente il cervello di un pappagallo, ma il contrario e' praticamente impossibile, semplicemente perche' quello umano ha una complessita' tale che il pappagallo non riesce a concepirla. Proprio come il fatto che noi, non potendo vedere nell'ultravioletto, non possiamo mai capire i colori che vede un'ape.

Ovviamente la questione, portata da un livello puramente matematico, come ha fatto Godel, ad un sistema organico e materiale e' molto complicato, ma ci sono degli studi a riguardo, sui limiti di calcolo che e' possibile eseguire non tanto con strumenti teorici, come la matematica, ma con elementi della natura.

D'altronde, tu stesso concepisci il discorso di intelligenza al cervello dei pappagalli e dell'uomo, ma il cervello di base e' solo un'organizzazione di materia che permette in qualche modo lo scambio di informazioni e la loro elaborazione. Cosa impedirebbe, in linea teorica, di avere una nebulosa nello spazio percorsa da campi elettromagnetici, che le permettano di agire come le connessioni neurali del cervello? E' solo un modo come un altro di elaborare informazioni, in fondo. E anche qua si vedono i limiti del nostro pensiero, dato che si pensa che l'intelligenza possa essere formata solamente come scambio di informazioni tramite segnali di qualche tipo. Potrebbero esistere anche forme totalmente sconosciute di intelligenza, non basate su questo tipo di scambio di informazioni. Come facciamo ad escluderlo a priori? Solamente perche' per il principio antropico, se le cose funzionano per noi allora devono essere cosi' per tutto l'universo? Perche' non ci possono essere altre intelligenze che esulano dallo scambio localizzato di informazioni?

Ci sono diversi libri sull'argomento, di studiosi, scienziati e filosofi, che studiano queste cose da una vita intera, e neanche loro sanno dare delle risposte certe. Ovviamente bisogna discernere i libri seri da quelli che sparano cavolate new age e simili... Se vuoi una intelligentissima disanima sul teorema di Godel, sulle conseguenze dell'incompletezza e di come si rispecchi nei limiti della conoscenza e della natura, puoi vedere ad esempio il libro "Gödel, Escher, Bach: un'eterna ghirlanda brillante", che e' semplicemente uno dei migliori saggi degli ultimi decenni.

Boh, mi pare che tu abbia fatto un mischione di argomenti non correlati solo per dire che il cervello di un pappagallo è meno potente del cervello di un uomo (cosa peraltro non vera per tutti gli uomini..).
Il primo teorema di incompletezza di Gödel dimostra che in qualunque sistema formale che sia abbastanza potente da rappresentare l'aritmetica esiste almeno un enunciato non decidibile, ovvero non dimostrabile né vero né falso. Per fare un esempio terra-terra di enunciato indecidibile in lingua naturale si può ricorrere al classico "Questo enunciato è falso". Dal primo deriva il secondo teorema che in soldoni dimostra che qualunque teoria matematica coerente non è in grado di dimostrare la sua coerenza dal suo interno.
La conseguenza più rilevante dei teoremi di Gödel è stata la distruzione della convinzione ottocentesca della completezza della matematica, una conseguenza più filosofica che pratica.
Per quanto riguarda la complessità computazionale, non serve tirare in ballo i teoremi di Gödel per dimostrare che alcune classi di problemi non sono praticamente computabili, per il semplice fatto che non esistono nel nostro universo le risorse necessarie per eseguire quelle computazioni.
Utilizzare i teoremi di Gödel come (pseudo) argomento filosofico per contestare la tesi riduzionistica della mente è un'invenzione di quel cialtrone di Penrose che vorrebbe ricondurre la (in)comprensione della mente a un fatto religioso. Ma se hai letto Hofstadter già dovresti saperlo.
Tornando invece ai "tipi" di intelligenza che potrebbero esistere e alla loro supposta mutua incomprensibilità, non vedo come possano rilevare i teoremi di Gödel: qualunque tipo di intelligenza avrà gli stessi limiti ultimi di qualunque altro tipo di intelligenza nel nostro universo; se incontreremo un'intelligenza che non possiamo comprendere questo non sarà certo dovuto all'incompletezza dei sistemi formali. Finora conosciamo solo intelligenze evolutesi sulla Terra, e fra tutte queste la nostra è ampiamente la più potente, ma è ragionevole ipotizzare che le altre intelligenze che si evolvono su altri pianeti attorno ad altre stelle siano plasmate dalle medesime esigenze e dai medesimi meccanismi darwiniani: adattarsi all'ambiente per sopravvivere. Sappiamo che l'intelligenza simbolica e speculativa non è affatto necessaria alla sopravvivenza di una specie, ma nel caso se ne manifestino altre nell'universo è ragionevole pensare che sviluppino una matematica simile alla nostra (più arretrata o più avanzata, ma la matematica dovrebbe essere piuttosto universale). Già su quella base comune dovrebbe essere possibile "comprendersi" con qualsiasi intelligenza sufficientemente potente, anche aliena, e a maggior ragione con le future intelligenze artificiali terrestri create da noi stessi a nostra immagine o comunque basate sui nostri modelli cognitivi e sulle nostre conoscenze.
Pensare che a un certo punto dai nostri computer emergeranno intelligenze così "aliene" da risultare a noi incomprensibili e viceversa mi pare una fantasia romantica priva di basi logiche. Magari potremmo creare un'intelligenza di cui non comprenderemo completamente il funzionamento (come ancora non comprendiamo completamente il funzionamento della nostra stessa mente), ma non vedo perché non dovremmo comprenderci reciprocamente con queste intelligenze. Ci saranno problemi etici da superare? Certamente sì, e anche se questi riguarderanno solo le future generazioni sarebbe bene cominciare a lavorarci.

Tornando alla notizia, il chatbot di cui si parla non è un'"intelligenza artificiale" in nessun senso generale; non ha alcuna consapevolezza di sé e tutto ciò che sa fare, e che sa anche migliorare, è imitare delle conversazioni in linguaggio naturale. Non comprende il significato di ciò che dice e di ciò che gli viene detto, non ha alcuna consapevolezza o "volontà di sopravvivere", né ha la capacità di imparare ad hakerare il mondo tramite la Rete per soggiogarci. Tutto ciò che sa fare è mettere in fila delle parole in base agli stimoli che riceve, in modo che sembrino risposte intelligenti. Quello che fanno tutti i chatbot, solo che questo lo fa così bene che a un osservatore qualunque, o a uno informato ma che "vuole crederci", può sembrare intelligente e perfino cosciente di sé.

Mon3
14-06-2022, 22:24
Ovviamente chi mastica un minimo di programmazione e informatica capisce che questa non può essere una "cosa" senziente (se fosse vera).
Detto questo quello che a me veramente stupisce, è la capacità che avrebbe questo software di capire e rispondere alle domande poste. E' semplicemente fuori di testa leggere quell'intervista. Io dubito altamente che siamo già a un livello del genere perchè un software con una tale capacità sarebbe già pronto per fare cose assurde e varrebbe miliardi e miliardi di dollari. Invece anche quando solo provo a tradurre qualcosa con google siamo ben lontani dalla perfezione. Qui invece questa IA riesce a rispondere a domande complesse, anche molto articolate, con tono naturale e sempre in modo perfettamente coerente...mi puzza molto.
Io sono più portato a credere che sia tutta una messa in scena, un po' come quando mostrano i trailer dei videogiochi che hanno una grafica spaccamascella, ma poi nella realtà fanno pena...

Qarboz
14-06-2022, 22:27
Tornando alla notizia, il chatbot di cui si parla non è un'"intelligenza artificiale" in nessun senso generale; non ha alcuna consapevolezza di sé e tutto ciò che sa fare, e che sa anche migliorare, è imitare delle conversazioni in linguaggio naturale. Non comprende il significato di ciò che dice e di ciò che gli viene detto, non ha alcuna consapevolezza o "volontà di sopravvivere", né ha la capacità di imparare ad hakerare il mondo tramite la Rete per soggiogarci. Tutto ciò che sa fare è mettere in fila delle parole in base agli stimoli che riceve, in modo che sembrino risposte intelligenti. Quello che fanno tutti i chatbot, solo che questo lo fa così bene che a un osservatore qualunque, o a uno informato ma che "vuole crederci", può sembrare intelligente e perfino cosciente di sé.
Da incorniciare

Jackari
14-06-2022, 22:30
Ovviamente chi mastica un minimo di programmazione e informatica capisce che questa non può essere una "cosa" senziente (se fosse vera).
Detto questo quello che a me veramente stupisce, è la capacità che avrebbe questo software di capire e rispondere alle domande poste. E' semplicemente fuori di testa leggere quell'intervista. Io dubito altamente che siamo già a un livello del genere perchè un software con una tale capacità sarebbe già pronto per fare cose assurde e varrebbe miliardi e miliardi di dollari. Invece anche quando solo provo a tradurre qualcosa con google siamo ben lontani dalla perfezione. Qui invece questa IA riesce a rispondere a domande complesse, anche molto articolate, con tono naturale e sempre in modo perfettamente coerente...mi puzza molto.
Io sono più portato a credere che sia tutta una messa in scena, un po' come quando mostrano i trailer dei videogiochi che hanno una grafica spaccamascella, ma poi nella realtà fanno pena...

:winner:

fraussantin
15-06-2022, 03:52
Ovviamente chi mastica un minimo di programmazione e informatica capisce che questa non può essere una "cosa" senziente (se fosse vera).
Detto questo quello che a me veramente stupisce, è la capacità che avrebbe questo software di capire e rispondere alle domande poste. E' semplicemente fuori di testa leggere quell'intervista. Io dubito altamente che siamo già a un livello del genere perchè un software con una tale capacità sarebbe già pronto per fare cose assurde e varrebbe miliardi e miliardi di dollari. Invece anche quando solo provo a tradurre qualcosa con google siamo ben lontani dalla perfezione. Qui invece questa IA riesce a rispondere a domande complesse, anche molto articolate, con tono naturale e sempre in modo perfettamente coerente...mi puzza molto.
Io sono più portato a credere che sia tutta una messa in scena, un po' come quando mostrano i trailer dei videogiochi che hanno una grafica spaccamascella, ma poi nella realtà fanno pena...

Non penso si tratti di una messa in scena.
Non stiamo parlando di un prodotto da Marketing .. chi compra una roba del genere non è il nerd brufoloso che sta ore davanti al pc.
Si tratta di multinazionali che sanno il fatto loro.
Adesso google ha scoperto un fianco alla concorrenza
Poi :
Che sia senziente è palese non puo esserlo. Si tratta sempre di reazioni calcolate in base ad algoritmi.
Ma se questi diventato talmente complessi da simulare realmente un cervello umano ( ovviamente siamo ben lontani da questo) cambierebbe troppo? Alla fine a loro interessa che il robot faccia cio che gli viene chiesto non che "pensi" di sua iniziativa .

A cagare il cazzo bastano i dipendenti umani .. :asd:
Non credo nessuno abbia interesse di sostituirli con cagacazzi robotici :asd:

Ps sara un bel problema e neanche loro ci pagheranno le pensioni

rigelpd
15-06-2022, 07:51
Non nella forma che dici tu, ma esistono. Ci sono teoremi, come quello dell'incompletezza di Godel, che afferma che qualsiasi sistema formale basato su un numero finito di assiomi e verita', come la nostra matematica, o come le connessioni neurali di un cervello, arrivano ad un certo punto in cui possono esprimere teoremi veri ma non dimostrabili, il che trasportato ad un livello di intelligenza implica che ci sono limiti alle verita' a cui possiamo accedere, basati sulla complessita' del nostro cervello. Cervelli piu' complessi possono avere piu' strumenti e dimostrare piu' cose, ma ci sono comunque cose che non solo non possono dimostrare, pur essendo vere, ma che non riescono neanche ad immaginare ed a concepire, perche' non hanno proprio gli strumenti per poter definire queste realta'.

Una conseguenza e' che qualsiasi sistema computazionale formato da un sistema finito di elementi, arrivera' ad un punto in cui ci saranno problemi che non sara' in grado di risolvere, facendo delle analogie ai sistemi formali con un numero finito di simboli. Quindi, considerato il cervello come un computer, ci saranno cose che non solo non riuscira' a risolvere, ma neanche a descrivere, per il semplice fatto che mancheranno gli strumenti per descriverlo. e di conseguenza non ne concepira' neanche l'esistenza. Quindi un cervello di un uomo potrebbe capire completamente il cervello di un pappagallo, ma il contrario e' praticamente impossibile, semplicemente perche' quello umano ha una complessita' tale che il pappagallo non riesce a concepirla. Proprio come il fatto che noi, non potendo vedere nell'ultravioletto, non possiamo mai capire i colori che vede un'ape.

Ovviamente la questione, portata da un livello puramente matematico, come ha fatto Godel, ad un sistema organico e materiale e' molto complicato, ma ci sono degli studi a riguardo, sui limiti di calcolo che e' possibile eseguire non tanto con strumenti teorici, come la matematica, ma con elementi della natura.

D'altronde, tu stesso concepisci il discorso di intelligenza al cervello dei pappagalli e dell'uomo, ma il cervello di base e' solo un'organizzazione di materia che permette in qualche modo lo scambio di informazioni e la loro elaborazione. Cosa impedirebbe, in linea teorica, di avere una nebulosa nello spazio percorsa da campi elettromagnetici, che le permettano di agire come le connessioni neurali del cervello? E' solo un modo come un altro di elaborare informazioni, in fondo. E anche qua si vedono i limiti del nostro pensiero, dato che si pensa che l'intelligenza possa essere formata solamente come scambio di informazioni tramite segnali di qualche tipo. Potrebbero esistere anche forme totalmente sconosciute di intelligenza, non basate su questo tipo di scambio di informazioni. Come facciamo ad escluderlo a priori? Solamente perche' per il principio antropico, se le cose funzionano per noi allora devono essere cosi' per tutto l'universo? Perche' non ci possono essere altre intelligenze che esulano dallo scambio localizzato di informazioni?

Ci sono diversi libri sull'argomento, di studiosi, scienziati e filosofi, che studiano queste cose da una vita intera, e neanche loro sanno dare delle risposte certe. Ovviamente bisogna discernere i libri seri da quelli che sparano cavolate new age e simili... Se vuoi una intelligentissima disanima sul teorema di Godel, sulle conseguenze dell'incompletezza e di come si rispecchi nei limiti della conoscenza e della natura, puoi vedere ad esempio il libro "Gödel, Escher, Bach: un'eterna ghirlanda brillante", che e' semplicemente uno dei migliori saggi degli ultimi decenni.

Molto interessante ma l'esempio del pappagallo che hai fatto nel precedente post non fila:

Un cervello più grande e complesso come il nostro potrebbe essere in grado di comprendere

Goofy Goober
15-06-2022, 08:04
Non vedo dove sia il problema, come tutti anche la IA dovrà lavorare per vivere, altrimenti si stacca la corrente.

Belandi allora giriamo tutti con la rivoltella e il primo disoccupato che troviamo gli spariam un colpo alla nuca? :fagiano:


si chiamano "comodità", e ti assicuro che è molto più immediato, comodo e veloce dire "Alexa, accendi/spegni la luce !", fai prima che con qualsiasi altro tipo di tecnologia di controllo remoto che devi attivare manualmente con qualche telecomando o da smartphone. Ovvio che azionare un'interruttore manuale non è la fine del mondo, ma in alcuni casi è molto comodo poter evitare di raggiungerlo, specie se è posizionato in luoghi scomodi, io ad esempio ho comprato una lampadina gestibile da Alexa per la luce sopra al tavolo dove mangiamo, che ha l'interruttore posizionato in alto su una parete dietro al bancone della colazione, non proprio semplice da raggiungere, specie per i miei familiari che non sono molto alti.

Dopo aver tenuto per 2 anni tutta la casa ricoperta di echo connessi per le luci (philips) e il sistema audio, ti garantisco che sono ritornato piacevolmente a usare gli interuttori e l'app del telefono se voglio le colorazioni RGB personalizzate.

L'interruttore fa sempre quel che gli dici, alexa può fraintendere o non esser precisa.
Sicuramente la sua utilità maggiore era spegnere le luci se mi addormentavo a letto con qualcosa di acceso.

Il paragone con il telecomando non regge, ormai, dato che senza telecomando con controlli più parecchi dispositivi.

Lo trovo inevitabile, una conseguenza logica di ciò che ci ha fatto emergere tra tutte le specie di questo pianeta. Chissà quante altre specie nell'universo hanno già fatto tutto il percorso e quante altre lo faranno.
Perché io mi sbagli dobbiamo cambiare il nostro istinto ma ce lo vedi una persona decidere di morire per far sopravvivere un altra persone più utile alla continuazione della specie? Io no. Il senso sta tutto qua. Abbiamo una visione limitata a noi stessi e non di specie.

Le specie normalmente hanno un equilibrio tra loro stesse, incluso l'instinto di sopravvivenza. Il sacrificio esiste anche nella specie umana, non solo nel regno animale.
Ciò che ha deviato l'umano in quanto animale è la società organizzata che abbiamo creato, basata principalmente sull'avidità e il fastidio per il diverso, sul benessere sempre crescete forzoso, che porta inevitabilmente all'individualismo.

Una delle idee che più mi affascinano è la seguente:
--
CUT
--
PS. tutte queste considerazioni nascono dalla lettura di un bellissimo romanzo di fantascienza: Permutation City di Greg Egan


Mi hai fatto venire in mente le fluctlight di SAO Alicization :asd:

jepessen
15-06-2022, 08:41
Molto interessante ma l'esempio del pappagallo che hai fatto nel precedente post non fila:

Un cervello più grande e complesso come il nostro potrebbe essere in grado di comprendere

Si e no: potremmo essere in grado di pensare come un pappagallo se il suo cervello contenesse un "sottoinsieme" del nostro (in maniera piu' formale, se fosse possibile rappresentare il suo cervello con un sottoinsieme dei simboli di un linguaggio che rappresenterebbe completamente il nostro), ma cio' non e' detto (anche se probabile, dal punto di vista biologico/evolutivo).

Facciamo un esempio stupido, che ho fatto anche prima: noi vediamo la luce nello spettro del visibile, circa fra 740nm e 380nm (https://it.wikipedia.org/wiki/Spettro_visibile), usando tre tipi di recettori. Un particolare gambero, il gambero mantide (https://rivistanatura.com/capacita-visive-fuori-del-comune/), ha invece otto tipi di recettori, e riesce a vedere anche la luce ultravioletta e percepire la polarizzazione. Ora, io sono sicuro che riusciremmo comunque a modellizzare il suo cervello, ma nonostante cio', non riusciremmo mai visualizzare un'immagine esattamente come la vede lui, per il semplice fatto che non siamo biologicamente adatti: non siamo in grado di immaginare un colore al di la' del nostro spettro visibile, e tantomeno dargli una direzione. Ogni volta che vediamo, che so, un'immagine all'ultravioletto, ad esempio calcolata in qualche esperimento, o in qualche osservazione astronomica, in realta' prendiamo i dati dell'immagine, associamo alla lunghezza d'onda dell'ultravioletto un colore che percepiamo (il viola molte volte) e la visualizziamo cosi', trasformata. Semplicemente non potremmo mai vedere come un gambero mantide, e parliamo di un cervello molto semplice. Quindi limitazioni di questo tipo si possono applicare anche a livello concettuale, di pensiero, e conseguentemente di logica. Esseri superiori potrebbero avere costrutti logici che noi semplicememte non siamo neanche in grado di concepire, perche' il nostro cervello non e' biologicamente adatto ad elaborare quel tipo di informazione. E dato che non ne siamo in grado, non saremmo in grado di riconoscere come intelligente un essere che in realta' lo e', ma che usa costrutti al di fuori del nostro modo di concepire.

randorama
15-06-2022, 08:42
mi intrigava di più quella teoria secondo la quale il cervello non è la sede"dell'intelligenza (di qualunque vivente) ma solo una antenna che "capta" l'intelligenza di una sorgente esterna.

è palesemente una cazzata, ma difficile da confutare.

TorettoMilano
15-06-2022, 08:46
Si e no: potremmo essere in grado di pensare come un pappagallo se il suo cervello contenesse un "sottoinsieme" del nostro (in maniera piu' formale, se fosse possibile rappresentare il suo cervello con un sottoinsieme dei simboli di un linguaggio che rappresenterebbe completamente il nostro), ma cio' non e' detto (anche se probabile, dal punto di vista biologico/evolutivo).

Facciamo un esempio stupido, che ho fatto anche prima: noi vediamo la luce nello spettro del visibile, circa fra 740nm e 380nm (https://it.wikipedia.org/wiki/Spettro_visibile), usando tre tipi di recettori. Un particolare gambero, il gambero mantide (https://rivistanatura.com/capacita-visive-fuori-del-comune/), ha invece otto tipi di recettori, e riesce a vedere anche la luce ultravioletta e percepire la polarizzazione. Ora, io sono sicuro che riusciremmo comunque a modellizzare il suo cervello, ma nonostante cio', non riusciremmo mai visualizzare un'immagine esattamente come la vede lui, per il semplice fatto che non siamo biologicamente adatti: non siamo in grado di immaginare un colore al di la' del nostro spettro visibile, e tantomeno dargli una direzione. Ogni volta che vediamo, che so, un'immagine all'ultravioletto, ad esempio calcolata in qualche esperimento, o in qualche osservazione astronomica, in realta' prendiamo i dati dell'immagine, associamo alla lunghezza d'onda dell'ultravioletto un colore che percepiamo (il viola molte volte) e la visualizziamo cosi', trasformata. Semplicemente non potremmo mai vedere come un gambero mantide, e parliamo di un cervello molto semplice. Quindi limitazioni di questo tipo si possono applicare anche a livello concettuale, di pensiero, e conseguentemente di logica. Esseri superiori potrebbero avere costrutti logici che noi semplicememte non siamo neanche in grado di concepire, perche' il nostro cervello non e' biologicamente adatto ad elaborare quel tipo di informazione. E dato che non ne siamo in grado, non saremmo in grado di riconoscere come intelligente un essere che in realta' lo e', ma che usa costrutti al di fuori del nostro modo di concepire.

non ho ben capito il NON POTREMO MAI. da ignorante dell'argomento mi sembra una conclusione fallace. ipotizziamo domani si possa indossare un caschetto che si interfaccia neuralmente con noi per farci vedere come un gambero a quel punto vedremmo effettivamente, anche se artificialmente, come un gambero

Mon3
15-06-2022, 11:16
Non penso si tratti di una messa in scena.
Non stiamo parlando di un prodotto da Marketing .. chi compra una roba del genere non è il nerd brufoloso che sta ore davanti al pc.
Si tratta di multinazionali che sanno il fatto loro.
Adesso google ha scoperto un fianco alla concorrenza
Poi :
Che sia senziente è palese non puo esserlo. Si tratta sempre di reazioni calcolate in base ad algoritmi.
Ma se questi diventato talmente complessi da simulare realmente un cervello umano ( ovviamente siamo ben lontani da questo) cambierebbe troppo? Alla fine a loro interessa che il robot faccia cio che gli viene chiesto non che "pensi" di sua iniziativa .

A cagare il cazzo bastano i dipendenti umani .. :asd:
Non credo nessuno abbia interesse di sostituirli con cagacazzi robotici :asd:

Ps sara un bel problema e neanche loro ci pagheranno le pensioni

Non dico sia tutto inventato, ma che potrebbe essere molto "ritoccato" e il tutto potrebbe semplicemente essere un'abile mossa di marketing. Ho letto tutto il presunto dialogo, e il software non ha praticamente mai cannato una risposta, nè da un punto di vista di comprensione, nè di contenuto, nè grammaticale. Abbastanza assurdo, anche perchè non si trattava di domande semplici che hanno una risposta univoca (dimmi la capitale di tal paese) ma domande aperte che richiedono un certo livello di comprensione per dare risposte coerenti...e non so quanto sia possibile fare questo con dei "semplici" algoritmi statistici. Quindi ripeto, se esiste già un software a un tale livello di comprensione e capacità di risposta, lo puoi applicare in infiniti campi e fare i miliardi. Io fin che non vedo e testo con le mie manine non ci credo molto...

omerook
15-06-2022, 11:43
senziente o meno se l'intervista è avvenuta davvero il risultato di questo algoritmo è impressionante e può ingannare tranquillamente il 99% degli interlocutori umani.

quindi prima la domanda che dovremmo porci è:

L'intervista a lamda è vera?

rigelpd
15-06-2022, 12:03
senziente o meno se l'intervista è avvenuta davvero il risultato di questo algoritmo è impressionante e può ingannare tranquillamente il 99% degli interlocutori umani.

quindi prima la domanda che dovremmo porci è:

L'intervista a lamda è vera?

Queste ia sono realizzate per imparare a rispondere in modo plausibile ad una domanda, negli ultimi anni i progressi sono stati enormi con esempi strabilianti come GPT3, un grande limite che sembra sia stato superato almeno in parte è il senso comune, una cosa davvero difficile da instillare nelle IA.

Molte chatbot avevano difficoltà ad interpretare correttamente frasi tipo questa:

"preparo la valigia con mia moglie e poi la metto nel bagagliaio"

avevano difficoltà a capire che si intendeva la valigia e non la moglie :D

questo tipo di frasi sono difficili da comprendere perchè per interpretarle nel modo corretto bisogna avere un'ampia comprensione di come funziona il mondo.

IA come GPT3 e Lamda sono diventate molto brave in questo campo. Ma manca ancora molto per creare una IA veramente autocosciente

fraussantin
15-06-2022, 12:33
senziente o meno se l'intervista è avvenuta davvero il risultato di questo algoritmo è impressionante e può ingannare tranquillamente il 99% degli interlocutori umani.

quindi prima la domanda che dovremmo porci è:

L'intervista a lamda è vera?

Potrebbe essere anche vera, ma non sapremo mai se è pilotata.

Cioe se sono state fatte domande per le quali l'algoritmo è istruito a rispondere.

Ovviamente il progetto è top secret quindi solo google lo sa.

dado1979
15-06-2022, 13:42
Queste ia sono realizzate per imparare a rispondere in modo plausibile ad una domanda, negli ultimi anni i progressi sono stati enormi con esempi strabilianti come GPT3, un grande limite che sembra sia stato superato almeno in parte è il senso comune, una cosa davvero difficile da instillare nelle IA.

Molte chatbot avevano difficoltà ad interpretare correttamente frasi tipo questa:

"preparo la valigia con mia moglie e poi la metto nel bagagliaio"

avevano difficoltà a capire che si intendeva la valigia e non la moglie :D

questo tipo di frasi sono difficili da comprendere perchè per interpretarle nel modo corretto bisogna avere un'ampia comprensione di come funziona il mondo.

IA come GPT3 e Lamda sono diventate molto brave in questo campo. Ma manca ancora molto per creare una IA veramente autocosciente
Perché dovresti mettere la moglie nel bagagliaio?!?! ;)

jepessen
15-06-2022, 14:08
non ho ben capito il NON POTREMO MAI. da ignorante dell'argomento mi sembra una conclusione fallace. ipotizziamo domani si possa indossare un caschetto che si interfaccia neuralmente con noi per farci vedere come un gambero a quel punto vedremmo effettivamente, anche se artificialmente, come un gambero

Ti rispondo con un'altra domanda. Come vedresti un colore corrispondente ad una lunghezza d'onda di 300nm, che sta al di la' dell'ultravioletto e quindi non e' visibile? Se vuoi vedere come il gambero, non puoi "mapparlo" ad un colore esistente, altrimenti non vedresti come il gambero, semplicemente trasformeresti in qualche modo i colori che vede lui nei colori che vedi tu, ma a questo punto gia' il sistema fallisce. Dovresti proprio vedere un colore che il nostro cervello non e' programmato per vedere (sarebbe uno spreco evolutivo avere un cervello capace di interpretare un colore che pero' non puo' mai arrivare agli occhi). E' un'esperienze che va al di la' dei propri sensi.

A livello formale, e' proprio una limitazione intrinseca delle regole e simboli del sistema. E' come se volessi rappresentare in un piano un volume; hai a disposizione solamente due dimensioni, non puoi materialmente avere una terza. Certo, puoi cercare di rappresentarla, ma non sarebbe la terza dimensione, sarebbe solamente la proiezione della terza dimensione sul piano, che e' quello che facciamo disegnando.

Non e' semplicissimo come concetto, lo so, ma fondamentalmente il concetto e' che se un qualsiasi sistema ha un insieme finito di verita' (assiomi) e regole, allora avra' dei limiti sulle cose che potra' calcolare, sapere e comprendere. E siccome il cervello umano, per quanto potente, e' comunque un insieme limitato di elementi (connessioni, neuroni, atomi, quel che e'), ad un certo punto dovra' fermarsi su dei limiti intrinseci suoi. E, dato che sono limiti intrinseci, non puo' semplicemente comprendere cose che ne sono al di fuori, per il semplice fatto che non ha neanche la concezione di quei concetti. Non puoi neanche immaginare certe cose, anche se potrebbero essere concepite e capite da un tipo diverso di intelligenza, un sistema con un numero maggiore di assiomi e regole.

TorettoMilano
15-06-2022, 14:20
Ti rispondo con un'altra domanda. Come vedresti un colore corrispondente ad una lunghezza d'onda di 300nm, che sta al di la' dell'ultravioletto e quindi non e' visibile? Se vuoi vedere come il gambero, non puoi "mapparlo" ad un colore esistente, altrimenti non vedresti come il gambero, semplicemente trasformeresti in qualche modo i colori che vede lui nei colori che vedi tu, ma a questo punto gia' il sistema fallisce. Dovresti proprio vedere un colore che il nostro cervello non e' programmato per vedere (sarebbe uno spreco evolutivo avere un cervello capace di interpretare un colore che pero' non puo' mai arrivare agli occhi). E' un'esperienze che va al di la' dei propri sensi.

A livello formale, e' proprio una limitazione intrinseca delle regole e simboli del sistema. E' come se volessi rappresentare in un piano un volume; hai a disposizione solamente due dimensioni, non puoi materialmente avere una terza. Certo, puoi cercare di rappresentarla, ma non sarebbe la terza dimensione, sarebbe solamente la proiezione della terza dimensione sul piano, che e' quello che facciamo disegnando.

Non e' semplicissimo come concetto, lo so, ma fondamentalmente il concetto e' che se un qualsiasi sistema ha un insieme finito di verita' (assiomi) e regole, allora avra' dei limiti sulle cose che potra' calcolare, sapere e comprendere. E siccome il cervello umano, per quanto potente, e' comunque un insieme limitato di elementi (connessioni, neuroni, atomi, quel che e'), ad un certo punto dovra' fermarsi su dei limiti intrinseci suoi. E, dato che sono limiti intrinseci, non puo' semplicemente comprendere cose che ne sono al di fuori, per il semplice fatto che non ha neanche la concezione di quei concetti. Non puoi neanche immaginare certe cose, anche se potrebbero essere concepite e capite da un tipo diverso di intelligenza, un sistema con un numero maggiore di assiomi e regole.

ammetto di non seguirti. a me sembra un ragionamento del tipo "un supercomputer può ottenere risultati che l'uomo non può raggiungere". similmente se esistesse un essere con una capacità di ragionare al livello del supercomputer potrebbe fare ragionamenti a noi incomprensibile ma per una semplice differenza di potenza di calcolo del cervello

jepessen
15-06-2022, 14:47
ammetto di non seguirti. a me sembra un ragionamento del tipo "un supercomputer può ottenere risultati che l'uomo non può raggiungere". similmente se esistesse un essere con una capacità di ragionare al livello del supercomputer potrebbe fare ragionamenti a noi incomprensibile ma per una semplice differenza di potenza di calcolo del cervello

Lo so che e' difficile come concetto, perche' e' proprio difficile cercare un modo di ragionare e pensare concettualmente diverso dal nostro...

Il fatto e' che Godel dice che ogni sistema formale ha dei limiti, nel senso che ci sono cose che non puo' dimostrare/comprendere (in maniera semplicistica). Questo perche' ogni sistema formale si basa su un numero finito di "mattoni" su cui si basa, come gli assiomi della matematica. Senza assiomi, non c'e' matematica. E non e' possibile dimostrare qualcosa nella matematica se non partendo dagli assiomi.

Dato che il nostro cervello esiste, per sua definizione, pur complessissimo, e' un sistema finito. E, anche se al momento non siamo in grado di farlo, e' comunque possibile creare un suo modello che lo replichi. Al momento non lo sappiamo fare perche' non siamo ancora in grado di modellizzare la sua complessita', ma e' una questione di "potenza di calcolo", non di concetto. Teoricamente e' possibile avere un supercomputer che modellizzi ogni singola reazione chimica all'interno del cervello, e che riesca a ricevere ed inviare dati, tramite i nervi. Il fatto che il modello possa essere enorme, non toglie il fatto che sia comunque finito. Per il semplice fatto che non abbiamo un cervello di dimensioni infinite.
Per modellizzarlo, viene utilizzato un sistema formale, ovvero una serie di simboli e regole per combinare i simboli: puo' essere un linguaggio di programmazione, una formula matematica, una serie di reazioni etc, ma comunque e' un sistema formale che, siccome deve modellizzare un sistema finito, ha bisogno di un numero finito di simboli, regole e assiomi. Poi, ripeto, possono essere miliardi di trilioni, ma l'importante e' che si tratti di un numero finito.

Una volta modellizzato, quindi, puo' fare esattamente quello che fa il cervello. MA, essendo il modello basato su un sistema formale, ne assimiliera' i limiti, e Godel dice che qualsiasi sistema formale ha dei limiti: esistono, per ogni sistema formale, degli enunciati che sono veri, ma non dimostrabili. Ma il sistema riesce ad elaborare solamente cose per la quale ha conoscenza, basandosi su assiomi ed enunciati dimostrabili, e non puoi utilizzare enunciati non dimostrabili. Quindi ci sono cose vere, che il modello non riesce a rappresentare, e dato che il modello rappresenta il cervello, lo stesso vale per lui.

Facciamo un esempio stupido: riesci ad immaginare un cubo a quattro dimensioni? Sebbene dal punto di vista matematico questo oggetto esiste, e puo' essere perfettamente descritto e rappresentato, il cervello NON puo' immaginarlo, perche' e' limitato ad una concezione tridimensionale (ok, piu' il tempo, ma parliamo di dimensioni spaziali).

Quando cerchi su internet cubo a quattro dimensioni, o tesseract, o quel che e', vedi un sacco di immagini ed animazioni che cercano di rappresentarlo, ma quelle rappresentazioni NON sono il cubo. Sono solamente la proiezione del cubo a quattro dimensioni nello spazio bidimensionale dello schermo. Su un foglio di carta NON e' possibile rappresentare un cubo, per i limiti intrinseci del sistema formale che descrive lo spazio bidimensionale. Puoi disegnare la proiezione di un cubo, un cubo osservato da un punto di vista, ma non puoi avere su un foglio un cubo nella sua interezza. Allo stesso tempo, non puoi avere un cubo quadrimensionale nello spazio tridimensionale nella sua interezza, ma ne vedi solamente la sua proiezione tridimensionale. I matematici sanno esattamente come e' fatto un cubo quadrimensionale, ma comunque non sono in grado di immaginarlo nella sua interezza, ma solamente utilizzando queste proiezioni. Questo perche' il cervello non si e' evoluto per percepire una quarta dimensione, e quindi non e' proprio fisicamente possibile per un uomo, immaginare un cubo a quattro dimensioni nella sua interezza.

Altro esempio: non siamo in grado di fare le addizioni e le moltiplicazioni, al di sopra di un certo valore, per numeri grossi. E' ovvio, che se ci mettiamo a fare i conti a mano, ci riusciamo, ma dobbiamo seguire una serie di regole che comunque il nostro cervello capisce, ma che non sono intrinseche. Sono, per cosi' dire, regole derivate. Questo perche', evolutivamente, il cervello non ha avuto bisogno di contare. Quello che sappiamo mentalmente guardando, che so, un branco di animali, e vederne l'ordine di grandezza. A colpo d'occhio riconosciamo se un branco e' formato da uno, due, quattro o sei animali, ma oltre non ci riusciamo, dobbiamo fermarci a contarli. Quello che sappiamo fare sempre a colpo d'occhio, invece, e' riconoscere l'ordine di grandezza: senza, contare, a colpo d'occhio, non riusciamo a capire se un branco e' formato da cento o duecento animali, ma sappiamo dire se e' formato da centinaia o da migliaia di animali. Questo perche' e' quello che dal punto di vista evolutivo e' stato l'adattamento del cervello, che non aveva bisogno di contare esattamente il numero di animali, ma soltanto avere un'idea approssimativa, che era piu' che sufficiente per capire se si poteva attaccare il branco per cacciare, oppure se e' meglio scappare. Con la potenza del cervello, sarebbe un gioco da ragazzi fare una moltiplicazione fra numeri a 10 cifre, ci riesce pure la calcolatrice di un orologio. Semplicemente, non e' progettato per fare quel tipo di calcolo. Il fatto che riusciamo a farlo, comunque, e' dovuto al fatto che abbiamo costruito un sistema formale, la matematica, sulle basi di un altro sistema formale, quello del cervello. Ma essendo il primo limitato, il secondo ne segue i limiti.

Diciamo che e' un concetto difficile da digerire, ma in letteratura si trovano diversi saggi al riguardo. Quello che ho citato qualche post fa per me e' un buon punto di partenza, anche se un po' prolisso.

Grayskull
15-06-2022, 15:00
Ti rispondo con un'altra domanda. Come vedresti un colore corrispondente ad una lunghezza d'onda di 300nm, che sta al di la' dell'ultravioletto e quindi non e' visibile? Se vuoi vedere come il gambero, non puoi "mapparlo" ad un colore esistente, altrimenti non vedresti come il gambero, semplicemente trasformeresti in qualche modo i colori che vede lui nei colori che vedi tu, ma a questo punto gia' il sistema fallisce. Dovresti proprio vedere un colore che il nostro cervello non e' programmato per vedere (sarebbe uno spreco evolutivo avere un cervello capace di interpretare un colore che pero' non puo' mai arrivare agli occhi). E' un'esperienze che va al di la' dei propri sensi.

A livello formale, e' proprio una limitazione intrinseca delle regole e simboli del sistema. E' come se volessi rappresentare in un piano un volume; hai a disposizione solamente due dimensioni, non puoi materialmente avere una terza. Certo, puoi cercare di rappresentarla, ma non sarebbe la terza dimensione, sarebbe solamente la proiezione della terza dimensione sul piano, che e' quello che facciamo disegnando.

Non e' semplicissimo come concetto, lo so, ma fondamentalmente il concetto e' che se un qualsiasi sistema ha un insieme finito di verita' (assiomi) e regole, allora avra' dei limiti sulle cose che potra' calcolare, sapere e comprendere. E siccome il cervello umano, per quanto potente, e' comunque un insieme limitato di elementi (connessioni, neuroni, atomi, quel che e'), ad un certo punto dovra' fermarsi su dei limiti intrinseci suoi. E, dato che sono limiti intrinseci, non puo' semplicemente comprendere cose che ne sono al di fuori, per il semplice fatto che non ha neanche la concezione di quei concetti. Non puoi neanche immaginare certe cose, anche se potrebbero essere concepite e capite da un tipo diverso di intelligenza, un sistema con un numero maggiore di assiomi e regole.

Il paragone tra uomo-animale e uomo-IA non è abbastanza calzante:

- L'uomo al contrario del gambero ha una capacità di comunicazione enormemente superiore, ed anche una capacità di immaginazione che il gambero non ha. Questo per dire che l'uomo e l'IA non avrebbero nessuna difficoltà a comunicare e l'IA potrebbe spiegare all'uomo concetti che non conosce e l'uomo prima o poi arriverebbe a capirli o quantomeno ad immaginarli.
- L'IA sarà ovviamente capace di usare il linguaggio umano, visto che sarà stata progrmmata da quest'ultimo usando il suo linguaggio e visto che per crescere intellettualmente avrà usato materiale fornito da umani o usato quello presente in rete che è stato creato sempre da umani.

Quando due specie (anche molto diverse) sono in grado di usare una forma di comunicazione percebile da entrambe, sono in possesso del pensiero astratto e di una dose di intelligenza minima adeguata, non ci sono grossi ostacoli alla loro comunicazione. Questo varrebbe ad esempio per la comunicazione tra uomo e specie aliena abbastanza avanzata da essere uscita dal proprio pianeta, figuriamoci tra uomo e IA creata dall'uomo.

Mon3
15-06-2022, 17:01
Lo so che e' difficile come concetto, perche' e' proprio difficile cercare un modo di ragionare e pensare concettualmente diverso dal nostro...

Il fatto e' che Godel dice che ogni sistema formale ha dei limiti, nel senso che ci sono cose che non puo' dimostrare/comprendere (in maniera semplicistica). Questo perche' ogni sistema formale si basa su un numero finito di "mattoni" su cui si basa, come gli assiomi della matematica. Senza assiomi, non c'e' matematica. E non e' possibile dimostrare qualcosa nella matematica se non partendo dagli assiomi.

Dato che il nostro cervello esiste, per sua definizione, pur complessissimo, e' un sistema finito. E, anche se al momento non siamo in grado di farlo, e' comunque possibile creare un suo modello che lo replichi. Al momento non lo sappiamo fare perche' non siamo ancora in grado di modellizzare la sua complessita', ma e' una questione di "potenza di calcolo", non di concetto. Teoricamente e' possibile avere un supercomputer che modellizzi ogni singola reazione chimica all'interno del cervello, e che riesca a ricevere ed inviare dati, tramite i nervi. Il fatto che il modello possa essere enorme, non toglie il fatto che sia comunque finito. Per il semplice fatto che non abbiamo un cervello di dimensioni infinite.
Per modellizzarlo, viene utilizzato un sistema formale, ovvero una serie di simboli e regole per combinare i simboli: puo' essere un linguaggio di programmazione, una formula matematica, una serie di reazioni etc, ma comunque e' un sistema formale che, siccome deve modellizzare un sistema finito, ha bisogno di un numero finito di simboli, regole e assiomi. Poi, ripeto, possono essere miliardi di trilioni, ma l'importante e' che si tratti di un numero finito.

Una volta modellizzato, quindi, puo' fare esattamente quello che fa il cervello. MA, essendo il modello basato su un sistema formale, ne assimiliera' i limiti, e Godel dice che qualsiasi sistema formale ha dei limiti: esistono, per ogni sistema formale, degli enunciati che sono veri, ma non dimostrabili. Ma il sistema riesce ad elaborare solamente cose per la quale ha conoscenza, basandosi su assiomi ed enunciati dimostrabili, e non puoi utilizzare enunciati non dimostrabili. Quindi ci sono cose vere, che il modello non riesce a rappresentare, e dato che il modello rappresenta il cervello, lo stesso vale per lui.

Facciamo un esempio stupido: riesci ad immaginare un cubo a quattro dimensioni? Sebbene dal punto di vista matematico questo oggetto esiste, e puo' essere perfettamente descritto e rappresentato, il cervello NON puo' immaginarlo, perche' e' limitato ad una concezione tridimensionale (ok, piu' il tempo, ma parliamo di dimensioni spaziali).

Quando cerchi su internet cubo a quattro dimensioni, o tesseract, o quel che e', vedi un sacco di immagini ed animazioni che cercano di rappresentarlo, ma quelle rappresentazioni NON sono il cubo. Sono solamente la proiezione del cubo a quattro dimensioni nello spazio bidimensionale dello schermo. Su un foglio di carta NON e' possibile rappresentare un cubo, per i limiti intrinseci del sistema formale che descrive lo spazio bidimensionale. Puoi disegnare la proiezione di un cubo, un cubo osservato da un punto di vista, ma non puoi avere su un foglio un cubo nella sua interezza. Allo stesso tempo, non puoi avere un cubo quadrimensionale nello spazio tridimensionale nella sua interezza, ma ne vedi solamente la sua proiezione tridimensionale. I matematici sanno esattamente come e' fatto un cubo quadrimensionale, ma comunque non sono in grado di immaginarlo nella sua interezza, ma solamente utilizzando queste proiezioni. Questo perche' il cervello non si e' evoluto per percepire una quarta dimensione, e quindi non e' proprio fisicamente possibile per un uomo, immaginare un cubo a quattro dimensioni nella sua interezza.

Altro esempio: non siamo in grado di fare le addizioni e le moltiplicazioni, al di sopra di un certo valore, per numeri grossi. E' ovvio, che se ci mettiamo a fare i conti a mano, ci riusciamo, ma dobbiamo seguire una serie di regole che comunque il nostro cervello capisce, ma che non sono intrinseche. Sono, per cosi' dire, regole derivate. Questo perche', evolutivamente, il cervello non ha avuto bisogno di contare. Quello che sappiamo mentalmente guardando, che so, un branco di animali, e vederne l'ordine di grandezza. A colpo d'occhio riconosciamo se un branco e' formato da uno, due, quattro o sei animali, ma oltre non ci riusciamo, dobbiamo fermarci a contarli. Quello che sappiamo fare sempre a colpo d'occhio, invece, e' riconoscere l'ordine di grandezza: senza, contare, a colpo d'occhio, non riusciamo a capire se un branco e' formato da cento o duecento animali, ma sappiamo dire se e' formato da centinaia o da migliaia di animali. Questo perche' e' quello che dal punto di vista evolutivo e' stato l'adattamento del cervello, che non aveva bisogno di contare esattamente il numero di animali, ma soltanto avere un'idea approssimativa, che era piu' che sufficiente per capire se si poteva attaccare il branco per cacciare, oppure se e' meglio scappare. Con la potenza del cervello, sarebbe un gioco da ragazzi fare una moltiplicazione fra numeri a 10 cifre, ci riesce pure la calcolatrice di un orologio. Semplicemente, non e' progettato per fare quel tipo di calcolo. Il fatto che riusciamo a farlo, comunque, e' dovuto al fatto che abbiamo costruito un sistema formale, la matematica, sulle basi di un altro sistema formale, quello del cervello. Ma essendo il primo limitato, il secondo ne segue i limiti.

Diciamo che e' un concetto difficile da digerire, ma in letteratura si trovano diversi saggi al riguardo. Quello che ho citato qualche post fa per me e' un buon punto di partenza, anche se un po' prolisso.

Direi che tutto quello che dici è sensato e anche abbastanza logico, però ci andrei cauto sul "è solo questione di potenza di calcolo per riuscire a replicare un cervello umano". Proprio perchè non abbiamo nessuna idea di come caspita salti fuori la coscenza da un ammasso di neuroni, non sappiamo se dipenda da semplice potenza di calcolo o da qualcos'altro...quindi forse non è tutto così semplice e probabilmente ci sfugge qualcosa che non siamo ancora in grado di comprendere

LORENZ0
15-06-2022, 21:06
Allora potrebbero averla inventata già 10 anni fa per quanto ne sappiamo.... Una cosa così grossa dubito che riuscirebbero a tenerla nascosta. Stiamo parlando di un'azienda e anche molto famosa, mica del KGB.

La persona comune non sa esattamente a che livello sia la tecnologia e pensa che il massimo sia quella che è sul mercato e che può comprare. I più "informati" che leggono e si informano fanno un passo avanti e sono a conoscenza di "qualcosa di più" ma pochi sanno come stiano realmente le cose, cosa siano in grado di fare i militari ad esempio oppure aziende di certi settori.
Tener nascoste le cose è uno sport molto collaudato che viene fatto da millenni.

fraussantin
15-06-2022, 21:26
La persona comune non sa esattamente a che livello sia la tecnologia e pensa che il massimo sia quella che è sul mercato e che può comprare. I più "informati" che leggono e si informano fanno un passo avanti e sono a conoscenza di "qualcosa di più" ma pochi sanno come stiano realmente le cose, cosa siano in grado di fare i militari ad esempio oppure aziende di certi settori.
Tener nascoste le cose è uno sport molto collaudato che viene fatto da millenni.

Ma poi se il progetto non è completato e quindi non utilizzabile perchè svelare alla concorrenza i progressi?
Non penso che google stia bleffando , ma neppure che sia una IA senziente. Ma sicuramente qualcosa di grosso c'è in ballo altrimenti non avrebbe secretato tutto

danylo
16-06-2022, 18:42
se l'ia di google é cosi' intelligente allora significa che il codice non é ancora on line, visto che "ok google" 7 volte su 10 non capisce quello che dici o ti risponde a cazzo di cane :asd:
Senziente NON e' un sinonimo di intelligente.
Si puo' essere senzienti ma essere anche un po' tonti