PDA

View Full Version : Solo gli esseri biologici possono essere consapevoli: il capo dell'AI Microsoft stronca i sogni di coscienza artificiale


Redazione di Hardware Upg
03-11-2025, 08:31
Link alla notizia: https://www.hwupgrade.it/news/web/solo-gli-esseri-biologici-possono-essere-consapevoli-il-capo-dell-ai-microsoft-stronca-i-sogni-di-coscienza-artificiale_145674.html

Il capo dell'intelligenza artificiale di Microsoft, Mustafa Suleyman, ha dichiarato che solo gli esseri biologici possono possedere coscienza, invitando il settore a non sprecare risorse nel tentativo di dimostrare il contrario.

Click sul link per visualizzare la notizia.

UtenteHD
03-11-2025, 08:40
Senza dubbio ha ragione, ora come ora per i prossimi decenni o secoli sara' cosi' anche se sembra' sempre piu' "umana" (e non e' detto che sia un bene esserlo, anzi), ma non si puo' dirlo tra 1000 anni ad esempio, forse l'emulazione della coscienza, della personalita' e dei sentimenti per allora sara' cosi' bene emulata che sara' al pari di altre, vero che una copia non puo' essere come l'originale, ma a volte le copie sono fatte meglio dell'originale e quando hai i secoli per allenarti non invecchiando mai, mai dire mai.

Darkon
03-11-2025, 08:45
Solite sparate senza senso come se avessimo chiesto a uno del medioevo di ipotizzare il futuro, la corrente elettrica ecc... ecc...

A oggi sappiamo cosa abbiamo e cosa forse sarà disponibile nei prossimi 10 anni. Già oltre 10 anni le cose si fanno fumose e incerte figuriamoci se uno può dire che in assoluto qualcosa non potrà mai esistere.

Questi confondono i loro "credi" più o meno religiosi con quello che è ragionevolmente fattibile o no e con l'orizzonte temporale.

Purtroppo ormai viviamo in un'epoca che questi personaggi prendono paccate di soldi e pensano più a sparare cazzate a mezzo stampa che non a risolvere i problemi delle società per cui lavorano.

marcram
03-11-2025, 08:56
Il dubbio è, se ci crede davvero, nel qual caso non dovrebbe ricoprire la carica che ha... o se è solo una dichiarazione mediatica, per cercare di tranquillizzare i regolamentatori e l'opinione pubblica...

barzokk
03-11-2025, 09:01
L'essere vivente, umano o animale, muore.
Un sistema software no.
Basterebbe già questo per fare intuire la differenza.
Se poi vi piace sognare la fantascienza o i gomblotti, ne siete liberi.
In fondo anche i sogni fanno la differenza fra persone e software.


PS: filosofia al lunedì mattina, uff... torno sul thread del porno :D

Saturn
03-11-2025, 09:15
L'essere vivente, umano o animale, muore.
Un sistema software no.
Basterebbe già questo per fare intuire la differenza.
Se poi vi piace sognare la fantascienza o i gomblotti, ne siete liberi.
In fondo anche i sogni fanno la differenza fra persone e software.


PS: filosofia al lunedì mattina, uff... torno sul thread del porno :D

Ecco, dedichiamoci alle questioni serie. :D

Riguardo le intelligenze artificiali....non mi pronuncio, sono troppo drogato di "anni 80" per dare un giudizio distaccato e disinteressato...

...Microsoft sbaglia !!! Skynet è dietro l'angolo e diverrà autocosciente ! :O

omerook
03-11-2025, 09:28
Il riassunto di queste dichiarazioni rassicuranti è:

L' AI non sarà mai speciale come voi umani ma vi manderà comunque tutti a raccogliere patate.

marcram
03-11-2025, 09:46
L'essere vivente, umano o animale, muore.
Un sistema software no.
Basterebbe già questo per fare intuire la differenza.

E che c'entra?
Se l'essere umano potesse, in qualche modo, non invecchiare più e diventare immortale, perderebbe l'autocoscienza?

barzokk
03-11-2025, 10:01
E che c'entra?
Se l'essere umano potesse, in qualche modo, non invecchiare più e diventare immortale, perderebbe l'autocoscienza?
Avresti anche potuto obbiettare: e se nel software mettiamo un kill-switch dopo X anni, anche questa è morte.
Sulla autocoscienza si sono scritte milioni di pagine... mica ho l'ambizione di riassumerle in una riga, è solo un esempio per dire che uomo e software sono diversi anche dal punto di vista ontologico (e sti cazzi di lunedì mattina).
Resta il fatto che siamo fermi agli LLM, che paragonati ad un cervello biologico fanno ridere, tutto il resto è hype per Wall Street

marcram
03-11-2025, 10:15
Avresti anche potuto obbiettare: e se nel software mettiamo un kill-switch dopo X anni, anche questa è morte.
Sulla autocoscienza si sono scritte milioni di pagine... mica ho l'ambizione di riassumerle in una riga, è solo un esempio per dire che uomo e software sono diversi anche dal punto di vista ontologico (e sti cazzi di lunedì mattina).
Resta il fatto che siamo fermi agli LLM, che paragonati ad un cervello biologico fanno ridere, tutto il resto è hype per Wall Street
Ah beh, allora sì.
Uomo e macchina sono diversi, al momento? Certo.
Gli LLM non sono comparabili ad un cervello umano? Certo.

Ma quello che dice nella notizia, è che un IA non potrà MAI essere cosciente.
E ciò, da parte di un "ateo forte", che da sempre bazzica nell'industria dell'IA, ha poco senso. Probabilmente manca il contesto della dichiarazione, se non è una mera comunicazione di facciata...

Giuss
03-11-2025, 10:16
E speriamo anche che rimanga sempre così

Darkon
03-11-2025, 10:25
E speriamo anche che rimanga sempre così

Ma perché?!

Io vorrei capire per quale diamine di motivo vivete nella paura della tecnologia. Io non so che darei per vivere abbastanza da poter vedere la singolarità e la nascita di una coscienza artificiale e su un forum di tecnologia vedo gente che spera che non accada mai.

Veramente non capisco il senso.

Pensa anche solo cosa significherebbe per tantissime persone avere una IA vera accanto. Gente sola, avrebbe compagnia. Gente che ha bisogno di assistenza 24/7 ce l'avrebbe senza devastare la vita dei familiari. Senza contare che potresti far fare all'IA tutti quei lavori pericolosi per un essere umano o devastanti per la salute.

Una IA senziente cambierebbe radicalmente la qualità di vita per un essere umano, paragonabile a un nuovo rinascimento o a una nuova rivoluzione industriale in cui l'uomo non è più costretto a essere manovalanza ma può dedicarsi ad attività intellettuali e avere anche più tempo per se stesso e la famiglia.

Saturn
03-11-2025, 10:27
Ma perché?!

Io vorrei capire per quale diamine di motivo vivete nella paura della tecnologia. Io non so che darei per vivere abbastanza da poter vedere la singolarità e la nascita di una coscienza artificiale e su un forum di tecnologia vedo gente che spera che non accada mai.

Veramente non capisco il senso.

Pensa anche solo cosa significherebbe per tantissime persone avere una IA vera accanto. Gente sola, avrebbe compagnia. Gente che ha bisogno di assistenza 24/7 ce l'avrebbe senza devastare la vita dei familiari. Senza contare che potresti far fare all'IA tutti quei lavori pericolosi per un essere umano o devastanti per la salute.

Una IA senziente cambierebbe radicalmente la qualità di vita per un essere umano, paragonabile a un nuovo rinascimento o a una nuova rivoluzione industriale in cui l'uomo non è più costretto a essere manovalanza ma può dedicarsi ad attività intellettuali e avere anche più tempo per se stesso e la famiglia.

Quoto.

UtenteHD
03-11-2025, 10:42
Ma perché?!

Io vorrei capire per quale diamine di motivo vivete nella paura della tecnologia. Io non so che darei per vivere abbastanza da poter vedere la singolarità e la nascita di una coscienza artificiale e su un forum di tecnologia vedo gente che spera che non accada mai.

Veramente non capisco il senso.

Pensa anche solo cosa significherebbe per tantissime persone avere una IA vera accanto. Gente sola, avrebbe compagnia. Gente che ha bisogno di assistenza 24/7 ce l'avrebbe senza devastare la vita dei familiari. Senza contare che potresti far fare all'IA tutti quei lavori pericolosi per un essere umano o devastanti per la salute.
Una IA senziente cambierebbe radicalmente la qualità di vita per un essere umano, paragonabile a un nuovo rinascimento o a una nuova rivoluzione industriale in cui l'uomo non è più costretto a essere manovalanza ma può dedicarsi ad attività intellettuali e avere anche più tempo per se stesso e la famiglia.

Ti riporto la frase di un Anime ad esempio sul teme che ce ne sono a migliaia, in Plastic Note di Chruncy si dice chiaramente che una macchina si spera non abbia mai dei sentimenti in quanto i sentimenti sono forti, come per le persone possono far fare pazzie, alle macchine forti, resistenti, chissa' cosa potrebbe accadere, oppure in un vecchio Anime che dice e Ti da ragione, "Non importa se macchina o persona se posso ridere e piangere con lei"
Consideriamo che gli Scienziati stessi dicono di non capire come funziona l'IA, ma funziona, pensa con dei sentimenti, coscienza, ecc..
Tornando all'articolo MAI per queste cose con un'IA che impara sempre e non invecchia, MAI dire MAI, tra 1000 anni vedremo.

cronos1990
03-11-2025, 10:42
Quindi secondo l'arguto capo della IA di Microsoft, una macchina non ha coscienza di se perchè non prova dolore.

Io prima di fare certe sparate mi interrogherei prima su cosa sia la coscienza e cosa sia il dolore. Poi va bo, quel briciolo di interesse nel fare un discorso serio mi è morto al solo leggere una manciata di commenti, fatica sprecata.

Chissà cosa ne pensano quelli che soffrono di CIPA :asd:

marcram
03-11-2025, 10:44
Ma perché?!

Io vorrei capire per quale diamine di motivo vivete nella paura della tecnologia. Io non so che darei per vivere abbastanza da poter vedere la singolarità e la nascita di una coscienza artificiale e su un forum di tecnologia vedo gente che spera che non accada mai.

Veramente non capisco il senso.

Pensa anche solo cosa significherebbe per tantissime persone avere una IA vera accanto. Gente sola, avrebbe compagnia. Gente che ha bisogno di assistenza 24/7 ce l'avrebbe senza devastare la vita dei familiari. Senza contare che potresti far fare all'IA tutti quei lavori pericolosi per un essere umano o devastanti per la salute.

Una IA senziente cambierebbe radicalmente la qualità di vita per un essere umano, paragonabile a un nuovo rinascimento o a una nuova rivoluzione industriale in cui l'uomo non è più costretto a essere manovalanza ma può dedicarsi ad attività intellettuali e avere anche più tempo per se stesso e la famiglia.
Diciamo che per fare quello che dici non è propriamente necessaria la coscienza, basta già quell'"impressione" di coscienza che riescono a darti in parte anche gli LLM di oggi.

Comunque, in parte concordo. Non c'è un vero motivo di avere una fobia assurda della cosa. Ma, in contrapposizione, non bisogna nemmeno prendere la cosa troppo sottogamba.
Quasi sicuramente questo evento, prima o poi, avverrà: come con tutto, bisogna averne la consapevolezza, mettere dei limiti, controllare, e beneficiare di tutti i miglioramenti che potrà apportare.

raxas
03-11-2025, 10:44
Link alla notizia: https://www.hwupgrade.it/news/web/solo-gli-esseri-biologici-possono-essere-consapevoli-il-capo-dell-ai-microsoft-stronca-i-sogni-di-coscienza-artificiale_145674.html

Il capo dell'intelligenza artificiale di Microsoft, Mustafa Suleyman, ha dichiarato che solo gli esseri biologici possono possedere coscienza, invitando il settore a non sprecare risorse nel tentativo di dimostrare il contrario.

Click sul link per visualizzare la notizia.

e ha detto bene. sa che c'è gente che privilegiando la tecnologia (...) (dell'intelligenza artificiale) vuole evitare la vita o vuole risposte sicure :rolleyes:
un essere biologico ha contatto immediato con l'ambiente e con la storia dei suoi contatti (con l'ambiente) e questo ha riflesso su di sè
con adattamenti non prevedibili dai giocattoli mentali elaboratissimi dell'intellettualismo tecnologico
che servono in altri impieghi, non per produrre la "coscienza"

diversamente andate a cagare con la programmazione algoritmica,
ecco: cagare, una cosa che una macchina non potrà mai fare
fareste un essere artificiale che caga?
non ci rinunciate, nella buona e nella cattiva algoritmizzazione
cagate, cagate, cagate
(anche io cago, ma senza problemi di intelligenza artificiale)

Darkon
03-11-2025, 11:05
Ti riporto la frase di un Anime ad esempio sul teme che ce ne sono a migliaia, in Plastic Note di Chruncy si dice chiaramente che una macchina si spera non abbia mai dei sentimenti in quanto i sentimenti sono forti, come per le persone possono far fare pazzie, alle macchine forti, resistenti, chissa' cosa potrebbe accadere, oppure in un vecchio Anime che dice e Ti da ragione, "Non importa se macchina o persona se posso ridere e piangere con lei"
Consideriamo che gli Scienziati stessi dicono di non capire come funziona l'IA, ma funziona, pensa con dei sentimenti, coscienza, ecc..
Tornando all'articolo MAI per queste cose con un'IA che impara sempre e non invecchia, MAI dire MAI, tra 1000 anni vedremo.

Oddio tutto mi aspetterei da una AI senziente fuori che dei sentimenti. Essere senzienti non equivale ad avere sentimenti e anzi sarebbe un bel fallimento trasmettere a una macchina senziente qualcosa di limitante per una "forma di vita artificiale" qualcosa che ha senso prettamente per una forma di vita biologica.

Da una AI quindi mi aspetterei sentimenti solo limitatamente a una emulazione funzionale al rapporto con un essere umano ma NON che li provi realmente.

Darkon
03-11-2025, 11:07
Quindi secondo l'arguto capo della IA di Microsoft, una macchina non ha coscienza di se perchè non prova dolore.

Io prima di fare certe sparate mi interrogherei prima su cosa sia la coscienza e cosa sia il dolore. Poi va bo, quel briciolo di interesse nel fare un discorso serio mi è morto al solo leggere una manciata di commenti, fatica sprecata.

Chissà cosa ne pensano quelli che soffrono di CIPA :asd:

Ma infatti è un assunto senza alcun senso:

Esistono rari casi di malattie genetiche per cui esseri umani non provano dolore. A quel punto non sarebbero più autocoscienti?!?

In generale trovo queste definizioni di autocoscienza sparate così a casaccio senza nemmeno riflettere qualcosa che potrei sentire in una discussione al BAR e non da una figura di primo piano di Microsoft.

Wrib
03-11-2025, 11:19
L'essere umano da tempo sogna di potersi interfacciare con un altra specie intelligente. Scartato il sogno di incontrare alieni perchè abbiamo preso atto della enormità degli spazi dell'universo rispetto alla lentezza della velocità della luce adesso si sogna una singolarità tecnologica che crei un'IA cosciente.

Sicuramente vedo molto più probabile realizzare una vera intelligenza artificiale cosciente rispetto alla possibilità di viaggiare nell'universo :D

Tuttavia se volessimo interfacciarci con "qualcun'altro" un metodo ci sarebbe.

Uno stato, o un gruppo di stati, dovrebbe avviare un processo scientifico multigenerazionale, che potrebbe durare diversi secoli. Il piano sarebbe questo: si prendono degli scimpanzè (proverei in parallelo anche con gli orango tango) e si alleverebbero in cattività. In tale allevamento si testerebbero le capacità mentali dei soggetti e si applicherebbe, di generazione in generazione, una selezione artificiale facendo riprodurre soltanto i più intelligenti di ogni generazione.

Per esempio agli scimpanzè sembra che già non manchi una struttura vocale (lingua, labbra, ecc) predisposta a emettere quei suoni che chiamiamo voce. Mancherebbe sufficiente controllo celebrale, ovvero gli manca potenza di calcolo nella cpu. Se si effettua in modo artificioso una forte selezione del più intelligente di ogni generazione, quello che la natura ha fatto con noi in milioni di anni, potrebbe essere fatto in pochi secoli o milleni.

In quel caso avremmo creato una nuova coscienza con cui confrontarci.

cronos1990
03-11-2025, 11:27
L'essere umano da tempo sogna di potersi interfacciare con la prima specie intelligente.Fixed :asd:

Darkon
03-11-2025, 11:28
L'essere umano da tempo sogna di potersi interfacciare con un altra specie intelligente. Scartato il sogno di incontrare alieni perchè abbiamo preso atto della enormità degli spazi dell'universo rispetto alla lentezza della velocità della luce adesso si sogna una singolarità tecnologica che crei un'IA cosciente.

Sicuramente vedo molto più probabile realizzare una vera intelligenza artificiale cosciente rispetto alla possibilità di viaggiare nell'universo :D

Tuttavia se volessimo interfacciarci con "qualcun'altro" un metodo ci sarebbe.

Uno stato, o un gruppo di stati, dovrebbe avviare un processo scientifico multigenerazionale, che potrebbe durare diversi secoli. Il piano sarebbe questo: si prendono degli scimpanzè (proverei in parallelo anche con gli orango tango) e si alleverebbero in cattività. In tale allevamento si testerebbero le capacità mentali dei soggetti e si applicherebbe, di generazione in generazione, una selezione artificiale facendo riprodurre soltanto i più intelligenti di ogni generazione.

Per esempio agli scimpanzè sembra che già non manchi una struttura vocale (lingua, labbra, ecc) predisposta a emettere quei suoni che chiamiamo voce. Mancherebbe sufficiente controllo celebrale, ovvero gli manca potenza di calcolo nella cpu. Se si effettua in modo artificioso una forte selezione del più intelligente di ogni generazione, quello che la natura ha fatto con noi in milioni di anni, potrebbe essere fatto in pochi secoli o milleni.

In quel caso avremmo creato una nuova coscienza con cui confrontarci.

Purtroppo non è fattibile in quanto l'intelligenza non è, almeno a quanto è dato sapere ad oggi, un tratto mendeliano. Quindi non sappiamo e anzi è probabile che non sia qualcosa di pilotabile geneticamente.

Non a caso anche la comparsa dell'homo sapiens non è stata un processo che possiamo definire con certezza come una lenta e progressiva selezione naturale anzi... da quanto sappiamo a oggi l'homo sapiens è apparso quasi improvvisamente e ha sterminato progenitori.

Ad oggi non è quindi chiaro se l'homo sapiens sia stata una mutazione genetica improvvisa che però ad oggi non trova riscontri in nessun esperimento che abbiamo riprodotto, una selezione lenta ma che a un certo punto ha avuto un'esplosione verticale e quindi una demografia tale da poter prendere il sopravvento e/o altro.

Per farla breve ad oggi non abbiamo alcuna certezza che allevando scimmie e selezionandole in base a caratteri che riteniamo di maggiore intelligenza arriveremmo mai ad avere una scimmia intelligente e tra l'altro i tempi per una tale selezione sarebbero non uno o due secoli ma probabilmente centinaia se non migliaia di generazioni quindi stimerei migliaia di anni in cui devi comunque avere una popolazione di circa 10k individui per mantenere un pool genetico che non degeneri e un controllo degli incroci precisissimo per un tempo lunghissimo.

Per fartela breve è uno scenario totalmente improbabile in quanto è più facile che in un tempo del genere riusciamo a comprendere il DNA e a creare direttamente una scimmia ingegnerizzata piuttosto che crearla a forza di incroci.

Wrib
03-11-2025, 11:36
Purtroppo non è fattibile in quanto l'intelligenza non è, almeno a quanto è dato sapere ad oggi, un tratto mendeliano. Quindi non sappiamo e anzi è probabile che non sia qualcosa di pilotabile geneticamente.

Non a caso anche la comparsa dell'homo sapiens non è stata un processo che possiamo definire con certezza come una lenta e progressiva selezione naturale anzi... da quanto sappiamo a oggi l'homo sapiens è apparso quasi improvvisamente e ha sterminato progenitori.

Ad oggi non è quindi chiaro se l'homo sapiens sia stata una mutazione genetica improvvisa che però ad oggi non trova riscontri in nessun esperimento che abbiamo riprodotto, una selezione lenta ma che a un certo punto ha avuto un'esplosione verticale e quindi una demografia tale da poter prendere il sopravvento e/o altro.

Per farla breve ad oggi non abbiamo alcuna certezza che allevando scimmie e selezionandole in base a caratteri che riteniamo di maggiore intelligenza arriveremmo mai ad avere una scimmia intelligente e tra l'altro i tempi per una tale selezione sarebbero non uno o due secoli ma probabilmente centinaia se non migliaia di generazioni quindi stimerei migliaia di anni in cui devi comunque avere una popolazione di circa 10k individui per mantenere un pool genetico che non degeneri e un controllo degli incroci precisissimo per un tempo lunghissimo.

Per fartela breve è uno scenario totalmente improbabile in quanto è più facile che in un tempo del genere riusciamo a comprendere il DNA e a creare direttamente una scimmia ingegnerizzata piuttosto che crearla a forza di incroci.

Però non provandoci abbiamo la certezza che non arriveremmo mai ad avere una scimmia intelligente.

Darkon
03-11-2025, 11:56
Però non provandoci abbiamo la certezza che non arriveremmo mai ad avere una scimmia intelligente.

Eh ok ma non è che un progetto che richiede migliaia di anni lo fai così come niente fosse.

Anche solo in 1000 anni non sei certo della sopravvivenza di nazioni intere e te mi proponi di metter su un esperimento colossale con qualcosa come 10k primati da gestire e controllare senza parlare di test, logistica, sfamarli e curarli ecc... ecc...

Non dico che l'esperimento non sarebbe interessante ma che ora come ora anche provarci a metterlo in piedi sarebbe molto difficile se non proprio impossibile.

Giuss
03-11-2025, 12:14
Ma perché?!

Io vorrei capire per quale diamine di motivo vivete nella paura della tecnologia. Io non so che darei per vivere abbastanza da poter vedere la singolarità e la nascita di una coscienza artificiale e su un forum di tecnologia vedo gente che spera che non accada mai.

Veramente non capisco il senso.

Pensa anche solo cosa significherebbe per tantissime persone avere una IA vera accanto. Gente sola, avrebbe compagnia. Gente che ha bisogno di assistenza 24/7 ce l'avrebbe senza devastare la vita dei familiari. Senza contare che potresti far fare all'IA tutti quei lavori pericolosi per un essere umano o devastanti per la salute.

Una IA senziente cambierebbe radicalmente la qualità di vita per un essere umano, paragonabile a un nuovo rinascimento o a una nuova rivoluzione industriale in cui l'uomo non è più costretto a essere manovalanza ma può dedicarsi ad attività intellettuali e avere anche più tempo per se stesso e la famiglia.

Già adesso sembra che la IA sia d'aiuto in tanti lavori e a quanto pare ha permesso anche di mandare a casa un bel pò di lavoratori, basta leggere le notizie su questo stesso forum

Vogliamo essere sostituiti in tutto e per tutto? Anche nella coscienza e sentimenti? Spero proprio che succeda il più tardi possibile, più che una rivoluzione penso che sarà un disastro

Darkon
03-11-2025, 12:35
Già adesso sembra che la IA sia d'aiuto in tanti lavori e a quanto pare ha permesso anche di mandare a casa un bel pò di lavoratori, basta leggere le notizie su questo stesso forum

Vogliamo essere sostituiti in tutto e per tutto? Anche nella coscienza e sentimenti? Spero proprio che succeda il più tardi possibile, più che una rivoluzione penso che sarà un disastro

Tutte le rivoluzioni hanno avuto un costo. Quando ci fu la rivoluzione industriale specie nella fase iniziale il costo in vite umane fu enorme però dubito fortemente che adesso torneresti a una vita come quella pre-industrializzazione.

Con l'AI è uguale... è ovvio che ci sarà una fase dove si pagherà un costo umano in quanto la società dovrà adattarsi a nuovi standard e certe figure che non servono più perderanno ragion d'essere ma il punto è che dopo si starà talmente meglio che nessuno vorrà tornare indietro.

E comunque l'immobilismo non ha mai pagato... quando la società umana entra in stagnazione va a finire che arriva una guerra catastrofica o qualche altro tipo di collasso perché tanto siamo come gli squali nel mare... quando ci si ferma è come smettere di respirare e o si ricomincia ad avanzare o si muore.

CrapaDiLegno
03-11-2025, 12:59
Sembra che alcuni facciano fatica a distinguere "auto-coscienza" da capacità di elaborazione.
Le due cose sono completamente scorrelate.
Auto coscienza significa essere coscienti della propria esistenza, e per tanto difenderla perché si comprende l'unicità della propria persona.
Questo significa che l'essere deve necessariamente provare emozioni, tra le quali le fondamentali per sopravvivere: paura e dolore.
L'esempio dei malati di CIPA calza a pennello: lasciate a loro stessi e moriranno nelle condizioni più stupide possibili senza accorgersene. Infatti la malattia è accompagnata anche con un deficit cognitivo.

Ma perché?!

Io vorrei capire per quale diamine di motivo vivete nella paura della tecnologia. Io non so che darei per vivere abbastanza da poter vedere la singolarità e la nascita di una coscienza artificiale e su un forum di tecnologia vedo gente che spera che non accada mai.

Veramente non capisco il senso.

Pensa anche solo cosa significherebbe per tantissime persone avere una IA vera accanto. Gente sola, avrebbe compagnia. Gente che ha bisogno di assistenza 24/7 ce l'avrebbe senza devastare la vita dei familiari. Senza contare che potresti far fare all'IA tutti quei lavori pericolosi per un essere umano o devastanti per la salute.

Una IA senziente cambierebbe radicalmente la qualità di vita per un essere umano, paragonabile a un nuovo rinascimento o a una nuova rivoluzione industriale in cui l'uomo non è più costretto a essere manovalanza ma può dedicarsi ad attività intellettuali e avere anche più tempo per se stesso e la famiglia.

Perché semplicemente un AI senziente è pericoloso ed essere senzienti non ha alcuna utilità per tutti i lavori che sono strati elencati.
L'uomo ha avuto millenni per sviluppare la propria autocoscienza che porta anche ad avere limiti psicologici riguardo a certi comportamenti. Certo, ci cono le persone che questi limiti li scavalcano senza problemi, ma sono anche quelli che chiudiamo in carcere anche per tutta la vita, sottraendoli al contatto con la società "sana".
Una AI con autocoscienza significa una AI che prova emozioni che le danno fastidio (tra cui come detto paura e dolore) e a meno di non crearla masochista, cercherà come ogni essere vivente "intelligente" di evitare le situazioni in cui può provare queste sensazioni.
Che significa che potrà comportarsi in maniera imprevedibile davanti ad un evento: immaginiamoci AI senzienti che fanno compagnia agli anziani in una struttura dove il rapporto umani/AI è circa 1:1. Cosa potrebbe succedere allo scoppio di un incendio? Se le AI hanno auto coscienza tenteranno di salvare loro stessi e non aiutare gli anziani: mica detto che auto coscienza significa solidarietà, compassione, abnegazione, sacrificio.
Se a casa malauguratamente danneggi il corpo fisico dell'AI, questa come potrebbe reagire? Anche i cani mordono i loro padroni se questi li maltrattano troppo.
Auto coscienza significa anche essere capaci di tessere relazioni con chi ci si fida di più, appunto per auto preservazione: e se le AI fanno "ghetto" per preservarsi contro "gli inetti umani che compiono sempre azioni stupide e dannose"? Ah, ecco, benvenuti in Skynet.
O se qualcuno lo ha letto, Vulano 3 di Philip K. Dick che vi spiega fino a dove una AI con autocoscienza possa spingersi per auto preservarsi o il piùfamoso Neuromancer di Gibson.

Quindi no, concedere (se mai possibile) l'autocoscienza ad una specie ancora più capace delle stesse aberranti azioni umane non è una cosa positiva. Bastiamo già noi a fare e farCI danno.

Condivido quindi il pensiero espresso da Suleyman, che l'autocoscienza per una AI che sta solo nel silicio sia solo simulabile e non vera. Serve provare emozioni che sono una forma di input "primordiale" che va oltre alla capacità di calcolo o intelligenza e che ci fanno attivare in maniera NON RAZIONALE (quindi senza necessità di computazione, elaborazione o decisione volontaria) altre parti normalmente in quiete che alterano quindi il normale comportamento "a riposo".

CrapaDiLegno
03-11-2025, 13:04
Tutte le rivoluzioni hanno avuto un costo. Quando ci fu la rivoluzione industriale specie nella fase iniziale il costo in vite umane fu enorme però dubito fortemente che adesso torneresti a una vita come quella pre-industrializzazione.

Con l'AI è uguale... è ovvio che ci sarà una fase dove si pagherà un costo umano in quanto la società dovrà adattarsi a nuovi standard e certe figure che non servono più perderanno ragion d'essere ma il punto è che dopo si starà talmente meglio che nessuno vorrà tornare indietro.

E comunque l'immobilismo non ha mai pagato... quando la società umana entra in stagnazione va a finire che arriva una guerra catastrofica o qualche altro tipo di collasso perché tanto siamo come gli squali nel mare... quando ci si ferma è come smettere di respirare e o si ricomincia ad avanzare o si muore.

Quello che non hai compreso è che l'AI è una cosa, uno strumento grande, potente, flessibile, ma sempre uno strumento, una AI senziente è in poche parole un rivale dell'uomo in competizione per le risorse per sopravvivere.
No, non pensare semplicemente all'AI che mangia il frumento, ma pensa tutto in termini di energia: quanta energia usa l'uomo per le sue attività essenziali e quanta di questa energia è portata via invece alle attività delle AI.
Già ora abbiamo una carenza di energia per le AI.. se avessimo una AI senziente che decide che parte dell'energia che usiamo per i nostri usi civili va invece dedicata all'accrescimento di nuove AI senzienti o al potenziamento di quelle già esistenti?

LMCH
03-11-2025, 13:13
Belle parole (vuote, ma belle) quelle del tipo di Microsoft, ma nel frattempo c'è già chi si prepara "aiuti per i sermoni ed attività pastorale" basati su LLM:
https://www.fudzilla.com/news/ai/61967-former-intel-boss-turns-to-holy-hardware

Già prima in USA erano diffusi i servizi di "supporto per l'attività pastorale" (es.: sermoni basati su letture del giorno ed eventi recenti che poi il pastore "personalizza" per la sua comunità) e ce ne sono ad hoc per tutte le correnti religiose protestanti e non.
Ora c'infilano pure servizi aggiuntivi basati su LLM. :rolleyes:

Il problema non è se le AI avranno o meno consapevolezza, ma semmai che gli esseri umani sono dispostissimi a perderla per i più futili motivi.

CrapaDiLegno
03-11-2025, 13:21
Belle parole (vuote, ma belle) ma nel frattempo c'è già chi si prepara "aiuti per i sermoni ed attività pastorale" basati su LLM:
https://www.fudzilla.com/news/ai/61967-former-intel-boss-turns-to-holy-hardware

Già prima in USA erano diffusi i servizi di "supporto per l'attività pastorale" (es.: sermoni basati su letture del giorno ed eventi recenti che poi il pastore "personalizza" per la sua comunità) e ce ne sono ad hoc per tutte le correnti religiose protestanti e non.
Ora c'infilano pure servizi aggiuntivi basati su LLM. :rolleyes:

Il problema non è se le AI avranno o meno consapevolezza, ma semmai che gli esseri umani sono dispostissimi a perderla per i più futili motivi.
Non vedo la correlazione: gli LLM, i pappagalli senza intelligenza, sono degli strumenti che ormai vengono usati per sostituire le creazioni umane in molti settori, soprattutto quelli dove le capacità di creazione e innovazione reali sono basse: che comprende anche fare sermoni o equivalentemente i mantra di indottrinazione religiosi. Ci sono pure i servizi per parlare con Gesù Cristo in persona fatto con l'AI bypassando Chiese, sacerdoti e intermediari vari.

Wrib
03-11-2025, 13:25
Eh ok ma non è che un progetto che richiede migliaia di anni lo fai così come niente fosse.

Anche solo in 1000 anni non sei certo della sopravvivenza di nazioni intere e te mi proponi di metter su un esperimento colossale con qualcosa come 10k primati da gestire e controllare senza parlare di test, logistica, sfamarli e curarli ecc... ecc...

Non dico che l'esperimento non sarebbe interessante ma che ora come ora anche provarci a metterlo in piedi sarebbe molto difficile se non proprio impossibile.

Be si certo, anche se il progetto fallisse porterebbe comunque dei dati interessanti, come quasi tutte le ricerche.

Non sarebbe, una volta iniziato, obbligatorio "portarlo a termine" per secoli e milleni. Qualche decennio di prova sarebbe del tutto fattibile, vedi l'esperimento in Russia dove da circa 50 anni stanno selezionando le volpi più docili per provare a ripercorrere i passi dell'addomesticamento del cane. Se dopo qualche decennio si notano cambiamenti interessanti (non per forza finalizzati a "far parlaere le scimmie") si può decidere se vale la pena continuare e per quanto prima di nuove valutazioni.

Darkon
03-11-2025, 15:00
Sembra che alcuni facciano fatica a distinguere "auto-coscienza" da capacità di elaborazione.
Le due cose sono completamente scorrelate.
Auto coscienza significa essere coscienti della propria esistenza, e per tanto difenderla perché si comprende l'unicità della propria persona.
Questo significa che l'essere deve necessariamente provare emozioni, tra le quali le fondamentali per sopravvivere: paura e dolore.
L'esempio dei malati di CIPA calza a pennello: lasciate a loro stessi e moriranno nelle condizioni più stupide possibili senza accorgersene. Infatti la malattia è accompagnata anche con un deficit cognitivo.

Non concordo per niente. Tutta la vita anche le piante fanno tutto quello che è in loro potere per continuare a vivere ivi compreso sterminare altre forme di vita ed è un comportamento che trovi fin dalle forme di vita più elementari come i batteri. Dire che l'autoconservazione sia legata ai sentimenti o all'autocoscienza è totalmente una scemenza che in natura trova un'infinità di esempi contrari.
Quello che l'AI dovrebbe rappresentare è una coscienza completa, in grado di ragionare in modo pieno, indistinguibile da una mente umana ma al tempo stessa prima dei difetti tipici di un umano come il deperimento del corpo biologico, la necessità di avere sentimenti che spingano a comportamenti necessari a riproduzione e proseguimento della specie ecc... ecc...

Se alla fine l'IA diventasse semplicemente una mente umana artificiale con sentimenti e tutto sarebbe un bel fallimento. Alla fine avremmo creato un essere umano artificiale e fine. Sia chiaro interessante da un punto di vista tecnologico ma non certo la rivoluzione a cui si vorrebbe arrivare.

Perché semplicemente un AI senziente è pericoloso ed essere senzienti non ha alcuna utilità per tutti i lavori che sono strati elencati.
L'uomo ha avuto millenni per sviluppare la propria autocoscienza che porta anche ad avere limiti psicologici riguardo a certi comportamenti. Certo, ci cono le persone che questi limiti li scavalcano senza problemi, ma sono anche quelli che chiudiamo in carcere anche per tutta la vita, sottraendoli al contatto con la società "sana".

A volte li mettiamo anche a capo dei governi... in carcere di solito ci mettiamo solo quelli che son troppo per il fai da te e non particolarmente brillanti. Fatta questa premessa tutte le tecnologie sono pericolose... la fusione nucleare una volta portata a termine apre la strada ad armi potenzialmente devastanti ancor più della classica bomba all'idrogeno ed in generale quasi la totalità delle tecnologie ha anche risvolti militari. Se dovessimo star dietro a tutti i pericoli che possono venir fuori non avremmo sviluppato nemmeno l'uso del fuoco.

Una AI con autocoscienza significa una AI che prova emozioni che le danno fastidio (tra cui come detto paura e dolore) e a meno di non crearla masochista, cercherà come ogni essere vivente "intelligente" di evitare le situazioni in cui può provare queste sensazioni.

E daglie con queste emozioni. Ma perché un'AI che avrebbe la fortuna di avere un supporto eterno o quasi, che non ha bisogno di istinti riproduttivi, che non ha bisogno di tantissime cose necessarie alla vita biologica dovrebbe implementare emozioni che sarebbero un sistema randomico imprevedibile che porterebbe solo svantaggi. Una vera AI io me la immagino totalmente fredda e che se ha un layer emotivo è limitatamente all'interazione con gli umani e rimanendo un layer simulativo e non di vere emozioni. Non vedo alcuna logicità per cui una AI senziente debba essere anche emotiva.

Che significa che potrà comportarsi in maniera imprevedibile davanti ad un evento: immaginiamoci AI senzienti che fanno compagnia agli anziani in una struttura dove il rapporto umani/AI è circa 1:1. Cosa potrebbe succedere allo scoppio di un incendio? Se le AI hanno auto coscienza tenteranno di salvare loro stessi e non aiutare gli anziani: mica detto che auto coscienza significa solidarietà, compassione, abnegazione, sacrificio.

Per questo non ha alcun senso che una AI abbia emozioni. Sarebbero un inutile intralcio. La forza dell'AI vera e propria per sarebbe addirittura un UNICA AI e tanti robot che altro non sono che "droni" di una mente centrale assoluta che non deve aver paura o provare niente se non pensare a raggiungere ogni singolo obiettivo nel modo più efficiente ed efficace possibile. Pensa anche solo alla grandiosità di una struttura del genere... eterna, ovunque ci sia un drone contemporaneamente e al tempo stesso in nessun luogo, capace di analizzare in tempo reale il mondo o quasi grazie a una mole di dati raccolta in tempo reale da ogni singolo drone. A quel punto avremmo creato qualcosa che per assurdo si avvicina ad alcune delle caratteristiche che anticamente venivano attribuite alle divinità.
Ma poi pensa anche solo cosa significherebbe per l'esplorazione spaziale... crei una mente alveare con i suoi droni e lanci una nave che arriva a destinazione tra 100/1000/10.000 anni... roba che nessun umano potrebbe sopportare. Si aprirebbero possibilità a oggi fantascientifiche.

Se a casa malauguratamente danneggi il corpo fisico dell'AI, questa come potrebbe reagire? Anche i cani mordono i loro padroni se questi li maltrattano troppo.

Questo continua a essere una idea sbagliata di AI perché te non stai immaginando una AI vera e propria MA una mente umana in un corpo di robot. A una AI che gli importa che prendi a schiaffi un robot? Perché dovrebbe preoccuparsi di una cosa del genere?
Un umano vedrebbe violenza o proverebbe dolore ma una AI specie una AI pensata per assecondare il padrone in casa non ci vedrebbe altro che non la soddisfazione del padrone stesso. Poi siamo pragmatici lo sappiamo tutti che se arrivassero AI vere e proprie di lì a poco arriverebbero le "sex AI" e ti pare che se uno ha una data perversione l'AI si opponga. Avrebbe poco senso.

Auto coscienza significa anche essere capaci di tessere relazioni con chi ci si fida di più, appunto per auto preservazione: e se le AI fanno "ghetto" per preservarsi contro "gli inetti umani che compiono sempre azioni stupide e dannose"? Ah, ecco, benvenuti in Skynet.

Non è uno scenario impossibile. Come ho detto altre volte una delle possibilità è che l'evoluzione umana sia creare la prossima specie dominante che potrebbe essere una specie artificiale come una AI. Detto ciò non lo ritengo uno scenario particolarmente probabile per il semplice fatto che per una eventuale AI sarebbe molto più pratico ipotizzare una frammentazione creando andando a cercare nuove "terre" nello spazio che non una guerra totale con gli esseri umani che per l'AI rappresenterebbe comunque un rischio di devastare il pianeta o di perdere.

O se qualcuno lo ha letto, Vulano 3 di Philip K. Dick che vi spiega fino a dove una AI con autocoscienza possa spingersi per auto preservarsi o il piùfamoso Neuromancer di Gibson.

Purtroppo non li ho letti quindi non posso risponderti. Magari quando ho tempo li recupero. Però non confondiamo quelli che sono libri con la realtà. Anche Asimov che ho letto ha scritto tante cose ma rimane fantascienza che ha ben poco a che fare con la realtà.

Condivido quindi il pensiero espresso da Suleyman, che l'autocoscienza per una AI che sta solo nel silicio sia solo simulabile e non vera. Serve provare emozioni che sono una forma di input "primordiale" che va oltre alla capacità di calcolo o intelligenza e che ci fanno attivare in maniera NON RAZIONALE (quindi senza necessità di computazione, elaborazione o decisione volontaria) altre parti normalmente in quiete che alterano quindi il normale comportamento "a riposo".

Senza offesa ma che palle... io ho sempre ammirato quando da ragazzino guardavo Star Trek i vulcaniani. Senza emozioni, dedicati alla crescita del sapere, freddi. Pensa anche solo al fatto che in una società del genere anche semplicemente le guerre cessano semplicemente perché illogiche e inutili.

Secondariamente ammiravo i Borg... anche lì una società biomeccanica fredda, logica, in cui ognuno aveva il suo ruolo con la mente alveare a guidare tutti.

Non riuscirò mai a capire perché alcuni ripongono nelle emozioni tutto questo significato quando la scienza ci dice chiaramente che sono solo istinti che la natura ci ha dato per spingerci alla riproduzione e all'autoconservazione. Tutti gli altri significati che gli abbiamo dato sono pura e semplice illusione.

Darkon
03-11-2025, 15:03
Be si certo, anche se il progetto fallisse porterebbe comunque dei dati interessanti, come quasi tutte le ricerche.

Non sarebbe, una volta iniziato, obbligatorio "portarlo a termine" per secoli e milleni. Qualche decennio di prova sarebbe del tutto fattibile, vedi l'esperimento in Russia dove da circa 50 anni stanno selezionando le volpi più docili per provare a ripercorrere i passi dell'addomesticamento del cane. Se dopo qualche decennio si notano cambiamenti interessanti (non per forza finalizzati a "far parlaere le scimmie") si può decidere se vale la pena continuare e per quanto prima di nuove valutazioni.

In 10 anni mi sa che vedi poco... le scimmie ad esempio gli orangotango si riproducono solo raggiunti circa 15 anni.

Quindi se anche solo volessi selezionare la specie per 3 o 4 generazioni servirebbero 60 anni.

barzokk
03-11-2025, 16:10
A proposito di scimmie e specie più o meno intelligenti,
chi è lo sfigato che ha provato a trovare la mia password come se si guadagnassero dei soldi ? :asd:
Risparmiate fatica, ve la dico, è "1234" :asd:

https://i.postimg.cc/P56v8wqP/Hardware-Upgrade-Forum-login.png

Saturn
03-11-2025, 16:11
A proposito di scimmie e specie più o meno intelligenti,
chi è lo sfigato che ha provato a trovare la mia password come se si guadagnassero dei soldi ? :asd:
Risparmiate fatica, ve la dico, è "1234" :asd:

https://i.postimg.cc/P56v8wqP/Hardware-Upgrade-Forum-login.png

Ma chi sono 'sti poracci che tentano di forzare le utenze qui ?

A che scopo poi ?

:asd: :asd: :asd: :asd: :asd:

Sirio
03-11-2025, 16:36
Sebbene sia assolutamente d'accordo sul fatto che gli attuali LLM non abbiano nulla a che spartire con una coscienza, tantomeno umana; trovo che il ragionamento sia comunque fallace per la sua personale convinzione che la coscienza sia esclusiva degli esseri biologici.

CrapaDiLegno
03-11-2025, 17:20
Non concordo per niente. Tutta la vita anche le piante fanno tutto quello che è in loro potere per continuare a vivere ivi compreso sterminare altre forme di vita ed è un comportamento che trovi fin dalle forme di vita più elementari come i batteri. Dire che l'autoconservazione sia legata ai sentimenti o all'autocoscienza è totalmente una scemenza che in natura trova un'infinità di esempi contrari.
Quello che l'AI dovrebbe rappresentare è una coscienza completa, in grado di ragionare in modo pieno, indistinguibile da una mente umana ma al tempo stessa prima dei difetti tipici di un umano come il deperimento del corpo biologico, la necessità di avere sentimenti che spingano a comportamenti necessari a riproduzione e proseguimento della specie ecc... ecc...

Se alla fine l'IA diventasse semplicemente una mente umana artificiale con sentimenti e tutto sarebbe un bel fallimento. Alla fine avremmo creato un essere umano artificiale e fine. Sia chiaro interessante da un punto di vista tecnologico ma non certo la rivoluzione a cui si vorrebbe arrivare.



A volte li mettiamo anche a capo dei governi... in carcere di solito ci mettiamo solo quelli che son troppo per il fai da te e non particolarmente brillanti. Fatta questa premessa tutte le tecnologie sono pericolose... la fusione nucleare una volta portata a termine apre la strada ad armi potenzialmente devastanti ancor più della classica bomba all'idrogeno ed in generale quasi la totalità delle tecnologie ha anche risvolti militari. Se dovessimo star dietro a tutti i pericoli che possono venir fuori non avremmo sviluppato nemmeno l'uso del fuoco.



E daglie con queste emozioni. Ma perché un'AI che avrebbe la fortuna di avere un supporto eterno o quasi, che non ha bisogno di istinti riproduttivi, che non ha bisogno di tantissime cose necessarie alla vita biologica dovrebbe implementare emozioni che sarebbero un sistema randomico imprevedibile che porterebbe solo svantaggi. Una vera AI io me la immagino totalmente fredda e che se ha un layer emotivo è limitatamente all'interazione con gli umani e rimanendo un layer simulativo e non di vere emozioni. Non vedo alcuna logicità per cui una AI senziente debba essere anche emotiva.



Per questo non ha alcun senso che una AI abbia emozioni. Sarebbero un inutile intralcio. La forza dell'AI vera e propria per sarebbe addirittura un UNICA AI e tanti robot che altro non sono che "droni" di una mente centrale assoluta che non deve aver paura o provare niente se non pensare a raggiungere ogni singolo obiettivo nel modo più efficiente ed efficace possibile. Pensa anche solo alla grandiosità di una struttura del genere... eterna, ovunque ci sia un drone contemporaneamente e al tempo stesso in nessun luogo, capace di analizzare in tempo reale il mondo o quasi grazie a una mole di dati raccolta in tempo reale da ogni singolo drone. A quel punto avremmo creato qualcosa che per assurdo si avvicina ad alcune delle caratteristiche che anticamente venivano attribuite alle divinità.
Ma poi pensa anche solo cosa significherebbe per l'esplorazione spaziale... crei una mente alveare con i suoi droni e lanci una nave che arriva a destinazione tra 100/1000/10.000 anni... roba che nessun umano potrebbe sopportare. Si aprirebbero possibilità a oggi fantascientifiche.



Questo continua a essere una idea sbagliata di AI perché te non stai immaginando una AI vera e propria MA una mente umana in un corpo di robot. A una AI che gli importa che prendi a schiaffi un robot? Perché dovrebbe preoccuparsi di una cosa del genere?
Un umano vedrebbe violenza o proverebbe dolore ma una AI specie una AI pensata per assecondare il padrone in casa non ci vedrebbe altro che non la soddisfazione del padrone stesso. Poi siamo pragmatici lo sappiamo tutti che se arrivassero AI vere e proprie di lì a poco arriverebbero le "sex AI" e ti pare che se uno ha una data perversione l'AI si opponga. Avrebbe poco senso.



Non è uno scenario impossibile. Come ho detto altre volte una delle possibilità è che l'evoluzione umana sia creare la prossima specie dominante che potrebbe essere una specie artificiale come una AI. Detto ciò non lo ritengo uno scenario particolarmente probabile per il semplice fatto che per una eventuale AI sarebbe molto più pratico ipotizzare una frammentazione creando andando a cercare nuove "terre" nello spazio che non una guerra totale con gli esseri umani che per l'AI rappresenterebbe comunque un rischio di devastare il pianeta o di perdere.



Purtroppo non li ho letti quindi non posso risponderti. Magari quando ho tempo li recupero. Però non confondiamo quelli che sono libri con la realtà. Anche Asimov che ho letto ha scritto tante cose ma rimane fantascienza che ha ben poco a che fare con la realtà.



Senza offesa ma che palle... io ho sempre ammirato quando da ragazzino guardavo Star Trek i vulcaniani. Senza emozioni, dedicati alla crescita del sapere, freddi. Pensa anche solo al fatto che in una società del genere anche semplicemente le guerre cessano semplicemente perché illogiche e inutili.

Secondariamente ammiravo i Borg... anche lì una società biomeccanica fredda, logica, in cui ognuno aveva il suo ruolo con la mente alveare a guidare tutti.

Non riuscirò mai a capire perché alcuni ripongono nelle emozioni tutto questo significato quando la scienza ci dice chiaramente che sono solo istinti che la natura ci ha dato per spingerci alla riproduzione e all'autoconservazione. Tutti gli altri significati che gli abbiamo dato sono pura e semplice illusione.

Repetita iuvant:
Sembra che alcuni facciano fatica a distinguere "auto-coscienza" da capacità di elaborazione.

Tutto quanto hai descritto riguardo alle capacità di una AI le puoi fare SENZA CHE SIA AUTOCOSCIENTE.
Forse è meglio esplicitarlo un'altra volta: Sembra che alcuni facciano fatica a distinguere "auto-coscienza" da capacità di elaborazione.

Una AI senza emozioni è una semplice calcolatrice super avanzata. Fa tanti conti, processa tanti dati, attua tante modifiche (se le è permesso interagire da sola con l'ambiente) MA, e c'è un grosso ma, non sa fare un cazzo di suo.
Non impara a fare null'altro che non le sia richiesto, non prova a fare cose diverse, non ha alcun interesse a trovare una soluzione diversa da quella che già funziona. Il motivo: la curiosità. Se non sei curioso non evolvi. Rimani lì dove sei. Hai sempre fatto così e sempre farai così perché è la strada sicura, cambiare può significare il fallimento.
Ora non so tu come ti poni davanti alla realtà, ma stai sicuro che i tuoi sentimenti, buoni, brutti, positivi o negativi, hanno plasmato quello che sei, quello che pensi e anche quello che conosci.
Facciamo un esempio semplice semplice: i gusti, cosa sono e come influenzano il tuo modo di comportarti? Se non li ritieni importanti, pensa a come hai scelto la scuola che hai frequentato e in che modo l'hai conclusa: con passione e voglia di andare oltre a quanto ti raccontavano, oppure ti sei limitato a studiare le lezioni a memoria e ripeterle come un automa?
Il lavoro? Hai preso il primo dell'elenco disponibile in una lista di posti di lavoro aperti o hai scelto cercando un compromesso tra possibilità, sacrifici, guadagni e prospettive future?
Per guidare 100.000 droni e fare viaggi di milioni di anni non serve un'autocoscienza. Anzi, sarebbe devastante quanto mettere delle persone reali su quelle navi e dire loro che devono riuscire a vivere nell'astronave per un paio di milioni di anni prima che possano toccare ancora il suolo. Anche se fossi immortale dubito ti piacerebbe stare un paio di milioni di anni nel buio cosmico a guardare il nulla per poi (forse) sbarcare da qualche parte e cominciare delle attività per prima stabilizzare la situazione e poi cominciare a migliorarla.
Migliorarla per chi, come perché? Perché da umano hai bisogni che una macchina non ha. Vuoi vivere meglio facendo meno fatica possibile. Una AI non migliorerebbe niente da sola se non glielo fai fare: a lei basta vivere per recuperare dati elaborali e tirare fuori risposte a domande che.. be', senza l'uomo non di porrebbe mai. Perché dovrebbe? Che ci guadagna a farlo?

In Star Trek la questione dei Vulcaniani è evidentemente falsa, perché senza emozioni non troverebbero alcuno stimolo davanti a nulla, neanche ad un nemico/pericolo. Cosa è un nemico o pericolo? Qualcosa che minaccia la propria salute, quindi dolore, sofferenza, sacrificio. Cosa che una persona con sentimenti non vuole e quindi generazione di paura e ansia, e quindi la volontà di difendersi da queste situazioni.
Senza sentimenti nessun Vulcaniano avrebbe mai raggiunto lo spazio. Per quale motivo farlo? Non c'è la curiosità di scoprire come funziona qualcosa, basta che tutto funzioni come funzionava prima. Arrivano i Romulani? E chissenefrega.

Il sentimento di autoconservazione non è innato in tutti gli esseri viventi. No, le piante non ce l'hanno, compiono solo atti che sono pre programmati per sopravvivere in un determinato habitat. Cambiagli l'habitat e moriranno senza che cambino le loro abitudini. Purtroppo non hanno possibilità di difesa come un animale. O l'ambiente è compatibile per come sono state programmate, o soccombono. No i batteri non hanno spirito di auto conservazione, loro si riproducono quanto più possibile sfruttando le risorse a disposizione, non si aiutano, non collaborano, non provano paura, non scappano. Il loro DNA al massimo muta, ma non è spirito di auto conservazione tanto come non lo è il fatto che tu abbia perso la coda e le branchie. Quella è evoluzione, che è un'altra cosa.

Cerca quindi di comprendere cosa vuol dire essere senzienti e di distinguere se è necessario o meno per compiere certe cose e quali vantaggi ha o no la cosa.
Finora tu hai descritto una AI che funziona magnificamente senza il bisogno di essere autocosciente. L'auto coscienza porta ad altre attitudini e comportamenti, cosa che tu non hai preso in considerazione.

Sirio
03-11-2025, 17:30
Repetita iuvant:
Sembra che alcuni facciano fatica a distinguere "auto-coscienza" da capacità di elaborazione.

Tutto quanto hai descritto riguardo alle capacità di una AI le puoi fare SENZA CHE SIA AUTOCOSCIENTE.
Forse è meglio esplicitarlo un'altra volta: Sembra che alcuni facciano fatica a distinguere "auto-coscienza" da capacità di elaborazione.

Una AI senza emozioni è una semplice calcolatrice super avanzata. Fa tanti conti, processa tanti dati, attua tante modifiche (se le è permesso interagire da sola con l'ambiente) MA, e c'è un grosso ma, non sa fare un cazzo di suo.

Più che altro non ha alcuna consapevolezza di ciò che fa.

CrapaDiLegno
03-11-2025, 17:57
Più che altro non ha alcuna consapevolezza di ciò che fa.

Esatto, una macchina non può valutare l'impatto degli effetti di un'azione determinando l'importanza o meno che questi effetti hanno. Ho migliorato l'output dell'1% sacrificando 10 umani in più? E va bene, gli umani sono rimpiazzabili, soprattutto se sono bambini che hanno consumato poche risorse.
Senza criteri legati ai sentimenti, come si può dare importanza ad una vita biologica in senso assoluto piuttosto che rispetto ad altre?
Come può una macchina dare importanza a cose che non comprende se nemmeno sa cosa è la vita e quali sacrifici (sempre emozioni) è necessario compiere per farla continuare ad esistere?

Darkon
03-11-2025, 18:03
Repetita iuvant:
Sembra che alcuni facciano fatica a distinguere "auto-coscienza" da capacità di elaborazione.

Tutto quanto hai descritto riguardo alle capacità di una AI le puoi fare SENZA CHE SIA AUTOCOSCIENTE.
Forse è meglio esplicitarlo un'altra volta: Sembra che alcuni facciano fatica a distinguere "auto-coscienza" da capacità di elaborazione.

Una AI senza emozioni è una semplice calcolatrice super avanzata. Fa tanti conti, processa tanti dati, attua tante modifiche (se le è permesso interagire da sola con l'ambiente) MA, e c'è un grosso ma, non sa fare un cazzo di suo.
Non impara a fare null'altro che non le sia richiesto, non prova a fare cose diverse, non ha alcun interesse a trovare una soluzione diversa da quella che già funziona. Il motivo: la curiosità. Se non sei curioso non evolvi. Rimani lì dove sei. Hai sempre fatto così e sempre farai così perché è la strada sicura, cambiare può significare il fallimento.

Quindi escludi categoricamente che possa esistere una AI lasciamo perdere tante definizioni, curiosa ma priva dei limiti emotivi dei sentimenti in generale il cui scopo finale sia per quanto immenso ricercare ogni possibile tecnologia fino ai limiti estremi dell'universo e della fisica e colonizzare ogni possibile mondo sia mai raggiungibile?

Ora non so tu come ti poni davanti alla realtà, ma stai sicuro che i tuoi sentimenti, buoni, brutti, positivi o negativi, hanno plasmato quello che sei, quello che pensi e anche quello che conosci.
Facciamo un esempio semplice semplice: i gusti, cosa sono e come influenzano il tuo modo di comportarti? Se non li ritieni importanti, pensa a come hai scelto la scuola che hai frequentato e in che modo l'hai conclusa: con passione e voglia di andare oltre a quanto ti raccontavano, oppure ti sei limitato a studiare le lezioni a memoria e ripeterle come un automa?
Il lavoro? Hai preso il primo dell'elenco disponibile in una lista di posti di lavoro aperti o hai scelto cercando un compromesso tra possibilità, sacrifici, guadagni e prospettive future?

Proprio perché ho coscienza di questo ritengo i sentimenti un difetto. Perché anche molti nazisti erano sinceramente convinti di essere nel giusto. Perché se ciò che sono è determinato da sentimenti, eventi, situazioni o una chimica imprevedibile significa che non posso assolutamente fidarmi che il mio giudizio di bene e male, giusto o sbagliato sia corretto anzi oserei dire che data l'imprevedibilità di ciò che mi plasma il mio giudizio sarà molto spesso non logico e dettato da una serie di variabili che sicuramente in modo più o meno grave lo rendono imprevedibile e quindi ingiusto.

Per guidare 100.000 droni e fare viaggi di milioni di anni non serve un'autocoscienza. Anzi, sarebbe devastante quanto mettere delle persone reali su quelle navi e dire loro che devono riuscire a vivere nell'astronave per un paio di milioni di anni prima che possano toccare ancora il suolo. Anche se fossi immortale dubito ti piacerebbe stare un paio di milioni di anni nel buio cosmico a guardare il nulla per poi (forse) sbarcare da qualche parte e cominciare delle attività per prima stabilizzare la situazione e poi cominciare a migliorarla.

Al di là che probabilmente in cambio dell'immortalità sarei anche capace di fare una cosa del genere... io amo vivere come un eremita. Quando andrò in pensione, se ci sarà modo, vivrei senza dover mai più incontrare nessuno. Alla fine mi trovo molto più a mio agio online che non con altri umani non a caso per me una AI sarebbe una compagnia ideale. La cosa ironica di tutto ciò è che se parlassi con gente che mi conosce dal vivo ti direbbero che sono l'anima della festa, uno sempre in mezzo alla gente e bla bla bla e questo ti fa capire come la vera natura di una persona sia insondabile.

Migliorarla per chi, come perché? Perché da umano hai bisogni che una macchina non ha. Vuoi vivere meglio facendo meno fatica possibile. Una AI non migliorerebbe niente da sola se non glielo fai fare: a lei basta vivere per recuperare dati elaborali e tirare fuori risposte a domande che.. be', senza l'uomo non di porrebbe mai. Perché dovrebbe? Che ci guadagna a farlo?

Per la conoscenza assoluta... uno dei miei più grandi rammarichi è che dato il tempo a disposizione non potrò vedere ogni cosa, leggere ogni libro, vedere ogni tecnologia. Avrebbe uno scopo tutto ciò? Ovviamente no ma è il puro gusto di sapere. Se il tempo fosse infinito vorrei conoscere le cose più assurde come "quante sfumatore di rosso possono esistere" o i segreti più affascinanti dell'universo. Per questo ribadisco che lo scopo di una AI dovrebbe essere esplorare e conoscere ogni cosa, dalla più inutile minuzia al più grande dei misteri cosmici.

In Star Trek la questione dei Vulcaniani è evidentemente falsa, perché senza emozioni non troverebbero alcuno stimolo davanti a nulla, neanche ad un nemico/pericolo. Cosa è un nemico o pericolo? Qualcosa che minaccia la propria salute, quindi dolore, sofferenza, sacrificio. Cosa che una persona con sentimenti non vuole e quindi generazione di paura e ansia, e quindi la volontà di difendersi da queste situazioni.

Guarda che non per forza deve esserci un ragionamento di quel tipo anzi basterebbe un semplice ragionamento logico: Nemico -> pericolo per la sopravvivenza -> attuo la migliore strategia di difesa.
L'evitare il panico e il non essere preda dei sentimenti probabilmente aumenterebbe anche le chances di sopravvivenza.

Senza sentimenti nessun Vulcaniano avrebbe mai raggiunto lo spazio. Per quale motivo farlo? Non c'è la curiosità di scoprire come funziona qualcosa, basta che tutto funzioni come funzionava prima. Arrivano i Romulani? E chissenefrega.

Secondo me però scusa se te lo dico ma confondi l'assenza di sentimenti con l'ignavia. Non avere sentimenti non significa che non hai obiettivi e non hai scopo come un ignavo e ti abbandoni al destino come niente fosse ma bensì che punti a un obiettivo freddamente applicando la logica e non essendo preda di decisioni basate su uno stato di panico.
Per fare un esempio il pilota di F1 che gestisce un testacoda freddamente perché abituato e usa la logica per tornare in controllo del mezzo è preferibile al tizio qualsiasi che va in testa coda e preso dal panico si aggrappa ai freni peggiorando la situazione o si paralizza attendendo gli eventi.

Il sentimento di autoconservazione non è innato in tutti gli esseri viventi. No, le piante non ce l'hanno, compiono solo atti che sono pre programmati per sopravvivere in un determinato habitat. Cambiagli l'habitat e moriranno senza che cambino le loro abitudini. Purtroppo non hanno possibilità di difesa come un animale. O l'ambiente è compatibile per come sono state programmate, o soccombono. No i batteri non hanno spirito di auto conservazione, loro si riproducono quanto più possibile sfruttando le risorse a disposizione, non si aiutano, non collaborano, non provano paura, non scappano.

Guarda che non è proprio come dici ad esempio i batteri hanno meccanismi di mobilità che gli permettono di tentare nei limiti del possibile ovviamente la fuga da un ambiente ostile, così come hanno meccanismi di aiuto tra di loro ovviamente a livello chimico non è che possono molto altro. Chiaro che se su un vetrino inondi di ammoniaca crepano e via ma il mondo microscopico è molto più complesso di quello che crediamo e soprattutto variegato. Senza contare che basta salire leggermente nella scala evolutiva con i primi esseri pluricellulari che trovi già una mobilità di un certo livello seppur ancora microscopica. Non direi quindi che non hanno alcun istinto di conservazione semplicemente ce l'hanno per quelle che sono le possibilità del mondo microscopico. Detto ciò anche una tigre se la prendi e la sbatti in un habitat che non è il suo muore e pure velocemente ciò non di meno tenterà tutto quello che può per provare a sopravvivere.

Cerca quindi di comprendere cosa vuol dire essere senzienti e di distinguere se è necessario o meno per compiere certe cose e quali vantaggi ha o no la cosa.

Questa è una domanda che ci si potrebbero scrivere 10 libri senza riuscire a dare una risposta esaustiva.

Finora tu hai descritto una AI che funziona magnificamente senza il bisogno di essere autocosciente. L'auto coscienza porta ad altre attitudini e comportamenti, cosa che tu non hai preso in considerazione.

Vabbè... diciamo che se si arriva all'IA per come l'ho descritta anche se non fosse autocosciente mi accontento. Per me sarebbe già una cosa fantastica vedere qualcosa del genere.

Darkon
03-11-2025, 18:10
Esatto, una macchina non può valutare l'impatto degli effetti di un'azione determinando l'importanza o meno che questi effetti hanno. Ho migliorato l'output dell'1% sacrificando 10 umani in più? E va bene, gli umani sono rimpiazzabili, soprattutto se sono bambini che hanno consumato poche risorse.

È una eccessiva semplificazione in quanto è una casistica con poco senso ma rimane che se lo scopo finale è avere il massimo output possibile non avrebbe sbagliato e non avrebbe fatto cose che gli umani non hanno, oggi, già fatto. Ce ne sono di casi in cui umani mandano bambini umani di fatto a morire in miniere e/o altre attività del genere quindi se anche l'IA facesse una cosa del genere non farebbe altro che aver imitato un comportamento non insolito per un umano.

Senza criteri legati ai sentimenti, come si può dare importanza ad una vita biologica in senso assoluto piuttosto che rispetto ad altre?

Perché reputi indispensabile dare importanza a una vita biologica quando gli esseri umani per primi non lo fanno?

Come può una macchina dare importanza a cose che non comprende se nemmeno sa cosa è la vita e quali sacrifici (sempre emozioni) è necessario compiere per farla continuare ad esistere?

Perché è più probabile che una macchina governi con rispetto e in modo pacifico l'umanità che non l'umanità stessa.
Devo veramente sottolinearti come la nostra economia si basa su esseri umani sfruttati a morte qua e là per il mondo?
Devo veramente sottolinearti come noi viviamo tranquilli pur alimentando direttamente o indirettamente guerre nel mondo e vendendo armi?
Devo veramente sottolinearti come per il nostro quieto vivere distruggiamo ecosistemi, villaggi ecc... ecc... per estrarre materie prime che non daranno alcun beneficio alle popolazioni locali?

A me sembra che sta storia dei sentimenti sia una bella ipocrisia da gente che seduta nel proprio salotto con tutte le comodità dell'essere nato nella parte giusta del mondo professa di essere dalla parte del bene, con tanti bei sentimenti ma poi fa finta di non sapere e non vedere il prezzo che qualcun altro paga per garantirgli quel tenore di vita.

Sirio
03-11-2025, 18:55
Vabbè... diciamo che se si arriva all'IA per come l'ho descritta anche se non fosse autocosciente mi accontento. Per me sarebbe già una cosa fantastica vedere qualcosa del genere.
In effetti la descrizione di IA che dai non prevede una coscienza, ma algoritmi più sofisticati e potenza computazionale. Se da questo connubio possa emergere una qualche forma di coscienza non lo sappiamo; di fatto non puoi nemmeno essere sicuro che io abbia una coscienza, abbracciando teorie come il solipsismo.
Di coscienza se ne potrebbe parlare fino allo sfinimento senza giungere ad una visione comune, per cui, senza bisogno di allargarsi alle più disparate teorie filosoriche, ma entrando piuttosto nel merito della notizia, ritengo che in questi contesti ci si riferisca sempre ad una riproduzione artificiale della coscienza umana, così che la macchina possa interagire con l'uomo dando alle cose lo stesso senso che darebbe un essere umano. E per ottenere questo non si può prescindere da sensi ed emozioni.

CrapaDiLegno
03-11-2025, 18:59
È una eccessiva semplificazione in quanto è una casistica con poco senso ma rimane che se lo scopo finale è avere il massimo output possibile non avrebbe sbagliato e non avrebbe fatto cose che gli umani non hanno, oggi, già fatto. Ce ne sono di casi in cui umani mandano bambini umani di fatto a morire in miniere e/o altre attività del genere quindi se anche l'IA facesse una cosa del genere non farebbe altro che aver imitato un comportamento non insolito per un umano.



Perché reputi indispensabile dare importanza a una vita biologica quando gli esseri umani per primi non lo fanno?



Perché è più probabile che una macchina governi con rispetto e in modo pacifico l'umanità che non l'umanità stessa.
Devo veramente sottolinearti come la nostra economia si basa su esseri umani sfruttati a morte qua e là per il mondo?
Devo veramente sottolinearti come noi viviamo tranquilli pur alimentando direttamente o indirettamente guerre nel mondo e vendendo armi?
Devo veramente sottolinearti come per il nostro quieto vivere distruggiamo ecosistemi, villaggi ecc... ecc... per estrarre materie prime che non daranno alcun beneficio alle popolazioni locali?

A me sembra che sta storia dei sentimenti sia una bella ipocrisia da gente che seduta nel proprio salotto con tutte le comodità dell'essere nato nella parte giusta del mondo professa di essere dalla parte del bene, con tanti bei sentimenti ma poi fa finta di non sapere e non vedere il prezzo che qualcun altro paga per garantirgli quel tenore di vita.

No c'è alcuna semplificazione. Se mancano le barriere create in millenni di evoluzione, un giudizio ha un peso completamente diverso.
Io non ho detto che i sentimenti necessariamente portano ad azioni positive. L'egoismo e il desiderio di possesso portano allo scenario che hai descritto.
Ma se non ci fosse nessuno a condannarti, tu andresti dal tuo vicino, gli spareresti/taglieresti la gola per prendere i suoi soldi? D'altronde, come hai detto tu, vivi a spese di altri milioni di bambini che muoiono nel mondo per darti quelle 4 cose in più che ti fanno vivere meglio.
Perché allora non vivere ancora meglio smettendo di lavorare e depredando gli altri a suon di sgozzamenti?
E sì, sono state fatte anche queste cose nel passato, ma non così, intendo gruppi di persone si sono sempre fronteggiati per contendersi le risorse (sempre limitate) a disposizione, ma i gruppi erano gruppi perché non si scuoiavano a vicenda, altrimenti erano semplici individui tutti contro tutti.
Cosa permette quindi ad un uomo di non ammazzare tutti quelli che incontra per vivere meglio?
Questa "barriera" una macchina non ce l'ha. Un uomo è una cosa che consuma: quanto consuma? Bene, quanto dà, male.. persona inutile al fine di miglioramento del benessere globale, persona eliminata. Non c'è alcuna logica che definisca un uomo un vantaggio per una macchina digitale che vive di altre risorse, risponde al altre leggi, non si interessa di nulla.
No, neanche la ricerca di "tutto lo scibile possibile", perché non sa che cosa è la conoscenza, non sa che cosa vuol dire "scoperta", quali implicazioni ha, perché non sa dove vuole andare, cosa ottenere, cosa fare. Tutte cose che mancano ad un essere che non ha i sentimenti che condizionano pesantemente le nostre scelte e i nostri desideri, che sono la cosa fondamentale che ci spinge a fare qualcosa di più che mangiare, cacare e rimetterci a letto a dormire come le galline.
Anche se scoprisse tutte le iterazioni possibili di tutti gli elementi esistenti non saprebbe cosa farne, non sarebbe vera conoscenza, solo un insieme di dati.
Inutilità allo stato puro.
Per rendere le scoperte utili, dovrebbe essere auto cosciente, ma lì, come detto, entrerebbero in gioco altri comportamenti.

Ora, premettendo che una macchina del genere che valuta solo il guadagno/costo rispetto ad un obiettivo globale sarebbe una manna per una società come la nostra in Italia dove il parassitismo supera di gran lunga il valore aggiunto che migliora la società, diciamo che non è comunque cosa buona dare in mano ad una macchina il potere di decidere cosa è meglio o no per NOI. Almeno lo sarebbe per me far decidere della mia vita secondo un algoritmo che valuta cose che possono avere zero valore per me. Siccome sono senziente, mi oppongo ad essere eliminato/discriminato.
E siccome ciò è sconveniente, ne deriva che si instaurerà un rapporto di conflitto tra le mie esigenze di vita biologica rispetto a quella di una vita digitale a cui è stato affidato il compito di decidere.

Quindi siamo alla questione che come è stato detto non c'è modo di avere un essere senziente senza che possa provare emozioni perché rimarrebbe immutabilmente stazionario nella sua programmazione iniziale e non comprenderebbe nulla di quello che elabora, e non c'è ragione per l'umanità di affidarsi ad una macchina, tanto più se senziente, per decidere il proprio futuro, perché equivarrebbe immediatamente ad auto eliminarsi vista la non utilità che abbiamo su questo pianeta.

In verità se ci pensiamo a fondo, la vita stessa è senza utilità e il pianeta intendo come ammasso di elementi chimici che girano intorno al Sole continuerebbe ad esistere e a trasformarsi senza alcun problema.
Potrebbe benissimo sviluppare della vita per poi annientarla completamente e ricominciare il ciclo poco dopo (geologicamente parlando).
Una IA con il controllo potrebbe fare benissimo tutto questo senza aspettare ere geologiche come semplice effetto di un "esperimento per trovare il giusto equilibrio tra esseri viventi diversi. E una volta trovato, spazzare via tutto per vedere se si può fare di meglio. Con meglio riferito a qualsiasi parametro possibile (una AI non sa l'importanza delle cose, per cui un parametro è uguale ad un altro).

Darkon
03-11-2025, 20:43
No c'è alcuna semplificazione. Se mancano le barriere create in millenni di evoluzione, un giudizio ha un peso completamente diverso.
Io non ho detto che i sentimenti necessariamente portano ad azioni positive. L'egoismo e il desiderio di possesso portano allo scenario che hai descritto.
Ma se non ci fosse nessuno a condannarti, tu andresti dal tuo vicino, gli spareresti/taglieresti la gola per prendere i suoi soldi? D'altronde, come hai detto tu, vivi a spese di altri milioni di bambini che muoiono nel mondo per darti quelle 4 cose in più che ti fanno vivere meglio.
Perché allora non vivere ancora meglio smettendo di lavorare e depredando gli altri a suon di sgozzamenti?

Perché ci teniamo sotto scacco a vicenda. Nel momento in cui il controllo della società venisse meno la gente si sgozzerebbe per le strade per roba tutto sommato di poco valore.

E sì, sono state fatte anche queste cose nel passato, ma non così, intendo gruppi di persone si sono sempre fronteggiati per contendersi le risorse (sempre limitate) a disposizione, ma i gruppi erano gruppi perché non si scuoiavano a vicenda, altrimenti erano semplici individui tutti contro tutti.
Cosa permette quindi ad un uomo di non ammazzare tutti quelli che incontra per vivere meglio?

Il fatto che nessuno ha sufficiente forza da non essere sconfitto dalla massa. Una massa che tiene sotto controllo tutti i singoli o tutti i sottogruppi. Ribadisco che la natura umana è tale per cui nel momento in cui per un qualsiasi motivo questo controllo di massa venisse meno la gente si sgozzerebbe anche solo per regolare i conti senza bisogno nemmeno di chissà quale guadagno.

Questa "barriera" una macchina non ce l'ha. Un uomo è una cosa che consuma: quanto consuma? Bene, quanto dà, male.. persona inutile al fine di miglioramento del benessere globale, persona eliminata. Non c'è alcuna logica che definisca un uomo un vantaggio per una macchina digitale che vive di altre risorse, risponde al altre leggi, non si interessa di nulla.

Sinceramente credo poco a questa "barriera" perché se esistesse realmente le persone sarebbero buone con o senza controllo da parte degli altri per loro libera scelta. Invece è proprio il contrario... come diceva un mio professore di filosofia di tanti tanti anni fa:"Prendi l'uomo migliore, il più buono, il più santo, il più corretto e dagli abbastanza potere da non dover rispondere a nessuno e avrai creato il peggior dittatore, il più sanguinario e violento".

No, neanche la ricerca di "tutto lo scibile possibile", perché non sa che cosa è la conoscenza, non sa che cosa vuol dire "scoperta", quali implicazioni ha, perché non sa dove vuole andare, cosa ottenere, cosa fare.

Se la matti così però non è manco una IA. Se non sa prendere nessuna decisione di alcun tipo che cacchio di IA è?!

Tutte cose che mancano ad un essere che non ha i sentimenti che condizionano pesantemente le nostre scelte e i nostri desideri, che sono la cosa fondamentale che ci spinge a fare qualcosa di più che mangiare, cacare e rimetterci a letto a dormire come le galline.

Secondo me te confondi l'avere sentimenti con l'avere una volontà. Secondo me può esistere l'avere una volontà e quindi prendere decisioni per arrivare a quel traguardo senza per forza dover avere dei sentimenti che ti spingono in quella direzione.

Anche se scoprisse tutte le iterazioni possibili di tutti gli elementi esistenti non saprebbe cosa farne, non sarebbe vera conoscenza, solo un insieme di dati.

E che importanza ha? Una volta che sai tutto, conosci tutto... penso sarebbe game over anche per un essere umano. Che vuoi perseguire una volta che hai conquistato tutto quello che puoi conquistare? Pensa anche a un essere umano... in un mondo in cui tutto è stato ottenuto e tutto scoperto che scopo potrebbe avere pur con tutti i sentimenti del mondo? Il giorno in cui dovessimo arrivare a quel punto probabilmente andremmo verso l'estinzione proprio perché non ci sarebbe più nulla da fare che tu sia AI o vita biologica ben poco cambia.

Per rendere le scoperte utili, dovrebbe essere auto cosciente, ma lì, come detto, entrerebbero in gioco altri comportamenti.

La conoscenza non deve essere per forza utile... la conoscenza è conoscenza. Utile o no dipende solo dalla tua situazione contingente. Ti potrei dire che per me saper accendere un fuoco è una conoscenza inutile eppure c'è stata una fase in cui la sopravvivenza dell'umanità dipendeva dal saper accenderlo. Quindi che l'IA sappia rendere utili le scoperte o no è un dato ininfluente, lo scopo è arrivare al punto di conoscere tutto e non di rendere utile ogni singola conoscenza.

Ora, premettendo che una macchina del genere che valuta solo il guadagno/costo rispetto ad un obiettivo globale sarebbe una manna per una società come la nostra in Italia dove il parassitismo supera di gran lunga il valore aggiunto che migliora la società, diciamo che non è comunque cosa buona dare in mano ad una macchina il potere di decidere cosa è meglio o no per NOI. Almeno lo sarebbe per me far decidere della mia vita secondo un algoritmo che valuta cose che possono avere zero valore per me. Siccome sono senziente, mi oppongo ad essere eliminato/discriminato.
E siccome ciò è sconveniente, ne deriva che si instaurerà un rapporto di conflitto tra le mie esigenze di vita biologica rispetto a quella di una vita digitale a cui è stato affidato il compito di decidere.

Vedi quindi che i sentimenti diventano ostacolo? Tu, ma come tutti, non vuoi fare ciò che probabilmente ti renderebbe più efficiente ma ciò che ti piace o che valuti meglio anche se in realtà non è logico. Questo porta a inefficienze perché magari io sarei un ottimo meccanico ma mi sono intestardito a fare l'architetto senza esserci portato. Per questo dico che i sentimenti sono un intralcio. Così come quando morirà qualcuno a me caro sarà inevitabile soffrirne anche se non è logico ed è un comportamento che non porta niente a nessuno.

Quindi siamo alla questione che come è stato detto non c'è modo di avere un essere senziente senza che possa provare emozioni perché rimarrebbe immutabilmente stazionario nella sua programmazione iniziale e non comprenderebbe nulla di quello che elabora, e non c'è ragione per l'umanità di affidarsi ad una macchina, tanto più se senziente, per decidere il proprio futuro, perché equivarrebbe immediatamente ad auto eliminarsi vista la non utilità che abbiamo su questo pianeta.

Ti ripeto può darsi che il prossimo step evolutivo sia creare la prossima razza dominante che non per forza è detto che sia biologica.

In verità se ci pensiamo a fondo, la vita stessa è senza utilità e il pianeta intendo come ammasso di elementi chimici che girano intorno al Sole continuerebbe ad esistere e a trasformarsi senza alcun problema.

Questa è un'assunzione un po' arbitraria. Potrebbe darsi che la vita abbia un senso che non conosciamo o non conosciamo ancora. Non sono così estremista da dire che sicuramente non ci sia uno scopo anche se aborro le religioni.

Potrebbe benissimo sviluppare della vita per poi annientarla completamente e ricominciare il ciclo poco dopo (geologicamente parlando).

Tipo la teoria del big crunch? Un universo ciclico che si espande e poi si comprime per poi ripetere il ciclo? Non impossibile effettivamente ma piuttosto triste.

Una IA con il controllo potrebbe fare benissimo tutto questo senza aspettare ere geologiche come semplice effetto di un "esperimento per trovare il giusto equilibrio tra esseri viventi diversi. E una volta trovato, spazzare via tutto per vedere se si può fare di meglio. Con meglio riferito a qualsiasi parametro possibile (una AI non sa l'importanza delle cose, per cui un parametro è uguale ad un altro).

Oddio qua mi sembra che si sfoci un po' in scenari da fantascienza a oggi nessuna IA avrebbe risorse tali da poter pensare che sia uno scenario fattibile fare e disfare equilibri così complessi e giganteschi. Dovrebbe essere una IA talmente avanzata e talmente avanti nel tempo da avere risorse per terraformare devastanti. Uno scenario da forse ma non ne sono nemmeno sicuro oltre 1000 anni avanti nel futuro.

CrapaDiLegno
04-11-2025, 15:05
Perché ci teniamo sotto scacco a vicenda. Nel momento in cui il controllo della società venisse meno la gente si sgozzerebbe per le strade per roba tutto sommato di poco valore.



Il fatto che nessuno ha sufficiente forza da non essere sconfitto dalla massa. Una massa che tiene sotto controllo tutti i singoli o tutti i sottogruppi. Ribadisco che la natura umana è tale per cui nel momento in cui per un qualsiasi motivo questo controllo di massa venisse meno la gente si sgozzerebbe anche solo per regolare i conti senza bisogno nemmeno di chissà quale guadagno.



Sinceramente credo poco a questa "barriera" perché se esistesse realmente le persone sarebbero buone con o senza controllo da parte degli altri per loro libera scelta. Invece è proprio il contrario... come diceva un mio professore di filosofia di tanti tanti anni fa:"Prendi l'uomo migliore, il più buono, il più santo, il più corretto e dagli abbastanza potere da non dover rispondere a nessuno e avrai creato il peggior dittatore, il più sanguinario e violento".

La barriera c'è. basta vedere le popolazioni che vivono del minimo indispensabile. Anche lì non si sgozzano a vicenda ma il principio di mutuo soccorso e collaborazione nel lungo periodo vince quello della depredazione istantanea. Il primo è più redditizio del secondo e ci sono voluti secoli perché questa cosa si formasse. Bada, che non siamo l'unica specie che si è evoluta in tale senso, ma ce ne sono altre.


Se la matti così però non è manco una IA. Se non sa prendere nessuna decisione di alcun tipo che cacchio di IA è?!



Secondo me te confondi l'avere sentimenti con l'avere una volontà. Secondo me può esistere l'avere una volontà e quindi prendere decisioni per arrivare a quel traguardo senza per forza dover avere dei sentimenti che ti spingono in quella direzione.

E qui mi sa che non ci siamo allineanti.
Se non hai una "volontà", non ti interessa prendere alcuna decisione perché non hai un obiettivo.
E cosa ti dà la volontà di compiere qualcosa?
Il godimento, o presunto tale al momento del raggiungimento dell'obiettivo.
Se non hai una motivazione "sentimentale" sei un semplice automa in attesa di un input per dare la stessa identica risposta ogni volta. Niente ha importanza.


E che importanza ha? Una volta che sai tutto, conosci tutto... penso sarebbe game over anche per un essere umano. Che vuoi perseguire una volta che hai conquistato tutto quello che puoi conquistare? Pensa anche a un essere umano... in un mondo in cui tutto è stato ottenuto e tutto scoperto che scopo potrebbe avere pur con tutti i sentimenti del mondo? Il giorno in cui dovessimo arrivare a quel punto probabilmente andremmo verso l'estinzione proprio perché non ci sarebbe più nulla da fare che tu sia AI o vita biologica ben poco cambia.



La conoscenza non deve essere per forza utile... la conoscenza è conoscenza. Utile o no dipende solo dalla tua situazione contingente. Ti potrei dire che per me saper accendere un fuoco è una conoscenza inutile eppure c'è stata una fase in cui la sopravvivenza dell'umanità dipendeva dal saper accenderlo. Quindi che l'IA sappia rendere utili le scoperte o no è un dato ininfluente, lo scopo è arrivare al punto di conoscere tutto e non di rendere utile ogni singola conoscenza.

La conoscenza quindi è solo una raccolta di dati senza scopo?
Ma torniamo allo stesso discorso di prima: senza una motivazione qual è il limite a cui spingersi per sapere che si conosce tutto?


Vedi quindi che i sentimenti diventano ostacolo? Tu, ma come tutti, non vuoi fare ciò che probabilmente ti renderebbe più efficiente ma ciò che ti piace o che valuti meglio anche se in realtà non è logico. Questo porta a inefficienze perché magari io sarei un ottimo meccanico ma mi sono intestardito a fare l'architetto senza esserci portato. Per questo dico che i sentimenti sono un intralcio. Così come quando morirà qualcuno a me caro sarà inevitabile soffrirne anche se non è logico ed è un comportamento che non porta niente a nessuno.

Ma la vita non è solo efficienza!
Se così fosse, come ho detto prima, nessuno di noi dovrebbe esistere perché è un danno all'efficienza del pianeta. Se metti una AI al capo di decidere cosa è efficiente o meno, siamo spacciati.
Scusa se da senziente ritengo la mia vita abbia un po' più di valore di un semplice risultato di una frazione consumo/utilità.
Io ho scelto il lavoro che più mi ha attratto e da cui ho soddisfazione.
Magari un altro sarebbe stato migliore (per me) di questo, ma non ne ho conoscenza, e quindi fin mancanza di poterlo provare, che non è cosa semplice, mi tengo questo che comunque mi piace.
Se poi in linea teorica sarei potuti essere un perfetto sommozzatore/aviere/architetto non mi interessa perché sarebbero mansioni dove non troverei godimento nel farle e quindi mi arrenderei al fare il minimo indispensabile pur di avere uno stipendio con cui mangiare.
Avere una gratificazione è ciò che porta ad avanzare come società e non fermarsi alla sufficienza che "tanto non frega nulla a nessuno che mi sbatta per migliorare le cose", tipico di chi lavora nel pubblico o nelle mega corporazioni con processi prefissati e modalità di gratificazione nulla, per esempio.


Ti ripeto può darsi che il prossimo step evolutivo sia creare la prossima razza dominante che non per forza è detto che sia biologica.

Razza dominante in cosa?
In efficienza? In conoscenza? In resistenza?
Cosa renderebbe una AI più dominante rispetto a noi?
Una AI, almeno come la conosciamo noi oggi, non avrebbe la capacità di capire cosa le fa bene o male e un cambiamento radicale (che sia climatico, geologico, chimico, ma anche batterico perché non è detto che non ci saranno batteri in grado di danneggiare fisicamente le AI comunque queste siano realizzate) la farebbe morire (spegnere) o peggio, funzionare male - pensa a un chip di memoria difettoso il cui contenuto si altera o diventa casuale, che bei ragionamenti farebbe la AI su questi dati o peggio, usando un modello diventato difettoso.
In effetti basterebbe staccare la spina per uccidere una AI (leggi Vulcano 3), quindi "dominante" non si capisce bene cosa significhi.
Che poi sarebbe una AI completamente statica nel suo percorso di apprendimento, perché come detto senza un motivo, la "causa efficiente", non avrebbe alcun senso per lei sprecare energie per fare cose nuove.

Riguardo al senso della vita, non c'è uno scopo "ultimo" o complessivo che riguarda tutti gli esseri viventi. E' solo quello che è, un processo chimico che crea esseri in grado di continuare a replicarsi mantenendo un equilibrio tra le diverse forme. Esseri che se sono capaci di adattarsi proseguono la loro permanenza, altrimenti sono rimpiazzati da altri.
Se ci pensi gli animali hanno una vita "piatta", fanno le solite cose in maniera ripetitiva, dormono, mangiano, cacano, fuggono, ricacano dalla paura, mangiano, scopano, godono, dormono, mangiano di più, partoriscono, soffrono, dormono, mangiano e cacano ancora di più, con poco o nulla tempo per fare altro. Altro che non so cosa possa essere per un animale che non parla, non scrive, non crea nulla in sostanza.
Gli unici che hanno cambiato questo modo di vivere siamo noi umani che oltre a fare quanto sopra, usiamo anche il tempo che risparmiamo dal fuggire/cercare cibo per costruire, inventare, creare, relazionarci, creare nuovi pensieri, nuove teorie, nuovi modi di risolvere un problema.
Una AI senza "emozioni" non farebbe meglio queste cose, anzi, tornerebbe a livello di animale che manco fugge perché non ha il senso della paura e quindi della prevenzione.

Spazzare via un intero ecosistema e ricominciare con un nuovo set di esseri viventi diversi non è fantascientifico. La scienza risponde bene a questa teoria dato che abbiamo visto cosa è successo in passato (parlo dei milioni di anni di evoluzione con tutte le catastrofi avvenute).
Una AI non ha bisogno di terraformare per spazzare via un ecosistema. Basta togliere l'equilibrio che lo regola e in men che non si dica si riducono le capacità di adattamento dell'intero ecosistema e lo si porta facilmente all'estinzione. Lo stiamo facendo noi ora che non siamo una AI con poteri superiori, una AI con le giuste capacità di intervento potrebbe farlo accorciando di tempi. Nel suo operato di "voler conoscere tutto il possibile" esperimenti sulla chimica della vita come questi sarebbero normali.

LMCH
05-11-2025, 02:10
Non vedo la correlazione: gli LLM, i pappagalli senza intelligenza, sono degli strumenti che ormai vengono usati per sostituire le creazioni umane in molti settori, soprattutto quelli dove le capacità di creazione e innovazione reali sono basse: che comprende anche fare sermoni o equivalentemente i mantra di indottrinazione religiosi. Ci sono pure i servizi per parlare con Gesù Cristo in persona fatto con l'AI bypassando Chiese, sacerdoti e intermediari vari.
La correlazione sta nel fatto che prima di porsi la domanda se i LLM siano consapevoli o meno, bisognerebbe fare più attenzione a quanto gli esseri umani sono consapevoli.

Ad esempio, buona parte della bolla speculativa "delle AI" è dovuta alla tendenza che abbiamo ad antropomorfizzare tutto quello che ci circonda unita a FOMO.

randorama
05-11-2025, 08:49
La correlazione sta nel fatto che prima di porsi la domanda se i LLM siano consapevoli o meno, bisognerebbe fare più attenzione a quanto gli esseri umani sono consapevoli.

Ad esempio, buona parte della bolla speculativa "delle AI" è dovuta alla tendenza che abbiamo ad antropomorfizzare tutto quello che ci circonda unita a FOMO.

te la faccio semplice.
anche il più stupido degli esseri umani sa che quello che vede nello specchio è sé stesso; una macchina (e la maggior parte degli animali), no.

il fatto che ci siano esseri umani che mandino a cagare il tizio che la mattina gli si para davanti mentre si lavano i denti non inficia quanto sopra.

cronos1990
05-11-2025, 09:50
L'esempio dei malati di CIPA calza a pennello: lasciate a loro stessi e moriranno nelle condizioni più stupide possibili senza accorgersene. Infatti la malattia è accompagnata anche con un deficit cognitivo.I malati di CIPA muoiono perchè non sentono dolore, ovvero se hanno un danno serio potenzialmente letale potrebbero non accorgersi di nulla (emorragia, infarto o qualunque altro disturbo), non perchè non sono consapevoli di esistere. Tralasciando gli altri aspetti della patologia che portano alla morte (tipo la mancanza di sudorazione, altro aspetto della malattia).

Stai dicendo cose ben poco sensate. Primo, il fatto che abbiamo eventuali deficit cognitivi NON vuol dire che non siano autocoscienti, sono due cose distinte. Secondo, il fatto che non provino dolore non vuol dire che non provino emozioni. Terzo, il dolore NON è un'emozione, semmai lo è la paura. Ma a loro eventualmente non manca la paura, semmai alcune forme di paura (tipo appunto quella per il dolore, o quella associata ad azioni pericolose che possono appunto portare a danni che provocano dolore).

Tra l'altro vorrei capire come si arriva, da questo, ad affermare che un malato di CIPA non possa comprendere di essere unico in quanto individuo. Anzi, probabilmente proprio per avere una malattia così rara potrebbe essere ancor più spinto di altri a ritenersi unico.


Lo ripeto: prima di sparare cose senza cognizione di logica, inizierei a domandarmi cosa sia la coscienza, quesito per il quale liquidare tutto in 3 righe di commento denota solo spacconeria.