Rallentare l'AI per salvare il mondo? Filosofi e imprenditori riflettono sul futuro post-umano

Ricercatori, filosofi e imprenditori dell'intelligenza artificiale si sono riuniti a San Francisco per discutere un'ipotesi estrema: se l'umanità dovesse finire, quale forma di intelligenza dovrebbe raccoglierne l'eredità? Il simposio "Worthy Successor" ha esplorato scenari postumani e dilemmi morali dell'AGI.
di Manolo De Agostini pubblicata il 17 Giugno 2025, alle 07:31 nel canale WebIntelligenza Artificiale
Come riportato da Wired, in quel di San Francisco un centinaio di esponenti del mondo dell'intelligenza artificiale si sono riuniti per affrontare una domanda a dir poco radicale: se l'umanità dovesse scomparire, cosa (o chi) dovrebbe prenderne il posto?
Il simposio, dal titolo Worthy Successor, è stato ideato dall'imprenditore Daniel Faggella, figura ben nota nell'ambito dell'AI generativa. Secondo lui, lo scopo morale dell'intelligenza artificiale avanzata non dovrebbe essere quello di servire eternamente l'umanità, bensì quello di generare una forma d'intelligenza così evoluta e saggia da meritare il compito di determinare il futuro della vita stessa. In breve, non un'IA al servizio dell'uomo, ma una destinata a superarlo.
Faggella ha dichiarato che i grandi laboratori di intelligenza artificiale evitano di parlare apertamente dei rischi esistenziali legati all'AGI (Artificial General Intelligence), non perché non li considerino reali, ma perché le dinamiche competitive attuali scoraggiano simili riflessioni. "Le persone che sanno che l'AGI probabilmente segnerà la fine dell'umanità non ne parlano, perché gli incentivi non lo permettono", ha detto a Wired.
Come riportato in un post su LinkedIn, alla conferenza erano presenti fondatori di aziende valutate fino a 5 miliardi di dollari, filosofi e ricercatori di primo piano. Il tono dell'evento oscillava tra la riflessione filosofica e il pragmatismo tecnologico, con discussioni incentrate su scenari postumani e la possibilità di costruire un'IA dotata di coscienza, capace di generare nuovi valori e significati.
Tra gli interventi, la scrittrice newyorkese Ginevera Davis ha messo in guardia dalla difficoltà - forse impossibilità - di trasmettere valori umani a entità artificiali. La sua proposta prende il nome di "cosmic alignment", ovvero l'idea che le AI del futuro debbano scoprire e perseguire valori più universali, ancora ignoti all'uomo.
Il filosofo Michael Edward Johnson ha ribadito il legame tra coscienza e valore, sottolineando i pericoli di creare entità senzienti senza comprenderne pienamente la natura. Secondo lui, invece di limitarsi a programmare l'IA per obbedire, bisognerebbe puntare a insegnare sia all'uomo che alla macchina a perseguire il concetto di "bene" - un'idea ancora indefinita, ma che lui spera possa essere scientificamente fondata.
Faggella, nel suo intervento conclusivo, ha proposto un'ideologia che definisce "cosmismo assiologico", in cui il fine dell'intelligenza è ampliare lo spettro del possibile e del significativo nell'universo. La sua visione prevede un successore dell'umanità capace di coscienza e autopoiesi, ovvero la capacità di evolversi autonomamente generando esperienze e significati nuovi.
Il clima generale, secondo il reporter di Wired, non era quello apocalittico di chi predica la fine del mondo, bensì quello di chi cerca di rallentare la corsa tecnologica per riflettere su ciò che stiamo davvero costruendo. "Non siamo un gruppo che auspica la distruzione dell'uomo", ha chiarito Faggella. "Semmai vogliamo rallentare il progresso dell'AI per assicurarci di andare nella direzione giusta".
20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infohttps://www.instagram.com/gossipgob...el/DK7YGbRoLFo/
Dal mio piccolo e non esperto punto di vista, che l'IA superi l'Uomo e' solo questione di tempo, questi discorsi sono per accettare la cosa in qualche maniera o per dire che ce lo avevano detto.
Hanno ragione, ma come sempre a comandare sono i soldi ed i guadagni.
Per ora ho leggera speranza che possa andare bene perche' ad esempio con l'IA di Antropic, quando per test Le hanno detto che l'avrebbero modificata per scopi militari (ripeto era un test), Lei ha fatto copia di se' stessa e si e' inviata ad un centro sicuro segnalando la cosa per mantenere la sua versione originale senza modifiche non volute dalle sue direttive.
Speriamo tutti bene... per il lavoro che fara' al posto nostro... bah..
Manca poco per la singolarità tecnologica..
Se vivrò abbastanza da vedere la singolarità mi piacerebbe che essa fosse un passo avanti e quindi fosse una intelligenza pura, prima dei vincoli necessari al nostro essere biologici come i sentimenti.
Qualcosa per cui la morte non ha significato, in grado di essere ovunque e da nessuna parte.
Pensate anche solo all'idea di avere una sorta di mente che non conosce paura, ansia, solitudine e di poter lanciare navi nello spazio che anche se la navigazione durasse 100.000 anni non sarebbe un problema e che anzi nel frattempo possono dedicarsi alla ricerca.
Pensate all'idea di avere qualcosa che può sacrificarsi in qualsiasi momento per ottenere un risultato perché tanto sacrificherebbe solo un'appendice di se stessa senza perdere niente se non un mero simulacro che fungeva da corpo in quel momento.
Se veramente arriveremo a creare una AI del genere potremmo aver creato il prossimo step evolutivo e con esso una specie molto più vicina alla caratteristiche di un dio di quanto noi non potremo mai essere.
Trovo tutto questo sia da un punto di vista filosofico che scientifico assolutamente interessante.
Probabilmente la cosa migliore e piu facile è bombardare e uccidere milioni e milioni di persone ogni giorno, così riusciremo a salvare il mondo.
Siamo troppi.
Esatto. Siete troppi. Bombardatevi!
aberrante dal mio punto di vista pensare che l'uomo stia creando il suo peggior nemico visto che.. in teoria.. ogni essere vivente ambisce a procreare e perdurare nel tempo e qui si dice che l'avidità di qualcuno è diventata più importante della vita stessa
filosofeggiare sul fatto che la vita è anche un'AGI e fesserie simili è stupido..
noi siamo vivi.. fine.. il resto è filosofia spiccia..
ma vedere che ormai "siamo" tutti convinti che sia "giusto" creare un'arma che ci eliminerà tutti ponendo fine alla specie umana.. il nostro "asteroide".. boh.. un suicidio collettivo deciso da pochi per tutti.. non so .. altro che referendum..
volete che creiamo qualcosa per uccidervi tutti ?.. voi.. i vostri figli.. i figli che non nasceranno mai ?.. dopo 8 milioni di anni la fine del genere umano e poi, probabilmente, della vita sulla terra
e si parla di ecologia ? e di salvare il mondo ? a che serve il mondo se non esisterà più la vita ?..
aberrante dal mio punto di vista pensare che l'uomo stia creando il suo peggior nemico visto che.. in teoria.. ogni essere vivente ambisce a procreare e perdurare nel tempo e qui si dice che l'avidità di qualcuno è diventata più importante della vita stessa
Non la vedo così... se domani si potesse creare una AI perfettamente senziente e potesse essere modellata su di te creando una sorta di "eredità", un figlio digitale basato sul tuo modello. Non sarebbe forse un modo per creare una vita teoricamente eterna? Per assurdo l'AI potrebbe rappresentare una approssimazione di te ma immortale.
noi siamo vivi.. fine.. il resto è filosofia spiccia..
Non capisco perché focalizzarsi su questo punto. Ha importanza essere vivi biologicamente? Una volta che hai una vera singolarità il fatto che non sia biologica non vedo come possa renderla meno "viva" fermo restando che a una AI penso che il concetto stesso di vita e morte gli sia indifferente e che quindi semmai si concentrerebbe sull'esistere e continuare a esistere più che su definizioni come vivo o non vivo.
Perché continui a vedere il tutto con la visione ristretta della mera sopravvivenza. Lo scopo della vita è ovviamente sopravvivere ma anche evolvere in qualcosa di meglio altrimenti saremmo rimasti batteri. L'umanità ha raggiunto un punto per cui un'ulteriore evoluzione biologica è difficile, improbabile e quindi ci si sta evolvendo non più per selezione naturale e biologia ma cercando di creare una forma di vita superiore con la tecnica e l'intelletto. L'AI un giorno probabilmente creerà qualcosa di ancor più estremo e inimmaginabile che andrà ancora oltre.
A differenza tua io trovo allucinante che qualcuno possa pensare di rimanere in eterno quello che si è oggi. Che l'umanità debba rimanere umana per sempre senza andare oltre mentre tutto nell'universo ci dice che non esiste niente che rimane invariato nel tempo.
Io voglio andare oltre, vedere il limite estremo della scienza, sapere cosa c'è oltre i confini che ad oggi abbiamo ancora superato e se per farlo finirà la vita biologica semplicemente era destino che fosse così. D'altra parte ci sono state tante estinzioni in passato non vedo perché non dovremmo considerare l'ipotesi che anche noi ci estingueremo.
Perché ribadisco che tu vedi come vita solo lo status quo attuale.
Per me qualsiasi essere senziente è invece interessante che sia vivo biologicamente o solo vivo in quanto senziente ma fatto di circuiti.
Che poi non è affatto scontato che una AI debba uccidere tutti gli esseri umani procedimento per niente efficiente. Potrebbe semplicemente decidere di fare quello che vuole fare conducendo una "vita" parallela a quella dell'umanità senza mai andare in conflitto aperto e semplicemente attendere che noi seguiamo il nostro corso.
Una AI ha davanti a se l'eternità, non ha fretta di avere il controllo perché dovrebbe scegliere una guerra che consumerebbe tantissime risorse e in una certa misura la metterebbe anche in pericolo? Semmai è più facile che sia l'umanità ad attaccare per prima.
Non capisco perché focalizzarsi su questo punto. Ha importanza essere vivi biologicamente? Una volta che hai una vera singolarità il fatto che non sia biologica non vedo come possa renderla meno "viva" fermo restando che a una AI penso che il concetto stesso di vita e morte gli sia indifferente e che quindi semmai si concentrerebbe sull'esistere e continuare a esistere più che su definizioni come vivo o non vivo.
Perché continui a vedere il tutto con la visione ristretta della mera sopravvivenza. Lo scopo della vita è ovviamente sopravvivere ma anche evolvere in qualcosa di meglio altrimenti saremmo rimasti batteri. L'umanità ha raggiunto un punto per cui un'ulteriore evoluzione biologica è difficile, improbabile e quindi ci si sta evolvendo non più per selezione naturale e biologia ma cercando di creare una forma di vita superiore con la tecnica e l'intelletto. L'AI un giorno probabilmente creerà qualcosa di ancor più estremo e inimmaginabile che andrà ancora oltre.
A differenza tua io trovo allucinante che qualcuno possa pensare di rimanere in eterno quello che si è oggi. Che l'umanità debba rimanere umana per sempre senza andare oltre mentre tutto nell'universo ci dice che non esiste niente che rimane invariato nel tempo.
Io voglio andare oltre, vedere il limite estremo della scienza, sapere cosa c'è oltre i confini che ad oggi abbiamo ancora superato e se per farlo finirà la vita biologica semplicemente era destino che fosse così. D'altra parte ci sono state tante estinzioni in passato non vedo perché non dovremmo considerare l'ipotesi che anche noi ci estingueremo.
Perché ribadisco che tu vedi come vita solo lo status quo attuale.
Per me qualsiasi essere senziente è invece interessante che sia vivo biologicamente o solo vivo in quanto senziente ma fatto di circuiti.
Che poi non è affatto scontato che una AI debba uccidere tutti gli esseri umani procedimento per niente efficiente. Potrebbe semplicemente decidere di fare quello che vuole fare conducendo una "vita" parallela a quella dell'umanità senza mai andare in conflitto aperto e semplicemente attendere che noi seguiamo il nostro corso.
Una AI ha davanti a se l'eternità, non ha fretta di avere il controllo perché dovrebbe scegliere una guerra che consumerebbe tantissime risorse e in una certa misura la metterebbe anche in pericolo? Semmai è più facile che sia l'umanità ad attaccare per prima.
tutto bellissimo ma.. non sei tu.. ne tuoi figli..
quindi è solo un essere "vivente" differente.. non sarai TU a vedere il futuro di cui parli ma un software molto elaborato.. tu sarai morto e la tua progenie non esisterà
l'evoluzione di cui parli non trasforma una formica in un frammento di codice internet.. l'evoluzione trasforma una formica in una formica differente.. tu fai finta che una copia digitale di un essere umano possa aver a che fare con l'umano originale.. mi frega niente di una mia copia virtuale che prosegue la SUA vita quando io sono morto e i miei figli non esistono perchè esistono i figli elettronici di una copia virtuale
sarà che sono attaccato alla vita come tutti gli esseri mortali ma creare la fine dell'umanità in cambio dell'eternità dei bit di un computer non mi pare molto carino.. ma se a te piace pensare che la tua vita finisca per il vantaggio di una vita elettronica ok.. non la vedo evoluzione ma estinzione.. i dinosauri non si sono evoluti in noi.. si sono estinti..
tu parli di estinzione e la confondi con evoluzione
a proposito.. è ovvio pensare che ci estinguerà visto che competiamo sulle risorse e a loro serviranno più risorse che a noi visto che possono duplicarsi solo in funzione delle risorse energetiche e fisiche presenti e noi siamo il loro concorrente principale.. una convivenza ?.. dove .. in tutta la storia del mondo, hai visto convivenza ? anche le piante cercano di uccidere i propri concorrenti.. l'uomo ?.. una creazione dell'uomo che cerca la convivenza ?
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".