PDA

View Full Version : In che modo l'AGI può distruggere il mondo? Ce lo spiega DeepMind


Redazione di Hardware Upg
04-04-2025, 10:07
Link alla notizia: https://www.hwupgrade.it/news/scienza-tecnologia/in-che-modo-l-agi-puo-distruggere-il-mondo-ce-lo-spiega-deepmind_137381.html

DeepMind pubblica un documento sui rischi e le strategie per sviluppare in sicurezza l'Intelligenza Artificiale Generale, che potrebbe diventare realtà nel giro di soli 5 anni

Click sul link per visualizzare la notizia.

sbaffo
04-04-2025, 11:59
Link alla notizia: https://www.hwupgrade.it/news/scienza-tecnologia/in-che-modo-l-agi-puo-distruggere-il-mondo-ce-lo-spiega-deepmind_137381.html

DeepMind pubblica un documento sui rischi e le strategie per sviluppare in sicurezza l'Intelligenza Artificiale Generale, che potrebbe diventare realtà nel giro di soli 5 anni Si, come l'autopilot che doveva diventare già autonomo 5 anni fa... :D
...non è scontato che questa rapidità possa continuare nei mesi e negli anni a venire, così come non è scontato che la traiettoria evolutiva dell'IA riesca realmente a condurre verso il paradigma dell'AGI. appunto, anzi è improbabile visto che le fonti di apprendimento sono in pratica esaurite. E' più probabile il contrario, cioè la specializzazione delle ia, che risultano molto più utili e controllabili, cosa che sta già avvenendo nel settore business.

Infine i "rischi strutturali": si tratta di conseguenze non intenzionali che possono derivare dall'inte(g)razione dell'AGI nei sistemi che già contribuiscono alle attività dell'essere umano. DeepMind fa un esempio che sembra attingere a piene mani dalla narrativa fantascientifica:... senza andare nella fantascenza, gli algoritmi di trading automatizzato fanno già gli stessi danni tanto che devono essere sospesi in certi momenti per non far crollare le borse. L'ai farebbe uguale se non peggio, probabilmente in maniera meno evidente quindi più difficile da individuare.
Consiglio sempre il libro "weapons of math destruction".

xatrius
04-04-2025, 12:24
Si, come l'autopilot che doveva diventare già autonomo 5 anni fa... :D
appunto, anzi è improbabile visto che le fonti di apprendimento sono in pratica esaurite. E' più probabile il contrario, cioè la specializzazione delle ia, che risultano molto più utili e controllabili, cosa che sta già avvenendo nel settore business.

senza andare nella fantascenza, gli algoritmi di trading automatizzato fanno già gli stessi danni tanto che devono essere sospesi in certi momenti per non far crollare le borse. L'ai farebbe uguale se non peggio, probabilmente in maniera meno evidente quindi più difficile da individuare.
Consiglio sempre il libro "weapons of math destruction".

Da profano, sottolineo che questa tecnologia (l'IA) e' una tecnologia iperbolica, quindi che non tende a rallentare, bensi' ad accellerare. In particolare in considerazione che l'hardware relativo piuttosto che rallentare (anche per evitare eventuali rischi), tende ad aumentare esponenzialmente in potenza, al motto del chi ce l'ha piu' lungo vince... Per cui, queste previsioni mi sembrano pessimistiche: per robot qualche anno fa si intendevano quei cosi' che stavano nelle fabbriche e che facevano solo UNA cosa; oggi invece, con tutti i limiti del caso, parliamo di robot umanoidi che passano l'aspirapolvere...

alexemme
04-04-2025, 14:11
Le fonti di apprendimento sono esaurite,
vero,
ma si sta lavorando per apprendimento da fonti sintetiche e autoapprendimento.

sbaffo
04-04-2025, 15:35
Le fonti di apprendimento sono esaurite,
vero,
ma si sta lavorando per apprendimento da fonti sintetiche e autoapprendimento. ci hanno già provato e a quanto ricordo non fanno che abbassare la qualità delle ai.

danylo
05-04-2025, 15:22
Si, come l'autopilot che doveva diventare già autonomo 5 anni fa... :D
C'e' una differenza importante.
Mush lo diceva per spingere a comprare le sue Tesla.
Mentre DeepMind dice "Attenzione, andiamoci cauti".

Personalmente do' piu' credito alla seconda

LMCH
05-04-2025, 16:44
Si sono dimenticati uno scenario fin troppo ovvio:
esplosione di bolla speculativa abnorme costruita sui possibili profitti che potrebbero essere generati dalle AI di nuova generazione.

Voi direte: "ma qui si parla di vere AI, non di speculatori ecc. ecc. !"

Invece, si parla di vere e proprie AI, che esistono da molto tempo, molto vecchie, molto lente AI che hanno la brutta tendenza a degenerare in "paperclip optimizer" come descritto molto meglio di me da Charles Stross:
https://www.antipope.org/charlie/blog-static/2018/01/dude-you-broke-the-future.html