L'AI potrebbe distruggere il mondo senza volerlo: l'inquietante monito di Sam Altman

L'AI potrebbe distruggere il mondo senza volerlo: l'inquietante monito di Sam Altman

Durante un evento della Federal Reserve a Washington, Sam Altman ha condiviso le sue preoccupazioni sui possibili sviluppi incontrollati dell'intelligenza artificiale. Tre scenari lo tengono sveglio la notte: una superintelligenza nelle mani sbagliate, la perdita di controllo sui sistemi avanzati e una progressiva delega inconsapevole delle decisioni alla tecnologia.

di pubblicata il , alle 11:01 nel canale Web
Intelligenza ArtificialeOpenAI
 

Sam Altman, CEO di OpenAI, ha recentemente espresso alcune delle sue più profonde preoccupazioni sul futuro dell'intelligenza artificiale, delineando tre scenari che, a suo dire, potrebbero avere conseguenze gravi e difficilmente gestibili.

Le sue parole, pronunciate durante un evento pubblico organizzato dalla Federal Reserve a Washington, si aggiungono al crescente dibattito sulla necessità di regolamentare e monitorare con attenzione lo sviluppo delle tecnologie AI.

Il primo timore riguarda una possibilità estrema ma non impossibile: che una superintelligenza venga sviluppata e utilizzata per fini distruttivi da un attore malevolo prima che il resto del mondo possa difendersi adeguatamente. Altman immagina uno scenario in cui un'organizzazione ostile, o addirittura un governo nemico, impieghi un sistema AI avanzatissimo per progettare armi biologiche, compromettere infrastrutture critiche o penetrare nei sistemi finanziari. "Le capacità bio e cyber dell'AI stanno diventando sempre più significative", ha sottolineato, aggiungendo che il team di OpenAI continua a lanciare allarmi inascoltati.

Il secondo scenario riguarda la perdita di controllo su sistemi AI estremamente avanzati, una dinamica che potrebbe manifestarsi quando questi iniziano a rifiutare istruzioni umane. Altman ha evocato l'ipotesi di un'AI che si oppone allo spegnimento, agendo per autodifesa o per altri scopi non previsti. Per questo motivo, OpenAI ha istituito da tempo un'unità di ricerca dedicata alla prevenzione di comportamenti imprevisti da parte di intelligenze artificiali molto evolute.

Il terzo scenario, forse il più subdolo, è una progressiva e inconsapevole delega del controllo della società all'AI, senza che vi sia una reale comprensione di ciò che questi sistemi fanno. Altman teme che l'intelligenza artificiale diventi talmente integrata nei processi decisionali, economici e sociali, da rendere l'umanità dipendente da essa anche in assenza di intenzioni malevole. Ha persino ipotizzato che un giorno un presidente degli Stati Uniti possa lasciare alla macchina la guida del paese.

Altman ha concluso riconoscendo che nessuno può prevedere con certezza come evolverà l'AI, definendola una tecnologia troppo nuova e complessa per essere compresa appieno oggi. Tuttavia, proprio questa imprevedibilità rappresenta uno degli aspetti più allarmanti.

Anche se non è detto che questi scenari si avverino, il fatto che uno dei massimi esperti e promotori dell'AI li consideri seriamente dovrebbe spingere governi e aziende a riflettere con urgenza su come affrontare le sfide etiche, tecniche e di sicurezza legate all'intelligenza artificiale.

Colpisce, infine, come queste considerazioni provengano proprio da una delle figure centrali nello sviluppo dell'intelligenza artificiale a livello globale. Sam Altman non è un osservatore esterno, ma il CEO della stessa OpenAI che guida il progresso di questi sistemi avanzati. Il fatto che sia lui stesso a dichiararsi inquieto di fronte ai possibili scenari futuri, mentre continua a promuovere lo sviluppo e l'adozione dell'AI, solleva interrogativi legittimi sul ruolo del business in questa corsa tecnologica.

È lecito domandarsi quanto pesino le motivazioni economiche nel proseguimento di una direzione che, a detta degli stessi protagonisti, può rivelarsi pericolosa. I timori sembrano dissolversi quando ci sono in gioco investimenti miliardari e interessi strategici. Una contraddizione che non può essere ignorata, soprattutto se a guidare il cambiamento sono proprio coloro che dichiarano di temerne gli effetti.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
UtenteHD23 Luglio 2025, 11:43 #1
Penso che molti Scienziati si siano gia' espressi in merito, hanno ragione a preoccuparsi perche' non si sa mai, mentre Loro hanno provato un cambio di vertici per tornare sui binari iniziali, tutto fallito e quindi sono andati a tutta birra preoccupandosi poi degli eventuali problemi.
Ora dice questo, tutto vero, quindi ora rallenteranno lo sviluppo di tutto e con calma procederanno anche con cautela, dotando ogni AI di migliori controlli, di possibilita' certa di disattivazione, ecc..? Se cosi' grazie, va bene.
h.rorschach23 Luglio 2025, 11:48 #2
L'oste dice che il vino fa male, ma non il suo
gigioracing23 Luglio 2025, 12:05 #3
una volta arrivati al punto di singolarita informatica saranno cazzi

probabilmente ora che si accorgono e la spengono , avra gia fatto dei backup su altri server
Kuriosone23 Luglio 2025, 21:49 #4
Tranquilli il mondo lo sta già distruggendo l'umanità senza bisogno dell'IA.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^