OpenAI, abbandona il responsabile del progetto AGI: "il mondo non è pronto"

OpenAI, abbandona il responsabile del progetto AGI: "il mondo non è pronto"

In un lungo intervento su Substack il responsabile del progetto AGI condivide le sue motivazioni che l'hanno portato ad abbandonare la società. Il desiderio di un impegno più libero e indipendende

di pubblicata il , alle 10:41 nel canale Scienza e tecnologia
OpenAI
 

Una figura di spicco nel campo dell'intelligenza artificiale ha sollevato un'importante preoccupazione sullo stato di preparazione del settore verso l'avvento dell'AGI - Intelligenza Artificiale Generale - e cioè quel tipo di intelligenza artificiale in grado di eguagliare o superare le capacità cognitive dell'essere umano nello svolgere svariati compiti.

Miles Brundage, ormai ex responsabile dei progetti AGI di OpenAI, ha annunciato le sue dimissioni dopo aver trascorso sei anni in un ruolo che lui stesso ha definito il suo "lavoro dei sogni".

Brundage ha pubblicato un intervento sul suo Sbustack personale, esprimendo una serie di preoccupazioni sulla direzione che sta prendendo lo sviluppo dell'IA. "Né OpenAI né nessun altro laboratorio di frontiera è pronto, e nemmeno il mondo è pronto", ha dichiarato in modo inequivocabile, sottolineando inoltre di aver condiviso queste preoccupazioni con la dirigenza dell'azienda.

Il ricercatore ha anche offerto una prospettiva più sfumata sul concetto di AGI, suggerendo che il termine stesso potrebbe essere fuorviante. Invece di una visione binaria "pre-AGI" e "post-AGI", Brundage propone un approccio più graduale, citando la sua partecipazione alla creazione della scala a cinque livelli di OpenAI, trapelata a Bloomberg durante l'estate. Secondo questa scala, il mondo si trova attualmente alla soglia del livello due, caratterizzato da sistemi IA con capacità di ragionamento paragonabili a quelle umane.

Un aspetto un po' inquietante emerge dalla sua visione del futuro dell'AGI: Brundage crede che potenzialmente l'umanità possa trarre vantaggi e benefici da questo tipo di tecnologia, ma avverte che tutto ciò non si "realizzerà automaticamente", ma sarà necessario un approccio attento sia nello sviluppo, sia nella regolamentazione. Parafrasando, e prendendo a prestito direttamente dalla cultura pop: "Da grandi poteri derivano grandi responsabilità".

Le dimissioni di Brundage coincidono con un'ampia riorganizzazione interna: OpenAI sta infatti riallocando i membri del team di preparazione AGI in altri gruppi dell'organizzazione. Si tratta di un rimescolamento importante, che segue quello avvenuto meno di sei mesi fa con lo scioglimento del gruppo di sicurezza dell'IA, sollevando quindi ulteriori perplessità sulla direzione strategica della società.

Brundage ha dichiarato di voler "avere un impatto e influenzare lo sviluppo dell'IA dall'esterno del settore piuttosto che dall'interno", esprimendo il desiderio di una maggior indipendenza e libertà di pubblicazione dei suoi pensieri, anche se non è ben chiaro quali saranno i suoi prossimi impegni in questo campo.

30 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
cignox125 Ottobre 2024, 11:52 #1
Quello che mi incuriosisce é che queste preoccupazioni non vengono espresse solo da qualche luddista chee ha visto troppi film, ma anche da esponenti del settore, che conoscono bene lo stato attuale e i prossimi sviluppi...
pachainti25 Ottobre 2024, 12:15 #2
Ma quale AGI?
Sono solo generatori di stronzate.
ChatGPT is bullshit
Gnubbolo25 Ottobre 2024, 12:18 #3
sono spaventati dal fatto che se l'AI scopre qualcosa di serio le aziende e fondi che hanno sponsorizzato alzaranno i tacchi e ciao.
che se fa se degli enti autonomi, società non controllate quindi società di gentili che non sono collegate alla Borsa.. iniziassero a sfornare idee nuove e scoperte sensazionali a cadenza giornaliera ?
lo sappiamo chi controlla la Borsa no ? Fuld, Fink, Schwarzman e amici non si fanno fottere dal primo pincopallo che mette le mani sulla sfera di cristallo dai..
Gnubbolo25 Ottobre 2024, 12:22 #4
i primi titoli che saltano sono i farmaceutici, poi gli energetici.
i farmaceutici che campano sui brevetti sono i primi sicuramente, ci sono tantissimi farmaci nel cassetto che non vengono prodotti per questioni commerciali, se l'AI in mano a pincopalli trova alternative gratuite è un disastro per i colossi.
gli energetici e chimica saltano in sei mesi.. vivono di controllo sui brevetti.

dico anche che il mondo sicuramente cambierà nei prossimi 5 anni, o per la guerra mondiale o per l'AI. il mondo asiatico è abituato farsi governare da un Khan, da Mao, Stalin, da un condottiero o dittatore. l'AI super intelligente potrebbe essere un dittatore universale, per loro non è un problema. per noi lo è, anche per la questione commerciale economica, per loro NO, assolutamente.
questo se si avvererà, l'unica alternativa per fermali è lo sterminio atomico, implica una accelerazione del mondo asiatico fuori logica.
zbear25 Ottobre 2024, 19:53 #5
Oppure non ci stanno cavando un ragno dal buco e si inventano problemi morali per salvarsi la faccia. NON DO NESSUN CREDITO al senso "morale" di queste aziende che vivono sulla truffa sistematica del pollo di turno (perchè SOLO un pollo ignorante crede alle attuali baggianate propalate sulle AI in quanto tali).
MikTaeTrioR26 Ottobre 2024, 11:44 #6
Originariamente inviato da: pachainti
Ma quale AGI?
Sono solo generatori di stronzate.
ChatGPT is bullshit


e certo, che ne potrà mai sapere un project leader che ci lavora direttamente da 6 anni rispetto all'utente pachaniti di hwupgrade......

Lahila26 Ottobre 2024, 13:57 #7

Deja vu

Questi commenti mi ricordano i contenuti di un manuale di role playing cyberpunk di alcuni anni fa, organizzati dall'autore in post di una ipotetica chat del futuro. Osservazioni ed ipotesi complottiste. Sorprendente. Inutile dirvi che il futuro che disegnava era distopico. :-D
pachainti26 Ottobre 2024, 16:01 #8
Originariamente inviato da: MikTaeTrioR
e certo, che ne potrà mai sapere un project leader che ci lavora direttamente da 6 anni rispetto all'utente pachaniti di hwupgrade......



In realtà il mio riferimento è un articolo peer reviewed che dimostra come funzionioni chatGPT e gli LLM.
In alternativa, se non vuoi leggere, ti consiglio questi tre:
Generatori di stronzate e sciacquoni
Algopirla Verso il Reich Millenario (contro il lungotermismo)
SALAMI e copyright
TorettoMilano26 Ottobre 2024, 16:31 #9
se i "generatori di stronzate" ci rubano lavoro e sono più efficienti di noi non facciamo una bella figura, dovremmo darci un appellativo peggiore
euscar26 Ottobre 2024, 16:46 #10
Per l'mmagine dell'articolo vi siete ispirati alla saga di terminator? (il trionfo di skynet).

Originariamente inviato da: TorettoMilano
se i "generatori di stronzate" ci rubano lavoro e sono più efficienti di noi non facciamo una bella figura, dovremmo darci un appellativo peggiore


Che il genere umano (sedicente razza intelligente) non faccia una bella figura è cosa nota... basta guardarsi intorno per vedere l'autolesionismo dilagante tra il genere umano (tabagismo, alcolismo, tossicodipendenza, obesità, ecc.) per non parlare del pericolo di autodistruzione di massa

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^