L'intelligenza artificiale generale? Illusione e fumo negli occhi: parla una pioniera dell'AI etica

L'intelligenza artificiale generale? Illusione e fumo negli occhi: parla una pioniera dell'AI etica

Margaret Mitchell, chief ethics scientist di Hugging Face ed ex leader del team IA responsabile di Google, racconta la nascita dell'etica nell'intelligenza artificiale, critica la narrativa sull'AGI e sottolinea l'importanza di mettere al centro le persone nello sviluppo tecnologico

di pubblicata il , alle 11:21 nel canale Scienza e tecnologia
 

Margaret Mitchell, ricercatrice AI e Chief Ethics Scientist di Hugging Face, non usa mezzi termini: l'AGI è "vibes and snake oil", un'espressione che può essere efficacemente tradotta con "suggestioni e sciocchezze". Il parere di Mitchell, raccolto in un'intervista al Finacial Times e decisamente controcorrente rispetto alla narrativa che i grandi dell'IA, da OpenAI ad Anthropic, si impegnano a diffondere, e va considerato con particolare attenzione: Mitchell infatti è stata una delle fondatrici del team di intelligenza artificiale responsabile di Google, dal quale è stata allontanata nel 2021. Stiamo parlando di una pioniera e veterana dell'intelligenza artificiale, che ha contribuito allo sviluppo delle fondamenta di queste tecnologie ben prima che arrivassero al pubblico di massa.

L'intervista tocca diversi momenti della carriera di Mitchell, ma uno dei passaggi centrali è la critica alla narrativa sull’AGI. "AGI è essenzialmente una narrazione", sostiene Mitchell spiegando che il concetto stesso di "intelligenza" è ambiguo e controverso, utilizzato storicamente per creare divisioni e giustificare disuguaglianze. "AGI fornisce una patina di positività e oggettività, ma in realtà è un concetto vago che permette ai tecnologi di portare avanti qualsiasi progetto". Anche il termine "generale" è poco chiaro: "Avere conoscenze generali non significa essere bravi in tutto. L’AGI è un concetto problematico che offre solo l’illusione di oggettività e progresso”.


Un TED Talk di Margaret Mitchell: i rischi dell'AI erano chiari già 7 anni fa

Mitchell riflette anche sulle motivazioni profonde di chi lavora nell’IA: "Sviluppiamo tecnologia perché ci diverte. Spesso le spiegazioni sull’utilità sociale arrivano dopo. Anch’io amo programmare, ma mi scontro con i dilemmi etici. L’ossessione per l’AGI è spesso una giustificazione postuma per la passione tecnologica". Per Mitchell, l’obiettivo ultimo dell’IA dovrebbe essere il benessere umano, non la sostituzione delle persone: "È importante integrare, non sostituire. La tecnologia deve aiutare l’uomo a prosperare, non rimpiazzarlo".

Le posizioni condivise da Mitchell durante l'intervista sono una sintesi di quanto espresso, assieme ad altri colleghi, in un articolo accademico recentemente pubblicato dal titolo "Stop treating AGI as the north-star goal of AI research", dove viene condannata l'illusione del consenso su cosa significhi AGI e su cosa sia necessario fare, spingendo lo sviluppo tecnologico su parametri poco realistici. In maniera più ampia Mitchell rileva che nello sviluppo dell'IA manchi un vero metodo scientifico e che spesso vengano condivise affermazioni eclatanti non suffragate da dati (come la previsione di colonizzare la galassia entro cinque anni...).

Mitchell sottolinea inoltre come il paradigma attuale dei large language model (LLM) sia utile solo in contesti specifici e che la loro utilità sarebbe maggiore se fossero "ancorati alla realtà". "Non credo che gli LLM possano sostituire gli esseri umani nei compiti che richiedono grande esperienza. È un errore pensarlo" afferma Mitchell, che avverte come le conseguenze di una fiducia cieca nella narrativa dell’IA siano già evidenti: "C’è una crescente frattura tra chi guadagna con l’IA e chi perde il lavoro. Le persone che hanno fornito i dati per addestrare i sistemi stanno perdendo reddito e potere, mentre chi sviluppa l’IA si arricchisce. Il divario si sta ampliando".

La ricercatrice esprime comunque un cauto ottimismo verso il potenziale dell'intelligenza artificiale e, in particolare, degli agenti AI per semplificare l'esecuzione di attività complesse: "Non siamo ancora pronti, ma se riuscissimo a superare il problema dell’ancoraggio alla realtà, potremmo avere strumenti davvero utili per tutti. Non cerco la singolarità, ma soluzioni pratiche ai problemi quotidiani". "Bisogna mettere al centro le persone, non la tecnologia: solo così si può puntare al benessere umano".

59 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
inited20 Giugno 2025, 11:27 #1
Lo scrive una pioniera, dovrebbe essere ascoltata, ma immagino già come invece sarà seppellita da insinuazioni e commenti liquidatorii, troppi soldi girano attorno questa tendenza.
randorama20 Giugno 2025, 11:31 #2
ma era la tizia che gestiva Bard, progetto cassato da google stessa perché faceva schifo?
Fantapollo20 Giugno 2025, 11:34 #3
Che sciocchezze,
che l'IA ragioni è evidente, basta provarla.

Chiaramente alcune IA sono meglio di altre,
e Google è partita in ritardo
UtenteHD20 Giugno 2025, 11:38 #4
Originariamente inviato da: Fantapollo
Che sciocchezze,
che l'IA ragioni è evidente, basta provarla.

Chiaramente alcune IA sono meglio di altre,
e Google è partita in ritardo


Attualmente l'AI non ragiona, risponde in percentuale per ogni parola in base a tutto quello che ha imparato ed alla domanda, chiedi pure a Loro che Ti spiegheranno meglio, attualmente con l'AI tutto funziona in percentuale di possibilita', nulla e' certo ne' ragionato. Per quello molti dicono che e' illusione, la prova si ha quando chiedi qualcosa che non sanno e rispondono in percentuale dicendoti fesserie credibili.
Per ora e' cosi'.

- -

E' un'esperta cosa che non sono e quindi l'ascolto e dico va bene.
Ma il suo discorso e' (penso) a breve termine, del tipo sui 20 anni? 30? 50?
Mi sbagliero', ma fra 150/200 anni nessuno puo' sapere, magari sara' pieno vi vere AGI migliori di noi in tutto, chi lo sa', magari l'uso della quantistica sara' cosi' avanzata da riuscire ad emulare perfettamente un cervello Umano ed unito alla Tech ci sara' qualcosa di strabiliante, ovviamente sto inventando, ma era per capire che del futuro con la Tecnologia non v'e' certezza, quello che oggi sembra impossibile, domani puo' tranquillamente essere cosa da tutti i giorni.
Fantapollo20 Giugno 2025, 11:49 #5
Originariamente inviato da: UtenteHD
Attualmente l'AI non ragiona, risponde in percentuale per ogni parola in base a tutto quello che ha imparato ed alla domanda, chiedi pure a Loro che Ti spiegheranno meglio, attualmente con l'AI tutto funziona in percentuale di possibilita', nulla e' certo ne' ragionato. Per quello molti dicono che e' illusione, la prova si ha quando chiedi qualcosa che non sanno e rispondono in percentuale dicendoti fesserie credibili.
Per ora e' cosi'.


Perche', il nostro cervello non ragiona in termini di probabilità?
Non trasforma affermazioni in altre affermazioni?
Io ve l'ho detto, nel regno dei detrattori dell'IA regna la vaghezza piu' totale.

Dimostratemi che l'IA non ragiona... vedrete che cadrà il silenzio.
Ragionare significa rispondere correttamente a dei problemi. Tutto qui.

L'IA ragiona eccome, e lo fa pure in modo molto simile a quello che fa il cervello umano
megamitch20 Giugno 2025, 11:53 #6
Originariamente inviato da: Fantapollo
Perche', il nostro cervello non ragiona in termini di probabilità?
Non trasforma affermazioni in altre affermazioni?
Io ve l'ho detto, nel regno dei detrattori dell'IA regna la vaghezza piu' totale.

Dimostratemi che l'IA non ragiona... vedrete che cadrà il silenzio.
Ragionare significa rispondere correttamente a dei problemi. Tutto qui.

L'IA ragiona eccome, e lo fa pure in modo molto simile a quello che fa il cervello umano


non ragiona. E' una cosa diversa che funziona molto bene in certi campi ed ha forti limitazioni in altri, ma non ragiona.

prova a chiedere a chatGPT se ragiona e vedi che risposta ti da.

ciò non significa che non sia utile, anzi
Unknown8420 Giugno 2025, 11:54 #7
Originariamente inviato da: inited
troppi soldi girano attorno questa tendenza.


Esattamente.

Da due anni a questa parte c'è stato un incremento spropositato di notizie e pubblicazioni relative all'intelligenza artificiale.

Sono nate, sui social e sulla rete, delle bolle completamente distaccate dal reale.

C'è però da dire una cosa, anche queste bolle fanno spesso riferimento a posizioni autorevoli espresse da addetti ai lavori.
das20 Giugno 2025, 11:54 #8
"È importante integrare, non sostituire. La tecnologia deve aiutare l’uomo a prosperare, non rimpiazzarlo".


Questo avrebbe voluto dire fermarsi a 30 anni fa, è assurdo.
La tecnologia infatto negli ultimi 30 anni è enormemente progredita, ma quanti possono affermare di stare meglio? L'1%?

30 anni fa una segretaria impiegava venti.minuti a trovare un documento e si comprava una bella casa con.mutuo a 10 anni. Oggi impiega 20 secondi e si compra un buco con.mutuo a 40. In Italia come nel resto d'occidente, più o meno.
-name-20 Giugno 2025, 12:00 #9
Originariamente inviato da: Fantapollo
Perche', il nostro cervello non ragiona in termini di probabilità?
Non trasforma affermazioni in altre affermazioni?
Io ve l'ho detto, nel regno dei detrattori dell'IA regna la vaghezza piu' totale.

Dimostratemi che l'IA non ragiona... vedrete che cadrà il silenzio.
Ragionare significa rispondere correttamente a dei problemi. Tutto qui.

L'IA ragiona eccome, e lo fa pure in modo molto simile a quello che fa il cervello umano


Esempio:

Ieri ho notato che si creava un elemento non atteso un framework XY
Siccome il problema non era documentato su stackoverflow o github non sapeva che pesci pigliare
Quando invece bastava andare a pescarsi il sorgente analizzarlo e capire perché si comportasse in quel modo

L'IA non ragiona nel senso comune del termine perché si dovrebbe aprire una discussione filosfica su cosa lo sia o meno.

Ad oggi l'IA risponde a pappagallo e lo si può verificare quando ad una domanda tecnica specifica non sa rispondere quando invece potrebbe con i dati che ha.
megamitch20 Giugno 2025, 12:03 #10
Originariamente inviato da: -name-
Esempio:

Ieri ho notato che si creava un elemento non atteso un framework XY
Siccome il problema non era documentato su stackoverflow o github non sapeva che pesci pigliare
Quando invece bastava andare a pescarsi il sorgente analizzarlo e capire perché si comportasse in quel modo

L'IA non ragiona nel senso comune del termine perché si dovrebbe aprire una discussione filosfica su cosa lo sia o meno.

Ad oggi l'IA risponde a pappagallo e lo si può verificare quando ad una domanda tecnica specifica non sa rispondere quando invece potrebbe con i dati che ha.


ma ti capita davvero che ti dica "non so rispondere" ? a me tutte le volte piuttosto che cedere e dire che non lo sa mi dice una cosa a caso. Infatti non ragiona perchè non sa che sta dicendo una castroneria.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^