L'IA generativa è solo l'inizio: Zuckerberg vuole creare l'IA generale

L'IA generativa è solo l'inizio: Zuckerberg vuole creare l'IA generale

Il CEO di Meta, Mark Zuckerberg, ha dichiarato apertamente importanti cambiamenti negli sforzi di ricerca sull'intelligenza artificiale dell'azienda. L'obiettivo è quello di sviluppare un'intelligenza artificiale generale (AGI) di livello umano e renderla open source

di pubblicata il , alle 09:41 nel canale Web
Meta
 

In un recente post su Facebook, il CEO di Meta Mark Zuckerberg ha dichiarato che l'azienda sta concentrando i suoi sforzi di ricerca sull'IA per realizzare una "intelligenza artificiale generale" (AGI), un sistema IA in grado di eseguire qualsiasi compito intellettuale in maniera simile a quanto svolto da un essere umano in termini di qualità.

Per fare ciò, Meta sta fondendo due diversi team di ricerca sull'IA: FAIR, che si concentra sulla ricerca di base, e GenAI, che sviluppa prodotti basati sull'intelligenza artificiale per i consumatori. L'obiettivo è accelerare i progressi verso l'AGI e fornire più rapidamente innovazioni IA agli utenti delle app Meta, come WhatsApp e Facebook.

Zuckerberg condivide i piani di Meta sul futuro dell'intelligenza artificiale

Zuckerberg non ha fornito una tempistica relativa alla realizzazione della nuova tecnologia, ammettendo di non avere una definizione precisa. Ma ha affermato che il lavoro su modelli linguistici di grandi dimensioni come Llama ha dimostrato l'importanza di sviluppare abilità come la codifica per costruire sistemi IA più intelligenti e completi. La nuova spinta verso l'AGI di Meta arriva mentre è in corso una battaglia per accaparrarsi i migliori talenti nel campo dell'IA, con aziende come Google e Microsoft che competono per un numero di esperti che è attualmente limitato. Zuckerberg ha ammesso che la concorrenza per assumere ricercatori chiave è più intensa che mai.

Per attirare talenti, il CEO sta inviando un chiaro messaggio: Meta offre l'opportunità di lavorare su alcuni dei problemi di IA più ambiziosi che esistano. E sta investendo massicciamente in potenza di calcolo (e probabilmente anche in ricerca del personale) per supportare questi sforzi: si prevede che entro la fine del 2024 l'azienda avrà oltre 350 mila unità di elaborazione grafica basate su GPU NVIDIA H100 (su un totale di GPU con potenza equivalente a 600 mila H100) per addestrare modelli di IA generativa. Il percorso da compiere per arrivare all'obiettivo finale, l'AGI, rimane tuttavia ancora poco chiaro.

Nel frattempo, con i suoi sforzi sul metaverso che procedono a rilento, la nuova spinta verso l'IA solleva domande su quali siano davvero le priorità strategiche di Meta (che dovrebbe essere il metaverso, dal cambio di nome compiuto solo due anni fa). Di fatto, Zuckerberg insiste sul fatto che Meta rimane concentrata sul metaverso, prevedendo un futuro in cui i mondi virtuali saranno generati dall'IA e popolati da personaggi fittizi. Ed è chiaro che vede l'IA generativa come parte integrante di questa visione, con l'obiettivo di rendere open source gran parte della tecnologia IA che Meta svilupperà, anche se al momento Zuckerberg non è pronto a giurare che la sua AGI sarà del tutto un progetto open source.

7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
alfredaino19 Gennaio 2024, 10:55 #1
s12a19 Gennaio 2024, 10:58 #2
Aspettiamo Llama3. Llama2 è stato abbondantemente superato da LLM concorrenti più recenti.
UtenteHD19 Gennaio 2024, 11:24 #3
Non so perche' sin dai tempi della creazione di FB che non mi ha mai dato fiducia, come non mi danno fiducia i Suoi prodotti.
Un'AGI se gestita male potrebbe essere a lungo andare catastrofica, in mano Sua e/o creata da Lui... preghiamo.
s12a19 Gennaio 2024, 13:28 #4
Originariamente inviato da: enos76
Meta ha reso open-source solo il motore di Llama e non il modello con i pesi della rete neurale.

I pesi sono qui: https://huggingface.co/meta-llama
s12a19 Gennaio 2024, 13:47 #5
I pesi li puoi scaricare ed usare localmente con la API di HuggingFace direttamente in Python od usando uno dei backend disponibili in rete (ad esempio text-generation-webui o llamacpp, o il recente pratico LM Studio che però non è opensource); non capisco a cosa tu ti riferisca esattamente.
s12a19 Gennaio 2024, 13:56 #6
Zuckerberg dice di voler continuare verso la via dell'open source:

https://www.theverge.com/2024/1/18/...reorg-interview

“Llama 2 wasn’t an industry-leading model, but it was the best open-source model,” [...] “With Llama 3 and beyond, our ambition is to build things that are at the state of the art and eventually the leading models in the industry.”


Yann LeCun (Meta "Chief AI Scientist" conferma:

https://twitter.com/ylecun/status/1748071754117886087#m

Of course, we are committed to open research and open source AI platforms (yes, Llama-3 is coming!)


Link ad immagine (click per visualizzarla)
s12a20 Gennaio 2024, 11:16 #7
Ma questo è un altro discorso. Il punto iniziale (messaggio #5) era che i pesi di Llama2 sono stati fin dall'inizio liberamente disponibili per chiunque, e che la stessa politica è a quanto pare in programma per Llama3.

La licenza potrà non essere tecnicamente open source—c'è chi preferisce parlare di "open weights", pesi liberi—ma nella pratica cambia poco: chi è interessato può già farci quello che più o meno gli pare sul proprio PC senza che nessuno gli stia col fiato sul collo a controllare quello che ci fa.

E se la licenza semi-open source di Meta non va bene si possono sempre sempre usare i modelli di MistralAI (una startup francese creata da ex dipendenti Meta), al momento i migliori disponibili con licenza Apache 2.0 e prestazionalmente superiori a Llama2. Fanno beneficienza? Probabilmente no, ma ci possiamo accontentare.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^