Google Gemini, la differenza nelle GPU. Ecco perché è 5 volte più potente di GPT-4

Una delle tendenze più recenti nella Silicon Valley è quella che porta i migliori ricercatori del settore del machine learning a vantarsi del numero di GPU a cui hanno o avranno accesso. La potenza di calcolo può essere determinante nell'addestramento dei modelli di IA.
di Rosario Grasso pubblicata il 12 Settembre 2023, alle 12:01 nel canale WebGoogleGemini
Google Gemini è un progetto di intelligenza artificiale parallelo a Google Bard, che Mountain View ha rivelato nel corso dell'estate in maniera piuttosto anonima ma che avrebbe un enorme potenziale secondo alcune fonti, addirittura al punto da rimettere Google in riga nella corsa all'intelligenza artificiale e riprendersi il primato su OpenAI e GPT-4. Su Gemini stanno lavorando gli ingegneri di Google Brain insieme agli esperti di DeepMind con lo scopo di creare un modello di intelligenza artificiale generativa che possa competere, o anche superare, i migliori modelli oggi a disposizione.
Google si rimette in carreggiata sulle intelligenze artificiali generative?
Prima della crisi sanitaria dovuta al Covid, Google aveva lanciato il modello MEENA, che per un breve periodo di tempo è stato il miglior modello linguistico di grandi dimensioni. Google ne parlava in un blog post e lo dettagliava all'interno di questa documentazione, dove MEENA veniva confrontato proprio con le tecnologie di OpenAI.
Già in quella fase, Google giungeva alla conclusione secondo la quale i modelli linguistici avrebbero sempre più fatto parte delle nostre vite e che i FLOPS necessari per addestrarli avrebbero costituito una discriminante fondamentale.
MEENA aveva una capacità di 1,7 volte maggiore rispetto al miglior modello allora a disposizione di OpenAI, GPT-2, ed era stato addestrato su una quantità di dati di 8,5 volte superiore. Il modello di Google aveva fatto affidamento su una capacità di calcolo superiore a quella del modello di OpenAI di 14 volte in termini di FLOPS. Da questi punti di vista, entrambi i modelli sarebbero stati destinati a essere surclassati nel giro di poco tempo: GPT-3, infatti, sarebbe stato addestrato su una quantità di dati superiore di 4.000 volte, prendendo sempre i FLOPS come metro di paragone.
Secondo un resoconto pubblicato da SemiAnalysis, che è una pubblicazione di riferimento per quanto riguarda l'industria dei semiconduttori, Google si sarebbe risvegliata e sarebbe ormai in procinto di dotarsi di una potenza di calcolo che permetterà ai suoi modelli di eccedere quelli della concorrenza. L'infrastruttura in fase di realizzazione, e controllata da Google, permetterebbe a Gemini, infatti, di essere addestrato con una potenza di calcolo superiore di 5 volte rispetto a GPT-4 come FLOPS impiegati e questo prima della fine dell'anno. Entro la fine dell'anno prossimo, invece, la potenza di calcolo a disposizione di Gemini sarà superiore di 20 volte rispetto a ciò che le infrastrutture di OpenAI riescono a mettere a disposizione.
Nella Silicon Valley oggi ci sono aziende che possono accedere ad oltre 20 mila GPU NVIDIA di tipo A/H100. In particolare, da questo punto di vista i più "fortunati" sono i ricercatori di OpenAI, Google, Anthropic, Inflection, X e Meta, ovvero coloro che possono attingere alle maggiori risorse di calcolo. Alcune di queste aziende potrebbero entrare a disposizione di circa 100 mila GPU entro la fine del prossimo anno, e tra queste, secondo SemiAnalysis, ci sarebbero anche alcune aziende cinesi.
Nella Silicon Valley, in altri termini, si è scatenata la divertente tendenza a misurarsi in termini di numero di GPU a disposizione. Addirittura, le aziende con il maggior numero di GPU sono in grado di attrarre i migliori ricercatori con un incentivo a lavorare per loro. Ad esempio, Meta, che avrà il secondo maggior numero di GPU H100 al mondo, sta usando questi aspetti in maniera sistematica come tattica di reclutamento.
Poi ci sono tutta una serie di startup e ricercatori open source che hanno difficoltà, avendo a disposizione molte meno GPU. La discriminante principale riguarda la presenza di VRAM a bordo di queste GPU: ormai un quantitativo minimo di 12 GB è indispensabile per l'esecuzione dei modelli di intelligenza artificiale sia per quanto riguarda l'apprendimento che la sperimentazione. Se l'intelligenza artificiale farà ulteriori progressi come da previsioni, in altri termini, la disponibilità all'accesso alle GPU rischierà di diventare fondamentale.
12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoNon credo comprino tutte quelle gpu su amazon
Il settore del gaming non esiste, esistono delle gpu ottimizzate per il gaming, così come non esiste il settore dell'ia, ma delle gpu che sono ottimizzate per fare ia, con la precisione che decide lui, garantita da lui
Quanto resisterebbe nvidia senza il settore gaming? o facciamo come "eh ma guarda abbiamo tanta di quella grana che quasi quasi chiudiamo, tanto la gente compra lo stesso"
Data Center
First-quarter revenue was a record $4.28 billion, up 14% from a year ago and up 18% from the previous quarter
Gaming
First-quarter revenue was $2.24 billion, down 38% from a year ago and up 22% from the previous quarter
quarter on quarter AI è già al doppio del valore rispetto al settore gaming
https://investor.nvidia.com/news/pr...24/default.aspx
Ho trovato un articolo a caso su questi della Corsair
https://www.corrierenerd.it/d-matrix-corsair-c8/
Come diceva IBM,dove lavorano le persone più scarse del Pianeta,le GPU sono efficaci ma non efficienti,per ora Nvidia si gongola ma la concorrenza sulla IA ma la pacchia potrebbe non durare molto.
Il tuo ragionamento è tipico di un poveraccio italiano che gli mancano le basi dell'economia. Pensi davvero che amazon sarebbe diventata ciò che è se avrebbe detto:" Quasi quasi chiudiamo il ramo ecommerce tanto i margini sono più alti nel segmento AWS".
Un'azienda di successo cerca sempre la massimizzazione dei profitti, la differenziazione estrema dei prodotti/servizi in ogni segmento di mercato in cui il margine operativo è superiore a 0. Ergo NVIDIA continuerà a fare schede gaming anche se i margini in questa categoria sono inferiori al segmento business AI.
mi stupisce che siano fermi a 12 GB
Un'azienda di successo cerca sempre la massimizzazione dei profitti, la differenziazione estrema dei prodotti/servizi in ogni segmento di mercato in cui il margine operativo è superiore a 0. Ergo NVIDIA continuerà a fare schede gaming anche se i margini in questa categoria sono inferiori al segmento business AI.
A parte l'italiano poveraccioso, si, ogni azienda sfrutta ogni ramo, ma quando da uno riceve più frutti, gli altri vengono coltivati con meno fertilizzante.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".