Una startup cinese ha accumulato 18 mesi di GPU NVIDIA per aggirare i divieti USA

Una startup cinese ha accumulato 18 mesi di GPU NVIDIA per aggirare i divieti USA

Una startup cinese specializzata in intelligenza artificiale chiamata 01.AI ha accumulato 18 mesi di GPU Nvidia prima che entri in vigore la nuova stretta alle esportazioni decisa da Washington.

di pubblicata il , alle 09:31 nel canale Schede Video
NVIDIA
 

Le restrizioni alle esportazioni di tecnologia USA decise da Washington per frenare l'avanzata tecnologica e militare cinese stanno dando più di qualche grattacapo a NVIDIA e compagni, anche se in primis l'obiettivo sarebbe quello di rallentare l'industria hi-tech di Pechino.

La nuova stretta che entrerà in vigore dal 16 novembre, però, non ha colto impreparata 01.AI, una startup di intelligenza artificiale cinese che ha acquistato così tante GPU NVIDIA da poter accrescere le proprie operazioni per i prossimi 18 mesi.

Il fondatore Kai-Fu Lee ne ha parlato a Bloomberg. "Abbiamo accumulato molti chip NVIDIA", ha detto Lee. Con "18 mesi di GPU NVIDIA" la società cinese probabilmente intende di averne acquistate una quantità tale da aver coperto la sua tradizionale richiesta per un anno e mezzo, anche calcolando l'evoluzione dei suoi modelli LLM.

Kai-Fu Lee, nell'intervista, si è detto scettico sulla capacità della Cina di sviluppare i propri processori AI e il software necessario per competere con le GPU di NVIDIA e CUDA entro il prossimo anno e mezzo, quando le scorte si esauriranno.

"Non è ancora chiaro se la Cina in un anno e mezzo riuscirà a produrre chip equivalenti o altrettanto buoni", ha affermato Lee, il quale si dice rammaricato della situazione tra di due Paesi, in quanto il mondo tecnologico potrebbe spaccarsi a metà, con modelli e tecnologie differenti.

"Avremo due universi paralleli. Gli americani forniranno i loro prodotti e le loro tecnologie agli Stati Uniti e ad altri Paesi e le aziende cinesi costruiranno per la Cina e chiunque altro usi prodotti cinesi. La realtà è che non competeranno molto nello stesso mercato", ha concluso Lee.

10 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Paganetor11 Novembre 2023, 10:23 #1
Che unità di misura è "18 mesi di GPU"? Magari avevano in programma di acquistarne 10 all'anno e se ne sono portati a casa 15...
OrazioOC11 Novembre 2023, 10:32 #2
Se gli serve fare "legna" per l'inverno ho anche una gtx 960 e una gtx 1650 da dargli, sono ottimi Ai(Acquisti Intelligenti).
Hiei360011 Novembre 2023, 11:54 #3
Ahhh ecco perché le schede video costano così tanto... Perché se le sono comprate tutte questo qui
aqua8411 Novembre 2023, 12:42 #4
Originariamente inviato da: Hiei3600
Ahhh ecco perché le schede video costano così tanto... Perché se le sono comprate tutte questo qui


I nuovi scalper
Opteranium11 Novembre 2023, 14:07 #5
domani su amazon ordino 3 ore di GPU e un giorno e mezzo di CPU
randorama11 Novembre 2023, 14:25 #6
Originariamente inviato da: Opteranium
domani su amazon ordino 3 ore di GPU e un giorno e mezzo di CPU


mi sono scappati 5 minuti... che faccio? lascio?
Opteranium11 Novembre 2023, 21:19 #7
Originariamente inviato da: randorama
mi sono scappati 5 minuti... che faccio? lascio?

sminatore12 Novembre 2023, 09:23 #8
Ah ok non ero io a non capire
EugenioTursi13 Novembre 2023, 08:46 #9

Noleggio GPU in Cloud

Buongiorno,
scusate se ho sbagliato ad interpretare ma vorrei avanzare l'ipotesi per cui il tempo cui si riferisce il comunicato sia quello operativo che comunemente viene allocato dai sistemi cloud che mettono a disposizione risorse computazionali per lo sviluppo ed il training dei modelli AI. Si usano cluster di GPU per ovvie questioni inerenti la potenza di calcolo, un po' come nel mining ma anche perché i modelli di Machine Learning lavorano bene con tensori che (da quel che ho capito poiché di hw so poco) le GPU gestiscono agevolmente.
Nel Machine Learning ed in genere le fasi di training dei modelli non possono essere svolte in locale perché richiedono una potenza di calcolo che solo queste architetture possono mettere a disposizione. All'atto del noleggio si può scegliere anche la GPU preferita e forse il discorso della startup si riferiva al fatto che hanno già sottoscritto contratti di noleggio per 18 mesi.
Scusate se sbaglio ma mi pareva piuttosto allineato con quello che si fa con TensorFlow e simili. Ciao.
EugenioTursi13 Novembre 2023, 08:55 #10

Prezzi delle runtime

Originariamente inviato da: Opteranium
domani su amazon ordino 3 ore di GPU e un giorno e mezzo di CPU


Sì, questi sono i prezzi delle runtime (sotto la voce Accelerators ci sono le GPU) di Google Colab: https://cloud.google.com/colab/pricing

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^