GPU NVIDIA H100 usate come collaterale per ottenere 2,3 miliardi di dollari di finanziamento

GPU NVIDIA H100 usate come collaterale per ottenere 2,3 miliardi di dollari di finanziamento

L'importanza degli acceleratori di intelligenza artificiale è in così forte crescita che CoreWeave ha usato le GPU NVIDIA H100 in suo possesso come collaterale per ottenere 2,3 miliardi di dollari da alcuni fondi.

di pubblicata il , alle 16:11 nel canale Mercato
HopperNVIDIA
 

CoreWeave, società del settore cloud che sfrutta un'enorme mole di GPU per fornire i propri servizi, si è assicurata una linea di debito di 2,3 miliardi di dollari. L'operazione è stata guidata da Blackstone e Magnetar, con la partecipazione di Coatue, DigitalBridge, BlackRock, PIMCO, Carlyle e Great Elm.

I soldi ottenuti, secondo il CEO Michael Intrator, saranno interamente impegnati per "l'acquisto e il pagamento dell'hardware per i contratti già stipulati con i clienti e per continuare ad assumere i migliori talenti del settore".

Se un round di finanziamento è cosa comune nel mondo imprenditoriale, è interessante il modo in cui CoreWeave è riuscita a convincere gli investitori, usando le GPU NVIDIA H100 come collaterale. Questa parola indica un bene, di tipo reale o finanziario, che è sostanzialmente messo a garanzia del creditore al momento della scadenza del debito. Una sorta di pegno, sul quale in caso di inadempienza il creditore si rifà a compenso di quanto offerto.

"Abbiamo negoziato con loro per trovare un programma per la quantità di garanzie da inserire, quale sarebbe stato il programma di ammortamento rispetto al programma di pagamento", ha affermato Michael Intrator secondo quanto riportato da Reuters. "Per noi andare a prendere in prestito denaro contro la base patrimoniale è un modo molto conveniente per accedere ai mercati del debito".

In CoreWeave, nata nel 2017, ha investito anche NVIDIA e per questo ha accesso privilegiato agli acceleratori di ultima generazione di NVIDIA, per i quali c'è molta domanda ma la disponibilità è limitata, nonostante la produzione a pieno ritmo da parte di TSMC.

CoreWeave ha importanti piani di espansione, solo la scorsa settimana ha annunciato la costruzione di un datacenter in Texas da 1,6 miliardi di dollari e punta a espandersi in 14 Stati americani entro fine anno. Quest'anno CoreWeave aveva già ottenuto 421 milioni di dollari di finanziamento da Magnetar sulla base di una valutazione di oltre 2 miliardi di dollari.

8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
r134804 Agosto 2023, 16:39 #1
Manco fossero forme di parmigiano...
GLaMacchina04 Agosto 2023, 16:50 #2
Considerando che l'HW (soprattutto Nvidia) non si deprezza più con la rapidità di una volta e anzi in taluni casi aumenta di valore col tempo, mi sembra "ragionevole".
supertigrotto04 Agosto 2023, 20:45 #3
Fumo sugli occhi,hanno ottimi prodotti ma sono efficaci ma non efficienti.
Ho già detto mille volte che IBM è scafata in questo settore e ha dimostrato che,le GPU sono efficaci e non efficienti,basti a vedere nel settore mining,che furono costruiti appositi Asics che consumavano la metà e minavano il triplo,a parte ethereum.
I big si stanno costruendo hardware ad hoc per questo,qualche mese fa era uscito l'articolo che i tensor core di Google,vecchi di 3 anni,come rapporto consumi ed efficienza erano superiori all'hardware Nvidia odierno,vabbè l'hardware odierno Nvidia riesce a fare una mole di calcoli superiori,ai tensor core di Google ma a un costo energetico non trascurabile,difatti Google sta lavorando a dei tensor core rimodernati per la sua IA,stessa cosa Microsoft,Amazon etc.
Mi pare che,in generale,ci sia tanto marketing ma poca sostanza ultimamente,Nvidia fa prodotti eccellenti,una spanna sopra ad esempio la concorrente AMD,ma spesso quando se ne parla,sembra che Nvidia venda pietre filosofali e non dell'ottimo hardware.
Una volta che i big avranno messo a punto i loro sistemi,su questo settore,secondo me,Nvidia verrà ridimensionata.
Ribadisco, IBM ha dimostrato che le GPU sono efficaci,i calcoli in parallelo li fanno per la IA ma non li fanno in maniera efficiente, l'hardware deve essere progettato in modo diverso e non adattato,come si sta facendo,tanto per riciclare i propri brevetti e tecnologie delle GPU.
In sostanza IBM dimostrò come hardware vecchio e riadattato tipo parti della serie 6800 o Power,era molto più efficiente nell'inferenza,machine learnig e IA dei vari acceleratori ricavati dalle GPU ma,che si poteva fare ancora meglio riprogettando tutto da zero, perché per fare queste cose,servono solo registri da 8/16 e al massimo 32 bit,anzi,la massima efficienza si aveva con 4 (casi rari) 8 e 16 bit ma già il 32 era quasi inutile,figurarsi registri da 64.
Sono più propenso a credere a IBM che ad altre aziende sinceramente.

agonauta7804 Agosto 2023, 21:03 #4
AMD intanto MUTA
mik7704 Agosto 2023, 21:10 #5
ci sono video di Jim Keller su youtube che spiega che le gpu non sono efficienti per fare calcoli IA; assieme ad altri "guru" lavora in Tenstorrent proprio per fare chip adatti allo scopo.

Nvidia dovrà fare delle scelte... o gpu per grafica o chip per IA
non potrà vendere in eterno la stessa minestra per due scopi diversi (inventandosi dlss o cose del genere)
agonauta7805 Agosto 2023, 12:36 #6
Per adesso la minestra riscaldata vende e venderà sempre perché il marketing tira
Opteranium05 Agosto 2023, 15:43 #7
Finché qualcuno gliele compra.. vuoi mettere il vantaggio di produrre solo una tipologia di prodotto da destinare poi a scenari diversi solo facendo leva sul marketing e qualche modifica software
nosio07 Agosto 2023, 05:46 #8
felice di constatare che i polli hanno anche i soldi e che è facile sfilarglieli.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^