Il fenomeno DeepSeek fa male a NVIDIA: il titolo crolla in Borsa, ma l'azienda non si scompone

Giornata nerissima per il titolo NVIDIA in Borsa. Il panico creato dal rilascio del modello IA cinese DeepSeek-R1 ha scatenato le vendite, facendo crollare le azioni di quasi il 17%. NVIDIA, tuttavia, non si scompone troppo.
di Manolo De Agostini pubblicata il 27 Gennaio 2025, alle 22:31 nel canale MercatoDeepSeekNVIDIA
33 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoaltro che 6 milioni di dollari. Questi hanno circa 50K GPU ed il supporto di un edgefound da miliardi dietro, inoltre il modello foundational utilizzato è LLMA sempre americano, come i chip che lo elaborano.
Vero, però vai a vedere quanti ricercatori cinesi ci sono che lavorano negli USA su queste cose... Se per caso tornassero in patria sarebbero cavoli amari per gli USA.
In pratica è una sfida tra cinesi che lavorano negli USA e cinesi in Cina.
Hanno preso un modello pre addestrato e ci hanno fatto un ulteriore tipo di addestramento con GPU di fascia bassa che ha migliorato notevolmente la resa del modello.
Nelle conclusioni del paper hanno anche aggiunto che la resa sarebbe stata superiore con GPU di fascia alta e che l'inferenza richiede molto sforzo computazionale.
Corretto? A me sembra una notizia ottima per nVidia. Hanno usato un modello pre addestrato (probabilmente con GPU nVidia), hanno implementato un nuovo addestramento con ecosistema nVidia e hanno detto che serve più potenza computazionale per avere risultati ancora migliori.
Hanno preso un modello pre addestrato e ci hanno fatto un ulteriore tipo di addestramento con GPU di fascia bassa che ha migliorato notevolmente la resa del modello.
Nelle conclusioni del paper hanno anche aggiunto che la resa sarebbe stata superiore con GPU di fascia alta e che l'inferenza richiede molto sforzo computazionale.
Corretto? A me sembra una notizia ottima per nVidia. Hanno usato un modello pre addestrato (probabilmente con GPU nVidia), hanno implementato un nuovo addestramento con ecosistema nVidia e hanno detto che serve più potenza computazionale per avere risultati ancora migliori.
Esatto.
Alla fine Nvidia ci guadagna comunque
Hanno preso un modello pre addestrato e ci hanno fatto un ulteriore tipo di addestramento con GPU di fascia bassa che ha migliorato notevolmente la resa del modello.
Nelle conclusioni del paper hanno anche aggiunto che la resa sarebbe stata superiore con GPU di fascia alta e che l'inferenza richiede molto sforzo computazionale.
Corretto? A me sembra una notizia ottima per nVidia. Hanno usato un modello pre addestrato (probabilmente con GPU nVidia), hanno implementato un nuovo addestramento con ecosistema nVidia e hanno detto che serve più potenza computazionale per avere risultati ancora migliori.
Il modello pre-addestrato (DeepSeek V3 ossia la base su cui è stato addestrato DeepSeek R1), l'hanno addestrato comunque loro da zero; è quello che è costato solo in termini di costi elaborativi circa 5 milioni di dollari.
https://arxiv.org/abs/2412.19437
A titolo di paragone, Llama-3.1-8B di Meta ha richiesto 1.4M di ore-GPU complessive nonostante sia molto più piccolo e assai meno capace.
In ogni caso concordo che questo non vuol dire nulla di negativo per NVidia. Semmai più aziende vedranno ciò come un'opportunità per addestrare modelli capaci a costi più bassi di quanto immaginato (addestrare modelli enormi e mediocri a costi bassi è sempre stato possibile).
quando mai c'è stato, in un qualunque campo una innovazione che ha tagliato i costi/aumentato l'efficienza di un fattore come quello attribuito a sto coso?
per carità, c'è sempre una prima volta; però...però.
Hanno preso un modello pre addestrato e ci hanno fatto un ulteriore tipo di addestramento con GPU di fascia bassa che ha migliorato notevolmente la resa del modello.
Nelle conclusioni del paper hanno anche aggiunto che la resa sarebbe stata superiore con GPU di fascia alta e che l'inferenza richiede molto sforzo computazionale.
Corretto? A me sembra una notizia ottima per nVidia. Hanno usato un modello pre addestrato (probabilmente con GPU nVidia), hanno implementato un nuovo addestramento con ecosistema nVidia e hanno detto che serve più potenza computazionale per avere risultati ancora migliori.
Sì, ma sono passati dal dire "Nvidia è fondamentale" a "Nvidia è migliore, ma si può usare anche altro"...
Nvidia ci guadagnerà comunque, ma è scesa nel livello di "necessarietà".
E, al pari, le questioni di dazi americani...
quando mai c'è stato, in un qualunque campo una innovazione che ha tagliato i costi/aumentato l'efficienza di un fattore come quello attribuito a sto coso?
per carità, c'è sempre una prima volta; però...però.
Intendi tipo:
Link ad immagine (click per visualizzarla)
E poi questo:
Link ad immagine (click per visualizzarla)
?
?
mannaggia a me mi sono mangiato "in così poco tempo".
mi risulta che tra eniac e raspberry ci siano, largo circa, 60 anni.
edit: di più... 70
quando mai c'è stato, in un qualunque campo una innovazione che ha tagliato i costi/aumentato l'efficienza di un fattore come quello attribuito a sto coso?
per carità, c'è sempre una prima volta; però...però.
Il dubbio viene in effetti.
Qui poi ci si scontra con la proverbiale trasparenza cinese da un lato e pure con un celolunghismo / gioco politico tra superpotenze dall’altro.
Momenti del genere ce ne sono stati, seppur molto rari, ma mai della portata di quello che AI rappresenta oggi, nemmeno con tutte le perequazioni del caso.
Ad ogni modo, in questi momenti chi costruisce da secondo prende tutto know how di chi ha tracciato la strada, potendosi focalizzare solo sull’extra mile.
In questo modus operandi i cinesi non sono secondi a nessuno.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".