Il fenomeno DeepSeek fa male a NVIDIA: il titolo crolla in Borsa, ma l'azienda non si scompone

Il fenomeno DeepSeek fa male a NVIDIA: il titolo crolla in Borsa, ma l'azienda non si scompone

Giornata nerissima per il titolo NVIDIA in Borsa. Il panico creato dal rilascio del modello IA cinese DeepSeek-R1 ha scatenato le vendite, facendo crollare le azioni di quasi il 17%. NVIDIA, tuttavia, non si scompone troppo.

di pubblicata il , alle 22:31 nel canale Mercato
DeepSeekNVIDIA
 
33 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Unrue28 Gennaio 2025, 09:31 #11
Originariamente inviato da: dwfgerw
https://www.philschmid.de/deepseek-r1


altro che 6 milioni di dollari. Questi hanno circa 50K GPU ed il supporto di un edgefound da miliardi dietro, inoltre il modello foundational utilizzato è LLMA sempre americano, come i chip che lo elaborano.


Vero, però vai a vedere quanti ricercatori cinesi ci sono che lavorano negli USA su queste cose... Se per caso tornassero in patria sarebbero cavoli amari per gli USA.

In pratica è una sfida tra cinesi che lavorano negli USA e cinesi in Cina.
aqua8428 Gennaio 2025, 09:37 #12
Non si è scomposta no, oggi scendi, domani sali...
nebuk28 Gennaio 2025, 10:19 #13
Scusate, per capire:

Hanno preso un modello pre addestrato e ci hanno fatto un ulteriore tipo di addestramento con GPU di fascia bassa che ha migliorato notevolmente la resa del modello.
Nelle conclusioni del paper hanno anche aggiunto che la resa sarebbe stata superiore con GPU di fascia alta e che l'inferenza richiede molto sforzo computazionale.

Corretto? A me sembra una notizia ottima per nVidia. Hanno usato un modello pre addestrato (probabilmente con GPU nVidia), hanno implementato un nuovo addestramento con ecosistema nVidia e hanno detto che serve più potenza computazionale per avere risultati ancora migliori.
fra5528 Gennaio 2025, 10:24 #14
Originariamente inviato da: nebuk
Scusate, per capire:

Hanno preso un modello pre addestrato e ci hanno fatto un ulteriore tipo di addestramento con GPU di fascia bassa che ha migliorato notevolmente la resa del modello.
Nelle conclusioni del paper hanno anche aggiunto che la resa sarebbe stata superiore con GPU di fascia alta e che l'inferenza richiede molto sforzo computazionale.

Corretto? A me sembra una notizia ottima per nVidia. Hanno usato un modello pre addestrato (probabilmente con GPU nVidia), hanno implementato un nuovo addestramento con ecosistema nVidia e hanno detto che serve più potenza computazionale per avere risultati ancora migliori.


Esatto.
Alla fine Nvidia ci guadagna comunque
s12a28 Gennaio 2025, 11:28 #15
Originariamente inviato da: nebuk
Scusate, per capire:

Hanno preso un modello pre addestrato e ci hanno fatto un ulteriore tipo di addestramento con GPU di fascia bassa che ha migliorato notevolmente la resa del modello.
Nelle conclusioni del paper hanno anche aggiunto che la resa sarebbe stata superiore con GPU di fascia alta e che l'inferenza richiede molto sforzo computazionale.

Corretto? A me sembra una notizia ottima per nVidia. Hanno usato un modello pre addestrato (probabilmente con GPU nVidia), hanno implementato un nuovo addestramento con ecosistema nVidia e hanno detto che serve più potenza computazionale per avere risultati ancora migliori.


Il modello pre-addestrato (DeepSeek V3 ossia la base su cui è stato addestrato DeepSeek R1), l'hanno addestrato comunque loro da zero; è quello che è costato solo in termini di costi elaborativi circa 5 milioni di dollari.

https://arxiv.org/abs/2412.19437
DeepSeek-V3 requires only 2.788M H800 GPU hours for its full training.


A titolo di paragone, Llama-3.1-8B di Meta ha richiesto 1.4M di ore-GPU complessive nonostante sia molto più piccolo e assai meno capace.

In ogni caso concordo che questo non vuol dire nulla di negativo per NVidia. Semmai più aziende vedranno ciò come un'opportunità per addestrare modelli capaci a costi più bassi di quanto immaginato (addestrare modelli enormi e mediocri a costi bassi è sempre stato possibile).
randorama28 Gennaio 2025, 11:45 #16
a me sta cosa non torna.

quando mai c'è stato, in un qualunque campo una innovazione che ha tagliato i costi/aumentato l'efficienza di un fattore come quello attribuito a sto coso?

per carità, c'è sempre una prima volta; però...però.
marcram28 Gennaio 2025, 11:54 #17
Originariamente inviato da: nebuk
Scusate, per capire:

Hanno preso un modello pre addestrato e ci hanno fatto un ulteriore tipo di addestramento con GPU di fascia bassa che ha migliorato notevolmente la resa del modello.
Nelle conclusioni del paper hanno anche aggiunto che la resa sarebbe stata superiore con GPU di fascia alta e che l'inferenza richiede molto sforzo computazionale.

Corretto? A me sembra una notizia ottima per nVidia. Hanno usato un modello pre addestrato (probabilmente con GPU nVidia), hanno implementato un nuovo addestramento con ecosistema nVidia e hanno detto che serve più potenza computazionale per avere risultati ancora migliori.

Sì, ma sono passati dal dire "Nvidia è fondamentale" a "Nvidia è migliore, ma si può usare anche altro"...
Nvidia ci guadagnerà comunque, ma è scesa nel livello di "necessarietà".
E, al pari, le questioni di dazi americani...
Alodesign28 Gennaio 2025, 12:04 #18
Originariamente inviato da: randorama
a me sta cosa non torna.

quando mai c'è stato, in un qualunque campo una innovazione che ha tagliato i costi/aumentato l'efficienza di un fattore come quello attribuito a sto coso?

per carità, c'è sempre una prima volta; però...però.


Intendi tipo:

Link ad immagine (click per visualizzarla)

E poi questo:

Link ad immagine (click per visualizzarla)

?
randorama28 Gennaio 2025, 12:40 #19
Originariamente inviato da: Alodesign
Intendi tipo:

?

mannaggia a me mi sono mangiato "in così poco tempo".
mi risulta che tra eniac e raspberry ci siano, largo circa, 60 anni.

edit: di più... 70
lollo928 Gennaio 2025, 13:22 #20
Originariamente inviato da: randorama
a me sta cosa non torna.

quando mai c'è stato, in un qualunque campo una innovazione che ha tagliato i costi/aumentato l'efficienza di un fattore come quello attribuito a sto coso?

per carità, c'è sempre una prima volta; però...però.


Il dubbio viene in effetti.
Qui poi ci si scontra con la proverbiale trasparenza cinese da un lato e pure con un celolunghismo / gioco politico tra superpotenze dall’altro.

Momenti del genere ce ne sono stati, seppur molto rari, ma mai della portata di quello che AI rappresenta oggi, nemmeno con tutte le perequazioni del caso.

Ad ogni modo, in questi momenti chi costruisce da secondo prende tutto know how di chi ha tracciato la strada, potendosi focalizzare solo sull’extra mile.
In questo modus operandi i cinesi non sono secondi a nessuno.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^