Il fenomeno DeepSeek fa male a NVIDIA: il titolo crolla in Borsa, ma l'azienda non si scompone

Il fenomeno DeepSeek fa male a NVIDIA: il titolo crolla in Borsa, ma l'azienda non si scompone

Giornata nerissima per il titolo NVIDIA in Borsa. Il panico creato dal rilascio del modello IA cinese DeepSeek-R1 ha scatenato le vendite, facendo crollare le azioni di quasi il 17%. NVIDIA, tuttavia, non si scompone troppo.

di pubblicata il , alle 22:31 nel canale Mercato
DeepSeekNVIDIA
 

Il titolo NVIDIA ha subito una perdita del 17% nella giornata odierna, con una riduzione della capitalizzazione di mercato da 3.347 a circa 2.900 miliardi di dollari.

L'arrivo del fulmine a ciel sereno chiamato DeepSeek-R1il nuovo modello di IA cinese dalle capacità strabilianti, addestrato con appena 6 milioni di dollari di investimenti e dell'hardware impiegati per riferimenti come OpenAI GPT-4o e Claude Sonnet 3.5, ha creato un'ondata di panico negli Stati Uniti.

NVIDIA, che è stata la principale beneficiaria di questi immensi investimenti, potrebbe assistere a una contrazione degli ordini qualora modelli come DeepSeek-R1 si rivelassero efficaci. Al momento, però, Jensen Huang e compagni non sembrano scomporsi più di tanto.

NVIDIA ha dichiarato che un nuovo modello rilasciato dalla startup cinese DeepSeek è un "eccellente progresso dell'intelligenza artificiale" che rispetta i controlli sulle esportazioni di tecnologia negli Stati Uniti.

"Il lavoro di DeepSeek illustra come sia possibile creare nuovi modelli" utilizzando la tecnica Test Time Scaling, ha dichiarato l'azienda in un comunicato inviato via e-mail alla CNBC, "sfruttando modelli e calcoli ampiamente disponibili e pienamente conformi ai controlli sulle esportazioni".

NVIDIA sottolinea che l'azienda cinese non ha violato le restrizioni statunitensi che limitano l'accesso ai chip americani avanzati per addestrare le IA. DeepSeek, infatti, ha utilizzato acceleratori NVIDIA H800, versioni depotenziate rispetto a quelle commercializzate da NVIDIA nel resto del mondo.

La dichiarazione sembra anche dipanare i sospetti di alcuni analisti ed esperti secondo i quali la startup cinese non avrebbe potuto fare la scoperta che ha dichiarato.

NVIDIA, inoltre, sottolinea che l'inferenza, il lavoro di esecuzione dei modelli di intelligenza artificiale, richiede comunque molti dei suoi prodotti. NVIDIA, quindi, non è solo "addestramento".

"L'inferenza richiede un numero significativo di GPU NVIDIA e reti ad alte prestazioni", ha spiegato l'azienda. "Ora abbiamo tre leggi di scaling: pre-training e post-training, che continuano, e la nuova test-time scaling".

Questo concetto afferma che un modello di intelligenza artificiale completamente addestrato, se utilizza più tempo e maggiore potenza di calcolo per eseguire previsioni o generare testo e immagini, migliora significativamente la qualità delle risposte rispetto a un utilizzo più rapido e meno intensivo.

In queste ore il mercato si chiede se gli investimenti multimiliardari da parte di aziende come Microsoft, Google e Meta per le infrastrutture di IA non siano sprecati se gli stessi risultati possono essere ottenuti in modo più economico. La scorsa settimana l'amministratore delegato di Meta, Mark Zuckerberg, ha dichiarato che prevede investire tra i 60 e i 65 miliardi di dollari in spese di capitale nel 2025 come parte della sua strategia di IA. Inoltre, una delle notizie più importanti ha riguardato il progetto Stargate da 500 miliardi di dollari.

Al coro dei pareri illustri si è aggiunto, con un post X, anche l'ex CEO di Intel Pat Gelsinger. L'ex dirigente del produttore di semiconduttori professa cautela, sottolineando che "DeepSeek ci ricorda tre importanti insegnamenti tratti dalla storia dell'informatica".

Il primo è che "l'informatica obbedisce alla legge dei gas. Rendendo l'informatica drasticamente più economica, il mercato si espanderà. I mercati stanno sbagliando, questo renderà l'IA molto più ampiamente distribuita".

Con le sue parole Gelsinger fa riferimento a un'analogia tra il comportamento dell'elaborazione informatica e il principio fisico della legge dei gas. In fisica, la legge dei gas stabilisce che un gas tende a espandersi fino a occupare tutto il volume disponibile. L'analogia nel contesto dell'informatica suggerisce che le attività di calcolo, le risorse o i dati tendono a espandersi per occupare tutto lo spazio o le risorse disponibili.

Il secondo insegnamento è che "l'ingegneria è fatta di vincoli. Gli ingegneri cinesi avevano risorse limitate e dovevano trovare soluzioni creative". Infine, Gelsinger rimarca un suo cavallo di battaglia degli ultimi anni, ovvero "l'open source vince. DeepSeek contribuirà a reimpostare il mondo sempre più chiuso del lavoro sui modelli di IA fondamentali. Un plauso al team di DeepSeek".

33 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
F1r3st0rm27 Gennaio 2025, 22:51 #1
zuckerbergo ha preso abbastanza pugni in testa da rinsavire e smettere di giocare con il metaverso?
LMCH28 Gennaio 2025, 05:15 #2
A parte che le cifre dichiarate da DeepSeek sono la risposta dell'oste riguardo quanto sia buono il proprio vino, resta il fatto che questo evidenzia le distorsioni speculative sul lato americano della "corsa alle AI".
Quando lo scopo primario diventa "facciamo più soldi in borsa" la strategia di ricerca va in secondo piano e si privilegiano le tattiche che portano più profitto a breve termine.
lollo928 Gennaio 2025, 08:30 #3
Originariamente inviato da: LMCH
A parte che le cifre dichiarate da DeepSeek sono la risposta dell'oste riguardo quanto sia buono il proprio vino, resta il fatto che questo evidenzia le distorsioni speculative sul lato americano della "corsa alle AI".
Quando lo scopo primario diventa "facciamo più soldi in borsa" la strategia di ricerca va in secondo piano e si privilegiano le tattiche che portano più profitto a breve termine.


Il vino in questo caso però non è male. Il training del modello cinese rimane appannaggio loro (e volendo ci sono pure dei dubbi su quanto “poco” effettivamente abbiano dovuto lavorare sul training primario, ma questo è altro discorso), ma la tecnologia è solida, non la solita cinesata.

Ad ogni modo, USA crede moltissimo nel first mover advantage, tanto in generale come cultura quanto nel caso specifico AI. In una certa misura è inevitabile che gli investimenti in capo all’apripista siano più elevati. Tantopiù se ti chiami USA.
C’è speculazione sopra? Sì. Se questo sia un male tout court però è tutto da dimostrare, i margini speculativi potenziali sono anche un enorme traino. L’alternativa quale sarebbe? Ad oggi, non essere della partita; e personalmente trovo difficile sostenere che questo se sia meglio.
Unrue28 Gennaio 2025, 08:44 #4
La chiave di volta è rendere tutto open source, non solo open weights come fanno gli altri (a parte Meta mi pare)

Vedremo, anche perché quello che dicono i cinesi va sempre preso con le pinze.
AlexSwitch28 Gennaio 2025, 08:58 #5
Intanto la prima " bollicina " AI è scoppiata... Nella giornata di ieri Nvidia ha perso 589 MLD di Dollari in capitalizzazione, semplicemente la più grande della storia!! 589 Miliardi di USD in 24 ore... Potente questo siluro cinese!!
omerook28 Gennaio 2025, 09:03 #6
i bei tempi di quando si vendevano le schede per i video giochi a 3 cucuzze!
Saturn28 Gennaio 2025, 09:04 #7
Originariamente inviato da: AlexSwitch
Intanto la prima " bollicina " AI è scoppiata... Nella giornata di ieri Nvidia ha perso 589 MLD di Dollari in capitalizzazione, semplicemente la più grande della storia!! 589 Miliardi di USD in 24 ore... Potente questo siluro cinese!!


...prego signori controllare i mie post dell'anno precedente, ma anche del 2023 riguardo ai Cinesi che inesorabili sarebbero arrivati anche in questo campo.

E infatti sono arrivati ! C.V.D.
omerook28 Gennaio 2025, 09:07 #8
Originariamente inviato da: Saturn
...prego signori controllare i mie post dell'anno precedente, ma anche del 2023 riguardo ai Cinesi che inesorabili sarebbero arrivati anche in questo campo.

E infatti sono arrivati ! C.V.D.


un paese che sforna 1.000.000 di ingegneri a l'anno arriva dappertutto
dwfgerw28 Gennaio 2025, 09:12 #9
https://www.philschmid.de/deepseek-r1


altro che 6 milioni di dollari. Questi hanno circa 50K GPU ed il supporto di un edgefound da miliardi dietro, inoltre il modello foundational utilizzato è LLMA sempre americano, come i chip che lo elaborano.
UtenteHD28 Gennaio 2025, 09:28 #10
Secondo me il tipo di scrittura e lingua influisce sul capacita' di elabolare i dati del cervello e molto altro.
I Cinesi ed i Giapponesi (ovviamente) che hanno a che fare con tutti sti minimo 2000 Kanji ecc.. li fa in genere dei geni.
Detto questo la fame aguzza l'ingegno e piu' togliete Loro, sanzioni, ecc.. e piu' Loro dovranno cavarsela in qualche maniera ed a volte o spesso saltano fuori con qualcosa che stupisce e frega tutti. (un po' come chi vuole giocare ai triple AAA coi giochi moderni e non ha PC ultra potente perche' non ha soldi da buttare, si impegna e mod di qua, manual fix di la ci riesce in qualche maniera dove gli altri gongolano negli allori con super power PC e manco ci pensano a qualcosa del genere)

Mi sa che potranno cercare di limitarli in tutto per miliardi di volte, ma presto domineranno in tutto ed ogni campo.

Per questa IA e le future che ovviamente usciranno surclassando le precedenti, se rendono, sono free e servono, si vedra' se usarle, ovviamente si ricorda di non metterci dati personali, dati propri, proprie info, ecc..

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^