Il fenomeno DeepSeek fa male a NVIDIA: il titolo crolla in Borsa, ma l'azienda non si scompone
Giornata nerissima per il titolo NVIDIA in Borsa. Il panico creato dal rilascio del modello IA cinese DeepSeek-R1 ha scatenato le vendite, facendo crollare le azioni di quasi il 17%. NVIDIA, tuttavia, non si scompone troppo.
di Manolo De Agostini pubblicata il 27 Gennaio 2025, alle 22:31 nel canale MercatoDeepSeekNVIDIA
Il titolo NVIDIA ha subito una perdita del 17% nella giornata odierna, con una riduzione della capitalizzazione di mercato da 3.347 a circa 2.900 miliardi di dollari.
L'arrivo del fulmine a ciel sereno chiamato DeepSeek-R1, il nuovo modello di IA cinese dalle capacità strabilianti, addestrato con appena 6 milioni di dollari di investimenti e dell'hardware impiegati per riferimenti come OpenAI GPT-4o e Claude Sonnet 3.5, ha creato un'ondata di panico negli Stati Uniti.
NVIDIA, che è stata la principale beneficiaria di questi immensi investimenti, potrebbe assistere a una contrazione degli ordini qualora modelli come DeepSeek-R1 si rivelassero efficaci. Al momento, però, Jensen Huang e compagni non sembrano scomporsi più di tanto.

NVIDIA ha dichiarato che un nuovo modello rilasciato dalla startup cinese DeepSeek è un "eccellente progresso dell'intelligenza artificiale" che rispetta i controlli sulle esportazioni di tecnologia negli Stati Uniti.
"Il lavoro di DeepSeek illustra come sia possibile creare nuovi modelli" utilizzando la tecnica Test Time Scaling, ha dichiarato l'azienda in un comunicato inviato via e-mail alla CNBC, "sfruttando modelli e calcoli ampiamente disponibili e pienamente conformi ai controlli sulle esportazioni".
NVIDIA sottolinea che l'azienda cinese non ha violato le restrizioni statunitensi che limitano l'accesso ai chip americani avanzati per addestrare le IA. DeepSeek, infatti, ha utilizzato acceleratori NVIDIA H800, versioni depotenziate rispetto a quelle commercializzate da NVIDIA nel resto del mondo.
La dichiarazione sembra anche dipanare i sospetti di alcuni analisti ed esperti secondo i quali la startup cinese non avrebbe potuto fare la scoperta che ha dichiarato.
NVIDIA, inoltre, sottolinea che l'inferenza, il lavoro di esecuzione dei modelli di intelligenza artificiale, richiede comunque molti dei suoi prodotti. NVIDIA, quindi, non è solo "addestramento".
"L'inferenza richiede un numero significativo di GPU NVIDIA e reti ad alte prestazioni", ha spiegato l'azienda. "Ora abbiamo tre leggi di scaling: pre-training e post-training, che continuano, e la nuova test-time scaling".
Questo concetto afferma che un modello di intelligenza artificiale completamente addestrato, se utilizza più tempo e maggiore potenza di calcolo per eseguire previsioni o generare testo e immagini, migliora significativamente la qualità delle risposte rispetto a un utilizzo più rapido e meno intensivo.

In queste ore il mercato si chiede se gli investimenti multimiliardari da parte di aziende come Microsoft, Google e Meta per le infrastrutture di IA non siano sprecati se gli stessi risultati possono essere ottenuti in modo più economico. La scorsa settimana l'amministratore delegato di Meta, Mark Zuckerberg, ha dichiarato che prevede investire tra i 60 e i 65 miliardi di dollari in spese di capitale nel 2025 come parte della sua strategia di IA. Inoltre, una delle notizie più importanti ha riguardato il progetto Stargate da 500 miliardi di dollari.
Al coro dei pareri illustri si è aggiunto, con un post X, anche l'ex CEO di Intel Pat Gelsinger. L'ex dirigente del produttore di semiconduttori professa cautela, sottolineando che "DeepSeek ci ricorda tre importanti insegnamenti tratti dalla storia dell'informatica".
Il primo è che "l'informatica obbedisce alla legge dei gas. Rendendo l'informatica drasticamente più economica, il mercato si espanderà. I mercati stanno sbagliando, questo renderà l'IA molto più ampiamente distribuita".
Con le sue parole Gelsinger fa riferimento a un'analogia tra il comportamento dell'elaborazione informatica e il principio fisico della legge dei gas. In fisica, la legge dei gas stabilisce che un gas tende a espandersi fino a occupare tutto il volume disponibile. L'analogia nel contesto dell'informatica suggerisce che le attività di calcolo, le risorse o i dati tendono a espandersi per occupare tutto lo spazio o le risorse disponibili.
Il secondo insegnamento è che "l'ingegneria è fatta di vincoli. Gli ingegneri cinesi avevano risorse limitate e dovevano trovare soluzioni creative". Infine, Gelsinger rimarca un suo cavallo di battaglia degli ultimi anni, ovvero "l'open source vince. DeepSeek contribuirà a reimpostare il mondo sempre più chiuso del lavoro sui modelli di IA fondamentali. Un plauso al team di DeepSeek".










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
Google risolve il problema della memoria negli LLM: TurboQuant fa girare gli stessi modelli con cinque volte meno RAM
Un altro colpo alle auto elettriche: Panasonic taglia le batterie EV in favore di quelle per data center IA
Core Ultra 9 290K Plus: Intel conferma che non arriverà sul mercato
Addio connettori fusi? MSI promette di fermare tutto prima del disastro con GPU Safeguard+
Basta brani fake su Spotify: la nuova funzione dà controllo totale agli artisti
OPPO Find X9 Ultra: come funziona il rivoluzionario zoom 10x Hasselblad
Prezzo diverso per giochi digitali e fisici: la nuova politica Nintendo divide i giocatori
DDR5 32GB a meno di 340€: le Corsair Vengeance 6000MHz hanno buoni prezzi (visto il periodo) su Amazon
Harry Potter: HBO pubblica il primo trailer della serie TV e svela il nuovo volto di Hogwarts
Android 17 Beta 2 si allarga: la lista completa dei modelli (non solo Pixel) compatibili
RDNA 4m: AMD evolve RDNA 3.5 con AI e FSR 4 per le prossime APU Ryzen?
Sunseeker ha un mostro per i Pro e un'intera gamma domestica: punta ai prati italiani
Storica sentenza negli USA: Meta e Google ritenute responsabili della dipendenza da social e dei danni psicologici ai giovani
Musica generativa, arriva Lyria 3 Pro: ora Gemini compone brani completi









33 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoQuando lo scopo primario diventa "facciamo più soldi in borsa" la strategia di ricerca va in secondo piano e si privilegiano le tattiche che portano più profitto a breve termine.
Quando lo scopo primario diventa "facciamo più soldi in borsa" la strategia di ricerca va in secondo piano e si privilegiano le tattiche che portano più profitto a breve termine.
Il vino in questo caso però non è male. Il training del modello cinese rimane appannaggio loro (e volendo ci sono pure dei dubbi su quanto “poco” effettivamente abbiano dovuto lavorare sul training primario, ma questo è altro discorso), ma la tecnologia è solida, non la solita cinesata.
Ad ogni modo, USA crede moltissimo nel first mover advantage, tanto in generale come cultura quanto nel caso specifico AI. In una certa misura è inevitabile che gli investimenti in capo all’apripista siano più elevati. Tantopiù se ti chiami USA.
C’è speculazione sopra? Sì. Se questo sia un male tout court però è tutto da dimostrare, i margini speculativi potenziali sono anche un enorme traino. L’alternativa quale sarebbe? Ad oggi, non essere della partita; e personalmente trovo difficile sostenere che questo se sia meglio.
Vedremo, anche perché quello che dicono i cinesi va sempre preso con le pinze.
...prego signori controllare i mie post dell'anno precedente, ma anche del 2023 riguardo ai Cinesi che inesorabili sarebbero arrivati anche in questo campo.
E infatti sono arrivati ! C.V.D.
E infatti sono arrivati ! C.V.D.
un paese che sforna 1.000.000 di ingegneri a l'anno arriva dappertutto
altro che 6 milioni di dollari. Questi hanno circa 50K GPU ed il supporto di un edgefound da miliardi dietro, inoltre il modello foundational utilizzato è LLMA sempre americano, come i chip che lo elaborano.
I Cinesi ed i Giapponesi (ovviamente) che hanno a che fare con tutti sti minimo 2000 Kanji ecc.. li fa in genere dei geni.
Detto questo la fame aguzza l'ingegno e piu' togliete Loro, sanzioni, ecc.. e piu' Loro dovranno cavarsela in qualche maniera ed a volte o spesso saltano fuori con qualcosa che stupisce e frega tutti. (un po' come chi vuole giocare ai triple AAA coi giochi moderni e non ha PC ultra potente perche' non ha soldi da buttare, si impegna e mod di qua, manual fix di la ci riesce in qualche maniera dove gli altri gongolano negli allori con super power PC e manco ci pensano a qualcosa del genere)
Mi sa che potranno cercare di limitarli in tutto per miliardi di volte, ma presto domineranno in tutto ed ogni campo.
Per questa IA e le future che ovviamente usciranno surclassando le precedenti, se rendono, sono free e servono, si vedra' se usarle, ovviamente si ricorda di non metterci dati personali, dati propri, proprie info, ecc..
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".