|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/cpu/op...om_144766.html
OpenAI e Broadcom hanno annunciato una collaborazione pluriennale per sviluppare e distribuire 10 gigawatt di acceleratori AI progettati internamente da OpenAI. L'accordo prevede sistemi completi con soluzioni Ethernet Broadcom, destinati a entrare in funzione dal 2026. Obiettivo: spingere l'evoluzione dell'IA ed essere un po' meno vincolati a NVIDIA e AMD. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Mar 2009
Messaggi: 6755
|
ma hanno intenzione di sostituire proprio le gpu nvidia? Pensavo che servisse un know how inarrivabile per queste schede
__________________
Trattato positivamente con: jhon16, orso232, JacopoSr, cirano76, enrikinter, firestorm90, giulio81 |
![]() |
![]() |
![]() |
#3 | |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 1748
|
Quote:
A queste pseudo ai, da come ho capito, servono solo un tipo di calcoli. Al massimo in futuro, se serviranno altri tipi di calcoli, affiancheranno dei cluster per quel compito specifico. Magari tornando alle gpu. |
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Nov 2013
Città: Nel cuore dell'8 Mile di Detroit
Messaggi: 3791
|
tra un po' ci sarà la gente che usa solo la destra o solo la sinistra
... e i tornei di tennis con categoria diritto e categoria rovescio.... ![]() ![]()
__________________
"Se devi mangiare merda non assaporarla: mordi, mastica, ingoia, ripeti. Fai presto, e te la cavi con poco" ![]() |
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5418
|
Ma hanno chiesto il permesso a Huang?
|
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6147
|
Notare come il comunicato di OpenAI parla in termini di GIGAWATT di potenza elettrica consumata e non di potenza di calcolo.
Il primo motivo è che "l'equivalente di due centrali nucleari come Zhaporizha" impressiona di più potenziali investitori che capiscono poco di AI e LLM rispetto agli exaflop e cose simili. Il secondo motivo è che così possono evitare di fare confronti con i prodotti dei competitor e fornitori. Le "GPU"/"Tensor Core" H100 di NVidia sono ottimizzate per il calcolo matriciale e non hanno le pipeline che servono per la grafica raster, ma possono essere usate anche per altri tipi di calcoli ad elevato parallelismo, invece dei core super-specializzati solo per le elaborazioni ed i formati di dati "ridotti" (FP16, FP8, FP4, ...) usati esclusivamente per i LLM diventano ferraglia inutile se la bolla degli LLM scoppia o se spuntano fuori nuovi algoritmi che girano male sui core TROPPO specializzati. |
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Nov 2002
Messaggi: 6165
|
No, con la stessa Nvidia hanno fatto un accordo da 100 miliardi. Lo scopo è differenziare i produttori per non dipendere da uno solo.
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 17:08.