PDA

View Full Version : OpenAI esce allo scoperto: confermati i chip di intelligenza artificiale proprietari con l'aiuto di Broadcom


Redazione di Hardware Upg
13-10-2025, 17:31
Link alla notizia: https://www.hwupgrade.it/news/cpu/openai-esce-allo-scoperto-confermati-i-chip-di-intelligenza-artificiale-proprietari-con-l-aiuto-di-broadcom_144766.html

OpenAI e Broadcom hanno annunciato una collaborazione pluriennale per sviluppare e distribuire 10 gigawatt di acceleratori AI progettati internamente da OpenAI. L'accordo prevede sistemi completi con soluzioni Ethernet Broadcom, destinati a entrare in funzione dal 2026. Obiettivo: spingere l'evoluzione dell'IA ed essere un po' meno vincolati a NVIDIA e AMD.

Click sul link per visualizzare la notizia.

sbudellaman
13-10-2025, 17:38
ma hanno intenzione di sostituire proprio le gpu nvidia? Pensavo che servisse un know how inarrivabile per queste schede

fabius21
13-10-2025, 18:08
ma hanno intenzione di sostituire proprio le gpu nvidia? Pensavo che servisse un know how inarrivabile per queste schede

E penso di si, perchè mi è sembrato di capire che le gpu hanno troppe cose che non gli servono, percui fare un chip specifico è meglio, un pò con i miner di bitcoin adesso, fanno solo il calcolo dello sha256, ma non ci puoi fare altro.
A queste pseudo ai, da come ho capito, servono solo un tipo di calcoli.
Al massimo in futuro, se serviranno altri tipi di calcoli, affiancheranno dei cluster per quel compito specifico. Magari tornando alle gpu.

bancodeipugni
13-10-2025, 18:17
tra un po' ci sarà la gente che usa solo la destra o solo la sinistra

... e i tornei di tennis con categoria diritto e categoria rovescio....:D :rolleyes:

supertigrotto
13-10-2025, 19:51
Ma hanno chiesto il permesso a Huang?

LMCH
13-10-2025, 20:09
Notare come il comunicato di OpenAI parla in termini di GIGAWATT di potenza elettrica consumata e non di potenza di calcolo.
Il primo motivo è che "l'equivalente di due centrali nucleari come Zhaporizha" impressiona di più potenziali investitori che capiscono poco di AI e LLM rispetto agli exaflop e cose simili.
Il secondo motivo è che così possono evitare di fare confronti con i prodotti dei competitor e fornitori.

Le "GPU"/"Tensor Core" H100 di NVidia sono ottimizzate per il calcolo matriciale e non hanno le pipeline che servono per la grafica raster, ma possono essere usate anche per altri tipi di calcoli ad elevato parallelismo, invece dei core super-specializzati solo per le elaborazioni ed i formati di dati "ridotti" (FP16, FP8, FP4, ...) usati esclusivamente per i LLM diventano ferraglia inutile se la bolla degli LLM scoppia o se spuntano fuori nuovi algoritmi che girano male sui core TROPPO specializzati.

Unrue
14-10-2025, 10:08
ma hanno intenzione di sostituire proprio le gpu nvidia? Pensavo che servisse un know how inarrivabile per queste schede

No, con la stessa Nvidia hanno fatto un accordo da 100 miliardi. Lo scopo è differenziare i produttori per non dipendere da uno solo.