La Legge di Huang ha preso il posto della Legge di Moore secondo NVIDIA

La Legge di Huang ha preso il posto della Legge di Moore secondo NVIDIA

NVIDIA ha parlato di quella che ha definito "Legge di Huang": nell'ultimo decennio le prestazioni nell'intelligenza artificiale delle GPU NVIDIA sono cresciute di 1000 volte, di cui solo una piccola parte si deve ai dettami della Legge di Moore.

di pubblicata il , alle 09:21 nel canale Processori
NVIDIA
 
21 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
StylezZz`02 Ottobre 2023, 13:17 #11
Seguo la legge del mio portafoglio e del buonsenso.
Cromwell02 Ottobre 2023, 13:21 #12
Originariamente inviato da: StylezZz`
Seguo la legge del mio portafoglio e del buonsenso.




[SIZE="1"]più spostato verso la prima però[/SIZE]
dav1deser02 Ottobre 2023, 13:29 #13
Nel frattempo NVIDIA è passata, nel corso degli ultimi 10 anni, dalla produzione a 28 nanometri a quella 5 nanometri, ma Dally ha spiegato che il boost ottenuto da questo miglioramento è pari solo a 2,5 volte il totale.


Sarà un ingegnere informatico, ma questa affermazione mi sembra abbastanza da ignorante in materia.
2,5 volte è più o meno l'aumento di frequenza che c'è stato dai 28nm (1GHz circa) ad oggi (2,5GHz) ma oltre alle frequenze il processo produttivo nuovo permette, come ben sappiamo, di aumentare il numero di transistor, che fra 680 e 4090 aumentato di circa 20 volte. Quindi dire che l'aumento prestazionale di 1000 volte quasi esclusivamente all'architettura, mi sembra un po' eccessivo.
pachainti02 Ottobre 2023, 14:55 #14
Originariamente inviato da: CtrlAltSdeng!
Si ok, ma...... la legge quale sarebbe scusate? lol

che marchetta ragazzi


Esatto, chissà cosa ottengono in cambio per abbassarsi così...

Originariamente inviato da: marcowave
Quanta umiltà….

Ma poi 1000 volte rispetto a 10 anni fa? Ma dove? Le prestazioni non mi sembrano migliorate di 1000 volte…

Sta cosa dell’ IA é l’ennesima bolla speculativa che segue quella del metaverso/nft e tra qualche anno farà la stessa identica fine…

Nel frattempo AMD sta raddoppiando i frame per tutti con FSR3, anche per le schede di 5 anni fa…


Già, poi 10 anni fa nessun acceleratore era progettato per tali carichi. Lo dicono loro stessi che il passaggio da FP64 o FP32 a FP16 o int8 sia il cambiamento che ha portato i migliori benefici.

Il solito marketing che rende la tecnologia sempre più simile a una religione, tante promesse, pochi fatti.
AlPaBo02 Ottobre 2023, 16:05 #15
Originariamente inviato da: supertigrotto
Tanto di cappello a Huang che da nessuno e diventato qualcuno, però spero tenga i piedi per terra,altrimenti diventa come certi personaggi che hanno popolato sto mondo tecnologico


Originariamente inviato da: F1r3st0rm
no appunto ma l'enunciato della legge?

na roba tipo l'ego di huang cresce in maniera direttamente proporzionale al costo delle schede?


Anche a me Huang non sta simpatico, ma a onor del vero va detto che qui non è lui a dimostrare presunzione.

La "legge", se possiamo chiamarla così, è stata enunciata da un suo sottoposto, Bill Dally, che semmai ha dimostrato di essere lui un leccapiedi.
pengfei02 Ottobre 2023, 22:06 #16
Originariamente inviato da: marcowave
Sta cosa dell’ IA é l’ennesima bolla speculativa che segue quella del metaverso/nft e tra qualche anno farà la stessa identica fine…


Ma come cacchio si fa a pensare una cosa simile?
marcowave03 Ottobre 2023, 12:29 #17
Originariamente inviato da: pengfei
Ma come cacchio si fa a pensare una cosa simile?


non so che dirti, a me pare tanto la stessa cosa.. vedremo
pengfei04 Ottobre 2023, 03:03 #18
Originariamente inviato da: marcowave
non so che dirti, a me pare tanto la stessa cosa.. vedremo


Scusa se la risposta mi è uscita con un tono un tantino arrogante, rispetto la tua opinione (condivisa da molti, ho visto che il paragone tra IA e NFT è piuttosto popolare tra gli artisti che si sentono minacciati dall'IA generativa).
Però non concordo perché gli NFT, almeno quelli che consistono in un semplice artwork di solito pure di cattivo gusto, non hanno una vera utilità quindi ci sta che dopo la fase speculativa siano crollati, di contro già ora l'IA risolve problemi reali, ho visto diverse persone andare in crisi quando chatGPT è stata temporaneamente bandita dall'Italia perché ormai l'avevano integrata nel loro flusso di lavoro, così come se ti serve una illustrazione ci sono buone possibilità che ti convenga generarla invece di commissionarla ad un artista, poi le applicazioni attuali o potenziali sono così tante e lo sviluppo così rapido che non vedo per quale motivo l'ia dovrebbe essere una bolla destinata a sgonfiarsi
pachainti04 Ottobre 2023, 06:36 #19
Originariamente inviato da: marcowave
non so che dirti, a me pare tanto la stessa cosa.. vedremo


Io la penso come te, sono mode passeggere. Prima c'era IoT, poi la blockchain ora l'IA. Basta aggiungere qualche parolina magica per abbindolare coloro che non conoscono come funzionano, almeno 80-90% degli utenti.
Il problema dell'IA, in particolare dei LLM come chatGPT, è che possono riportare una risposta esatta, come prendere delle cantonate incredibili. Il vero problema è che nessuno è in grado di capire quando avvenga una o l'altra possibilità a meno che sia un esperto del settore. Per questo l'utilità è prossima a zero per risolvere problemi reali e seri, per "divertirsi" vanno benissimo.
A causa di questi comportamenti, i modelli LLM sono stati definiti pappagalli stocastici o generatori artificiali di stronzate, io concordo in pieno.
Nurabsa05 Ottobre 2023, 08:04 #20
cè na messo di tempo per capire che la buona progettazione conta piu dei nm alias nodo, cè gente che gioca con una big maxwell da quasi 9 anni.
Piu che legge di huang parafrasando la chiamerei legge di evga nel mio caso ma qui si va sul personale

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^