Entra

View Full Version : GeForce RTX 4000, si torna a parlare di consumi elevati: 600W la 'nuova normalità'?


Redazione di Hardware Upg
14-03-2022, 07:41
Link alla notizia: https://www.hwupgrade.it/news/skvideo/geforce-rtx-4000-si-torna-a-parlare-di-consumi-elevati-600w-la-nuova-normalita_105577.html

Nuove indiscrezioni tratteggiano dei consumi delle future schede video GeForce RTX 4000, confermando le voci precedenti sui livelli decisamente più elevati rispetto all'attuale generazione. Un incremento che però sarà sostenuto anche da un forte balzo prestazionale.

Click sul link per visualizzare la notizia.

Saturn
14-03-2022, 07:52
#andràtuttobene :O

Darkon
14-03-2022, 07:56
600W spero sia semplicemente l'energia massima che sulla base del tipo di connettore e non il reale consumo.

Ormai si stanno facendo passi indietro pazzeschi e non è tollerabile avere componentistica che fra nuove CPU e GPU manca poco ci vogliono 2 alimentatori.

Senza contare che tutta quell'energia diventa in parte calore e praticamente hai un radiatore in casa.

Capisco che sono arrivati forse a un punto in cui ormai fare differenze prestazionali importanti comporta scelte particolari ma così è ingestibile.

cronos1990
14-03-2022, 07:58
Senza contare che tutta quell'energia diventa in parte calore e praticamente hai un radiatore in casa.Così risparmi sul metano di casa durante l'inverno :asd:

lucasantu
14-03-2022, 07:58
Perchè non la smettiamo con questi articoli basati sul niente ?
Non può consumare il 70% in più di una 3090...
Aspettiamo almeno che esca prima :mbe:

coschizza
14-03-2022, 08:09
Perchè non la smettiamo con questi articoli basati sul niente ?
Non può consumare il 70% in più di una 3090...
Aspettiamo almeno che esca prima :mbe:

perche non puo consumare di piu?

euscar
14-03-2022, 08:23
Ammesso e concesso che i leaker abbiano ragione, in ogni caso usare, per giocare, una scheda video che da sola consuma di più di un PC intero (con il mio PC1 in sign arrivo a pieno carico si e no a 300 W) è da .... (lascio a voi inserire la parola che ritenete più opportuno).

Di fronte a tali notizie non posso che rispondere con un :p

io78bis
14-03-2022, 08:29
A quando un etichetta energetica per le schede o componenti PC in generale? Bisogna sperare che poi certe GPU non finiscano in PC con alimentatori di classe B

Fortunatamente visto il prezzo a cui verrà venduta solo i miner avranno un motivo per comprarla visto che potrebbero rifarsi con le crypto


Perchè non la smettiamo con questi articoli basati sul niente ?
Non può consumare il 70% in più di una 3090...
Aspettiamo almeno che esca prima :mbe:

E perché? Ha il 70% di Cuda in più.... Sono ipotesi come altre

boboviz
14-03-2022, 08:42
Visto il continuo calo del costo dell'energia elettrica in Italia, non è una cattiva idea fare delle gpu che bevono come la centrale di Zaporizzja.

Legolas84
14-03-2022, 09:14
Sono ormai lontani i tempi di Maxwell... invece di essere AMD a migliorare l'efficienza, è stata NVIDIA a peggiorarla... niente male :asd:

devil_mcry
14-03-2022, 09:23
Dunque considerando che l'ultima bolletta della luce è passata da 90€ a 245€ con consumi simili, ne compro 3 :rolleyes: :rolleyes:

Gringo [ITF]
14-03-2022, 09:34
Quindi alla fine considerando il tutto, Intel ha le GPU più "Ecologiche" ....

Peppe1970
14-03-2022, 09:54
;47780479']Quindi alla fine considerando il tutto, Intel ha le GPU più "Ecologiche" ....

Si, ma dove sono? :D

Peppe1970
14-03-2022, 09:57
Sono ormai lontani i tempi di Maxwell... invece di essere AMD a migliorare l'efficienza, è stata NVIDIA a peggiorarla... niente male :asd:

Voglio proprio vedere se la controparte (AMD) farà di meglio :D

argez
14-03-2022, 10:01
Scaffale a prescindere a questi consumi. E mi stupisco che la stampa di settore non gli salti addosso come facevano anni fa con le radeon x2 che erano dei pozzi senza fondo per i consumi.

Gyammy85
14-03-2022, 10:10
Voglio proprio vedere se la controparte (AMD) farà di meglio :D

Tutti i leak indicano 100 watt in meno sulla top, si deve vedere le schede inferiori, per amd è sempre molto pericoloso tirare anche un solo watt in più, lo dimostra il fatto che 3060ti e 3070 tirano su 250 watt come niente e una 6700xt sta mediamente a 170 watt sulla gpu ma è comunque una cosa assolutamente secondaria, mentre si facevano i conti in bolletta della 580 vs la 1060

CrapaDiLegno
14-03-2022, 10:15
600W spero sia semplicemente l'energia massima che sulla base del tipo di connettore e non il reale consumo.

Ormai si stanno facendo passi indietro pazzeschi e non è tollerabile avere componentistica che fra nuove CPU e GPU manca poco ci vogliono 2 alimentatori.

Senza contare che tutta quell'energia diventa in parte calore e praticamente hai un radiatore in casa.

Capisco che sono arrivati forse a un punto in cui ormai fare differenze prestazionali importanti comporta scelte particolari ma così è ingestibile.
E' chiaro che i nuovi PP non permettono più quei balzi ch si facevano un tempo, però andare di forza bruta per aumentare le prestazioni funziona solo fino a un certo punto. Non può continuare all'infinito.
Prima o poi devi fermarti, altrimenti la prossima generazione che si fa, si arriva a 1200W?

Comunque, quando si fermeranno avremo schede con consumi che si riducono ma stesse prestazioni e si scateneranno le polemiche opposte tipo " che progresso inutile quello di fare schede con meno consumi ma prestazioni uguali" :mc:

Non c'è movimento meccanico (tranne le ventole) per cui TUTTA l'energia assorbita finisce in calore.

perche non puo consumare di piu?
Perché ne vendi 10 di schede che oltre a consumare come un forno elettrico richiedono un sistema di raffreddamento a liquido per non fonderti il case.

Senza tenere conto della densità di energia dissipabile da un chippetto da 600mm^2.
A meno che non parliamo di MCM anche per Nvidia.

Si, ma dove sono? :D
Appunto, non esistono, per cui sono il top dell'ecologia!

Scaffale a prescindere a questi consumi. E mi stupisco che la stampa di settore non gli salti addosso come facevano anni fa con le radeon x2 che erano dei pozzi senza fondo per i consumi.
Se i consumi saranno quelli, sono sicuro che gli salteranno addosso.
Intanto qui si parla di rumor di rumor provenienti da leakers che anche in passato ne hanno dette (chi si ricorda il traversal co-processor di Turing?)

La questione consumi è sempre di tipo relativa: se per fare 100 consumo 1000 e sono l'unico che può fare quella cosa, nessuno può dirmi che 1000 è tanto o poco. Se invece sul mercato c'è qualcun altro che per fare lo stesso 100 consuma 500, allora sì, le critiche sono tutte meritate.

Legolas84
14-03-2022, 11:22
La questione consumi è sempre di tipo relativa: se per fare 100 consumo 1000 e sono l'unico che può fare quella cosa, nessuno può dirmi che 1000 è tanto o poco. Se invece sul mercato c'è qualcun altro che per fare lo stesso 100 consuma 500, allora sì, le critiche sono tutte meritate.


Su questo sono d'accordo, ma fino ad un certo punto.

La GTX 480 andava più di qualsiasi scheda quando è uscita e consumava più di tutti. Però in quel periodo le altre schede arrivavano al massimo a 250W, mentre la 480 toccava i 320... 70W in più. Era tanto, ma per così dire accettabile.

Oggi abbiamo la 3080 che già si spara 350W, la 3090 che se ne spara quasi 400... ma dove vogliamo andare di più? Imho si sta superando il limite di ciò che è ragionevole in termini di consumi.

È vero che NVIDIA ha tanti plus, driver, ecosistema, DLSS, G-Sync, prestazioni Ray Tracing... di solito le sue tecnologie proprietarie funzionano molto meglio di quelle open della concorrenza....

Però sul lato efficienza imho stanno facendo male. Da NVIDIA ci si aspetta sempre il Top, e in questo caso devono migliorare.

Varg87
14-03-2022, 18:18
Ma voi non gabide, lo fanno per rendere meno appetibili le schede ai miner. Dopo aver provato la strada delle LHR ed aver accidentalmente dimenticato i driver sul bancone del bar la settimana successiva, stavolta hanno trovato la soluzione finale per garantire le schede ai gamer. Gabido?!

DarIOTheOriginal
14-03-2022, 19:12
Si, ma dove sono? :D

Stanno assieme alle 30xx..

Se continua così sarà più facile recuperare una serie 4xx che una 3xx

maxsin72
15-03-2022, 00:24
600w, anche se solo di picco, per una gpu per giocare mi sembrano completamente privi di senso. Già 300-350w sono tantissimi, roba da carbon tax :D

ninja750
15-03-2022, 08:57
ma si tanto la corrente costa sempre meno

e poi più consuma più vuol dire che è potente

mica vorrete misurare i consumi rapportati alla concorrenza no?

Legolas84
15-03-2022, 09:51
ma si tanto la corrente costa sempre meno

e poi più consuma più vuol dire che è potente

mica vorrete misurare i consumi rapportati alla concorrenza no?

Ma invece si è proprio quello che bisogna fare.... e trovo molto triste che NVIDIA abbia bruciato tutto il vantaggio che aveva. Vedremo quando usciranno le nuove soluzione entrambe su TSMC 5nm si potrà valutare qual'è l'arch migliore.

Ovviamente sempre come arch, il discorso su tutto ciò che viene offerto al contorno l'ho già fatto ed è comunque legato alle preferenze personali dell'utente.

aqua84
15-03-2022, 10:18
io direi che possiamo anche abbandonare i LED e tornare alle care e vecchie lampadine a incandescenza
tanto ormai... :muro:

tutto il buono fatto in questi anni, tra risparmi, lampade a led, ecc... è stato SPAZZATO VIA in poche bollette con questi aumenti assurdi :muro:

Saturn
15-03-2022, 10:22
io direi che possiamo anche abbandonare i LED e tornare alle care e vecchie lampadine a incandescenza
tanto ormai... :muro:

tutto il buono fatto in questi anni, tra risparmi, lampade a led, ecc... è stato SPAZZATO VIA in poche bollette con questi aumenti assurdi :muro:

Che però duravano...! Come il televisore che mi ha lasciato mio nonno.
É degli anni 60, Philips, MA ANCORA FUNZIONA !

E con i dovuti collegamenti/smisticamenti visto che non ha entrate ma solo l'antenna, è adattabile anche al DVB-T2 HEVC10. :asd:

Certo, emette più radiazioni del reattore numero 4 di Chernobyl (non erano le pippe a far perdere diottrie ma i tubi catodici), ma ancora funziona.

Oggi, TV SUPER 16K SMART, FICHETT, ULTRA-INSTINCT, il giorno dopo il secondo anno di utilizzo si autodistrugge miseramente...:asd:

gd350turbo
15-03-2022, 10:26
Tanto costerà 4000 euro...
Chi si spende 4000 euro per una scheda video, del costo della corrente gli interessa meno di zero !

Saturn
15-03-2022, 10:41
Tanto costerà 4000 euro...
Chi si spende 4000 euro per una scheda video, del costo della corrente gli interessa meno di zero !

4000€ al bagarino. Prezzo finale day-1 ?

Ma facciamo anche 5-6000€ ! ;)

gd350turbo
15-03-2022, 10:45
4000€ al bagarino. Prezzo finale day-1 ?

Ma facciamo anche 5-6000€ ! ;)

Bè si, 4000 se la prendi con calma, se la vuoi subito, mi sa che 5000 non ti bastano !

aqua84
15-03-2022, 10:47
Certo, emette più radiazioni del reattore numero 4 di Chernobyl (non erano le pippe a far perdere diottrie ma i tubi catodici), ma ancora funziona.


:D :D :D

https://i.imgur.com/rthcj7g.jpg

ryan78
15-03-2022, 10:47
Che però duravano...! Come il televisore che mi ha lasciato mio nonno.
É degli anni 60, Philips, MA ANCORA FUNZIONA !

E con i dovuti collegamenti/smisticamenti visto che non ha entrate ma solo l'antenna, è adattabile anche al DVB-T2 HEVC10. :asd:

Certo, emette più radiazioni del reattore numero 4 di Chernobyl (non erano le pippe a far perdere diottrie ma i tubi catodici), ma ancora funziona.

Oggi, TV SUPER 16K SMART, FICHETT, ULTRA-INSTINCT, il giorno dopo il secondo anno di utilizzo si autodistrugge miseramente...:asd:

https://www.youtube.com/watch?v=2ScUjHWUL34
:asd:

Saturn
15-03-2022, 10:53
Esatto è lo stesso modello !

Il Re delle radiazioni !

:asd:

batou83
15-03-2022, 10:56
Tanto costerà 4000 euro...
Chi si spende 4000 euro per una scheda video, del costo della corrente gli interessa meno di zero !

4000€ al bagarino. Prezzo finale day-1 ?

Ma facciamo anche 5-6000€ ! ;)

Finalmente si arriva al nocciolo della questione.

L'unico vantaggio è in ambito mining perchè una singola scheda da 400 watt occupa meno spazio di 2 da 200 watt, quindi un rig avrà più potenza computazionale installabile.

La cosa più triste invece è la graduale scomparsa di schede di 100-150 watt e a scendere, spesso di dimensioni contenute, che permettevano di poter assemblare sistemi potenti e a basso consumo.

Il pc gaming diventerà sempre più una cosa di lusso, come le auto.

DarIOTheOriginal
15-03-2022, 16:01
Finalmente si arriva al nocciolo della questione.

L'unico vantaggio è in ambito mining perchè una singola scheda da 400 watt occupa meno spazio di 2 da 200 watt, quindi un rig avrà più potenza computazionale installabile.

La cosa più triste invece è la graduale scomparsa di schede di 100-150 watt e a scendere, spesso di dimensioni contenute, che permettevano di poter assemblare sistemi potenti e a basso consumo.

Il pc gaming diventerà sempre più una cosa di lusso, come le auto.

Questo è un punto di vista decisamente interessante e realistico... purtroppo.
L'unica è sperare che 1x400 renda meno di 2x200 come hashrate.
In ogni caso mai come in questi anni è meglio una console. Certo son difficili da trovare ma mai quanto una 3xx, costano meno di una 3070.. e almeno giochi.
Il gamepass poi è il colpo di grazia.. povero pc :cry:

euscar
15-03-2022, 22:02
Rimane sempre il retrogaming su PC ... ormai lo dico da un po' :O