View Full Version : La GeForce RTX 3090 Ti è sorprendentemente efficiente...se limitata a 300W
Redazione di Hardware Upg
12-04-2022, 10:41
Link alla notizia: https://www.hwupgrade.it/news/skvideo/la-geforce-rtx-3090-ti-e-sorprendentemente-efficientese-limitata-a-300w_106326.html
Un interessante esperimento realizzato da Igor's Lab fa emergere come la nuova GeForce RTX 3090 Ti sia piuttosto efficiente rispetto agli altri modelli della serie RTX 3000 se si limita il TDP a 300W.
Click sul link per visualizzare la notizia.
Chip grandi/numero elevato di core, buon binning e frequenze/tensioni basse (quindi bassa potenza) sono la ricetta per una buona efficienza e vale per le GPU come per le CPU. Ma questo è ovvio ed è vero da sempre.
Il problema è che né al recensore né all'acquirente medio interessano le prestazioni con power limit inferiori.
Chip grandi/numero elevato di core, buon binning e frequenze/tensioni basse (quindi bassa potenza) sono la ricetta per una buona efficienza e vale per le GPU come per le CPU. Ma questo è ovvio ed è vero da sempre.
Il problema è che né al recensore né all'acquirente medio interessano le prestazioni con power limit inferiori.
soprattutto a uno che spende 2000 e passa euri per 10fps in +
nickname88
12-04-2022, 13:08
Chip grandi/numero elevato di core, buon binning e frequenze/tensioni basse (quindi bassa potenza) sono la ricetta per una buona efficienza e vale per le GPU come per le CPU. Ma questo è ovvio ed è vero da sempre.
Il problema è che né al recensore né all'acquirente medio interessano le prestazioni con power limit inferiori.
+50% di assorbimento per appena un +12% di performance ?
Direi invece che di gente interessata ce nè ECCOME !
Laico1979
12-04-2022, 13:22
Che confronto del piffero, ovvio che ogni gpu ha un optimun tra consumi e prestazioni, la differenza la fa il prezzo, fai un padellone di gpu e vediamo quanto costa
nickname88
12-04-2022, 13:25
Che confronto del piffero, ovvio che ogni gpu ha un optimun tra consumi e prestazioni, la differenza la fa il prezzo, fai un padellone di gpu e vediamo quanto costa
Il padellone potrei anche esser disposto a pagarlo ....
dado1979
12-04-2022, 14:14
Ma solo io mi ricordo quandi si lasciavano inalterate le frequenze ma si abbassava il Vcc per aumentare l'efficienza?
Non é una novità questa cosa.
Ma solo io mi ricordo quandi si lasciavano inalterate le frequenze ma si abbassava il Vcc per aumentare l'efficienza?
Non é una novità questa cosa.
Se la frequenza è troppo elevata non si può abbassare la tensione più di tanto.
Abbassare la frequenza di funzionamento permette di fare operare la scheda a livelli dove la tensione può essere minore e l'efficienza dunque superiore.
dado1979
12-04-2022, 14:57
Se la frequenza è troppo elevata non si può abbassare la tensione più di tanto.
Abbassare la frequenza di funzionamento permette di fare operare la scheda a livelli dove la tensione può essere minore e l'efficienza dunque superiore.
Certo, ma in quel modo vai ad influire anche sulle prestazioni: il senso di quel che dicevo era che Intel (in quel caso) sovradimensionava la tensione del core per evitare problemi di sorta e se tu eri fortunato (ma lo erano quasi tutti) potevi abbassare la tensione di un pochino mantenendo inalterate le prestazioni.
Ovviamente si andranno a toccare le prestazioni così facendo, ma il problema delle CPU e GPU degli ultimi anni sono le frequenze di funzionamento quasi al limite del silicio. Quello che in passato (quando le potenze in gioco erano in media assai minori) poteva essere considerato il "margine di overclock", ora è sfruttato di fabbrica.
Le tensioni continuano ad essere sempre un po' più elevate del necessario, ma diminuire direttamente il limite di potenza (e dunque la frequenza di funzionamento) permette guadagni ben superiori rispetto a ridurre il margine di tensione.
CrapaDiLegno
12-04-2022, 21:59
Il "padellone" di Nvidia non è tanto più grande di quello AMD.
Il PP di TSMC aiuta AMD a tenerlo il 15% più piccolo, ma per numero di transistor tra i due big c'è solo il 5% di differenza con quello Nvidia più grande.
Chip completo vs chip completo, nonostante il PP peggiore Nvidia si dimostra ancora una volta molto più efficiente di AMD.
Sapendo poi che dentro non tutto lo spazio è dedicato alla rasterizzazione come sulla GPU di AMD, l'efficienza in termini di prestazioni/transistor è persino maggiore.
Vediamo cosa ottiene Nvidia se come dicono i rumor farà i sui chip consumer sui 5nm di TSMC (ma dubito, sarebbero troppo costosi e limitati in produzione) come li farà AMD.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.