Quote:
Originariamente inviato da ilariovs
Ho un EVGA 600W white quindi NON dovrei avere grossi problemi.
Però a livello di FPS in raster A750 e 6600 sono lì.
Stesso discorso per l'A770 e la 6650 XT.
Ora una 6600 di picco fa 135W mediamente 120W ed in idle 8W.
Perché mai a pari prestazioni dovrei pre dere una scheda che consuma 40W in idle e 220W in full?
Ok in RT vanno meglio, ma non stiamo parlando di 10/20W di differenza.
Almeno costassero meno. Una Pulse 6600 (una bella custom) te la porti a casa a 310€ la A750 a 305.
Capirai che scontone.
Per questo chiedo le cose sono cambiate? O i consumi sono rimasti gli stessi?
|
E allora comprati una AMD ! Se hai già fatto le tue valutazioni, compra quello che ti fa risparmiare qualche spiccio in più di corrente elettrica. É giustissimo, eh ! Io onestamente non mi son messo a fare le misurazioni specifiche dei consumi. Domanda nella sezione "schede video, discussioni generali" nel thread ti risponderanno di sicuro. Io ci gioco, la testo, e la finisce. Mi sto pure divertendo come tanti anni fa con un prodotto nuovo ed alternativo !
Nessuno vuole convincere nessuno alla fine. Anche perchè sono prodotti nuovi, stanno correggendo tutto in corso d'opera. Ripeto, come fu a suo tempo per le Radeon 7500/8500 !
Se poi ripeto, 40W totali in più sono un problema insormontabile e cerchi il massimo risparmio energetico ti dico per primo che queste schede non fanno per te.
p.s. sullo "scontone" - preferisco - in questo caso, nel caso delle gpu, cpu lasciamo perdere - dare i soldi a Intel piuttosto che continuare ad arricchire nVidia (o amd) !
Voglio un terzo competitor e spero con tutto il cuore che la prossima volta siano ancora più sul pezzo a dar battaglia ad amd e nvidia.
Una volta una 1070 te la portavi a casa con 400€ o anche qualcosa di meno....OGGI ? A quanto sta una 4070 ? É questo il punto. Fanno il bello e il cattivo tempo perchè possono permetterselo.