Quote:
Originariamente inviato da dav1deser
Se si toccano questi livelli di consumo, è perchè le frequenze vengono spinte più in alto possibile, come ben saprete i consumi non scalano linearmente con la frequenza, ma aumentano in maniera più rapida, tanto più rapida quanto più sali di frequenza, da questo se ne deduce che più spingi in alto le frequenze, più perdi in efficienza. Altrimenti detto scendere di frequenza (entro certi limiti) migliora l'efficienza. Il problema è che i produttori di CPU e GPU potrebbero fare dei prodotti molto più efficienti di quanto producono effettivamente, per una mera questione di celolunghismo, andando al contempo a eliminare la possibilità di overclock a chi ne è interessato, in quanto le frequenze sono già tirate all'inverosimile.
Quasi certamente avremo un miglioramento di efficienza rispetto alla generazione precedente, ma sarà per dire un +10%, a fronte di un +30% che magari avresti stando nell'ottimo della curva efficienza-frequenza.
Bello il paragone Panda e Aston Martin, se non fosse che 500-700€ per una CPU/GPU può spenderli quasi chiunque (se volesse), 200.000€ o più per un'Aston Martin no, di conseguenza di gente che "va a far la spesa con l'Aston Martin" nel mondo della tecnologia ne trovi tanti, direi qualche ordine di grandezza in più di quelli che vanno effettivamente a far la spesa con un'Aston, quindi un po' più di sensibilità su questo argomento da parte dei produttori di hardware non sarebbe male.
|
Quale parte di "se non la sfrutti, consuma come un'altra CPU meno costosa e meno esigente" non hai capito?
Questa e le altre CPU top consumano molto se sfruttate, se la compri e poi la usi per andare in internet, consuma come un i3