View Full Version : dubbio watt futuri gpu
frankie77
06-02-2009, 18:06
salve
ho un dubbio che riguarda le schede video future
adesso ho come alimentatore un corsair da 550w
stando all'andamento delle gpu mi viene da pensare ma continuando su questo andamento le schede video future avranno bisogno di super alimentatori o le case produttrice cercheranno di dimuire il consumo delle gpu?
non so se sono riuscito a farmi capire
Imho, credo che alle case costruttrici interessi ben poco il consumo ma che invece interessi moltissimo la potenza che possono ricavare dalle loro GPU che rimane l'unico motivo per cui vengono acquistate. Ovviamente continueranno a scendere nei processi produttivi ma nello spazio recuperato impileranno altri transistors per cui il consumo globale rimarrà grosso modo uguale. E dato che siamo già in una epoca di maxi alimentatori ad un prezzo tutto sommato abbordabile il problema non si pone. Se e quando si passerà ad un materiale diverso dal silicio probabile che ci sarà un cambiamento nel campo dei consumi.
Imho, credo che alle case costruttrici interessi ben poco il consumo ma che invece interessi moltissimo la potenza che possono ricavare dalle loro GPU che rimane l'unico motivo per cui vengono acquistate. Ovviamente continueranno a scendere nei processi produttivi ma nello spazio recuperato impileranno altri transistors per cui il consumo globale rimarrà grosso modo uguale. E dato che siamo già in una epoca di maxi alimentatori ad un prezzo tutto sommato abbordabile il problema non si pone. Se e quando si passerà ad un materiale diverso dal silicio probabile che ci sarà un cambiamento nel campo dei consumi.
neretto
g.luca86x
09-02-2009, 13:05
l'aumento dei consumi cala con la riduzione dello step di processo della litografia. Basta pensare che un quad a 45 nm consuma molto meno di uno a 65 nm, idem per le schede video (pensate a nvidia col passaggio a 55 nm). Quello che incide parecchio invece sono le frequenze!
Mercuri0
09-02-2009, 16:17
salve
ho un dubbio che riguarda le schede video future
adesso ho come alimentatore un corsair da 550w
stando all'andamento delle gpu mi viene da pensare ma continuando su questo andamento le schede video future avranno bisogno di super alimentatori o le case produttrice cercheranno di dimuire il consumo delle gpu?
non so se sono riuscito a farmi capire
I consumi delle GPU si traducono direttamente nelle dimensioni e nel costo dei dissipatori.
Mi sembra siano già belli grandi e costosi, ma non so fin dove possiamo ancora spingerci. ^^''
Di sicuro le case produttrici faranno sempre GPU per tutte le tasche (che come avrai capito equivale a dire "per tutti i consumi").
Imho, credo che alle case costruttrici interessi ben poco il consumo ma che invece interessi moltissimo la potenza che possono ricavare dalle loro GPU che rimane l'unico motivo per cui vengono acquistate.
E dato che siamo già in una epoca di maxi alimentatori ad un prezzo tutto sommato abbordabile il problema non si pone.
Come hai accennato, ai produttori interessa quello che gli utenti vogliono comprare, ma il problema dei consumi si pone eccome!
Tutto quello che un chip consuma finisce in calore, che deve essere dissipato per evitare che il chip fonda. Più calore bisogna dissipare, più il dissipatore deve essere grosso e costoso, e il sistema di alimentazione sulla scheda robusto e costoso.
Sui portatili, che ormai sono il 50% del mercato ed oltre, quanto ho scritto sopra diventa drammaticamente: la scatola di un portatile da tot pollici può dissipare massimo 30W per la GPU facendo tot rumore, perciò la GPU migliore è quella più veloce che entra in 30W.
Puoi ben capire che AMD & nVidia si stanno smazzando moltissimo sull'efficienza. :D
Che tra l'altro conta tantissimo anche per i PC desktop mainstream. AMD si sta dannando per cercare di far entrare la prossima 4770, o come si chiamerà, nei 60W che non richiederebbero il connettore dedicato. (ma non è detto ci riesca, a sentir gli ultimi rumor)
Coi consumi non si può andare avanti ad libitum, altrimenti si esce dalle fasce di prezzo e dimensioni che gli utenti sarebbero disposti ad accettare. Anche se gli enthusiast sembrano non avere limiti per le schedozze di fascia Ultra.
Mercuri0
09-02-2009, 16:24
l'aumento dei consumi cala con la riduzione dello step di processo della litografia. Basta pensare che un quad a 45 nm consuma molto meno di uno a 65 nm, idem per le schede video (pensate a nvidia col passaggio a 55 nm). Quello che incide parecchio invece sono le frequenze!
Purtroppo, da qualche anno, ed andrà sempre peggio, un passaggio di nodo da sempre più spazio per aggiungere transistor (come al solito) ma non migliora l'efficienza dei consumi in proporzione!
Secondo te perché si è passati alle CPU multicore? ;)
Lo spazio per i transistor non ci manca (vai di quad core!) ma appena provi ad alzare le frequenze (= consumi), BUM!
Ormai siamo al punto che per sapere quanto inciderà sulle prestazioni un nuovo processo produttivo, basta vedere quanto incide sui consumi.
Esempio molto semplificativo: il processo a 40nm di TSMC migliora i consumi del 10%? Allora ci possiamo aspettare che i produttori faranno GPU con gli stessi consumi di quelle di oggi, ma il 10% più veloci.
Altra nota: se il processo produttivo migliora la temperatura massima che il chip può sopportare, allora il produttore può scegliere di tenere la temperatura più alta sulla GPU e fare il dissipatore più piccolo, economico e meno rumoroso. Per esempio è stato il caso della serie 48xx. In particolare la 4850 reference ha un dissi più piccolo della 3870 pur consumando forse qualcosa in più, ma il chip lavora a temperature più alte (visto che sopporterebbe 105° senza alcun problema)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.