View Full Version : NVIDIA GT300, un TDP di 225 Watt
Redazione di Hardware Upg
09-06-2009, 15:47
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-gt300-un-tdp-di-225-watt_29247.html
Continuano ad emergere nuovi dettagli circa la GPU di prossima generazione sviluppata da NVIDIA, attesa per gli ultimi mesi dell'anno
Click sul link per visualizzare la notizia.
da quello che ho sentito i connettori di alimentazione dovrebbero essere 2 da 6.
Obi 2 Kenobi
09-06-2009, 15:57
mamma mia :doh: Meno male che la prossima scheda video che prenderò sarà ati :oink:
Caspita, 2 da 6? :eek:
Mi toccherà cambiare alimentatore. :rolleyes:
Mister Tarpone
09-06-2009, 16:10
Caspita, 2 da 6? :eek:
Mi toccherà cambiare alimentatore. :rolleyes:
io fortunatamente non lo dovrò cambiare. il mio ali la regge :ciapet:
Adesso sono 1 da 8 e 1 da 6, meglio no?
gaglia_1988
09-06-2009, 16:13
Il TDP della 285 GTX è di 185W. La 280 GTX aveva 236W
guardate che in genere i 6-pin sono più popolari, voglio dire è più facile che un vecchio ali abbia 2 6-pin che non un 8 e un 6 ;)
Le Nvidia saranno dei fornelli ma le ATI sono sono da meno, la HD 4870 X2 consuma 268W
considerando che è una GPU mi pare un buon risultato un TDP di 225 watt..
E' impressionante, come le notizie "gossippare" facciano il giro sulla rete :D
Questa indiscrezione nasce su Hardware.info, che scrive che la GT300 POTREBBE avere solo 2 connettori da 6 pin, che non significa che il TDP è 225W, ma che MASSIMO si può arrivare a quel valore.
Ma il TDP non è il consumo effettivo.
Poi la news la riprende Theo Valich di Bright Side of News (per chi non lo conoscesse, ha il livello di affidabilità di Fuad Abazovic di Fudzilla e Charlie Demerjian che è stato "defenestrato" da The Inquirer e adesso ha un nuovo sito che manco voglio conoscere :-).
sarà interessante vedere come si comporteranno queste schede rispetto a quelle attuali, visto che adesso, oltre la GPU nuova, ci saranno anche le ddr5.
secondo voci dovrebbe consumare più della GTX285 e meno della GTX280, il che mi sembra buono per una soluzione top (ovviamente soluzioni dual GPU escluse), quindi non sarà necessario cambiare ali.
halduemilauno
09-06-2009, 16:41
E' impressionante, come le notizie "gossippare" facciano il giro sulla rete :D
Questa indiscrezione nasce su Hardware.info, che scrive che la GT300 POTREBBE avere solo 2 connettori da 6 pin, che non significa che il TDP è 225W, ma che MASSIMO si può arrivare a quel valore.
Ma il TDP non è il consumo effettivo.
Poi la news la riprende Theo Valich di Bright Side of News (per chi non lo conoscesse, ha il livello di affidabilità di Fuad Abazovic di Fudzilla e Charlie Demerjian che è stato "defenestrato" da The Inquirer e adesso ha un nuovo sito che manco voglio conoscere :-).
mi permetto di dissentire quanto da te detto su Theo Valich in paragone agli altri due specie il secondo. chiaramente Valich è ben superiore.
sul resto nulla da obbiettare. il fatto che essa sarà 6+6 invece di 6+8 fa ben sperare.
;)
Stech1987
09-06-2009, 16:45
Non vedo l'ora... :sbav:
Chissà se riusciranno a lanciare GT300 in concomitanza con le Ati a fine settembre o si dovrà attendere più tempo.... Speriamo proprio di no... prima escono tutte le schede e prima si scannano sui prezzi! :D
mi permetto di dissentire quanto da te detto su Theo Valich in paragone agli altri due specie il secondo. chiaramente Valich è ben superiore.
sul resto nulla da obbiettare. il fatto che essa sarà 6+6 invece di 6+8 fa ben sperare.
;)
Theo ha la pessima abitudine, come Charlie (che odia Nvidia in modo direi patologico), di far passare notizie di altri come proprie, ma soprattutto, le infarcisce di tanta "roba di contorno" frutto della sua fantasia, giusto per scrivere ogni tanto qualcosa ed il pane a casa bisogna portarlo :)
Ed infatti, ha fatto esattamente questo con la "news" di Hardware.info.
In ultimo, leggiti le "sue" indiscrezioni su Skulltrail 2 e fatti un paio di risate.
Sono i soliti "noti" da anni ormai, poi vabbè, se uno ha voglia di leggersi qualcosa...
Visionary di Vr-zone ed Hkepc hanno dimostrato più volte e con largo anticipo, che il loro "kung fu" e di ben altro livello :D
Ad esempio... io credo che GTX380 andrà un 30% medio in + di GTX295 consumando un monte in meno (se i dati di sopra si dimostreranno veritieri).
Appena un 30%? io spero in un 50% minimo...
Vabbè che per far girare le conversioni da xbox basta anche una 8800gt :asd:
Portocala
09-06-2009, 17:36
Quanto costera' un GT300? 450-500 euro?
Volevo cambiare scheda video adesso e puntare su una Gtx275 a 200 euro. Vale la pena?
Kharonte85
09-06-2009, 18:00
Tutto dipende dalle prestazioni....
ministro
09-06-2009, 18:16
Anche la 8800GTX ne aveva 2 da 6.. che c'è di tanto strano?
Opteranium
09-06-2009, 18:18
non dava di suo 300W?
g.luca86x
09-06-2009, 18:19
considerando che le gddr5 viaggeranno a 4400MHz stando alle indiscrezioni con bus a 512bit quella gpu sarà mostruosa per necessitare di 281GB/s di banda passante. Poi il tdp di 225W, da prendere con le molle, è comunque riferito alla sola gpu o a tutta la scheda? Perchè altrimenti inutile fare confronti con i consumi delle attuali schede! Bisogna aggiungere tutti gli agltri consumi alla gpu e vediamo quanto è...
Inoltre se amd con un chip piccolo come quello della 4770 non riesce ad avere rese decenti a 40nm ormai da un mese, NVidia pensa di svegliarsi a Natale per avviare la produzione dei chip a 40nm? Produrre un chippone come quello con un processo a basse rese sarà un'ecatombe! Quanti saranno i superstiti del wafer intero?
cagnaluia
09-06-2009, 19:15
che cesso... 225W :mad:
Kurtferro
09-06-2009, 19:38
Ancora si deve vedere se le dx11 sarnno un passo in avanti o un bel nulla come le dx10, se le nuove schede anche se ben piu potenti delle attuali a singola GPU non arrancheranno con i giochi a dx11, finche non si puo valutare le prestazioni è inutile pensare ai consumi perchè è il rapporto consumi prestazioni che incide veramente, questa è la versione di punta, usciranno quelle piu economiche con TDP inferiori ovviamente, poi si sà che conviene attendere l'uscita delle seconde versioni con processo produttivo più avanzato, se ci si arriverà ai 32nm o quello che sarà.
Obi 2 Kenobi
09-06-2009, 19:53
che cesso... 225W :mad:
quoto straquoto e Ristraquoto.
Che cesso!
guarda che il tuo ali li ha 2 connettori gpu da 6 pin e 2 connettori 8 pin... :asd:
li ho ora davanti a me... :p
Quanto alla news... 225 W di TDP mi sembra un ottima notizia, considerando che la GTX280 ha 236W di TDP.
Chi si lamenta di ciò... dovrebbe iniziare a valutare l'idea di darsi all'ippica piuttosto che al mondo dei pc.
Ad esempio... io credo che GTX380 andrà un 30% medio in + di GTX295 consumando un monte in meno (se i dati di sopra si dimostreranno veritieri).
Quanto ai connettori... considerate che esistono gli adattatori molex... e che già una GTX260 richiede 2 cavi da 6-pin... quindi nulla di così inaccessibile.
Anche la 8800GTX ne aveva 2 da 6.. che c'è di tanto strano?
Che scemo scusate, ho letto 6 e pensavo a quelli da 8, nella mia mente si era configurata la scheda con 2 attacchi da 8, mi sono completamente confuso, che bischero. :stordita:
Effettivamente la GTX280 che ho ora ne ha uno da 6 e uno da 8, quindi ben venga 2 da 6. :D
Io comunque ne ho uno solo di cavo da 8 con il mio alimentatore.
Caleb The Game
09-06-2009, 21:04
sono indeciso: vendere la 295 e buttarmi sulle gt300 nuove o temporeggiare? Penso opterò per la seconda...
Sul fronte connettori per fortuna c'è san corsair...
.:Sephiroth:.
09-06-2009, 21:13
sono indeciso: vendere la 295 e buttarmi sulle gt300 nuove o temporeggiare? Penso opterò per la seconda...
Sul fronte connettori per fortuna c'è san corsair...
io con quella gpu ci rimarrei ancora un pò :D
cmq attendo con ansia queste gpu nvidia, forse sarà il momento di cambiare la mia validissima 8800GT :)
masty_<3
09-06-2009, 21:13
temporeggia temporeggia che te con quella cosa tiri avanti 1 bel pò!
comunque benvengano, e spero si abbassino i prezzi delle vecchie ^^
marchigiano
09-06-2009, 21:30
io fortunatamente non lo dovrò cambiare. il mio ali la regge :ciapet:
si ma solo la scheda, il resto? ;) ;)
Ad esempio... io credo che GTX380 andrà un 30% medio in + di GTX295 consumando un monte in meno (se i dati di sopra si dimostreranno veritieri).
:eek: magari!!!!! quando dici di media intendi una media tra i giochi ottimizzati per le 2 gpu della 295 e quelli non?
sono indeciso: vendere la 295 e buttarmi sulle gt300 nuove o temporeggiare? Penso opterò per la seconda...
ma no vendi vendi... che figura ci fai a rimanere con quella scheda preistorica ;)
Caleb The Game
09-06-2009, 21:49
più che altro il discorso è che se scelgo di tenermi la mia (finora non sfruttatissima) e magari di cambiare solo dopo almeno un'altro salto (gt400 o 500) me la scordo una top di gamma (la gt 295 l'ho vinta a un concorso, mica li avevo 500€ per una scheda video!!). Invece se rivendo prima che vada troppo giù potrei prendermi la sorella maggiore ( ipotetica gtx 395) con uno sforzo economico inferiore... sperando che adesso non cambino dX ogni anno!! :D
Cooperdale
09-06-2009, 21:57
Io appena esce metto su ebay la 4870x2 e mi compro questa.
io fortunatamente non lo dovrò cambiare. il mio ali la regge :ciapet:
"ali da 350Watt"?? :asd:
Mister Tarpone
09-06-2009, 22:22
e Charlie Demerjian che è stato "defenestrato" da The Inquirer e adesso ha un nuovo sito che manco voglio conoscere :-).
azz.... :eek:
Mister Tarpone
09-06-2009, 22:24
"ali da 350Watt"?? :asd:
ma io?
...ho un corsair TX750 :sborone: ciao :sborone: :sborone:
ma io?
...ho un corsair TX750 :sborone: ciao :sborone: :sborone:
ciao:O :ciapet: sicuramente non me la prenderò 225watt di tdp spenderei più per raffreddarla che per usarla :D
Mister Tarpone
09-06-2009, 22:31
guarda che le gpu sono vendute già munite di dissipatore funzionante e pefettamente in grado di garantire adeguato funzionamento.
:sbonk: quoto :asd:
guarda che le gpu sono vendute già munite di dissipatore funzionante e pefettamente in grado di garantire adeguato funzionamento.
Se poi non ti soddisfa... lo cambi e giustamente spendi.
come la 4870 lavora a 90°C fissi :D
Mister Tarpone
09-06-2009, 22:36
come la 4870 lavora a 90°C fissi :D
azz..
azz..
basta guradara qualche rece sia le 4850 che le 4870 superano alcune volte i 90° senza nessun problema di sorta perchè sono state progettate cosi
Bene... hanno fatto modelli con dissipatori differenti da quello reference. Costano di +... ma ritorniamo a quanto detto prima...
se vuoi le temp. + basse paghi, così come se vuoi l'oc di fabbrica etc... è un circolo vizioso. ;)
:)
tu scommetto che manco sai cos'è il TDP... :asd:
;)
e si 225w è solo il TPD in realta consumera solo 10w:asd:
Mister Tarpone
09-06-2009, 22:51
basta guradara qualche rece sia le 4850 che le 4870 superano alcune volte i 90° senza nessun problema di sorta perchè sono state progettate cosi
ho una 4850 e quando si avvicina ai 90 lo schermo inizia a riempirsi di artefatti
Fabrix7777
09-06-2009, 22:56
come la 4870 lavora a 90°C fissi
:D:rolleyes:
Si se lasci andare la ventola al 0,5%, perche' se gia' la metti al 30-35% a me ne fa almeno 20 di meno. E cmq mi sembra che possa anche reggere tranquillamente anche i 90 senza fondere o perdere colpi. La mia ce l'ho da 8 mesi e tra vari giochi e f@h la sto stressando come si deve senza mai aver avuto problemi e senza mai dover alzare la ventola a piu' del 38%.
Quanto appena detto, dimostra che anche te non sai cos'è il TDP.
Bello voler mettere bocca dove non si hanno le competenze :D
meno male che ultimamente il forum si è riempito di sapientoni cosi impariamo qualcosa!:D
bLaCkMeTaL
09-06-2009, 23:07
comunque, che siano 225, 200 o anche 150 per una scheda video, direi che proprio non ci siamo: ogni cosa che sciupa più di una lampadina da 100W, per me è "costosa".
Quand'è che si ottimizzeranno un po i consumi, per poter giocare e lavorare con lo stesso pc senza sacrifici?!
La tentazione di valutare un portatile per lavorare ed un fisso con windows solo per giocare è forte, ma a questo punto, se servisse solo per giocare, sarebbe più che sprecato!
Fabrix7777
09-06-2009, 23:15
Bhe' ma ci sara' un minimo di relazione tra calore che deve dissipare e potenza che assorbe, no? chiedo perche' non ho molto chiaro il concetto neanch'io.
intanto... l'acquisto di un dizionario non rappresenterebbe uno spreco... :asd:
Utilizzare un pc da gaming per navigare e lamentarsi che si stanno consumando 50W in + di quanto si consumerebbe con un Centrino 2 è puro anacronismo. ;)
mai parole furono piu sante!:D
Obi 2 Kenobi
10-06-2009, 00:13
Detto da uno con una 9600gt... non mi meraviglio :asd:
Bhe? :mbe: Che c'è di strano? :mbe: La 9600GT è ancora una gran scheda nonostante l'età. Riesco a far girare gears of war al massimo del dettaglio a 1680x1050 senza mai avere scatti. ;)
Se vi piace comprare le schedone che consumano quanto un trattore, per poi pagare bollette stratosferiche all'enel, non è di certo colpa mia.
Con i giochi che ci sono ora basta e avanza una ati 4850 che tra l'altro consuma soltanto un 20-30watt in più rispetto alla mia.
Queste schede sono destinate solo a gruppi di nicchia.
Insomma nvidia è in mare aperto mentre ati è sulla terra ferma.
E per la cronaca io sono un fan di nvidia.
scusate ragazzi ma
-ai gamer watt e prezzi di questa scheda vanno bene, e la attendono per le sue prestazioni.
- a molti altri NO , pure che siano gamer che per svariati motivi non prendono le schede top.
per questo l'offerta del mercato è segmentata. qual'è la novità?
Severnaya
10-06-2009, 00:52
il mercato nn lo hanno fatto certo con le 260\275\280\285\295 o ati con 4850\4870\4890 e le varie x2
ma con la fascia media che voglio dire, consuma molto meno
se poi ci aggiungiamo i processori nn credo che ci siano case pieni di i7\Q85XX\PII 955
ho una 4850 e quando si avvicina ai 90 lo schermo inizia a riempirsi di artefatti
:rolleyes:
Si se lasci andare la ventola al 0,5%, perche' se gia' la metti al 30-35% a me ne fa almeno 20 di meno. E cmq mi sembra che possa anche reggere tranquillamente anche i 90 senza fondere o perdere colpi. La mia ce l'ho da 8 mesi e tra vari giochi e f@h la sto stressando come si deve senza mai aver avuto problemi e senza mai dover alzare la ventola a piu' del 38%.
http://www.tomshw.it/graphic.php?guide=20080704&page=radeon-hd-4870-14
http://www.tomshw.it/guides/hardware/graphic/20080704/images/temp.png
non sono fissi però ci arriva :fagiano: si parla di temperature con ventola al 30% e quindi in idle
imperatore_bismark
10-06-2009, 06:50
Ottimo! sperando che finalmente oltre alla potenza pensino un po anche alla corrente ke si spreca! Questa nuova generazione di schede ha l'opportunità di innovare veramente tanto sia da parte di ATI ke da parte di Nvidia
cagnaluia
10-06-2009, 07:24
tu scommetto che manco sai cos'è il TDP... :asd:
corri a leggere su wikipedia, dai. ;)
eccomi qua...
...Il Thermal Design Power (TDP) (chiamato anche Thermal Design Point) rappresenta un'indicazione del calore (energia) generato da un processore, che è anche la massima potenza che il sistema di raffeddamento deve dissipare. La sua unità di misura è il Watt....
...un INDICAZIONE del calore (energia) generato da un processore...
Bene.. sapientino... e adesso?
Vorresti convincermi che non centra con il consumo reale della scheda, bensì con la presunta tollerenza massima? :D
...chissà se di potranno metere in SLI una gtx 280 e una 380?
masty_<3
10-06-2009, 07:34
si certo mettiamo in sli una 9800 con una 6800 agp e magari un 3way sli aggiungendoci pure una HD4670.
Maddai LOL
g.luca86x
10-06-2009, 07:37
...chissà se di potranno metere in SLI una gtx 280 e una 380?
non hai fatto colazione stamattina? :asd:
Io aspetto la Asus Mars 395: 2 x 385:sofico:
Ma in SLI!:eek:
cagnaluia
10-06-2009, 09:30
:D :D Ma LoL
Il TDP non è ne' una misura del consumo ne' una misura del calore prodotto. Ti dice soltanto: "Se usi un dissipatore in grado di smaltire il calore che ti indico nel TDP, stai sicuro al 100% che la gpu non si brucia". Che significa che il calore generato da quella particolare gpu in caso di massimo stress riproducibile è minore a quello indicato nel TDP. Ma non ti dice di quanto è minore... ad esempio una cpu con TDP indicato di 125W potrebbe generare 120W di calore, oppure 70W.
Tu continua a leggere wikipedia. ;)
appunto!
stiamo dicendo due verità.
Ciò mi da un indice. La scheda, vista la qualità del TPD a dissipare FINO a 225Watt, andrà a consumare un valore molto vicino a quel numero e non molto lontanto. No?
Se la scheda ha TPD di 225Watt, pensi consumerà a picco 10/50Watt oppure 150/200Watt ??
Che senso avrebbe un TPD di 225Watt se poi l'accrocchio ne consuma max 50? niente.
leoneazzurro
10-06-2009, 09:33
che cesso... 225W :mad:
quoto straquoto e Ristraquoto.
Che cesso!
Magari evitare queste uscite... le schede di fascia alta consumano parecchio, ma non è bello definirle "tazze da bagno": si creano sin troppo facilmente flames. Ammonizione. E la prossima volta non sarò così tenero.
tu scommetto che manco sai cos'è il TDP... :asd:
corri a leggere su wikipedia, dai. ;)
Quanto appena detto, dimostra che anche te non sai cos'è il TDP.
Bello voler mettere bocca dove non si hanno le competenze :D
intanto... l'acquisto di un dizionario non rappresenterebbe uno spreco... :asd:
:D :D Ma LoL
Il TDP non è ne' una misura del consumo ne' una misura del calore prodotto. Ti dice soltanto: "Se usi un dissipatore in grado di smaltire il calore che ti indico nel TDP, stai sicuro al 100% che la gpu non si brucia". Che significa che il calore generato da quella particolare gpu in caso di massimo stress riproducibile è minore a quello indicato nel TDP. Ma non ti dice di quanto è minore... ad esempio una cpu con TDP indicato di 125W potrebbe generare 120W di calore, oppure 70W.
Tu continua a leggere wikipedia. ;)
Infatti lui parla di indicazione, non di misura. Ossia una scheda ha un TDP più elevato perchè tende a dissipare una maggiore potenza sotto carico. Il che, dato che una scheda per gioco si usa per giocare e quindi si tiene spesso per ore sotto carico, indica anche che i consumi energetici saranno tendenzialmente maggiori. Ma a parte ciò, come abbiamo ripetuto più volte, nei forum si deve cercare di discutere con rispetto per l'interlocutore. Le parti che ho evidenziato lasciano invece trasparire la mancanza di questo requisito fondamentale, ragion per cui i post vengono sanzionati con 2 giorni di sospensione.
Ragà non vi capisco proprio che c'è di così trascendentale nel consumo di sta VGA.
Posseggo una Gtx295 con TDP da 289W ma è solo un valore di riferimento perchè in realtà i consumi reali sono ben altri (pù bassi ovvio)
Calcolate che in una sessione di Crysis viaggio sui 300-320W di consumo TOTALE del PC, comprensivo di CPU, Chipset, Ram, HD (che sono 5 nel mio PC), Lettori ottici e 7-8 ventole mentre in IDLE sto sui 150W. Il tutto misurato con un Ampeometro digitale.
Naturalmente esistono software come Furmark 1.4 che stressano a morte i chips grafici per misurarne la stabilità o altri casi molto particolari che tenderanno ad avvicinarsi alla cifra dichiarata da Nvidia, ma è un caso estremo, come comprare una Ferrari ed andare continuamente a 320 all'ora :eek:
Volete risparmiare energia a tutti i costi? Orientatevi sulla fascia media di questa serie quando uscirà.
Volete risparmiare energia intelligentemente ma senza badare a compromessi? Imparate ad usare il V-Synch con la fascia alta e non abbondare in AA con schermi di risoluzione >= 1680 ;)
Non mi è chiara la storia del v-Synch e dell'AA per consumare meno...
Me la spieghi pls?
Obi 2 Kenobi
10-06-2009, 11:30
Ma ho le traveggole o cosa... nvidia è in mare aperto mentre ati è sulla terra ferma... :sbonk:
1) Anche ATI produce schede dal consumo "stratosferico" (come dici te)... vedi 4870X2\4850X2 e tante simpatiche schedine di qualche tempo fa tipo 2900XT, X1900XTX etc.
2) Non mi pare che qui qualcuno si è lamentato dei consumi... esclusi i soliti troll, è normale che chi acquista gpu top andrà incontro a consumi maggiori di chi acquista una 9600GT... ma come spiegato sopra... NON mi pare che qualcuno si sia lamentato. Anzi, guardando le precedenti gpu... questa GTX300 in rapporto ai probabili aumenti di performance... avrà un rapporto prestazioni\consumo migliore di GTX260\280\295 etc. Questo... provando a dare x buoni i rumors che parlano di gpu fantastica etc.
3) Lo so che la 9600GT è una buona scheda... ma che c'azzecca con GTX300?! L'hai detto pure te che è una scheda di nicchia... cosa pretendi che in full consumi due cucchiai di ceci e una manciata di noci?! :asd:
4) E' normale che la 4850 consumi poco + della 9600GT... in fondo sono 2 schede della stessa fascia... cosa c'è di strano? :boh: Ah e comunque... se non te l'hanno detto... GTX260\280 consumano meno di una 4850 in idle e circa 3W in + di una 9600GT... eeeeeh ma vabbè... queste schede cattivone succhiasangue... :sofico:
Evito di risponderti perchè mi hanno ammonito. Ciao
Kurtferro
10-06-2009, 14:07
Il vSync (consiglio con triple buffering attivo) limita i frame e fa consumare di meno se la scheda ha potenzialità tali per superare abbondantemente la frequenza di refresh del monitor, cosa inutile se non per fare i bencmark, anche io ho l'amperometro digitale e faccio molte prove sui consumi, ci sono giochi che al masismo dei dettagli consumano anche 50W in meno di altri e in genere gli stress benc tipo GPU Caps viewer portano la scheda ai suoi veri limiti, facendola surriscaldare e consumare più di quello che si riuscirebbe effettivamente nelle sessioni di gioco.
bLaCkMeTaL
10-06-2009, 16:01
intanto... l'acquisto di un dizionario non rappresenterebbe uno spreco... :asd:
come puoi notare, alle 22.07 ho postato il messaggio, alle 22.13 ho provveduto a modificarlo, indipendentemente dal tuo quote, comunque, grazie per il consiglio sul dizionario, magari la prossima volta lo terrò a mente.
va cmq detto che NON si può avere la botte piena e la moglie ubriaca. Qui si parla di una gpu che sarà per la fascia top performance, ovvero di una gpu per persone che se ne fregano di consumare 10-20-30W in +... visto che probabilmente avranno alimentatori dai 700W a salire, tutti con 60A minimo sui 12V etc.
Per chi vuole risparmiare ci sono Atom, Ion... etc...
Ci sono persone che si identificano nell'essere "gamer", e ci sono persone che non amano essere identificati secondo una precisa "categoria" di mercato; evidentemente atom ed ion non sarebbero in grado di rispondere alle esigenze di tutti, ma di una fascia consumer ben definita, che essenzialmente necessita di internet e basta.
bisogna avere chiaro di cosa si parla quando si preme il tasto "rispondi". Utilizzare un pc da gaming per navigare e lamentarsi che si stanno consumando 50W in + di quanto si consumerebbe con un Centrino 2 è puro anacronismo. ;)
Spero che il mio intento di postare un commento su un forum pubblico rientri nella tua idea di chiarezza.
Detto questo, un pc gaming, per certe persone (me compreso), non serve solo per giocare, ma può rappresentare una valida alternativa ad una (ben più costosa), workstation.
Il voler fare le cose in efficienza mi sembra uno scopo nobile, l'insolenza di consumare di più, anche quando non necessario, è un comportamento molto lontano dal mio modo di essere (seppure considerato "anacronistico"), reputo quindi interessante, da parte dei produttori, l'implementazione di tecniche votate al miglioramento dei consumi (anche relativamente alle schede video di fascia alta).
h4xor 1701
10-06-2009, 18:25
Tra tutte le schede grafiche aggiunte da ATI alla propria gamma era ora che anche Nvidia facesse lo stesso.......comunque non vedo il motivo di passare dalla serie GTX2xx alla serie GTX3xx
Riguardo ai consumi poi, sempre in aumento è... :D
sintopatataelettronica
11-06-2009, 04:10
In effetti è curioso: mentre in quasi tutti i settori c'è una tendenza all'implementazione di soluzioni che portino alla riduzione del consumo energetico, per proci e gpu (esclusa la "pausa" intel 775 e athlon xp/64) siamo in netta controtendenza..
Comunque la trippa è quasi finita.. fra qualche anno esaurito il petrolio e diminuite le altre risorse energetiche (uranio, metano, gas, carbone) nessuno si vanterà più d'avercelo più grosso(*)..
(*)l'alimentatore
non hai fatto colazione stamattina? :asd:
...scusate,ma per chi già possiede una gtx280,si potrebbe utilizzare quest'ultima per la gestione della fisica e una gtx380 per tutto il resto,non mi sembra un idea tanto peregrina.Se poi vi sono problemi di incompatibilità con SLI allora è un altro discorso,basta dirlo senza questa ironia del cavolo...;)
marchigiano
11-06-2009, 12:59
Comunque la trippa è quasi finita.. fra qualche anno esaurito il petrolio e diminuite le altre risorse energetiche (uranio, metano, gas, carbone) nessuno si vanterà più d'avercelo più grosso
si perchè se finisce il petrolio la nostra più grande preoccupazione sarà quanto ci consuma la GPU :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.