View Full Version : News sui possibili consumi di Nvidia G70...
Le trovate QUI (http://www.theinquirer.net/?article=22917)
la vedo una cosa plausibile dato che la stessa cosa è stata fatta lo scorso anno con 6800u
zerothehero
29-04-2005, 20:52
225 watt di consumo è una cosa fuori dal mondo, non ci credo.
non è che se hai 2 connettori pc-e da 75 w + la corrente da 75 watt che eroga lo slot pc-e hai consumi da 225watt..
altrimenti con lo stessa logica sciocca una 6200TC PC-e consuma 75 watt..
KenMasters
29-04-2005, 20:55
mhuauha se dovesse essere davvero così per farla funzionare ti devi collegare direttamente alla centrale elettrica più vicina. :D
peppos83
29-04-2005, 21:01
mhuauha se dovesse essere davvero così per farla funzionare ti devi collegare direttamente alla centrale elettrica più vicina. :D
Se fosse veramente così nVidia farebbe una brutta fine :rolleyes:
KenMasters
29-04-2005, 22:47
Se fosse veramente così nVidia farebbe una brutta fine :rolleyes:
guardando la differenza di consumo che c'e tra una x850xt e una 6800 ultra direi che nvidia sta prendendo la strada giusta per essere :fuck:
peppos83
29-04-2005, 23:08
guardando la differenza di consumo che c'e tra una x850xt e una 6800 ultra direi che nvidia sta prendendo la strada giusta per essere :fuck:
Quoto :D
Dragon2002
29-04-2005, 23:41
Secondo me nn ha molta importanza quanto consumi,tanto tutti coloro che comprano una scheda video da 500euro e oltra appena uscita, hanno sotto un enermak da minimo 480watt,quindi nn c'è problema.
peppos83
29-04-2005, 23:51
Secondo me nn ha molta importanza quanto consumi,tanto tutti coloro che comprano una scheda video da 500euro e oltra appena uscita, hanno sotto un enermak da minimo 480watt,quindi nn c'è problema.
Quoto anke te :D
Athlon 64 3000+
30-04-2005, 10:47
panzanata assurda.
Userà un solo conettore PCI-ex e di certo starà parecchio sotto i 200 W di consumo.
rendetevi conto che state blaterando su una "notizia" di the inquirer
lo stesso che dice che r520 sarà l'nv30 di ati
http://www.theinquirer.net/?article=22882
ATI, meanwhile, is debating timescales. We've heard various rumours about the card - it might be 32 pipes, they might only be half-pipes, only half of them might be enabled, la la la. One source suggested to us that the delay on R520 was because 'It is going to be their NV30, and they know it.' Whilst we can't comment on performance, we do know that it has been pushed back at least until Computex, although samples may be hitting the press before then - you may find that reviewers have cards in their hands in late May, and then you can start to expect the leaks.
Secondo me nn ha molta importanza quanto consumi,tanto tutti coloro che comprano una scheda video da 500euro e oltra appena uscita, hanno sotto un enermak da minimo 480watt,quindi nn c'è problema.
questo è vero, ma 225w sarebbero cmq uno sproposito. :O
zerothehero
30-04-2005, 12:07
La x800xt consuma 10watt in meno rispetto alla 6800ultra, non c'è un abisso.
http://www.xbitlabs.com/images/video/ati-vs-nv-power/ati_vs_nvidia.gif
225watt è impossibile da dissipare ad aria..
Non so se avete capito il ragionamento di quei fresconi di the inquirer:
hanno detto che g70 userà due connettori molex in grado di erogare 75 watt l'uno + il connettore pc-e che eroga 75 watt..quindi secondo loro 75*3 =225WATT....
Che geni...allora anche una 6200tc consuma 75 watt... :sofico:
quindi è una minchiata di livello estremo questa notizia..
guardando la differenza di consumo che c'e tra una x850xt e una 6800 ultra direi che nvidia sta prendendo la strada giusta per essere :fuck:
ce la fai vedere sta enorme differenza?
perchè per parlare a vanvera sono capaci tutti :rolleyes:
nonikname
30-04-2005, 15:20
la vedo una cosa plausibile dato che la stessa cosa è stata fatta lo scorso anno con 6800u
Ricordo a tutti che dissipare 225W , ad ARIA , è praticamente impossibile sulla superfice di una scheda video , anche delle dimensioni di una 6800ultra x Apple...
Ora , a meno che nVIDIA non abbia trovato il sistema di montare un circuito di raffreddamento ad acqua direttamente on-board , credere alle "trovate" di The Inq. è una cosa abbastanza alternativa... ;)
La notizia potrebbe avere un'altra chiave di lettura : Fra poco meno di un anno si passerà al PCI-E2 con 32 (o 24 , non ricordo) linee di collegamento fra GPU-CPU-RAM... e si sta ancora discutendo sulle specifiche di potenza del futuro connettore; Avere 150W invece che 75W direttamente dalla mobo sarebbe un buon compromesso per quasi tutte le VGA , che così non avrebbero più bisogno del molex aggiuntivo nemmeno per i modelli High-end....
Magari , la richiesta di nVIDIA al PCI-SIG , potrebbe essere legata a questo tipo di problematiche..
Come al solito , Fuad Abazovic (aka Fudo) , ha preso fischi per fiaschi .... ciò non toglie che qualche volta riesce nell intento di azzeccare da un rumors una possibile verità... (stesse probabilità di fare ambo su una ruota ;) )
zerothehero
01-05-2005, 14:34
La notizia potrebbe avere un'altra chiave di lettura : Fra poco meno di un anno si passerà al PCI-E2 con 32 (o 24 , non ricordo) linee di collegamento fra GPU-CPU-RAM... e si sta ancora discutendo sulle specifiche di potenza del futuro connettore; Avere 150W invece che 75W direttamente dalla mobo sarebbe un buon compromesso per quasi tutte le VGA , che così non avrebbero più bisogno del molex aggiuntivo nemmeno per i modelli High-end....
Magari , la richiesta di nVIDIA al PCI-SIG , potrebbe essere legata a questo tipo di problematiche..
Ma non è meglio usare il molex anzichè aumentare i wattaggi sulla scheda madre?..io eviterei di far correre 150 watt sulla motherboard.. :eek:
Se fosse veramente così nVidia farebbe una brutta fine :rolleyes:
La stessa cosa si diceva della 6800 Ultra che necessita di due molex, e invece nvidia mi sembra che sia andata moolto bene con le 6800 ;)
Ricordo a tutti che dissipare 225W , ad ARIA , è praticamente impossibile sulla superfice di una scheda video , anche delle dimensioni di una 6800ultra x Apple...
Ora , a meno che nVIDIA non abbia trovato il sistema di montare un circuito di raffreddamento ad acqua direttamente on-board , credere alle "trovate" di The Inq. è una cosa abbastanza alternativa... ;)
La notizia potrebbe avere un'altra chiave di lettura : Fra poco meno di un anno si passerà al PCI-E2 con 32 (o 24 , non ricordo) linee di collegamento fra GPU-CPU-RAM... e si sta ancora discutendo sulle specifiche di potenza del futuro connettore; Avere 150W invece che 75W direttamente dalla mobo sarebbe un buon compromesso per quasi tutte le VGA , che così non avrebbero più bisogno del molex aggiuntivo nemmeno per i modelli High-end....
Magari , la richiesta di nVIDIA al PCI-SIG , potrebbe essere legata a questo tipo di problematiche..
Come al solito , Fuad Abazovic (aka Fudo) , ha preso fischi per fiaschi .... ciò non toglie che qualche volta riesce nell intento di azzeccare da un rumors una possibile verità... (stesse probabilità di fare ambo su una ruota ;) )
quoto
Secondo me nn ha molta importanza quanto consumi,tanto tutti coloro che comprano una scheda video da 500euro e oltra appena uscita, hanno sotto un enermak da minimo 480watt,quindi nn c'è problema.
è vero anche questo....
da un anno a questa parte la maggior parte dei pc high end monta ThermalTake, Enermax o OCZ da almeno 460W.
Ciao ;)
Ma non è meglio usare il molex anzichè aumentare i wattaggi sulla scheda madre?..io eviterei di far correre 150 watt sulla motherboard.. :eek:
i watt non corrono casomai ampere ma già ce ne corrono per la cpu quindi non vedo il problema
3 volte tanto le gpu attuali :sofico: :rotfl:
Scusate ma quando leggo certe sparate di grande Inq mi viene solo da ridere :doh:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.