View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280
halduemilauno
01-06-2008, 17:57
Ich liebe die GTX 280!
Uber alles.
;)
leoneazzurro
01-06-2008, 21:24
Dal tuo stesso link fa vedere proprio una differenza di circa il 30%
http://img81.imageshack.us/img81/7512/immaginezb2.png
Quello comprende anche gli scenari in cui la 3870x2 utilizza l'AA8x, molti dei quali purtroppo ingiocabili e raramente utilizzati. Io parlo di test a 2560x1600 senza AA, perchè con AA c'è il limite dato dal framebuffer e dalla banda passante.
Hai ragione, mi era parso di capire che bit di bus, numero di rop, e quantità memoria nei G80 e derivati fossero collegati. Forse c'è un inghippo sul differente numero di piedini usati dai chip di GRAM sulle due GTS.
Capit, ma in quegli stessi test il processore più scarso fa 40fps nello scenario in cui e cpu-bound! (alle basse risoluzioni). E la differenza tra tutti gli altri sta in una decina di frame sopra la frequenza di refresh degli LCD. (Penso che la CPU sia magari più critica per gli FPS minimi.)
Il discorso che facevo è che anche se sono sicuro che GTX280 sarà spesso limitata dalla CPU, lo sarà sempre ben oltre i 60fps! Quindi più che processore migliore... semmai comprerei una scheda grafica più economica :D Oppure lo farei nell'attesa di giochi più pesanti.
Infatti di solito si vedono i test a framerate Uber per avere una idea di come andranno i giochi futuri. Il problema è che non è mica facile prevedere come scalano i requisiti di CPU all'aumentare della qualità grafica (perché ad altre ragioni credo poco - o ne avrei motivo?)
Io mi riferisco proprio ai frame rate minimi, perchè quelli mostrati sono i frame rate medi, e non credo che nessuno compri una GTX260/280 per vedere comunque dei cali vistosi in alcuni punti... senza considerare che non è detto che si sia limitati sempre al di sopra dei 60 fps.. in alcuni degli esempi che ti ho linkato il limite è già al di sotto di quel valore
Se leggi 60 FPS, ci saranno punti dove andrai a 100, altri dove magari vai a 30.
L'impatto della CPU dipende dal tipo di motore grafico, ed in futuro chiaramente tessellazione e calcolo della fisica su GPU allevieranno in parte questo carico.
Kharonte85
01-06-2008, 22:39
Quello comprende anche gli scenari in cui la 3870x2 utilizza l'AA8x, molti dei quali purtroppo ingiocabili e raramente utilizzati. Io parlo di test a 2560x1600 senza AA, perchè con AA c'è il limite dato dal framebuffer e dalla banda passante.
Vabbe' ma io parlavo proprio di prestazioni medie in tutti gli scenari a tutte le risoluzioni (o perlomeno i piu' possibili) come spero sia stata calcolato quella slide di nvidia anche se vallo a sapere...:doh: cmq meglio aspettare di avere dati piu' certi per fare paragoni in percentuali...anche se personalmente essenso pessimista di natura penso sempre che i risultati quando ancora non si sanno saranno semplicemente il peggio possibile...:asd: :sofico:
Io mi riferisco proprio ai frame rate minimi, perchè quelli mostrati sono i frame rate medi, e non credo che nessuno compri una GTX260/280 per vedere comunque dei cali vistosi in alcuni punti... senza considerare che non è detto che si sia limitati sempre al di sopra dei 60 fps.. in alcuni degli esempi che ti ho linkato il limite è già al di sotto di quel valore
Se leggi 60 FPS, ci saranno punti dove andrai a 100, altri dove magari vai a 30.
L'impatto della CPU dipende dal tipo di motore grafico, ed in futuro chiaramente tessellazione e calcolo della fisica su GPU allevieranno in parte questo carico.
Io onestamente non mi starei a preoccupare troppo di questo fattore, prima di tutto poiche' penso che chi si prenderà una scheda di una certa fascia di prezzo sarà piu' che munito di CPU caxxuta (ma anche un q6600 con un oc "blando" a 3Ghz credo che andra' + che bene) e poi anche per il fatto che la potenza sara' in eccesso comunque per un bel po' (salvo casi isolati di Crysi :D) la differenza anche considerando i picchi minimi credo che sara' irrilevante...
Ich liebe die GTX 280!
Pure l'Enel.:D
-noxius-
01-06-2008, 23:00
Uber alles.
;)
Ich glaube, Sie alle falsch und zwei, meine ich, wird ein gutes Produkt, aber ehrlich gesagt, wir sollten realistisch sein. Positiv ist zu vermerken ist, dass der neue Entwurf nVIDIA besitzt die gleiche Symbol dessen, was hätte die neue Generation von schweren Wagen von Nazi-Deutschland, D10U und es ist wirklich ein ernsthaftes Startleistung, als wären sie in der Theorie, zu erwarten?
Es könnte sein, aber es scheint klar zu sein, das würden wir uns ziemlich weit von der früheren Prognose im Durchschnitt einen 50% höheren zu einem GX2.
ps: Dieser Übersetzer ist wirklich fantastisch!
Ich glaube, Sie alle falsch und zwei, meine ich, wird ein gutes Produkt, aber ehrlich gesagt, wir sollten realistisch sein. Positiv ist zu vermerken ist, dass der neue Entwurf nVIDIA besitzt die gleiche Symbol dessen, was hätte die neue Generation von schweren Wagen von Nazi-Deutschland, D10U und es ist wirklich ein ernsthaftes Startleistung, als wären sie in der Theorie, zu erwarten?
Es könnte sein, aber es scheint klar zu sein, das würden wir uns ziemlich weit von der früheren Prognose im Durchschnitt einen 50% höheren zu einem GX2.
ps: Dieser Übersetzer ist wirklich fantastisch!
qualcuno potrebbe tradurre che non capisco nulla
qualcuno potrebbe tradurre che non capisco nulla
Nemmeno io capisco nulla....
Traduzione del ...traduttore automatico qui sotto! :D
Credo che tutti e due sbagliato, a mio avviso, un buon prodotto, ma, francamente, dobbiamo essere realistici. Nota positiva è che il nuovo progetto di NVIDIA ha lo stesso simbolo di quella che sarebbe la nuova generazione di veicoli pesanti della Germania nazista, D10U ed è davvero un grave al largo potere, come se fossero, in teoria, di aspettarsi?
Si potrebbe, ma sembra chiaro che ci sarebbe molto lontano dal precedente previsione, in media, una riduzione del 50% superiore ad un GX2.
ps: Questo traduttore è davvero fantastico!
EdiT
La traduz in inglese sembra più sensata.:D
I think you all wrong and two, I think, a good product, but frankly, we should be realistic. Positive note is that the new draft nVIDIA has the same symbol of what would the new generation of heavy vehicles of Nazi Germany, D10U and it is really a serious off power, as if they were in theory to expect?
It could be, but it seems clear that we would be quite far from the earlier forecast on average a 50% higher to a GX2.
ps: This translator is really fantastic!
:D
paolo.guidx
01-06-2008, 23:19
Nemmeno io capisco nulla....
Traduzione del ...traduttore automatico qui sotto! :D
Credo che tutti e due sbagliato, a mio avviso, un buon prodotto, ma, francamente, dobbiamo essere realistici. Nota positiva è che il nuovo progetto di NVIDIA ha lo stesso simbolo di quella che sarebbe la nuova generazione di veicoli pesanti della Germania nazista, D10U ed è davvero un grave al largo potere, come se fossero, in teoria, di aspettarsi?
Si potrebbe, ma sembra chiaro che ci sarebbe molto lontano dal precedente previsione, in media, una riduzione del 50% superiore ad un GX2.
ps: Questo traduttore è davvero fantastico!
:D
Sembra il traduttore della microsoft.... no, quello è più divertente;) :D
Sembra il traduttore della microsoft.... no, quello è più divertente;) :D
qualcosa coincide pero ;)
anche se non è una vera e propria notizia
Kharonte85
01-06-2008, 23:23
Ich glaube, Sie alle falsch und zwei, meine ich, wird ein gutes Produkt, aber ehrlich gesagt, wir sollten realistisch sein. Positiv ist zu vermerken ist, dass der neue Entwurf nVIDIA besitzt die gleiche Symbol dessen, was hätte die neue Generation von schweren Wagen von Nazi-Deutschland, D10U und es ist wirklich ein ernsthaftes Startleistung, als wären sie in der Theorie, zu erwarten?
Es könnte sein, aber es scheint klar zu sein, das würden wir uns ziemlich weit von der früheren Prognose im Durchschnitt einen 50% höheren zu einem GX2.
ps: Dieser Übersetzer ist wirklich fantastisch!
Si' pero' mo basta parlare tetesco...:asd:
leoneazzurro
01-06-2008, 23:59
Credo che vi sbagliate tutti e due, penso che sarà un buon prodotto, anche se detto francamente, bisogna essere realistici. E' positivo rimarcare che il nuovo design di Nvidia porta lo stesso simbolo che aveva l'ultima generazione di carri pesanti della Germania nazista, quindi ci si potrebbe aspettare in teoria la stessa potenza (di fuoco)?
Potrebbe essere, ma ci sembra chiaro che sarà comunque lontano dalle precedenti previsioni che lo davano un 50% in media superiore alla GX2.
Credo che vi sbagliate tutti e due, penso che sarà un buon prodotto, anche se detto francamente, bisogna essere realistici. E' positivo rimarcare che il nuovo design di Nvidia porta lo stesso simbolo che aveva l'ultima generazione di carri pesanti della Germania nazista, quindi ci si potrebbe aspettare in teoria la stessa potenza (di fuoco)?
Potrebbe essere, ma ci sembra chiaro che sarà comunque lontano dalle precedenti previsioni che lo davano un 50% in media superiore alla GX2.
i carri nazisti erano i tiger se non sbaglio, e allora non c' era nulla di più potente in giro ... speriamo che sia lo stesso con gtx280 :asd:
ma anche i panther non scherzavano :asd:
Andrea deluxe
02-06-2008, 00:02
Credo che vi sbagliate tutti e due, penso che sarà un buon prodotto, anche se detto francamente, bisogna essere realistici. E' positivo rimarcare che il nuovo design di Nvidia porta lo stesso simbolo che aveva l'ultima generazione di carri pesanti della Germania nazista, quindi ci si potrebbe aspettare in teoria la stessa potenza (di fuoco)?
Potrebbe essere, ma ci sembra chiaro che sarà comunque lontano dalle precedenti previsioni che lo davano un 50% in media superiore alla GX2.
a do sta il simbolo? :stordita:
Credo che vi sbagliate tutti e due, penso che sarà un buon prodotto, anche se detto francamente, bisogna essere realistici. E' positivo rimarcare che il nuovo design di Nvidia porta lo stesso simbolo che aveva l'ultima generazione di carri pesanti della Germania nazista, quindi ci si potrebbe aspettare in teoria la stessa potenza (di fuoco)?
Potrebbe essere, ma ci sembra chiaro che sarà comunque lontano dalle precedenti previsioni che lo davano un 50% in media superiore alla GX2.
se è vera sta cosa mi sa che in Israele non ne venderanno molte di ste schede video.......
comunque rifar tornare alla mente fatti cosi spiacevoli successi dal 1933 al 1945 mi sebra veramente una caduta di stile in un campo che non c'entra davvero nulla con la storia e politica
se è vera sta cosa mi sa che in Israele non ne venderanno molte di ste schede video.......
si, adesso nvidia si mette a fa i campi di concentramento con quelli di amd ...
Kharonte85
02-06-2008, 00:10
Credo che vi sbagliate tutti e due, penso che sarà un buon prodotto, anche se detto francamente, bisogna essere realistici. E' positivo rimarcare che il nuovo design di Nvidia porta lo stesso simbolo che aveva l'ultima generazione di carri pesanti della Germania nazista, quindi ci si potrebbe aspettare in teoria la stessa potenza (di fuoco)?
Potrebbe essere, ma ci sembra chiaro che sarà comunque lontano dalle precedenti previsioni che lo davano un 50% in media superiore alla GX2.
Un consiglio, metti un disclaimer in cui dichiari che non è il leoneazzurro pensiero... :D
si, adesso nvidia si mette a fa i campi di concentramento con quelli di amd ...
o_O
si, adesso nvidia si mette a fa i campi di concentramento con quelli di amd ...
solo mettendo loghi simboli ecc che rimandano a quel periodo non mi sembra molto bello innanzitutto.....ci saranno persone che boicoteranno nvidia solo per questo, se veramente metteranno il logo, mi auguro di no
leoneazzurro
02-06-2008, 00:18
i carri nazisti erano i tiger se non sbaglio, e allora non c' era nulla di più potente in giro ... speriamo che sia lo stesso con gtx280 :asd:
ma anche i panther non scherzavano :asd:
Il carro tedesco più potente della seconda guerra mondiale era il Tiger II o King Tiger, un carro da quasi 70 tonnellate e cannone a canna lunga da 88mm che per l'epoca era un risultato eccezionale. Ne furono prodotti 484 esemplari. Però credo che non si riferisca a questi carri con la sigla D10U. In sviluppo c'erano carri ancora più pesanti come il Maus, forse si riferisce a uno di questi
a do sta il simbolo? :stordita:
La sigla, D10U, anche se a me non risultano carri o veicoli con quella sigla :mbe:
leoneazzurro
02-06-2008, 00:19
Un consiglio, metti un disclaimer in cui dichiari che non è il leoneazzurro pensiero... :D
o_O
Ovviamente non lo è ;)
Solo uno poko di mastikamento ti lincua cermanica..
Credo che vi sbagliate tutti e due, penso che sarà un buon prodotto, anche se detto francamente, bisogna essere realistici. E' positivo rimarcare che il nuovo design di Nvidia porta lo stesso simbolo che aveva l'ultima generazione di carri pesanti della Germania nazista, quindi ci si potrebbe aspettare in teoria la stessa potenza (di fuoco)?
Potrebbe essere, ma ci sembra chiaro che sarà comunque lontano dalle precedenti previsioni che lo davano un 50% in media superiore alla GX2.
Sembra che quel 50% si riferisce al best case scenario , ovvero a tutte quelle condizioni in cui il framebuffer della GX2 funge da collo di bottiglia... ..:secondo me è piuù realisto attendersi dalla GTX280 un boost di performance rispetto alla GX2 intorno al 20-30% ; mentre ,sempre IMHO , la GTX260 avrà prestazioni più o meno allineate eccezion fatta per lo scenario citato in precedenza...
halduemilauno
02-06-2008, 08:00
Ich glaube, Sie alle falsch und zwei, meine ich, wird ein gutes Produkt, aber ehrlich gesagt, wir sollten realistisch sein. Positiv ist zu vermerken ist, dass der neue Entwurf nVIDIA besitzt die gleiche Symbol dessen, was hätte die neue Generation von schweren Wagen von Nazi-Deutschland, D10U und es ist wirklich ein ernsthaftes Startleistung, als wären sie in der Theorie, zu erwarten?
Es könnte sein, aber es scheint klar zu sein, das würden wir uns ziemlich weit von der früheren Prognose im Durchschnitt einen 50% höheren zu einem GX2.
ps: Dieser Übersetzer ist wirklich fantastisch!
questa frase da dove esce fuori?
halduemilauno
02-06-2008, 08:38
tabella riassuntiva...
http://www.computerbase.de/news/hardware/grafikkarten/2008/juni/die-plot_nvidia_gt200_ueberblick/
;)
Mercuri0
02-06-2008, 09:18
"Il terzo uomo", Larrabee, sarà presentato al Siggraph! :boxe:
This paper introduces the Larrabee many-core visual computing architecture (a new software rendering pipeline implementation), a many-core programming model, and performance analysis for several applications. Larrabee uses multiple in-order x86 CPU cores that are augmented by a wide vector processor unit, as well as fixed-function co-processors. This provides dramatically higher performance per watt and per unit of area than out-of-order CPUs on highly parallel workloads and greatly increases the flexibility and programmability of the architecture as compared to standard GPUs.
Intel dice: maggior performance/watt rispetto alle CPU nel calcolo parallelo, e maggiore flessibilità rispetto alle GPU.
Ah, adoro il marketinghese! :D
Tradotto: nel calcolo general purpose farà schifo nei confronti delle CPU, e nel giochi le prenderà sonoramente dalle GPU. :asd:
p.s. ma che, sara miha vero che larrabe è fatto da una dozzina di core tipo Atom?
"Il terzo uomo", Larrabee, sarà presentato al Siggraph! :boxe:
Intel dice: maggior performance/watt rispetto alle CPU nel calcolo parallelo, e maggiore flessibilità rispetto alle GPU.
Ah, adoro il marketinghese! :D
Tradotto: nel calcolo general purpose farà schifo nei confronti delle CPU, e nel giochi le prenderà sonoramente dalle GPU. :asd:
p.s. ma che, sara miha vero che larrabe è fatto da una dozzina di core tipo Atom?
ma speriamo proprio di no, se ci fosse un terzo concorrente anche solo nella fascia media non sarebbe che una buona cosa :D
eri te che eri anti-blu vero? :P
Non è strettamente inerente al thread ma visto che le nuove VGA ora come ora serviranno per Crysis più che altro ecco una notizia che può essere positiva o negativa.
http://next.videogame.it/magazine/61792/
Forse ci sono altri motivi oltre l'attuale Crysis per prendere questa nuova VGA. :D
Quote from members at Crytek:
"Actually, support is not shelved, but put on higher priority. Patch 1.3 is not currently here because they're working on something bigger. That's only a good thing for the community in all honesty, even though it's not right here right now already."
Source: Crymod Forums
Non è strettamente inerente al thread ma visto che le nuove VGA ora come ora serviranno per Crysis più che altro ecco una notizia che può essere positiva o negativa.
http://next.videogame.it/magazine/61792/
Forse ci sono altri motivi oltre l'attuale Crysis per prendere questa nuova VGA. :D
Dipende da come vuoi interpretare la situazione, magari hanno deciso di abbandonare completamente Crysis, perché anche con una patch non avrebbero risolto i gravi problemi di ottimizzazione, e scelgono di spostare la loro attenzione verso un nuovo progetto, sperando di non ripetere gli errori fatti con Crysis.
Il carro tedesco più potente della seconda guerra mondiale era il Tiger II o King Tiger, un carro da quasi 70 tonnellate e cannone a canna lunga da 88mm che per l'epoca era un risultato eccezionale. Ne furono prodotti 484 esemplari. Però credo che non si riferisca a questi carri con la sigla D10U. In sviluppo c'erano carri ancora più pesanti come il Maus, forse si riferisce a uno di questi
La sigla, D10U, anche se a me non risultano carri o veicoli con quella sigla :mbe:
panzers 2 mi ha fatto scuola :asd:
in effetti anche a me D10U non richiama nulla riguardante carri armati o anche semplici veicoli di trasporto nazisti ... boh, a me sembra una sparata bell' e grossa ...
;)
Dipende da come vuoi interpretare la situazione, magari hanno deciso di abbandonare completamente Crysis, perché anche con una patch non avrebbero risolto i gravi problemi di ottimizzazione, e scelgono di spostare la loro attenzione verso un nuovo progetto, sperando di non ripetere gli errori fatti con Crysis.
La stessa cosa che penso io, ma hai visto poi la frase che ho quotato quando ho modificato il post?
"Something bigger" non devono certo essere bruscolini. :D
;)
La stessa cosa che penso io, ma hai visto poi la frase che ho quotato quando ho modificato il post?
"Something bigger" non devono certo essere bruscolini. :D
;)
E bhe con crysis di soldi ne hanno persi, o almeno non guadagnati a sufficienza, visto le dichiarazioni che hanno fatto sulla pirateria e le esclusive per pc. :asd:
Enochian
02-06-2008, 10:59
Sembra che quel 50% si riferisce al best case scenario , ovvero a tutte quelle condizioni in cui il framebuffer della GX2 funge da collo di bottiglia... ..:secondo me è piuù realisto attendersi dalla GTX280 un boost di performance rispetto alla GX2 intorno al 20-30% ; mentre ,sempre IMHO , la GTX260 avrà prestazioni più o meno allineate eccezion fatta per lo scenario citato in precedenza...
Ma se forsse così per me delusione... molto meglio prendere la gx2, si trova anche a 380 euro.
Non avrebbe senso spendere 450 euro per la 260 = gx2 oppure 600 per la 280 che andrebbe solo il 20% o 30% in più.
Ma se forsse così per me delusione... molto meglio prendere la gx2, si trova anche a 380 euro.
Non avrebbe senso spendere 450 euro per la 260 = gx2 oppure 600 per la 280 che andrebbe solo il 20% o 30% in più.
Perchè parli di delusione ..?
Sin dall'inizio i rumors davano la GT200 dal 80% al 100% più veloce di G80...e sembra che le cose vadano in questa direzione.. :)
Adesso possiamo speculare se mediamente si tratta di 80% , 90% (escluderei incrementi medi del 100%) ma cmq si tratta di un boost notevole..in quanto alla GX2 penso che non sarà più in produzione...quindi sostituita dalla GTX260.
Enochian
02-06-2008, 11:15
Perchè io non ho g80 e sto aspettando il 16 proprio per scegliere la scheda grafica del mio nuovo pc... mi aspettavo un balzo netto rispetto all'attuale top di gamma di almeno il 50% come si era all'inizio ipotizzato, altrimenti perchè spendere 600 euro per una scheda che va solo il 20% in più di una che costa 380?
SSLazio83
02-06-2008, 11:20
Perchè io non ho g80 e sto aspettando il 16 proprio per scegliere la scheda grafica del mio nuovo pc... mi aspettavo un balzo netto rispetto all'attuale top di gamma di almeno il 50% come si era all'inizio ipotizzato, altrimenti perchè spendere 600 euro per una scheda che va solo il 20% in più di una che costa 380?
esatto,xò calcola la svalutazione della gx2 se verrà tolta dalla produzione..se hai intenzione di rivenderla entro l'anno non conviene prenderla
DriftKing
02-06-2008, 14:38
da quello che ho capito ... se qualcuno vuole farsi un pc nuovo nelle prox settimane ... e nn ha un 24" o+ ... la scelta migliore e la 4870 ...
p.s. e un parere personale ... sia ben chiaro ...
ale0bello0pr
02-06-2008, 14:39
basta parlare di Crysis!!!:muro: :mad:
http://next.videogame.it/magazine/61792/
parliamo di GTX280/260 pls
paolox86
02-06-2008, 15:10
da quello che ho capito ... se qualcuno vuole farsi un pc nuovo nelle prox settimane ... e nn ha un 24" o+ ... la scelta migliore e la 4870 ...
p.s. e un parere personale ... sia ben chiaro ...
Ti quoto, solo per il fatto che tutta la potenza che può esprimere il Gtx 280 è ad oggi inutile a risoluzioni inferiori a 1920
-noxius-
02-06-2008, 15:11
Mea culpa , ho praticamente invertito le sigle, D10x (dove ''x'' è la variante) era la sigla dei carri sovietici aventi appunto il pezzo da 100mm , praticamente quello del SU-100 che è stato montato su diverse varianti e prototipi . In merito invece alla sigla dei nuovi carri tedeschi che avrebbero dovuto sostituire tutta la linea esistente era la serie E-x (solo che ci tengo a precisare che avevo letto su un altro sito appunto che avesse l'acronimo ''D-10'' , forse avranno fatto confusione pure loro oppure semplicemente mi ricordo male io ) .
i carri nazisti erano i tiger se non sbaglio, e allora non c' era nulla di più potente in giro ... speriamo che sia lo stesso con gtx280 :asd:
ma anche i panther non scherzavano :asd:
Dipende che periodo esamini, il t34-76 mod 1943 è stato il miglior carro della guerra , per tutta una serie di motivi che non ti stò a spiegare sennò facciamo notte ; pensa solo al fatto che a partire dal tardo '44 la produzione dei tiger è stata bloccata . Perchè ? In quanto erano diventati obsoleti a causa appunto della serie D-10 e degli IS-2 , che erano in grado di penetrare la corazza frontale di un tiger da 1km di distanza o più .
Il problema principale , tornando a noi, è il rapporto prezzo prestazioni . Che senso avrebbe spendere 600 euro per una scheda che va del 30% in più rispetto ad una che viene 380 ? Se così fosse ( oltre al fatto che come ha detto a ragione HAL queste 9800GX2 diminuiranno sensibilmente l'effetto ''sorpresa'' ) la GX2 avrà vita più lunga del previsto .
Il carro tedesco più potente della seconda guerra mondiale era il Tiger II o King Tiger, un carro da quasi 70 tonnellate e cannone a canna lunga da 88mm che per l'epoca era un risultato eccezionale. Ne furono prodotti 484 esemplari. Però credo che non si riferisca a questi carri con la sigla D10U. In sviluppo c'erano carri ancora più pesanti come il Maus, forse si riferisce a uno di questi . La sigla, D10U, anche se a me non risultano carri o veicoli con quella sigla :mbe:
;) . Agosto-settembre del '44 , Hitler ordinò che fosse rivista la gamma di carri pesanti e medi dell'epoca , a causa del fatto che il fronte orientale non avrebbero potuto mantenerlo integro ancora per molto (stava persino perdendo la fiducia nelle divisioni dei ''pompieri del reich'' , ovvero le waffen SS , questo la dice lunga sulla situazione militare ) .
Sembra che quel 50% si riferisce al best case scenario , ovvero a tutte quelle condizioni in cui il framebuffer della GX2 funge da collo di bottiglia... ..:secondo me è più realisto attendersi dalla GTX280 un boost di performance rispetto alla GX2 intorno al 20-30% ; mentre ,sempre IMHO , la GTX260 avrà prestazioni più o meno allineate eccezion fatta per lo scenario citato in precedenza...
Bisogna vedere quanto renderà la 260 in rapporto alla GX2 , alla fine quest'ultima è pur sempre uno SLI e si può overcloccare a 750 di core, e più ;)
Non è strettamente inerente al thread ma visto che le nuove VGA ora come ora serviranno per Crysis più che altro ecco una notizia che può essere positiva o negativa.
http://next.videogame.it/magazine/61792/
Forse ci sono altri motivi oltre l'attuale Crysis per prendere questa nuova VGA. :D
Crysis atto 2 , magari ottimizzato con meno features e più ''liscio'' .
panzers 2 mi ha fatto scuola :asd:
in effetti anche a me D10U non richiama nulla riguardante carri armati o anche semplici veicoli di trasporto nazisti ... boh, a me sembra una sparata bell' e grossa ...
;)
Ti ringrazio , almeno però documentati prima e porta rispetto :rolleyes:
Ma se forsse così per me delusione... molto meglio prendere la gx2, si trova anche a 380 euro.
Non avrebbe senso spendere 450 euro per la 260 = gx2 oppure 600 per la 280 che andrebbe solo il 20% o 30% in più.
Concordo, anche perchè se fosse vero che verso novembre uscirà gt200b , non voglio immaginarmi la svalutazione della nuova top di gamma ;) (anche se putroppo è una prassi ben comune in questo campo)
LEONEAZZURRO, E A CHI FOSSE INTERESSATO IN MERITO , HO APPENA CREATO UN THREAD, GUARDATE IN FIRMA E COMMENTATE (oppure leggete e fatevi un'idea ;) )
leoneazzurro
02-06-2008, 15:32
Dipende che periodo esamini, il t34-76 mod 1943 è stato il miglior carro della guerra , per tutta una serie di motivi che non ti stò a spiegare sennò facciamo notte ; pensa solo al fatto che a partire dal tardo '44 la produzione dei tiger è stata bloccata . Perchè ? In quanto erano diventati obsoleti a causa appunto della serie D-10 e degli IS-2 , che erano in grado di penetrare la corazza frontale di un tiger da 1km di distanza o più .
OT (beh, questa è un'opinione, nel mio caso penso che il miglior carro operativo sia stato il Panther, mobile, potente, affidabile e ben corazzato, ma del T34 ne produssero molti di più. Il Tiger I aveva dei problemi di affidabilità meccanica, il Tiger II era troppo pesante anche se la corazza inclinata e lo spessore lo rendevano molto difficile da battere dalla lunga distanza) Comunque siamo OT, al limite facciamo un thread in un'altra sezione.
-noxius-
02-06-2008, 16:23
http://forums.vr-zone.com/showthread.php?t=283473
Dipende dal prezzo, a 160 euro si potrebbe pure fare, se costasse di più se la tengono questa 8800gt rimarchiata + H SLI e 55nm .
112 SP !!!! haha , che buffonata pazzesca, una gts 512 sotto OC gli farà ''le scarpe'' ; nemmeno il 3way SLI, quindi è solo un piccola revisione senza nulla di nuovo eccetto il nome e persino un connettore d'alimentazione aggiuntivo .. :muro:
Notate quanto possa essere cpu limited con quell'opteron, ma almeno metteteci un dual core a 4ghz oppure un quad a 3.8, no ? Mah ..
http://en.hardspell.com/doc/showcont.asp?news_id=3495&pageid=2763
Driver forceware immaturi epr il geforce ''BOOST'' , ad ogni modo l' H SLI è davvero interessante, peccato che serva una mobo adatta ..
Futura12
02-06-2008, 16:38
basta parlare di Crysis!!!:muro: :mad:
http://next.videogame.it/magazine/61792/
parliamo di GTX280/260 pls
ke palle infatti sto Crysis ma gia scassato la minchia:D
Che vi frega di un solo fottuto gioco...che il 98% di voi gia avrà finito e terminato...a vero volete vedere la grafica sparata al massimo con AA4x a 1920...mettetevi l'anima in pace...cio non è possibile ne con le attuali ne con le future GPU che stanno per uscire.
halduemilauno
02-06-2008, 17:34
http://forums.vr-zone.com/showthread.php?t=283653
Mister Tarpone
02-06-2008, 17:36
http://forums.vr-zone.com/showthread.php?t=283653
30 watts in Idle??? :confused: :eek:
:eek: !
paolox86
02-06-2008, 17:40
30 watts in Idle??? :confused: :eek:
:eek: !
Vabbè non sarebbe poi clamoroso.. Ci stà come rapporto tenendo conto che rv770 dovrebbe consumare < 10w in idle...
30 watts in Idle??? :confused: :eek:
:eek: !
sarebbe un'ottima mossa da parte di nvidia visto che GT200 già consuma un assurdità!
Mister Tarpone
02-06-2008, 17:50
non sarebbe male... visto le prestazioni che avranno ste schede... :eek:
ciao. :fagiano:
:fagiano:
ke palle infatti sto Crysis ma gia scassato la minchia:D
Che vi frega di un solo fottuto gioco...che il 98% di voi gia avrà finito e terminato...a vero volete vedere la grafica sparata al massimo con AA4x a 1920...mettetevi l'anima in pace...cio non è possibile ne con le attuali ne con le future GPU che stanno per uscire.
Sul mio pc girerà con la GTX280. :D
Crysis90
02-06-2008, 18:08
Sul mio pc girerà con la GTX280. :D
Pure sul mio...
First look alla 9800GT...
http://en.hardspell.com/doc/showcont.asp?news_id=3495&pageid=2763
A quanto pare per ora la 9800GT è una 8800GT rimarchiata (niente 55nm, stessi identici clocks, 112SP) col supporto all'Hybrid SLI. :)
First look alla 9800GT...
http://en.hardspell.com/doc/showcont.asp?news_id=3495&pageid=2763
A quanto pare per ora la 9800GT è una 8800GT rimarchiata (niente 55nm, stessi identici clocks, 112SP) col supporto all'Hybrid SLI. :)
Fantastico:asd:
First look alla 9800GT...
http://en.hardspell.com/doc/showcont.asp?news_id=3495&pageid=2763
A quanto pare per ora la 9800GT è una 8800GT rimarchiata (niente 55nm, stessi identici clocks, 112SP) col supporto all'Hybrid SLI. :)
:sob:
pierluigi86
02-06-2008, 18:18
First look alla 9800GT...
http://en.hardspell.com/doc/showcont.asp?news_id=3495&pageid=2763
A quanto pare per ora la 9800GT è una 8800GT rimarchiata (niente 55nm, stessi identici clocks, 112SP) col supporto all'Hybrid SLI. :)
sono molto deluso. Avevo molte aspettative su questa scheda
gianni1879
02-06-2008, 18:21
First look alla 9800GT...
http://en.hardspell.com/doc/showcont.asp?news_id=3495&pageid=2763
A quanto pare per ora la 9800GT è una 8800GT rimarchiata (niente 55nm, stessi identici clocks, 112SP) col supporto all'Hybrid SLI. :)
ma che bello.....
First look alla 9800GT...
http://en.hardspell.com/doc/showcont.asp?news_id=3495&pageid=2763
A quanto pare per ora la 9800GT è una 8800GT rimarchiata (niente 55nm, stessi identici clocks, 112SP) col supporto all'Hybrid SLI. :)
:sbonk:
-noxius-
02-06-2008, 18:22
http://forums.vr-zone.com/showthread.php?t=283473
Dipende dal prezzo, a 160 euro si potrebbe pure fare, se costasse di più se la tengono questa 8800gt rimarchiata + H SLI e 55nm .
112 SP !!!! haha , che buffonata pazzesca, una gts 512 sotto OC gli farà ''le scarpe'' ; nemmeno il 3way SLI, quindi è solo un piccola revisione senza nulla di nuovo eccetto il nome e persino un connettore d'alimentazione aggiuntivo .. :muro:
Notate quanto possa essere cpu limited con quell'opteron, ma almeno metteteci un dual core a 4ghz oppure un quad a 3.8, no ? Mah ..
http://en.hardspell.com/doc/showcont.asp?news_id=3495&pageid=2763
Driver forceware immaturi epr il geforce ''BOOST'' , ad ogni modo l' H SLI è davvero interessante, peccato che serva una mobo adatta ..
First look alla 9800GT...
http://en.hardspell.com/doc/showcont.asp?news_id=3495&pageid=2763
A quanto pare per ora la 9800GT è una 8800GT rimarchiata (niente 55nm, stessi identici clocks, 112SP) col supporto all'Hybrid SLI. :)
:sob:
:old: .. :p
halduemilauno
02-06-2008, 18:28
First look alla 9800GT...
http://en.hardspell.com/doc/showcont.asp?news_id=3495&pageid=2763
A quanto pare per ora la 9800GT è una 8800GT rimarchiata (niente 55nm, stessi identici clocks, 112SP) col supporto all'Hybrid SLI. :)
Fantastico:asd:
:sob:
sono molto deluso. Avevo molte aspettative su questa scheda
ma che bello.....
thread sbagliato.
Mister Tarpone
02-06-2008, 18:31
:old: .. :p
quoto... è super :old:
-noxius-
02-06-2008, 18:32
thread sbagliato.
No , questo era il thread delle G92b-GT200 , non è stato cambiato il nome dai moderatori ? Se guardi il primo messaggio di carpo si parla di schede video di nuova generazione e tu stesso ne hai parlato delle 9800 GT non molto tempo fa, come tutti gli altri del resto .
gianni1879
02-06-2008, 18:34
thread sbagliato.
mica tanto, si sta pur sempre parlando di nuove vga Nvidia, mica di Amd
halduemilauno
02-06-2008, 18:38
No , questo era il thread delle G92b-GT200 , non è stato cambiato il nome dai moderatori ? Se guardi il primo messaggio di carpo si parla di schede video di nuova generazione e tu stesso ne hai parlato delle 9800 GT non molto tempo fa, come tutti gli altri del resto .
mica tanto, si sta pur sempre parlando di nuove vga Nvidia, mica di Amd
thread sbagliato. se vi interessa apritene un'altro.
:old: .. :p
Di un paio d'ore... :asd:
Però l'articolo è di oggi. :O
quoto... è super :old:
Cosa, la scheda? :asd: ;)
Andrea deluxe
02-06-2008, 18:38
SI SI SI SI SI SI SI
http://www.hardware-infos.com/news.php?news=2113
Mister Tarpone
02-06-2008, 18:40
Cosa, la scheda? :asd: ;)
:sbonk:
(:Perfido:)
halduemilauno
02-06-2008, 18:40
SI SI SI SI SI SI SI
http://www.hardware-infos.com/news.php?news=2113
gia postato.
;)
http://forums.vr-zone.com/showthread.php?t=283653
SI SI SI SI SI SI SI
http://www.hardware-infos.com/news.php?news=2113
old! :asd:
vabbè ottime info comunque. sempre più convinto di sta scheda.. ora mancano solo i bench ufficiali o quasi. poi è mia :D
SI SI SI SI SI SI SI
http://www.hardware-infos.com/news.php?news=2113
Più che altro mi interessano le prestazioni, non sto più nella pelle, voglio vedere dei bench. :D
Andrea deluxe
02-06-2008, 18:44
gia postato.
;)
e' una notiziona!!!
halduemilauno
02-06-2008, 18:46
e' una notiziona!!!
d'accordo ma è gia stata postata.
;)
old! :asd:
vabbè ottime info comunque. sempre più convinto di sta scheda.. ora mancano solo i bench ufficiali o quasi. poi è mia :D
Ma non ho capito se quei consumi sono in situazioni di hybrid sli ovvero ottenibili solo con chip nvidia oppure con tutti i chip.
Ma non ho capito se quei consumi sono in situazioni di hybrid sli ovvero ottenibili solo con chip nvidia oppure con tutti i chip.
Saranno sicuramente con Hybrid e quindi con mobo equipaggiate di chipset Nvdia! :muro:
Andrea deluxe
02-06-2008, 19:25
http://resources.vr-zone.com//newspics/Jun08/02/GTX280.jpg
ale0bello0pr
02-06-2008, 19:26
http://resources.vr-zone.com//newspics/Jun08/02/GTX280.jpg
:ave:
ma ke vor di?
Andrea deluxe
02-06-2008, 19:27
che al computex la vedremo in azione...................
halduemilauno
02-06-2008, 19:29
:ave:
ma ke vor di?
questo...
http://www.vr-zone.com/articles/GeForce_GTX_280_Cards_Lurking_In_Computex/5823.html
"Here's a screenshot of the GeForce GTX 280 running on GeForce Release 177.23. We are told that this thing runs cool during idle and runs much faster than 9800GX2. If you look hard enough, you will find some GT200 cards lurking around Computex."
;)
Mister Tarpone
02-06-2008, 19:30
and runs much faster than 9800GX2. If you look hard enough, you will find some GT200 cards lurking around Computex."
;)
;)
halduemilauno
02-06-2008, 19:31
http://img177.imageshack.us/img177/2107/gtx280powersj4.jpg
Andrea deluxe
02-06-2008, 19:32
http://img177.imageshack.us/img177/2107/gtx280powersj4.jpg
quindi si tratta dei consumi su una qualsiasi piattaforma e non solo su hybrid sli!
http://img177.imageshack.us/img177/2107/gtx280powersj4.jpg
Urka, ottimo lavoro Nvidia :eek:
PS: Come fa a consumare così poco nel 3Dmark06?
Mister Tarpone
02-06-2008, 19:34
Urka, ottimo lavoro Nvidia :eek:
quoto... :fagiano:
:fagiano:
Andrea deluxe
02-06-2008, 19:35
praticamente le prossime nvidia di fascia media consumeranno una nullita' in idle!
OT
:D :sofico: :oink:
http://www.youtube.com/watch?v=IDoOV0FFPvA
Andrea deluxe
02-06-2008, 19:38
OT
:D :sofico: :oink:
http://www.youtube.com/watch?v=IDoOV0FFPvA
tieni presente che la mia 9800gx2 sta a 70° in idle:eek:
ale0bello0pr
02-06-2008, 19:46
quindi già da stanotte avremo qualke screens in azione? :eek:
nottata assicurata:sofico:
http://resources.vr-zone.com.sg/computex08/pre/JV3P0137.jpg
tieni presente che la mia 9800gx2 sta a 70° in idle:eek:
Ti fai una bistecca se la appoggi direttamente su dissi :asd:
Andrea deluxe
02-06-2008, 19:48
Ti fai una bistecca se la appoggi direttamente su dissi :asd:
con un paio d'ore di crysis penso che si cuoce pure velocemente!
ale0bello0pr
02-06-2008, 19:49
con un paio d'ore di crysis penso che si cuoce pure velocemente!
bastano 15 minuti te lo assicuro
Andrea deluxe
02-06-2008, 19:51
bastano 15 minuti te lo assicuro
se mi si rompe il forno allora sapro cosa usare per cucinare!!!!:O
http://img177.imageshack.us/img177/2107/gtx280powersj4.jpg
Incredibile
Chissà su piattaforma hybrid..i consumi in idle saranno nulli
Crysis90
02-06-2008, 19:53
Ragazzi scusate, ma quando inizia il Computex???
ale0bello0pr
02-06-2008, 19:54
Ragazzi scusate, ma quando inizia il Computex???
fra 6 ore circa in quel di Taipei
appleroof
02-06-2008, 20:14
http://img177.imageshack.us/img177/2107/gtx280powersj4.jpg
eccellente :)
Kharonte85
02-06-2008, 20:57
eccellente :)
No, la parola giusta è: sarebbe miracoloso! :eek:
Voglio vedere se sarà vero...:asd:
appleroof
02-06-2008, 20:58
No, la parola giusta sarewbbe miracoloso! :eek:
:asd: :asd:
Voglio vedere se è vero...
san tommaso....:D :D
bè, se quella è una slide ufficiale (poi CJ ormai sappiamo avere di questo "materiale" ufficiale) direi che è vero....
No, la parola giusta è: sarebbe miracoloso! :eek:
Voglio vedere se sarà vero...:asd:
Già, mi chiedo come abbiano calcolato il consumo effettivo della 9800GTX, visto che mi pare strano che in quasi full consumi solo 80W (vs un TDP di 156W). Allora una HD3870 quanto consuma, 50W? Lo stesso discorso ovviamente vale per 8800GT o GTS512, che hanno TDP inferiori rispetto alla 9800GTX. :stordita:
appleroof
02-06-2008, 21:12
Già, mi chiedo come abbiano calcolato il consumo effettivo della 9800GTX, visto che mi pare strano che in quasi full consumi solo 80W (vs un TDP di 156W). Allora una HD3870 quanto consuma, 50W? Lo stesso discorso ovviamente vale per 8800GT o GTS512, che hanno TDP inferiori rispetto alla 9800GTX. :stordita:
molto spesso i TDP massimi sono quelli teorici, quelli raggiungibili dal chip in condizioni estreme (come una sessione di prime per le cpu, che al 99% non si ripeterà mai nell'uso normale di un pc)
adesso non so se è lo stesso, ma io parto dal presupposto che quella è una slide ufficiale, bisogna vedere come intendono il tdp max
:eek:
Se davvero consuma cosi poco in idle, ci faccio anche un pensierino (anzi pensierone, son 27cm di scheda :D ).
E il portafogli mi prenderá a botte quando andró a dormire...
Mercuri0
02-06-2008, 21:12
Incredibile
Chissà su piattaforma hybrid..i consumi in idle saranno nulli
Eh, ma consumerebbe la GPU integrata ^^''
Se la GTX ha questi consumi in idle su qualsiasi chipset, l'HybridPower può andar a farsi benedire (tecnologia ancora troppo immatura e con questi consumi in idle di dubbia utilità).
Piuttosto mi chiedo cosa succeda con Aereo abilitato ed in uso. Spero che qualche recensore faccia i test in "idle" nel senso "uso abituale desktop" per farci capire.
Mercuri0
02-06-2008, 21:16
adesso non so se è lo stesso, ma io parto dal presupposto che quella è una slide ufficiale, bisogna vedere come intendono il tdp max
E' una slide ufficiale del reparto marketing ;) (è incredibile quanto la matematica possa diventare un'opinione su questo tipo di slide :D )
Tra l'altro il GT200 non sarà "multichip"? Non è che la decodifica del Bluray la farà il chippettino nvio presente? (potrei star sparando una cazzata, non ho la minima idea di cosa faccia quel chippettino)
appleroof
02-06-2008, 21:21
E' una slide ufficiale del reparto marketing ;) (è incredibile quanto la matematica possa diventare un'opinione su questo tipo di slide :D )
per quello concludevo in quel modo il post....:D (ricordo come calcolava il tdp Intel e come Amd, ai tempi del p4 e k8 :asd: )
Tra l'altro il GT200 non sarà "multichip"? Non è che la decodifica del Bluray la farà il chippettino nvio presente? (potrei star sparando una cazzata, non ho la minima idea di cosa faccia quel chippettino)
non credo, in g80 contiene i Tmds i Ramdac e la logica di controllo delle connessioni Sli, credo che da questo punto di vista nulla dovrebbe essere cambiato ma non ne sono sicuro
Andrea deluxe
02-06-2008, 21:26
nvio non ha alcuna logica di calcolo!
Già, mi chiedo come abbiano calcolato il consumo effettivo della 9800GTX, visto che mi pare strano che in quasi full consumi solo 80W (vs un TDP di 156W). Allora una HD3870 quanto consuma, 50W? Lo stesso discorso ovviamente vale per 8800GT o GTS512, che hanno TDP inferiori rispetto alla 9800GTX. :stordita:
A me sembra la stessa storia che avvenne tra gli A64\x2 e i p4\pd, siccome non gli stavano dietro con i consumi, allora intel decise che per lei le leggi della fisica erano "leggermente diverse" :asd: et voilà TDP dichiarati inferiori a quelli reali :rolleyes:
Eh, ma consumerebbe la GPU integrata ^^''
Se la GTX ha questi consumi in idle su qualsiasi chipset, l'HybridPower può andar a farsi benedire (tecnologia ancora troppo immatura e con questi consumi in idle di dubbia utilità).
Piuttosto mi chiedo cosa succeda con Aereo abilitato ed in uso. Spero che qualche recensore faccia i test in "idle" nel senso "uso abituale desktop" per farci capire.
L'Hybridsli è ottimo sopratutto se si riesce a spegnere davvero la gpu discreta. Peccato che sia disponibile solo su chip di fascia bassa. Con aereo attivo non cambia nulla viene riconosciuto come 2D.
E' una slide ufficiale del reparto marketing ;) (è incredibile quanto la matematica possa diventare un'opinione su questo tipo di slide :D )
Tra l'altro il GT200 non sarà "multichip"? Non è che la decodifica del Bluray la farà il chippettino nvio presente? (potrei star sparando una cazzata, non ho la minima idea di cosa faccia quel chippettino)
Quel chippetino è detto interfaces moved, quello che gestisce i video hd è il purevideo integrato nella gpu. L'equivalente del NVIO le ati c'è l'hanno integrato nvidia per motivi di spazio e qualitativi su g80 l'ha messo esternamente alla gpu.
Per chi volesse chiarirsi le idee sul NVIO -> http://www.digit-life.com/articles2/video/g80-part1.html
appleroof
02-06-2008, 21:33
nvio non ha alcuna logica di calcolo!
hai ragione, allora si occupa unicamente del segnale video
cut
L'Hybridsli è ottimo sopratutto se si riesce a spegnere davvero la gpu discreta. Peccato che sia disponibile solo su chip di fascia bassa. Con aereo attivo non cambia nulla viene riconosciuto come 2D.
cut
giusto
p.s.: siamo sicuri che gt200 non lo contempli l'hybrid sli? :what:
Kharonte85
02-06-2008, 21:33
Già, mi chiedo come abbiano calcolato il consumo effettivo della 9800GTX, visto che mi pare strano che in quasi full consumi solo 80W (vs un TDP di 156W). Allora una HD3870 quanto consuma, 50W? Lo stesso discorso ovviamente vale per 8800GT o GTS512, che hanno TDP inferiori rispetto alla 9800GTX. :stordita:
I consumi reali misurati sono sempre abbastanza inferiori, e il valore di Idle corrisponde:
http://www.xbitlabs.com/images/video/geforce9800gtx/9800gtx_power.gif
il 3d mark06 è una condizione in cui la vga non è sfruttata al 100% quindi non è esattamente un full load (basta fare un po' di test casalinghi per vedere come ci siano giochi che fanno alzare di piu' del 3d06 la temperatura della scheda video)...
la slide mette a confronto la nuova scheda con la vecchia sostenendo che comunque avrà consumi inferiori ed anche se i valori finali magari saranno diversi sarebbe comunque un risultato ottimo; pero' voglio capire bene come e su quali piattaforme si avrà questo vantaggio...
appleroof
02-06-2008, 21:35
I consumi reali misurati sono sempre abbastanza inferiori, e il valore di Idle corrisponde:
http://www.xbitlabs.com/images/video/geforce9800gtx/9800gtx_power.gif
il 3d mark06 è una condizione in cui la vga non è sfruttata al 100% quindi non è esattamente un full load (basta fare un po' di test casalinghi per vedere come ci siano giochi che fanno alzare di piu' del 3d06 la temperatura della scheda video)...
quoterrimo
la slide mette a confronto la nuova scheda con la vecchia sostenendo che comunque avrà consumi inferiori ed anche se i valori finali magari saranno diversi sarebbe comunque un risultato ottimo; pero' voglio capire bene come e su quali piattaforme si avrà questo vantaggio...
bè io immagino su qualunque piattaforma, a meno che non si riferiscano all'hybrid sli, in quella slide...
Ma io mi chiedo: con gt200 e cuda quanta influenza avranno le cpu nei giochi?
Kharonte85
02-06-2008, 21:38
bè io immagino su qualunque piattaforma, a meno che non si riferiscano all'hybrid sli, in quella slide...
Infatti è quello che andrebbe chiarito :D prima di esultare...:D
Incredibile
Chissà su piattaforma hybrid..i consumi in idle saranno nulli
eccellente :)
No, la parola giusta è: sarebbe miracoloso! :eek:
Per cosa vi esaltate? Il consumo è doppio rispetto alla passata generazione (9800GTX) che è ancor adesso in versione single la top di gamma.
Invece è il doppio dell'ottima prezzo/prestazioni 3870.
Considerato che il 3DMark non è il test che mette sotto sforzo al 100% la gpu, a me sembra deludente sotto il punto di vista dei consumi, altro che incredibile.
appleroof
02-06-2008, 21:41
Ma io mi chiedo: con gt200 e cuda quanta influenza avranno le cpu nei giochi?
in che senso?
Infatti è quello che andrebbe chiarito :D prima di esultare...:D
è giusto...
Per cosa vi esaltate? Il consumo è doppio rispetto alla passata generazione (9800GTX) che è ancor adesso in versione single la top di gamma.
Invece è il doppio dell'ottima prezzo/prestazioni 3870.
A me sembra deludente sotto questo punto di vista, altro che incredibile.
già...anche le prestazioni sono il doppio (della 9800gtx, della 3870 quasi il triplo) e se in idle mi consuma come o meno della vecchia top nvidia non ci vedo nulla da esultare, nel complesso
mi sà che devo andare dall'oculista (oppure non dovrei andarci io...) :asd: :asd:
Mister Tarpone
02-06-2008, 21:41
:asd:
in che senso?
Nel senso, adesso che pure la fisica sarà gestita dalla cpu a parte l'ia le cpu che faranno?
appleroof
02-06-2008, 21:43
:asd:
tarpo la versione "ermetica" della firma è davvero geniale :D :D :ciapet: :D :D
scusate l'Ot
appleroof
02-06-2008, 21:44
Nel senso, adesso che pure la fisica sarà gestita dalla cpu a parte l'ia le cpu che faranno?
non è detto che la fisica sarà sempre e cmq gestita dalla gpu: occorre che il gioco supporti phisix perchè ciò avvenga :)
Mister Tarpone
02-06-2008, 21:45
tarpo la versione "ermetica" della firma è davvero geniale :D :D :ciapet: :D :D
grazie :D
...ogni tanto devo cambiarla... :asd:
non è detto che la fisica sarà sempre e cmq gestita dalla gpu: occorre che il gioco supporti phisix perchè ciò avvenga :)
Beh, ma si adegueranno adesso che sarà implementata su tutte le vga nvidia
Kharonte85
02-06-2008, 21:47
Per cosa vi esaltate? Il consumo è doppio rispetto alla passata generazione (9800GTX) che è ancor adesso in versione single la top di gamma.
Invece è il doppio dell'ottima prezzo/prestazioni 3870.
Considerato che il 3DMark non è il test che mette sotto sforzo al 100% la gpu, a me sembra deludente sotto il punto di vista dei consumi, altro che incredibile.
Ma è chiaro...prima di tutto stiamo parlando di una scheda che dovrebbe avere prestazioni enormemente superiori alla Hd3870 in piu' quello che stiamo commentando è il valore in Idle (cioè quando sei sul forum a spammare :read: ) e secondo quella slide pare che le cose finalmente stiano migliorando perche' 25w su una scheda del genere sarebbe un miracolo...appunto
appleroof
02-06-2008, 21:53
Beh, ma si adegueranno adesso che sarà implementata su tutte le vga nvidia
sicuramente qualcosa (da 1 gioco a x giochi) credo la vedremo, vista l'influenza di Nvidia sulle swh attualmente, ma non credo proprio che il 100% dei giochi la supporterà (poi mai dire mai, ho letto che Nvidia avrebbe aperto ad Amd quanto a Phisix :asd: :asd: )
grazie :D
...ogni tanto devo cambiarla... :asd:
:D :D ;)
Ma è chiaro...prima di tutto stiamo parlando di una scheda che dovrebbe avere prestazioni enormemente superiori alla Hd3870 in piu' quello che stiamo commentando è il valore in Idle (cioè quando sei sul forum a spammare :read: ) e secondo quella slide pare che le cose finalmente stiano migliorando perche' 25w su una scheda del genere sarebbe un miracolo...appunto
:asd: :asd: :asd: :asd:
Per cosa vi esaltate? Il consumo è doppio rispetto alla passata generazione (9800GTX) che è ancor adesso in versione single la top di gamma.
Invece è il doppio dell'ottima prezzo/prestazioni 3870.
Considerato che il 3DMark non è il test che mette sotto sforzo al 100% la gpu, a me sembra deludente sotto il punto di vista dei consumi, altro che incredibile.
già...anche le prestazioni sono il doppio (della 9800gtx, della 3870 quasi il triplo) e se in idle mi consuma come o meno della vecchia top nvidia non ci vedo nulla da esultare, nel complesso
mi sà che devo andare dall'oculista (oppure non dovrei andarci io...) :asd: :asd:
Conosci la differenza che passa fra idle e full load? Differenza in fatto di unità di elaborazione che si spengono?
Sai che bello ogni generazione se si raddoppiassero i consumi di full?
Quando parli di dati certi, almeno porta qualche dato attendibile, perché con doppio, triplo, non fai altro che portarmi, oltre a quello che già ho scritto che il tuo commento è useless. Così come è useless la provocazione, prova con qualcun altro ;)
appleroof
02-06-2008, 22:05
Conosci la differenza che passa fra idle e full load? Differenza in fatto di unità di elaborazione che si spengono?
Sai che bello ogni generazione se si raddoppiassero i consumi di full?
Quando parli di dati certi, almeno porta qualche dato attendibile, perché con doppio, triplo, non fai altro che portarmi, oltre a quello che già ho scritto che il tuo commento è useless. Così come è useless la provocazione, prova con qualcun altro ;)
:rolleyes: e vabbè.
dunque, la differenza tra idle e full la conosco (:asd: ), non sono un ingegnere ma fin lì ci arrivo
proprio per questo, mi esalterei (condizionale ancora una volta d'obbligo) se quella slide rappresentasse la realtà: io (non so tu) non gioco 10 ore al giorno, per cui il dato che più mi interesserebbe è quello dell'idle
poi in full consuma molto ma chissenefrega: se voglio uberprestazioni, devo accettare uberconsumi, purtroppo per ora (e da anni) è praticamente una legge
(a parte ricordare che ad ogni generazione è giocoforza così, e ad ogni cambio di generazione alcuni cominciano a strapparsi i capelli come se lo ordinasse il dottore di comprare quelle vga oppure come se conoscessero il modo di dimezzare o ridurre ad 1/3 i consumi raddoppiando o triplicando le prestazioni in full --ma allora perchè non lavorano dove dovrebbero? :what: --)
Andrea deluxe
02-06-2008, 22:08
:rolleyes: e vabbè.
dunque, la differenza tra idle e full la conosco (:asd: ), non sono un ingegnere ma fin lì ci arrivo
proprio per questo, mi esalterei (condizionale ancora una volta d'obbligo) se quella slide rappresentasse la realtà: io (non so tu) non gioco 10 ore al giorno, per cui il dato che più mi interesserebbe è quello dell'idle
poi in full consuma molto ma chissenefrega: se voglio uberprestazioni, devo accettare uberconsumi, purtroppo per ora (e da anni) è praticamente una legge
(a parte ricordare che ad ogni generazione è giocoforza così, e ad ogni cambio di generazione alcuni cominciano a strapparsi i capelli come se lo ordinasse il dottore di comprare quelle vga oppure come se conoscessero il modo di dimezzare o ridurre ad 1/3 i consumi raddoppiando o triplicando le prestazioni in full --ma allora perchè non lavorano dove dovrebbero? :what: --)
quotone!
Il consumo eccessivo di energia è qualcosa che dobbiamo tenere in considerazione per il futuro, il costo e l'inedeguatezza delle nostre fonti non sono fattori da mettere in secondo piano. Ma il punto non è questo, il punto è che un consumo in idle doppio rispetto a quello che ha presentato la concorrenza ad oggi, è un dato triste, non qualcosa su cui esaltarsi.
appleroof
02-06-2008, 22:17
Il consumo eccessivo di energia è qualcosa che dobbiamo tenere in considerazione per il futuro, il costo e l'inedeguatezza delle nostre fonti non sono fattori da mettere in secondo piano. Ma il punto non è questo, il punto è che un consumo in idle doppio rispetto a quello che ha presentato la concorrenza ad oggi, è un dato triste, non qualcosa su cui esaltarsi.
ripeto: devi tenere presente la scheda
inoltre, non ho ben chiaro se supporta o meno l'hybrid sli, perchè nel secondo caso in idle la scheda è spenta.
Futura12
02-06-2008, 22:21
:rolleyes: e vabbè.
dunque, la differenza tra idle e full la conosco (:asd: ), non sono un ingegnere ma fin lì ci arrivo
proprio per questo, mi esalterei (condizionale ancora una volta d'obbligo) se quella slide rappresentasse la realtà: io (non so tu) non gioco 10 ore al giorno, per cui il dato che più mi interesserebbe è quello dell'idle
poi in full consuma molto ma chissenefrega: se voglio uberprestazioni, devo accettare uberconsumi, purtroppo per ora (e da anni) è praticamente una legge
(a parte ricordare che ad ogni generazione è giocoforza così, e ad ogni cambio di generazione alcuni cominciano a strapparsi i capelli come se lo ordinasse il dottore di comprare quelle vga oppure come se conoscessero il modo di dimezzare o ridurre ad 1/3 i consumi raddoppiando o triplicando le prestazioni in full --ma allora perchè non lavorano dove dovrebbero? :what: --)
Quoto tutto vero...è almeno delle Geforce 5800 che ogni volta ci sbattiamo per i consumi...ma alla fine va sempre a finire uguale...fino alle revisioni2...non aspettatevi tutto sto granchè;)
@Apple:Sai per caso quanto consuma il G80 in idle?
mircocatta
02-06-2008, 22:21
non è detto che la fisica sarà sempre e cmq gestita dalla gpu: occorre che il gioco supporti phisix perchè ciò avvenga :)
e io continuo a pensare: se già la mia 8800gt è sfruttata al 100% se aggiungono carico per la fisica sgravando la cpu, cosa mi ritrovo?
mi rispondo da solo: frame più bassi, perchè la gpu dovrà fare tutto da se,mentre prima doveva gestire solo la grafica e non anche la fisica..
sempre imho ovviamente;)
discorso diverso per gt200 che ha potenza davendere, ma metti caso in futuro che:
esce un gioco che piega gt200, cosa mi verrebbe da pensare? non lo avrebbe piegato se la fisica la gestisse ancora la cpu
Kharonte85
02-06-2008, 22:24
:rolleyes: e vabbè.
dunque, la differenza tra idle e full la conosco (:asd: ), non sono un ingegnere ma fin lì ci arrivo
proprio per questo, mi esalterei (condizionale ancora una volta d'obbligo) se quella slide rappresentasse la realtà: io (non so tu) non gioco 10 ore al giorno, per cui il dato che più mi interesserebbe è quello dell'idle
poi in full consuma molto ma chissenefrega: se voglio uberprestazioni, devo accettare uberconsumi, purtroppo per ora (e da anni) è praticamente una legge
(a parte ricordare che ad ogni generazione è giocoforza così, e ad ogni cambio di generazione alcuni cominciano a strapparsi i capelli come se lo ordinasse il dottore di comprare quelle vga oppure come se conoscessero il modo di dimezzare o ridurre ad 1/3 i consumi raddoppiando o triplicando le prestazioni in full --ma allora perchè non lavorano dove dovrebbero? :what: --)
Infatti...:asd:
Il consumo eccessivo di energia è qualcosa che dobbiamo tenere in considerazione per il futuro, il costo e l'inedeguatezza delle nostre fonti non sono fattori da mettere in secondo piano. Ma il punto non è questo, il punto è che un consumo in idle doppio rispetto a quello che ha presentato la concorrenza ad oggi, è un dato triste, non qualcosa su cui esaltarsi.[/B]
A dire il vero la concorrenza di quelle schede non è ancora uscita...:fagiano:
appleroof
02-06-2008, 22:29
Quoto tutto vero...è almeno delle Geforce 5800 che ogni volta ci sbattiamo per i consumi...ma alla fine va sempre a finire uguale...fino alle revisioni2...non aspettatevi tutto sto granchè;)
@Apple:Sai per caso quanto consuma il G80 in idle?
purtroppo lo ignoro, in giro nelle rece trovo solo consumi complessivi dei sistemi provati di volta in volta
nel dubbio cmq la tengo a 350/800/1400 in idle :)
e io continuo a pensare: se già la mia 8800gt è sfruttata al 100% se aggiungono carico per la fisica sgravando la cpu, cosa mi ritrovo?
mi rispondo da solo: frame più bassi, perchè la gpu dovrà fare tutto da se,mentre prima doveva gestire solo la grafica e non anche la fisica..
sempre imho ovviamente;)
discorso diverso per gt200 che ha potenza davendere, ma metti caso in futuro che:
esce un gioco che piega gt200, cosa mi verrebbe da pensare? non lo avrebbe piegato se la fisica la gestisse ancora la cpu
il ragionamento è giusto, è ovvio che poi dovremmo aggiungerci numerose variabili come driver, ottimizzazioni del gioco così via ma credo sia altrettanto ovvio che una 8800gt non possa andare come una gtx280 anche da questo punto di vista :)
p.s.: proprio perchè sanno che non tutti i gamer del mondo hanno una gtx280 nel case, credo che se un gioco supportasse phisix ci sarebbe un settaggio apposito per escluderlo
molto spesso i TDP massimi sono quelli teorici, quelli raggiungibili dal chip in condizioni estreme (come una sessione di prime per le cpu, che al 99% non si ripeterà mai nell'uso normale di un pc)
adesso non so se è lo stesso, ma io parto dal presupposto che quella è una slide ufficiale, bisogna vedere come intendono il tdp max
I consumi reali misurati sono sempre abbastanza inferiori, e il valore di Idle corrisponde:
http://www.xbitlabs.com/images/video/geforce9800gtx/9800gtx_power.gif
il 3d mark06 è una condizione in cui la vga non è sfruttata al 100% quindi non è esattamente un full load (basta fare un po' di test casalinghi per vedere come ci siano giochi che fanno alzare di piu' del 3d06 la temperatura della scheda video)...
la slide mette a confronto la nuova scheda con la vecchia sostenendo che comunque avrà consumi inferiori ed anche se i valori finali magari saranno diversi sarebbe comunque un risultato ottimo; pero' voglio capire bene come e su quali piattaforme si avrà questo vantaggio...
Pensandoci meglio credo che sia così. :)
Il 3DMark ha sì dei picchi di consumo, ma se uno considera la media del consumo nel corso del test, in effetti ci sono momenti (i test "sintetici" tipo quelli sul fillrate) in cui la vga non è sollecitatissima, così come nei caricamenti.
Probabilmente sarebbe più indicativo un gioco tipo Crysis (ancora lui... :eek: :asd: ) in cui la media sarebbe di poco inferiore al picco. Tant'è vero che il consumo di picco 3D (che è quello che poi bene o male riscontri giocando a giochi "pesanti") che si trova nel grafico postato da Kharonte85 è ben il 35% superiore a quello che riportano in quella slide. ;)
Se il rapporto rimanesse lo stesso, 147W*1.35=198.5W. ;)
Edit: ho appena letto come fanno in XbitLabs a calcolare il consumo, ed usano anche loro il 3DMark06 in loop. Come è possibile che la stessa scheda consumi nei laboratori NVidia il 35% in meno? :asd:
Miracolo. :O :ave:
A parte gli scherzi, a questo punto credo che sia così: in XBitLabs calcolano il picco, mentre NVidia lì ha messo la media, come pensavo, che ha molto poco senso, naturalmente. ;)
http://xbitlabs.com/articles/video/display/geforce9800gtx_7.html#sect0
Futura12
02-06-2008, 22:36
purtroppo lo ignoro, in giro nelle rece trovo solo consumi complessivi dei sistemi provati di volta in volta
nel dubbio cmq la tengo a 350/800/1400 in idle :)
il ragionamento è giusto, è ovvio che poi dovremmo aggiungerci numerose variabili come driver, ottimizzazioni del gioco così via ma credo sia altrettanto ovvio che una 8800gt non possa andare come una gtx280 anche da questo punto di vista :)
p.s.: proprio perchè sanno che non tutti i gamer del mondo hanno una gtx280 nel case, credo che se un gioco supportasse phisix ci sarebbe un settaggio apposito per escluderlo
uff,comunque credo consumi un bel po:stordita: io non lo tengo a frequenze ribassate perchè tanto il voltaggio non si può cambiare...quindi non c'è tutta questa differenza:muro:
Ma infatti credo che le slide indichino quel test invece di altri proprio per non indicarne il TDP effettivo.
Chi vivrà vedra, ormai la presentazione è questione di poco. Ciao ragazzi, alla settimana prossima.
appleroof
02-06-2008, 22:38
Pensandoci meglio credo che sia così. :)
Il 3DMark ha sì dei picchi di consumo, ma se uno considera la media del consumo nel corso del test, in effetti ci sono momenti (i test "sintetici" tipo quelli sul fillrate) in cui la vga non è sollecitatissima, così come nei caricamenti.
Probabilmente sarebbe più indicativo un gioco tipo Crysis (ancora lui... :eek: :asd: ) in cui la media sarebbe di poco inferiore al picco. Tant'è vero che il consumo di picco 3D (che è quello che poi bene o male riscontri giocando a giochi "pesanti") che si trova nel grafico postato da Kharonte85 è ben il 35% superiore a quello che riportano in quella slide. ;)
Se il rapporto rimanesse lo stesso, 147W*1.35=198.5W. ;)
da questo traggo 2 conclusioni: il consumo in idle sarebbe davvero eccellente, anche e sopratutto considerando la scheda; il tdp max non doveva essere 250W?
appleroof
02-06-2008, 22:40
uff,comunque credo consumi un bel po:stordita: io non lo tengo a frequenze ribassate perchè tanto il voltaggio non si può cambiare...quindi non c'è tutta questa differenza:muro:
hai ragione, ma insomma qualcosa la fà (d'altra parte che io sappia nemmeno su 9800gtx cambia in idle, eppure vedi che enorme differenza c'è tra idle e full, ed immagino indicata a freq. standard...)
Kharonte85
02-06-2008, 22:45
da questo traggo 2 conclusioni: il consumo in idle sarebbe davvero eccellente, anche e sopratutto considerando la scheda; il tdp max non doveva essere 250W?
I primi rumors parlavano di 250w gli ultimi invece lo hanno ritoccato a 236w...forse perche' hanno calato le frequenze di funzionamento rispetto a quello che avevano previsto in precedenza...:boh:
appleroof
02-06-2008, 22:51
I primi rumors parlavano di 250w gli ultimi invece lo hanno ritoccato a 236w...forse perche' hanno calato le frequenze di funzionamento rispetto a quello che avevano previsto in precedenza...:boh:
giusto non ci avevo pensato ;)
cmq considerando che la 88gtx in full consuma 143W e che è 90nm, e considerando che mostro è gt200, 200w scarsi non sono poi molti, in termini relativi anzi: il doppio delle prestazioni per 1/4 di consumo in full di più (tutto stando ai rumors) :)
halduemilauno
02-06-2008, 22:52
in che senso?
è giusto...
già...anche le prestazioni sono il doppio (della 9800gtx, della 3870 quasi il triplo) e se in idle mi consuma come o meno della vecchia top nvidia non ci vedo nulla da esultare, nel complesso
mi sà che devo andare dall'oculista (oppure non dovrei andarci io...) :asd: :asd:
Ma è chiaro...prima di tutto stiamo parlando di una scheda che dovrebbe avere prestazioni enormemente superiori alla Hd3870 in piu' quello che stiamo commentando è il valore in Idle (cioè quando sei sul forum a spammare :read: ) e secondo quella slide pare che le cose finalmente stiano migliorando perche' 25w su una scheda del genere sarebbe un miracolo...appunto
:rolleyes: e vabbè.
dunque, la differenza tra idle e full la conosco (:asd: ), non sono un ingegnere ma fin lì ci arrivo
proprio per questo, mi esalterei (condizionale ancora una volta d'obbligo) se quella slide rappresentasse la realtà: io (non so tu) non gioco 10 ore al giorno, per cui il dato che più mi interesserebbe è quello dell'idle
poi in full consuma molto ma chissenefrega: se voglio uberprestazioni, devo accettare uberconsumi, purtroppo per ora (e da anni) è praticamente una legge
(a parte ricordare che ad ogni generazione è giocoforza così, e ad ogni cambio di generazione alcuni cominciano a strapparsi i capelli come se lo ordinasse il dottore di comprare quelle vga oppure come se conoscessero il modo di dimezzare o ridurre ad 1/3 i consumi raddoppiando o triplicando le prestazioni in full --ma allora perchè non lavorano dove dovrebbero? :what: --)
quoto tutto.
;)
da questo traggo 2 conclusioni: il consumo in idle sarebbe davvero eccellente, anche e sopratutto considerando la scheda; il tdp max non doveva essere 250W?
I primi rumors parlavano di 250w gli ultimi invece lo hanno ritoccato a 236w...forse perche' hanno calato le frequenze di funzionamento rispetto a quello che avevano previsto in precedenza...:boh:
Il TDP, come dice Kharonte85, dovrebbe essere 236W. Quei quasi 200W potrebbero essere il picco al 3DMark. Direi che il range di consumo max effettivo dovrebbe essere sui 200-210W (nello stesso grafico la GX2 mostra quasi 182W di picco vs 198W di TDP... ). :)
leoneazzurro
02-06-2008, 22:58
da questo traggo 2 conclusioni: il consumo in idle sarebbe davvero eccellente, anche e sopratutto considerando la scheda; il tdp max non doveva essere 250W?
Il consumo in idle evidentemente viene realizzato spegnendo parecchie parti della GPU. Comunque si direbbe confermato. Non sarebbe un risultato impossibile, anche perchè ad esempio per RV770 si vociferava di un consumo in idle intorno ai 10 W. Si direbbe che si inizi pensare seriamente al consumo anche sul fronte GPU
appleroof
02-06-2008, 23:00
Il TDP, come dice Kharonte85, dovrebbe essere 236W. Quei quasi 200W potrebbero essere il picco al 3DMark. Direi che il range di consumo max effettivo dovrebbe essere sui 200-210W (nello stesso grafico la GX2 mostra quasi 182W di picco vs 198W di TDP... ). :)
Il consumo in idle evidentemente viene realizzato spegnendo parecchie parti della GPU. Comunque si direbbe confermato. Non sarebbe un risultato impossibile, anche perchè ad esempio per RV770 si vociferava di un consumo in idle intorno ai 10 W. Si direbbe che si inizi pensare seriamente al consumo anche sul fronte GPU
perfetto adesso il quadro mi è chiaro al 100% direi allora ancora una volta.....eccellente :D :D poco da aggiungere...
ale0bello0pr
02-06-2008, 23:16
tanto spam e poca carne a fuoco , mancano 3 ore :eek:
Kharonte85
02-06-2008, 23:18
tanto spam e poca carne a fuoco , mancano 3 ore :eek:
A cosa :wtf:
ale0bello0pr
02-06-2008, 23:19
A cosa :wtf:
al Computex e Nvidia che owna il mondo e boommm
nico88desmo
02-06-2008, 23:22
Peccato che sarà tutto sotto NDA.
Ad ogni buon conto speriamo che inizino a circolare un pò di bench :D
Intanto nVidia rinnova la veste grafica del sito www.nvidia.com e presenta nVidia Tegra ;)
Giugno è un bel mese per questa società: speriamo non deluda le aspettative ;)
Marko#88
02-06-2008, 23:24
Il consumo in idle evidentemente viene realizzato spegnendo parecchie parti della GPU. Comunque si direbbe confermato. Non sarebbe un risultato impossibile, anche perchè ad esempio per RV770 si vociferava di un consumo in idle intorno ai 10 W. Si direbbe che si inizi pensare seriamente al consumo anche sul fronte GPU
e non è affatto una brutta idea...sopratutto per quel che riguarda il consumo in idle...poi se in full consuma tanto amen, d'altra parte le prestazioni ci dovrebbero essere, mica possono essere ottenute consumando zero...:asd:
in idle invece fa comodo che consumi poco, poco calore, meno spesa visto che il pc è più spesso in idle o spento che in full...io ad esempio a volte lo accendo per giocare poi non sto a spegnerlo sapendo che dopo un po' giocherò ancora ma magari sta fermo 2 ore in idle...se consuma e scalda meno non si butta mica via...:D
ale0bello0pr
02-06-2008, 23:29
Peccato che sarà tutto sotto NDA.
Ad ogni buon conto speriamo che inizino a circolare un pò di bench :D
Intanto nVidia rinnova la veste grafica del sito www.nvidia.com e presenta nVidia Tegra ;)
Giugno è un bel mese per questa società: speriamo non deluda le aspettative ;)
sotto NDA? con VR-ZONE che è di casa? non credo proprio...:asd:
ecco già qualke fotina http://www.vr-zone.com/articles/Nvidia_Tegra_Launch_%40_Computex_Taipei/5822.html
VIKKO VIKKO
02-06-2008, 23:47
sotto NDA? con VR-ZONE che è di casa? non credo proprio...:asd:
ecco già qualke fotina http://www.vr-zone.com/articles/Nvidia_Tegra_Launch_%40_Computex_Taipei/5822.html
tanto meglio se si viene a sapere tutto :sofico:
quindi si profilano anche per GT200 consumi in IDLE bassissimi? sarebbe un'ottima cosa per bilanciare gli altissimi consumi in full e per contrastare meglio RV770 sul piano consumi visto che G80 e G92 in IDLE consumano più del doppio di RV670 e RV770 secondo rumors dovrebbe consumare in IDLE addirittura meno di 10W, cioè circa la metà di RV670!
paolo.guidx
03-06-2008, 00:58
tanto spam e poca carne a fuoco , mancano 3 ore :eek:
A cosa :wtf:
al Computex e Nvidia che owna il mondo e boommm
O, mi raccomando, stai sveglio e controlla tutto:O . Poi ci riferisci. Io vado a nanna. 'notte.:ronf:
halduemilauno
03-06-2008, 08:15
GTX280.
http://resources.vr-zone.com/computex08/gt200/IMG_0435.jpg
qui altre immagini...
http://www.vr-zone.com/articles/Detailed_Geforce_GTX_280_Pictures/5826.html
;)
halduemilauno
03-06-2008, 08:40
http://resources.vr-zone.com//newspics/Jun08/03/GTX280_GPUZ.jpg
altre immagini...
http://www.vr-zone.com/articles/GeForce_GTX_280_GPU-Z_Screenshot/5828.html
;)
Enochian
03-06-2008, 09:12
Molto bene, adesso fuori i benchmark :asd:
GTX280.
http://resources.vr-zone.com/computex08/gt200/IMG_0435.jpg
qui altre immagini...
http://www.vr-zone.com/articles/Detailed_Geforce_GTX_280_Pictures/5826.html
;)
Nella parte laterale del dissipatore accanto hai connettori di alimentazione che c'è ?
vedo che ci sono tutte le conferme fin'ora per quanto riguarda clocks, pcb e dissi... aspettiamo quello che sotto sotto ci interessa di più... i bench :D
Nella parte laterale del dissipatore accanto hai connettori di alimentazione che c'è ?
...niente? :p
EDIT: vero, c'è qualcosa... bho?
http://img293.imageshack.us/img293/8761/img0432qm6.th.jpg (http://img293.imageshack.us/my.php?image=img0432qm6.jpg)
Foglia Morta
03-06-2008, 09:23
Nella parte laterale del dissipatore accanto hai connettori di alimentazione che c'è ?
un tappabuchi :D
http://resources.vr-zone.com/computex08/gt200/IMG_0432.jpg
un tappabuchi :D
:mbe: :boh:
un tappabuchi :D
uhm, ci ho pensato.. però sembra avere un disegnino in rilievo o qualcosa di simile... strano :confused:
GTX280.
http://resources.vr-zone.com/computex08/gt200/IMG_0435.jpg
qui altre immagini...
http://www.vr-zone.com/articles/Detailed_Geforce_GTX_280_Pictures/5826.html
;)
Ma ciao bellissima! :D
Come detto nel 3D di R700, i nuovi driver portano la GTX280 a X4800 punti nel Vantage. Cioè il 33% in più di una GX2.
bellissima veramente:eek:
ps:mi sà che la mia 9800gtx che ancora mi deve arrivare avrà vita brevissima dentro il mio case:asd:
Comunque non ha l'attacco HDMI. :confused:
Mercuri0
03-06-2008, 10:04
Ma io mi chiedo: con gt200 e cuda quanta influenza avranno le cpu nei giochi?
non è detto che la fisica sarà sempre e cmq gestita dalla gpu: occorre che il gioco supporti phisix perchè ciò avvenga :)
Raga, il GPGPU non è miracoloso: i conti in grado di accelerare sono molto, molto, molto specifici.
Ultimamente nVidia sta facendo una gran fanfara, ma ovviamente non dice i punti deboli di tutto il discorso.
Non ho tempo ora per andar a cercare alcuni link (a proposito dei lati negativi e prestazioni di un codec video e mp3 su GPU), però il concetto di fondo è che in un algoritmo basta una sola operazione che la GPU non fa bene per far precipitare le prestazioni, o costringere il codec a non usare quella funzionalità. (quindi qualità più scarsa).
Anche per quanto riguarda la fisica, persino il Physix di nVidia non sarà interamente accelerato dalla GPU, ma solo alcuni particolari effetti. Dal quel che ho capito la GPU gestisce bene le situazioni in cui c'è un gran (enorme) numero di oggetti ciascuno dei quali segue la stesse legge fisica. Nei videogiochi: particelle, fluidi, vestiti. La fisica di un'automobile in un gioco di guida la gestirà sempre la CPU. E mi aspetto che anche nel pathfinding e altre operazioni di IA la GPU faccia abbastanza schifo.
p.s. c'è anche da scordarsi che i conti fisici che può fare la GPU possano scalare sulle CPU e viceversa. La differenza di prestazioni nei campi specifici è enorme.
-noxius-
03-06-2008, 10:43
Mercurio, basta guardare crysis con qualche migliaio di oggetti nell'editor , c'è un comando che se attivato permette di utilizzare una specie di GPGPU , con un drammatico aumento dei frames .. basta andare su youtube e rendersi conto di questo solo che non avendolo mai attivato , non so dirvi come si chiama e come si fa .
Ovviamente se non lo si attiva , il tutto viene calcolato dalla cpu e quindi è pesantissimo e va a scatti .
bellissima veramente:eek:
ps:mi sà che la mia 9800gtx che ancora mi deve arrivare avrà vita brevissima dentro il mio case:asd:
lo sapevo: il virus gt200 ha colpito anche zorco! :doh:
bellissima veramente:eek:
ps:mi sà che la mia 9800gtx che ancora mi deve arrivare avrà vita brevissima dentro il mio case:asd:
stai bbbono :asd:
uhm, ci ho pensato.. però sembra avere un disegnino in rilievo o qualcosa di simile... strano :confused:
E' il connettore audio, credo. Se usi un adattatore DVI-HDMI devi far passare il flusso audio attraverso la vga, per far uscire lo stesso attraverso la HDMI. Le ATI hanno una scheda audio onboard perciò non serve un accorgimento del genere.
Futura12
03-06-2008, 11:57
il core è di ben 576mm2....ma non si parlava di una superficie ben più piccola?:eek:
E' il connettore audio, credo. Se usi un adattatore DVI-HDMI devi far passare il flusso audio attraverso la vga, per far uscire lo stesso attraverso la HDMI. Le ATI hanno una scheda audio onboard perciò non serve un accorgimento del genere.
;)
C'è anche sulla GX2
il core è di ben 576mm2....ma non si parlava di una superficie ben più piccola?:eek:
Ma quando ben mai.
lo sapevo: il virus gt200 ha colpito anche zorco! :doh:
:D
stai bbbono :asd:
:ciapet: stavo sgerzando prima,la 9800gtx me la farò bastare per prossimi due 2 anni:stordita:
Gabriyzf
03-06-2008, 13:11
io credo che queste saranno schede da comprare a fine anno quando usciranno con revisione di processo produttivo con consumi e prezzi più umani.
io credo che queste saranno schede da comprare a fine anno quando usciranno con revisione di processo produttivo con consumi e prezzi più umani.
Io aspetto la revision a 55nm per vedere quanto scenderanno di prezzo queste:)
io credo che queste saranno schede da comprare a fine anno quando usciranno con revisione di processo produttivo con consumi e prezzi più umani.
parla per te, io è da novembre 07 che aspetto GT200 :p
Gabriyzf
03-06-2008, 13:24
parla per te, io è da novembre 07 che aspetto GT200 :p
infatti io parlo per me, mica obbligo nessuno ;)
infatti io parlo per me, mica obbligo nessuno ;)
la frase prima era generalizzata :p
CoolBits
03-06-2008, 14:13
uhm, ci ho pensato.. però sembra avere un disegnino in rilievo o qualcosa di simile... strano :confused:
c'è sotto il connettore dell'audio...come nelle gx2
paolox86
03-06-2008, 14:22
il core è di ben 576mm2....ma non si parlava di una superficie ben più piccola?:eek:
No no purtroppo si sapeva da tempo che era grande quanto una mattonella da bagno...
Crysis90
03-06-2008, 14:41
Esteticamente è fantastica...ormai mancano solo i bench. speriamo che sia potentissima!!
Esteticamente è fantastica...ormai mancano solo i bench. speriamo che sia potentissima!!
Se hai fiducia in lei, lo sarà. :D
paolox86
03-06-2008, 14:53
Esteticamente è fantastica...ormai mancano solo i bench. speriamo che sia potentissima!!
Se intendi potentissima per giocare a Crysis a 60 fps con AA 4x e 1920 di risoluzione ne dubito...
Per tutto il resto si:D
Per Crysis dobbiamo attendere la Gtx 380
Crysis90
03-06-2008, 14:54
Se hai fiducia in lei, lo sarà. :D
Tu che dici? Sarà migliore di R700 o no???
Marko#88
03-06-2008, 15:03
vabè che non serve a nulla l'estetica...ma è davvero brutta tutta nera...:asd:
Kharonte85
03-06-2008, 15:20
GTX280.
http://www.vr-zone.com/articles/Detailed_Geforce_GTX_280_Pictures/5826.html
;)
Molto bella...:)
Tu che dici? Sarà migliore di R700 o no???
Secondo me si.
major1977
03-06-2008, 15:35
ma a consumi come siamo messi?..dite che si accontenta dell'ali in firma? :stordita:
Kharonte85
03-06-2008, 15:36
ma a consumi come siamo messi?..dite che si accontenta dell'ali in firma? :stordita:
direi di sì...
Tu che dici? Sarà migliore di R700 o no???
secondo indiscrezioni la 4850 va come una ultra...quindi puoi bene capire che R700 è l'ennesimo flop di amd
Marko#88
03-06-2008, 15:42
secondo indiscrezioni la 4850 va come una ultra...quindi puoi bene capire che R700 è l'ennesimo flop di amd
quanto non sopporto chi parla a vanvera senza avere nulla di UFFICIALE in mano...ma se va come una ultra e costa poco?? o se le indiscrezioni sono fasulle e va ben di più?? non voglio mica difendere amd, anzi sono simpatizzante nvidia pur avendo una HD2600...però non vedo perchè sparare subito affermazioni del genere senza sapere un benemerito cacchio di ufficiale...:rolleyes:
paolox86
03-06-2008, 15:43
secondo indiscrezioni la 4850 va come una ultra...quindi puoi bene capire che R700 è l'ennesimo flop di amd
No ma lui dice R700 non RV770 pro, inoltre ancora di certo sappiamo poco
secondo indiscrezioni la 4850 va come una ultra...quindi puoi bene capire che R700 è l'ennesimo flop di amd
:rolleyes:
secondo indiscrezioni la 4850 va come una ultra...quindi puoi bene capire che R700 è l'ennesimo flop di amd
3 domandine veloci veloci:
con quale scheda nVidia dovra' competere la 4850?
con quale scheda nVidia dovra' competere la 4870?
Con quale scheda nVidia dovra' competere la 4870X2?
bYeZ!
Salve ragazzi,
sono nuovo del forum, Innanzitutto ciao e ben trovati piacere a tutti.
Secondo poi credo di aver appena fatto una cavolata. Ho ordinato una 9800gx2 senza sapere che nvidia stesse per tirare fuori ste 2 schede. Premesso che la gtx280 è per me inaccesibile la gtx 260 sarà di tanto + potente della 9800gx2? E soprattutto quanto si risentirà a livello di gaming?E a che risoluzione?
Grazie in anticipo
major1977
03-06-2008, 15:55
secondo indiscrezioni la 4850 va come una ultra...quindi puoi bene capire che R700 è l'ennesimo flop di amd
sinceramente nn so quanti siano disposti a sganciare 600 carte x una scheda video...la ultra è ancora adesso un'ottima scheda ..attualmente la piu' veloce..la 4870 dovrebbe venire intorno le 350 carte ed essere anceh piu' veloce della ultra...nn so quanto sia sbagliata la politica ati..staremo a vedere!
halduemilauno
03-06-2008, 16:04
Salve ragazzi,
sono nuovo del forum, Innanzitutto ciao e ben trovati piacere a tutti.
Secondo poi credo di aver appena fatto una cavolata. Ho ordinato una 9800gx2 senza sapere che nvidia stesse per tirare fuori ste 2 schede. Premesso che la gtx280 è per me inaccesibile la gtx 260 sarà di tanto + potente della 9800gx2? E soprattutto quanto si risentirà a livello di gaming?E a che risoluzione?
Grazie in anticipo
benvenuto.
che monitor hai?
;)
sinceramente nn so quanti siano disposti a sganciare 600 carte x una scheda video...la ultra è ancora adesso un'ottima scheda ..attualmente la piu' veloce..la 4870 dovrebbe venire intorno le 350 carte ed essere anceh piu' veloce della ultra...nn so quanto sia sbagliata la politica ati..staremo a vedere!
A dire la veritá AMD sembra indecisa se vendere le vga a $299 o $329 ...
Quindi dovremmo vederle sotto i 300 euro :)
benvenuto.
che monitor hai?
;)
bentrovato :)
ho un vecchio sony a tubo catodico XD credo che supporti al max 1280x1024
halduemilauno
03-06-2008, 16:08
bentrovato :)
ho un vecchio sony a tubo catodico XD credo che supporti al max 1280x1024
scarsino. cmq a quella ris. le due schede sono praticamente uguali. potentissime ambedue.
;)
paolox86
03-06-2008, 16:08
Salve ragazzi,
sono nuovo del forum, Innanzitutto ciao e ben trovati piacere a tutti.
Secondo poi credo di aver appena fatto una cavolata. Ho ordinato una 9800gx2 senza sapere che nvidia stesse per tirare fuori ste 2 schede. Premesso che la gtx280 è per me inaccesibile la gtx 260 sarà di tanto + potente della 9800gx2? E soprattutto quanto si risentirà a livello di gaming?E a che risoluzione?
Grazie in anticipo
Prima di tutto facci sapere quanto l'hai pagata e poi ti diremo se hai fatto la cavolata...
Secondo i rumors la gtx 260 dovrebbe essere leggermente superiore alla Gx2 ma niente di ufficiale ancora...
scarsino. cmq a quella ris. le due schede sono praticamente uguali. potentissime ambedue.
;)
è lo so il monitor è l'unica pecca. Cmq invece a risoluzioni + alte, mettendo in conto un nuovo monitor, c'è tanta differenza? Sempre andando per prime indiscrezioni dovrebbe fare molti + fps o si tratterà di 5-6 fps in +?
p.s. la paghero 390 euro
Mercuri0
03-06-2008, 16:11
secondo indiscrezioni la 4850 va come una ultra...quindi puoi bene capire che R700 è l'ennesimo flop di amd
Già, dopo due anni se ne vengono con una scheda, la 4850, che farà si e no il punteggio della 8800GT, mentre la 4870 arriva appena appena a una 9800GTX non overcloccata.
E siccome alla AMD sono incapaci e non hanno soldi per fare GPU, se ne vengono con la trovata di mettere due chip sulla 4870X2 che andrà il 50% in meno della GTX280 come minimo.
La GTX280 invece andrà al 100% della 9800GX2! Così si fa, AMD guarda e impara da nVidia!
3 domandine veloci veloci:
con quale scheda nVidia dovra' competere la 4850?
con quale scheda nVidia dovra' competere la 4870?
Con quale scheda nVidia dovra' competere la 4870X2?
bYeZ!
a) 9800GTX
b) Nessuna direttamente. La scheda più vicina come prestazioni sarà la GX2 , che comunque costerà minimo 50€ in più.
c) GTX260 nel peggiore dei casi, GTX280 nel nel migliore
mircocatta
03-06-2008, 16:13
Mercurio, basta guardare crysis con qualche migliaio di oggetti nell'editor , c'è un comando che se attivato permette di utilizzare una specie di GPGPU , con un drammatico aumento dei frames .. basta andare su youtube e rendersi conto di questo solo che non avendolo mai attivato , non so dirvi come si chiama e come si fa .
Ovviamente se non lo si attiva , il tutto viene calcolato dalla cpu e quindi è pesantissimo e va a scatti .
cazzata, il video è un rendering, in realtà va ancora più a scatti.
in effetti non si capisce il motivo di quel video che a quanto vedo ha creato solo confusione
halduemilauno
03-06-2008, 16:16
è lo so il monitor è l'unica pecca. Cmq invece a risoluzioni + alte, mettendo in conto un nuovo monitor, c'è tanta differenza? Sempre andando per prime indiscrezioni dovrebbe fare molti + fps o si tratterà di 5-6 fps in +?
p.s. la paghero 390 euro
in tutti i casi ti consiglierei un 22 pollici 1680x1050. in quel caso la differenza si ci sarà ma ora quantizzarla può essere difficile. cmq ripeto la 9800gx2 è ottima e il prezzo anche.
;)
mircocatta
03-06-2008, 16:17
ma a consumi come siamo messi?..dite che si accontenta dell'ali in firma? :stordita:
direi di sì...
io direi assolutamente no.
il mio per esempio non basta, farei fatica a tirare una 8800gtx figuriamoci la gtx280 che consuma molto di più
halduemilauno
03-06-2008, 16:19
a) 9800GTX
b) Nessuna direttamente. La scheda più vicina come prestazioni sarà la GX2 , che comunque costerà minimo 50€ in più.
c) GTX260 nel peggiore dei casi, GTX280 nel nel migliore
se i rumors son veri e chi non pagherebbe quei 50€ in +?
Già, dopo due anni se ne vengono con una scheda, la 4850, che farà si e no il punteggio della 8800GT, mentre la 4870 arriva appena appena a una 9800GTX non overcloccata.
E siccome alla AMD sono incapaci e non hanno soldi per fare GPU, se ne vengono con la trovata di mettere due chip sulla 4870X2 che andrà il 50% in meno della GTX280 come minimo.
La GTX280 invece andrà al 100% della 9800GX2! Così si fa, AMD guarda e impara da nVidia!
ti ringrazio ! sei l'unico che ha capito cosa volevo dire..
ricordo a tutti che al di là dei prezzi e del denaro esiste un concetto che si chiama Innovazione Tecnlogica e Progresso
secondo indiscrezioni la 4850 va come una ultra...quindi puoi bene capire che R700 è l'ennesimo flop di amd
evitiamo i flame
>bYeZ<
in tutti i casi ti consiglierei un 22 pollici 1680x1050. in quel caso la differenza si ci sarà ma ora quantizzarla può essere difficile. cmq ripeto la 9800gx2 è ottima e il prezzo anche.
;)
grazie hal. Ma al momento dell'uscita della 9800gx2 di quanto è sceso il prezzo della 8800ultra?
mircocatta
03-06-2008, 16:20
è lo so il monitor è l'unica pecca. Cmq invece a risoluzioni + alte, mettendo in conto un nuovo monitor, c'è tanta differenza? Sempre andando per prime indiscrezioni dovrebbe fare molti + fps o si tratterà di 5-6 fps in +?
p.s. la paghero 390 euro
se puoi disdire magari comprando un monitor prestante sui 390€ fallo !!
in tutti i casi ti consiglierei un 22 pollici 1680x1050. in quel caso la differenza si ci sarà ma ora quantizzarla può essere difficile. cmq ripeto la 9800gx2 è ottima e il prezzo anche.
;)
io gli consiglio un 20 pollici con quella risoluzione :D, massimo 21, così è più definito :D
halduemilauno
03-06-2008, 16:21
ti ringrazio ! sei l'unico che ha capito cosa volevo dire..
ricordo a tutti che al di là dei prezzi e del denaro esiste un concetto che si chiama Innovazione Tecnlogica e Progresso
:boh:
ale0bello0pr
03-06-2008, 16:21
ti ringrazio ! sei l'unico che ha capito cosa volevo dire..
ricordo a tutti che al di là dei prezzi e del denaro esiste un concetto che si chiama Innovazione Tecnlogica e Progresso
hai sbagliato thread :stordita:
Mercuri0
03-06-2008, 16:24
:boh:
:asd:
se puoi disdire magari comprando un monitor prestante sui 390€ fallo !!
io gli consiglio un 20 pollici con quella risoluzione :D, massimo 21, così è più definito :D
beh cmq il mio è un 20pollici solo che è a tubo catodico hahahahah e cmq preferisco spendere 390euro per la scheda visto che ho un pc tutto nuovo. Poi il monitor lo rimediero in qualche modo. :) Cmq ripeto la domanda sul prezzo della ultra al momento di uscita della 9800gx2 di quanto è calato?
halduemilauno
03-06-2008, 16:28
grazie hal. Ma al momento dell'uscita della 9800gx2 di quanto è sceso il prezzo della 8800ultra?
il prezzo della ultra è rimasto altissimo. ancora adesso è superiore a quello della 9800gx2. ovviamente non le compra + nessuno.
;)
halduemilauno
03-06-2008, 16:29
se puoi disdire magari comprando un monitor prestante sui 390€ fallo !!
io gli consiglio un 20 pollici con quella risoluzione :D, massimo 21, così è più definito :D
definisci + definito.
;)
se i rumors son veri e chi non pagherebbe quei 50€ in +?
Beh, orami io non ho più dubbi. La Hd4870 sarà tra il 10% e il 20% più lenta della 9800GX2. Io comprerei la HD4870, la singola GPU è preferibile al dual-gpu, sopratuto in questa fascia dove il consumo è importante.
Poi non è detto che la differenza di prezzo sia così piccola. Attualmente le GX2 si trovano a 370€, per il lancio di HD4870 si troveranno a 350€. Tutto dipende da a che prezzo Ati lancerà le 4870.
PS: Mah, mi sembra molto strano che le 2 GTX280 in sli facciano solo X7000 punti. Dovrebbero farne circa X8400, scalando come scalano da 9800GTX a GX2. Imho è un risultato ottenuto con vecchi driver, quelli da 4100 punti e non i nuovi da 4800 punti.
Mister Tarpone
03-06-2008, 16:34
novità?? qualche bench?? :confused:
ale0bello0pr
03-06-2008, 16:37
io ho trovato due GTX280 in SLI ma non le ho ancora benchate
http://resources.vr-zone.com/computex08/girls2/IMG_0493.jpg
definisci + definito.
;)
probabile intenda che sgrana meno
-noxius-
03-06-2008, 16:42
Già, dopo due anni se ne vengono con una scheda, la 4850, che farà si e no il punteggio della 8800GT, mentre la 4870 arriva appena appena a una 9800GTX non overcloccata.
E siccome alla AMD sono incapaci e non hanno soldi per fare GPU, se ne vengono con la trovata di mettere due chip sulla 4870X2 che andrà il 50% in meno della GTX280 come minimo.
La GTX280 invece andrà al 100% della 9800GX2! Così si fa, AMD guarda e impara da nVidia!
Guarda che ti stai confondendo con la 4850 , che sarà grossomodo uguale ad una 9800gtx ovvero ad una 8800gts 512 ; la 4870 a detta di amd sarà del 30% più potente della 4850 quindi fatti 2 conti ..
cazzata, il video è un rendering, in realtà va ancora più a scatti.
in effetti non si capisce il motivo di quel video che a quanto vedo ha creato solo confusione
Già , cazzata .... :muro: http://www.youtube.com/watch?v=VaHS-y_mapQ&feature=related
http://www.youtube.com/watch?v=neqAaSb9gNQ (spettacolo)
http://www.youtube.com/watch?v=5ULei3VxVe8&feature=related
halduemilauno
03-06-2008, 16:42
Beh, orami io non ho più dubbi. La Hd4870 sarà tra il 10% e il 20% più lenta della 9800GX2. Io comprerei la HD4870, la singola GPU è preferibile al dual-gpu, sopratuto in questa fascia dove il consumo è importante.
Poi non è detto che la differenza di prezzo sia così piccola. Attualmente le GX2 si trovano a 370€, per il lancio di HD4870 si troveranno a 350€. Tutto dipende da a che prezzo Ati lancerà le 4870.
PS: Mah, mi sembra molto strano che le 2 GTX280 in sli facciano solo X7000 punti. Dovrebbero farne circa X8400, scalando come scalano da 9800GTX a GX2. Imho è un risultato ottenuto con vecchi driver, quelli da 4100 punti e non i nuovi da 4800 punti.
hai fatto tu il discorso dei 50€ e io ho risposto in base a quello. si per le gtx280 ora si parla di quasi 5000 punti quindi si lo sli aumenterebbe di conseguenza.
halduemilauno
03-06-2008, 16:44
probabile intenda che sgrana meno
la mia era una battuta e credo anche la sua.
;)
probabile intenda che sgrana meno
Credo intenda che ha i pixel piú piccoli.
halduemilauno
03-06-2008, 16:45
Guarda che ti stai confondendo con la 4850 , che sarà grossomodo uguale ad una 9800gtx ovvero ad una 8800gts 512 ; la 4870 a detta di amd sarà del 30% più potente della 4850 quindi fatti 2 conti ..
Già , cazzata .... :muro: http://www.youtube.com/watch?v=VaHS-y_mapQ&feature=related
:eek: :doh:
leoneazzurro
03-06-2008, 16:47
Guarda che ti stai confondendo con la 4850 , che sarà grossomodo uguale ad una 9800gtx ovvero ad una 8800gts 512 ; la 4870 a detta di amd sarà del 30% più potente della 4850 quindi fatti 2 conti ..
Era una replica ironica al tentativo di flame dell'altro utente.
la mia era una battuta e credo anche la sua.
;)
pardon :P
michelgaetano
03-06-2008, 16:59
io ho trovato due GTX280 in SLI ma non le ho ancora benchate
http://resources.vr-zone.com/computex08/girls2/IMG_0493.jpg
io! io! mi propongo per bencharle :D
se i rumors son veri e chi non pagherebbe quei 50€ in +?
Nessuno, visto che la GX2 stando alle slides di NVidia ha imboccato la strada dell'EOL (non compare nemmeno nei grafici). :asd:
bluefrog
03-06-2008, 17:07
ti ringrazio ! sei l'unico che ha capito cosa volevo dire..
ricordo a tutti che al di là dei prezzi e del denaro esiste un concetto che si chiama Innovazione Tecnlogica e Progresso
Io invece ricordo a te che Nvidia a suon di mazzette eviterà che vengano utilizzate le dx10.1 (vedi assassin's creed) nei giochi futuri (quelli col TWIMTBP), perlomeno fino a quando non avrà anche lei una vga compatibile con tali librerie.
bluefrog
03-06-2008, 17:09
io ho trovato due GTX280 in SLI ma non le ho ancora benchate
http://resources.vr-zone.com/computex08/girls2/IMG_0493.jpg
:sbonk: :sbonk: :sbonk:
:D
-noxius-
03-06-2008, 17:12
Era una replica ironica al tentativo di flame dell'altro utente.
Non avevo letto la parte precedente, mi sembrava stano che non fosse evidente questo , dato che anche qui ne avevate discusso pochi giorni fa . Il tono effettivamente mi sembrava troppo alterato solo che non avendo appunto seguito la discussione ,a giudicare dai vari commenti precedenti tipo quello di hal (50% in più di una gx2 in media) , mi stava sorgendo un piccolo dubbio ;) .
2 faccine di hal ..
Sarebbe a dire ? Con tutte queste faccine si stà perdendo l'ausilio della parola .
mircocatta
03-06-2008, 18:00
definisci + definito.
;)
ci sono lo stesso numero di pixel in un 20 pollici anzichè 22, quindi a rigor di logica i pixel sono più piccoli quindi imho avrà meno bisogno di applicare l'AA
mircocatta
03-06-2008, 18:06
Già , cazzata .... :muro: http://www.youtube.com/watch?v=VaHS-y_mapQ&feature=related
http://www.youtube.com/watch?v=neqAaSb9gNQ (spettacolo)
http://www.youtube.com/watch?v=5ULei3VxVe8&feature=related
infatti ho ragione a dire che è una cazzata, ti spiego perchè:
il primo video, il mass effect, se leggi la descrizione è scritto così:
"Q: Is this realtime?
A: No, it was rendered frame by frame slowly using this method:"
;)
il secondo video NON c'è affatto scritto che è stata modificata quella opzione che sposta il lavoro sulla gpu togliendolo dalla cpu ;)
il terzo video, se leggi la descrizione, c'è palesemente scritto: "Vehicles and Houses demolition ( not real frames )"
;)
Crysis90
03-06-2008, 18:40
Ragazzi io invece ho un'altra domanda: ho un alimentatore da 600W con 2 connettori PCI-Exp. da 6 pin, per alimantare il PC in firma, che dite per prendere una GTX 280 dovrò cambiarlo? Mi spiego meglio, va bene un alimentatore con 2 connettori PCI-Exp. da 6 pin o me ce ne vuole uno con un connettore PCI Exp. da 6 pin e uno da 8 pin??? 600 W comunque bastano??
appleroof
03-06-2008, 18:42
Ragazzi io invece ho un'altra domanda: ho un alimentatore da 600W con 2 connettori PCI-Exp. da 6 pin, per alimantare il PC in firma, che dite per prendere una GTX 280 dovrò cambiarlo? Mi spiego meglio, va bene un alimentatore con 2 connettori PCI-Exp. da 6 pin o me ce ne vuole uno con un connettore PCI Exp. da 6 pin e uno da 8 pin??? 600 W comunque bastano??
che marca è l'ali? cmq probabilmente dovrai prendere un adattatore 6@8 pin (a meno che la scheda vada a 2x6 pin senza possibilità di occare, come è per la 3870x2 ma per ora che io sappia non è dato saperlo, appunto )
Ragazzi io invece ho un'altra domanda: ho un alimentatore da 600W con 2 connettori PCI-Exp. da 6 pin, per alimantare il PC in firma, che dite per prendere una GTX 280 dovrò cambiarlo? Mi spiego meglio, va bene un alimentatore con 2 connettori PCI-Exp. da 6 pin o me ce ne vuole uno con un connettore PCI Exp. da 6 pin e uno da 8 pin??? 600 W comunque bastano??
Dicci il modello.
Se é buono, basta prendere un adattatore ;)
paolox86
03-06-2008, 18:49
Secondo voi un Enermax Liberty 500w ce la fa con la 260?
Crysis90
03-06-2008, 18:50
Dicci il modello.
Se é buono, basta prendere un adattatore ;)
Ti dico subito che non è un signor alimentatore (nel senso che la marca non è Coolermaster, Enermax o altri...), la marca è "Premier"...col PC in firma va benissimo...sennò potete consigliarmi un buon ali. se ci fosse bisogno di sostituire questo, magari con un connettore a 6 e uno a 8 pin...
appleroof
03-06-2008, 18:55
Ti dico subito che non è un signor alimentatore (nel senso che la marca non è Coolermaster, Enermax o altri...), la marca è "Premier"...col PC in firma va benissimo...sennò potete consigliarmi un buon ali. se ci fosse bisogno di sostituire questo, magari con un connettore a 6 e uno a 8 pin...
mmmm.....aspetta almeno di sapere quanti ampere sulla linea +12v necessita la gtx280 e poi valuta se è il caso di cambiarlo o meno....
VIKKO VIKKO
03-06-2008, 18:56
l'Enermax Infiniti 650w può alimentare la 280?
appleroof
03-06-2008, 18:59
l'Enermax Infiniti 650w può alimentare la 280?
ad occhio direi proprio di si
cmq raga consiglierei in generale di aspettare la rece ufficiale della vga, per ora tanto si possono fare solo ipotesi da questo punto di vista (in realtà anche da altri, ancora :D )
l'Enermax Infiniti 650w può alimentare la 280?
Certo che si, e in full non lo sforzi neanche cosi tanto.
VIKKO VIKKO
03-06-2008, 19:26
Certo che si, e in full non lo sforzi neanche cosi tanto.
ok, perfetto :)
Kharonte85
03-06-2008, 20:01
io direi assolutamente no.
il mio per esempio non basta, farei fatica a tirare una 8800gtx figuriamoci la gtx280 che consuma molto di più
Stai scherzando? :mbe:
http://www.tomshw.it/guides/hardware/howto/20051014/images/liberty-01.jpg
sono 384W reali sui +12v
236w è il TDP della gtx 280, il che significa che ci aspettiamo circa un 200-210w in full load, il resto lo lasciamo alla CPU (130w male che vada) e al resto...è chiaro che abbondare per rimanere piu' rilassati non faccia che bene ma cerchiamo di non farci prendere dal panico..
Secondo voi un Enermax Liberty 500w ce la fa con la 260?
Sì, vedi sopra
l'Enermax Infiniti 650w può alimentare la 280?
:fagiano:
Scusate l'OT...
sommojames
03-06-2008, 20:03
Dei progetti futuri di Nvidia dopo il lancio di queste schede si sà già qualcosa?
Mister Tarpone
03-06-2008, 20:07
Dei progetti futuri di Nvidia dopo il lancio di queste schede si sà già qualcosa?
uscirà la serie GTX400 a 40nm con 500sp 50rops 170tmu e ddr6.
:sborone:
nico88desmo
03-06-2008, 20:09
Dei progetti futuri di Nvidia dopo il lancio di queste schede si sà già qualcosa?
Progetto Futuro? Secondo me sarà verso le DX11. ;)
appleroof
03-06-2008, 20:15
Dei progetti futuri di Nvidia dopo il lancio di queste schede si sà già qualcosa?
ma intendi le altre fasce che non siano le entusiasth, o in generale?
uscirà la serie GTX400 a 40nm con 500sp 50rops 170tmu e ddr6.
:sborone:
:asd: :asd:
VIKKO VIKKO
03-06-2008, 20:18
:fagiano:
naturalmente mi chiedevo per i vari tipi di attacchi, non per i watt ;)
VIKKO VIKKO
03-06-2008, 20:22
uscirà la serie GTX400 a 40nm con 500sp 50rops 170tmu e ddr6.
:sborone:
quindi un flop! :O
:asd: :asd:
Un Enermax Infiniti 720 W basterà considerando che levo l'Ageia? :confused:
Sennò mi prendo un bel 1000 W o magari 1200 W, anzi facciamo 10000 W. :asd:
sommojames
03-06-2008, 20:24
ma intendi le altre fasce che non siano le entusiasth, o in generale?
No no, intendevo in generale, se avevano già annunciato quando rilasceranno la prossima top. Ma suppongo che anche questa volta dipenderà da quanto AMD dormirà...
:asd: :asd:
Per mezzo secondo ci avevo pure creduto :sofico:
appleroof
03-06-2008, 20:25
No no, intendevo in generale, se avevano già annunciato quando rilasceranno la prossima top. Ma suppongo che anche questa volta dipenderà da quanto AMD dormirà...
ok, bè è troppo presto ancora...:)
Per mezzo secondo ci avevo pure creduto :sofico:
:D :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.