PDA

View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25

Gabriyzf
11-06-2008, 12:21
Il gioco l'ho portato in fondo e l'ho trovato divertente. A livello di engine è e rimane una merda.

Un engine che non è in grado di funzionare in modo decente con il massimo dell'hardware disponibile nel timeframe di uscita sul mercato è un engine che fa schifo.

quotone

Tioz90
11-06-2008, 12:22
Crysis SE è stato ottimizzato l'ha ottimizzato un drogato

halduemilauno
11-06-2008, 12:30
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7830&Itemid=1

1.4 billion transistors and 240 cores

We managed to get the final Geforce GTX 280 details, and most of the stuff that we've reported over the last few months turned to be true.

Codenamed GT200, the GTX 280 GPU developed in 65nm process and has 1.4 billion transistors clocked at 602MHz. The processor clock, something that we use to call Shaders, works at 1296MHz and Nvidia's new chip has impressive 240 cores.

The GTX 280 card uses GDDR3 memory with 512-bit memory interface clocked to 1107MHz (2214MHz). The card has 141.7GB/s bandwidth and it comes with a total of 1GB memory.

The GT200 chip has 32 ROPs, 80 texture filtering units, 48.2 Gigatexels/sec texture filtering rate. The card supports HDCP, and HDVI via DVI to HDMI adapter and comes with two dual link DVI-I and a single HDTV out.

Ramdac is set to 400MHz, and the card itself is dual-slot with PCIe 2.0 interface and has one 8-pin and one 6-pin power connector. So, now you know.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7831&Itemid=1

Slightly slower

Nvidia’s second GT200-based card will also be available for sale in about six days and here are the final details and clocks. Geforce GTX 260 is, as well, based on 65nm GT200 core that has 1.4 billion transistors, but this time clocked to 576MHz. Some of these transistors will sit disabled, as GTX 260 has one of eight clusters disabled.

The Shaders are clocked to 1242MHz and the card has a total of 192 Shaders (what used to be called Shader units are now called processor cores).

The card has an odd number of 896MB GDDR3 memory clocked at 999MHz (1998MHz effectively) and this is enough for 111.9GB/s bandwidth. The slower of the chips has 28 ROPs, 64 Texture filtering units and 36.9GigaTexels/second of texture filtering rate.

If you look at these specs closely, you will see that GTX 260 is the same as GTX 280, but with one cluster disabled. If GTX 280 has eight clusters, GTX 260 ends up at seven.

The card has HDCP, HDMI via DVI, but this time two 6-pin power connectors; and launches next Tuesday.
;)

al135
11-06-2008, 12:53
Devo munirmi di un disegnatore, visto che l'italiano corretto non è sufficiente a farmi capire.

Il gioco l'ho portato in fondo e l'ho trovato divertente. A livello di engine è e rimane una merda.

Un engine che non è in grado di funzionare in modo decente con il massimo dell'hardware disponibile nel timeframe di uscita sul mercato è un engine che fa schifo.

no sono io forse che non mi sono fatto capire.
con hardw piu potente almeno aumenta di fps e dipende anche da driver. giocate a raven shield della bubisoft. 30 fps con le radeon x800 , 30 con le 3870 e 8800 gtx poi vabè .. o altri giochi pieni di bug e schifezze.
piu che engine da schifo l'hanno tirato fuori che non c'era l'hardware. è un po diversa come cosa
e cmq bisognera' vedere i bench di queste nuove nvidia e delle 48xx

ultras77
11-06-2008, 12:57
è una gran scheda.....ha chip per la fisica e per l'accelerazione del 2d e di aero.... photoshop e affini...aiuta il processore nella gestione del desktop di windows nella compressione dei flussi.... ne vedremo delle belle.... :D

Felle
11-06-2008, 13:06
Sbaglierò....... mah secondo me il chipset 790i essendo il più innovativo in casa nvidia è nato per dare la possibilità all'utente di montare tre schede video.....

Dunque dal mio punto di vista ma soprattutto da il loro ...... se si monteranno 3:eek: gtx 280 crysis sarà finalmente giocabile a 1900x1200 very high + filtri vari.

Se no che senso avrebbe per tutto il 2008 il chipset 790i e la pubblicità di quad sli..... tri sli e via dicendo?

Loro puntano a questo: vuoi giocare a crysis?:rolleyes: ... bene comprati un pc della nasa e potrai godertelo al max del dettaglio a risuluzioni Full HD.

Purtroppo il prezzo da pagare è questo, già due mesi fa ero certo che una singola vga di nuova generazione non avrebbe fatto miracoli con questo gioco,
soprattutto a certe risoluzioni +aa +af........

Possiamo stare qui per mesi a discutere sul fatto che sia programmato bene.... che sia programmato male... scivere mille post..... ma la situazione è questa.... sia che ci arrabbiamo sia che ci ridiamo sopra perchè il tutto ci possa sembrare ridicolo...... dunque...... il gtx 280 non è il messia che molti aspettavano :D

PS: vi ricordo che i programmatori hanno pure cessato lo sviluppo della patch 1.3 che non vedrà mai luce dunque......

Permettetemi la battuta.... non so se avete avuto modo di provare crysis in inglese..... l'unica cosa di veloce in quel gioco è l'armor del protagonista...... MAXIMUM SPEED LOLOLOLOL

Crysis90
11-06-2008, 13:19
Two GTX 280 are enough for Crysis

At 2560x1600 2X AA
If you are hoping that a single GTX 280 will get you to more than 1920x1200, don't kill the messenger as I have to regrettably disappoint you.
Nvidia claims that a single GTX 280 will be enough for Crysis at 1920x1200 that is a standard resolution for most of the 24 inch LCD's.
If you have 30 inch display that supports 2560x1600 you will need two GTX 280 but again we heavily suspect that you won't be able to play with FSAA 4X enabled.
This would be too much even for two GTX 280 cards. It becomes ridiculous as two of these cards combined have 2.8 billion transistors and they will still not be able to bring Crysis to its knees. The best you can hope at 2560x1600 is 2X FSAA with these two cards.
We’ve had a chance to play Crysis with a single card and we can tell that 1920x1200 FSAA 4X with beta drives bring the card to its knees. Ouch, isn’t it.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7837&Itemid=1

Tutto sommato non male, per Crysis pensavo peggio...:D
Quindi una GTX 280 basta e avanza per giocare a 1680x1050 nel mio 20", magari anke con AA4x...EVVAIIIIIII!!

al135
11-06-2008, 13:19
Loro puntano a questo: vuoi giocare a crysis?:rolleyes: ... bene comprati un pc della nasa e potrai godertelo al max del dettaglio a risuluzioni Full HD.

Purtroppo il prezzo da pagare è questo, già due mesi fa ero certo che una singola vga di nuova generazione non avrebbe fatto miracoli con questo gioco,
soprattutto a certe risoluzioni +aa +af........



fosse cosi avrebbero fatto male i loro calcoli.
non si fanno senza l'oste...

Tioz90
11-06-2008, 13:20
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7830&Itemid=1

1.4 billion transistors and 240 cores

We managed to get the final Geforce GTX 280 details, and most of the stuff that we've reported over the last few months turned to be true.

Codenamed GT200, the GTX 280 GPU developed in 65nm process and has 1.4 billion transistors clocked at 602MHz. The processor clock, something that we use to call Shaders, works at 1296MHz and Nvidia's new chip has impressive 240 cores.

The GTX 280 card uses GDDR3 memory with 512-bit memory interface clocked to 1107MHz (2214MHz). The card has 141.7GB/s bandwidth and it comes with a total of 1GB memory.

The GT200 chip has 32 ROPs, 80 texture filtering units, 48.2 Gigatexels/sec texture filtering rate. The card supports HDCP, and HDVI via DVI to HDMI adapter and comes with two dual link DVI-I and a single HDTV out.

Ramdac is set to 400MHz, and the card itself is dual-slot with PCIe 2.0 interface and has one 8-pin and one 6-pin power connector. So, now you know.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7831&Itemid=1

Slightly slower

Nvidia’s second GT200-based card will also be available for sale in about six days and here are the final details and clocks. Geforce GTX 260 is, as well, based on 65nm GT200 core that has 1.4 billion transistors, but this time clocked to 576MHz. Some of these transistors will sit disabled, as GTX 260 has one of eight clusters disabled.

The Shaders are clocked to 1242MHz and the card has a total of 192 Shaders (what used to be called Shader units are now called processor cores).

The card has an odd number of 896MB GDDR3 memory clocked at 999MHz (1998MHz effectively) and this is enough for 111.9GB/s bandwidth. The slower of the chips has 28 ROPs, 64 Texture filtering units and 36.9GigaTexels/second of texture filtering rate.

If you look at these specs closely, you will see that GTX 260 is the same as GTX 280, but with one cluster disabled. If GTX 280 has eight clusters, GTX 260 ends up at seven.

The card has HDCP, HDMI via DVI, but this time two 6-pin power connectors; and launches next Tuesday.
;)
Si potrà attivare quel clusterino disabilitato?:asd:

ArCH85
11-06-2008, 13:27
Si potrà attivare quel clusterino disabilitato?:asd:


ho proprio paura di no, l'errore già lo avevano pagato tempo addietro (con la serie 6? bho non ricordo quale :P)

halduemilauno
11-06-2008, 13:28
Si potrà attivare quel clusterino disabilitato?:asd:

no.
lunedi alle 15.
http://it.babelfish.yahoo.com/translate_url?doit=done&tt=url&intl=1&fr=bf-home&trurl=http%3A%2F%2Fwww.hardware-infos.com%2Fnews.php%3Fnews%3D2138&lp=de_en&btnTrUrl=Traduci
;)

Futura12
11-06-2008, 13:44
ma a quanto dovrebbe stare in vendita la GTX 260 dopo un paio di mesi? ci posso sperare sui 250 o poco più?...no perchè mi sta salendo una certa rota:sofico:

D4N!3L3
11-06-2008, 13:53
no.
lunedi alle 15.
http://it.babelfish.yahoo.com/translate_url?doit=done&tt=url&intl=1&fr=bf-home&trurl=http%3A%2F%2Fwww.hardware-infos.com%2Fnews.php%3Fnews%3D2138&lp=de_en&btnTrUrl=Traduci
;)

Mmmh, mi sa che andremo sui 650 euro. :rolleyes:

Mi sta venendo la paranoia di non farcela con il mio Enermax Infiniti 720 W. :stordita:

Futura12
11-06-2008, 13:55
Mmmh, mi sa che andremo sui 650 euro. :rolleyes:

Mi sta venendo la paranoia di non farcela con il mio Enermax Infiniti 720 W. :stordita:

e la madò....se non ce la fa il tuo alimentatore...non regge nessuno:O

Tioz90
11-06-2008, 14:13
no.
lunedi alle 15.
http://it.babelfish.yahoo.com/translate_url?doit=done&tt=url&intl=1&fr=bf-home&trurl=http%3A%2F%2Fwww.hardware-infos.com%2Fnews.php%3Fnews%3D2138&lp=de_en&btnTrUrl=Traduci
;)
Che palle:asd:
Come mai?

Capozz
11-06-2008, 14:23
Bah, sinceramente mi aspettavo un pò di più, visto il prezzo.
La GTX260 come potenza di texturing e shading non è molto diversa dalla 9800gtx, anzi lo è molto poco, cambiano "solo" il bus e la quantità di memoria.
Già meglio la 280 ma almeno la carta secondo me non giustifica prezzi così elevati, vedremo i bench :D

beppe8682
11-06-2008, 14:24
Mmmh, mi sa che andremo sui 650 euro. :rolleyes:

Mi sta venendo la paranoia di non farcela con il mio Enermax Infiniti 720 W. :stordita:

MECOJONIII!!!:sofico:
no dai speriamo che la tua sia solo una sparata grossa...

The_SaN
11-06-2008, 14:25
MECOJONIII!!!:sofico:
no dai speriamo che la tua sia solo una sparata grossa...

Se un 600W di qualitá non regge (e senza sforzo eccessivo) la suddetta scheda me ne posso anche andare da HWU...

appleroof
11-06-2008, 14:51
a sto punto comunque è anche lecito nutrire dei dubbi sulla qualità tecnica del cryengine2. imho

se le cose stanno così, qualche "piccolo dubbietto" a questo punto comincio ad averlo anche io :read: :D :D

Mercuri0
11-06-2008, 14:54
se le cose stanno così, qualche "piccolo dubbietto" a questo punto comincio ad averlo anche io :read: :D :D
Mentre lo stavano programmando non esisteva nessuna scheda che potesse farlo girare in Vey High, quindi magari non si sono sforzati troppo di testarlo, (come avrebbero potuto?) e tantomeno di ottimizzarlo ;)

Unito al fatto che si può ottenere una qualità grafica very high-like in DX9 con maggiori prestazioni, mi sento di poter dire che il VH di Crysis è stato esplicitamente programmato perché non girasse.

I motivi li ignoro: evidentemente volevano far parlare di sé, e ci sono riusciti benissimo.

Intanto gli altri produttori preferiscono l'Unreal Engine. :asd:

Tioz90
11-06-2008, 14:57
Mentre lo stavano programmando non esisteva nessuna scheda che potesse farlo girare in Vey High, quindi magari non si sono sforzati troppo di testarlo, (come avrebbero potuto?) e tantomeno di ottimizzarlo ;)

Unito al fatto che si può ottenere una qualità grafica very high-like in DX9 con maggiori prestazioni, mi sento di poter dire che il VH di Crysis è stato esplicitamente programmato perché non girasse.

I motivi li ignoro.
Far spendere vagonate di soldi ai pirla:asd:

D4N!3L3
11-06-2008, 14:58
MECOJONIII!!!:sofico:
no dai speriamo che la tua sia solo una sparata grossa...

Si spero anch'io. :sofico:

Giustaf
11-06-2008, 14:58
Mentre lo stavano programmando non esisteva nessuna scheda che potesse farlo girare in Vey High, quindi magari non si sono sforzati troppo di testarlo, (come avrebbero potuto?) e tantomeno di ottimizzarlo ;)
Unito al fatto che si può ottenere una qualità grafica very high-like in DX9 con maggiori prestazioni, mi sento di poter dire che il VH di Crysis è stato esplicitamente programmato perché non girasse.

I motivi li ignoro.

quella sottolineata credo sia alla fine la chiave di lettura migliore di tutto quello che è successo con crysis e le schede video.


Ps: Aggiungo il fatto però che i quad esistevano eccome...magari far si che il gioco li sfruttasse appieno era quantomeno lecito..ma questa è una cosa che non riguarda il 3d della gtx280!

appleroof
11-06-2008, 15:00
Mentre lo stavano programmando non esisteva nessuna scheda che potesse farlo girare in Vey High, quindi magari non si sono sforzati troppo di testarlo, (come avrebbero potuto?) e tantomeno di ottimizzarlo ;)

Unito al fatto che si può ottenere una qualità grafica very high-like in DX9 con maggiori prestazioni, mi sento di poter dire che il VH di Crysis è stato esplicitamente programmato perché non girasse.

I motivi li ignoro.

in effetti sarebbe quantomeno strano :stordita:

potrebbe essere (ma siamo nel campo delle pure ipotesi, per usare un eufemismo) che abbiano davvero esagerato con le richieste hw e dunque il VH sarebbe alla fine solo un assaggio, addirittura, di quello che il motore/gioco poteva già offrire: i continui rimandi che ci furono potrebbero essere stati legati a questo....

ricordo inoltre le continue affermazioni che il gioco sarebbe stato 3 anni avanti, come potenzialità :boh:

D4N!3L3
11-06-2008, 15:00
se le cose stanno così, qualche "piccolo dubbietto" a questo punto comincio ad averlo anche io :read: :D :D

:cincin:
Eh direi, perchè qua si sta andando sull'assurdo veramente. :rolleyes:

appleroof
11-06-2008, 15:04
cut

Intanto gli altri produttori preferiscono l'Unreal Engine. :asd:

risondo adesso perchè hai aggiunto dopo: lo preferiscono, senza nulla togliere al fatto che sia in ogni caso ottimo, anche e sopratutto perchè multipiattaforma :D

a livello puramente grafico tra un qualunque gioco UT3 e crysis non c'è paragone, molto meglio crysis già solo in high

padsi
11-06-2008, 15:06
Mentre lo stavano programmando non esisteva nessuna scheda che potesse farlo girare in Vey High, quindi magari non si sono sforzati troppo di testarlo, (come avrebbero potuto?) e tantomeno di ottimizzarlo ;)

Unito al fatto che si può ottenere una qualità grafica very high-like in DX9 con maggiori prestazioni, mi sento di poter dire che il VH di Crysis è stato esplicitamente programmato perché non girasse.

I motivi li ignoro: evidentemente volevano far parlare di sé, e ci sono riusciti benissimo.

Intanto gli altri produttori preferiscono l'Unreal Engine. :asd:

Lo potevano tetsare con un TRI SLI di 8800ULTRA e a quel punto capivano che era meglio ottimizzarlo almeno dico per i proci visto che se usi un P4 o un QX da 900€ nn cambia una cippa o quasi.
E poi e' stato un flop di vendite quindi nn hanno raggiunto un bel niente se nn dire"facciamo i giochi anche su console perche' su pc c'e' troppa pirateria"

Mercuri0
11-06-2008, 15:06
in effetti sarebbe quantomeno strano :stordita:

potrebbe essere (ma siamo nel campo delle pure ipotesi, per usare un eufemismo) che abbiano davvero esagerato con le richieste hw e dunque il VH sarebbe alla fine solo un assaggio, addirittura, di quello che il motore/gioco poteva già offrire: i continui rimandi che ci furono potrebbero essere stati legati a questo....

ricordo inoltre le continue affermazioni che il gioco sarebbe stato 3 anni avanti, come potenzialità :boh:
Questo "assaggio" il motore grafico può offrirlo in DX9 a velocità superiore. E' ovvio che dietro Crysis non si sia solo un discorso tecnico. :rolleyes:

Comunque la mia osservazione precedente è maturata dalla lettura di un intervista tecnica (al solito penso su b3d) di un ingegnere AMD, che diceva en passant come alla Crytek avessero "un modo insolito di lavorare" perché non prendevano come riferimento l'hardware esistente.

E immagino né quello futuro: alla Crytek non possono sapere come si evolverà l'hardware meglio di AMD e nVidia.

appleroof
11-06-2008, 15:09
Questo "assaggio" il motore grafico può offrirlo in DX9 a velocità superiore. E' ovvio che dietro Crysis non si sia solo un discorso tecnico. :rolleyes:

certo, ma very high (tutto very high) è cmq meglio, inoltre modificando l'ini si può notare come il gioco raggiunga quasi il fotorealismo, e nessun altro come lui attualmente lo fà (modificato solo tramite ini, lasciamo perdere mod complesse e pesanti)

Comunque la mia osservazione precedente è maturata dalla lettura di un intervista tecnica (al solito penso su b3d) di un ingegnere AMD, che diceva en passant come alla Crytek avessero "un modo insolito di lavorare" perché non prendevano come riferimento l'hardware esistente.

E immagino né quello futuro: alla Crytek non possono sapere come si evolverà l'hardware meglio di AMD e nVidia.

bè, questo fà il paio con quello che dicevo....

quanto all'ultimo capoverso, almeno con Nvidia ha collaborato :D

Mercuri0
11-06-2008, 15:10
Lo potevano tetsare con un TRI SLI di 8800ULTRA e a quel punto capivano che era meglio ottimizzarlo almeno dico per i proci visto che se usi un P4 o un QX da 900€ nn cambia una cippa o quasi.
Coi giochi, un processore da 900€ serve solo per buttare 700€ nel cesso, e la cosa non la può cambiare Crisys.

Coi giochi, i proci da 900€ sono utili per fare gli fps quando non servono (110fps anziché 100 - cioè negli scenari non GPU-limited) e fare un punteggio alto nel 3dmark2006, che proprio per questo fatto è una delle cazzate più grandi della storia informatica recente.

Mercuri0
11-06-2008, 15:13
quanto all'ultimo capoverso, almeno con Nvidia ha collaborato :D
Ha collaborato anche con AMD, altrimenti l'ing non poteva sapere che modo di lavorare avessero ;)

Probabilmente il favore fatto a nVidia è la mancanza del DX10.1 che con le nuove schede potrebbe fare girare Crysis con l'AA tranquillamente, grazie al trucco del passo di rendering in meno.

D4N!3L3
11-06-2008, 15:13
certo, ma very high (tutto very high) è cmq meglio, inoltre modificando l'ini si può notare come il gioco raggiunga quasi il fotorealismo, e nessun altro come lui attualmente lo fà (modificato solo tramite ini, lasciamo perdere mod complesse e pesanti)


Che INI? :confused:

Kharonte85
11-06-2008, 15:13
Mentre lo stavano programmando non esisteva nessuna scheda che potesse farlo girare in Vey High, quindi magari non si sono sforzati troppo di testarlo, (come avrebbero potuto?) e tantomeno di ottimizzarlo ;)

Unito al fatto che si può ottenere una qualità grafica very high-like in DX9 con maggiori prestazioni, mi sento di poter dire che il VH di Crysis è stato esplicitamente programmato perché non girasse.

I motivi li ignoro: evidentemente volevano far parlare di sé, e ci sono riusciti benissimo.

Intanto gli altri produttori preferiscono l'Unreal Engine. :asd:
Volevano fare vedere quanto ce l'avevano lungo e di fatti, per distrazione, VRAAAM si sono evirati da soli...:asd:

se non avessero creato le impostazioni VH e si fossero fermati all'HQ crysis sarebbe osannato da tutti e riportato su tutti i manuali di programmazione.

Mercuri0
11-06-2008, 15:16
certo, ma very high (tutto very high) è cmq meglio
Il discorso è che bisogna rapportare questo "meglio" alla differenza di prestazioni.

A me sembra che la scelta di questo rapporto sia stata fatta per motivi "politici", cioè esplicitamente per non farlo girare.

appleroof
11-06-2008, 15:18
Ha collaborato anche con AMD, altrimenti l'ing non poteva sapere che modo di lavorare avessero ;)

Probabilmente il favore fatto a nVidia è la mancanza del DX10.1 che con le nuove schede potrebbe fare girare Crysis con l'AA tranquillamente, grazie al trucco del passo di rendering in meno.

certo, la mia era una battuta, nel senso che di sicuro con Nvidia hanno collaborato

ma allora perchè hai affermato quello di prima? :what:

vabbè lasciamo perdere, quanto al resto, un pò provocatorio ma insomma (giravano anche voci che sarebba uscita una patch dx10.1 della quale si è poi persa traccia, in effetti...)

Che INI? :confused:

il file di configurazione che ha ogni gioco, se vai sul tread ufficiale vedi che risultati si possono raggiungere con Crysis, ma su questo stesso tread Tarpone ha postato 2 shot che mostrano una grafica da paura con un frame rate più che buono , il tutto ottenuto con la sua 9600gt :)

padsi
11-06-2008, 15:19
Coi giochi, un processore da 900€ serve solo per buttare 700€ nel cesso, e la cosa non la può cambiare Crisys.

Coi giochi, i proci da 900€ sono utili per fare gli fps quando non servono (110fps anziché 100 - cioè negli scenari non GPU-limited) e fare un punteggio alto nel 3dmark2006, che proprio per questo fatto è una delle cazzate più grandi della storia informatica recente.

Ti ricordo che crytek disse che il loro game avrebbe sensibilmente sfruttato i multi core (cosa che fa meglio doom3 tanto per dirti di crysis)

Mercuri0
11-06-2008, 15:19
se non avessero creato le impostazioni VH e si fossero fermati all'HQ crysis sarebbe osannato da tutti e riportato su tutti i manuali di programmazione.
Avrebbero potuto osare di più e arrivare al VeryHigh che si ottiene con le modifiche in DX9, già che c'erano.

Mister Tarpone
11-06-2008, 15:20
il file di configurazione che ha ogni gioco, se vai sul tread ufficiale vedi che risultati si possono raggiungere con Crysis, ma su questo stesso tread Tarpone ha postato 2 shot che mostrano una grafica da paura con un frame rate più che buono , il tutto ottenuto con la sua 9600gt :)

:sborone:

appleroof
11-06-2008, 15:20
Il discorso è che bisogna rapportare questo "meglio" alla differenza di prestazioni.

A me sembra che la scelta di questo rapporto sia stata fatta per motivi "politici", cioè esplicitamente per non farlo girare.

che fatica starti dietro :D :D

ti dirò, tutto può essere, ma a me questa ipotesi sembra abbastanza assurda, secondo me è ripeto un assaggio di quello che può il motore (potenzialità dello stesso) ma con il boomerang che è troppo per qualsiasi conf. in giro (e conseguente incazzatura degli utenti)

appleroof
11-06-2008, 15:20
:sborone:

eccolo, grande :asd: :asd:

Mercuri0
11-06-2008, 15:22
Ti ricordo che crytek disse che il loro game avrebbe sensibilmente sfruttato i multi core (cosa che fa meglio doom3 tanto per dirti di crysis)
Se lo dici tu mi fido (io non ho visto bench ne in un senso ne nell'altro).

Pero il confronto deve essere fatto in uno scenario in cui la GPU non faccia da collo di bottiglia!
("pari risoluzione" non va bene)

Se un componente fa da collo di bottiglia, la potenza degli altri non conta.

Kharonte85
11-06-2008, 15:23
Avrebbero potuto osare di più e arrivare al VeryHigh che si ottiene con le modifiche in DX9, già che c'erano.
Infatti...comunque dal lato grafico sarebbero rimasti avanti e non di poco rispetto agli altri FPS...poi a me sti discorsi mi fanno sorridere poiche' io me lo sono giocato a tuono sul 17" CRT a 1024 2xAA 8xAniso MAX dettaglio in DX10 su vista 64bit...quindi gia' l'ho finito 2 volte al max...ho fatto l'affare del secolo a rimanere monitor limited :asd:

Mercuri0
11-06-2008, 15:24
ti dirò, tutto può essere, ma a me questa ipotesi sembra abbastanza assurda,
Può essere, quello che io sto dicendo in sostanza è che non capisco perché non abbiano usato il file ini di Mister Tapone. ;)

Mister Tarpone
11-06-2008, 15:25
Può essere, quello che io sto dicendo in sostanza è che non capisco perché non abbiano usato il file ini di Tapone. ;)

perchè non sono esperti come me :sborone:






(.... :asd: :stordita: )

Kharonte85
11-06-2008, 15:26
perchè non sono esperti come me :sborone:
(.... :asd: :stordita: )
Fatti assumere...:asd:

pioss~s4n
11-06-2008, 15:27
Scusate l'ot ma la tentazione è tanta:
nessuno oltre a me pensa a Crysis come ad un gioco nato per vendere schede video?
La verità è che centra alla perfezione il suo scopo. Crysis non gira lento perchè la scheda video non ce la fa, ma perchè ce ne sia una successiva che lo faccia girare meno lento. Finchè le migliorie sintetiche (in termini di fotogrammi) sono dell'ordine di un incremento del 10-20% ad ogni release di scheda video, prima di arrivare ad un'ipotetica fluidità ad ogni frangente passano anni e quindi 3, o 4, o 5 evoluzioni di chipset grafici.

Tanto di cappello alla Crytek che distribuisce un gioco che venderà nel corso degli anni, e avrà utenze sempre diverse.

padsi
11-06-2008, 15:30
Se lo dici tu mi fido (io non ho visto bench ne in un senso ne nell'altro).

Pero il confronto deve essere fatto in uno scenario in cui la GPU non faccia da collo di bottiglia!
("pari risoluzione" non va bene)

Se un componente fa da collo di bottiglia, la potenza degli altri non conta.

Per quello che ho provato io con un P4 3Ghz, un AMD 5000+ ed infine il mio attuale E8400 in tutti i giochi a pari VGA, una sola 8800GT, solo per il procio si e' visto un cmq aumento degli FPS in crysis nn mi e' cambiato praticamente nulla, cmq che sia fatto col culo come ottimizzazioen sotto DX10 mi pare che sia stato detto anche troppe volte, per poi nn parlre di quando era appena uscito che supportata malissimo lo sli fino alla prima pacth, vabbe' cmq io per misurare ste nuove VGA nn mi orienterei solo su crysis anzi, se poi mi vengono a dire va che con uno sli di GTX280 crysis te lo giochi a 1920 tutto su Very High con Vsync e AA attivo io gli rispondo di andare a fare in :ciapet: ahahahahah e mi gioco crysis tutto su very High sul mio 32" HD-ready a 720p;) col mio sli di 88GT

Mercuri0
11-06-2008, 15:30
Scusate l'ot ma la tentazione è tanta:
nessuno oltre a me pensa a Crysis come ad un gioco nato per vendere schede video?
Però la Crytek non vende schede video, dovrebbe aver ricevuto grossi finanziamenti da altri :D

Però che figura ci fanno nei confronti dell'Unreal Engine? e anche il Tech5 di ID promette meraviglie, ma il boss di ID ha detto che girerà su hardware che muore solo a sentir la "C" di crysis.

padsi
11-06-2008, 15:33
Però la Crytek non vende schede video, dovrebbe aver ricevuto grossi finanziamenti da altri :D

Però che figura ci fanno nei confronti dell'Unreal Engine? e anche il Tech5 di ID promette meraviglie, ma il boss di ID ha detto che girerà su hardware che muore solo a sentir la "C" di crysis.

Ameno che Nvidia nn abbia fatto grossi e grassi magheggi con Crytek e il suo Crysis per far vendere VGA Nvidia e dare una piccola % a crytek su ogni VGA venduta.........................:sofico:

appleroof
11-06-2008, 15:34
Infatti...comunque dal lato grafico sarebbero rimasti avanti e non di poco rispetto agli altri FPS...poi a me sti discorsi mi fanno sorridere poiche' io me lo sono giocato a tuono sul 17" CRT a 1024 2xAA 8xAniso MAX dettaglio in DX10 su vista 64bit...quindi gia' l'ho finito 2 volte al max...ho fatto l'affare del secolo a rimanere monitor limited :asd:

:D :D

Può essere, quello che io sto dicendo in sostanza è che non capisco perché non abbiano usato il file ini di Mister Tapone. ;)

lo devi chiedere a loro, fatto stà che gli screen parlano da soli e non sono fake :)

Scusate l'ot ma la tentazione è tanta:
nessuno oltre a me pensa a Crysis come ad un gioco nato per vendere schede video?
cut

Però la Crytek non vende schede video, dovrebbe aver ricevuto grossi finanziamenti da altri :D

cut

esatto, ma nemmeno questa regge, ad esempio perchè tutti qui gridano allo scandalo (contro crytech, ma molti anche contro nvidia) perchè nemmeno una gtx280 è (sarebbe) in grado di farlo girare a mille

io mi convinco che abbiano fatto un errore (grosso) di valutazione ( pensa alle parole di quell'ingegnere Amd) ed abbiano esagerato

-noxius-
11-06-2008, 15:45
Avrebbero potuto osare di più e arrivare al VeryHigh che si ottiene con le modifiche in DX9, già che c'erano.

E' no ! E chi glieli avrebbe dati i soldi poi per ''Vista ready'' e ''Thw way it's meant to be played'' ? Soldi,soldi,soldi ...come fa la canzoncina ?

appleroof
11-06-2008, 16:01
E' no ! E chi glieli avrebbe dati i soldi poi per ''Vista ready'' e ''Thw way it's meant to be played'' ? Soldi,soldi,soldi ...come fa la canzoncina ?

non regge questa cosa (diventata ormai un luogo comune quasi), basta riflettere

-noxius-
11-06-2008, 16:08
Ed allora per quale motivo hanno messo il very high solo su vista quando a tutti gli effetti sono solo DX 9.0c rimarchiate come DX 10.0 ? Se permetti, è questo che non regge ;)

appleroof
11-06-2008, 16:13
Ed allora per quale motivo hanno messo il very high solo su vista quando a tutti gli effetti sono solo DX 9.0c rimarchiate come DX 10.0 ? Se permetti, è questo che non regge ;)

io permetto :D e d'altra parte tutte le ipotesi sono legittime, la verità la sanno solo loro

soltanto che nessuno (e non parlo solo di crytech ma di Intel ed Nvidia, ad esempio, ed indirettamente Microsoft, insomma non esattamente il club degli sprovveduti) avrebbe avuto da guadagnare, se fossero stati spinti solo da quello che dici, basta pensarci un attimo ti pare? :)

Tioz90
11-06-2008, 16:20
Cosa fa esattamente il file .ini di tarpone?:confused:

sommojames
11-06-2008, 18:25
Cosa fa esattamente il file .ini di tarpone?:confused:

Mette l'icona del porco come viso a tutti i coreani del gioco :oink:

Mister Tarpone
11-06-2008, 18:40
Mette l'icona del porco come viso a tutti i coreani del gioco :oink:

:rotfl:

Gabriyzf
11-06-2008, 19:32
Mette l'icona del porco come viso a tutti i coreani del gioco :oink:

:rotfl: :rotfl: :rotfl:

-noxius-
11-06-2008, 19:40
io permetto :D e d'altra parte tutte le ipotesi sono legittime, la verità la sanno solo loro

soltanto che nessuno (e non parlo solo di crytech ma di Intel ed Nvidia, ad esempio, ed indirettamente Microsoft, insomma non esattamente il club degli sprovveduti) avrebbe avuto da guadagnare, se fossero stati spinti solo da quello che dici, basta pensarci un attimo ti pare? :)

Di certo però gli unici a rimetterci siamo noi, non chi produce gli OS o le gpu ;) . Ad ogni modo non mi stupisco, avendo visto al massimo le potenzialità del motore di crysis con dettagli su ultra , non posso fare altro che rimanere basito dinanzi a tale qualità grafica . Che poi sia utile o meno questo è un altro discorso, a me interessa molto di più l'avanzamento tecnologico in sè che tutto il resto (tant'è che crysis l'ho prestato ad un mio amico 2 mesi fa e mi sono venduto tutte le schede video per prendermi una 6800gs a 25 spedita ;) )

Tioz90
11-06-2008, 19:53
Mette l'icona del porco come viso a tutti i coreani del gioco :oink:
:rotfl:

Dai però seriamente, sn curioso

McGraw
11-06-2008, 19:59
Gtx 260 $399 ? Hd 4870 $349 ?

It seems that NVIDIA believed that RV770 would only have 480 shader processors, and only be a modest upgrade of the RV670 core. This is suppose to be one of the reasons for the rather high prices of the GeForce GTX cards, that and the ridiculous manufacturing costs. Now that it has been unveiled that RV770 does not have 480 shader processors, but rather 800, it seems NVIDIA might lower the price of the GeForce GTX 260 to make it a bit more appealing in comparison to Radeon HD 4870. We're hearing $399 from more than one source, but we're also hearing that Radeon HD 4870 might not come as cheap as hoped, $349. The GeForce GTX prices are expected to stay put for a long time, but AMD has every possibility to lower the prices of its new graphics cards, if sales are slow, without losing much money.

http://www.nordichardware.com/news,7853.html

Se scendeva anche il prezzo della GTX280 non era poi cosi male éh...:D

nico88desmo
11-06-2008, 20:00
La GTX260 potrebbe essere un'ottima scelta...sempre se il prezzo della HD4870 è quello.
Anche se mi sembra che verrà venduta ad un prezzo <300€ se non sbaglio.

Tioz90
11-06-2008, 20:03
Gtx 260 $399 ? Hd 4870 $349 ?

It seems that NVIDIA believed that RV770 would only have 480 shader processors, and only be a modest upgrade of the RV670 core. This is suppose to be one of the reasons for the rather high prices of the GeForce GTX cards, that and the ridiculous manufacturing costs. Now that it has been unveiled that RV770 does not have 480 shader processors, but rather 800, it seems NVIDIA might lower the price of the GeForce GTX 260 to make it a bit more appealing in comparison to Radeon HD 4870. We're hearing $399 from more than one source, but we're also hearing that Radeon HD 4870 might not come as cheap as hoped, $349. The GeForce GTX prices are expected to stay put for a long time, but AMD has every possibility to lower the prices of its new graphics cards, if sales are slow, without losing much money.

http://www.nordichardware.com/news,7853.html

Se scendeva anche il prezzo della GTX280 non era poi cosi male éh...:D
Ollèèèèèèèèèèèèèèèèèèèèèèèèèèèèèèèèèè:sofico: :sofico: :sofico:

appleroof
11-06-2008, 20:10
Di certo però gli unici a rimetterci siamo noi, non chi produce gli OS o le gpu ;) . Ad ogni modo non mi stupisco, avendo visto al massimo le potenzialità del motore di crysis con dettagli su ultra , non posso fare altro che rimanere basito dinanzi a tale qualità grafica . Che poi sia utile o meno questo è un altro discorso, a me interessa molto di più l'avanzamento tecnologico in sè che tutto il resto (tant'è che crysis l'ho prestato ad un mio amico 2 mesi fa e mi sono venduto tutte le schede video per prendermi una 6800gs a 25 spedita ;) )

abbi pazienza, ma in cosa ci hai rimesso per crysis? Io non ci ho rimesso proprio nulla per quel gioco.....

halduemilauno
11-06-2008, 20:22
Gtx 260 $399 ? Hd 4870 $349 ?

It seems that NVIDIA believed that RV770 would only have 480 shader processors, and only be a modest upgrade of the RV670 core. This is suppose to be one of the reasons for the rather high prices of the GeForce GTX cards, that and the ridiculous manufacturing costs. Now that it has been unveiled that RV770 does not have 480 shader processors, but rather 800, it seems NVIDIA might lower the price of the GeForce GTX 260 to make it a bit more appealing in comparison to Radeon HD 4870. We're hearing $399 from more than one source, but we're also hearing that Radeon HD 4870 might not come as cheap as hoped, $349. The GeForce GTX prices are expected to stay put for a long time, but AMD has every possibility to lower the prices of its new graphics cards, if sales are slow, without losing much money.

http://www.nordichardware.com/news,7853.html

Se scendeva anche il prezzo della GTX280 non era poi cosi male éh...:D

credo che se accadrà per una possa accadere anche per l'altra. non si può aumentare la forchetta se no alcuni possono passare alla 260 senza indugio.
aspettiamo anche questo tanto ormai manca veramente poco. e/o cmq questo si potrebbe verificare quando le 4870 saranno disponibili a luglio.

Mister Tarpone
11-06-2008, 20:27
abbi pazienza, ma in cosa ci hai rimesso per crysis? Io non ci ho rimesso proprio nulla per quel gioco.....

io ci ho rimesso gli occhi. e pure un braccio.






(:asd:)

appleroof
11-06-2008, 20:31
io ci ho rimesso gli occhi. e pure un braccio.






(:asd:)

:D :D :D

Mister Tarpone
12-06-2008, 08:04
55nm GT200b class piece success in September substitutes good rate has 40% GT200? Typeface: Small big | The printing issued: 2008-5-30 10:30 Author: idle.man5216 Origin: The Inquirer Examined: 231 times The Inquirer reported that used TSMC 55 nm system regulation manufacture NVIDIA GT200b the GPU chip already in the American time on 28th the class piece success, and estimated that (approximately in September) the official substitution used 65 nm in the summer later period the system regulation manufacture the GT200 chip, but the GT200b chip area was bigger than 400 mm^2 slightly, caused the production cost to estimate that could drop slightly. The Inquirer quotes the news to refer to, GT200 nondefective rate only then 40%, moreover is GTX 280 and the GTX 260 both Canada digit. The Inquirer has calculated, TSMC 65 nm the system regulation's 300 mm wafer needs 5000 dollars together (US$ 5,000), but according to spreads GT200 576 mm^2 the chip area, 300 mm wafers can only make the approximately 100 GT200 chips together, calculates the nondefective rate again 40%, is the probably 125 dollars (US$ 125) one without the seal GT200 chip production cost. Estimated GT200b uses the product name will not have any change, will use GeForce GTX as before 280 and GeForce GTX 260.

http://www.chiphell.com/?action-viewnews-itemid-227

Mercuri0
12-06-2008, 08:50
Ollèèèèèèèèèèèèèèèèèèèèèèèèèèèèèèèèèè:sofico: :sofico: :sofico:
Eh, la concorrenza dà i suoi frutti (per noi :D )

55nm GT200b class piece success in September substitutes good rate has 40% GT200?
Non ci credete troppo alla storia del 40% di yeld del GT200 perché come dice Arun quello è un dato che solo 3-4 persone in nVidia conoscono.

Certo con quelle dimensioni e yeld di quel tipo, contando anche che i chip "tagliati" sul bordo del wafer (che è rotondo) si buttano, nVidia è fortunata se gli escono 2 chip a wafer :asd:
(il conto si potrebbe fare in maniera precisa ma non c'ho voglia :D )

palla di vetro: pochi GT200 a 65nm in commercio in estate, nVidia passerà prima possibile a quelli a 55nm.

Gabriyzf
12-06-2008, 09:06
55nm GT200b class piece success in September substitutes good rate has 40% GT200?

c.v.d. ;)

halduemilauno
12-06-2008, 09:32
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7853&Itemid=1

GTX 260 to $399


Nvidia planned to launch Geforce GTX 280 at $599 price and GTX 260 at $449 price but it looks that both cards will end up cheaper than it was originally planned.

The reason is simply, ATI will price its cards aggressively. The new GTX 280 suggested retail price might sink to $499 for GTX 280 and $399 for GTX 260. We were advised that some of these prices especially the GTX 260 might go down in weeks after launch.

ATI's Radeon HD 4870 will again be cheaper than GTX 260 and our sources believe that it can give it to run for its money. We will see about that, but at least HD 4870 will end up cheaper to begin with.

nico88desmo
12-06-2008, 09:34
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7853&Itemid=1

GTX 260 to $399


Nvidia planned to launch Geforce GTX 280 at $599 price and GTX 260 at $449 price but it looks that both cards will end up cheaper than it was originally planned.

The reason is simply, ATI will price its cards aggressively. The new GTX 280 suggested retail price might sink to $499 for GTX 280 and $399 for GTX 260. We were advised that some of these prices especially the GTX 260 might go down in weeks after launch.

ATI's Radeon HD 4870 will again be cheaper than GTX 260 and our sources believe that it can give it to run for its money. We will see about that, but at least HD 4870 will end up cheaper to begin with.

Ottima notizia :D

Mercuri0
12-06-2008, 09:39
Ottima notizia :D
Certo che se i test sulle 48xx non fossero trapelati, nVidia ci avrebbe fatto la sua figura coi prezzi delle GTX :D

edit: fosse vero, per nVidia sarebbero 100$ in meno per pezzo! :mbe: Penso che alla nvidia staranno tirando bestemmie in questo momento.

nico88desmo
12-06-2008, 09:42
Certo che se i test sulle 48xx non fossero trapelati, nVidia ci avrebbe fatto la sua figura coi prezzi delle GTX :D

La concorrenza serve per questo ;)

Foglia Morta
12-06-2008, 10:10
For the win :cool:

http://img365.imageshack.us/img365/6475/geforcegtx200seriesofnvyi3.jpg

Kharonte85
12-06-2008, 10:10
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7853&Itemid=1

GTX 260 to $399


Nvidia planned to launch Geforce GTX 280 at $599 price and GTX 260 at $449 price but it looks that both cards will end up cheaper than it was originally planned.

The reason is simply, ATI will price its cards aggressively. The new GTX 280 suggested retail price might sink to $499 for GTX 280 and $399 for GTX 260. We were advised that some of these prices especially the GTX 260 might go down in weeks after launch.

ATI's Radeon HD 4870 will again be cheaper than GTX 260 and our sources believe that it can give it to run for its money. We will see about that, but at least HD 4870 will end up cheaper to begin with.

Significa che AMD-ATI a questo giro ha fatto bene e fa abbastanza paura ad nvidia...e questo si traduce in un vantaggio per le nostre tasche non da poco...:D

goldorak
12-06-2008, 10:26
Significa che AMD-ATI a questo giro ha fatto bene e fa abbastanza paura ad nvidia...e questo si traduce in un vantaggio per le nostre tasche non da poco...:D

Questo pero' vorrebbe dire che ATI potrebbe aumentare il prezzo delle sue schede restante sempre inferiore ai prezzi praticati da Nvidia. :mc:

johnson
12-06-2008, 10:32
[OT]
Visto che ne abbiamo discusso diverse pagine fa, forse qualcuno potrebbe anche essere interessato :) .
Per tutti quelli che pensano che crysis non sia ottimizzato, provate a leggere qui, poi magari cambiate anche idea.
http://www.hardforum.com/showthread.php?t=1313991&page=3
[fine OT]

Kharonte85
12-06-2008, 10:32
Questo pero' vorrebbe dire che ATI potrebbe aumentare il prezzo delle sue schede restante sempre inferiore ai prezzi praticati da Nvidia. :mc:
Non penso...:D

EVGA ha una fantasia :sofico: ...:asd:

Marko#88
12-06-2008, 10:32
10MHz a step? :asd:

:rotfl:

Mercuri0
12-06-2008, 10:37
For the win :cool:


Dai, è uno scherzo vero? :D

Foglia Morta
12-06-2008, 10:45
Dai, è uno scherzo vero? :D

Ma magari :D , comunque son convinto che ci sarà anche la For The Win SuperSuperClocked :sofico:

Kharonte85
12-06-2008, 10:47
Ma magari :D , comunque son convinto che ci sarà anche la For The Win SuperSuperClocked :sofico:

ma ve li vedete in riunione tutti vestiti bene a spremersi le meningi per decidere quali nomi dare? :sbonk:

gutti
12-06-2008, 11:43
Dai, è uno scherzo vero? :D

Vista la perla nera mi stupirei del contrario!
Qui in italia venderanno la Ultra pumped With Contro Cojons Intercooler!

Foglia Morta
12-06-2008, 12:15
mi pare di averli già visti quei dati parecchio tempo fa , o sbaglio ?

http://www.theinquirer.net/gb/inquirer/news/2008/06/12/gt200-scores-revealed

THANKS TO NVIDIA'S shutting us out, we are not handcuffed about the GT200 numbers, so here they are. Prepare to be underwhelmed, Nvidia botched this one badly.

Since you probably care only about the numbers, lets start out with them. All 3DMark scores are rounded to the nearest 250, frame rates to the nearest .25FPS. The drivers are a bit old, but not that old, and the CPU is an Intel QX9650 @ 3.0GHz on the broken OS, 32-bit, SP1.

http://images.vnu.net/gb/inquirer/news/2008/06/12/gt200-scores-revealed/nv_gt200_numbers.jpg

Mister Tarpone
12-06-2008, 12:24
o madonnina... 35 - 29fps e Crysis non è manco a very high.

possibile?? :eek:



azz SE è vero si mette male....:doh: :sbonk: :sbonk:

Mercuri0
12-06-2008, 12:30
Bah, Il tipo di the inquirer deve avercela con nVidia.

fr4nc3sco
12-06-2008, 12:35
ecco i primi siti cinesi nn so quanto affidabili pero :
http://publish.it168.com/diy/showBigPic.asp?cDocid=20080611033801&picid=1040472.jpg
http://publish.it168.com/diy/showBigPic.asp?cDocid=20080611033801&picid=1040491.jpg
link alla review

http://publish.it168.com/2008/0611/20080611033801.shtml

Foglia Morta
12-06-2008, 12:44
ecco i primi siti cinesi nn so quanto affidabili pero :
http://publish.it168.com/diy/showBigPic.asp?cDocid=20080611033801&picid=1040472.jpg
http://publish.it168.com/diy/showBigPic.asp?cDocid=20080611033801&picid=1040491.jpg
link alla review

http://publish.it168.com/2008/0611/20080611033801.shtml

Porca miseria , in lost planet male le 4850 e 4870 ma negli altri 2 giochi vanno veramente forte ( WIC e COJ )

Male invece GTX260 e GTX280 , mi pare dcisamente sotto le aspettative di tutti

Edit: metto le thumbnail perchè meglio imho:

http://img73.imageshack.us/img73/9018/1040491xs3.th.jpg (http://img73.imageshack.us/my.php?image=1040491xs3.jpg)

http://img73.imageshack.us/img73/796/1040472bv2.th.jpg (http://img73.imageshack.us/my.php?image=1040472bv2.jpg)

Kharonte85
12-06-2008, 12:45
Bah, Il tipo di the inquirer deve avercela con nVidia.
giusto un filino...:asd:

nico88desmo
12-06-2008, 12:56
Dalla tabella vedo in effetti le GTX280 e GTX260 un pò sottotono..

-noxius-
12-06-2008, 12:56
o madonnina... 35 - 29fps e Crysis non è manco a very high.

possibile?? :eek:



azz SE è vero si mette male....:doh: :sbonk: :sbonk:

DEVE ESSERE very high, quelli erano i famosi ''runs crysis smooth'' @ 1920x1200 VH ;)

goldorak
12-06-2008, 12:58
DEVE ESSERE very high, quelli erano i famosi ''runs crysis smooth'' @ 1920x1200 VH ;)

Sicuro ? :fagiano:

-noxius-
12-06-2008, 13:03
Si , anche perchè se così fosse allora la gtx280 e 260 sarebbero davvero inutili dato che a questo punto nemmeno la super top di gamma nvidia digerisce crysis ; diciamo che non si strozza :p

Lo ripeto, si :read:

Mister Tarpone
12-06-2008, 13:09
Sicuro ? :fagiano:

ma dai su high 25fps li fa una 88GT a 1920x.... ora una GTX260 secondo te è possibile che ne faccia solo 4 + ??

DEVONO essere in very high per forza..

cristian-BG
12-06-2008, 13:09
spendere 600€ cosi.. finke nn ho bench affidabili nn la prenderò mai.. visto che se è cosi è inutile prenderla... o si opta x una gtx 260 o una gx2 che costerà se nn la metà ma poco c manca

Kharonte85
12-06-2008, 13:11
Porca miseria , in lost planet male le 4850 e 4870 ma negli altri 2 giochi vanno veramente forte ( WIC e COJ )

Male invece GTX260 e GTX280 , mi pare dcisamente sotto le aspettative di tutti

Edit: metto le thumbnail perchè meglio imho:

http://img73.imageshack.us/img73/9018/1040491xs3.th.jpg (http://img73.imageshack.us/my.php?image=1040491xs3.jpg)

http://img73.imageshack.us/img73/796/1040472bv2.th.jpg (http://img73.imageshack.us/my.php?image=1040472bv2.jpg)
Piu' che altro quello che si nota è la scarsa (rispetto a quanto paventato) differenza che c'è rispettivamente fra:

HD4850 e HD4870

GTX 260 e GTX 280

Altro che 30% :asd:

Per il resto è tutto troppo altalenante e dipendente dall'applicazione...aspettiamo recensioni piu' esaustive

zorco
12-06-2008, 13:12
ma dai su high 25fps li fa una 88GT a 1920x.... ora una GTX260 secondo te è possibile che ne faccia solo 4 + ??

DEVONO essere in very high per forza..
flop:O

:sofico:

Mister Tarpone
12-06-2008, 13:14
flop:O

:sofico:

fake :O

goldorak
12-06-2008, 13:14
Piu' che altro quello che si nota è la scarsa (rispetto a quanto paventato) differenza che c'è rispettivamente fra:

HD4850 e HD4870

GTX 260 e GTX 280

Altro che 30% :asd:

Per il resto è tutto troppo altalenante e dipendente dall'applicazione...aspettiamo recensioni piu' esaustive

Meglio cosi' no ?
160 € + leggero oc = 4870. :D

Kharonte85
12-06-2008, 13:16
Meglio cosi' no ?
160 € + leggero oc = 4870. :D
Meglio per le nostre tasche, ma OC tanto leggero non direi...dovresti spingere le gddr3 fuori specifica di quasi il doppio per prendere quel 10-15% in piu' di prestazioni...:asd:

EDIT

il sito dice di quelle tabelle:

we received a NVIDIA internal performance reference table from the overseas channel

Crysis90
12-06-2008, 13:24
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7853&Itemid=1

"GTX 280 drops to $499"

SIIIIIIIIIIIIIIIIIIIIIIIIIIIII!!!!!!!!!!!!

Kharonte85
12-06-2008, 13:25
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7853&Itemid=1

"GTX 280 drops to $499"

SIIIIIIIIIIIIIIIIIIIIIIIIIIIII!!!!!!!!!!!!
OLD...:D

goldorak
12-06-2008, 13:37
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7853&Itemid=1

"GTX 280 drops to $499"

SIIIIIIIIIIIIIIIIIIIIIIIIIIIII!!!!!!!!!!!!


Beh non e' old perche' qua si parla di una riduzione di 100$ non certo 50$.
Alla Nvidia hanno paura eh ? :asd:

Tioz90
12-06-2008, 14:19
Se son veri i numeri che delusione...:mad:

Athlon 64 3000+
12-06-2008, 14:23
Prima di mettere in croce le GTX 280 e 260 per via di presunti benchmark mi sembra davvero esagerato.
Personalmente ritengo tutti quei test dei fake.
Tanto basta aspettare lunedi 16 ore 15 quando scadrà l'NDA e finalmente si saprà tutto sulle due versione di GT200.

appleroof
12-06-2008, 14:33
Prima di mettere in croce le GTX 280 e 260 per via di presunti benchmark mi sembra davvero esagerato.
Personalmente ritengo tutti quei test dei fake.
Tanto basta aspettare lunedi 16 ore 15 quando scadrà l'NDA e finalmente si saprà tutto sulle due versione di GT200.

anche perchè leggo che WIC a 1920x1200 very high farebbe 32fps....se parliamo dei massimi non esiste: la mia ne fà 40 (con aa 2x abilitato, per giunta)

fake :banned:

HackaB321
12-06-2008, 14:46
http://digidownload.libero.it/hackab321/gtx280.bmp

halduemilauno
12-06-2008, 14:53
http://digidownload.libero.it/hackab321/gtx280.bmp

ottimi valori perfetti per una...e pensare che gia c'era qualcuno che aveva detto che non si sarebbe oc di nulla.
;)

tufogiulia
12-06-2008, 14:55
e pensare che alcuni utenti si hanno venduto la gx2 per prendere questo flop nvidia, ecco a voi la nuova generazione di schede video :sofico: :D :O

Mister Tarpone
12-06-2008, 14:57
flop de che?? :confused:
se ancora non c'è manco un test attendibile?? :mbe:


aspettiamo (;) )

@ndrey
12-06-2008, 14:59
http://digidownload.libero.it/hackab321/gtx280.bmp

ottimi valori perfetti per una...e pensare che gia c'era qualcuno che aveva detto che non si sarebbe oc di nulla.
;)

Ottimo risultato vorrei dire.. xke 70mhz su core è ridicolo oc nemmeno buono.. Poi magari la scheda non è stata spinta al massimo..

appleroof
12-06-2008, 14:59
e pensare che alcuni utenti si hanno venduto la gx2 per prendere questo flop nvidia, ecco a voi la nuova generazione di schede video :sofico: :D :O

:eekk: :eekk: :eekk:



:asd:

bluefrog
12-06-2008, 15:00
Sai quante volte ancora si leggerà "aspettiamo" ... "in attesa di bench esaustivi" ... "ormai manca poco" ... :asd:

@ndrey
12-06-2008, 15:01
e pensare che alcuni utenti si hanno venduto la gx2 per prendere questo flop nvidia, ecco a voi la nuova generazione di schede video :sofico: :D :O

ma lol
Veramente preferirei una gtx260 al posto di gx2 :O ;)

appleroof
12-06-2008, 15:03
ma lol
Veramente preferirei una gtx260 al posto di gx2 :O ;)

per una volta mi trovi d'accordo, sempre nella famosa attesa...

@ndrey
12-06-2008, 15:08
per una volta mi trovi d'accordo, sempre nella famosa attesa...
davvero :eek: allora preferisco gx2 :O
Scherzo :D

appleroof
12-06-2008, 15:09
davvero :eek: allora preferisco gx2 :O
Scherzo :D

:Perfido:

:asd:

appleroof
12-06-2008, 15:14
Sta cominciando ad essere faticoso seguire questi due thread, sono i momenti più difficili in cui riuscire a dividere la molta cacca di toro dalle pochissime verità...

invece prima tutta verità :D (o tutta cacca? :asd: )

Mister Tarpone
12-06-2008, 15:15
Sta cominciando ad essere faticoso seguire questi due thread, sono i momenti più difficili in cui riuscire a dividere la molta cacca di toro dalle pochissime verità...

si infatti... questa è la fase + atroce.. :asd:

padsi
12-06-2008, 15:16
Sono passato a ritirare la mia DFI e delle team group extreme e ho chiesto per le nuove Nvidia gia' che c'ero, mi hanno risposto ancora nulla manco pre ordine e ormai mancano poki giorni al lancio ufficiale, che palle....

HackaB321
12-06-2008, 15:18
shots di Medusa in alta risoluzione. Geometry shaders in tutto il loro splendore:D

http://publish.it168.com/2008/0611/20080611028402.shtml

Tioz90
12-06-2008, 15:25
shots di Medusa in alta risoluzione. Geometry shaders in tutto il loro splendore:D

http://publish.it168.com/2008/0611/20080611028402.shtml
Che bello!:)

appleroof
12-06-2008, 15:26
shots di Medusa in alta risoluzione. Geometry shaders in tutto il loro splendore:D

http://publish.it168.com/2008/0611/20080611028402.shtml

si ma gli fps fanno pietà, è questo quello che volevi far notare?

I rapporti di quantità son sempre più o meno gli stessi, è la quantità in assoluto che diventa opprimente :help:

(Siamo coperti di merda. Di toro. :asd: )

:eek: :D :D :D


cmq quoto

Mister Tarpone
12-06-2008, 15:28
si ma gli fps fanno pietà, è questo quello che volevi far notare?

lo stavo per scrive pure io :asd:

mircocatta
12-06-2008, 15:35
ihmo sono i driver poco maturi, non è possibile che una vga con più del doppio nelle caratteristiche della mia vga non va più che il doppio...
quindi o sono i driver, o hanno toppato alla grande con il memory controller 512bit e gddr3 anzichè 256bi con gddr5..

altra cosa: chi ci dice che con un quad a 3 ghz non si è cpu limited? vi ricordo che gt200 di potenza ne ha parecchia eh...
a riprova di questo ihmo è la buona capacità di overclock di gtx280, indice che scalda poco, cioè è sfruttata poco (driver poco maturi oppure cpulimited)..

problema simile l'ho notato in una 8800gt revision 1 come la mia (quindi senza il core con un pò più di volt), io con il quad la porto al max a 730 di core, quest'altro tipo l'ha portata oltre 820 di core, ma aveva un AMD Opteron 165 , quindi probabilmente (sicuramente) cpu limited.. e la scheda era la stessa, la mia addirittura raffreddata meglio..

cmq notare questa immagine:
http://publish.it168.com/diy/showBigPic.asp?cDocid=20080611028402&picid=1040346.jpg
per forza 12 fps..aa8x a quelal risoluzione lì mica è poco! la barba sembra veraaaa :eek:

appleroof
12-06-2008, 15:39
lo stavo per scrive pure io :asd:

ma cosa vai a pensare???















:D :D :D

HackaB321
12-06-2008, 15:47
si ma gli fps fanno pietà, è questo quello che volevi far notare?

No volevo solo far notare la bellezza delle immagini. Se poi Nvidia spinge verso innovazioni come i gs sono ancora più contento. Le GTX dovrebbero avere prestazioni da primato in questo genere di calcoli.

halduemilauno
12-06-2008, 15:51
la scheda è sotto test adesso e lunedi la rece sarà pronta.
;)

appleroof
12-06-2008, 15:52
ma cosa vai a pensare???

:D :D :D

No volevo solo far notare la bellezza delle immagini. Se poi Nvidia spinge verso innovazioni come i gs sono ancora più contento. Le GTX dovrebbero avere prestazioni da primato in questo genere di calcoli.

vedi, lo dicevo io che non bisogna pensar sempre male :nonsifa:

per il resto invece un altro utente come te molto attento alle soluzioni Ati sostiene che l'architettura Nvidia (lui si riferiva a g80, ad esser onesti) è molto deficitaria da questo punto di vista

halduemilauno
12-06-2008, 15:55
ihmo sono i driver poco maturi, non è possibile che una vga con più del doppio nelle caratteristiche della mia vga non va più che il doppio...
quindi o sono i driver, o hanno toppato alla grande con il memory controller 512bit e gddr3 anzichè 256bi con gddr5..

altra cosa: chi ci dice che con un quad a 3 ghz non si è cpu limited? vi ricordo che gt200 di potenza ne ha parecchia eh...
a riprova di questo ihmo è la buona capacità di overclock di gtx280, indice che scalda poco, cioè è sfruttata poco (driver poco maturi oppure cpulimited)..

problema simile l'ho notato in una 8800gt revision 1 come la mia (quindi senza il core con un pò più di volt), io con il quad la porto al max a 730 di core, quest'altro tipo l'ha portata oltre 820 di core, ma aveva un AMD Opteron 165 , quindi probabilmente (sicuramente) cpu limited.. e la scheda era la stessa, la mia addirittura raffreddata meglio..

cmq notare questa immagine:
http://publish.it168.com/diy/showBigPic.asp?cDocid=20080611028402&picid=1040346.jpg
per forza 12 fps..aa8x a quelal risoluzione lì mica è poco! la barba sembra veraaaa :eek:

la stanno provando con questo...

processore Intel Core 2 Extreme QX9770: clock 3,2GHz, bus quad pumped 1.600 MHz, architettura quad core, 8 Mbytes cache L2;
;)

beppe8682
12-06-2008, 15:56
No volevo solo far notare la bellezza delle immagini. Se poi Nvidia spinge verso innovazioni come i gs sono ancora più contento. Le GTX dovrebbero avere prestazioni da primato in questo genere di calcoli.

l'unica cosa che riesco a vedere sono gli fps:sofico:
ma cos'è?Crysis 2 la vendetta???:sofico:

mircocatta
12-06-2008, 16:00
la stanno provando con questo...

processore Intel Core 2 Extreme QX9770: clock 3,2GHz, bus quad pumped 1.600 MHz, architettura quad core, 8 Mbytes cache L2;
;)

per quanto mi riguarda potrebbe esser ancora cpu limited la bestiolina :asd:

vedremo nei vari bench man mano che salgono con il processore quanto faranno ;)
perchè quella misera differenza tra gtx260 e gtx280 è inspiegabile, ci sono parecchi SP e molta bandwitch di differenza

HackaB321
12-06-2008, 16:03
vedi, lo dicevo io che non bisogna pensar sempre male :nonsifa:

per il resto invece un altro utente come te molto attento alle soluzioni Ati sostiene che l'architettura Nvidia (lui si riferiva a g80, ad esser onesti) è molto deficitaria da questo punto di vista

G80 nei test sintetici sui gs ha prestazioni inferiori a R600. Con le nuove schede nvidia stando ai rumors dovrebbe aver apportato grossi miglioramenti. E con il suo peso marketing questo vorrà dire gs nei giochi. Che per me significa giochi più belli e, a parità di bellezza, meno pesanti. Medusa è solo l'inizio e solo un video di presentazione di una tecnologia.

Mister Tarpone
12-06-2008, 16:05
G80 nei test sintetici sui gs ha prestazioni nettamente inferiori a R600.

mentre g92 - g94 come sono messi?? per curiosità?? :confused:

DjLode
12-06-2008, 16:40
mentre g92 - g94 come sono messi?? per curiosità?? :confused:

Son parenti, direi esattamente uguali.

HackaB321
12-06-2008, 16:45
mentre g92 - g94 come sono messi?? per curiosità?? :confused:

OT
+/- uguale dato che l'architettura è la stessa (a meno che G92 non venga limitato dalla banda). Comunque mi correggo parzialmente: G80 è inferiore a R600 nel geometry processing generico (che non è una novità delle Dx10), digit-life ad esempio scrive
The unified architecture of the R6xx GPU is indeed very good at geometry. The more difficult a task, the better its results versus traditional GPUs and even unified G80! R600's results are almost twice as high as G80's ones. By the way, we can again note opposite weak spots of vertex units in AMD and NVIDIA architectures — dynamic branching causes a big performance drop in GPUs from the former company, static branching — in GPUs from the latter.

Geometry bottom line: R600 demonstrates very high results in synthetic geometry tests. Owing to its unified architecture and special modifications (enlarged vertex cache, etc) this GPU performs well in such tests. It can use all its unified stream processors to solve geometry tasks.

nei gs (rightmark come bench) la situazione è di sostanziale parità con R600 avvantaggiato al crescere della complessità degli shaders. Ovviamente sono test sintetici, bisogna vedere come poi andranno nei giochi quando i gs ci saranno. Sempre digit-life a proposito dei test sui gs scrive

Performance of these tests depends much on complexity of the work for geometry shaders. It's not just that AMD chips do the work faster than NVIDIA solutions, this difference grows with geometry complexity. So the more complex the work for a geometry shader, the faster R6xx versus G8x.
But when we compare results in various modes, when different shader types are responsible for the output, NVIDIA's results in the Balanced mode are better than AMD's results in the Heavy mode. The resulting images are identical. So developers of 3D applications will have to optimize their code for two different architectures, in order to get maximum performance from both.

NVIDIA graphics cards drop performance, when we switch from instancing to a geometry shader for output, they become 2-6 times as slow. The cheaper the GPU, the bigger the difference in rendering speed between these two modes. It's vice versa with AMD. Results with a geometry shader used for output are higher than those with instancing, but the difference is not as big. So as the work load (a number of generated vertices) grows, geometry shaders work better in AMD chips. But reality differs from synthetic tests - developers are free to choose their methods, and if vertex shaders will be expedient in their projects, they'll use them.

/OT

halduemilauno
12-06-2008, 16:57
http://it.babelfish.yahoo.com/translate_url?doit=done&tt=url&intl=1&fr=bf-home&trurl=http%3A%2F%2Fwww.hardware-infos.com%2Fnews.php%3Fnews%3D2145&lp=de_en&btnTrUrl=Traduci

Geforce GTX: New dates and new prices
Nvidia seems to be upset the Produktlaunch of the Geforce GTX series shortly before the appearance of the first maps on basis of the G200-Grafikchips again completely: It goes to the Inquirer appears the Geforce GTX 280 on 16 June, which covers itself with a reference on new diagram hardware of Nvidia with on-line sender Alternate. First was the 18. , then later 17 June in the discussion.

But the GTX 260 is only introduced after this Inquirer report on 26 June, thus probably one day after the official conception of the Radeon hp 4870. This results in which sense for Nvidia, it remains still being waiting - possible that one wants to put the footlights first only on the GTX 280. Theoretically possible also still another adjustment of the prices would be to the competition of the AMD products - this could have however also already happened.

OCWorkbench and Fudzilla report agreeing of a price reduction of the GTX 260 to 399 US Dollar. So far this model a price was of 449 US Dollar was attributed, with which the distance became probably too large to a hp 4870 Nvidia. It remains expecting that the GTX is faster 260 than the hp 4870, probably was the concerning the price difference however too largely to turn out.

Fudzilla reports besides still of a further price reduction, which the High end model concerns GTX 280. In one in the Internet published Nvidia presentation was set for these a price of 649 US Dollar, which corresponds to a genuine High end map. Fudzilla calls now however only a price of 499 US Dollar, which would correspond a very clear price reduction. Whether Nvidia would have these really necessarily, remains being waiting - in probably four days we will know the achievement and price structuring of this map probably more exactly.
;)

Tioz90
12-06-2008, 17:03
http://it.babelfish.yahoo.com/translate_url?doit=done&tt=url&intl=1&fr=bf-home&trurl=http%3A%2F%2Fwww.hardware-infos.com%2Fnews.php%3Fnews%3D2145&lp=de_en&btnTrUrl=Traduci

Geforce GTX: New dates and new prices
Nvidia seems to be upset the Produktlaunch of the Geforce GTX series shortly before the appearance of the first maps on basis of the G200-Grafikchips again completely: It goes to the Inquirer appears the Geforce GTX 280 on 16 June, which covers itself with a reference on new diagram hardware of Nvidia with on-line sender Alternate. First was the 18. , then later 17 June in the discussion.

But the GTX 260 is only introduced after this Inquirer report on 26 June, thus probably one day after the official conception of the Radeon hp 4870. This results in which sense for Nvidia, it remains still being waiting - possible that one wants to put the footlights first only on the GTX 280. Theoretically possible also still another adjustment of the prices would be to the competition of the AMD products - this could have however also already happened.

OCWorkbench and Fudzilla report agreeing of a price reduction of the GTX 260 to 399 US Dollar. So far this model a price was of 449 US Dollar was attributed, with which the distance became probably too large to a hp 4870 Nvidia. It remains expecting that the GTX is faster 260 than the hp 4870, probably was the concerning the price difference however too largely to turn out.

Fudzilla reports besides still of a further price reduction, which the High end model concerns GTX 280. In one in the Internet published Nvidia presentation was set for these a price of 649 US Dollar, which corresponds to a genuine High end map. Fudzilla calls now however only a price of 499 US Dollar, which would correspond a very clear price reduction. Whether Nvidia would have these really necessarily, remains being waiting - in probably four days we will know the achievement and price structuring of this map probably more exactly.
;)

Ma come è scritto sto articolo:doh:
E' quasi incomprensibile:doh:

-noxius-
12-06-2008, 17:08
sarà una traduzione dal tedesco , oppure peggio , CHINGLISH ..

http://forums.vr-zone.com/showthread.php?t=287825

La cosa si fa interessante , solo che i prezzi saranno sicuramente troppo alti .

PhysX driver ?

Che rilascino la 260 dopo la 4870 per ritoccare ulteriormente i prezzi o rialzarli di poco a seconda delle prestazioni ? Possibile ..

halduemilauno
12-06-2008, 17:10
Ma come è scritto sto articolo:doh:
E' quasi incomprensibile:doh:

è la traduzione di questo...
http://www.hardware-infos.com/news.php?news=2145

D4N!3L3
12-06-2008, 17:29
http://it.babelfish.yahoo.com/translate_url?doit=done&tt=url&intl=1&fr=bf-home&trurl=http%3A%2F%2Fwww.hardware-infos.com%2Fnews.php%3Fnews%3D2145&lp=de_en&btnTrUrl=Traduci

Geforce GTX: New dates and new prices
Nvidia seems to be upset the Produktlaunch of the Geforce GTX series shortly before the appearance of the first maps on basis of the G200-Grafikchips again completely: It goes to the Inquirer appears the Geforce GTX 280 on 16 June, which covers itself with a reference on new diagram hardware of Nvidia with on-line sender Alternate. First was the 18. , then later 17 June in the discussion.

But the GTX 260 is only introduced after this Inquirer report on 26 June, thus probably one day after the official conception of the Radeon hp 4870. This results in which sense for Nvidia, it remains still being waiting - possible that one wants to put the footlights first only on the GTX 280. Theoretically possible also still another adjustment of the prices would be to the competition of the AMD products - this could have however also already happened.

OCWorkbench and Fudzilla report agreeing of a price reduction of the GTX 260 to 399 US Dollar. So far this model a price was of 449 US Dollar was attributed, with which the distance became probably too large to a hp 4870 Nvidia. It remains expecting that the GTX is faster 260 than the hp 4870, probably was the concerning the price difference however too largely to turn out.

Fudzilla reports besides still of a further price reduction, which the High end model concerns GTX 280. In one in the Internet published Nvidia presentation was set for these a price of 649 US Dollar, which corresponds to a genuine High end map. Fudzilla calls now however only a price of 499 US Dollar, which would correspond a very clear price reduction. Whether Nvidia would have these really necessarily, remains being waiting - in probably four days we will know the achievement and price structuring of this map probably more exactly.
;)

Ma quindi non ho capito, il lancio di GTX 280 è stato posticipato? :confused:


Comunque top per il calo di prezzi. :sofico:

okorop
12-06-2008, 17:35
il calo dei prezzi non è un buon segno.......vuol dire che le prestazioni della concorrenza non son cosi male e che le prestazioni delle gtx son bassine

D4N!3L3
12-06-2008, 17:38
il calo dei prezzi non è un buon segno.......vuol dire che le prestazioni della concorrenza non son cosi male e che le prestazioni delle gtx son bassine

Beh forse non è poi tanto male se ATI torna alla ribalta, di nuovo gara a chi la fa meglio. :D

D4N!3L3
12-06-2008, 17:39
Ma quindi non ho capito, il lancio di GTX 280 è stato posticipato? :confused:


Qualcuno mi sa dare delucidazioni in merito? :stordita:

okorop
12-06-2008, 17:41
Beh forse non è poi tanto male se ATI torna alla ribalta, di nuovo gara a chi la fa meglio. :D

a percarità pero vuol dire che son proprio delle schede video con prestazioni sotto aspettativa e quindi non è il massimo per nvidia....

Mercuri0
12-06-2008, 17:41
Ma come è scritto sto articolo:doh:
E' quasi incomprensibile:doh:
Ma c'è bisogno di passare dal tedesco quando la fonte della notizia è in inglese?
http://www.theinquirer.net/gb/inquirer/news/2008/06/12/nvidia-changes-gt200-dates

s
PhysX driver ?
(ariposto anche qui)
Sarebbe interessante vedere se è un driver di emulazione dell'hardware Ageia o una patch al Vantage.

Nel primo caso, il Vantage sarebbe falsato (perché nel test della fisica la GPU non lavora per far la grafica, e questo è uno scenario impossibile nei giochi, in cui per far fisica la GPU sarebbe più lenta a far grafica), però sarebbe molto interessante vedere come si comportano i giochi che supportano l'hardware Ageia, e sarebbe un bel conseguimento tecnico per nVidia.

Nel secondo caso, il Vantage sarebbe falsato e basta.

(mi piacerebbe conoscere il parere dei tipi del Vantage a proposito)

Che rilascino la 260 dopo la 4870 per ritoccare ulteriormente i prezzi o rialzarli di poco a seconda delle prestazioni ? Possibile ..
Vero, e dire che AMD aveva fatto il posticipo per fare lo stesso :D

Skullcrusher
12-06-2008, 17:45
Come al solito pochi giorni prima del lancio della scheda vengono fuori le notizia più assurde :sofico:

Ragazzi, come mio solito, evito di leggere tutte le notizie che escono in questi ultimi giorni, riprenderò la lettura a recensioni ufficiali uscite :D
A lunedì :D

Mercuri0
12-06-2008, 17:54
edit: cancellato.

C0rrad0
12-06-2008, 18:04
una domanda per me importante, ma physics e' disponibile per la gtx260?
avevo letto che era solo per la gtx280... o chi lha scritto ha detto una cazzata

appleroof
12-06-2008, 18:06
OT
+/- uguale dato che l'architettura è la stessa (a meno che G92 non venga limitato dalla banda). Comunque mi correggo parzialmente: G80 è inferiore a R600 nel geometry processing generico (che non è una novità delle Dx10), digit-life ad esempio scrive
The unified architecture of the R6xx GPU is indeed very good at geometry. The more difficult a task, the better its results versus traditional GPUs and even unified G80! R600's results are almost twice as high as G80's ones. By the way, we can again note opposite weak spots of vertex units in AMD and NVIDIA architectures — dynamic branching causes a big performance drop in GPUs from the former company, static branching — in GPUs from the latter.

Geometry bottom line: R600 demonstrates very high results in synthetic geometry tests. Owing to its unified architecture and special modifications (enlarged vertex cache, etc) this GPU performs well in such tests. It can use all its unified stream processors to solve geometry tasks.

nei gs (rightmark come bench) la situazione è di sostanziale parità con R600 avvantaggiato al crescere della complessità degli shaders. Ovviamente sono test sintetici, bisogna vedere come poi andranno nei giochi quando i gs ci saranno. Sempre digit-life a proposito dei test sui gs scrive

Performance of these tests depends much on complexity of the work for geometry shaders. It's not just that AMD chips do the work faster than NVIDIA solutions, this difference grows with geometry complexity. So the more complex the work for a geometry shader, the faster R6xx versus G8x.
But when we compare results in various modes, when different shader types are responsible for the output, NVIDIA's results in the Balanced mode are better than AMD's results in the Heavy mode. The resulting images are identical. So developers of 3D applications will have to optimize their code for two different architectures, in order to get maximum performance from both.

NVIDIA graphics cards drop performance, when we switch from instancing to a geometry shader for output, they become 2-6 times as slow. The cheaper the GPU, the bigger the difference in rendering speed between these two modes. It's vice versa with AMD. Results with a geometry shader used for output are higher than those with instancing, but the difference is not as big. So as the work load (a number of generated vertices) grows, geometry shaders work better in AMD chips. But reality differs from synthetic tests - developers are free to choose their methods, and if vertex shaders will be expedient in their projects, they'll use them.

/OT

molto interessante

inoltre lì parla di g80, se gt200 sotto questo punto di vista migliora non posso che esserne soddisfatto

vedremo con i giochi ;)

halduemilauno
12-06-2008, 18:10
Ma quindi non ho capito, il lancio di GTX 280 è stato posticipato? :confused:


Comunque top per il calo di prezzi. :sofico:

Qualcuno mi sa dare delucidazioni in merito? :stordita:

anticipato al 16. la scheda è gia sotto rece.
;)

halduemilauno
12-06-2008, 18:11
Ho trovato questo in sto sito (http://forums.slizone.com/lofiversion/index.php?t23201.html)spero non sia old e ditemi se e' un fake
http://www.imagehost.ro/pict/08211400484c2168ad54b.jpg


una domanda per me importante, ma physics e' disponibile per la gtx260?
avevo letto che era solo per la gtx280... o chi lha scritto ha detto una cazzata

vecchio e sbagliato. hanno copiato male.

Crysis90
12-06-2008, 18:11
Mah...continue modifiche della data di lancio e improvviso e consistente abbassamento dei prezzi...qualcosa mi dice che stavolta ATI passa veramente in vantaggio grazie alla 4870X2...

ArCH85
12-06-2008, 18:11
anticipato al 16. la scheda è gia sotto rece.
;)


idem per la 260? devo prendere una 280 e una 260 per un mio amico e vorrei farlo lo stesso giorno possibilmente :stordita:

halduemilauno
12-06-2008, 18:12
idem per la 260? devo prendere una 280 e una 260 per un mio amico e vorrei farlo lo stesso giorno possibilmente :stordita:

no la gtx260 è la settimana successiva.

C0rrad0
12-06-2008, 18:15
Vi insegno a fare i calcoli in euro a partire in dollari
dovete fare
prezzo+spese di spedizioni d'oltreoceano 20$ : 100 * 20 + prezzo senza spese di spedizioni / cambio euro dollaro (http://it.finance.yahoo.com/valuta)

gtx280= 499+20/100*20+499/1.54= 391E aggiungeteci lo sgobbo del venditore (in proporzione al bene acquistato) facciamo maxxxxxx 50 euro = 440E gtx280

appleroof
12-06-2008, 18:16
Mah...continue modifiche della data di lancio e improvviso e consistente abbassamento dei prezzi...qualcosa mi dice che stavolta ATI passa veramente in vantaggio grazie alla 4870X2...

e chissene...compreremo Ati :)

a meno che Nvidia cominci a vendere le sue vga a prezzi da ram :D :D

halduemilauno
12-06-2008, 18:16
http://resources.vr-zone.com//newspics/Jun08/12/3SLI_GTX280_m.png

http://www.vr-zone.com/articles/3-way_SLI_GTX_280_Scores_P21350_In_3DMark_Vantage/5866.html

;)

appleroof
12-06-2008, 18:17
Vi insegno a fare i calcoli in euro a partire in dollari
dovete fare
prezzo+spese di spedizioni d'oltreoceano 20$ : 100 * 20 + prezzo senza spese di spedizioni / cambio euro dollaro (http://it.finance.yahoo.com/valuta)

gtx280= 499+20/100*20+499/1.54= 391E aggiungeteci lo sgobbo del venditore (in proporzione al bene acquistato) facciamo maxxxxxx 50 euro = 440E gtx280

sarebbe un mega prezzo, visto che si vocifera dai 500 ai 600e al lancio, purtroppo in Italia funziona il cambio dei furbi, non quello ufficiale :stordita:

appleroof
12-06-2008, 18:18
http://resources.vr-zone.com//newspics/Jun08/12/3SLI_GTX280_m.png

http://www.vr-zone.com/articles/3-way_SLI_GTX_280_Scores_P21350_In_3DMark_Vantage/5866.html

;)

eh la madooooonnnaaaa :eek:

Mercuri0
12-06-2008, 18:19
I dati degli yeld dai cinesi (non so quanto attendibili)
R770 73%
280 10%
260 30%

I dati di GT200 vanno sommati, e fanno il 40% di cui si rumoreggiava: vogliono dire in sostanza che su 10 GT200 prodotti, 6 devono buttarli, 1 va bene per la 280 e 3 li usano per la 260 disattivando le parti difettose come si fa di solito.

edit: questi numeri, uniti a quelli dell'area, dicono che un GT200 per pezzo costa il quadruplo di un R770!


una domanda per me importante, ma physics e' disponibile per la gtx260?
avevo letto che era solo per la gtx280... o chi lha scritto ha detto una cazzata
Tecnicamente non ci sarebbero problemi a perché fosse disponibile per le schede dalla serie 8 in su. Poi dipende da nVidia e per quali schede decide di abilitarlo (e come)

Attento con PhysX, che è molto difficile trovare l'arrosto, in questo periodo in cui c'è tanto fumo dal marketing.

carpo93
12-06-2008, 18:21
pochi test sulle gtx260:cry:
comunque questo ribassamento dei prezzi mi fa intendere che ati ha qualcosa di molto buono:stordita:

Kharonte85
12-06-2008, 18:21
eh la madooooonnnaaaa :eek:
Quoto...è Mostruoso...pero' è in tri-sli...:asd:

appleroof
12-06-2008, 18:25
Quoto...è Mostruoso...pero' è in tri-sli...:asd:

ho capito, ma il risultato è qualcosa di impressionante (io faccio a malapena 5000 e rotti con la vga oc :stordita: ) lo stesso

e proprio pochi giorni fà mi chiedevo se ci sarebbe stata qualche prova del tri-sli di gt280 :D :D chissà nei giochi :sbav:

Kharonte85
12-06-2008, 18:28
ho capito, ma il risultato è qualcosa di impressionante (io faccio a malapena 5000 e rotti con la vga oc :stordita: ) lo stesso

e proprio pochi giorni fà mi chiedevo se ci sarebbe stata qualche prova del tri-sli di gt280 :D :D chissà nei giochi :sbav:
Quali?

Uno a caso? manco lo dico...:asd:

C0rrad0
12-06-2008, 18:28
http://resources.vr-zone.com//newspics/Jun08/12/3SLI_GTX280_m.png

http://www.vr-zone.com/articles/3-way_SLI_GTX_280_Scores_P21350_In_3DMark_Vantage/5866.html

;)

Ottimo allora con un q6600 oc a 3,6ghz 1600fsb una singola gtx280 sicuramente non sara' cpu limited

appleroof
12-06-2008, 18:30
Quali?

Uno a caso? manco lo dico...:asd:

"quello" sarebbe interessante ma hanno rotto (a me, non riesco a leggerli ormai tutti fotocopia) i commenti sullo stesso :D :D

in effetti altri giochi-frusta non ce ne sarebbero, tolti qualcuno di nicchia come supreme commander o wic, magari i prossimi

sarebbe divertente però vedere cosa combinano 3 gtx280 a 1920x1200 aa16xq af16x in tutti i giochi :D

Kharonte85
12-06-2008, 18:35
"quello" sarebbe interessante ma hanno rotto (a me, non riesco a leggerli ormai tutti fotocopia) i commenti sullo stesso :D :D

in effetti altri giochi-frusta non ce ne sarebbero, tolti qualcuno di nicchia come supreme commander o wic, magari i prossimi

sarebbe divertente però vedere cosa combinano 3 gtx280 a 1920x1200 aa16xq af16x in tutti i giochi :D
Tipo contare quanti FPS fa con pac-man :sofico:

In realtà ci sarebbe anche FSX che è bello tosto...pero' quello è ancora piu' "di nicchia"...:D

Spreme commander e WIC tutto sommato sono gestibili già con le nostre schede...

C0rrad0
12-06-2008, 18:37
Mercuri0

Tecnicamente non ci sarebbero problemi a perché fosse disponibile per le schede dalla serie 8 in su. Poi dipende da nVidia e per quali schede decide di abilitarlo (e come)

Attento con PhysX, che è molto difficile trovare l'arrosto, in questo periodo in cui c'è tanto fumo dal marketing.

Si il mio discorso e' piu' di tipo professionale (altrimenti se avra' basse potenzialita' e con un cosi' alto tdp... passerei ad ati ad occhi chiusi) inteso che utilizzando 3dsmax che ha ancora l'havoc come sistema di simulazione o magari uscirebbero piu avanti plugin capaci di usare il physics per avvantaggiare la cpu nei calcoli di simulazione sarebbe d'obbligo acquistarlo!

Mercuri0
12-06-2008, 18:50
Si il mio discorso e' piu' di tipo professionale (altrimenti se avra' basse potenzialita' e con un cosi' alto tdp... passerei ad ati ad occhi chiusi) inteso che utilizzando 3dsmax che ha ancora l'havoc come sistema di simulazione o magari uscirebbero piu avanti plugin capaci di usare il physics per avvantaggiare la cpu nei calcoli di simulazione sarebbe d'obbligo acquistarlo!
Non mi aspetterei il supporto al PhysiX per i calcoli che deve fare il 3dsMax (e inoltre se si buttassero sul GPGPU per i conti potrebbero scegliere di supportare entrambe le GPU).

Per questo aspetto meglio stare alla finestra in questa fase.

p.s. il 3dsmax usa Havoc per simulazione di particelle e fluidi?

Tioz90
12-06-2008, 18:51
Scusate, mi son perso
Quanto verranno gtx260 e gtx280 al lancio?:fagiano:
Non si potrebbe mettere in prima pagina?:doh:

Mercuri0
12-06-2008, 18:54
Scusate, mi son perso
Quanto verranno gtx260 e gtx280 al lancio?:fagiano:
Non si potrebbe mettere in prima pagina?:doh:
AMD sta aspettando nVidia per decidere i prezzi, nVidia sta aspettando AMD.

Vuoi metterci un bel "boh" in prima pagina? :D

Poi non si capisce cosa succederà ai prezzi una settimana dopo il lancio.

Tioz90
12-06-2008, 18:58
AMD sta aspettando nVidia per decidere i prezzi, nVidia sta aspettando AMD.

Vuoi metterci un bel "boh" in prima pagina? :D

Poi non si capisce cosa succederà ai prezzi una settimana dopo il lancio.

Quasi quasi mi prendo una bella 4850 a 160€ e me la rido in faccia a nvidia:asd:

C0rrad0
12-06-2008, 18:59
Non mi aspetterei il supporto al PhysiX per i calcoli che deve fare il 3dsMax (e inoltre se si buttassero sul GPGPU per i conti potrebbero scegliere di supportare entrambe le GPU).

Per questo aspetto meglio stare alla finestra in questa fase.

p.s. il 3dsmax usa Havoc per simulazione di particelle e fluidi?

Nononono non ha simulazioni fisiche di particelle 3dsmax, si usano applicativi esterni come realflow o glu3d per i fluidi, il cloth e il fur ce hanno i loro. havoc e' solo per corpi rigidi e corpi molli stile gelatina, si puo' cercare di usarlo per simulare un fluido, ma nella sua interezza in quanto una goccia d'acqua rimbalzerebbe nel mare :) invece di venire inglobata

halduemilauno
12-06-2008, 19:00
Scusate, mi son perso
Quanto verranno gtx260 e gtx280 al lancio?:fagiano:
Non si potrebbe mettere in prima pagina?:doh:

la 280 il 16.
la 260 il 26.

Tioz90
12-06-2008, 19:01
la 280 il 16.
la 260 il 26.

Intendevo il prezzo:p

C0rrad0
12-06-2008, 19:01
Vi insegno a fare i calcoli in euro a partire in dollari
dovete fare
prezzo+spese di spedizioni d'oltreoceano 20$ : 100 * 20 + prezzo senza spese di spedizioni / cambio euro dollaro (http://it.finance.yahoo.com/valuta)

gtx280= 499+20/100*20+499/1.54= 391E aggiungeteci lo sgobbo del venditore (in proporzione al bene acquistato) facciamo maxxxxxx 50 euro = 440E gtx280

Scusate, mi son perso
Quanto verranno gtx260 e gtx280 al lancio?:fagiano:
Non si potrebbe mettere in prima pagina?:doh:


gtx280=499$
gtx260=399$

Mercuri0
12-06-2008, 19:02
Nononono non ha simulazioni fisiche di particelle 3dsmax, si usano applicativi esterni come realflow o glu3d per i fluidi, il cloth e il fur ce hanno i loro. havoc e' solo per corpi rigidi e corpi molli stile gelatina, si puo' cercare di usarlo per simulare un fluido, ma nella sua interezza in quanto una goccia d'acqua rimbalzerebbe nel mare :) invece di venire inglobata
Alura per quel poco che so non mi sembrano conti buoni per le GPU.

Più probabile che la cosa dell'accelerazione sulle GPU possa riguardare gli applicativi esterni a cui ti riferisci, dovresti informarti su che piani hanno i produttori.

Tutte le schede dalla 8xxx in su di nVidia e dalla HD2xxx in su di AMD sono in grado di far conti, il problema determinante in questa fase è il supporto software.

cristian-BG
12-06-2008, 19:04
uhm.. cosa costerà una 4870? bisogna valutare anche quella.. xè si potrebbe fare un crossfire e in pratica sarebbe come una 4870x2 piu o meno no? 300€ una 4870 che magari in crossfire va di piu di una gtx280.. è da valutare :)

D4N!3L3
12-06-2008, 19:05
C'è qualcosa che mi sta rosicchiando il cervello ma non capisco cosa sia. :D

Tioz90
12-06-2008, 19:06
uhm.. cosa costerà una 4870? bisogna valutare anche quella.. xè si potrebbe fare un crossfire e in pratica sarebbe come una 4870x2 piu o meno no? 300€ una 4870 che magari in crossfire va di piu di una gtx280.. è da valutare :)
La 4850 costerà 250$ che sono 160€
Ti fai un crossfire di quelle:)

C0rrad0
12-06-2008, 19:06
sarebbe un mega prezzo, visto che si vocifera dai 500 ai 600e al lancio, purtroppo in Italia funziona il cambio dei furbi, non quello ufficiale :stordita:

l'hype fa la sua parte e' vero, comunque con questo sistema non ho mai visto prezzi troppo distanti tra italia e america senza nemmeno aggiungere lo sgobbo del venditore italiano, a volte alcuni pezzi ho notato che il prezzo e' piu' basso prenderli in italia che ordinarli in america

Mercuri0
12-06-2008, 19:10
uhm.. cosa costerà una 4870? bisogna valutare anche quella.. xè si potrebbe fare un crossfire e in pratica sarebbe come una 4870x2 piu o meno no? 300€ una 4870 che magari in crossfire va di piu di una gtx280.. è da valutare :)
C'è anche la possibilità che un crossfire di 4870 vada più veloce di una 4870x2. Dai gli ultimi rumor di sicuro va meglio di una GTX280, che sembrerebbe essere battuta da un cross di 4850. (ma al solito è crossfire)

Rischia di consumare di più però. Al solito sarebbe il caso di aspettare le review.

C0rrad0
12-06-2008, 19:12
Alura per quel poco che so non mi sembrano conti buoni per le GPU.

Più probabile che la cosa dell'accelerazione sulle GPU possa riguardare gli applicativi esterni a cui ti riferisci, dovresti informarti su che piani hanno i produttori.

Tutte le schede dalla 8xxx in su di nVidia e dalla HD2xxx in su di AMD sono in grado di far conti, il problema determinante in questa fase è il supporto software.

perfettamente d'accordo ed e' quello che faro', comunque anche senza sapere i progetti futuri dei simulatori fisici, mi converra' prenderla perche'... Non si sa' mai in futuro :)

Se la gtx260 ha di sicuro il physics ci faccio un enorme pensierione: oltre a far cry in futuro cosa c'e' che potrebbe valere la spesa della gtx280? Alan wake... forse... vedro' :)

Drum4ever
12-06-2008, 19:21
uhm.. cosa costerà una 4870? bisogna valutare anche quella.. xè si potrebbe fare un crossfire e in pratica sarebbe come una 4870x2 piu o meno no? 300€ una 4870 che magari in crossfire va di piu di una gtx280.. è da valutare :)

se i risultati so quelli veri te basta un crossfire di 4850...

Sergio_Di_Rio
12-06-2008, 19:32
The drivers are a bit old, but not that old, and the CPU is an Intel QX9650 @ 3.0GHz on the broken OS, 32-bit, SP1.

http://images.vnu.net/gb/inquirer/news/2008/06/12/gt200-scores-revealed/nv_gt200_numbers.jpg

Mi sembra strano che la gtx260 totalizzi "solo" 14750 nel 3dmark2006, quando con q6600@3ghz e 8800gts512@770/2200 faccio 14850.

padsi
12-06-2008, 19:39
Mi sembra strano che la gtx260 totalizzi "solo" 14750 nel 3dmark2006, quando con q6600@3ghz e 8800gts512@770/2200 faccio 14850.

Metti a default la VGA e fallo su vista vedrai che perdi una marea di punti, penso che quei test siano su vista dove una 9800GTX+un E8500 fa 13.000 tutto a default.

Amph
12-06-2008, 19:41
35 fps su high setting????? non puo essere ne faccio io 34 con lo stesso settaggio ma a 1680x1050...sara una bufala bella e buona

al135
12-06-2008, 19:46
bo io sono orientato su queste nvidia 280... ma non scartero' le 4870x2 se si dimostreranno pari o superiori. anche perche i migliori chipset sono intel e supportano solo CF....

D4N!3L3
12-06-2008, 20:05
bo io sono orientato su queste nvidia 280... ma non scartero' le 4870x2 se si dimostreranno pari o superiori. anche perche i migliori chipset sono intel e supportano solo CF....

Io mi compro sta GTX 280, se vedo che le X2 di ATI vanno meglio mi prendo anche quelle e ci faccio un CF. :D

Sergio_Di_Rio
12-06-2008, 20:07
Metti a default la VGA e fallo su vista vedrai che perdi una marea di punti, penso che quei test siano su vista dove una 9800GTX+un E8500 fa 13.000 tutto a default.

No. La questione non è overclock o default. La GTX260, sulla carta, è un mostro rispetto a qualsiasi 8800gts512 o 9800gtx anche "supersuper-mega-ultra-forthewin(:D)-overclocked-edition" (le specifiche ormai le conosciamo tutti, inutile ripeterle).

Fattore Vista? D'accordo, sicuramente perderei dei punti, ma il delta nel punteggio, anche se a favore della gtx260, rimarrebbe comunque piccolo, rispetto a quanto mi sarei aspettato (infatti non credo che siano punteggi totalmente sinceri).

Attenzione, l'E8500 è un dual-core, devi prendere come riferimento un quad-core@3ghz, sappiamo tutti che il punteggio del 3dMark2006 è molto "sensibile" alla cpu utilizzata. Un dual@3ghz fa circa fa circa 2000 pti in meno di CPUscore rispetto ad un quad@3ghz. Link: http://www.hwupgrade.it/articoli/cpu/1841/intel-core-2-extreme-qx9650-l-ora-di-penryn_7.html

Ciao:)

Ibracadabra08
12-06-2008, 20:14
Ci vuole tanto a capire che quel grafico è un fake??? Solo di CPU dovrebbe fare 1000-1500 punti in più rispetto and un Q6600....

Sergio_Di_Rio
12-06-2008, 20:25
Ci vuole tanto a capire che quel grafico è un fake??? Solo di CPU dovrebbe fare 1000-1500 punti in più rispetto and un Q6600....

Non è vero. Nel 3dMark06 qx9650 e qx6850(equivalente ad un q6600@3ghz, 8mb cache) praticamente non mostrano differenze (100 pti circa di totale e 210 pti di cpuscore).

Links:
http://www.hwupgrade.it/articoli/cpu/1841/intel-core-2-extreme-qx9650-l-ora-di-penryn_4.html
http://www.hwupgrade.it/articoli/cpu/1841/intel-core-2-extreme-qx9650-l-ora-di-penryn_7.html

E comunque, come già ho scritto, ho il sospetto che quella tabella non sia del tutto sincera.

-noxius-
12-06-2008, 20:25
Tipo contare quanti FPS fa con pac-man :sofico:
Supreme commander e

Va come una scheggia persino con una 6800gs, con tutto su low o quasi :sofico:

Enochian
12-06-2008, 20:32
Ma allora si sa se per una cinquantina sporca di frames 1900*1200@VeryhighNoAAnoIA mi devo prendere la gtx 280 o la 260 oppure un ten sli di 9800gx2?

appleroof
12-06-2008, 20:34
Va come una scheggia persino con una 6800gs, con tutto su low o quasi :sofico:

edit

-noxius-
12-06-2008, 20:37
Ma allora si sa se per una cinquantina sporca di frames 1900*1200@VeryhighNoAAnoIA mi devo prendere la gtx 280 o la 260 oppure un ten sli di 9800gx2?

Una GX2 ne fa 19 , questa pure se fosse il 100% più performante arriverebbe a 38 , direi che chiedi troppo ; sembra che ne faccia 35 se non erro ..

Crysis90
12-06-2008, 20:38
35 fps su high setting????? non puo essere ne faccio io 34 con lo stesso settaggio ma a 1680x1050...sara una bufala bella e buona

In effetti anke a me sembrano un pò pokini...

me3850
12-06-2008, 20:56
Originariamente inviato da Amph
35 fps su high setting????? non puo essere ne faccio io 34 con lo stesso settaggio ma a 1680x1050...sara una bufala bella e buona

prova a 1920*1200...

Amph
12-06-2008, 21:20
Originariamente inviato da Amph
35 fps su high setting????? non puo essere ne faccio io 34 con lo stesso settaggio ma a 1680x1050...sara una bufala bella e buona

prova a 1920*1200...

peccato che stiamo paragonando una 8800gts512(la mia) ad una GTX280...anche se giocassi a 1920x1200 il calo di frame(sarà 10 max) non giustificherebbe il divario, cosi minimo, tra le due vga...

Enochian
12-06-2008, 21:43
bo io sono orientato su queste nvidia 280... ma non scartero' le 4870x2 se si dimostreranno pari o superiori. anche perche i migliori chipset sono intel e supportano solo CF....

Si ma le 4870x2 quando escono?

Drum4ever
12-06-2008, 21:44
Si ma le 4870x2 quando escono?

agosto settembre

Enochian
12-06-2008, 21:45
Una GX2 ne fa 19 , questa pure se fosse il 100% più performante arriverebbe a 38 , direi che chiedi troppo ; sembra che ne faccia 35 se non erro ..

Senza AA e IA? così poco? non credo, per me la gt 280 a 1900 senza effetti ne farà da 40 a 45.

carpo93
12-06-2008, 21:48
edito la prima pagina

Mister Tarpone
12-06-2008, 22:34
Senza AA e IA? così poco? non credo, per me la gt 280 a 1900 senza effetti ne farà da 40 a 45.

senza effetti ne farà anche 80-90 :asd:

DVD2005
12-06-2008, 22:46
Io mi compro sta GTX 280, se vedo che le X2 di ATI vanno meglio mi prendo anche quelle e ci faccio un CF. :D

se le prendi tutte vai sul sicuro :sofico:

arazzo
12-06-2008, 22:48
GT200 Medusa Demo Screenshots e video

VIDEO:
http://www.youtube.com/watch?v=RgfqCnushFU




http://www.pczilla.net/upload/200806130109273137.jpg
http://www.pczilla.net/upload/200806130109360624.jpg
http://www.pczilla.net/upload/200806130109400763.jpg
http://www.pczilla.net/upload/200806130109451721.jpg
http://www.pczilla.net/upload/200806130109495004.jpg
http://www.pczilla.net/upload/200806130109538351.jpg

http://www.pczilla.net/en/post/42.html

me3850
12-06-2008, 22:52
peccato che stiamo paragonando una 8800gts512(la mia) ad una GTX280...anche se giocassi a 1920x1200 il calo di frame(sarà 10 max) non giustificherebbe il divario, cosi minimo, tra le due vga...

10 lol minino sono 20...

arazzo
12-06-2008, 23:02
http://publish.it168.com/2008/0611/images/1040403.jpg


altri screen:
http://publish.it168.com/2008/0611/20080611028401.shtml

nico88desmo
12-06-2008, 23:10
Sembra molto bella questa demo. Non è altrettanto bello vedere gli fps in alto a sx però :(

kAL-eL88
12-06-2008, 23:13
Sembra molto bella questa demo. Non è altrettanto bello vedere gli fps in alto a sx però :(

ma se leggete in qualche post addietro si parla di 2650 *1600 con aa 8x
quindi mi sembra che 10fps non siano poi tanto anormali...

kAL-eL88
12-06-2008, 23:17
ma se leggete in qualche post addietro si parla di 2650 *1600 con aa 8x
quindi mi sembra che 10fps non siano poi tanto anormali...

eccoci
http://www.pctunerup.com/up/results/_200806/th_20080612231652_1040297.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080612231652_1040297.jpg)

arazzo
12-06-2008, 23:17
ma se leggete in qualche post addietro si parla di 2650 *1600 con aa 8x
quindi mi sembra che 10fps non siano poi tanto anormali...

http://publish.it168.com/2008/0611/images/1040297.jpg

infatti se fosse vero e' un ottimo risultato imo


edit:

ops

kAL-eL88
12-06-2008, 23:18
http://publish.it168.com/2008/0611/images/1040297.jpg

infatti se fosse vero e' un ottimo risultato imo

che sincronia....:D

nico88desmo
12-06-2008, 23:29
ma se leggete in qualche post addietro si parla di 2650 *1600 con aa 8x
quindi mi sembra che 10fps non siano poi tanto anormali...

Hai ragione! :doh:
Le avevo anche viste quelle impostazioni, soltanto che non me le ricordavo e pensavo fossero a 1680x1050 :ops:

al135
12-06-2008, 23:43
10 lol minino sono 20...

mah.. dovrebbero farli un pochino meglio questi driver....
io con la 8800 gtx con 1900 facevo 4-5 fps in piu che a 1680.... rendendolo cmq piu giocabile... probabilmente in schede video meno potenti e con meno dotazione di memoria la differenza si nota di piu.
speriamo gli basti a sti cavolo di giochi 1 gigozzo di ram -.-

padsi
13-06-2008, 00:31
Ma gli screen si riferiscono alla GTX280 o 260?_?

cristian-BG
13-06-2008, 01:05
news da geforce italia...
http://www.geforceitalia.it/dal_mondo_nvidia/whats_new/detail.asp?id=2579

A.L.M.
13-06-2008, 01:06
Foto dello SLI e del Tri-SLI di G200.

http://we.pcinlife.com/attachments/forumid_206/20080612_3c425c3d64d2a1dd3308yu7QJlWkHjNi.jpg
http://we.pcinlife.com/attachments/forumid_206/20080612_3c88f9bfe8eaa52aa2722EH1z6o3ORR9.jpg
http://we.pcinlife.com/attachments/forumid_206/20080612_2d2025e18f4e44af91d7HAB3TXyxy14W.jpg
http://we.pcinlife.com/attachments/forumid_206/20080612_f8241a5989c24d567b35AugURmiIVb3c.jpg

Mister Tarpone
13-06-2008, 01:10
belle. (pure i 2 pupazzi :asd:)

goldorak
13-06-2008, 01:18
Le immagini sono belle, l'utilita' di una configurazione del genere invece :boh:.

A.L.M.
13-06-2008, 01:27
http://img179.imageshack.us/img179/9413/g200nj8.jpg

Sergio_Di_Rio
13-06-2008, 01:30
edit

Wyatt_
13-06-2008, 01:35
news da geforce italia...
http://www.geforceitalia.it/dal_mondo_nvidia/whats_new/detail.asp?id=2579

azz questa è pesantuccia... se è così figuriamoci gtx260...andrà peggio di gx2...sempre tenendo questa come metro di giudizio. Sta a vedere che alla fine ci ritroveremo con una gx2 che sarà la top di gamma ahahahahha

EmmeP
13-06-2008, 02:09
Io sento puzza di sòla...

aspetta ke butto 500€ nel cesso per 5fps in più.. sattaccano al kess :ciapet:

penso proprio ke aspetterò che calino i prezzi x prendermi una 9800gx2

argez
13-06-2008, 02:25
Foto dello SLI e del Tri-SLI di G200.

http://we.pcinlife.com/attachments/forumid_206/20080612_f8241a5989c24d567b35AugURmiIVb3c.jpg


:eek:

Non oso pensarle 3 gtx280...la volta buona che acquistano un significato gli alimentatori da 1000watt? :D

Wyatt_
13-06-2008, 02:57
Io sento puzza di sòla...

aspetta ke butto 500€ nel cesso per 5fps in più.. sattaccano al kess :ciapet:

penso proprio ke aspetterò che calino i prezzi x prendermi una 9800gx2

si ma se fanno di nuovo come stanno facendo ultimamente Ati torna sopra! Non stanno dando risposte ai propri user soprattutto la fascia enthusiast

EmmeP
13-06-2008, 03:07
:eek:

Non oso pensarle 3 gtx280...la volta buona che acquistano un significato gli alimentatori da 1000watt? :D


e non ha significato una spesa di 1500€ (se non di più) per comprare 3 di questi attrezzi??? :stordita: :doh:

fr4nc3sco
13-06-2008, 07:15
e non ha significato una spesa di 1500€ (se non di più) per comprare 3 di questi attrezzi??? :stordita: :doh:

vero anche se col nuovo prezzo 499$ e lo stabilizzarsi tra 1 mesetto o 2 è plausbile 1000/1100€ per 3 di queste skede

D4N!3L3
13-06-2008, 08:20
se le prendi tutte vai sul sicuro :sofico:

:asd:

D4N!3L3
13-06-2008, 08:23
azz questa è pesantuccia... se è così figuriamoci gtx260...andrà peggio di gx2...sempre tenendo questa come metro di giudizio. Sta a vedere che alla fine ci ritroveremo con una gx2 che sarà la top di gamma ahahahahha

No vabbè la GX2 comunque fa meno di media a quella risoluzione. Comunque davvero, a questo punto direi che la notizia anche se deve essere confermata è vera, neanche questa fa girare Crysis come dovrebbe.

Beh, a un certo punto fan:ciapet: a Crysis, continuo a dire che secondo me Warhead andrà meglio, e allora si ride.

Non ci si deve preoccupare troppo se va male con Crysis ormai abbiamo appurato che quel caspio di gioco è esagerato come richiesta hardware, scommettiamo che non va nemmeno nel 2009 con le schede che usciranno, dai ormai è palese che la colpa è del gioco. :rolleyes:

mircocatta
13-06-2008, 09:17
ragazzi ho bisogno di aiuto, domanda completamente fuori tema, ma visto che qui gira tanta gente è probabile che riceva in fretta una risposta.
ho windows xp 32bit.. corsair xms2 pc6400
vorrei passare alle ocz reapon 8500 o 9200

il mio dubbio è, ora come ora (fra due anni passerei a nehamel quindi ddr3) meglio 2 o 4 gb?

halduemilauno
13-06-2008, 09:20
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7888&Itemid=1

To quickly go to $349

Price wars have already started. Nvidia already dropped GTX 280 to $499 and it looks that GTX 260 will sell for $399.

Nvidia is still telling its partners that $399 is the launch price for Geforce GTX 260 but it looks that this card will quickly go down to $349. With $349, GTX 260 looks much more attractive and it will do well against $329 priced Radeon HD 4870 but as we suggested once ATI feels threatened it will simply drive the prices down.

Nvidia sells Geforce 9800GTX at $299, which means if GTX260 price goes down, Nvidia has to drive 9800GTX down too. Radeon HD 4870 beats 9800GTX and there is your problem. At this point, at least when it comes to average selling price of Nvidia cards, we simply have to say DAAMIT what have you done.

per la serie i prezzi tutti giù per terra.
;)

halduemilauno
13-06-2008, 09:21
ragazzi ho bisogno di aiuto, domanda completamente fuori tema, ma visto che qui gira tanta gente è probabile che riceva in fretta una risposta.
ho windows xp 32bit.. corsair xms2 pc6400
vorrei passare alle ocz reapon 8500 o 9200

il mio dubbio è, ora come ora (fra due anni passerei a nehamel quindi ddr3) meglio 2 o 4 gb?

era meglio che lo chiedevi altrove. cmq mi pare che xp a 32 bit non supporti i 4 giga. mi pare.
;)

mircocatta
13-06-2008, 09:26
era meglio che lo chiedevi altrove. cmq mi pare che xp a 32 bit non supporti i 4 giga. mi pare.
;)
appunto, a mio avviso non vale la pena spendere il doppio per 1,2 gb in più riconosciuto..
chiedo ancora scusa:stordita:

HackaB321
13-06-2008, 09:26
http://en.expreview.com/2008/06/13/gtx-200-finally-officially-priced/

280->649$
260->399$

halduemilauno
13-06-2008, 09:30
http://en.expreview.com/2008/06/13/gtx-200-finally-officially-priced/

quindi è confermato si è abbassato il prezzo della scheda che avrà per prima concorrenza. per l'altra oltre al calo fisiologico tocca aspettare la 4870x2 ad agosto/settembre(+ o -).

mircocatta
13-06-2008, 09:34
mi sa che nvidia si stia cagando addosso :asd:

halduemilauno
13-06-2008, 09:36
mi sa che nvidia si stia cagando addosso :asd:

sta correndo ai ripari. fronte prezzi e soprattutto 55nm.

Danielao
13-06-2008, 09:42
LA 280 non doveva andare a 499?

halduemilauno
13-06-2008, 09:53
LA 280 non doveva andare a 499?

a quanto pare(non avendo alcuna concorrenza)no. cmq credo che è difficile lasciare una forchetta di prezzi cosi ampia. aspetterei credo che cmq a 599$ ci arrivi ad essere presentata.
;)

McGraw
13-06-2008, 10:07
Geforce PhysX driver comes after GTX 280

At least few weeks
According to current plan, confirmed by high ranked Nvidia executives, a driver that will drive PhysX on Geforce 8 and 9 GPUs will come at least a few weeks after announcement of GTX 280.
Geforce GTX 280 and 260 are about to launch next week but the PhysX driver will follow a few weeks after. Nvidia simply wants to be ready and as you know Nvidia uses its CUDA marchitecture to make this possible.
We were informed that all the PhysX enabled games including GRAW and Unreal tournament 3 will work with PhysX over GPU and you won't need Ageia card anymore to get the benefits. It will be interesting to compare the performances fo Ageia card to the actually Geforce PhysX scores.
At this point the driver should be out at some point in July if it doesn’t hit some further delays.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7892&Itemid=1

A.L.M.
13-06-2008, 10:07
XFX GTX280.

http://www.itocp.com/attachments/month_0806/20080613_73dc49f03dce7b12f8b6ZTTt4qmF7NL8.jpg

-noxius-
13-06-2008, 10:40
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7888&Itemid=1

To quickly go to $349

Price wars have already started. Nvidia already dropped GTX 280 to $499 and it looks that GTX 260 will sell for $399.

Nvidia is still telling its partners that $399 is the launch price for Geforce GTX 260 but it looks that this card will quickly go down to $349. With $349, GTX 260 looks much more attractive and it will do well against $329 priced Radeon HD 4870 but as we suggested once ATI feels threatened it will simply drive the prices down.

Nvidia sells Geforce 9800GTX at $299, which means if GTX260 price goes down, Nvidia has to drive 9800GTX down too. Radeon HD 4870 beats 9800GTX and there is your problem. At this point, at least when it comes to average selling price of Nvidia cards, we simply have to say DAAMIT what have you done.

per la serie i prezzi tutti giù per terra.
;)

Hal, questa volta ATI la devi ringraziare pubblicamente !!! :ciapet:

Daytona
13-06-2008, 10:44
Bella, peccato che le schede video stiano girate verso il basso dal PCI in poi :>

E tu mettici uno specchio sotto !!! no???!!!! :D

JosèGarciaBolivar
13-06-2008, 10:58
Oh ragazzi ma allora è da comprare o no, oppure è meglio prendere la GX2 che sicuramente calerà di prezzo?
E poi qualcuno può rinfrescare le date di uscita per favore che tornare a ritroso nel post è scomodo e poi una rinfrescata generale è ottima visto che la prima pagina del post non è aggiornata?

halduemilauno
13-06-2008, 10:58
Hal, questa volta ATI la devi ringraziare pubblicamente !!! :ciapet:

Grazie ATI.

C0rrad0
13-06-2008, 11:03
Geforce PhysX driver comes after GTX 280

At least few weeks
According to current plan, confirmed by high ranked Nvidia executives, a driver that will drive PhysX on Geforce 8 and 9 GPUs will come at least a few weeks after announcement of GTX 280.
Geforce GTX 280 and 260 are about to launch next week but the PhysX driver will follow a few weeks after. Nvidia simply wants to be ready and as you know Nvidia uses its CUDA marchitecture to make this possible.
We were informed that all the PhysX enabled games including GRAW and Unreal tournament 3 will work with PhysX over GPU and you won't need Ageia card anymore to get the benefits. It will be interesting to compare the performances fo Ageia card to the actually Geforce PhysX scores.
At this point the driver should be out at some point in July if it doesn’t hit some further delays.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7892&Itemid=1


Proprio ieri chiedevo in quali schede sara' implementato il physics... se la gtx280 costera' cosi' cara mi prendero' indubbiamente una gtx260

halduemilauno
13-06-2008, 11:08
Oh ragazzi ma allora è da comprare o no, oppure è meglio prendere la GX2 che sicuramente calerà di prezzo?
E poi qualcuno può rinfrescare le date di uscita per favore che tornare a ritroso nel post è scomodo e poi una rinfrescata generale è ottima visto che la prima pagina del post non è aggiornata?

il 16 la 280.
il 26 la 260.