PDA

View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25

goldorak
16-06-2008, 10:59
ecco: spiegatemi come sarebbe possibile, partendo da queste specifiche, che il chip rulli solo un 50% in più di g80

secondo me, se così fosse, il collo di bottiglia potrebbero essere cpu/banda (ancora una volta)/driver del cavolo

altre spiegazioni onestamente non ne vedo...

Mi spieghi come fa ad essere limitato con 140 GB/s di banda passante ? :confused: Secondo te qual'e' il valore per cui la scheda non diventa piu' bandwidth limited ? 200 GB/s ? Dippiu' ?
Se cosi fosse la Nvidia avrebbe sbagliato a scegliere il bus a 512bit con GGDR3 non pensi ?

Scrambler77
16-06-2008, 11:01
Se cosi fosse la Nvidia avrebbe sbagliato a scegliere il bus a 512bit con GGDR3 non pensi ?

Secondo me si. Avrei preferito vedere queste schede con GDDR5...

appleroof
16-06-2008, 11:02
Mi spieghi come fa ad essere limitato con 140 GB/s di banda passante ? :confused: Secondo te qual'e' il valore per cui la scheda non diventa piu' bandwidth limited ? 200 GB/s ? Dippiu' ?
Se cosi fosse la Nvidia avrebbe sbagliato a scegliere il bus a 512bit con GGDR3 non pensi ?

si penso

Edita le immagini pls, la situazione è già dura senza quotarle :>

Probabilmente è CPU limited quasi sempre, oppure così come per il numero di core di una CPU, l'architettura non scala linearmente con il numero di cluster.

Se è vero ci sarà modo di discuterne sul th ufficiale n°3 (perché immagino che si arriverà al terzo in una settimana visti i flame che si scateneranno con tutto l'hype creato...) dopo che si saranno calmate le acque, anche perché temo che Leoneazzurro più che a fare commenti tecnici sarà impegnato nelle sospensioni -.-

lo spero davvero

per il resto, credo che appunto altre spiegazioni non ce ne sarebbero (ennesima ragione per me di rimandare l'acquisto di questa vga)

Capozz
16-06-2008, 11:06
ecco: spiegatemi come sarebbe possibile, partendo da queste specifiche, che il chip rulli solo un 50% in più di g80

secondo me, se così fosse, il collo di bottiglia potrebbero essere cpu/banda (ancora una volta)/driver del cavolo

altre spiegazioni onestamente non ne vedo...


La cpu non credo, nei bench che girano ci sono sempre qx9650/9770 a 3 o 4 ghz
Cmq nei bench di theinquirer la differenza media è quella, intorno al 50% (escludendo il 3dmark)

halduemilauno
16-06-2008, 11:06
Secondo me si. Avrei preferito vedere queste schede con GDDR5...

con le attuali gddr5 stavi sotto. ora ci vorrebbero delle gddr5 a 4400 e per migliorare la situazione ram da 5 giga in su. un'alternativa era il bus a 384 bit e ram gddr5 da 4 giga avresti una bp di 192 giga ma a che prezzo? e soprattutto con quale disponibilità?

spyke76
16-06-2008, 11:07
da sti bench non si capisce una mazza!

non si capisce come li fanno, con quali impostazioni del pannello di controllo li fanno se se c'e' AA e AF, insomma test fatti a cazzo!

e poi non dicono niente, perche' a crysis serve un esigua quantita' di frame, (ma stabili)

inutile 45fps e poi dopo 1 secondo 10fps, perche' con la 9800gx2 ti ritrovi a fare un ass-shot dei coreani dopo aver mirato alla testa...

A parte il fatto che il sito è in giapponese e questo sicuramente non aiuta, ma almeno ti sei sforzato di guardare meglio le tabelle (dove sono riportate esattamente le indicazioni di af e aa), e hai guardato direttamente il link dove ti mettono anche l'intera schermata di configurazione del test crysis?
A mio avviso, questa è la prima vera recensione attendibile. Lunga, ben dettagliata di foto e grafici, probabilmente anche ben motivata anche se non posso sapere il giapponese.
Di certo, solo guardando le pagine e spulciando i valori tra le righe, ci si fa un'idea ben chiara della scheda.

appleroof
16-06-2008, 11:10
La cpu non credo, nei bench che girano ci sono sempre qx9650/9770 a 3 o 4 ghz
Cmq nei bench di theinquirer la differenza media è quella, intorno al 50% (escludendo il 3dmark)

so che è allucinante pensare che la scheda sia limitata anche da qui processori, ed in effetti ci credo poco (almeno sempre e cmq)

personalmente, se le prestazioni fossero confermate, crederei più nella banda o nei driver (o entrambi) a questo punto

ovvio poi che con l'aumento di pesantezza nei giochi (e qui entra un discorso longevità) le cose, sempre se fossero quelle, dovrebbero riequilibrarsi, ma molto probabilmente a quel punto staremo parlando di ben altre schede....

-noxius-
16-06-2008, 11:11
prenderla negli Stati uniti di una marca buona farsela spedire con la dicitura gift e sperare nel super euro contro dollaro
Di tutto si sentiva il bisogno fuorchè di una vga single gpu a 550 euro
Detto questo non è che ci si deve stupire che per abbassare i prezzi si trovino stratagemmi del tipo.

Attento che con gift rischi che te la bloccano alla dogana sicuramente, è considerata evasione delle tasse doganali e poi se si dovesse perdere cosa fai ? Gli dici che hai perso merce di valore , ma se era un regalo e non era assicurato ? Chi più spende , meno spende ;)

Per carità nessun problema. non avendo la minima intenzione(tra l'altro gia detta)di non comprare tale scheda lascio l'onere e l'onore ad altri.

Quindi te la compri pure se non va il doppio di una 9800gtx ? Bell'affare ;)

mi pare, almeno credo, che i colpi saranno tutti, o gran parte di essi, a salve e forse qualcuno pure a ciao.

A salve ? Fai conto che se ci sono state grandissime attese in merito a questa vga, una grossa parte della colpa è la tua ; sei andato avanti per mesi a dire che questa sarebbe stata una belva , avrebbe distrutto la gx2 , avrebbe come minimo raddoppiato la 9800gtx ed avrebbe ottenuto minimo un 50% in più rispetto alla gx2 in media (il tutto con la solita classica ''verve'' da ingegnere nVIDIA superinformato, peggio dei tuoi colleghi cinesini di turno, che non può parlare a causa dell' NDA) .. Temo che come minimo sarai crocifisso, altro che fucilato :ciapet: (poi sarò curioso di vedere l'aumento di fps con i driver xxx.34 , non vorrei che fosse una situazione paragonabile ai driver miracolosi tanto attesi per le 2900xt , che mai arrivarono ) .

Una cosa , è stata proprio nVIDIA a dire ''will run crysis smooth 19x12 VH '' , giusto ? Non commento i grafici precedenti , non avrebbe senso dato che mancano un paio d'ore (ed in un paio d'ore non vengono rilasciati nuovi driver quindi stiamo lì ...) .

a me quello che fa piu' rabbia e' che ci sono entità che danno consigli senza senso e sparano sull'utilita' della gtx280!

cavolo a me serve la gtx280 perche' a grid noto micro scatti che non sono molto fastidiosi, ma aimè mettono in evidenza problemi allo sli cosi' come crysis che va come cazzo vuol

Micro scatti ? pure a 1600x1200 ed addirittura a 1280x1024 ? Di recensioni me ne sono lette e mai una cosa del genere .. Solo per curiosità ma che HD hai ? Te lo dico perchè prima giocavo crysis con una 1600xt su un maxtor ide da 5200 rpm praticamente a tappo ; pure con quei pochi fps che generava purtroppo c'èra dello stuttering , poi ho messo un raptor ed è girato alla perfezione .

bel commento, costruttivo ed argomentato.

Il tuo non scherza ..

padsi
16-06-2008, 11:16
Dai -noxius- nn infierire sul povero hal, e' gia' abbastanza che quetsa GTX280 nn e' quello che sembrava dover essere:sofico:

Cmq mi ricordo che in + di uno mi avevano detto che la GTX280 sarebbe stata disponibile in quantita' gia' dal primo giorno di lancio come fa sempre Nvidia, mi pare nn sia cosi o mi sbaglio? ^^

A.L.M.
16-06-2008, 11:17
ecco: spiegatemi come sarebbe possibile, partendo da queste specifiche, che il chip rulli solo un 50% in più di g80

secondo me, se così fosse, il collo di bottiglia potrebbero essere cpu/banda (ancora una volta)/driver del cavolo

altre spiegazioni onestamente non ne vedo...

A parte che la stessa domanda ce la facemmo un po' tutti anche ai tempi di R600... io per primo. :)

Se fossero veri, a parte il problema drivers (che però, converrai con me, non può riguardare tutti i giochi, anche perchè la base dell'architettura in fondo è la stessa di G80 e G92) e l'ipotesi che sia tutto falso, le ipotesi principali sarebbero 2:
- la gpu è pesantemente bottlenecked da qualcosa (come fu all'epoca per R600)
- la gpu semplicemente non scala proporzionalmente all'aumentare degli SP, ma anzi trae maggior beneficio dagli incrementi di capacità di texturing (che è quello chesostengo da tempo).

Le 2 ipotesi imho sono complementari. Che sia cpu limited con tutto a palla e a risoluzioni assurde direi che è da escludere. ;)


Le impostazioni di quei test (hanno usato i famosi 177.34, tra l'altro):

http://publish.it168.com/2008/0616/images/1044595.jpg

Scrambler77
16-06-2008, 11:18
con le attuali gddr5 stavi sotto. ora ci vorrebbero delle gddr5 a 4400 e per migliorare la situazione ram da 5 giga in su. un'alternativa era il bus a 384 bit e ram gddr5 da 4 giga avresti una bp di 192 giga ma a che prezzo? e soprattutto con quale disponibilità?

Allora ste gddr5 non servono a una mazza...

-noxius-
16-06-2008, 11:19
Punto a favore per le G80->GT200 , però bisogna vedere cosa combinerà ATI con l'havoq http://www.hwupgrade.it/news/skvideo/in-arrivo-driver-nvidia-con-supporto-physx_25643.html

Capozz
16-06-2008, 11:19
so che è allucinante pensare che la scheda sia limitata anche da qui processori, ed in effetti ci credo poco (almeno sempre e cmq)

personalmente, se le prestazioni fossero confermate, crederei più nella banda o nei driver (o entrambi) a questo punto

ovvio poi che con l'aumento di pesantezza nei giochi (e qui entra un discorso longevità) le cose, sempre se fossero quelle, dovrebbero riequilibrarsi, ma molto probabilmente a quel punto staremo parlando di ben altre schede....

Mah anche la banda mi sembra poco probabile, quando si sta sui 140GB/s mi sembra poco probabile, però non è impossibile....non sono un tecnico ma provo ad azzardare: per sempio la 9800GTX alle alte risoluzioni è limitata dalla banda passante, nel caso della GTX280 la banda è doppia, ma è praticamente doppia anche la potenza di calcolo e quindi potrebbe valere lo stesso discorso

Wing_Zero
16-06-2008, 11:19
ragazzi ma nelle rece di cui sopra hanno testato solo crysis, 3dmerda06 e giochi dx10 che non fanno testo imho.
Recensione fatta davvero malissimo.
Aspettiamo il buon corsini...e poi vediamo.
Certo che se gli incrementi sono questi, 9800gx2 tutta la vita!

appleroof
16-06-2008, 11:20
A parte che la stessa domanda ce la facemmo un po' tutti anche ai tempi di R600... io per primo. :)

Se fossero veri, a parte il problema drivers (che però, converrai con me, non può riguardare tutti i giochi, anche perchè la base dell'architettura in fondo è la stessa di G80 e G92) e l'ipotesi che sia tutto falso, le ipotesi principali sarebbero 2:
- la gpu è pesantemente bottlenecked da qualcosa (come fu all'epoca per R600)
- la gpu semplicemente non scala proporzionalmente all'aumentare degli SP, ma anzi trae maggior beneficio dagli incrementi di capacità di texturing (che è quello chesostengo da tempo).

Le 2 ipotesi imho sono complementari. Che sia cpu limited con tutto a palla e a risoluzioni assurde direi che è da escludere. ;)

sul tread ufficiale della 88gtx io ed un altro utente abbiamo fatto delle prove interessanti (anche se come al solito non pretendono di essere strettamente scientifiche :D ): il gioco è WIC, entrambi a 1920x1200, resto da gioco uguale io con la cpu in firma lui mi pare con un [email protected] giga

ebbene, lui fà molti meno fps di me...

Mah anche la banda mi sembra poco probabile, quando si sta sui 140GB/s mi sembra poco probabile, però non è impossibile....non sono un tecnico ma provo ad azzardare: per sempio la 9800GTX alle alte risoluzioni è limitata dalla banda passante, nel caso della GTX280 la banda è doppia, ma è praticamente doppia anche la potenza di calcolo e quindi potrebbe valere lo stesso discorso

esatto, è quello che credo e che sosteneva ad esempio Leonazzurro....

Foglia Morta
16-06-2008, 11:22
Allora ste gddr5 non servono a una mazza...

un pcb a 14 strati credi sia a buon mercato ?

Avere un migliore rapporto performance/watt delle GDDR3 ti sembra niente ?

Stessa cosa dicasi per i consumi in idle , la possibilità di avere moduli da 2gbit in futuro ( gddr3 arrivano a 1gbit ) .

Se le GDDR5 non servono a una mazza allora pure l'evoluzione tecnologica :rolleyes:

DarKilleR
16-06-2008, 11:24
Mah anche la banda mi sembra poco probabile, quando si sta sui 140GB/s mi sembra poco probabile, però non è impossibile....non sono un tecnico ma provo ad azzardare: per sempio la 9800GTX alle alte risoluzioni è limitata dalla banda passante, nel caso della GTX280 la banda è doppia, ma è praticamente doppia anche la potenza di calcolo e quindi potrebbe valere lo stesso discorso

si ma con il doppio della banda passante ed il doppio della potenza di calcolo...dovrebbe andare il doppio ossia un 100% in +....sempre se la banda passante è il collo di bottiglia..

A.L.M.
16-06-2008, 11:25
sul tread ufficiale della 88gtx io ed un altro utente abbiamo fatto delle prove interessanti (anche se come al solito non pretendono di essere strettamente scientifiche :D ): il gioco è WIC, entrambi a 1920x1200, resto da gioco uguale io con la cpu in firma lui mi pare con un [email protected] giga

ebbene, lui fà molti meno fps di me...

Cpu limited con quelle res, impo, filtri ed un QX9770 a 3.2GHz mi pare davvero fuori dal mondo... :stordita:

Wing_Zero
16-06-2008, 11:26
gli incrementi maggiori si vedono nelle dx 10!
sia su lost palnet che devil may cry 4 in dx10 le prestazioni sono raddoppiate!
E sta cosa mi dispiace abbastanza perche' ragazzi...ma quanto sono inutili i giochi in dx 10? non aggiunge niente alla grafica e vanno la meta' piu' lenti!! bah...

Sergio_Di_Rio
16-06-2008, 11:27
A salve ? Fai conto che se ci sono state grandissime attese in merito a questa vga, una grossa parte della colpa è la tua ; sei andato avanti per mesi a dire che questa sarebbe stata una belva , avrebbe distrutto la gx2 , avrebbe come minimo raddoppiato la 9800gtx ed avrebbe ottenuto minimo un 50% in più rispetto alla gx2 in media .. Temo che come minimo sarai crocifisso, altro che fucilato :ciapet: (poi sarò curioso di vedere l'aumento di fps con i driver xxx.34 , non vorrei che fosse una situazione paragonabile ai driver miracolosi tanto attesi per le 2900xt , che mai arrivarono ) .


Scusa perchè tu credi a quello che dice HAL? :asd:

No, non guardatemi male, non sono dei pregiudizzi...

mircocatta
16-06-2008, 11:28
sul tread ufficiale della 88gtx io ed un altro utente abbiamo fatto delle prove interessanti (anche se come al solito non pretendono di essere strettamente scientifiche :D ): il gioco è WIC, entrambi a 1920x1200, resto da gioco uguale io con la cpu in firma lui mi pare con un [email protected] giga

ebbene, lui fà molti meno fps di me...



esatto, è quello che credo e che sosteneva ad esempio Leonazzurro....

io l'avevo già detto, finchè non la vedo con un quadcore a 4ghz sotto il sedere non sono contento :stordita:

goldorak
16-06-2008, 11:28
ragazzi ma nelle rece di cui sopra hanno testato solo crysis, 3dmerda06 e giochi dx10 che non fanno testo imho.
Recensione fatta davvero malissimo.
Aspettiamo il buon corsini...e poi vediamo.
Certo che se gli incrementi sono questi, 9800gx2 tutta la vita!

La testiamo con giochi dx 9 ? :fagiano:
Facciamo a meno di Vista e torniamo a windows 2000 tanto che ci siamo. :muro:

Scrambler77
16-06-2008, 11:29
un pcb a 14 strati credi sia a buon mercato ?

Avere un migliore rapporto performance/watt delle GDDR3 ti sembra niente ?

Stessa cosa dicasi per i consumi in idle , la possibilità di avere moduli da 2gbit in futuro ( gddr3 arrivano a 1gbit ) .

Se le GDDR5 non servono a una mazza allora pure l'evoluzione tecnologica :rolleyes:

Ma avete dormito col cu*o scoperto stanotte?

Se avessi letto i miei post precedenti ti saresti accorto che io sono per le gddr5 (non a caso ho detto che aspetto la versione a 55nm nella speranza che le implementino al posto delle attuali gddr3).

Calmiamo i toni e cerchiamo di inserire i post nel loro specifico contesto. Sono sul thread della GTX280, e stando a ciò che si scrive quì, per GTX280 le gddr5 non servono ad una mazza. Non serviva il tuo post illuminante per chiarirci le differenze con le ddr3.

Spero sia chiaro.

DjLode
16-06-2008, 11:30
sul tread ufficiale della 88gtx io ed un altro utente abbiamo fatto delle prove interessanti (anche se come al solito non pretendono di essere strettamente scientifiche :D ): il gioco è WIC, entrambi a 1920x1200, resto da gioco uguale io con la cpu in firma lui mi pare con un [email protected] giga
ebbene, lui fà molti meno fps di me...


Attenzione che dipende da cosa sono "limitati" i giochi presi in considerazione. Alcuni sono shader limited, altri cpu limited e via discorrendo.
Se il gioco trae beneficio da cpu veloci (non so per calcolare le routine di gioco come potrebbe essere in un rts) ovviamente ottieni quando visto sopra.

mircocatta
16-06-2008, 11:30
Cpu limited con quelle res, impo, filtri ed un QX9770 a 3.2GHz mi pare davvero fuori dal mondo... :stordita:

considera che un quad in crysis va come un dual core alla medesima frequenza, quindi imho gtx280 con un quad (cioè come un dual) a 3.2ghz è un po ristretta, per questo chiedo a gran voce test con cpu più spinte di frequenza

Wing_Zero
16-06-2008, 11:31
La testiamo con giochi dx 9 ? :fagiano:
Facciamo a meno di Vista e torniamo a windows 2000 tanto che ci siamo. :muro:

si e magari a windows 3.1 e a qualche altra cavolata che devi sparare...
Ho detto solo che i giochi dx 10 IMHO non fanno testo xche, se ho un gioco sia dx9 che 10 NON lo giochero mai in dx10 perche' la grafica e' UGUALE e gli FPS sono dimezzati!!!!
Le dx10 non aggiungono un solo effetto che sia UNO alla controparte dx9! Pero' hanno il merito di dimezzare gli fps del gioco...bah...

spyke76
16-06-2008, 11:31
ragazzi ma nelle rece di cui sopra hanno testato solo crysis, 3dmerda06 e giochi dx10 che non fanno testo imho.
Recensione fatta davvero malissimo.
Aspettiamo il buon corsini...e poi vediamo.
Certo che se gli incrementi sono questi, 9800gx2 tutta la vita!

Mah, sinceramente non sono partigiano nvidia, però i test della rece sopra li sto guardando con molta attenzione e ritengo che:
1: le 9800gx2, indipendentemente dalle performance delle nuove schede ati/nvidia che usciranno, sarà una scheda enigmatica e pericolosa, alla pari di quanto fu la 7900gx2. Ora va bene, ma tra 6 mesi o forse meno, quando le nuove schede grafiche prenderanno piede, chi garantisce che nvidia continuerà a sviluppare un supporto driver/sli adeguato? vorrei ricordare le sofferenze di chi acquisto le 7900gx2, che già 6 mesi dopo si ritrovava con il segnarsi su un foglio di carta il driver con il supporto al dato gioco per lo sli.

2: dalla rece emerge chiaramente che la nuova 280gtx è una scheda grafica la cui architettura si giova delle dx10. Sinceramente, guardando bene la rece, in diversi giochi dx10, la scheda spunta anche un abbondante 50% e anche un 80/90% in alcune situaizoni rispetto alla 9800gtx nei giochi dx10. Per di più, bisogna aggiungere il fatto che la scheda pare effettivamente castrata, forse nelle memorie che ho l'impressione, che per reggere un bus a 512bit, servano memorie effettivamente più pompate, almeno delle ddr4 ad alte frequenze e che magari, arriveranno con una nuova release della scheda già nei prossimi 4/6 mesi.

3: questo però, almeno al momento, non giustifica il prezzo doppio rispetto alla 9800gtx, sia ben chiaro. Rimane il fatto, che io continuo a sperare nella rimonta di Ati, che se ci sarà, se la 4870 andrà anche solo un 20% in meno della 280gtx, nvidia sarà in difficoltà e il prezzo delle top nvidia si abbasserà in fretta.

Insomma, guardate bene i test, la scheda non sarà un mostro, ma in tutti i giochi dx10, spunta almeno un 50% in più di media sulla 9800gtx e non credo sia un caso. E' logico che la nuova architettura di shader unificati ha un netto vantaggio se si sfruttano le dx10.

Capozz
16-06-2008, 11:31
si ma con il doppio della banda passante ed il doppio della potenza di calcolo...dovrebbe andare il doppio ossia un 100% in +....sempre se la banda passante è il collo di bottiglia..

Pure te hai ragione, però i due chip non sono uguali, nel senso che GT200 non è semplicemente un G92 raddoppiato ma ci sono anche delle differenze architetturali, quindi la situazione potrebbe essere più limitante per GT200 che per G92 (per esempio GT200 gestisce quasi il triplo dei thread di G92)
Oppure c'è qualche errore di fondo nell'archiettura stessa che fa da collo di bottiglia

@ndrey
16-06-2008, 11:31
sul tread ufficiale della 88gtx io ed un altro utente abbiamo fatto delle prove interessanti (anche se come al solito non pretendono di essere strettamente scientifiche :D ): il gioco è WIC, entrambi a 1920x1200, resto da gioco uguale io con la cpu in firma lui mi pare con un [email protected] giga

ebbene, lui fà molti meno fps di me...


ma xke non avete provato con un celeron :asd:
Un dual tipo e8400 @3ghz ti fa gia girare WIC a qst risoluzione quanto un quad a stessa frequenza ;)
PS. prima di comprare e3100 avevo q6600 e ti posso solo dire VIVA Penryn x2

Foglia Morta
16-06-2008, 11:33
Ma avete dormito col cu*o scoperto stanotte?

Se avessi letto i miei post precedenti ti saresti accorto che io sono per le gddr5 (non a caso ho detto che aspetto la versione a 55nm nella speranza che le implementino al posto delle attuali gddr3).

Calmiamo i toni e cerchiamo di inserire i post nel loro specifico contesto. Sono sul thread della GTX280, e stando a ciò che si scrive quì, per GTX280 le gddr5 non servono ad una mazza. Non serviva il tuo post illuminante per chiarirci le differenze con le ddr3.

Spero sia chiaro.

Non ho bisogno di cambiare tono... Informati piuttosto prima di fare certe sparate.

Scrambler77
16-06-2008, 11:33
io l'avevo già detto, finchè non la vedo con un quadcore a 4ghz sotto il sedere non sono contento :stordita:

Un utente su extremehardware (se non sbaglio) ha già assodato che crysis scala quasi linearmente all'aumentare della frequenza della CPU. Per questo asseriva che crysis è cpu-limited con gtx280.

Ora solo una recensione "attenta" anche a questo aspetto potrebbe far luce su sta storia, altrimenti si rischia di fraintenderne il contenuto ed addebitare alla gpu un deficit che non le appartiene...

appleroof
16-06-2008, 11:33
ma xke non avete provato con un celeron :asd:
Un dual tipo e8400 @3ghz ti fa gia girare WIC a qst risoluzione quanto un quad a stessa frequenza ;)
PS. prima di comprare e3100 avevo q6600 e ti posso solo dire VIVA Penryn x2

il punto è dimostare un eventuale situazione di cpu-limited

halduemilauno
16-06-2008, 11:34
Allora ste gddr5 non servono a una mazza...

le gddr5 attuali associate al bus a 256 bit nel dare una adeguata bp alle gtx no. le gddr5 andranno bene o quando saranno a 5 giga oppure associate a bus superiori ai 256 bit. parlo sempre per le gtx.
e ripeto devi tener conto del loro costo superiore e della loro disponibilità.

@ndrey
16-06-2008, 11:34
considera che un quad in crysis va come un dual core alla medesima frequenza, quindi imho gtx280 con un quad (cioè come un dual) a 3.2ghz è un po ristretta, per questo chiedo a gran voce test con cpu più spinte di frequenza

infatti meglio un dual @4ghz che un quad @3.6ghz :O
Poi con penryn di oggi è un piacere andare @4.5ghz :asd:

Scrambler77
16-06-2008, 11:34
Non ho bisogno di cambiare tono... Informati piuttosto prima di fare certe sparate.

:rotfl:

Sergio_Di_Rio
16-06-2008, 11:34
edit

goldorak
16-06-2008, 11:35
si e magari a windows 3.1 e a qualche altra cavolata che devi sparare...
Ho detto solo che i giochi dx 10 IMHO non fanno testo xche, se ho un gioco sia dx9 che 10 NON lo giochero mai in dx10 perche' la grafica e' UGUALE e gli FPS sono dimezzati!!!!
Le dx10 non aggiungono un solo effetto che sia UNO alla controparte dx9! Pero' hanno il merito di dimezzare gli fps del gioco...bah...

Ma insomma, da fine giugno windows xp non sara' piu' in vendita, il presente e futuro sono dx 10.
Quindi e' normale che i benchmark si mettano all'ordine del giorno e testino per benino le schede sotto dx 10.

Wing_Zero
16-06-2008, 11:35
DX10:

http://publish.it168.com/2008/0616/images/1044546.JPG

DX9:

http://publish.it168.com/2008/0616/images/1044564.JPG

e cosi' per tutti i giochi...
nelle dx9 c'e un incremento medio del 20-30%, nei giochi dx10 spesso e volentieri del 90-100% !

Per me ne hanno fatto una questione di marketing... migliorare il supporto alle dx10 e non cagarsi piu' le 9, cosi' nessuno puo' piu' dire che le dx10 sono piu' lente!
Ragazzi forse sono rimasto indietro io, ma mi dite 1 gioco che sia uno ch ein dx10 si vede meglio che in dx 9???

mircocatta
16-06-2008, 11:35
ma xke non avete provato con un celeron :asd:
Un dual tipo e8400 @3ghz ti fa gia girare WIC a qst risoluzione quanto un quad a stessa frequenza ;)
PS. prima di comprare e3100 avevo q6600 e ti posso solo dire VIVA Penryn x2

meglio un penryn dual che un quad q6600? la scimmia mi prude azzarola!!:mad:

però c'è da dire che giochi come alan wake asfrutteranno i quad e li potrebbe farsi sentire la differenza di numero dei core..

Capozz
16-06-2008, 11:36
considera che un quad in crysis va come un dual core alla medesima frequenza, quindi imho gtx280 con un quad (cioè come un dual) a 3.2ghz è un po ristretta, per questo chiedo a gran voce test con cpu più spinte di frequenza

Non penso, una cpu più spinta serve solo nel 3dmark, in qualsiasi gioco lo scaling di prestazioni oltre i 3 ghz non è proporzionale all'aumento di frequenza, spesso è praticamente trascurabile

leoneazzurro
16-06-2008, 11:36
Vabbè, stemperiamo la tensione postando, sempre dalla rece di cui sopra, qualche info tecnica in più su G200. :)

http://publish.it168.com/2008/0616/images/1044413.jpg

http://publish.it168.com/2008/0616/images/1044407.jpg

http://publish.it168.com/2008/0616/images/1044443.jpg

http://publish.it168.com/2008/0616/images/1044437.jpg

Leone, che ne pensi? ;)

Penso che dovevano compararlo con G92 più che con G80, ma comunque i dati son quelli.

ecco: spiegatemi come sarebbe possibile, partendo da queste specifiche, che il chip rulli solo un 50% in più di g80

secondo me, se così fosse, il collo di bottiglia potrebbero essere cpu/banda (ancora una volta)/driver del cavolo

altre spiegazioni onestamente non ne vedo...

I drivers andranno affinati, ovviamente. Sicuramente è da migliorare il coordinamento tra clusters. Per il resto, abbiamo un chip che è 2xG92 ma non in tutto, io è da un bel pò che vado dicendo che dove il framebuffer più grande non entra in gioco sarebbe stato difficile vedere incrementi di più 2x rispetto a G92, tranne dove si era molto ALU limited, il che vuole anche dire che a parte test sintetici particolari il miglioramento medio sarebbe stato inferiore al 100%. Il discorso del CPU limited è chiaramente valido in alcuni scenari.

Scrambler77
16-06-2008, 11:37
e ripeto devi tener conto del loro costo superiore e della loro disponibilità.

la tecnica è una cosa, il mercato è un'altra. Stiamo parlando di utilità tecnica delle gddr5? Si. Bene... stando a ciò che dici attualmente non servono ad una mazza, a prescindere dal costo e disponibilità.

Eppure io attendo la versione a 55nm nella speranza che passino comunque alle gddr5... ;)

appleroof
16-06-2008, 11:39
Cpu limited con quelle res, impo, filtri ed un QX9770 a 3.2GHz mi pare davvero fuori dal mondo... :stordita:

e allora come ti spieghi i nostri risultati?

world in conflict, 1920x1200, impostazioni high, aa4x af16x

io

http://img149.imageshack.us/img149/5783/wicaa4xuu1.png (http://imageshack.us)

lui

http://img359.imageshack.us/img359/2938/aa4xillidanyw1.jpg (http://imageshack.us)

:boh:

mircocatta
16-06-2008, 11:39
Un utente su extremehardware (se non sbaglio) ha già assodato che crysis scala quasi linearmente all'aumentare della frequenza della CPU. Per questo asseriva che crysis è cpu-limited con gtx280.


me lo spieghi meglio questo passaggio please? grazie ;)

A.L.M.
16-06-2008, 11:39
DX10:

http://publish.it168.com/2008/0616/images/1044546.JPG

DX9:

http://publish.it168.com/2008/0616/images/1044564.JPG

e cosi' per tutti i giochi...
nelle dx9 c'e un incremento medio del 20-30%, nei giochi dx10 spesso e volentieri del 90-100% !

Per me ne hanno fatto una questione di marketing... migliorare il supporto alle dx10 e non cagarsi piu' le 9, cosi' nessuno puo' piu' dire che le dx10 sono piu' lente!
Ragazzi forse sono rimasto indietro io, ma mi dite 1 gioco che sia uno ch ein dx10 si vede meglio che in dx 9???

Io aspetterei di vedere anche altri giochi DX10 prima di arrivare a questa conclusione... LP è palesemente pro-NVidia come gioco, e ci sta che gli incrementi siano più alti. :)

Scrambler77
16-06-2008, 11:40
I drivers andranno affinati, ovviamente. Sicuramente è da migliorare il coordinamento tra clusters. Per il resto, abbiamo un chip che è 2xG92 ma non in tutto, io è da un bel pò che vado dicendo che dove il framebuffer più grande non entra in gioco sarebbe stato difficile vedere incrementi di più 2x rispetto a G92, tranne dove si era molto ALU limited, il che vuole anche dire che a parte test sintetici particolari il miglioramento medio sarebbe stato inferiore al 100%. Il discorso del CPU limited è chiaramente valido in alcuni scenari.

Quoto...

Sergio_Di_Rio
16-06-2008, 11:40
infatti meglio un dual @4ghz che un quad @3.6ghz :O
Poi con penryn di oggi è un piacere andare @4.5ghz :asd:

Aspetta a fare affermazioni del genere, e ricorda che dipende sempre dalle applicazioni.

E di quanto sarebbe il guadagno in termini di fps reali nei giochi?

4.5ghz? A liquido, forse..e non credo che sia proprio una passeggiata di salute per la cpu.

mircocatta
16-06-2008, 11:41
e allora come ti spieghi i nostri risultati?

world in conflict, 1920x1200, impostazioni high, aa4x af16x

io


lui


:boh:

ma sai che mi sa che amd va meglio di intel? :asd:

azzarola, ricordavo risultati peggiori a quella risoluzione in quel gioco mattone

Scrambler77
16-06-2008, 11:41
me lo spieghi meglio questo passaggio please? grazie ;)

Sei serio o mi stai coglionando?

P.S: no perchè col clima che tira ogni frase dice tutto ed il contrario di tutto...

@ndrey
16-06-2008, 11:41
il punto è dimostare un eventuale situazione di cpu-limited

Infatti ti ho detto xke non avete provato con un celeron.., la deferenza la notavi ancora di piu..
Poi sul genere di qst test basta andare da tomshw :sofico:

appleroof
16-06-2008, 11:42
Io aspetterei di vedere anche altri giochi DX10 prima di arrivare a questa conclusione... LP è palesemente pro-NVidia come gioco, e ci sta che gli incrementi siano più alti. :)

:rolleyes: si ma l' si testano 2 vga Nvidia, non una Nvidia ed una Ati

mircocatta
16-06-2008, 11:42
Sei serio o mi stai coglionando?

serio!:)

Wing_Zero
16-06-2008, 11:42
Io aspetterei di vedere anche altri giochi DX10 prima di arrivare a questa conclusione... LP è palesemente pro-NVidia come gioco, e ci sta che gli incrementi siano più alti. :)

nono, anche con devil may cry si ha sempre un raddoppio di prestazioni in dx 10!

cmq sia per ora le dx 10 nn mi piacciono x niente... xke' mi devo dimezzare gli fps senza avere migliorie grafiche? bah...

halduemilauno
16-06-2008, 11:43
la tecnica è una cosa, il mercato è un'altra. Stiamo parlando di utilità tecnica delle gddr5? Si. Bene... stando a ciò che dici attualmente non servono ad una mazza, a prescindere dal costo e disponibilità.

Eppure io attendo la versione a 55nm nella speranza che passino comunque alle gddr5... ;)

nel caso della gtx280 per avere la stessa bp data dalla gddr3 ci vogliono gddr5 a 4400. per avere la stessa. se vuoi un aumento consistente deve mettere i 5 giga. quindi l'utilità tecnica ci sarà quando ci saranno gddr5 a 5 giga. parlo sempre nel caso della gtx280. oppure ti accontenti di meno tipo 4 giga ma devi mettere cmq un bus superiore ai 256 bit. oggi avere simili ram associate a bus da 512 bit sfori con i costi.

appleroof
16-06-2008, 11:43
Infatti ti ho detto xke non avete provato con un celeron.., la deferenza la notavi ancora di piu..
Poi sul genere di qst test basta andare da tomshw :sofico:

ah ok ;)

per il resto, preferisco test "casalinghi": a parte che mi diverto, a volte sono anche più veritieri proprio perchè paradossalmente non fatti in laboratorio :)

mircocatta
16-06-2008, 11:44
nono, anche con devil may cry si ha sempre un raddoppio di prestazioni in dx 10!

cmq sia per ora le dx 10 nn mi piacciono x niente... xke' mi devo dimezzare gli fps senza avere migliorie grafiche? bah...

motivo per cui io vista non lo userò mai, sperando in windows 7 e le directx11, leggere quanto le directx9.c ma migliori..un sogno :asd:

appleroof
16-06-2008, 11:45
motivo per cui io vista non lo userò mai, sperando in windows 7 e le directx11, leggere quanto le directx9.c ma migliori..un sogno :asd:

mi presti la tua palla di vetro che vado un attimo a giocare l'enalotto? :asd: :asd: :asd:

A.L.M.
16-06-2008, 11:46
:rolleyes: si ma l' si testano 2 vga Nvidia, non una Nvidia ed una Ati

Non cambia nulla. Rimane un gioco di cui NVidia ha praticamente progettato il porting assieme a Capcom, quindi ci sta che sia meglio ottimizzato di altri. :)

nono, anche con devil may cry si ha sempre un raddoppio di prestazioni in dx 10!

Il motore grafico di DMC4 e LP è lo stesso, MT Framework, sebbene in Devil May Cry sia più leggero. ;)

Scrambler77
16-06-2008, 11:47
serio!:)

Non riesco a trovare il post originale, ma un tizio con un ES di una gtx280 ha benchato crysis utilizzando un penryn in varie situazioni, da 3 a 4ghz (se non ricordo male) cercando di mantenere costante la velocità delle ram e con il miglior rapporto fsb/ram disponibile.

A parità di dettaglio, asseriva che gtx280 scalava quasi linearmente all'aumentare della frequenza della cpu, che ne evidenzia il collo di bottiglia.

mircocatta
16-06-2008, 11:47
Si ma tanto di Alan Wake si son perse le tracce e di giochi che traggano reale beneficio da un quad non se ne vedono all'orizzonte.

argh la scimmia!!!!!!!!!:mad:
3dmark però sono peggiori !!! :p :fiufiu: :asd:
guardate che se continuate così butto il mio q6600 sfigato e mi fiondo su un E8400!!!

@ndrey
16-06-2008, 11:47
meglio un penryn dual che un quad q6600? la scimmia mi prude azzarola!!:mad:

però c'è da dire che giochi come alan wake asfrutteranno i quad e li potrebbe farsi sentire la differenza di numero dei core..

Non ho giocato a AW ma penso che la differenza non fa solo la cpu.. Cmq se dovrei ora scegliere di nuovo tra q6600 e e8400 ( nel mio caso e3100) non penserei due volte :ciapet:
Da ex possessore di q6600 saprò di piu non pare ;) :D

Wing_Zero
16-06-2008, 11:47
e allora come ti spieghi i nostri risultati?

world in conflict, 1920x1200, impostazioni high, aa4x af16x

io

http://img149.imageshack.us/img149/5783/wicaa4xuu1.png (http://imageshack.us)

lui

http://img359.imageshack.us/img359/2938/aa4xillidanyw1.jpg (http://imageshack.us)

:boh:
Guardatevi questa review:

http://www.xbitlabs.com/articles/cpu/print/core2quad-q9300.html

http://www.xbitlabs.com/images/cpu/core2quad-q9300/t2.png

I giochi NON SONO OTTIMIZZATI manco per il cavolo per i quad core!
L'unico ad essere ottimizzato e' UT3! WIC non e' ottimizzato manco per il cavolo!
Quindi ora per giocare, meglio un dual cazzuto che un inutile quad core.

Ciao
Wing

halduemilauno
16-06-2008, 11:47
Penso che dovevano compararlo con G92 più che con G80, ma comunque i dati son quelli.



I drivers andranno affinati, ovviamente. Sicuramente è da migliorare il coordinamento tra clusters. Per il resto, abbiamo un chip che è 2xG92 ma non in tutto, io è da un bel pò che vado dicendo che dove il framebuffer più grande non entra in gioco sarebbe stato difficile vedere incrementi di più 2x rispetto a G92, tranne dove si era molto ALU limited, il che vuole anche dire che a parte test sintetici particolari il miglioramento medio sarebbe stato inferiore al 100%. Il discorso del CPU limited è chiaramente valido in alcuni scenari.


ma lo scenario tipico di questa scheda è proprio dove il framebuffer si richiede + elevato. è inutile stare a confrontare gtx280 con 9800gtx a 1280 o a 1400 o anche a 1600.

Capozz
16-06-2008, 11:48
e allora come ti spieghi i nostri risultati?

world in conflict, 1920x1200, impostazioni high, aa4x af16x

io


lui



:boh:

Ce ne sono di fattori :D
Meno cache, driver della vga, sistema operativo, intasamento del sistema operativo ecc

spyke76
16-06-2008, 11:48
DX10:

http://publish.it168.com/2008/0616/images/1044546.JPG

DX9:

http://publish.it168.com/2008/0616/images/1044564.JPG

e cosi' per tutti i giochi...
nelle dx9 c'e un incremento medio del 20-30%, nei giochi dx10 spesso e volentieri del 90-100% !

Per me ne hanno fatto una questione di marketing... migliorare il supporto alle dx10 e non cagarsi piu' le 9, cosi' nessuno puo' piu' dire che le dx10 sono piu' lente!
Ragazzi forse sono rimasto indietro io, ma mi dite 1 gioco che sia uno ch ein dx10 si vede meglio che in dx 9???
Mah, il tuo ragionamento mi sembra sia un pò di parte e in alcuni casi recettivo.
E' da diverse generaizoni di gpu, che all'uscita di una scheda video, si assiste al sostanziale abbandono delle ottimizzazioni con la generazione precedente di directx. E' evidente, che per sfruttare le dx10 in maniera adeguata servano delle specifiche differenti rispetto alle attuali schede grafiche ibride dx9/dx10.
Alla fine, guardiamo in faccia alla realtà: una 9800gts o 3870 che siano, sono più che sufficienti a far girare i giochi attuali in dx9 senza nessun problema (compreso crysis in dx9 high ovviamente); a me sembra chiaro che chi si compra una scheda di nuova generazione come la 280gtx spendendoci 1 milione e più delle vecchie lire, si aspetti anche che la scheda le duri a lungo e sfrutti al meglio le nuove tecnologie. I giochi che usciranno in dx9, oltre un certo limite prestazionale ormai si sa non andranno, anche perchè ormai si sviluppa in multipiattaforma su console, i cui limiti tecnici su pc sono ormai stati non dico superati, ma per lo meno affiancati.
In dx10 la scheda mostra il meglio di se, io lo trovo un pregio e non è escluso che con nuovi driver il margine di prestazioni migliori ancora, proprio come accadde con le 8800gtx e gts, che ora come ora rendono almeno un 30% in più con tutti i giochi di 1 anno e mezzo fa.
Insomma, una volta che usciranno le 4870 tireremo le somme, ora come ora, io questa scheda di certo non la definirei una delusione come molti asseriscono, anzi.

goldorak
16-06-2008, 11:48
motivo per cui io vista non lo userò mai, sperando in windows 7 e le directx11, leggere quanto le directx9.c ma migliori..un sogno :asd:

E allora mi sa che ti fermi a xp, perche' windows 7 e' Vista 2nd edition. :D

Scrambler77
16-06-2008, 11:48
nel caso della gtx280 per avere la stessa bp data dalla gddr3 ci vogliono gddr5 a 4400. per avere la stessa. se vuoi un aumento consistente deve mettere i 5 giga. quindi l'utilità tecnica ci sarà quando ci saranno gddr5 a 5 giga. parlo sempre nel caso della gtx280. oppure ti accontenti di meno tipo 4 giga ma devi mettere cmq un bus superiore ai 256 bit.

Una ulteriore conferma che conviene sperare (ed aspettare) in una futura revisione a 55nm (che dovrebbe abbattere i costi di sto beneamato gt200) con il supporto alle gddr5... ;)

mircocatta
16-06-2008, 11:48
mi presti la tua palla di vetro che vado un attimo a giocare l'enalotto? :asd: :asd: :asd:

ho scritto "sperando" oppure "solo un sogno" apposta :stordita:

Wing_Zero
16-06-2008, 11:49
ma lo scenario tipico di questa scheda è proprio dove il framebuffer si richiede + elevato. è inutile stare a confrontare gtx280 con 9800gtx a 1280 o a 1400 o anche a 1600.

si pero' hal, se e' inutle confrontare la scheda a quelle risoluzioni, che sono quelle che usano il 99,9% delle persone per giocare...
allora e' proprio inutile il gtx280 come scheda!!
Chi e' che gioca a 2500? nessuno trannne qualche FAN-atic ... quindi...

leoneazzurro
16-06-2008, 11:49
Non è un problema di DX10 o DX9, è un problema di colllo di bottiglia dato dalle ALU o dalle capacità di texturing. Quindi dove c'è un rapporto di 2:1 o quasi abbiamo che il gioco era limitato in G92 maggiormente dalle ALU, dove c'è di meno GT200 incontra il limite sul texturing.

Capozz
16-06-2008, 11:49
ma lo scenario tipico di questa scheda è proprio dove il framebuffer si richiede + elevato. è inutile stare a confrontare gtx280 con 9800gtx a 1280 o a 1400 o anche a 1600.

Vabbè ma le applicazioni non sono mica tutte uguali, poi mica tutti giocano in 1920

mircocatta
16-06-2008, 11:50
Non riesco a trovare il post originale, ma un tizio con un ES di una gtx280 ha benchato crysis utilizzando un penryn in varie situazioni, da 3 a 4ghz (se non ricordo male) cercando di mantenere costante la velocità delle ram e con il miglior rapporto fsb/ram disponibile.

A parità di dettaglio, asseriva che gtx280 scalava quasi linearmente all'aumentare della frequenza della cpu, che ne evidenzia il collo di bottiglia.

quindi significa che le mie previsioni di cpu limited, sono abbastanza fondate :cool: :cool:

Sergio_Di_Rio
16-06-2008, 11:50
Non ho giocato a AW ma penso che la differenza non fa solo la cpu.. Cmq se dovrei ora scegliere di nuovo tra q6600 e e8400 ( nel mio caso e3100) non penserei due volte :ciapet:
Da ex possessore di q6600 saprò di piu non pare ;) :D

Ti chiami per caso ANTONIODIPIETRO?.....:doh:

halduemilauno
16-06-2008, 11:51
Una ulteriore conferma che conviene sperare (ed aspettare) in una futura revisione a 55nm (che dovrebbe abbattere i costi di sto beneamato gt200) con il supporto alle gddr5... ;)

abbattere i costi certo. per il resto...bus a 384 bit e gddr5 a 4 giga uno scenario plausibile.
;)

appleroof
16-06-2008, 11:51
Guardatevi questa review:

cut

I giochi NON SONO OTTIMIZZATI manco per il cavolo per i quad core!
L'unico ad essere ottimizzato e' UT3! WIC non e' ottimizzato manco per il cavolo!
Quindi ora per giocare, meglio un dual cazzuto che un inutile quad core.

Ciao
Wing

il punto non è/era verificare se è meglio un quad o un dual

ma lo scenario tipico di questa scheda è proprio dove il framebuffer si richiede + elevato. è inutile stare a confrontare gtx280 con 9800gtx a 1280 o a 1400 o anche a 1600.

quoto

Ce ne sono di fattori :D
Meno cache, driver della vga, sistema operativo, intasamento del sistema operativo ecc

vabbè il primo attiene sempre alla cpu :D il secondo se non abbiamo la stessa release magari lui ha la precedente, non credo cambi in modo abissale, l'OS è lo stesso, l'intasamento può essere, ma incidere così tanto? mah, non lo so

in realtà mi devo cmq ricredere sui test casalinghi: in effetti sarebbe stato meglio verificare con tutto uguale tranne la cpu...

fireradeon
16-06-2008, 11:51
dalla gtx280 ci si aspetta realisticamente un 30% in + della gx2, detto questo e aspettando conferme def., stà a te decidere, tenendo cmq presente numerose migliorie a livello di chip tra le 2 e la mancanza delle magagne dovute allo sli...

Ok, ti ringrazio. Attendo la rece questo pomeriggio e poi decido. :)

appleroof
16-06-2008, 11:52
ho scritto "sperando" oppure "solo un sogno" apposta :stordita:

ah ok, l'hai aggiunto mentre quotavo ;)

Ok, ti ringrazio. Attendo la rece questo pomeriggio e poi decido. :)

ottimo, mi sembra il minimo ;)

halduemilauno
16-06-2008, 11:52
Vabbè ma le applicazioni non sono mica tutte uguali, poi mica tutti giocano in 1920

gli enthusiast si e anche a +.

Scrambler77
16-06-2008, 11:53
quindi significa che le mie previsioni di cpu limited, sono abbastanza fondate :cool: :cool:

"In Crysis, at Very High Settings @ 1440x900, 4x AA

GPU Test: 38 FPS
CPU Test: 35 FPS

3DMark06: 17k 3DMarks

Now, what we're seeing here is the CPU limiting the GPU's by a LOT! The GTX 280's are so fast that almost any processor that isn't overclocked is going to bottleneck them by a huge amount. "

http://www.evilavatar.com/forums/showthread.php?t=54223

...ci sono parecchi altri forum su cui si parla proprio di questo.

@ndrey
16-06-2008, 11:53
Ti chiami per caso ANTONIODIPIETRO?.....:doh:

:confused:

beppe8682
16-06-2008, 11:53
Porcaccia la scimmiazza!!!:sofico:

dunque questo è il mio ali:
http://www.hipergroup.com/English/products/hpu-4m580.html
'gnà fa?:stordita:
mi interessa la 260...ma quanti cm è lunga???

Soulman84
16-06-2008, 11:55
Ti chiami per caso ANTONIODIPIETRO?.....:doh:

no però non so se hai notato ma è leggermente RUSSO;)

Wing_Zero
16-06-2008, 11:55
gli enthusiast si e anche a +.

che sono lo 0.01% del mercato.
non mi puoi dire che e' "inutile" confrontare le 2 schede alle risoluzioni che usano TUTTI per giocare.
Stai dicendo una cavolata per definizione.

Sergio_Di_Rio
16-06-2008, 11:55
Guardatevi questa review:

http://www.xbitlabs.com/articles/cpu/print/core2quad-q9300.html

http://www.xbitlabs.com/images/cpu/core2quad-q9300/t2.png

I giochi NON SONO OTTIMIZZATI manco per il cavolo per i quad core!
L'unico ad essere ottimizzato e' UT3! WIC non e' ottimizzato manco per il cavolo!
Quindi ora per giocare, meglio un dual cazzuto che un inutile quad core.

Ciao
Wing

E8500--->3.16ghz

q9300-->2.5ghz

Come fai a paragonarli se lavorano a frequenze differenti? :doh: :doh: :doh:

Fai i test con il quad alla stessa frequenza del dual e vedi che avrai risultai praticamente identici.

halduemilauno
16-06-2008, 11:55
si pero' hal, se e' inutle confrontare la scheda a quelle risoluzioni, che sono quelle che usano il 99,9% delle persone per giocare...
allora e' proprio inutile il gtx280 come scheda!!
Chi e' che gioca a 2500? nessuno trannne qualche FAN-atic ... quindi...

il segmento di appartenenza si chiama appunto enthusiast.
quindi...

Scrambler77
16-06-2008, 11:57
A 1440x900 non è che mi sorprenda più di tanto, anche perché ci vuole un vero idiota per comprare una scheda da 600€ per giocare a 1440x900 :D

Faccio notare che l'ho scritto prima che chicchessia la compri, quindi non può essere considerato un flame a posteriori. E comunque è verità, non flame :>

35fps a 1440x900 non ti sorprendono? A me si...

Se non ci fosse cpu-limit, a quella risoluzione gli fps sarebbero dovuti fioccare come nespole (come dice qualcuno :asd:).

appleroof
16-06-2008, 11:57
che sono lo 0.01% del mercato.
non mi puoi dire che e' "inutile" confrontare le 2 schede alle risoluzioni che usano TUTTI per giocare.
Stai dicendo una cavolata per definizione.

assolutamente il contrario: schede come questa vanno testate a 1600x1200 in su e possibilmente con i filtri

poi magari si vede come si comportano a ris più basse per magari verificare situazioni di cpu-limited

Wing_Zero
16-06-2008, 11:58
E8500--->3.16ghz

q9500-->2.5ghz

Come fai a paragonarli se lavorano a frequenze differenti? :doh: :doh: :doh:

Fai i test con il quad alla stessa frequenza del dual e vedi che avrai risultai praticamente identici.
grazie al piffero -.-"
ma che discorso fai. e' ovvio che 4 core a 3 ghz sono meglio di 2 core a 3 ghz! -.-" -.-"
Il punto e' che come dice te, otterai risultati praticamente identici, sia col quad che col dual che DIMOSTRA che i giochi non sono per nulla ottimizzati per i quad core! bah...

Cmq ragazzi...il clock degli shader del GTX280 e' bassissimo!!!! solo 1200 mhz!!!
secondo me nvidia ci riservera' qualche sorpresa :perfido:

mircocatta
16-06-2008, 11:58
A 1440x900 non è che mi sorprenda più di tanto, anche perché ci vuole un vero idiota per comprare una scheda da 600€ per giocare a 1440x900 :D



grazie di avermi dato dell'idiota :stordita: :fagiano: :oink:

però avevo anche intenzione di cambiare schermo, ma prima la schedozza :fagiano:

Wing_Zero
16-06-2008, 11:59
assolutamente il contrario: schede come questa vanno testate a 1600x1200 in su e possibilmente con i filtri

poi magari si vede come si comportano a ris più basse per magari verificare situazioni di cpu-limited
finche' mi dici di testarle fino a 1680x1050 sono daccordo.
Per il resto, i test a 2500x1900 (o quello che e') sono INUTILI visto che NESSUNO usa queste risoluzioni.

Scrambler77
16-06-2008, 11:59
sbagliato la coniugazione del verbo.

Eheheheh Di Pietro ha superato persino Trapattoni!! :asd:

@ndrey
16-06-2008, 11:59
no però non so se hai notato ma è leggermente RUSSO;)

:D :sofico:

sbagliato la coniugazione del verbo.

ok.., memorizzato :O :)

halduemilauno
16-06-2008, 11:59
che sono lo 0.01% del mercato.
non mi puoi dire che e' "inutile" confrontare le 2 schede alle risoluzioni che usano TUTTI per giocare.
Stai dicendo una cavolata per definizione.

intanto bontà loro non sono lo 0,01% ma di certo ben di +. è chiaro che la stramassa ha monitor da 19/20 pollici ma esistono anche loro. certo che è inutile che le volevi confrontare a 1280? minimo si va dai 1680x1050 con i filtri in su. minimo.
550€ per giocare su un 19pollici....cos'è uno scherzo?

appleroof
16-06-2008, 12:00
A 1440x900 non è che mi sorprenda più di tanto, anche perché ci vuole un vero idiota per comprare una scheda da 600€ per giocare a 1440x900 :D

Faccio notare che l'ho scritto prima che chicchessia la compri, quindi non può essere considerato un flame a posteriori. E comunque è verità, non flame :>

c'è un utente che ha la 8800gtx e gioca a 1280x1024, chiedeva se era il caso di cambiarla ed io gli ho detto che a 1920x1200 non fà una piega, figuriamoci a 1280x1024

il punto è che se hai una degna cpu, in ottica longevità non è affatto un'idiozia: certo non è per quello che queste schede sono fatte, non ci piove, ma ripeto definirle idiozia è quanto meno esagerato, tu avrai cambiato almeno 2/3 vga (se giochi a parità di impostazioni di quello) mentre quello avrà ancora la vga da 600€

mircocatta
16-06-2008, 12:00
Cmq ragazzi...il clock degli shader del GTX280 e' bassissimo!!!! solo 1200 mhz!!!
secondo me nvidia ci riservera' qualche sorpresa :perfido:

il problema di queste schede è il loro raffreddamento, per questo aspetto i 55nm, e magari gli cambio pure il dissipatore..
non so se hai visto il test con il triSLI..le hanno portate a oltre 900 di core, e 1900 di shader...cioè un 50% di oveclock e oltre, SOTTO AZOTO

Foglia Morta
16-06-2008, 12:01
MSI e POV

http://resources.vr-zone.com//newspics/Jun08/16/MSI_280GTX.JPG
http://resources.vr-zone.com//newspics/Jun08/16/POV_GTX_280.jpg

YANEZ84
16-06-2008, 12:01
ragazzi ma quando si puo vedere realmente la potenza di queste vga sono curioso

halduemilauno
16-06-2008, 12:04
Hal tu pensa che in un altro forum ho letto di uno che voleva la gtx280 per metterla su un 17"pollici.

E non sto scherzando.

mi auguro che qualcuno lo abbia dissuaso. cambiasse il monitor prima.

Sergio_Di_Rio
16-06-2008, 12:05
grazie al piffero -.-"
ma che discorso fai. e' ovvio che 4 core a 3 ghz sono meglio di 2 core a 3 ghz! -.-" -.-"
Il punto e' che come dice te, otterai risultati praticamente identici, sia col quad che col dual che DIMOSTRA che i giochi non sono per nulla ottimizzati per i quad core! bah...

Sì, appunto, per il momento non esistono giochi ottimizzati per i quad, ma ciò lo puoi capire solo tramite un paragone "apples to apples".

Non ha senso paragonare due processori, per vedere quale è sfruttatto meglio o quale architettura porta i maggiori benefici, a frequenze differenti. Lo capisci questo?

Inoltre chi si compra un quad, vi assicuro, non lo compra per "giocarci"...;)

mircocatta
16-06-2008, 12:06
il fatto che sia cpu limited si denota anche dalla poca differenza che c'è dalla gtx260.. sarà si e no un 10% nei test visti fino ad ora? eppure le specifiche sono ben oltre di un 10% in più..

@ndrey
16-06-2008, 12:06
Già, ma io ho speso in 3 anni la stessa cifra e ho sempre le ultime novità, anche in fatto di risparmio energetico, per me è un'idiozia, poi se hai da cambiare monitor nel giro di 6 mesi magari ci pensi e fai bene, ma per restare su un 17"/19" è un acquisto privo di senso, perché consumare 200W quando ottengo la stessa cosa con 120W? e 400€ in meno? :>

xro ottieni grosso numero in 3dmark.. :ciapet: :asd:

mircocatta
16-06-2008, 12:06
Inoltre chi si compra un quad, vi assicuro, non lo compra per "giocarci"...;)

allora ho sbagliato tutto :doh:

appleroof
16-06-2008, 12:07
Già, ma io ho speso in 3 anni la stessa cifra e ho sempre le ultime novità, anche in fatto di risparmio energetico, per me è un'idiozia, poi se hai da cambiare monitor nel giro di 6 mesi magari ci pensi e fai bene, ma per restare su un 17"/19" è un acquisto privo di senso, perché consumare 200W quando ottengo la stessa cosa con 120W? e 400€ in meno? :>

non hai torto, solo che dico che definirla un'idiozia mi sembra troppo, non lo è ecco

inoltre, sei sicuro che riesci a giocare per 3 anni aa4 af16x cosa che invece la schedona riesce a darti? Io da quando ho la gtx gioco così (e ripeto, a 1920x1200, se giocassi a 1280x1024 senza dubbio mi basterebbe fino alle dx11 e oltre, è vero pure che i giochi in questo periodo sono più leggeri rispetto al passato, ma insomma) vedo nei vari tread che alcuni non ci riescono nemmeno a 1280x1024 (dipende dalla vga, ma ti parlo di vga più che dignitose, tipo la 3870)

Scrambler77
16-06-2008, 12:07
Non mi sorprende che sia CPU limited a quella risoluzione ;)

..e a quei fps? ;)

goldorak
16-06-2008, 12:08
allora ho sbagliato tutto :doh:


:asd: anch'io. :fagiano:

Wing_Zero
16-06-2008, 12:08
intanto bontà loro non sono lo 0,01% ma di certo ben di +. è chiaro che la stramassa ha monitor da 19/20 pollici ma esistono anche loro. certo che è inutile che le volevi confrontare a 1280? minimo si va dai 1680x1050 con i filtri in su. minimo.
550€ per giocare su un 19pollici....cos'è uno scherzo?

visto che gia a 1600 non riesce a tirare piu' di 40 fps a crysis penso che sia proprio inutile testarla a risoluzioni superiori...
e poi che fai mi prendi in giro? che vuoi dire che sta scheda se la possono comprare solo quelli che hanno un 32" come schermo del pc?? -.-"
Bah... ma come ragioni...

Sergio_Di_Rio
16-06-2008, 12:09
allora ho sbagliato tutto :doh:

Se era questo il tuo intento...sicuramente si!

Ma in futuro..non si sa mai!;)

=Linux=
16-06-2008, 12:11
scusa ma l' altro 3d che fine ha fatto? [Thread ufficiale] GTX260 & GTX280

Scrambler77
16-06-2008, 12:12
Se era questo il tuo intento...sicuramente si!

Ma in futuro..non si sa mai!;)

mmmmah... a me piace sacrificare 5fps prendendo un quad e magari metterci la metà del tempo per fare un montaggio video con premiere...

Regola: se usi il PC solo per giocare, beh... comprati una consolle.

halduemilauno
16-06-2008, 12:13
visto che gia a 1600 non riesce a tirare piu' di 40 fps a crysis penso che sia proprio inutile testarla a risoluzioni superiori...
e poi che fai mi prendi in giro? che vuoi dire che sta scheda se la possono comprare solo quelli che hanno un 32" come schermo del pc?? -.-"
Bah... ma come ragioni...

A non c'è solo crysis. mai sentito di altri giochi?
B non ci sono solo i 32 pollici. mai sentito dei 22/24 pollici?

@ndrey
16-06-2008, 12:13
Se era questo il tuo intento...sicuramente si!

Ma in futuro..non si sa mai!;)

Ora come ora un dual tipo e8xxx è la scelta migliore e domani un q9450 lo prendi con due lire..

halduemilauno
16-06-2008, 12:13
scusa ma l' altro 3d che fine ha fatto? [Thread ufficiale] GTX260 & GTX280

era della gtx280, annullato.

Sergio_Di_Rio
16-06-2008, 12:14
mmmmah... a me piace sacrificare 5fps prendendo un quad e magari metterci la metà del tempo per fare un montaggio video con premiere...

Regola: se usi il PC solo per giocare, beh... comprati una consolle.

Ehm...e infatti che ho detto?


Inoltre chi si compra un quad, vi assicuro, non lo compra per "giocarci"...;)

appleroof
16-06-2008, 12:14
mmmmah... a me piace sacrificare 5fps prendendo un quad e magari metterci la metà del tempo per fare un montaggio video con premiere...

Regola: se usi il PC solo per giocare, beh... comprati una consolle.

*

padsi
16-06-2008, 12:15
il segmento di appartenenza si chiama appunto enthusiast.
quindi...

Si be ma credo che se facciamo un sondaggio qui la maggior parte della gente ha monitor da 19" a 22" e dai 24" gia' ci siano poche persone, poi ci saranno quelli che hanno il 32" o + full HD, ma cmq la maggior parte gioca a risoluzioni nn superiori a 1680 quindi anche alle basse risoluzioni vanno fatti i confronti appunto per nn far spendere inutilmente soldi alla gente, poi cmq a risoluizoni basse si mettono filtri a cannone e si fanno cosi i paragoni, poi ovvio che per giocare a 1680 o - sara' + indicata la GTX260 che poteva uscire anche prima della 280 a parere mio.

@ndrey
16-06-2008, 12:16
mmmmah... a me piace sacrificare 5fps prendendo un quad e magari metterci la metà del tempo per fare un montaggio video con premiere...

Regola: se usi il PC solo per giocare, beh... comprati una consolle.

Sbagliato.. poi scegliere sempre un sys equilibrato e con poca spesa che ti faccia giocare & co…

appleroof
16-06-2008, 12:16
Si be ma credo che se facciamo un sondaggio qui la maggior parte della gente ha monitor da 19" a 22" e dai 24" gia' ci siano poche persone, poi ci saranno quelli che hanno il 32" o + full HD, ma cmq la maggior parte gioca a risoluzioni nn superiori a 1680 quindi anche alle basse risoluzioni vanno fatti i confronti appunto per nn far spendere inutilmente soldi alla gente, poi cmq a risoluizoni basse si mettono filtri a cannone e si fanno cosi i paragoni, poi ovvio che per giocare a 1680 o - sara' + indicata la GTX260 che poteva uscire anche prima della 280 a parere mio.

ma perchè non aprite un sito www.salviamolutentenubbiodaicattivonilupi.net? :D :D

-noxius-
16-06-2008, 12:17
E8500--->3.16ghz

q9300-->2.5ghz

Come fai a paragonarli se lavorano a frequenze differenti? :doh: :doh: :doh:

Fai i test con il quad alla stessa frequenza del dual e vedi che avrai risultai praticamente identici.

Infatti . Ad ogni modo crysis con q6600@2400MHz vs Q6600@3720 = 2 fps in più su high e 1280x1024 ; 1024x768 sui 7-8 fps in più .

:D :sofico:

ok.., memorizzato :O :)

Fossi --> Sarei ;)

Esempio a caso non riferito a nessuno : Se un certo utente ben noto per certe sue sparate di parte, avesse toppato alla grande con sue passate dichiarazioni in merito a presunte fantomatiche prestazioni di un determinato prodotto , non vi è dubbio che sarebbe costretto a fare pubblica ammenda ed essere esposto alla pubblica derisione :ciapet:

In realtà quello che dici non ha senso. Il confronto lo si fa per prezzo, non per frequenza, ed il Q9300 costa uguale all'E8500:

http://www.trovaprezzi.it/prezzo_processori_e8500.aspx
http://www.trovaprezzi.it/categoria.aspx?libera=Q9300&id=127&prezzoMin=&prezzoMax=&sbox=sb

Qui credo che si stia confrontando la questione in termini di pura differenza di ottimizzazione tra quad e dual , quindi il prezzo non dovrebbe essere nemmeno preso in considerazione ; ad esempio ci sono i q6600 che vanno poco sotto a default rispetto al 9300 però in OC salgono a bestia , ti dico solo che il mio sembra stabile dopo un ora e mezza con prime 95 al 100% a 3720MHz con molti a 8 @ 1.36 di Vcore , e quindi pure un ipotetico 3900MHz con molti a 9 e basso Vcore . C'è da dire che non tutti salgono così però queste sono le potenzialità ; tra un quad ed un dual alla stesa frequenza , mi sembra ovvio che sia da preferire un quad , pure se avesse una differenza di 500 MHz , che non comporterebbe nessun incremento sostanziale di performance . Se dobbiamo parlare a default senza considerare l'ottimizzazione dei quad da qui a venire , allora sarebbe bene prendersi un wolfdale decente ; se consideriamo l'oc però mi trovi completamente in disaccordo e consiglerei l'ottimo q6600 , oppure un celeron core 2 occato a bestia .

Scrambler77
16-06-2008, 12:17
Ehm...e infatti che ho detto?

Non a caso ti ho quotato. ;)

padsi
16-06-2008, 12:18
ma perchè non aprite un sito www.salviamolutentenubbiodaicattivonilupi.net? :D :D

Pensavo fosse gia' tuo il dominio preso a vita xD^^^^^^

Scrambler77
16-06-2008, 12:19
ma perchè non aprite un sito www.salviamolutentenubbiodaicattivonilupi.net? :D :D

Ci ero quasi cascato... :asd:

Sergio_Di_Rio
16-06-2008, 12:19
Non a caso ti ho quotato. ;)

;)

appleroof
16-06-2008, 12:19
Pensavo fosse gia' tuo il dominio preso a vita xD^^^^^^

te lo vendo (lupocattivone :Perfido: )

appleroof
16-06-2008, 12:20
Ci ero quasi cascato... :asd:

:D :D :D

Kharonte85
16-06-2008, 12:20
Facciamo a meno di Vista e torniamo a windows 2000 tanto che ci siamo. :muro:
Dove devo firmare? :sofico:
ma perchè non aprite un sito www.salviamolutentenubbiodaicattivonilupi.net? :D :D
:asd:

halduemilauno
16-06-2008, 12:20
Si be ma credo che se facciamo un sondaggio qui la maggior parte della gente ha monitor da 19" a 22" e dai 24" gia' ci siano poche persone, poi ci saranno quelli che hanno il 32" o + full HD, ma cmq la maggior parte gioca a risoluzioni nn superiori a 1680 quindi anche alle basse risoluzioni vanno fatti i confronti appunto per nn far spendere inutilmente soldi alla gente, poi cmq a risoluizoni basse si mettono filtri a cannone e si fanno cosi i paragoni, poi ovvio che per giocare a 1680 o - sara' + indicata la GTX260 che poteva uscire anche prima della 280 a parere mio.

ma i 24 pollici ovvero i 1920x1200 son gia gli enthusiast. poi per carità giustamente si vedrà anche a 1680x1050 ma altrettanto giustamente si vedrà anche a 2560x1600.

DavidM74
16-06-2008, 12:21
ma quand'è che esce la recensione??

DenFox
16-06-2008, 12:21
Escono oggi queste schede video? Ci sono già in rete delle recensioni?

Taurus19-T-Rex2
16-06-2008, 12:22
nom vedo l'ora di vedere una recensione seria......................poi si passa all'acquisto :asd: il dell da 24" non aspetta altro:sofico:

HackaB321
16-06-2008, 12:23
http://publish.it168.com/2008/0616/images/1044407.jpg



Un pò di traduzione dal CUDEse:

tpc=texture processor cluster è in cuda il processore base di calcolo composto da x cluster matematici e x cluster di texturing
sm=streaming multiprocessor è il cluster di x sp che compone un tpc: erano 16 in G80 di 8 sp l'uno (2 per ogni TPC) sono 30 in G80 sempre di 8 sp l'uno in GT200 (3 per ogni TPC)

Scrambler77
16-06-2008, 12:24
nom vedo l'ora di vedere una recensione seria......................poi si passa all'acquisto :asd: il dell da 24" non aspetta altro:sofico:

Bei monitor... anche se soffrono un pochino di input-lag.

Sergio_Di_Rio
16-06-2008, 12:24
In realtà quello che dici non ha senso. Il confronto lo si fa per prezzo, non per frequenza, ed il Q9300 costa uguale all'E8500:

http://www.trovaprezzi.it/prezzo_processori_e8500.aspx
http://www.trovaprezzi.it/categoria.aspx?libera=Q9300&id=127&prezzoMin=&prezzoMax=&sbox=sb


Qui credo che si stia confrontando la questione in termini di pura differenza di ottimizzazione tra quad e dual , quindi il prezzo non dovrebbe essere nemmeno preso in considerazione ; ad esempio ci sono i q6600 che vanno poco sotto a default rispetto al 9300 però in OC salgono a bestia , ti dico solo che il mio sembra stabile dopo un ora e mezza con prime 95 al 100% a 3720MHz con molti a 8 @ 1.36 di Vcore , e quindi pure un ipotetico 3900MHz con molti a 9 e basso Vcore . C'è da dire che non tutti salgono così però queste sono le potenzialità ; tra un quad ed un dual alla stesa frequenza , mi sembra ovvio che sia da preferire un quad , pure se avesse una differenza di 500 MHz , che non comporterebbe nessun incremento sostanziale di performance . Se dobbiamo parlare a default senza considerare l'ottimizzazione dei quad da qui a venire , allora sarebbe bene prendersi un wolfdale decente ; se consideriamo l'oc però mi trovi completamente in disaccordo e consiglerei l'ottimo q6600 , oppure un celeron core 2 occato a bestia .

Meno male che, c'è ancora qualcuno che è competente e che (cosa più importante) ragiona.

-noxius-
16-06-2008, 12:25
da fudzilla To barely meet the launch


Radeon HD 4870 will sample by the end of this week, which is the last possible deadline to meet the 25th of June launch deadline.

We know that ATI is happy with the performance and that the card will run rather hot. With a suggested e-tail price of $329 it should become quite popular.

The Radeon HD 4870 and HD 4850 are still on schedule to launch on the 25th and we’ve heard from many sources that the HD 4870 won’t be that much slower than the GTX 280, and at the same time it will cost only half of what you are supposed to spend on a Geforce GTX 280.

The message you have entered is too short. Please lengthen your message to at least 1 characters.

Kharonte85
16-06-2008, 12:26
The message you have entered is too short. Please lengthen your message to at least 1 characters.
:eh:

appleroof
16-06-2008, 12:27
:eh:

l'hanno bannato per disturbo alla quiete pubblica :D :D

Giustaf
16-06-2008, 12:28
A 1440x900 non è che mi sorprenda più di tanto, anche perché ci vuole un vero idiota per comprare una scheda da 600€ per giocare a 1440x900 :D

Faccio notare che l'ho scritto prima che chicchessia la compri, quindi non può essere considerato un flame a posteriori. E comunque è verità, non flame :>

vero..però considera che con la configurazione in firma a crysis (vabbè, sempre lui..) devo mettere come risoluzione 1280x800 per giocarmelo tutto in very-high su vista64..ovviamente senza filtri..con vga in oc a 820-2000-1250..magari in futuro con altri giochi sarà la stessa cosa (anche se saranno molto più ottimizzati di crysis ma avranno cmq grafica più levata..)
Premetto che non acquisterò neppure la gtx280 a 55nm se la faranno...però la generazione successiva penserei di acquistarla in modo da giocare cmq a 1680x1050 con filtri a palla nel 2009/2010 senza problemi! :)

Scrambler77
16-06-2008, 12:28
The message you have entered is too short. Please lengthen your message to at least 1 characters.

Togli la S finale... :D

Sergio_Di_Rio
16-06-2008, 12:29
da fudzilla To barely meet the launch


Radeon HD 4870 will sample by the end of this week, which is the last possible deadline to meet the 25th of June launch deadline.

We know that ATI is happy with the performance and that the card will run rather hot. With a suggested e-tail price of $329 it should become quite popular.

The Radeon HD 4870 and HD 4850 are still on schedule to launch on the 25th and we’ve heard from many sources that the HD 4870 won’t be that much slower than the GTX 280, and at the same time it will cost only half of what you are supposed to spend on a Geforce GTX 280.

Il fatto di essere arrivati anche "solo" 10 giorni prima, darà ad Nvidia un buon vantaggio in termini di vendite ("i ricchi utonti").

Kharonte85
16-06-2008, 12:30
l'hanno bannato per disturbo alla quiete pubblica :D :D
Sono le prime avvisaglie del down del forum mi sa http://gaming.ngi.it/images/smilies/afraid.gif

-noxius-
16-06-2008, 12:31
l'hanno bannato per disturbo alla quiete pubblica :D :D

Spiegami una cosa, una buona metà dei tuoi post sono inutile spam e poi vieni anche a fare commenti sulla qualità degli altrui post ? Vedo che lo spam regna sovrano qui dentro ... che senso ha tutto questo ? Io almeno se stò qui è perchè sono curioso e perchè vorrei vedere qualche link o commento che mi possa far riflettere , chiedo troppo :rolleyes:

:D :sofico:

ok.., memorizzato :O :)

Fossi --> Sarei ;)

Esempio a caso non riferito a nessuno : Se un certo utente ben noto per certe sue sparate di parte, avesse toppato alla grande con sue passate dichiarazioni in merito a presunte fantomatiche prestazioni di un determinato prodotto , non vi è dubbio che sarebbe costretto a fare pubblica ammenda ed essere esposto alla pubblica derisione :ciapet:

Togli la S finale... :D

Non mi andava di commentare così ho copiato ed incollato quella frase , generata automaticamente quidi se fosse sbagliata lo sarebbe in origine ;)

Scrambler77
16-06-2008, 12:31
Il fatto di essere arrivati anche "solo" 10 giorni prima, darà ad Nvidia un buon vantaggio in termini di vendite ("i ricchi utonti").

Il prezzo di lancio della 4870 mi fa pensare che sarà in linea con la GX2...

Kymura
16-06-2008, 12:31
ma i 24 pollici ovvero i 1920x1200 son gia gli enthusiast. poi per carità giustamente si vedrà anche a 1680x1050 ma altrettanto giustamente si vedrà anche a 2560x1600.
Io ho un 24" ma non mi reputo enthusiast, sui monitor gli enthusiast partono dai 28" in poi :)

comunque io non credo che tutti coloro che postano qua, siano interessati ad una gtx260/280 per un utilizzo "vario" (graphic, rendering, games) e per "vario" intendo non solo "videogames", idem per il discorso quadcore/dualcore. Il discorso "se vuoi solamente giocare comprati una console" è relativo, ovvio ti farebbe risparmiare un sacco di $, ma le soddisfazioni date da una console e una scheda video/PC di ultima generazione sono completamente differenti :)

Scrambler77
16-06-2008, 12:33
Esempio a caso non riferito a nessuno : Se un certo utente ben noto per certe sue sparate di parte, avesse toppato alla grande con sue passate dichiarazioni in merito a presunte fantomatiche prestazioni di un determinato prodotto , non vi è dubbio che sarebbe costretto a fare pubblica ammenda ed essere esposto alla pubblica derisione :ciapet:


Non prima che sia fatta pubblica ammenda da coloro che ancora non hanno onorato l'impegno preso da 1 anno a questa parte (e non sono pochi)...

http://www.hwupgrade.it/forum/showpost.php?p=18223989&postcount=8698

:asd:

Wikkle
16-06-2008, 12:33
finche' mi dici di testarle fino a 1680x1050 sono daccordo.
Per il resto, i test a 2500x1900 (o quello che e') sono INUTILI visto che NESSUNO usa queste risoluzioni.

ma che razzo spari? io è da anni che lavoro e gioco a 2560x1600.... e ti assicuro che ce ne sono eccome di persone che usano questa risoluzione.

E sinceramente il fatto che ci siano pochissimi test per questa risoluzione mi infastidisce parecchio.

Kharonte85
16-06-2008, 12:33
Io ho un 24" ma non mi reputo enthusiast
, sui monitor gli enthusiast partono dai 28" in poi :)
ma stai scherzando spero? :mbe:

la media sara' ancora del 17"...max 19"...

comunque io non credo che tutti coloro che postano qua, siano interessati ad una gtx260/280 per un utilizzo "vario" (graphic, rendering, games) e per "vario" intendo non solo "videogames", idem per il discorso quadcore/dualcore. Il discorso "se vuoi solamente giocare comprati una console" è relativo, ovvio ti farebbe risparmiare un sacco di $, ma le soddisfazioni date da una console e una scheda video/PC di ultima generazione sono completamente differenti :)
Quoto

-noxius-
16-06-2008, 12:36
Non prima che sia fatta pubblica ammenda da coloro che ancora non hanno onorato l'impegno preso da 1 anno a questa parte (e non sono pochi)...

http://www.hwupgrade.it/forum/showpost.php?p=18223989&postcount=8698

:asd:

Hehe , però io non centro nulla, mi sono sempre guardato bene dall'avere una tale logica di parte, per il semplice fatto che secondo me una tal cosa sarebbe veramente idiota oltre che essere dannosa per chi legge e non ci capisce nulla . Concordo con il tuo discorso, d'altra parte mi sembra evidente ;)

Tioz90
16-06-2008, 12:38
Quando esce la recensione?

Kymura
16-06-2008, 12:38
ma stai scherzando spero? :mbe:

la media sara' ancora del 17"...max 19"...

La media per quanto vedo si sta alzando verso i 22" e tutti wide ovviamente :)
Il passaggio da 22" a 24" e abbastanza veloce visto anche comunque gli ottimi rapporti qualità/prezzo degli utlimi monitor 24" in commercio :)
Oggi con 300€ circa ti fai un bel 24" con un ottimo rapporto qualità/prezzo.
Poi io vedo gli enthusiast solo dal 28" in poi perchè per me la parola enthusiast equivale al top :D

Kharonte85
16-06-2008, 12:40
Prima recensione estesa.

http://publish.it168.com/2008/0616/20080616000218.shtml
Questa me l'ero perso...mazza che schifezza :sofico: ...e contrasta con tutti gli altri benchmarck (Vr zone, sito tedesco, il tuo magazine e The inq) :D

DavidM74
16-06-2008, 12:42
Quando esce la recensione?

e quello che vorrei sapere, ma qui si vanverizza a palla! :rotfl:

Scrambler77
16-06-2008, 12:42
Hehe , però io non centro nulla, mi sono sempre guardato bene dall'avere una tale logica di parte, per il semplice fatto che secondo me una tal cosa sarebbe veramente idiota oltre che essere dannosa per chi legge e non ci capisce nulla . Concordo con il tuo discorso, d'altra parte mi sembra evidente ;)

Era per dimostrare che l'errore lo può commettere chiunque. Oggi di quà, domani di là. Il fare "pubblica ammenda" è del tutto superfluo, ma evidenzia la soddisfazione personale nel sentirsi dire "avevi ragione", quando la ragione non è qualcosa che si dà, ma la si ha a prescindere.

E' un gioco stupido, perchè tutti abbiamo la squadra di calcio preferita, la marca di auto preferita, la tv preferita, la scheda video preferita... che non è detto debba essere necessariamente la migliore.

Se hal ha esaltato le doti di gtx280, qualcun'altro esalterà quelle di R700, in forme e misure diverse... ma non siamo quì ad insultare, ridicolizzare o sberleffare qualcuno se poi aveva o meno ragione.

A.L.M.
16-06-2008, 12:44
Questa me l'ero perso...mazza che schifezza :sofico: ...e contrasta con tutti gli altri benchmarck (Vr zone, sito tedesco, il tuo magazine e The inq) :D

Beh, però paradossalmente è la più dettagliata di tutte finora, i test sono solo a risoluzioni uber ed i drivers sono gli ormai famosi 177.34: che il miglioramento prestazionale sia stato al contrario? :asd:

Kharonte85
16-06-2008, 12:46
La media per quanto vedo si sta alzando verso i 22" e tutti wide ovviamente :)
Il passaggio da 22" a 24" e abbastanza veloce visto anche comunque gli ottimi rapporti qualità/prezzo degli utlimi monitor 24" in commercio :)
Oggi con 300€ circa ti fai un bel 24" con un ottimo rapporto qualità/prezzo.
Poi io vedo gli enthusiast solo dal 28" in poi perchè per me la parola enthusiast equivale al top :D
:nono: che si stia alzando non c'è dubbio...ma la media è ancora mooooolto piu' bassa...chi ha un 24" è un entusiasth c'è poco da dire, mica tutti se lo possono permettere...:fagiano:

Kharonte85
16-06-2008, 12:47
Beh, però paradossalmente è la più dettagliata di tutte finora, i test sono solo a risoluzioni uber ed i drivers sono gli ormai famosi 177.34: che il miglioramento prestazionale sia stato al contrario? :asd:
Puo' essere...:asd:

-noxius-
16-06-2008, 12:48
Era per dimostrare che l'errore lo può commettere chiunque. Oggi di quà, domani di là. Il fare "pubblica ammenda" è del tutto superfluo, ma evidenzia la soddisfazione personale nel sentirsi dire "avevi ragione", quando la ragione non è qualcosa che si dà, ma la si ha a prescindere.

E' un gioco stupido, perchè tutti abbiamo la squadra di calcio preferita, la marca di auto preferita, la tv preferita, la scheda video preferita... che non è detto debba essere necessariamente la migliore.

Se hal ha esaltato le doti di gtx280, qualcun'altro esalterà quelle di R700, in forme e misure diverse... ma non siamo quì ad insultare, ridicolizzare o sberleffare qualcuno se poi aveva o meno ragione.

Dai, nelle mie affermazioni c'èra un'ironia di fondo .. che tale ironia non possa essere così evidente è perchè è da mesi che dice le stesse cose e se permetti, arrivati alla resa dei conti e con tali risultati (ciliegina sulla torta) un minimo di presa in giro ci stà .. A me sinceramente non mi frega nulla , questo è un forum ed ognuno è libero di sparare spam e ''baggianate a raffica'' a suo piacimento , solo che così facendo si perde l' obbiettività e pure la reputazione al lungo andare , tutto qui ;) .

-noxius-
16-06-2008, 12:53
Perlomeno c'è da dire che a distanza di 2 anni è la degna erede della 8800GTX , peccato che sia passato tutto questo tempo .

http://publish.it168.com/2008/0616/20080616000214.shtml

lele980
16-06-2008, 12:56
allucinante pero' il fatto che anche con la nuova generazione di schede video

crysis è ancora ingiocabile a 1920x1200 con tutti i filtri attivi :mbe:

Scrambler77
16-06-2008, 12:58
allucinante pero' il fatto che anche con la nuova generazione di schede video

crysis è ancora ingiocabile a 1920x1200 con tutti i filtri attivi :mbe:

Ma infatti... temo che il cryengine sia scritto davvero male. Con la potenza di calcolo a disposizione oggi, probabilmente riusciremmo a vederne di molto meglio.

Tioz90
16-06-2008, 12:59
allucinante pero' il fatto che anche con la nuova generazione di schede video

crysis è ancora ingiocabile a 1920x1200 con tutti i filtri attivi :mbe:
:mc:
ma basta
crysis ci ha rotto i @_@

lele980
16-06-2008, 13:02
si ci ha rotto ma è diventato una sorta di limite da superare (un po' come il muro del suono :D )

nn riesco davvero a capire perche qualsiasi e sottolineo qualsiasi gioco attualmente in commercio nn ha problemi a girare con una gtx280 ad ogni risoluzione

e crysis invece gia a 1920x1200 muore :mad: :mad:

DavidM74
16-06-2008, 13:05
'mmazza che figurella fece nvidiamen!! :stordita:

@ tutti= le prime rece oggi alle 15. E' stato detto mille volte almeno.


hahaha nun mè fà pensa quelli che dicevano che GTX280 andava il 50% in piu di una GX2 :asd:

Scrambler77
16-06-2008, 13:08
hahaha nun mè fà pensa quelli che dicevano che GTX280 andava il 50% in piu di una GX2 :asd:

Parli al passato di una recensione che appartiene al futuro.

Come ti chiami, Marty McFly? :asd:

Amph
16-06-2008, 13:10
Parli al passato di una recensione che appartiene al futuro.

Come ti chiami, Marty McFly? :asd:

c'è da rotolarsi sul cemento armato :asd:, a sentire sta gente...(parlo di david)

=Linux=
16-06-2008, 13:10
raga a me non gira manco crysis.

appleroof
16-06-2008, 13:13
già postata?

http://img261.imageshack.us/img261/6991/catturank0.jpg (http://imageshack.us)

http://www.hardware-aktuell.com/viewtest.php?article=51&seite=4

leoneazzurro
16-06-2008, 13:14
ma lo scenario tipico di questa scheda è proprio dove il framebuffer si richiede + elevato. è inutile stare a confrontare gtx280 con 9800gtx a 1280 o a 1400 o anche a 1600.

assolutamente il contrario: schede come questa vanno testate a 1600x1200 in su e possibilmente con i filtri

poi magari si vede come si comportano a ris più basse per magari verificare situazioni di cpu-limited

Beh, utile può essere per far capire all'utente medio che a risoluzioni "umane" non è un grande affare, al momento. Per il resto, si capisce perchè le 9800GX2 (le precedenti schede di fascia enthusiast) non siano state proposte con 2x1Gbyte di memoria (sarebbe interessante fare un test con 2 9800GTX 1 Gbyte in SLI... )

appleroof
16-06-2008, 13:16
Beh, utile può essere per far capire all'utente medio che a risoluzioni "umane" non è un grande affare, al momento. Per il resto, si capisce perchè le 9800GX2 non siano state proposte con 2x1Gbyte di memoria (sarebbe interessante fare un test con 2 9800GTX 1 Gbyte in SLI... )

su questo pur essendo sostanzialmente d'accordo, non ho la stessa tua certezza assoluta, come ho avuto modo di affermare prima in questo stesso tread

leoneazzurro
16-06-2008, 13:21
su questo pur essendo sostanzialmente d'accordo, non ho la stessa tua certezza assoluta, come ho avuto modo di affermare prima in questo stesso tread

A parte Crysis, quale altro gioco oggi non gira ad almeno 40-50 FPs a 1280x1024, sia pure con AA? Poi ho aggiunto "al momento", dato che in futuro giochi ancora più esosi in termini di risorse ci saranno sicuramente.

appleroof
16-06-2008, 13:22
A parte Crysis, quale altro gioco oggi non gira ad almeno 40-50 FPs a 1280x1024, sia pure con AA? Poi ho aggiunto "al momento", dato che in futuro giochi ancora più esosi in termini di risorse ci saranno sicuramente.

esatto..... :)

Scrambler77
16-06-2008, 13:23
Mancano 97 minuti allo scadere dell'NDA...

...sembra quasi il prossimo "italia-francia"! :asd:

sim89
16-06-2008, 13:23
Scusate ma siete tornati sul thread aspettando :confused: dov'è finito l'altro thread?

Scrambler77
16-06-2008, 13:26
Scusate ma siete tornati sul thread aspettando :confused: dov'è finito l'altro thread?

E' stato fuso con questo... Thread ufficiale aperto troppo presto. ;)

DavidM74
16-06-2008, 13:26
Parli al passato di una recensione che appartiene al futuro.

Come ti chiami, Marty McFly? :asd:

infatti le leggerò attentamente ;) poi ti dirò
edit : mi sovviene la domanda: perche voi che state a fà nostradamus? :asd:

c'è da rotolarsi sul cemento armato :asd:, a sentire sta gente...(parlo di david)

la gente la guardi al mercato o quando spammi sui forum, beh tanto pare sia lo stesso :asd:

Kharonte85
16-06-2008, 13:26
già postata?

http://img261.imageshack.us/img261/6991/catturank0.jpg (http://imageshack.us)

http://www.hardware-aktuell.com/viewtest.php?article=51&seite=4

E lo chiedi pure? :asd:

PAG. 284 versetto 5.669 :sofico:

http://www.hwupgrade.it/forum/showpost.php?p=22909322&postcount=5669

:D

sommojames
16-06-2008, 13:26
si ci ha rotto ma è diventato una sorta di limite da superare (un po' come il muro del suono :D )

nn riesco davvero a capire perche qualsiasi e sottolineo qualsiasi gioco attualmente in commercio nn ha problemi a girare con una gtx280 ad ogni risoluzione

e crysis invece gia a 1920x1200 muore :mad: :mad:

Dai raga, cosa ce ne frega di Crysis, che ormai e' vecchio, tanto a quelli che interessava l'avrannao gia' finito (me compreso :cool: ), quello che conta sono le prestazioni cio giochi futuri.

appleroof
16-06-2008, 13:28
E lo chiedi pure? :asd:

PAG. 284 versetto 5.669 :sofico:

http://www.hwupgrade.it/forum/showpost.php?p=22909322&postcount=5669

:D

:asd: :asd: :asd:

ok, allora come non detto ;)

interessantissimo in quella rece vedere come in full consuma poco più di una 3870x2, in idle poco meno, eccellente direi :)

cristian-BG
16-06-2008, 13:29
io dico solamente che x gli amanti del genere come crysis... è sicuramente un bel gioco.. ma è stato progettato male troppo male xè è impossibile una cosa simile ... visto che con tutti gli altri giochi girano a manetta già con la mia 8800 ultra anche a risoluzioni folli

Wing_Zero
16-06-2008, 13:29
già postata?

http://img261.imageshack.us/img261/6991/catturank0.jpg (http://imageshack.us)

http://www.hardware-aktuell.com/viewtest.php?article=51&seite=4

per me queste prestazioni con "solo" 600mhz di core e "solo" 1200 mhz di shader, quando lamia 8800GTS ne ha 800 di core e quasi 2000 di shader sono eccezzionali. !
Mettendo quei clock secondo me le prestazioni salgono tantissimo!

Kharonte85
16-06-2008, 13:30
:asd: :asd: :asd:

ok, allora come non detto ;)
Hai fatto bene a riprenderlo perche' li ho presi uno ad uno catturando le schermate e uploadando su ImageShack...e nessuno mi ha defecato :cry: :D


In Idle consuma poco...e' in full che si scatena purtroppo :fagiano:

sim89
16-06-2008, 13:31
Questo l'avete già visto?

http://www.xtremesystems.org/forums/showthread.php?t=191313

EVGA GtX280 Triple SLI + EVGA 790i SLI

Scrambler77
16-06-2008, 13:32
per me queste prestazioni con "solo" 600mhz di core e "solo" 1200 mhz di shader, quando lamia 8800GTS ne ha 800 di core e quasi 2000 di shader sono eccezzionali. !
Mettendo quei clock secondo me le prestazioni salgono tantissimo!

Eccezionali no (intese come quelle di G80 all'epoca del lancio), ma sono di tutto rispetto.

Ribadisco: io non mi sento deluso dalle prestazioni della scheda. Voi poi dite ciò che volete.

Kharonte85
16-06-2008, 13:34
Ribadisco: io non mi sento deluso dalle prestazioni della scheda. Voi poi dite ciò che volete.
Io non sentenzio almeno fino a che non ho letto 3-4 recensioni diverse di siti che ritengo affidabili...;)

Scrambler77
16-06-2008, 13:35
Questo l'avete già visto?

http://www.xtremesystems.org/forums/showthread.php?t=191313

EVGA GtX280 Triple SLI + EVGA 790i SLI

Si. Mitico Kingpin...

ArCH85
16-06-2008, 13:36
Hai fatto bene a riprenderlo perche' li ho presi uno ad uno catturando le schermate e uploadando su ImageShack...e nessuno mi ha defecato :cry: :D


In Idle consuma poco...e' in full che si scatena purtroppo :fagiano:

il mio copia-incolla del link è stato più semplice e veloce :asd:

Crysis90
16-06-2008, 13:40
Ragazzi scusate, sono tornato ora dal lavoro e mi aspettavo qualche recensione, soprattutto quella di HW Upgrade...quando escono questi benedetti bench...

appleroof
16-06-2008, 13:41
Io non sentenzio almeno fino a che non ho letto 3-4 recensioni diverse di siti che ritengo affidabili...;)

quoto :)

Hai fatto bene a riprenderlo perche' li ho presi uno ad uno catturando le schermate e uploadando su ImageShack...e nessuno mi ha defecato :cry: :D


In Idle consuma poco...e' in full che si scatena purtroppo :fagiano:

si ma stando sempre a quella rece, ed in attesa di altre, è eccellente perchè cosumando poco più della 3870x2 in full (e meno in idle, particolare assolutamente non da trascurare vista la scheda) offre prestazioni senza dubbio superiori

Wing_Zero
16-06-2008, 13:42
Eccezionali no (intese come quelle di G80 all'epoca del lancio), ma sono di tutto rispetto.

Ribadisco: io non mi sento deluso dalle prestazioni della scheda. Voi poi dite ciò che volete.

mah.. sono anche meglio. Secondo me ci siamo dimenticati di come andavano le 8800 al lancio co tutto sto hype:

http://www.hwupgrade.it/articoli/skvideo/1597/oblivion_1.png

presa dalla rece del lancio del G80...
53 vs 38 fps fps. un guadagno piu' risicato di quello che c'e' ora.
link: http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_21.html
meditate gente meditate...

HackaB321
16-06-2008, 13:44
Parli al passato di una recensione che appartiene al futuro.

Come ti chiami, Marty McFly? :asd:

:D
Hello, c'è nessuno in casa?

Beh, utile può essere per far capire all'utente medio che a risoluzioni "umane" non è un grande affare, al momento. Per il resto, si capisce perchè le 9800GX2 (le precedenti schede di fascia enthusiast) non siano state proposte con 2x1Gbyte di memoria (sarebbe interessante fare un test con 2 9800GTX 1 Gbyte in SLI... )

Per me siamo di fronte ad una scheda pensata più per il general purpose che per i giochi, nei quali parte della potenza matematica di questo mostro non viene sfruttata a pieno. D'altronde il rapporto ALU:TEX di G92 è ottimale per i giochi di adesso e per me anche per quelli del futuro (la crescita di questo rapporto sembra essersi un pò fermata negli ultimi tempi dato che ad oggi il gioco più shader intensive resta Oblivion). Nvidia per me ha aumentato il rapporto solo per esigenze di gp (come farà ATi con la prossima generazione). E credo giustamente dato che si apre un mercato che potenzialmente ha un valore economico nettamente superiore a quello dei giochi per pc.

Crysis90
16-06-2008, 13:45
omg...

e che palle!!!

ORE 15

Che palle...quindi devo aspettare le 6, quando torno a casa, per leggermi la rece e i bench? Uffa...

appleroof
16-06-2008, 13:45
mah.. sono anche meglio. Secondo me ci siamo dimenticati di come andavano le 8800 al lancio co tutto sto hype:
cut

presa dalla rece del lancio del G80...
53 vs 38 fps fps. un guadagno piu' risicato di quello che c'e' ora.
link: http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_21.html
meditate gente meditate...

esatto: se quegli stessi test li fai ora con i driver di oggi la differnza è abissale, anche su questo mediterei eccome ;)

Foglia Morta
16-06-2008, 14:30
Recensione di Guru 3d

personalmente mi pare che i risultati siano più deludenti ancora rispetto ad altre rece già viste... ( Guru 3d mi pare che ai tempi che furono sconsigliava R300 )

http://www.guru3d.com/article/geforce-gtx-280-review-test/1

Una recensione proveniente dall'oriente ( non è quella postata in mattinata ) : http://www.it.com.cn/f/diy/086/16/609817_16.htm

goldorak
16-06-2008, 14:33
Recensione di Guru 3d

personalmente mi pare che i risultati siano più deludenti ancora rispetto ad altre rece già viste... ( Guru 3d mi pare che ai tempi che furono sconsigliava R300 )

http://www.guru3d.com/article/geforce-gtx-280-review-test/1

Uhm, la recensione su Guru3d la sto leggendo adesso ma il sito e' considerato affidabile ? Ditemelo prima cosi so se evitare di leggere le altre 19 pagine.

D4N!3L3
16-06-2008, 14:34
Recensione di Guru 3d

personalmente mi pare che i risultati siano più deludenti ancora rispetto ad altre rece già viste... ( Guru 3d mi pare che ai tempi che furono sconsigliava R300 )

http://www.guru3d.com/article/geforce-gtx-280-review-test/1

Una recensione proveniente dall'oriente: http://www.it.com.cn/f/diy/086/16/609817_16.htm

:rolleyes:

Boh, ormai me la prendo e ciccia, sempre aspettare, che palle!

halduemilauno
16-06-2008, 14:37
Era per dimostrare che l'errore lo può commettere chiunque. Oggi di quà, domani di là. Il fare "pubblica ammenda" è del tutto superfluo, ma evidenzia la soddisfazione personale nel sentirsi dire "avevi ragione", quando la ragione non è qualcosa che si dà, ma la si ha a prescindere.

E' un gioco stupido, perchè tutti abbiamo la squadra di calcio preferita, la marca di auto preferita, la tv preferita, la scheda video preferita... che non è detto debba essere necessariamente la migliore.

Se hal ha esaltato le doti di gtx280, qualcun'altro esalterà quelle di R700, in forme e misure diverse... ma non siamo quì ad insultare, ridicolizzare o sberleffare qualcuno se poi aveva o meno ragione.

chiariamo io ho espresso la mia opinione. e prontissimo a cambiarla se le rece che stanno per uscire diranno cose sostanzialmente diverse da quanto io ho detto. e per carità anche con annesse scuse. non ho problemi io.
piuttosto e gia che ci siamo dove sono quelli che esaltavano(in quell'occasioni si questo è il termine giusto)la 2900xt che non si è rivelata semplicememte sotto le attese ma un colossale e autentico naufragio. ecco quelli dove sono?
qui son qui.

Crysis90
16-06-2008, 14:38
Recensione di Guru 3d

personalmente mi pare che i risultati siano più deludenti ancora rispetto ad altre rece già viste... ( Guru 3d mi pare che ai tempi che furono sconsigliava R300 )

http://www.guru3d.com/article/geforce-gtx-280-review-test/1

Una recensione proveniente dall'oriente ( non è quella postata in mattinata ) : http://www.it.com.cn/f/diy/086/16/609817_16.htm

O mio Dio...e dovremmo spendere 550 euro per questa skifezza???? Misà che mi farò una 9800GX2 o, se sarà la nuova top di gamma, la 4870X2...

Foglia Morta
16-06-2008, 14:39
Uhm, la recensione su Guru3d la sto leggendo adesso ma il sito e' considerato affidabile ? Ditemelo prima cosi so se evitare di leggere le altre 19 pagine.

Personalmente non lo seguo costantemente ma molti altri lo fanno... è una recensione in più

Mister Tarpone
16-06-2008, 14:40
bohh... :sob:

spyke76
16-06-2008, 14:44
Uhm, la recensione su Guru3d la sto leggendo adesso ma il sito e' considerato affidabile ? Ditemelo prima cosi so se evitare di leggere le altre 19 pagine.

E' tra i migliori recensori della rete.

D4N!3L3
16-06-2008, 14:45
bohh... :sob:

Bravo la risposta giusta è proprio BOH. :nera: :nono:

Ormai la vendei la GX2, di certo non la riprendo. Magari mi va bene sul mio PC.

Certo se si dimostra inferiore alla GX2 che tristezza. :rolleyes:

goldorak
16-06-2008, 14:45
O mio Dio...e dovremmo spendere 550 euro per questa skifezza???? Misà che mi farò una 9800GX2 o, se sarà la nuova top di gamma, la 4870X2...

* mamma mia che batosta.:eek:
La recensione (i grafici) di guru3d bocciano in pieno la GTX280, basta vedere come rende la GX2 a confronto.

Bon ora aspetto di leggere Anandtech.

Capozz
16-06-2008, 14:47
Bah, come dicevamo prima allora è molto probabile che ci sia un qualcosa che fa da collo di bottiglia

me3850
16-06-2008, 14:47
già infatti potevo capire di prenderla a qualche euro in meno della gx2 ma cacchio vogliono il doppio e poi nei giochi fa' anche di meno??? :confused:

ps un'altro po' anzi io con il prezzo che fanno la gtx280 a un negozio "normale" mi ci prendo due gx2 zotac amp e pure un evga 790i O_O

Sire_Angelus
16-06-2008, 14:49
confermo, i risultati di guru3d sono sempre stati molto affidabili e mai di parte...

certo... che il fatto di basarsi unicamente su un'architettura a shader unificati mostra come a parità di proggetto contino unicamente il numero di questi e la frequenza...

una volta, infatti, grazie alle archittetture"fixed" sapendo a che tipi di calcoli le unità venivano sottoposte si potevano usare dei "trucchi" per aumentare la velocità di renderizzazione delle singole parti.. ricordo qualcosa a proposito di pre-unità preposte al calcolo delle ombre nei pixel shader versione 3 nelle geforce 7... giusto per fare un'esempio.



e inoltre, si vede anche come in directx 10 i giochi riescano a scalare in sli quasi al 100%

interessante però vedere che la gpu, prefino in un test così tanto gpu dipentende come 3dmark vantage, sia cpu-limited...

inoltre, da prendere con le pinze i risultati di graw2: potrebbe essere che le unità per il calcolo della fisica siano operative,sottraendo shader unit all'elaborazione grafica...
che dire... sperem bene!

DavidM74
16-06-2008, 14:50
Recensione di Guru 3d

personalmente mi pare che i risultati siano più deludenti ancora rispetto ad altre rece già viste... ( Guru 3d mi pare che ai tempi che furono sconsigliava R300 )

http://www.guru3d.com/article/geforce-gtx-280-review-test/1

Una recensione proveniente dall'oriente ( non è quella postata in mattinata ) : http://www.it.com.cn/f/diy/086/16/609817_16.htm

vabbè ciaoooo. ho finito.

The_SaN
16-06-2008, 14:54
Azz non me l' aspettavo :(
Comunque aspetto ancora HWU e Computerbase .

D4N!3L3
16-06-2008, 14:54
Azz non me l' aspettavo :(
Comunque aspetto ancora HWU e Computerbase .

Ormai è chiaro. :(

Azz, va meno della GX2.

Mister Tarpone
16-06-2008, 14:55
vabbè ciaoooo. ho finito.

di fare cosa?? :confused:

DjLode
16-06-2008, 14:55
Bah, come dicevamo prima allora è molto probabile che ci sia un qualcosa che fa da collo di bottiglia

In alcuni casi è la cpu, si vede che cambiando di risoluzione non aumentano gli fps, il sintomo è quello (a meno di problemi via driver che portino a problemi e che quindi i risultati siano uguali perchè effettivamente lo stesso test, ma lo escludo). Per il resto è una gpu che va bene per risoluzioni molto elevate e di fatto cancella la 9800GX2 (o come cavolo si chiama). Il prezzo è più elevato da quanto ho capito, ma di fatto è (prestazionalmente parlando) un dual gpu su single gpu.
Non ho trovato test sul consumo (o magari su Guru3d mi sono sfuggiti) che sarebbero stati molto interessanti.

Enochian
16-06-2008, 14:56
Azz non me l' aspettavo :(
Comunque aspetto ancora HWU e Computerbase .

Anch'io mancano solo tre minuti...

Sire_Angelus
16-06-2008, 14:57
PC in Idle = 155Watt (hanno ricorretto il valore usando una scheda retail..)
PC 100% usage (wattage gaming Peak) = 363 Watt

lele980
16-06-2008, 14:57
nessuno ha pensato magari che drivers come sempre non sono maturi?

Enochian
16-06-2008, 14:58
IPer il resto è una gpu che va bene per risoluzioni molto elevate e di fatto cancella la 9800GX2 (o come cavolo si chiama).

Mica tanto. Guardati il benchmark crysis di guru 3d oltre i 1900, mentre a 1900 fa solo tre fps in più della 9800gx2.
Che poi costa la metà.

gianni1879
16-06-2008, 14:59
Azz non me l' aspettavo :(
Comunque aspetto ancora HWU e Computerbase .

idem, mi fido di loro e basta :asd:

Sergio_Di_Rio
16-06-2008, 14:59
chiariamo io ho espresso la mia opinione. e prontissimo a cambiarla se le rece che stanno per uscire diranno cose sostanzialmente diverse da quanto io ho detto. e per carità anche con annesse scuse. non ho problemi io.
piuttosto e gia che ci siamo dove sono quelli che esaltavano(in quell'occasioni si questo è il termine giusto)la 2900xt che non si è rivelata semplicememte sotto le attese ma un colossale e autentico naufragio. ecco quelli dove sono?
qui son qui.

No. non hai espresso la tua opinione, hai fatto lo sbruffone arrogante ed ora ti prendi i pernacchi ed i "cuppitielli" dietro la testa, come è giusto che sia. Prima di parlare, la prossima volta, pensaci bene.

Ciao:)

Stech1987
16-06-2008, 14:59
USCITA!

Ora vado a leggermela... :D

Kharonte85
16-06-2008, 14:59
tutti a fare F5 F5 F5...:sofico: :asd:

The_SaN
16-06-2008, 15:00
nessuno ha pensato magari che drivers come sempre non sono maturi?

Se questi sono i risultati, puó darsi. Ma i miracoli non si fanno con i drivers...
Ricordi con la 2900xt? É migliorata un po', ma nulla di trascendentale.

Wikkle
16-06-2008, 15:00
prima dai grafici sembrava fosse una bestia rispetto la 9800gx2 e ora è inferiore? :mbe:

ma perchè sparano puttanate gratis?
oppure le spara 3dguru?

Qualcuno và denunciato :O

goldorak
16-06-2008, 15:00
nessuno ha pensato magari che drivers come sempre non sono maturi?

Ma li hai visti i grafici di guru3d ?
Non ci sono drivers miracolosi che tengano.
Tolte le situazioni di cpu-limited, e quelle in cui il framebuffer della GX2 ne limita le prestazioni a favore della 280, nei casi restanti quest'ultima prende delle batoste impressionanti dalla GX2.

DavidM74
16-06-2008, 15:00
di fare cosa?? :confused:

ho constatato quanto pensavo, vado a farmi un caffè. :D

appleroof
16-06-2008, 15:01
http://www.hwupgrade.it/articoli/skvideo/1988/nvidia-geforce-gtx-280-oltre-g80-e-g92_index.html;)

Custode
16-06-2008, 15:01
nessuno ha pensato magari che drivers come sempre non sono maturi?

Ongi volta che esce una nuova scheda che non va come preventivato dall'hype, in ordine si cita:

-driver immaturi:
-recensioni farlocche:
-colli di bottiglia marziani:

:D

La verità oggi, come in moltissimi altri casi passati per entrambe le marche del cuore in questione è che la scheda questa è e questo fa e non ci saranno driver miracolosi, o recensioni miracolose o sblocchi miracolosi a cambiare le cose :).

A me la GTX280 pare un'ottima scheda con un solo abissale problema: costa l'ira di dio.

Detto questo, spero che anche questa volta la guerra dei prezzi ATI faccia i miracoli manifestatosi con la precedente generazione :).

Cocco83
16-06-2008, 15:02
molto scadente se sono questi i veri risultati......

D4N!3L3
16-06-2008, 15:02
EDIT

Sergio_Di_Rio
16-06-2008, 15:03
:rolleyes:



Il prezzo è determinante in qualunque discussione sul tema. Un Core 2 Ecaton (100) a 4GHz va sicuramente meglio di un Core 2 Duo a 4GHz. La domanda è sempre la stessa, mi conviene spendere gli otto milioni di € che costa quella cpu?

A livello di "ottimizzazione" il rapporto costi/benefici è determinante. Senza contare che l'overclock è una variabile impazzita che non puoi prendere in considerazione in alcun modo perché non puoi avere certezze in merito prima dell'acquisto.

Io tengo la CPU a 3.6GHz downvoltata, potrei andare oltre i 4GHz con facilità, se volessi, puoi fare la stessa cosa con un quad? No, quindi parti comunque indietro.

I confronti si fanno per parità di prestazioni, e si guarda il prezzo, o per parità di prezzo e si guardano le prestazioni, così si valuta l'ottimizzazione.


:rolleyes:

Hai sbagliato, è inutile che continui. Stai solo facendo una brutta figura, cercando di sostenere una tesi stupida e che non è pertinente al discorso che si stava facendo.

Capozz
16-06-2008, 15:03
In realtà Guru conclude così:

Rounding it up, the GeForce GTX 280 is a frickin beast that cranks up the performance ladder another notch or two. And though I can loathe the price as much as I want to, this is the high-end game ... If you want the best and got cash to spend, look no further. You found it man.

Mighty impressive product. Pure unadulterated brute gaming fun.

Che è ben diverso da quello che hai postato nel tuo commento.

Guru3d dice anche

Obviously AMD will say, het we can achieve the same performance by placing two series 4000 and make it one card. True .. but so can NVIDIA, it's a little brute but a GeForce GX2 280 could be made as well

Il problema è che si è scordato che la GTX280 costa 550 euro e consuma 250 watt, mentre una 4850 ne costa 180 e consuma 110watt.
Cmq aspetto anche io la recensione di hwupgrade

D4N!3L3
16-06-2008, 15:03
http://www.hwupgrade.it/articoli/skvideo/1988/nvidia-geforce-gtx-280-oltre-g80-e-g92_index.html;)

:nono:

goma76
16-06-2008, 15:04
http://www.tomshw.it/graphic.php?guide=20080615
Alla fine ne esce decisamente meglio la GTX260 se non altro per il rapporto qualità prezzo.

Foglia Morta
16-06-2008, 15:04
una breve parentesi: ma la 3870 X2 è un mostro :sofico:

http://www.hwupgrade.it/articoli/skvideo/1988/devilmaycry4.png


Vabbe ci sono una marea di recensioni da leggere , a più tardi

Enochian
16-06-2008, 15:05
Davvero inferiore alle mie aspettative, del resto il sentore c'era. Io di sicuro non la prendo, prendo la gx2 o più probabilmente aspetto fine mese per vedere le ATI.

Soulman84
16-06-2008, 15:08
non ci sono storie,non vale quello che costa..

D4N!3L3
16-06-2008, 15:08
Si ma che tristezza, come sempre partono "ah GT200 sarà una bestia, sarà qui sarà là e poi arriva la sola".

Ma al diavolo Crysis, quel dannato gioco non girerà mai.

Foglia Morta
16-06-2008, 15:09
non riesco a leggere 2 test di fila... addirittura 2 8800 GT in sli :nono:

http://images.anandtech.com/graphs/geforcegtx200launch_061408203021/17059.png

Mister Tarpone
16-06-2008, 15:09
:nono:

:rotfl:

leoneazzurro
16-06-2008, 15:09
Meno male che quando avevo detto che queste scede avrebbero dimostrato in parecchi scenari di essere CPU limited mi han preso per matto :D
Detto questo, secondo me è chi si attendeva troppo da questa scheda (che è comunque veloce quanto e talvolta di più di una dual GPU delle generazione precedente) che è rimasto deluso.

The_SaN
16-06-2008, 15:11
Uscita quella di computerbase :)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/

E la media di prestazioni (per chi é pigro)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/28/

Edit: notare bene che va in media il 30% in piú di una 3870x2

goldorak
16-06-2008, 15:11
Guru3d dice anche



Il problema è che si è scordato che la GTX280 costa 550 euro e consuma 250 watt, mentre una 4850 ne costa 180 e consuma 110watt.
Cmq aspetto anche io la recensione di hwupgrade


Quello che dice Guru3d e' in contraddizione con quello che mostrano i suoi grafici. ;)

baila
16-06-2008, 15:11
Ma le 280 di trovano solo da domani nei shop?

paolox86
16-06-2008, 15:12
Cavolo doveva andare più forte della Gx2 di almeno il 50%... LOL:D

Anzi che tristezza... Ma come fanno a proporla a 550-600 €???

lele980
16-06-2008, 15:13
alla fine se la gioca con la gx2

ma la cosa che nn concepisco è perche pagare 550€

quando la 9800gx2 si inizia a trovare sulle 370€ ??

chi è il fesso che la acquista?

Foglia Morta
16-06-2008, 15:14
Uscita quella di computerbase :)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/

E la media di prestazioni (per chi é pigro)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/28/

Edit: notare bene che va in media il 30% in piú di una 3870x2

ho notato... le slide nVidia facevano intuire ben altro , a prescindere dalla scala utilizzata

goldorak
16-06-2008, 15:14
Cavolo doveva andare più forte della Gx2 di almeno il 50%... LOL:D

Anzi che tristezza... Ma come fanno a proporla a 550-600 €???

Misteri del marketing verde.
Guarda il grafico in cui 2 8800GT danno una mazzata alla GTX280 !!
Meno di 300 € vs 550 €.

Skullcrusher
16-06-2008, 15:16
Meno male che quando avevo detto che queste scede avrebbero dimostrato in parecchi scenari di essere CPU limited mi han preso per matto :D
Detto questo, secondo me è chi si attendeva troppo da questa scheda (che è comunque veloce quanto e talvolta di più di una dual GPU delle generazione precedente) che è rimasto deluso.

Già, ho paura che le reali potenzialità della GTX 280 si vedranno tra un po'....

gillan85
16-06-2008, 15:18
La scheda è indubbiamente veloce,ma sicuramente deludente per il prezzo. Se i bench delle nuove ati sono veri con 100 euro in più(forse in alcuni casi anche meno di 100) ci si prende un crossfire di 4870!!il che per Nvidia mi sembra una bella batosta.Questa volta lo scettro ritornerà ad Ati

=Linux=
16-06-2008, 15:19
Misteri del marketing verde.
Guarda il grafico in cui 2 8800GT danno una mazzata alla GTX280 !!
Meno di 300 € vs 550 €.

e te osa immaginare uno SLI di 8800GTS OC cosa combina senza spendere eccessivamente.

halduemilauno
16-06-2008, 15:19
http://www.hwupgrade.it/articoli/skvideo/1988/nvidia-geforce-gtx-280-oltre-g80-e-g92_12.html
buona. ma sotto le mie personali aspettative.
posto un'altra rece con un'utile riepilogo...
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/28/#abschnitt_performancerating_qualitaet
;)

mariade
16-06-2008, 15:20
Già, ho paura che le reali potenzialità della GTX 280 si vedranno tra un po'....

si magari quando la scheda varra' 100 euro al mercatino e in commercio ve ne saranno di 4 volte piu' potenti..
e' la stessa storia della 2900 xt (anche se in quella un fondo di verita' c'era ): io se acquisto una scheda oggi da 550 euro la differenza rispetto a schede o configurazioni dal costo dimezzato o anche meno vorrei vederla oggi, non tra un anno quando la scheda varra' meno della meta'.
Altrimenti non ha senso acquistarla oggi.
Sui driver immaturi non penso sia necessario dover discutere sul fatto che sia una favola, dato che l'architettura e' sempre la stessa.
Sul cpu limited, non sono affatto d'accordo, dato che a risoluzioni elevati e con filtri non esistono giochi recenti cpu limited nemmeno con una gtx 280.

Alexkidd85
16-06-2008, 15:20
Bah era da tempo che non postavo in sto 3d perché ormai mi ero ripromesso di vedere cosa riusciva a fare a basta e devo dire che a driver immaturi e non a pieno vestiti per i tutti i giochi di ora IMHO non è tanto male. Ora aspettiamo la risposta ATI e sopratutto,aspettiamo i giochi perché con tutto il rispetto,dopo che mass effect gira anche su una 8600gt a dettagli alti,io ste nuove schede video continuo a ripete che gliele posso solo sbattere nel :ciapet:
E non spendo certo 550 euro per sbatterle li :rolleyes:

PS
E non vorrei che quel decantato "ammazza VGA" e paragonato a crysis,che è "far cry 2,sia un'altra bufala (a livello di pesentezza grafica e non come gioco perché è un giocone) come mass effect,perché sennò veramente queste nuove vga,sono una gran presa in giro IMHO :rolleyes:

D4N!3L3
16-06-2008, 15:20
Già, ho paura che le reali potenzialità della GTX 280 si vedranno tra un po'....

Anche secondo me, prestazioni così basse mi sembrano davvero strane. :mbe:

goldorak
16-06-2008, 15:21
Conclusione di Anandtech :


But then we have the question of whether or not you should buy one of these things. As impressive as the GT200 is, the GeForce GTX 280 is simply overpriced for the performance it delivers. It is NVIDIA's fastest single-card, single-GPU solution, but for $150 less you get a faster graphics card with NVIDIA's own GeForce 9800 GX2. The obvious downside to the GX2 over the GTX 280 is that it is a multi-GPU card and there are going to be some situations where it doesn't scale well, but overall it is a far better buy than the GTX 280.