View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280
halduemilauno
30-05-2008, 09:23
Nemmeno questa ce la fa a far girare Crysis????? :confused: :mbe:
per il tuo 1920x1200 aspettatene una sessantina in vh.
;)
halduemilauno
30-05-2008, 09:26
AHA! Pensavo fosse un errore di battitura, ma come vedo, si ripete! Oltre alle millantate conoscenze tecniche (se solo sapessi.. :asd:) un pò di itagliano non ti farebbe male!
PS = so che sei alquanto permaloso, quindi, onde evitare disastri diplomatici, specifico: sto scherzando :)
Ciao;)
:oink:
no nessun disastro diplomatico.
:banned:
;)
Mercuri0
30-05-2008, 09:33
Facendo i miei compitini mi è capitato di leggere che 572mm^2 è il limite massimo di grandezza per un chip con le attuali tecnologie.
Forse il GT200 non sarà proprio 572mm^2, ma penso si possa dire che nVidia nel progettarlo ha puntato a fare il "mostro" di prestazioni con la tecnologia a sua disposizione, senza alcun compromesso fuorché dimensioni e TDP massimo ragionevolmente dissipabile ad aria...
Comunque finisca, bisogna apprezzarne il coraggio. :)
Mercuri0
30-05-2008, 09:35
è una decisione quasi obbligata (consumi mostruosi e ricavi bassi) per non parlare del fatto che i 55nm dovrebbero essere più che maturi...ati li usa da un bel pò ormai e le cpu son ancora più in là...
eh ma Intel e AMD sono più avanti di TMSC nel processo produttivo. (le GPU AMD se le fa costruire da TMSC)
halduemilauno
30-05-2008, 09:37
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7603&Itemid=1
€400 also possible
Just as any American company, Nvidia plans to continue ripping the Europeans off and we believe that European people actually got used to it. While Geforce GTX 260, the slower of two GT200 based cards will end up selling about $450 in USA we heard that in European countries that are loyal to Euro we should end up paying between 400 and 450 Euros.
Today 400 Euro converts to $620 while €450 converts to $697.5 which is a huge difference from the suggested US prices.
Geforce GTX 260 will be slower clocked with both memory and GPU but it should still end up as the runner up to the fastest thing around.
Geforce GTX 280 will end up with similar price difference and we expect around $600 price in the USA and around €550 to €600 in Europe.
;)
è una decisione quasi obbligata (consumi mostruosi e ricavi bassi) per non parlare del fatto che i 55nm dovrebbero essere più che maturi...ati li usa da un bel pò ormai e le cpu son ancora più in là...
Se veramente uscirà una GTX280 a 55nm per settembre/ottobre, quindi con le medesime caratteristiche, non credo che i vantaggi siano importanti rispetto ai 65nm! la differenza sarà limitata a un consumo leggermente inferiore e una minore temperatura della gpu, lasciando pressoché inalterate le prestazioni! la mossa sarà fatta per risparmiare sul processo produttivo e per presentarsi con un rapporto prestazioni/consumo piu consono in vista del lancio della HD4870X2 che sicuramente anche quest'ultima non sarà un mostro di "efficienza" (consumo e temperature)!
Sicuramente per prima uscirà la 9800GT (giugno/luglio) con i 55nm e allora potremmo valutare le reali capacità del processo sul progetto G92, certo sul progetto GT200 avrà un impatto maggiore ma pur sempre proporzionato alle prestazioni delle rispettive schede!
certamente inizieranno con le "piccole" (g92b)...
passando a 55nm e con qualche ottimizzazione imho il rapporto consumi/prestazione migliorerà un bel pò (parlo soprattutto di gt200), nulla di sconvolgente ma cmq un passo necessario ed importante...
per la x2 Ati, anche quella sarà un centrale termica...
halduemilauno
30-05-2008, 09:53
Se veramente uscirà una GTX280 a 55nm per settembre/ottobre, quindi con le medesime caratteristiche, non credo che i vantaggi siano importanti rispetto ai 65nm! la differenza sarà limitata a un consumo leggermente inferiore e una minore temperatura della gpu, lasciando pressoché inalterate le prestazioni! la mossa sarà fatta per risparmiare sul processo produttivo e per presentarsi con un rapporto prestazioni/consumo piu consono in vista del lancio della HD4870X2 che sicuramente anche quest'ultima non sarà un mostro di "efficienza" (consumo e temperature)!
Sicuramente per prima uscirà la 9800GT (giugno/luglio) con i 55nm e allora potremmo valutare le reali capacità del processo sul progetto G92, certo sul progetto GT200 avrà un impatto maggiore ma pur sempre proporzionato alle prestazioni delle rispettive schede!
quoto. il pp a 55nm deve esser visto soprattutto come un mezzo per incrementare i guadagni di nvidia. a pari prezzo essa guadagnerà di +. ovviamente da questo è slegato il fatto che in tutti i casi il prezzo tenderà a scendere fisiologicamente e anche in vista della presenza della sua diretta concorrente 4870x2. a tal proposito le proiezioni della stessa nel bench vantage partono da un punto ovvero il comportamento della 3870x2 nei confronti della 3870 ma in quel caso la 3870x2 ha due chip in versione oc della 3870 siamo/siete cosi sicuri che anche la 4870x2 manterrà lo stesso schema ovvero quello di usare due chip oc? può benissimo che essi siano identici o anche downcloccati proprio per meglio affrontare i valori consumo, calore e quindi magari quelle proiezioni possono essere non troppo veritiere. cmq e come ovvio che sia le schede vanno giudicate nel complesso e ovviamente nei giochi.
;)
per il tuo 1920x1200 aspettatene una sessantina in vh.
;)
Ma questa è una battuta vero? :confused:
Enochian
30-05-2008, 10:02
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7603&Itemid=1
Geforce GTX 280 will end up with similar price difference and we expect around $600 price in the USA and around €550 to €600 in Europe.
Accettabile per me, allora la prendo all'uscita. temevo almeno 800 euro. Sperando che esca davvero. Ma non dovevano mandarle già ora ai tecnici e giornalisti per i primi test?
Da quel che mi immagino la 9800GT (a 55nm e frequenze da 8800GT) verrà lanciata per competere con la HD4850 ma avendo cmq prestazioni inferiori alla 9800GTX! tanto per riproporre quella 8800GT che per prestazioni e fascia di prezzo si é confermata il best buy e dove AMD spera con la HD4850 di ripetere il successo Nvidia! quindi una scheda nuova per sostituire qualcosa che c'era gia in sostanza (8800GT/GTS 512MB)!
Secondo voi due 9800GT in SLI potrebbero competere con una HD4870?
halduemilauno
30-05-2008, 10:07
Ma questa è una battuta vero? :confused:
non hai un 1920x1200?
scusa.
halduemilauno
30-05-2008, 10:09
Da quel che mi immagino la 9800GT (a 55nm e frequenze da 8800GT) verrà lanciata per competere con la HD4850 ma avendo cmq prestazioni inferiori alla 9800GTX! tanto per riproporre quella 8800GT che per prestazioni e fascia di prezzo si é confermata il best buy e dove AMD spera con la HD4850 di ripetere il successo Nvidia! quindi una scheda nuova per sostituire qualcosa che c'era gia in sostanza (8800GT/GTS 512MB)!
Secondo voi due 9800GT in SLI potrebbero competere con una HD4870?
immagini male la 9800gt non è altro che la 8800gt rinominata e quindi continuerà ad essere la controparte della 3870. 3870 che ati ha deciso di mantenere. la controparte della 4850 è la 9800gtx.
si.
;)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7603&Itemid=1
€400 also possible
Just as any American company, Nvidia plans to continue ripping the Europeans off and we believe that European people actually got used to it. While Geforce GTX 260, the slower of two GT200 based cards will end up selling about $450 in USA we heard that in European countries that are loyal to Euro we should end up paying between 400 and 450 Euros.
Today 400 Euro converts to $620 while €450 converts to $697.5 which is a huge difference from the suggested US prices.
Geforce GTX 260 will be slower clocked with both memory and GPU but it should still end up as the runner up to the fastest thing around.
Geforce GTX 280 will end up with similar price difference and we expect around $600 price in the USA and around €550 to €600 in Europe.
;)
Adesso è NVIDIA a decidere il cambio Euro/Dollaro....?
ASSURDO...
immagini male la 9800gt non è altro che la 8800gt rinominata e quindi continuerà ad essere la controparte della 3870. 3870 che ati ha deciso di mantenere. la controparte della 4850 è la 9800gtx.
si.
;)
Ma cmq la 9800GT verrà lanciata subito con i 55nm visto il lancio posticipato rispetto alle GT200!? con cosa possono essere paragonate orientativamente due 9800GT in SLI e due 9800GTX in SLI rispetto alla HD4870, 9800GX2 e GTX260? ;)
halduemilauno
30-05-2008, 10:17
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7604&Itemid=1
Developer’s scream
We chat with a lot of knowledgeable people in the industry and we've learned quite interesting truth behind GT200 chip. Our developer friends called it brute force chip, with not so much brains.
Putting 240 Shader units in the chip that basically reminds on G80 and G92 design will naturally get things faster. More Shader units at faster clock will always make your card faster, especially at higher resolutions.
G92 with 65nm design has 128 Shaders while GT200 has 240 or almost twice as much. The die size of GT200 is much bigger than G92 and that is how you get the fastest chip around.
Our developer friends added that the last innovation that Nvidia did was G80 and that G92 is simply a die shrink of the same idea. You can look at GT200 as G92 with 240 Shaders.
This results that GT200 will be hot but it will be powerful, let’s just hope that Nvidia yields of such a huge chip (rumoured bigger than 550mm2) will be acceptable.
;)
halduemilauno
30-05-2008, 10:20
Ma cmq la 9800GT verrà lanciata subito con i 55nm visto il lancio posticipato rispetto alle GT200!? con cosa possono essere paragonate orientativamente due 9800GT in SLI e due 9800GTX in SLI rispetto alla HD4870, 9800GX2 e GTX260? ;)
orientativamente due 9800gt sli alla 4870, due 9800gtx sli a una gtx260.
;)
-noxius-
30-05-2008, 10:24
Adesso è NVIDIA a decidere il cambio Euro/Dollaro....?
ASSURDO...
Originariamente inviato da thx
Ok, ma anche Nvidia e' consapevole che la gente non e' fessa
Già , questa è la conferma di quanto ci reputa svegli .. :muro:
-noxius-
30-05-2008, 10:25
orientativamente due 9800gt sli alla 4870, due 9800gtx sli a una gtx260.
;)
Ovvero una GX2
http://www.tomshw.it/news.php?newsid=14203
http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes
E se le notizie riportate dai link precedenti fossero vere...assisteremo all'ennesima "truffa"....
orientativamente due 9800gt sli alla 4870, due 9800gtx sli a una gtx260.
;)
Grazie, cmq se cosi fosse il prezzo rimane a favore della scheda singola!?
Allora a questo giro sarei orientato su una GTX260 poi il prossimo anno se tutto va bene si replica in SLI (con Ali da 1Kw...), cosi per un altri 2 anni sto a guardare, come ho fatto con il G80 nei confronti del G92 (saltato)! :rolleyes:
A 2560x1600 la GX2 è pesantemente limitata dal framebuffer. Anche la 8800 Ultra va più veloce in quel caso.
qualcuno conferma questa affermazione?
halduemilauno
30-05-2008, 10:37
Grazie, cmq se cosi fosse il prezzo rimane a favore della scheda singola!?
Allora a questo giro sarei orientato su una GTX260 poi il prossimo anno se tutto va bene si replica in SLI (con Ali da 1Kw...), cosi per un altri 2 anni sto a guardare, come ho fatto con il G80 nei confronti del G92 (saltato)! :rolleyes:
due 9600gt vengono sui 230/240€ non credo che una 4870 da 349$ venga da noi sui 230€. nell'altro caso si due 9800gtx vengono sui 440/450€ mentre una gtx260 dovrebbe venir meno.
;)
http://www.tomshw.it/news.php?newsid=14203
http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes
E se le notizie riportate dai link precedenti fossero vere...assisteremo all'ennesima "truffa"....
:rolleyes:
halduemilauno
30-05-2008, 10:46
http://www.nordichardware.com/news,7815.html
GT200 will launch in just a few weeks. The 576mm2 65nm chip is not only big and produces a lot of heat, it's also very expensive to make. The mere die size means that you can only fit about 100 dies on each wafter and due to the complex nature of the chip, the yields are rather poor, as low as 40% according to Charlie at TheInq. This brings the average chips cost above the expected $100 per chip to ~$125. He also says that the 55nm GT200b has been taped out, and this is correct. Skipping the rest of the bias, GT200b will not hit the market for another couple of months, most likely for the annual NVIDIA November refresh, so anyone buying a GT200 card will not end up with a dead duck. He or she will get the fastest single-core graphics card on the planet, even if it is still a G8x derivate.
la stessa news con commenti/considerazioni decisamente + equilibrati...
novembre. qualcuno dice 8?
;)
halduemilauno
30-05-2008, 10:47
http://www.tomshw.it/news.php?newsid=14203
http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes
E se le notizie riportate dai link precedenti fossero vere...assisteremo all'ennesima "truffa"....
la truffa e senza " ve la fatta ati con la serie 2000. quella si che è stata na truffa.
due 9600gt vengono sui 230/240€ non credo che una 4870 da 349$ venga da noi sui 230€. nell'altro caso si due 9800gtx vengono sui 440/450€ mentre una gtx260 dovrebbe venir meno.
;)
Già risolti tutti i problemi del multi gpu ? O quelli valgono solo per le ATI x2 ? :boh:
HackaB321
30-05-2008, 10:52
qualcuno conferma questa affermazione?
Nei fatti ha il 33% di memoria in meno (512 vs 768) ;)
halduemilauno
30-05-2008, 10:58
Già risolti tutti i problemi del multi gpu ? O quelli valgono solo per le ATI x2 ? :boh:
cmq si parlava dello sli non del multi gpu. non credo di aver capito cosa vuoi intendere.
halduemilauno
30-05-2008, 10:59
qualcuno conferma questa affermazione?
la ultra ha + bus, + ram e + veloce.
;)
http://www.nordichardware.com/news,7815.html
GT200 will launch in just a few weeks. The 576mm2 65nm chip is not only big and produces a lot of heat, it's also very expensive to make. The mere die size means that you can only fit about 100 dies on each wafter and due to the complex nature of the chip, the yields are rather poor, as low as 40% according to Charlie at TheInq. This brings the average chips cost above the expected $100 per chip to ~$125. He also says that the 55nm GT200b has been taped out, and this is correct. Skipping the rest of the bias, GT200b will not hit the market for another couple of months, most likely for the annual NVIDIA November refresh, so anyone buying a GT200 card will not end up with a dead duck. He or she will get the fastest single-core graphics card on the planet, even if it is still a G8x derivate.
la stessa news con commenti/considerazioni decisamente + equilibrati...
novembre. qualcuno dice 8?
;)
Ma che la fanno uscire a fare sta qui allora? :muro:
Uff. :rolleyes:
due 9600gt vengono sui 230/240€ non credo che una 4870 da 349$ venga da noi sui 230€. nell'altro caso si due 9800gtx vengono sui 440/450€ mentre una gtx260 dovrebbe venir meno.
;)
la truffa e senza " ve la fatta ati con la serie 2000. quella si che è stata na truffa.
Da ciò che scrivi e come lo scrivi si evince ancora una volta la tua faziosità :) :mi auguro che tu sia ben pagato da NVIDIA altrimenti il tuo parteggiare gratuito sarebbe ridicolo...;) ...dopotutto parliamo di pezzi di plastica e silicio...
P.S.:E' cosi' triste vedere persone che tifano per aziende.....
ale0bello0pr
30-05-2008, 11:06
Ma che la fanno uscire a fare sta qui allora? :muro:
Uff. :rolleyes:
beh la fanno uscire xkè
1) Nvidia si deve riprendere il trono subito per la vga piu potente etc ( ah no scusa ha già il trono con la 9800GX2)
2) Nvidia vuole aumentare i volumi di vendita e di guadagno ( ah no di certo non vendera' di più)
3) Nvidia vuole fare vedere che è al passo con i tempi ( ah no in confronto l'hw presente in molti case del mondo pare quello dei flinstones )
4) Nvidia vuole fare vedere che c'è l'ha sempre piu' lungo ( idem con patate )
ovvero
BHO:mbe: :confused: :rolleyes: :fagiano: :doh: :ciapet: :help: :O :banned:
Mi son rotto di aspettare e di continue incertezze, se le prestazioni sono buone e superiori alla GX2 la prendo ammesso che si stia sui 600 euro altrimenti al diavolo. :muro: :rolleyes:
halduemilauno
30-05-2008, 11:10
Da ciò che scrivi e come lo scrivi si evince ancora una volta la tua faziosità :) :mi auguro che tu sia ben pagato da NVIDIA altrimenti il tuo parteggiare gratuito sarebbe ridicolo...;) ...dopotutto parliamo di pezzi di plastica e silicio...
io invece capisco che nel tuo caso ati non ti possa pagare per ovvi e palesi motivi ma cerca almeno di parlarne con cognizione di causa.
mi parli di pezzi di silicio e plastica e mi tiri fuori termini quali truffa. ma truffa de che?
ignore list insieme a tutti gli altri.
due 9600gt vengono sui 230/240€ non credo che una 4870 da 349$ venga da noi sui 230€. nell'altro caso si due 9800gtx vengono sui 440/450€ mentre una gtx260 dovrebbe venir meno.
;)
:nonsifa:
E che è questo? Un discorso obiettivo? Ora devo anche cambiare MB per prenderne una che supporti lo SLI per dare i soldi ad NVidia piuttosto che ad ATI?
Quando cambierò la mia scheda cercherò quella che dà migliori prestazioni per soldi che sono disposto a spendere, che sia NVidia oppure ATI
P.S. se stavi scherzando chiedo venia...
halduemilauno
30-05-2008, 11:16
Lo SLi è multi-gpu.
Quello che vuol farti notare è che rispetto alle x2/CF hai sempre sostenuto che è meglio il chip monolitico, mentre sostieni che 2x9600GT sono preferibili a 1x4870.
Non molto coerente, ma il perché lo sappiamo tutti ;)
a si per carità mia personale convinzione meglio il chip monolitico che la scheda che ne ha due quindi per me niente 9800gx2, 3870x2, 4870x2 quindi ripeto per me niente x2. almeno fino a quando la tecnologia in questo campo non avrà risolti i suoi limiti.
in quanto allo sli(e crossfire ovviamente)personalmente non stravedo ma manco lo condanno io ho sempre sostenuto la sua bontà quando uno vuole il top de top e la scheda singola non lo offre. poi se uno ha gia una scheda tipo la 9600gt dell'amico e vuole un boost se ha la mamma adeguata e se laì'alternativa è prendere una 4870 si può benissimo prendere una seconda 9600gt e come detto prima risparmia qualcosina. due 9600gt sui 220/230€ una 4870 credo almeno un 70/80€ di +.
credo.
aspettiamo.
HackaB321
30-05-2008, 11:17
io invece capisco che nel tuo caso ati non ti possa pagare per ovvi e palesi motivi ma cerca almeno di parlarne con cognizione di causa.
mi parli di pezzi di silicio e plastica e mi tiri fuori termini quali truffa. ma truffa de che?
ignore list insieme a tutti gli altri.
:D Questa è carina, cattiva al punto giusto.
halduemilauno
30-05-2008, 11:18
:nonsifa:
E che è questo? Un discorso obiettivo? Ora devo anche cambiare MB per prenderne una che supporti lo SLI per dare i soldi ad NVidia piuttosto che ad ATI?
Quando cambierò la mia scheda cercherò quella che dà migliori prestazioni per soldi che sono disposto a spendere, che sia NVidia oppure ATI
P.S. se stavi scherzando chiedo venia...
ma è ovvio che l'amico che ha sollevato il quesito avrà gia una mamma adeguata allo sli. è chiaro che se deve anche cambiare mamma non conviene.
mi pareva evidente.
http://www.nordichardware.com/news,7815.html
GT200 will launch in just a few weeks. The 576mm2 65nm chip is not only big and produces a lot of heat, it's also very expensive to make. The mere die size means that you can only fit about 100 dies on each wafter and due to the complex nature of the chip, the yields are rather poor, as low as 40% according to Charlie at TheInq. This brings the average chips cost above the expected $100 per chip to ~$125. He also says that the 55nm GT200b has been taped out, and this is correct. Skipping the rest of the bias, GT200b will not hit the market for another couple of months, most likely for the annual NVIDIA November refresh, so anyone buying a GT200 card will not end up with a dead duck. He or she will get the fastest single-core graphics card on the planet, even if it is still a G8x derivate.
la stessa news con commenti/considerazioni decisamente + equilibrati...
novembre. qualcuno dice 8?
;)
chi non ha urgenze particolari può attendere sereno novembre quindi e vedere su strada le varie soluzioni proposte. Bene :D
HackaB321
30-05-2008, 11:20
a si per carità mia personale convinzione meglio il chip monolitico.
Anche perchè ti ricorda una certa astronave in rotta verso Giove.....:D
halduemilauno
30-05-2008, 11:20
Mi son rotto di aspettare e di continue incertezze, se le prestazioni sono buone e superiori alla GX2 la prendo ammesso che si stia sui 600 euro altrimenti al diavolo. :muro: :rolleyes:
quelle che abbiamo visto ieri(credo cose vere e/o cmq verosimili)si riferiscono a un bench sintetico. personalmente credo che nei giochi sarà ancora meglio che in quel contesto.
scusa prima per il monitor credevo che tu avessi un 1920x1200.
ciao.
;)
halduemilauno
30-05-2008, 11:21
chi non ha urgenze particolari può attendere sereno novembre quindi e vedere su strada le varie soluzioni proposte. Bene :D
certo che si.
;)
ma è ovvio che l'amico che ha sollevato il quesito avrà gia una mamma adeguata allo sli. è chiaro che se deve anche cambiare mamma non conviene.
mi pareva evidente.
ovvio, certo
...
halduemilauno
30-05-2008, 11:23
Anche perchè ti ricorda una certa astronave in rotta verso Giove.....:D
Casa mia.
;)
io invece capisco che nel tuo caso ati non ti possa pagare per ovvi e palesi motivi ma cerca almeno di parlarne con cognizione di causa.
mi parli di pezzi di silicio e plastica e mi tiri fuori termini quali truffa. ma truffa de che?
ignore list insieme a tutti gli altri.
Non vi è motivo per cui ATI debba pagarmi...non mi pare d'aver mai assunto posizioni simili alle tue : SUBDOLE e TENDENZIOSE....
Sia ben chiaro : "quanto dici e come lo dici non viola assolutamente alcun regolamento , ma almeno abbi l'onestà intellettuale di dire che sei un FAN Nvidia....cosa c'è di male?"
Se non altro dai una mano a chi legge i tuoi post ed eviti che eventuali niubbi possano essere condizionati dalla tua foga partigiana.... ;)
In merito alle offese che la frase quotata sottende , meglio non replicare..tempo perso..
Inoltre quando parlavo di truffa , utilizzavo le "" ed il senso del mio scrivere era il seguente :" se i rumors sono correti ,tutti quelli che compreranno GTX260/280 a prezzi indicati vedranno dopo pochi mesi (2-4) svalutare enormemente il loro hardware per l'uscita di GT200b a 55nm..."
Nulla di più..cmq il modo in cui rispondi e "l'acredine" che mostri mettono in evidenza quanto tu sia alla ricerca di un posto come promoter di NVIDIA....:) :)
quelle che abbiamo visto ieri(credo cose vere e/o cmq verosimili)si riferiscono a un bench sintetico. personalmente credo che nei giochi sarà ancora meglio che in quel contesto.
scusa prima per il monitor credevo che tu avessi un 1920x1200.
ciao.
;)
No figurati, credevo che scherzassi infatti :D , comunque 60 fps in vh a 1920x1200 mica hai detto poco. Quanto farà a risoluzioni inferiori se ha quella andasse così? :eek:
halduemilauno
30-05-2008, 11:35
No figurati, credevo che scherzassi infatti :D , comunque 60 fps in vh a 1920x1200 mica hai detto poco. Quanto farà a risoluzioni inferiori se ha quella andasse così? :eek:
ma allora hai si o no questo benedetto monitor da 1920x1200?
;)
ma allora hai si o no questo benedetto monitor da 1920x1200?
;)
sarà mica questo il suo pc ?
http://i12.ebayimg.com/08/i/000/e1/7c/fd0f_2.JPG
:sofico:
halduemilauno
30-05-2008, 11:45
sarà mica questo il suo pc ?
http://i12.ebayimg.com/08/i/000/e1/7c/fd0f_2.JPG
:sofico:
che orrore. certo che no.
;)
sarà mica questo il suo pc ?
http://i12.ebayimg.com/08/i/000/e1/7c/fd0f_2.JPG
:sofico:
:rotfl:
ma allora hai si o no questo benedetto monitor da 1920x1200?
;)
No no, non ce l'ho. :D
Dello schermo non me ne frega un granchè su un pc, prenderò forse più in là un 22" ma non di più. ;)
No no, non ce l'ho. :D
Dello schermo non me ne frega un granchè su un pc, prenderò forse più in là un 22" ma non di più. ;)
scusa ma... allora che te ne fai della GTX280? a 1280 mi sembra che a parte il solito crysis vadano tutte da dio :P
halduemilauno
30-05-2008, 11:54
No no, non ce l'ho. :D
Dello schermo non me ne frega un granchè su un pc, prenderò forse più in là un 22" ma non di più. ;)
ok. ora facciamo chiarezza fino in fondo che monitor hai ora? cmq il 22 in questo caso è obbligatorio(consigliato il 24). e lo era pure prima.
;)
leoneazzurro
30-05-2008, 11:58
sei sicuro? io volevo proprio cambiare la ultra con la gx2 per giocare a 2560x1600.
Se è così come dici devo necessariamente aspettare la gtx280
Ovviamente non è così in tutti i giochi (mi stavo riferendo ad un test in particolare), in alcuni hai boost sostanziosi. Ma se devi spendere soldi (tanti) almeno che siano spesi bene...
E per verificare se ci sono questi casi, beh, basta guardare i test di HWupgrade...
http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_6.html
http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_5.html
In World in Conflict la GX2 passando da 1900x1200 a 2560x1600 cade paurosamente da 42 a 18 FPS mentre la 8800 GTX singola (neanche la Ultra) a quei settaggi passa da 31 a 20 e lo SLI di GTX da 38 a 33 (quindi non è un problema di SLI). In Crysis (che rende già poco con le schede dual di suo) la GTX ancora a quella risoluzione supera la GX2 (OK, è ingiocabile, ma è per rendere l'idea). Chiaramente questo effetto dipende dall'applicazione utilizzata e cresce con l'applicazione dell'AA, per cui in alcuni giochi e impostazioni la GX2 sarà superiore e in altri casi andrà meglio la Ultra ma più si andrà avanti e più applicazioni a quella risoluzione saranno limitate dalla memoria. Direi che a questo punto ti conviene aspettare la GT260 o 280 o se devi prendere la GX2 cerca un modello con 2x1 Gbyte a bordo (o prendere una seconda Ultra se hai lo SLI).
Altri test che mostrano le limitazioni del framebuffer (Call of Juarez) :
http://www.xbitlabs.com/articles/video/display/gainward-bliss8800gts-1024_8.html
ok. ora facciamo chiarezza fino in fondo che monitor hai ora? cmq il 22 in questo caso è obbligatorio(consigliato il 24). e lo era pure prima.
;)
Ora 19".
Per me non è così obbligatorio. :D
Intanto prendo GTX 280 e poi penso allo schermo da abbinare.
halduemilauno
30-05-2008, 12:05
Ora 19".
Per me non è così obbligatorio. :D
Intanto prendo GTX 280 e poi penso allo schermo da abbinare.
insomma diciamo allora quasi obbligatorio. pensa io direi persino 24 pollici. cmq 22 pollici un'ottimo compromesso.
ciao.
;)
ps crysis diventerà un gioco d'aerei. volerà.
geminibruni
30-05-2008, 12:09
Non vi è motivo per cui ATI debba pagarmi...non mi pare d'aver mai assunto posizioni simili alle tue : SUBDOLE e TENDENZIOSE....
Sia ben chiaro : "quanto dici e come lo dici non viola assolutamente alcun regolamento , ma almeno abbi l'onestà intellettuale di dire che sei un FAN Nvidia....cosa c'è di male?"
Se non altro dai una mano a chi legge i tuoi post ed eviti che eventuali niubbi possano essere condizionati dalla tua foga partigiana.... ;)
In merito alle offese che la frase quotata sottende , meglio non replicare..tempo perso..
Inoltre quando parlavo di truffa , utilizzavo le "" ed il senso del mio scrivere era il seguente :" se i rumors sono correti ,tutti quelli che compreranno GTX260/280 a prezzi indicati vedranno dopo pochi mesi (2-4) svalutare enormemente il loro hardware per l'uscita di GT200b a 55nm..."
Nulla di più..cmq il modo in cui rispondi e "l'acredine" che mostri mettono in evidenza quanto tu sia alla ricerca di un posto come promoter di NVIDIA....:) :)
Scusa se mi permetto di intervenire, io sono uno di quei tanti che di solito si limita a leggere quello che viene scritto in queste pagine e ti posso garantire che Hal anche se è decisamente di parte (proNvindia) è tutto fuorchè una persona SUBDOLA E SENTENZIOSA, è vero visto che riporta praticamente qualunque notizia che viene da SantaClara e magari è quello quà dentro che è più informato di tutto quello che succede all'interno di questo ambiente a volte si permette di dare la propria idea su quelle che potrebbero essere le prestazioni delle schede di nuova generazione (secondo le informazioni che circolano) ma a mio parere resta sempre molto abbottonato e non si lascia andare a eufenismi gratuiti.
Poi non capisco quelli che nei mesi scorsi si facevano grandi pippe mentali sui prezzi interni di ATI o NVIDIA per questi nuovi chip, ma chi se ne frega, quando uno spende 500-600€ vuole il massimo delle prestazioni, non importa quanto consumi o quanto scaldi, basta che sia il meglio del meglio, ricordiamoci che stiamo parlando di soluzioni higend, destinate a una fetta microscopica del mercato ma che sono FONDAMENTALI a livello di immagine per tutto il resto della gamma..... Io in questi anni ho comprato sia Nvidia che ATI senza problemi di sorta, cerco e cercherò sempre e soltanto quello che mi garantisce il meglio in fatto di prestazioni, quindi vinca il migliore... :cool:
halduemilauno
30-05-2008, 12:20
Scusa se mi permetto di intervenire, io sono uno di quei tanti che di solito si limita a leggere quello che viene scritto in queste pagine e ti posso garantire che Hal anche se è decisamente di parte (proNvindia) è tutto fuorchè una persona SUBDOLA E TENDENZIOSA, è vero visto che riporta praticamente qualunque notizia che viene da SantaClara e magari è quello quà dentro che è più informato di tutto quello che succede all'interno di questo ambiente a volte si permette di dare la propria idea su quelle che potrebbero essere le prestazioni delle schede di nuova generazione (secondo le informazioni che circolano) ma a mio parere resta sempre molto abbottonato e non si lascia andare a eufenismi gratuiti.
Poi non capisco quelli che nei mesi scorsi si facevano grandi pippe mentali sui prezzi interni di ATI o NVIDIA per questi nuovi chip, ma chi se ne frega, quando uno spende 500-600€ vuole il massimo delle prestazioni, non importa quanto consumi o quanto scaldi, basta che sia il meglio del meglio, ricordiamoci che stiamo parlando di soluzioni higend, destinate a una fetta microscopica del mercato ma che sono FONDAMENTALI a livello di immagine per tutto il resto della gamma..... Io in questi anni ho comprato sia Nvidia che ATI senza problemi di sorta, cerco e cercherò sempre e soltanto quello che mi garantisce il meglio in fatto di prestazioni, quindi vinca il migliore... :cool:
ti ringrazio. tra l'altro grazie al tuo quote ho letto il post del quotato. mi sono permesso di correggere un termine da lui usato e da te riportato in maniera non corretta un banale errore di scrittura. a meno che non intendevi altro.
non ho altro da aggiungere se non di chiuderla qui.
Grazie ancora.
Ciao.
;)
Scusa se mi permetto di intervenire, io sono uno di quei tanti che di solito si limita a leggere quello che viene scritto in queste pagine e ti posso garantire che Hal anche se è decisamente di parte (proNvindia) è tutto fuorchè una persona SUBDOLA E SENTENZIOSA, è vero visto che riporta praticamente qualunque notizia che viene da SantaClara e magari è quello quà dentro che è più informato di tutto quello che succede all'interno di questo ambiente a volte si permette di dare la propria idea su quelle che potrebbero essere le prestazioni delle schede di nuova generazione (secondo le informazioni che circolano) ma a mio parere resta sempre molto abbottonato e non si lascia andare a eufenismi gratuiti.
Poi non capisco quelli che nei mesi scorsi si facevano grandi pippe mentali sui prezzi interni di ATI o NVIDIA per questi nuovi chip, ma chi se ne frega, quando uno spende 500-600€ vuole il massimo delle prestazioni, non importa quanto consumi o quanto scaldi, basta che sia il meglio del meglio, ricordiamoci che stiamo parlando di soluzioni higend, destinate a una fetta microscopica del mercato ma che sono FONDAMENTALI a livello di immagine per tutto il resto della gamma..... Io in questi anni ho comprato sia Nvidia che ATI senza problemi di sorta, cerco e cercherò sempre e soltanto quello che mi garantisce il meglio in fatto di prestazioni, quindi vinca il migliore... :cool:
Gentile amico , non ho mai scritto che l'utente HAL è una persona sudbola (non è mia consuetudine giudicare ,ancor più persone che non conosco); ho scritto che quanto HAL scrive è SUBDOLO e TENDENZIOSO....
Per quanto mi riguardo non faccio il tifo per alcuna azienda...ci mancherebbe..:p
Posso aggiungere , che se passasse dalle mie parti non esiti a contattarmi , volentieri berrei con lui un caffè...;)
geminibruni
30-05-2008, 12:22
ti ringrazio. tra l'atro grazie al tuo quote ho letto il post del quotato. mi sono permesso di correggere un termine da lui usato e da te riportato in maniera non corretta un banale errore di scrittura.
non ho altro da aggiungere se non di chiuderla qui.
Grazie ancora.
Ciao.
;)
OPS...:stordita: :D
halduemilauno
30-05-2008, 12:25
OPS...:stordita: :D
Grazie ancora per il tuo intervento.
:mano:
insomma diciamo allora quasi obbligatorio. pensa io direi persino 24 pollici. cmq 22 pollici un'ottimo compromesso.
ciao.
;)
ps crysis diventerà un gioco d'aerei. volerà.
:asd:
ale0bello0pr
30-05-2008, 12:28
insomma diciamo allora quasi obbligatorio. pensa io direi persino 24 pollici. cmq 22 pollici un'ottimo compromesso.
ciao.
;)
ps crysis diventerà un gioco d'aerei. volerà.
si. dalla finestra :asd:
Se qualcuno non vuol sentire discorsi su Nvidia e GTX280/260 é ragionevole che migri altrove, qui siamo su un thread solo per parlare di questo...
Il giudicare le persone, se mai qualcuno ne fosse in grado, non interessa credo a nessuno e non é argomento del thread in questione... ;)
CoolBits
30-05-2008, 13:10
Ma non dovevano mandarle già ora ai tecnici e giornalisti per i primi test?
Le prime GTX280 sono già state distribuite ai "prescelti" ;) e solo questione di giorni e poi qualcosa trapelerà....
Le prime GTX280 sono già state distribuite ai "prescelti" ;) e solo questione di giorni e poi qualcosa trapelerà....
Tom's riporta: "tanto che inizialmente i prodotti GeForce GTX 200 non dovrebbero essere distribuiti in quantità e solo da quattro aziende."
Tom's riporta: "tanto che inizialmente i prodotti GeForce GTX 200 non dovrebbero essere distribuiti in quantità e solo da quattro aziende."
Tanto è sempre così, all'inizio dicono "Sii ma certo, ci sarà una grossa disponibilità fin da subito" e poi "Ehm, forse ce ne saranno proprio pochine pochine pochette". :rolleyes:
Speriamo che XFX si tra queste quattro.
CoolBits
30-05-2008, 13:39
Tom's riporta: "tanto che inizialmente i prodotti GeForce GTX 200 non dovrebbero essere distribuiti in quantità e solo da quattro aziende."
si parlava di tecnici e giornalisti e non di schede destinate alla vendità ;)
Foglia Morta
30-05-2008, 13:40
http://img61.imageshack.us/img61/1752/gtx200seriespricenk1.jpg
649$ :D , senza fare nomi qualcuno diceva 500$ ;)
HackaB321
30-05-2008, 13:48
sembrerebbe anche 260<=GX2
ale0bello0pr
30-05-2008, 13:49
http://img61.imageshack.us/img61/1752/gtx200seriespricenk1.jpg
649$ :D , senza fare nomi qualcuno diceva 500$ ;)
ehhh??? :mbe: :confused: :confused:
650 $/€ ????
:sbonk:
Enochian
30-05-2008, 13:50
Per me basta che dal 16 si possono ordinare, non ne posso più.
Foglia Morta
30-05-2008, 13:50
sembrerebbe anche 260<=GX2
vero , ma questo voglio vederlo con i bench
halduemilauno
30-05-2008, 13:50
http://img61.imageshack.us/img61/1752/gtx200seriespricenk1.jpg
649$ :D , senza fare nomi qualcuno diceva 500$ ;)
puoi pure farli erano i rumors precedenti. evidentemente la gt280 è ritenuta ancor + potente/competitiva. cmq pare che gt200 costi 105$ e rv770 42$.
cmq ribadisco la mia personalissima stima sui prezzi qui da noi. 530/570€ per la gtx280 e 350/370€ per la gtx260.
si parlava di tecnici e giornalisti e non di schede destinate alla vendità ;)
Ah scusa, per tecnici pensavo i tecnici dei partner che devono mettere in commercio i prodotti, altrimenti che tecnici intendevi?
Enochian
30-05-2008, 13:52
sembrerebbe anche 260<=GX2
Io francamente mi aspetto almeno 60 fps in very high crysis a 1920x1200, altrimenti mi prendo la gx2 che sarà ribassata dall'uscita delle nuove.
halduemilauno
30-05-2008, 13:53
Per me basta che dal 16 si possono ordinare, non ne posso più.
credo qualche giorno prima. il 12/13 si dovrebbero gia trovare.
;)
Foglia Morta
30-05-2008, 13:53
puoi pure farli erano i rumors precedenti. evidentemente la gt280 è ritenuta ancor + potente/competitiva. cmq pare che gt200 costi 105$ e rv770 42$.
cmq ribadisco la mia personalissima stima sui prezzi qui da noi. 530/570€ per la gtx280 e 350/370€ per la gtx260.
provocazione voluta proprio per capire se sono nella tua ignore list ;)
Comunque , mio punto di vista , ne spari un po a raffica come fudzilla. Quando ci prendi ti prendo il merito , quando sbagli scarichi la colpa sui rumours
Enochian
30-05-2008, 13:54
Bene. il mio nuovo pc reclama la sua scheda video.
Gabriyzf
30-05-2008, 13:56
http://img61.imageshack.us/img61/1752/gtx200seriespricenk1.jpg
649$ :D , senza fare nomi qualcuno diceva 500$ ;)
bene, a sto giro si aspetta gtx265@55nm e <250€
nico88desmo
30-05-2008, 13:58
http://img61.imageshack.us/img61/1752/gtx200seriespricenk1.jpg
649$ :D , senza fare nomi qualcuno diceva 500$ ;)
Bella la scritta : 'nVidia Confidential: do not Destribute'; :D
Comunque il rincaro potrebbe essere anche causato dall'aumento di prezzi di Tsmc riportato qualche giorno fà.
halduemilauno
30-05-2008, 14:16
provocazione voluta proprio per capire se sono nella tua ignore list ;)
Comunque , mio punto di vista , ne spari un po a raffica come fudzilla. Quando ci prendi ti prendo il merito , quando sbagli scarichi la colpa sui rumours
no ancora no. tu perchè fai confusione tra i rumors che posto, le mie info e le mie opinioni.
Foglia Morta
30-05-2008, 14:17
Vr-Zone (http://www.vr-zone.com/articles/GeForce_GTX_280_%26_GTX_260_Price_Up/5815.html) riguardo la stessa slide aggiunge i prezzi per gli OEM
CJ let us know that GeForce GTX 280 will be sold for $649 while GeForce GTX 260 will be sold for $449 at the time when they are launched on June 17th. Also we got to know that the price to AIC partners is $485 and $325 for GTX 280 and 260 respectively so there is a tidy sum to be made by their partners. As our previous article has suggested, the GPU cost alone is $100-$120 and so Nvidia isn't making as much money as they would love to. As such, they will try to lower cost by going 55nm.
halduemilauno
30-05-2008, 14:18
Bella la scritta : 'nVidia Confidential: do not Destribute'; :D
Comunque il rincaro potrebbe essere anche causato dall'aumento di prezzi di Tsmc riportato qualche giorno fà.
no non centra niente il rincaro. questa è mia info.
Foglia Morta
30-05-2008, 14:18
no ancora no. tu perchè fai confusione tra i rumors che posto, le mie info e le mie opinioni.
no , non faccio confusione. Comunque è una discussione inutile... la vediamo diversamente e basta
halduemilauno
30-05-2008, 14:20
no , non faccio confusione. Comunque è una discussione inutile... la vediamo diversamente e basta
si.
si.
si.
Futura12
30-05-2008, 14:21
bene, a sto giro si aspetta gtx265@55nm e <250€
a sta botta si....tanto ho ancora una buona scheda per giocare...altri 6 mesi mi dura...e a quel punto comprerò una di queste schede usate....spero sui 200-50€
Gabriyzf
30-05-2008, 14:41
a sta botta si....tanto ho ancora una buona scheda per giocare...altri 6 mesi mi dura...e a quel punto comprerò una di queste schede usate....spero sui 200-50€
ho anch'io una 8800gt 512: va di lusso; potrei tirare anche la prossima primavera...
Futura12
30-05-2008, 14:43
ho anch'io una 8800gt 512: va di lusso; potrei tirare anche la prossima primavera...
io non ho la GT.ho una 8800GTS 320Mb:p che pur essendo oramai datata gestisce tutti i giochi senza affanni...volendo anche io potrei arrivare alla prossima primavera...limando qualcosina...
appleroof
30-05-2008, 14:45
eh ma Intel e AMD sono più avanti di TMSC nel processo produttivo. (le GPU AMD se le fa costruire da TMSC)
perchè Nvidia da chi se le fà fare le gpu? :stordita:
cut
649$ :D , senza fare nomi qualcuno diceva 500$ ;)
puoi pure farli erano i rumors precedenti. evidentemente la gt280 è ritenuta ancor + potente/competitiva. cmq pare che gt200 costi 105$ e rv770 42$.
cmq ribadisco la mia personalissima stima sui prezzi qui da noi. 530/570€ per la gtx280 e 350/370€ per la gtx260.
anche a me risultava 500$, c'è anche il mio nome (nooooooooooooooo.......:cry: )
però anche quello dei siti di mezzo mondo fino a ieri, chi glielo dice mo a quelli? ? :eek:
halduemilauno
30-05-2008, 14:52
perchè Nvidia da chi se le fà fare le gpu? :stordita:
anche a me risultava 500$, c'è anche il mio nome (nooooooooooooooo.......:cry: )
però anche quello dei siti di mezzo mondo fino a ieri, chi glielo dice mo a quelli? ? :eek:
ma probabilmente gioca ancora molto il fatto della scarsa/inesistente competitività.
gtx280 vs 4870x2 ad agosto e quindi tocca aspettare e vedere.
gtx260 vs 4870 che sta sotto di un 50%.
9800gtx vs 4850 eccola qui e infatti non a caso la 9800gtx si trova oggi gia a 220€.
se ci fai/fate caso i 500$ erano quando si pensava alle nuove ati per fine maggio e le nvidia a luglio. ricorderete spero.
;)
Allora io arrivo in tranquillità all'estate 2009! :D
Scherzi a parte, il progetto G80 é stato un gran progetto e chi ne possiede una non ha sentito il bisogno di sostituirla con una G92, anche se si trattava di una 8800GTS 320MB, che oltre tutto andava quasi come una GTS 640MB e costava molto meno di quest'ultima! ;)
appleroof
30-05-2008, 14:58
ma probabilmente gioca ancora molto il fatto della scarsa/inesistente competitività.
gtx280 vs 4870x2 ad agosto e quindi tocca aspettare e vedere.
gtx260 vs 4870 che sta sotto di un 50%.
9800gtx vs 4850 eccola qui e infatti non a caso la 9800gtx si trova oggi gia a 220€.
se ci fai/fate caso i 500$ erano quando si pensava alle nuove ati per fine maggio e le nvidia a luglio. ricorderete spero.
;)
ero ironico :D
cmq si, evidentemente sono molto consapevoli delle loro e sicuramente gioca il fatto che Ati fino a 4870x2 non può opporre nulla alla gxt280, per cui l'entusiasth ha una sola scelta
non credo ci sia altra spiegazione
appleroof
30-05-2008, 14:59
Allora io arrivo in tranquillità all'estate 2009! :D
Scherzi a parte, il progetto G80 é stato un gran progetto e chi ne possiede una non ha sentito il bisogno di sostituirla con una G92, anche se si trattava di una 8800GTS 320MB, che oltre tutto andava quasi come una GTS 640MB e costava molto meno di quest'ultima! ;)
posso dirlo? in realtà oggi come oggi (in generale ed in media) non vedo la necessità di sostituirla nemmeno con gt200/rv770, se parliamo di stretta necessità...
halduemilauno
30-05-2008, 15:00
ero ironico :D
cmq si, evidentemente sono molto consapevoli delle loro e sicuramente gioca il fatto che Ati fino a 4870x2 non può opporre nulla alla gxt280, per cui l'entusiasth ha una sola scelta
non credo ci sia altra spiegazione
si ho colto l'ironia della prima parte. ho cmq voluto dare una interpretazione a questo aspetto.
;)
halduemilauno
30-05-2008, 15:03
posso dirlo? in realtà oggi come oggi (in generale ed in media) non vedo la necessità di sostituirla nemmeno con gt200/rv770, se parliamo di stretta necessità...
certo parlando di stretta necessità essa non c'è. però il boost che le gtx sono in grado di dare alla tua gtx è praticamente nettissimo.
;)
Futura12
30-05-2008, 15:04
Allora io arrivo in tranquillità all'estate 2009! :D
Scherzi a parte, il progetto G80 é stato un gran progetto e chi ne possiede una non ha sentito il bisogno di sostituirla con una G92, anche se si trattava di una 8800GTS 320MB, che oltre tutto andava quasi come una GTS 640MB e costava molto meno di quest'ultima! ;)
Quoto. Ho comprato la 8800GTS 320Mb quando è uscito...e da allora ho sempre giocato al massimo dei dettagli senza alcun scatto...la versione da 640Mb praticamente va uguale....e costava oltre 100€ in più...
Le G92 sono la fine del progetto G80...e sono servite per lo più per la massa di persone che erano ancora dotate di schede di vecchia generazione...forte di questa architettura il prezzo molto basso...al confronto con le più costose G80.
Per paragone una GTS320Mb io l'ho pagata 250€ appena uscita superscontata...la 9800GTX 512Mb appena è uscita costava uguale;)
Per il momento non sento alcun bisogno di passare a GT200....l'unico problema del G80 è il suo calore...veramente eccessivo..
appleroof
30-05-2008, 15:12
certo parlando di stretta necessità essa non c'è. però il boost che le gtx sono in grado di dare alla tua gtx è praticamente nettissimo.
;)
si non ci piove ;)
Non voglio pensare a che rumore farà la ventola delle GTX280/260 sotto carico, con quel biscotto di gpu! e in SLI? :eek:
Tutto sommato non molto di piu di quello che fanno le mie adesso... :D
[IMG]http://img61.imageshack.us/img61/1752/gtx200seriespricenk1.jpg[/IMG
649$ :D , senza fare nomi qualcuno diceva 500$ ;)
Io ero uno di quelli. :)
Erano i primi (e al suo tempo gli unici) rumors che giravano per la rete ;)
Futura12
30-05-2008, 15:27
Non voglio pensare a che rumore farà la ventola delle GTX280/260 sotto carico, con quel biscotto di gpu! e in SLI? :eek:
Tutto sommato non molto di piu di quello che fanno le mie adesso... :D
bhe i dissipatori delle schede basate su G80 sono estremamente silenziosi;)
Avevo ragione io, la scheda sarà sui 600€, altro che 500 :D
Vediamo ora come si collocherà un crossfire di HD4870 sia come prestazioni che come prezzi. :)
Avevo ragione io, la scheda sarà sui 600€, altro che 500 :D
Vediamo ora come si collocherà un crossfire di HD4870 sia come prestazioni che come prezzi. :)
Se è per questo l'avevo detto anche io. Certo se si va a vedere le versioni usate, magari graffiate senza scatola ne accessori forse si arriva a 500, o magari prendendo le marche più sconosciute che si compri a meno ma rivendi anche a meno.
mircocatta
30-05-2008, 16:04
boh io non capisco tutta questa vostra sicurezza dei "600€"....vi ricordo che il cambio fa si che 600$ sono 400€... vuoi le tasse, vuoi l'iva, ma a 600€ non ci arrivi... dovrebbe stare sui 549€ al lancio imho
lo dimostra che in America la 9800gx2 è venduta attorno a 530$ (almeno così ho trovato) qui in Italia la si trova a 399€..
boh io non capisco tutta questa vostra sicurezza dei "600€"....vi ricordo che il cambio fa si che 600$ sono 400€... vuoi le tasse, vuoi l'iva, ma a 600€ non ci arrivi... dovrebbe stare sui 549€ al lancio imho
lo dimostra che in America la 9800gx2 è venduta attorno a 530$ (almeno così ho trovato) qui in Italia la si trova a 399€..
Ma se all'uscita l'8800 GTX la vidi a 690 e la 9800 GX2 era a 600?!?!
Io sti prezzi miracolosi ancora li devo vedere, che poi il prezzo scenda è ovvio ma di sicuro non nei primi tempi.
Il cambio non lo fanno certo come dovrebbe essere, sai che bellezza sennò, lo fanno 1:1 e quando va bene.
al lancio queste nuove schede targate nvidia costeranno un botto qui in italia,scommessa sopra:cool:
Jason001
30-05-2008, 16:30
si ma se fossero usciti crysis 2, far cry 2 dici..beh..magari...
L'unica cosa in più che potrei fare è giocare a crysis 1920*1200.... :rolleyes:.....:rolleyes:
nVidia... 500/600 € per ri-giocare a crysis non te li do proprio :D
ps3+MGS4+GTA4 hanno lo stesso prezzo..... e dico mgs4 e gta4 mica crysis :rolleyes:
halduemilauno
30-05-2008, 16:38
http://img67.imageshack.us/img67/9505/gtx200seriesintroducingeo6.jpg
;)
Futura12
30-05-2008, 16:46
si ma se fossero usciti crysis 2, far cry 2 dici..beh..magari...
L'unica cosa in più che potrei fare è giocare a crysis 1920*1200.... :rolleyes:.....:rolleyes:
nVidia... 500/600 € per ri-giocare a crysis non te li do proprio :D
ps3+MGS4+GTA4 hanno lo stesso prezzo..... e dico mgs4 e gta4 mica crysis :rolleyes:
la grafica di GTA IV sulla mia Ps3 collegata a un Samsung HD-Ready è molto simile a Vice City per pc:rolleyes: :rolleyes: :rolleyes: non diciamo cazzate
_morghan_1968
30-05-2008, 16:46
ricordo a tutti che al lancio del prodotto sul mercato ci sarà
la solita situazione di prezzo alto & driver immaturi
..... meglio aspettare
vinchent_PSP
30-05-2008, 16:50
si ma se fossero usciti crysis 2, far cry 2 dici..beh..magari...
L'unica cosa in più che potrei fare è giocare a crysis 1920*1200.... :rolleyes:.....:rolleyes:
nVidia... 500/600 € per ri-giocare a crysis non te li do proprio :D
ps3+MGS4+GTA4 hanno lo stesso prezzo..... e dico mgs4 e gta4 mica crysis :rolleyes:
xbox360+GTA4 risparmi anche:D
Comunque in effetti...anche io ho intenzione di acquistare una GTX200...ma alla fine, per farci cosa? Giocare a Crysis ok...dopo??
Personalmente se non escono Titoli (con la T maiuscola) non ha molto senso acquistare queste schedone...
Futura12
30-05-2008, 16:51
xbox360+GTA4 risparmi anche:D
Comunque in effetti...anche io ho intenzione di acquistare una GTX200...ma alla fine, per farci cosa? Giocare a Crysis ok...dopo??
Personalmente se non escono Titoli (con la T maiuscola) non ha molto senso acquistare queste schedone...
Quoto. Con una 9600GT al momento si gioca tutto al massimo dei dettagli almeno fino a 1280x1024...
Kharonte85
30-05-2008, 17:00
http://img61.imageshack.us/img61/1752/gtx200seriespricenk1.jpg
649$ :D , senza fare nomi qualcuno diceva 500$ ;)
1) X la gtx 280...sti caxxi...:fagiano: prendendo la calcolatrice al cambio sarebbero 420 euri :sofico: invece saranno 550-600 :rolleyes:
2) A vedere da qua pare che la gtx 260 sara' leggermente sotto la gx2 (ma + costante), probabilmente il prezzo è indice anche delle performance
Jason001
30-05-2008, 17:01
si ma se fossero usciti crysis 2, far cry 2 dici..beh..magari...
L'unica cosa in più che potrei fare è giocare a crysis 1920*1200.... :rolleyes:.....:rolleyes:
nVidia... 500/600 € per ri-giocare a crysis non te li do proprio :D
ps3+MGS4+GTA4 hanno lo stesso prezzo..... e dico mgs4 e gta4 mica crysis :rolleyes:
la grafica di GTA IV sulla mia Ps3 collegata a un Samsung HD-Ready è molto simile a Vice City per pc:rolleyes: :rolleyes: :rolleyes: non diciamo cazzate
no dimmi solo chi ha parlato di grafica.....
poi che non hai capito il mio post..beh quello ci sono arrivato subito
senza parole
sembrerebbe anche 260<=GX2
2) A vedere da qua pare che la gtx 260 sara' leggermente sotto la gx2 (ma + costante), probabilmente il prezzo è indice anche delle performance
Mi pareva strano che 192SP=256SP, anche se SLI. Il bello che quando l'avevo ipotizzato tempo fa ero stato quasi lapidato... :rolleyes:
Foglia Morta
30-05-2008, 17:33
Mi pareva strano che 192SP=256SP, anche se SLI. Il bello che quando l'avevo ipotizzato tempo fa ero stato quasi lapidato... :rolleyes:
Occhio che comunque quella slide ha l'obiettivo di descrivere la line up in base al MSRP , secondo me non è corretto dedurre le performance da una slide che non è stata fatta per quello specifico scopo.
Occhio che comunque quella slide ha l'obiettivo di descrivere la line up in base al MSRP, secondo me non è corretto dedurre le performance da una slide che non è stata fatta per quello specifico scopo.
Uhm, e dove è scritto? :stordita:
Foglia Morta
30-05-2008, 17:38
Uhm, e dove è scritto? :stordita:
Scrivono il prezzo... io l'ho interpretata così . Non c'è scritto il MSRP della GX2 ma si sa che è di $599 .
Poi posso anche sbagliarmi :stordita:
Scrivono il prezzo... io l'ho interpretata così . Non c'è scritto il MSRP della GX2 ma si sa che è di $599 .
Poi posso anche sbagliarmi :stordita:
Boh, non essendoci specificato nulla io lo interpreterei come posizionamento generale delle schede... anche perchè altrimenti avrebbero dovuto scrivere il prezzo pure sulle altre schede... :boh:
Mister Tarpone
30-05-2008, 17:52
secondo me è come dice foglia morta..
Enochian
30-05-2008, 17:53
Quoto. Con una 9600GT al momento si gioca tutto al massimo dei dettagli almeno fino a 1280x1024...
Per chi ha pannelli superiori a 24 - e cominciano ad essere in molti - questo non può bastare.
ale0bello0pr
30-05-2008, 17:53
secondo me è come dice foglia morta..
quoto, la distanza non indica le prestazioni ma il prezzo
paolox86
30-05-2008, 18:52
Scusate ma si chiameranno veramente Geforce Gtx 280 oppure 9900 Gtx??
halduemilauno
30-05-2008, 18:55
Scusate ma si chiameranno veramente Geforce Gtx 280 oppure 9900 Gtx??
GTX280 & GTX260.
;)
Mister Tarpone
30-05-2008, 19:10
magari avere sti picchi minimi con Crysis.. invece tocca picchiare la testa in muro dalla disperazione...... :sbonk:
ale0bello0pr
30-05-2008, 19:11
magari avere sti picchi minimi con Crysis.. invece tocca picchiare la testa in muro dalla disperazione...... :sbonk:
stralol:banned:
DriftKing
30-05-2008, 19:42
Per chi ha pannelli superiori a 24 - e cominciano ad essere in molti - questo non può bastare.
io nn credo proprio ...
Insomma siamo passati da 250€ a 300€ di aggiunta; da 400€ in meno di due mesi a "sotto" i 500€..Amph! Mi sembri un tipo alquanto indeciso! Fidati che l'ACCELERO non serve (cmq non ho nulla in contrario con chi lo ha comprato :)), con la 8800gts in OC ed i 32° (che qui già sono arrivati :D) e con ventola al 60% (praticamente inudibile) sotto stress non supera i 65°...temperatura più che fresca per una GPU. Magari, invece di spendere soldi in dissipatori aftermarket dai nomi altisonanti, sarebbe meglio investire nel miglioramento del flusso d'aria all'interno del case, con maggiori benefici per ogni componente del sistema.
Il regolamento può dire quello che vuole, ritengo da veri polli D.O.C. (e ce ne sono..) comprare adesso una 8800 gts 512 a più di 120€. Con l'uscita delle nuove schede ATI ed Nvidia, subiranno un ulteriore deprezzamento.
Comunque, in bocca al lupo..o al pollo! ;)
Trovi che 50€ siano una differenza irrilevante?:rolleyes:
:oink:
ho detto 300 euro come massimo, intendendo che venderò la mia a 150 con l'accelero + 300= 450 per la gtx280 quindi 50 euro in + ,capirai...
la mia sta a 65 gradi con ventola a 60%(forse togliendo un po di polvere guadagno qualcosa, visto che è da un po che non lo pulisco, ma sarà cmq un guadagno minimo), ma quando giochi a crysis(non per dieci minuti) fa qualche scatto ogni tanto, e sopra il 60%, non so tu, ma a me la ventola si sente e come, ed è abbastanza fastidiosa(ovvio che se hai la tv accesa, tua sorella/fratello ascolta la musica a palla e balle varie, non senti una sega).La ventilazione nel mio case è + che buona, non è certo quello il problema.Cmq 32° gradi con che umidità? xche conta eh; ci credo poco cmq che fai solo 65 gradi, se posti qualche test riusciresti a convincermi.
per la storia del prezzo, come gia detto prima, io seguo il regolamento, se tu la vuoi vendere a quel prezzo affari tuoi, io la venderò a 150(o quello che sarà tra 2 mesi) con accelero, prezzo giusto IMHO
@ 154euro mi sono comprato nuova xfx alpha dog 1 mese fa
con 150euro compresso ss tra 2 mesi ti prendi una 9800gtx e ti avanzano pure i soldi..
@ 154euro mi sono comprato nuova xfx alpha dog 1 mese fa
con 150euro compresso ss tra 2 mesi ti prendi una 9800gtx e ti avanzano pure i soldi..
ho detto 150 euro (+ accelero...non facciamo finta di non leggere bene) ADESSO, tra due mesi ovvio che abbasso, ma ora come ora la 8800gts 150(CON ACCELERO) li vale tutti.
non so dove hai trovato a 154 una gts 512 , ma il prezzo minimo su trovaprezzi e 170, tu sarai un caso isolato, che quindi non prendo in considerazione per regolare il prezzo, io seguo il regolamento, se questo è un male, allora avete ragione.
Tornando in topic, ecco un'altra slide... :)
http://xtreview.com/images/CUDA-2-0-architecture.jpg
Mister Tarpone
30-05-2008, 20:23
e che è?? :confused:
si scusate l'hot, tanto non è usciamo :asd:, mi fermo qua va
ritornando in topic, posso dire che sto aspettando i bench con trepidazione, tanto ancora qualche giorno e ci siamo
Io dei risultati di vantage non è che mi fidi molto:D
Aspetto di vedere in-game
martinez1983
30-05-2008, 20:33
Riporto la notizia che il costo per realizzare solo il chip sembra essere nell' ordine dei 100 dollari!!!!
Lascio il link:
http://www.dinoxpc.com/News/news.asp?ID_News=14566&What=News&tt=Costi+di+produzione+elevati+per+i+chip+NVIDIA+GT200
Cmq resto in attesa di qualche bench!!!! Sono curioso di vedere cosa hanno tirato fuorui dal cilindro!!!!!
Kharonte85
30-05-2008, 20:34
Mi pareva strano che 192SP=256SP, anche se SLI. Il bello che quando l'avevo ipotizzato tempo fa ero stato quasi lapidato... :rolleyes:
Oltre che realistico a me non sembrerebbe un risultato affatto malvagio un "quasi pareggio" con la gx2...
Boh, non essendoci specificato nulla io lo interpreterei come posizionamento generale delle schede... anche perchè altrimenti avrebbero dovuto scrivere il prezzo pure sulle altre schede... :boh:
Io penso che sia cosi'...che qualche indicazione la dia, poi vedremo...:D
Kharonte85
30-05-2008, 20:35
Senza un "rispetto a" non è che mi dica molto :Z
in effetti...:asd:
Foglia Morta
30-05-2008, 20:36
Tornando in topic, ecco un'altra slide... :)
http://xtreview.com/images/CUDA-2-0-architecture.jpg
Senza un "rispetto a" non è che mi dica molto :Z
Visti gli ottimi rapporti degli ultimi tempi immagino che il riferimento sia una cpu Intel :asd:
e che è?? :confused:
Prestazioni in tutto fuorchè nei giochi... :asd:
Incremento ricevuto grazie all'ottimizzazione di CUDA non so se rispetto alla serie precedente o se rispetto alle schede NVidia che non usavano CUDA (serie 7 e precedenti). :)
Questo comunque si aggancia a quello di cui discutevamo qualche tempo fa. Per la potenza che stanno toccando le gpu devono essere usate per tutto. Avete mai provato ad aggiornare modelli finanziari con macro su excel? A volte ci mettono una vita a finire anche con una cpu dual core e hdd a 7200rpm (e nel frattempo ti ritrovi con una bella schermata bianca abbastanza inquietante :sofico: )...
Ah, PHK continua i leaks...
Get pulled deeper into the gaming experience than ever before with NVIDIA ® GeForce ® GTX 280 and GTX 260.
High definition worlds crackle and hum with cinema-quality clarity in games including Unreal Tournament® 3, Assassin’s Creed™, Call of Duty® 4: Modern Warfare™ and STALKER: Clear Sky. Lifelike characters behave with such realistic intensity that your palms sweat and your heart races. Objects react to the forces of nature exactly as nature intended.
And beyond games, GeForce GTX 200 GPUs shift everyday processing tasks from the CPU to the GPU - Blu-ray movies, 3D Internet browsing with PicLens, Folding@home protein-folding, and video transcoding. With a 50% perf boost over the previous generations, both performance and immersion are absolute.
Questo il testo della pubblicità di GT200: il nuovo messaggio sarà "Get visual. Get GeForce".
PHK aggiunge inoltre che GT200 inizierà ad essere consegnato a partire dal 3 giugno. :)
halduemilauno
30-05-2008, 20:43
Riporto la notizia che il costo per realizzare solo il chip sembra essere nell' ordine dei 100 dollari!!!!
Lascio il link:
http://www.dinoxpc.com/News/news.asp?ID_News=14566&What=News&tt=Costi+di+produzione+elevati+per+i+chip+NVIDIA+GT200
Cmq resto in attesa di qualche bench!!!! Sono curioso di vedere cosa hanno tirato fuorui dal cilindro!!!!!
precisamente 105$.
;)
Sergio_Di_Rio
30-05-2008, 20:43
a si per carità mia personale convinzione meglio il chip monolitico che la scheda che ne ha due quindi per me niente 9800gx2, 3870x2, 4870x2 quindi ripeto per me niente x2. almeno fino a quando la tecnologia in questo campo non avrà risolti i suoi limiti.
Mai stato così d'accordo, è una vita che lo ripeto.
ho detto 300 euro come massimo, intendendo che venderò la mia a 150 con l'accelero + 300= 450 per la gtx280 quindi 50 euro in + ,capirai..
la mia sta a 65 gradi con ventola a 60%(forse togliendo un po di polvere guadagno qualcosa, visto che è da un po che non lo pulisco, ma sarà cmq un guadagno minimo), ma quando giochi a crysis(non per dieci minuti) fa qualche scatto ogni tanto, e sopra il 60%, non so tu, ma a me la ventola si sente e come, ed è abbastanza fastidiosa(ovvio che se hai la tv accesa, tua sorella/fratello ascolta la musica a palla e balle varie, non senti una sega).La ventilazione nel mio case è + che buona, non è certo quello il problema.Cmq 32° gradi con che umidità? xche conta eh; ci credo poco cmq che fai solo 65 gradi, se posti qualche test riusciresti a convincermi.
per la storia del prezzo, come gia detto prima, io seguo il regolamento, se tu la vuoi vendere a quel prezzo affari tuoi, io la venderò a 150(o quello che sarà tra 2 mesi) con accelero, prezzo giusto IMHO
Ripeto, di "Polli" ce ne sono tanti..Buona Fortuna!:)
:oink:
Gabriyzf
30-05-2008, 20:49
Tornando in topic, ecco un'altra slide... :)
http://xtreview.com/images/CUDA-2-0-architecture.jpg
sì, ma queste cose le deve poter e saper fare anche g92, magari più lentamente di g200 :oink: , ma le DEVE fare
ma chi è questo CJ?
http://img67.imageshack.us/img67/9505/gtx200seriesintroducingeo6.jpg
;)
Mai stato così d'accordo, è una vita che lo ripeto.
Ripeto, di "Polli" ce ne sono tanti..Buona Fortuna!:)
:oink:
ripeto che non hai afferrato, quelli che chiami polli per me è gente che compra al prezzo giusto, ergo non sono polli.
Mister Tarpone
30-05-2008, 21:23
oh!!! avete rotto i maroni con sta storia.
basta!! che qui si parla di gtx 280 e 260.
e che ca22o...
si hai ragione, solo che ero interessato al test, xo visto che non ha postato niente chiudiamo l'ot
Beccatevi da un'altra parte... (giá che si parla di polli :D )
Beccatevi da un'altra parte... (giá che si parla di polli :D )
:asd:
fr4nc3sco
30-05-2008, 21:41
le mie informazioni per ora si sono rilevate tutte giuste 1 sett fa mi avevano detto che le 280gtx costavano oltre 600$ prob 650 e ci han beccato che all'uscita saranno rare circa 160pz ad un grande magazzino italiano, e ci han beccato che dire so anche le performance se sono vero come il resto circa 10/15% in piu nel vantage rispetto alla gx2 e un 30/35% nei game sempre rispetto alla gx2, alla fine sarà come aveve uno sli di gx2
ma è confermato, costeranno 650 al lancio?
ma è confermato, costeranno 650 al lancio?
Quelle slide sembrano ufficiali :)
Marscorpion
30-05-2008, 21:50
ma è confermato, costeranno 650 al lancio?
Si ma dollari! Speriamo che qui siano sui 550 euro al lancio.
Anche se come per la 9800GX2 al lancio saranno vicino(molto) ai 600 euro!:doh:
Si ma dollari! Speriamo che qui siano sui 550 euro al lancio.
Anche se come per la 9800GX2 al lancio saranno vicino(molto) ai 600 euro!:doh:
See, figurati
650$ in italia diventano magicamente 600€
599...devo sperare in qualche bella mossa della concorrenza :(
paolo.guidx
30-05-2008, 23:00
Beh, d'accordo che 600 euri son tanti, ma parliamo di una scheda che (sembra) spacca di brutto...... Un salto notevole in termini di prestazioni. Io ho già messo in vendita le mie 8800 GTX XXX. E mai più SLI o schede multi GPU, è una tecnologia ancora troppo limitata sia nell'hardware che nel software.
Comunque in effetti...anche io ho intenzione di acquistare una GTX200...ma alla fine, per farci cosa? Giocare a Crysis ok...dopo??
Personalmente se non escono Titoli (con la T maiuscola) non ha molto senso acquistare queste schedone...
Finalmente uno che non si fa abbindolare.
ale0bello0pr
30-05-2008, 23:25
Ah, PHK continua i leaks...
Questo il testo della pubblicità di GT200: il nuovo messaggio sarà "Get visual. Get GeForce".
Get pulled deeper into the gaming experience than ever before with NVIDIA ® GeForce ® GTX 280 and GTX 260.
High definition worlds crackle and hum with cinema-quality clarity in games including Unreal Tournament® 3, Assassin’s Creed™, Call of Duty® 4: Modern Warfare™ and STALKER: Clear Sky. Lifelike characters behave with such realistic intensity that your palms sweat and your heart races. Objects react to the forces of nature exactly as nature intended.
And beyond games, GeForce GTX 200 GPUs shift everyday processing tasks from the CPU to the GPU - Blu-ray movies, 3D Internet browsing with PicLens, Folding@home protein-folding, and video transcoding. With a 50% perf boost over the previous generations, both performance and immersion are absolute.
PHK aggiunge inoltre che GT200 inizierà ad essere consegnato a partire dal 3 giugno. :)
preparatevi ad un ennesima mazzata....
Crysis non è citato :asd:
preparatevi ad un ennesima mazzata....
Crysis non è citato :asd:
Se è per questo 2 di quei giochi (CoD4 e UT3) sono riuscito a farli girare più che dignitosamente anche sulla vga del portatile in firma (X1600)... :asd:
E per gli altri 2 direi che schede che oggi costano sui 150€ max bastano e avanzano di brutto. Ovviamente è pubblicità, e va presa per quel che è. ;)
Crysis è un'aberrazione, ormai mi pare chiaro. Sarà interessante vedere come girerà FarCry 2 sulle schede di vecchia generazione (G80 e derivati, R600 e derivati). ;)
http://www.gametrailers.com/player/34491.html
Mister Tarpone
30-05-2008, 23:35
a 1280x1024 girerà bene..
a 1280x1024 girerà bene..
Lo spero, dato che il mio monitor del fisso ha quella risoluzione... :sofico:
Mister Tarpone
30-05-2008, 23:39
Lo spero, dato che il mio monitor del fisso ha quella risoluzione... :sofico:
idem.. pure il mio.. :asd:
ale0bello0pr
30-05-2008, 23:47
Se è per questo 2 di quei giochi (CoD4 e UT3) sono riuscito a farli girare più che dignitosamente anche sulla vga del portatile in firma (X1600)... :asd:
E per gli altri 2 direi che schede che oggi costano sui 150€ max bastano e avanzano di brutto. Ovviamente è pubblicità, e va presa per quel che è. ;)
Crysis è un'aberrazione, ormai mi pare chiaro. Sarà interessante vedere come girerà FarCry 2 sulle schede di vecchia generazione (G80 e derivati, R600 e derivati). ;)
http://www.gametrailers.com/player/34491.html
si ma dimentichi che Crysis con Nvidia ha una vera e proprio partnership e quindi deve citare il suo gioco di punta (se gli conviene :asd:)
bho non so perchè ma Nehalem+GT200 sarà come Penryn+G92 e quindi.....
vabbhè lasciamo perdere si è capito :help:
paolox86
31-05-2008, 00:25
Quindi secondo PHK dovremmo avere qualche test interessante dopo il 3 di giugno... Non sarebbe male
Get pulled deeper into the gaming experience than ever before with NVIDIA ® GeForce ® GTX 280 and GTX 260.
High definition worlds crackle and hum with cinema-quality clarity in games including Unreal Tournament® 3, Assassin’s Creed™, Call of Duty® 4: Modern Warfare™ and STALKER: Clear Sky. Lifelike characters behave with such realistic intensity that your palms sweat and your heart races. Objects react to the forces of nature exactly as nature intended.
And beyond games, GeForce GTX 200 GPUs shift everyday processing tasks from the CPU to the GPU - Blu-ray movies, 3D Internet browsing with PicLens, Folding@home protein-folding, and video transcoding. With a 50% perf boost over the previous generations, both performance and immersion are absolute.
SEcondo voi questo 50% a cosa si riferisce ...alla più performante GPU con singolo G80 o alla GX2...?
Si tratta di una affermazione pubblicitaria ma cmq "ufficiale" sulle performance ...
Mister Tarpone
31-05-2008, 00:30
io voglio sperare che NON si riferisca al g80 :asd:
Ma sarebbero miracoli assurdi se riferiti a gx2.
E' da ribadire che parliamo di una pubblicità ufficiale di Nvidia , ma pur sempre di una pubblicità :Quindi, questo 50% potrebbe essere forzato o quantomeno relativo al miglior scenario possibile...
si ma dimentichi che Crysis con Nvidia ha una vera e proprio partnership e quindi deve citare il suo gioco di punta (se gli conviene :asd:)
bho non so perchè ma Nehalem+GT200 sarà come Penryn+G92 e quindi.....
vabbhè lasciamo perdere si è capito :help:
Al posto di Nvidia mi vergognerei.., tutta sta pubblicità , ottimizzazioni , driver dopo driver e alla fine il gioco non va na mazza..
http://www.pctunerup.com/up/results/_200805/20080531011000_untitled.JPG
Con Far Cry 2 la storia è diversa.., basta vedere su quelle piattaforme gira il gioco e sta volta niente banner Nvidia.., chi sa perche :O
http://www.pctunerup.com/up/results/_200805/20080531011043_far_cry.JPG
Promette bene allora :asd:
paolo.guidx
31-05-2008, 01:31
a 1280x1024 girerà bene..
Ma che te ne fai di una GTX280 (o 260) per giocare a quelle risoluzioni????? In quella situazione tutto gira bene con (quasi) tutto.
si ma dimentichi che Crysis con Nvidia ha una vera e proprio partnership e quindi deve citare il suo gioco di punta (se gli conviene :asd:)
bho non so perchè ma Nehalem+GT200 sarà come Penryn+G92 e quindi.....
vabbhè lasciamo perdere si è capito :help:
No, non si è capito? Cosa c'è che non và? Ti aspettavi che il PC prendesse il volo?:confused:
xbox360+GTA4 risparmi anche:D
Comunque in effetti...anche io ho intenzione di acquistare una GTX200...ma alla fine, per farci cosa? Giocare a Crysis ok...dopo??
Personalmente se non escono Titoli (con la T maiuscola) non ha molto senso acquistare queste schedone...
AAAHHHHH!!!! Giocare a GTA4 su una console???? Nemmeno morto.
Guarda che durante l'estate ne usciranno diversi di giochi belli (ritardi permettendo):
-STALKER Clear Sky
-Crysis Warhead
-Mass Effect
-Race Driver Grid
-Spore
-LEGO indiana Jones.....;)
Poi dipende, se giochi un solo titolo al mese......:O
Al posto di Nvidia mi vergognerei.., tutta sta pubblicità , ottimizzazioni , driver dopo driver e alla fine il gioco non va na mazza..
http://www.pctunerup.com/up/results/_200805/20080531011000_untitled.JPG
Con Far Cry 2 la storia è diversa.., basta vedere su quelle piattaforme gira il gioco e sta volta niente banner Nvidia.., chi sa perche :O
http://www.pctunerup.com/up/results/_200805/20080531011043_far_cry.JPG
Promette bene allora :asd:
Beh, in effetti nVidia non ci ha fatto una gran figura, ma AMD ne è uscita ancora peggio :stordita: ..... E comunque se Crysis è programmato con i piedi non è nemmeno tutta colpa loro.....;)
Mister Tarpone
31-05-2008, 01:48
Ma che te ne fai di una GTX280 (o 260) per giocare a quelle risoluzioni????? In quella situazione tutto gira bene con (quasi) tutto.
vedo che non hai capito ... intendevo dire (rispondendo ad ALM) che proprio con g80 e dervati girerà bene a 1280x1024....
paolo.guidx
31-05-2008, 01:54
vedo che non hai capito ... intendevo dire (rispondendo ad ALM) che proprio con g80 e dervati girerà bene a 1280x1024....
AAAhhhh...... capito.:fagiano: :mano:
Mister Tarpone
31-05-2008, 02:25
AAAhhhh...... capito.:fagiano: :mano:
:fagiano: ;)
Enochian
31-05-2008, 09:15
Per chi ha scritto che le nuove schede nvidia saranno disponibili dal 3, intendevi dire al pubblico o alla stampa specializzata?
halduemilauno
31-05-2008, 09:18
Per chi ha scritto che le nuove schede nvidia saranno disponibili dal 3, intendevi dire al pubblico o alla stampa specializzata?
saranno(al computex)in visione per i venditori nonchè per la stampa specializzata.
;)
Enochian
31-05-2008, 09:22
Quindi al pubblico se ne parla per metà mese, capito grassie :D
halduemilauno
31-05-2008, 09:24
Quindi al pubblico se ne parla per metà mese, capito grassie :D
la disponibilità ufficiale è del 17. per attuarla quindi intorno al 12/13.
;)
E' da ribadire che parliamo di una pubblicità ufficiale di Nvidia , ma pur sempre di una pubblicità :Quindi, questo 50% potrebbe essere forzato o quantomeno relativo al miglior scenario possibile...
Infatti. ;)
Al posto di Nvidia mi vergognerei.., tutta sta pubblicità , ottimizzazioni , driver dopo driver e alla fine il gioco non va na mazza..
http://www.pctunerup.com/up/results/_200805/20080531011000_untitled.JPG
Evidentemente Crysis is meant to be played @ 25fps. :O :asd:
E' da ribadire che parliamo di una pubblicità ufficiale di Nvidia , ma pur sempre di una pubblicità :Quindi, questo 50% potrebbe essere forzato o quantomeno relativo al miglior scenario possibile...
Da quanto ne so io.....quel 50% si riferisce al confronto GTX280 con una 9800GX2 alla risoluzione di 1920*1200 e nel miglior scenario possibile....in media c'è un aumento delle prestazioni intorno al 25/30% almeno così si dice a Santa Clara, Taiwan e Monza :D
halduemilauno
31-05-2008, 11:11
Da quanto ne so io.....quel 50% si riferisce al confronto GTX280 con una 9800GX2 alla risoluzione di 1920*1200 e nel miglior scenario possibile....in media c'è un aumento delle prestazioni intorno al 25/30% almeno così si dice a Santa Clara, Taiwan e Monza :D
ecco mi mancava Monza. perfetto a questo punto dubbi non possono più sussistere.
;)
Da quanto ne so io.....quel 50% si riferisce al confronto GTX280 con una 9800GX2 alla risoluzione di 1920*1200 e nel miglior scenario possibile....in media c'è un aumento delle prestazioni intorno al 25/30% almeno così si dice a Santa Clara, Taiwan e Monza :D
Probabilmente questo 50% è riferito a quegli scenari nei quali , con una risoluzione quale 1900*1200 AA e AF a menetta , il framebuffer è il collo di bottiglia per la GX2....
In questi stessi scenari anche la 8800ULTRA è in grado si superare in performance della GX2...
Quindi probabilmente l'aumento medio di prestazioni sarà del 20-30%...direi anche qualcosa in meno , ma non azzardo numeri...:)
Enochian
31-05-2008, 11:22
Ribadisco io dalla nuova gt2000 di nvidia mi aspetto 50 o 60 frames a 1900 x 1200 in very high ( Crysis ) altrimenti prendo la 9800 gx2.
Ribadisco io dalla nuova gt2000 di nvidia mi aspetto 50 o 60 frames a 1900 x 1200 in very high ( Crysis ) altrimenti prendo la 9800 gx2.
Crysis è stato ottimizzato da un drogato:asd:
Io non mi aspetto giri bene su nessuna piattaforma
halduemilauno
31-05-2008, 11:32
Ribadisco io dalla nuova gt2000 di nvidia mi aspetto 50 o 60 frames a 1900 x 1200 in very high ( Crysis ) altrimenti prendo la 9800 gx2.
http://images.anandtech.com/graphs/9800gx2launch_031808044035/16675.png
;)
http://images.anandtech.com/graphs/9800gx2launch_031808044035/16675.png
;)
In dx9...
Ribadisco io dalla nuova gt2000 di nvidia mi aspetto 50 o 60 frames a 1900 x 1200 in very high ( Crysis ) altrimenti prendo la 9800 gx2.
http://images.anandtech.com/graphs/9800gx2launch_031808044035/16675.png
;)
In dx9...
E con solo gli shaders su very high... A' halle, nun ce provà... :asd:
http://www.hwupgrade.it/articoli/skvideo/1936/crysis_veryhigh2.png
;)
Pure aggiungendo che in DX9 con i tweaks very high va parecchio meglio, forse con una GX2 si potrebbero raggiungere i 25-30fps.
I 50-60fps li vedo lontani pure in quel caso, comunque.
appleroof
31-05-2008, 11:46
le mie informazioni per ora si sono rilevate tutte giuste 1 sett fa mi avevano detto che le 280gtx costavano oltre 600$ prob 650 e ci han beccato che all'uscita saranno rare circa 160pz ad un grande magazzino italiano, e ci han beccato che dire so anche le performance se sono vero come il resto circa 10/15% in piu nel vantage rispetto alla gx2 e un 30/35% nei game sempre rispetto alla gx2, alla fine sarà come aveve uno sli di gx2
ottimo, direi solo conferme....
In dx9...
very high shaders, se letterale in quel grafico, si riferisce ad un settaggio presente solo in dx10
Infatti i due grafici si riferiscono a situazioni molto differenti, anche se l'utente specificando "1920x1200 in very high" forse voleva intendere tutti i settaggi in very high....e qui la situazioneè nettamente differente e si rispecchia nelle prestazioni della tabella di hwup :)
bye
Infatti i due grafici si riferiscono a situazioni molto differenti, anche se l'utente specificando "1920x1200 in very high" forse voleva intendere tutti i settaggi in very high....e qui la situazioneè nettamente differente e si rispecchia nelle prestazioni della tabella di hwup :)
bye
Infatti. Rammento che PHK aveva detto che con uno SLI di GT200 si faranno 25fps in DX10 tutto very high AA4x, a 1920x1200. Quindi i 60fps senza AA con le stesse impostazioni forse li farà uno SLI di GTX280. ;)
very high shaders, se letterale in quel grafico, si riferisce ad un settaggio presente solo in dx10
In verità prima del setting a cui fai riferimento c'è scritto "High Quality" quindi DX9...forse con very high shaders si riferiscono al tweak per XP...:confused:
Cmq sia aspettarsi 60FPS a 1900*1200 @ veryhigh equivale a dire "NON COMPRERO' alcuna VGA ATi/NVIDIA della prossima generazione..."
Chiunque alimenta queste suggestioni , come al solito , fa disinformazione faziosa...:) ;)
very high shaders, se letterale in quel grafico, si riferisce ad un settaggio presente solo in dx10
Chi ti dice che non siano stati adottati i fix:read:
-noxius-
31-05-2008, 12:23
Chi ti dice che non siano stati adottati i fix:read:
A questo punto che la crytek li integrasse con una patch .... Peccato che così renderebbero evidente il fatto che le dx10 in crysis servono solo ad una cosa : abbassare drammaticamente i frames senza ottenere benefici a livello grafico :ciapet: ... crysis e dx10 only sVISTA, bella presa per il culo .
halduemilauno
31-05-2008, 12:29
Infatti i due grafici si riferiscono a situazioni molto differenti, anche se l'utente specificando "1920x1200 in very high" forse voleva intendere tutti i settaggi in very high....e qui la situazioneè nettamente differente e si rispecchia nelle prestazioni della tabella di hwup :)
bye
in effetti intendevo very high shader. infatti ho postato quello screen apposta.
marco7773
31-05-2008, 12:29
Per tenere sempre Occata una 8800gtx come si dovrebbero tenere le frequente? Adesso sono CORE CLOCK 576, SHADER CLOCK 1350, MEMORY CLOCK 900.
goldorak
31-05-2008, 12:45
Infatti. Rammento che PHK aveva detto che con uno SLI di GT200 si faranno 25fps in DX10 tutto very high AA4x, a 1920x1200. Quindi i 60fps senza AA con le stesse impostazioni forse li farà uno SLI di GTX280. ;)
Non e' mica una consolazione !!! giocare senza AA con una scheda del genere.
:tapiro: alla Crytek
:tapiro: alla Nvidia
Aspettiamo il giro delle Dx 11, forse per allora Crysis girera' come si deve.:sofico:
-noxius-
31-05-2008, 12:46
Marco, ci sono guide per l'overclock dappertutto ...guarda qui :
Esistono già un paio di thread per chiedere informazioni ed aiuto per quelle belle schede :
http://www.hwupgrade.it/forum/showthread.php?t=1467307
http://www.hwupgrade.it/forum/showthread.php?t=1614536
http://www.hwupgrade.it/forum/showthread.php?t=1584294
http://www.hwupgrade.it/forum/showthread.php?t=1624105
Ragazzi, se per giocare a crysis in dx10 e 1920x1200 con tutto su very high io mi devo mettere una GTX 280 (45FPS di media = 600 euro :muro: ) oppure 2GTX 280 in SLI con un 24'' , a questo punto :
-al diavolo le dx 10 , che come abbiamo visto , almeno per crysis non esistono (2 Cvar su 120 ...)
-al diavolo crysis e WINDOWS LONGHORN (doveva essere chiamato così, poi gli hanno cambiato nome in quanto così era chiamato un noto bufalo texano, noto per la sua lentezza :ciapet: )
-al diavolo queste nuove schede video da + di 250 euro
Mi prendo una 3870 e tiro a campare fino alle dx11 , oppure non mi prendo proprio nulla .. :rolleyes:
DarkNiko
31-05-2008, 12:57
Non e' mica una consolazione !!! giocare senza AA con una scheda del genere.
:tapiro: alla Crytek
:tapiro: alla Nvidia
Aspettiamo il giro delle Dx 11, forse per allora Crysis girera' come si deve.:sofico:
Purtroppo c'è poco da aspettare. Graficamente parlando Crysis sarà anche un gradino sopra gli altri giochi ma per l'ottimizzazione, i programmatori, al posto di usare la materia grigia, hanno utilizzato la materia solida che hanno in mezzo alle gambe.
C'è poco da fare, se un gioco è programmato male e soprattutto ottimizzato male, non c'è hardware che tenga. Di sicuro non farei mai uno SLI di GTX280 solo per giocare con tutto al max a 60 fps a Crysis, che poi se abiliti anche l'AA a 4x i 60 fps te li sogni, quindi.... poi cacchio si parla di un gioco mica di una tendenza di tutti i giochi, per cui sta bene dove sta. :D
DriftKing
31-05-2008, 13:16
mah ... 1100e (se tutto va bene) di vga x un gioco (parere personale) che apparte la grafica nn ha nulla di bello ... cioe ... e il solito fps ... nn ho mai capito persone che fanno queste cose ... e forse mai li capiro ...
Io , invece, la penso controcorrente. GTX280 e Crysis faranno i fuochi d'artificio: sarà il gioco che avrà i migliori aumenti di performance rispetto alla GX2 e a G80.
La potenza di shader aggiuntiva, il ribilanciamento dell'architettura verso un rapporto più alto tra SP e TMU, l'aumento delle ROPS e della bandwidth, potrebbe portare ad aumenti prestazionali decisamente superiori al 100% in Crysis rispetto alla 9800GTX a 1920x1200 e massimi settaggi. (senza AA)
Se la 9800gtx fa 15fps medi a quella risoluzione, GTX280 potrebbe farne 40. E uno SLI una 30ina con 4xAA.
Io , invece, la penso controcorrente. GTX280 e Crysis faranno i fuochi d'artificio: sarà il gioco che avrà i migliori aumenti di performance rispetto alla GX2 e a G80.
La potenza di shader aggiuntiva, il ribilanciamento dell'architettura verso un rapporto più alto tra SP e TMU, l'aumento delle ROPS e della bandwidth, potrebbe portare ad aumenti prestazionali decisamente superiori al 100% in Crysis rispetto alla 9800GTX a 1920x1200 e massimi settaggi. (senza AA)
Se la 9800gtx fa 15fps medi a quella risoluzione, GTX280 potrebbe farne 40. E uno SLI una 30ina con 4xAA.
40fps senza AA non sono 50-60, però. ;)
30-40fps sono comunque una buona stima, imho. A quello che hai detto, aggiungerei anche il framebuffer più ampio. :)
nico88desmo
31-05-2008, 13:25
Io , invece, la penso controcorrente. GTX280 e Crysis faranno i fuochi d'artificio: sarà il gioco che avrà i migliori aumenti di performance rispetto alla GX2 e a G80.
La potenza di shader aggiuntiva, il ribilanciamento dell'architettura verso un rapporto più alto tra SP e TMU, l'aumento delle ROPS e della bandwidth, potrebbe portare ad aumenti prestazionali decisamente superiori al 100% in Crysis rispetto alla 9800GTX a 1920x1200 e massimi settaggi. (senza AA)
Se la 9800gtx fa 15fps medi a quella risoluzione, GTX280 potrebbe farne 40. E uno SLI una 30ina con 4xAA.
Speriamo sarà così.
Magari Crysis utilizzerà le Mul implementate nel GT200 :D
Mister Tarpone
31-05-2008, 13:39
Io , invece, la penso controcorrente. GTX280 e Crysis faranno i fuochi d'artificio: sarà il gioco che avrà i migliori aumenti di performance rispetto alla GX2 e a G80.
La potenza di shader aggiuntiva, il ribilanciamento dell'architettura verso un rapporto più alto tra SP e TMU, l'aumento delle ROPS e della bandwidth, potrebbe portare ad aumenti prestazionali decisamente superiori al 100% in Crysis rispetto alla 9800GTX a 1920x1200 e massimi settaggi. (senza AA)
Se la 9800gtx fa 15fps medi a quella risoluzione, GTX280 potrebbe farne 40. E uno SLI una 30ina con 4xAA.
quoto.
40fps senza AA non sono 50-60, però. ;)
30-40fps sono comunque una buona stima, imho. A quello che hai detto, aggiungerei anche il framebuffer più ampio. :)
con un pò di oc arrivamo anche a 50 ;);) ;) :)
Speriamo sarà così.
Magari Crysis utilizzerà le Mul implementate nel GT200 :D
già...(:confused: ) ...vedremo ;) !
con un pò di oc arrivamo anche a 50 ;);) ;) :)
20-30% di performance in più solo con OC? Ma anche no... ;)
In DX10 tutto very high non penso proprio, forse forse con DX9 ed i tweaks...
Mister Tarpone
31-05-2008, 13:47
effettivamente.. con il very high forse 10fps + son troppi.. :asd:
-noxius-
31-05-2008, 13:54
Io , invece, la penso controcorrente. GTX280 e Crysis faranno i fuochi d'artificio: sarà il gioco che avrà i migliori aumenti di performance rispetto alla GX2 e a G80.
La potenza di shader aggiuntiva, il ribilanciamento dell'architettura verso un rapporto più alto tra SP e TMU, l'aumento delle ROPS e della bandwidth, potrebbe portare ad aumenti prestazionali decisamente superiori al 100% in Crysis rispetto alla 9800GTX a 1920x1200 e massimi settaggi. (senza AA)
Se la 9800gtx fa 15fps medi a quella risoluzione, GTX280 potrebbe farne 40. E uno SLI una 30ina con 4xAA.
Non saprei , francamente mi sembra troppo, anche perchè non si sa nulla in merito .
40 fps non sarebbe il 150% superiore ad una 9800GTX ? Troppo ..
se pensi che una 8800GTX sli che non è limitata dalla poca vram della GX2 riesce a farne 25 a 1920x1200... non è così assurdo che una GTX 280 con 1gb di vram e quel popò di hw che si ritrova riesca a farne 35-40...
Uno SLI di queste GTX , ben più potente in teoria di una GX2, appunto ne fa 25 ; e noi vorremmo credere che una single card di nuova generazione , da sola, ne faccia poco meno del doppio con un engine del genere ? Qualche dubbio se permetti mi viene, e pure bello grosso .
Mister Tarpone
31-05-2008, 14:02
xchè che ha detto di così sbagliato?? :confused:
li vedo pure io i 40fps facili..
se pensi che una 8800GTX sli che non è limitata dalla poca vram della GX2 riesce a farne 25 a 1920x1200... non è così assurdo che una GTX 280 con 1gb di vram e quel popò di hw che si ritrova riesca a farne 35-40...
appleroof
31-05-2008, 14:05
20-30% di performance in più solo con OC? Ma anche no... ;)
In DX10 tutto very high non penso proprio, forse forse con DX9 ed i tweaks...
ho una tremenda curiosità di vedere rv770 all'opera con crysis (e sopratutto rv770x2) perchè finora se le schede Nvidia soffrono con crysis, quelle Amd piangono proprio (ma tanto costano poco :asd: :asd: )
questo se ritieniamo crysis un vero indicatore delle performance di una vga (ad esempio perchè rappresenta la tendenza degli altri giochi, come giustamente detto)
in caso contrario, se cioè non lo ritieniamo tale, sono tutte parole al vento ed è lo stesso che discutere del tempo.
ho una tremenda curiosità di vedere rv770 all'opera con crysis (e sopratutto rv770x2) perchè finora se le schede Nvidia soffrono con crysis, quelle Amd piangono proprio (ma tanto costano poco :asd: :asd: )
questo se ritieniamo crysis un vero indicatore delle performance di una vga (ad esempio perchè rappresenta la tendenza degli altri giochi, come giustamente detto)
in caso contrario, se cioè non lo ritieniamo tale, sono tutte parole al vento ed è lo stesso che discutere del tempo.
crysis è l'unico gioco che mette in crysi le vga attuali....dunque se uno spende 600 euro in una vga di nuova generazione vuole avere un frame rate alto con questo gioco perche gli altri girano bene con schede video che costano meno
-noxius-
31-05-2008, 14:11
Diciamo che è l'unico gioco che rende utile , allo stato attuale, spendere 600 euro per una scheda video ( :muro: ) . Per tutto il resto una semplice 8800GT-GTS 512- GTX768 tritura tutto ed al massimo .
@OKOROP : credo che sia evidente il sarcasmo di fondo ;)
Diciamo che è l'unico gioco che rende utile , allo stato attuale, spendere 600 euro per una scheda video ( :muro: ) .
se si puo considerare utile spendere 600 euro per una vga:)
appleroof
31-05-2008, 14:14
crysis è l'unico gioco che mette in crysi le vga attuali....dunque se uno spende 600 euro in una vga di nuova generazione vuole avere un frame rate alto con questo gioco perche gli altri girano bene con schede video che costano meno
Diciamo che è l'unico gioco che rende utile , allo stato attuale, spendere 600 euro per una scheda video ( :muro: ) .
se prendiamo per buona la tesi che è programmato male, allora anche un quad sli di gtx280 o un corssfire x di 4870x2 non lo faranno girare bene, o come ci si aspetta, è questo il punto
per il resto sostengo da tempo che nè gt200 nè rv770 sono necessari, ora come ora, perchè il resto dei giochi viaggia alla grande con le vga attuali
ma allora perchè questo tread e quello di rv770 sono presi d'assalto? :asd:
ho una tremenda curiosità di vedere rv770 all'opera con crysis (e sopratutto rv770x2) perchè finora se le schede Nvidia soffrono con crysis, quelle Amd piangono proprio (ma tanto costano poco :asd: :asd: )
Imho faranno cacare tal quale tutte le altre schede con quel gioco, se proprio ci tieni a saperlo... :asd:
Però che non mi si venga a dire (e/o implicitamente farlo credere) che le GTX280 faranno 50-60fps, altrimenti si fa "disinformazione", come altri direbbero. :D
Aggiungo solo un paio di cose:
- allo stato attuale dei fatti, chi spende 649$ (e più o meno 600€) per una nuova scheda vuole che tutti i giochi gli girino alla grande a qualunque risoluzione), in effetti sarebbe anche lecito attendersi prestazioni del genere pure con Crysis con tutto al max ed i filtri, ma purtroppo temo non sarà così. Ovviamente una grande fetta della colpa non è di chi fa le vga, ma di Crytek.
- RV770Pro costerà meno di un terzo di GTX280, e la XT la metà. ;)
questo se ritieniamo crysis un vero indicatore delle performance di una vga (ad esempio perchè rappresenta la tendenza degli altri giochi, come giustamente detto)
in caso contrario, se cioè non lo ritieniamo tale, sono tutte parole al vento ed è lo stesso che discutere del tempo.
Perchè, stiamo discutendo di massimi sistemi, qui? :stordita:
Relax. ;)
se prendiamo per buona la tesi che è programmato male, allora anche un quad sli di gtx280 o un corssfire x di 4870x2 non lo faranno girare bene, o come ci si aspetta, è questo il punto
per il resto sostengo da tempo che nè gt200 nè rv770 sono necessari, ora come ora, perchè il resto dei giochi viaggia alla grande con le vga attuali
ma allora perchè questo tread e quello di rv770 sono presi d'assalto? :asd:
Beh, qui bisgnerebbe fare un distinguo. Diciamo che la potenza garantita già nella fascia 150-250€ è più che sufficiente per i giochi attuali, e ti dò perfettamente ragione.
Però RV770, se le performances fossero quelle ventilate finora, anche seguendo il tuo ragionamento, avrebbe "più senso" di GT200.
Se RV770Pro=G92 nella versione più potente (9800GTX), non ci sarebbe più alcun motivo per scegliere una vga NVidia in quel range di prezzo, a meno che non si scenda sotto i 150€, dove la 9600GT può dire la sua. E questo, nella fascia di prezzo col miglior rapporto qualità prezzo, ha molto più senso che avere la vga più figa del mondo che costa 649$. ;)
-noxius-
31-05-2008, 14:20
ma allora perchè questo tread e quello di rv770 sono presi d'assalto?
Per lo stesso motivo che ti porta a salire dentro una ferrari F-50 modena quando sai benissimo che non te la comprerai mai, nè te la potrai mai permettere ;)
@OKOROP : credo che sia evidente il sarcasmo di fondo
Aggiungo solo un paio di cose:
- allo stato attuale dei fatti, chi spende 649$ (e più o meno 600€) per una nuova scheda vuole che tutti i giochi gli girino alla grande a qualunque risoluzione), in effetti sarebbe anche lecito attendersi prestazioni del genere pure con Crysis con tutto al max ed i filtri, ma purtroppo temo non sarà così. Ovviamente una grande fetta della colpa non è di chi fa le vga, ma di Crytek.
- RV770Pro costerà meno di un terzo di GTX280, e la XT la metà.
Concordo, giudica te qual'è il rapporto-prezzo prestazioni ;)
appleroof
31-05-2008, 14:24
Imho faranno cacare tal quale tutte le altre schede con quel gioco, se proprio ci tieni a saperlo... :asd:
Però che non mi si venga a dire (e/o implicitamente farlo credere) che le GTX280 faranno 50-60fps, altrimenti si fa "disinformazione", come altri direbbero. :D
Aggiungo solo un paio di cose:
- allo stato attuale dei fatti, chi spende 649$ (e più o meno 600€) per una nuova scheda vuole che tutti i giochi gli girino alla grande a qualunque risoluzione), in effetti sarebbe anche lecito attendersi prestazioni del genere pure con Crysis con tutto al max ed i filtri, ma purtroppo temo non sarà così. Ovviamente una grande fetta della colpa non è di chi fa le vga, ma di Crytek.
- RV770Pro costerà meno di un terzo di GTX280, e la XT la metà. ;)
bravo, quindi quel gioco non conta
per il resto tutti gli altri giochi gli gireranno alla grande non credi?
rv770 non è per chi cerca il massimo, quindi ci mancherebbe che costi più di 280gtx (al cui prezzo mi pare si avvicinerà r700) :stordita:
è la scoperta dell'acqua calda, o meglio la solita, stravecchia diatriba (quante ne ho sentite quando uscì la 8800gtx, e tutti in realtà a sbavare) su prezzo/prestazioni o niente compromessi: se cerchi il primo è inutile menarla sulle schede da 600 e passa euro (che ci son sempre state) perchè tanto è ovviamente ovvio che partendo da quel punto di vista hai ragione, se cerchi il secondo, comprerai queste schede (come rv770pro c'è g92 forse g92b) tutto qui
Perchè, stiamo discutendo di massimi sistemi, qui? :stordita:
Relax. ;)
:stordita:
bè, parlare del tempo in genere è una delle cose più tranquille che ci siano :asd:
Io sinceramente preferirò un gtx rispetto ad ati per il supporto cuda
-noxius-
31-05-2008, 14:47
Io sinceramente preferirò un gtx rispetto ad ati per il supporto cuda
Già , sicuramente ti servirà a molto ; come ti è già servito per le G80 ..
Kharonte85
31-05-2008, 14:52
Non e' mica una consolazione !!! giocare senza AA con una scheda del genere.
:tapiro: alla Crytek
:tapiro: alla Nvidia
Aspettiamo il giro delle Dx 11, forse per allora Crysis girera' come si deve.:sofico:
A dire il vero il :tapiro: va anche ad AMD che avra' bisogno di 4 schede (4x HD4870 o 2x hd4870x2) per fare una roba del genere...:asd: senno' poi ti dicono che sei di parte :sofico:
Purtroppo c'è poco da aspettare. Graficamente parlando Crysis sarà anche un gradino sopra gli altri giochi ma per l'ottimizzazione, i programmatori, al posto di usare la materia grigia, hanno utilizzato la materia solida che hanno in mezzo alle gambe.
C'è poco da fare, se un gioco è programmato male e soprattutto ottimizzato male, non c'è hardware che tenga. Di sicuro non farei mai uno SLI di GTX280 solo per giocare con tutto al max a 60 fps a Crysis, che poi se abiliti anche l'AA a 4x i 60 fps te li sogni, quindi.... poi cacchio si parla di un gioco mica di una tendenza di tutti i giochi, per cui sta bene dove sta. :D
Non vorrei entrare in polemica ma io queste lamentele non le condivido affatto...ho sempre pensato che crysis (Chi non lo ha ancora fatto si spulci un po' l'editor [che per certi versi è piu' interessante del gioco] ) sia un gioco ben ottimizzato...solo che è PESANTE, ma c'è una bella differenza fra le due cose... ;)
il problema è che qua hanno tutti la fissa del MAX, se i programmatori avessero tolto le impostazioni VeryHigh (lasciando come migliore qualita' possibile High in DX10) Crysis sarebbe divenuto la Bibbia per tutti i programmatori dei videogame di qui fino all'eternità :sofico:
invece per far vedere quanto ce l'avevano lungo si sono evirati da soli [al che si ritorna allo stadio moncherino prenatale :fagiano: ] con impostazioni fuori dalla portata di chiunque...ovviamente esagero, ma è solo per fare capire che ne penso...meditate gente meditate :D
appleroof
31-05-2008, 14:53
cut
Beh, qui bisgnerebbe fare un distinguo. Diciamo che la potenza garantita già nella fascia 150-250€ è più che sufficiente per i giochi attuali, e ti dò perfettamente ragione.
Però RV770, se le performances fossero quelle ventilate finora, anche seguendo il tuo ragionamento, avrebbe "più senso" di GT200.
Se RV770Pro=G92 nella versione più potente (9800GTX), non ci sarebbe più alcun motivo per scegliere una vga NVidia in quel range di prezzo, a meno che non si scenda sotto i 150€, dove la 9600GT può dire la sua. E questo, nella fascia di prezzo col miglior rapporto qualità prezzo, ha molto più senso che avere la vga più figa del mondo che costa 649$. ;)
rispondo a questo perchè hai editato dopo
fai sempre lo stesso identico errore: parli solo del rapporto prezzo/prestazioni
all'epoca quando presi la 8800gtx a 600€ c'erano decine di schede che costavano 1/4 e andavano benissimo eppure la presi, per una volta volevo il massimo assoluto
per le top il senso non lo troverai mai, non so come fartelo capire, ammesso che tu voglia capire
appleroof
31-05-2008, 14:54
Già , sicuramente ti servirà a molto ; come ti è già servito per le G80 ..
bè, almeno adesso hanno acquisito Ageia e ne hanno tradotto il motore via cuda, prima no
non penso spendano milioni di dollari per abbndonare una feature, almeno questo dà più chance di vederlo implementato nei giochi, ti pare? ;)
DriftKing
31-05-2008, 14:55
Già , sicuramente ti servirà a molto ; come ti è già servito per le G80 ..
:asd:
DriftKing
31-05-2008, 14:57
bè, almeno adesso hanno acquisito Ageia e ne hanno tradotto il motore via cuda, prima no
non penso spendano milioni di dollari per abbndonare una feature, almeno questo dà più chance di vederlo implementato nei giochi, ti pare? ;)
il fatto che l'nvidia abbia comprato l'ageia e abbia implementato qualcosa nelle sue vga nn conta piu di tanto ... imho ... tutto dipende dalle SH ... se loro nn utilizzeranno quelle possibilita ... nn serve a nulla ...
Mister Tarpone
31-05-2008, 14:59
il fatto che l'nvidia abbia comprato l'ageia e abbia implementato qualcosa nelle sue vga nn conta piu di tanto ... imho ... tutto dipende dalle SH ... se loro nn utilizzeranno quelle possibilita ... nn serve a nulla ...
proprio per questo penso che in futuro servirà :asd:
nvidia + le varie software house già adesso = :smack:
appleroof
31-05-2008, 15:00
il fatto che l'nvidia abbia comprato l'ageia e abbia implementato qualcosa nelle sue vga nn conta piu di tanto ... imho ... tutto dipende dalle SH ... se loro nn utilizzeranno quelle possibilita ... nn serve a nulla ...
infatti, ma se alcuni giochi supportavano Ageia quando in giro c'erano tre schede in croce, perchè mai adesso dovrebbero smettere quando è supportato da migliaia di schede (ageia via cuda và anche sulla serie 8xxx e 9xxx)?
DriftKing
31-05-2008, 15:04
il fatto che la supportavano nn dice nulla ... che guadagni c'erano?
e questo il punto ... anche se ora da parte di nvidia c'e una maggiore offerta di queste potenzialita ... dipende dalle SH falle supportare dai giochi ... e x supportare intendo dire che ci deve essere un guadagno in performance visibile ... ed apprezzabile ...
-noxius-
31-05-2008, 15:10
il fatto che la supportavano nn dice nulla ... che guadagni c'erano?
e questo il punto ... anche se ora da parte di nvidia c'e una maggiore offerta di queste potenzialita ... dipende dalle SH falle supportare dai giochi ... e x supportare intendo dire che ci deve essere un guadagno in performance visibile ... ed apprezzabile ...
Vedo che hai colto il punto ;)
appleroof
31-05-2008, 15:11
il fatto che la supportavano nn dice nulla ... che guadagni c'erano?
e questo il punto ... anche se ora da parte di nvidia c'e una maggiore offerta di queste potenzialita ... dipende dalle SH falle supportare dai giochi ... e x supportare intendo dire che ci deve essere un guadagno in performance visibile ... ed apprezzabile ...
le ppu non servivano per far più fps, ma per implementare effetti fisici avanzati altrimenti non gestibili dalle cpu, quindi non incrementano alcuna prestazione: se c'è la ppu vedi effetti che se non c'è non vedi
in effetti intendevo very high shader. infatti ho postato quello screen apposta.
:doh: ti abbiamo frainteso tutti.... :D
CUT...
Però che non mi si venga a dire (e/o implicitamente farlo credere) che le GTX280 faranno 50-60fps, altrimenti si fa "disinformazione", come altri direbbero. :D
CUT...
Quoto
CMQ,secondo me per quella che è l'attuale fase del mercato informatico occorrerebbe che gli utenti valutassero l'acquisto di una VGA tenendo conto del proprio budget e valutando la cosa in strettissima relazione con il proprio monitor...:Comperare una GTX280 se si dispone di un pannello la cui massima risoluzione è 1280*1024 e/o 1440*900 non ha alcun senso...stesso cosa dicasi per la controparte ATI...; ovviamente associerei una VGA medio-alta a pannelli di risoluzione maggiori e così via....
Una 3870/9600GT ti consente di giocare senza alcun compromesso a tutti titoli...sino a 1280*1024..quindi diverrebbe più "sensato" comperare una VGA in funzione delle performance con il proprio monitor piuttosto che delle performance stesse...
DriftKing
31-05-2008, 15:14
le ppu non servivano per far più fps, ma per implementare effetti fisici avanzati altrimenti non gestibili dalle cpu, quindi non incrementano alcuna prestazione: se c'è la ppu vedi effetti che se non c'è non vedi
sicuro? davvero li vedi? io personalmente nn li ho mai notati ... qualche video comparativo?
Mister Tarpone
31-05-2008, 15:16
CMQ,secondo me per quella che è l'attuale fase del mercato informatico occorrerebbe che gli utenti valutassero l'acquisto di una VGA tenendo conto del proprio budget e valutando la cosa in strettissima relazione con il proprio monitor...:Comperare una GTX280 se si dispone di un pannello la cui massima risoluzione è 1280*1024 e/o 1440*900 non ha alcun senso...stesso cosa dicasi per la controparte ATI...; ovviamente associerei una VGA medio-alta a pannelli di risoluzione maggiori e così via....
Una 3870/9600GT ti consente di giocare senza alcun compromesso a tutti titoli...sino a 1280*1024..quindi diverebbe più "sensato" comperare una VGA in un funzione delle performance con il proprio monitor piuttosto che delle performance stesse...
quoto tutto al 100%...
DriftKing
31-05-2008, 15:18
CMQ,secondo me per quella che è l'attuale fase del mercato informatico occorrerebbe che gli utenti valutassero l'acquisto di una VGA tenendo conto del proprio budget e valutando la cosa in strettissima relazione con il proprio monitor...:Comperare una GTX280 se si dispone di un pannello la cui massima risoluzione è 1280*1024 e/o 1440*900 non ha alcun senso...stesso cosa dicasi per la controparte ATI...; ovviamente associerei una VGA medio-alta a pannelli di risoluzione maggiori e così via....
Una 3870/9600GT ti consente di giocare senza alcun compromesso a tutti titoli...sino a 1280*1024..quindi diverebbe più "sensato" comperare una VGA in un funzione delle performance con il proprio monitor piuttosto che delle performance stesse...
certo ... ma imho c'e da tenere conto anche dei giochi che ci sono/saranno in giro ... se una vga da 170e mi fa giocare al max a tutto ... e all'orizonte nn ci sono Titoloni ... xche spendere il triplo x un mostro come gtx280/260/4870x2?
p.s. questo discorso che facciamo pero e gia stato ampiamente discusso ...
Il problema è che è difficile teorizzare quali saranno le performance della propria VGA con i titoli futuri....puoi ipotizzare ma non esserne certo..ad esempio se la gran parte dei game futuri utilizzassero l' UNREAL ENGINE3 e le sue customizzazione con un monitor 1280*1024 una 9600gt sarebbe soddisfacente...ma non so quali saranno le performance della VGA in oggetto con il DuniaEngine di FARCRY2 etc etc..
Ci vuole anche un pochetto di fortuna...:)
L'ebbero quelli che acquistarono a suo tempo R520/580 :performano ancora benissimo (in particolare con UE3) ..
L'hanno avuta quelli che hanno comperato G80 e derivati...:non c'è titolo che crei problemi anche a 1650*1080 (con 8800/9800 in tutte le salse)..
Mister Tarpone
31-05-2008, 15:43
io ipotizzo che con schede come 3870,9600GT,2900xt e GTS G80 (tutte simili come performance) Far Cry 2 performerà bene a 1280x1024...
con le schede superiori a queste (dalla 88GT in su) probabilmente pure a 1680x1050...
poi vedremo...ma visto che questo gioco sarà sviuppato anche per console, ne sono abb. sicuro... :sperem:
sommojames
31-05-2008, 15:45
Sono nuovo del thread, esorisco con una domanda che sicuramente non è mai stata fatta :asd:
Quando escono? :sofico:
EDIT: Mi sono risposto da solo controllando su Fudzilla, terza settimana di giugno + o -
halduemilauno
31-05-2008, 15:50
Sono nuovo del thread, esorisco con una domanda che sicuramente non è mai stata fatta :asd:
Quando escono? :sofico:
EDIT: Mi sono risposto da solo controllando su Fudzilla, terza settimana di giugno + o -
sempre il 17 giugno.
sommojames
31-05-2008, 15:56
sempre il 17 giugno.
Ok, grazie per la precisazione. Leggevo 600 euro per il modello di punta, secondo voi vuol dire 600 euro in Italia?
ho una tremenda curiosità di vedere rv770 all'opera con crysis (e sopratutto rv770x2) perchè finora se le schede Nvidia soffrono con crysis, quelle Amd piangono proprio (ma tanto costano poco :asd: :asd: )
questo se ritieniamo crysis un vero indicatore delle performance di una vga (ad esempio perchè rappresenta la tendenza degli altri giochi, come giustamente detto)
in caso contrario, se cioè non lo ritieniamo tale, sono tutte parole al vento ed è lo stesso che discutere del tempo.
Magari RV770 a 1280x1024 avrà buone prestazioni anche con l'AA..
Finora il Crossfire in Crysis scala molto male se non sbaglio, speriamo che nuovi driver permettano un guadagno prestazionale serio per R700...
Io comunque non userei il Cryengine 2 come valore di riferimento per le prestazioni di una scheda. Imho entro fine 2008 e nel 2009 ci saranno motori più potenti o al livello del Cryengine 2 (Alan Wake, Dunia, Stalker:CS) e con prestazioni anche migliori.
mircocatta
31-05-2008, 16:02
:doh: ti abbiamo frainteso tutti.... :D
Quoto
CMQ,secondo me per quella che è l'attuale fase del mercato informatico occorrerebbe che gli utenti valutassero l'acquisto di una VGA tenendo conto del proprio budget e valutando la cosa in strettissima relazione con il proprio monitor...:Comperare una GTX280 se si dispone di un pannello la cui massima risoluzione è 1280*1024 e/o 1440*900 non ha alcun senso...stesso cosa dicasi per la controparte ATI...; ovviamente associerei una VGA medio-alta a pannelli di risoluzione maggiori e così via....
Una 3870/9600GT ti consente di giocare senza alcun compromesso a tutti titoli...sino a 1280*1024..quindi diverrebbe più "sensato" comperare una VGA in funzione delle performance con il proprio monitor piuttosto che delle performance stesse...
io ho uno schermo che al massimo è 1440x900.
se anche far cry2 andrà come crysis, allora il mio portafoglio dovrà tremare perchè una gtx280 è dobbligo! :asd:
io ho uno schermo che al massimo è 1440x900.
se anche far cry2 andrà come crysis, allora il mio portafoglio dovrà tremare perchè una gtx280 è dobbligo! :asd:
i giochi futuri per pc saranno tuti multipiattaforma il che vuol dire che saranno sicuramente piu leggeri di crysis perche sfido io a far girare il cry engine 2.0 su una console
i giochi futuri per pc saranno tuti multipiattaforma il che vuol dire che saranno sicuramente piu leggeri di crysis perche sfido io a far girare il cry engine 2.0 su una console
Girare....gira :ciapet:
Anche se a me non piacciono gli slide show :stordita:
Mister Tarpone
31-05-2008, 16:10
i giochi futuri per pc saranno tuti multipiattaforma il che vuol dire che saranno sicuramente piu leggeri di crysis perche sfido io a far girare il cry engine 2.0 su una console
esatto... ;)
non c'è titolo multipiattola che non giri bene già su un pc come il mio... e ripeto, credo sarà così anche per il nuovo far cry.... ;)
avevo dei dubbi + per Stalker:CS... ma provando quella specie di demo ho visto che pure questo a 1280x gira bene... quindi.. ;)
mircocatta
31-05-2008, 16:12
i giochi futuri per pc saranno tuti multipiattaforma il che vuol dire che saranno sicuramente piu leggeri di crysis perche sfido io a far girare il cry engine 2.0 su una console
io considero poi che forse devo cambiare monitor in sala (il mio povero ctr fa brutti scherzi :( ), e ci passo il mio attuale (che tra l'altro ha un pixel corrotto:mad: ) e mi prendo sempre un samsung ma stavolta 20 pollici a 1680x1xxx (da 19 a 1440x900 :asd: ) che avendo la risoluzione più alta vuol dire che è parecchio più definito e denso di pixel (visto che sono grandi quasi uguali)...
e non credo che la mia 8800gt mi permetterà di giocare sempre al massimo con filtri a 1680x1xxx
halduemilauno
31-05-2008, 16:16
Ok, grazie per la precisazione. Leggevo 600 euro per il modello di punta, secondo voi vuol dire 600 euro in Italia?
sono 649$ negli USA. da noi salvo speculazioni dei primi/primissimi giorni credo intorno ai 570€. si deve pur tener conto che non solo è la nr1 ma che non ha concorrenza. insieme sarà presentata la gtx260 a 449$.
proprio per questo penso che in futuro servirà :asd:
nvidia + le varie software house già adesso = :smack:
E credi davvero che Intel (che ha acquisito Havok) lascerà andare la situazione (soprattutto pensando ai suoi piani in ambito gpgpu e gpu)? :Perfido:
Finchè non ci sarà un set unico ed univoco di istruzioni la fisica nei giochi non decollerà mai e poi mai (così come non è mai decollato nessuno o quasi standard non implementato da tutti i produttori di vga).
Ecco perchè credo che le DX11, oltre alla famosa tessellation (che dovrebbe essere certa, ne ha parlato pure NVidia) penso che implementeranno qualcosa del genere. ;)
appleroof
31-05-2008, 16:18
sicuro? davvero li vedi? io personalmente nn li ho mai notati ... qualche video comparativo?
non li hai notati forse perchè non hai una scheda Ageia? :stordita: :rolleyes:
per video vari esiste un potente strumento in giro da qualche anno, sulla rete :google :D ;)
Magari RV770 a 1280x1024 avrà buone prestazioni anche con l'AA..
Finora il Crossfire in Crysis scala molto male se non sbaglio, speriamo che nuovi driver permettano un guadagno prestazionale serio per R700...
Io comunque non userei il Cryengine 2 come valore di riferimento per le prestazioni di una scheda. Imho entro fine 2008 e nel 2009 ci saranno motori più potenti o al livello del Cryengine 2 (Alan Wake, Dunia, Stalker:CS) e con prestazioni anche migliori.
speriamo: è anche il periodo in cui intendo cambiare vga :)
appleroof
31-05-2008, 16:21
E credi davvero che Intel (che ha acquisito Havok) lascerà andare la situazione (soprattutto pensando ai suoi piani in ambito gpgpu e gpu)? :Perfido:
Finchè non ci sarà un set unico ed univoco di istruzioni la fisica nei giochi non decollerà mai e poi mai (così come non è mai decollato nessuno o quasi standard non implementato da tutti i produttori di vga).
Ecco perchè credo che le DX11, oltre alla famosa tessellation (che dovrebbe essere certa, ne ha parlato pure NVidia) penso che implementeranno qualcosa del genere. ;)
aridaje....ma sei de coccio? Eppure quando qualcosa ti interessa ti informi bene...
Il software PhysX è attualmente utilizzato in più di 140 titoli per PC, PlayStation 3, Xbox 360 e Wii.
semmai è il contrario: è ageia a non essere decollata come scheda ppu in sè
Mister Tarpone
31-05-2008, 16:24
E credi davvero che Intel (che ha acquisito Havok) lascerà andare la situazione (soprattutto pensando ai suoi piani in ambito gpgpu e gpu)? :Perfido:
Finchè non ci sarà un set unico ed univoco di istruzioni la fisica nei giochi non decollerà mai e poi mai (così come non è mai decollato nessuno o quasi standard non implementato da tutti i produttori di vga).
Ecco perchè credo che le DX11, oltre alla famosa tessellation (che dovrebbe essere certa, ne ha parlato pure NVidia) penso che implementeranno qualcosa del genere. ;)
aridaje....ma sei de coccio? Eppure quando qualcosa ti interessa ti informi bene...
Il software PhysX è attualmente utilizzato in più di 140 titoli per PC, PlayStation 3, Xbox 360 e Wii.
semmai è il contrario: è ageia a non essere decollata come scheda ppu in sè
eh eh eh eh :Perfido:
e adesso come la mettiamo ???? :Perfido:
:Perfido:
aridaje....ma sei de coccio? Eppure quando qualcosa ti interessa ti informi bene...
Il software PhysX è attualmente utilizzato in più di 140 titoli per PC, PlayStation 3, Xbox 360 e Wii.
semmai è il contrario: è ageia a non essere decollata come scheda ppu in sè
140 su quanti? :)
E quanti usano Ageia per gli effetti ma non supportano bene le ppu (perchè sono solo quelli che giravano bene con la PhysX che presumibilmente sfrutteranno le vga NVidia per la fisica)?
A me inoltre risulta che il supporto hardware di PhysX lasciasse molto a desiderare... Posto un l'ultimo intervento sul thread ufficiale delle Ageia (ed è di uno che la ppu ce l'ha, quindi non ha motivo di parlarne male).
http://www.hwupgrade.it/forum/showpost.php?p=22619226&postcount=4101
Decollare = essere universalmente riconosciuto come lo standard di fatto.
Quanti giochi usano le vga per la fisica finora? Zero.
A me non sembra decollata un granchè.
Quanti giochi useranno le vga per la fisica in futuro? Penso parecchi, ma fino a quando solo un produttore di vga avrà il supporto a una tale tecnologia, mi sa che non saranno in tantissimi a supportare certe features...
Cos'è, se NVidia non supporta le DX10.1, che sono di fatto uno standard, le DX10.1 non servono ad una ceppa. Se NVidia invece (da sola, con Intel contro) supporta la fisica con uno dei tanti modi possibili, sicuramente diventerà uno standard e la cosa più figa del mondo? :stordita:
Ti ripeto: credi davvero che Intel accetterà lo status quo e pagherà una royalty a NVidia per poter supportare Ageia? :sbonk:
Nessuno sta dicendo che Nvidia abbia fatto male ad acquisire un'azienda già affermata nel campo, anzi, ha fatto molto bene, imho: le serviva del know-how nel campo.
Molto semplicemente però tutti presto o tardi supporteranno la fisica in una modalità concordata e probabilmente inserita nelle prossime DX: nel frattempo la fisica sarà una feature sicuramente utile, ma dall'applicabilità nell'immediato discutibile, proprio come le DX10.1. ;)
appleroof
31-05-2008, 16:50
140 su quanti? :)
E quanti usano Ageia per gli effetti ma non supportano bene le ppu (perchè sono solo quelli che giravano bene con la PhysX che presumibilmente sfrutteranno le vga NVidia per la fisica)?
A me inoltre risulta che il supporto hardware di PhysX lasciasse molto a desiderare... Posto un l'ultimo intervento sul thread ufficiale delle Ageia (ed è di uno che la ppu ce l'ha, quindi non ha motivo di parlarne male).
http://www.hwupgrade.it/forum/showpost.php?p=22619226&postcount=4101
Decollare = essere universalmente riconosciuto come lo standard di fatto.
Quanti giochi usano le vga per la fisica finora? Zero.
A me non sembra decollata un granchè.
Quanti giochi useranno le vga per la fisica in futuro? Penso parecchi, ma fino a quando solo un produttore di vga avrà il supporto a una tale tecnologia, mi sa che non saranno in tantissimi a supportare certe features...
Cos'è, se NVidia non supporta le DX10.1, che sono di fatto uno standard, le DX10.1 non servono ad una ceppa. Se NVidia invece (da sola, con Intel contro) supporta la fisica con uno dei tanti modi possibili, sicuramente diventerà uno standard e la cosa più figa del mondo? :stordita:
Ti ripeto: credi davvero che Intel accetterà lo status quo e pagherà una royalty a NVidia per poter supportare Ageia? :sbonk:
Nessuno sta dicendo che Nvidia abbia fatto male ad acquisire un'azienda già affermata nel campo, anzi, ha fatto molto bene, imho: le serviva del know-how nel campo.
Molto semplicemente però tutti presto o tardi supporteranno la fisica in una modalità concordata e probabilmente inserita nelle prossime DX: nel frattempo la fisica sarà una feature sicuramente utile, ma dall'applicabilità nell'immediato discutibile, proprio come le DX10.1. ;)
ridi ridi, ma continui a non far bene i compitini :nonsifa:
AGEIA Technologies, la nota azienda impegnata nello sviluppo di soluzioni hardware per la simulazione della fisica nei videogiochi, ha annunciato oggi di aver reso disponibili gratuitamente per tutti le SDK PhysX. In questo modo chiunque avrà la possibilità di utilizzare i tool di sviluppo forniti da AGEIA e le componenti runtime in prodotti commerciali e non commerciali, senza dover versare alcuna royalty.
anche l'havok di Intel sarà gratuito per la stessa ragione
inoltre, se un gioco implementa phisix, una vga non Nvidia è cmq in grado di farlo funzionare questo toglie ogni dubbio ad un finanziatore se implementarlo o meno (ammesso che dia un valore aggiunto al gioco) perchè non si taglia grosse fette di mercato
ora, io non dico che da domani tutti i giochi in giro supporteranno Phisix (anche Havok è molto diffuso ed ottimo) ma capisci che è un valore aggiungto non da poco, che un'azienda non spende milioni di dollari se non crede di averne vantaggio (proprio tu che sei così economista :asd: )
se Intel e Nvidia (non certo fanfulla s.rl. e fratelli rossi s.n.c.) si muovono in questo senso, o sono delle onlus (tanto dx11 imporrà il suo standard :rolleyes: ) oppure c'è qualcosa che non ti torna, mi pare (forse che Ati non ha la sua proposta? :asd: )
p.s.: le vga non supportano la fisica perchè non ce la fanno ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.