View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280
ma stiamo parlando della fascia alta?di quella che farà girare crysis come si deve :D? se si, quanto costerà?(mi sembra di aver letto 400 euro)
gtx 280 costerà anche 5-600€ :asd:
Io direi al lancio se va bene sui 600 €, ma forse anche un po' di più. ;)
Se farà girare Crysis ce lo diranno solo i bench, ci sono troppe schede fino ad ora che sulla carta dovevano farlo girare bene, ma per ora non mi sembra di aver visto nulla nella realtà. :rolleyes:
azz + 600...va beh, fino ai 500 scende sicuro, ma la gt200 di fascia alta sarebbe la 9900gtx?, scusate ma non ci sto + dietro ed ho le idee abbastanza confuse :(
Mister Tarpone
17-05-2008, 14:44
ma praticamente GTX 280 corrisponderebbe alla top gamma... GTX 260 alla medio alta... e GTX 240 alla media???
:confused:
mircocatta
17-05-2008, 14:55
ma praticamente GTX 280 corrisponderebbe alla top gamma... GTX 260 alla medio alta... e GTX 240 alla media???
:confused:
aspetta, sono top medio alta e media tra la fascia alta però:sofico:
già che la gtx240 sarà meglio della 9800gx2 chiamarla di fascia media è impossibile :asd:
Mister Tarpone
17-05-2008, 14:58
ho capit...
quindi dopo uscirà pure un GTX200:
10600GT :sborone:
ed anche un GTX220: 10800GS....
aspetta, sono top medio alta e media tra la fascia alta però:sofico:
già che la gtx240 sarà meglio della 9800gx2 chiamarla di fascia media è impossibile :asd:
Beh non esageriamo. :)
Mister Tarpone
17-05-2008, 14:59
Beh non esageriamo. :)
:)
Difficile che la presunta GTX240 possa superare una 9800GX2...
però già la 260 la supererà... ;)
scommettiamo?? ;)
;)
halduemilauno
17-05-2008, 15:05
ma praticamente GTX 280 corrisponderebbe alla top gamma... GTX 260 alla medio alta... e GTX 240 alla media???
:confused:
GTX= enthusiast.
GTS= performance.
GT = mainstream.
GS= value o entry level.
;)
-noxius-
17-05-2008, 15:06
:)
però già la 260 la supererà... ;)
scommettiamo?? ;)
;)
Perderesti in partenza , sarà comunque leggermente inferiore ma ''supererà'' francamente è troppo . E' pure sempre uno SLI di GTS 512 quindi dire che una 260 con 190 SP andrà meglio di 2 GTS con 128 sp l'una mi sembra troppo azzardato ;) .
halduemilauno
17-05-2008, 15:08
ma stiamo parlando della fascia alta?di quella che farà girare crysis come si deve :D? se si, quanto costerà?(mi sembra di aver letto 400 euro)
399$ la gtx 260 e 499$ la gtx 280. quindi tenendo conto delle speculazioni e del resto...ma anche del mercato...
;)
halduemilauno
17-05-2008, 15:09
:)
però già la 260 la supererà... ;)
scommettiamo?? ;)
;)
no io no.
;)
Mister Tarpone
17-05-2008, 15:13
Perderesti in partenza , sarà comunque leggermente inferiore ma ''supererà'' francamente è troppo . E' pure sempre uno SLI di GTS 512 quindi dire che una 260 con 190 SP andrà meglio di 2 GTS con 128 sp l'una mi sembra troppo azzardato ;) .
dici???
una singola gpu da 190sp e bus 512 è facile vada quanto o anche leggermente meglio di una GX2 ....
poi vediamo.... :boh:
Mister Tarpone
17-05-2008, 15:14
no io no.
;)
:confused:
xchè l'ho sparata grossa?? o mi dai ragione??
non ho capito Hal :mc:
halduemilauno
17-05-2008, 15:18
:confused:
xchè l'ho sparata grossa?? o mi dai ragione??
non ho capito Hal :mc:
alla tua domanda "scommettiamo?"
;)
Mister Tarpone
17-05-2008, 15:19
alla tua domanda "scommettiamo?"
;)
eh...
quindi pensi che sarà inferiore...:confused:
halduemilauno
17-05-2008, 15:33
eh...
quindi pensi che sarà inferiore...:confused:
TU
la supererà scommettiamo?
IO
no io no.
;)
Mister Tarpone
17-05-2008, 15:34
TU
la supererà scommettiamo?
IO
no io no.
;)
perfetto :)
perdonami ma sono proprio rinco... oggi.. :asd:
halduemilauno
17-05-2008, 15:38
perfetto :)
perdonami ma sono proprio rinco... oggi.. :asd:
:mano:
cmq...
http://img.clubic.com/photo/01301666.jpg
una GTX280 ha(avrebbe)ottenuto 13357.
;)
ps tanto non ci vede nessuno teniamocelo per noi.
-noxius-
17-05-2008, 15:41
:mano:
cmq...
http://img.clubic.com/photo/01301666.jpg
una GTX280 ha(avrebbe)ottenuto 13357.
;)
ps tanto non ci vede nessuno teniamocelo per noi.
Se permetti non c'era nessun motivo per far pensare che quel risultato fosse veritiero nemmeno alla lontana , si è persino sbagliato ad omettere totalmente la risoluzione :rolleyes: . Sulla stessa base allora potrei dire che una 4870x2 fa 1.000.000 di punti , ovviamente a 2560x1604 .
Certo mi sembra strano però che 1 mese prima ancora non si sappia nulla in merto alle performance , nemmeno un'ombra di chiò che effettivamente sarà .. Computex verso gli inizio di giugno, giusto ?
halduemilauno
17-05-2008, 15:42
http://vr-zone.com/articles/GT200_is_GeForce_GTX_200_Series/5778.html
Nvidia has informed their partners about the change in naming for the upcoming GT200 series today. Previously, the marketing name for GT200 is GeForce 9900 series when launched but now it has been changed to GeForce GTX 200 series. GeForce 9900 GTX is now GeForce GTX 280 and GeForce 9900 GTS is now GeForce GTX 260. Nvidia has decided to launch them slightly earlier to coincide with RV770 launch which is around third week of June. However, Nvidia plans to show the GeForce GTX 280 card behind doors at Computex.
;)
mircocatta
17-05-2008, 15:54
domanda importante:
che differenza c'è (in percentuale) NEI GIOCHI tra gt280 sulla mia configurazione (q6600 a 3ghz e ddr2) e gt280 su un quad core penryn o nehamel a 3ghz con ddr3???
sarebbe interessante anche per il futuro...se le differenze passano il 15% bisogna farci un pensierino..
ripeto: nei giochi, non superpi o altro... visto che spesso e volentieri la differenza la fa solo la scheda video...il resto deve servire solamente per supportare e non fare collo da bottiglia per la vga (difatti credo che la mia cofigurazione per ora non lo sia..)
halduemilauno
17-05-2008, 16:01
Se permetti non c'era nessun motivo per far pensare che quel risultato fosse veritiero nemmeno alla lontana , si è persino sbagliato ad omettere totalmente la risoluzione :rolleyes: . Sulla stessa base allora potrei dire che una 4870x2 fa 1.000.000 di punti , ovviamente a 2560x1604 .
Certo mi sembra strano però che 1 mese prima ancora non si sappia nulla in merto alle performance , nemmeno un'ombra di chiò che effettivamente sarà .. Computex verso gli inizio di giugno, giusto ?
ti stai confondendo con un'altro score.
Mister Tarpone
17-05-2008, 16:05
ps tanto non ci vede nessuno teniamocelo per noi.
:Perfido: :D
-noxius-
17-05-2008, 16:06
ti stai confondendo con un'altro score.
Mi sa che erano i 21k al 3dmark06 .. ad ogni modo qual'è la fonte di questi 13k al vantage ?
halduemilauno
17-05-2008, 16:08
Mi sa che erano i 21k al 3dmark06 .. ad ogni modo qual'è la fonte di questi 13k al vantage ?
se fossi stato più umile e più attento lo sapresti gia.
-noxius-
17-05-2008, 16:09
se fossi stato più umile e più attento lo sapresti gia.
Umile ? Ma cosa centra ? :doh:
Perdonami se non passo una vita qui davanti e se non mi segno ogni singola fonte di quello che esce sulla rete :rolleyes: .. va bene, lascia peredere .
halduemilauno
17-05-2008, 16:12
Umile ? Ma cosa centra ? :doh:
Perdonami se non passo una vita qui davanti e se non mi segno ogni singola fonte di quello che esce sulla rete :rolleyes: .. va bene, lascia peredere .
Se permetti non c'era nessun motivo per far pensare che quel risultato fosse veritiero nemmeno alla lontana , si è persino sbagliato ad omettere totalmente la risoluzione :rolleyes: . Sulla stessa base allora potrei dire che una 4870x2 fa 1.000.000 di punti , ovviamente a 2560x1604 .
Certo mi sembra strano però che 1 mese prima ancora non si sappia nulla in merto alle performance , nemmeno un'ombra di chiò che effettivamente sarà .. Computex verso gli inizio di giugno, giusto ?
*
halduemilauno
17-05-2008, 16:29
http://img204.imageshack.us/img204/9743/gtx200seriesspecnnfx571ve4.png
;)
Mister Tarpone
17-05-2008, 16:32
448bit :confused:
beh... mica male anche il gtx 260 :eek: ;)
physX ready :confused: :eek:
http://img204.imageshack.us/img204/9743/gtx200seriesspecnnfx571ve4.png
;)
Quindi niente DX10.1. :rolleyes:
Però almeno è PhysX Ready. :D
kAL-eL88
17-05-2008, 16:34
http://img204.imageshack.us/img204/9743/gtx200seriesspecnnfx571ve4.png
;)
hal, ma tu pensi che comunque visti quei prezzi di listino riusciremo a mettere le mani su ste gtx280 per 450-500 euro al lancio???:eek:
hal, ma tu pensi che comunque visti quei prezzi di listino riusciremo a mettere le mani su ste gtx280 per 450-500 euro al lancio???:eek:
Non sono hal, ma credo di saper rispondere a questa :D
Se il prezzo di lancio é $499, come solito nei negozi italiani dovrete accontentarvi di un prezzo vicino ai 480 euro.
Per poi calare sui 400 dopo 2 settimane circa.
Idem per le ATi.
kAL-eL88
17-05-2008, 16:40
Non sono hal, ma credo di saper rispondere a questa :D
Se il prezzo di lancio é $499, come solito nei negozi italiani dovrete accontentarvi di un prezzo vicino ai 480 euro.
Per poi calare sui 400 dopo 2 settimane circa.
Idem per le ATi.
thanks....se hai ragione e la prendo due settimane dopo a quel prezzo toccherà pagarti da bere!!!!!!!!!!!!!!!1:D :D
halduemilauno
17-05-2008, 16:42
hal, ma tu pensi che comunque visti quei prezzi di listino riusciremo a mettere le mani su ste gtx280 per 450-500 euro al lancio???:eek:
il 50% in + rispetto alla 9800gx2 credo che lo facciano ben pagare. no credo almeno all'inizio sui 520/530€. poi anche per meglio contrastare la 4870x2 calerà. ma toccherà sempre vedere in quel momento il confronto diretto.
;)
halduemilauno
17-05-2008, 16:43
448bit :confused:
beh... mica male anche il gtx 260 :eek: ;)
physX ready :confused: :eek:
e si 448. per la terza si parlava del 384.
;)
Non sono hal, ma credo di saper rispondere a questa :D
Se il prezzo di lancio é $499, come solito nei negozi italiani dovrete accontentarvi di un prezzo vicino ai 480 euro.
Per poi calare sui 400 dopo 2 settimane circa.
Idem per le ATi.
il 50% in + rispetto alla 9800gx2 credo che lo facciano ben pagare. no credo almeno all'inizio sui 520/530€. poi anche per meglio contrastare la 4870x2 calerà. ma toccherà sempre vedere in quel momento il confronto diretto.
;)
Ma ndo li vedete sti prezzi al lancio? Io ho sempre visto 600 o addirittura 700 euro al lancio di schede top di gamma, mai visti sti 500. :mbe:
Magari fosse così cavolo.
Se sapete i posti dove trovare ste schede a sti prezzi vi prego di pmmarmeli, se non vi dispiace. :stordita:
Mister Tarpone
17-05-2008, 16:50
e si 448. per la terza si parlava del 384.
;)
azz......quindi per un modello GT...
GTX 512bit
GTS 448bit
GT 384bit...
mazza... lo schemino con le nuove nvidia che feci -fantasticando- pagine fa si sta avverando veramente... :eek: :asd:
halduemilauno
17-05-2008, 16:55
azz......quindi per un modello GT...
GTX 512bit
GTS 448bit
GT 384bit...
mazza... lo schemino con le nuove nvidia che feci -fantasticando- pagine fa si sta avverando veramente... :eek: :asd:
non sei stato attento quelle son tutte GTX.
GTX 280 512 bit.
GTX 260 448 bit.
GTX 240 384 bit.(ipotetica).
;)
Mister Tarpone
17-05-2008, 16:58
non sei stato attento quelle son tutte GTX.
GTX 280 512 bit.
GTX 260 448 bit.
GTX 240 384 bit.(ipotetica).
;)
ma non era meglio un GTX 280 GTS 260 e GT 240??? :mc: :muro: :muro:
e scusa quante GTX ci devono essere??? :muro: :muro: :muro:
halduemilauno
17-05-2008, 17:00
ma non era meglio un GTX 280 GTS 260 e GT 240??? :mc: :muro: :muro:
e scusa quante GTX ci devono essere??? :muro: :muro: :muro:
ma allora non hai capito lo schemino?
GTX= enthusiast.
GTS= performance.
GT = mainstream.
GS= value o entry level.
;)
chiaro ora?
;)
ma allora non hai capito lo schemino?
chiaro ora?
;)
ma la gts sarebbe la gtx260?
halduemilauno
17-05-2008, 17:02
ma la gts sarebbe la gtx260?
:doh:
la "vecchia" 9900gts? si.
;)
DennY969
17-05-2008, 17:03
chiaro ora?
;)
Quindi come ci sono le GTX280, GTX260, GTX240, ci saranno anche GTS280, GTS240 e così via?
Mister Tarpone
17-05-2008, 17:03
ma allora non hai capito lo schemino?
chiaro ora?
;)
ho paura a risponderti.... :mc: :asd:
possibile che GTX 280, 260 e 240 fanno tutte parte della fascia alta??? ma quante ne fanno???
che dobbiamo aspettarci una fascia performance (gts) con altre 3 , 4 schede??? :confused:
Mister Tarpone
17-05-2008, 17:04
Quindi come ci sono le GTX280, GTX260, GTX240, ci saranno anche GTS280, GTS240 e così via?
appunto.... ma quante schede vengan fuori dopo....??
una 15ina??? :stordita:
ma non è un pò esagerata la cosa???
halduemilauno
17-05-2008, 17:05
Quindi come ci sono le GTX280, GTX260, GTX240, ci saranno anche GTS280, GTS240 e così via?
:yeah:
DennY969
17-05-2008, 17:05
ho paura a risponderti.... :mc: :asd:
possibile che GTX 280, 260 e 240 fanno tutte parte della fascia alta??? ma quante ne fanno???
che dobbiamo aspettarci una fascia performance (gts) con altre 3 , 4 schede??? :confused:
Anch'io ho questo dubbio :rolleyes:
Probabilmente poi non faranno per tutte le fasce 3 schede, ma solo una o al massimo 2...
DennY969
17-05-2008, 17:06
:yeah:
:asd:
EDIT: Ho fatto un casino :asd: volevo editare quello di prima....
appunto.... ma quante schede vengan fuori dopo....??
una 15ina??? :stordita:
ma non è un pò esagerata la cosa???
mi pare di aver capito gtx280=9900gtx
gtx260=9900gts
gtx240=9900gt
almeno spero halduemilauno e clone non fulminatemi se sbaglio
Mister Tarpone
17-05-2008, 17:07
:yeah:
se fossero 3 per ogni fascia vengan fuori 12 schede :asd:
halduemilauno
17-05-2008, 17:08
ho paura a risponderti.... :mc: :asd:
possibile che GTX 280, 260 e 240 fanno tutte parte della fascia alta??? ma quante ne fanno???
che dobbiamo aspettarci una fascia performance (gts) con altre 3 , 4 schede??? :confused:
ogni fascia(son 4)due massimo tre schede ma per una sola fascia. la norma due.
GTX280.
GTX260.
GTS280.
GTS260.
GT280.
GT260.
GS260.
GS240.
ecco può accadere che per esigenze una fascia abbia tre schede ad esempio la GTX240.
;)
kAL-eL88
17-05-2008, 17:08
Ma ndo li vedete sti prezzi al lancio? Io ho sempre visto 600 o addirittura 700 euro al lancio di schede top di gamma, mai visti sti 500. :mbe:
Magari fosse così cavolo.
Se sapete i posti dove trovare ste schede a sti prezzi vi prego di pmmarmeli, se non vi dispiace. :stordita:
più siti han parlato di 499 dollari come tetto massimo per la gtx 280....:read:
se fossero 3 per ogni fascia vengan fuori 12 schede :asd:
non le faranno mai 12 schede video, avrebbero prestazioni troppo simili dall'una all'altra
halduemilauno
17-05-2008, 17:09
mi pare di aver capito gtx280=9900gtx
gtx260=9900gts
gtx240=9900gt
almeno spero halduemilauno e clone non fulminatemi se sbaglio
:yeah:
chi è clone?
:yeah:
chi è clone?
c'è un tuo clone che si aggira per sto tread, si chiama come te........
comunque mi sa che alla nvidia stanno facendo troppe schede video per fascia.......mi sa che quasi tutti andranno su una gts280 a 380 euro (spero che sia quello il prezzo) e via non facendo vendere le gtx280.......staremo a vedere, ma la serie gts si sa quando esce?
Mister Tarpone
17-05-2008, 17:11
:yeah:
chi è clone?
si allora avevo detto giusto...
perchè quando ho detto della gt a 384bit volevo intendere una 9900GT con chip GTX 240..... . .. .. .
non mi fate confondereeeeeeeeeeeee :bsod:
DennY969
17-05-2008, 17:12
c'è un tuo clone che si aggira per sto tread, si chiama come te........
L'hanno già bannato :p
Comunque ora ho capito, è come pensavo dall'inizio.
Grazie ;)
halduemilauno
17-05-2008, 17:13
c'è un tuo clone che si aggira per sto tread, si chiama come te........
c'era. è stato bannato e l'utente che lo ha creato sospeso 7 giorni.
;)
ps non parliamo di loro.
halduemilauno
17-05-2008, 17:14
si allora avevo detto giusto...
perchè quando ho detto della gt a 384bit volevo intendere una 9900GT con chip GTX 240..... . .. .. .
non mi fate confondereeeeeeeeeeeee :bsod:
eri un pò confuso come ora che citi il chip GTX240. per la fascia GTX son tutti chip GT200.
;)
Mister Tarpone
17-05-2008, 17:16
eri un pò confuso come ora che citi il chip GTX240. per la fascia GTX son tutti chip GT200.
;)
basta.
ma il divario tra gts280 e gtx 280 sara molto? tipo tra 8800gtx e 8800gts 780?
Mister Tarpone
17-05-2008, 17:18
allora perchè hai messo :yeah: nel ragionamento di okorop??? che è identico al mio....
mi pare di aver capito gtx280=9900gtx
gtx260=9900gts
gtx240=9900gt
almeno spero halduemilauno e clone non fulminatemi se sbaglio
:yeah:
chi è clone?
eh eh eh eh eh eh eh eh eh e heh eheh e eh eh he heeh :fagiano:
halduemilauno
17-05-2008, 17:19
ma il divario tra gts280 e gtx 280 sara molto? tipo tra 8800gtx e 8800gts 780?
stiamo calmini. la gts280 ancora non esiste lo sarà in seguito. la 8800gts 780 questa non esiste di sicuro e mai lo sarà.
;)
halduemilauno
17-05-2008, 17:20
allora perchè hai messo :yeah: nel ragionamento di okorop??? che è identico al mio....
eh eh eh eh eh eh eh eh eh e heh eheh e eh eh he heeh :fagiano:
lui le combinazioni le ha azzeccate. tu no.
;)
Skullcrusher
17-05-2008, 17:20
ma il divario tra gts280 e gtx 280 sara molto? tipo tra 8800gtx e 8800gts 780?
Presumibilmente come tra GTX 768MB e GTS 640MB, ma mi sa che è un po' prestino per quantificare, meglio attendere il lancio, a metà giugno come si vocifera o a luglio o quando sarà :)
Appena c'è la conferma al 100% della data di lancio comincio a pianificare la vendita della GX2, come al solito, una settimana prima dell'uscita di quelle nuove :asd:
stiamo calmini. la gts280 ancora non esiste lo sarà in seguito. la 8800gts 780 questa non esiste di sicuro e mai lo sarà.
;)
ops 8800gts 640....comunque usciranno di sicuro in seguito, speriamo presto
halduemilauno
17-05-2008, 17:23
ops 8800gts 640....comunque usciranno di sicuro in seguito, speriamo presto
ok. cmq ben superiore.
;)
Mister Tarpone
17-05-2008, 17:23
lui le combinazioni le ha azzeccate. tu no.
;)
e invece si
mi pare di aver capito gtx280=9900gtx
gtx260=9900gts
gtx240=9900gt
almeno spero halduemilauno e clone non fulminatemi se sbaglio
si allora avevo detto giusto...
perchè quando ho detto della gt a 384bit volevo intendere una 9900GT con chip GTX 240..... . .. .. .
non mi fate confondereeeeeeeeeeeee :bsod:
quindi come dicevo prima...
9900GTX 512bit = GTX 280
9900GTS 448bit = GTX 260
9900GT 384bit = GTX 240
questo intendevo 2 pagine fa..... :) ;)
halduemilauno
17-05-2008, 17:25
e invece si
.
lo ripeto hai citato un chip, il gtx 240, che non esiste.
;)
più siti han parlato di 499 dollari come tetto massimo per la gtx 280....:read:
Daccordo per i dollari.
Io parlavo dei prezzi in italia, dov'è che le vedete a quei prezzi qui in Italia?
Se sono 499 $ qui in Italia saranno come minimo 600. :mbe:
Mister Tarpone
17-05-2008, 17:32
lo ripeto hai citato un chip, il gtx 240, che non esiste.
;)
lo sto costruendo io :tie:
... :asd:
non si ci sta capento più caxxo con queste nuove sigle,avessero lasciato le cose come stavano forse era meglio:rolleyes:,vabbè poi alla fine uno le identifica quasi subito ugualmente attraverso il prezzo:fagiano:
halduemilauno
17-05-2008, 17:35
non si ci sta capento più caxxo con queste nuove sigle,avessero lasciato le cose come stavano forse era meglio:rolleyes:,vabbè poi alla fine uno le identifica quasi subito ugualmente attraverso il prezzo:fagiano:
ma sono di una semplicità incredibile. prima ci si lamentava per l'attuale. non io ovviamente.
;)
halduemilauno
17-05-2008, 17:36
lo sto costruendo io :tie:
... :asd:
potevi dirlo prima.
;)
:mano:
cmq...
http://img.clubic.com/photo/01301666.jpg
una GTX280 ha(avrebbe)ottenuto 13357.
;)
ps tanto non ci vede nessuno teniamocelo per noi.
Pssst... i 13000 e passa erano su performance (all'inizio si pensava diversamente) e con un Penryn QX9650 occato (non si sa quanto, quindi già questo dovrebbe far riflettere).
Sul forum gente con un Q6600 occato a 3.6GHz e la GX2 ha fatto quasi 10,700 punti , altro che 8100. ;)
DriftKing
17-05-2008, 17:40
il 50% in + rispetto alla 9800gx2 credo che lo facciano ben pagare. no credo almeno all'inizio sui 520/530€. poi anche per meglio contrastare la 4870x2 calerà. ma toccherà sempre vedere in quel momento il confronto diretto.
;)
eh??? :mbe:
da dove uscito sto 50% in+???
Mercuri0
17-05-2008, 17:41
http://img204.imageshack.us/img204/9743/gtx200seriesspecnnfx571ve4.png
;)
Mi chiedo se il +50% si riferisce alla 9800GX2 o alla 9800GTX (che mi pare più probabile)
Sia nVidia che AMD promuoveranno "l'accelerazione fisica". Un gran bello specchietto per le allodole per entrambi :rolleyes:
Chissà se il 3dMark li appoggerà in questa presta in giro. Comunque suppongo che ogni nuova tecnologia nasca così :) , e tutto sommato non mi dispiace che "gli enthusiast" finanzino l'avanzamento tecnologico in questo campo. :asd:
appleroof
17-05-2008, 17:43
Mi chiedo se il +50% si riferisce alla 9800GX2 o alla 9800GTX (che mi pare più probabile)
Sia nVidia che AMD promuoveranno "l'accelerazione fisica". Un gran bello specchietto per le allodole per entrambi :rolleyes:
Chissà se il 3dMark li appoggerà in questa presta in giro. Comunque suppongo che ogni nuova tecnologia nasca così :) , e tutto sommato non mi dispiace che "gli enthusiast" finanzino l'avanzamento tecnologico in questo campo. :asd:
Per nvidia c'è l'acquisizione (e integrazione tramite driver) di Ageia
Mister Tarpone
17-05-2008, 17:46
Per nvidia c'è l'acquisizione (e integrazione tramite driver) di Ageia
eh eh eh .... hai detto niente ;)
halduemilauno
17-05-2008, 17:46
Mi chiedo se il +50% si riferisce alla 9800GX2 o alla 9800GTX (che mi pare più probabile)
Sia nVidia che AMD promuoveranno "l'accelerazione fisica". Un gran bello specchietto per le allodole per entrambi :rolleyes:
Chissà se il 3dMark li appoggerà in questa presta in giro. Comunque suppongo che ogni nuova tecnologia nasca così :) , e tutto sommato non mi dispiace che "gli enthusiast" finanzino l'avanzamento tecnologico in questo campo. :asd:
te piacerebbe rispetto alla 9800gtx. cosi starebbe pure sotto alla 9800gx2.
:Prrr:
addirittura più probabile.
:tapiro:
Mister Tarpone
17-05-2008, 17:47
Si è capito ora? :>
si ;)
( :stordita: )
Mercuri0
17-05-2008, 17:50
Per nvidia c'è l'acquisizione (e integrazione tramite driver) di Ageia
Ancora nVidia non ha annunciato niente, (infatti c'è solo "Physix ready"), e il motore di accelerazione fisica non deve e non può essere integrato nei driver, ma nel gioco!
(a meno che nVidia non faccia un driver emulatore per l'hardware Ageia->CUDA. Impossibile)
Detto questo, le GPU sono buone ad accelerare solo particolari tipi di conti. Per il resto la CPU andrebbe meglio, e le GPU rallenterebbero il loro framerate (perché a far fisica si dimenticherebbero di far grafica).
Quindi bisogna che ci siano dei nuovi giochi (o pesanti patch per i vecchi) che sfruttino i particolari effetti fisici per cui le GPU eccellono.
Siccome penso che di simulazioni EM e di folding delle proteine nei giochi non se ne vedranno, mi aspetto cose come simulazione particellare, fluidodinamica e fisica dei vestiti.
Solo un piccolo importante dettaglio: i giochi per PC oggi sono tutti porting da console.
Di sicuro la tecnologia tra qualche anno avrà sviluppi interessanti, ma per ora è solo uno specchietto per le allodole, sia da parte di AMD che nVidia.
DriftKing
17-05-2008, 17:52
te piacerebbe rispetto alla 9800gtx. cosi starebbe pure sotto alla 9800gx2.
:Prrr:
addirittura più probabile.
:tapiro:
quindi ... secondo te la gx280 andrebbe il 50% in+ della gx2??? si?
halduemilauno
17-05-2008, 17:54
quindi ... secondo te la gx280 andrebbe il 50% in+ della gx2??? si?
certo che si.
;)
Mister Tarpone
17-05-2008, 17:54
quindi ... secondo te la gx280 andrebbe il 50% in+ della gx2??? si?
secondo te nooo??? :confused:
......... ;)
Per quanto riguarda l'alimentazione saranno sempre a 8 + 6 pin? :confused:
Mercuri0
17-05-2008, 17:55
te piacerebbe rispetto alla 9800gtx. cosi starebbe pure sotto alla 9800gx2.
:Prrr:
addirittura più probabile.
:tapiro:
A beh, se la GTX280 andasse il 50% in più della 9800GX2 nei giochi dove lo SLI funziona bene (come il test 3dmark, che non è un gioco ma scala bene) puoi ritenermi sorpreso :)
Mi aspetto invece che la 9800GX2 rubi un pò di effetto "wow" a GT200.
p.s. azz hal, tu e io abbiamo un pò le stesse notizie, ma tu - per qualche strana ragione - tendi a leggerle in maniera sempre "ottimistica" per nVidia e sempre "pessimistica" per AMD. ;) Boh, io al massimo sono pedante su alcuni dettagli tecnici per questioni di "deformazione professionale"
halduemilauno
17-05-2008, 17:56
Per quanto riguarda l'alimentazione saranno sempre a 8 + 6 pin? :confused:
si è gia visto. cmq si.
;)
DriftKing
17-05-2008, 17:56
certo che si.
;)
secondo te nooo??? :confused:
......... ;)
no ... secondo e impossibile che vada il 50% in+ ... maxmax un 30% (quasi impossibile) ... hal come fai a dire quanto andra il gt200? me lo spieghi?
Mister Tarpone
17-05-2008, 17:58
no ... secondo e impossibile che vada il 50% in+ ... maxmax un 30% (quasi impossibile) ... hal come fai a dire quanto andra il gt200? me lo spieghi?
io dico di si...
però addirittura di un 50% mi sembra troppo...
:boh:
halduemilauno
17-05-2008, 17:59
A beh, se la GTX280 andasse il 50% in più della 9800GX2 nei giochi dove lo SLI funziona bene (come il test 3dmark, che non è un gioco ma scala bene) puoi ritenermi sorpreso :)
Mi aspetto invece che la 9800GX2 rubi un pò di effetto "wow" a GT200.
ma ragiona può mai essere il 50% in + della 9800gtx? starebbe li li alla pari con la 9800gx2 e magari pure sotto. ti pare realistico? ma non è nemmeno da pensarlo nei confronti della gtx260.
suvvia.
-noxius-
17-05-2008, 17:59
no ... secondo e impossibile che vada il 50% in+ ... maxmax un 30% (quasi impossibile) ... hal come fai a dire quanto andra il gt200? me lo spieghi?
Secondo me sarebbe meglio soprassedere in quanto si tornerebbe a vecchie considerazioni trite e ritrite .. fatti regalare la sua sfera di cristallo, magari funziana davvero :rolleyes:
DriftKing
17-05-2008, 17:59
io dico di si...
però addirittura di un 50% mi sembra troppo...
:boh:
:D hai detto un po un controsenso ... prima dici si (cioe che andra un 50% in+) poi dici che 50% e troppo ... deciditi :D
halduemilauno
17-05-2008, 18:00
no ... secondo e impossibile che vada il 50% in+ ... maxmax un 30% (quasi impossibile) ... hal come fai a dire quanto andra il gt200? me lo spieghi?
poi dovrei eliminarti.
;)
si è gia visto. cmq si.
;)
Eh scusatemi, non riesco a stare dietro a tutto. :stordita:
poi dovrei eliminarti.
;)
:asd:
DriftKing
17-05-2008, 18:01
ma ragiona può mai essere il 50% in + della 9800gtx? starebbe li li alla pari con la 9800gx2 e magari pure sotto. ti pare realistico? ma non è nemmeno da pensarlo nei confronti della gtx260.
suvvia.
scusa ... ma tu hai detto: la gtx280 andra un 50% in+ della gx2 ... giusto? giusto .... ora io vorrei capire come fai dire questo ... da dove lo hai appreso? oppure quel numero te lo sei inventato?
Mister Tarpone
17-05-2008, 18:01
p.s. azz hal, tu e io abbiamo un pò le stesse notizie, ma tu - per qualche strana ragione - tendi a leggerle in maniera sempre "ottimistica" per nVidia e sempre "pessimistica" per AMD. ;) Boh, io al massimo sono pedante su alcuni dettagli tecnici per questioni di "deformazione professionale"
behhh.... guardando quello che è successo in questa ultima generazione di schede...... (r600-rv670 vs G80-G9X) ...viene da esser un pò pessimisti per ati ed invece molto ottimisti per nvidia...
dai..... è abb. normale.... :stordita:
;) ;)
;) ;)
DriftKing
17-05-2008, 18:03
behhh.... guardando quello che è successo in questa ultima generazione di schede...... (r600-rv670 vs G80-G9X) ...viene da esser un pò pessimisti per ati ed invece molto ottimisti per nvidia...
dai..... è abb. normale.... :stordita:
;) ;)
;) ;)
ricordiamoci pero che tutto puo succedere ... il caso della 88gtx lo dimostra ...
Mister Tarpone
17-05-2008, 18:03
poi dovrei eliminarti.
;)
:sbonk:
:D hai detto un po un controsenso ... prima dici si (cioe che andra un 50% in+) poi dici che 50% e troppo ... deciditi :D
che andrà di + sono sicurissimo... però sinceramente resto un pò scettico di quel 50% + ;)
la penso così ;)
;)
DriftKing
17-05-2008, 18:04
che andrà di + sono sicurissimo... però sinceramente resto un pò scettico di quel 50% + ;)
la penso così ;)
;)
ah ... ok allora io e te siamo d'accordo ...
Mercuri0
17-05-2008, 18:05
ma ragiona può mai essere il 50% in + della 9800gtx? starebbe li li alla pari con la 9800gx2 e magari pure sotto. ti pare realistico? ma non è nemmeno da pensarlo nei confronti della gtx260.
suvvia.
:mbe:
Da i rumor i numeri di GT200 sono pari o inferiori alla 9800GX2, io quindi mi aspetto che il GT200 possa andare più veloce della 9800GX2 solo perché lo SLI non scala perfettamente. Ad occhio, 50% in più per questa ragione mi pare improbabile.
Questo mi pare realistico, altri dati io non ne ho per pensare diversamente, e non commento i rumor a partire da atti di fede. :D
p.s. curiosamente nell'immagine che hai postato c'è scritto "nei giochi". Vorrà dire forse "non nel 3dmark"? :asd:
Mister Tarpone
17-05-2008, 18:05
ah ... ok allora io e te siamo d'accordo ...
andrà un 49% + ;)
:asd:
halduemilauno
17-05-2008, 18:05
scusa ... ma tu hai detto: la gtx280 andra un 50% in+ della gx2 ... giusto? giusto .... ora io vorrei capire come fai dire questo ... da dove lo hai appreso? oppure quel numero te lo sei inventato?
aldila del'ovvio e del naturale e del fatto che vado sostenendo da tempo alcune cose ecco qui...
http://img204.imageshack.us/img204/9743/gtx200seriesspecnnfx571ve4.png
ripeto tutta la prima riga. tutta.
;)
halduemilauno
17-05-2008, 18:08
:mbe:
Da i rumor i numeri di GT200 sono pari o inferiori alla 9800GX2, io quindi mi aspetto che il GT200 possa andare più veloce della 9800GX2 solo perché lo SLI non scala perfettamente. Ad occhio, 50% in più per questa ragione mi pare improbabile.
Questo mi pare realistico, altri dati io non ne ho per pensare diversamente, e non commento i rumor a partire da atti di fede. :D
perchè quello che dici te non è un atto di fede contraria.
:asd:
appleroof
17-05-2008, 18:10
Ancora nVidia non ha annunciato niente, (infatti c'è solo "Physix ready"), e il motore di accelerazione fisica non deve e non può essere integrato nei driver, ma nel gioco!
preso da un sito a caso (notizia di qualche settimana)
Tramite l’utilizzo del tool CUDA, nVidia è stata in grado di “tradurre” il motore fisico di Ageia, rendendolo di fatto un’applicazione gestibile interamente dalle proprie GPU. Questo significa che anche le attuali schede video Geforce serie 8 e Geforce serie 9 saranno pienamente compatibili con tale tecnologia, fatto che favorisce sia i videogiocatori che gli sviluppatori di software multimediali.
Il risultato della prima dimostrazione è stato a dir poco impressionante: il motore fisico di Ageia, elaborato tramite le GPU attualmente in commercio, è stato in grado di simulare gli effetti della fisica su una scena con oltre 50.000 particelle, raggiungendo un frame rate di 300 fps.
http://www.onehardware.it/23/04/2008/nvidia-cuda-presto-motore-phisx-su-tutte-le-gpu/
anche dal nostro sito preferito:
a seguito dell'acquisizione di Ageia il porting dell'engine PhysX all'interno di CUDA potrà permettere di rendere disponibili elaborazioni su questo engine a tutti i possessori di schede video NVIDIA dalla famiglia GeForce 8 in poi. Al momento attuale NVIDIA sta lavorando con il proprio software team per rendere disponibile il più in fretta possibile un porting per CUDA dell'engine Ageia: la presenza all'interno di NVIDIA di ingegneri provenienti da Ageia non potrà che facilitare questa operazione.
http://www.hwupgrade.it/news/skvideo/tecnologie-ageia-in-gpu-nvidia-possibile-via-cuda_24274.html
ma informarsi prima no eh? ;)
:sbonk:
che andrà di + sono sicurissimo... però sinceramente resto un pò scettico di quel 50% + ;)
la penso così ;)
;)
Sono d'accordo. D'altronde con quasi lo stesso numero di SP ma su un unico chip... Piuttosto credo che la GTX260 sarà più o meno al livello della GX2, al max un poco sopra.
Considera che quelle postate sono parti di materiale di marketing...
Piuttosto mi lascia perplesso la scelta di non implementare le DX10.1... Con buona probabilità sarebbero state più utili nel breve periodo del supporto alla fisica coi drivers Ageia, che con una sola scheda mi sa che avrà utilità vicina allo zero, soprattutto agli inizi. :)
Mercuri0
17-05-2008, 18:11
perchè quello che dici te non è un atto di fede contraria.
:tapiro:
Perché? Non è vero che la GT200 ha i numeri pari o inferiori alla 9800GX2? Cosa ti fa sembrare "ovvio" che abbia un 50% in più della 9800GX2? Ragioneresti così se il marchio fosse diverso?
Vabbé, non perderci troppo tempo con me, hal, tanto sono abituato ad essere messo al rogo da entrambe le religioni.
Dura la vita di noaltri eretici. :rolleyes:
halduemilauno
17-05-2008, 18:14
Perché? Non è vero che la GT200 ha i numeri pari o inferiori alla 9800GX2? Cosa ti fa sembrare "ovvio" che abbia un 50% in più della 9800GX2? Ragioneresti così se il marchio fosse diverso?
Vabbé, non perderci troppo tempo con me, hal, tanto sono abituato ad essere messo al rogo da entrambe le religioni.
Dura la vita di noaltri eretici. :rolleyes:
d'accordo seguirò il tuo consiglio.
il 50% in + rispetto alla 9800gtx? a momenti basta una 8800ultra oc ad arrivarci(spero che cogli).
senza parole.
appleroof
17-05-2008, 18:14
Perché? Non è vero che la GT200 ha i numeri pari o inferiori alla 9800GX2? Cosa ti fa sembrare "ovvio" che abbia un 50% in più della 9800GX2? Ragioneresti così se il marchio fosse diverso?
Vabbé, non perderci troppo tempo con me, hal, tanto sono abituato ad essere messo al rogo da entrambe le religioni.
Dura la vita di noaltri eretici. :rolleyes:
magari te ne piacerebbe creare una tutta tua :mbe: così nessuno ti brucerebbe più al rogo :read: :D
_morghan_1968
17-05-2008, 18:15
ad essere realisti...
in media c' è da sperare in un 30 % in più !!!
(rispetto alla 9800gx2)
preso da un sito a caso (notizia di qualche settimana)
Tramite l’utilizzo del tool CUDA, nVidia è stata in grado di “tradurre” il motore fisico di Ageia, rendendolo di fatto un’applicazione gestibile interamente dalle proprie GPU. Questo significa che anche le attuali schede video Geforce serie 8 e Geforce serie 9 saranno pienamente compatibili con tale tecnologia, fatto che favorisce sia i videogiocatori che gli sviluppatori di software multimediali.
Il risultato della prima dimostrazione è stato a dir poco impressionante: il motore fisico di Ageia, elaborato tramite le GPU attualmente in commercio, è stato in grado di simulare gli effetti della fisica su una scena con oltre 50.000 particelle, raggiungendo un frame rate di 300 fps.
http://www.onehardware.it/23/04/2008/nvidia-cuda-presto-motore-phisx-su-tutte-le-gpu/
ma informarsi prima no eh? ;)
Secondo me le soluzioni dual gpu se ne avvantaggeranno, ma sinceramente non vedo una grandissima utilità (dal punto di vista prestazionale) per i sistemi con una sola scheda grafica...
A meno che il gioco non vada a mille e la scheda abbia ancora quindi potenza di calcolo da destinare ad altro (la fisica).
Ma sinceramente rinunciare alla qualità grafica per avere qualche effetto figo di fisica in più (tra l'altro spesso molto finto) non mi pare il caso. ;)
preso da un sito a caso (notizia di qualche settimana)
Tramite l’utilizzo del tool CUDA, nVidia è stata in grado di “tradurre” il motore fisico di Ageia, rendendolo di fatto un’applicazione gestibile interamente dalle proprie GPU. Questo significa che anche le attuali schede video Geforce serie 8 e Geforce serie 9 saranno pienamente compatibili con tale tecnologia, fatto che favorisce sia i videogiocatori che gli sviluppatori di software multimediali.
Il risultato della prima dimostrazione è stato a dir poco impressionante: il motore fisico di Ageia, elaborato tramite le GPU attualmente in commercio, è stato in grado di simulare gli effetti della fisica su una scena con oltre 50.000 particelle, raggiungendo un frame rate di 300 fps.
http://www.onehardware.it/23/04/2008/nvidia-cuda-presto-motore-phisx-su-tutte-le-gpu/
anche dal nostro sito preferito:
a seguito dell'acquisizione di Ageia il porting dell'engine PhysX all'interno di CUDA potrà permettere di rendere disponibili elaborazioni su questo engine a tutti i possessori di schede video NVIDIA dalla famiglia GeForce 8 in poi. Al momento attuale NVIDIA sta lavorando con il proprio software team per rendere disponibile il più in fretta possibile un porting per CUDA dell'engine Ageia: la presenza all'interno di NVIDIA di ingegneri provenienti da Ageia non potrà che facilitare questa operazione.
http://www.hwupgrade.it/news/skvideo/tecnologie-ageia-in-gpu-nvidia-possibile-via-cuda_24274.html
ma informarsi prima no eh? ;)
Ecco infatti, allora era come dicevo io. :D
ci sta nel nine 900 sta scheda? e per l'alimentazione come siamo messi, ci vuole il cavetto da 8 pin?(non dovrei avere problemi con il corsair, xo non si sa mai...)
appleroof
17-05-2008, 18:22
Secondo me le soluzioni dual gpu se ne avvantaggeranno, ma sinceramente non vedo una grandissima utilità (dal punto di vista prestazionale) per i sistemi con una sola scheda grafica...
non mi dire :asd: non me lo sarei mai aspettato da te :Perfido:
A meno che il gioco non vada a mille e la scheda abbia ancora quindi potenza di calcolo da destinare ad altro (la fisica).
Ma sinceramente rinunciare alla qualità grafica per avere qualche effetto figo di fisica in più (tra l'altro spesso molto finto) non mi pare il caso. ;)
ti riporto anche questo
NVIDIA ha effettuato alcune dimostrazioni pratiche delle potenzialità dell'engine PhysX quando elaborato, via CUDA, direttamente dalle proprie GPU. Nel corso di una dimostrazione, NVIDIA è stata capace di eseguire un demo di fisica con 50.000-60.000 particelle, paragonabile quindi a quella utilizzata da Intel in occasione dell'IDF Spring 2008 di Shanghai a inizio Aprile per mostrare le potenzialità di elaborazione delle proprie cpu della famiglia Nehalem.
Se nel demo Intel venivano raggiunti circa i 20 frames al secondo di media, ben differente è stato il risultato con le soluzioni NVIDIA, capaci di frames al secondo nell'ordine dei 300.
http://www.hwupgrade.it/news/skvideo/gpu-e-cuda-per-l-engine-physx-di-ageia_25018.html
adesso, non credo che le "soluzioni Nvidia" fossero GT200 (sai che scoop :asd: ) quindi la cosa fà ben sperare, a dir poco
al solito poi bisogna stabilire con che occhi guardi le cose....;)
Mercuri0
17-05-2008, 18:23
preso da un sito a caso (notizia di qualche settimana)
http://www.onehardware.it/23/04/2008/nvidia-cuda-presto-motore-phisx-su-tutte-le-gpu/
anche dal nostro sito preferito:
http://www.hwupgrade.it/news/skvideo/tecnologie-ageia-in-gpu-nvidia-possibile-via-cuda_24274.html
ma informarsi prima no eh? ;)
Sto seguendo l'evoluzione delle GPGPU con molto molto interesse (in realtà mi interessa più il GPGPU che non i giochi).
Ti assicuro che sono informato, quello che posti l'avevo letto, e forse l'ho capito anche un pò meglio di te ;)
nVidia sta facendo un porting del motore di Ageia per Cuda. Ma questo non è un emulatore delle schede di Ageia!
Ammesso che non faccia tale emulatore (imo: impossibile), i giochi dovrebbero usare il motore Physics sviluppato da nVidia: o programmati apposta, o tramite patch.
Oltre questo, bisogna vedere quali reali vantaggi porterebbe nei giochi (hai visto il fiasco che ha fatto il primo demo di Ageia che girava benissimo anche sulle CPU?).
nVidia sicuramente ha dimostrato il motore fisico nelle condizioni ottimali per le GPU. Le GPU sono ottime per certi tipi di conti, e a me piacerebbe veramente vedere un gioco con simulazioni di dinamica dei vestiti per ogni personaggio.
Ma girerebbe su console?
p.s. se ti piace il marketing, nel demo DX10.1 "pong" c'è una "simulazione di fluidodinamica" per l'effetto grafico dei portali
http://it.youtube.com/watch?v=omq3O22EUx4
Che tradotto dal marketingese credo sia una texture dinamica realizzata mediante gli shaders. Viceversa, simpaticamente, il Phenom calcola le collisioni delle 1000+ palline da ping pong nel demo. :asd:
Mister Tarpone
17-05-2008, 18:26
@ johnp
penso che per giocare Crysis in full hd e very high dx10 ci vorranno 2x GTX 280... se i tuoi calcoli sono giusti... :stordita: :stordita: :stordita:
Ragionando un pò x assurdo in base al 50% citato da hal, si potrebbero avere questi scenari... relativi @ gtx280.
Utilizzo come metro di paragone la reviews della 9800gx2 presente qui su hwu.
in crysis @ high on dx9
@1680x1050=77,7fps (avg)
@1920x1200=71,8fps
in crysis @ very high on dx10
@1680x1050=38.7fps (avg)
@1920x1200=28.6fps
in dx9 il gioco risulterebbe già giocabile alla grande (ma non è un gran traguardo considerando che ci gioco alla grande già ora con 2x8800gts... anche nell'ultimo livello dove spesso gli fps sono sui 34-35... e in pochissimi casi scendono sui 29 e in molti casi sono ben al di sopra dei 35 di cui prima)
in dx10very high si avrebbe un balzo prestazionale un pò meno evidente, ma comunque che garantirebbe @1680 di giocarlo decentemente. Un pò meno @1920.
Che ne pensate?
38fps tutto very high..fonte? mi sembrano troppi per la gx2
halduemilauno
17-05-2008, 18:28
magari te ne piacerebbe creare una tutta tua :mbe: così nessuno ti brucerebbe più al rogo :read: :D
ma ti rendi conto nvidia presenterebbe una scheda la gtx280 a 499$ che andrebbe praticamente meno di un'attuale 9800gx2 che si trova a 360€.
:boh:
Mister Tarpone
17-05-2008, 18:29
38fps tutto very high..fonte? mi sembrano troppi per la gx2
a ma quelli sono i fps della GX2...???
...pensavo ci avesse già aggiunto un 50% + di fps per simulare una GTX 280.... :doh:
azz... :stordita:
Foglia Morta
17-05-2008, 18:30
ma ti rendi conto nvidia presenterebbe una scheda la gtx280 a 499$ che andrebbe praticamente meno di un'attuale 9800gx2 che si trova a 360€.
:boh:
confronta mele con mele... su newegg la GX2 va dai $525 ai $580
DriftKing
17-05-2008, 18:31
ma ti rendi conto nvidia presenterebbe una scheda la gtx280 a 499$ che andrebbe praticamente meno di un'attuale 9800gx2 che si trova a 360€.
:boh:
ma certo che andra di piu della gx2 (se no che senso avrebbe?) ... ma da qui a sparare un 50% in+ ce ne passa ...
Mercuri0
17-05-2008, 18:32
ma ti rendi conto nvidia presenterebbe una scheda la gtx280 a 499$ che andrebbe praticamente meno di un'attuale 9800gx2 che si trova a 360€.
:boh:
Hai ragione, questa è una affermazione intelligente che fa ben sperare.
Mi è venuta la curiosità di vedere quanto costa la 9800Gx2 in dollari.
Su newegg dai 550$ a oltre 600.
http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&DEPA=0&Description=9800GX2&x=0&y=0
Certo comunque dalle GT200 ci si aspettano maggiori prestazioni allo stesso prezzo, in quanto generazione nuova.
appleroof
17-05-2008, 18:33
cut
nVidia sta facendo un porting del motore di Ageia per Cuda. Ma questo non è un emulatore delle schede di Ageia!
Ammesso che non faccia tale emulatore (imo: impossibile), i giochi dovrebbero usare il motore Physics sviluppato da nVidia: o programmati apposta, o tramite patch.
cut
Cuda è libero, qualcunque programmatore potrà sviluppare a piacimento Phisix all'interno dei giochi, con magari un apposito settaggio (manuale o auto) che lo esclude se la scheda non è nvidia (Amd o consolle)
per il resto, è chiaro che siamo agli inizi, ma "abbastanza promettenti"
Una seconda dimostrazione ha coinvolto la riproduzione del movimento di alcuni pezzi di stoffa: un quad-core Intel Core 2 Extreme ha renderizzato la scena a 12 fps, una 8800 GTS circa a 200 fps. Nonostante non fosse presente un hardware Ageia dedicato, alcune dimostrazioni precedenti - se non ricordiamo male - lavoravano a 150/180 fps.
non è un gioco completo ok, ma se qui ci sono 200fps, se in un gioco lo stesso effetto porta il FR a 40fps direi che io mi sentirei abbastanza soddisfatto, tu?
senza dimenticare che come dicevo le gpu con le quali hanno fatto queste dimostrazioni non credo fossero certo GT200 (ben più potenti, mi pare di aver capito, di g80/g92)
halduemilauno
17-05-2008, 18:36
ma certo che andra di piu della gx2 (se no che senso avrebbe?) ... ma da qui a sparare un 50% in+ ce ne passa ...
ma forse voi non vi rendete conto non si fa 128+128 = 256 vs 240. non si fa 256 bit + 256 bit = 512 vs 512 bit. non si fa 512 mega + 512 mega = 1024 mega vs 1024. i 240 singoli, i 512 singoli, i 1024 singoli valgono di +.
;)
50% in più della GX2 sono tanti ma non poi così surreali.
Io ho fatto provato a calcolare quando la GX2 sta sopra alla GTX, facendo la media di tutte le differenze percentuali di ogni test.E' il 50%-55% in più rispettto alla scheda singola.
Aspettandomi da GtX280 un raddoppio delle performance rispetto alla 9800GTX, quel 50% non rimane così difficile da raggiungere.
Daccordo per i dollari.
Io parlavo dei prezzi in italia, dov'è che le vedete a quei prezzi qui in Italia?
Se sono 499 $ qui in Italia saranno come minimo 600. :mbe:
600 euro sono qualcosa di impossibile...
Guarda una 9800gx2.
Prezzo di listino $499, come la futura GTX280
su newegg :
http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&DEPA=0&Description=9800gx2&x=0&y=0
Qui da noi:
http://www.trovaprezzi.it/prezzo_schede-grafiche_9800gx2.aspx
Vedo probabilissimi i 480 Euro del lancio, per poi scendere a 400 euro circa passato l' effetto novitá.
E non parlo di ribassi del produttore. ;)
Mercuri0
17-05-2008, 18:37
magari te ne piacerebbe creare una tutta tua :mbe: così nessuno ti brucerebbe più al rogo :read: :D
Grande idea! Come Primo Profeta delle mia religione ecco i 3 comandamenti: :D
- Ricorda che non ci guadagni niente a fare il fanboy
- Migliore è l'informazione, migliore sono i vantaggi per i consumatori. Il marketing è il Sommo Male, perché devia l'informazione
- La concorrenza tra le aziende è il nostro vantaggio.
600 euro sono qualcosa di impossibile...
Guarda una 9800gx2.
Prezzo di listino $499, come la futura GTX280
su newegg :
http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&DEPA=0&Description=9800gx2&x=0&y=0
Qui da noi:
http://www.trovaprezzi.it/prezzo_schede-grafiche_9800gx2.aspx
Vedo probabilissimi i 480 Euro del lancio, per poi scendere a 400 euro circa passato l' effetto novitá.
E non parlo di ribassi del produttore. ;)
A 480€ troverai ,se va bene, la GTX260. Mi aspetto minimo 600€ per la Gtx280.
appleroof
17-05-2008, 18:38
Grande idea! Come Primo Profeta delle mia religione ecco i 3 comandamenti: :D
- Ricorda che non ci guadagni niente a fare il fanboy
- Migliore è l'informazione, migliore sono i vantaggi per i consumatori. Il marketing è il Sommo Male, perché devia l'informazione
- La concorrenza tra le aziende è il nostro vantaggio.
ma l'hanno già inventata :doh:
sforzati di più ;)
a ma quelli sono i fps della GX2...???
...pensavo ci avesse già aggiunto un 50% + di fps per simulare una GTX 280.... :doh:
azz... :stordita:
ah, mea culpa allora :), cmq quegli fps li son il massivo non la media, tenetelo presente, quindi ci son da togliere 6-7 fps per il calcolo dei frame minimi, cmq tutto sommato si avranno sempre 30 fps con la gtx 280 e questo a 1680x1050 tutto very high(senza aa)
amph quelli non sono i fps della gx2,
bensì quelli ipotetici di una gtx280 calcolati con questa formula
[totale risultati 9800gx2 (fonte hwu, rece della 9800gx2) + 50% di cui parlava hal] = valori riportati in quello schemino da me.
si sry avevo frainteso
appleroof
17-05-2008, 18:40
50% in più della GX2 sono tanti ma non poi così surreali.
Io ho fatto provato a calcolare quando la GX2 sta sopra alla GTX, facendo la media di tutte le differenze percentuali di ogni test.E' il 50%-55% in più rispettto alla scheda singola.
Aspettandomi da GtX280 un raddoppio delle performance rispetto alla 9800GTX, quel 50% non rimane così difficile da raggiungere.
quoto, come si diceva poi GTX280 non soffre dei colli di bottiglia della GX2 & similari...
cmq anche un 30% in più per me sarebbe un risultato eccellente, di più ovviamente è tanto di guadagnato
A 480€ troverai ,se va bene, la GTX260. Mi aspetto minimo 600€ per la Gtx280.
Scusa, ma come fa a costare 600euro una scheda da $499 ?
La GX2, che ha avuto lo stesso prezzo di lancio (e ha ancora oggi lo stesso prezzo), si trovava sotto i 500 giá dal primo giorno...
Per poi scendere a 400euro passato l'effetto novita (e quindi i negozianti hanno smesso di farci la cresta).
E oggi 370euro.
DriftKing
17-05-2008, 18:41
ma forse voi non vi rendete conto non si fa 128+128 = 256 vs 240. non si fa 256 bit + 256 bit = 512 vs 512 bit. non si fa 512 mega + 512 mega = 1024 mega vs 1024. i 240 singoli, i 512 singoli, i 1024 singoli valgono di +.
;)
questo lo sapevo gia ... ribadisco che imho la gtx280 nn andra 50% in+ ... poi ... felice di essere smentito al lancio ... ma x ora ...
halduemilauno
17-05-2008, 18:43
questo lo sapevo gia ... ribadisco che imho la gtx280 nn andra 50% in+ ... poi ... felice di essere smentito al lancio ... ma x ora ...
le opinioni son come le palle. ognuno ha le sue.
;)
600 euro sono qualcosa di impossibile...
Guarda una 9800gx2.
Prezzo di listino $499, come la futura GTX280
su newegg :
http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&DEPA=0&Description=9800gx2&x=0&y=0
Qui da noi:
http://www.trovaprezzi.it/prezzo_schede-grafiche_9800gx2.aspx
Vedo probabilissimi i 480 Euro del lancio, per poi scendere a 400 euro circa passato l' effetto novitá.
E non parlo di ribassi del produttore. ;)
Ragazzi se quando esce trovate sti prezzi vi prego vivamente di farmelo sapere. :eek:
DriftKing
17-05-2008, 18:45
le opinioni son come le palle. ognuno ha le sue.
;)
beh ... nn mi piace molto il paragone ... pero ;)
cmq, dite che ci starà nell'antec 900?
DriftKing
17-05-2008, 18:47
cmq, dite che ci starà nell'antec 900?
se ci sta la gtx ci stas anche questa ... nn sono sicurissimo .. ma credo di si ... cmq ,visto che ce l'hai, potresti dircelo tu a noi ... la scheda dovrebbe essere lunga sui 27cm ... vedi se ci sta ...
appleroof
17-05-2008, 18:47
Scusa, ma come fa a costare 600euro una scheda da $499 ?
La GX2, che ha avuto lo stesso prezzo di lancio (e ha ancora oggi lo stesso prezzo), si trovava sotto i 500 giá dal primo giorno...
Per poi scendere a 400euro passato l'effetto novita (e quindi i negozianti hanno smesso di farci la cresta).
E oggi 370euro.
io pronostico sui 500/530 la gtx280 (al lancio) e 100 euro in meno la gtx260...poi ovviamente dipende dalla concorrenza inoltre come al solito facciamo solo delle ipotesi per ora :D
le opinioni son come le palle. ognuno ha le sue.
;)
:asd: :asd: :asd:
halduemilauno
17-05-2008, 18:47
beh ... nn mi piace molto il paragone ... pero ;)
una battuta tanto per smorzare i toni. ma anche i luca i...
;)
Mercuri0
17-05-2008, 18:47
per il resto, è chiaro che siamo agli inizi, ma "abbastanza promettenti"
Riassumo in due parole per cercare di chiarirmi:
- Tutte le GPU moderne possono fare conti fisici, (a costo di perderci in quelli grafici)
- L'accelerazione fisica mediande la GPU deve essere supportata nei giochi.
- I particolari conti fisici che girano bene sulle GPU non girano quasi per niente sulle CPU (come tu stesso hai verificato) e viceversa.
- Attualmente i giochi vengono programmati prima per le console e poi tradotti per PC.
Io sono entusiasta delle possibilità del GPGPU in molti campi, anche nei giochi. Ma attualmente l'"accelerazione fisica" per i videogiochi è solo una operazione di marketing*. Perché servono:
- una piattaforma di sviluppo comune (si vociferava Directx11)
- giochi sviluppati apposta.
- GPU abbastanza potenti da non avere un impatto sulle prestazioni grafiche mentre eseguono conti fisici.
*ed è una operazione di marketing sia da parte di AMD che nVidia.
DriftKing
17-05-2008, 18:48
una battuta tanto per smorzare i toni. ma anche i luca i...
;)
certo ... un po di divertimento nn guasta :D ... ;)
se è 27 ci sta , avanzano anche 2 cm, perfetto :D; peserà molto? dovrò preoccuparmi dello slot?
Mercuri0
17-05-2008, 18:52
ma l'hanno già inventata :doh:
sforzati di più ;)
Eh ma dove sono i suoi adepti? Non ne vedo molti su internet :cry:
( :D )
halduemilauno
17-05-2008, 18:53
se è 27 ci sta , avanzano anche 2 cm, perfetto :D; peserà molto? dovrò preoccuparmi dello slot?
due palafittine piazzate nei posti giusti che spingono dal basso e magari un palanco all'altro lato che tira e stai a posto. questa è na scheda che pesa
;)
appleroof
17-05-2008, 18:58
una battuta tanto per smorzare i toni. ma anche i luca i...
;)
:D :D :D in gran spolvero oggi eh?
Riassumo in due parole per cercare di chiarirmi:
- Tutte le GPU moderne possono fare conti fisici, (a costo di perderci in quelli grafici)
- L'accelerazione fisica mediande la GPU deve essere supportata nei giochi.
- I particolari conti fisici che girano bene sulle GPU non girano quasi per niente sulle CPU (come tu stesso hai verificato) e viceversa.
- Attualmente i giochi vengono programmati prima per le console e poi tradotti per PC.
- lo sappiamo (non resistete proprio a non fare i Prof eh? vabbè :rolleyes: )
- e fin qui....
- come sopra
- non tutti, la maggioranza ma non tutti. Il motore Ageia poi gira alla perfezione pure nei giochi per consolle attuali. (This is where NVIDIA® PhysX™ Technology and GeForce® processors come in. NVIDIA PhysX is a powerful physics engine which enables real-time physics in leading edge PC and console games. PhysX software is widely adopted by over 150 games, is used by more than 10,000 registered users and is supported on Sony Playstation 3, Microsoft Xbox 360, Nintendo Wii and PC. http://www.nvidia.com/object/nvidia_physx.html )
per il punto 2 e 3, ti ho già risposto che Phisix potrà essere "aggiunto" ai giochi, non è che se un gioco supporta Phisix non può girare se non su schede dedicate (ormai vga, prima ppu) infatti così è stato per GRAW2 ecc ecc ecc ecc
Io sono entusiasta delle possibilità del GPGPU in molti campi, anche nei giochi. Ma attualmente l'"accelerazione fisica" per i videogiochi è solo una operazione di marketing*. Perché servono:
- una piattaforma di sviluppo comune (si vociferava Directx11)
- giochi sviluppati apposta.
- GPU abbastanza potenti da non avere un impatto sulle prestazioni grafiche mentre eseguono conti fisici.
*ed è una operazione di marketing sia da parte di AMD che nVidia.
la piattaforma di uso comune può essere sostituita da un SDK libero, come prima ti dicevo, poi magari affiancata e addirittura sostiutita (nel caso si riveli migliore), forse dx11?
gochi sviluppati apposta no, te lo già detto, spero lo avrai capito
le demo sono state fatte con una 8800gts, non con una gtx280, io e te da questo punto di vista non possiamo saperne mezza, ma io sono ottimista, vistie le premesse, tu no, ma entrambi senza uno straccio di prova (almeno però io mi baso su dimostrazioni già avvenute in pubblico, non in un laboratorio segreto)
poi magari tra sei mesi non avrai un gioco dove i vestiti dei personaggi o la polvere a terra reagisce al passaggio del vento come in un film, ma insomma, bollarlo come puro marketing, alla luce delle cose che ti ho detto, è a dir poco pessimistico
Mercuri0
17-05-2008, 18:58
ma forse voi non vi rendete conto non si fa 128+128 = 256 vs 240. non si fa 256 bit + 256 bit = 512 vs 512 bit. non si fa 512 mega + 512 mega = 1024 mega vs 1024. i 240 singoli, i 512 singoli, i 1024 singoli valgono di +.
;)
Hai ragione, non si fa x+x proprio perché lo SLI non scala perfettamente.
Infatti io avevo detto:
A beh, se la GTX280 andasse il 50% in più della 9800GX2 nei giochi dove lo SLI funziona bene (...) puoi ritenermi sorpreso
( Qui mi mettono al rogo prima ancora di leggermi :cry: )
Invece dove lo SLI scala male la GTX280 potrà avere anche il 100% di prestazioni rispetto alla 9800GX2.
Come scala lo SLI?
appleroof
17-05-2008, 19:00
Il sistema Intel aveva una X3100 o la stessa GTX con l'elaborazione veicolata sulla CPU invece che sulla GPU?
Chiaro il punto, no?
si ma nella prima dimostrazione durante l'IDF Spring 2008 il sistema Intel era un sistema Nehalem con otto core di calcolo, adesso il mio punto di vista sarà altrattanto chiaro, no?
Non credo possa pesare di più di una GX2. E comunque se non ci fai motocross non dovrebbe essere un problema in ogni caso.
Leggasi: se te la monti da solo senza far fare le gite al cabinet, allora può pesare virtualmente quanto vuole :>
motocross :asd:
halduemilauno
17-05-2008, 19:02
Hai ragione, non si fa x+x proprio perché lo SLI non scala perfettamente.
Infatti io avevo detto:
( Qui mi mettono al rogo prima ancora di leggermi :cry: )
Invece dove lo SLI scala male la GTX280 potrà avere anche il 100% di prestazioni rispetto alla 9800GX2.
Come scala lo SLI?
beh dal 50% in + rispetto alla 9800gtx a quello che vedo ora mi pare un bel cambio di rotta.
-noxius-
17-05-2008, 19:02
Perché? Non è vero che la GT200 ha i numeri pari o inferiori alla 9800GX2? Cosa ti fa sembrare "ovvio" che abbia un 50% in più della 9800GX2? Ragioneresti così se il marchio fosse diverso?
Dura la vita di noaltri eretici. :rolleyes:
Poi non si è capito perchè una 4870x2 debba star sotto a questa 9900gtx , ''a priori'' forse sarebbe più appropriato ;) . Perdiamo in partenza, l'hai vista com'è la situazione e non c'è bisogno di continuare a questionare tanto oramai qui la fantasia supera la realtà . Si è parlato anche di GTS 280-60-40 , avessi visto un link a testimonianza di ciò .... nada :rolleyes:
nico88desmo
17-05-2008, 19:03
aldila del'ovvio e del naturale e del fatto che vado sostenendo da tempo alcune cose ecco qui...
http://img204.imageshack.us/img204/9743/gtx200seriesspecnnfx571ve4.png
ripeto tutta la prima riga. tutta.
;)
Non male come specifiche!!!
Però sono un pò scettico su quel 50% di prestazioni in più.
Comunque 512bit con 1GB di memoria video, penso che questa scheda farà andare Crysis molto bene (dato che è un gioco che richiede molta banda, se non erro). Per il resto dei giochi invece, è una scheda addirittura sovradimensionata ;)
Secondo voi, in futuro questo chip potrebbe avere anche le GDDR5?
Mercuri0
17-05-2008, 19:10
- lo sappiamo (non resistete proprio a non fare i Prof eh? vabbè :rolleyes: )
Uei ci metto i trattini perché so che sui forum si legge una parola si e una no e mi pare più chiaro ;) quale prof e prof.
- non tutti, la maggioranza ma non tutti. Il motore Ageia poi gira alla perfezione pure nei giochi per consolle attuali.
Il punto è che vista la disparità enorme tra le capacità delle GPU e quelle delle CPU, se una cosa la fa bene la GPU, la CPU la fa male, e viceversa.
Quindi il PhysiX dovrà essere usato per fare i conti che fanno bene le GPU, e questi non girerebbero sulle console. (A meno che nVidia non faccia un porting di PhysiX per il Cell e per la GPU ATI della Xbox)
Se i programmatori riescono e hanno voglia e soldi per fare un sistema "scalabile" che disabiliti gli "effetti fisici" come se fossero effetti grafici, la cosa forse sarebbe possibile.
Vista però la qualità del porting dei giochi su PC, sono un pò scettico.
giochi sviluppati apposta no, te lo già detto, spero lo avrai capito
penso avrai capito in che senso intendevo "giochi sviluppati apposta". Inoltre molti giochi sfruttano anche Havoc di lntel. Quando si parla di GPGPU e CPU, si tira dentro anche l'Incubo Blu, che ha forti interessi in queste cose.
poi magari tra sei mesi non avrai un gioco dove i vestiti dei personaggi o la polvere a terra reagisce al passaggio del vento come in un film, ma insomma, bollarlo come puro marketing, alla luce delle cose che ti ho detto, è a dir poco pessimistico
Io sto seguendo lo sviluppo del client folding@home per le schede AMD (che in effetti è proprio "simulazione fisica") e anche lo sviluppo dei codec video per linux su GPGPU. (in particolare, è in lavorazione Dirac per Cuda).
Ci sono tante cose promettenti ma anche tante difficoltà (il progetto ffmpeg - codec video - ha scartato di usare la GPU per ora perché hanno stimato un degrado di prestazioni), mentre su f@h devono usare WU specifiche e molto grandi per rendere l'utilizzo delle 3850 maggiori del 50% senza che la CPU faccia da collo di bottiglia...
Sto facendo questo bordello pessimistico sulla fisica nei giochi solo per controbilanciare il marketing AMD&nVidia che distorce la realtà. Sembro troppo pessimista perché devo mandare un messaggio chiaro ;)
appleroof
17-05-2008, 19:14
Poi non si è capito perchè una 4870x2 debba star sotto a questa 9900gtx , ''a priori'' forse sarebbe più appropriato ;) . Perdiamo in partenza, l'hai vista com'è la situazione e non c'è bisogno di continuare a questionare tanto oramai qui la fantasia supera la realtà . Si è parlato anche di GTS 280-60-40 , avessi visto un link a testimonianza di ciò .... nada :rolleyes:
ma chi l'ha detta questa? abbastanza "grossa" direi....:asd:
Dipende da cosa aveva come VGA.
Se un gioco fa 20fps quando la fisica va sulla CPU e ne fa 300 quando la fisica è sulla GPU devono cmq dirmi anche le schede video usate.
Lo sapevo anche prima che un gioco che su una X3100 fa 20fps su una 8800GTS ne fa 300, anche senza scomodare la fisica. Questa è l'informazione che mi manca, non so se tu l'hai a disposizione, ma finché non ce l'ho non posso valutare la cosa...
ma non c'entra questo discorso: In quell'occasione (IDF 2008 n.d.r.) un ingegnere di Intel dichiarò che le CPU sarebbero diventate così complete e potenti da permettere agli utenti di non acquistare una GPU http://www.tomshw.it/news.php?newsid=13723
quindi Intel voleva fare la voce grossa ed Nvidia l'ha fatta più grossa, si voleva dimostrare la capacità computazionale delle 2 soluzioni
ma il punto qui non è questo, per quanto mi riguarda, ma che una vga come la 8800gts ha mostrato una capacità computazionale strabiliante, ai fini dei calcoli fisici (ben più di 8 core nehalem!), quindi figuriamoci una GTX280 che appunto è (dovrebbe essere dai) mooooolto più dotata
inoltre non parliamo di giochi, attenzione
pierluigi86
17-05-2008, 19:15
Grande idea! Come Primo Profeta delle mia religione ecco i 3 comandamenti: :D
- Ricorda che non ci guadagni niente a fare il fanboy
- Migliore è l'informazione, migliore sono i vantaggi per i consumatori. Il marketing è il Sommo Male, perché devia l'informazione
- La concorrenza tra le aziende è il nostro vantaggio.
- Non intavolare mai una discussione con un fanboy.
- Se vuoi fare due parole, chiama leoneazzuro
Ps Se non vuoi essere perseguitato ti consiglio di vivere nell' ombra.
Mercuri0
17-05-2008, 19:18
Ps Se non vuoi essere perseguitato ti consiglio di vivere nell' ombra.
E' meraviglioso, sto facendo emergere gli adepti! :D
Comunque lo zelo che ci metto nelle discussioni, è perché so che più tutti sono informati, meno "la scheda video" mi costa. E sopratutto perché questo pomeriggio avevo proprio voglia di fancazzismo e relax :)
appleroof
17-05-2008, 19:22
Uei ci metto i trattini perché so che sui forum si legge una parola si e una no e mi pare più chiaro ;) quale prof e prof.
non era per i trattini ( :doh: ) ci mancherebbe questa adesso, ma per il contenuto ....vabbè lasciamo perdere
Il punto è che vista la disparità enorme tra le capacità delle GPU e quelle delle CPU, se una cosa la fa bene la GPU, la CPU la fa male, e viceversa.
Quindi il PhysiX dovrà essere usato per fare i conti che fanno bene le GPU, e questi non girerebbero sulle console. (A meno che nVidia non faccia un porting di PhysiX per il Cell e per la GPU ATI della Xbox)
Se i programmatori riescono e hanno voglia e soldi per fare un sistema "scalabile" che disabiliti gli "effetti fisici" come se fossero effetti grafici, la cosa forse sarebbe possibile.
Vista però la qualità del porting dei giochi su PC, sono un pò scettico.
questo accade già da qualche anno, come te lo devo dire? :stordita:
è ovvio che allo stato attuale una vga multi core (come G80 e r600, ad esempio) siano molto più adatte ai calcoli fisici di una cpu (anche octacore, ha voluto far vedere Nvidia ad Intel) proprio per questo sono ottimista riguardo l'implementazione di Phisix
penso avrai capito in che senso intendevo "giochi sviluppati apposta". Inoltre molti giochi sfruttano anche Havoc di lntel. Quando si parla di GPGPU e CPU, si tira dentro anche l'Incubo Blu, che ha forti interessi in queste cose.
Io sto seguendo lo sviluppo del client folding@home per le schede AMD (che in effetti è proprio "simulazione fisica") e anche lo sviluppo dei codec video per linux su GPGPU. (in particolare, è in lavorazione Dirac per Cuda).
Ci sono tante cose promettenti ma anche tante difficoltà (il progetto ffmpeg - codec video - ha scartato di usare la GPU per ora perché hanno stimato un degrado di prestazioni), mentre su f@h devono usare WU specifiche e molto grandi per rendere l'utilizzo delle 3850 maggiori del 50% senza che la CPU faccia da collo di bottiglia...
Sto facendo questo bordello pessimistico sulla fisica nei giochi solo per controbilanciare il marketing AMD&nVidia che distorce la realtà. Sembro troppo pessimista perché devo mandare un messaggio chiaro ;)
questi sono altri discorsi....
Mercuri0
17-05-2008, 19:31
questo accade già da qualche anno, come te lo devo dire? :stordita:
Non avevo trovato info a proposito, la maggior parte delle cose che avevo trovato a proposito dell'accelerazione fisica sulle schede ageia mi è sembrata molto tipo la modalità "Very High solo DX10" di Crysis.
Ci sta comunque che mi sia perso qualcosa, e che nVidia riesca a spingere pesantemente lo sviluppo dei giochi (questo io me lo auguro. Tutto quello che può danneggiare lntel, me lo auguro).
Sopratutto i programmatori dovranno avere molta fantasia negli effetti da far girare sulle GPU. Non credo che il folding delle proteine o simulazioni di campi vettoriali siano molto divertenti ^^'', e le collisioni di un migliaio di palline le gestisce meglio la CPU.
p.s. con quel demo di Nehalem, lntel se l'è proprio andata a cercare. Il giorno stesso avevo pensato: "Si sono andati a cercare un caso favorevole alle GPU... tempo 3 settimane e nVidia li umilia :asd: "
appleroof
17-05-2008, 19:33
Non ha necessariamente detto una boiata, bisogna vedere "sarebbero diventate" a quale remoto futuro si riferisce :>
E' anche ovvio che oggi una CPU non può fare da sola quello per cui serve una GPU.
QX9milamilioni + G35 farà sempre peggio di Celeron Scarsus Edition + 8800GTS. Quindi se non so che schede video mi usano nel fare una simulazione grafica, indipendentemente da chi faccia i calcoli fisici, quella prova non mi dice niente di niente...
Come proof of concept può essere interessante, ma rispetto al mondo reale si ferma lì. Non è detto che la fantastica GPU che può fare strabilianti calcoli fisici sia in grado di farli quando in gioco entra anche il motore grafico di un gioco di ultima generazione e la GPU non potendo raddoppiarsi deve decidere se fare l'una cosa o farla solo parzialmente per occuparsi anche della fisica. Io credo calerebbe il framerate. Drasticamente? Molto probabile.
sono d'accordo, questo però non mi impedisce di essere ottimista: 200fps di un demo possono diventare 25 in un gioco "completo", ma parliamo di una 8800gts, se parliamo di 192sp, di 240sp e sw maturo, credo che magari saranno 40/50fps, non so se rendo...
p.s.: ovvio, quell'ingegnere si riferiva a larrabee, per cominciare ;)
appleroof
17-05-2008, 19:38
Non avevo trovato info a proposito, la maggior parte delle cose che avevo trovato a proposito dell'accelerazione fisica sulle schede ageia mi è sembrata molto tipo la modalità "Very High solo DX10" di Crysis.
Ci sta comunque che mi sia perso qualcosa, e che nVidia riesca a spingere pesantemente lo sviluppo dei giochi (questo io me lo auguro. Tutto quello che può danneggiare lntel, me lo auguro).
e si...molti giochi che hanno la fisica abilitata solo con hw dedicato (una ppu Ageia) tipo, per citarne uno recente GRAW2: se non hai la ppu giochi lo stesso. ma senza quegli effetti
quanto all'implementazione massiccia finora non si è visto cmq granchè, ci sta che da adesso magari ne vedremo di migliori
Sopratutto i programmatori dovranno avere molta fantasia negli effetti da far girare sulle GPU. Non credo che il folding delle proteine o simulazioni di campi vettoriali siano molto divertenti ^^'', e le collisioni di un migliaio di palline le gestisce meglio la CPU.
:asd:
mircocatta
17-05-2008, 19:39
aldila del'ovvio e del naturale e del fatto che vado sostenendo da tempo alcune cose ecco qui...
http://img204.imageshack.us/img204/9743/gtx200seriesspecnnfx571ve4.png
ripeto tutta la prima riga. tutta.
;)
porca pupazzola! cos'è quel supporto allageia pishic !?!? non è cuda technologies...
DriftKing
17-05-2008, 19:50
si tratta di una nuova scheda della quale non sono a conoscenza? :asd: :asd:
:asd::asd::asd:
Marko#88
17-05-2008, 20:11
si tratta di una nuova scheda della quale non sono a conoscenza? :asd: :asd:
:rotfl:
Mister Tarpone
17-05-2008, 20:11
:asd::asd::asd:
:rotfl:
mi unisco alle risate: :sbonk:
Skullcrusher
17-05-2008, 20:16
38fps tutto very high..fonte? mi sembrano troppi per la gx2
Confermo che quello è il framerate medio di Crysis tutto in very high e senza AA ( ma con AF16x ), è tranquillamente giocabile ( strano ma vero ).
Se la nuova GTX280 andrà almeno un 30% più della 9800GX2, forse sarà la volta buona in cui si potrà giocare a Crysis in Very high più un leggero AA attivo :sofico:
anche se è quello medio per avere il minimo c'è da togliere almeno altri 7-8 fps se non 10 nei casi peggiori, cmq come ho gia detto, si avranno sempre almeno i 30 fps tutto very high, 1680x1050.
QX9milamilioni + G35 farà sempre peggio di Celeron Scarsus Edition + 8800GTS.
LOL :rotfl:
appleroof
18-05-2008, 09:54
Benché non sia ottimista in merito le potenzialità ci sono tutte, come in tante altre cose che abbiamo visto morire presto e senza fortuna in campo informatico e come quelle che hanno avuto successo. Abbiamo visto cose buone e cose pessime affermarsi, così come altrettante morire, per questo non sono ottimista, ma possibilista senz'altro.
Quello che però vorrei sapere è come è stato effettuato il test, se su due PC uguali (QX9xxx+8800GTS) di cui uno con fisica gestita dalla CPU e uno dalla GPU, nel qual caso il risultato può dirsi interessante, o se in un caso QX+integrata e nell'altro CPU+8800GTS, nel qual caso i due risultati non sono confrontabili, perché potrebbe poi risolversi che mettendo la stesa VGA nel primo PC ottieni 299fps contro 300fps della soluzione in cui la fisica è gestita dalla GPU. Senza questa informazione la notizia non ha senso, semplicemente perché non manca l'informazione necessaria per giudicare la validità scientifica del test.
Io ho provato a cercare per capire il test com'è stato fatto e non ci sono riuscito, se qualcuno lo sa si faccia avanti perché sarebbe interessante saperlo, anche per speculare ulteriormente sulle specifiche appena ventilate di GT200.
Ratatosk se tu avvii un test in cui si vuole misurare la capacità di calcolare la fisica e basta, non hai un collo di bottiglia tale da invalidare un test: non si tratta di renderizzare scene complesse applicando filtri e cose varie (nel qual caso ovviamente una cpu crolla di fronte ad una vga anche scarsina) capito?
se tu avvii i demo Ageia gratuiti ti renderai conto di cosa parlo
mircocatta
18-05-2008, 10:29
mi unisco alle risate: :sbonk:
eddai solo perchè non ho messo un apostrofo?:confused: :oink:
non mi dire :asd: non me lo sarei mai aspettato da te :Perfido:
ti riporto anche questo
NVIDIA ha effettuato alcune dimostrazioni pratiche delle potenzialità dell'engine PhysX quando elaborato, via CUDA, direttamente dalle proprie GPU. Nel corso di una dimostrazione, NVIDIA è stata capace di eseguire un demo di fisica con 50.000-60.000 particelle, paragonabile quindi a quella utilizzata da Intel in occasione dell'IDF Spring 2008 di Shanghai a inizio Aprile per mostrare le potenzialità di elaborazione delle proprie cpu della famiglia Nehalem.
Se nel demo Intel venivano raggiunti circa i 20 frames al secondo di media, ben differente è stato il risultato con le soluzioni NVIDIA, capaci di frames al secondo nell'ordine dei 300.
http://www.hwupgrade.it/news/skvideo/gpu-e-cuda-per-l-engine-physx-di-ageia_25018.html
adesso, non credo che le "soluzioni Nvidia" fossero GT200 (sai che scoop :asd: ) quindi la cosa fà ben sperare, a dir poco
al solito poi bisogna stabilire con che occhi guardi le cose....;)
Cuda è libero, qualcunque programmatore potrà sviluppare a piacimento Phisix all'interno dei giochi, con magari un apposito settaggio (manuale o auto) che lo esclude se la scheda non è nvidia (Amd o consolle)
per il resto, è chiaro che siamo agli inizi, ma "abbastanza promettenti"
Una seconda dimostrazione ha coinvolto la riproduzione del movimento di alcuni pezzi di stoffa: un quad-core Intel Core 2 Extreme ha renderizzato la scena a 12 fps, una 8800 GTS circa a 200 fps. Nonostante non fosse presente un hardware Ageia dedicato, alcune dimostrazioni precedenti - se non ricordiamo male - lavoravano a 150/180 fps.
non è un gioco completo ok, ma se qui ci sono 200fps, se in un gioco lo stesso effetto porta il FR a 40fps direi che io mi sentirei abbastanza soddisfatto, tu?
senza dimenticare che come dicevo le gpu con le quali hanno fatto queste dimostrazioni non credo fossero certo GT200 (ben più potenti, mi pare di aver capito, di g80/g92)
Come vedi confermi le mie perplessità: un pezzetto di stoffa/demo è molto diverso da un gioco completo...
Voglio proprio vedere se con la scheda che già si sforza per darti 60fps con tutti gli eye candy di questo mondo riesci comunque ad ottenere vantaggi tangibili sulla fisica... :asd:
Il vero vantaggio di chi aveva la scheda Ageia era l'avere una scheda separata che si occupava solo di quello.
Con questo supporto la fisica potrà essere supportata di più, vero, ma diventerà una di quelle opzioni pesantissime (tipo LOD, DOF, blur, ecc...) che ti ammazzano le prestazioni, se non hai un sistema multi gpu...
Io nel breve avrei preferito avere prestazioni e qualità migliori con l'AA, sinceramente (anche se non è che disdegno questo supporto fisico, se funzionerà davvero).
appleroof
18-05-2008, 12:28
Come vedi confermi le mie perplessità: un pezzetto di stoffa/demo è molto diverso da un gioco completo...
Voglio proprio vedere se con la scheda che già si sforza per darti 60fps con tutti gli eye candy di questo mondo riesci comunque ad ottenere vantaggi tangibili sulla fisica... :asd:
Il vero vantaggio di chi aveva la scheda Ageia era l'avere una scheda separata che si occupava solo di quello.
Con questo supporto la fisica potrà essere supportata di più, vero, ma diventerà una di quelle opzioni pesantissime (tipo LOD, DOF, blur, ecc...) che ti ammazzano le prestazioni, se non hai un sistema multi gpu...
Io nel breve avrei preferito avere prestazioni e qualità migliori con l'AA, sinceramente (anche se non è che disdegno questo supporto fisico, se funzionerà davvero).
sono gli sp ad essere coinvolti, non la gpu, quindi in teoria maggiore potenza in termini di numero di sp hai maggiore resa puoi garantire, poi è ovvio che se hai una scheda totalmente dedicata a quello è meglio ancora ma sempre in termini di sp secondo me
inoltre tutto è partito dall'osservazione che Phisix all'interno delle vga Nvidia è solo marketing e non c'era stata alcun annunvio/dimostrazione da parte di Nvidia, allora ho dimostrato che non è così, non intendevo affermare che una 8800gts farebbe 1000fps con un gioco che implementa anche la fisica avanzata (leggi bene il post che hai quotato e gli altri se hai voglia)
e cmq, per inciso, se (come anche qui ho già scritto) con un demo la 8800gts fà 200fps è sicuro, direi, che quello stesso calcolo inserito in un gioco "completo" faccia crollare il frame rate, ma ci stà tutto che una GTX2x0 con 1/3-il doppio di sp "soffra" molto meno non ti pare?
ma il punto cmq non era quello, spero adesso sia più chiaro
nico88desmo
18-05-2008, 12:46
sono gli sp ad essere coinvolti, non la gpu, quindi in teoria maggiore potenza in termini di numero di sp hai maggiore resa puoi garantire, poi è ovvio che se hai una scheda totalmente dedicata a quello è meglio ancora ma sempre in termini di sp secondo me
inoltre tutto è partito dall'osservazione che Phisix all'interno delle vga Nvidia è solo marketing e non c'era stata alcun annunvio/dimostrazione da parte di Nvidia, allora ho dimostrato che non è così, non intendevo affermare che una 8800gts farebbe 1000fps con un gioco che implementa anche la fisica avanzata (leggi bene il post che hai quotato e gli altri se hai voglia)
e cmq, per inciso, se (come anche qui ho già scritto) con un demo la 8800gts fà 200fps è sicuro, direi, che quello stesso calcolo inserito in un gioco "completo" faccia crollare il frame rate, ma ci stà tutto che una GTX2x0 con 1/3-il doppio di sp "soffra" molto meno non ti pare?
ma il punto cmq non era quello, spero adesso sia più chiaro
Quoto. Considerando anche che il doppio di SP non significa il doppio di prestazioni. (basta vedere la 9600GT quanto và)
I giochi attuali non sono SP dipendenti; secondo me con la nuova scheda ci sarà la potenza necessaria per far gestire la Fisica alla GPU.
mircocatta
18-05-2008, 23:27
Come vedi confermi le mie perplessità: un pezzetto di stoffa/demo è molto diverso da un gioco completo...
Voglio proprio vedere se con la scheda che già si sforza per darti 60fps con tutti gli eye candy di questo mondo riesci comunque ad ottenere vantaggi tangibili sulla fisica... :asd:
Il vero vantaggio di chi aveva la scheda Ageia era l'avere una scheda separata che si occupava solo di quello.
Con questo supporto la fisica potrà essere supportata di più, vero, ma diventerà una di quelle opzioni pesantissime (tipo LOD, DOF, blur, ecc...) che ti ammazzano le prestazioni, se non hai un sistema multi gpu...
Io nel breve avrei preferito avere prestazioni e qualità migliori con l'AA, sinceramente (anche se non è che disdegno questo supporto fisico, se funzionerà davvero).
concordo, infatti a quella notizia io rimasi preplesso...ok in qualcosa di semplice, ma ion un gioco in cui la scheda video non si occupa solo di fisica?
cqm tutti stiamo sbavando per questo cuda e ageia technologies...ma tutti ci dimentichiamo che è il gioco che deve supportare cuda, non il contrario..
per questo c'è la iniziativa di nvidia per progetti cuda...per invogliare a fare programmi su quello anzichè in modo normale...
quindi cuda deve esser supportato dai giochi, come con le directx..sono disponibili le librerie ma non è detto che vengano utilizzate per fare i giochi..
e per me questa implementazione non sarà facile e soprattutto non con tutti i giochi, visto che penso che appesantirà il lavoro dei programmatori, che dovranno lavorare in due direzioni..
almeno così ho capito io ;)
e se ho capito bene, nvidia per battere intel sul campo della fisicaa dovrebbe allearsi con ati fornendogli in licenza cuda ecc ecc così da invogliare completamente i programmatori di giochi nello sviluppo della fisica su VGA e non CPU e non facendo un doppio lavoro per vga ati prive di cuda e nvidia con cuda..ma la vedo una cosa impossibile..
Marko#88
19-05-2008, 07:17
ma poi anche nelle 8800 in teoria c'era il quantum physics o una roba simile e poi non mi sembra che sia mai stato sfruttato...sbaglio?
ma poi anche nelle 8800 in teoria c'era il quantum physics o una roba simile e poi non mi sembra che sia mai stato sfruttato...sbaglio?
Si anch'io mi ricordo di questo elaboratore per la fisica delle 8800, ne parlarono al debutto.
Sulla base delle caratteristiche presunte, percentualmente parlando quale potrebbe essere l'incremento di una GTX280 su una top di gamma G92?
Se la risposta bene o male è già stata data chiedo scusa in anticipo, non ho il tempo materiale per sfogliare tutta la cartellina.
Rimango sintonizzato in attesa dei primi succulenti bench :)
halduemilauno
19-05-2008, 08:46
Sulla base delle caratteristiche presunte, percentualmente parlando quale potrebbe essere l'incremento di una GTX280 su una top di gamma G92?
Se la risposta bene o male è già stata data chiedo scusa in anticipo, non ho il tempo materiale per sfogliare tutta la cartellina.
Rimango sintonizzato in attesa dei primi succulenti bench :)
quindi rispetto a una 9800gtx? a carattere generale + o - il doppio.
;)
quindi rispetto a una 9800gtx? a carattere generale + o - il doppio.
;)
Urka... sarebbe il tanto atteso salto prestazionale!
Grazie hal ;)
halduemilauno
19-05-2008, 12:33
http://www.hwupgrade.it/news/skvideo/nvidia-geforce-gtx-200-le-specifiche-tecniche_25346.html
A questo indirizzo sono state pubblicate quelle che dovrebbero, o meglio dovremmo dire potrebbero, essere le specifiche tecniche delle nuove schede video NVIDIA top di gamma, attese al debutto nel corso del mese di Giugno.
Abbiamo già indicato come queste schede video utilizzeranno una nuova tipologia di nomi, abbandonando quello previsto di GeForce 9900 in favore di GeForce GTX 200. Al debutto verranno presumibilmente presentate due diverse tipologie di schede video: GeForce GTX 280 quale soluzione top di gamma e GeForce GTX 260 quale proposta immediatamente inferiore per prezzo, replicando quindi nelle modalità il debutto delle prime soluzioni GeForce 8800 avvenuto con le schede GeForce 8800 GTX e GeForce 8800 GTS.
L'approccio scelto da NVIDIA con queste nuove schede video sarà del resto simile a quanto visto nel mese di Novembre 2006 con le soluzioni GeForce 8800: le due schede video differiranno sia per il quantitativo di stream processors integrati che per il bus memoria.
Partiamo nell'analisi dalla soluzione top di gamma, modello GeForce GTX 280: questa scheda video integrerà GPU GT200 con 240 stream processors al proprio interno, abbinata a 1 Gbytes di memoria video GDDR3 con bus da 512bit di ampiezza. Questo quantitativo di memoria verrà ottenuto utilizzando 16 chip memoria, montati in due blocchi da 8 chip su ciascuno dei due lati del PCB.
La scheda GeForce GTX 260 utilizzerà una versione di GPU con 192 stream processors, abbinata a una dotazione di memoria video GDDR3 di 896 MBytes con bus memoria da 448 bit di ampiezza; in questo caso troveremo 14 chip memoria montati sul PCB, ciascuno con ampiezza di bus di 32bit e capacità di 64 Mbytes.
Tra le caratteristiche comuni di queste due schede troveremo il supporto alla tecnologia CUDA e alla tecnologia PhysX, implementata da NVIDIA proprio attraverso l'utilizzo di CUDA; non è al momento ben chiaro se anche NVIDIA supporterà con questa nuova serie di prodotti le API DirectX 10.1 di Microsoft, introdotte con il Service Pack 1 di Windows Vista e attualmente gestite solo dalle archtietture ATI Radeon HD 3000. Non mancherà ovviamente un engine video, quello PureVideo HD, ma anche per questo elemento mancano al momento informazioni dettagliate su quelle che ne potranno essere le peculiarità.
;)
Futura12
19-05-2008, 13:06
quindi rispetto a una 9800gtx? a carattere generale + o - il doppio.
;)
non ci credo neanche se mi danno 10 milioni di euro in contanti
non ci credo neanche se mi danno 10 milioni di euro in contanti
vabbe, significa che ti perdi i 10 milioni di euro ;)
... secondo te con un raddoppio praticamente di tutto, di sp, di bus, di memoria, etc, quanto potrà andare di più?
;)
Futura12
19-05-2008, 13:39
vabbe, significa che ti perdi i 10 milioni di euro ;)
... secondo te con un raddoppio praticamente di tutto, di sp, di bus, di memoria, etc, quanto potrà andare di più?
;)
si...li sto per perdere....:rolleyes:
Quando usciranno i test vedrete altro che va il doppio...si in un altra vita forse;)
Ipotizzo un massimo di 35% più veloce della 9800GTX non oltre.
halduemilauno
19-05-2008, 13:41
si...li sto per perdere....:rolleyes:
Quando usciranno i test vedrete altro che va il doppio...si in un altra vita forse;)
Ipotizzo un massimo di 35% più veloce della 9800GTX non oltre.
a quindi andrà ben meno dell'attuale 9800gx2.
:tapiro:
Andrea deluxe
19-05-2008, 13:42
vabbe, significa che ti perdi i 10 milioni di euro ;)
... secondo te con un raddoppio praticamente di tutto, di sp, di bus, di memoria, etc, quanto potrà andare di più?
;)
magari se hanno ottimizzato, si puo' ottenere pure piu' del raddoppio:D (e lo spero visto che non vedo l'ora di disfarmi della 9800gx2)
Futura12
19-05-2008, 13:48
a quindi andrà ben meno dell'attuale 9800gx2.
:tapiro:
a te preferirei proprio non rispondere....sei un fanboy Nvidia quindi qualsiasi cosa dico contro questa scheda mi devo scontrare con te.
La 9800GX2 la puoi pure buttare al cesso.
si...li sto per perdere....:rolleyes:
Quando usciranno i test vedrete altro che va il doppio...si in un altra vita forse;)
Ipotizzo un massimo di 35% più veloce della 9800GTX non oltre.
Vanna Marchi ti fa una pip*a ;)
Allora che la fa uscire a fare? al prezzo della 9800gx2, ma con prestazioni inferiori ... :confused:
magari se hanno ottimizzato, si puo' ottenere pure piu' del raddoppio:D (e lo spero visto che non vedo l'ora di disfarmi della 9800gx2)
perchè no? ;)
poi se l' amico del thread della notizia di oggi su gtx 280 ci fa conoscere il suo amico che risce a ottenere il 500% delle prestazioni in più da una 2900xt, puoi aspettarti ben di più :asd: fine ot;)
fosse così (previsione ridicola x me)
è la volta buona che prendo 2x 9800gx2 e vado di quad-sli fino a fine 2009. :asd:
:asd:
john ti aspettavo, vieni un attimo su hamachi :asd:
Futura12
19-05-2008, 14:10
Vanna Marchi ti fa una pip*a ;)
Allora che la fa uscire a fare? al prezzo della 9800gx2, ma con prestazioni inferiori ... :confused:
perchè no? ;)
poi se l' amico del thread della notizia di oggi su gtx 280 ci fa conoscere il suo amico che risce a ottenere il 500% delle prestazioni in più da una 2900xt, puoi aspettarti ben di più :asd: fine ot;)
dimentichi che la 9800GX2 è una dual-gpu.
a te preferirei proprio non rispondere....sei un fanboy Nvidia quindi qualsiasi cosa dico contro questa scheda mi devo scontrare con te.
La 9800GX2 la puoi pure buttare al cesso.
lui però ha opinioni ragionate secondo rumors, prezzi, hardware.
Che sia di parte è innegabile, ma i suoi ragionamenti sono sempre oculati.
tu su cosa ti basi per dire "andrà un 35% in più, non oltre"? o l'hai campato per aria giusto per scatenare flame? :rolleyes:
Marko#88
19-05-2008, 14:26
non ci credo neanche se mi danno 10 milioni di euro in contanti
Secondo me non è affatto impossibile...un raddoppio (o quasi) degli sp, un bus doppio, praticamente tutte le caratteristiche raddoppiate...se non andrà il 100% in più poco ci manca...senza essere limitata alle alte risoluzioni (in cui la 9800gtx a volte è inferiore alla 8800ultra) visto che vram e banda sono anche troppo elevati :asd:
...imho sarà un bel mostro, capacissima di raddoppiare le prestazioni della 9800gtx o comunque andarci vicinissimo...:)
goldorak
19-05-2008, 14:41
lui però ha opinioni ragionate secondo rumors, prezzi, hardware.
Che sia di parte è innegabile, ma i suoi ragionamenti sono sempre oculati.
tu su cosa ti basi per dire "andrà un 35% in più, non oltre"? o l'hai campato per aria giusto per scatenare flame? :rolleyes:
Ah bene, fare un ragionamento su un rumor adesso e' essere oculati ? :asd:
Suvvia ci sono certe fascie di utenti che direbbero che la 9800pro dei tempi andati sarebbe stata una scelta inferiore alle FX. :Perfido:
Mettere Halduemilauno e ragionamenti oculati e imparziali nella stessa frase e' un ossimoro.
dimentichi che la 9800GX2 è una dual-gpu.
e cosa c'entra?
Futura12
19-05-2008, 14:46
e cosa c'entra?
cosa centra cosa?:rolleyes: sei tu che l'hai messa in mezzo insieme ad HAL paragonandola alla GTX260....mentre il confronto va fatto con la 9800GTX.
Comunque ragazzi non sono venuto ne per flammare ne per fare il fanboy...visto che ho 2 Nvidia:P....se questa scheda andrà veramente il doppio di una Ultra...ma che ben venga...soltanto che secondo me è solo utopia.
Ah bene, fare un ragionamento su un rumor adesso e' essere oculati ? :asd:
Suvvia ci sono certe fascie di utenti che direbbero che la 9800pro dei tempi andati sarebbe stata una scelta inferiore alle FX. :Perfido:
Mettere Halduemilauno e ragionamenti oculati e imparziali nella stessa frase e' un ossimoro.
ho specificato che non è imparziale :asd:
in qualunque caso in un thread come questo si cerca di scremare tra rumors veri e falsi, e si ragiona su quest'ultimi. è ovvio che è tutto ipotetico e da verificare, non ci sarebbe nemmeno bisogno di un thread altrimenti ;)
quello che voglio dire è che Hal si basa comunque su rumors (che siano veritieri è appunto da verificare, ma non possiamo saperlo con certezza finchè non ci saranno recensioni ufficiali :) ). l'utente qua sopra invece non ha riportato nessun parere tecnico, nessun rumor. A sto punto posso dire anche io che la nuova serie nvidia andrà il 300% in più dell'attuale G92.. Avrei la stessa credibilità. Ovvero pari a 0 :)
cosa centra cosa?:rolleyes: sei tu che l'hai messa in mezzo insieme ad HAL paragonandola alla GTX260....mentre il confronto va fatto con la 9800GTX
ma che c'entra il termine di paragone??!!! se le prestazioni saranno quelle non c'è tanto da starci a fare paragoni ... la gtx260 non l' ho mai neanche nominata, mentre ti sto dicendo che sono d' accordo con halduemilauno quando dice che supererà la 9800gtx di circa il doppio, e se non andrà il doppio, andrà un 90% di più, se ci vuoi credere ci credi, se non ci vuoi credere non ci credi, ma ti assicuro che ti sbagli ...
;)
http://www.hwupgrade.it/news/skvideo/nvidia-geforce-gtx-200-le-specifiche-tecniche_25346.html
A questo indirizzo sono state pubblicate quelle che dovrebbero, o meglio dovremmo dire potrebbero, essere le specifiche tecniche delle nuove schede video NVIDIA top di gamma, attese al debutto nel corso del mese di Giugno.
Abbiamo già indicato come queste schede video utilizzeranno una nuova tipologia di nomi, abbandonando quello previsto di GeForce 9900 in favore di GeForce GTX 200. Al debutto verranno presumibilmente presentate due diverse tipologie di schede video: GeForce GTX 280 quale soluzione top di gamma e GeForce GTX 260 quale proposta immediatamente inferiore per prezzo, replicando quindi nelle modalità il debutto delle prime soluzioni GeForce 8800 avvenuto con le schede GeForce 8800 GTX e GeForce 8800 GTS.
L'approccio scelto da NVIDIA con queste nuove schede video sarà del resto simile a quanto visto nel mese di Novembre 2006 con le soluzioni GeForce 8800: le due schede video differiranno sia per il quantitativo di stream processors integrati che per il bus memoria.
Partiamo nell'analisi dalla soluzione top di gamma, modello GeForce GTX 280: questa scheda video integrerà GPU GT200 con 240 stream processors al proprio interno, abbinata a 1 Gbytes di memoria video GDDR3 con bus da 512bit di ampiezza. Questo quantitativo di memoria verrà ottenuto utilizzando 16 chip memoria, montati in due blocchi da 8 chip su ciascuno dei due lati del PCB.
La scheda GeForce GTX 260 utilizzerà una versione di GPU con 192 stream processors, abbinata a una dotazione di memoria video GDDR3 di 896 MBytes con bus memoria da 448 bit di ampiezza; in questo caso troveremo 14 chip memoria montati sul PCB, ciascuno con ampiezza di bus di 32bit e capacità di 64 Mbytes.
Tra le caratteristiche comuni di queste due schede troveremo il supporto alla tecnologia CUDA e alla tecnologia PhysX, implementata da NVIDIA proprio attraverso l'utilizzo di CUDA; non è al momento ben chiaro se anche NVIDIA supporterà con questa nuova serie di prodotti le API DirectX 10.1 di Microsoft, introdotte con il Service Pack 1 di Windows Vista e attualmente gestite solo dalle archtietture ATI Radeon HD 3000. Non mancherà ovviamente un engine video, quello PureVideo HD, ma anche per questo elemento mancano al momento informazioni dettagliate su quelle che ne potranno essere le peculiarità.
;)
Mi sto già leccando i baffi. :p
Mi sto già leccando i baffi. :p
e che te la vuoi mangiare gtx280?:eek:
e che te la vuoi mangiare gtx280?:eek:
E non solo... :asd:
E non solo... :asd:
oddio cosi' mi fai pensare male :asd:
oddio cosi' mi fai pensare male :asd:
:Prrr:
Spam detected :asd:
Comunque, le specifiche sono quasi doppie in tutto.
Mi aspetto prestazioni in alcuni casi inferiori al 100%, perché un architettura secondo me, per quanto riesca ad essere efficiente, non puó fare il raddoppio solo cosi.
Peró nei casi in cui la memoria e la banda fanno da collo in g92, potremmo assistere ad un incremento ben superiore al 100%
Parlo da inesperto nel tema architetture, io questa materia la faccio solo l' anno prossimo :)
Spam detected :asd:
Comunque, le specifiche sono quasi doppie in tutto.
Mi aspetto prestazioni in alcuni casi inferiori al 100%, perché un architettura secondo me, per quanto riesca ad essere efficiente, non puó fare il raddoppio solo cosi.
Peró nei casi in cui la memoria e la banda fanno da collo in g92, potremmo assistere ad un incremento ben superiore al 100%
Parlo da inesperto nel tema architetture, io questa materia la faccio solo l' anno prossimo :)
Nemmeno io sono esperto di architetture, ma segnalo che forse non si è ancora valorizzato abbastanza, e non capisco perchè, il fatto che il cippone probabilm avrà tra il miliardo e il miliardo e 300 milioni di transistor. Quindi dai 250 ai 550 milioni in più di prima, oltre al raddoppio di tutto quello che avete detto. Se non erro è stata postata la "proporzione" tra superficie e numero transistor di g92 e gt200 ... dovremmo superare di un bel po' il miliardo. infatti se non erro ogni 2 anni i transistor su vga raddoppiano, no?
Se devo scommettere, finchè non vedo le rece ufficiali, direi raddoppio generalizzato rispetto a 9800gtx con variazioni in più e in meno a seconda dei vari titoli e dei driver. ;)
Helldron
19-05-2008, 18:02
Ragazzi ma è vero che GTX 260 costerà 300 euro?? Mio dio se è così sarà la scheda definitiva da preferire alla 9800GTX senza indugi :sbavvv:
L'uscita ufficiale è confermata per giugno???
Per GTX 280 non c'è storia..costa too much!!!
leoneazzurro
19-05-2008, 18:08
Ragazzi ma è vero che GTX 260 costerà 300 euro?? Mio dio se è così sarà la scheda definitiva da preferire alla 9800GTX senza indugi :sbavvv:
L'uscita ufficiale è confermata per giugno???
Per GTX 280 non c'è storia..costa too much!!!
Prima o poi si :asd:
In realtà, nessun prezzo è stato annunciato ufficialmente, per cui adesso si può dire tutto e il contrario di tutto...
appleroof
19-05-2008, 18:19
Prima o poi si :asd:
In realtà, nessun prezzo è stato annunciato ufficialmente, per cui adesso si può dire tutto e il contrario di tutto...
bè visto che diamo seguito ai rumors, ed infatti così sapevamo da tempo le caratteristiche quasi definitive, sembra, salvo grosse sorprese, di gtx280 e 260 (almeno i più attenti ed assidui frequentatori :asd: ), si dice un prezzo di $500 per la gtx280 e $400 per gtx260, poi se verrà applicato il cambio esatto o quello all' "italiana" ( :stordita: ) non si sà
cmq i prezzi ventilati mi sembrano verosimili
bè visto che diamo seguito ai rumors, ed infatti così sapevamo da tempo le caratteristiche quasi definitive, sembra, salvo grosse sorprese, di gtx280 e 260 (almeno i più attenti ed assidui frequentatori :asd: ), si dice un prezzo di $500 per la gtx280 e $400 per gtx260, poi se verrà applicato il cambio esatto o quello all' "italiana" ( :stordita: ) non si sà
cmq i prezzi ventilati mi sembrano verosimili
Io dico che viene applicato quello all'italiana e che secondo me si va anche sopra i 600 per GTX 280 (ovviamente spero di no). :rolleyes:
Mister Tarpone
19-05-2008, 18:35
Io dico che viene applicato quello all'italiana e che secondo me si va anche sopra i 600 per GTX 280 (ovviamente spero di no). :rolleyes:
la prenderesti anche a quel prezzo :asd:
DriftKing
19-05-2008, 18:36
Io dico che viene applicato quello all'italiana e che secondo me si va anche sopra i 600 per GTX 280 (ovviamente spero di no). :rolleyes:
questo discorso l'abbiamo gia affrontato ... e ,se nn ricordo male, siamo convenuti sul dire: "dipende tutto da ati" ...
appleroof
19-05-2008, 18:42
Io dico che viene applicato quello all'italiana e che secondo me si va anche sopra i 600 per GTX 280 (ovviamente spero di no). :rolleyes:
questo discorso l'abbiamo gia affrontato ... e ,se nn ricordo male, siamo convenuti sul dire: "dipende tutto da ati" ...
sono d'accordo, la scheda ha ovviamente un prezzo "suo" che poi sarà influenzato anche dalla concorrenza, come sempre
cmq se come pare 4870x2 dovesse essere la diretta concorrente di gtx280, bisogna tenere sempre presente che la prima dovrebbe uscire un mesetto dopo....
secondo mè avranno un prezzo simile a quando immisereo nel mercato la serie 7800 evoluzione del chip nv40 cioè non esageratissimo ma neanche tanto basso...io dico 500 o poco più per la GTX 280 e 350 per 260,poi boh mi posso clamororosamente sbagliare come spesso mi capita:p :fagiano:
appleroof
19-05-2008, 18:59
secondo mè avranno un prezzo simile a quando immisereo nel mercato la serie 7800 evoluzione del chip nv40 cioè non esageratissimo ma neanche tanto basso...io dico 500 o poco più per la GTX 280 e 350 per 260,poi boh mi posso clamororosamente sbagliare come spesso mi capita:p :fagiano:
anche io mi aspetto prezzi del genere, forse sui 400 per gtx260, però anche io nat mi posso clamorosamente sbagliare :D
E non solo... :asd:
:D
Ragazzi ma è vero che GTX 260 costerà 300 euro?? Mio dio se è così sarà la scheda definitiva da preferire alla 9800GTX senza indugi :sbavvv:
L'uscita ufficiale è confermata per giugno???
Per GTX 280 non c'è storia..costa too much!!!
magari,lo spero
halduemilauno
19-05-2008, 19:01
Ragazzi ma è vero che GTX 260 costerà 300 euro?? Mio dio se è così sarà la scheda definitiva da preferire alla 9800GTX senza indugi :sbavvv:
L'uscita ufficiale è confermata per giugno???
Per GTX 280 non c'è storia..costa too much!!!
la gtx 260 è data a 399$. ora è chiaro che dipenderà anche dal mercato. dato che essa uscirà alcune settimane prima della 4870 in assenza di essa potrà avere sicuramente un prezzo + alto poi si aspetterà il confronto diretto per un'eventuale riposizionamento. tutto questo per dire che difficilmente alla sua uscità(anche per via dell'effetto novità)costerà quello che tu hai detto ovvero 300€. magari.
di ufficiale nulla si dice 18 giugno.
;)
la prenderesti anche a quel prezzo :asd:
:fiufiu:
questo discorso l'abbiamo gia affrontato ... e ,se nn ricordo male, siamo convenuti sul dire: "dipende tutto da ati" ...
Allora di sicuro 600 e passa! :asd:
:D
magari,lo spero
Ehi Denny21 il tuo avatar è in caricamento fisso, c'è la rondella che gira, non riesco a vederlo.
:asd:
-noxius-
19-05-2008, 19:30
la gtx 260 è data a 399$. ora è chiaro che dipenderà anche dal mercato. dato che essa uscirà alcune settimane prima della 4870 in assenza di essa potrà avere sicuramente un prezzo + alto poi si aspetterà il confronto diretto per un'eventuale riposizionamento. tutto questo per dire che difficilmente alla sua uscità(anche per via dell'effetto novità)costerà quello che tu hai detto ovvero 300€. magari.
di ufficiale nulla si dice 18 giugno.
;)
Se la gt260 e la gt280 dovessero costare rispettivamente 390 e 500 io di certo non me le comprerei ; d'altra parte che senso avrebbe, adesso, prendersele ? Per avere una scheda che fa girare cysis a 2560 quando magari abbiamo un 1600x1200 e basterebbe uno sli di 9600gt e/o una ''semplice'' 8800gts512 ? Mah .. che almeno uscissero altri giochi, se devo spendere 500 e passa euro solo per crysis a questo punto la lascio sullo scaffale.
Se la gt260 e la gt280 dovessero costare rispettivamente 390 e 500 io di certo non me le comprerei ; d'altra parte che senso avrebbe, adesso, prendersele ? Per avere una scheda che fa girare cysis a 2560 quando magari abbiamo un 1600x1200 e basterebbe uno sli di 9600gt e/o una ''semplice'' 8800gts512 ? Mah .. che almeno uscissero altri giochi, se devo spendere 500 e passa euro solo per crysis a questo punto la lascio sullo scaffale.
Eh no, c'è anche Far Cry 2. :D
appleroof
19-05-2008, 19:39
Se la gt260 e la gt280 dovessero costare rispettivamente 390 e 500 io di certo non me le comprerei ; d'altra parte che senso avrebbe, adesso, prendersele ? Per avere una scheda che fa girare cysis a 2560 quando magari abbiamo un 1600x1200 e basterebbe uno sli di 9600gt e/o una ''semplice'' 8800gts512 ? Mah .. che almeno uscissero altri giochi, se devo spendere 500 e passa euro solo per crysis a questo punto la lascio sullo scaffale.
ho un deja-vu tremendo.
:D
DriftKing
19-05-2008, 19:40
Eh no, c'è anche Far Cry 2. :D
nn sara piu pesante di crysis ... poco ma sicuro ... dovra girare sulle console ... quindi ...
DriftKing
19-05-2008, 19:41
ho un deja-vu tremendo.
:D
gia ... anche di questo si e gia parlato mi pare ...
Mister Tarpone
19-05-2008, 19:42
nn sara piu pesante di crysis ... poco ma sicuro ... dovra girare sulle console ... quindi ...
concordo... è da una vita che lo dico.. ;) :)
nn sara piu pesante di crysis ... poco ma sicuro ... dovra girare sulle console ... quindi ...
Si ma l'importante è crederci, se io sono convinto che la compro con uno scopo poi sto meglio. :fagiano:
DriftKing
19-05-2008, 19:44
concordo... è da una vita che lo dico.. ;) :)
si ... peccato cmq ... la grafica in crysis era davvero bella ... pero mi sa che di giochi cosi (esclusiva x pc) nn ne vedremo piu ... tutto merito della pirateria ... ma anche dei prezi dei pc "da gioco" ...
DriftKing
19-05-2008, 19:45
Si ma l'importante è crederci, se io sono convinto che la compro con uno scopo poi sto meglio. :fagiano:
:asd:
appleroof
19-05-2008, 19:46
gia ... anche di questo si e gia parlato mi pare ...
si, da anni, ogni volta che esce una nuova high-end :D :D
DriftKing
19-05-2008, 19:48
si, da anni, ogni volta che esce una nuova high-end :D :D
:asd:
p.s. :eek: due post identici ... nn vorrei sembrare monotono ... :asd:
Mister Tarpone
19-05-2008, 19:48
si ... peccato cmq ... la grafica in crysis era davvero bella ... pero mi sa che di giochi cosi (esclusiva x pc) nn ne vedremo piu ... tutto merito della pirateria ... ma anche dei prezi dei pc "da gioco" ...
secondo me invece ci saranno ancora... non tante ma ci saranno.. ;)
vedi anche il prossimo Stalker Clear sky... ;) esclusiva per pc e si dice che sfrutterà anche le dx10 ;) :)
ecco... questo ho paura che sarà pesantino :asd:
ma vedremo :)
Skullcrusher
19-05-2008, 19:50
secondo me invece ci saranno ancora... non tante ma ci saranno.. ;)
vedi anche il prossimo Stalker Clear sky... ;) esclusiva per pc e si dice che sfrutterà anche le dx10 ;) :)
ecco... questo ho paura che sarà pesantino :asd:
ma vedremo :)
Ecco, quello sì che lo aspetto :D
Boh, comunque dopo 2 anni, se esce qualcosa di realmente nuovo è una gran cosa :D
DriftKing
19-05-2008, 19:50
secondo me invece ci saranno ancora... ;)
vedi anche Stalker klear sky... ;) esclusiva per pc e si dice che sfrutterà anche le dx10 ;) :)
ecco... questo ho paura che sarà pesantino :asd:
vedremo :)
forse (lo spero) ... ma intanto stalker clear sky ,che io sappia, e l'unico gioco in esclusiva x pc da qui a ... boh ... 1 anno? anche la crytek ha annunciato che nn produrra piu esclusive pc ... :(
p.s. a proposito ... quando esce???
Mister Tarpone
19-05-2008, 19:52
forse (lo spero) ... ma intanto stalker clear sky ,che io sappia, e l'unico gioco in esclusiva x pc da qui a ... boh ... 1 anno? anche la crytek ha annunciato che nn produrra piu esclusive pc ... :(
pace :(
vorrà dire che giocherò bene senza dovermi svenare in hw nuovo :sob:
c'è anche un bel lato positivo daaaaaiiiii :) !!
DriftKing
19-05-2008, 19:53
pace :(
vorrà dire che giocherò bene senza dovermi svenare in hw nuovo :sob:
c'è anche un bel lato positivo daaaaaiiiii :) !!
:D ... beh ... si si risparmia un po ... anzi ... si risparmia tanto :D
pero ... :( ...
Mister Tarpone
19-05-2008, 19:56
pero ... :( ...
ehh.. :sob: :sob: :sob:
però almeno si risparmia :asd:
Alexkidd85
19-05-2008, 20:12
nn sara piu pesante di crysis ... poco ma sicuro ... dovra girare sulle console ... quindi ...
E' secoli che anche io ed apple lo diciamo :asd:
Discorso trito: ste nuove vga,oltre crysis e sokoban(e chi lo conosce può ben dire di essere un gamer :asd:),saranno potenza sprecata
si ... peccato cmq ... la grafica in crysis era davvero bella ... pero mi sa che di giochi cosi (esclusiva x pc) nn ne vedremo piu ... tutto merito della pirateria ... ma anche dei prezi dei pc "da gioco" ...
Crysis spero come FC2 come stalker CS avranno comunque un motore sviluppato per PC e poi adattato quindi chi lo sa...
secondo me invece ci saranno ancora... non tante ma ci saranno.. ;)
vedi anche il prossimo Stalker Clear sky... ;) esclusiva per pc e si dice che sfrutterà anche le dx10 ;) :)
ecco... questo ho paura che sarà pesantino :asd:
ma vedremo :)
Secondo me neanche tanto...in dx10 con la mia bella ci giocherò tranquillamente e se scatterà un pochino ai primi driver ed alla prima patch successivi,risolveranno tutto. Per me ancora la mia gtx ha potenza da vendere :D
ehh.. :sob: :sob: :sob:
però almeno si risparmia :asd:
Noto con piacere che c'è stato proprio un filotto di correzZioni a catena :asd:
A proposito di PhysX, NVidia rinomina il suo supporto via CUDA alla fisica in APEX (http://developer.nvidia.com/object/apex_dev.html). :)
Sul solito Pcinlife.com le notizie su GT200 si susseguono.
Un altro dei soliti taiwanesi beninformati ( :asd: ) parla di GTX280 che batte HD4870X2 (ma lo si sospettava già), ma non si sa di quanto, e di un consumo di 250W.
halduemilauno
19-05-2008, 21:00
http://www.pczilla.net/en/post/11.html
GeForce GTX 280 got 7k+ in 3DMark Vantage Extreme Test2008-5-19 23:26:19We learn from pcinlife forum that GeForce GTX 280 graphics card can get 7k+ scores in 3DMark Vantage Extreme test, double the score of 9800GX2 in 3DMark Vantage Extreme test. But now we still don’t know the specification of the test hardware and software configurations.
We learn that GeForce GTX 280 graphics card is equipped with 512-bit 1GB DDR3 video memory; it has 240 stream processors with 250W power consumption. GeForce GTX 280 graphics card uses dual slot cooling fan,
We also heard there’s no problem for GeForce GTX 280 graphics card to run 1920x1200 with AA and AF in Crysis.
;)
nico88desmo
19-05-2008, 21:10
A proposito di PhysX, NVidia rinomina il suo supporto via CUDA alla fisica in APEX (http://developer.nvidia.com/object/apex_dev.html). :)
Sul solito Pcinlife.com le notizie su GT200 si susseguono.
Un altro dei soliti taiwanesi beninformati ( :asd: ) parla di GTX280 che batte HD4870X2 (ma lo si sospettava già), ma non si sa di quanto, e di un consumo di 250W.
Molto interessante. Dicono che sarà presente nell'Unreal Engine 3. (che supporta già Ageia mi sembra)
http://www.pczilla.net/en/post/11.html
GeForce GTX 280 got 7k+ in 3DMark Vantage Extreme Test2008-5-19 23:26:19We learn from pcinlife forum that GeForce GTX 280 graphics card can get 7k+ scores in 3DMark Vantage Extreme test, double the score of 9800GX2 in 3DMark Vantage Extreme test. But now we still don’t know the specification of the test hardware and software configurations.
We learn that GeForce GTX 280 graphics card is equipped with 512-bit 1GB DDR3 video memory; it has 240 stream processors with 250W power consumption. GeForce GTX 280 graphics card uses dual slot cooling fan,
We also heard there’s no problem for GeForce GTX 280 graphics card to run 1920x1200 with AA and AF in Crysis.
Due volte più veloce della 9800GX2 in Vantage??? Mi sembra molto ma molto buona questa cosa se fosse vera ;)
E' la volta buona per Crysis finalmente? ;)
:fiufiu:
Ehi Denny21 il tuo avatar è in caricamento fisso, c'è la rondella che gira, non riesco a vederlo.
:asd:
:D :sofico:
mircocatta
19-05-2008, 21:13
Io dico che viene applicato quello all'italiana e che secondo me si va anche sopra i 600 per GTX 280 (ovviamente spero di no). :rolleyes:
se viene applicata quella alla italiana allora costerà sui 499€, 500$ ora sono 322€...forse possiamo sperare sui 449€..
mircocatta
19-05-2008, 21:17
secondo me invece ci saranno ancora... non tante ma ci saranno.. ;)
vedi anche il prossimo Stalker Clear sky... ;) esclusiva per pc e si dice che sfrutterà anche le dx10 ;) :)
ecco... questo ho paura che sarà pesantino :asd:
ma vedremo :)
se rispetta il suo predecessore sarà più che pesante rispettoa quello che offrirà :asd:
Skullcrusher
19-05-2008, 21:19
Molto interessante. Dicono che sarà presente nell'Unreal Engine 3. (che supporta già Ageia mi sembra)
Due volte più veloce della 9800GX2 in Vantage??? Mi sembra molto ma molto buona questa cosa se fosse vera ;)
E' la volta buona per Crysis finalmente? ;)
Molto buona? Io direi mostruosamente buona :D
appleroof
19-05-2008, 21:29
Molto interessante. Dicono che sarà presente nell'Unreal Engine 3. (che supporta già Ageia mi sembra)
cut
e sappiamo che successo ha quel motore multipiattaforma (parola magica ormai) ;)
Molto buona? Io direi mostruosamente buona :D
:D :D
Crysis90
19-05-2008, 21:43
http://www.pczilla.net/en/post/11.html
GeForce GTX 280 got 7k+ in 3DMark Vantage Extreme Test2008-5-19 23:26:19We learn from pcinlife forum that GeForce GTX 280 graphics card can get 7k+ scores in 3DMark Vantage Extreme test, double the score of 9800GX2 in 3DMark Vantage Extreme test. But now we still don’t know the specification of the test hardware and software configurations.
We learn that GeForce GTX 280 graphics card is equipped with 512-bit 1GB DDR3 video memory; it has 240 stream processors with 250W power consumption. GeForce GTX 280 graphics card uses dual slot cooling fan,
We also heard there’s no problem for GeForce GTX 280 graphics card to run 1920x1200 with AA and AF in Crysis.
;)
Cavolo se è vero, FA IL PANICO!!!!!!!!:stordita: :sbav:
DriftKing
19-05-2008, 21:55
ehh.. :sob: :sob: :sob:
però almeno si risparmia :asd:
Noto con piacere che c'è stato proprio un filotto di correzZioni a catena :asd:
:asd:
quanto sarà più veloce di una 9800gx2?? perchè possiede meno stream processors della gx2 (che è uno sli) e lavora sullo stesso numero di bit....
sarà questione di frequenze....
adesso non so cosa cambia 3dmark vantage normale da quello extreme cmq su quello normale nel test che ho fatto se non sbaglio facevo sui 6800 punti se ricordo bene.
finchè non vedo i test non sono sicuro della potenza di questa nuova scheda ..... magari è come quando è uscita la 8800ultra che cambiava di poco da lla gtx magari questa cambia di poco dalla gx2 e costa di più
http://www.pczilla.net/en/post/11.html
CUT
We also heard there’s no problem for GeForce GTX 280 graphics card to run 1920x1200 with AA and AF in Crysis.
;)
:D :D farneticano.....!!
Due volte più veloce della 9800GX2 in Vantage??? Mi sembra molto ma molto buona questa cosa se fosse vera ;)
Un conto sono i benchmark ed un altro sono i giochi. ;)
Se NVidia nel suo materiale di marketing ha scritto che GTX280 è fino al 50% più veloce della precedente generazione, vuol dire che quello è già il best case scenario. Se fosse stato davvero il doppio più veloce non credo si sarebbero fatti problemi a scriverlo nel materiale di marketing (come chiunque, del resto, sia esso AMD o Intel o chicchessia). :)
-noxius-
19-05-2008, 23:14
http://www.pczilla.net/en/post/11.html
GeForce GTX 280 got 7k+ in 3DMark Vantage Extreme Test2008-5-19 23:26:19We learn from pcinlife forum that GeForce GTX 280 graphics card can get 7k+ scores in 3DMark Vantage Extreme test, double the score of 9800GX2 in 3DMark Vantage Extreme test. But now we still don’t know the specification of the test hardware and software configurations.
We learn that GeForce GTX 280 graphics card is equipped with 512-bit 1GB DDR3 video memory; it has 240 stream processors with 250W power consumption. GeForce GTX 280 graphics card uses dual slot cooling fan,
We also heard there’s no problem for GeForce GTX 280 graphics card to run 1920x1200 with AA and AF in Crysis.
;)
Guardate crysis very high a 1900x1200 , una 8800GTX genera 14.1 FPS ed una GX2 19.1 ; Se invece di 128 SP ne mettiamo il doppio, aumentiamo il bus e tutto il resto , forse una GTX280 almeno 30 FPS li farà , se non leggermente di più per via del GB di ram . Inizio a pensare che minimo un 30% in più di una GX2 ci possa andare .
Un conto sono i benchmark ed un altro sono i giochi. ;)
Se NVidia nel suo materiale di marketing ha scritto che GTX280 è fino al 50% più veloce della precedente generazione, vuol dire che quello è già il best case scenario. Se fosse stato davvero il doppio più veloce non credo si sarebbero fatti problemi a scriverlo nel materiale di marketing (come chiunque, del resto, sia esso AMD o Intel o chicchessia). :)
Se lo avessero scritto chi si sarebbe comprato più le mirabolanti 9800GTX e le GX2 ? Credo che se ne guardino bene dal farlo ;)
Se lo avessero scritto chi si sarebbe comprato più le mirabolanti 9800GTX e le GX2 ? Credo che se ne guardino bene dal farlo ;)
Il materiale di marketing di cui parlo ovviamente non è quello per i normali consumatori, ma per i partner AIB. I quali credo fossero a conoscenza di GT200 quasi da quando la 9800GX2 è stata lanciata (anche se magari non i precisi dettagli).
Stà sicuro che se c'è anche un minimo elemento di marketing da sfruttare le case lo sfruttano (vedi DX10.1 e tessellator per ATi, supporto a PhysX per NVidia). :asd:
Non esiste un motivo che sia uno perchè una casa sottostimi le prestazioni dei propri prodotti nelle presentazioni ai propri partner (semmai sono forti le possibilità che, anche se magari non di tanto, le sovrastimi). ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.