PDA

View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280


Pagine : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

appleroof
22-05-2008, 16:13
Che sia la volta buona che me lo rigioco come Dio comanda? Mah, sperem :sofico:

L'unica cosa che mi fa realmente paura della GTX280 è la temperatura....ho paura che sarà dannatamente calorosa :doh:

si, sembrerebbe proprio così almeno a guardare le foto l'impressione è quella....

cmq anche della 8800gtx pensavo lo stesso quando uscì.... :sperem: :)

Skullcrusher
22-05-2008, 16:16
si, sembrerebbe proprio così almeno a guardare le foto l'impressione è quella....

cmq anche della 8800gtx pensavo lo stesso quando uscì.... :sperem: :)

Io sono fiducioso perchè basta la 9800GX2 per giocarlo a 1680x1050 con tutto in Very High, però non si può attivare l'AA. Supponendo che la GTX280 sia almeno un 30% superiore alla 9800GX2 ( almeno così si spera ), forse si potrà avere anche l'AA.

Speriamo che il dissipatore non sia rumoroso come quello delle ultime vga...quello dell'8800GTX anche con la ventola al 100% era accettabile, quello della 9800GTX/GX2 già con la ventola al 70% per me è un'aereo :asd:

appleroof
22-05-2008, 16:19
ancora quel gioco ?

io pensavo: adesso mi tirano fuori 3 o 4 titoli super gagliardi per questa estate.

No vabè dai :D Io non lo rigioco più,

am'sun rott i cojon :D

voglio cod 5, il multiplayer :muro:

se vuoi dire che non c'è gioco che valga la pena di usare tutta la potenza di quella scheda, hai ragione

ma magari tra qualche mese non sarà così, intanto ti godi i giochi attuali al max dei filtri poi si vedrà....

in genere cmq una top non è mai al livello dei giochi in giro in quel momento, ma ben superiore, ed è una scheda che con la razionalità c'entra poco (se non la si compra con volontà di tenerla più a lungo possibile) è sempre stato così

se uno vuole il giusto compromesso prezzo/prestazioni certo non comprerà mai una top al lancio (e forse mai) ed è chiaro che vista con i suoi occhi è una vga inutile e chi la compra è un (se và bene :asd: ) un pazzo, ma oggettivamente non è così, non vale per tutti

appleroof
22-05-2008, 16:22
Io sono fiducioso perchè basta la 9800GX2 per giocarlo a 1680x1050 con tutto in Very High, però non si può attivare l'AA. Supponendo che la GTX280 sia almeno un 30% superiore alla 9800GX2 ( almeno così si spera ), forse si potrà avere anche l'AA.

anche io sono molto fiducioso in merito ;)

Speriamo che il dissipatore non sia rumoroso come quello delle ultime vga...quello dell'8800GTX anche con la ventola al 100% era accettabile, quello della 9800GTX/GX2 già con la ventola al 70% per me è un'aereo :asd:

azz...quello delle ultime schede non la sapevo...certo quello della 88gtx secondo me è il miglior dissi di fabbrica in assoluto mai provato, speriamo si ripetano

cmq tempo fà circolava il rumor che il dissi della GTX280 fosse della cooler master...

ArCH85
22-05-2008, 16:31
quello che mette in CRYSI tutte le vga praticamente...:D


crysis a TRENTA fps!! :fagiano:

D4N!3L3
22-05-2008, 16:38
crysis a TRENTA fps!! :fagiano:

Ma anche di più voglio sperare. :eek:

DriftKing
22-05-2008, 17:34
di picco minimo... @1920x1200 very high + AA4x e AF16x

dove devo firmare per uno scenario del genere?! :asd:

:asd: ... forse il gt1000 ce la fara ... :sperem: :asd:

appleroof
22-05-2008, 18:36
Guarda, la temperatura è un problema relativo, alla fine se il dual slot è progettato bene il caldo se ne va fuori da case.

Il vero eventuale problema sono i consumi in senso stretto, non per come si traducono in calore, come dicevo, né tantomeno per la bolletta dell'ENEL, se ha comunque consumi accettabili in idle.

La questione è relativa principalmente all'alimentatore. Teoricamente sopra i 225W dovresti per forza avere un alimentatore con modulo PCIe2.0 (non so se con la GTX280 saranno così restrittivi o ci sarà l'approccio morbido che ha avuto AMD con HD2900XT, che però seppur di poco stava sotto la soglia critica e quindi la scelta intermedia di consentire l'avvio con 2 2x3 ma senza OC da CCC), quindi 2x3+2x4, che significa che molti per comprarsi la scheda si dovrebbero anche comprare almeno un 600W di qualità con l'opportuno connettore, cosa che potrebbe portare la spesa a livelli veramente esagerati, soprattutto in tempi di vacche magre mondiali come queste. Boh, che dire, vedremo...

basta un adattatore da pochi euro.

Gabriyzf
22-05-2008, 18:37
cosa che potrebbe portare la spesa a livelli veramente esagerati, soprattutto in tempi di vacche magre mondiali come queste. Boh, che dire, vedremo...

rischia di diventare una scheda per pochi, per troppo pochi :muro:

Mister Tarpone
22-05-2008, 18:43
rischia di diventare una scheda per pochi, per troppo pochi :muro:

ma più che altro c'è la necessità di ste schede???

imho no... già con una scheda come la mia si gioca bene tutto....

immaginati che ha una 8800GTX o GT- GTS 512...


qui conviene tirare avanti tutto il restante anno con le nostre attuali schede ..e prendersi nel 2009 un refresh di queste GTX260-280 a prezzi stracciati... ;)

che tanto altri Crysis non escono.. ;)

Gabriyzf
22-05-2008, 18:47
ma più che altro c'è la necessità di ste schede???

imho no... già con una scheda come la mia si gioca bene tutto....

immaginati che ha una 8800GTX o GT- GTS 512...


qui conviene tirare avanti tutto il restante anno con le nostre attuali schede ..e prendersi nel 2009 un refresh di queste GTX260-280 a prezzi stracciati... ;)

che tanto altri Crysis non escono.. ;)

ti dò pienamente ragione: mi sa che la mia 88gt starà nel mio case per un altro annetto :)

ATi7500
22-05-2008, 18:49
ma più che altro c'è la necessità di ste schede???

imho no... già con una scheda come la mia si gioca bene tutto....

immaginati che ha una 8800GTX o GT- GTS 512...


qui conviene tirare avanti tutto il restante anno con le nostre attuali schede ..e prendersi nel 2009 un refresh di queste GTX260-280 a prezzi stracciati... ;)

che tanto altri Crysis non escono.. ;)
un post oculato, signor Tarpone.

;)

bYeZ!

appleroof
22-05-2008, 18:52
ma più che altro c'è la necessità di ste schede???

imho no... già con una scheda come la mia si gioca bene tutto....

immaginati che ha una 8800GTX o GT- GTS 512...


qui conviene tirare avanti tutto il restante anno con le nostre attuali schede ..e prendersi nel 2009 un refresh di queste GTX260-280 a prezzi stracciati... ;)

che tanto altri Crysis non escono.. ;)

a stare a questo discorso una top non la prendi mai: nel 2006, quando ho preso la 88gtx, avevo realmente bisogno di quella vga? :)

Mister Tarpone
22-05-2008, 18:54
e fu così che dopo l'estate iniziarono ad uscire una marea di giochi pesantissimi e veramente next generation capaci di piegare in due 2x 8800GTX in SLI :sbonk: :asd:


no noooo nooooooooooo :ops: :ops:

non voglio cambiare la mia scheda :ops: :ops: :ops:

Tioz90
22-05-2008, 18:56
http://img81.imageshack.us/img81/5499/gtx2802pn3ag8.jpg

http://img81.imageshack.us/img81/5721/gtx2801un2pw1.jpg

http://img81.imageshack.us/img81/3318/gtx2804dl8lo0.jpg

OMG il chip sarebbe questa bestia qua?:eek:

Foglia Morta
22-05-2008, 19:03
OMG il chip sarebbe questa bestia qua?:eek:

era meglio se modificavi il tag [/IMG] così non si ricaricavano le immagini.

Comunque il coso bianco non è la gpu, ma sta tra la gpu e il dissipatore per scambiare meglio il calore. La gpu quindi sta li sotto , dovrebbe essere poco più piccola

Mister Tarpone
22-05-2008, 19:03
vero... alla fine dipende tutto dalla risoluzione con cui uno pretende di giocare...

mircocatta
22-05-2008, 19:18
era meglio se modificavi il tag [/IMG] così non si ricaricavano le immagini.

Comunque il coso bianco non è la gpu, ma sta tra la gpu e il dissipatore per scambiare meglio il calore. La gpu quindi sta li sotto , dovrebbe essere poco più piccola

perchè sulla 8800gt non c'è?

appleroof
22-05-2008, 19:19
L'adattatore non aumenta l'erogazione, quindi basta se dietro c'è un alimentatore talmente potente da poter fare un 2in1 e creare il 2x4 da due rails.

si ma capisci che i toni un pò catastrofistici che usavi vengono abbastanza ridimensionati, la maggior parte degli ali che vedi su questo forum ce la fà...



cut
Questo non è necessariamente un male. E' chiaro che si parla anche di risoluzioni medie, nel tuo caso le esigenze sono per forza di cose di tipo high-end.

Un fatto positivo è che il mercato odierno ha dato a noi con monitor standard o poco sopra una fascia performance veramente valida a prezzi abbordabili :)

non c'è bisogno di un mega monitor per forza, chiaro che è quello il target di riferimento ma quando ho preso la gtx l'ho avuta all'inizio su un 20" e viaggiava alla grande: la differenza era che dove mettevo aa16x, con il 27" lo mettevo 8x....

ormai 1680x1050, per un gamer, è la risoluzione quasi standard e con l'abbassarsi dei prezzi dei monitor lo sarà sempre più

ancora, le top sono per gli entusiasth che non a caso vengono denominati così: pretendono il massimo e prendono il massimo, per tutti gli altri ci sono altre schede, ma questi ultimi non bisogna pensare che siano gli unici giocatori,


poi infine ti dò quest'altro spunto: si è fatto giustamente notare che le schede tipo la 9600gt/3870 se la cavano alla stragrande ancora, la 8800gtx anche a 1920x1200 (infatti penso proprio non prenderò la 280 o la 260 al lancio): pensa se avessi un monitor più piccolo quanto mi sarebbe durata ad alti livelli


p.s.: discussioni come quella da te lanciata avvengono da anni, ogni volta che esce una top....;)

ArCH85
22-05-2008, 19:32
p.s.: discussioni come quella da te lanciata avvengono da anni, ogni volta che esce una top....;)


ed è per quello che ho saltato la serie 8.. (e vabbè la 9)... "tanto la 7900GTX è una bomba, ce la fa tranquillamente per un paio d'anni".

grosso errore da parte mia. ho rosicato e rosicherò finchè non esce la nuova serie :P

e non solo per crysis (che sinceramente sticazzi..) ma anche molti altri giochi fan fatica a 1920X1200.. devo abbassare risoluzione o dettagli e spesso entrambi per avere un framerate fluido. Non mi piace scendere di dettagli sapendo che mi perdo la bellezza massima di uno o dell'altro gioco. Bioshock l'ho dovuto giocare (avevo un pc più fuffo prima, ma la gpu non l'ho cambiata) quasi a dettagli minimi.. perdendomi lo splendore dell'acqua di quel gioco ad esempio :)

personalmente parlando, cambierò gpu a ogni nuova "vera" generazione (tralasciando quindi i refresh vari) d'ora in poi :) ovviamente se non ci saranno grossi cambiamenti (tipo le esclusive PC che stanno andando a farsi benedire :( )

appleroof
22-05-2008, 19:43
ed è per quello che ho saltato la serie 8.. (e vabbè la 9)... "tanto la 7900GTX è una bomba, ce la fa tranquillamente per un paio d'anni".

grosso errore da parte mia. ho rosicato e rosicherò finchè non esce la nuova serie :P

e non solo per crysis (che sinceramente sticazzi..) ma anche molti altri giochi fan fatica a 1920X1200.. devo abbassare risoluzione o dettagli e spesso entrambi per avere un framerate fluido. Non mi piace scendere di dettagli sapendo che mi perdo la bellezza massima di uno o dell'altro gioco. Bioshock l'ho dovuto giocare (avevo un pc più fuffo prima, ma la gpu non l'ho cambiata) quasi a dettagli minimi.. perdendomi lo splendore dell'acqua di quel gioco ad esempio :)

personalmente parlando, cambierò gpu a ogni nuova "vera" generazione (tralasciando quindi i refresh vari) d'ora in poi :) ovviamente se non ci saranno grossi cambiamenti (tipo le esclusive PC che stanno andando a farsi benedire :( )

in effetti per quella risoluzione la 7900gtx è davvero strozzata :D

se punti a tenere la prox scheda minimo 2 anni, la gtx280 (o se preferisci 4870x2) credo proprio faccia al caso tuo :)

Mister Tarpone
22-05-2008, 19:48
L'adattatore non aumenta l'erogazione, quindi basta se dietro c'è un alimentatore talmente potente da poter fare un 2in1 e creare il 2x4 da due rails.



Tutto ciò ha molto senso, riguardo a Crysis... se tutti i giochi avessero avuto quella profondità avrei smesso di giocare a fine anni '80, probabilmente...

L'unica mia possibile esigenza è di andare oltre la mia attuale per mantenere le performance prendendo però un monitor di taglia superiore: di certo non avrò bisogno di una GTX280 o 4870 X2, cmq, perché non andrò a prendere un 30" :>

ma anche io presto cambierò il mio monitor da 17 per un wide da 1680x1050...
ma non credo che sentirò la necessità di cambiare pure la vga... (almeno fino al 2009)
semplicemente, dove ce la farà metterò la risoluzione nativa.. con o senza filtri dipenderà dal gioco... ;)
mentre con quel mattone di Crysis e pochi altri giocherò con risoluzione scalata @ 1440x900 ;)
cosa che non mi sembra un dramma sinceramente...
io dico che me lo godo uguale.... perchè vederlo in movimento su un wide da 20 , risoluzione nativa o no, deve essere cmq + spettacolare che giocarselo su un 17 normale... ;)

appleroof
22-05-2008, 19:54
ma anche io presto cambierò il mio monitor da 17 per un wide da 1680x1050...
ma non credo che sentirò la necessità di cambiare pure la vga... (almeno fino al 2009)
semplicemente, dove ce la farà metterò la risoluzione nativa.. con o senza filtri dipenderà dal gioco... ;)
mentre con quel mattone di Crysis e pochi altri giocherò con risoluzione scalata @ 1440x900 ;)
cosa che non mi sembra un dramma sinceramente...
io dico che me lo godo uguale.... perchè vederlo in movimento su un wide da 20 , risoluzione nativa o no, deve essere cmq + spettacolare che giocarselo su un 17 normale... ;)

poi se metti "rapporto prospettico fisso" nel pannello di controllo nvidia non perdi in qualità d'immagine, (cosa che con i monitor TN è abbastanza evidente man mano che si scala) con le bande nere ai lati :)

Mister Tarpone
22-05-2008, 19:59
poi se metti "rapporto prospettico fisso" nel pannello di controllo nvidia non perdi in qualità d'immagine, (cosa che con i monitor TN è abbastanza evidente man mano che si scala) con le bande nere ai lati :)

ma a me va bene anche senza rapporto fisso...
certo con la ris nativa c'è una nitidezza perfetta... ma non è una tragedia la qualità che viene fuori scalando in 1440x900 @ schermo pieno...
è sempre + che buona!!!!

per me eh!!!
daltronde io non sono pignolo :D

mircocatta
22-05-2008, 20:18
mia sorella a dicembre andrà a new york...

che dite, se gli faccio comprare la gtx280, rischio che nel viaggio si rompi o che me la perdino (come è solito) ?

qualcuno conosce qualche negozio ottimo di new york?
ho trovato solo 1a catena di negozi dove vendono la 9800gx2 a 550$ ergo 350€

appleroof
22-05-2008, 20:22
ma a me va bene anche senza rapporto fisso...
certo con la ris nativa c'è una nitidezza perfetta... ma non è una tragedia la qualità che viene fuori scalando in 1440x900 @ schermo pieno...
è sempre + che buona!!!!

per me eh!!!
daltronde io non sono pignolo :D

:asd: ;)

mia sorella a dicembre andrà a new york...

che dite, se gli faccio comprare la gtx280, rischio che nel viaggio si rompi o che me la perdino (come è solito) ?

qualcuno conosce qualche negozio ottimo di new york?
ho trovato solo 1a catena di negozi dove vendono la 9800gx2 a 550$ ergo 350€

potrebbe portarsela dietro sull'aereo....magari ne potrebbe portare anche 2...:fiufiu: :D :D

mircocatta
22-05-2008, 20:27
:asd: ;)



potrebbe portarsela dietro sull'aereo....magari ne potrebbe portare anche 2...:fiufiu: :D :D

io non ho problemi, sei tu che ti devi fidare di me e della incapacità di mia sorella :sofico:

magari gli faccio fare la fattura con prezzi del tipo 50€ a scheda così se alla dogana rompono il caxxo non ci faranno una super tassazione da 100€ :sofico:
se la gtx280 costerà come la 9800gx2 si potrebbe fare, prenderla a 350€ sarebbe un'affare :D


ma si può portare qualcosa con se sull'aereo?

appleroof
22-05-2008, 20:31
io non ho problemi, sei tu che ti devi fidare di me e della incapacità di mia sorella :sofico:

magari gli faccio fare la fattura con prezzi del tipo 50€ a scheda così se alla dogana rompono il caxxo non ci faranno una super tassazione da 100€ :sofico:
se la gtx280 costerà come la 9800gx2 si potrebbe fare, prenderla a 350€ sarebbe un'affare :D


ma si può portare qualcosa con se sull'aereo?

siamo Ot, cmq sull'aereo puoi portarti un piccolo bagaglio a meno, credo che una vga insieme al resto ci stia (o forse 2 :D :D :D )

per la ricevuta nessun problema: se compra per lei non deve pagare nulla in tasse italiane ;)

per il prezzo, dobbiamo ancora vedere quanto costerà davvero al lancio (pare sui 500 dollars) e poi per dicembre vedere....:)

mircocatta
22-05-2008, 20:36
imho i costi di produzione sono minori rispetto alla 9800gx2 percui non supererà i 550$ cioè da noi sui 459-499€, ecco secondo me il perchè:
contate che è solo 1 chip seppur grande il doppio rispetto ai 2 della gx2, contate 1 pcb in meno rispetto ai due della gx2, contate un dissipatore meno sofisticato rispetto quello enorme della gx2, contate che ha 1 solo controller memoria (grande il doppio ma non credo che si duplicano anche i costi, boh) rispetto ai 2 della gx2

@ndrey
22-05-2008, 21:03
imho i costi di produzione sono minori rispetto alla 9800gx2 percui non supererà i 550$ cioè da noi sui 459-499€, ecco secondo me il perchè:
contate che è solo 1 chip seppur grande il doppio rispetto ai 2 della gx2, contate 1 pcb in meno rispetto ai due della gx2, contate un dissipatore meno sofisticato rispetto quello enorme della gx2, contate che ha 1 solo controller memoria (grande il doppio ma non credo che si duplicano anche i costi, boh) rispetto ai 2 della gx2

Veramente il prezzo si baserà sulle performance della scheda come prima cosa poi tutto il resto..
Immagina se andrà il doppio della gx2 :O

D4N!3L3
22-05-2008, 21:14
Veramente il prezzo si baserà sulle performance della scheda come prima cosa poi tutto il resto..
Immagina se andrà il doppio della gx2 :O

Costerà il doppio. :asd:




:cry:

DriftKing
22-05-2008, 21:43
Veramente il prezzo si baserà sulle performance della scheda come prima cosa poi tutto il resto..
Immagina se andrà il doppio della gx2 :O

impossibile ...

scorpion73
22-05-2008, 21:48
Gente io ho una 8800GTS 640MB, la prima generazione e credo che per questa GTX280 la manderò in pensione ;) 1GB di DDR3 ed il doppio delle prestazioni di una 9800GX2, già ottima, mi fanno gola, e non avrà problemi di memoria su giochi tipo Unreal Tournament 3, che gira meglio sulla mia che non sulle 8800GTS nuove, per via della memoria maggiore.
La 9800GX2 infatti non ha un giga, ma 512 effettivi, visto che 1 giga è la somma delle memorie di ciasuna GPU e quindi agli effetti soffre degli stessi problemi della GTS

@ndrey
22-05-2008, 21:53
impossibile ...

mai dire mai :O

magari la storia si ripete.. Bastata una 8800gts per sorpassare 7900gx2

DriftKing
22-05-2008, 22:01
Gente io ho una 8800GTS 640MB, la prima generazione e credo che per questa GTX280 la manderò in pensione ;) 1GB di DDR3 ed il doppio delle prestazioni di una 9800GX2, già ottima, mi fanno gola, e non avrà problemi di memoria su giochi tipo Unreal Tournament 3, che gira meglio sulla mia che non sulle 8800GTS nuove, per via della memoria maggiore.
La 9800GX2 infatti non ha un giga, ma 512 effettivi, visto che 1 giga è la somma delle memorie di ciasuna GPU e quindi agli effetti soffre degli stessi problemi della GTS

:mbe: e chi te lo dice che andra il doppio ... fino ad ora si e parlato di un max di 50% in+ (nn che siano pochi ... pero sn la meta di quello che dici tu) ... che cmq e poco probabile (imho) ...

mai dire mai :O

magari la storia si ripete.. Bastata una 8800gts per sorpassare 7900gx2

in quel caso c'e stato un cambio di architettura (se nn sbaglio) ... qui il g80 e stato "solo" potenziato al max ...

Mister Tarpone
22-05-2008, 22:04
in quel caso c'e stato un cambio di architettura (se nn sbaglio) ... qui il g80 e stato "solo" potenziato al max ...

infatti... concordo...

e stessa cosa per ati... il 770 è un rv670 con più tmu e shader.. quindi un potenziamento..
ma non una nuova architettura...

Sergio_Di_Rio
22-05-2008, 23:02
ma più che altro c'è la necessità di ste schede???

imho no... già con una scheda come la mia si gioca bene tutto....

immaginati che ha una 8800GTX o GT- GTS 512...


qui conviene tirare avanti tutto il restante anno con le nostre attuali schede ..e prendersi nel 2009 un refresh di queste GTX260-280 a prezzi stracciati... ;)

che tanto altri Crysis non escono.. ;)

Giustissimo, parola d'ordine: "aspettare il refresh a 55nm e prezzi più bassi.;) ...e magari anche le ati."

PS: cmq crysis l'ho giocato con un mix di dettagli high e veryhigh 1680x1050 con un ottimo framerate e penso anche molti di voi.. se vi interessano tempo fa feci dei bench: http://www.hwupgrade.it/forum/showpost.php?p=21823378&postcount=7531

tetri
22-05-2008, 23:19
Giustissimo, parola d'ordine: "aspettare il refresh a 55nm e prezzi più bassi.;) "

Parola d'ordine alternativa: comprare sul mercatino le 280gtx a 65nm di chi le ha prese al lancio e si prenderà la versione a 55nm dopo tre mesi-quattro ;)

Sergio_Di_Rio
22-05-2008, 23:21
Parola d'ordine alternativa: comprare sul mercatino le 280gtx a 65nm di chi le ha prese al lancio e si prenderà la versione a 55nm dopo tre mesi-quattro ;)

LOL! giustissimo anche questo!:D

Sergio_Di_Rio
22-05-2008, 23:29
AMD RV870 to challenge NVIDIA GT200
RV870 will be on a whole new architecture and the latest insider info revealed that it will have 1000 SP. RV740 is 45nm version of RV730 and will appear by end of the year.

http://forums.vr-zone.com/showthread.php?t=279223

:oink:

Mister Tarpone
22-05-2008, 23:32
AMD RV870 to challenge NVIDIA GT200
RV870 will be on a whole new architecture and the latest insider info revealed that it will have 1000 SP. RV740 is 45nm version of RV730 and will appear by end of the year.

http://forums.vr-zone.com/showthread.php?t=279223

:oink:

:confused: :eek: :eek: :eek:

Kharonte85
22-05-2008, 23:41
cmq mi sono appena preso il procio nuovo, le vacanze incombono e la 88gtx fà ancora il suo dovere: stavolta per quanto mi riguarda credo proprio che la razionalità-anti scimmia, aiutata dalle circostanze che ho appena detto, avrà la meglio, magari mi prendo la gtx280 a 55nm quest'autunno, e magari a 300 euri :sofico: :ciapet: :D
:eek: complimenti...:oink:
AMD RV870 to challenge NVIDIA GT200
RV870 will be on a whole new architecture and the latest insider info revealed that it will have 1000 SP. RV740 is 45nm version of RV730 and will appear by end of the year.

http://forums.vr-zone.com/showthread.php?t=279223

:oink:
Mi sa tanto di sparata cosmica...:p

ArCH85
22-05-2008, 23:42
non è nemmeno uscita RV770 e si parla già della serie 8? mi sembra un tantinello presto :p

DVD2005
22-05-2008, 23:50
:eek: complimenti...:oink:

davvero :eek: mi era sfuggito l'upgrade dell'amico apple

Mi sa tanto di sparata cosmica...:p

mi sa :p

cristian-BG
23-05-2008, 00:19
scusate seguo poco il forum ... la presentazione di queste schede gtx 260 e 280 saranno presentate i primi di giugno alla fiera che si terrà nn so dove? asd dal 3 al 7 ma nn m ricordo che fiera sia.. penso che ati butterà fuori la 4850 e 4870 e nvidia spero replichi :) si sa qualcosa?

robertino75
23-05-2008, 01:46
Gente io ho una 8800GTS 640MB, la prima generazione e credo che per questa GTX280 la manderò in pensione ;) 1GB di DDR3 ed il doppio delle prestazioni di una 9800GX2, già ottima, mi fanno gola, e non avrà problemi di memoria su giochi tipo Unreal Tournament 3, che gira meglio sulla mia che non sulle 8800GTS nuove, per via della memoria maggiore.
La 9800GX2 infatti non ha un giga, ma 512 effettivi, visto che 1 giga è la somma delle memorie di ciasuna GPU e quindi agli effetti soffre degli stessi problemi della GTS

guarda...io ho una 8800gt da 512mb e unreal tournament 3 in directx9 mi fà una media di 103fps con tutti i settaggi al max a 1920x1200....ti gira meglio di cosi a te con 640mb di memoria?e per caso serve a qualcosa fare piu di 100fps di media?:O
:asd:

Marko#88
23-05-2008, 06:59
Gente io ho una 8800GTS 640MB, la prima generazione e credo che per questa GTX280 la manderò in pensione ;) 1GB di DDR3 ed il doppio delle prestazioni di una 9800GX2, già ottima, mi fanno gola, e non avrà problemi di memoria su giochi tipo Unreal Tournament 3, che gira meglio sulla mia che non sulle 8800GTS nuove, per via della memoria maggiore.
La 9800GX2 infatti non ha un giga, ma 512 effettivi, visto che 1 giga è la somma delle memorie di ciasuna GPU e quindi agli effetti soffre degli stessi problemi della GTS

questa è bella...UT3 che va meglio sulla GTS640 che non sulla 512??ma se basta una 8800GT per giocarlo da dio e sorpassare la GTS640...
poi il doppio delle prestazioni della gx2 chi te l'ha detto, Babbo natale?:D

Marko#88
23-05-2008, 07:01
guarda...io ho una 8800gt da 512mb e unreal tournament 3 in directx9 mi fà una media di 103fps con tutti i settaggi al max a 1920x1200....ti gira meglio di cosi a te con 640mb di memoria?e per caso serve a qualcosa fare piu di 100fps di media?:O
:asd:

non avevo letto il tuo messaggio, ho detto le stesse cose anch'io...:asd:
meglio, avvaloriamo il discorso...:cool:

HackaB321
23-05-2008, 08:21
It seemed chiphell forum has leaked the Rivatuner and GPU-Z information of NVIDIA unannounced GeForce 9800 GT graphics chip.

Now Forceware 175.75 has already supported GeForce 98000 GT and from RivaTuner 2.06, we can see GeForce 9800 GT also has 112 sp, the same as GeForce 8800 GT. The newest version of GPU-Z can’t fully display the information of GeForce 9800 GT.

http://www.pczilla.net/en/upload/200805230212235530.gif

http://www.pczilla.net/en/upload/200805230212190274.jpg

http://www.pczilla.net/en/post/19.html

Foglia Morta
23-05-2008, 09:32
forse riguarda GTX 280

http://www.pcper.com/images/news/folding3.jpg

http://www.pcper.com/images/news/folding4.jpg

D4N!3L3
23-05-2008, 09:36
forse riguarda GTX 280


Non vedo l'ora di vedere qualche bench, è strano che ancora non si veda nulla. :stordita:

McGraw
23-05-2008, 09:44
L'unica cosa che si capisce della prossima 9800GT é che avrà le stesse frequenze della 8800GT, spero vivamente a questo punto in un processo produttivo a 55nm e a 128sp, altrimenti il lancio non avrebbe senso!

McGraw
23-05-2008, 10:28
Si lo screenshot Nvidia si riferiva alle prestazioni della GTX280, tre volte piu prestante della HD3870...

http://www.nordichardware.com/news,7777.html

D4N!3L3
23-05-2008, 11:31
Ragazzi mi è venuto in mente un altro gioco che potrebbe essere pesante, Stalker: Clear Sky, dovrebbe essere un'esclusiva PC e già questo è significante, magari non sarà ai livelli di Crysis ma hanno aggiunto un sacco di nuove features tipo il fumo volumetrico che reagisce agli spostamenti d'aria e non credo che sarà poi così leggero come gioco. Secondo me ci vorrà una bella scheda per muovere tutta quella roba, cosa meglio di GTX 280? :D

scorpion73
23-05-2008, 11:32
questa è bella...UT3 che va meglio sulla GTS640 che non sulla 512??ma se basta una 8800GT per giocarlo da dio e sorpassare la GTS640...
poi il doppio delle prestazioni della gx2 chi te l'ha detto, Babbo natale?:D

Vattti a vedere i test e le recensioni sui siti quello che dicono. Il problema sono le texture che sono gigantesche su UT3 e quindi necessitano più memoria.
Questo non vuol dire che sulla GT si gioca da schifo, non l'ho mai detto..
Inoltre considera che la GTS 640 è comunque 1 anno più vecchia della GT, per cui se alla fine sulla GT facesse schifo vorrebbe dire che la scheda GT non vale, e non mi pare il caso.

Per quanto riguarda GTX280, il doppio delle prestazioni rispetto a 9800GX2 sono i rumors che si leggono in giro sui siti, ma anche se fosse il 50% in più sarebbe già abbastanza per aspettare visto che la fascia di prezzo su cui si collocherà sarà quella delle 9800GX2.
Se poi tu ascolti Babbo Natale Channel invece di leggere i siti fai come ti pare, evita solo per favore di fare lo spiritoso

HackaB321
23-05-2008, 12:06
Ragazzi mi è venuto in mente un altro gioco che potrebbe essere pesante, Stalker: Clear Sky, dovrebbe essere un'esclusiva PC e già questo è significante, magari non sarà ai livelli di Crysis ma hanno aggiunto un sacco di nuove features tipo il fumo volumetrico che reagisce agli spostamenti d'aria e non credo che sarà poi così leggero come gioco. Secondo me ci vorrà una bella scheda per muovere tutta quella roba, cosa meglio di GTX 280? :D

in un'intervista a GSC il lead designer di CS disse che per farlo andare in modo fluido a 1600*1200 in DX10 sarebbe "bastata" una 8800 GTX. Bisogna certo vedere se alle parole seguiranno i fatti.
La mia opinione è che nel corso di tutto il 2008 non usciranno giochi più pesanti (o peggio (non) ottimizzati) di Crysis.
La speranza è che la lezione Crysis (pessima ottimizzazione) sia servita: il gioco ha trainato vendite hardware ma di per sè è stato un mezzo flop (hanno venduto mille volte di più Call of Duty 4 o Bioschock anche grazie al supporto consolle pur essendo costati molto ma molto meno come sviluppo)

McGraw
23-05-2008, 12:22
Il primo water block per GT200...

http://www.aqua-computer.de/prodimg/NVIDIA_GTX280_1.jpg

http://www.aqua-computer.de/prodimg/NVIDIA_GTX280_2.jpg

http://www.aqua-computer-systeme.de/cgi-bin/YaBB/YaBB.pl?board=1;action=display;num=1211479269

D4N!3L3
23-05-2008, 12:35
Il primo water block per GT200...

EDIT



Cacchio ancora non si sanno le reali prestazioni di GT200, non si conoscono bench e già ci sono waterblock. :eek:

goldorak
23-05-2008, 12:38
Mamma mia :eek: col prezzo del rame alle stelle, chissa' il costo di questo waterblock. :asd:

Sergio_Di_Rio
23-05-2008, 12:42
Ragazzi mi è venuto in mente un altro gioco che potrebbe essere pesante, Stalker: Clear Sky, dovrebbe essere un'esclusiva PC e già questo è significante, magari non sarà ai livelli di Crysis ma hanno aggiunto un sacco di nuove features tipo il fumo volumetrico che reagisce agli spostamenti d'aria e non credo che sarà poi così leggero come gioco. Secondo me ci vorrà una bella scheda per muovere tutta quella roba, cosa meglio di GTX 280? :D

No, nn credo proprio, cmq se vuoi cominciare a farti un'idea scaricati la demo (stato embrionale) dell'E3 2007 e giocaci.;)

http://www.hwupgrade.it/forum/showthread.php?t=1746319

:oink:

-noxius-
23-05-2008, 12:43
Se questa gtx280 fosse performante quanto 3 HD3870 avrebbe un boost prestazionale del 15-20 % a massimo rispetto ad una GX2, no ?

http://www.hwupgrade.it/articoli/skvideo/1906/nvidia-geforce-9600-gt-torna-la-fascia-media_5.html

http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_5.html

Sergio_Di_Rio
23-05-2008, 12:56
Se questa gtx280 fosse performante quanto 3 HD3870 avrebbe un boost prestazionale del 15-20 % a massimo rispetto ad una GX2, no ?

http://www.hwupgrade.it/articoli/skvideo/1906/nvidia-geforce-9600-gt-torna-la-fascia-media_5.html

http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_5.html

Per quanto riguarda F@H, sostanzialmente d'accordo. Bisogna però vedere nei games, è lì che contano le performance di una gpu...

:oink:

appleroof
23-05-2008, 13:55
http://www.hwupgrade.it/news/skvideo/anche-raytracing-per-le-future-gpu-nvidia_25415.html

anche se non strettamente inerente...

appleroof
23-05-2008, 14:01
:eek: complimenti...:oink:

cut

davvero :eek: mi era sfuggito l'upgrade dell'amico apple

cut

grazie :)

sto lavorando per un daily a 430x8 :D :D


scusate l'ot

Scrambler77
23-05-2008, 16:05
grazie :)

sto lavorando per un daily a 430x8 :D :D


scusate l'ot

WOW!! Grande apple! :D

P.S: mi auguro vorrai raffreddare a liquido quel mostriciattolo... ;)

robertino75
23-05-2008, 16:07
Vattti a vedere i test e le recensioni sui siti quello che dicono. Il problema sono le texture che sono gigantesche su UT3 e quindi necessitano più memoria.
Questo non vuol dire che sulla GT si gioca da schifo, non l'ho mai detto..
Inoltre considera che la GTS 640 è comunque 1 anno più vecchia della GT, per cui se alla fine sulla GT facesse schifo vorrebbe dire che la scheda GT non vale, e non mi pare il caso.


esatto vatti a vedere i test...eccone uno....

http://www.hwupgrade.it/articoli/skvideo/1833/ut3.png

com'era?le texture gigantesche?necessitano di più memoria?
ma se la 8800gt anche a 2560x1600 fà 10fps in della 8800gts da 640mb :confused: :mc: :mc:

scusate l'ot.

Andrea deluxe
23-05-2008, 16:22
WOW!! Grande apple! :D

P.S: mi auguro vorrai raffreddare a liquido quel mostriciattolo... ;)

non c'e' bisogno!


io prima di didstruggere la rampage tenevo il q9450 a 3600mhz e non scaldava tantissimo!

Scrambler77
23-05-2008, 17:40
io prima di didstruggere la rampage

Azz... condoglianze.

leoneazzurro
23-05-2008, 18:25
Secondo CJ (fonte beneinformata che posta su B3D) GT200 sarebbe come capacità di calcolo appena al di sotto del TeraFLOP (900-950 GFLOPS).

Questo apre 2 interessanti scenari.
Nel primo caso, con 240 SP e 3 FLOP ognuno (come G8X/9X) la frequenza operativa sarebbe di 1.3 GHz circa. Un piccolo passo indietro rispetto a quanto visto con G9X.
Nel secondo caso, se gli shader lavorassero con 2 FLOPS per clock (MADD) las frequenza sarebbe di quasi 2 GHz, non impossibili con processo a 65 nm.

-noxius-
23-05-2008, 18:27
Secondo CJ (fonte beneinformata che posta su B3D) GT200 sarebbe come capacità di calcolo appena al di sotto del TeraFLOP (900-950 GFLOPS).

Questo apre 2 interessanti scenari.
Nel primo caso, con 240 SP e 3 FLOP ognuno (come G8X/9X) la frequenza operativa sarebbe di 1.3 GHz circa. Un piccolo passo indietro rispetto a quanto visto con G9X.
Nel secondo caso, se gli shader lavorassero con 2 FLOPS per clock (MADD) las frequenza sarebbe di quasi 2 GHz, non impossibili con processo a 65 nm.

Ha alimentazione a 5 fasi quindi se dovesse avere un voltaggio indicativamente pari ad 1.3V i 2000MHz sugli shaders potrebbe benissimo reggerli, credo . EDIT: aumentando il numero di SP , devono necessariamente diminuire le frequenze per via del contenimento dei consumi ?

pierluigi86
23-05-2008, 18:42
Secondo CJ (fonte beneinformata che posta su B3D) GT200 sarebbe come capacità di calcolo appena al di sotto del TeraFLOP (900-950 GFLOPS).

Questo apre 2 interessanti scenari.
Nel primo caso, con 240 SP e 3 FLOP ognuno (come G8X/9X) la frequenza operativa sarebbe di 1.3 GHz circa. Un piccolo passo indietro rispetto a quanto visto con G9X.
Nel secondo caso, se gli shader lavorassero con 2 FLOPS per clock (MADD) las frequenza sarebbe di quasi 2 GHz, non impossibili con processo a 65 nm.

è impossibile che gli shader lavorino a 2 Ghz. Se lasciano il rapporto core/shader 2.5. Il core dovrebbe lavorare a 800 Mhz.
Secondo me la frequenza operativa sarà di 1,3 Ghz. con il core a 520 Mhz

Andrea deluxe
23-05-2008, 19:11
è impossibile che gli shader lavorino a 2 Ghz. Se lasciano il rapporto core/shader 2.5. Il core dovrebbe lavorare a 800 Mhz.
Secondo me la frequenza operativa sarà di 1,3 Ghz. con il core a 520 Mhz

Probabile anche un 594 gpu e 1512shader

leoneazzurro
23-05-2008, 19:14
è impossibile che gli shader lavorino a 2 Ghz. Se lasciano il rapporto core/shader 2.5. Il core dovrebbe lavorare a 800 Mhz.
Secondo me la frequenza operativa sarà di 1,3 Ghz. con il core a 520 Mhz

Se hanno toccato gli shader, perchè dovrebbero lasciare inalterato il rapporto di frequenza core/shader? Tra l'altro, visto che adesso ci dovrebbero (il condizionale è d'obbligo) essere 3 SIMD da 8 SP per cluster, quindi con un rapporto ALU: TEX di 3:1 anzichè 2:1 come in G8x/G9x, questo rapporto potrebbe essere benissimo essere stato rivisto... O esserci anche ben 3 domini di frequenza (Shader/TMU/ROP)

leoneazzurro
23-05-2008, 19:19
Probabile anche un 594 gpu e 1512shader

Ehm.. stiamo parlando dell'ipotesi ormai quasi affermata di 240 SP e dell'altra informazione che parla di 900-950 GFLOPS per GT200.
Quindi, o la sorgente di CJ ha cannato (e i numero potrebbero riferisi a GT260 anzichè GT280) oppure, essendo i FLOPS per ogni SP non "smezzabili", questo ci porta a clock per gli shader di circa 2 GHz (2 FLOPS per ALU) o 1.3 GHz (3 FLOPS per ALU).

Andrea deluxe
23-05-2008, 19:23
Ehm.. stiamo parlando dell'ipotesi ormai quasi affermata di 240 SP e dell'altra informazione che parla di 900-950 GFLOPS per GT200.
Quindi, o la sorgente di CJ ha cannato (e i numero potrebbero riferisi a GT260 anzichè GT280) oppure, essendo i FLOPS per ogni SP non "smezzabili", questo ci porta a clock per gli shader di circa 2 GHz (2 FLOPS per ALU) o 1.3 GHz (3 FLOPS per ALU).

giusto:)

Mercuri0
23-05-2008, 20:42
Se questa gtx280 fosse performante quanto 3 HD3870 avrebbe un boost prestazionale del 15-20 % a massimo rispetto ad una GX2, no ?

Prendetele con le pinze quella grafico sul Folding@home.

Il problema maggiore per il folding sulle 3xxx in questo periodo era di essere troppo veloci per le CPU in circolazione. Adesso dovrebbero aver rilasciato working units più complesse in grado di sfruttare oltre 50% una 3870 senza richiedere una CPU troppo overcloccata...

In ogni caso l'hype sul gt200 ormai ha preso il largo... 100% in più di una GX2 :D

L'unico rumor sulle prestazioni che sembra mezzo ufficiale diceva che il GT200 ha gli SP il 50% più efficienti del G92. Io non so cosa questo voglia dire, anche se dagli ultimissimi rumor di CJ su clock e potenza di calcolo forse si può trarre qualche conclusione.

Viceversa molti in giro (eccetto che su beyond3d) hanno interpretato quel rumor come "+50%" della GX2. :rolleyes:

Una notizia in tempi non sospetti (un paio di mesi fa) su digitimes -sito affidabile- diceva che nvidia si stava apprestando a sostituire la GX2 con una soluzione dal costo e prestazioni simili. Io mi aspetto che il GT200 sia nell'ordine di prestazioni della GX2, anche se in alcune circostanze dove la GX2 ha qualche collo di bottiglia il GT200 magari può fare una notevole differenza.

Ha alimentazione a 5 fasi quindi se dovesse avere un voltaggio indicativamente pari ad 1.3V i 2000MHz sugli shaders potrebbe benissimo reggerli, credo . EDIT: aumentando il numero di SP , devono necessariamente diminuire le frequenze per via del contenimento dei consumi ?
eh, i consumi aumentano con il numero degli SP (transistor), frequenza e peggio ancora voltaggio.

Il limite del GT200 sono proprio dimensioni e consumi: il limite di grandezza massimo di un chip mi sembra sia intorno ai 600mm^2, sul limite della potenza ragionevolmente dissipabile ad aria non saprei. Magari il GT200 non è molto lontano neanche da quello :mbe:, e alla nVidia saranno costretti ad usare qualche mhz in meno.

-noxius-
23-05-2008, 21:06
..

Capisco, grazie .

Ma infatti dubito seriamente che vada il 50% in più della gx2 , come profetizzato da alcuni illustri luminari delle sfere di cristallo qui presenti ;) .

Certo c'è da dire che il consumo è veramente molto elevato solo che sulla base di questo mi sembra arduo trarre fuori qualche conclusione degnamente ponderata . Dai che manca poco ma , ahimè, credo che il prezzo sarà una brutta sorpresa .

-noxius-
23-05-2008, 21:25
Scusate, ma quale sarebbe il senso di tirare fuori una scheda che prestazionalmente si allinea alla 9800gx2 (secondo voi), e a livello di prezzo la supera abbondantemente (sempre secondo voi)?

Non saprei, ti dice nulla il confronto 8800gts 512 vs 9800GTX ? Spero che non abbia questo dannato de ja vu una seconda volta ..

Andrea deluxe
23-05-2008, 21:32
Non saprei, ti dice nulla il confronto 8800gts 512 vs 9800GTX ? Spero che non abbia questo dannato de ja vu una seconda volta ..

ma anche se va il 40% in piu' e' una grande cosa!

il problema della 9800gx2 e' lo sli!

fa cagare lo sli!

va bene nei giochi che fanno 250fps

ma in quelli che a malapena fanno 30 perde di stabilita e sincronia

Mister Tarpone
23-05-2008, 21:33
ma anche se va il 40% in piu' e' una grande cosa!

il problema della 9800gx2 e' lo sli!

fa cagare lo sli!

va bene nei giochi che fanno 250fps

ma in quelli che a malapena fanno 30 perde di stabilita e sincronia

ma cosa l'hai comprata a fare sta gx2... :confused:
se lo sli è così troiaio.. :doh: :boh:

Andrea deluxe
23-05-2008, 21:37
ma cosa l'hai comprata a fare sta gx2... :confused:
se lo sli è così troiaio.. :doh: :boh:

tarpo rimetti il tuo avatar:D


pensavo fosse decente lo sli, ma mi sbagliavo...


facevo meglio a tirare avanti con la 8800 gtx....

Mister Tarpone
23-05-2008, 21:39
tarpo rimetti il tuo avatar:D


pensavo fosse decente lo sli, ma mi sbagliavo...


facevo meglio a tirare avanti con la 8800 gtx....

mi ha stufato... :mad: :asd:

DriftKing
23-05-2008, 21:55
mi ha stufato... :mad: :asd:

:D no dai ... era bellino .... con questo mi eri sembrato un nuovo utente ... solo dopo aver guardato il nick e la firma con la mitica faccina mi son accorto che eri tu ... :D

Mister Tarpone
23-05-2008, 22:01
:D no dai ... era bellino .... con questo mi eri sembrato un nuovo utente ... solo dopo aver guardato il nick e la firma con la mitica faccina mi son accorto che eri tu ... :D

mahh... sinceramente mi ha stufato pure il nick... :bsod: :muro:


ed anche la firma... :muro: :bsod:





fine OT ciao :mc:

DriftKing
23-05-2008, 22:05
mahh... sinceramente mi ha stufato pure il nick... :bsod: :muro:


ed anche la firma... :muro: :bsod:





fine OT ciao :mc:

:D

beh x la firma si puo ancora fare qulcosa ... x il nick invece ...

/OT

Andrea deluxe
23-05-2008, 22:05
crisi d'identita:asd:

DriftKing
23-05-2008, 22:08
crisi d'identita:asd:

:asd:

Mercuri0
23-05-2008, 22:20
Scusate, ma quale sarebbe il senso di tirare fuori una scheda che prestazionalmente si allinea alla 9800gx2 (secondo voi), e a livello di prezzo la supera abbondantemente (sempre secondo voi)?
Io non ho sfere di cristallo per prevedere le prestazioni del GT200.

Però penso che il GT200 fosse stato progettato per avere un certo margine di prestazione rispetto al G92, non alla GX2. E anche i suoi "numeri" rumoreggiati sono molto vicini a quelli della GX2.

Ci vogliono mesi per progettare un chip (quando non si fa una nuova architettura, altrimenti anni), la GX2 non era nei programmi, e probabilmente ruberà un pò di effetto "wow" al GT200. Nel caso "assurdo" il GT200 potrebbe andare al 100% del G92, non della GX2...

Poi, sempre a naso, nei casi in cui lo SLI della GX2 non scala bene, il GT200 può brillare.

p.s. googlando si trova che la GX2 costa ancora tra i 550$ e oltre i 600$

DVD2005
23-05-2008, 22:36
:D

beh x la firma si puo ancora fare qulcosa ... x il nick invece ...

/OT

se chiede a FreeMan il problema glielo risolve ..... :sofico:

Tarpo questo tuo avatar non trova consenso.

/OT

Mister Tarpone
23-05-2008, 22:36
allora..

..se gt200 andrà il 100% + del g92.. allora andrà automaticamente un 50% + della GX2.
dato che questa va mediamente un 50% + della 8800gts 512.





:muro: :muro: :muro:



Tarpo questo tuo avatar non trova consenso.

/OT

o come mai?? :confused: ( :Perfido: ;))

-noxius-
23-05-2008, 22:39
allora..

..se gt200 andrà il 100% + del g92.. allora andrà automaticamente un 50% + della GX2.
dato che questa va mediamente un 50% + della 8800gts 512.

Scusami, e chi te l'ha detto che :

1: sia riferito alla 9800GX2 G92 invece che alla 8800GT G92 ?
2: la potenza di shading superiore del 50% permetta effettivamente un incremento del 50% ?

Non abbiamo nessuna certezza quindi fare previsioni secondo me è prematuro ed alquanto fuorviante ;)

Mister Tarpone
23-05-2008, 22:42
Scusami, e chi te l'ha detto che :

1: sia riferito alla 9800GX2 G92 invece che alla 8800GT G92 ?
2: la potenza di shading superiore del 50% permetta effettivamente un incremento del 50% ?

Non abbiamo nessuna certezza quindi fare previsioni secondo me è prematuro ed alquanto fuorviante ;)

immagino che per 100% + performante intendono contro un g92 single gpu... no di certo la gx2.. che ne ha 2 di gpu :asd:

ed immagino anche che come termine di paragone prendano il chip g92 "non segato"
quindi quello completo a 128sp del gts 512 o gtx 512...

ovviamente nessuna certezza cmq... si fa tanto per ipotizzare... ma SE fosse così

-100% + performante rispetto ad un g92 -

allora, vedendo alcune comparative, mi verrebbe da dire che potrebbe andare veramente un 50% + della GX2.. che ripeto.. va in media un 50% + di una gts 512...


ciao... :ops: :ops: :ops:

-noxius-
23-05-2008, 22:54
Ok ma tra gt e gts non è che ci sia tutto questo salto prestazionale , niente di che ;) .

Si vedrà , continuate a postare link , le previsioni lasciamole a chi di dovere ..

@ tarpo : ma infatti ho scritto ''lasciamole'' ;)

Mister Tarpone
23-05-2008, 22:58
Ok ma tra gt e gts non è che ci sia tutto questo salto prestazionale , niente di che ;) .

Si vedrà , continuate a postare link , le previsioni lasciamole a chi di dovere ..




ma in thread come questi è la norma fare qualche previsone dai... ;)

pure te hai ipotizzato qualche volta.. :asd:


ciao... http://img231.imageshack.us/img231/3900/smiley37pd5.gif (http://imageshack.us)http://img231.imageshack.us/img231/3900/smiley37pd5.gif (http://imageshack.us)http://img231.imageshack.us/img231/3900/smiley37pd5.gif (http://imageshack.us)

Mercuri0
23-05-2008, 23:31
..se gt200 andrà il 100% + del g92.. allora andrà automaticamente un 50% + della GX2.
dato che questa va mediamente un 50% + della 8800gts 512.

Su i numeri non discuto ma...
... certo che i conti con le percentuali sono una scienza arcana! Su internet non c'azzecca mai nessuno! :D

Se il GT200 andasse +100% del G92, = 2*G92
e la GX2 va +50% = 1.5*G92

Il GT200 andrebbe +33% rispetto alla GX2, non +50% ^^''
(2-1.5)/1.5=33%

Controprova: G92*1.5*1.33= 2 G92 :read:

p.s. intuitivamente, il "50%" della GX2 è più grande del "50%" del G92 ;)
e quindi la loro somma farebbe più di 100% di G92.

Mister Tarpone
23-05-2008, 23:39
è vero!!! hai ragione!!!!!! :doh: :mano:

leoneazzurro
23-05-2008, 23:40
Come detto, G92 è un chip limitato in molti casi dalla banda passante. Quindi che GT200 vada il doppio di una 9800 GX2 lo vedo difficile, più probabile sullo stesso livello o qualcosa in più della GX2 (ma il 50% in più mi sembra troppo, più probabile intorno al 20-30%)

The_SaN
24-05-2008, 00:47
Scusate, ma quale sarebbe il senso di tirare fuori una scheda che prestazionalmente si allinea alla 9800gx2 (secondo voi), e a livello di prezzo la supera abbondantemente (sempre secondo voi)?

É questo il problema. Sempre secondo i rumors, il prezzo dovrebbe essere lo stesso ($499).
Qualche tempo fa dicevo che secondo me le prestazioni sarebbero state all' incirca (quindi +10-20% di massimo) quelle della gx2 quando l' SLI funziona bene.
Chissá se ci azzecco :sofico:

-noxius-
24-05-2008, 01:30
@ Noxius = qualunque previsione, anche la mia positivista e la tua negativista sono e restano sempre previsioni... o semanticamente parlando, puro ciarlare. Così come lo sono tutti i rumors letti fino ad ora.

Comunque mi lancio sulla "mia" previsione finale...

parlando di Cryis sarà il 30% più veloce di uno SLI di 9800gtx, ovvero il 45% più veloce di una 9800gx2 e il 35% più veloce di uno SLI di 8800gts 512. Il tutto @ 1680x1050 no filtri.

Se così dovesse essere, prevedo un prezzo intorno ai 500€ al lancio... e io, PERSONALMENTE, aspetterei il calo dei prezzi... per cambiare, ed eventualmente terrei d'occhio la 4870x2 ati.


Mi segno questa previsione e ne riparliamo il 18 giugno... :cincin:

Dai , il fare previsioni non è assulutamente un problema .. il problema reale casomai sarebbe focalizzarsi verso una serie di illazioni senza minimo fondamento, ma ovviamente è perfettamente legittimo ;) ..

Si potrebbe dire tutto ed il suo contrario ma alla fine cosa ci si guadagna ? Per questo alla fine secondo me , e per il bene di tutti , sarebbe opportuno semplicemente postare nuovi link-foto-bench e robba varia perchè è da 10.000 pagine che si parla sempre delle stesse cose ;) ..

Magari fosse almeno sul 40 % , sarebbe un ottimo risultato, specialmente se la gtx260 fosse quasi uguale ad una GX2 .. si vedrà ..

The_SaN
24-05-2008, 01:37
Dai , il fare previsioni non è assulutamente un problema .. il problema reale casomai sarebbe focalizzarsi verso una serie di illazioni senza minimo fondamento, ma ovviamente è perfettamente legittimo ;) ..

Si potrebbe dire tutto ed il suo contrario ma alla fine cosa ci si guadagna ? Per questo alla fine secondo me , e per il bene di tutti , sarebbe opportuno semplicemente postare nuovi link-foto-bench e robba varia perchè è da 10.000 pagine che si parla sempre delle stesse cose ;) ..

Magari fosse almeno sul 40 % , sarebbe un ottimo risultato, specialmente se la gtx260 fosse quasi uguale ad una GX2 .. si vedrà ..

Boh io non vedo problemi di sorta a dare previsioni personali...
Piú che altro non ritengo giusto postare "certezze" o trattare opinioni diverse come fanatismo/fanboyismo/malafede ecc...
Sono belle le discussioni quando si postano idee chiare oppure la scritta IMHO :)

Marko#88
24-05-2008, 07:37
Beh, alla fine io la vedo così: si parla di shader più efficienti del 50%...lo stesso numero di sp è aumentato raddoppiando quasi...tmu e rops sono aumentate, la vram è aumentata e la banda passante è enormemente aumentata...a mio parere il raddoppio della GX2 è utopia pura...:asd:
ma prestazioni simili ad essa nel peggiore dei casi e un buon 50% in più nel migliore dei casi le vedo realistiche...senza portarsi dietro le magagne dello sli e il quantitativo di vram che tutto sommato potrebbe essere limitante (512mb, uno che si compra una gx2 si presume giochi a risoluzioni elevate e magari in previsione futura il gb può far comodo a risoluzioni tipo 1920*1200...)
però aspettiamo con ansia le prime rece ufficiali!:D

Giustaf
24-05-2008, 09:38
avevo preso la 9800gtx come scheda tampone (no "tarpone" eh!!..:p) per poi rivenderla e prendere un scheda con gt200...ma visto le prestazioni di quest'ultima e la mancanza di titoli dove sfruttarla, sicuramente salterò il turno e aspetterò...per caso, sempre molto vagamente, qualcuno di voi sa la road map dell'nvida e magari dell'ati per sapere più o meno cosa ci sarà nei messi successivi all'uscita di queste nuove schede?

pierluigi86
24-05-2008, 09:38
anche io penso che il gt200 avrà prestazioni superiori alla 9800gx2 del "solo" 20-30%. Infatti il prezzo al lancio della gt200 dovrebbe essere 499$ invece quello della 9800gx2 era di 599$.

Mark147
24-05-2008, 10:06
parlando di Cryis sarà il 30% più veloce di uno SLI di 9800gtx, ovvero il 45% più veloce di una 9800gx2 e il 35% più veloce di uno SLI di 8800gts 512. Il tutto @ 1680x1050 no filtri.

Cmq sec me nn c'è tutto sto divario tra uno SLI di 9800GTX e una 9800GX2..
Anzi in alcuni test è meglio la GX2..

http://enthusiast.hardocp.com/article.html?art=MTQ4OSwxLCxoZW50aHVzaWFzdA==

A.L.M.
24-05-2008, 11:14
Beh, alla fine io la vedo così: si parla di shader più efficienti del 50%...lo stesso numero di sp è aumentato raddoppiando quasi...tmu e rops sono aumentate, la vram è aumentata e la banda passante è enormemente aumentata...a mio parere il raddoppio della GX2 è utopia pura...:asd:
ma prestazioni simili ad essa nel peggiore dei casi e un buon 50% in più nel migliore dei casi le vedo realistiche...senza portarsi dietro le magagne dello sli e il quantitativo di vram che tutto sommato potrebbe essere limitante (512mb, uno che si compra una gx2 si presume giochi a risoluzioni elevate e magari in previsione futura il gb può far comodo a risoluzioni tipo 1920*1200...)
però aspettiamo con ansia le prime rece ufficiali!:D

Da quello che si dice su B3D il 50% dovrebbe essere relativo ad una maggiore sfruttabilità della "missing MUL". ;)

nico88desmo
24-05-2008, 12:08
Da quello che si dice su B3D il 50% dovrebbe essere relativo ad una maggiore sfruttabilità della "missing MUL". ;)

Se non sbaglio l'unità 'MUL' fà parte di ciascun SP del g80 ma di fatto non viene mai utilizzata giusto?

A.L.M.
24-05-2008, 12:27
Se non sbaglio l'unità 'MUL' fà parte di ciascun SP del g80 ma di fatto non viene mai utilizzata giusto?

Sì, o meglio, quasi. :D
Ad oggi pare che il massimo di efficienza raggiunta per la "missing MUL" di G80/G92 sia stato il 50% (test di B3D), ma in test sintetici di calcolo: questo fa presumere che nella realtà (=shader di giochi) l'efficienza sia ancora più bassa o, come penso, vicina allo zero.
Un'efficienza del 50% significa che in un test di calcolo esclusivamente moltiplicativo (perchè solo così si riesce a raggiungere il picco massimo di capacità di calcolo di G80/G92) una 9800GTX riesce ad elaborare 1688*128*2.5=circa 540GFlops (anzichè 648).
Il 50% in più rispetto a G80 potrebbe significare che sono riusciti a sfruttare anche nei giochi, appieno o quasi, la MUL aggiuntiva.

-noxius-
24-05-2008, 12:28
OK, ma in questo caso la 9800gtx non faceva che aumentare le frequenze dalla 8800gts 512,

in questo caso c'è un cambiamento anche a livello di caratteristiche hardware (sp su tutte).

Mi sembra ovvio ma vatti a fidare , io no ;)

A.L.M.
24-05-2008, 12:55
Secondo Napoleon (Chiphell) la 9800GT avrà 112SP (dice di averla già usata).

http://66.102.9.104/translate_c?hl=it&sl=zh-CN&tl=en&u=http://bbs.chiphell.com/viewthread.php%3Ftid%3D22860%26extra%3Dpage%253D1

nico88desmo
24-05-2008, 12:56
Sì, o meglio, quasi. :D
Ad oggi pare che il massimo di efficienza raggiunta per la "missing MUL" di G80/G92 sia stato il 50% (test di B3D), ma in test sintetici di calcolo: questo fa presumere che nella realtà (=shader di giochi) l'efficienza sia ancora più bassa o, come penso, vicina allo zero.
Un'efficienza del 50% significa che in un test di calcolo esclusivamente moltiplicativo (perchè solo così si riesce a raggiungere il picco massimo di capacità di calcolo di G80/G92) una 9800GTX riesce ad elaborare 1688*128*2.5=circa 540GFlops (anzichè 648).
Il 50% in più rispetto a G80 potrebbe significare che sono riusciti a sfruttare anche nei giochi, appieno o quasi, la MUL aggiuntiva.

Tutto chiaro ;)
Quindi teoricamente dovrebbero trarre vantaggio maggiormente i giochi shader-dipendenti.

A.L.M.
24-05-2008, 13:16
Tutto chiaro ;)
Quindi teoricamente dovrebbero trarre vantaggio maggiormente i giochi shader-dipendenti.

In teoria sì. All'atto pratico bisognerà vedere come hanno risolto il problema (e se davvero lo hanno risolto), visto che sempre Beyond3D aveva detto che i pochi vantaggi in termini di throughput che si ottenevano nel general shading di fatto scomparivano alle alte risoluzioni e con shader lunghi.

pierluigi86
24-05-2008, 15:14
Secondo Napoleon (Chiphell) la 9800GT avrà 112SP (dice di averla già usata).

http://66.102.9.104/translate_c?hl=it&sl=zh-CN&tl=en&u=http://bbs.chiphell.com/viewthread.php%3Ftid%3D22860%26extra%3Dpage%253D1


Rimango senza parole!!! Il g92@55nm quindi sarà solo a 112sp? o hanno intenzione di montarlo anche sulla 9800gtx?

leoneazzurro
24-05-2008, 15:18
Da quello che si dice su B3D il 50% dovrebbe essere relativo ad una maggiore sfruttabilità della "missing MUL". ;)

Visto ora.. comunque sembrano confermati 3 FLOPS e 1.3 GHz

Kharonte85
24-05-2008, 15:43
Rimango senza parole!!! Il g92@55nm quindi sarà solo a 112sp? o hanno intenzione di montarlo anche sulla 9800gtx?
si', è da un pò che si sospetta che il g92b non fosse altro che un mero refresh della 8800gt @55nm (anzi, non tutte...alcune prodotte a 65nm saranno probabilmente destinate agli OEM)...ma la 9800gtx non ci incastra nulla, al max faranno un refresh @55nm anche per lei ma per ora non se ne sa nulla...

Kharonte85
24-05-2008, 15:57
Visto ora.. comunque sembrano confermati 3 FLOPS e 1.3 GHz
Mmm sembra bassina come frequenza...:fagiano: questo potrebbe dare spazio a margini futuri? Magari a vedere un passaggio simile a quello visto fra G80 (con frequenze relativamente conservative)---> G92 (passaggio a processo produttivo successivo, riduzione del bus ma aumento delle frequenze specie gli SP) ?

leoneazzurro
24-05-2008, 15:57
Rimango senza parole!!! Il g92@55nm quindi sarà solo a 112sp? o hanno intenzione di montarlo anche sulla 9800gtx?

il G92b (a 55nm) è a 128 SP, ma la versione 9800 GT ne ha abilitati solo 112. I clock saranno identici alla 8800 GT, per cui penso si possa dire che la 9800 GT altro non è che una 8800 GT "rimarchiata" con chip a 55nm. Probabilmente anche la 9800 GTX "versione B" (9900?) utilizzerà il chip a 55nm e farà concorrenza alle 4850-4870 nella fascia media

leoneazzurro
24-05-2008, 16:00
Mmm sembra bassina come frequenza...:fagiano: questo potrebbe dare spazio a margini futuri? Magari a vedere un passaggio simile a quello visto fra G80 (con frequenze relativamente conservative)---> G92 (passaggio a processo produttivo successivo, riduzione del bus ma aumento delle frequenze specie gli SP) ?

Beh, io mi aspettavo 1.5 GHz, in verità. Però forse il consumo sarebbe diventato eccessivo. Comunque si, credo che un die shrink di GT200 a 55nm sarebbe auspicabile, però non so se il bus a 512 bit sia applicabile sullo shrink (probabilmente a 448 bit si). Più probabile una futura versione a 40-45 nm con supporto GDDR5 (ma servirebbe qualche ritocco al blocco ROP)

A.L.M.
24-05-2008, 16:07
Beh, io mi aspettavo 1.5 GHz, in verità. Però forse il consumo sarebbe diventato eccessivo. Comunque si, credo che un die shrink di GT200 a 55nm sarebbe auspicabile, però non so se il bus a 512 bit sia applicabile sullo shrink (probabilmente a 448 bit si). Più probabile una futura versione a 40-45 nm con supporto GDDR5 (ma servirebbe qualche ritocco al blocco ROP)

Forse anche il calore. ;)

leoneazzurro
24-05-2008, 16:10
Forse anche il calore. ;)

A meno di non considerare l'energia dispersa per radiazione elettromagnetica, sono la stessa cosa :D

Kharonte85
24-05-2008, 16:12
Beh, io mi aspettavo 1.5 GHz, in verità. Però forse il consumo sarebbe diventato eccessivo. Comunque si, credo che un die shrink di GT200 a 55nm sarebbe auspicabile, però non so se il bus a 512 bit sia applicabile sullo shrink (probabilmente a 448 bit si). Più probabile una futura versione a 40-45 nm con supporto GDDR5 (ma servirebbe qualche ritocco al blocco ROP)
In effetti il consumo e il calore potrebbero divenire un ostacolo se gia' a quelle frequenze stiamo sui 250w di TDP :mc:

Onestamente da questo punto di vista credo che AMD/ATI sia molto in vantaggio a questo giro, con le tecnologie powerplay e le gddr5, sarebbe bene che anche Nvidia provveda...anche perche' non tutti (anzi :fagiano: ) hanno una piattaforma in grado di gestire l'hybrid sli (che secondo me sara' la soluzione su cui si puntera' di piu' in futuro)

Vedendo come vanno queste cose credo proprio che semmai faro' il passaggio lo faro' solo al refresh di GT200 (sperando ovviamente nella bonta' di quest'ultimo e a meno che non faccia meglio AMD/ATI) perche' mi sa che questo chippone sara' completamente fuori dalla mia portata...in tutti i sensi...:D

nico88desmo
24-05-2008, 17:51
In teoria sì. All'atto pratico bisognerà vedere come hanno risolto il problema (e se davvero lo hanno risolto), visto che sempre Beyond3D aveva detto che i pochi vantaggi in termini di throughput che si ottenevano nel general shading di fatto scomparivano alle alte risoluzioni e con shader lunghi.

Capito. Questa cosa non la sapevo ;).
Sono proprio curioso di sapere come hanno risolto il problema della mul ;)

Beh, io mi aspettavo 1.5 GHz, in verità. Però forse il consumo sarebbe diventato eccessivo. Comunque si, credo che un die shrink di GT200 a 55nm sarebbe auspicabile, però non so se il bus a 512 bit sia applicabile sullo shrink (probabilmente a 448 bit si). Più probabile una futura versione a 40-45 nm con supporto GDDR5 (ma servirebbe qualche ritocco al blocco ROP)

Penso anche io che la futura versione sarà con le GDDR5, però non penso saranno abbinate ad un bus di 512 bit, altrimenti avrebbe una banda esagerata.

SSLazio83
24-05-2008, 17:52
questo nuovo chip sarà montato in parallello come la gx2?

zorco
24-05-2008, 18:02
cmq per lo stato attuale dei giochi questo mostro di chip è ultra sovradimensionato,si deve essere veramente appassionati per acquistarla proprio all'uscita,naturalmente oltre alla passione bisogna avere le dispobilità finanziare per farlo..

scorpion73
24-05-2008, 21:09
comunque anche se le prestazioni fossero il 20-30% in più rispetto alla GX2 sembra che il prezzo di lancio sia comunque inferiore o al max uguale del prezzo della GX2. Quindi le cose secondo me sono due:
- ti compri la GTX, perché comunque è più nuova e va meglio
- calano in modo vistoso i prezzi delle GX2 e allora puoi scegliere in base alla tua tasca.
Ma onestamente non credo che ci sarà una vistosa differenza di prezzo fra le due schede , per cui alla fine vale la pena secondo me aspettare un paio di mesi e farsi sta scheda nuova
Certamente il 30% di prestazioni in più non giustifica il cambiamento per chi ha già una GX2, ma per chi come me ha una GTS di prima generazione le motivazioni sono ben più alte

pierluigi86
24-05-2008, 21:17
http://www.theinquirer.net/gb/inquirer/news/2008/05/24/gtx260-280-revealed

A.L.M.
24-05-2008, 21:23
Visto ora.. comunque sembrano confermati 3 FLOPS e 1.3 GHz

Già. ;)
Secondo The Inquirer:

GTX 280:
-core: 602MHz
-shader: 1296MHz
-memory: 1107MHz

933 GFlops

236W di consumo massimo effettivo.

Costo: 600+$ (mi pare un po' alto)

GTX 260:
-core: 576MHz
-shader: ?
-memory: 896MHz o 999MHz

Il clock dello shader non si capisce bene, ma se il rapporto rimanesse di 2.15X quello del core come nella 280, allora sarebbe 1238MHz. Questo porterebbe ad una potenza di calcolo di 713 GFlops circa, considerando sempre l'effettivo uso della missing MUL. Valore non molto oltre quello teorico della 9800GTX. Sarà interessante vedere quale effetto potrebbe avere questo eventuale fix della gpu sulle performance.

182W di consumo massimo effettivo.

Costo: 449$ (idem come sopra)

http://www.theinquirer.net/gb/inquirer/news/2008/05/24/gtx260-280-revealed

@ndrey
24-05-2008, 21:30
comunque anche se le prestazioni fossero il 20-30% in più rispetto alla GX2 sembra che il prezzo di lancio sia comunque inferiore o al max uguale del prezzo della GX2. Quindi le cose secondo me sono due:
- ti compri la GTX, perché comunque è più nuova e va meglio
- calano in modo vistoso i prezzi delle GX2 e allora puoi scegliere in base alla tua tasca.
Ma onestamente non credo che ci sarà una vistosa differenza di prezzo fra le due schede , per cui alla fine vale la pena secondo me aspettare un paio di mesi e farsi sta scheda nuova
Certamente il 30% di prestazioni in più non giustifica il cambiamento per chi ha già una GX2, ma per chi come me ha una GTS di prima generazione le motivazioni sono ben più alte

Non solo x loro :O
Sto aspettando hd4870/4850 gddr5 e ho un GTS g92.. La voglio cambiare x il fatto dei consumi.., anche se le prestazioni saranno simili.., ma da quello che lego in giro sarà una schedozza con i controk@zzi :asd: :tie:

Tioz90
24-05-2008, 23:06
Secondo me nvidia verrà ownata:asd:

leoneazzurro
24-05-2008, 23:25
Capito. Questa cosa non la sapevo ;).
Sono proprio curioso di sapere come hanno risolto il problema della mul ;)


Aggiungendo hardware dedicato alle funzioni speciali e rendendo quindi l'unità MUL sempre accessibile.


Penso anche io che la futura versione sarà con le GDDR5, però non penso saranno abbinate ad un bus di 512 bit, altrimenti avrebbe una banda esagerata.

Infatti io intendevo GDDR5 con un bus ridotto, cosa necessaria perchè quando le dimensioni del chip scendono, diventa più difficile trovare spazio per i pin del bus.

leoneazzurro
24-05-2008, 23:32
Già. ;)
Secondo The Inquirer:

GTX 280:
-core: 602MHz
-shader: 1296MHz
-memory: 1107MHz

933 GFlops

236W di consumo massimo effettivo.

Costo: 600+$ (mi pare un po' alto)

GTX 260:
-core: 576MHz
-shader: ?
-memory: 896MHz o 999MHz

Il clock dello shader non si capisce bene, ma se il rapporto rimanesse di 2.15X quello del core come nella 280, allora sarebbe 1238MHz. Questo porterebbe ad una potenza di calcolo di 713 GFlops circa, considerando sempre l'effettivo uso della missing MUL. Valore non molto oltre quello teorico della 9800GTX. Sarà interessante vedere quale effetto potrebbe avere questo eventuale fix della gpu sulle performance.

182W di consumo massimo effettivo.

Costo: 449$ (idem come sopra)

http://www.theinquirer.net/gb/inquirer/news/2008/05/24/gtx260-280-revealed

La potenza teorica di shading di GT260 non sarà molto più su di quella della 9800 GTX, ma è più sfruttabile (dato che la MUL su 9800GTX non è sempre utilizzabile) e poi c'è molta più banda passante a disposizione, vera croce della 9800 GTX. Comunque non condivido troppo quello che dice Demerjan sull'Inquirer, può anche darsi che nvidia si sia scontrata con qualche problema (inevitabile con chip così grossi) ma Gt200 sarà comunque la soluzione a singolo chip più potente mai creata, e dato che non si hanno informazioni certe su come va R700 rispetto a GT200, dire già adesso che nvidia ha sbagliato tutto mi sembra quantomeno prematuro.

Mercuri0
24-05-2008, 23:56
Comunque non condivido troppo quello che dice Demerjan sull'Inquirer, può anche darsi che nvidia si sia scontrata con qualche problema (inevitabile con chip così grossi) ma Gt200 sarà comunque la soluzione a singolo chip più potente mai creata, e dato che non si hanno informazioni certe su come va R700 rispetto a GT200, dire già adesso che nvidia ha sbagliato tutto mi sembra quantomeno prematuro.
Il tipo dell'Inquirer non ha detto niente di nuovo di quanto già non si sapesse, solo esasperando i lati negativi del GT200.

Di certo questo mettere in cattiva luce il GT200 è esagerato, ma secondo me Demerjan ha fatto bene: in questi giorni ci penserà nvidia a far sentire forte la campana riguardo alle luci, ed è bene che noialtri abbiamo modo di riflettere anche sulle ombre ;)

Vifani
25-05-2008, 00:34
Se quanto dice The Inquirer dovesse risultare essere vero, pare che questa volta NVIDIA possa avere un po di problemi. Insomma la palma di produttore della GPU più veloce non gliela toglierà nessuno, però avere un chip così grosso, con basse rese e alti costi di produzione potrebbe essere una zappa sui piedi. Insomma se AMD dovesse riuscire con R700 a superare la GTX 280, possiamo tranquillamente dire che l'era delle grosse soluzioni monolitiche è finita. Del resto pare che questa sia opinione anche di NVIDIA e GTX 280 dovrebbe essere l'ultima GPU di questo genere.

Sergio_Di_Rio
25-05-2008, 02:25
Tutto l'hardware dei sistemi informativi, negli ultimi anni, si sta muovendo verso una architettura parallela. I vantaggi di una architettura parallela sono molteplici, anche se, nel caso delle gpu ad esempio, 2 gpu g92 sono sicuramente meno efficienti di una gpu 2 volte più veloce di g92. Ovviamente sarà più economico realizzare 2 gpu in parallelo piuttosto che una gpu superveloce, d'altronde nei processi industriali, deve sempre essere tenuto d'occhio il tradeoff del triangolo "money-time-achievements".
Insieme ai molteplici vantaggi, si vengono a creare altrettanti problemi, come la creazione di software dedicato, o problemi di accesso alla memoria condivisa..etc..
Sì, ATI ed Nvidia hanno capito verso quale strada muoversi, ma stavolta The Inquirer esagera, neanche Nostradamus avrebbe osato tanto. IMHO nessuno strapperà ad Nvidia lo scettro e gtx 280 e 260 saranno solo la punta dell'iceberg della prossima generazione di schede, ma al tempo stesso ATI proporrà schede migliori dal punto di vista prezzo\prestazioni (speriamo).
Su una cosa Demerijan ha ragione, sarà un'estate molto interessante.
:oink:

Mercuri0
25-05-2008, 08:39
Tutto l'hardware dei sistemi informativi, negli ultimi anni, si sta muovendo verso una architettura parallela.
Per le GPU questa tua osservazione è un pò fuori luogo, visto che internamente sono giù molto parallele.

La scelta di non fare chip "lenzuoli" non ha molto a che fare con l'efficienza dell'architettura, ma solo coi costi di progettazione e produzione.

Per quanto riguarda i processori multi-core l'unico vantaggio é... che si possono fare :D mentre è più difficile fare mono-core a frequenza più alta. (per il solito problema della potenza necessaria).

pierluigi86
25-05-2008, 10:16
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=178&Itemid=1&limit=1&limitstart=0

Kharonte85
25-05-2008, 10:50
La potenza teorica di shading di GT260 non sarà molto più su di quella della 9800 GTX, ma è più sfruttabile (dato che la MUL su 9800GTX non è sempre utilizzabile) e poi c'è molta più banda passante a disposizione, vera croce della 9800 GTX. Comunque non condivido troppo quello che dice Demerjan sull'Inquirer, può anche darsi che nvidia si sia scontrata con qualche problema (inevitabile con chip così grossi) ma Gt200 sarà comunque la soluzione a singolo chip più potente mai creata, e dato che non si hanno informazioni certe su come va R700 rispetto a GT200, dire già adesso che nvidia ha sbagliato tutto mi sembra quantomeno prematuro.
Concordo...secondo me Demerjan l'ha fatta un po' fuori dal vaso...

C'è da dire che le specifiche sembrano realistiche, io come gia' detto ripongo le mie speranze sull'eventuale refresh...per quanto riguarda la concorrenza ho come la sensazione che si ripeteranno le stesse situazioni viste con G80 in versione GTX e GTS e R600 almeno per quanto riguarda le differenze prestazionali (anche perche' la x2 non uscira' prima di fine estate imho) con la HD4780 leggermente sotto la gtx 260 ma a costi inferiori...con la differenza sostanziale che questa volta non ci sara' il ritardo nella risposta da parte di AMD/ATI e questo forse fara' riguadagnare qualcosa in termini di quote di mercato e di guadagno.

-noxius-
25-05-2008, 11:10
Qui invece sembra che il pessimismo non sia di casa, anzi .. http://forum.benchmarkreviews.com/showthread.php?t=11871

A.L.M.
25-05-2008, 11:18
La potenza teorica di shading di GT260 non sarà molto più su di quella della 9800 GTX, ma è più sfruttabile (dato che la MUL su 9800GTX non è sempre utilizzabile) e poi c'è molta più banda passante a disposizione, vera croce della 9800 GTX. Comunque non condivido troppo quello che dice Demerjan sull'Inquirer, può anche darsi che nvidia si sia scontrata con qualche problema (inevitabile con chip così grossi) ma Gt200 sarà comunque la soluzione a singolo chip più potente mai creata, e dato che non si hanno informazioni certe su come va R700 rispetto a GT200, dire già adesso che nvidia ha sbagliato tutto mi sembra quantomeno prematuro.

Sono d'accordo sul fatto che l'articolo di Inquirer sia parecchio di parte. :)
Però la storia della MUL è ancora un mezzo mistero...
Comunque il picco di GFlops lo toccano solo con le operazioni di moltiplicazione, mentre dal punto di vista del calcolo teorico, la potenza di R600 sembra molto più sfruttabile e disponibile in un range più ampio di situazioni.
Inoltre, dato il fatto che sta benedetta MUL è fuori dagli SP, non capisco ancora bene se l'accesso a questa unità di calcolo aggiuntiva sia possibile in ogni momento oppure no... :confused: :fagiano:

Se quanto dice The Inquirer dovesse risultare essere vero, pare che questa volta NVIDIA possa avere un po di problemi. Insomma la palma di produttore della GPU più veloce non gliela toglierà nessuno, però avere un chip così grosso, con basse rese e alti costi di produzione potrebbe essere una zappa sui piedi. Insomma se AMD dovesse riuscire con R700 a superare la GTX 280, possiamo tranquillamente dire che l'era delle grosse soluzioni monolitiche è finita. Del resto pare che questa sia opinione anche di NVIDIA e GTX 280 dovrebbe essere l'ultima GPU di questo genere.

Completamente d'accordo. ;)

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=178&Itemid=1&limit=1&limitstart=0

Un po' di foto dall'articolo... :D

GT200 (o G200?).

http://benchmarkreviews.com/images/articles/NVIDIA_Editors_Day_2008/Jason_Paul_NVIDIA_Editors_Day_08.jpg

La GTX280 e suo "padre" (Jen-Hsun Huang)... :asd:

http://benchmarkreviews.com/images/articles/NVIDIA_Editors_Day_2008/Jen-Hsun_Huang_NVIDIA_Editors_Day_08.jpg

Da quel pezzo si evince che l'NDA scadrà il 17 giugno alle 14 o alle 15 ora italiana (le 6AM ora di L.A.). ;)
Inoltre pare che abbiano ottimizzato parecchio le prestazioni matematiche delle nuove gpu, oltre all'esempio di F@H fanno quello di un incremento di 17 volte rispetto alle 8800 in MatLab. Ovviamente nè l'uno nè l'altro possono essere presi come benchmark per le prestazioni nei giochi (quindi mi sa che non sarà 3x una RV670XT nè ovviamente 17x una 8800), ma indicano il lodevole impegno che NVidia sta mettendo in CUDA.

Questo articolo è abbastanza favorevole a NV, a differenza di quello precedente (con tanto di sviolinata finale al presidente), tanto che si parla di manager NVidia che dicono di Crysis che va "damn fast" sulle nuove gpu.
La verità la scopriremo il 17/06. ;)

Kharonte85
25-05-2008, 11:22
Qui invece sembra che il pessimismo non sia di casa, anzi .. http://forum.benchmarkreviews.com/showthread.php?t=11871



The two new GeForce video cards are going to be more expensive, but the difference in performance is night and day.


The non-disclosure agreement with NVIDIA prohibits me from telling you anything about the two upcoming GeForce video cards.

I can say something else however, such as if you are planning on making a video card purchase in the next two weeks... WAIT!

Bè direi che è stato abbastanza esplicito...:asd:

leoneazzurro
25-05-2008, 11:22
Qui invece sembra che il pessimismo non sia di casa, anzi .. http://forum.benchmarkreviews.com/showthread.php?t=11871

Ecco, quello è un sito "leggermente" orientato dall'altra parte...

leoneazzurro
25-05-2008, 11:25
Sono d'accordo sul fatto che l'articolo di Inquirer sia parecchio di parte. :)
Però la storia della MUL è ancora un mezzo mistero...
Comunque il picco di GFlops lo toccano solo con le operazioni di moltiplicazione, mentre dal punto di vista del calcolo teorico, la potenza di R600 sembra molto più sfruttabile e disponibile in un range più ampio di situazioni.
Inoltre, dato il fatto che sta benedetta MUL è fuori dagli SP, non capisco ancora bene se l'accesso a questa unità di calcolo aggiuntiva sia possibile in ogni momento oppure no... :confused: :fagiano:



D'accordo sulla sfruttabilità: comunque la MUL non è al "di fuori" degli SP, non lo è mai stata, semplicemente era utilizzabile con pesanti limitazioni, a causa del fatto che l'unità preposta doveva gestire anche le funzioni speciali. Adesso è presumibile che la MUL e l'unità funzioni speciali siano state sdoppiate, sempre all'interno del singolo SP.

leoneazzurro
25-05-2008, 11:29
Bè direi che è stato abbastanza esplicito...:asd:

Ma date le risorse che possiede, il chip GT200 sarà indubbiamente la cosa più veloce apparsa finora. Però più veloce è diverso da "più appetibile", per cui bisognerà vedere l'appetibilità dei chip della concorrenza che promettono di essere molto più economici... (e della concorrenza interna).
Chiaro che chi vorrà le prestazioni assolute per il momento (visto che ancora non si sa nulla del rapporto prestazionale tra GT200 e R700) dovrà andare su GT200 pagando però molto. D'altra parte la massa non compra le schede da 450-600$.

A.L.M.
25-05-2008, 11:33
D'accordo sulla sfruttabilità: comunque la MUL non è al "di fuori" degli SP, non lo è mai stata, semplicemente era utilizzabile con pesanti limitazioni, a causa del fatto che l'unità preposta doveva gestire anche le funzioni speciali. Adesso è presumibile che la MUL e l'unità funzioni speciali siano state sdoppiate, sempre all'interno del singolo SP.

Boh, io avevo capito così da questa frase della review di Beyond3D... :fagiano: :stordita:

It turns out that the MUL isn't part of the SP ALU, rather it's serial to the interpolator/SF hardware and comes after it when executing, leaving it (currently) for attribute interpolation and perspective correction.

Ma date le risorse che possiede, il chip GT200 sarà indubbiamente la cosa più veloce apparsa finora. Però più veloce è diverso da "più appetibile", per cui bisognerà vedere l'appetibilità dei chip della concorrenza che promettono di essere molto più economici... (e della concorrenza interna).
Chiaro che chi vorrà le prestazioni assolute per il momento (visto che ancora non si sa nulla del rapporto prestazionale tra GT200 e R700) dovrà andare su GT200 pagando però molto. D'altra parte la massa non compra le schede da 450-600$.

Non solo, ma questa volta AMD ha capito di dover controbattere sempre colpo su colpo: neanche a farlo apposta le HD4xxx usciranno contemporaneamente alle GTX2xx. Se R600, nonostante tutti i suoi difetti, fosse uscito contemporaneamente a G80, comunque avrebbe venduto di più. Figuriamoci HD4870 vs GTX260 (che sarà lo scontro principale in termini di vendite della fascia alta), se si confermeranno le specifiche e le prestazioni trapelate finora. ;)

leoneazzurro
25-05-2008, 11:42
Boh, io avevo capito così da questa frase della review di Beyond3D... :fagiano: :stordita:


Infatti all'epoca non era "accessibile" ma in release di drivers seguenti è divenuta accessibile, anche se utilizzabile al 50% al massimo, quindi fa parte dell''unità "SP" ma con limitazioni.

Kharonte85
25-05-2008, 11:48
Ma date le risorse che possiede, il chip GT200 sarà indubbiamente la cosa più veloce apparsa finora. Però più veloce è diverso da "più appetibile", per cui bisognerà vedere l'appetibilità dei chip della concorrenza che promettono di essere molto più economici... (e della concorrenza interna).
Chiaro che chi vorrà le prestazioni assolute per il momento (visto che ancora non si sa nulla del rapporto prestazionale tra GT200 e R700) dovrà andare su GT200 pagando però molto. D'altra parte la massa non compra le schede da 450-600$.
Infatti, è il solito discorso che se uno pretende il max, dei consumi e dei costi non gli importa un fico secco...dopotutto nvidia è riuscita a vendere la 8800ultra a delle cifre pazzesche in passato...anche se devo dire che se fossi un utente interessato a schede simili il chip "monolitico" mi piacerebbe di piu' come idea rispetto ad una soluzione multi GPU (a parita' o quasi di prestazioni) sulla falsariga di quelle che abbiamo gia' visto, piu' che altro per un discorso di costanza di rendimento ma soprattutto evitamento di incompatibilitò e/o problemi vari...aspetto questo su cui dovrebbero lavorare con piu' attenzione...

Di sicuro il discorso sara' diverso e dovra' essere fatto per chi punta ad un buon rapporto prezzo/prestazioni/vari altri aspetti...e a questo giro secondo me AMD/ATI ha una buona occasione per risollevarsi...

Kharonte85
25-05-2008, 11:52
Non solo, ma questa volta AMD ha capito di dover controbattere sempre colpo su colpo: neanche a farlo apposta le HD4xxx usciranno contemporaneamente alle GTX2xx. Se R600, nonostante tutti i suoi difetti, fosse uscito contemporaneamente a G80, comunque avrebbe venduto di più. Figuriamoci HD4870 vs GTX260 (che sarà lo scontro principale in termini di vendite della fascia alta), se si confermeranno le specifiche e le prestazioni trapelate finora. ;)
Concordo...sono convintissimo che quasi tutte le difficolta' di AMD (sia in ambito GPU che in quello CPU) possano essere ricondotte al fatto che non è stata in grado di rispettare le tempistiche.

Marko91
25-05-2008, 11:59
LA GTX260 non dovrebbe essere veloce come prospettato in precedenza, se si confermano le spec di TheInq.
Rispetto alla 9800GTX hanno migliorato l'efficenza dello shading ma non è aumentato di molto in valore assoluto. Se avesse 64TF e 32 TAU , come detto da ben-informati su Beyond3d, le capacità di texturing diminuiribbero sensibilimente(clock 576Mhz).
A questo punto credo che nel migliore dei casi arrivi a pareggiare con la GX2, un risultato comunque di tutto rispetto. La gtx280 dovrebbe essere il 30% più veloce di una GX2.
Curioso di vedere quindi HD4870vsGTX260.

Foglia Morta
25-05-2008, 12:02
LA GTX260 non dovrebbe essere veloce come prospettato in precedenza, se si confermano le spec di TheInq.
Rispetto alla 9800GTX hanno migliorato l'efficenza dello shading ma non è aumentato di molto in valore assoluto. Se avesse 64TF e 32 TAU , come detto da ben-informati su Beyond3d, le capacità di texturing diminuiribbero sensibilimente(clock 576Mhz).
A questo punto credo che nel migliore dei casi arrivi a pareggiare con la GX2, un risultato comunque di tutto rispetto. La gtx280 dovrebbe essere il 30% più veloce di una GX2.
Curioso di vedere quindi HD4870vsGTX260.

32 TAU ? Cioè come G80 ? Dopo che G92 ha riportato in parità il numero a 64/64 mi pare assurdo. Mi sa che come minimo sarà 64/64

leoneazzurro
25-05-2008, 12:17
Sarà con tutta probabilità 40 TAU/80 TFU. Ci sono 10 cluster ;)

E CJ e un altro utente hanno parlato di questo "passo indietro" sulel TAU (per risparmiare transistors, evidentemente).

Crysis90
25-05-2008, 12:19
http://forums.vr-zone.com/showthread.php?t=280292

"Nvidia says at the Editor's Day 2008:

"Just wait until June 17th when the newest series of GeForce GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card."

Quindi, stando a quanto dice NVidia, GT200 permetterà un salto prestazionale tanto incredibile quanto G80 lo permise rispetto a G71...speriamo sia davvero così...

McGraw
25-05-2008, 12:20
Se le frequenze della GTX280 sono 600/2200-1300 e quelle della GTX260 sono 575/2000-1240, si nota che le frequenze degli s.p. sono relativamente basse in stile 8800GTS e 8800GTX a 90nm, il che mi fa pensare alla GTX280 come una scheda non concepita per dare il massimo del progetto GT200 ma volutamente posta ad uno stadio intermedio, forse anche a causa dei 65nm!

:idea: La mia sensazione é che vedremo una nuova scheda ottimizzata forse con i 55nm e piu spinta sugli s.p. per replicare alla HD4870X2 in stile 8800 Ultra! quindi ancora a singola gpu! ma ovviamente a settembre! ;)

paolox86
25-05-2008, 12:22
http://forums.vr-zone.com/showthread.php?t=280292

"Nvidia says at the Editor's Day 2008:

"Just wait until June 17th when the newest series of GeForce GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card."

Quindi, stando a quanto dice NVidia, GT200 permetterà un salto prestazionale tanto incredibile quanto G80 lo permise rispetto a G71...speriamo sia davvero così...

Al prezzo di un forno crematorio, temo... Cmq bene per il progresso!

A.L.M.
25-05-2008, 12:29
Sarà con tutta probabilità 40 TAU/80 TFU. Ci sono 10 cluster ;)

E CJ e un altro utente hanno parlato di questo "passo indietro" sulel TAU (per risparmiare transistors, evidentemente).

Ma non dovrebbero essere 12 i cluster? (192SP/16SP per cluster)... :stordita:
(lo chiedo perchè inizio a non capirci più un tubo tra tutti questi rumors... :D )
Comunque ho dei forti sospetti che a partire da domani inizierà un leakage pazzesco di benchmark e specifiche per queste schede (alcuni recensori le hanno già ricevute).
ATI invece sta riuscendo a tenere il freno a mano tirato sui rumors: si sa molto meno su RV770. :)


:idea: La mia sensazione é che vedremo una nuova scheda ottimizzata forse con i 55nm e piu spinta sugli s.p. per replicare alla HD4870X2 in stile 8800 Ultra! quindi ancora a singola gpu! ma ovviamente a settembre! ;)

Può darsi, ma se così fosse sarebbe nel Q4 (Ottobre-Dicembre), NVidia ha espressamente detto l'anno scorso che avrebbe lanciato le nuove versioni future delle High-End il Q2 e fatto un refresh nel Q4.

nico88desmo
25-05-2008, 12:34
Se le frequenze della GTX280 sono 600/2200-1300 e quelle della GTX260 sono 575/2000-1240, si nota che le frequenze degli s.p. sono relativamente basse in stile 8800GTS e 8800GTX a 90nm, il che mi fa pensare alla GTX280 come una scheda non concepita per dare il massimo del progetto GT200 ma volutamente posta ad uno stadio intermedio, forse anche a causa dei 65nm!

:idea: La mia sensazione é che vedremo una nuova scheda ottimizzata forse con i 55nm e piu spinta sugli s.p. per replicare alla HD4870X2 in stile 8800 Ultra! quindi ancora a singola gpu! ma ovviamente a settembre! ;)

Molto probabile questo.

Comunque sia la differenza che potrebbe fare la GTX260 rispetto all'attuale GX2 è il bus a 448 bit che ha a disposizione.
La 9800GX2 ha un bus di 512 bit perchè sono 2*256bit, però appunto ogni GPU "vede" solamente 256bit.
Inoltre a parità di potenza di shading (quasi), la nuova scheda dicono che avrà le unità più sfruttabili rispetto alla serie precedente. (oltre al numero di SP, hanno modificato anche la loro architettura, altrimenti non la avrebbero chiamata 'second-generation unified architecture', penso).

Comunque, fra 3 settimane sapremo la verità. :D

leoneazzurro
25-05-2008, 12:42
Ma non dovrebbero essere 12 i cluster? (192SP/16SP per cluster)... :stordita:
(lo chiedo perchè inizio a non capirci più un tubo tra tutti questi rumors... :D )
Comunque ho dei forti sospetti che a partire da domani inizierà un leakage pazzesco di benchmark e specifiche per queste schede (alcuni recensori le hanno già ricevute).


No, sembra 10 cluster da 24 SP ognuno, totale 240.
GT260, con alcune unità disabilitate, ne avrà 8 (192 SP)

Questo se le indiscrezioni sono vere.

leoneazzurro
25-05-2008, 12:44
Molto probabile questo.

Comunque sia la differenza che potrebbe fare la GTX260 rispetto all'attuale GX2 è il bus a 448 bit che ha a disposizione.
La 9800GX2 ha un bus di 512 bit perchè sono 2*256bit, però appunto ogni GPU "vede" solamente 256bit.
Inoltre a parità di potenza di shading (quasi), la nuova scheda dicono che avrà le unità più sfruttabili rispetto alla serie precedente. (oltre al numero di SP, hanno modificato anche la loro architettura, altrimenti non la avrebbero chiamata 'second-generation unified architecture', penso).

Comunque, fra 3 settimane sapremo la verità. :D

La "fregatura" della GX2 è che ha un framebuffer di soli 512 Mbyte, per cui ad alte risoluzioni si tenderà ad essere limitati dalla memoria a disposizione (se avesse 1 Gbyte per GPU andrebbe molto di più).

-noxius-
25-05-2008, 12:49
http://forums.vr-zone.com/showthread.php?t=280292 Quindi, stando a quanto dice NVidia, GT200 permetterà un salto prestazionale tanto incredibile quanto G80 lo permise rispetto a G71...speriamo sia davvero così...

A dir la verità sembra che abbiano riportato una cosa ancora più interessante ovvero che quel salto prestazionale sarà addirittura minore al confronto http://forums.vr-zone.com/showthread.php?t=280292

Marko91
25-05-2008, 12:50
No, sembra 10 cluster da 24 SP ognuno, totale 240.
GT260, con alcune unità disabilitate, ne avrà 9 (192 SP)

Questo se le indiscrezioni sono vere.

La 260 avrà 8 cluster attivi, per un totale di 192sp, 64TF e 32 TAU. Le rops dovrebbero essere divise in 8 gruppi da 4, e sulla 260 potrebbero esserne attivi 7 (quindi 28Rops)


Se le frequenze della GTX280 sono 600/2200-1300 e quelle della GTX260 sono 575/2000-1240, si nota che le frequenze degli s.p. sono relativamente basse in stile 8800GTS e 8800GTX a 90nm, il che mi fa pensare alla GTX280 come una scheda non concepita per dare il massimo del progetto GT200 ma volutamente posta ad uno stadio intermedio, forse anche a causa dei 65nm!

:idea: La mia sensazione é che vedremo una nuova scheda ottimizzata forse con i 55nm e piu spinta sugli s.p. per replicare alla HD4870X2 in stile 8800 Ultra! quindi ancora a singola gpu! ma ovviamente a settembre! ;)

Stanne certo, tutto ciò è a causa dei 65nm. Non possono proporre schede più potenti di una 280 ora.
A novembre ci sarà la GTX290 a 55nm.;)
E Ati risponderà con il refresh a 45nm di RV770 e R700. (HD49x0 Series) Sarò curioso di vedere come agirà Ati: aumenterà solo la frequenza o potenziare il chip?


A dir la verità sembra che abbiano riportato una cosa ancora più interessante ovvero che quel salto prestazionale sarà addirittura minore al confronto http://forums.vr-zone.com/showthread.php?t=280292

Quanto fu il salto prestazionale tra 7900GTX e 8800GTX?

thx
25-05-2008, 13:02
Quanto fu il salto prestazionale tra 7900GTX e 8800GTX?

Fu un salto doppio (e forse piu') per quanto riguarda le prestazioni

A.L.M.
25-05-2008, 13:02
No, sembra 10 cluster da 24 SP ognuno, totale 240.
GT260, con alcune unità disabilitate, ne avrà 9 (192 SP)

Questo se le indiscrezioni sono vere.

A me pare un po' strana un'organizzazione dei cluster di questo tipo... GTX260 avrebbe 72TFU e 36TAU allora? :stordita:

A dir la verità sembra che abbiano riportato una cosa ancora più interessante ovvero che quel salto prestazionale sarà addirittura minore al confronto http://forums.vr-zone.com/showthread.php?t=280292

See, vabbè. :asd:
Ricordo a tutti che alla fine dei conti G80 aveva 4 volte lo shader-count di G71 (128vs 24+8), 64TAU vs 24, ecc... ;)

-noxius-
25-05-2008, 13:06
il doppio rispetto ad una 7900GTX , poco più rispetto ad una GX2 ... che sia uguale anche questa volta con le GX2-GTX ?

http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_20.html



See, vabbè. :asd:
Ricordo a tutti che alla fine dei conti G80 aveva 4 volte lo shader-count di G71 (128vs 24+8), 64TAU vs 24, ecc... ;)


Guarda che io sono più scettico di te , ho solo riportato quella fonte ;)

Marko91
25-05-2008, 13:10
A me pare un po' strana un'organizzazione dei cluster di questo tipo... GTX260 avrebbe 72TFU e 36TAU allora? :stordita:



See, vabbè. :asd:
Ricordo a tutti che alla fine dei conti G80 aveva 4 volte lo shader-count di G71 (128vs 24+8), 64TAU vs 24, ecc... ;)

Leonezzaurro voleva dire 8, 9*24 infatti fa 216 :D



http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_21.html
Fatto qualche calcolo, la 8800GTX è stata mediamente l'80% più veloce di 7900GTX.
Considerando tutto ( quasi un raddoppio delle spec rispetto a G80) credo che GTX280 dovrebbe arrivare anche lui ad un 80% in più. A meno che Nvidia non abbia ottimizzato l'architettura sensibilmente, e che la diminuizione del rapporto shader:tmu non abbia alcun effetto negativi sulle prestazioni nei giochi attuali.

Foglia Morta
25-05-2008, 13:10
Sarà con tutta probabilità 40 TAU/80 TFU. Ci sono 10 cluster ;)

E CJ e un altro utente hanno parlato di questo "passo indietro" sulel TAU (per risparmiare transistors, evidentemente).

se è così c'è da chiedersi dove siano stati messi tutti quei transistors... rops , memory controller , shader core e ritocchi varii imho non giustificano quasi 600mln di transistors in più

A.L.M.
25-05-2008, 13:12
il doppio rispetto ad una 7900GTX , poco più rispetto ad una GX2 ... che sia uguale anche questa volta con le GX2-GTX ?

http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_20.html

Beh, forse si riferiscono al salto immediato rispetto alla GX2 precedente, che nel caso di G80 fu piccolo all'inizio, ma incrementò moltissimo col passare delle release dei drivers (G80GTX va molto meglio oggi rispetto a quella recensione). Ma all'epoca c'era un perchè, visto che comunque era un architettura completamente diversa alla precedente, quindi ci stava un periodo di "studio".
Ma oggi i drivers sono già tarati per quell'architettura, quindi già all'inizio si avranno prestazioni quasi "definitive".
G80 però aveva il doppio di shaders (seppur strutturati in modo diverso) anche rispetto alla GX2 dell'epoca.


http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_21.html
Fatto qualche calcolo, la 8800GTX è stata mediamente l'80% più veloce di 7900GTX.
Considerando tutto ( quasi un raddoppio delle spec rispetto a G80) credo che GTX280 dovrebbe arrivare anche lui ad un 80% in più. A meno che Nvidia non abbia ottimizzato l'architettura sensibilmente, e che la diminuizione del rapporto shader:tmu non abbia alcun effetto negativi sulle prestazioni nei giochi attuali.

Vale quanto ho detto sopra. G80 è molto più veloce di quanto non appaia in quella rece. ;)

se è così c'è da chiedersi dove siano stati messi tutti quei transistors... rops , memory controller , shader core e ritocchi varii imho non giustificano quasi 600mln di transistors in più

Un crossbar a 512bit è una roba enorme, sia in termini di spazio che di transistor count, molto più di un ringbus. :)
Inoltre non puoi fare confronti con l'architettura di R600, in cui le SU occupano poco spazio (basta guardare alla piccola differenza in termini di die-size tra RV635 e RV670). GT200 è quasi il doppio di G80. ;)

Crysis90
25-05-2008, 13:15
Comunque sia, la 280 GTX dev'essere per forza + potente delle GPU ora in circolazione, perchè sennò che senso ha immetterla sul mercato a ben 600 dollari, quando la 9800 GX2 ne costa 499? Sono fiducioso, NVidia ha dalla sua parte un'architettura incredibilmente efficiente, la metà dei suoi Stream Processors sono più efficaci e potenti dei 320 e prossimi 480 Streams di ATI...

leoneazzurro
25-05-2008, 13:19
La 260 avrà 8 cluster attivi, per un totale di 192sp, 64TF e 32 TAU. Le rops dovrebbero essere divise in 8 gruppi da 4, e sulla 260 potrebbero esserne attivi 7 (quindi 28Rops)


Si, era un typo. Ora ho corretto.



A me pare un po' strana un'organizzazione dei cluster di questo tipo... GTX260 avrebbe 72TFU e 36TAU allora? :stordita:


64 TFU e 32 TAU, I cluster potrebbero essere realizzati in questo modo per aumetare la potenza di shading rispetto a quella di texturing che era già sovrabbondante



See, vabbè. :asd:
Ricordo a tutti che alla fine dei conti G80 aveva 4 volte lo shader-count di G71 (128vs 24+8), 64TAU vs 24, ecc... ;)

Le unità shader di G80 sono scalari, quelle di G71 vettoriali, quindi non è un confronto fattibile solo sul piano del numero, ti dico solo che in G71 il picco in termini di FLOPS non era troppo lontano da quello raggiungibile in g80 (la sfruttabilità non è nemmeno lontanamente paragonabile, ovviamente).

leoneazzurro
25-05-2008, 13:21
se è così c'è da chiedersi dove siano stati messi tutti quei transistors... rops , memory controller , shader core e ritocchi varii imho non giustificano quasi 600mln di transistors in più

IMHO li giustificano eccome.. G92 è 324 mm^2, questo chip a parte le TAU/TFU ha praticamente il doppio di unità ed è 576 mm^2.

Marko91
25-05-2008, 13:36
Comunque sia, la 280 GTX dev'essere per forza + potente delle GPU ora in circolazione, perchè sennò che senso ha immetterla sul mercato a ben 600 dollari, quando la 9800 GX2 ne costa 499? Sono fiducioso, NVidia ha dalla sua parte un'architettura incredibilmente efficiente, la metà dei suoi Stream Processors sono più efficaci e potenti dei 320 e prossimi 480 Streams di ATI...

Non è esatto, le unità di Nvidia e Ati non si possono confrontare in questi termini.
E' un discorso già fatto in questa sezione pochi giorni fa...
http://www.hwupgrade.it/forum/showpost.php?p=22542134&postcount=3495

Tioz90
25-05-2008, 13:50
http://forums.vr-zone.com/showthread.php?t=280292

"Nvidia says at the Editor's Day 2008:

"Just wait until June 17th when the newest series of GeForce GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card."

Quindi, stando a quanto dice NVidia, GT200 permetterà un salto prestazionale tanto incredibile quanto G80 lo permise rispetto a G71...speriamo sia davvero così...
Sembra impossibile:confused:
In pratica dicono che le nuove gtx andrebbe più del doppio delle 8 e 9??

-noxius-
25-05-2008, 13:57
Considerando che una 8800GTX ed una 9800GTX sono uguali (o peggio nel secondo caso ad altissime impostazioni ..) e considerando che uno SLI le porta ad i livelli della GX2 , ecco qui che la nuova GTX andrà più veloce di uno SLI di vecchie GTX, ovvero almeno il doppio (spero almeno nel peggiore dei casi , poi il surplus verrà quantificato dal 17 giugno ..)

Sergio_Di_Rio
25-05-2008, 14:00
Per le GPU questa tua osservazione è un pò fuori luogo, visto che internamente sono giù molto parallele.

La scelta di non fare chip "lenzuoli" non ha molto a che fare con l'efficienza dell'architettura, ma solo coi costi di progettazione e produzione.

Per quanto riguarda i processori multi-core l'unico vantaggio é... che si possono fare :D mentre è più difficile fare mono-core a frequenza più alta. (per il solito problema della potenza necessaria).

Fuori luogo? Ho forse parlato di patate? L'architettura interna delle gpu è parallela, e allora? Cosa impedisce ai produttori di utilizzare 2, 4, ...gpu in parallelo? Anzi (IHMO) ribadisco che i produttori (anche di gpu) seguiranno pedissequamente questa strada.

Inoltre, ha a che fare moltissimo con l'efficienza; più un prodotto è valido e maggiore sarà il suo successo sul mercato; la domanda da porsi è: "performance superiori, ma a che prezzo?" Come ho detto prima, in un processo industriale, si deve tenere conto del trade-off all'interno del triangolo investimenti-tempo-risultati, in base agli obiettivi dell'azienda.

Non è vero che l'unico vantaggio dei processori multi core è la sola realizzabiltà. Un pò troppo semplicistico. I processori multicore sono utilizzati in maniera intensiva nel calcolo parallelo e sono imbattibili per quanto riguarda la gestione di n-thread distinti (vedi ad esempio la virtualizzazione di più sistemi operativi; se fai uso intensivo di software di virtualizzazione, puoi capirmi) ed i loro benefici si riscontrano in molti altri campi. Non ultimo infine, come anche tu hai detto, la relativa economicità della proggettazione e produzione. Non dimentichiamo che frequenze eccessivamente elevate, oltre ad esose richieste energetiche e un notevole sviluppo di calore, possono portare ad interferenza all'interno dello spettro delle microonde.

L'affinamento dei processi produttivi (TSMC si sta preparando al processo produttivo dei 35nm già dal 2005 con un R&D center dedicato) e la futura (2013?) produzione di wafer da 450mm renderanno i processori sempre più piccoli, complessi ed (speriamo!) economici:D .

Ciao:)

:oink:

thx
25-05-2008, 14:00
Considerando che una 8800GTX ed una 9800GTX sono uguali (o peggio nel secondo caso ad altissime impostazioni ..) e considerando che uno SLI le porta ad i livelli della GX2 , ecco qui che la nuova GTX andrà più veloce di uno SLI di vecchie GTX, ovvero almeno il doppio (spero almeno nel peggiore dei casi , poi il surplus verrà quantificato dal 17 giugno ..)

Pero' i primi benchmark usciranno molto prima del 17 giugno...di solito non e' cosi?

A.L.M.
25-05-2008, 14:04
Le unità shader di G80 sono scalari, quelle di G71 vettoriali, quindi non è un confronto fattibile solo sul piano del numero, ti dico solo che in G71 il picco in termini di FLOPS non era troppo lontano da quello raggiungibile in g80 (la sfruttabilità non è nemmeno lontanamente paragonabile, ovviamente).

Lo so, infatti dopo l'ho scritto, ma quello che hai detto nella parte che ho evidenziato esprime il mio pensiero. G80 è comunque enormemente più efficiente e potente di G71. GT200 in fondo è "solo" G80*1.875 con qualche "variazione sul tema". ;)

leoneazzurro
25-05-2008, 14:07
Sembra impossibile:confused:
In pratica dicono che le nuove gtx andrebbe più del doppio delle 8 e 9??

Bisogna prendere le dichiarazioni "cum grano salis". Specialmente ad alte risoluzioni, le 9800 GTX e GX2 sono limitate dal framebuffer a 512 Mbyte, mentre la GT280 avrà un framebuffer da 1 Gbyte. Infatti in alcune situazioni credo sia possibile avere una 9800 GX2 che "rende meno" rispetto ad una 8800 Ultra di un anno prima ma che ha 768 Mbyte di memoria on-board.
Quidi è possibilissimo che in alcuni casi GT280 e forse anche GT260 possano andare decisamente più veloci di una 9800 GX2. In tutti i casi e mediamente questo lo vedo poco possibile.

Tioz90
25-05-2008, 14:12
Bisogna prendere le dichiarazioni "cum grano salis". Specialmente ad alte risoluzioni, le 9800 GTX e GX2 sono limitate dal framebuffer a 512 Mbyte, mentre la GT280 avrà un framebuffer da 1 Gbyte. Infatti in alcune situazioni credo sia possibile avere una 9800 GX2 che "rende meno" rispetto ad una 8800 Ultra di un anno prima ma che ha 768 Mbyte di memoria on-board.
Quidi è possibilissimo che in alcuni casi GT280 e forse anche GT260 possano andare decisamente più veloci di una 9800 GX2. In tutti i casi e mediamente questo lo vedo poco possibile.
Mi sa che dovrò cambiare monitor allora:asd:
1280x1024 è un pò limitante

gervi
25-05-2008, 20:34
scusate, un dubbio, che ho da molto tempo:

Ma Le Gpu Nvidia serie 8 , serie 9 e la futura serie GT 200 hanno un algoritmo in hardware che supporta le texture compresse o Normal Map, simile a quello delle Ati , 3Dc Compress texture????

O no?????

E' un dubbio che mi sorvola da parecchio, anche xchè le 3Dc compress texture, credo siano un algoritmo importante!! ed innovativo!!:confused:

nico88desmo
25-05-2008, 21:23
scusate, un dubbio, che ho da molto tempo:

Ma Le Gpu Nvidia serie 8 , serie 9 e la futura serie GT 200 hanno un algoritmo in hardware che supporta le texture compresse o Normal Map, simile a quello delle Ati , 3Dc Compress texture????

O no?????

E' un dubbio che mi sorvola da parecchio, anche xchè le 3Dc compress texture, credo siano un algoritmo importante!! ed innovativo!!:confused:

Mi sembra di si, ma non ne sono sicuro.

Domanda sulla nuova GPU: supporterà la doppia precisione?

Foglia Morta
25-05-2008, 22:58
Mi sembra di si, ma non ne sono sicuro.

Domanda sulla nuova GPU: supporterà la doppia precisione?

Si, stando a una slide di nVidia le performance dovrebbero essere il 12,5% di quanto può offrire in singola precisione ( 1/8 )

Per quel che riguarda 3DC forse ricordo male ma mi sembra di ricordare che fosse diventato un requisito delle DX10 ( quindi lo supporta anche nVidia ) , Ati l'aveva proposto come standard ed era stato deciso così.
Però , ripeto , non ne sono sicuro , magari mi sto confondendo.

http://code.google.com/p/nvidia-texture-tools/wiki/NormalMapCompression

BC5

BC5 is a two component block compression format, where each component is represented with a DXT5 alpha block. It was originally called 3Dc by ATI and its main purpose was to encode normals storing only the X and Y components.

In DirectX 10 the 3Dc format was standarized and renamed to BC5.

BC5 can be loaded in OpenGL as LATC or RGTC. The LATC format is particularly convenient, because you can use the same swizzle that is used for DXT5nm, that's because the luminance is replicated in the RGB components.

appleroof
25-05-2008, 23:00
il G92b (a 55nm) è a 128 SP, ma la versione 9800 GT ne ha abilitati solo 112. I clock saranno identici alla 8800 GT, per cui penso si possa dire che la 9800 GT altro non è che una 8800 GT "rimarchiata" con chip a 55nm. Probabilmente anche la 9800 GTX "versione B" (9900?) utilizzerà il chip a 55nm e farà concorrenza alle 4850-4870 nella fascia media

credo proprio sia la risposta immediata (in attesa del refresh 55nm gt200?) per fronteggiare le soluzioni Ati nella fascia medio-bassa del mercato, in termini di prezzo/prestazioni...

In effetti il consumo e il calore potrebbero divenire un ostacolo se gia' a quelle frequenze stiamo sui 250w di TDP :mc:

Onestamente da questo punto di vista credo che AMD/ATI sia molto in vantaggio a questo giro, con le tecnologie powerplay e le gddr5, sarebbe bene che anche Nvidia provveda...anche perche' non tutti (anzi :fagiano: ) hanno una piattaforma in grado di gestire l'hybrid sli (che secondo me sara' la soluzione su cui si puntera' di piu' in futuro)

Vedendo come vanno queste cose credo proprio che semmai faro' il passaggio lo faro' solo al refresh di GT200 (sperando ovviamente nella bonta' di quest'ultimo e a meno che non faccia meglio AMD/ATI) perche' mi sa che questo chippone sara' completamente fuori dalla mia portata...in tutti i sensi...:D

si, GT200 sarà un mostro, tutto porta ormai a questa conclusione, ma io credo proprio aspetterò il refresh, cmq resto alla finestra per ora, non la prendo la lancio :)

Mister Tarpone
25-05-2008, 23:00
io so che il 3DC è sfruttato nella serie di HL2

marco7773
25-05-2008, 23:24
In ogni caso l'uscita del GT200 mi mi fa venire voglia di vendere la Maxinus Extreme ancora prima di montarla (domani mattina inizio il pc in firma) e mi viene voglia di prendere una bella xfx 790i con uno sli di Gt200:D :D :D

appleroof
25-05-2008, 23:36
In ogni caso l'uscita del GT200 mi mi fa venire voglia di vendere la Maxinus Extreme ancora prima di montarla (domani mattina inizio il pc in firma) e mi viene voglia di prendere una bella xfx 790i con uno sli di Gt200:D :D :D

oste! :eek:

:asd: :asd:

-noxius-
25-05-2008, 23:53
In ogni caso l'uscita del GT200 mi mi fa venire voglia di vendere la Maxinus Extreme ancora prima di montarla (domani mattina inizio il pc in firma) e mi viene voglia di prendere una bella xfx 790i con uno sli di Gt200:D :D :D

Qualora ti decidessi fammi un fischio, mi prenderei il tuo alimentatore ;)

Sergio_Di_Rio
26-05-2008, 00:55
Nvidia Geforce 280/260 specs are final


cambiate le frequenze di shader e memorie della GTX260

http://forums.vr-zone.com/showthread.php?t=280513

:oink:

Mister Tarpone
26-05-2008, 01:10
Nvidia Geforce 280/260 specs are final


cambiate le frequenze di shader e memorie della GTX260

http://forums.vr-zone.com/showthread.php?t=280513

:oink:

:oink:

http://img79.imageshack.us/img79/3504/speccy4.jpg (http://imageshack.us)

:oink:




(AZZ gli shader di gtx260 vanno solo a 1000mhz :sob:)

A.L.M.
26-05-2008, 01:16
Nvidia Geforce 280/260 specs are final


cambiate le frequenze di shader e memorie della GTX260

http://forums.vr-zone.com/showthread.php?t=280513

:oink:

:oink:

http://img79.imageshack.us/img79/3504/speccy4.jpg (http://imageshack.us)

:oink:




(AZZ gli shader di gtx260 vanno solo a 1000mhz :sob:)

A me pare solo che abbiano messo in tabella quello che aveva detto il tale Demerjan ieri... :fagiano:
I 1000MHz mi paiono improbabili... Comunque credo che in questa settimana si saprà già parecchio (tutti i leaks di chi conosce il fratello del cugino dell'onorevole Randazzi che è andato all'editors'day. :D ).

Mister Tarpone
26-05-2008, 01:41
A me pare solo che abbiano messo in tabella quello che aveva detto il tale Demerjan ieri... :fagiano:
I 1000MHz mi paiono improbabili... Comunque credo che in questa settimana si saprà già parecchio (tutti i leaks di chi conosce il fratello del cugino dell'onorevole Randazzi che è andato all'editors'day. :D ).

capito...
mi paiono improbabili anche i flops di gtx 260... che sono inferiori a quelli del g80 e g92...se fossero veri sarebbe un flop.
battutina :sbonk: :sbonk: :sbonk:

no cmq... tornando seri...

clock bassi o no...secondo me già questa GTX 260 andrà come una sassata... ;)
avrà delle performance tremende.. ci scommetterei :asd:

-noxius-
26-05-2008, 08:03
capito...
mi paiono improbabili anche i flops di gtx 260... che sono inferiori a quelli del g80 e g92...se fossero veri sarebbe un flop.
battutina :sbonk: :sbonk: :sbonk:

no cmq... tornando seri...

clock bassi o no...secondo me già questa GTX 260 andrà come una sassata... ;)
avrà delle performance tremende.. ci scommetterei :asd:

Sembra poco più di una ultra ... A meno che non abbiano rivoluzionato tutto , quel datasheet mi sembra alquanto preoccupante ; evidentemente i consumi sarebbero stati troppo elevati . E' interessante notare quanto queste gddr5 permettano di ridurre questi ultimi, veramente notevole .

ps: spero che almeno quei 100gb/s di banda della 260 vengano sfruttati al massimo , alla fine una Ultra OC poteva toccare anche 110-115GB/secondo .

Foglia Morta
26-05-2008, 08:04
Riguarda anche GT200 quindi posto anche qui ( riassume i rumours fin qui )


http://resources.vr-zone.com/image_deposit/up/12117698854f592cb84b.jpg

D4N!3L3
26-05-2008, 09:15
Quanti dubbi e perplessità si leggono in queste pagine, bisognerà davvero aspettare fino al 17 per vedere qualche bench? :confused:

McGraw
26-05-2008, 09:29
Se la frequenza degli s.p. della GTX260 fosse veramente di 1000 MHz sarebbe un valore abbastanza basso, o meglio il piu basso mai visto in casa Nvidia, tant'é che nelle 8800 GTS a 90nm gli s.p. lavoravano a 1200 MHz!
Io credo che sia piu probabile i 1240 MHz per gli s.p. della GTX260, anche perché gli s.p. della GTX280 lavorano a 1300 MHz!
Forse il bus, la ram e il numero di s.p. leggermente inferiori rispetto alla GTX280 non danno quel taglio prestazionale che potrebbe dare in maniera piu marcata la frequenza degli s.p.! mah vedremo!
Dagli ultimi dati tecnici se confermate le prestazioni di cui sono capaci queste schede emerge chiaramente la bontà del progetto ma anche un certo limite imposto dai 65nm (quindi dimensioni della gpu) che si ripercuotono relativamente sul consumo e credo in maniera piu marcata sulle temperature! da qui le descisioni di adottare frequenze "rilassate"! :wtf:

Foglia Morta
26-05-2008, 10:03
In grassetto le parti on topic:

http://www.beyond3d.com/content/news/642

NVIDIA executives talked at the JPMorgan Technology Conference on Tuesday, and several interesting tidbits came up, from their ambitious market share expectations in Intel chipsets to the technical reason for G92 yield problems and the revelation that G92/G92b will last another '6-8 to 12 months'.

NVIDIA's Michael Hara, VP of Investor Relations, and Daniel Vivoli, SVP of Marketing, were present at the conference. A variety of points were discussed, but most notably:

* NVIDIA believes 25% share of their target addressable market for Intel chipsets to be a realistic goal. The part of the market they do not want to (nor can) attack is the ultra-low-end where quality and branding are both worthless and you compete on cost exclusively. When asked if that meant 15-20% overall share would be achievable, Hara answered that it 'seems reasonable'.
* For the first time, a specific reason was given for the lower than expected G92 yields: Michael Hara claimed it was testing procedures, rather than manufacturing itself, which were the problem. If really true, that would imply they were likely too conservative. Changing the SKUs (and/or moving to the 55nm G92b) would also seem like it could help by making some targets less strict.
* On G92 (and presumably G92b), Hara claimed 'that product has a lifecycle of another 6-8 to 12 months' and then continued on to say that 'the new stuff that is coming out the next 3 to 4 months is all on top of it, positioned above it'. Although this could just emphasize that OEM design wins take forever to phase out, it's more likely to hint at the lack of a GT2xx 65/55nm replacement of G92(b).
* Optimism about Tesla, but clear emphasis on the fact just the current supercomputer market wouldn't be a big deal; revenue opportunities are very much about growing the market, personal supercomputers for scientists, reducing the importance of the CPU in many ways, etc.
* On the subject of the handheld business, design wins for the APX 2500 will start rolling out in Q3/Q4 2008 in Personal Navigation Devices and Personal Media Players in Q4/Q1. Hara claimed there wasn't any other company that could effectively target PNDs, PMPs, and smartphones with the same chip. Pretty pleased with the variety of design wins so far. Pricing for this part over the long run should be between $8 and $12, margins starting out in the low 40s (Wait, what? Surely this must refer to the entire family, not just the APX 2500?)

They also didn't seem worried at all about Nehalem and GPU integration via Fusion and Intel's equivalent; certainly it's easier to understand that in the Intel market if they do manage to deliver on their 15-20% share goal for the end of this year; after all, if OEMs like their solutions that much, it would be very surprising if they adopted Intel's dual-chip MCM approach (that doesn't save any real cost) in every single one of their IGP-level products. They also seemed to think Hybrid SLI was a major advantage in that area.

Overall, nothing really unexpected except the Intel chipset share forecast, but a couple of noteworthy tidbits and a fair bit of optimism which only the future will tell us if it was warranted.

Quindi praticamente penso proprio che GT200 resterà a 65nm e nei prossimi mesi sarà presentata una gpu a 55nm basata sull'architettura di GT200 con meno unità di calcolo , die molto più piccolo ed esoso nei consumi e mirerà alla fascia performance. G92B andrà nella mainstream

ArCH85
26-05-2008, 10:16
uhm, quindi non riescono a fare un gt200 a 55nm che vada uguale o di più di quello a 65? forse è questo che intendeva il CEO nvidia quando diceva "non sempre riducendo il processo produttivo si ottengono risultati migliori" ? :confused:


bho, io non ci capisco più una fava :D

Foglia Morta
26-05-2008, 10:25
uhm, quindi non riescono a fare un gt200 a 55nm che vada uguale o di più di quello a 65? forse è questo che intendeva il CEO nvidia quando diceva "non sempre riducendo il processo produttivo si ottengono risultati migliori" ? :confused:


bho, io non ci capisco più una fava :D

non è scritto da nessuna parte che non riescono. E' che IMHO non possono produrre molte gpu nuove in una forbice di tempo troppo ridotta...

ArCH85
26-05-2008, 10:30
non è scritto da nessuna parte che non riescono. E' che IMHO non possono produrre molte gpu nuove in una forbice di tempo troppo ridotta...


si ho corso un po' troppo :D

in qualunque caso vuol dire che GT200 a 55nm in versione "GTX280/260" non lo vedremo nei prossimi mesi...

ok, me la prendo al lancio e basta :D

Foglia Morta
26-05-2008, 10:32
si ho corso un po' troppo :D

in qualunque caso vuol dire che GT200 a 55nm in versione "GTX280/260" non lo vedremo nei prossimi mesi...

ok, me la prendo al lancio e basta :D

Secondo me faranno come per G80 , salteranno un processo produttivo ( i 55nm , che comunque verranno usati per altre gpu inferiori a GT200 )

Mister Tarpone
26-05-2008, 10:42
e quindi si andrà direttamente a 45nani ?? :confused:

mahh.. chissà..

Andrea deluxe
26-05-2008, 11:13
al cambio attuale e conversioni piu' o meno corrette, quanto saranno in europa sti 600 dollari della 280?

Skullcrusher
26-05-2008, 11:16
al cambio attuale e conversioni piu' o meno corrette, quanto saranno in europa sti 600 dollari della 280?

Qualcosa mi dice 600€....

goldorak
26-05-2008, 11:21
al cambio attuale e conversioni piu' o meno corrette, quanto saranno in europa sti 600 dollari della 280?

1 $ = 1 €
600 € ? :stordita: :mc:
Io dico che avra' un prezzo superiore ai 550 €, poi magari la vediamo in vendita a 450 € ma dubito fortemente che sara' cosi'.

ArCH85
26-05-2008, 11:24
1 $ = 1 €
600 € ? :stordita: :mc:
Io dico che avra' un prezzo superiore ai 550 €

ho tanta paura sarà così all'inizio :(

Andrea deluxe
26-05-2008, 11:28
ok cerco di vendere la mia 9800gx2 a 300 euro :(

A.L.M.
26-05-2008, 11:42
uhm, quindi non riescono a fare un gt200 a 55nm che vada uguale o di più di quello a 65? forse è questo che intendeva il CEO nvidia quando diceva "non sempre riducendo il processo produttivo si ottengono risultati migliori" ? :confused:


bho, io non ci capisco più una fava :D

Semplicemente esistono 2 diversi tipi di wafer a 55nm, uno più generico ed uno più complesso, adatto per le schede ad alte performance e con die size più grandi. Per riuscire ad ottenere buoni risultati con quello più "performance" mi sa che prima devi testare la versione "generica".
NVidia, a quanto ho letto, sta testando il primo (e lo userà per G92b) ATI userà il secondo per RV770.
Probabilmente per una revisione di fine anno di GT200 non fanno in tempo ad usare il "performance", dunque sono costretti a castrare il chip, per evitare di dover buttare troppi chip.
Il tutto ovviamente in base al mio understanding della situazione. :)

-noxius-
26-05-2008, 12:12
uhm, quindi non riescono a fare un gt200 a 55nm che vada uguale o di più di quello a 65? forse è questo che intendeva il CEO nvidia quando diceva "non sempre riducendo il processo produttivo si ottengono risultati migliori" ?

Bravissimo, credo che a questo punto sia evidente ;) ; se è il ceo di nVIDIA a dirlo credo che la fonte possa essere attendibile, anche in relazione agli azionisti (nel senso che QUESTA sarà la top di gamma e che a breve non ci sarà la possibilità di un refresh , evidentemente a causa di problemi tecnici ) .

A questo punto spero solo che queste benedette ottimizzazioni ci siano, e che quella banda passante venga sfruttata appieno (non come le 8800GTS 640 ed in parte le GTX) .

Certo che se la 770 sarà realmente competitiva e si posizionerà tra la 260 e 280 sarà davvero un'estate infuocata (soprattutto nel case :rolleyes: ) ..

Secondo me faranno come per G80 , salteranno un processo produttivo ( i 55nm , che comunque verranno usati per altre gpu inferiori a GT200 )

Potrebbe essere possibile , magari come è successo per i G92 potrebbero rilasciare a novembre una molto ipotetica GTX 270-90 a 55nm che si posizionerà poco sotto alla 280 , come è successo per le 8800GT .. Dubito seriamente che possano creare una gtx280 a 55 nm tanto potente quanto la sua ''vecchia'' versione a 65nm , è sempre stata una prassi di nVIDIA rilasciare schede video MENO POTENTI successivamente ma con nuovo processo produttivo (essendo conservativi e rilasciando top di gamma con processo produttivo già ''rodato'' ed opportunamente ottimizzato, anche per gli yelds se ho capito bene) .

nico88desmo
26-05-2008, 12:54
Quindi si potrebbe pensare un GT200 a 45nm verso dicembre-gennaio?

A.L.M.
26-05-2008, 13:04
Quindi si potrebbe pensare un GT200 a 45nm verso dicembre-gennaio?

La vedo moolto difficile, se prima non testano il processo su qualche scheda di livello inferiore. E dato che Nvidia ha detto che G92/G94 ha ancora un bel po' di vita davanti a sè (e G92 verrà trasformato a 55nm), dubito fortemente che vedremo una gpu high-end NVidia a 45nm prima del Q2 2009. ;)

zerothehero
26-05-2008, 13:11
Quindi si potrebbe pensare un GT200 a 45nm verso dicembre-gennaio?

Magari un 55nm tra 6-7 mesi. :)
Cmq oramai che sono arrivati al miliardo di transistor, quale sarà il prossimo step?
Si è passati dai 200milioni di una 6800 a 5 volte tanto...

Skullcrusher
26-05-2008, 13:13
Magari un 55nm tra 6-7 mesi. :)
Cmq oramai che sono arrivati al miliardo di transistor, quale sarà il prossimo step?
Si è passati dai 200milioni di una 6800 a 5 volte tanto...

Secondo me si passerà alle gpu dual core....

Crysis90
26-05-2008, 14:34
Quì

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7511&Itemid=1

si dice che RV770XT (alias HD 4870) dovrebbe contendersi la fascia di mercato scontrandosi contro la 9800 GTX...non mi sembra un gran risultato...se GT200 è + potente di una 9800 GX2, misà che ATI non ce la fa nemmeno stavolta...

Marko91
26-05-2008, 14:35
Quì

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7511&Itemid=1

si dice che RV770XT (alias HD 4870) dovrebbe contendersi la fascia di mercato scontrandosi contro la 9800 GTX...non mi sembra un gran risultato...se GT200 è + potente di una 9800 GX2, misà che ATI non ce la fa nemmeno stavolta...

Mi fido molto di più di CJ che di Fudzilla. HD4870 sarà il 25% più veloce della 9800GTX e la HD4850 sarà pari o leggermente superiore.

Crysis90
26-05-2008, 14:44
Mi fido molto di più di CJ che di Fudzilla. HD4870 sarà il 25% più veloce della 9800GTX e la HD4850 sarà pari o leggermente superiore.

Io invece la vedo piuttosto dura...

The_SaN
26-05-2008, 14:48
Io invece la vedo piuttosto dura...

Se fud mi avesse dato almeno 1 motivo una volta, mi sarei anche potuto fidare...
CJ invece mi pare mooolto piú affidabile :)

Crysis90
26-05-2008, 15:04
Se fud mi avesse dato almeno 1 motivo una volta, mi sarei anche potuto fidare...
CJ invece mi pare mooolto piú affidabile :)

Link per CJ???

Kharonte85
26-05-2008, 15:06
Mi fido molto di più di CJ che di Fudzilla. HD4870 sarà il 25% più veloce della 9800GTX e la HD4850 sarà pari o leggermente superiore.
Infatti, penso anche io che siano stime + realistiche...la HD4850 Vs 8800gts/9800gtx e la hd4870 superiore di un 25%...pero' credo che la gtx 260 sarà superiore alla HD4870 anche se bisognerà vedere se la differenza di prezzo giustificherà le prestazioni in piu' (credo che nvidia rimarra' scoperta su questa fascia di prezzo)...la gtx 280 invece la vedo solo contro la HD4870 X2, questa è la mia sensazione dando per buone le caratteristiche trapelate...

McGraw
26-05-2008, 15:15
Spero per AMD che la HD4850 vada come la 9800GTX o giu di li, se dovesse andare meno si potrebbe affermare l'ennesimo FLOP! anche perché in proporzione la HD4870 non avrebbe delle prestazioni fantastiche (non credo nei miracoli delle GDDR5), quindi imo rimarrebbe lontana da una GTX260! ;)

Il dissi della GTX260 sarà il solito della GTX280? perché tutto fa propendere in questa direzione! :confused:

Marko91
26-05-2008, 16:12
Link per CJ???

Cj è un utente olandese del forum Beyond3d che ha contatti interni in AMD/Ati.
Finora le ha sempre beccate. E poi anche le specifiche sono allineate ad un'aumento di prestazioni simile.

Spero per AMD che la HD4850 vada come la 9800GTX o giu di li, se dovesse andare meno si potrebbe affermare l'ennesimo FLOP! anche perché in proporzione la HD4870 non avrebbe delle prestazioni fantastiche (non credo nei miracoli delle GDDR5), quindi imo rimarrebbe lontana da una GTX260! ;)

Il dissi della GTX260 sarà il solito della GTX280? perché tutto fa propendere in questa direzione! :confused:

Credo che HD4870 sarà un 20%-30% più lenta di GTX260. Se invece sorprendentemente avranno la stella velocità, sarà una grande vittoria per Ati.

gutti
26-05-2008, 16:25
Link per CJ???

http://forum.beyond3d.com/showthread.php?p=1162742#post1162742

post 1687
post 1688

...

halduemilauno
26-05-2008, 17:37
ho notato durante la mia assenza un fiorire di considerazioni sul famoso/famigerato 50% in + e sui Gflops.
allora meglio fare chiarezza. ecco il link diretto che per primo ne ha parlato...
http://forum.donanimhaber.com/m_23372076/tm.htm
riporto la frase clou...
"2nd gen. Unified architecture delivers %50 more gaming performance over 1st generation through 240 sp.
meglio riportare grassettato il punto saliente.
" %50 more gaming performance over "
chiaro ora?
l'altro punto i Gflops.
facciamo un riassunto/punto della situazione.
8800 GTS 320/640 : 230 Gflops
8800 GT 256/512 : 336 Gflops
8800 GTX : 346 Gflops
8800 Ultra : 387 Gflops
8800 GTS 512 : 416 Gflops
9800 GTX : 432 Gflops
(da notare che le due 8800gt/9800gtx su g92 seppur hanno Gflops superiori non superano le due 8800gtx/ultra g80 per via della superiore BP di quest'ultime 80 e 96 vs 57 e 65).
9800GX2 : 768 Gflops
(da notare che essa ha valori sul quasi doppio rispetto alle g92 e ben oltre rispetto alle g80 ma va ben meno del doppio, nella migliore delle ipotesi intorno al 50% e disponendo di una BP ben superiore, 119 Giga). tutto questo per dire che 128 shader + 128 shader da solo una somma teorica. questo per parlare dei soli shaders.
per fare un confronto con le ati...
3870 : 496 Gflops
3870x2 : 1056 Gflops
(da notare quindi che seppur dotate le schede ati vengono sonoramente battute da schede nvidia con valori di Gflops ben inferiori)(per completezza di info la 4870 ha 1008 Gflops).
e veniamo alla GTX 280 essa ha un valore pari a 936 Gflops(e per la cronaca una BP di 143 giga).
quindi il è tutto collegato al famoso +50% ripeto il fatto riguarda il modo di contare i gigaflop. nelle vecchie schede il risulato finale si ottiene moltiplicando per 2(e da i valori sopraindicati)e non x3. solo per le gtx va moltiplicato per 3 e la differenza tra il x2 e il x3 è appunto il 50% in +(che si traduce in prestazioni giochi come da famoso screen). quindi i gigaflop della 9800gtx sono in realtà 432(non 649) ben sotto i 937 della gtx280 da li il doppio(e anche sotto ai 575 della gtx260). e i 768 della 9800gx2 sono ottenuti come tutti sanno con due core da 128+128 che fa si 256 ma che non valgono affatto 256 ma ben meno molto probabilmente pure meno dei 575 della gtx260.
spero di aver chiarito.
;)

pierluigi86
26-05-2008, 17:54
quindi secondo te quando dovrebbe andare la gtx280 rispetto alla 9800gtx?

Andrea deluxe
26-05-2008, 17:57
quindi secondo te quando dovrebbe andare la gtx280 rispetto alla 9800gtx?

quasi il triplo:D

pierluigi86
26-05-2008, 18:00
quasi il triplo:D

è una battuta?

halduemilauno
26-05-2008, 18:03
quindi secondo te quando dovrebbe andare la gtx280 rispetto alla 9800gtx?

ancora non ti pare evidente? il doppio. come da me da tempo asserito. ovviamente non solo per il valore dei gigaflops.

appleroof
26-05-2008, 18:06
ho notato durante la mia assenza un fiorire di considerazioni sul famoso/famigerato 50% in + e sui Gflops.
allora meglio fare chiarezza. ecco il link diretto che per primo ne ha parlato...
http://forum.donanimhaber.com/m_23372076/tm.htm
riporto la frase clou...
"2nd gen. Unified architecture delivers %50 more gaming performance over 1st generation through 240 sp.
meglio riportare grassettato il punto saliente.
" %50 more gaming performance over "
chiaro ora?
l'altro punto i Gflops.
facciamo un riassunto/punto della situazione.
8800 GTS 320/640 : 230 Gflops
8800 GT 256/512 : 336 Gflops
8800 GTX : 346 Gflops
8800 Ultra : 387 Gflops
8800 GTS 512 : 416 Gflops
9800 GTX : 432 Gflops
(da notare che le due 8800gt/9800gtx su g92 seppur hanno Gflops superiori non superano le due 8800gtx/ultra g80 per via della superiore BP di quest'ultime 80 e 96 vs 57 e 65).
9800GX2 : 768 Gflops
(da notare che essa ha valori sul quasi doppio rispetto alle g92 e ben oltre rispetto alle g80 ma va ben meno del doppio, nella migliore delle ipotesi intorno al 50% e disponendo di una BP ben superiore, 119 Giga). tutto questo per dire che 128 shader + 128 shader da solo una somma teorica. questo per parlare dei soli shaders.
per fare un confronto con le ati...
3870 : 496 Gflops
3870x2 : 1056 Gflops
(da notare quindi che seppur dotate le schede ati vengono sonoramente battute da schede nvidia con valori di Gflops ben inferiori)(per completezza di info la 4870 ha 1008 Gflops).
e veniamo alla GTX 280 essa ha un valore pari a 936 Gflops(e per la cronaca una BP di 143 giga).
quindi il è tutto collegato al famoso +50% ripeto il fatto riguarda il modo di contare i gigaflop. nelle vecchie schede il risulato finale si ottiene moltiplicando per 2(e da i valori sopraindicati)e non x3. solo per le gtx va moltiplicato per 3 e la differenza tra il x2 e il x3 è appunto il 50% in +(che si traduce in prestazioni giochi come da famoso screen). quindi i gigaflop della 9800gtx sono in realtà 432(non 649) ben sotto i 937 della gtx280 da li il doppio(e anche sotto ai 575 della gtx260). e i 768 della 9800gx2 sono ottenuti come tutti sanno con due core da 128+128 che fa si 256 ma che non valgono affatto 256 ma ben meno molto probabilmente pure meno dei 575 della gtx260.
spero di aver chiarito.
;)

ben tornato ;)

halduemilauno
26-05-2008, 18:07
ben tornato ;)

Grazie.
:mano:

Andrea deluxe
26-05-2008, 18:12
è una battuta?

no affatto!

Crysis90
26-05-2008, 18:14
ancora non ti pare evidente? il doppio. come da me da tempo asserito. ovviamente non solo per il valore dei gigaflops.

Spero vivamente che tu abbia ragione...

appleroof
26-05-2008, 18:16
no affatto!

il triplo di una 9800gtx mi pare esagerato, io mi "accontenterei" del doppio, che è a dire quasi il doppio di una 8800gtx ( :eek: ): come diceva qualcuno "....e scusate se è poco!" :D

halduemilauno
26-05-2008, 18:18
Spero vivamente che tu abbia ragione...

beh sul doppio non ci dovrebbero essere dubbi. cmq come gia detto parlo sempre a carattere generale e ovviamente + o -.
;)

Andrea deluxe
26-05-2008, 18:18
teoricamente la 9800gx2 va un 35-40% in piu della 9800gtx


quindi se la gtx280 andra' 40% in piu' della 9800gx2

ne avremo che nel peggiore delle ipotesi la gtx280 andra' il 75% in piu' della 9800gtx

ma se l'efficenza degli shader fosse aumentata potrebbe essere anche un bel 100-110% di aumento!

halduemilauno
26-05-2008, 18:19
il triplo di una 9800gtx mi pare esagerato, io mi "accontenterei" del doppio, che è a dire quasi il doppio di una 8800gtx ( :eek: ): come diceva qualcuno "....e scusate se è poco!" :D

è si è un bel accontentarsi. qualcuno qualcuno...si mi pare di ricordare.
;)

appleroof
26-05-2008, 18:22
teoricamente la 9800gx2 va un 35-40% in piu della 9800gtx


quindi se la gtx280 andra' 40% in piu' della 9800gx2

ne avremo che nel peggiore delle ipotesi la gtx280 andra' il 75% in piu' della 9800gtx

anche se sai meglio di me che in questi casi calcoli matemateci del genere non se ne possoo fare, vedi pure tu che cmq parleremmo quasi del doppio di una 9800gtx, non del triplo :)

è si è un bel accontentarsi. qualcuno qualcuno...si mi pare di ricordare.
;)

:D ;)

Milotto
26-05-2008, 18:23
Bentornato Hal.... :) ;)
Cmq vada i prossimi mesi saranno tecnologicamente "frizzanti"...ed a prescindere dalle legittime simpatie spero che gli utenti possano scegliere tra prodotti validi ...in attesa di games degni di questo nome...

Skullcrusher
26-05-2008, 18:24
anche se sai meglio di me che in questi casi calcoli matemateci del genere non se ne possoo fare, vedi pure tu che cmq parleremmo quasi del doppio di una 9800gtx, non del triplo :)


Già! Ma già il doppio di una 9800GTX sarebbe una potenza niente male, supererebbe tranquillamente la 9800GX2. Quello che mi incuriosisce maggiormente oltre alla potenza, è la PPU integrata by Ageia, anche se per ora non è molto sfruttata, può essere che in futuro lo sia :)

P.S: bentornato Hal :D

halduemilauno
26-05-2008, 18:28
teoricamente la 9800gx2 va un 35-40% in piu della 9800gtx


quindi se la gtx280 andra' 40% in piu' della 9800gx2

ne avremo che nel peggiore delle ipotesi la gtx280 andra' il 75% in piu' della 9800gtx

ma se l'efficenza degli shader fosse aumentata potrebbe essere anche un bel 100-110% di aumento!

no come(credo/spero)di aver chiarito l'efficienza(chiamiamola cosi)è(uso il condizionale sarebbe)aumentata del 50%. a questo si aggiunga l'aumento consistentissimo del numero ed ecco che la 9800gtx ha 432 gigaflops e la gtx 280 937. oltre il doppio nonostante la riduzione della frequenza degli stessi. e con una bandapassante esattamente del doppio 140.8 vs 70.4.
;)

halduemilauno
26-05-2008, 18:29
Bentornato Hal.... :) ;)
Cmq vada i prossimi mesi saranno tecnologicamente "frizzanti"...ed a prescindere dalle legittime simpatie spero che gli utenti possano scegliere tra prodotti validi ...in attesa di games degni di questo nome...

Già! Ma già il doppio di una 9800GTX sarebbe una potenza niente male, supererebbe tranquillamente la 9800GX2. Quello che mi incuriosisce maggiormente oltre alla potenza, è la PPU integrata by Ageia, anche se per ora non è molto sfruttata, può essere che in futuro lo sia :)

P.S: bentornato Hal :D

Grazie ad ambedue.
;)

appleroof
26-05-2008, 18:30
Già! Ma già il doppio di una 9800GTX sarebbe una potenza niente male, supererebbe tranquillamente la 9800GX2. Quello che mi incuriosisce maggiormente oltre alla potenza, è la PPU integrata by Ageia, anche se per ora non è molto sfruttata, può essere che in futuro lo sia :)

P.S: bentornato Hal :D

si anche per me è uno degli aspetti che più mi intriga :)

-noxius-
26-05-2008, 18:33
il triplo di una 9800gtx mi pare esagerato, io mi "accontenterei" del doppio, che è a dire quasi il doppio di una 8800gtx ( :eek: ): come diceva qualcuno "....e scusate se è poco!" :D

Scusami , e la gx2 dove la mettiamo allora ? A prestazioni grossomodo saremmo lì quindi niente di sconvolgente , anzi .. Se fosse solo il doppio quindi starebbe in diretta concorrenza con le GX2 o con lo SLI di GTX , è logico aspettarsi che almeno quel livello di performances lo possa superare, il problema sarebbe capire di quanto . Guardate come va la gx2 contro uno sli di GTX , psecialmente le 8800 ..

Hal , questo " %50 more gaming performance over " mi sembra che non chiarisca proprio nulla , non specifica nemmeno a cosa esso sia effettivamente riferito ; 8800gt - gts - gtx ? Pure se fosse gtx alla fine sempre di ottimizzazione si tratta ma c'è da considerare anche il resto della questione, non solo una parte ;) .

La vera questione non è ''quanto va rispetto ad una gtx'' , sarebbe ''quanto va rispetto ad una gx2'' ; e qui la faccenda si complica ulteriormente . Per i prezzi credo che data la nuova high end senza concorrenza (4870x2) , almeno i 500 mi sembrano ipotizzabili .

Andrea deluxe
26-05-2008, 18:34
anche se sai meglio di me che in questi casi calcoli matemateci del genere non se ne possoo fare, vedi pure tu che cmq parleremmo quasi del doppio di una 9800gtx, non del triplo :)



:D ;)

si infatti scherazavo sul triplo!

ma il doppio e poco oltre penso sia probabile!

halduemilauno
26-05-2008, 18:35
Scusami , e la gx2 dove la mettiamo allora ? A prestazioni grossomodo saremmo lì quindi niente di sconvolgente , anzi .. Se fosse solo il doppio quindi starebbe in diretta concorrenza con le GX2 , è logico aspettarsi che almeno quel livello di performances lo possa superare, il problema sarebbe capire di quanto . Guardate come va la gx2 contro uno sli di GTX ..

Hal , questo " %50 more gaming performance over " mi sembra che non chiarisca proprio nulla , non specifica nemmeno a cosa esso sia effettivamente riferito ; 8800gt - gts - gtx ? Pure se fosse gtx alla fine sempre di ottimizzazione si tratta ma c'è da considerare anche il resto della questione, non solo una parte ;) .

La vera questione non è ''quanto va rispetto ad una gtx'' , sarebbe ''quanto va rispetto ad una gx2'' ; e qui la faccenda si complica ulteriormente . Per i prezzi credo che data la nuova high end senza concorrenza (4870x2) , almeno i 500 mi sembrano ipotizzabili .


"2nd gen. Unified architecture delivers %50 more gaming performance over 1st generation through 240 sp.

Marko91
26-05-2008, 18:35
ho notato durante la mia assenza un fiorire di considerazioni sul famoso/famigerato 50% in + e sui Gflops.
allora meglio fare chiarezza. ecco il link diretto che per primo ne ha parlato...
http://forum.donanimhaber.com/m_23372076/tm.htm
riporto la frase clou...
"2nd gen. Unified architecture delivers %50 more gaming performance over 1st generation through 240 sp.
meglio riportare grassettato il punto saliente.
" %50 more gaming performance over "
chiaro ora?
l'altro punto i Gflops.
facciamo un riassunto/punto della situazione.
8800 GTS 320/640 : 230 Gflops
8800 GT 256/512 : 336 Gflops
8800 GTX : 346 Gflops
8800 Ultra : 387 Gflops
8800 GTS 512 : 416 Gflops
9800 GTX : 432 Gflops
(da notare che le due 8800gt/9800gtx su g92 seppur hanno Gflops superiori non superano le due 8800gtx/ultra g80 per via della superiore BP di quest'ultime 80 e 96 vs 57 e 65).
9800GX2 : 768 Gflops
(da notare che essa ha valori sul quasi doppio rispetto alle g92 e ben oltre rispetto alle g80 ma va ben meno del doppio, nella migliore delle ipotesi intorno al 50% e disponendo di una BP ben superiore, 119 Giga). tutto questo per dire che 128 shader + 128 shader da solo una somma teorica. questo per parlare dei soli shaders.
per fare un confronto con le ati...
3870 : 496 Gflops
3870x2 : 1056 Gflops
(da notare quindi che seppur dotate le schede ati vengono sonoramente battute da schede nvidia con valori di Gflops ben inferiori)(per completezza di info la 4870 ha 1008 Gflops).
e veniamo alla GTX 280 essa ha un valore pari a 936 Gflops(e per la cronaca una BP di 143 giga).
quindi il è tutto collegato al famoso +50% ripeto il fatto riguarda il modo di contare i gigaflop. nelle vecchie schede il risulato finale si ottiene moltiplicando per 2(e da i valori sopraindicati)e non x3. solo per le gtx va moltiplicato per 3 e la differenza tra il x2 e il x3 è appunto il 50% in +(che si traduce in prestazioni giochi come da famoso screen). quindi i gigaflop della 9800gtx sono in realtà 432(non 649) ben sotto i 937 della gtx280 da li il doppio(e anche sotto ai 575 della gtx260). e i 768 della 9800gx2 sono ottenuti come tutti sanno con due core da 128+128 che fa si 256 ma che non valgono affatto 256 ma ben meno molto probabilmente pure meno dei 575 della gtx260.
spero di aver chiarito.
;)

Non capisco questo passaggio. Gli Stream processor di Nvidia sia su G80 che su G92 sono strutturati da MADD+MUL. Per effettuare il calcolo teorico degli sp bisogna moltiplicare per 3 flops per sp sempre, anche su G92 e anche sul futuro GT200.
Sulle schede Ati si moltiplica invece per 2 (2 flops per sp).
In realtà quello che si discuteva sia qui che su Beyond3d è che l'efficenza della MUL è aumentata del 50%, permettendo quindi alla scheda di sfruttare in modo migliore la potenza di shading teorico che ha (933 Gigaflops).
Io credo che al lancio sarà l 80-100% più veloce di una 9800GTX.

-noxius-
26-05-2008, 18:37
"2nd gen. Unified architecture delivers %50 more gaming performance over 1st generation through 240 sp.

Allora ? Sempre lì siamo ovvero dice tutto e niente .. Poi una cosa, 128+128 = 256 , con 240 solo il 50% in più ?

Per ultima cosa, tutto risiede nel prezzo, però c'è da dire che una nuova top di gamma è sempre benvenuta ed ovviamente la si paga .

appleroof
26-05-2008, 18:37
Scusami , e la gx2 dove la mettiamo allora ? A prestazioni grossomodo saremmo lì quindi niente di sconvolgente , anzi .. Se fosse solo il doppio quindi starebbe in diretta concorrenza con le GX2 o con lo SLI di GTX , è logico aspettarsi che almeno quel livello di performances lo possa superare, il problema sarebbe capire di quanto . Guardate come va la gx2 contro uno sli di GTX , psecialmente le 8800 ..

cut

ma perchè secondo te una 9800gx2 và il doppio di una 9800gtx? Magari....

halduemilauno
26-05-2008, 18:41
Non capisco questo passaggio. Gli Stream processor di Nvidia sia su G80 che su G92 sono strutturati da MADD+MUL. Per effettuare il calcolo teorico degli sp bisogna moltiplicare per 3 flops per sp sempre, anche su G92 e anche sul futuro GT200.
Sulle schede Ati si moltiplica invece per 2 (2 flops per sp).
In realtà quello che si discuteva sia qui che su Beyond3d è che l'efficenza della MUL è aumentata del 50%, permettendo quindi alla scheda di sfruttare in modo migliore la potenza di shading teorico che ha (933 Gigaflops).
Io credo che al lancio sarà l 80-100% più veloce di una 9800GTX.

solo che per le g80/g92 si parlava di missing mull. ora invece per il g200 la mull è presente e quindi prima il x3 era sbagliato era + corretto fare per le g80/92 il x2. e questo faceva sballare i calcoli approposito del valore di gigaflopps. per esempio la 9800gtx avrebbe in teoria 649 gigaflops in realtà ne ha 432. mentre la gtx280 ne ha proprio 936. nvidia ha proprio operato in questo specifico ed ecco li il 50% in + ovvero da x2 a x3.

-noxius-
26-05-2008, 18:42
ma perchè secondo te una 9800gx2 và il doppio di una 9800gtx? Magari....

Il doppio ''matematico'' no, però guardando lo SLI di 9800-8800GTX stiamo lì ;)

halduemilauno
26-05-2008, 18:46
Allora ? Sempre lì siamo ovvero dice tutto e niente .. Poi una cosa, 128+128 = 256 , con 240 solo il 50% in più ?

Per ultima cosa, tutto risiede nel prezzo, però c'è da dire che una nuova top di gamma è sempre benvenuta ed ovviamente la si paga .

forse e ripeto forse il valore gigaflops(ma da tener conto di tutto l'insieme)può esser d'aiuto. da una parte ci sono 768 giga dall'altra 936. solo che i 768 sono ottenuti con un'artifizio ovvero sommando i due blocchi di shader dovute alle due gpu usate(128+128=256)mentre i 936(dovuti da un'unica gpu da 240 shader)sono tutti fruibili, come direbbe qualcuno son tutti sull'unghia.

Kharonte85
26-05-2008, 18:46
Allora ? Sempre lì siamo ovvero dice tutto e niente .. Poi una cosa, 128+128 = 256 , con 240 solo il 50% in più ?

Non ci incastra niente, è un po' come nelle macchine, non è che una macchina che ha 240 cavalli va il doppio di una che ne ha 128...:p :sofico:

Comunque Hal faceva notare che il rumors (veritiero o no che sia) riporta chiaramente che l'aumento è calcolato sulle performance nei giochi e non si riferisce, come era sembrato prima, a qualche operazione in particolare...

appleroof
26-05-2008, 18:47
Il doppio ''matematico'' no, però guardando lo SLI di 9800-8800GTX stiamo lì ;)

ma cosa c'entra adesso lo sli di 9800gtx? :what: (non è la stessa cosa di una 9800gx2, strano ma vero)

facciamo "chiarezza" (virgolette d'obbligo visto che ancora non abbiamo uno straccio di prova sul campo della 280): stando ai rumors, la GTX280 dovrebbe doppiare la 9800gtx ed andare un 20-30% in più della 9800gx2 (che a sua volta in media stà l'80% in più della 9800gtx) ok? :)

cmq la 9800gx2 è destinata ad uscire di produzione, una volta lanciata gt200, quindi o te magni quella minestra (adesso non si può più dire riscaldata, ma bella appena fatta :D ) o....;)

halduemilauno
26-05-2008, 18:49
Non ci incastra niente, è un po' come nelle macchine, non è che una macchina che ha 240 cavalli va il doppio di una che ne ha 128...:p :sofico:

Comunque Hal faceva notare che il rumors (veritiero o no che sia) riporta chiaramente che l'aumento è calcolato sulle performance nei giochi e non si riferisce, come era sembrato prima, a qualche operazione in particolare...

esatto. ed era evidente(scritto)sin dall'inizio.
;)

halduemilauno
26-05-2008, 18:52
ma cosa c'entra adesso lo sli di 9800gtx? :what: (non è la stessa cosa di una 9800gx2, strano ma vero)

facciamo "chiarezza" (virgolette d'obbligo visto che ancora non abbiamo uno straccio di prova sul campo della 280): stando ai rumors, la GTX280 dovrebbe doppiare la 9800gtx ed andare un 20-30% in più della 9800gx2 (che a sua volta in media stà l'80% in più della 9800gtx) ok? :)

cmq la 9800gx2 è destinata ad uscire di produzione, una volta lanciata gt200, quindi o te magni quella minestra (adesso non si può più dire riscaldata, ma bella appena fatta :D ) o....;)

in media non credo che la 9800gx2 vada l'80% in + della 9800gtx. in media certamente meno. da li ecco che aumenterebbe la % a favore della gtx280 nei confronti della 9800gx2.
;)

Kharonte85
26-05-2008, 18:56
cmq la 9800gx2 è destinata ad uscire di produzione, una volta lanciata gt200, quindi o te magni quella minestra (adesso non si può più dire riscaldata, ma bella appena fatta :D ) o....;)
Fra l'altro se proprio proprio uno se la volesse prendere meglio prenderla usata (2 mesi neanche :eek: ) da chi la sta vendendo in tutta fretta e furia adesso...:asd: