PDA

View Full Version : Aspettando Nvidia G92!!!!!


Pagine : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

JoeLatino
24-05-2007, 09:08
eh eh questo non e' uno scherzo....:)
leggete qui e poi mi dite cosa ne pensate,ok?
ps. a settembre penso che comunque uscira' un piccolo refresh della g80 giusto per combattere l'AMD650:D


http://www.beyond3d.com/content/news/230

NVIDIA confirms Next-Gen close to 1TFlop in 4Q07
Wednesday 23rd May 2007, 12:12:43 PM, written by Arun


In recent analyst conferences that were publicly webcast on NVIDIA's website, Michael Hara (VP of Investor Relations) has claimed that their next-generation chip, also known as G92 in the rumour mill, will deliver close to one teraflop of performance. In a separate answer to an analyst's question, he also noted that they have no intention from diverging from the cycle they have adopted with the G80, which is to have the high-end part ready at the end of the year and release the lower-end derivatives in the spring.

Assuming that NVIDIA manages to hit these aggressive release schedules, it implies that the chip will compete with any potential R6xx refresh at the beginning of its lifetime, but also eventually with R700 as it seems unlikely NVIDIA will refresh again before the second half of 2008, unless they go for an optical shrink from 65nm to 55nm. It also remains to be seen how aggressive ATI will be on the process front this time around.

There also were a number of other highlights during the conference, including a major emphasis on GPGPU (aka 'GPU Computing') and a short mention of Intel's upcoming GPU efforts through their Larrabee project. Micahel Hara seemed far from certain about Intel's exact strategy there, although he did mention that it was possible Intel was more interested in the GPGPU market than the gaming one. This is something we have already said in the past.

And finally, he mentioned that although he does not believe R600 will have any impact on their G80 sales, RV610 and RV630 are much more competitive parts that are likely to gain traction in the marketplace. He argued that he was not convinced 65nm gave AMD a real advantage in terms of costs because of the yield curve, and seemed confident that their own 65nm mainstream parts will be superior. We can't help but wonder how much that matters when you release them 9 months later, though? It will also be interesting to see who's first to 55nm, and how good of a half-node it will be.


ultimi rumors datati fine agosto 2007..... ??????

http://www.vr-zone.com/articles/256-...12th/5207.html


We first told you that G92 is 65nm based with 256-bit memory interface back in June and seems that HKEPC agrees with us now. Lots of confusion on the discussion forums that G92 has 512-bit memory interface and is the highest end GPU from NVIDIA which, in fact is not. HKEPC revealed that G92 will be launched on November 12th and will replace the current GeForce 8800 GTS series. It is meant to compete against the RV670 while the low end G98 will compete against the RV620. However, launch date for G98 has not firmed up yet. G92 supports PCI Express 2.0, 50GT/s texture fill rate, Pure Video Gen 3, HDMI and uses display port. G92 will still be named under GeForce 8 family.

news allego ultimo prospetto sulle uscite/caratteristiche;)

agiornate le caratteristiche;)

JoeLatino
24-05-2007, 09:26
ah dimenticavo.....
in giro c'e' anche questo rumors che potrebbe essere in parte vero;)

G91/92: 4Q07, 192SPs, 2.0-2.6GHz shader domain, 24 TMUs with free trilinear, 16 beefed-up ROPs (stencil enhancements of G84; better blending rates), 750-800MHz+ core clock. 1.4GHz+ GDDR4. 200-240mm² on 65nm. Requires NVIO

xxxyyy
24-05-2007, 11:17
Se sara' DX10.1, e' la mia nuova scheda, R700 permettendo.
La mia GF4Ti non ce la fa piu'...
:)

JoeLatino
24-05-2007, 11:29
Se sara' DX10.1, e' la mia nuova scheda, R700 permettendo.
La mia GF4Ti non ce la fa piu'...
:)

penso proprio di si';)


altro rumors:eek: :sofico: :sofico:
The actual power of G92 might surprise some. The 8800 can rustle up about 330Gflops, which means the green team is suggesting that the 9800 could be three times more powerful. If that's true, the question remains - why bother? What games are going to take advantage of that? If the answer is Crysis at 2560x1600, Nvidia better hope that the game doesn't slip much further than it already has

JoeLatino
24-05-2007, 11:55
certo che ora dovro' cambiare ancora i miei piani....:rolleyes:
avevo deciso di aspettare settembre per cambiare scheda,ma a questo punto mi sa' che prendero' una di fascia medio/bassa a luglio (tipo 8600gts/8800gts) tanto da quello che ho visto e' sembre meglio di quella che ho attualmente e poi faro' il grande passo a fine anno con una scheda probabilmente stratosferica e con magari un bel quadcore:sofico:
ps. mi sa' tanto che dovro' iniziare a mettermi da parte un po' di soldi:cool:

thommy87
24-05-2007, 13:37
certo che ora dovro' cambiare ancora i miei piani....:rolleyes:
avevo deciso di aspettare settembre per cambiare scheda,ma a questo punto mi sa' che prendero' una di fascia medio/bassa a luglio (tipo 8600gts/8800gts) tanto da quello che ho visto e' sembre meglio di quella che ho attualmente e poi faro' il grande passo a fine anno con una scheda probabilmente stratosferica e con magari un bel quadcore:sofico:
ps. mi sa' tanto che dovro' iniziare a mettermi da parte un po' di soldi:cool:

straquoto

Scrambler77
24-05-2007, 14:40
Vendesi 8800GTX ottimo stato - usata pochissimo - interni in pelle -
carrozzeria da vetrina..... :asd:

Marko91
24-05-2007, 17:22
Se R650 avesse frequenze ad un 1 Ghz e 96 Shader Unit, le performance sarebbero molto simili. (96 Shader Unit*4 madd * 2 flops* 1 Ghz = 1 Teraflops)
G80, considerando le Mul, esprime 518 gigaflops se non sbaglio.

-Feanor-
24-05-2007, 18:14
Se sara' DX10.1, e' la mia nuova scheda, R700 permettendo.
La mia GF4Ti non ce la fa piu'...
:)

tse tse .....la tua gf 4Ti fa una pippa alla mia odiatissima gf 4 MX.............:muro: :muro: ..............ma io devo cambiare pc entro qualche settimana.......x forza......come faccio in un momento cosi delicato.........??? ho troppa paura di fare una bambata....del tipo prendo r600 e nel giro di un mese esce 8900 che va il doppio.....magari allo stesso prezzo..:muro: :cry: ...

bioexml
24-05-2007, 18:17
tse tse .....la tua gf 4Ti fa una pippa alla mia odiatissima gf 4 MX.............:muro: :muro: ..............ma io devo cambiare pc entro qualche settimana.......x forza......come faccio in un momento cosi delicato.........??? ho troppa paura di fare una bambata....del tipo prendo r600 e nel giro di un mese esce 8900 che va il doppio.....magari allo stesso prezzo..:muro: :cry: ...

battitene le balle e fai come ho fatto io, ho preso quello che serviva e stop.
Se andavo avanti ad aspettare, forse all'uscita del G150 sarei ancora li a domandarmi: ma caxxo tra poco esce il G200 !!!! :mbe:

-Feanor-
24-05-2007, 18:22
battitene le balle e fai come ho fatto io, ho preso quello che serviva e stop.
Se andavo avanti ad aspettare, forse all'uscita del G150 sarei ancora li a domandarmi: ma caxxo tra poco esce il G200 !!!! :mbe:

in effetti quella sarebbe un po la fine che farei io.....:D ........pero penso che tu mi capisca quando dico d'aver paura di sbagliare................soprattutto perche il computer che prendero non potro cambiarlo per anni e anni credo proprio....................:muro: :cry: .........

bioexml
24-05-2007, 18:32
in effetti quella sarebbe un po la fine che farei io.....:D ........pero penso che tu mi capisca quando dico d'aver paura di sbagliare................soprattutto perche il computer che prendero non potro cambiarlo per anni e anni credo proprio....................:muro: :cry: .........

io ho cominciato da gennaio di quest'anno a pensare di cambiare PC, e l'ho preso circa 10 gg fa :mbe: , volevo aspettare il nuovo K10 e la nuova R600, ma alla fine mi sono domandato:

per cosa lo uso il pc ?
per calcoli scientifici ?
per dare una mano alla scienza ?
NO, lo uso per lavoro ( sono programmatore ) e per giocare qualche volta a questi bei giochi di nuova generazione, senza esasperazioni.
Tutti fanno vari test su Lost planet e un altro gioco demo DX10, ma questi due non sono dei veri giochi DX10 nativi, ma traduzioni di codice da DX9 quindi scatafasci.
Una 8800GTX/GTS o 2900XT vanno bene, non è necessario avere 10000x10000 di risoluzione per giocare bene...coi filtri attivi si comportano egregiamente, e questo basta anche a risoluzioni più umane ecchecchez, tanto alla fine chi ci guadagna solo LORO, AMD e NVIDIA :D

-Feanor-
24-05-2007, 18:40
io ho cominciato da gennaio di quest'anno a pensare di cambiare PC, e l'ho preso circa 10 gg fa :mbe: , volevo aspettare il nuovo K10 e la nuova R600, ma alla fine mi sono domandato:

per cosa lo uso il pc ?
per calcoli scientifici ?
per dare una mano alla scienza ?
NO, lo uso per lavoro ( sono programmatore ) e per giocare qualche volta a questi bei giochi di nuova generazione, senza esasperazioni.
Tutti fanno vari test su Lost planet e un altro gioco demo DX10, ma questi due non sono dei veri giochi DX10 nativi, ma traduzioni di codice da DX9 quindi scatafasci.
Una 8800GTX/GTS o 2900XT vanno bene, non è necessario avere 10000x10000 di risoluzione per giocare bene...coi filtri attivi si comportano egregiamente, e questo basta anche a risoluzioni più umane ecchecchez, tanto alla fine chi ci guadagna solo LORO, AMD e NVIDIA :D

GRANDEEEEEEEEE !!!!!!!!!!!!!! la pensiamo allo stesso modo......identico........soprattutto la parte grassettata.............il fatto è che io invece per lo piu con il pc ci gioco........:stordita: ........e quindi il ricambio si fa sentire piu pesantemente .......purtroppo............:muro:............io pero gioco a 1280 x 1024.............quindi....

Scrambler77
24-05-2007, 18:51
Fosse vero sarebbe un salto prestazionale mostruoso.

Lo ha affermato Micheal Hara (VP of Investor Relations di Nvidia)... non vedo perchè dovrebbe essere falso... :read:

retnI W
24-05-2007, 18:53
Cioè sta scheda potrebbe uscire tra non dico un anno ma tre stagioni sicure e già si apre il thread spettando....sempre se diventi official thread.
Roba da matti :rolleyes:

Stig
24-05-2007, 19:12
Cioè sta scheda potrebbe uscire tra non dico un anno ma tre stagioni sicure e già si apre il thread spettando....sempre se diventi official thread.
Roba da matti :rolleyes:
stessa cosa che ho pensato anch'io! :asd:

pero in effetti non era mai successo che una scheda top durasse incontrastata per un anno...come sta facendo la gtx...:eek:

Scrambler77
24-05-2007, 19:36
Perché credo quando vedo :>

Però a questo c'hai creduto...: http://www.hwupgrade.it/forum/showpost.php?p=16388262&postcount=495

;) :asd:

retnI W
24-05-2007, 20:04
stessa cosa che ho pensato anch'io! :asd:

pero in effetti non era mai successo che una scheda top durasse incontrastata per un anno...come sta facendo la gtx...:eek:

comunque sia la 8800 GTX fa un anno a novembre e mancano più di 5 mesi e in questo lasso di tempo arriveranno G81 e R650, ed una possibile HD2900XTX che potrebbe grossomodo eguagliarla o addirittura raggiungere la 8800 Ultra se i driver dovessere maturare come ci si aspetta.
Anzi a dire il vero la leadership è finita un mesetto fa con l' uscita della 8800 Ultra, quindi "solo" 7 mesi di dominio, che comunque è un bel risultato in reparto VGA.
Forse qualche altra scheda ci è rimasta di più però non in una situazione da monopolio.

Scrambler77
25-05-2007, 00:15
;) :ronf:

Scrambler77
25-05-2007, 00:17
comunque sia la 8800 GTX fa un anno a novembre e mancano più di 5 mesi e in questo lasso di tempo arriveranno G81 e R650, ed una possibile HD2900XTX che potrebbe grossomodo eguagliarla o addirittura raggiungere la 8800 Ultra se i driver dovessere maturare come ci si aspetta.
Anzi a dire il vero la leadership è finita un mesetto fa con l' uscita della 8800 Ultra, quindi "solo" 7 mesi di dominio, che comunque è un bel risultato in reparto VGA.
Forse qualche altra scheda ci è rimasta di più però non in una situazione da monopolio.

Probabilmente si riferiva non tanto alla GTX in quanto tale, ma alla classica alternanza che, da quando R600 ha floppato, non c'è più...

...e con G92 alle porte la vedo ancora più amara! ;)

Kharonte85
25-05-2007, 09:21
E se lo dice anche Fudzilla:

Nvidia's next generation is G92

1 Teraflop performance


In its last conference call, Nvidia mentioned the name of its next generation chip. It is not G90 as we've heard previously, instead it will be called G92. With 1 Teraflops performance it should end up being twice as fast as the current G80 Ultra, at least in raw numbers.

The chip should be ready in late 2007, some time around Xmas if all goes well and it should be out before ATI gets its R700 ready. The mid range cards will follow in the spring of 2008.

Nvidia doesn't feel intimidated by R600 or RV630 and 610 and it would be very interesting to find out if R670 can beat the G80 Ultra. If ATI succeeds with this chip, it will dethrone Nvidia by at least a few months.

We will ask around about this G92 chip, but it sounds like a shrunk G80 to us.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=1153&Itemid=34

:O :D

Stig
25-05-2007, 09:29
Probabilmente si riferiva non tanto alla GTX in quanto tale, ma alla classica alternanza che, da quando R600 ha floppato, non c'è più...

...e con G92 alle porte la vedo ancora più amara! ;)

esatto:)

Scrambler77
25-05-2007, 10:28
Santa Madonna Addolorata dell'Immacolata Concezione del pozzo di Capurso! ...1 teraflop! :ave:

lele980
25-05-2007, 13:06
ma che razza di nome

nvidia 9800

l'allusione alla ati 9800 non puo' non essere presa in considerazione!!

vi immaginate un cliente al negozio anziche' prendere una nvidia 9800

prende una ati 9800 che è 100 volte inferiore :D

sinceramente sarebbe stato meglio Nvidia 9900

bioexml
25-05-2007, 13:17
devo dire che che stanno incominciando ad uscire schede video realmente potenti, 1 TeraFlop ( anche se teorico ) è tanta roba, ma tanta tanta :eek:

Zlatan91
25-05-2007, 13:44
sisi ma io risolvo il problema alla radice.....mi faccio un altra 8800gtx..:)

e cmq le 10.1 sono solo questioni di driver.....

Scrambler77
25-05-2007, 13:49
e cmq le 10.1 sono solo questioni di driver.....

Ne sei sicuro?? Se è così ti offro da bere! :D

Grey 7
25-05-2007, 13:54
e cmq le 10.1 sono solo questioni di driver.....

fonte? o è un'altra sparata come quella che facesti nel 3d di r600? Senza polemica eh...:)

Kharonte85
27-05-2007, 11:31
Nvidia annuncia che il G92 sarà una belva da un Teraflop

da The Inquirer Team: Giovedì 24 Maggio 2007, 11:49

NVIDIA DICE che la sua scheda grafica high-end G92 raggiungerà quasi un teraflop di potenza di calcolo.

Michael Hara di Nvidia ha dichiarato durante un webcast che il processore sarà pronto per Natale, secondo lo stesso ciclo che la società ha adottato con la G80: i modelli di fascia più alta per la fine dell'anno e quelli di fascia media e bassa entro l'estate del prossimo anno.

Questo suggerisce molte cose. La prima è che i ritardi nelle uscite dell'hardware Nvidia nel 2006 e 2007 sono ormai stati digeriti e da questo momento si prevede l'uscita di un nuovo prodotto ogni anno. La seconda è che la società non intende far uscire tutte le gamme dei suoi prodotti contemporaneamente, ma spera nell'effetto di trascinamento dei prodotti di fascia alta per poi far uscire quelli di fascia media.

Inoltre in questo modo mette AMD con le spalle al muro. La sua concorrente sta preparando Barcelona e anche Intel lavora al suo Quad Core nativo (Nehalem) in uscita nello stesso periodo. ATI aggiornerà la sua R600 per la fine dell'anno, quando Nvidia sarà pronta con la GeForce 9800. Bel colpo.

La prevista potenza di calcolo della G92 può sorprendere qualcuno. La 8800 arriva a circa 330 Gflops, il che suggerisce che il nuovo prodotto di Nvidia possa essere tre volte più veloce. Se questo è vero, a che scopo? Quali giochi potranno avvantaggiarsi di simili prestazioni? La risposta è Crysis a 2560x1600, e Nvidia deve solo sperare che il gioco non slitti ulteriormente rispetto a quanto ha già fatto.


Articolo originale di: Wily Ferret

http://it.theinquirer.net/2007/05/nvidia_annuncia_che_il_g92_sar.html

appleroof
27-05-2007, 20:32
Nvidia annuncia che il G92 sarà una belva da un Teraflop

da The Inquirer Team: Giovedì 24 Maggio 2007, 11:49

NVIDIA DICE che la sua scheda grafica high-end G92 raggiungerà quasi un teraflop di potenza di calcolo.

Michael Hara di Nvidia ha dichiarato durante un webcast che il processore sarà pronto per Natale, secondo lo stesso ciclo che la società ha adottato con la G80: i modelli di fascia più alta per la fine dell'anno e quelli di fascia media e bassa entro l'estate del prossimo anno.

Questo suggerisce molte cose. La prima è che i ritardi nelle uscite dell'hardware Nvidia nel 2006 e 2007 sono ormai stati digeriti e da questo momento si prevede l'uscita di un nuovo prodotto ogni anno. La seconda è che la società non intende far uscire tutte le gamme dei suoi prodotti contemporaneamente, ma spera nell'effetto di trascinamento dei prodotti di fascia alta per poi far uscire quelli di fascia media.

Inoltre in questo modo mette AMD con le spalle al muro. La sua concorrente sta preparando Barcelona e anche Intel lavora al suo Quad Core nativo (Nehalem) in uscita nello stesso periodo. ATI aggiornerà la sua R600 per la fine dell'anno, quando Nvidia sarà pronta con la GeForce 9800. Bel colpo.

La prevista potenza di calcolo della G92 può sorprendere qualcuno. La 8800 arriva a circa 330 Gflops, il che suggerisce che il nuovo prodotto di Nvidia possa essere tre volte più veloce. Se questo è vero, a che scopo? Quali giochi potranno avvantaggiarsi di simili prestazioni? La risposta è Crysis a 2560x1600, e Nvidia deve solo sperare che il gioco non slitti ulteriormente rispetto a quanto ha già fatto.


Articolo originale di: Wily Ferret

http://it.theinquirer.net/2007/05/nvidia_annuncia_che_il_g92_sar.html


veramente non solo lei......:rolleyes:

;)

Mister Tarpone
27-05-2007, 20:33
veramente non solo lei......:rolleyes:


siamo in tanti a sperarlo :rolleyes:




:rolleyes:

omar8792
27-05-2007, 21:20
grande nvidia...
in continua crescita..si spera

xxxyyy
28-05-2007, 11:04
Ehmmm... anch'io vorrei una fonte sulla storia delle DX10.1 e driver... se possibile...

JoeLatino
28-05-2007, 19:36
Ehmmm... anch'io vorrei una fonte sulla storia delle DX10.1 e driver... se possibile...

io non ci conterei molto....
le DX10.1 e le future opengl v3 si baseranno su nuove funzionalita' hardware (tipo tesseletions,instanced rendering,stream out of vertex data to a buffer, texture buffer objects....)
le attuali generazioni di schede grafiche sono pressoche' escluse (2900xt compresa!)
solo le schede che usciranno da settembre in poi saranno compatibili (anzi diciamo pure che le prime lo saranno solo parzialmente) Infatti quelle compatibili al 100% usciranno verso fine anno!!!
cq se fate una ricerca in internet troverete altre notizie;)

appleroof
28-05-2007, 19:43
io non ci conterei molto....
le DX10.1 e le future opengl v3 si baseranno su nuove funzionalita' hardware (tipo tesseletions,instanced rendering,stream out of vertex data to a buffer, texture buffer objects....)
le attuali generazioni di schede grafiche sono pressoche' escluse (2900xt compresa!)
solo le schede che usciranno da settembre in poi saranno compatibili (anzi diciamo pure che le prime lo saranno solo parzialmente) Infatti quelle compatibili al 100% usciranno verso fine anno!!!
cq se fate una ricerca in internet troverete altre notizie;)

Ti sbagli, la 2900xt supporta quelle features già ora

JoeLatino
28-05-2007, 19:47
Ti sbagli, la 2900xt supporta quelle features già ora

naaa....:doh:
:read: supporta si' le tesseletions ma in maniera mezza castrata (infatti a settembre uscira' la versione rifatta a 65 con un nuovo engine grafico!)
ripeto ora come ora non credo che le 2900xt siano compatibili (infatti non sono neppure certificate)

appleroof
28-05-2007, 19:53
naaa....:doh:
:read: supporta si' le tesseletions ma in maniera mezza castrata (infatti a settembre uscira' la versione rifatta a 65 con un nuovo engine grafico!)
ripeto ora come ora non credo che le 2900xt siano compatibili (infatti non sono neppure certificate)

non lo so....sulla tesselletions mezza castrata non ho dati, nè in senso favorevole alla tua affermazione nè in senso contrario, sul resto riporto questo di thg

I "nuovi formati" introdotti in R600 sono raccolti sotto la dicitura "Custom Filter AA" (CFAA). Nelle DX10, in particolare nelle DX10.1 che arriveranno a breve, è possibile accedere ai sample di un formato antialiasing. Questo significa che l'applicazione può crearsi dei filtri personalizzati. Molti filtri hardware si basano su determinate regole. Con queste costrizioni, con l'aumentare dei sample il guadagna qualitativo decresce. ATI afferma che "è solo necessario creare un filtro migliore", ed è quello che i filtri customizzati si prefiggono di fare.

http://www.tomshw.it/graphic.php?guide=20070515&page=ati_r600_hd_2900-11

JoeLatino
28-05-2007, 20:01
anche se tutto cio' fosse vero,vedrai che comunque saranno solo in parte compatibili,visto che mancano altre cose per renderle compatibili al 100% (o almeno sembra dai rumors:D )


non lo so....sulla tesselletions mezza castrata non ho dati, nè in senso favorevole alla tua affermazione nè in senso contrario, sul resto riporto questo di thg

I "nuovi formati" introdotti in R600 sono raccolti sotto la dicitura "Custom Filter AA" (CFAA). Nelle DX10, in particolare nelle DX10.1 che arriveranno a breve, è possibile accedere ai sample di un formato antialiasing. Questo significa che l'applicazione può crearsi dei filtri personalizzati. Molti filtri hardware si basano su determinate regole. Con queste costrizioni, con l'aumentare dei sample il guadagna qualitativo decresce. ATI afferma che "è solo necessario creare un filtro migliore", ed è quello che i filtri customizzati si prefiggono di fare.

http://www.tomshw.it/graphic.php?guide=20070515&page=ati_r600_hd_2900-11

appleroof
28-05-2007, 20:06
anche se tutto cio' fosse vero,vedrai che comunque saranno solo in parte compatibili,visto che mancano altre cose per renderle compatibili al 100% (o almeno sembra dai rumors:D )

che tutto ciò (articolo di tom's) sia vero credo sia senza dubbio, sul resto credo cmq tu abbia ragione ed inoltre, siccome siamo all'alba delle dx10, il tuo ragionamento mi sembra assolutamente normale e plausibile. Infine, non c'è ancora conferma/smentita che le attuali gpu dx10 nvidia non possano essere adeguate via driver alle dx10.1, insomma tempo ce n'è, stiamo a vedere, anche perchè di fatto le dx10.1 non portano rivoluzioni tali da essere sconvolgenti rispetto alle dx10 (delle cui potenzialità, a parte l'assagino di lost planet siamo ancora ovviamente all'oscuro), se non, mi pare di aver capito, una diversa e migliore gestione dell'aa e qualche altro piccolo miglioramento...

1974benny
28-05-2007, 20:33
E' bellissimo sapere che usciranno le Dx 10.1
e probabilmente le attuali schede non saranno compatibili o per lo meno in parte con i nuovi filtri hardware........

Intanto non ci sono ancora giochi DX 10 .....mah
invece che cercare di spremere bene le nuove librerie
si vuole adare avanti facendo passi più
lunghi della gamba

Tutto imho

Grey 7
28-05-2007, 20:45
se è per questo secondo me non hanno manco spremuto ben bene le dx9...e l'uscita di Vista ha contato non poco in questo. purtroppo è cosi, che ci devi fare

Marko91
28-05-2007, 22:08
La 8800 arriva a circa 330 Gflops, il che suggerisce che il nuovo prodotto di Nvidia possa essere tre volte più veloce.

G80 arriva a 512 Gigaflops considerando le MUL.
La dichiarazione di Nvdia è quindi ambigua: 1 Teraflops considerando le mul o no? Su beyond3d hanno iniziato a pensare come arrivare a quel risultato con una architettura potenziata di G80:

Se Nvidia considera anche le performance delle MUL l'architettura di G92 potrebbe essere:

MUL+MADD: 3 flops x 16ALUs x 12 clusters @ 1.7Ghz = 980 Gigaflops
Quindi 192 stream processor alla frequenza di 1,7 Ghz.
Un aumento del 33% degli sp e del 20% della frequenza.

Se Nvidia considera solo le performance delle unità MADD allora potrebbero esserci 2 ipotesi:

2 flops x 16ALUs x 12 clusters @ 2.5Ghz = 960 Gigaflops

192 sp (33% di più di G80) a 2,5 Ghz (45% di più di G80)


2 x 16ALUs x 16 clusters @ 1.8Ghz= 921 Gflops
256 Sp (50% in più) a 1,8 Ghz (25% in più rispetto G80)


Credo sia più probabile che nvidia abbia considerato anche le performance delle mul. Nel caso invece non l'abbia, per me l'opzione più probabile è l'ultima.
Gestire frequenze così elevate in una gpu è più difficile che aumentare il numero dei transistor in una determinata area, anche perchè avere il resto del core a frequenze troppo basse limiterebbe troppo il chip. Per mantenere lo stesso rapporto di G80 frequenza shader/frequenza core, a 2,5 ghz dei primi dovrebbe corrispondere una frequenza di 1 Ghz.

appleroof
28-05-2007, 22:15
G80 arriva a 512 Gigaflops considerando le MUL.
La dichiarazione di Nvdia è quindi ambigua: 1 Teraflops considerando le mul o no? Su beyond3d hanno iniziato a pensare come arrivare a quel risultato con una architettura potenziata di G80:

Se Nvidia considera anche le performance delle MUL l'architettura di G92 potrebbe essere:

MUL+MADD: 3 flops x 16ALUs x 12 clusters @ 1.7Ghz = 980 Gigaflops
Quindi 192 stream processor alla frequenza di 1,7 Ghz.
Un aumento del 33% degli sp e del 20% della frequenza.

Se Nvidia considera solo le performance delle unità MADD allora potrebbero esserci 2 ipotesi:

2 flops x 16ALUs x 12 clusters @ 2.5Ghz = 960 Gigaflops

192 sp (33% di più di G80) a 2,5 Ghz (45% di più di G80)


2 x 16ALUs x 16 clusters @ 1.8Ghz= 921 Gflops
256 Sp (50% in più) a 1,8 Ghz (25% in più rispetto G80)


Credo sia più probabile che nvidia abbia considerato anche le performance delle mul. Nel caso invece non l'abbia, per me l'opzione più probabile è l'ultima.
Gestire frequenze così elevate in una gpu è più difficile che aumentare il numero dei transistor in una determinata area, anche perchè avere il resto del core a frequenze troppo basse limiterebbe troppo il chip. Per mantenere lo stesso rapporto di G80 frequenza shader/frequenza core, a 2,5 ghz dei primi dovrebbe corrispondere una frequenza di 1 Ghz.

con i 65nm non mi sembrerebbe assolutamente impossibile, cmq ottima "analisi", complimenti ;)

Kharonte85
28-05-2007, 22:31
con i 65nm non mi sembrerebbe assolutamente impossibile, cmq ottima "analisi", complimenti ;)
Quoto :)

Skullcrusher
29-05-2007, 08:44
G92 è previsto novembre, dico bene?

Gabriyzf
29-05-2007, 09:22
G92 è previsto novembre, dico bene?

mi pare un pò più in là

Marko91
29-05-2007, 09:38
G92 è previsto novembre, dico bene?

Si. A questo punto G81 se arriverà, sarà rilasciato tra luglio e agosto. In quel momento ci sarà già la demo di Crysis Dx10, Lost Planet sarà in commercio e Bioshock in arrivò, titoli che potrebbero essere pesanti anche per un G80, sopratutto a risoluzioni non convenzionali.
Presumo che sarà "solo" un G80@65nm con frequenze aumentate (128 sp a 1,8-2 Ghz e core a 700-800 Mhz?) a metà strada tra le prestazioni di G80 e G92.
Certo che Crysis a 2560x1600 deve essere moolto interessante... :stordita:
Non credo che un singolo G92, anche nella migliore delle ipotesi, riesca ad avere framerate da giocatore hardcore (50-60 fps medi) a quelle risoluzione. Ci vorrà comunque uno SLi.

Skullcrusher
29-05-2007, 09:54
mi pare un pò più in là

Si. A questo punto G81 se arriverà, sarà rilasciato tra luglio e agosto. In quel momento ci sarà già la demo di Crysis Dx10, Lost Planet sarà in commercio e Bioshock in arrivò, titoli che potrebbero essere pesanti anche per un G80, sopratutto a risoluzioni non convenzionali.
Presumo che sarà "solo" un G80@65nm con frequenze aumentate (128 sp a 1,8-2 Ghz e core a 700-800 Mhz?) a metà strada tra le prestazioni di G80 e G92.
Certo che Crysis a 2560x1600 deve essere moolto interessante... :stordita:
Non credo che un singolo G92, anche nella migliore delle ipotesi, riesca ad avere framerate da giocatore hardcore (50-60 fps medi) a quelle risoluzione. Ci vorrà comunque uno SLi.

Ok, grazie.

Golfer
08-06-2007, 17:30
Ma poi... il G92 sarà sempre compatibile con le modo di adesso vero?
Xkè se gli viene in mente l'idea di farla il PCI-E 2.0... siamo fottuti...
Avevo intenzione di prendere una 8900GTX quest'estate, ma a questo punto aspetto natale :D

ilcose
08-06-2007, 17:45
se i primi annunci sono veri credo la prendero x stare tranquillo in dx10 dato gli inizi poco incoraggianti (notare la firma)...ma la prendero non dopo aver letto 5 volte una ventina di bench:sofico: ovviamente se il divario con la 8800 sara molto e se sara compatibile con le attuali schede madri (se no :muro: :muro: :muro: :muro: )

fukka75
08-06-2007, 18:14
Il PCIe 2.0 è retrocompatibile: si potranno montare senza problemi VGA PCIe1.x su mobo PCIe2.0, ma non mi è ancora molto chiaro se sarà possibile montare VGA PCIe2.0 su mobo PCIe1.x

ilcose
08-06-2007, 18:19
Il PCIe 2.0 è retrocompatibile: si potranno montare senza problemi VGA PCIe1.x su mobo PCIe2.0, ma non mi è ancora molto chiaro se sarà possibile montare VGA PCIe2.0 su mobo PCIe1.x

appunto questo mi preoccupa!:muro: anke se io credo di si xke l'unica differenza è la banda passante e la corrente portata no?? x l'alimentaz pazienza vai con un molex in piu (come ora) e x la banda passante ora come ora non è ancora sfruttata quella dell 1.1!

fukka75
08-06-2007, 18:24
IL problema, e mio dubbio, è che se il PCIe2.0 porta 150W, permette di limtare il numero delle "prese" sul pcb delle vga; se una vga PCIe2.0 ha una sola "presa" e funziona in uno slot PCIe2.0, magari non funzionerà in uno PCIe1.x, perché gli arriva meno corrente, ed una sola "presa" potrebbe non bastargli (magari ne meeteranno due, proprio in previsione di uso su mobo PCIe1.x, con l'avvertenza di usarne una sola se la mobo è PCIe2.0) :boh:

ilcose
08-06-2007, 18:27
IL problema, e mio dubbio, è che se il PCIe2.0 porta 150W, permette di limtare il numero delle "prese" sul pcb delle vga; se una vga PCIe2.0 ha una sola "presa" e funziona in uno slot PCIe2.0, magari non funzionerà in uno PCIe1.x, perché gli arriva meno corrente, ed una sola "presa" potrebbe non bastargli (magari ne meeteranno due, proprio in previsione di uso su mobo PCIe1.x, con l'avvertenza di usarne una sola se la mobo è PCIe2.0) :boh:

mi sembra una cosa logica....altrimenti una buona fetta di mercato va a farsi benedire e non è un bene x loro....d'altra parte c'è sempre chi spende migliaia di euro l'anno xo sono una fetta molto limitata! Poi non gli costa nulla mettere un attacco in piu dai ;)

fukka75
08-06-2007, 18:29
:sperem:

A.L.M.
08-06-2007, 18:44
naaa....:doh:
:read: supporta si' le tesseletions ma in maniera mezza castrata (infatti a settembre uscira' la versione rifatta a 65 con un nuovo engine grafico!)
ripeto ora come ora non credo che le 2900xt siano compatibili (infatti non sono neppure certificate)

anche se tutto cio' fosse vero,vedrai che comunque saranno solo in parte compatibili,visto che mancano altre cose per renderle compatibili al 100% (o almeno sembra dai rumors:D )

Mi chiedo dove tu abbia letto tutto ciò... :rolleyes:
In realtà le DX10.1 dovrebbero solo essere un aggiornamento delle DX10, tanto che all'inizio si pensava che tutte le DX10 dovessero essere compatibili con le DX10.1. C'è però da registrare il fatto che Microsoft sta pensando di far inserire tra le richieste hw DX10.1 la tessellation unit (che in R600 non è affatto castrata, visto che esiste già, e funziona, su Xenos). Dunque il tutto è molto fumoso.

G80 arriva a 512 Gigaflops considerando le MUL.
La dichiarazione di Nvdia è quindi ambigua: 1 Teraflops considerando le mul o no? Su beyond3d hanno iniziato a pensare come arrivare a quel risultato con una architettura potenziata di G80:

Se Nvidia considera anche le performance delle MUL l'architettura di G92 potrebbe essere:

MUL+MADD: 3 flops x 16ALUs x 12 clusters @ 1.7Ghz = 980 Gigaflops
Quindi 192 stream processor alla frequenza di 1,7 Ghz.
Un aumento del 33% degli sp e del 20% della frequenza.

Se Nvidia considera solo le performance delle unità MADD allora potrebbero esserci 2 ipotesi:

2 flops x 16ALUs x 12 clusters @ 2.5Ghz = 960 Gigaflops

192 sp (33% di più di G80) a 2,5 Ghz (45% di più di G80)


2 x 16ALUs x 16 clusters @ 1.8Ghz= 921 Gflops
256 Sp (50% in più) a 1,8 Ghz (25% in più rispetto G80)


Credo sia più probabile che nvidia abbia considerato anche le performance delle mul. Nel caso invece non l'abbia, per me l'opzione più probabile è l'ultima.
Gestire frequenze così elevate in una gpu è più difficile che aumentare il numero dei transistor in una determinata area, anche perchè avere il resto del core a frequenze troppo basse limiterebbe troppo il chip. Per mantenere lo stesso rapporto di G80 frequenza shader/frequenza core, a 2,5 ghz dei primi dovrebbe corrispondere una frequenza di 1 Ghz.

Sono d'accordo.
Aggiungerei solo che i numeri teorici, con certe frequenze, rischiano di diventare ancor più teorici.
Ricordo che in realtà la MUL aggiuntiva di G80 ad oggi funziona solo in minima parte: se, come accade ancora oggi, le MUL aggiuntive continuassero a funzionare a meno che mezzo servizio, dai 980GFlops teorici si passerebbe a circa 750 effettivi.
2 flops x 16ALUs x 12 clusters @ 1.7Ghz *1.15 (moltiplicatore che considera l'efficienza aggiuntiva garantita dalla "missing MUL", calcolato da Beyond3D)= 751 Gigaflops.

ilcose
08-06-2007, 19:28
Mi chiedo dove tu abbia letto tutto ciò... :rolleyes:
In realtà le DX10.1 dovrebbero solo essere un aggiornamento delle DX10, tanto che all'inizio si pensava che tutte le DX10 dovessero essere compatibili con le DX10.1. C'è però da registrare il fatto che Microsoft sta pensando di far inserire tra le richieste hw DX10.1 la tessellation unit (che in R600 non è affatto castrata, visto che esiste già, e funziona, su Xenos). Dunque il tutto è molto fumoso.



Sono d'accordo.
Aggiungerei solo che i numeri teorici, con certe frequenze, rischiano di diventare ancor più teorici.
Ricordo che in realtà la MUL aggiuntiva di G80 ad oggi funziona solo in minima parte: se, come accade ancora oggi, le MUL aggiuntive continuassero a funzionare a meno che mezzo servizio, dai 980GFlops teorici si passerebbe a circa 750 effettivi.
2 flops x 16ALUs x 12 clusters @ 1.7Ghz *1.15 (moltiplicatore che considera l'efficienza aggiuntiva garantita dalla "missing MUL", calcolato da Beyond3D)= 751 Gigaflops.

scusate ma nel discorso prettamente tecnico mi sono perso:D MUL?

Kal-El
14-06-2007, 00:19
Iscritto

nico88desmo
15-06-2007, 20:38
We learned that G92 will feature some minor changes from G80 chip. It will be a 65 nanometre chip with significantly higher clock than G80's modest 600 MHz and it will feature PCIe 2.0 support.

The card is suppose to be launched sometimes in early Q4 to meet the Xmas shopping madness and Nvidia is still on schedule.

PCIe 2.0 is the new specification that lets graphic card manufactures to get more power for its graphic card and with this new standard Nvidia and ATI can enjoy about 300W per graphic card. Intel X38 chipset and ATI's RD790 and variations should support this standard and Nvidia will have one of its own soonish.

We expect these new chipsets at autumn time as we seen them up and running at Computex last week.

Fonte: http://www.fudzilla.com/index.php?option=com_content&task=view&id=1482&Itemid=1

xxxyyy
15-06-2007, 20:57
Bah... per me si son confusi con il refresh a 65nm di G80...

ilcose
15-06-2007, 21:21
Bah... per me si son confusi con il refresh a 65nm di G80...

quoto....forse queste saranno le 8900

pierluigi86
19-06-2007, 14:08
ma si sa niente su un calo dei prezzi delle attuali g80???

Portocala
19-06-2007, 14:36
ma si sa niente su un calo dei prezzi delle attuali g80???

luglio.


g91/92:
forse frequenze più alte, qualche shader in più, e soprattutto DRIVERS!!! :asd:

pierluigi86
19-06-2007, 15:38
sapete per caso quanto dovrebbe costare una 8800 gts 320???

halduemilauno
19-06-2007, 15:39
sapete per caso quanto dovrebbe costare una 8800 gts 320???

250€.
;)

Andre_Santarell
19-06-2007, 16:55
meno quanto ?

JoeLatino
19-06-2007, 17:08
meno quanto ?

gia' ora se vai su trovaprezzi si trovano sulle 240e...
penso che tra fine luglio ed i primi di agosto i prezzi indicativi potrebbero essere questi,se non anche meno:

8800gts 320mb 200/220e
8800gts 640mb 300/330e
8800gtx 768mb 400/430e
8800gtx ultra 550/580e

o almeno per le versioni base non oc
;)

Portocala
19-06-2007, 17:19
gia' ora se vai su trovaprezzi si trovano sulle 240e...
penso che tra fine luglio ed i primi di agosto i prezzi indicativi potrebbero essere questi,se non anche meno:

8800gts 320mb 200/220e
8800gts 640mb 300/330e
8800gtx 768mb 400/430e
8800gtx ultra 550/580e

o almeno per le versioni base non oc
;)

:asd:
lo ricordavo anche io, ma quei negozi hanno fallito. Il prezzo più basso è 249, con la media sui 270.

A.L.M.
19-06-2007, 17:24
gia' ora se vai su trovaprezzi si trovano sulle 240e...
penso che tra fine luglio ed i primi di agosto i prezzi indicativi potrebbero essere questi,se non anche meno:

8800gts 320mb 200/220e
8800gts 640mb 300/330e
8800gtx 768mb 400/430e
8800gtx ultra 550/580e

o almeno per le versioni base non oc
;)

Per le GTS i prezzi potrebbero essere quelli (anche se io propenderei per una decina d'euro in più). La GTX invece non credo che scenderà molto sotto i 450€. Inoltre la Ultra a 550-580€ mi pare troppo poco. Ad oggi esiste un solo negozio italiano che la vende a meno di 650€, mentre sono molti i negozi che le offrono a circa 700€. Un taglio di oltre 100€ medi mi pare troppo.

JoeLatino
19-06-2007, 17:49
cambiando leggermente discorso....
ma il tanto decantato "motore per i calcoli della Fisica, nVIDIA Quantum Effects" quando verra' attivato? cioe' da quando si potranno vedere dei benefici?

Uriziel
19-06-2007, 18:09
IL problema, e mio dubbio, è che se il PCIe2.0 porta 150W, permette di limtare il numero delle "prese" sul pcb delle vga; se una vga PCIe2.0 ha una sola "presa" e funziona in uno slot PCIe2.0, magari non funzionerà in uno PCIe1.x, perché gli arriva meno corrente, ed una sola "presa" potrebbe non bastargli (magari ne meeteranno due, proprio in previsione di uso su mobo PCIe1.x, con l'avvertenza di usarne una sola se la mobo è PCIe2.0) :boh:

ma certo dai...intel ha appena presentato il p35(pci-ex1.0) e volete che ati e nvidia comincino a produrre schede video nuove solo per chi ha l'x38(pci-ex 2.0)?

quante ne vendono 20?

appleroof
19-06-2007, 19:22
cambiando leggermente discorso....
ma il tanto decantato "motore per i calcoli della Fisica, nVIDIA Quantum Effects" quando verra' attivato? cioe' da quando si potranno vedere dei benefici?

chi può dirlo? Crysis ad esempio presenta un'ottima fisica (senza alcuna ppu dedicata), almeno dai video che ho visto finora, ma non so se contempla il quantum effects oppure "sfrutta" uno dei 2 core di una cpu (in abbinamento alle dx10) oppure....:boh:

in generale cmq non dipende mica da Nvidia, ma dalle sh...

TecnoWorld8
19-06-2007, 22:35
mi iscrivo a questo thread; dopo la grossa delusione di R600, spero davvero che G92 esca al più presto e...mantenga le promesse.

pierluigi86
19-06-2007, 23:27
mi iscrivo a questo thread; dopo la grossa delusione di R600, spero davvero che G92 esca al più presto e...mantenga le promesse.

se questa scheda fa la stessa fine di r600, allora sei tu che porti sfiga.

TecnoWorld8
19-06-2007, 23:48
se questa scheda fa la stessa fine di r600, allora sei tu che porti sfiga.

hahaha! :) hai ragione ;) incrociamo le dita...

Portocala
20-06-2007, 10:00
Scrivi 8800 in www.trovaprezzi.it

fallo anche tu, perchè mi sa che ti devi aggiornare un pò sui prezzi ;)

Gabriyzf
20-06-2007, 10:48
Ieri mi ha dato 213€, probabilmente era un offerta limitata, boh :>

alcune volte ci sono shop che giocano sporco per farsi conoscere

Portocala
20-06-2007, 11:09
Ieri mi ha dato 213€, probabilmente era un offerta limitata, boh :>

ma se non leggi il nome della scheda poi vai a dire cavolate: era una 7800GTX ;)

TecnoWorld8
20-06-2007, 13:33
secondo voi, dato che crysis dovrebbe uscire attorno ad ottobre, questa GPU arriverà sul mercato per quell'epoca? o si dovrà attendere?

la cosa "strana" è che sembra profilarsi un periodo in cui usciranno un po' di giochi nuovi, ma nessuna GPU al top, lasciando quelle sul mercato già ormai da molti mesi (la GTX esiste da ormai oltre 7 mesi...)

JoeLatino
20-06-2007, 13:54
secondo voi, dato che crysis dovrebbe uscire attorno ad ottobre, questa GPU arriverà sul mercato per quell'epoca? o si dovrà attendere?

la cosa "strana" è che sembra profilarsi un periodo in cui usciranno un po' di giochi nuovi, ma nessuna GPU al top, lasciando quelle sul mercato già ormai da molti mesi (la GTX esiste da ormai oltre 7 mesi...)

almeno che Nvidia anticipi sui tempi,penso che a settembre uscira' con solo un piccolo refresh e che la g92 si vedra' con gli inizi del nuovo anno...
e questo solo perche la 2900xt e' un mezzo fake,ossia e' una scheda che ha deluso parecchio le aspettative e quindi Nvidia se la puo' prendere con calma....

Scrambler77
20-06-2007, 14:05
almeno che Nvidia anticipi sui tempi,penso che a settembre uscira' con solo un piccolo refresh e che la g92 si vedra' con gli inizi del nuovo anno...
e questo solo perche la 2900xt e' un mezzo fake,ossia e' una scheda che ha deluso parecchio le aspettative e quindi Nvidia se la puo' prendere con calma....

Quoto. :mano:

TecnoWorld8
20-06-2007, 15:24
almeno che Nvidia anticipi sui tempi,penso che a settembre uscira' con solo un piccolo refresh e che la g92 si vedra' con gli inizi del nuovo anno...
e questo solo perche la 2900xt e' un mezzo fake,ossia e' una scheda che ha deluso parecchio le aspettative e quindi Nvidia se la puo' prendere con calma....

la cosa sarebbe davvero triste, per noi acquirenti. il venir meno della competizione è sempre stato un grosso problema; in particolare, ora che AMD ed ATi fanno capo alla stessa azienda, il problema è duplice...AMD le sta buscando da Intel da ormai quasi un anno e ATi le busca (sonoramente) da nVidia da ormai 8 mesi almeno. Ormai i prodotti AMD e ATi sono orientati a chi vuole risparmiare e avere comunque un prodotto discreto, non di certo a chi vuole le prestazioni top.

Se questa tendenza continua, temo che l'evoluzione di nuovi prodotti, sia nel settore CPU che in quello GPU, rallenterà parecchio e allo stesso tempo i prezzi dei prodotti al top saliranno. Ricordo con terrore i tempi in cui Intel non aveva concorrenza; a quel tempo i prezzi erano elevatissimi, un prodotto al top durava anni e soprattutto erano i giochi a trainare l'hardware, nel senso che anche il top sul mercato non ce la faceva a far girare al massimo i giochi più belli e bisognava aspettare magari un anno per poter avere un prodotto nuovo (e carissimo) che potesse farcela.

Se si torna a tale scenario, purtroppo l'unica scelta sarà passare alle console...

JoeLatino
20-06-2007, 16:27
Io sono il primo che da mesi sta' aspettando un benedetto refresh delle g80 per cambiare la mia scheda in firma!
Purtroppo questa storia delle 2900xt ci ha messo in crisi un po' tutti,e visto che a quanto pare non uscira' nemmeno il refresh a breve delle 2900xt come si sperava,purtroppo la vedo un po' dura...
A questo punto bisogna aspettare per foza di cose fino a settembre per vedere come si metteranno le cose,ed al limite farci un pensierino se le 8800ultra scenderanno sui 580e;)

TecnoWorld8
20-06-2007, 16:48
il flop di 2900XT è stato una manna per nVidia, che aveva una scheda potentissima sul mercato già da 7 mesi. in questo modo ha tacitamente ammesso di non potersi opporre nemmeno dopo mesi di sviluppo, ad un prodotto al top.

questo crea una situazione nuova, direi che non si proponeva da almeno 10 anni. infatti, prima c'era stata la competizione 3dfx vs nvidia, poi ati vs nvidia...e questo ha fatto sì che sempre ci fosse un'evoluzione costante, che portava refresh ogni 6-12 mesi circa.

se ora nvidia si trova ad avere la scheda top anche dopo - mettiamo - 10 mesi dal lancio (così sarà a settembre), chi glielo fa fare di immettere un nuovo prodotto? anche se le 8800gtx fossero "spremute" dai nuovi giochi e se non ce la facessero a dare il massimo dettaglio a risoluzioni elevate, perchè nvidia dovrebbe deprezzarle e far uscire un nuovo modello?

a questo punto, temo davvero che G92 uscirà tardi e sarà molto caro. Ipotizzo novembre-dicembre, con un prezzo di 700€. E la situazione sarebbe davvero molto, molto triste, perchè ATi, nonostante il tanto tempo a disposizione, non penso riuscirebbe a far nulla per contrastare il G92 in tempo. Nella situazione migliore, si riproporrà quanto accaduto con R600, cioè un chip che va quasi come G92, in uscita mesi dopo.

Gabriyzf
20-06-2007, 16:53
il flop di 2900XT è stato una manna per nVidia, che aveva una scheda potentissima sul mercato già da 7 mesi. in questo modo ha tacitamente ammesso di non potersi opporre nemmeno dopo mesi di sviluppo, ad un prodotto al top.

questo crea una situazione nuova, direi che non si proponeva da almeno 10 anni. infatti, prima c'era stata la competizione 3dfx vs nvidia, poi ati vs nvidia...e questo ha fatto sì che sempre ci fosse un'evoluzione costante, che portava refresh ogni 6-12 mesi circa.

se ora nvidia si trova ad avere la scheda top anche dopo - mettiamo - 10 mesi dal lancio (così sarà a settembre), chi glielo fa fare di immettere un nuovo prodotto? anche se le 8800gtx fossero "spremute" dai nuovi giochi e se non ce la facessero a dare il massimo dettaglio a risoluzioni elevate, perchè nvidia dovrebbe deprezzarle e far uscire un nuovo modello?

a questo punto, temo davvero che G92 uscirà tardi e sarà molto caro. Ipotizzo novembre-dicembre, con un prezzo di 700€. E la situazione sarebbe davvero molto, molto triste, perchè ATi, nonostante il tanto tempo a disposizione, non penso riuscirebbe a far nulla per contrastare il G92 in tempo. Nella situazione migliore, si riproporrà quanto accaduto con R600, cioè un chip che va quasi come G92, in uscita mesi dopo.


per questo nel mondo dell'informatica, l'alternanza delle prestazioni tra le marche è fondamentale

TecnoWorld8
20-06-2007, 17:13
per questo nel mondo dell'informatica, l'alternanza delle prestazioni tra le marche è fondamentale

rischiamo seriamente di ripiombare nel monopolio Intel + nVidia...speriamo inizino a farsi concorrenza tra loro, almeno :)

JoeLatino
20-06-2007, 17:22
anche se le 8800gtx fossero "spremute" dai nuovi giochi e se non ce la facessero a dare il massimo dettaglio a risoluzioni elevate, perchè nvidia dovrebbe deprezzarle e far uscire un nuovo modello?
.

dimentichi pero' una cosa...:D
c'e' in giro ancora moltissima gente (come me) che e' in attesa di cambiare scheda e che probabilmente non si vuole 'soffermare' su quelle esistenti!
Io penso che se Nvidia facesse uscire almeno un piccolo refresh a settembre
(tipo g80 a 80 con magari un clock migliore o qualche shaders in piu') raccoglierebbe un bel po' di nuovi acquirenti;)
Tanto ormai chi ha gia' una 88000gts/2900xt penso che lasci passare un po' di tempo prima di acquistare una nuova scheda.
Se non facesse cosi',magari si potrebbe perdere una buona fetta di mercato e non so' se gli converrebbe tanto....

TecnoWorld8
20-06-2007, 17:28
dimentichi pero' una cosa...:D
c'e' in giro ancora moltissima gente (come me) che e' in attesa di cambiare scheda e che probabilmente non si vuole 'soffermare' su quelle esistenti!
Io penso che se Nvidia facesse uscire almeno un piccolo refresh a settembre
(tipo g80 a 80 con magari un clock migliore o qualche shaders in piu') raccoglierebbe un bel po' di nuovi acquirenti;)
Tanto ormai chi ha gia' una 88000gts/2900xt penso che lasci passare un po' di tempo prima di acquistare una nuova scheda.
Se non facesse cosi',magari si potrebbe perdere una buona fetta di mercato e non so' se gli converrebbe tanto....

hai ragione, è verissimo questo; se già facesse una 8900 identica alla 8800, ma a 65nm (o anche 80nm) e frequenza di clock di oltre 750Mhz, sarebbe già una bella belva...e penso la prenderei, così da avere con sicurezza un prodotto che consente di giocare bene per il 2008

appleroof
20-06-2007, 17:32
rischiamo seriamente di ripiombare nel monopolio Intel + nVidia...speriamo inizino a farsi concorrenza tra loro, almeno :)

Nonostante il momento obiettivamente molto difficile di Amd, direi che è ancora decisamente troppo presto per fare queste ipotesi, basta che K10 e il prox refresh di R600 vadano come promesso (sopratutto k10, secondo me) che la situazione si riequilibrerà, secondo me

JoeLatino
20-06-2007, 17:34
Nonostante il momento obiettivamente molto difficile di Amd, direi che è ancora decisamente troppo presto per fare queste ipotesi, basta che K10 e il prox refresh di R600 vadano come promesso (sopratutto k10, secondo me) che la situazione si riequilibrerà, secondo me

il problema e' che il refresh dell' R600 non sara' a breve e che stando agli ultimi rumors anche il k10 verra' posticipato!:rolleyes:

appleroof
20-06-2007, 17:54
il problema e' che il refresh dell' R600 non sara' a breve e che stando agli ultimi rumors anche il k10 verra' posticipato!:rolleyes:

per K10 ti segnalo questo:

http://www.hwupgrade.it/forum/showpost.php?p=17595809&postcount=985

per R600 non saprei, resta il fatto che prima di arrivare alla situazione prospettata da tecnoworld secondo me ripeto ce ne vuole...

JoeLatino
20-06-2007, 17:59
per K10 ti segnalo questo:

http://www.hwupgrade.it/forum/showpost.php?p=17595809&postcount=985

per R600 non saprei, resta il fatto che prima di arrivare alla situazione prospettata da tecnoworld secondo me ripeto ce ne vuole...


si' ma quello e' un opteron:eek:
per le cpu serie desktop temo che bisognera' aspettare fino a inizio 2008!!

appleroof
20-06-2007, 18:03
si' ma quello e' un opteron:eek:
per le cpu serie desktop temo che bisognera' aspettare fino a inizio 2008!!

leggi bene il post: per i phenom si parla di fine 2007, cmq roba di pochi mesi, non credo che saranno quelli a causare il fallimento di Amd :D , ma piuttosto se non andranno meglio dei penrynn, lì saranno problemi ma di quelli con la P maiuscola

pierluigi86
20-06-2007, 18:06
ma il g92 è solo un die-shrink a 80/65 nm del g80??? o è una nuova scheda con una nuova architettura??? E QUANDO DOVREBBE USCIRE?

appleroof
20-06-2007, 18:11
ma il g92 è solo un die-shrink a 80/65 nm del g80??? o è una nuova scheda con una nuova architettura??? E QUANDO DOVREBBE USCIRE?

Al riguardo non si sà niente....molti si apsettano un die-shrink del g80 a settembre (65nm?) e g92 a Natale, ma può essere che esca direttamente G92, insomma per ora come vedi poco o nulla

TecnoWorld8
20-06-2007, 19:15
http://www.neoseeker.com/news/story/6816/

su AMD leggete questo. è triste, secondo me...

Uriziel
20-06-2007, 19:41
http://www.neoseeker.com/news/story/6816/

su AMD leggete questo. è triste, secondo me...

eh si hanno picchiato duro si nvidia che intel...

amd si è trovata sotto fuoco incrociato e alle perdite dei proci ora si sommano quelle dei chip video...

la cosa triste è che si è trascinata nella fossa pure ati.

poco male per il video cmq..è un settore sempre pronto a nuovi ingressi(3dfx,nvidia,ati,matrox,la stessa intel) ma per i proci sono caxxi.

TecnoWorld8
20-06-2007, 19:56
se Barcelona non manterrà le promesse e andrà meno di Penryn (come pare dai primi benchmark a parità di clock) per AMD sarà davvero un grosso, grossissimo problema. Infatti il processo produttivo sarà ancora a 65nm, contro i 45nm di Intel; ne consegue che quest'ultima riuscirà ad alzare il clock molto più di AMD.

Mi aspetto di vedere Penryn Quad Core ad oltre 3Ghz fin dal lancio, mentre sarà già tanto se i Barcelona riusciranno a superare i 2.5Ghz.

Se così sarà - e se Intel continuerà a mantenere la politica dei prezzi aggressiva che ha ora - chi comprerà AMD?

Purtroppo AMD ha sbagliato ad acquistare ATi; credo avessero deciso questo passo nel momento di euforia dovuto al superamento di Intel (effimero) ed ai buoni ritorni economici sull'Athlon 64. Purtroppo ora come ora AMD deve lottare per tener su il reparto CPU, credo abbia davvero poco denaro da destinare a quello GPU...

appleroof
20-06-2007, 20:06
se Barcelona non manterrà le promesse e andrà meno di Penryn (come pare dai primi benchmark a parità di clock) per AMD sarà davvero un grosso, grossissimo problema. Infatti il processo produttivo sarà ancora a 65nm, contro i 45nm di Intel; ne consegue che quest'ultima riuscirà ad alzare il clock molto più di AMD.

Mi aspetto di vedere Penryn Quad Core ad oltre 3Ghz fin dal lancio, mentre sarà già tanto se i Barcelona riusciranno a superare i 2.5Ghz.

Se così sarà - e se Intel continuerà a mantenere la politica dei prezzi aggressiva che ha ora - chi comprerà AMD?

Purtroppo AMD ha sbagliato ad acquistare ATi; credo avessero deciso questo passo nel momento di euforia dovuto al superamento di Intel (effimero) ed ai buoni ritorni economici sull'Athlon 64. Purtroppo ora come ora AMD deve lottare per tener su il reparto CPU, credo abbia davvero poco denaro da destinare a quello GPU...

su questo sono completamente d'accordo e lo dico da mesi: per me hanno fatto il passo più lungo della gamba, potevano usare un approccio molto più soft per cominciare e magari fare la fusione dopo il lancio del k10 e a conti/vendite più floridi

cmq ripeto, finora sul k10 non si hanno notizie definitive (pare che il b2 raggiunga senza problemi i 3 giggi) e cmq proprio come ci ha insegnato Amd, la frequenza non è l'unico parametro su cui basare la bontà di una cpu...vedremo, adesso meglio usare il tread per parlare di G92 :p

;)

Kharonte85
20-06-2007, 20:08
su questo sono completamente d'accordo e lo dico da mesi: per me hanno fatto il passo più lungo della gamba, potevano usare un approccio molto più soft per cominciare e magari fare la fusione dopo il lancio del k10 e a conti/vendite più floridi

cmq ripeto, finora sul k10 non si hanno notizie definitive (pare che il b2 raggiunga senza problemi i 3 giggi) e cmq proprio come ci ha insegnato Amd, la frequenza non è l'unico parametro su cui basare la bontà di una cpu...vedremo, adesso meglio usare il tread per parlare di G92 :p

;)
OT/
http://www.tomshw.it/news.php?newsid=10488
/OT

appleroof
20-06-2007, 20:11
OT/
http://www.tomshw.it/news.php?newsid=10488
/OT

si se ne parla molto e meglio qui:

http://www.hwupgrade.it/forum/showthread.php?t=1473670&page=51

dove qualcuno aveva già postato e commentato la notizia :)

nico88desmo
20-06-2007, 20:21
guardate qui.

http://www.dailytech.com/article.aspx?newsid=7772

nVidia a quanto pare vuole essere più prestazionale di ati su tutti i fronti.

JoeLatino
21-06-2007, 08:24
guardate qui.

http://www.dailytech.com/article.aspx?newsid=7772

nVidia a quanto pare vuole essere più prestazionale di ati su tutti i fronti.

si ma a che prezzi!:eek: :eek:
chissa' se faranno mai una versione 'casalinga' giusto per aumentare un po' la potenza attuale magari basata sull'accellerazione della fisica e del rendering:D

geometra91
21-06-2007, 22:02
scusate, una piccola cosa, che vantaggi si hanno ad avere un processo produttivo sempre più basso? :fagiano:

Scrambler77
21-06-2007, 22:11
scusate, una piccola cosa, che vantaggi si hanno ad avere un processo produttivo sempre più basso? :fagiano:

- minori costi di produzione
- minori richieste energetiche
- conseguenti minori emissioni di calore
- conseguente miniaturizzazione dei dissipatori
- maggiori margini di overclock

appleroof
21-06-2007, 22:19
- minori costi di produzione
- minori richieste energetiche
- conseguenti minori emissioni di calore
- conseguente miniaturizzazione dei dissipatori
- maggiori margini di overclock

la 2 3 4 molto spesso vengono vanificate dalle maggiori frequenze della gpu (per ultima vedi R600)...

Luk3D
23-06-2007, 11:05
Da fanboy nvidia,nn aspetto altro!!! Spero abbia veramente le ddr4,so che nn sono essenziali,ma mi sono posto l'idea di cambiare solo quando nvidia avrebbe sfornato una vga con ddr4 :asd: (idea discutibile,ma mi aiuta a nn spendere soldi :D )

Ottimo se esce per natale,punto ad avere già un q6600 e mobo su x38 per allora!!!

Speriamo che però NON mantenga la tradizione del prezzo stellare hehe :stordita:

Scrambler77
23-06-2007, 12:05
Da fanboy nvidia,nn aspetto altro!!! Spero abbia veramente le ddr4,so che nn sono essenziali,ma mi sono posto l'idea di cambiare solo quando nvidia avrebbe sfornato una vga con ddr4 :asd: (idea discutibile,ma mi aiuta a nn spendere soldi :D )

Ottimo se esce per natale,punto ad avere già un q6600 e mobo su x38 per allora!!!

Speriamo che però NON mantenga la tradizione del prezzo stellare hehe :stordita:

Ottima l'idea dell'acquisto di una vga con ddr4 come deterrente per non spendere soldi... Beato te che ci riesci!! :asd:
La mia magra consolazione è che posso acquistare dai listini ai rivenditori e scaricare le tasse.

Cmq sul prezzo stellare, vista la pressochè inesistente concorrenza di ATi, almeno all'inizio la vedremo non sotto i 600 euro (secondo me) al pubblico.

Gabriyzf
23-06-2007, 13:22
Cmq sul prezzo stellare, vista la pressochè inesistente concorrenza di ATi, almeno all'inizio la vedremo non sotto i 600 euro (secondo me) al pubblico.

forza Ati, abbiamo bisogno di concorrenza :cry:

pierluigi86
23-06-2007, 13:26
forza Ati, abbiamo bisogno di concorrenza :cry:

e di una buona fascia media

omar8792
23-06-2007, 13:33
da quanto ho capito io ati è indietro di un anno rispetto a consumi,rumorosità e tecnologia

TecnoWorld8
23-06-2007, 13:53
da quanto ho capito io ati è indietro di un anno rispetto a consumi,rumorosità e tecnologia

forse un anno è esagerato; sicuramente R600, uscito 7 mesi dopo rispetto alle GTX e GTS, non riesce a battere la GTX, ma compete degnamente (spesso anche battendola) con la GTS. Inoltre pare abbia un'architettura che "potrebbe" (ma il condizionale è d'obbligo) darle un - seppur lieve - vantaggio negli scenari DX10.

Ciò detto, è pur vero che ATi è MOLTO indietro e anche 3 mesi in questo settore sarebbero troppo. Dubito che, almeno a breve, ATi riuscirà ancora a opporsi sulla fascia alta. Si parla del prossimo chip per inizio 2008, mentre nVidia "dovrebbe" (speriamo) far uscire G92 a novembre o prima.

Dubito pertanto ci sarà concorrenza di prezzi a questo livello e dunque prepariamoci a prezzi molto simili a quelli visti con G80, all'uscita. Non ci resta che sperare che G92 sia una gran bella GPU...

Gabriyzf
23-06-2007, 13:56
e di una buona fascia media

forse è anche più utile della fascia alta-altissima

TecnoWorld8
23-06-2007, 14:01
forse è anche più utile della fascia alta-altissima

il discorso di utilità della fascia alta è un topic di cui si parla da sempre...in ogni caso dipende da come si vogliono giocare i giochi; secondo me, volendo giocare ai giochi appena usciti al massimo dettaglio e ad alta risoluzione, è necessaria una scheda di fascia alta o comunque medio-alta.

per esempio, ora che uscirà bioshock ad agosto, dubito che una scheda di fascia media di oggi ce la farà a farlo andare al massimo dettaglio...

halduemilauno
23-06-2007, 17:18
forse un anno è esagerato; sicuramente R600, uscito 7 mesi dopo rispetto alle GTX e GTS, non riesce a battere la GTX, ma compete degnamente (spesso anche battendola) con la GTS. Inoltre pare abbia un'architettura che "potrebbe" (ma il condizionale è d'obbligo) darle un - seppur lieve - vantaggio negli scenari DX10.

Ciò detto, è pur vero che ATi è MOLTO indietro e anche 3 mesi in questo settore sarebbero troppo. Dubito che, almeno a breve, ATi riuscirà ancora a opporsi sulla fascia alta. Si parla del prossimo chip per inizio 2008, mentre nVidia "dovrebbe" (speriamo) far uscire G92 a novembre o prima.

Dubito pertanto ci sarà concorrenza di prezzi a questo livello e dunque prepariamoci a prezzi molto simili a quelli visti con G80, all'uscita. Non ci resta che sperare che G92 sia una gran bella GPU...

no non è esagerato. la 8800gtx è uscita l'8 novembre 2006 e non credo che per il prossimo 8 novembre amd riesca ad uscire con una scheda ad essa superiore. e questo solo per parlare della gtx.
;)

A.L.M.
23-06-2007, 20:20
no non è esagerato. la 8800gtx è uscita l'8 novembre 2006 e non credo che per il prossimo 8 novembre amd riesca ad uscire con una scheda ad essa superiore. e questo solo per parlare della gtx.
;)

Non vedo un link tra le 2 cose. Le prestazioni DX10 non si sanno ancora con precisione, nVidia dovrà inserire invece un bel po' di cose che sono già contemplate in R600 nella sua prossima scheda. Io il divario tecnologico (che è diverso da quello prestazionale) di oltre un anno non lo vedo, sinceramente, anzi. :rolleyes:

pierluigi86
23-06-2007, 20:43
scusate ma ho cercato tra i rumorsfonte (http://www.webmasterpoint.org/news/Scheda-grafica-Nvidia-G92-avr-un-processore-con-un-Teraflop-di-potenza-di-calcolo_p28688.html) ma ho trovato veramente poco
1) la scheda uscirà a natale?
2) la potenza di 1 Teraflop è reale o nominale?
3) la scheda sara un die- shrink a 65 nm di g80 o presenterà una nuova architettura?
4) si sa niente delle specifiche?

Gabriyzf
23-06-2007, 21:56
scusate ma ho cercato tra i rumorsfonte (http://www.webmasterpoint.org/news/Scheda-grafica-Nvidia-G92-avr-un-processore-con-un-Teraflop-di-potenza-di-calcolo_p28688.html) ma ho trovato veramente poco
1) la scheda uscirà a natale?
2) la potenza di 1 Teraflop è reale o nominale?
3) la scheda sara un die- shrink a 65 nm di g80 o presenterà una nuova architettura?
4) si sa niente delle specifiche?

e chi lo sa???

Gabriyzf
23-06-2007, 21:58
io credo che se Ati non si sveglia, nvidia non tirerà fuori un'architettura nuova ma un'evoluzione dell'attuale, a prezzi semre alti in attesa che Ati possa proprorre qualcosa di meglio

Racer89
23-06-2007, 22:21
io credo che se Ati non si sveglia, nvidia non tirerà fuori un'architettura nuova ma un'evoluzione dell'attuale, a prezzi semre alti in attesa che Ati possa proprorre qualcosa di meglio

brutta situazione :(

TecnoWorld8
23-06-2007, 23:21
la cosa non è del tutto implausibile. magari uno shrink a 65nm di G80, magari attorno ai 900Mhz di frequenza, che già permetterebbero di ottenere prestazioni del 50% circa superiori all'attuale e più che sufficienti a mantenere la leadership ancora per molti mesi...

certo sarebbe un vero peccato, considerando che così le architetture sarebbero ferme :(

Scrambler77
25-06-2007, 10:59
Non vedo un link tra le 2 cose. Le prestazioni DX10 non si sanno ancora con precisione, nVidia dovrà inserire invece un bel po' di cose che sono già contemplate in R600 nella sua prossima scheda. Io il divario tecnologico (che è diverso da quello prestazionale) di oltre un anno non lo vedo, sinceramente, anzi. :rolleyes:

Ad un utente non gliene frega una mazza che la tecnologia adottata da un costruttore sia più "fighetta" o più "elegante"... rispetto ad un'altra (quest'altro ci mancava :rolleyes: ) .
L'utente intelligente guarda ai grafici dei bench, resa e consumi. E finchè parleranno chiaro, come fino ad oggi, la sua scelta sarà obbligata.

certo sarebbe un vero peccato, considerando che così le architetture sarebbero ferme :(

E magari gli sviluppatori cominciano a scrivere software un tantino più ottimizzato per quelle architetture. Mi sono rotto le balle di spendere centinaia di euro per oggetti che i software non spremono come cristo comanda... Che bei tempi quelli di 3dfx!

A.L.M.
25-06-2007, 11:39
Ad un utente non gliene frega una mazza che la tecnologia adottata da un costruttore sia più "fighetta" o più "elegante"... rispetto ad un'altra (quest'altro ci mancava :rolleyes: ) .
L'utente intelligente guarda ai grafici dei bench, resa e consumi. E finchè parleranno chiaro, come fino ad oggi, la sua scelta sarà obbligata.

Nessuno valuta l'opportunità o meno di acquistare oggi una GTX, se è questo che intendi, anche se comunque l'utente intelligente guarda anche al rapporto qualità-prezzo, che non hai citato. ;)
Il post quotato da TecnoWorld8, che ha fatto partire il discorso, diceva:
da quanto ho capito io ati è indietro di un anno rispetto a consumi,rumorosità e tecnologia

Io prestazioni non lo vedo scritto. Dunque ho risposto su quello. Le prestazioni a 360° di tutte le schede di questa generazione non le conosciamo, visto che finora abbiamo 2 benchmark non molto affidabili (Lost Planet DX10 non gira bene su ATi, mentre forse le nVidia potrebbero avere qualche problema con CoJ DX10). Quindi per ora il giudizio prestazionale è sospeso, imho, almeno fino a quando usciranno Bioshock e Crysis.
Dopodichè, i consumi sono una conseguenza dell'uso di un processo produttivo a 80nm con una tecnologia che richiederebbe minimo i 65nm (parole di Demers), non certo del divario tecnologico ATi-nVidia. La rumorosità ovviamente è dovuta alla necessità di dissipare il calore derivante dal consumo di cui sopra.
Quanto alla tecnologia, ho già espresso il mio parere: G92 secondo me avrà diverse soluzioni che già oggi sono presenti in R600. Se questo è essere indietro... :rolleyes:
L'applicazione dell'AA via shaders sarà la strada da seguire in futuro, e per ora sembra che comporti, soprattutto a risoluzioni medie e basse, un maggiore impatto prestazionale rispetto al normale resolve via ROPs (seppure unito ad una maggiore qualità): e se dai un'occhiata alle recensioni di R600 più recenti ti accorgerai che il vero gap prestazionale (rispetto alla GTX) è lì. Se G92 (o chi per lui) farà MSAA resolve via shaders, allora le prestazioni con la prossima generazione ATi saranno maggiormente comparabili.

Scrambler77
25-06-2007, 11:52
Nessuno valuta l'opportunità o meno di acquistare oggi una GTX, se è questo che intendi, anche se comunque l'utente intelligente guarda anche al rapporto qualità-prezzo, che non hai citato. ;)
Il post quotato da TecnoWorld8, che ha fatto partire il discorso, diceva:

Io prestazioni non lo vedo scritto. Dunque ho risposto su quello.

:mc: :asd:

xxxyyy
25-06-2007, 14:34
E magari gli sviluppatori cominciano a scrivere software un tantino più ottimizzato per quelle architetture. Mi sono rotto le balle di spendere centinaia di euro per oggetti che i software non spremono come cristo comanda... Che bei tempi quelli di 3dfx!

Un consiglio, passa alle console.
Sono d'accordo che gli sviluppatori dovrebbero spremere di piu' l'hardware... ma non sono assolutamente d'accordo sul fatto che la tecnologia si deve fermare... per far comodo a chi ha preso l'ultimissima scheda e, cos'e'? vuole restare al top per piu' tempo possibile? non esiste proprio.
La tecnologia deve andare avanti AD OGNI COSTO.

Scrambler77
25-06-2007, 15:31
Un consiglio, passa alle console.
Sono d'accordo che gli sviluppatori dovrebbero spremere di piu' l'hardware... ma non sono assolutamente d'accordo sul fatto che la tecnologia si deve fermare... per far comodo a chi ha preso l'ultimissima scheda e, cos'e'? vuole restare al top per piu' tempo possibile? non esiste proprio.
La tecnologia deve andare avanti AD OGNI COSTO.

Tu fai un uso un po troppo riduttivo del termine "tecnologia". Nello specifico non c'è tecnologia valida se si basa solo sull'hardware. Ogni hardware è pilotato dal relativo software. Pertanto il fatto che buona parte di quella tecnologia hardware (di cui disponiamo e di cui parlo io) vada presa e gettata nel cesso perchè quella software non è altrettanto adeguata a me fa incazzare.

Ragionare in termini prettamente HW è un tantino superficiale.

Infatti le consolle (le cui tecnologie hw stagnano per più tempo) sono di gran lunga meglio sfruttate dai software progettati per quelle piattaforme. Minori potenze, maggiori performance. ;)

P.S: ma chi ha parlato solo di videogames?? :rolleyes:

xxxyyy
25-06-2007, 18:35
Tu fai un uso un po troppo riduttivo del termine "tecnologia". Nello specifico non c'è tecnologia valida se si basa solo sull'hardware. Ogni hardware è pilotato dal relativo software. Pertanto il fatto che buona parte di quella tecnologia hardware (di cui disponiamo e di cui parlo io) vada presa e gettata nel cesso perchè quella software non è altrettanto adeguata a me fa incazzare.

Ragionare in termini prettamente HW è un tantino superficiale.

Infatti le consolle (le cui tecnologie hw stagnano per più tempo) sono di gran lunga meglio sfruttate dai software progettati per quelle piattaforme. Minori potenze, maggiori performance. ;)

P.S: ma chi ha parlato solo di videogames?? :rolleyes:

Scusa, tu con la 3dfx cosa ci facevi, il caffe? io ci giocavo... :rolleyes:


In ogni caso, e' giusto quello che dici, comprendere anche il software, ma non si puo' sperare che una casa produttrice di hardware si fermi e aspetti che il software "la raggiunga"... sarebbe un bel collo di bottiglia.

Non capisco perche' poi dici "va presa e sbattuta nel cesso". E' sempre stato cosi' coi PC. Guai se uno aspetta l'altro... altrimenti non ci muoviamo piu'.
Il software sara' sempre in dietro rispetto all' hardware, soprattutto in questo periodo di cambio di API.

Onestamente non reputo una scelta azzeccata prendere hardware DX10 adesso quando non c'e' nulla disponibile... e poi magari lamentarsi del software male ottimizzato (ma come si fa poi a dire?) quando uscira roba DX10.

Con le console il rpoblema non si pone

:)

pierluigi86
25-06-2007, 19:41
Scusa, tu con la 3dfx cosa ci facevi, il caffe? io ci giocavo... :rolleyes:


In ogni caso, e' giusto quello che dici, comprendere anche il software, ma non si puo' sperare che una casa produttrice di hardware si fermi e aspetti che il software "la raggiunga"... sarebbe un bel collo di bottiglia.

Non capisco perche' poi dici "va presa e sbattuta nel cesso". E' sempre stato cosi' coi PC. Guai se uno aspetta l'altro... altrimenti non ci muoviamo piu'.
Il software sara' sempre in dietro rispetto all' hardware, soprattutto in questo periodo di cambio di API.

Onestamente non reputo una scelta azzeccata prendere hardware DX10 adesso quando non c'e' nulla disponibile... e poi magari lamentarsi del software male ottimizzato (ma come si fa poi a dire?) quando uscira roba DX10.

Con le console il rpoblema non si pone

:)


l' hardware sarà sempre superiore al software perchè si paga sempre... quando c' erano i giochi per le salette il software era superiore all' hardware perchè tutti pagavano i gettoni

appleroof
25-06-2007, 19:42
Tu fai un uso un po troppo riduttivo del termine "tecnologia". Nello specifico non c'è tecnologia valida se si basa solo sull'hardware. Ogni hardware è pilotato dal relativo software. Pertanto il fatto che buona parte di quella tecnologia hardware (di cui disponiamo e di cui parlo io) vada presa e gettata nel cesso perchè quella software non è altrettanto adeguata a me fa incazzare.

Ragionare in termini prettamente HW è un tantino superficiale.

Infatti le consolle (le cui tecnologie hw stagnano per più tempo) sono di gran lunga meglio sfruttate dai software progettati per quelle piattaforme. Minori potenze, maggiori performance. ;)

P.S: ma chi ha parlato solo di videogames?? :rolleyes:

Io penso che con il pc l'ottimizzazione "portata al massimo possibile" non ci sarà mai, proprio per l'identica ragione che hai detto riguardo alle consolle...sono troppe le vga (anche se riconduciamo il discorso ad Ati e Nvidia, come è ovvio che sia, ci sono da considerare quelle vecchie che ancora circolano abbondantemente, come le x8xx o le 6xxx, come se non bastassero le differenze tra le ultimissime vga) poi aggiungiamo troppe configurazioni , cpu, ram ecc....

eppure esempi di ottimizzazione su pc in passato ce ne sono eccome, basta pensare a hl2, o far cry ecc,...per cui direi che hai ragione: le sw dovrebbero spremersi di più da questo punto di vista, perchè l'hw è pronto e la differenziazione dello stesso spiega solo in parte la scarsa ottimizzazione degli ultimi giochi, per usare un eufemismo (da praticamente un anno a questa parte, minimo)

Scrambler77
26-06-2007, 00:19
Scusa, tu con la 3dfx cosa ci facevi, il caffe? io ci giocavo... :rolleyes:


In ogni caso, e' giusto quello che dici, comprendere anche il software, ma non si puo' sperare che una casa produttrice di hardware si fermi e aspetti che il software "la raggiunga"... sarebbe un bel collo di bottiglia.

Non capisco perche' poi dici "va presa e sbattuta nel cesso". E' sempre stato cosi' coi PC. Guai se uno aspetta l'altro... altrimenti non ci muoviamo piu'.
Il software sara' sempre in dietro rispetto all' hardware, soprattutto in questo periodo di cambio di API.

Onestamente non reputo una scelta azzeccata prendere hardware DX10 adesso quando non c'e' nulla disponibile... e poi magari lamentarsi del software male ottimizzato (ma come si fa poi a dire?) quando uscira roba DX10.

Con le console il rpoblema non si pone

:)

Io con la mia voodoo ci giocavo... e alla grande!! Giochi che rispetto alle configurazioni hardware di allora (Pentium MMX 133 - 8Mb ram) hanno davvero tecnologia da vendere ai titoli attuali.

Per non parlare di ancora prima: gli esempi si sprecano. Dal C64 all'Amiga.
Aspetta, non faccio il nostalgico. Voglio solo evidenziare come all'epoca le sw-house si spaccavano le meningi per produrre titoli davvero concorrenziali ed innovativi su una macchina assolutamente standardizzata, e venderli. Superare la barriera hardware dei 32 colori per averne 64 contemporanei solo con la bravura nella scrittura del codice... è davvero incredibile (Agony - Amiga500).

Io non dico che l'HW debba aspettare il SW... ma che per lo meno gli sviluppatori SW non si cullino di quel mezzo teraflop delle vga attuali per riciclare codice antico senza il nessun interesse nell'ottimizzarlo... o addirittura nell'attualizzarlo, per poi rivendertelo per nuovo.

Quando ottimizzi un engine i risultati si vedono. Guarda la differenza tra Doom3 e Prey. Eppure nessuno lo fa (apparte pochi)... perchè tanto domani esce G92!

Scusate la vena polemica...

Gabriyzf
26-06-2007, 09:46
Io con la mia voodoo ci giocavo... e alla grande!! Giochi che rispetto alle configurazioni hardware di allora (Pentium MMX 133 - 8Mb ram) hanno davvero tecnologia da vendere ai titoli attuali.

Per non parlare di ancora prima: gli esempi si sprecano. Dal C64 all'Amiga.
Aspetta, non faccio il nostalgico. Voglio solo evidenziare come all'epoca le sw-house si spaccavano le meningi per produrre titoli davvero concorrenziali ed innovativi su una macchina assolutamente standardizzata, e venderli. Superare la barriera hardware dei 32 colori per averne 64 contemporanei solo con la bravura nella scrittura del codice... è davvero incredibile (Agony - Amiga500).

Io non dico che l'HW debba aspettare il SW... ma che per lo meno gli sviluppatori SW non si cullino di quel mezzo teraflop delle vga attuali per riciclare codice antico senza il nessun interesse nell'ottimizzarlo... o addirittura nell'attualizzarlo, per poi rivendertelo per nuovo.

Quando ottimizzi un engine i risultati si vedono. Guarda la differenza tra Doom3 e Prey. Eppure nessuno lo fa (apparte pochi)... perchè tanto domani esce G92!

Scusate la vena polemica...

non posso che darti pienamente ragione

appleroof
26-06-2007, 18:58
Io con la mia voodoo ci giocavo... e alla grande!! Giochi che rispetto alle configurazioni hardware di allora (Pentium MMX 133 - 8Mb ram) hanno davvero tecnologia da vendere ai titoli attuali.

Per non parlare di ancora prima: gli esempi si sprecano. Dal C64 all'Amiga.
Aspetta, non faccio il nostalgico. Voglio solo evidenziare come all'epoca le sw-house si spaccavano le meningi per produrre titoli davvero concorrenziali ed innovativi su una macchina assolutamente standardizzata, e venderli. Superare la barriera hardware dei 32 colori per averne 64 contemporanei solo con la bravura nella scrittura del codice... è davvero incredibile (Agony - Amiga500).

Io non dico che l'HW debba aspettare il SW... ma che per lo meno gli sviluppatori SW non si cullino di quel mezzo teraflop delle vga attuali per riciclare codice antico senza il nessun interesse nell'ottimizzarlo... o addirittura nell'attualizzarlo, per poi rivendertelo per nuovo.

Quando ottimizzi un engine i risultati si vedono. Guarda la differenza tra Doom3 e Prey. Eppure nessuno lo fa (apparte pochi)... perchè tanto domani esce G92!

Scusate la vena polemica...

quoto ;)

pierluigi86
26-06-2007, 20:15
Io con la mia voodoo ci giocavo... e alla grande!! Giochi che rispetto alle configurazioni hardware di allora (Pentium MMX 133 - 8Mb ram) hanno davvero tecnologia da vendere ai titoli attuali.

Per non parlare di ancora prima: gli esempi si sprecano. Dal C64 all'Amiga.
Aspetta, non faccio il nostalgico. Voglio solo evidenziare come all'epoca le sw-house si spaccavano le meningi per produrre titoli davvero concorrenziali ed innovativi su una macchina assolutamente standardizzata, e venderli. Superare la barriera hardware dei 32 colori per averne 64 contemporanei solo con la bravura nella scrittura del codice... è davvero incredibile (Agony - Amiga500).

Io non dico che l'HW debba aspettare il SW... ma che per lo meno gli sviluppatori SW non si cullino di quel mezzo teraflop delle vga attuali per riciclare codice antico senza il nessun interesse nell'ottimizzarlo... o addirittura nell'attualizzarlo, per poi rivendertelo per nuovo.

Quando ottimizzi un engine i risultati si vedono. Guarda la differenza tra Doom3 e Prey. Eppure nessuno lo fa (apparte pochi)... perchè tanto domani esce G92!

Scusate la vena polemica...

c' è anche da dire che scrivere un gioco oggi è molto più difficile di qualche anno fa... prima con un bello sfondo e una buona colonna sonora avevi fatto un ottimo gioco...

appleroof
26-06-2007, 20:21
c' è anche da dire che scrivere un gioco oggi è molto più difficile di qualche anno fa... prima con un bello sfondo e una buona colonna sonora avevi fatto un ottimo gioco...

si ma gli strumenti a disposizone degli sviluppatori ci sono e non sono certo quelli di una volta....e siamo punto e a capo.... :rolleyes:

JoeLatino
27-06-2007, 11:28
ultimi rumors trovati in rete;)

Rumor from Taiwan Web site

65nm , 1000M
Two times of Raw performance of G80
Die Size :3/4 of Die Size of G80
Shader Clock of G92 is much higher than that of G80.
3 or 2.5 times of Factual Performance of G80

Due Launch Date : End of Nov

So it seems to me that 1.5 times of TCP Scale + Bug Fixed with MAD instead + More Shader clock increase= 3 times of Factual performance of G80.

G91: 4Q07, 192SPs, 2.0-2.6GHz shader domain, 24 TMUs with free trilinear, 16 beefed-up ROPs (stencil enhancements of G84; better blending rates), 750-800MHz+ core clock. 1.4GHz+ GDDR4 on a 256-bit memory bus. 200-240mm² on 65nm. Requires NVIO.
G93: 1H08, 96SPs, 1.8-2.4GHz shader domain, 16 TMUs with free trilinear, 8 ROPs similar to G92's, 700-750MHz+ core clock. 1.2GHz+ GDDR4 on a 128-bit memory bus. 130-150mm² on 65nm, smaller if on 55nm.
G97: 1H08, 48SPs, 1.4-1.8GHz shader domain, 8 TMUs with free trilinear, 4 weaker ROPs, 600-650MHz+ core clock. DDR2/DDR3 on a 64-bit memory bus. 70-85mm² on 55nm.
MCP78: 1H08, 24SPs, 1.2-1.4GHz shader domain, 4 TMUs with free trilinear, 2 weaker ROPs, 550-600MHz+ core clock. 50-60mm²(+NB+SB) on 55nm. Will use 8MiB+ eDRAM. Total chip around 120mm².

I would tend to believe all G9x derivatives will be based on the low-power process variant due to different custom design rules. 55nm-LP at TSMC will become available in Q3 and will be a pure optical shrink (analogue will scale too, apparently!). This also puts UMC and Chartered out of the picture, most likely...

Please note that this is, once again, mostly speculation. The goal is to come up with realistic estimates for the target die sizes, really. As for the roadmap beyond these parts, it'll be interesting to see if they optically shrink the 192SPs part to 55nm or not. I would expect them to, really, as a 6-months-refresh before the 45nm part in 4Q08 or so.


fonte forum beyond3d

Scrambler77
27-06-2007, 11:43
ultimi rumors trovati in rete;)
[CUT]
fonte forum beyond3d

Se è così... sarà un mostro! :eek:

Mister Tarpone
27-06-2007, 11:46
interessante anche il g91 :) :) :)

pierluigi86
27-06-2007, 11:47
1 miliardo di transistor:sbav: :sbavvv: :sbavvv: :sbavvv:
nvidia :ave: :ave: :ave: :ave:


questa dovrebber0 essere le vere schede directx 10

Scrambler77
27-06-2007, 11:59
Beh direi che con 192sp a quelle frequenze c'è abbastanza potenza di calcolo per fare tessellescìon e antialias... ed il "gap tecnologico" è colmato. :ciapet:

Skullcrusher
27-06-2007, 12:06
Apperò, come specifiche non sarebbero per niente male :eek:

nico88desmo
27-06-2007, 12:19
ultimi rumors trovati in rete;)

Rumor from Taiwan Web site

65nm , 1000M
Two times of Raw performance of G80
Die Size :3/4 of Die Size of G80
Shader Clock of G92 is much higher than that of G80.
3 or 2.5 times of Factual Performance of G80

Due Launch Date : End of Nov

So it seems to me that 1.5 times of TCP Scale + Bug Fixed with MAD instead + More Shader clock increase= 3 times of Factual performance of G80.

G91: 4Q07, 192SPs, 2.0-2.6GHz shader domain, 24 TMUs with free trilinear, 16 beefed-up ROPs (stencil enhancements of G84; better blending rates), 750-800MHz+ core clock. 1.4GHz+ GDDR4 on a 256-bit memory bus. 200-240mm² on 65nm. Requires NVIO.
G93: 1H08, 96SPs, 1.8-2.4GHz shader domain, 16 TMUs with free trilinear, 8 ROPs similar to G92's, 700-750MHz+ core clock. 1.2GHz+ GDDR4 on a 128-bit memory bus. 130-150mm² on 65nm, smaller if on 55nm.
G97: 1H08, 48SPs, 1.4-1.8GHz shader domain, 8 TMUs with free trilinear, 4 weaker ROPs, 600-650MHz+ core clock. DDR2/DDR3 on a 64-bit memory bus. 70-85mm² on 55nm.
MCP78: 1H08, 24SPs, 1.2-1.4GHz shader domain, 4 TMUs with free trilinear, 2 weaker ROPs, 550-600MHz+ core clock. 50-60mm²(+NB+SB) on 55nm. Will use 8MiB+ eDRAM. Total chip around 120mm².

I would tend to believe all G9x derivatives will be based on the low-power process variant due to different custom design rules. 55nm-LP at TSMC will become available in Q3 and will be a pure optical shrink (analogue will scale too, apparently!). This also puts UMC and Chartered out of the picture, most likely...

Please note that this is, once again, mostly speculation. The goal is to come up with realistic estimates for the target die sizes, really. As for the roadmap beyond these parts, it'll be interesting to see if they optically shrink the 192SPs part to 55nm or not. I would expect them to, really, as a 6-months-refresh before the 45nm part in 4Q08 or so.


fonte forum beyond3d

torniamo indietro con il numero di bit per il bus delle memorie??? :mbe:

Giovannino
27-06-2007, 12:20
torniamo indietro con il numero di bit per il bus delle memorie??? :mbe:

G91 mi sa che dovrebbe essere la fascia media, quindi si passa da 128 a 256, mica si torna indietro.

Mister Tarpone
27-06-2007, 12:21
torniamo indietro con il numero di bit per il bus delle memorie??? :mbe:

ma non credo che il g91 sia la top gamma ...anche se è eccezionale tecnicamente (192shader) ;)


cmq son contento di aver speso poco per la vga attuale... :asd:
cavolo sta schedona dovrebbe uscire per fine 2007!! MIA!!

A.L.M.
27-06-2007, 12:25
ultimi rumors trovati in rete;)

Rumor from Taiwan Web site

65nm , 1000M
Two times of Raw performance of G80
Die Size :3/4 of Die Size of G80
Shader Clock of G92 is much higher than that of G80.
3 or 2.5 times of Factual Performance of G80

Due Launch Date : End of Nov

So it seems to me that 1.5 times of TCP Scale + Bug Fixed with MAD instead + More Shader clock increase= 3 times of Factual performance of G80.

G91: 4Q07, 192SPs, 2.0-2.6GHz shader domain, 24 TMUs with free trilinear, 16 beefed-up ROPs (stencil enhancements of G84; better blending rates), 750-800MHz+ core clock. 1.4GHz+ GDDR4 on a 256-bit memory bus. 200-240mm² on 65nm. Requires NVIO.
G93: 1H08, 96SPs, 1.8-2.4GHz shader domain, 16 TMUs with free trilinear, 8 ROPs similar to G92's, 700-750MHz+ core clock. 1.2GHz+ GDDR4 on a 128-bit memory bus. 130-150mm² on 65nm, smaller if on 55nm.
G97: 1H08, 48SPs, 1.4-1.8GHz shader domain, 8 TMUs with free trilinear, 4 weaker ROPs, 600-650MHz+ core clock. DDR2/DDR3 on a 64-bit memory bus. 70-85mm² on 55nm.
MCP78: 1H08, 24SPs, 1.2-1.4GHz shader domain, 4 TMUs with free trilinear, 2 weaker ROPs, 550-600MHz+ core clock. 50-60mm²(+NB+SB) on 55nm. Will use 8MiB+ eDRAM. Total chip around 120mm².

I would tend to believe all G9x derivatives will be based on the low-power process variant due to different custom design rules. 55nm-LP at TSMC will become available in Q3 and will be a pure optical shrink (analogue will scale too, apparently!). This also puts UMC and Chartered out of the picture, most likely...

Please note that this is, once again, mostly speculation. The goal is to come up with realistic estimates for the target die sizes, really. As for the roadmap beyond these parts, it'll be interesting to see if they optically shrink the 192SPs part to 55nm or not. I would expect them to, really, as a 6-months-refresh before the 45nm part in 4Q08 or so.


fonte forum beyond3d

Ma si chiamerà G91 o G92? :mbe:
Direi comunque che alcune cifre sono un po' sparate a caso...
Col doppio della "raw performance" (ossia quella iper-teorica data la missing MUL) di G80, il triplo delle prestazioni effettive? :asd:
Tra l'altro, i rumours di una scheda da un teraflop (che secondo me sarà il livello medio della fascia high-end della prossima generazione) cozzano vistosamente con questi dati: che G92 avrà la potenza teorica di 4 G80? Non credo proprio... :rolleyes:
Se G92, come credo, avrà 1Teraflop o poco più di potenza di calcolo, avrà probabilmente 192SP del tipo di G80, e forse manterrà le MUL aggiuntive migliorandone l'efficienza (che comunque dubito arriverà mai al 100%, proprio per la loro strana natura). Se le MUL fossero al 100%, con un clock a 2.0GHz, si arriverebbe a 1.15 TFlops: questo mi pare un valore realistico.
Secondo me al momento fare calcoli prestazionali futuri per le DX10 (visto che per queste schede conterà solo questa performance, il resto sarà puro supporto del passato) è pressochè impossibile, dato che non sappiamo con precisione nemmeno come andranno le attuali schede in DX10...

JoeLatino
27-06-2007, 12:31
mi sa' tanto che la g92 top di gamma sara' davvero un bel mostro di potenza:sofico:
ipotizzo....

192/256 SPs, 2.0-2.4GHz shader domain, 24 TMUs with free trilinear, 16/24 beefed-up ROPs (stencil enhancements of G84; better blending rates), 750-800MHz+ core clock. 768mb 1.4/1.6 GHz+ GDDR4 on a 384-bit memory bus. 65nm
che ne dite,e' fattibile???:cool:

Mister Tarpone
27-06-2007, 12:34
Io ipotizzo 384sp e bus a 512bit per G92 :winner:


cmq ripeto, mi basterebbe il g91 :asd:

nico88desmo
27-06-2007, 13:07
Mi sembra che bisogna tenere in conto però che la precisione del filtraggio e fusione della texture in virgola mobile passerà da 32 bit a 64 bit...se non sbaglio...

A.L.M.
27-06-2007, 13:30
mi sa' tanto che la g92 top di gamma sara' davvero un bel mostro di potenza:sofico:
ipotizzo....

192/256 SPs, 2.0-2.4GHz shader domain, 24 TMUs with free trilinear, 16/24 beefed-up ROPs (stencil enhancements of G84; better blending rates), 750-800MHz+ core clock. 768mb 1.4/1.6 GHz+ GDDR4 on a 384-bit memory bus. 65nm
che ne dite,e' fattibile???:cool:

Secondo me sarebbe meglio se G92 avesse 256 SP e basta, invece che 192+192MUL. Le garantirebbe una migliore capacità in termini di shader operations gestibili. In questo modo andrebbe più o meno alla pari con un ipotetico R700 con 128 shader units (ipotizzando clocks degli shaders molto elevati, 2.6GHz). Con 192 SP con l'attuale configurazione (che secondo molte fonti sarà la soluzione scelta) sarebbe parecchio sotto, anche con gli shader clocks citati.

appleroof
27-06-2007, 14:33
Secondo me sarebbe meglio se G92 avesse 256 SP e basta, invece che 192+192MUL. Le garantirebbe una migliore capacità in termini di shader operations gestibili. In questo modo andrebbe più o meno alla pari con un ipotetico R700 con 128 shader units (ipotizzando clocks degli shaders molto elevati, 2.6GHz). Con 192 SP con l'attuale configurazione (che secondo molte fonti sarà la soluzione scelta) sarebbe parecchio sotto, anche con gli shader clocks citati.

ma nde che? :confused:

Kharonte85
27-06-2007, 14:46
ma nde che? :confused:
Come non è chiaro? :mbe:

Un' ipotetico G92 sarebbe parecchio sotto ad un ipotetico R700. :asd:

bioexml
27-06-2007, 14:49
Come non è chiaro? :mbe:

Un' ipotetico G92 sarebbe parecchio sotto ad un ipotetico R700. :asd:

non fa una piega

appleroof
27-06-2007, 14:51
Come non è chiaro? :mbe:

Un' ipotetico G92 sarebbe parecchio sotto ad un ipotetico R700. :asd:

non fa una piega

:D :D :D

halduemilauno
27-06-2007, 14:54
Come non è chiaro? :mbe:

Un' ipotetico G92 sarebbe parecchio sotto ad un ipotetico R700. :asd:

non fa una piega

:D :D :D

cosa aggiungere?
:help: a anche questo :banned:

appleroof
27-06-2007, 14:57
cosa aggiungere?
:help: a anche questo :banned:

:asd: :asd:

A.L.M.
27-06-2007, 15:26
ma nde che? :confused:

Come non è chiaro? :mbe:

Un' ipotetico G92 sarebbe parecchio sotto ad un ipotetico R700. :asd:

In termini di shader operations.
Se si facessero meno asd e più interventi tecnici costruttivi, allora ci si capirebbe meglio, ma forse si preferisce chi scrive "3 or 2.5 times of Factual Performance of G80", senza giustificarlo minimamente. ;)

128x5x1.0Ghz= 640,000 Operations/sec --> R700 con 128 Shader Units e 1.0GHz di clock (stima conservativa)
196x2.6=509,600 Operations/sec --> G92 con 192 SP (questa cifra magari andrebbe corretta con la maggiore efficienza dovuta alla MUL aggiuntiva, che comunque nessuno finora ha capito cosa ci stesse a fare lì)
256x2.6=665,600 Operations/sec --> G92 con 256 SP

Come potete vedere (considerando shader clocks comunque molto alti, infatti credo che saranno un po' più bassi, per evitare di vanificare il risparmio energetico consentito dal processo a 65nm) nel primo caso G92 riuscirebbe a compiere il 20% di shader operations al secondo in meno.
Considerate inoltre che con la prossima generazione la potenza di calcolo degli shaders sarà ancora più importante, dato che il MSAA via shader diventerà la norma tra uno o 2 anni: la cosa è confermata anche dal fatto che ROPs e TMU rimarranno probabilmente in numero invariato rispetto alla generazione precedente.

Portocala
27-06-2007, 15:27
per poi alla fine scoprire che nei giochi la R700 fa 30 FPS ... :stordita: :fagiano: mentre la G92 ne fa 40.

mi ricordo i primi Aspettando R600 :boh:
spero vivamente non sia cosi

JoeLatino
27-06-2007, 15:29
Come non è chiaro? :mbe:

Un' ipotetico G92 sarebbe parecchio sotto ad un ipotetico R700. :asd:

....se fara' come R600 e' gia' tanto se uscira' e se riuscira' a stargli dietro:ciapet:

appleroof
27-06-2007, 15:30
In termini di shader operations.
Se si facessero meno asd e più interventi tecnici costruttivi, allora ci si capirebbe meglio, ma forse si preferisce chi scrive "3 or 2.5 times of Factual Performance of G80", senza giustificarlo minimamente. ;)

128x5x1.0Ghz= 640,000 Operations/sec --> R700 con 128 Shader Units e 1.0GHz di clock (stima conservativa)
196x2.6=509,600 Operations/sec --> G92 con 192 SP (questa cifra magari andrebbe corretta con la maggiore efficienza dovuta alla MUL aggiuntiva, che comunque nessuno finora ha capito cosa ci stesse a fare lì)
256x2.6=665,600 Operations/sec --> G92 con 256 SP

Come potete vedere (considerando shader clocks comunque molto alti, infatti credo che saranno un po' più bassi, per evitare di vanificare il risparmio energetico consentito dal processo a 65nm) nel primo caso G92 riuscirebbe a compiere il 20% di shader operations al secondo in meno.
Considerate inoltre che con la prossima generazione la potenza di calcolo degli shaders sarà ancora più importante, dato che il MSAA via shader diventerà la norma tra uno o 2 anni: la cosa è confermata anche dal fatto che ROPs e TMU rimarranno probabilmente in numero invariato rispetto alla generazione precedente.

numeri e teorie all'atto pratico contano quasi nulla: R600 è li a dimostrarlo ;)

Mister Tarpone
27-06-2007, 15:32
numeri e teorie all'atto pratico contano quasi nulla: R600 è li a dimostrarlo ;)

quoto..

Portocala
27-06-2007, 15:32
numeri e teorie all'atto pratico contano quasi nulla: R600 è li a dimostrarlo ;)

o le 8600 perchè non sono di parte ;)

Mister Tarpone
27-06-2007, 15:35
o le 8600 perchè non sono di parte ;)

le 8600, per le specifiche tecniche che hanno (per nulla mostruose) vanno adeguatamente bene.

R600 invece doveva essere il mostro dal bus a 512bit e una marea di shader... ma le prestazioni non si sono rivelate poi tanto eccezionali..

è ben diverso ;)

appleroof
27-06-2007, 15:35
o le 8600 perchè non sono di parte ;)

infatti, eri chiamato a dimostrarlo ;)

halduemilauno
27-06-2007, 15:38
le 8600, per le specifiche tecniche che hanno (per nulla mostruose) vanno adeguatamente bene.

R600 invece doveva essere il mostro dal bus a 512bit e una marea di shader... ma le prestazioni non si sono rivelate poi tanto eccezionali..

è ben diverso ;)

beh li contavano sul fatto che i loro erano rossi invece di verdi.
;)

appleroof
27-06-2007, 15:39
le 8600, per le specifiche tecniche che hanno (per nulla mostruose) vanno adeguatamente bene.

R600 invece doveva essere il mostro dal bus a 512bit e una marea di shader... ma le prestazioni non si sono rivelate poi tanto eccezionali..

è ben diverso ;)

esatto, le 8600 (e le 2600) sono proporzionate al top: la 8800ultra non è certo la 7900gtx, quindi quel richiamo non è molto pertinente, secondo me ;)

A.L.M.
27-06-2007, 15:51
per poi alla fine scoprire che nei giochi la R700 fa 30 FPS ... :stordita: :fagiano: mentre la G92 ne fa 40.

mi ricordo i primi Aspettando R600 :boh:
spero vivamente non sia cosi

numeri e teorie all'atto pratico contano quasi nulla: R600 è li a dimostrarlo ;)

Quelli infatti sono numeri teorici, e solo quelli finora si possono commentare, no?
In realtà numeri e teorie contano, e tanto: ovviamente per avere un panorama completo e realistico (almeno in parte) bisogna avere sottomano tutti i dati tecnici, cosa che per ora non è possibile.
Altrimenti come farebbero gli ingegneri che le vga le progettano? Attraverso i dati teorici creano un target prestazionale, certo la scheda non la si può testare prima ancora di averla creata.
R600 era un mostro solo nelle balle di Fudzilla&Co. Se si guardano i numeri corrispondenti a quelli che ho citato poco fa, la differenza in termini di potenza di calcolo tra R600 e G80 è molto meno grande di quanto si possa credere. Le prestazioni di R600, con tutti i dati necessari a disposizione, erano abbastanza prevedibili, da chi ne capisce qualcosa, anche senza guardare i giochi.

appleroof
27-06-2007, 15:59
Quelli infatti sono numeri teorici, e solo quelli finora si possono commentare, no?
In realtà numeri e teorie contano, e tanto: ovviamente per avere un panorama completo e realistico (almeno in parte) bisogna avere sottomano tutti i dati tecnici, cosa che per ora non è possibile.
Altrimenti come farebbero gli ingegneri che le vga le progettano? Attraverso i dati teorici creano un target prestazionale, certo la scheda non la si può testare prima ancora di averla creata.

sono d'accordo, proprio per tutto questo è impossibile affermare cose tipo "sta quasi sotto" "sta sopra" "sta pari". Inoltre quei dati non possono tenere conto di 2 cose che invece influiscono eccome sull'atto pratico: i driver ma sopratutto come sono programmati i vari giochi

R600 era un mostro solo nelle balle di Fudzilla&Co. Se si guardano i numeri corrispondenti a quelli che ho citato poco fa, la differenza in termini di potenza di calcolo tra R600 e G80 è molto meno grande di quanto si possa credere. Le prestazioni di R600, con tutti i dati necessari a disposizione, erano abbastanza prevedibili, da chi ne capisce qualcosa, anche senza guardare i giochi.

eppure anche chi ne capisce qualcosa era molto esaltato dalle prestazioni promesse dalle caratteristiche di R600 (tranne uno), il tread, tutti e tre i tread sono lì ancora a dimostrarlo...allora cosa devo dedurre? :asd: ;)

Portocala
27-06-2007, 16:11
infatti, eri chiamato a dimostrarlo ;)
non ho capito sta frase :boh:


sono d'accordo, proprio per tutto questo è impossibile affermare cose tipo "sta quasi sotto" "sta sopra" "sta pari". Inoltre quei dati non possono tenere conto di 2 cose che invece influiscono eccome sull'atto pratico: i driver ma sopratutto come sono programmati i vari giochi

eppure anche chi ne capisce qualcosa (tranne uno) era molto esaltato dalle prestazioni promesse dalle caratteristiche di R600, il tread, tutti e tre i tread sono lì ancora a dimostrarlo...allora cosa devo dedurre? :asd: ;)

erano in tanti ad essere esaltati (e lo sono tutt'ora) per poi alla fine scoprire la verità e cercare di girarla cmq a proprio favore.

appleroof
27-06-2007, 16:16
non ho capito sta frase :boh:

ho letto solo dopo il tuo post precedente, per cui quando ho postato non capivo il senso di quello che scrivevi, o meglio perchè lo scrivevi

erano in tanti ad essere esaltati (e lo sono tutt'ora) per poi alla fine scoprire la verità e cercare di girarla cmq a proprio favore.

vabbè quello fa parte del "gioco": uno tifa la propria squadra del cuore anche se scende in C, e si :mc: pur di decantarne le qualità

piuttosto c'era pieno di espertoni di rops e rips che affermavano sulla carta una superiorità di R600 che poi non si è rivelata, tranne poi affrettarsi a dire che era più dx10 oriented eccetera eccetera...solo uno di questi non si è mai esaltato sin dall'inizio

Scrambler77
27-06-2007, 16:20
R600 era un mostro solo nelle balle di Fudzilla&Co. Se si guardano i numeri corrispondenti a quelli che ho citato poco fa, la differenza in termini di potenza di calcolo tra R600 e G80 è molto meno grande di quanto si possa credere.

:rotfl:

Ma se FudZilla fu accusato da molti di voi di aver fatto un articolo-fake sulle deludenti prestazioni di R600... e poi ha avuto pure ragione!! Vi siete giustificati dicendo che su quel sito scrivono tutto ed il contrario di tutto, quindi alla lunga c'azzeccano... :asd:

Questo forum era tra i primi a dare R600 come G80-Killer, peccato che però si basavano solo sulle specifiche su carta...: http://www.hwupgrade.it/forum/showthread.php?t=1306763

In effetti le specifiche di R600 sono mirabolanti, ma a posteriori io ci andrei molto cauto con fare stime di confronto basate solo sulle specifiche di R700...

A posteriori, è stato proprio G80 l'R600-killer! Figuriamoci G90... ;)

A.L.M.
27-06-2007, 16:21
eppure anche chi ne capisce qualcosa (tranne uno) era molto esaltato dalle prestazioni promesse dalle caratteristiche di R600, il tread, tutti e tre i tread sono lì ancora a dimostrarlo...allora cosa devo dedurre? :asd: ;)

Se ti riferisci a me, posso dirti questo:
- non sono un esperto di IT (non lavoro nel ramo nè ho studiato cose correlate), però mi interessa: quindi non sono tra chi ne capisce davvero.
- le caratteristiche di R600 non erano chiarissime fino alla fine (alcune cose si sono scoperte solo dopo la presentazione ufficiale, vedi AA via shaders).
- non appena ci sono state info più chiare, sono stato comunque tra i primi a dire che in DX9 non sarebbe mai andato come una GTX, se vuoi posso anche linkarti il post. ;)

Ovviamente c'è stato chi ha esagerato, sia da una parte che dall'altra.
Io credo che chiunque possa preferire un marchio piuttosto che un altro, quello che non digerisco è chi con supponenza (=senza provare minimamente quello che scrive) spara a zero sulle idee/ragionamenti altrui e/o infarcisce i post con faccine varie, tacciando poi gli altri di fanboyismo.
Prova ne sia il fatto che comunque i thread "aspettando" sono i più interessanti quando ci si limita ai pareri tecnici e certi elementi stanno alla larga. ;)

Scrambler77
27-06-2007, 16:24
piuttosto c'era pieno di espertoni di rops e rips che affermavano sulla carta una superiorità di R600 che poi non si è rivelata, tranne poi affrettarsi a dire che era più dx10 oriented eccetera eccetera...solo uno di questi non si è mai esaltato sin dall'inizio

Ma che centra... c'è la tessellescion...

P.S: ma chi è questo che non si è esaltato? :mbe:

appleroof
27-06-2007, 16:32
In effetti le specifiche di R600 sono mirabolanti, ma a posteriori io ci andrei molto cauto con fare stime di confronto basate solo sulle specifiche di R700...


esatto, il senso è proprio quello, non ci si può lamentare poi del fanboismo o di certi elementi se si viene su un tread dedicato alla prox gpu Nvidia con frasi "sta sotto" "sta quasi alla pari" senza sapere una beneamata su G92 ma sopratutto su R700 e inoltre avendo ben presente come và R600 (si vabbè poi con la tessescion nel 2010 spaccherà, ok)....

Se ti riferisci a me, posso dirti questo:
- non sono un esperto di IT (non lavoro nel ramo nè ho studiato cose correlate), però mi interessa: quindi non sono tra chi ne capisce davvero.
- le caratteristiche di R600 non erano chiarissime fino alla fine (alcune cose si sono scoperte solo dopo la presentazione ufficiale, vedi AA via shaders).
- non appena ci sono state info più chiare, sono stato comunque tra i primi a dire che in DX9 non sarebbe mai andato come una GTX, se vuoi posso anche linkarti il post. ;)

Ovviamente c'è stato chi ha esagerato, sia da una parte che dall'altra.
Io credo che chiunque possa preferire un marchio piuttosto che un altro, quello che non digerisco è chi con supponenza (=senza provare minimamente quello che scrive) spara a zero sulle idee/ragionamenti altrui e/o infarcisce i post con faccine varie, tacciando poi gli altri di fanboyismo.
Prova ne sia il fatto che comunque i thread "aspettando" sono i più interessanti quando ci si limita ai pareri tecnici e certi elementi stanno alla larga. ;)

E vabbè, elimineremo le faccine, inventate proprio per facilitare la comunicazione nei forum...

per il resto son d'accordo, ma allora evita sparate come quella che critico in questo stesso post, come dire che è meglio predicare bene ma poi razzolare altrettanto bene....;)

appleroof
27-06-2007, 16:34
Ma che centra... c'è la tessellescion...

:asd: :asd: :asd:

P.S: ma chi è questo che non si è esaltato? :mbe:

Mi sa che lavora all'Ati :D sembra una battuta e in parte lo è, ma mi pare proprio sia un dipendente Ati, fatto sta che non si è mai esaltato, appunto proprio perchè conosceva bene la vga, oppure se non lavora alla Ati ancora più merito, perchè pur dimostrando di padroneggiare la materia meglio di chiunque altro qui (ed infatti tutti si rivolgvano a lui, inclusi i mod) non si è mai sbilanciato ;)

Mister Tarpone
27-06-2007, 16:37
ho capito chi è...


Y.. ;)

appleroof
27-06-2007, 16:38
ho capito chi è...


Y.. ;)

Ah si ecco, mi hai fatto tornare alla mente il suo nick: yossaran ;)

A.L.M.
27-06-2007, 16:41
E vabbè, elimineremo le faccine, inventate proprio per facilitare la comunicazione nei forum...
Credo che tu sappia benissimo che i post di sole faccine spesso in certi thread sono solo attira-flame, visto che lo hanno fatto spesso notare pure i mod... :rolleyes:

per il resto son d'accordo, ma allora evita sparate come quella che critico in questo stesso post, come dire che è meglio predicare bene ma poi razzolare altrettanto bene....;)

Se rileggi attentamente il mio post c'era solo un'innocua considerazione, condita da considerazioni tecniche: i post flammosi sono ben altri, e mi pare che da me non ne siano mai partiti (in nessun thread).

Secondo me sarebbe meglio se G92 avesse 256 SP e basta, invece che 192+192MUL. Le garantirebbe una migliore capacità in termini di shader operations gestibili. In questo modo andrebbe più o meno alla pari con un ipotetico R700 con 128 shader units (ipotizzando clocks degli shaders molto elevati, 2.6GHz). Con 192 SP con l'attuale configurazione (che secondo molte fonti sarà la soluzione scelta) sarebbe parecchio sotto, anche con gli shader clocks citati.

Credo che solo chi ci voglia vedere una sparata la possa considerare come tale.
Comunque mi fermo qui, non vorrei essere incolpato di farvi andare OT.
Byez.

Scrambler77
27-06-2007, 16:43
Ah si ecco, mi hai fatto tornare alla mente il suo nick: yossaran ;)

Ah si l'ho sentito nominare ma non ho avuto il modo di leggerlo direttamente.
Anche io sapevo fosse impegnato in ATi ed i suoi toni fossero più cauti. D'altronde la stessa AMD affermò che R600 è concorrente di GTS e non della GTX. Ciò mi fa presagire che, nonostante la sua super-architettura, la stessa AMD non confida nei fantomatici drivers "maturi" di cui parlano per vedere "ribaltarsi" le prestazioni con la GTX...

Per non parlare poi della questione XP/Vista... ne ho lette di tutti i colori.

Cmq forse è meglio se torniamo IT.

Racer89
27-06-2007, 16:48
allora ci saranno ipoteticamente g91, g92, g93 e g97?

Portocala
27-06-2007, 16:50
yossarian
http://www.hwupgrade.it/forum/member.php?u=12303


allora ci saranno ipoteticamente g91, g92, g93 e g97?
e chi lo sa? :boh:
va bene sapere che ci sarà la 89xx :asd:

Scrambler77
27-06-2007, 16:53
Con 192 SP con l'attuale configurazione (che secondo molte fonti sarà la soluzione scelta) sarebbe parecchio sotto, anche con gli shader clocks citati.

Se rileggi attentamente il mio post c'era solo un'innocua considerazione, condita da considerazioni tecniche: i post flammosi sono ben altri, e mi pare che da me non ne siano mai partiti (in nessun thread).


Sulla base della tua matematica tra l'altro per ora smentita dai fatti di R600, non capisco come possa valutarla una tua "innocua considerazione"...

Cmq vabbè questione chiusa.

appleroof
27-06-2007, 16:54
Ah si l'ho sentito nominare ma non ho avuto il modo di leggerlo direttamente.
Anche io sapevo fosse impegnato in ATi ed i suoi toni fossero più cauti. D'altronde la stessa AMD affermò che R600 è concorrente di GTS e non della GTX. Ciò mi fa presagire che, nonostante la sua super-architettura, la stessa AMD non confida nei fantomatici drivers "maturi" di cui parlano per vedere "ribaltarsi" le prestazioni con la GTX...

Per non parlare poi della questione XP/Vista... ne ho lette di tutti i colori.

Cmq forse è meglio se torniamo IT.

si forse stiamo esagerando con l'Ot, l'unica cosa che aggiungo a quello che dici è che anche se future release di driver dovessero far venire fuori le presunte vere capacità della scheda, secondo me saremo così in là che cmq la scheda sarà deficitaria sotto altri punti di vista, così come la gtx, la quale però ce la siamo goduta (e ce la saremo fino a quel momento) molto di più. La 2900xt è obiettivamente un mezzo flop per questi motivi ed altri, perchè allo stesso prezzo prendo una gts (non parliamo della 320 se si gioca a 1280x1024) tanto quando ci saranno le dx10.1 tasseletion e company ci saranno G92 R700 e derivate. Infatti prendendo le nvidia prendo schede che consumano e rumoreggiano molto meno, e hai voglia a dire che sono aspetti irrlevanti, quelli, quando avevo la 5700ultra pur essendo soddisfatto delle prestazioni riconosco che mi faceva impazzire il rumore della ventola, ad esempio ;)

appleroof
27-06-2007, 16:55
Sulla base della tua matematica tra l'altro per ora smentita dai fatti di R600, non capisco come possa valutarla una tua "innocua considerazione"...

Cmq vabbè questione chiusa.

esatto.

Questione chiusa.

Portocala
27-06-2007, 17:04
leggendo l'ultima recensione spesso e volentieri ho visto giochi girare tranquillamente a 1600x1000 cosi come a 1920x1200 con una 8800GTS 320. Certo non tutti :asd:

sicuramente i giochi dx10 cambieranno le carte in tavola ma è proprio li che entra la G92: a rendere fluidi codesti giochi.

o almeno mi aspetto sia cosi

Scrambler77
27-06-2007, 17:10
leggendo l'ultima recensione spesso e volentieri ho visto giochi girare tranquillamente a 1600x1000 cosi come a 1920x1200 con una 8800GTS 320. Certo non tutti :asd:

sicuramente i giochi dx10 cambieranno le carte in tavola ma è proprio li che entra la G92: a rendere fluidi codesti giochi.

o almeno mi aspetto sia cosi

Facciamo così: tu mi presenti la tipa del tuo avatar ed io ti prometto che G92 renderà fluidi tutti titoli DX10 del 2008! Che ne dici?? :ciapet:

Marko#88
27-06-2007, 17:49
se le prestazioni fossero veramente una roba del genere saremmo davanti ad un mostro...mi son perso una cosa però...G92 è previsto per?

appleroof
27-06-2007, 17:50
se le prestazioni fossero veramente una roba del genere saremmo davanti ad un mostro...mi son perso una cosa però...G92 è previsto per?

quel rumor parla di novembre prossimo.....

Portocala
27-06-2007, 17:54
1 anno dopo le 8800

Marko#88
27-06-2007, 18:08
quel rumor parla di novembre prossimo.....

ok, da domani comincio a mettere da parte gli euri mi sa...:D

appleroof
27-06-2007, 18:10
ok, da domani comincio a mettere da parte gli euri mi sa...:D

io è da mò che ho cominciato...:asd: :asd:

;)

Racer89
27-06-2007, 18:44
io è da mò che ho cominciato...:asd: :asd:

;)
tu cambi la tua 8800gtx?

JoeLatino
27-06-2007, 18:46
io è da mò che ho cominciato...:asd: :asd:

;)

io pure;)

appleroof
27-06-2007, 18:52
tu cambi la tua 8800gtx?

Non lo so...ovviamente se si comporta bene con Crysis & co. come credo e spero, non penso che prenderò al lancio G92, credo più che prenderò cpu/mobo/ram nuove e lascerò la gtx e il resto, intanto i soldi li metto da parte lo stesso....vedremo ;)

io pure;)

;)

TecnoWorld8
27-06-2007, 19:04
Sono uno di quelli che sperava molto in R600 (pensavo sarebbe stata la mia prossima scheda) e invece è stato profondamente deluso dalle sue prestazioni, nonostante il prezzo "invitante". Dunque ora aspetto con ansia G92 e penso davvero che nVidia non deluderà, dato che dal punto di vista finanziario è molto più solida di ATi e pare essere l'unica azienda ormai a volersi concentrare su GPU di fascia "altissima".

Quindi...spero esca prima possibile e mantenga le promesse.

appleroof
27-06-2007, 19:09
Sono uno di quelli che sperava molto in R600 (pensavo sarebbe stata la mia prossima scheda) e invece è stato profondamente deluso dalle sue prestazioni, nonostante il prezzo "invitante". Dunque ora aspetto con ansia G92 e penso davvero che nVidia non deluderà, dato che dal punto di vista finanziario è molto più solida di ATi e pare essere l'unica azienda ormai a volersi concentrare su GPU di fascia "altissima".

Quindi...spero esca prima possibile e mantenga le promesse.

Bè con la tua scheda ti conviene aspettare, a questo punto, a meno che tu non ti faccia tentare troppo da Crysis in dx10 sin da subito (pare esca il 14 settembre) ma anche in quel caso, se G92 uscisse davvero sotto Natale, dovresti "resistere" per poco tempo...;)

TecnoWorld8
27-06-2007, 19:17
Bè con la tua scheda ti conviene aspettare, a questo punto, a meno che tu non ti faccia tentare troppo da Crysis in dx10 sin da subito (pare esca il 14 settembre) ma anche in quel caso, se G92 uscisse davvero sotto Natale, dovresti "resistere" per poco tempo...;)

sì, è quello che penso...non avrebbe davvero senso, a metà settembre, acquistare una 8800gtx sapendo che dopo meno di due mesi ci sarà una nuova GPU, a meno che non rimandino G92 e che la gtx scenda sui 300€ o meno per quella data (cosa che vedo difficile...non essendoci praticamente concorrenza)

appleroof
27-06-2007, 19:25
sì, è quello che penso...non avrebbe davvero senso, a metà settembre, acquistare una 8800gtx sapendo che dopo meno di due mesi ci sarà una nuova GPU, a meno che non rimandino G92 e che la gtx scenda sui 300€ o meno per quella data (cosa che vedo difficile...non essendoci praticamente concorrenza)

L'unica alternativa potrebbe essere prendere adesso una 8800gts 320 sui 250 euro e "tirarci", si fà per dire, fino all'anno prox oppure rivenderla appena esce G92 per sborsare meno liquidi subito....

JoeLatino
27-06-2007, 19:33
sì, è quello che penso...non avrebbe davvero senso, a metà settembre, acquistare una 8800gtx sapendo che dopo meno di due mesi ci sarà una nuova GPU, a meno che non rimandino G92 e che la gtx scenda sui 300€ o meno per quella data (cosa che vedo difficile...non essendoci praticamente concorrenza)

pero' oggi in un listino ho gia' visto una Zotac GeForce 8800GTX - 768MB
a 489e iva inclusa!!!;) non mi sembra affatto male come prezzo,o no??
Inoltre c'era anche una Zotac GeForce 8800GTS - 640MB a 349e...

TecnoWorld8
27-06-2007, 19:35
L'unica alternativa potrebbe essere prendere adesso una 8800gts 320 sui 250 euro e "tirarci", si fà per dire, fino all'anno prox oppure rivenderla appena esce G92 per sborsare meno liquidi subito....

il problema è che con una GTS 320MB, dato lo schermo che ho (risoluzione 1680x1050) avrei la sicurezza praticamente matematica di non farci girare al massimo i giochi nemmeno per 6 mesi...per quello speravo in R600, che potrebbe essere ancora una buona alternativa se la trovassi a meno di 300€ a settembre, nel caso dalle recensioni che usciranno in quell'epoca si comporti particolarmente bene con crysis...

Mister Tarpone
27-06-2007, 19:37
il problema è che con una GTS 320MB, dato lo schermo che ho (risoluzione 1680x1050) avrei la sicurezza praticamente matematica di non farci girare al massimo i giochi nemmeno per 6 mesi...per quello speravo in R600, che potrebbe essere ancora una buona alternativa se la trovassi a meno di 300€ a settembre, nel caso dalle recensioni che usciranno in quell'epoca si comporti particolarmente bene con crysis...

a settembre per ben meno di 300€ potrai trovare anche la gts 640mb .
...già si parla di prezzi abbassati per luglio.

appleroof
27-06-2007, 19:42
a settembre per ben meno di 300€ potrai trovare anche la gts 640mb .
...già si parla di prezzi abbassati per luglio.

anche questo è vero ;)

il problema è che con una GTS 320MB, dato lo schermo che ho (risoluzione 1680x1050) avrei la sicurezza praticamente matematica di non farci girare al massimo i giochi nemmeno per 6 mesi...per quello speravo in R600, che potrebbe essere ancora una buona alternativa se la trovassi a meno di 300€ a settembre, nel caso dalle recensioni che usciranno in quell'epoca si comporti particolarmente bene con crysis...

cmq una 8800gts 320 non credo faccia pietà a 1680x1050 (meno di 1600x1200) al limite c'è sempre il rapporto prospettico fisso e tutti i problemi sono belli che risolti :)

cmq ovviamente tu sai quello che vuoi, in realtà non hai tutti i torti a voler aspettare direttamente la G92, diciamo che le alternative che ti proponiamo sono cmq valide, credo, come soluzione diciamo così "di passaggio" ;)

TecnoWorld8
27-06-2007, 19:43
a settembre per ben meno di 300€ potrai trovare anche la gts 640mb .
...già si parla di prezzi abbassati per luglio.

diciamo che allora ci sarà da valutare il panorama. ripeto, se GTX fosse sui 300€, potrebbe valer la pena, altrimenti, con la nuova G92 all'orizzonte, farò lo spesone, ma avrò un top che sicuramente durerà parecchio...

JoeLatino
27-06-2007, 19:47
diciamo che allora ci sarà da valutare il panorama. ripeto, se GTX fosse sui 300€, potrebbe valer la pena, altrimenti, con la nuova G92 all'orizzonte, farò lo spesone, ma avrò un top che sicuramente durerà parecchio...

ehm la gtx sui 300e mi sembra moolto improbabile....semmai la gts da 640mb!
la gtx se arrivera' sui 400e scarsi sarebbe gia' un buon prezzo:D

appleroof
27-06-2007, 20:20
ehm la gtx sui 300e mi sembra moolto improbabile....semmai la gts da 640mb!
la gtx se arrivera' sui 400e scarsi sarebbe gia' un buon prezzo:D

magari usata ;)

TecnoWorld8
27-06-2007, 20:37
ehm la gtx sui 300e mi sembra moolto improbabile....semmai la gts da 640mb!
la gtx se arrivera' sui 400e scarsi sarebbe gia' un buon prezzo:D

dipende dalla politica che intende tenere nVidia; prendiamo intel...il Core 2 Duo stravince contro qualunque AMD eppure continua a ribassarne il prezzo x uccidere definitivamente il competitor.

se nVidia portasse la GTX a 300/330€ per settembre, penso che NESSUNO comprerebbe più la 2900XT...

poi ripeto, dipende anche da quando uscirà G92.

pierluigi86
27-06-2007, 21:19
dipende dalla politica che intende tenere nVidia; prendiamo intel...il Core 2 Duo stravince contro qualunque AMD eppure continua a ribassarne il prezzo x uccidere definitivamente il competitor.

se nVidia portasse la GTX a 300/330€ per settembre, penso che NESSUNO comprerebbe più la 2900XT...

poi ripeto, dipende anche da quando uscirà G92.

le comprerebbe tutte amd e le rivenderebbe con il suo marchio r600 a prezzo maggiorato:D :D :D :D :D

TecnoWorld8
27-06-2007, 21:30
le comprerebbe tutte amd e le rivenderebbe con il suo marchio r600 a prezzo maggiorato:D :D :D :D :D

haha, forte questa :)

Kharonte85
27-06-2007, 21:46
le comprerebbe tutte amd e le rivenderebbe con il suo marchio r600 a prezzo maggiorato:D :D :D :D :D
:rotfl: :rotfl: :rotfl:

Non credo proprio che vedremo ribassi cosi'...i modelli di punta di nvidia (gtx) non si svalutano quasi mai piu' di un tot...era successo lo stesso per la 7800gtx

Racer89
27-06-2007, 22:06
:rotfl: :rotfl: :rotfl:

Non credo proprio che vedremo ribassi cosi'...i modelli di punta di nvidia (gtx) non si svalutano quasi mai piu' di un tot...era successo lo stesso per la 7800gtx
quello che avevo pensato anke... al massimo uscirà un medello della fascia medio-alta a 300 euro con le prestazioni della 880gtx

JoeLatino
28-06-2007, 10:26
quello che avevo pensato anke... al massimo uscirà un medello della fascia medio-alta a 300 euro con le prestazioni della 880gtx

sono d'accordo con te...
penso che probabilmente entro settembre vedremo una versione rivista del g80 a pari prezzo ma con prestazioni migliori e magari un'altra scheda simile ma con prezzi e prestazioni inferiori ma sempre migliori delle 8800gts;)

Mister Tarpone
28-06-2007, 10:30
sono d'accordo con te...
penso che probabilmente entro settembre vedremo una versione rivista del g80 a pari prezzo ma con prestazioni migliori e magari un'altra scheda simile ma con prezzi e prestazioni inferiori ma sempre migliori delle 8800gts;)

a settembre imho non ci saranno nuove schede... però probabilmente vedremo la gts 320 @ 200/220€

JoeLatino
28-06-2007, 10:37
a settembre imho non ci saranno nuove schede... però probabilmente vedremo la gts 320 @ 200/220€

non ne sarei tanto sicuro....
ci sono dei rumors sulla fascia medio bassa a 65 e potrebbe benissimo esserci inclusa anche una di fascia superiore:D

Mister Tarpone
28-06-2007, 10:40
non ne sarei tanto sicuro....
ci sono dei rumors sulla fascia medio bassa a 65 e potrebbe benissimo esserci inclusa anche una di fascia superiore:D

mmhhh.. con le g9x per natale ..mi sembra strano che nvidia si sbatta nel fare un nuovo modello di g8x

ma mi posso anche sbagliare :boh:

halduemilauno
28-06-2007, 10:57
mmhhh.. con le g9x per natale ..mi sembra strano che nvidia si sbatta nel fare un nuovo modello di g8x

ma mi posso anche sbagliare :boh:

la 8900gtx è gia bella che pronta nel cassetto da aprile. poi si è preferito lanciare la 8800ultra. probabilmente può correre il rischio di non venire mai commercializzata.
;)

Scrambler77
28-06-2007, 11:36
la 8900gtx è gia bella che pronta nel cassetto da aprile. poi si è preferito lanciare la 8800ultra. probabilmente può correre il rischio di non venire mai commercializzata.
;)

Penso che dipenda tutto da ATI... no? In ogni caso la cosa non mi dispiace più di tanto: spero che sviluppino titoli un tantino più ottimizzati sulle architetture attuali.

JoeLatino
28-06-2007, 11:36
la 8900gtx è gia bella che pronta nel cassetto da aprile. poi si è preferito lanciare la 8800ultra. probabilmente può correre il rischio di non venire mai commercializzata.
;)

gia'....;)
il refresh e' pronto da un pezzo, Nvidia non le ha messe subito in commercio solo perche' AMD ha toppato; ora pero' le puo' benissimo far uscire tra agosto e settembre, anche perche' magari la g92 potrebbe subire qualche ritardo per essere meglio ottimizzata;)
sara' una mia impressione ma forse gia' alla fine di luglio potremo avere qualche sorpresa!
Ps All'estero in questo periodo c'e' qualche fiera tecnologica importante in programmazione??

halduemilauno
28-06-2007, 11:47
Penso che dipenda tutto da ATI... no? In ogni caso la cosa non mi dispiace più di tanto: spero che sviluppino titoli un tantino più ottimizzati sulle architetture attuali.



gia'....;)
il refresh e' pronto da un pezzo, Nvidia non le ha messe subito in commercio solo perche' AMD ha toppato; ora pero' le puo' benissimo far uscire tra agosto e settembre, anche perche' magari la g92 potrebbe subire qualche ritardo per essere meglio ottimizzata;)
sara' una mia impressione ma forse gia' alla fine di luglio potremo avere qualche sorpresa!
Ps All'estero in questo periodo c'e' qualche fiera tecnologica importante in programmazione??

non si può rilanciare su una propria puntata. nei limiti del possibile(novembre)si aspetta. certo se amd si facesse viva prima...tocca vedere se e come.
;)

Mister Tarpone
28-06-2007, 11:50
non si può rilanciare su una propria puntata. nei limiti del possibile(novembre)si aspetta. certo se amd si facesse viva prima...tocca vedere se e come.
;)

sinceramente ho dei dubbi.. e con cosa poi?? :boh:
imho ati presenterà qualche novità solo dopo natale..

poi cme sempre... felice di sbagliarmi...

halduemilauno
28-06-2007, 11:54
sinceramente ho dei dubbi.. e con cosa poi?? :boh:
imho ati presenterà qualche novità solo dopo natale..

poi cme sempre... felice di sbagliarmi...

in tutti i casi nvidia presenterà qualcosa entro novembre. con cosa son cose che non si possono dire.
;)

Racer89
28-06-2007, 12:11
nvidia ha già pronto la 8900 da aprile? :eek:
senza concorrenza non si va avanti :muro: . immaginate se ati avesse presentato anke lei altre schede già da settembre dell'anno scorso... x natale sarebbero state presentate schede di 2 generazioni avanti alla 8800 :muro:

JoeLatino
28-06-2007, 12:25
pensate che originariamente Nvidia doveva commercializzare la G92 a ottobre ed il refresh della g80 a fine aprile/inizio maggio!

nico88desmo
28-06-2007, 12:35
pensate che originariamente Nvidia doveva commercializzare la G92 a ottobre ed il refresh della g80 a fine aprile/inizio maggio!

Secondo me è meglio che nVidia non rilasci nuovi prodotti, così gli sviluppatori si concentrano su quello che c'è ora in commercio...soprattutto sulle DX10.

Noto una cosa comunque, prima ci si lamentava che una scheda video durasse pochi mesi, ora che la 8800 è da un bel pò che è in commercio ci si lamenta che non ci sono evoluzioni. Non vi va mai bene niente eh! :D

joy69
28-06-2007, 12:44
bella scheda video...ma ora che escono giochi sviluppati in dx10 nativamente ne passa un po di tempo!

TecnoWorld8
28-06-2007, 12:48
non si può rilanciare su una propria puntata. nei limiti del possibile(novembre)si aspetta. certo se amd si facesse viva prima...tocca vedere se e come.
;)

l'unica nuova scheda che ATi potrebbe presentare per contrastare la GTX, potrebbe essere la dual RV670 di cui si era parlato tempo fa. Essendo questa GPU a 65nm, potrebbe essere clockata ben più di R600 e - nonostante sia ben inferiore come specifiche tecniche - potrebbe complessivamente andare di più in virtù appunto della maggior frequenza e chiaramente del fatto di essere bi-processore (crossfire su singola scheda).

Se uscisse tale scheda per settembre-ottobre e se fosse competitiva come prezzo e prestazioni (superasse anche di poco la GTX) credo che nVidia si sentirebbe in dovere di riproporre il divario enorme che ci fu quando uscù la GTX, mettendo sul mercato la nuova architettura.

Non ci resta che sperare in ATi, per pungolare nVidia...ormai più di quello, da ATi non mi aspetto :(

Kharonte85
28-06-2007, 15:12
Nvidia wins this year, 2007

Written by Fuad Abazovic
Thursday, 28 June 2007


Flags down for DAAMIT

It is only middle of this year but Nvidia can claim absolute victory over ATI. It is currently beating ATI in availability of wide range of DirectX 10 products including mainstream and low end and as a absolute performance leader.


G80 aka Geforce 8800 GTX and Ultra are faster than Radeon HD 2900XT and the 8600 GTS/GT wins over HD 2600 and 8500 GT and 8400GS are faster than HD 2400 variations.

To make the situation even better for Nvidia, ATI doesn’t have any miraculous R600 chip shrinked to 65 or 55 nanometre and it wont be launching any big chips this year.

ATI continues 2007 while Nvidia plans to introduce G8M new 65 nanometre chip in Septemberish time and probably even G92 or however it ends up calling its 65 nanometre high end part.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=1676&Itemid=34

appleroof
28-06-2007, 15:41
cut

ATI continues 2007 while Nvidia plans to introduce G8M new 65 nanometre chip in Septemberish time and probably even G92 or however it ends up calling its 65 nanometre high end part.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=1676&Itemid=34

non lo so...in pratica si sostiene che Nvidia in assenza di risposte da parte di Ati potrebbe "accontentarsi" di un die-shrink di G80 a 65nm (in abbinamento a ddr4 non oso immaginare le frequenze e quindi le prestazioni :eek: :eek: ) e rimandare ancora G92? In effetti, come già sostenuto a ragione qui, Nvidia non avrebbe motivo di rilanciare su se stessa con una vga totalmente nuova, il "semplice" refresh di G80 a 65nm sarebbe molto sensato in questo scenario....

Racer89
28-06-2007, 15:42
non lo so...in pratica si sostiene che Nvidia in assenza di risposte da parte di Ati potrebbe "accontentarsi" di un die-shrink di G80 a 65nm (in abbinamento a ddr4 non oso immaginare le frequenze e quindi le prestazioni :eek: :eek: ) e rimandare ancora G92? In effetti, come già sostenuto a ragione qui, Nvidia non avrebbe motivo di rilanciare su se stessa con una vga totalmente nuova, il refresh a 65nm sarebbe molto sensato in questo scenario....
basta che fa qualcosa :O

Kharonte85
28-06-2007, 15:46
non lo so...in pratica si sostiene che Nvidia in assenza di risposte da parte di Ati potrebbe "accontentarsi" di un die-shrink di G80 a 65nm (in abbinamento a ddr4 non oso immaginare le frequenze e quindi le prestazioni :eek: :eek: ) e rimandare ancora G92? In effetti, come già sostenuto a ragione qui, Nvidia non avrebbe motivo di rilanciare su se stessa con una vga totalmente nuova, il "semplice" refresh di G80 a 65nm sarebbe molto sensato in questo scenario....
Imho dipende anche da come si comporteranno le schede attuali coi giochi in dx10...

TecnoWorld8
28-06-2007, 15:47
purtroppo è quanto accade in assenza di concorrenza :( ricordo con terrore i tempi in cui una CPU Intel 486 costava dei milioni di lire e durava 3 anni al top di gamma e a quel prezzo, per poi magari vedere un aumento di frequenza :( solo grazie all'arrivo di AMD e cyrix l'evoluzione tecnica è stata quella che è stata.

allo stesso modo, se non ci fossero state 3dfx, nvidia, ati, matrox a competere, ora magari avremmo una potenza di calcolo pari ad un decimo di quello che abbiamo, ad un costo sicuramente superiore.

speriamo non accadano cose del genere...

halduemilauno
28-06-2007, 15:58
non lo so...in pratica si sostiene che Nvidia in assenza di risposte da parte di Ati potrebbe "accontentarsi" di un die-shrink di G80 a 65nm (in abbinamento a ddr4 non oso immaginare le frequenze e quindi le prestazioni :eek: :eek: ) e rimandare ancora G92? In effetti, come già sostenuto a ragione qui, Nvidia non avrebbe motivo di rilanciare su se stessa con una vga totalmente nuova, il "semplice" refresh di G80 a 65nm sarebbe molto sensato in questo scenario....

azz. la famigerata 8900gtx.
;)

appleroof
28-06-2007, 16:01
Imho dipende anche da come si comporteranno le schede attuali coi giochi in dx10...

anche.....

purtroppo è quanto accade in assenza di concorrenza :( ricordo con terrore i tempi in cui una CPU Intel 486 costava dei milioni di lire e durava 3 anni al top di gamma e a quel prezzo, per poi magari vedere un aumento di frequenza :( solo grazie all'arrivo di AMD e cyrix l'evoluzione tecnica è stata quella che è stata.

allo stesso modo, se non ci fossero state 3dfx, nvidia, ati, matrox a competere, ora magari avremmo una potenza di calcolo pari ad un decimo di quello che abbiamo, ad un costo sicuramente superiore.

speriamo non accadano cose del genere...

sono d'accordo, in generale e anche al di là dei pc

Mister Tarpone
28-06-2007, 16:02
ok mi ero sbagliato :asd: quindi forse niente g92 e via con le 8900 :winner:

appleroof
28-06-2007, 16:03
azz. la famigerata 8900gtx.
;)

il jolly :D

poi se Ati si degna di cacciare una scheda migliore della 2900xt ecco spuntare G92....il ragionamento non fà una piega ;)

TecnoWorld8
28-06-2007, 16:04
ok mi ero sbagliato :asd: quindi forse niente g92 e via con le 8900 :winner:

che poi una G80 a circa 850Mhz e magari con consumi inferiori, mica sarebbe da ridere, eh! credo potrebbe tranquillamente andare circa 30-35% più veloce della Ultra di ora...

Mister Tarpone
28-06-2007, 16:05
che poi una G80 a circa 850Mhz e magari con consumi inferiori, mica sarebbe da ridere, eh! credo potrebbe tranquillamente andare circa 30-35% più veloce della Ultra di ora...

sicuramente ;)

mah.. vediamo che succede..

halduemilauno
28-06-2007, 16:08
che poi una G80 a circa 850Mhz e magari con consumi inferiori, mica sarebbe da ridere, eh! credo potrebbe tranquillamente andare circa 30-35% più veloce della Ultra di ora...

diciamo che le cose non stanno cosi. e che se lo sarebbero sarebbe molto di +. con 850 lo shader clock sarebbe sopra i 2000.
;)

appleroof
28-06-2007, 16:15
che poi una G80 a circa 850Mhz e magari con consumi inferiori, mica sarebbe da ridere, eh! credo potrebbe tranquillamente andare circa 30-35% più veloce della Ultra di ora...

no aspetta, 850mhz annullerebbero i consumi inferiori, è normale...

TecnoWorld8
28-06-2007, 16:18
no aspetta, 850mhz annullerebbero i consumi inferiori, è normale...

dipende dalla bontà del processo produttivo...cmq anche a parità di consumi, sarebbe un bel mostriciattolo. ovviamente, preferirei un'architettura nuova, ma se non c'è concorrenza sarebbe già tanto vedere una 8900...

appleroof
28-06-2007, 16:24
dipende dalla bontà del processo produttivo...cmq anche a parità di consumi, sarebbe un bel mostriciattolo. ovviamente, preferirei un'architettura nuova, ma se non c'è concorrenza sarebbe già tanto vedere una 8900...

si, senza contare che se uscisse quella le altre dovrebbero (condizionale d'obbligo, visto che non è sempre così) scendere di prezzo...;)

TecnoWorld8
28-06-2007, 18:31
questo è già stato postato?

We heard about an upcoming GPU from NVIDIA on 256-bit memory interface earlier this month and we thought it is the rumored 256-bit version of G84. Now we learned that it is actually the next generation G92, a 65nm performance part supporting PCI Express 2.0 and 256-bit memory interface. G92 performance lies between GeForce 8800 GTS and 8600 GTS so it is not the highest end GPU from the G9x series yet. There might be a G90 which we haven't heard about yet and NVIDIA gave clues that their next generation GPU will deliver close to 1 TFlops of performance in a recent analyst conference. G9x could support Double Precision FP too. Sampling will start in September and slated for launch in November timeframe.

fonte: http://www.vr-zone.com/index.php?i=5092

TecnoWorld8
28-06-2007, 18:32
per i non anglofoni, si dice in pratica che G92 non sarebbe la futura top di gamma, bensì addirittura una GPU inferiore all'attuale 8800GTS. Per la top di gamma, dunque si dovrebbe parlare di G90!

Kharonte85
28-06-2007, 18:34
per i non anglofoni, si dice in pratica che G92 non sarebbe la futura top di gamma, bensì addirittura una GPU inferiore all'attuale 8800GTS. Per la top di gamma, dunque si dovrebbe parlare di G90!
Cosi' si ritornerebbe alla logica normale...chi lo sa se nvidia ci fara' davvero (finalmente!) il regalo di una vera fascia media...:)

Mister Tarpone
28-06-2007, 18:35
questo è già stato postato?

We heard about an upcoming GPU from NVIDIA on 256-bit memory interface earlier this month and we thought it is the rumored 256-bit version of G84. Now we learned that it is actually the next generation G92, a 65nm performance part supporting PCI Express 2.0 and 256-bit memory interface. G92 performance lies between GeForce 8800 GTS and 8600 GTS so it is not the highest end GPU from the G9x series yet. There might be a G90 which we haven't heard about yet and NVIDIA gave clues that their next generation GPU will deliver close to 1 TFlops of performance in a recent analyst conference. G9x could support Double Precision FP too. Sampling will start in September and slated for launch in November timeframe.

fonte: http://www.vr-zone.com/index.php?i=5092

quindi la g92 a 256bit starebbe nel mezzo tra 8800 e 8600gts, come prestazioni.
Sinceramente io mi aspetto una 256bit che vada uguale alla 8800gts.

Uriziel
28-06-2007, 18:38
per i non anglofoni, si dice in pratica che G92 non sarebbe la futura top di gamma, bensì addirittura una GPU inferiore all'attuale 8800GTS. Per la top di gamma, dunque si dovrebbe parlare di G90!

questo ti fa capire quanto conta il pciexpress 2.0...se non serve ad una 8800gtx figurati ad una scheda inferiore...classico esempio di marketing.

TecnoWorld8
28-06-2007, 18:39
quindi la g92 a 256bit starebbe nel mezzo tra 8800 e 8600gts, come prestazioni.
Sinceramente io mi aspetto una 256bit che vada quasi uguale alla 8800gts.

è quello che ho pensato anch'io leggendo la notizia. più clockata come GPU grazie al nuovo processo produttivo, più castrata come banda di memoria.

non è chiaro se l'ultima riga (sulla data di presentazione) si riferisce alla sola G92 o all'intera linea G9x, ivi inclusa una top di gamma...

-Feanor-
28-06-2007, 18:42
qui in italiano http://www.dinoxpc.com/News/news.asp?ID_News=12776&What=News ....g92 pare essere un prodotto mid-range...;)

Mister Tarpone
28-06-2007, 18:46
Con G92 nVidia vuole colmare la fascia che va dai 200€ ai 300€ quindi le performance di questa nuova GPU si collocheranno tra quelle della 8600GTS e la 8800GTS.

veramente in quella fascia ci sarebbe già la gts 320mb che adesso costa 250€ :asd:
la g92 quanto costerà?? che poi se esce a novembre una 320 te la tireranno dietro... e questa dice andrà pure meno..
non mi torna. per niente.

appleroof
28-06-2007, 18:49
Cosi' si ritornerebbe alla logica normale...

in effetti...

Con G92 nVidia vuole colmare la fascia che va dai 200€ ai 300€ quindi le performance di questa nuova GPU si collocheranno tra quelle della 8600GTS e la 8800GTS.

veramente in quella fascia ci sarebbe già la gts 320mb che adesso costa 250€ :asd:
la g92 quanto costerà?? che poi se esce a novembre una 320 te la tireranno dietro... e questa dice andrà pure meno..
non mi torna. per niente.

:asd: :asd:

halduemilauno
28-06-2007, 19:04
quindi la g92 a 256bit starebbe nel mezzo tra 8800 e 8600gts, come prestazioni.
Sinceramente io mi aspetto una 256bit che vada uguale alla 8800gts.

è quella che noi adesso chiameremmo 8800gt o gs.
;)

Marko#88
28-06-2007, 19:05
in effetti ha senso...G70, G80, G90 per i top di gamma...e GX1 per le revisioni...

Mister Tarpone
28-06-2007, 19:22
è quella che noi adesso chiameremmo 8800gt o gs.
;)

se è una scheda con prestazioni inferiori alla 8800gts, che esca subito ;) ma non a novembre.
Per quel mese, gradirei una 256bit mostruosa ;)