PDA

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 [68] 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

aaasssdddfffggg
18-01-2010, 17:44
Ah ho capito Yoss. Ho fatto questa domanda pechè da quanto detto fin'ora mi pareva di aver capito che se un certo numero (cmq sempre parecchio alto) di shader units sono occupate a tessellare, le altre si occupano di svolgere altri compiti, dimezzando così le prestazioni reali.

Cmq come detto dal buon Nemesi vedremo a Marzo (sperando che tutto vada bene) ;)

Per ATI va bene.Bisogna vedere per NVIDIA se va bene o no...:p

Rsdj
18-01-2010, 17:45
Per ATI va bene.Bisogna vedere per NVIDIA se va bene o no...:p

E' proprio questo infatti che intendevo dire, e che ci chiediamo un po' tutti qui dentro :D :D

Kharonte85
18-01-2010, 17:52
non è tanto importante quanto ci sia da "tessellare" quanto piuttosto quante e quali altre operazioni ci siano da fare in simultanea. Se, ad esempio, volendo estremizzare, parliamo di un wireframe, è molto probabile che la soluziozne di NVIDIA sia molto più performante di quella di ATi.
Comunque per sapere sul campo bisognerà aspettare, per il momento sono contento che ci sia il "perverso polimorfo" a fare la tessitura :oink: su gf100

yossarian
18-01-2010, 17:52
Ah ho capito Yoss. Ho fatto questa domanda pechè da quanto detto fin'ora mi pareva di aver capito che se un certo numero (cmq sempre parecchio alto) di shader units sono occupate a tessellare, le altre si occupano di svolgere altri compiti, dimezzando così le prestazioni reali.

Cmq come detto dal buon Nemesi vedremo a Marzo (sperando che tutto vada bene) ;)

un'alu, qualunque essa sia, può eseguire non più di una istruzione per ciclo. Questo significa che, ovviamente, se si sta occupando di fare tessellation non potrà fare vertex o pixel shading, ad esempio. Ovviamente questo sia in negativo che in positivo

PConly92
18-01-2010, 17:56
E' proprio questo infatti che intendevo dire, e che ci chiediamo un po' tutti qui dentro :D :D

ma io rimango sempre con un dubbio...
se fermi va cosi forte come dicono loro(qui aspetto bench in game veri, e non da nvidia) perché non hanno rilasciato qualcosa per bloccare le vendite di hd5xxx???
un motivo ci dovrebbe pur essere, di sicuro lo scopriremmo ad aprile-marzo...
ma voi cosa ne pensate?
ps. http://www.tomshw.it/cont/news/forse-una-ati-radeon-hd-5890-contro-nvidia-fermi/23598/1.html ;)

Rsdj
18-01-2010, 17:57
un'alu, qualunque essa sia, può eseguire non più di una istruzione per ciclo. Questo significa che, ovviamente, se si sta occupando di fare tessellation non potrà fare vertex o pixel shading, ad esempio. Ovviamente questo sia in negativo che in positivo

Ho capito, quindi ciò potrebbe anche portare a prestazioni molto altalenanti.


p.s: Stefano non è che alla fine ti ritroverò sotto casa che mi aspetti pretendendo un assegno da 1000 euro per tutte le delucidazioni e spiegazioni che mi dato?? :D :D

Kharonte85
18-01-2010, 18:03
u

Qualche tempo fa cercavo una risposta da te che poi si è persa nel thread perchè non sei più passato:

http://www.hwupgrade.it/forum/showpost.php?p=30473224&postcount=16963

Secondo te la struttura vista oggi di GF100 potrebbe facilitare uno sviluppo di soluzioni derivate per la fascia media?

yossarian
18-01-2010, 18:08
Qualche tempo fa cercavo una risposta da te che poi si è persa nel thread perchè non sei più passato:

http://www.hwupgrade.it/forum/showpost.php?p=30473224&postcount=16963

Secondo te la struttura vista oggi di GF100 potrebbe facilitare uno sviluppo di soluzioni derivate per la fascia media?

potrebbe; resta il problema del dispatch processor principale che è e resta molto complesso e non è possibile "ridurre"; però questa architettura è molto più modulabile di quella di GT200. Come ATi ha realizzato una sorta di "quasi dual" con RV870, nVIDIA, dentro fermi ha messo 4 G80 con tessellator dedicato :D

(si tratta di brutali schematizzazioni ma servono a rendere l'idea)

Kharonte85
18-01-2010, 18:22
potrebbe; resta il problema del dispatch processor principale che è e resta molto complesso e non è possibile "ridurre"; però questa architettura è molto più modulabile di quella di GT200. Come ATi ha realizzato una sorta di "quasi dual" con RV870, nVIDIA, dentro fermi ha messo 4 G80 con tessellator dedicato :D

(si tratta di brutali schematizzazioni ma servono a rendere l'idea)

Resa benissimo, hai risposto...grazie :D

Rsdj
18-01-2010, 18:24
Ragazzi mi era sfuggito questo "piccolo particolare" nell'articolo di HWUpgrade:

"La scelta di utilizzare un titolo come Far Cry 2 non è stata casuale: si tratta infatti di uno dei pochi titoli in cui le schede video ATI Radeon HD della serie 5000 fanno registrare prestazioni non ecellenti con filtro anti-aliasing attivato. A seguire riportiamo un breve grafico che mostra il posizionamento della nuova scheda GF100. La piattaforma hardware utilizzata da NVIDIA per il test comparativo è stata sviluppata su di una CPU Intel Core i7 965 Extreme affiancata da 6GB di dmemoria DDR3 in triple channel: i risultati ottenuti sono pertanto direttamente paragonabili a quelli che è possibile ottenere dalla nostra piattaforma di testing impiegata solitamente per il test delle VGA."


Allora si conosce la piattaforma di Test, almeno i caratteri fondamentali... nessuno lo aveva notato? La 5870 con quel processore arriverebbe a sfiorare gli 80 fps di media... no comment...

Kharonte85
18-01-2010, 18:25
A dire la verità ti avevo già risposto io :D

http://www.hwupgrade.it/forum/showpost.php?p=30474048&postcount=16965

Non ti fidi, eh? :Prrr:

da quando ho cliccato sulla tua firma... :eekk:

:asd:

DarkNiko
18-01-2010, 18:36
Devo dire che leggendo alcuni commenti in queste ultime pagine, si rasenta il ridicolo, specialmente da parte di coloro che prima hanno gettato fango su NVidia, passando ad ATi, ed ora già mettono in cantiere il doversi vendere la propria vga a favore di quella NVidia. Un grande esempio di coerenza morale di una ineccepibilità senza precedenti. :D

Meno male che la si prende a ridere.

Simedan1985
18-01-2010, 18:47
Devo dire che leggendo alcuni commenti in queste ultime pagine, si rasenta il ridicolo, specialmente da parte di coloro che prima hanno gettato fango su NVidia, passando ad ATi, ed ora già mettono in cantiere il doversi vendere la propria vga a favore di quella NVidia. Un grande esempio di coerenza morale di una ineccepibilità senza precedenti. :D

Meno male che la si prende a ridere.


Sarò l'unico fuori dal coro ma ti dico una cosa ...Questa mattina mi sono alzato ,ho letto tutte le race possibili, i bench ,commenti e tutto quello che c'era da leggere...Poi tranquillamente sono uscito ho ricaricato la poste pay e mi sono comprato la 5970:) ....e spero che faranno una Fermi degna di nvidia,nonchè una bella dual mostruosa...Che dici adesso??

Maury
18-01-2010, 18:47
Ragazzi mi era sfuggito questo "piccolo particolare" nell'articolo di HWUpgrade:

"La scelta di utilizzare un titolo come Far Cry 2 non è stata casuale: si tratta infatti di uno dei pochi titoli in cui le schede video ATI Radeon HD della serie 5000 fanno registrare prestazioni non ecellenti con filtro anti-aliasing attivato. A seguire riportiamo un breve grafico che mostra il posizionamento della nuova scheda GF100. La piattaforma hardware utilizzata da NVIDIA per il test comparativo è stata sviluppata su di una CPU Intel Core i7 965 Extreme affiancata da 6GB di dmemoria DDR3 in triple channel: i risultati ottenuti sono pertanto direttamente paragonabili a quelli che è possibile ottenere dalla nostra piattaforma di testing impiegata solitamente per il test delle VGA."


Allora si conosce la piattaforma di Test, almeno i caratteri fondamentali... nessuno lo aveva notato? La 5870 con quel processore arriverebbe a sfiorare gli 80 fps di media... no comment...

Appunto, e poi ci si chiede xchè la gente si inalbera, forse non ama le prese per il sedere ...

appleroof
18-01-2010, 18:48
Me lo auguro, così lo prezza ad una cifra mostruosa, AMD fa guerra sui margini ampi, tutto cala e io mi prendo Cypress refresh ad una cifra equa :D



Il punto è quanto ci sia da fare tutto :sofico:

L'esempio ormai da manuale di troppe cose da fare è Batman:AA, in cui gli shader fanno fisica e rendering e finiscono per non riuscire a fare il secondo adeguatamente.

Da quanto ne capisco il caso tessellation sarebbe uguale, se il rendering è pesante e contemporaneamente hull e domain sono molto sollecitati per un uso pesante della tessellation chi ne va a soffrire è il rendering.

io mi chiedo allora come mai un test come l'Unigine che fà uso massiccio di tasselletion e ovviamente renderizza in dx11 altrettanto pesantemente, sia (sempre per i test interni Nvidia) più veloce con Fermi che con rv870...

aggiungo che tra l'altro è un test molto indipendente dalla cpu e dal sistema usato (certo, a patto di non usare un pentium III vs un 965 cloccato a 5ghz :D )

Devo dire che leggendo alcuni commenti in queste ultime pagine, si rasenta il ridicolo, specialmente da parte di coloro che prima hanno gettato fango su NVidia, passando ad ATi, ed ora già mettono in cantiere il doversi vendere la propria vga a favore di quella NVidia. Un grande esempio di coerenza morale di una ineccepibilità senza precedenti. :D

Meno male che la si prende a ridere.

coerenza morale riferito a delle vga? :mbe: in effetti si rasenta il ridicolo :D

Kharonte85
18-01-2010, 19:00
Qui ci sono un po' di video (alcuni mostrano cose già viste ma da differente prospettiva):

http://www.guru3d.com/article/nvidia-gf100-fermi-technology-preview/8

Anche il gameplay di Dark Void.

AgonizedPhobos
18-01-2010, 19:03
http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_8.html

queste si che sono delle belle notizie :asd:

DarkNiko
18-01-2010, 19:06
Sarò l'unico fuori dal coro ma ti dico una cosa ...Questa mattina mi sono alzato ,ho letto tutte le race possibili, i bench ,commenti e tutto quello che c'era da leggere...Poi tranquillamente sono uscito ho ricaricato la poste pay e mi sono comprato la 5970:) ....e spero che faranno una Fermi degna di nvidia,nonchè una bella dual mostruosa...Che dici adesso??

Che hai fatto benissimo, come del resto credo di aver fatto bene io a prendermi la 5870, benchè provenissi da una GTX280. Io mi riferivo al fatto che da quando è venuto fuori il discorso tessellator di NVidia, gestito da una apposita unità di calcolo, con tutti (ci si augura) i benefici del caso, gli ATIisti (e non solo loro) si sono già preoccupati della futura messa in vendita di una VGA di nemmeno 1 mese di vita. Ecco perchè ho detto che ciò rasenta il ridicolo. Inoltre, come giustamente fatto notare qualche commento dopo i tuo, spesso ci si mette il prosciutto sugli occhi nel non voler leggere pareri o notizie scomode e ci si esalta quando queste rispondono ai gusti personali.
Per fortuna che si cerca di far prevalere sempre un briciolo di intelligenza oltre che di buonsenso, qualità sempre in minoranza rispetto alla massa che alberga in questi (e in altri) lidi. :)

Kharonte85
18-01-2010, 19:12
Slide riguardante il tesselator:

http://img5.imageshack.us/img5/1360/27984651.th.png (http://img5.imageshack.us/i/27984651.png/)

Simedan1985
18-01-2010, 19:13
dall'articolo di hardware upgradeI valori, per quanto eseguiti con un test ufficiale sono comunque da prendere con il beneficio di inventario: non sappiamo quali driver siano stati utilizzati o se siano state applicate particolari patch al gioco. Nel caso specifico, abbiamo provato ad eseguire il test sulla nostra piattaforma, utilizzando GeForce GTX 285; rispetto ai dati forniti da NVIDIA le prestazioni scendono a 44 - 66,51 e 33,20 rispettivamente per avg framerate, max e min framerate.

Come posso credere a quel bench su far cry??

Sinceramente mi sento di credere + ad hardware upgrade che ad nvidia

AgonizedPhobos
18-01-2010, 19:16
dall'articolo di hardware upgrade

Come posso credere a quel bench su far cry??

Sinceramente mi sento di credere + ad hardware upgrade che ad nvidia

facile...Nvidia è superiore.

appleroof
18-01-2010, 19:16
Non sono convinto che il rendering sia così pesante, cmq avremo tempo di verificare a dovere, comunque vada qualcuno che prenderà Fermi per farci fare i test lo troviamo (se hanno venduto NV30 e R600 anche fosse un chiodo qualcuno a cui venderlo lo trovano).


bè, 25fps medi a 1280x1024 aa4x af16x con una 4830 in dx9 non mi parlano di un test leggero :D

http://img13.imageshack.us/i/4830dx9.jpg/

In effetti mi sembra un po' eccessivo, magari uno è facile ad esaltarsi se vede pseudonotizie positive e facile a deprimersi su quelle negative, quantomeno è un atteggiamento guidato dalle notizie, invece che dal cieco fanboysmo che filtra le notizie giudicando attendibile solo quelle gradite :D

Vedo che sei tornato all'antico avatar...

ma si....a volte ci si prende troppo sul serio e occorrerebbe riportare il tutto alla realtà delle cose, ossia pezzi di plastica e sabbia :stordita:

p.s.: si, devo ricreare quello animato che avevo e ho perso

okorop
18-01-2010, 19:23
Ragazzi mi era sfuggito questo "piccolo particolare" nell'articolo di HWUpgrade:

"La scelta di utilizzare un titolo come Far Cry 2 non è stata casuale: si tratta infatti di uno dei pochi titoli in cui le schede video ATI Radeon HD della serie 5000 fanno registrare prestazioni non ecellenti con filtro anti-aliasing attivato. A seguire riportiamo un breve grafico che mostra il posizionamento della nuova scheda GF100. La piattaforma hardware utilizzata da NVIDIA per il test comparativo è stata sviluppata su di una CPU Intel Core i7 965 Extreme affiancata da 6GB di dmemoria DDR3 in triple channel: i risultati ottenuti sono pertanto direttamente paragonabili a quelli che è possibile ottenere dalla nostra piattaforma di testing impiegata solitamente per il test delle VGA."


Allora si conosce la piattaforma di Test, almeno i caratteri fondamentali... nessuno lo aveva notato? La 5870 con quel processore arriverebbe a sfiorare gli 80 fps di media... no comment...
se non hai un prodotto valido che fai? trucchi i benchmark per farlo risultare valido ;)

AgonizedPhobos
18-01-2010, 19:26
se non hai un prodotto valido che fai? trucchi i benchmark per farlo risultare valido ;)

non ti preoccupare tanto sarà superiore all'ATI :sofico:

okorop
18-01-2010, 19:28
non ti preoccupare tanto mo quando esce farà mangiare la polvere all'ATI :sofico:

a me non interessa se fa mangiare la polvere o meno, guardo all'obiettività e sinceramente qualcosa mi puzza, se andrà di piu' delle ati ben venga me lo auguro e me la compro in ogni caso..... ma nel scrivere 50 fps quando ne fa 78 c'è una bella enorme differenza, è per cosi dire una presa per i fondelli....

Simedan1985
18-01-2010, 19:29
facile...Nvidia è superiore.


Secondo te l'oste della cantina ,ti dice che il vino suo nn è buono??:muro:

AgonizedPhobos
18-01-2010, 19:30
a me non interessa se fa mangiare la polvere o meno, guardo all'obiettività e sinceramente qualcosa mi puzza, se andrà di piu' delle ati ben venga me lo auguro e me la compro in ogni caso..... ma nel scrivere 50 fps quando ne fa 78 c'è una bella enorme differenza, è per cosi dire una presa per i fondelli....

questo è vero...cqm è meglio aspettare quando esce così non si avranno piu questi dubbi :D

okorop
18-01-2010, 19:30
Secondo te l'oste della cantina ,ti dice che il vino suo nn è buono??:muro:

:asd: concordo.....

questo è vero...cqm è meglio aspettare quando esce così non si avranno piu questi dubbi :D

lo so che è vero, ed inoltre chissa che gt100 hanno usato al ces per i benchmark, ricordo che hadwareupgrade non ha la vga.....

M4R1|<
18-01-2010, 19:38
non ti preoccupare tanto mo quando esce farà mangiare la polvere all'ATI :sofico:

Classi e prevedibile logica del fanboy/troll :rolleyes:
Il mondo è un po' più variegato del bianco e del nero, quando Fermi uscirà andrà per quello che deve andare nn perchè è progettato da Nvidia o da ATI

AgonizedPhobos
18-01-2010, 19:40
Classi e prevedibile logica del fanboy/troll :rolleyes:
Il mondo è un po' più variegato del bianco e del nero, quando Fermi uscirà andrà per quello che deve andare nn perchè è progettato da Nvidia o da ATI

A maggior ragione xk è proggettata da Nvidia Fermi sarà una grande scheda :asd:

aaasssdddfffggg
18-01-2010, 19:40
non ti preoccupare tanto sarà superiore all'ATI :sofico:

ammazza come sei diretto.Ciao luca.:D

M4R1|<
18-01-2010, 19:45
A maggior ragione xk è proggettata da Nvidia Fermi sarà una grande scheda :asd:

bla bla bla dove sono i fatti/prove che sono l'unica cosa che conta? Sei veggente? Mi insegni come si fa? Ti rispondo io: NO. Quindi evita :rolleyes:


ps: evita di rispondere sei nella lista ignorati :)

AgonizedPhobos
18-01-2010, 19:46
ammazza come sei diretto.Ciao luca.:D

Ciao.dopo aver visto quel benchmark su far cry,vero o non vero già da l'idea di essere un pelino sopra

luX0r.reload
18-01-2010, 19:46
Eccomi qua... è stata una giornataccia ma leggendo le ultime pagine, ora va decisamente meglio :D
I rumors sul tessellator erano veri allora :D

Leggendo l'articolo di hwupgrade la cosa che mi ha impressionato, oltre al tessellator, sono i frames minimi in Far Cry 2 :eek:

Ora chi deve comprare una scheda video, a meno che non sia "estremista", dovrà attendere per forza :sofico:

Rsdj
18-01-2010, 19:47
A maggior ragione xk è proggettata da Nvidia Fermi sarà una grande scheda :asd:

Non so se ti sei reso conto che le tue ultime frasi sono da sospensione (oltre che da troll, fanboy e anche da flame) :D

Spera che non passi alcun mod da queste parti adesso... :doh:

Eccomi qua... è stata una giornataccia ma leggendo le ultime pagine, ora va decisamente meglio :D
I rumors sul tessellator erano veri allora :D

Leggendo l'articolo di hwupgrade la cosa che mi ha impressionato, oltre al tessellator, sono i frames minimi in Far Cry 2 :eek:

Ora chi deve comprare una scheda video, a meno che non sia "estremista", dovrà attendere per forza :sofico:

Rileggi per bene le ultime 10 pagine per favore :D :D

:doh:

aaasssdddfffggg
18-01-2010, 19:49
Eccomi qua... è stata una giornataccia ma leggendo le ultime pagine, ora va decisamente meglio :D
I rumors sul tessellator erano veri allora :D

Leggendo l'articolo di hwupgrade la cosa che mi ha impressionato, oltre al tessellator, sono i frames minimi in Far Cry 2 :eek:

Ora chi deve comprare una scheda video, a meno che non sia "estremista", dovrà attendere per forza :sofico:

Guarda ,a giornata quasi conclusa possiamo dire che il tessellatore di NVIDIA ha davvero impressionato e ha confermato le voci che giravano da giorni su questa caratteristica.;)

M4R1|<
18-01-2010, 19:51
facile...Nvidia è superiore.

non ti preoccupare tanto sarà superiore all'ATI :sofico:

Non so se ti sei reso conto che le tue ultime frasi sono da sospensione (oltre che da troll, fanboy e anche da flame) :D

Spera che non passi alcun mod da queste parti adesso... :doh:

Basta quotargli i commenti prima che editi


Cmq a livello di rispetto tra gli utenti ultimamente il forum è ai livelli minimi storici. Peccato.....

Kharonte85
18-01-2010, 19:51
ma si....a volte ci si prende troppo sul serio e occorrerebbe riportare il tutto alla realtà delle cose, ossia pezzi di plastica e sabbia :stordita:

p.s.: si, devo ricreare quello animato che avevo e ho perso
Ora sì che ti riconosco! Bentornato scheletrino :vicini: Quanti ricordi :sofico:

dicevi di prendersi meno sul serio quindi ti ho preso in parola...:asd:

Ah...ho capito adesso che Hwupgrade ha rifatto il test solo della HD5870 e che Nvidia non ha usato la scheda amd/ati nel test di FarCry 2...:stordita:

okorop
18-01-2010, 19:55
Ora sì che ti riconosco! Bentornato scheletrino :vicini: Quanti ricordi :sofico:

dicevi di prendersi meno sul serio quindi ti ho preso in parola...:asd:

Ah...ho capito adesso che Hwupgrade ha rifatto il test solo della HD5870 e che Nvidia non ha usato la scheda amd/ati nel test di FarCry 2...:stordita:

5870 bench senza fermi 74 fps
http://www.hwupgrade.it/articoli/skvideo/2287/fc2_4.png

5870 bench con fermi 50 fps magia :asd:

http://www.hwupgrade.it/articoli/skvideo/2361/fc.png

meditate gente.....

AgonizedPhobos
18-01-2010, 19:56
Basta quotargli i commenti prima che editi


Cmq a livello di rispetto tra gli utenti ultimamente il forum è ai livelli minimi storici. Peccato.....

cmq sia quando usciranno altri test avranno e si renderanno conto che avevano torto :)

Rsdj
18-01-2010, 19:56
Guarda ,a giornata quasi conclusa possiamo dire che il tessellatore di NVIDIA ha davvero impressionato e ha confermato le voci che giravano da giorni su questa caratteristica.;)

cmq sia quando usciranno altri test avranno e si renderanno conto che avevano torto :)

Certo, ormai lo stanno dicendo tutti ne parla persino il telegiornale, nVidia ha dimostrato che GF100 è una bomba in tutti i giochi... quando attivi il tessellatore poi a momenti prende il volo... :friend:

Pike79
18-01-2010, 19:58
5870 bench senza fermi 74 fps
http://www.hwupgrade.it/articoli/skvideo/2287/fc2_4.png

5870 bench con fermi 50 fps magia :asd:

http://www.hwupgrade.it/articoli/skvideo/2361/fc.png

meditate gente.....

uno è in high e l' altro in ultra...

okorop
18-01-2010, 19:58
Certo, ormai lo stanno dicendo tutti, nVidia ha dimostrato che GF100 è una bomba in tutti i giochi... quando attivi il tessellatore poi a momenti prende il volo... :friend:

prende il volo addirittura facendo diminuire gli fps delle altre schede video :asd:

Cicciuzzone
18-01-2010, 19:59
Finalmente qualcosa di concreto o no? Mipare di aver intravisto tabelle un tantino shock... Qualche conferma della bontà di Fermi?

aaasssdddfffggg
18-01-2010, 20:00
Certo, ormai lo stanno dicendo tutti ne parla persino il telegiornale, nVidia ha dimostrato che GF100 è una bomba in tutti i giochi... quando attivi il tessellatore poi a momenti prende il volo... :friend:

non sei d'accordo che il tessellatore abbia ben figurato oggi?Pare che quello di ati sia stato asfaltato dall'inzio alla fine.
Non farmi riprendere il grafico che non ho voglia.:p
Certo,aspettiamo i bench completi.Tra meno di 60 giorni tutto sarà alla luce del sole.Non si scappa.:D

M4R1|<
18-01-2010, 20:01
uno è in high e l' altro in ultra...

Altre testate hanno pubblicato test simili o del tutto uguali a quello fatto da Nvidia ma quello di HW è il più eclatante visto quanto tocca il fondo come prestazioni e serietà professionale ;)

aaasssdddfffggg
18-01-2010, 20:02
5870 bench senza fermi 74 fps


5870 bench con fermi 50 fps magia :asd:



meditate gente.....

Uno è in ultra e l'altro in high.:muro:

okorop
18-01-2010, 20:03
uno è in high e l' altro in ultra...

con aa8x su ultra high quality la 5870 non puo' fare piu' frame rispetto al aa4x..... c'è qualcosa che non torna ...... :fagiano:
http://www.tomshw.it/guides/hardware/graphic/20090923/images/Far%20Cry%202%208x%20AA.png

Uno è in ultra e l'altro in high.:muro:

ultra high iper leggi su va...... no comment....

luX0r.reload
18-01-2010, 20:03
5870 bench senza fermi 74 fps
http://www.hwupgrade.it/articoli/skvideo/2287/fc2_4.png

5870 bench con fermi 50 fps magia :asd:

http://www.hwupgrade.it/articoli/skvideo/2361/fc.png

meditate gente.....

C'è poco da meditare... uno è fatto con impostazioni very high, e l'altro con ultra high! :D

AgonizedPhobos
18-01-2010, 20:03
5870 bench senza fermi 74 fps
http://www.hwupgrade.it/articoli/skvideo/2287/fc2_4.png

5870 bench con fermi 50 fps magia :asd:

http://www.hwupgrade.it/articoli/skvideo/2361/fc.png

meditate gente.....

http://www.tomshardware.com/reviews/radeon-hd-5870,2422-14.html

aaasssdddfffggg
18-01-2010, 20:04
Non sono confrontabili le 2 tabelle.Uno è in high e l'altro in ultra.:confused:

okorop
18-01-2010, 20:05
http://www.tomshardware.com/reviews/radeon-hd-5870,2422-14.html

aa8x 57 fps e chissa come fa gli stessi fps di aa4x maddai.....

Non sono confrontabili le 2 tabelle.Uno è in high e l'altro in ultra.:confused:

toms sito in cui si capisce qualcosa mette aa8x su ultra high quality e fa 57 fps e qui scrivono che con aa4x fa 57 c'è qualcosa che non torna...... dj88 guarda caso ne fa 78 :asd:.....

aaasssdddfffggg
18-01-2010, 20:06
C'è poco da meditare... uno è fatto con impostazioni very high, e l'altro con ultra high! :D

appunto.:p

pandyno
18-01-2010, 20:08
uno è in high e l' altro in ultra...

L'impostazione Ultra confermo che appiattisce le prestazioni...

Prima di parlare sarebbe meglio leggere attentamente...

okorop
18-01-2010, 20:10
L'impostazione Ultra confermo che appiattisce le prestazioni...

Prima di parlare sarebbe meglio leggere attentamente...

e come spieghi che con aa4x fa gli stessi frame impostandolo a 8x? :fagiano:
stai attento tu, sto cercando assieme a voi di capire dove sta l'inghippo visto che il bench che ho fatto io mi da 76 fps con aa4x e ultra......

luX0r.reload
18-01-2010, 20:11
aa8x 57 fps e chissa come fa gli stessi fps di aa4x maddai.....



toms sito in cui si capisce qualcosa mette aa8x su ultra high quality e fa 57 fps e qui scrivono che con aa4x fa 57 c'è qualcosa che non torna...... dj88 guarda caso ne fa 78 :asd:.....
Ragazzi suvvia... pur di infangare ancora nVidia state postando grafici a vanvera. Uno addirittura con dettagli non al massimo... ora non vi torna che ad aa8x da 57fps mentre l'altro fa gli stessi fps a aa4x, senza considerare che le configurazioni hardware e/o software (vedi sistema operativo) possono essere diffenti... così come il bench effettuato (ranch small o demo o l'altro che non ricordo). Ed in ultimo... aa8x... che tipo di AA? Mi sembra che ci sia una modalità di aa8x che abbia le performance di un aa4x standard o sbaglio?
Insomma state mettendo troppo carne al fuoco senza ragionare!

Peace & Love... appena uscirà sta scheda ognuno potrà scegliere cosa fare...

aaasssdddfffggg
18-01-2010, 20:12
Qui ce un bel riassunto della giornata di oggi con diversi link della preview di FERMI:

http://www.ibasblog.it/hardware/novita-su-nvidia-fermi-del-18012010.html

okorop
18-01-2010, 20:14
Ragazzi suvvia... pur di infangare ancora nVidia state postando grafici a vanvera. Uno addirittura con dettagli non al massimo... ora non vi torna che ad aa8x da 57fps mentre l'altro fa gli stessi fps a aa4x, senza considerare che le configurazioni hardware e/o software (vedi sistema operativo) possono essere diffenti... così come il bench effettuato (ranch small o demo o l'altro che non ricordo). Ed in ultimo... aa8x... che tipo di AA? Mi sembra che ci sia una modalità di aa8x che abbia le performance di un aa4x standard o sbaglio?
Insomma state mettendo troppo carne al fuoco senza ragionare!

infangare nvidia? l'aa del bench del gioco è identico non varia ne per ati ne per nvidia, dj fa 76 fps con le stesse impostazioni stessa configurazione e stesso so mentre qui fanno 57 toms scrive che con aa8x ne fa 57 qualcosa a me non torna tutto qui, che poi ribadisco e ripeto se la gtx380 va meglio della 5870 ben venga.....

aaasssdddfffggg
18-01-2010, 20:16
We are looking forward to bringing our readers the latest news about the Fermi GF100 and we will be testing its performance and image quality in gaming. There is much more to be revealed about NVIDIA’s new GPU. Stay tuned. The graphics wars are heating up and it is getting very interesting again.

speriamo anche per la nuova modalità di rendering nel multigpu.Vorrei saperne qualcosa di più.

http://alienbabeltech.com/main/?p=14600&page=8

faber80
18-01-2010, 20:17
:asd: ci sono domande?

C.V.D.

eccovi i test di una singola HD5870 con Farcry2 e "medesime impostazioni" con i920@3 GHz

http://www.xtremeshack.com/immagine/i42592_1.jpg

Ci sono anche quelli di una hd5970 per chi interessa
http://www.xtremeshack.com/immagine/i42593_2.jpg

I risultati ben diversi
dubbi di che??? :confused:


guarda, non sto criticando i risultati di Fermi o della gtx285, ma sto solo dicendo che la Ati non ha quelle performance, io stesso ricordavo intorno ai 70 fps per scheda singola, non andiamo ovviamente a guardare la differenza del singolo fps.

infine, tanto per ricordare a smemorati e lavoratori che non hanno seguito la giornata....

è da stanotte che si è in fibrillazione per le nuove slide di "Fermi" by Nvidia, e nemmeno i dubbi di un moderatore li trattiene dal dire "eh, vedrete..." "eh, lo sapevo...." "eh, comincia il divertimento.." :asd:

quel test è stato fortemente alterato, e allo stato attuale i dati più veritieri e confermati dai precedenti video e da Anandtech sono che :

5870= 75 fps
Fermi= 84 fps

circa il 10% di differenza su un titolo (Farcry2) che anzi dovrebbe avvantaggiare Nvidia. Qua la situazione è poco rosea, e lo dico solo per il mercato, non me ne frega niente di queste 2 serie, perchè le salto entrambe. Tuttavia prego, stappiamo lo spumante per le ennesime slide di powerpoint, come a Novembre........... qua non si cresce mai; Sminuite con estrema leggerezza un video che mostra chiaramente 84 fps e vi date alla pazza gioia per un altro test solo perchè viene da Nvidia. Quelli devono vendere, potrebbero mai dirvi che va il 10%+ di una 5870 ? Possibile che non capite che per stappare lo spumante dovete attendere una (o più) recensioni ? Ma prego, continuiamo a rallegrarci dei numeri della giornata. Per le info vere sono ancora rimasto a quel video. Considerazioni personalissime, sia chiaro.

luX0r.reload
18-01-2010, 20:18
infangare nvidia? l'aa del bench del gioco è identico non varia ne per ati ne per nvidia, dj fa 76 fps o non ricordo con le stesse impostazioni stessa configurazione e stesso so mentre qui fanno 57 toms scrive che con aa8x ne fa 57 qualcosa a me non torna tutto qui, che poi ribadisco e ripeto se la gtx380 va meglio della 5870 ben venga.....
In tutte le recensioni che ho letto c'è sempre qualcosa che non torna...
Vi state fissando con l'aa8x, quando dovreste sapere che di modalità di aa non c'è n'è solo una e nella rece non è specificata quale è stata usata, così come non è stato specificata l'impostazione selezionata dal pannello di controllo dei drivers ;)

okorop
18-01-2010, 20:20
edit

luX0r.reload
18-01-2010, 20:22
edit

okorop
18-01-2010, 20:23
Aho ma sai leggere? :mbe:
Ho scritto in TUTTE le recensioni... quindi è compreso anche hwupgrade! :rolleyes:

bisognerebbe capire non con che impostazioni han fatto i bench con la 5870 ma con che cosa han fatto con gt100, magari manco questa redazione lo sa .......i benchmark per essere veritieri devono essere riproducibili a parità di configurazione senno non han senso.....

appleroof
18-01-2010, 20:23
Ora sì che ti riconosco! Bentornato scheletrino :vicini: Quanti ricordi :sofico:

già...;) ;)

dicevi di prendersi meno sul serio quindi ti ho preso in parola...:asd:

cut

e hai fatto bene...:asd: :asd: :asd:

Non è che sia proprio la più ninja delle CPU, eh...

qui ho fatto una prova che non solo dimostra come la 4830 non ne fosse limitata, ma anche come la cpu in Unigine conta davvero quasi nulla : http://img69.imageshack.us/i/48307002200.jpg/ e anche http://www.hwupgrade.it/forum/showpost.php?p=30220206&postcount=988 ;)

pandyno
18-01-2010, 20:23
e come spieghi che con aa4x fa gli stessi frame impostandolo a 8x? :fagiano:
stai attento tu, sto cercando assieme a voi di capire dove sta l'inghippo visto che il bench che ho fatto io mi da 76 fps con aa4x e ultra......

Non me lo spiego: manda una mail a Paolo o a Gabriele autori di quel pezzo hanno scritto più volte di essere disponibili.

Più semplice di così invece di inventarsi complotti o cospirazioni...

appleroof
18-01-2010, 20:25
Non me lo spiego: manda una mail a Paolo o a Gabriele autori di quel pezzo hanno scritto più volte di essere disponibili.

Più semplice di così invece di inventarsi complotti o cospirazioni...

come non quotarti...tra l'altro sono sempre gli stessi che gridano a questi complotti, in maniera più o meno velata, salvo poi continuare a frequentare assiduamente il sito tanto vituperato :stordita:

okorop
18-01-2010, 20:26
Non me lo spiego: manda una mail a Paolo o a Gabriele autori di quel pezzo hanno scritto più volte di essere disponibili.

Più semplice di così invece di inventarsi complotti o cospirazioni...

io complotti non me li invento, ma sai se riproduco lo stesso bench con la stessa postazione e ottengo 20 fps in piu' qualcosa non mi torna, e non dovrebbe tornarvi manco a voi.....

molochgrifone
18-01-2010, 20:26
Rileggi per bene le ultime 10 pagine per favore :D :D

:doh:

Beh dai quanto meno non si ha nessuna certezza, quindi se uno dovesse comprare una VGA (senza fretta intendo, ad esempio come me :asd:) gli converrebbe quanto meno attendere l'uscita di Fermi e fare le sua valutazioni serenamente; personalmente se nVidia non sarà più che competitiva come prestazioni con la 360 - la VGA che potrebbe fare al caso mio - passerò senza problemi ad ATI. Però stabilire già ora che una delle due sarà superiore all'altra, indifferentemente che si parli della verde o della rossa, è a mio avviso un po' azzardato ;)

Rsdj
18-01-2010, 20:27
edit

Pike79
18-01-2010, 20:31
edit

aaasssdddfffggg
18-01-2010, 20:32
edit

appleroof
18-01-2010, 20:32
Raga comincerei col dire... stop allo :spam:

faber80
18-01-2010, 20:35
mi sa che questa giornata ha dato un po' fastidio a qualcuno..specie sul grafico del tesellatore.E' quasi imbarazzante quel grafico (sinceramente non mi aspettavo un divario così marcato su quel test).....:D

è ancora più imbarazzante sapere da chi viene quel grafico... :asd:
se già falsano gli fps della 5870, meglio che non penso male... :D

Rsdj
18-01-2010, 20:36
edit

aaasssdddfffggg
18-01-2010, 20:36
è ancora più imbarazzante sapere da chi viene quel grafico... :asd:
se già falsano gli fps della 5870, meglio che non penso male... :D

forse è meglio pensar male....più lo vedo è più mi imbarazza quel grafico.:)

aaasssdddfffggg
18-01-2010, 20:39
edit

gianni1879
18-01-2010, 20:40
Thread chiuso in attesa di lettura di alcuni reply


AgonizedPhobos sospeso 3gg

gianni1879
18-01-2010, 20:57
Ma ancora dietro a quel bench inutile e non significativo state ad accapigliarvi...?

Appunto, visto che vi ho lasciati sfogare un bel pò durante la mia assenza, credo sia giunto il momento di mettere un bel punto a questa faccenda, almeno in questo thread.

Se ne è discusso abbastanza ed ognuno può trarre le proprie conclusioni, non serve continuare.

Per favore non me lo fate ripetere più.


Inoltre basta con OT e battutine varie e basta con la chat, questa volta ho evitato di fare una strage di sospensioni, ma da ora in poi non desisterò :mad:

betha
18-01-2010, 21:36
5870 bench senza fermi 74 fps
http://www.hwupgrade.it/articoli/skvideo/2287/fc2_4.png

5870 bench con fermi 50 fps magia :asd:

http://www.hwupgrade.it/articoli/skvideo/2361/fc.png

meditate gente.....
una slide in ultra l altra in high e la 285 passa da 50.5 a 58 quindi ci puo stare che faccia da 57 a 74...

dovresti metterti in politica, se già nn lo sei, sei abile a gettare fumo negli occhi

gianni1879
18-01-2010, 21:39
betha sospeso 3gg, ero stato chiaro mi pare??


avanti il prossimo

Blackcat73
18-01-2010, 21:43
edit

aaasssdddfffggg
18-01-2010, 21:45
Che poi sbaglio o Nvidia ha usato un i7965 estreme mentre nell'immagine il tizio usa un i7920 a 3ghz?
Non so quali differenze ci siano fra i 2(penso siano poche) ma cmq un leggero vantaggio per il primo ci dovrebbe essere o no?

3,2Ghz per il 965 e 3 ghz per il 920 (OC) = vantaggio nullo.Non sono i 200mhz in più che fanno lievitare i frames...;)

giopro
18-01-2010, 21:46
E come al solito chi ci rimette siamo noi...

Secondo Fudzilla, però, la strategia di attacco (o difesa, si vedrà) di ATI comprenderà anche elevate riduzioni di prezzo, ma solo quando le vendite "inizieranno a soffrire a causa della presentazione delle schede con chip GF100". Insomma, non ora e non tra un mese, ma chissà, forse a maggio/giugno. Tutto dipende dalla disponibilità, competitività e prezzo della prima generazione DirectX 11 di casa Nvidia.

http://www.tomshw.it/cont/news/forse-una-ati-radeon-hd-5890-contro-nvidia-fermi/23598/1.html

Ciao :)

faber80
18-01-2010, 21:51
3,2Ghz per il 965 e 3 ghz per il 920 (OC) = vantaggio nullo.Non sono i 200mhz in più che fanno lievitare i frames...;)

basta però, i grafici li abbiamo abbondantemente postati e discussi.
ognuno faccia i suoi calcoli.
andiamo avanti

E come al solito chi ci rimette siamo noi...

Secondo Fudzilla, però, la strategia di attacco (o difesa, si vedrà) di ATI comprenderà anche elevate riduzioni di prezzo, ma solo quando le vendite "inizieranno a soffrire a causa della presentazione delle schede con chip GF100". Insomma, non ora e non tra un mese, ma chissà, forse a maggio/giugno. Tutto dipende dalla disponibilità, competitività e prezzo della prima generazione DirectX 11 di casa Nvidia.

http://www.tomshw.it/cont/news/forse-una-ati-radeon-hd-5890-contro-nvidia-fermi/23598/1.html

Ciao :)

normale legge di mercato. Non fa mai bene avere un solo concorrente in campo.

luX0r.reload
18-01-2010, 21:57
Almeno è sicuro che la GF100 confrontata con la 5870 sia la top gamma, ossia la 380? Dalle specifiche postate credo di si... o no? :mbe:

aaasssdddfffggg
18-01-2010, 21:59
"A sentire NVIDIA, l’azienda si è concentrata molto su una tecnologia, chiamata Polymorph Engine, che si occuperà di gestire la Tessellation, una delle novità principali introdotte con le DirectX 11. Polymorph dovrebbe essere notevolmente più potente rispetto alla sezione equivalente montata sulle Radeon della serie 5000, così da rendere il risultato ancora più spettacolare."

http://www.gamesvillage.it/news/news/detail%5Bn=20014%5D.html

Pare che questa caratteristica faccia davvero la voce grossa in Fermi.Le redazioni varie sembrano tutte d'accordo su questo punto.

Pike79
18-01-2010, 22:01
Mi si forma nella mente una cattiveria...con la crisi, recentemente, nella mia azienda, si è verificata una cosa bella da un punto di vista, ma nel contempo strana. Noi produciamo componenti di carrozzeria, e un nostro diretto concorrente si è trovato in grosse difficoltà.
Vuoi perchè i titolari si conoscono, o vuoi perchè non so io cosa, ma fatto sta che il mio titolare ha passato delle commesse (pur piccole) a quest' altra dittarella, per evitare di mettere persone in cassa.
Senza credere nel buon samaritano JHH, pare tanto strano l' aver programmato una presentazione in differita di due prodotti simili per permettere al concorrente meno "abbiente" di accaparrarsi una fetta in più di mercato?

Blackcat73
18-01-2010, 22:08
Mi si forma nella mente una cattiveria...con la crisi, recentemente, nella mia azienda, si è verificata una cosa bella da un punto di vista, ma nel contempo strana. Noi produciamo componenti di carrozzeria, e un nostro diretto concorrente si è trovato in grosse difficoltà.
Vuoi perchè i titolari si conoscono, o vuoi perchè non so io cosa, ma fatto sta che il mio titolare ha passato delle commesse (pur piccole) a quest' altra dittarella, per evitare di mettere persone in cassa.
Senza credere nel buon samaritano JHH, pare tanto strano l' aver programmato una presentazione in differita di due prodotti simili per permettere al concorrente meno "abbiente" di accaparrarsi una fetta in più di mercato?

Ma manco per sogno se Nvidia avesse le schede pronte sarebbero fuori da un pezzo.

Pike79
18-01-2010, 22:09
E' sicuramente la top di gamma. Quello che non è al momento dato sapere è se questa top di gamma sarà una edizione limitatissima solo riservata alla stampa o se le disponibilità sul mercato saranno reali.



Senza alcuna volontà offensiva ti dico che si tratta di una ipotesi ridicola ;)

Mah, è quello che voglio credere anche io, ma hai visto mai....

eXeS
18-01-2010, 22:10
L'esempio ormai da manuale di troppe cose da fare è Batman:AA, in cui gli shader fanno fisica e rendering e finiscono per non riuscire a fare il secondo adeguatamente.

Da quanto ne capisco il caso tessellation sarebbe uguale, se il rendering è pesante e contemporaneamente hull e domain sono molto sollecitati per un uso pesante della tessellation chi ne va a soffrire è il rendering.

Attenzione, l'operazione di tessellatura:

Hull Shading-> Tessellation -> Domain shading

se ci sono dipendenze tra Domain e Hull , dipendenze nel senso che lo shader che si occupa del primo step, non è disponibile fino a quando non è completata l'operazione di Domain, dovrebbe impegnare al massimo, ovvero quando tutte le 16 unità di tessellatura stanno lavorando, 32 cuda core, che sono poco più del 6% dei cuda core complessivi.

Quindi se è vero quanto dico, nella condizione di caso peggiore, quando appunto tutte le unità di tessellatura sono impegnate, la potenza di shading tradizionale (pixel e vertex) dovrebbe essere ridotta di circa il 6%

io mi chiedo allora come mai un test come l'Unigine che fà uso massiccio di tasselletion e ovviamente renderizza in dx11 altrettanto pesantemente, sia (sempre per i test interni Nvidia) più veloce con Fermi che con rv870...

Perchè ci sono 16 unità dedicate alla tessellatura che possono operare in parallelo, e perchè dal whitepaper affermano più volte di aver incrementato notevolmente la potenza elaborativa delle geometrie parallelizzando anche in questo caso operazioni che prima venivano fatte da una sola unità, il tutto ovviamente per quello che un non tecnico del settore, può capire leggendo un documento abbastanza tecnico :D

luX0r.reload
18-01-2010, 22:17
E' sicuramente la top di gamma. Quello che non è al momento dato sapere è se questa top di gamma sarà una edizione limitatissima solo riservata alla stampa o se le disponibilità sul mercato saranno reali.



Senza alcuna volontà offensiva ti dico che si tratta di una ipotesi ridicola ;)
Perchè dici questo? :mbe:

Kharonte85
18-01-2010, 22:36
E' un'ipotesi da studiare, se trovate il modo di far intervenire yoss sarò contento di leggere la risposta perché potrei fare almeno 7 controdeduzioni e 5 deduzioni a favore e non saprei dire quale sia la più credibile :D
Va sempre a finire così...:asd:

Quello che ha detto eXeS pero' mi piace :D

sommo89
18-01-2010, 22:56
ragazzi una domanda niubba ma questo tasselletor viene attiva automaticamente con le dx11 o e un opzione a se stante nelle impostazioni?

leoneazzurro
18-01-2010, 22:58
Decisamente un´architettura potente e sofisticata, sará una bella battaglia con le schede ATI quando le GF100 saranno disponibili (un grosso punto interrogativo).


Una cosa che mi dá da pensare é che a differenza dei chip "tradizionali" con l´architettura GF100 si ha sicuramente una grande potenza geometrica, ma disabilitando le unitá di esecuzione per ottenere versioni inferiori, la potenza geometrica cala rapidamente. Ad esempio, un Redwood, un Juniper e un Cypress hanno grossomodo la stessa potenza di elaborazione geometrica (il Cypress ha il doppio rasterizzatore, ma a livello di triangoli/s e di capacitá del tessellatore sono alla pari a paritá di clock). Un eventuale chip derivato da GF100 con la metá delle unitá di esecuzione avrebbe anche metá della potenza geometrica, un chip da 128 SP ne avrebbe un quarto e cosí via, a meno di cambiamenti a livello di cluster.
Quindi Fermi potrebbe essere un´ottima architettura a "scalare su" ma non altrettanto nello "scalare giú". Vedremo quando usciranno i derivati. Un altro punto interrogativo é il consumo, che se dal lato desktop é un fattore importante ma non stringente in maniera assoluta dal punto di vista mobile potrebbe dare qualche grattacapo a Nvidia. Vedremo.

@ndrey
18-01-2010, 23:18
Almeno è sicuro che la GF100 confrontata con la 5870 sia la top gamma, ossia la 380? Dalle specifiche postate credo di si... o no? :mbe:

Infatti vorrei capire anche io sta cosa.. Ma credo che Nvidia abbia usato nei test la scheda più potente ''380''..
La meno potente gareggerà con HD5870 nella fascia prezzo/prestazioni a sto punto :stordita:
La situazione potrebbe essere questa: HD5850 >> ''GTX360'' = HD5870 >> GTX380 ?!
Ma penso che la ''360'' avrà qualcosa in più della hd5870, almeno in dx11&co :fagiano: vedremmo..

sommo89
18-01-2010, 23:24
ragazzi ho letto in un altro forum che la bestia faccia 148 fps in dirt 2 e in full non faccia piu di 55 gradi....da prenere molto con le pinze se possibile posto il link....

persa
18-01-2010, 23:41
Credo che l'esaltazione di qualcuno derivi dalla impressione dominante uscita dagli articoli di oggi: Gf100 è molto promettente ed è una GPU.

Prendo atto che qualcun'altro si affanna ad accampare interpretazioni forzate per cercare di ridimensionare quanto gli articoli su Gf100 di oggi hanno mostrato...come al solito aspettiamo i riscontri futuri ma quello che si è visto oggi è innegabilmente positivo ed era quello che ci si aspettava da Nvidia.

Nei mesi passati era tutto un: perchè non mostra i benchmark? (sottointendendo che non sarebbe stata in grado di farlo perchè non competitiva)

Bene ora lo ha fatto...come la mettiamo? Facciamo finta di non averli visti e andiamo avanti come prima oppure prendiamo atto del fatto che Nvidia ha finalmente lanciato il sasso?

quoto. ;)

persa
18-01-2010, 23:51
Ma anche HAWX con Directx 10.1 :D

Il motore grafico di Farcry 2 è il DUNE, che hanno adottato anche sul gioco di Avatar (graficamente è anche più pesante, specie a livello di vegetazione).

Non ricordo se nelle pagine precedenti qualcuno ha inserito questo grafico, sempre dalle slide d'Nvidia, col "famigerato" Crysis

http://pics.computerbase.de/2/8/1/1/5/16.png

ma il gt200 da dove partirebbe? da 100?? no xchè caz... il Gf100 sarebbe oltre il 70% + performante con Crysis :confused:

vedremo :fagiano:

kinotto88
18-01-2010, 23:59
ma il gt200 da dove partirebbe? da 100??
direi di sì..

persa
19-01-2010, 00:10
specialmente da parte di coloro che prima hanno gettato fango su NVidia, passando ad ATi, ed ora già mettono in cantiere il doversi vendere la propria vga a favore di quella NVidia. Un grande esempio di coerenza morale di una ineccepibilità senza precedenti. :D

Meno male che la si prende a ridere.

guarda, non so a chi ti riferisci di preciso, cmq oltre a me solo un altro mi pare che ha detto che rivenderà la sua 5800 quando uscirà il gf100...

io, SE la nvidia andrà meglio (...e le notizie di oggi mi sono parse nel complesso molto postive ;)) la rivenderò la mia ati (che cmq reputo sempre una bella scheda).., come ho sempre detto fin dall'inizio.. e d'altronde fin dall'inizio sono sempre stato fiducioso sulle prossime nvidia, -mai gettato fango su Fermi-...quindi sono sempre stato coerente al 100% ;)

persa
19-01-2010, 00:14
non sei d'accordo che il tessellatore abbia ben figurato oggi?Pare che quello di ati sia stato asfaltato dall'inzio alla fine.
Non farmi riprendere il grafico che non ho voglia.:p
Certo,aspettiamo i bench completi.Tra meno di 60 giorni tutto sarà alla luce del sole.Non si scappa.:D

xò attenzione che unigine è un benchmark...non un gioco... ma cmq sia, penso che alla fine anche in Dirt 2 con tessellone attivo la Gf100 andrà meglio ed anche con alien vs predator ;)

io continuo ad esser positivo :D

direi di sì..

be allora sarebbe ottimo... :sperem: sia vero... vedremo

mapoetti
19-01-2010, 00:48
scusate....se mi permettete posso chiedere se è uscita una tabella o info riguardo a frequenze ecc ecc? grazie mille e scusate è che non riesco a leggere sempre il forum....

Sergio_Di_Rio
19-01-2010, 00:56
prima pagina..

Luca T
19-01-2010, 01:16
Scusate non ho capito una cosa ma la scheda di punta sarà la GT100 oppure GT100 è il nome del chip e la scheda di punta sarà la GTX380?

mapoetti
19-01-2010, 02:07
ma solo una scheda è uscita? proverò a seguri per capirci meglio...sono un pò confuso..

yossarian
19-01-2010, 02:20
Attenzione, l'operazione di tessellatura:

Hull Shading-> Tessellation -> Domain shading

se ci sono dipendenze tra Domain e Hull , dipendenze nel senso che lo shader che si occupa del primo step, non è disponibile fino a quando non è completata l'operazione di Domain, dovrebbe impegnare al massimo, ovvero quando tutte le 16 unità di tessellatura stanno lavorando, 32 cuda core, che sono poco più del 6% dei cuda core complessivi.

Quindi se è vero quanto dico, nella condizione di caso peggiore, quando appunto tutte le unità di tessellatura sono impegnate, la potenza di shading tradizionale (pixel e vertex) dovrebbe essere ridotta di circa il 6%


Perchè ci sono 16 unità dedicate alla tessellatura che possono operare in parallelo, e perchè dal whitepaper affermano più volte di aver incrementato notevolmente la potenza elaborativa delle geometrie parallelizzando anche in questo caso operazioni che prima venivano fatte da una sola unità, il tutto ovviamente per quello che un non tecnico del settore, può capire leggendo un documento abbastanza tecnico :D

le 16 unità a cui fa riferimento il documento sono disposte una per SP, il che significa che ne hai una ogni 32 alu. Nel caso in cui siano tutte attive, potrebbe verificarsi che almeno 16 alu di uno SP lavorino sulle operazioni di tessellazione (o al massimo tutte e 32). Quindi la potenza impiegata potrebbe essere del 50% o anche superiore.

Considera una serie di cose: ogni SP può gestire due thread in parallelo (quindi un cluster di 16 alu può lavorare su uno ed un altro sull'altro). Uno di questi thread potrebbe essere un'operazioni di tessellation (ma se coinvolge solo 16 alu vuol dire che solo una delle 16 unità di tessellation è attiva).
Comunque, l'esempio fatto per uno SP si può estendere agli altri. Supponiamo che un gruppo di 16 alu di uno SP faccia tessellation; in tal caso e 16 alu fungeranno da hull shader prima, quindi, dopo le operazioni di tessellation, da domain shader. Le operazioni dei domain shader sono sempre successive a quelle degli hull shader e non è possibile che le prime possano avvenire prima delle seconde (esiste sempre una dipendenza).

sommo89
19-01-2010, 06:34
ragazzi una domanda niubba ma questo tasselletor viene attiva automaticamente con le dx11 o e un opzione a se stante nelle impostazioni?

Ragazzi ecco la fonte...il personaggio dice di essere un ex impiegato per nvidia e dice di essersi licenziato e che ora può rendere pubbliche le cose...POTREBBE però essere un fake...

http://www.guildwarsguru.com/forum/rahjas-freeeeeeee-t10420384.html?

è molto interessente la cosa se fosse reale....a sto punto anche una sorellina potrebbe essere cmq più potente della hd5870 e con un piccolo oc potrebbe essere come una hd5970....

ertruffa
19-01-2010, 06:42
edit

halduemilauno
19-01-2010, 06:53
Scusate non ho capito una cosa ma la scheda di punta sarà la GT100 oppure GT100 è il nome del chip e la scheda di punta sarà la GTX380?

GF100 è il nome del chip mentre la scheda si dovrebbe chiamare GTX380.
;)

halduemilauno
19-01-2010, 06:54
Ragazzi ecco la fonte...il personaggio dice di essere un ex impiegato per nvidia e dice di essersi licenziato e che ora può rendere pubbliche le cose...POTREBBE però essere un fake...

http://www.guildwarsguru.com/forum/rahjas-freeeeeeee-t10420384.html?

è molto interessente la cosa se fosse reale....a sto punto anche una sorellina potrebbe essere cmq più potente della hd5870 e con un piccolo oc potrebbe essere come una hd5970....

cose gia postate e discusse.
;)

sommo89
19-01-2010, 07:10
cose gia postate e discusse.
;)

ok scusa è che andando all'università e tornando alle 8 di sera ci sono 20 pagine in più e non riesco a leggerle tutte....quindi magari posterò cose già discusse...chiedo scusa...cmq le considerazioni che sono state fatte??probabile fake??

ertruffa
19-01-2010, 07:13
ok scusa è che andando all'università e tornando alle 8 di sera ci sono 20 pagine in più e non riesco a leggerle tutte....quindi magari posterò cose già discusse...chiedo scusa...cmq le considerazioni che sono state fatte??probabile fake??

piu' che probabile,direi solo fake:D

sommo89
19-01-2010, 07:15
piu' che probabile,direi solo fake:D

per dirlo con certezza dovremmo aspettare i bench ufficiali...
una domanda ma il tasselation si attiva automaticame in un gioco dx 11 o è un opzione presente nelle impostazioni e si può decire se attivarlo o no??

halduemilauno
19-01-2010, 07:18
ok scusa è che andando all'università e tornando alle 8 di sera ci sono 20 pagine in più e non riesco a leggerle tutte....quindi magari posterò cose già discusse...chiedo scusa...cmq le considerazioni che sono state fatte??probabile fake??

per dirlo con certezza dovremmo aspettare i bench ufficiali...una domanda ma il tasselation si attiva automaticame in un gioco dx 11 o è un opzione presente nelle impostazioni e si può decire se attivarlo o no??

ti sei risposto da solo.
;)

sertopica
19-01-2010, 08:11
Fino ad oggi mi hanno detto che attivando il tessellator su DiRT2 visivamente non cambia nulla. Visto che un hit prestazionale ce l'avrà in ogni caso sarebbe da evitare (sia che vada meglio sia che vada peggio).

Di AVP siamo un po' tutti in attesa per capire se la tessellation fa la differenza (graficamente) oppure è ancora solo un'etichetta :mad:
Ti sei risposto da solo.
;)

:asd:

Credo che sia ancora presto per vedere un gioco in cui la tessellation sia sfruttata dignitosamente, ancor più se si tratta di un titolo multipiattaforma in cui l'engine è ancora, di base, DX9...

persa
19-01-2010, 08:14
Fino ad oggi mi hanno detto che attivando il tessellator su DiRT2 visivamente non cambia nulla. Visto che un hit prestazionale ce l'avrà in ogni caso sarebbe da evitare (sia che vada meglio sia che vada peggio).

confermo come detto altre volte, dirt 2 praticamente c'ha le pozzangherine + ondulate ed in game manco lo vedi... anche il pubblico dovrebbe avere un miglioramento nella qualità ma è poca roba...

cmq sia resta sempre un test interessante insieme anche all'ultimo satlker...x vedere che numeri potrà fare fermi in questi giochi tessellonati :fagiano:
Di AVP siamo un po' tutti in attesa per capire se la tessellation fa la differenza (graficamente) oppure è ancora solo un'etichetta :mad:

sperem in un bel lavoro x alien :fagiano:

LurenZ87
19-01-2010, 08:18
Fino ad oggi mi hanno detto che attivando il tessellator su DiRT2 visivamente non cambia nulla. Visto che un hit prestazionale ce l'avrà in ogni caso sarebbe da evitare (sia che vada meglio sia che vada peggio).

Di AVP siamo un po' tutti in attesa per capire se la tessellation fa la differenza (graficamente) oppure è ancora solo un'etichetta :mad:

Infatti è il mio nocciolo della questione :O ... se effettivamente le differenze grafiche ci sono, e non come avvenne nelle dx10, allora penserò a che scheda video dx11 prendere (visto quello che si è letto e visto in giro, sarà una bella battaglia :D :D :D )... se invece le differenze saranno pochissime e con un calo di frame rate assurdo, mi terrò tranquillamente la mia X2 :stordita: ... come si dice, chi vi vivrà vedrà (io comunque lo devo comprare AvP a prescindere dagli esiti :ciapet: ) ciauz

gianni1879
19-01-2010, 08:21
LurenZ87

Sistema la firma come da regolamento.

Grazie

aaasssdddfffggg
19-01-2010, 08:35
guarda, non so a chi ti riferisci di preciso, cmq oltre a me solo un altro mi pare che ha detto che rivenderà la sua 5800 quando uscirà il gf100...

io, SE la nvidia andrà meglio (...e le notizie di oggi mi sono parse nel complesso molto postive ;)) la rivenderò la mia ati (che cmq reputo sempre una bella scheda).., come ho sempre detto fin dall'inizio.. e d'altronde fin dall'inizio sono sempre stato fiducioso sulle prossime nvidia, -mai gettato fango su Fermi-...quindi sono sempre stato coerente al 100% ;)

Si posso confermarlo visto che ci ho scambiato diversi post con lui.:)

aaasssdddfffggg
19-01-2010, 08:37
Ragazzi ma si sa nulla sulla nuova modalità di rendering nel muliGPU che NVIDIA introdurrà con l'arrivo di FERMI sul mercato?
Non riesco a trovare un fico secco su sta cosa ma solo la notizia che sarà lanciata con Fermi.

persa
19-01-2010, 08:39
Si posso confermarlo visto che ci ho scambiato diversi post con lui.:)

;)
Ragazzi ma si sa nulla sulla nuova modalità di rendering nel muliGPU che NVIDIA introdurrà con l'arrivo di FERMI sul mercato?
Non riesco a trovare un fico secco su sta cosa ma solo la notizia che sarà lanciata con Fermi.

bo...avevo letto giusto qualche cosa tempo fa su bejond3d... ne parlavano nel thread dedicato all'architettura fermi... :fagiano:

aaasssdddfffggg
19-01-2010, 08:46
;)


bo...avevo letto giusto qualche cosa tempo fa su bejond3d... ne parlavano nel thread dedicato all'architettura fermi... :fagiano:

vado a sbirciare allora.:D

gianni1879
19-01-2010, 08:56
vado a sbirciare allora.:D

sui MULIgpu???

halduemilauno
19-01-2010, 09:01
sui MULIgpu???

una nuova razza equina.
:D

zorco
19-01-2010, 09:03
una nuova razza equina.
:D
:asd:

halduemilauno
19-01-2010, 09:23
ultime news...
http://www.fudzilla.com/content/view/17291/1/


Grain of salt is a must with Nvidia's schedules

Single-chip Fermi and the card codenamed GF100 should launch in March. This should be the launch time frame and a dual-chip version might follow in roughly one+ months after the official single-chip launches.

This is roughly the plan as it will take some time to prepare this dual headed beast, especially since Fermi will be the hottest chip in Nvidia's history. Naturally, putting two such chips on the same card won't be a walk in the park.

The important thing is that dual-chip card is possible and Nvidia is working on it. The big issue is of course that it will take roughly three months from today before you will be able to buy one, whereas ATI's dual-GPU card has been selling for more than a month, closer to two now.


http://www.fudzilla.com/content/view/17290/1/



Give it a few months

We've learned that the six-month delay of Geforce version of GF100 Fermi chips and cards won't actually hinder the introduction of other, slower version of Fermi card.


The whole point of making the insanely big Fermi is to win the hearts of journalists and enthusiasts and to bring this architecture to performance, mainstream and finally entry-level markets.

Entry-level is where the money is, even though you need to send millions of these cards to make a decent profit. Mainstream Fermi is a project that Nvidia is pushing side-by-side with high-end Fermi and we've learned that mainstream Fermi should be on time.

You should roughly expect it one quarter after the first Fermi, and if all goes well June should be a good month to launch. Since Nvidia changed quite a lot of plans in the last few months, don’t be surprised if it launches a bit later.

;)

persa
19-01-2010, 09:27
Da screen, invece, fin'ora l'unico gioco che sembra avere vantaggi estetici degni di nota nel passaggio a DX11 è Stalker, ma visto quanto è pessimo l'engine temo che tale rimarrò, DX11 o no -.- Nonostante il timore è l'unico dei titoli DX11 prossimi che sto effettivamente aspettando, la speranza è l'ultima a morire...

bo...personalmente stalker fa proprio schifo di grafica.. ho fatto anche i benchmark con le varie impostazioni dx9-10-11 tessellone ecc e non ho visto differenze nel livello del bench, mi è parsa in molti dettagli sempre una grafica da directx8

aaasssdddfffggg
19-01-2010, 09:30
sui MULIgpu???

Ok dai ci siamo capiti,ho scritto male.MultiGPU,comunque continuo a non trovare poco o nulla su sta cosa.:rolleyes:

aaasssdddfffggg
19-01-2010, 09:31
ultime news...
http://www.fudzilla.com/content/view/17291/1/


Grain of salt is a must with Nvidia's schedules

Single-chip Fermi and the card codenamed GF100 should launch in March. This should be the launch time frame and a dual-chip version might follow in roughly one+ months after the official single-chip launches.

This is roughly the plan as it will take some time to prepare this dual headed beast, especially since Fermi will be the hottest chip in Nvidia's history. Naturally, putting two such chips on the same card won't be a walk in the park.

The important thing is that dual-chip card is possible and Nvidia is working on it. The big issue is of course that it will take roughly three months from today before you will be able to buy one, whereas ATI's dual-GPU card has been selling for more than a month, closer to two now.


http://www.fudzilla.com/content/view/17290/1/



Give it a few months

We've learned that the six-month delay of Geforce version of GF100 Fermi chips and cards won't actually hinder the introduction of other, slower version of Fermi card.


The whole point of making the insanely big Fermi is to win the hearts of journalists and enthusiasts and to bring this architecture to performance, mainstream and finally entry-level markets.

Entry-level is where the money is, even though you need to send millions of these cards to make a decent profit. Mainstream Fermi is a project that Nvidia is pushing side-by-side with high-end Fermi and we've learned that mainstream Fermi should be on time.

You should roughly expect it one quarter after the first Fermi, and if all goes well June should be a good month to launch. Since Nvidia changed quite a lot of plans in the last few months, don’t be surprised if it launches a bit later.

;)

quello dovrebbe essere il mio momento per scendere in campo...:D

DVD2005
19-01-2010, 09:32
Si posso confermarlo visto che ci ho scambiato diversi post con lui.:)

quoto anche io :)

persa
19-01-2010, 09:32
Il primo lo installai e dopo 5 minuti era già disinstallato perché mi faceva schifo la grafica, fai te :asd:

(Tengo a precisare che era in bundle con la mobo, non l'avrei comprato :read: )

ed il primo mi è sembrato meglio di questo ultimo stalker.....è questa la cosa assurda...

xò vabbe...ho visto solo un pezzo di livello..magari in altri punti migliora...

quoto anche io :)

:fagiano: ;)

aaasssdddfffggg
19-01-2010, 09:33
bo...personalmente stalker fa proprio schifo di grafica.. ho fatto anche i benchmark con le varie impostazioni dx9-10-11 tessellone ecc e non ho visto differenze nel livello del bench, mi è parsa in molti dettagli sempre una grafica da directx8

STALKER è penoso come lo è L'X-RAY engine che mostra ormai il segno degli anni.Tenete sott'occhio METRO 2033 per le directx11 in uscita quest'anno che sarà spaventoso.;)

Maury
19-01-2010, 09:35
STALKER Clear Sky è magnifico in tutti i sensi, graficamente spacca di brutto :)

persa
19-01-2010, 09:35
STALKER è penoso come lo è L'X-RAY engine che mostra ormai il segno degli anni.Tenete sott'occhio METRO 2033 per le directx11 in uscita quest'anno che sarà spaventoso.;)

ma è tipo stalker come gioco?

Kharonte85
19-01-2010, 09:42
ultime news...
http://www.fudzilla.com/content/view/17291/1/


Grain of salt is a must with Nvidia's schedules

Single-chip Fermi and the card codenamed GF100 should launch in March. This should be the launch time frame and a dual-chip version might follow in roughly one+ months after the official single-chip launches.

This is roughly the plan as it will take some time to prepare this dual headed beast, especially since Fermi will be the hottest chip in Nvidia's history. Naturally, putting two such chips on the same card won't be a walk in the park.

The important thing is that dual-chip card is possible and Nvidia is working on it. The big issue is of course that it will take roughly three months from today before you will be able to buy one, whereas ATI's dual-GPU card has been selling for more than a month, closer to two now.


http://www.fudzilla.com/content/view/17290/1/



Give it a few months

We've learned that the six-month delay of Geforce version of GF100 Fermi chips and cards won't actually hinder the introduction of other, slower version of Fermi card.


The whole point of making the insanely big Fermi is to win the hearts of journalists and enthusiasts and to bring this architecture to performance, mainstream and finally entry-level markets.

Entry-level is where the money is, even though you need to send millions of these cards to make a decent profit. Mainstream Fermi is a project that Nvidia is pushing side-by-side with high-end Fermi and we've learned that mainstream Fermi should be on time.

You should roughly expect it one quarter after the first Fermi, and if all goes well June should be a good month to launch. Since Nvidia changed quite a lot of plans in the last few months, don’t be surprised if it launches a bit later.

;)

1) Coi TDP che girano continuo ad avere dubbi sulla Dual-GPU

2) Sarebbe enormemente positivo se fosse vicino il lancio delle altre fasce di schede.

aaasssdddfffggg
19-01-2010, 09:43
STALKER Clear Sky è magnifico in tutti i sensi, graficamente spacca di brutto :)

se ti accontenti della grafica di stalker ...contento tu.;)
Sai cosa hanno detto gli sviluppatori?"L'X-Ray engine è l'ultima volta che lo usiamo in questo episodio di STALKER.E' ora che va in pensione.":p
Metro 2033 ha un motore grafico nuovo di zecca scritto da zero.:D

aaasssdddfffggg
19-01-2010, 09:44
ma è tipo stalker come gioco?

diciamo di si,ma la storia è totalmente diversa.La grafica è da urlo quindi ben vengano le nuove gpu.:Prrr:

persa
19-01-2010, 09:46
1) Coi TDP che girano continuo ad avere dubbi sulla Dual-GPU

2) Sarebbe enormemente positivo se fosse vicino il lancio delle altre fasce di schede.

1) castratescions e si può fare anche quella :asd:

2) vero.

diciamo di si,ma la storia è totalmente diversa.La grafica è da urlo quindi ben vengano le nuove gpu.:Prrr:

allora lo terrò d'occhio :D

sertopica
19-01-2010, 09:48
[...]
Da screen, invece, fin'ora l'unico gioco che sembra avere vantaggi estetici degni di nota nel passaggio a DX11 è Stalker, ma visto quanto è pessimo l'engine temo che tale rimarrò, DX11 o no -.- Nonostante il timore è l'unico dei titoli DX11 prossimi che sto effettivamente aspettando, la speranza è l'ultima a morire...
L'engine di STALKER mostra tutti i suoi limiti dovuti all'età, nonostante le varie revisioni che si sono succedute negli anni. Comunque, come dici, continuiamo a sperare... :D
STALKER è penoso come lo è L'X-RAY engine che mostra ormai il segno degli anni.Tenete sott'occhio METRO 2033 per le directx11 in uscita quest'anno che sarà spaventoso.;)
Sicuro che Metro 2033 supporti le DX11? Io so che l'engine è DX10. :wtf:

aaasssdddfffggg
19-01-2010, 09:51
L'engine di STALKER mostra tutti i suoi limiti dovuti all'età, nonostante le varie revisioni che si sono succedute negli anni. Comunque, come dici, continuiamo a sperare... :D

Sicuro che Metro 2033 supporti le DX11? Io so che l'engine è DX10. :wtf:

non nativamente ovviamente ma ci saranno effetti directx11,un po' come lo sarà alien e bad company 2 per capirci.Resta il fatto che il motore grafico è nuovo di pacca ovvero l'X-RAY ENGINE 2 e non slo .In questo titolo si fa anche uso massiccio di PhysX di nvidia.

sertopica
19-01-2010, 09:54
non nativamente ovviamente ma ci saranno effetti directx11,un po' come lo sarà alien e bad company 2 per capirci.Resta il fatto che il motore grafico è nuovo di pacca ovvero l'X-RAY ENGINE 2.

Probabile... :)
Comunque: http://en.wikipedia.org/wiki/Metro_2033
Si chiama 4A Engine. ;)

/OT

aaasssdddfffggg
19-01-2010, 09:57
Probabile... :)
Comunque: http://en.wikipedia.org/wiki/Metro_2033
Si chiama 4A Engine. ;)

/OT

esattamente : X-Ray Engine 4A ovvero la seconda generazione dell'X-RAY ENGINE.;)

Athlon 64 3000+
19-01-2010, 10:01
Andando un'attimo off topic volevo chiedere dove sta scritto che Metro 2033 supporterà le dx11 visto che quello che ho trovato parla solo delle dx10.

persa
19-01-2010, 10:02
PhysX on CPU, fra le altre cose :)

quindi quello + simpatico :) :D

aaasssdddfffggg
19-01-2010, 10:03
Andando un'attimo off topic volevo chiedere dove sta scritto che Metro 2033 supporterà le dx11 visto che quello che ho trovato parla solo delle dx10.

Specificamente per la versione PC (parsa al momento quella di riferimento), gli sviluppatori hanno annunciato la compatibilità di Metro 2033 con le librerie DirectX 10 e 11, così come il pieno supporto alla tecnologia PhysX di nVidia

http://www.gamesnation.it/giochi/1367/anteprime/metro-2033.html

sertopica
19-01-2010, 10:07
Se è programmato alla DX10 e non alla DX9 aggiungere le DX11 per averne vantaggi non è un problema. L'importante è che non sia sviluppato alla DX9.

PhysX on CPU, fra le altre cose :)

quindi quello + simpatico :) :D

I possessori di ATi sono salvi! :D
Comunque, per chi non l'avesse visto: http://www.youtube.com/watch?v=jSKe3KTXzaE (bellissimo :eek: )
Qualcosa mi dice che quelle tende nell'infermeria saranno accelerate by PhysX! :asd:

persa
19-01-2010, 10:08
Quello che funziona con una VGA sola :asd:

:Perfido: :D

halduemilauno
19-01-2010, 10:13
1) Coi TDP che girano continuo ad avere dubbi sulla Dual-GPU

2) Sarebbe enormemente positivo se fosse vicino il lancio delle altre fasce di schede.

tocca vedere il vero tdp della 384. a nvidia eventualmente servirà fare la 384x2. la 512x2 servirà eventualmente dopo e con il pp a 28nm.
;)

persa
19-01-2010, 10:13
http://vr-zone.com/articles/-rumour-dual-gpu-gf100-in-april-possible-/8314.html

mmmhhh...secondo loro è impossibile quindi :fagiano:

eppure dico io...neanche castrandola a 384sp e frequenze basse.. ?! mmmmhhhh

aaasssdddfffggg
19-01-2010, 10:16
tocca vedere il vero tdp della 384. a nvidia eventualmente servirà fare la 384x2. la 512x2 servirà eventualmente dopo e con il pp a 28nm.
;)

ed io dovrò valutare se mi conviene pià andare di triple SLI di 380 a 512sp pieni (sperando che vengano subito fuori anch'essi)o eventualmente ad un quad castrato perbenino.Questi sono i dubbi che mi assalgono.:confused:

persa
19-01-2010, 10:18
ed io dovrò valutare se mi conviene pià andare di triple SLI di 380 a 512sp pieni (sperando che vengano subito fuori anch'essi)o eventualmente ad un quad castrato perbenino.Questi sono i dubbi che mi assalgono.:confused:

se gli riuscisse di realizzarla con 384sp...verrebbe 768sp...x2 = 1536sp ( sli di dual gpu) ...tri sli di 380 = 1536sp :asd:

aaasssdddfffggg
19-01-2010, 10:20
se gli riuscisse di realizzarla con 384sp...verrebbe 768sp...x2 = 1536sp ( sli di dual gpu) ...tri sli di 380 = 1536sp :asd:

si ok,ma bisogna vedere chi la spunterà meglio.Non è facile qua senza sapere le specifiche di un'ipotetica dual e tenedo presente quello che si conosce già della 380 (+ o -).

DVD2005
19-01-2010, 10:28
mmmhhh...secondo loro è impossibile quindi :fagiano:

eppure dico io...neanche castrandola a 384sp e frequenze basse.. ?! mmmmhhhh

se la devono castrare troppo però mi sa perde un pò lo scopo... bho... vedremo.

persa
19-01-2010, 10:37
se la devono castrare troppo però mi sa perde un pò lo scopo... bho... vedremo.


imho dipenderà anche da che frequenze avrà una 360...nel senso che se ha quel tdp...con 448sp..e tiene però anche frequenze alte (tipo 700 e passa) allora facendo una dual con 416sp e frequenze tipo 600...si potrebbe riuscire a farla a livello di tdp... e come prestazioni imho ne varrebbe anche la pena.
si tratterebbe di una 832shader contro 512.... imho la brucerebbe una 512sp..

2 core insieme con il 20% circa di shader a testa in meno rispetto alla singola 512sp....dai...

esempio... se prendi due gtx260 192sp (anche queste quindi con 2 core a livello di shader il 20% meno potenti del top gamma) in sli vanno decisamente di più di una gtx280.

aaasssdddfffggg
19-01-2010, 10:38
se la devono castrare troppo però mi sa perde un pò lo scopo... bho... vedremo.

Eppure sono certo che nvidia la farà la dualgpu.L'ha sempre fatto in passato e non vedo perchè non debba farlo adesso.Gli ingegneri nvidia troveranno il modo di tirare fuori il coniglio dal cilindro e trovare un giusto compromesso tra specifiche e prestazioni.Sono fiducioso anche in questo.:)

Kharonte85
19-01-2010, 10:39
tocca vedere il vero tdp della 384. a nvidia eventualmente servirà fare la 384x2. la 512x2 servirà eventualmente dopo e con il pp a 28nm.
;)
Per riuscire a farla il TDP della GTX 360 dovrebbe aggirarsi sui 180-190W (simile a quello della HD5870) di modo che castrandola parecchio potrebbero rientrare nei 300W con la DualGPU
se gli riuscisse di realizzarla con 384sp...verrebbe 768sp...x2 = 1536sp ( sli di dual gpu) ...tri sli di 380 = 1536sp :asd:
:sbonk:

persa
19-01-2010, 10:40
:sbonk:

:fagiano:

persa
19-01-2010, 10:43
sul fatto che cmq sia impossibile realizzarla con 512 - 480 o 448sp x2 concordo..

però scendendo un pochinino di più..si può trovare il giusto compromesso IMHO :Perfido:


Edit:

aspetto commenti :O :ops:

persa
19-01-2010, 11:00
Commenti?

servirebbe una risposta da yoss ;)

Kharonte85
19-01-2010, 11:08
sul fatto che cmq sia impossibile realizzarla con 512 - 480 o 448sp x2 concordo..

però scendendo un pochinino di più..si può trovare il giusto compromesso IMHO :Perfido:


Edit:

aspetto commenti :O :ops:
Come ho già detto un grande indicatore sarà il tdp della GTX 360, è evidente che il limite per la dual GPU è il consumo/calore/potenza necessaria. Da fare rientrare nei 300w.
Torno un attimo indietro al tessellator ma la questione potrebbe essere collegata.

Mi chiedevo come gestirà i cluster disabilitati.

Nel senso, sul chip completamente abilitato si troverebbero 4 tessellator che si appoggiano ognuno all'intero "core" composto da 4 Shader Multiprocessor (128SP) per quanto riguarda l'emulazione di Hull e Domain.

Ora cosa succede in una versione a 448SP?

I 4 "core" sarebbero composti da un numero diverso fra loro di SM (4|4|3|3). A parte il fatto che globalmente scenderebbe la capacità di tesselation, ci dobbiamo attendere prestazioni altalenanti e non riproducibili della tessellation in base a dove viene inviato il compito?

L'equilibrio tornerebbe per una ipotetica versione a 416SP (3|3|3|3) ma questo senza tenere di conto la necessità di aumentare il più possibile gli yelds, per cui è necessario che gli SM disabilitati possano essere scelti liberamente in tutto il chip, e non distribuiti equamente fra i 4 "core", quindi potrebbero anche verificarsi situazioni peggiori di quelle indicate (448SP @ 4|4|2|2 e 416 @ 3|3|3|0).

Commenti?
Bella domanda :)

E la risposta è :boh:

:D

persa
19-01-2010, 11:12
Bella domanda :)


un pò tendente al perfido :)








scherzo ratatosk :asd:

devAngnew
19-01-2010, 11:14
Torno un attimo indietro al tessellator ma la questione potrebbe essere collegata.

Mi chiedevo come gestirà i cluster disabilitati.

Nel senso, sul chip completamente abilitato si troverebbero 4 tessellator che si appoggiano ognuno all'intero "core" composto da 4 Shader Multiprocessor (128SP) per quanto riguarda l'emulazione di Hull e Domain.

Ora cosa succede in una versione a 448SP?

I 4 "core" sarebbero composti da un numero diverso fra loro di SM (4|4|3|3). A parte il fatto che globalmente scenderebbe la capacità di tesselation, ci dobbiamo attendere prestazioni altalenanti e non riproducibili della tessellation in base a dove viene inviato il compito?

L'equilibrio tornerebbe per una ipotetica versione a 416SP (3|3|3|3) ma questo senza tenere di conto la necessità di aumentare il più possibile gli yelds, per cui è necessario che gli SM disabilitati possano essere scelti liberamente in tutto il chip, e non distribuiti equamente fra i 4 "core", quindi potrebbero anche verificarsi situazioni peggiori di quelle indicate (448SP @ 4|4|2|2 e 416 @ 3|3|3|0).

Commenti?

Provo a risponderti,
Allora punto primo ogni SM ha il suo Morph Engine quindi in gpu completamente funzionante c'è ne sono ben 16.
Secondo gli shader Hull e Domain non sono emulati ma sono eseguiti dagli SP. ;)

Nel caso che un SM abbia dei sp disabilitati semplicemente diminuirà la potenza di calcolo (abbiamo meno ALU) quindi la potenza di elaborazione per quel SM di Hull e Domain shader ma anche vertex e pixel sarà minore. Ora starà allo schedulatore riuscire a ripartire bene i thread alle unità sottostanti di modo che l'exe dello shader sia il più "stabile" possibile. C'è da notare un'altra cosa poichè la tesselation in Fermi è equamente distribuita in tutto il chip risulta una gpu molto scalabile verso il basso basta disabilitare un intero SM per avere meno potenza tesselation come anche potenza vertex e pixel shader.


bye.
;)

halduemilauno
19-01-2010, 11:15
sul fatto che cmq sia impossibile realizzarla con 512 - 480 o 448sp x2 concordo..

però scendendo un pochinino di più..si può trovare il giusto compromesso IMHO :Perfido:


Edit:

aspetto commenti :O :ops:

ma anche se fosse possibile a nvidia non servono i 512x2 o i 448x2. a nvidia serve battere la 5970 e può benissimo raggiungere questo suo obbiettivo con una 384x2. dopotutto se la 512(singola)regge(o pare che regga)la 5970 mi pare evidente che la 384x2 vada(andrà)+ che bene. quanto potra dare questa ipotetica 384x2 rispetto alla 512 singola basta anche un 40/50% e hai ottenuto un notevole boost rispetto alla 512 e hai superato alla stragrande la 5970 e credo ti metti pure al sicuro da una ipotetica 5990. poi è chiaro devi vedere il contorno quindi frequenze e bus. per il bus credo che il 384 bit attuale vada benissimo e le frequenze un tantinello conservative e il gioco è fatto. praticamente quanto fu fatto con la gtx295 nei confronti della gtx 285 e il boost fra esse è sotto i nostri occhi. e si riserva le 448x2 e 512x2 per ben altri scenari + impegnativi ovviamente in quel caso aspettando i 28nm.
IMHO.
;)

persa
19-01-2010, 11:27
ok...ma in che senso la 512 regge la 5970 hal? io sono fiducioso ma non credo che la 512 competerà addirittura con una dual... :fagiano:

xò ecco si..magari arrivando in versione dual a 768sp...allora si...su questo concordo. potrebbe essere.

gianni1879
19-01-2010, 11:28
ma anche se fosse possibile a nvidia non servono i 512x2 o i 448x2. a nvidia serve battere la 5970 e può benissimo raggiungere questo suo obbiettivo con una 384x2. dopotutto se la 512(singola)regge(o pare che regga)la 5970 mi pare evidente che la 384x2 vada(andrà)+ che bene. quanto potra dare questa ipotetica 384x2 rispetto alla 512 singola basta anche un 40/50% e hai ottenuto un notevole boost rispetto alla 512 e hai superato alla stragrande la 5970 e credo ti metti pure al sicuro da una ipotetica 5990. poi è chiaro devi vedere il contorno quindi frequenze e bus. per il bus credo che il 384 bit attuale vada benissimo e le frequenze un tantinello conservative e il gioco è fatto. praticamente quanto fu fatto con la gtx295 nei confronti della gtx 285 e il boost fra esse è sotto i nostri occhi. e si riserva le 448x2 e 512x2 per ben altri scenari + impegnativi ovviamente in quel caso aspettando i 28nm.
IMHO.
;)
presumo tu abbia dati certi che una 384 vada più forte di una singola rv870?

scorpion73
19-01-2010, 11:31
va be ho capito.. ma secondo me cmq una dual è fuori portata, sia per i costi che per il calore, anche se la fai castrata.
io penso che al momento per la maggior parte delle persone interessate a Fermi la sfida sia di vedere quanto andrà la GTX380 contro la HD5970, sia come prestazioni che come costi, e poi la scelta sarà fra queste due
Personalmente non considero la scheda con 448SP, per me la sfida ci sarà nel momento in cui trovo disponibile la 512SP: non prendo una scheda castrata per ritrovarmi qualche mese dopo la full che svaluta la 448SP.
Almeno cosi' la penso io

DVD2005
19-01-2010, 11:33
imho dipenderà anche da che frequenze avrà una 360...nel senso che se ha quel tdp...con 448sp..e tiene però anche frequenze alte (tipo 700 e passa) allora facendo una dual con 416sp e frequenze tipo 600...si potrebbe riuscire a farla a livello di tdp... e come prestazioni imho ne varrebbe anche la pena.
si tratterebbe di una 832shader contro 512.... imho la brucerebbe una 512sp..

2 core insieme con il 20% circa di shader a testa in meno rispetto alla singola 512sp....dai...

esempio... se prendi due gtx260 192sp (anche queste quindi con 2 core a livello di shader il 20% meno potenti del top gamma) in sli vanno decisamente di più di una gtx280.

Eppure sono certo che nvidia la farà la dualgpu.L'ha sempre fatto in passato e non vedo perchè non debba farlo adesso.Gli ingegneri nvidia troveranno il modo di tirare fuori il coniglio dal cilindro e trovare un giusto compromesso tra specifiche e prestazioni.Sono fiducioso anche in questo.:)

cmq alla fine penso anche io che la faranno. ad ogni modo ora attendo con più ansia la single :)

halduemilauno
19-01-2010, 11:36
ok...ma in che senso la 512 regge la 5970 hal? io sono fiducioso ma non credo che la 512 competerà addirittura con una dual... :fagiano:

regge nel senso che seppur sotto a carattere generale e in media starà sotto di pochi punti %. e magari in qualche scenario(gioco)se la potrà giocare alla pari. eppoi visto che le dx11 porteranno via via sempre + a un'uso intenso della tessellation mi pare di aver capito che sotto quell'aspetto la gtx380 possa esser meglio attrezzata o che si possa difendere ancor meglio. a quanto si è capito nvidia ha curato molto questi aspetti e dovrebbe esser in vantaggio. ripeto faccio discorsi che ovviamente devono trovare conforto nelle rece e quindi aspettiamole.
e ovviamente IMHO.
;)

persa
19-01-2010, 11:38
presumo tu abbia dati certi che una 384 vada più forte di una singola rv870?

xò da una parte non ha torto...

prendiamo sempre per esempio una gtx285 vs 5850.... la gtx chippone top è sotto di un 15%

ma con una dual di gtx260 192sp ...quindi 2 gpu inferiori alla top..che , prese singolarmente, sarebbero ancora + inferiori rispetto una 5850, si riuscirebbe a raggiungere ed anche superare la 5850.
xchè unite insieme farebbero una scheda ancora più potente della 285

cmq alla fine penso anche io che la faranno. ad ogni modo ora attendo con più ansia la single :)

idem ;) a me piacciono le singole gpu...non le dual..


regge nel senso che seppur sotto a carattere generale e in media starà sotto di pochi punti %. e magari in qualche scenario(gioco)se la potrà giocare alla pari. eppoi visto che le dx11 porteranno via via sempre + a un'uso intenso della tessellation mi pare di aver capito che sotto quell'aspetto la gtx380 possa esser meglio attrezzata o che si possa difendere ancor meglio. a quanto si è capito nvidia ha curato molto questi aspetti e dovrebbe esser in vantaggio. ripeto faccio discorsi che ovviamente devono trovare conforto nelle rece e quindi aspettiamole.
e ovviamente IMHO.
;)

sisi ora ho capito :D vedremo :fagiano:

gianni1879
19-01-2010, 11:41
xò da una parte non ha torto...

prendiamo sempre per esempio una gtx285 vs 5850.... la gtx chippone top è sotto di un 15%

ma con una dual di gtx260 192sp ...quindi 2 gpu inferiori alla top..che , prese singolarmente, sarebbero ancora + inferiori rispetto una 5850, si riuscirebbe a raggiungere ed anche superare la 5850.

sto dicendo senza dati certi come si può dire che basti una 384x2 per andare sopra la 5970??

almeno che lui ha dati che noi non conosciamo...

halduemilauno
19-01-2010, 11:43
presumo tu abbia dati certi che una 384 vada più forte di una singola rv870?

se 512 shader valgono il 90% di 3200(1600x2)non faccio molta fatica a pensare e dire che 768(384x2)vadano molto di +. non parlavo di 384 vs 1600. i 384 semmai si dovrebbero scontrare/confrontare con i 1440 della 5850 o con quelli che saranno della 5830.
questo per esemplificare.

Kharonte85
19-01-2010, 11:43
Provo a risponderti,
Allora punto primo ogni SM ha il suo Morph Engine quindi in gpu completamente funzionante c'è ne sono ben 16.
Secondo gli shader Hull e Domain non sono emulati ma sono eseguiti dagli SP. ;)

Nel caso che un SM abbia dei sp disabilitati semplicemente diminuirà la potenza di calcolo (abbiamo meno ALU) quindi la potenza di elaborazione per quel SM di Hull e Domain shader ma anche vertex e pixel sarà minore. Ora starà allo schedulatore riuscire a ripartire bene i thread alle unità sottostanti di modo che l'exe dello shader sia il più "stabile" possibile. C'è da notare un'altra cosa poichè la tesselation in Fermi è equamente distribuita in tutto il chip risulta una gpu molto scalabile verso il basso basta disabilitare un intero SM per avere meno potenza tesselation come anche potenza vertex e pixel shader.


bye.
;)
Spero che sia come dici tu, soprattutto riguardo alla scalabilità verso il basso ;)

Cosa che fra l'altro è confermata in alcune recensioni:


On the plus side, the GF100’s architecture really does seem to be a departure from the GT200 in terms of scalability. As was discussed in the Modular Architecture section, NVIDIA is aiming to have a chip that can efficiently scale down for appropriate markets. This will eventually lead to a long line of GF100 derivatives and finally replace the endlessly renamed G92-based cards of yesteryear. To make matters even better, this new class of cards will fall under the umbrella of NVIDIA’s Unified Driver Architecture program so they will be able to continue releasing one driver for all of their products.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/27892-nvidia-s-geforce-gf100-under-microscope-17.html


:sperem:
cmq alla fine penso anche io che la faranno. ad ogni modo ora attendo con più ansia la single :)
Hai ragione meglio andare sul sicuro, quelle accoppiate danno un sacco di problemi...:O :D

A parte gli scherzi io mi accontenterei volentieri di una GTX 360 se andasse di più della HD5850.

persa
19-01-2010, 11:48
se 512 shader valgono il 90% di 3200(1600x2)non faccio molta fatica a pensare e dire che 768(384x2)vadano molto di +. non parlavo di 384 vs 1600. i 384 semmai si dovrebbero scontrare/confrontare con i 1440 della 5850 o con quelli che saranno della 5830.
questo per esemplificare.

si è un pò l'esempio che ho fatto io, usando però nel mio caso schede di generazioni diverse :fagiano:

sommo89
19-01-2010, 11:51
ti sei risposto da solo.
;)

non ho capito però per il tassellone....non mi sembra di essermi rispostio da solo...

gianni1879
19-01-2010, 11:52
se 512 shader valgono il 90% di 3200(1600x2)non faccio molta fatica a pensare e dire che 768(384x2)vadano molto di +. non parlavo di 384 vs 1600. i 384 semmai si dovrebbero scontrare/confrontare con i 1440 della 5850 o con quelli che saranno della 5830.
questo per esemplificare.

dove hai visto che una 512 valgono il 90% di 3200 (1600x2)?
no così per curiosità.


a parte che si parla di architetture diverse.

Io ho "visto" l'unico test in game farcry2 dove Fermi (sicuramente una versione top e non penso la 384) fa attorno gli 80fps (considerando 84 pompato), mentre una hd5870 attorno a 70 fps. Per cui abbiamo una differenza in favore di fermi di circa il +15%

Ovviamente in attesa di test un pò più seri.

persa
19-01-2010, 11:55
sto dicendo senza dati certi come si può dire che basti una 384x2 per andare sopra la 5970??

almeno che lui ha dati che noi non conosciamo...

no ma infatti è solo un ipotesi...ma non si può dire con sicurezza... bisognerebbe vedere prima dove arriva una 512sp ripsetto alla 5970...ecc ecc..e x questo ci voghliono tanti bei bench che vedremo solo a marzo..;)

halduemilauno
19-01-2010, 11:58
regge nel senso che seppur sotto a carattere generale e in media starà sotto di pochi punti %. e magari in qualche scenario(gioco)se la potrà giocare alla pari. eppoi visto che le dx11 porteranno via via sempre + a un'uso intenso della tessellation mi pare di aver capito che sotto quell'aspetto la gtx380 possa esser meglio attrezzata o che si possa difendere ancor meglio. a quanto si è capito nvidia ha curato molto questi aspetti e dovrebbe esser in vantaggio. ripeto faccio discorsi che ovviamente devono trovare conforto nelle rece e quindi aspettiamole.
e ovviamente IMHO.
;)

dove hai visto che una 512 valgono il 90% di 3200 (1600x2)?
no così per curiosità.



a parte che si parla di architetture diverse.

Io ho "visto" l'unico test in game farcry2 dove Fermi (sicuramente una versione top e non penso la 384) fa attorno gli 80fps (considerando 84 pompato), mentre una hd5870 attorno a 70 fps. Per cui abbiamo una differenza in favore di fermi di circa il +15%

Ovviamente in attesa di test un pò più seri.

questo concetto...
ripeto faccio discorsi che ovviamente devono trovare conforto nelle rece e quindi aspettiamole.
e ovviamente IMHO.
lo avevo appena esposto mi pareva inutile riproporlo subito dopo. e ho poi aggiunto " questo per esemplificare"

faber80
19-01-2010, 12:00
dove hai visto che una 512 valgono il 90% di 3200 (1600x2)?
no così per curiosità.


a parte che si parla di architetture diverse.

Io ho "visto" l'unico test in game farcry2 dove Fermi (sicuramente una versione top e non penso la 384) fa attorno gli 80fps (considerando 84 pompato), mentre una hd5870 attorno a 70 fps. Per cui abbiamo una differenza in favore di fermi di circa il +15%

Ovviamente in attesa di test un pò più seri.

IT
se ben ricordo gli sp ati vanno divisi per 4 o 5 (Yoss sa sicuramente a cosa mi riferisco), quindi la 5870 con 1600 dovrebbe fisicamente averne circa 3-400. Non appena trovo il link lo posto.

OT
parli al vento, l'unica cosa che conta qua dentro son le slide di Nvidia. :asd:

persa
19-01-2010, 12:01
dove hai visto che una 512 valgono il 90% di 3200 (1600x2)?
no così per curiosità.


a parte che si parla di architetture diverse.

Io ho "visto" l'unico test in game farcry2 dove Fermi (sicuramente una versione top e non penso la 384) fa attorno gli 80fps (considerando 84 pompato), mentre una hd5870 attorno a 70 fps. Per cui abbiamo una differenza in favore di fermi di circa il +15%



o volendo però, potrebbe anche essere spompato rispetto a quello che sarà il risultato a marzo ;)

Ovviamente in attesa di test un pò più seri.

concordo

Kharonte85
19-01-2010, 12:09
dove hai visto che una 512 valgono il 90% di 3200 (1600x2)?
no così per curiosità.


a parte che si parla di architetture diverse.
Infatti, non dimentichiamoci che in realtà gli "stream processor" effettivi in cypress sono 1600/5= 320 essendo a "5 vie".

A seconda delle situazioni che si trovano ad elaborare questi possono avere una efficienza pari a 320 nel peggiore dei casi mentre da 1600 nel caso ideale. L'efficienza non so se è stata stimata ma dovrebbe essere << del 90%

Mentre nel caso di Nvidia i 512SP dovrebbero essere sfruttati sempre con una efficienza di circa il 90% (dato a cui faceva riferimento Hal credo???)


Io ho "visto" l'unico test in game farcry2 dove Fermi (sicuramente una versione top e non penso la 384) fa attorno gli 80fps (considerando 84 pompato), mentre una hd5870 attorno a 70 fps. Per cui abbiamo una differenza in favore di fermi di circa il +15%

Ovviamente in attesa di test un pò più seri.
Riguardo a quel test:

In un video su Guru3d si sente il "presentatore" dire che quelle non saranno le performance definitive (e da come lo dice lascia intendere che i margini finali saranno >).

Alcune recensioni hanno messo in evidenza che

While the following benchmarks show only a slight glimpse of what the GF100 is capable of, it should be mentioned that all of them were run in front of our eyes in real-time and were done on hardware that is still in its beta stage. These numbers will improve as NVIDIA dials in clock speeds and the beta drivers mature to a point where they are ready for release.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/27892-nvidia-s-geforce-gf100-under-microscope-13.html


In una recensione ho letto che Nvidia non ha specificato il modello ma ha detto che sarà quello che verrà lanciato per primo....se questo fosse vero quel numero è destinato ad aumentare.

Adone_1985
19-01-2010, 12:10
Raga io ho visto altri test di far cry 2 con 4x di AA a 1920 x 1200 la 5870 andava 10 fps in più del bench postato in precedenza...quindi c'è poco da parlare...per me non c'è paragone tra le due schede...

Cosa che mi sembra normale..visto che la nuova scheda è uscita con 6 mesi di ritatdo....poi per i consuni e il surriscaldamento staremo a vedere...

persa
19-01-2010, 12:10
Il tutto IMHO e aspettando recensioni esaustive... :rolleyes:

non la penso ne come te e ne come hal... nel senso che hal -suppone-ipotizza ecc- di una 512sp quasi potente come una 3200sp..., mentre te supponi di una 512 sp potente come una 1600sp.
la verità x me sta nel mezzo. che la 512sp >>> la 1600sp e <<<<< la 3200sp

il tutto super imho aspettando le recensioni :O

persa
19-01-2010, 12:14
Non mi sembra credibile che abbiano atteso da inizio ottobre (architettura) a metà gennaio (dettagli gaming dell'architettura), quindi 3 mesi e mezzo, per far vedere due numeri e poi non si riferiscano nemmeno alla top.

xò alla fine non si sa con certezza ;) potrebbe essere una 448sp, una 512sp da affinare...(con frequenze magari no al massimo di quello che sarà alla fine)

oppure potrebbero nuovi dirver su queste schede migliorare quel risultato assolutamente non stravolgendolo ma cmq potrebbe dare un risultato ancora migliore di quello da qui a marzo ;)
vedremo

Mparlav
19-01-2010, 12:15
E meno male che si era detto di non tornare su Far cry 2 :)

persa
19-01-2010, 12:19
Ci sono state 10 pagine di flame incontrollato dietro ad un bench inutile, vedi di smetterla che non ho voglia di leggermi 30 pagine da qui a stasera che non parlano di nulla solo perché hai voglia di far ripartire un flame.

quoto evitiamo i flames...queste ultime pagine mi sono piaciute xchè sono state tranquille..ed anche con qualche post ironico... che è sempre meglio di ste caxxo di guerre tra ati nvidia ;)

Adone_1985
19-01-2010, 12:22
Quel bench non ha significato alcuno, è stato ampiamente dimostrato come inaffidabile, sia perché irripetibile (il rendering è diverso ad ogni run), sia perché i risultati sono sballati.

Ci sono state 10 pagine di flame incontrollato dietro ad un bench inutile, vedi di smetterla che non ho voglia di leggermi 30 pagine da qui a stasera che non parlano di nulla solo perché hai voglia di far ripartire un flame.

Speriamo allora che escano presto altri bench...e cmq siete voi che volete far partire flame...evidentemente qualcosa......

halduemilauno
19-01-2010, 12:26
Giusto.

Supponiamo che 512SP NV ne valgano 1600 ATI.

384x2=768 varrebbero +50% rispetto a +100% dei 1600x2=3200 ATI

Questo supponendo uno scaling lineare che non c'è, quindi si andrebbe più sensatamente su 384x2 = 512 + 20% con 1600x2 = 1600 + 50%.

Quindi la 384x2 starebbe un 20% sopra alla 5870 e un 20% sotto alla 5970.

Il tutto IMHO e aspettando recensioni esaustive... :rolleyes:

ma questo, sempre attendendo tutte le rece sarebbe lo scenario della 512 singola. io dico e ti/vi chiedo quanto boost si può ottenere passando da una 512 a una 384x2? il tutto ovviamente supponendo uno scaling lineare.
i 1600 in + della 5970 abbiamo visto valgono un 40% in + rispetto alla 5870 se applicassimo lo stesso 40% in + della ipotetica gtx395 rispetto alla gtx380 ecco che dal - 20% si passerebbe a un + 20%.
ripeto sempre in attesa di tutti i riscontri del caso.

halduemilauno
19-01-2010, 12:31
Quel bench non ha significato alcuno, è stato ampiamente dimostrato come inaffidabile, sia perché irripetibile (il rendering è diverso ad ogni run), sia perché i risultati sono sballati.

Ci sono state 10 pagine di flame incontrollato dietro ad un bench inutile, vedi di smetterla che non ho voglia di leggermi 30 pagine da qui a stasera che non parlano di nulla solo perché hai voglia di far ripartire un flame.

quale bench? il bench della 5870 inserito nella slide di gf100? quello è stato fatto dal nostro sito.

mapoetti
19-01-2010, 12:31
ok....ho letto le ultime pag.....ma alla fine...capisco che anche voi non sapete piu di tanto.....
aspetterò ancora nuove info

non capisco una cosa....cos'è il core clock ?

cioè non ci sono piu gli shader mem e core?

gianni1879
19-01-2010, 12:34
Raga io ho visto altri test di far cry 2 con 4x di AA a 1920 x 1200 la 5870 andava 10 fps in più del bench postato in precedenza...quindi c'è poco da parlare...per me non c'è paragone tra le due schede...

Cosa che mi sembra normale..visto che la nuova scheda è uscita con 6 mesi di ritatdo....poi per i consuni e il surriscaldamento staremo a vedere...

per favore non riprendiamo il discorso dei bench postati ieri etc.

halduemilauno
19-01-2010, 12:35
ok....ho letto le ultime pag.....ma alla fine...capisco che anche voi non sapete piu di tanto.....
aspetterò ancora nuove info

mi pare di aver letto che Paolo Corsini spera di avere la scheda fra le mani fra una mesata. in tutti i casi si tocca aspettare.
;)

halduemilauno
19-01-2010, 12:38
ok....ho letto le ultime pag.....ma alla fine...capisco che anche voi non sapete piu di tanto.....
aspetterò ancora nuove info

non capisco una cosa....cos'è il core clock ?

cioè non ci sono piu gli shader mem e core?

core clock è la frequenza del core. certo che ci sono ancora shader e le memorie. per ati la frequenza degli shader coincide con quella del core per nvidia invece è un valore diverso poco + del doppio.
;)

Pike79
19-01-2010, 12:39
mi pare di aver letto che Paolo Corsini spera di avere la scheda fra le mani fra una mesata. in tutti i casi si tocca aspettare.
;)

Domanda stupida...dal momento in cui un qualsiasi recensore ha la scheda in mano niente piu' puo' impedire la divulgazione di recensioni\preview, no? Niente piu' NDA e balle del genere...?

gianni1879
19-01-2010, 12:40
E meno male che si era detto di non tornare su Far cry 2 :)
Si era detto di smetterla di parlare dei dati pubblicati di hw in questo thread se erano veritieri o meno.

visto che si dice che una fermi è il 90% di una 5970, non sono stati pubblicati altri dati su altri game. Era normale capire che deduzioni logiche avesse fatto per stabilirlo.

Kharonte85
19-01-2010, 12:46
Guardando l'architettura stavo pensando ai derivati possibili da questo GF100 ed in effetti si puo' dire che possiamo aspettarci:

- 448SP + 56 TMU + 48 ROP + 384bit + 1.5gb

- 384SP + 48 TMU + 40 ROP + 320bit + 1.28GB

- 320SP + 40 TMU + 32 ROP + 256bit + 1gb

- 256SP + 32 TMU + 24 ROP + 192bit + 750mb

- 192SP + 24 TMU + 16 ROP + 128bit + 512mb

- 128SP + 16 TMU + 8 ROP + 128/64 bit + 256mb


C'è l'imbarazzo della scelta :sofico:

halduemilauno
19-01-2010, 12:47
Domanda stupida...dal momento in cui un qualsiasi recensore ha la scheda in mano niente piu' puo' impedire la divulgazione di recensioni\preview, no? Niente piu' NDA e balle del genere...?

a maggior ragione prima che ti danno la scheda ti fanno firmare un NDA grosso come una casa. le rece devono uscire tutte insieme a un preciso momento. e nulla devi divulgare prima.
;)

mapoetti
19-01-2010, 12:50
mi pare di aver letto che Paolo Corsini spera di avere la scheda fra le mani fra una mesata. in tutti i casi si tocca aspettare.
;)

core clock è la frequenza del core. certo che ci sono ancora shader e le memorie. per ati la frequenza degli shader coincide con quella del core per nvidia invece è un valore diverso poco + del doppio.
;)

ok....grazie per le spiegazioni..molto gentile....

la mia domanda l'ho fatta perchè vedo:

gpu core mhz 650
core clock mhz 1700
ram size mb 1536
ram clock mhz 1050 ??
ram clock qdr mhz 4200 ??

ok...è che scusate la mia ingnoranza......qual'è lo schader gpucore e mem?

e i steam processor? ci sono ancora? quali sono? scusate forse ..ho tanta confusione....scusate ragazzi

ma le tabelle in prima pag del gf100 sono proprio le definitive?




Con Fermi i clock saranno uno in più, rimangono memorie e shaders come prima, mentre quello che era core è stato diviso nella parte di filtraggio delle texture (che avrà frequenza dimezzata rispetto agli shader) e poi tutto il resto (con frequenza inferiore alla precedente ma non si sa quanto).

a.....però....che notizia....grazie mille

HackaB321
19-01-2010, 12:52
Torno un attimo indietro al tessellator ma la questione potrebbe essere collegata.

Mi chiedevo come gestirà i cluster disabilitati.

Nel senso, sul chip completamente abilitato si troverebbero 4 tessellator che si appoggiano ognuno all'intero "core" composto da 4 Shader Multiprocessor (128SP) per quanto riguarda l'emulazione di Hull e Domain.

Ora cosa succede in una versione a 448SP?

I 4 "core" sarebbero composti da un numero diverso fra loro di SM (4|4|3|3). A parte il fatto che globalmente scenderebbe la capacità di tesselation, ci dobbiamo attendere prestazioni altalenanti e non riproducibili della tessellation in base a dove viene inviato il compito?

L'equilibrio tornerebbe per una ipotetica versione a 416SP (3|3|3|3) ma questo senza tenere di conto la necessità di aumentare il più possibile gli yelds, per cui è necessario che gli SM disabilitati possano essere scelti liberamente in tutto il chip, e non distribuiti equamente fra i 4 "core", quindi potrebbero anche verificarsi situazioni peggiori di quelle indicate (448SP @ 4|4|2|2 e 416 @ 3|3|3|0).

Commenti?

I quattro "core" sono chiamati da nvidia GPC. Per ammissione della stessa nvidia nel suo whitepaper avremo la massima flessibilità con versioni di Fermi che differiscono per numero di SM, GPC e numero di mc ("We expect to launch GF100 products with different configurations of GPCs,
SMs, and memory controllers to address different price points£" pag. 11).
I GPC sono una delle novità di Fermi perchè la scomposizione del raster engine li rende (come sbandiera Nvidia sul whitepaper) quasi gpu indipendenti se non fosse per la mancanza delle rops.
In realtà però lo scheduler generale (Gigathread engine) invia i thread di qualsiasi tipologia direttamente agli SM e quindi ripartisce il carico tra gli SM e non tra i GPC: ai fini della ripartizione del carico nello shader core (comprese le operazioni di input e output della tessellation) quanti SM esistono per GPC non credo abbia importanza.
Nel caso da te previsto di una versione con 448 sp (e quindi con 2 GPC da 4 SM e 2 GPC da 3 SM) avremo semplicemente delle versioni proporzionalmente ridotte di raster engine per i GPC monchi mentre nulla cambierà nella gestione del workload tra SM

gianni1879
19-01-2010, 12:53
Guardando l'architettura stavo pensando ai derivati possibili da questo GF100 ed in effetti si puo' dire che possiamo aspettarci:

- 448SP + 56 TMU + 48 ROP + 384bit + 1.5gb

- 384SP + 48 TMU + 40 ROP + 320bit + 1.28GB

- 320SP + 40 TMU + 32 ROP + 256bit + 1gb

- 256SP + 32 TMU + 24 ROP + 192bit + 750mb

- 192SP + 24 TMU + 16 ROP + 128bit + 512mb

- 128SP + 16 TMU + 8 ROP + 128/64 bit + 256mb


C'è l'imbarazzo della scelta :sofico:
indubbiamente ci potrebbe essere una vasta scelta (adesso le tue specifiche faranno il giro del mondo), sperando ovviamente che scali bene in basso l'architettura. :)

halduemilauno
19-01-2010, 12:54
Si era detto di smetterla di parlare dei dati pubblicati di hw in questo thread se erano veritieri o meno.

visto che si dice che una fermi è il 90% di una 5970, non sono stati pubblicati altri dati su altri game. Era normale capire che deduzioni logiche avesse fatto per stabilirlo.

ripeto sono i rumors finqui visti. e quella specifica sensazione/opinione(chiamiamola cosi)l'ho vista condivisa da molti. ma personalmente ho anche e sempre aggiunto in attesa di tutti i riscontri del caso.

mapoetti
19-01-2010, 12:58
Lascia perdere, sono ipotesi di un qualcuno, le frequenze non sono note di nessun componente, le sapremo a marzo ;)

Per come sono divise le frequenze leggiti il mio post precedente, mentre ram clock qdr si riferisce alla frequenza efficace delle memorie, che è il quadruplo di quella fisica a cui effettivamente lavorano (1050x4 in quell'esempio, anche qui non si sa quale sia la frequenza definitiva)

capisco.....molto gentile anche tu...grazie sai...

per quel che posso capirne io....mi sembra che il secondo core per filtraggio texture sia una cosa molto positiva.....
staremo a vedere....grazie ancora per il thread veramente utile....ciao

halduemilauno
19-01-2010, 13:02
Supponendo che il singolo chip 384SP scenda in prestazioni linearmente si avrebbe un -30%. Ora fino ad oggi non ho mai visto succedere che il chip top rimaneggiato per le fasce inferiori avesse le stesse frequenze di quello top, quindi questo -30% è almeno destinato a scendere a -35%/-40% (qui suppongo frequenze inferiori del 10%/15%).

Fatto 100 il valore della 512SP la 384SP sarebbe 60/65. Raddoppiando il chip su singola scheda in SLI (e aggiungendo quindi il +40% che dicevi sopra) avremmo 72/78, quindi una scheda inferiore alla 512SP del 22%/28%.

Quindi una scheda inutile.



FarCry 2 usato come bench in generale non renderizza sempre la stesse cose e quindi i risultati di due run non sono confrontabili. Magari facendo 100 run su una scheda e 100 run su un'altra si potrebbe ridurre il problema, ma non penso ci sia qualche testata che fa 100 run a scheda per fare i test ;)



Con Fermi i clock saranno uno in più, rimangono memorie e shaders come prima, mentre quello che era core è stato diviso nella parte di filtraggio delle texture (che avrà frequenza dimezzata rispetto agli shader) e poi tutto il resto (con frequenza inferiore alla precedente ma non si sa quanto).

il 40% in + che citavo a mò d'esempio è gia il risultato finale tenendo conto di quanto si è detto. se la 512 vale 100 la 384x2 vale/varrà + o -140.
in attesa e IMHO.

yossarian
19-01-2010, 13:04
I quattro "core" sono chiamati da nvidia GPC. Per ammissione della stessa nvidia nel suo whitepaper avremo la massima flessibilità con versioni di Fermi che differiscono per numero di SM, GPC e numero di mc ("We expect to launch GF100 products with different configurations of GPCs,
SMs, and memory controllers to address different price points£" pag. 11).
I GPC sono una delle novità di Fermi perchè la scomposizione del raster engine li rende (come sbandiera Nvidia sul whitepaper) quasi gpu indipendenti se non fosse per la mancanza delle rops.
In realtà però lo scheduler generale (Gigathread engine) invia i thread di qualsiasi tipologia direttamente agli SM e quindi ripartisce il carico tra gli SM e non tra i GPC: ai fini della ripartizione del carico nello shader core (comprese le operazioni di input e output della tessellation) quanti SM esistono per GPC non credo abbia importanza.
Nel caso da te previsto di una versione con 448 sp (e quindi con 2 GPC da 4 SM e 2 GPC da 3 SM) avremo semplicemente delle versioni proporzionalmente ridotte di raster engine per i GPC monchi mentre nulla cambierà nella gestione del workload tra SM

le ROP's sono già modulari. Tra shader core e rop's c'è un crossbar ed è possibile disattivarne quante se ne vuole senza andare a toccare il resto dell'architettura. Ad esempio, se consideri le 48 rop's di fermi, se disabiliti uno SP da 32 alu basta, per mantenere lo stesso rapporto, disabilitare 3 rop's.
Oppure puoi di sabilitare un intero GPC (4 SP) con relativo raster engine e 12 rop's

halduemilauno
19-01-2010, 13:05
ok....grazie per le spiegazioni..molto gentile....

la mia domanda l'ho fatta perchè vedo:

gpu core mhz 650
core clock mhz 1700
ram size mb 1536
ram clock mhz 1050 ??
ram clock qdr mhz 4200 ??

ok...è che scusate la mia ingnoranza......qual'è lo schader gpucore e mem?

e i steam processor? ci sono ancora? quali sono? scusate forse ..ho tanta confusione....scusate ragazzi

ma le tabelle in prima pag del gf100 sono proprio le definitive?




a.....però....che notizia....grazie mille

le slide postate in prima pagina sono rumors e tratti da articoli con annessi link postati anch'essi. in quanto al valore della ram essendo gddr5 tale valore va letto x4.
;)

Pihippo
19-01-2010, 13:06
Guardando l'architettura stavo pensando ai derivati possibili da questo GF100 ed in effetti si puo' dire che possiamo aspettarci:

- 448SP + 56 TMU + 48 ROP + 384bit + 1.5gb

- 384SP + 48 TMU + 40 ROP + 320bit + 1.28GB

- 320SP + 40 TMU + 32 ROP + 256bit + 1gb

- 256SP + 32 TMU + 24 ROP + 192bit + 750mb

- 192SP + 24 TMU + 16 ROP + 128bit + 512mb

- 128SP + 16 TMU + 8 ROP + 128/64 bit + 256mb


C'è l'imbarazzo della scelta :sofico:

Ciao
Speriamo che le fascie inferiori vengano presentate in concomitanza con la top.
Soprattutto la versione con 384sp ed 1gb di ram, speriamo gddr5 pare molto interessante se calda e consuma il giusto.
Come architettura pare veramente interessante. Il fatto che si sia sforato il muro di un triangolo\clock che ripercussioni potrebbe avere sui giochi futuri?
Magari vedremmo giochini con un numero spaventoso di poligoni.
Una cosa che non riesco a capire come mai per questo balzo nel numero dei triangoli, ovvero la potenza del setup, si sia aspettato tanto, ovvero, siamo rimasti a cira 1 triangolo per ciclo clock da un bel pò di tempo, mentre la velocità delle alu è cresciuta a dismisura cosi come la loro flessibilià.
Qualcuno mi potrbbe passare qualche link per approfondire?

gianni1879
19-01-2010, 13:07
ripeto sono i rumors finqui visti. e quella specifica sensazione/opinione(chiamiamola cosi)l'ho vista condivisa da molti. ma personalmente ho anche e sempre aggiunto in attesa di tutti i riscontri del caso.

no i rumors sono sulle presunte prestazioni di FERMI dal quel test che secondo me non può essere confrontato con altri fatti.

Quella che tu definisci opinione è presente in alcuni, ma anche presente in altri una ben diversa, inoltre davi per certo quei dati del 90% etc. per cui direi anche di passare oltre e vedere le altre news.

halduemilauno
19-01-2010, 13:09
Si ma con i dati che hai dato tu non si arriva a quel risultato finale, come ho ampiamente discusso.

ma quali dati? ho semplicemente detto con base la 512 single la 384 dual varrà tot di +. puoi mai andare di -?

gianni1879
19-01-2010, 13:10
Vi posto un link che però vi chiedo cortesemente di parlarne di là se volete ma non quì:

http://www.hwupgrade.it/forum/showpost.php?p=30513261&postcount=226

Quì non voglio ulteriori polemiche, chi vuol commentare lo faccia di là.

mapoetti
19-01-2010, 13:10
le slide postate ......


quindi correggimi se sbaglio...
io nella gtx285 ho 2480 mhz 1240 x2

ma qui stiamo parlando del doppio :eek:

è cosi? mio dio ....

halduemilauno
19-01-2010, 13:11
no i rumors sono sulle presunte prestazioni di FERMI dal quel test che secondo me non può essere confrontato con altri fatti.

Quella che tu definisci opinione è presente in alcuni, ma anche presente in altri una ben diversa, inoltre davi per certo quei dati del 90% etc. per cui direi anche di passare oltre e vedere le altre news.

per certo assolutamente no. cmq passiamo oltre e vediamo le altre news.

mapoetti
19-01-2010, 13:14
Vi posto un link che però vi chiedo cortesemente di parlarne di là se volete ma non quì:

http://www.hwupgrade.it/forum/showpost.php?p=30513261&postcount=226

Quì non voglio ulteriori polemiche, chi vuol commentare lo faccia di là.

mi scusi potrebbe gentilmente dirmi cosa intende per di là? ho cercato ma non capisco.....

sry

halduemilauno
19-01-2010, 13:17
quindi correggimi se sbaglio...
io nella gtx285 ho 2480 mhz 1240 x2

ma qui stiamo parlando del doppio :eek:

è cosi? mio dio ....

si nel tuo caso è cosi. il doppio.
;)

gianni1879
19-01-2010, 13:18
mi scusi potrebbe gentilmente dirmi cosa intende per di là? ho cercato ma non capisco.....

sry

mi dia del tu :D


cmq dico parlarne nei commenti dell'articolo se volete ma non in questo thread dove si è già discusso abbastanza.

HackaB321
19-01-2010, 13:24
le ROP's sono già modulari. Tra shader core e rop's c'è un crossbar ed è possibile disattivarne quante se ne vuole senza andare a toccare il resto dell'architettura. Ad esempio, se consideri le 48 rop's di fermi, se disabiliti uno SP da 32 alu basta, per mantenere lo stesso rapporto, disabilitare 3 rop's.
Oppure puoi di sabilitare un intero GPC (4 SP) con relativo raster engine e 12 rop's

Ok, intendevo dire che sebbene modulari non risiedono fisicamente all'interno dei GPC.
Come dice nvidia nel wp:
"As its name indicates, the GPC encapsulates all key graphics processing units. It represents a balanced
set of vertex, geometry, raster, texture, and pixel processing resources. With the exception of ROP
functions, a GPC can be thought of as a self contained GPU, and a GF100 has four GPCs!"
In realta si potrebbe obiettare che in ogni GPC manca anche uno scheduler tra i vari SM che infatti è il Gigathread engine esterno ai GPC.

aaasssdddfffggg
19-01-2010, 13:31
Qui trovate un riassunto di quanto hanno commentato alcune delle più note redazioni online sulla presentazione sulla carta di ieri :

http://www.facebook.com/notes/nvidia/gf100-gaming-architecture-unveiled/257449077361

Kharonte85
19-01-2010, 13:40
Parli di 6 chip diversi o di un solo chip progressivamente rimaneggiato per coprire tutte le fasce?
Con questa architettura teoricamente possono tirare fuori chip e/o versioni castrate con quelle caratteristiche...è molto più modulabile di qualsiasi grosso chip fatto da Nvidia (da G80 in poi) ovviamente non sono in grado di dire quanti chip intermedi vorrà fare.

Secondo me con 4 potrebbe coprire tutte le fasce non diversamente da quanto fatto da AMD/ATI:

http://www.hwupgrade.it/articoli/skvideo/2287/executing.jpg

4 chips che corrisponderebbero ai 4 GPC presenti:

http://www.hwupgrade.it/articoli/skvideo/2361/schema_blocchi_gf100.gif

Il primo chip completo di GPC (con die size Full size), il secondo 3/4, il terzo 1/2 e l'ultimo 1/4...in mezzo le varie versioni "castrate" :)

L'unica cosa che Nvidia dovrebbe riprogettare, reinserire in qualche modo in misura ridotta è il GigaThread Engine.

Ovviamente è solo una mia ipotesi ;)
indubbiamente ci potrebbe essere una vasta scelta (adesso le tue specifiche faranno il giro del mondo), sperando ovviamente che scali bene in basso l'architettura. :)
:asd: ma non è un mistero, ho riletto un po' di articoli sull'architettura e vedendo la struttura che ha con quei 4 GPC da 128SP quelle dovrebbero essere le possibili scelte.

Anche se il minimo teorico realizzabile su quella base è 32SP.
Ecco, faccio un mea culpa per non essermi letto il whitepaper :muro:
Pentiti! :O (nemmeno io l'ho letto :asd:)

Diobrando_21
19-01-2010, 13:43
Il mio post serviva esattamente a mostrare questo: se si vuol sparare a caso si può sparare qualunque cosa, pratica priva di ogni senso e destinata solo a generare confusione e l'hype che già fu creato disastrosamente prima del lancio di G200...

scusa xké l'hype di g200 sarebbe stato disastroso?

Taurus19-T-Rex2
19-01-2010, 14:10
mi scusi potrebbe gentilmente dirmi cosa intende per di là? ho cercato ma non capisco.....

sry



mi dia del tu :D





:D :asd:

Elendil_1
19-01-2010, 14:13
C'è una riflessione che mi pare ancora nessuno abbia fatto. All'evento Nvidia NON ha presentato le proprie schede. Non ha parlato di 38 e 360, non ha annunciato frequenze di lavoro di shader e memorie, niente di niente. Ha parlato genericamente di G100, il chip, ed ha presentato un benchmark sul chip.
Questo per me presumibilmente significa due cose

1) che le singole schede ancora non sono finalizzate: non annunciano frequenze perché non le conoscono ancora, stanno cercando di limare verso l'alto quanto possono

2) che, di conseguenza, i bench visti per "G100" non è detto corrispondano a prestazioni analoghe per "380", scheda ancora neppure annunciata.

Kharonte85
19-01-2010, 14:15
Suppendo uno scaling dello SLI del 50%:

Mmh...credo sia più giusto ipotizzare uno scaling medio fra il 60 e il 70%

Comunque è vero che la dual GPU è problematica...ancora non so i dati definitivi ma così la vedo difficile.

halduemilauno
19-01-2010, 14:26
novità per quanto riguarda l'unico bench dell'articolo...
http://www.nvidia.it/object/win7_winvista_32bit_196.21_whql_it.html
Stando ai primi risultati, sembra proprio che debba fare una rettifica su quel risultato.

Radeon HD 5870
impostazioni con Far Cry 2 come indicato in precedenza
valori medi dopo 3 esecuzioni
min: 44,39
med: 65,67
max: 137,27

Sistema: quanto indicato nell'articolo, driver Catalyst 9.12

Cosa sto testando ancora: Radeon HD 5870 con Windows 7, a seguire Radeon HD 5850 con Windows Vista e Windows 7. Fatto questo GeForce GTX 285 con Windows Vista e Windows 7.
Stiamo cercando di capire per quale motivo il sistema ci abbia fornito valori più bassi l'altro giorno, in quanto le condizioni di test erano identiche a quelle attuali.

Kharonte85
19-01-2010, 14:28
Mi sembra un'ipotesi sensata, tutto sta a capire quanto c'è da lavorare per rifare il pezzo sottolineato e con quanto spreco di die area nello scalare.
Vedendo la struttura così modulare dell'architettura io credo e spero che ci abbiano pensato...dai che forse questa volta ci liberiamo del G92...:asd:


Nel frattempo Corsini ha rifatto i test:

Stando ai primi risultati, sembra proprio che debba fare una rettifica su quel risultato.

Radeon HD 5870
impostazioni con Far Cry 2 come indicato in precedenza
valori medi dopo 3 esecuzioni
min: 44,39
med: 65,67
max: 137,27

Sistema: quanto indicato nell'articolo, driver Catalyst 9.12

Cosa sto testando ancora: Radeon HD 5870 con Windows 7, a seguire Radeon HD 5850 con Windows Vista e Windows 7. Fatto questo GeForce GTX 285 con Windows Vista e Windows 7.
Stiamo cercando di capire per quale motivo il sistema ci abbia fornito valori più bassi l'altro giorno, in quanto le condizioni di test erano identiche a quelle attuali.

http://www.hwupgrade.it/forum/showpost.php?p=30515509&postcount=250

http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-42.jpg

Gurdacaso sono già più simili rispetto al test fatto dal sito del castoro, speriamo che serva a placare gli animi ;)

atomo37
19-01-2010, 14:32
Vedendo la struttura così modulare dell'architettura io credo e spero che ci abbiano pensato...dai che forse questa volta ci liberiamo del G92...:asd:


Nel frattempo Corsini ha rifatto i test:



http://www.hwupgrade.it/forum/showpost.php?p=30515509&postcount=250

http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-42.jpg

Gurdacaso sono già più simili rispetto al test fatto dal sito del castoro, speriamo che serva a placare gli animi ;)

sicuramente non lo hanno fatto volutamente, di corsini e della sua serietà mi fido ciecamente, più che altro confortante capire che non solo a noi i bench una volta danno un risultato una volta ne danno un altro :D

Alex656
19-01-2010, 14:41
novità per quanto riguarda l'unico bench dell'articolo...
http://www.nvidia.it/object/win7_winvista_32bit_196.21_whql_it.html
Stando ai primi risultati, sembra proprio che debba fare una rettifica su quel risultato.

Radeon HD 5870
impostazioni con Far Cry 2 come indicato in precedenza
valori medi dopo 3 esecuzioni
min: 44,39
med: 65,67
max: 137,27

Sistema: quanto indicato nell'articolo, driver Catalyst 9.12

Cosa sto testando ancora: Radeon HD 5870 con Windows 7, a seguire Radeon HD 5850 con Windows Vista e Windows 7. Fatto questo GeForce GTX 285 con Windows Vista e Windows 7.
Stiamo cercando di capire per quale motivo il sistema ci abbia fornito valori più bassi l'altro giorno, in quanto le condizioni di test erano identiche a quelle attuali.

Interessante vedere come il picco più alto ora sia raggiunto dalla 5870 (sul grafico pubblicato qui vedo 125: http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_8.html.)

Kharonte85
19-01-2010, 14:42
Al 70% il risultato cambia così:

512 = 100
384 = 75

Suppendo uno scaling dello SLI del 70%:

384x2 = 75*2*70% = 105

E questo sempre considerando due GPU rimaneggiate che abbiano comunque le frequenze della top che è un'ipotesi quantomai favorevole all'ipotetica 384x2 (in realtà se ci sarà una 384 avrà i clock ridotti fra il 10% e il 15% circa).

Anche in questa ipotesi favorevole farebbero una dual utilizzando due chip castrati dal costo disumano per guadagnare un 5% su quella con un solo chip e una sola serie di moduli di memoria? Impossibile.

Lo scenario non cambierebbe nemmeno se la 512SP con frequenze massime fosse solo per la stampa, perché comunque nelle recensioni il confronto sarebbe impietoso. Già diverso se la reale flagship fosse 448SP per cui la 384x2 avrebbe un +20% (sempre a parità di frequenze però) che sarebbe però e comunque un vantaggio molto risicato per una dual da quel costo di produzione.
Vedremo...come detto sono molto scettico anche io.
Interessante vedere come il picco più alto ora sia raggiunto dalla 5870.
Se ti riferisci al MAX è ininfluente...tanto è vero che non viene riportato nei test.

halduemilauno
19-01-2010, 14:44
Interessante vedere come il picco più alto ora sia raggiunto dalla 5870.

e si come detto nell'altro thread cambia tutto lo scenario. cmq quel che si tiene + da conto è il valore medio. aspettiamo sviluppi.

halduemilauno
19-01-2010, 14:53
Provo a riscrivertelo:

512 = 100
384 = 75

Suppendo uno scaling dello SLI del 50%:

384x2 = 100

Andrebbero uguali, questo considerando frequenze identiche, e le GPU declassate non hanno mai la stessa frequenza della top, ma inferiore. Quindi 100 è addirittura una sovrastima.

Se mi spieghi come fai ad arrivare a 140 partendo dagli unici dati di partenza che sono 512 e 384 vediamo di discuterne...

Al 70% il risultato cambia così:

512 = 100
384 = 75

Suppendo uno scaling dello SLI del 70%:

384x2 = 75*2*70% = 105

E questo sempre considerando due GPU rimaneggiate che abbiano comunque le frequenze della top che è un'ipotesi quantomai favorevole all'ipotetica 384x2 (in realtà se ci sarà una 384 avrà i clock ridotti fra il 10% e il 15% circa).

Anche in questa ipotesi favorevole farebbero una dual utilizzando due chip castrati dal costo disumano per guadagnare un 5% su quella con un solo chip e una sola serie di moduli di memoria? Impossibile.

Lo scenario non cambierebbe nemmeno se la 512SP con frequenze massime fosse solo per la stampa, perché comunque nelle recensioni il confronto sarebbe impietoso. Già diverso se la reale flagship fosse 448SP per cui la 384x2 avrebbe un +20% (sempre a parità di frequenze però) che sarebbe però e comunque un vantaggio molto risicato per una dual da quel costo di produzione.

se non altro vedo che dall'iniziale 72/78% sei passato a un 100/105%. cmq per carità visto anche i recentissimi sviluppi può benissimo darsi che sia ben meno di quello che andavo dicendo prima. è chiaro che il 100/105% non serve cmq a nulla.
quindi a maggior ragione aspettiamo tutti i riscontri del caso.

halduemilauno
19-01-2010, 14:55
E spesso a torto. Il valore più importante è quello minimo, anche se è pratica consolidata nelle recensioni vedere quello medio.

su questo posso esser d'accordo con te.

halduemilauno
19-01-2010, 15:02
aggiornata la prima pagina nei confronti della slide del bench con un "In attesa di verifica"
ovviamente la sostituirò con quella aggiornata appena disponibile.
;)

Mparlav
19-01-2010, 15:16
Io ci metterei pure il die in prima pagina, visto il mazzo che si sta' facendo Nvidia per farlo bene :D

http://i.i.com.com/cnwk.1d/i/bto/20091007/fermi-die_610x603.jpg

halduemilauno
19-01-2010, 15:19
Io ci metterei pure il die in prima pagina, visto il mazzo che si sta' facendo Nvidia per farlo bene :D

http://i.i.com.com/cnwk.1d/i/bto/20091007/fermi-die_610x603.jpg

e questo in grandezza naturale di certo non può mancare.
;)

zorco
19-01-2010, 15:25
aggiornata la prima pagina nei confronti della slide del bench con un "In attesa di verifica"
ovviamente la sostituirò con quella aggiornata appena disponibile.
;)
ottimo,così posso consultare li le news su fermi,invece di leggermi duemila pagine al giorno tanto è affollato sto 3d:fagiano:

aaasssdddfffggg
19-01-2010, 15:28
ottimo,così posso consultare li le news su fermi,invece di leggermi duemila pagine al giorno tanto è affollato sto 3d:fagiano:

Hehehe.Fermi interessa eccome a quanto pare...:D
Comunque ottimo Hal di mettere tutto in prima pagina.

halduemilauno
19-01-2010, 15:30
ottimo,così posso consultare li le news su fermi,invece di leggermi duemila pagine al giorno tanto è affollato sto 3d:fagiano:

tengo a precisare che la pagina era gia aggiornata. in questo specifico ho aggiunto quella frase in attesa degli eventi.
;)

zorco
19-01-2010, 15:31
Hehehe.Fermi interessa eccome a quanto pare...:D
Comunque ottimo Hal di mettere tutto in prima pagina.
mi interesserebbe anche il fermino,aspetto insomma fermi e i suoi derivati..:p

halduemilauno
19-01-2010, 15:32
Hehehe.Fermi interessa eccome a quanto pare...:D
Comunque ottimo Hal di mettere tutto in prima pagina.

Grazie. nei limiti del possibile lo faccio sempre.
Ciao.
;)

halduemilauno
19-01-2010, 15:34
mi interesserebbe anche il fermino,aspetto insomma fermi e i suoi derivati..:p

come sempre il top interesserà i top gamers, poi una bella fetta si fionderà sui rincalzi.
;)

atomo37
19-01-2010, 15:36
come sempre il top interesserà i top gamers, poi una bella fetta si fionderà sui rincalzi.
;)

"rincalzi" che poi sono il vero mercato ;)

zorco
19-01-2010, 15:44
come sempre il top interesserà i top gamers, poi una bella fetta si fionderà sui rincalzi.
;)
io mi "accontento" della 360 :p

halduemilauno
19-01-2010, 15:45
"rincalzi" che poi sono il vero mercato ;)

certo. cmq in questo caso mi riferivo alle altre gtx e alle gts. quindi cmq il mercato gamers.

halduemilauno
19-01-2010, 15:47
io mi "accontento" della 360 :p

e ti rispondo subito con un bell'accontentarsi.
;)

sommo89
19-01-2010, 15:51
HAL non sta mattina non mi hai rx se il tassellone è un opzione che si può scegliere se attivare o no oppure è gia implementata in automatico nelle dx 11 e non si può disabilitare..

halduemilauno
19-01-2010, 15:54
HAL non sta mattina non mi hai rx se il tassellone è un opzione che si può scegliere se attivare o no oppure è gia implementata in automatico nelle dx 11 e non si può disabilitare..

ma non ti avevo gia risposto quotando il tuo intervento? cmq certo che lo puoi disabilitare dato che non tutte le schede dx11 sono tanto potenti da permetterselo.
;)

sommo89
19-01-2010, 16:00
ma non ti avevo gia risposto quotando il tuo intervento? cmq certo che lo puoi disabilitare dato che non tutte le schede dx11 sono tanto potenti da permetterselo.
;)

no mi avevi risposto che mi ero già risposto ma avevi quotato una mio messaggio in cui dicevo che bisognano aspettare altri test....allora ti faccio subito un'altra domanda se non si attiva il tasselation si hanno comunque gli effetti più "reali"" (rispetto alle dx10) di cui si parla??cioè tipo il comportamento dell'acqua in dirt 2 o la definizione delle ombre ecc..

halduemilauno
19-01-2010, 16:12
no mi avevi risposto che mi ero già risposto ma avevi quotato una mio messaggio in cui dicevo che bisognano aspettare altri test....allora ti faccio subito un'altra domanda se non si attiva il tasselation si hanno comunque gli effetti più "reali"" (rispetto alle dx10) di cui si parla??cioè tipo il comportamento dell'acqua in dirt 2 o la definizione delle ombre ecc..

ti ho quotato e grassettato due parti in risposta. questo per la precisione.
il resto editato.
;)

sommo89
19-01-2010, 16:17
ti ho quotato e grassettato due parti in risposta. questo per la precisione. cmq diciamo che la ragion d'essere(o quasi)delle dx11 è questo benedetto tessellation. quindi i giochi che lo permettono sarebbe il caso di abilitarlo ma come detto il calo prestazionale è netto. pare che in quello implementato nelle nvidia sia con meno impatto. ora non so te che scheda hai presumo una 5000 di ati ti consiglierei di rivolgerti nel thread della tua scheda per maggiori info o nei thread dei giochi da te citati.
;)

no no se leggi in firma una gtx260 però volevo capire meglio come funzionasse...per effetto di luci ombre e acqua e se erano collegati col tesselation...in previsone (appena esce nvidia con bench seri e sul mercato) di prendere una scheda dx 11...che sia nvidia o ati...a seconda del rapporto prestazioni/prezzo

halduemilauno
19-01-2010, 16:24
no no se leggi in firma una gtx260 però volevo capire meglio come funzionasse...per effetto di luci ombre e acqua e se erano collegati col tesselation...in previsone (appena esce nvidia con bench seri e sul mercato) di prendere una scheda dx 11...che sia nvidia o ati...a seconda del rapporto prestazioni/prezzo

si visto dopo infatti ho editato. si il mio consiglio è aspettare per vedere appena esce e poi decidere.
;)

aaasssdddfffggg
19-01-2010, 16:25
http://www.fudzilla.com/content/view/17291/1/

DualGPU Fermi possibile...addirittura per APRILE?Nvidia ci sta lavorando su...

halduemilauno
19-01-2010, 16:28
http://www.fudzilla.com/content/view/17291/1/

DualGPU Fermi possibile...addirittura per APRILE?Nvidia ci sta lavorando su...

perdonami ma ne abbiamo parlato per tre pagine.
;)