View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470
aaasssdddfffggg
18-01-2010, 10:28
si cerca la fiducia..... stile Prodi... :asd:
ma ti devi fare un server di tesla o devi giocare ? :asd:
L'ipotesi del fallimento vale tanto quanto la tua fiducia, allo stato attuale.
Terrò presente questa tua affermazione.;)
Kharonte85
18-01-2010, 10:29
Spero che Yoss possa passare a darci il suo parere sui dettagli architetturali...quel polymorph engine sembra interessante/promettente
ti ricordo che NVIDIA sta iniziando con FERMI quello che ATI comincerà a fine anno con NI.Il ritardo è giustificato dal fatto che è passata su un'architettura nuova e per di più su un pp abbassato nello stesso tempo.ATI con la serie 5000 non ha fatto altro che continuare sulla stessa strada della serie 4000.Non ce nulla di nuovo.Ma quale fallimento.:doh:
concordo,questo giustamente richiede molto tempo nello sviluppo
Non sono stato a leggere benissimo tutto l articolo di semiaaccurate perche molto lungo ... ma da quello che ho capito hanno davvero problemi enormi con le 512sp?? leggendo che
Nvidia has been telling its AIBs (Add In Board makers) that the initial GF100 chips they will receive are going to be massively cut down and downclocked, likely at the same 448 shaders and rough clocks as the Fermi compute board. There will be a handful of 512 shader chips at 'full clocks' distributed to the press and for PR stunts, but yields will not support this as a real product.
To make matters worse, SemiAccurate's sources in the Far East are saying that the current A3 silicon is 'a mess'. Last spring, we were told that the chip was targeted for a top clock of 1500-1600MHz. The current silicon coming out of TSMC, defects aside, is not binning past 1400MHz in anything resembling quantity, with 1200MHz being the 'volume' bin. Even at 75 percent of intended clocks, the numbers of chips produced are not economically viable.
One of the main causes here is that clocks are, according on one source, 'all over the place', and there is no single problem to fix on the chip. Intra-die variation is huge, no surprise given TSMC's 40nm process and the 550mm^2 or so that GF100 takes up. Each individual part tends to have different problems, and Nvidia's unfinished homework did not help.
E qui si parla di revision A3... ora io non so se l articolo sta calcando troppo la mano o cosa... ma è un disastro la situazione attuale...
inoltre sul tessellation e sul prezzo :
The last bit is that our sources were reporting that Nvidia was comparing GF100 to a Radeon HD5870, a much cheaper card. If Nvidia had compared it to a comparably priced ATI HD5970 Hemlock card, which coincidentally uses almost the exact same power, the results would not have been pretty. Hemlock doubles the tessellation power of 5870, so it is pretty obvious why that comparison was not made.
The more direct comparison to an ATI 5970 was curiously neglected at CES, mainly because the GF100 is about on par, best case for Nvidia, with that part.
Se costera 600 euro (piu di hemlock) c è da tenere conto di quanto ripostato sopra...ok che sara molto piu prestante di una 5870 ma la 5870 costa poco piu di 300 euro... e la 5970 ha un doppio tessellatore hw...
Ci sono altri spunti interessanti sul problema di attivare tutti i 32sm senza eccedere con il TDP massimo... dicendo che alcuni transistor particolarmente "deboli" non si sattivano con voltaggi troppo bassi...
Quindi ok ai bench... ma quelli sono esemplari fortunatisimi e selezionati... che raggiungono clock elevati... ma con la rev A3 Nvidia riuscira a produrli??
poi magari ho capito male il senso dell articolo...e correggetemi se sbaglio
aaasssdddfffggg
18-01-2010, 10:40
Quanto rapidamente riesci a sfornare nuovi prodotti dipende da scelte strategiche che stanno a monte della progettazione. Se qualcosa si intoppa così a lungo significa che la strategia scelta non era ottimale (per esempio fare una nuova architettura su un processo sperimentato con insuccesso su tutti i tentativi di chip superiori a 96SP).
Se AMD si è trovata a dover solo modificare un'architettura precedente è perché ha gettato le basi strategiche di questa situazione non meno di 5 anni fa.
Quella che indichi come una scusante in realtà non lo è, ma solo il segno di una strategia che sta mostrando limiti sempre più evidenti.
Già,quindi per i prossimi 3 o 4 anni sono rovinati...
magari prova a farglielo notare tu agli ingegneri nvidia che hanno preso la strada sbagliata e non vanno da nessuna parte....;)
data la superiorità incredibile ed evidente mostrata dalla slide riguardante l'unigine perchè non ci facevano vedere più di 5 miseri secondi di test?
a mio parere qui stiamo parlando di potenzialità di una futura scheda video molto ottimizzata, dato che al momento non ci siamo per consumi e stabilità e per questo non vengono date le specifiche tecniche fondamentali, come se io andassi a chiedere a un pizzaiolo che sapore ha la pizza che ha appena infornato, ovviamente mi dirà che è buona ma dovrò aspettare un bel po prima di poterlo constatare di persona...
aaasssdddfffggg
18-01-2010, 10:45
Ti faccio notare che la strategia non la decidono gli ingegneri ma il management... :rolleyes:
sempre nvidia è.
Simedan1985
18-01-2010, 10:51
cut....
in attesa di vedere se entro maggio la 512SP Kickass Edition sarà poi effettivamente sul mercato o rimarrà un prodotto fantasma.
Pensa che io aspettavo la dual Fermi:D
Ogni cluster ha la possibilità di essere assegnato alle operazioni di tessellation, così come qualcuno aveva ipotizzato (nessuna unità dedicata) e al contrario di quello che io prevedevo (che ci fosse).
L'operazione di tessellation è quindi molto veloce, perché puoi usare tutti i 16 cluster per farla. Il possibile problema che mi viene in mente è che quando invece di fare un test con Unigine, che è fortemente tessellation bound, ti trovi a fare un test in un gioco reale, togli al rendering delle risorse impiegando gli SP per fare la tessellation (cosa che in Cypress ovviamente non accade).
Questo potrebbe aver un forte impatto prestazionale, ma non saprei dirti se questa ipotesi possa effettivamente verificarsi o meno, temo di dover aspettare dei bench seri a marzo come tutti, in attesa di vedere se entro maggio la 512SP Kickass Edition sarà poi effettivamente sul mercato o rimarrà un prodotto fantasma.
Hai ragione ... infatti se ne parlava anche nell'articolo di semiaccurate... prova a renderizzare un motore grafico come il cryengine2 che spreme la vga e contemporaneamente effettuare la tassellation degli oggetti vicini...e intendo vicini non come nell unigine che tessellano pure le nuvole ancora un po :asd: in quel caso i 32 cluster gia sono occupati a renderizzare la scena... se 3 o 4 di quelli(sparati a caso i numeri eh ... non sono ingegnere) devono essere dedicati al tessellatore allora in quel caso è meglio avere un'unità dedicata...
Da notare anche questo:
Cost aside, the next problem is power. The demo cards at CES were pulling 280W for a single GPU which is perilously close to the 300W max for PCIe cards. Nvidia can choose to break that cap, but it would not be able to call the cards PCIe. OEMs really frown on such things. Knowingly selling out of spec parts puts a huge liability burden on their shoulders, and OEMs avoid that at all costs.
Consuma quanto una 5970!!! O.o
Già,quindi per i prossimi 3 o 4 anni sono rovinati...
magari prova a farglielo notare tu agli ingegneri nvidia che hanno preso la strada sbagliata e non vanno da nessuna parte....;)
può capitare un errore di progettazione, come nelle nvidia 5xxx, o Ati 2xxx.
Certamente non significa che l'architettura è fallita in sè, ma sul momento non dà il massimo per cui è progettata. Io resto dell'idea che questa versione a 40nm non darà il massimo, e pagherà una prestazione altalenante con un salato consumo. Il vero Fermi per me resta lo shrink a 28nm, così come successe ad Ati.
gianni1879
18-01-2010, 11:07
hanno aggiornato il grafico
http://www.hwupgrade.it/articoli/skvideo/2361/settaggi_gf100.jpg
hanno aggiornato il grafico
http://www.hwupgrade.it/articoli/skvideo/2361/settaggi_gf100.jpg
cambieranno anche le percentuali ?
:asd: :asd: :asd:
rileggi meglio le pagine forse capirai il perchè la tua affermazione è abbastanza fuorviante.
http://www.hwupgrade.it/articoli/skvideo/2326/fc2_s_2560.png
vi invito a leggere i distacchi percentuali tra hd5850, gtx285 e hd5870 e poi li confrontate con le slide dell'articolo di oggi.
Ottima delucidazione. Se posso permettermi vorrei chiederti cosa ne pensi, se segui regolarmente le recensioni di HWU, della netta differenza di prestazioni tra le ati e le nvidia in questo portale, a differenza degli altri siti che effettuano recensioni relative a schede grafiche. Tralasciando la configurazione è evidente che ci sia qualcosa che non vada, basta guardare la differenza di performance tra una gtx285 ed una 5870 ! Nelle recensioni di HWU sembra che vadano uguali.
Grazie in anticipo
gianni1879
18-01-2010, 11:22
avevo calcolato infatti circa 70 fps per la hd5870 come media e sopratutto non così vicina alla hd5850 e gtx285
Credo che non siano state postate queste:
http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-43.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-44.jpg
Nota dal sito:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/27892-nvidia-s-geforce-gf100-under-microscope-14.html
As you look at the charts below, you will notice that we added in “simulated” HD 5870 1GB results and there is a story behind this. NVIDIA was very forward with us and revealed the specifications of the test system they were running: a stock Intel i7 960, 6GB of 1600Mhz memory and an ASUS Rampage II Extreme motherboard running Windows 7. While we weren’t able to copy the exact same system, we did our best to replicate it by using the exact same CPU and OS while estimating the memory latencies and using a Gigabyte X58-UD5 motherboard. The result? Our stock GTX 285 performed within 2% of the results NVIDIA showed us so we are confident in the accuracy of our results.
Comunque seppure ci siano dubbi su certi benchmark appare evidente il notevole passo in avanti rispetto al GT200. Spero siceramente che riescano a tirare fuori un prodotto molto potente e competitivo, anche se allo stesso tempo ci sono molte cose da chiarire. Buona mossa la riduzione del die size. Dovrebbero tirare fuori una scheda da 256 bit e prezzi inferiori a 200 euro. Questo servirebbe. Comunque fudzilla riporta che le 5830 usciranno il 5 febbraio e che ati sta già preparando una 5890 con frequenze vicine al ghz, di modo che con l'introduzione di fermi ci sia una ati che vada il 20% di più. Questo potrerebbe in parte a minare la leadership sul dx11, abbassamento dei prezzi delle 58xx e finalmente una reale concorrenza per la conquista del mercato di fascia medio alta (sub 200$) .
Che gt100 vada due, tre volte tanto la 285 insomma, così già una "schedina" come la 285 se la possono permettere tutti
edit
Sei pesantemente OT.
E cmq, guarda qui:
http://www.hwupgrade.it/sito/pubblicita/
Mi sembra una annotazione non trascurabile :)
Stavo navigando tranquillamente e mi è apparso, non ho cliccato da nessuna parte. Forse magari è capace che abbia aperto una nuova schermata con il pulsante centrale del mouse. Fatto sta che non ne ero a conoscenza prima d'ora. Per il resto è lecito che stringano accordi commerciali per banner con diverse case produttrici, però solo fino a che tali accordi non compromettano la credibilità del portale stesso. Secondo la mia modesta opinione certe recensioni di questo portale relative alle schede grafiche non sono proprio molto attendibili, da molto tempo a questa parte (RV770 in poi credo)
/fine ot ;)
ps: ho editato il messaggio precedente comunque
Gianni, hai editato il mio messaggio. Lo trovo molto scorretto, casomai potevi commentare a tema. Io non vengo ad editare i tuoi messaggi e non c'èra vena polemica se non una domanda sulla legittimità di certe scelte. Comunque ho salvato il mio post quindi non è stato cancellato nulla.
@forum, tratto da (HardWareUpgrade-nVIDIA Partnership) : http://www.hwupgrade.it/nvidia/
http://www.hwupgrade.it/sito/pubblicita/
gianni1879
18-01-2010, 11:54
ho editato alcuni msg, niente flame su preferenze del sito o meno, grazie.
Quà si vuole fare chiarezza, ma nessuna polemica o accusa.
Das~Ich
nessuna scorretta, ho solo evitato il peggio per molti di voi, una discussione del genere degenera facilmente in accuse quà e là.
edit
chiarimenti in pvt, grazie.
aaasssdddfffggg
18-01-2010, 12:02
Credo che non siano state postate queste:
http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-43.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-44.jpg
Nota dal sito:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/27892-nvidia-s-geforce-gf100-under-microscope-14.html
As you look at the charts below, you will notice that we added in “simulated” HD 5870 1GB results and there is a story behind this. NVIDIA was very forward with us and revealed the specifications of the test system they were running: a stock Intel i7 960, 6GB of 1600Mhz memory and an ASUS Rampage II Extreme motherboard running Windows 7. While we weren’t able to copy the exact same system, we did our best to replicate it by using the exact same CPU and OS while estimating the memory latencies and using a Gigabyte X58-UD5 motherboard. The result? Our stock GTX 285 performed within 2% of the results NVIDIA showed us so we are confident in the accuracy of our results.
Impressionante i 62 di media di FARCRY 2 a 2560x1600 (risoluzione per cui sono molto attento).:)
Impressionante i 62 di media di FARCRY 2 a 2560x1600 (risoluzione per cui sono molto attento).:)
Sono curioso di vedere come andrà con Alien vs Predator, ed ovviamente Crysis :)
"When it's done" la danno alla stampa insomma.
prestazioni con l'importantissimo tessellone
http://img35.imageshack.us/i/gf10018.jpg/
prepariamoci a rivendere la 5870...
e c'è da vedere se quei test son stati fatti "solo" con un 360 :D
gianni1879
18-01-2010, 12:25
Ottima delucidazione. Se posso permettermi vorrei chiederti cosa ne pensi, se segui regolarmente le recensioni di HWU, della netta differenza di prestazioni tra le ati e le nvidia in questo portale, a differenza degli altri siti che effettuano recensioni relative a schede grafiche. Tralasciando la configurazione è evidente che ci sia qualcosa che non vada, basta guardare la differenza di performance tra una gtx285 ed una 5870 ! Nelle recensioni di HWU sembra che vadano uguali.
Grazie in anticipo
rispondo a questo e chiudo quì:
dico semplicemente che ad ogni uscita di una recensione è sempre meglio sfogliare più di una recensione e farsi un'idea di media, nella rete ci sono tantissimi articoli validissimi. Non penso ci siano problemi nel farlo.
Seguo molte recensioni e in effetti quelle di Hw sembrano ogni tanto "strane" sotto certi punti di vista, però cerco sempre di vedere la buona fede, e in ogni caso documentandosi che vengono fuori i dati il più oggettivi possibili.
In questo caso nelle slide anche la stessa redazione dice di prendere i dati con le "pinze" e le dovute cautele.
Detto questo, se si vuole fare CHIAREZZA su un dato in esame non ci sono problemi a farlo, ma ACCUSE non mi sembra proprio il caso.
Io stesso ho avuto alcuni dubbi sui dati di oggi, ed ho cercato di fare chiarezza.
Chiuso Semi OT, spero sia chiaro adesso per tutti.
cmq l'unica slide interessante fatta vedere è questa...
http://img62.imageshack.us/img62/2793/wptessellationperf.jpg
e non a caso riguarda il tessellation. cmq anche in questo caso posto il commento dell'articolo...
Come tutti i grafici forniti direttamente dalle società produttrici anche quello sopra riportato va preso con le dovute considerazioni: non abbiamo informazioni realtive alle frequenze di funzionamento di GeForce GF100 e tantomeno la possibilità di replicare questi dati. Il grafico offre una vaga indicazione delle prestazioni che la scheda video di prossima generazione è in grado di garantire, confrontate con quelli ottenuti da Radeon HD 5870. Non abbiamo avuto però modo di verificare i dati e sapere su quale piattaforma e in quali scenari questi siano stati realizzati.
sempre in attesa di tutte le rece del caso.
;)
quindi con tessellone pare che spinge proprio di +
questi sono gli shader dentro la mia 5870.....
http://img7.imageshack.us/img7/6206/16ive2ujpg.gif
hahahaha :D
Wing_Zero
18-01-2010, 12:31
Nel bench su far cry 2 postato da hardwareUpgrade la gtx380 ha un margine del 50% di prestazioni sulla 5870!!!
Partendo dal presupposto che sicuramente sarà un game che Fermi digerisce particolarmente bene...pero' è lecito aspettarsi un margine medio di oltre il 30%...il che sarebbe particolarmente fantastico :)
Se si confermeranno queste le prestazioni, prepariamoci a fare le nostre scuse a HAL e Nemensis :)
aaasssdddfffggg
18-01-2010, 12:34
prestazioni con l'importantissimo tessellone
http://img35.imageshack.us/i/gf10018.jpg/
prepariamoci a rivendere la 5870...
e c'è da vedere se quei test son stati fatti "solo" con un 360 :D
mai avuto dubbi su questo.:D
io se non ho capito male, ho letto che l'architettura di fermi, oltre ad avere il tessellone + performante, spinge con giochi zeppi di poligoni...quindi sono curioso di vedere che numeri darà con giochi come i Crysis in very high (che veramente sono mostruosi come numero di poligoni)... :fagiano:
IlGranTrebeobia
18-01-2010, 12:35
mai avuto dubbi su questo.:D
Ammetti di averla comprata quindi :D
aaasssdddfffggg
18-01-2010, 12:35
Nel bench su far cry 2 postato da hardwareUpgrade la gtx380 ha un margine del 50% di prestazioni sulla 5870!!!
Partendo dal presupposto che sicuramente sarà un game che Fermi digerisce particolarmente bene...pero' è lecito aspettarsi un margine medio di oltre il 30%...il che sarebbe particolarmente fantastico :)
Se si confermeranno queste le prestazioni, prepariamoci a fare le nostre scuse a HAL e Nemensis :)
macchè dai,nessuno si deve scusare di nulla,magari riprendiamo dei discorsi fatti tempo nel Thread.Quello ben volentieri...:D
Attendiamo sempre bench finali e più completi però.;)
DavidM74
18-01-2010, 12:35
Nel bench su far cry 2 postato da hardwareUpgrade la gtx380 ha un margine del 50% di prestazioni sulla 5870!!!
Partendo dal presupposto che sicuramente sarà un game che Fermi digerisce particolarmente bene...pero' è lecito aspettarsi un margine medio di oltre il 30%...il che sarebbe particolarmente fantastico :)
Se si confermeranno queste le prestazioni, prepariamoci a fare le nostre scuse a HAL e Nemensis :)
le vorrei anche io le scuse, mica siete gli unici che leggono baggianate?.. :asd:
aaasssdddfffggg
18-01-2010, 12:37
Ammetti di averla comprata quindi :D
:sbonk: .;)
cmq ho letto un pò di review e dicono bene di questa architettura fermi... ;)
dai..a questo punto a spettiamo i bench finali...
Wing_Zero
18-01-2010, 12:40
io non sono ne un fan ati e ne uno nvidia :) Attualmento ho una 4890 pero' non esiterei a cambiarla magari con una gtx 360 se mi dovesse convenire :)
Beh dai, le premesse per uno "Ownage"in grande stille del R800 ci sono tutte...speriamo bene...cosi le ATI 5XXX caleranno di prezzo velocemente :)
E così amd magari si sbrigherà a far uscire la serie 6XXX :)
Aspettiamo bench ufficiali pero'! :P
Ma avete letto quello che hanno scritto i redattori di HWUpgrade nel fare la tabella di comparazione?
I dati di NVidia li hanno forniti direttamente senza possibilità di fare prove, mentre quelli delle ATI hanno messo i loro risultati ottenuti con le schede in loro possesso.
In più è stato usato un gioco riconosciuto da tutti come sfavorevole alle ATI in quelle condizioni, mentre non sono stati forniti ulteriori benchmark.
Dunque ancora non c'è nulla di certo, evitate di sparare numeri iperbolici senza poterli dimostrare.
Ciao :)
aaasssdddfffggg
18-01-2010, 12:41
io se non ho capito male, ho letto che l'architettura di fermi, oltre ad avere il tessellone + performante, spinge con giochi zeppi di poligoni...quindi sono curioso di vedere che numeri darà con giochi come i Crysis in very high (che veramente sono mostruosi come numero di poligoni)... :fagiano:
Anche se non abbiamo un quadro ben delineato,possiamo cominciare a dire di scartare l'ipotesi di un "fallimento epico" che tanto andava di moda una volta nel Thread,giusto per aprire le danze...:D
Anche se non abbiamo un quadro ben delineato,possiamo cominciare a dire di scartare l'ipotesi di un "fallimento epico" tanto per aprire le danze...:D
be ma a quello non c'ho mai creduto ;)
gianni1879
18-01-2010, 12:45
le vorrei anche io le scuse, mica siete gli unici che leggono baggianate?.. :asd:
e quali sarebbero queste baggianate??
e meno male che avevo detto di evitare commenti di questo tipo
Naturally the cards we benchmarked weren’t equipped with anything above 512SPs since that is the maximum layout this architecture will allow. If we assume the performance we saw was coming out of the beta, underclocked version of a 512SP GF100 running alpha-stage drivers, this is going to be one hell of a graphics card. On the other hand, if NVIDIA was using 448SP equipped cards for these tests, the true potential of the GF100 is simply mind-boggling.
concordo yes
aaasssdddfffggg
18-01-2010, 12:46
be ma a quello non c'ho mai creduto ;)
tu non di certo,ma diversi direi di si...:D
Mi prenoto a 200€ :cool:
:tie:
:D c'è un mio amico che me la prende a 270€ :asd:
Ma le fonti voi due alieni non le mettete mai?
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/27892-nvidia-s-geforce-gf100-under-microscope.html
;)
Anche se non abbiamo un quadro ben delineato,possiamo cominciare a dire di scartare l'ipotesi di un "fallimento epico" che tanto andava di moda una volta nel Thread,giusto per aprire le danze...:D
mah, non ne sarei sicuro al 100% .. potrebbe essere una vittoria di pirro quella delle performance assolute, il vero benchmark prezzo/prestazioni è la 5850, nvidia dovrà vincere quella battaglia, non tirare fuori 100 gpu cherrypicked per poter dire ho la scheda più veloce ... il tutto imho chiaramente :)
da ciò che vedo ormai la scheda è in prossimità di lancio...una data più o meno di uscita quale potrà essere alla fine? la ma ati4870 fa ancora il suo sporco lavoro ma cambiare non guasta mai:D
Naturally the cards we benchmarked weren’t equipped with anything above 512SPs since that is the maximum layout this architecture will allow. If we assume the performance we saw was coming out of the beta, underclocked version of a 512SP GF100 running alpha-stage drivers, this is going to be one hell of a graphics card. On the other hand, if NVIDIA was using 448SP equipped cards for these tests, the true potential of the GF100 is simply mind-boggling.
concordo yes
Voglio pensare male, e dico che il modello oggetto di quelle preview fosse da 512SP e con clock vicini a quelli di target (700-1400 ?), ma con vgpu pompato per la stabilità, e quindi manco un cenno ai consumi.
Di certo, in 2 o anche 3 mesi, possono fare tantissimo lavoro sui driver, non indifferente su una nuova architettura.
Normalmente il beta testing sui driver lo fanno gli utenti,
questa volta se lo sorbisce Nvidia, è uno dei vantaggi delle schede ritardatarie :D
P.S.: Offro 220 € per la tua HD5870 oggi, 150 euro tra 2 mesi :sofico: :Prrr:
sto leggendo un pò qua un pò la che anche la qualità di immagine è migliorata ;)
halduemilauno
18-01-2010, 12:59
da ciò che vedo ormai la scheda è in prossimità di lancio...una data più o meno di uscita quale potrà essere alla fine? la ma ati4870 fa ancora il suo sporco lavoro ma cambiare non guasta mai:D
+ o - marzo/2 marzo/cmq marzo.
;)
Voglio pensare male, e dico che il modello oggetto di quelle preview fosse da 512SP e con clock vicini a quelli di target (700-1400 ?), ma con vgpu pompato per la stabilità, e quindi manco un cenno ai consumi.
Di certo, in 2 o anche 3 mesi, possono fare tantissimo lavoro sui driver, non indifferente su una nuova architettura.
Normalmente il beta testing sui driver lo fanno gli utenti,
questa volta se lo sorbisce Nvidia, è uno dei vantaggi delle schede ritardatarie :D
P.S.: Offro 220 € per la tua HD5870 oggi, 150 euro tra 2 mesi :sofico: :Prrr:
hahahaha... noneee...è cmq una bella scheda, quindi se la do via..lo faccio x 270-280€ :D
x il discorso driver quoto ;)
halduemilauno
18-01-2010, 13:00
sto leggendo un pò qua un pò la che anche la qualità di immagine è migliorata ;)
si ci sono stati degli accenni sull'AA migliorato.
;)
http://img693.imageshack.us/img693/7957/wpaaperf.jpg
Iantikas
18-01-2010, 13:06
vedo che dopo ieri notte c'è parecchia carne al fuoco...c'è di buono però che le pagine del 3d son volate via che erano quasi di più i post editati che quelli ancora presenti :D ...
...nonostante tutte le incognite e i possibili problemi ancora rimasti insoluti inizio ad essere un pochetto fiducioso su fermi...ma proprio come architettura...
...cioè se riusciranno a marzo/aprile a far uscire una "top" con tutti i 512sp e alla giusta freq (con gli shader tra i 1600/1700mhz e core intorno ai 650mhz) credo che fermi, come scheda top (in cui il consumo ha un importanza relativa; basta che rimangono entro i 300W, limite attuale per rientrare nelle specifiche pci-e), sarà una gran bella gpu da mettersi nel case e probabilmente l'acquisterò (se il prezzo non sarà abbondantemente fuori da ogni logica di mercato)...
...mi farebbe piacere leggere cosa ne pensa yossarian del raster engine e del polymorph engine...
...ciao
halduemilauno
18-01-2010, 13:09
http://img693.imageshack.us/img693/7957/wpaaperf.jpg
ecco mi riferivo a quello.
;)
Se quanto riportato qui corrisponde alla realtà, non credo che le schede saranno economiche. Almeno i primissimi mesi.
What is Nvidia going deliver? As we have said earlier on tapeout, the GF100 Fermi is a 23.x * 23.x mm chip, we hear it is within a hair of 550mm^2. This compares quite unfavorably to it's main competitor, ATI's Cypress HD5870 at 334mm^2. ATI gets over 160 chip candidates from a wafer, but Nvidia gets only 104. To make matters worse, defective chips go up roughly by the square of chip the area, meaning Nvidia loses almost three times as many dies to defects as ATI because of the chip size differential.
http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/
Ciao :)
DarkNiko
18-01-2010, 13:13
Io credo che quand'anche Fermi fosse realmente, un 20% o poco più, performante di una HD 5870, quale quella che ho preso una settimana fa, sono ben altre le considerazioni che andrebbero fatte.
La prima è legata alla risoluzione a cui si intende giocare. Nel mio caso, col mio fido HP 22", sono limitato in primis dalla risoluzione a 1680*1050 e, in secondo luogo, dal refresh video di 60 Hz, unitamente al vsync a cui non rinuncerei mai. Quindi, sempre riferito al mio caso, 60 fps rappresentano il target di godimento, valore oramai alla portata delle attuali VGA di fascia alta.
Di conseguenza, se, ipoteticamente, la 5870 di suo fa 130 FPS in un benchmark e Fermi ne fa 170 poco importa, poichè in entrambi i casi, giocando a 60 fps con tutti i filtri attivi, non si verrebbe mai a beneficiare della potenza residua offerta tanto dall'una quanto dall'altra VGA.
Andando avanti c'è da considerare, e non è da poco, sia il fattore prezzo quanto il fattore consumi e temperature.
Un ultimo fattore (che spero non mi colpisca) si chiama "scimmia" e quella quando si sbizzarrisce non sempre la si riesce a controllare. :D
Scherzi a parte, auguro a tutti di ponderare bene le prossime scelte e di non lasciarsi fuorviare esclusivamente dalle cifre o dai numeri. ;)
Sergio_Di_Rio
18-01-2010, 13:20
Invece mi auguro di vedere presto benchmark reali. Non gonfiati come quello di FC2 e fatti girare su schede fantasma di cui non si conosce nulla. La situazione è veramente imbarazzante.
A marzo ;)
Ma qualcuno ha letto l articolo di semiaccurate ?? io prevedo un macello di RMA se è vero... e si parla di revision A3.... poi la versione del CES consumava piu di 280 watt raffreddata a liquido e quasi certamente overcloccata... e infatti crashava (vedi demo di nvidia)...
quindi per marzo ne hanno di problemi da risolvere... qusto fermi è davvero un mostro... ma forse raggiungera la sua massima forma con i 28nm...
Ma qualcuno ha letto l articolo di semiaccurate ?? io prevedo un macello di RMA se è vero... e si parla di revision A3.... poi la versione del CES consumava piu di 280 watt raffreddata a liquido e quasi certamente overcloccata... e infatti crashava (vedi demo di nvidia)...
quindi per marzo ne hanno di problemi da risolvere... qusto fermi è davvero un mostro... ma forse raggiungera la sua massima forma con i 28nm...
I crash dei pc non sono dovuti esclusivamente alle schede video, e non si hanno informazioni a proposito di QUEL crash, quindi questa rimane una congettura, fino a prova contraria.
"This re-design may pay off though if the slide above about the Unigine Benchmark is to be believed. NVIDIA is claiming much higher performance in this benchmark with Tessellation compared to the Radeon HD 5870, and we all know that benchmark was written specifically on Radeon HD 5000 series hardware. And while it is only a benchmark, the Unigine application is the best we have seen for leveraging DX11 tessellation showing off huge image quality impacts. If GF100 is beating the Radeon HD 5870 that much in a benchmark that was written for the Radeon HD 5870 in the first place, that just spells "awesome" for the kind of geometry performance potentially here." ;)
Ma qualcuno ha letto l articolo di semiaccurate ?? io prevedo un macello di RMA se è vero... e si parla di revision A3.... poi la versione del CES consumava piu di 280 watt raffreddata a liquido e quasi certamente overcloccata... e infatti crashava (vedi demo di nvidia)...
quindi per marzo ne hanno di problemi da risolvere... qusto fermi è davvero un mostro... ma forse raggiungera la sua massima forma con i 28nm...
cmq va detto che il tipo di semiaccurate non va considerato tanto attendibile..., ho letto ieri notte che ce l'ha con nvidia...e su beyond3D lo hanno pure preso in giro...xchè ha spesso postato cose inesatte.. (postate appunto da utenti di quel sito...in una foto è vestito pure da coniglio, per una scommessa persa con intel :rotfl:)
I crash dei pc non sono dovuti esclusivamente alle schede video, e non si hanno informazioni a proposito di QUEL crash, quindi questa rimane una congettura, fino a prova contraria.
si si qst ovviamente... ma qui è troppo facile farsi prendere dall'entusiasmo senza soppesare ogni cosa...280watt di tdp... schede che faticano a tenere i clock prestabiliti e per raggiungerle devono essere overvoltate...ok che le prestazioni... e qui credo che in linea di massima ci siamo... ma l'affidabilita?? il calore?? le rese produttive e il prezzo?? non sono solo le pure prestazioni a fare di una vga la migliore..
cmq va detto che il tipo di semiaccurate nno va considerato tanto attendibile... ho letto ieri notte che ce l'ha con nvidia...e su beyond3D lo hanno pure preso in giro...xchè ha spesso postato cose inesatte..
se fosse cosi allora tanto meglio... ;) perche per prestazioni promette davvero bene!!
si si qst ovviamente... ma qui è troppo facile farsi prendere dall'entusiasmo senza soppesare ogni cosa...280watt di tdp... schede che faticano a tenere i clock prestabiliti e per raggiungerle devono essere overvoltate...ok che le prestazioni... e qui credo che in linea di massima ci siamo... ma l'affidabilita?? il calore?? le rese produttive e il prezzo?? non sono solo le pure prestazioni a fare di una vga la migliore..
Sicuramente, io pero' prendo come esempio il mio treno a vapore (una 280 pesantemente cloccata) e il discorso consumi non mi spaventa piu' di tanto. L' unico discorso degno di attenzione, a mio parere, è quello sull' affidabilità e sul prezzo di acquisto che, storicamente (8800gt a parte) non è mai stato dei più convenienti.
Certo è che spendere in un mese 740 euro per la rata del mutuo e 700 per la scheda video mi fa uscire le emorroidi...:D :D :D
se fosse cosi allora tanto meglio... ;) perche per prestazioni promette davvero bene!!
guarda da quello che ho capito io... il tipo in questione è tutto pro amd / ati e assolutamente contro intel / nvidia...
lasciamoli perdere gli schierati... ;)
halduemilauno
18-01-2010, 13:39
cmq va detto che il tipo di semiaccurate non va considerato tanto attendibile..., ho letto ieri notte che ce l'ha con nvidia...e su beyond3D lo hanno pure preso in giro...xchè ha spesso postato cose inesatte.. (postate appunto da utenti di quel sito...in una foto è vestito pure da coniglio, per una scommessa persa con intel :rotfl:)
e anche su rage3d è stato fortemente criticato anche per l'articolo appena postato.
;)
aaasssdddfffggg
18-01-2010, 13:40
"This re-design may pay off though if the slide above about the Unigine Benchmark is to be believed. NVIDIA is claiming much higher performance in this benchmark with Tessellation compared to the Radeon HD 5870, and we all know that benchmark was written specifically on Radeon HD 5000 series hardware.And while it is only a benchmark, the Unigine application is the best we have seen for leveraging DX11 tessellation showing off huge image quality impacts. If GF100 is beating the Radeon HD 5870 that much in a benchmark that was written for the Radeon HD 5870 in the first place, that just spells "awesome" for the kind of geometry performance potentially here." ;)
Fermi farà divertire..... sia dal lato giochi....che dal lato dei numeri.Non vedo l'ora che arrivino test completi.:D
marco XP2400+
18-01-2010, 13:40
sono curioso di vederla nelle mani di diversi recensori, l'andamento teorico delle news di oggi ispira fiducia nei confronti di nvidia ma da anche una sensazione di fastidio, come quella di chi deve aspettare ancora...uff
poi chissà magari nel prossimo mese escono anche indiscrezioni sulla gamma fermi completa e sui modelli non di punta che supportano audio hd ecc....comunque l'appuntamento è rimandato alla presentazione di marzo
ciao a tutti
Sicuramente, io pero' prendo come esempio il mio treno a vapore (una 280 pesantemente cloccata) e il discorso consumi non mi spaventa piu' di tanto. L' unico discorso degno di attenzione, a mio parere, è quello sull' affidabilità e sul prezzo di acquisto che, storicamente (8800gt a parte) non è mai stato dei più convenienti.
Certo è che spendere in un mese 740 euro per la rata del mutuo e 700 per la scheda video mi fa uscire le emorroidi...:D :D :D
in effetti è un paramentro importante, dopo tutto quello che abbiamo letto in questo periodo di avvicinamento a vostro parere è possibile che nvidia rilasci vga dall'rma facile ? (vista la complessità del chip e le difficoltà di resa/produzione ?)
Iantikas
18-01-2010, 14:02
http://img10.imageshack.us/img10/4469/img0027828.png (http://img10.imageshack.us/i/img0027828.png/)
tabella fatta da hardware.fr ipotizzando clock di 725mhz per il core (praticamente le rop e la cache l2), di 1400mhz per gli shader (un pò bassino per ciò che spero ma questo anno scelto) e di conseguenza la metà (700mhz) per il "GPC Clock" (come pare nvidia stia chiamando il clock a cui girano TU, raster e polymorph engine)...
...interessante notare il netto cambiamento rispetto a G80/GT200 e la perdita dei vecchi punti di forza che da G80 aveva avuto sulle gpu ati in campo filtraggio texture e fillrate...
...ciao
in effetti è un paramentro importante, dopo tutto quello che abbiamo letto in questo periodo di avvicinamento a vostro parere è possibile che nvidia rilasci vga dall'rma facile ? (vista la complessità del chip e le difficoltà di resa/produzione ?)
La possibilità che un tot di schede possano avere problemi credo che non sia quantificabile da parte di Nvidia (o ATI). Credo che semplicemente si possa parlare di incidenti di percorso. Il clamore che ne deriva dipende sempre dall' utente che usa questa cosa come arma per accoltellare il "rivale".
Secondo me non si deve avere fretta, e pare che la fretta questa volta sia l' ultima cosa che ha avuto Nvidia (o magari si!).
Spero che gran parte del tempo impiegato per lo sviluppo di Fermi sia stato impiegato anche per cercare di fare le cose nel miglior modo possibile, mi riesce difficile credere il contrario. :)
La possibilità che un tot di schede possano avere problemi credo che non sia quantificabile da parte di Nvidia (o ATI). Credo che semplicemente si possa parlare di incidenti di percorso. Il clamore che ne deriva dipende sempre dall' utente che usa questa cosa come arma per accoltellare il "rivale".
Secondo me non si deve avere fretta, e pare che la fretta questa volta sia l' ultima cosa che ha avuto Nvidia (o magari si!).
Spero che gran parte del tempo impiegato per lo sviluppo di Fermi sia stato impiegato anche per cercare di fare le cose nel miglior modo possibile, mi riesce difficile credere il contrario. :)
Speriamo :)
E' bello però vedere che basta poco per fare tante persone felici... sarebbe bello poterlo fare anche nella vita reale!! :D
Caro Nemesis, ti gasi come un matto a guardare una tabella fatta veramente male dove vienew sabotata la controparte... sono 2 giorni che ripetiamo che a Far Cry 2 con quelle impostazioni la 5870 fa 76 fps di media, non 50 ne 60 come è stato sbandierato fin'ora... è chiaro che sono tutte trovate per far cadare ai loro piedi chi aspetta con tanto clamore e vede nient'altro che nVidia. Inoltre vedo che per l'articolo da me postato nessuno se ne è fregato, anzi tutti a dire che è falso ecc. ecc.
Per farla breve, è bello credere solo a ciò che ci fa comodo vero?? :asd:
Vedremo come cambierà tutto quest'ottimismo quando arriveranno le prime verità su Fermi ;)
aaasssdddfffggg
18-01-2010, 14:11
"NVIDIA has painted to us a beast, a really big beast, as far as GF100 goes. The new GPU, on paper, is poised to keep NVIDIA's idea of leadership with design, complexity, and concept-execution alive, as it did with the G80 (GeForce 8800 GTX) and GT200 (GeForce GTX 285)."
http://www.techpowerup.com/reviews/NVIDIA/GF100_Fermi_Architecture/6.html
aaasssdddfffggg
18-01-2010, 14:12
E' bello però vedere che basta poco per fare tante persone felici... sarebbe bello poterlo fare anche nella vita reale!! :D
Caro Nemesis, ti gasi come un matto a guardare una tabella fatta veramente male dove vienew sabotata la controparte... sono 2 giorni che ripetiamo che a Far Cry 2 con quelle impostazioni la 5870 fa 76 fps di media, non 50... è chiaro che sono tutte trovate per far cadare ai loro piedi chi aspetta con tanto clamore e vede nient'altro che nVidia. Inoltre vedo che per l'articolo da me postato nessuno se ne è fregato, anzi tutti a dire che è falso ecc. ecc.
Per farla breve, è bello credere solo a ciò che ci fa comodo vero?? :asd:
Vedremo come cambierà tutto quest'ottimismo quando arriveranno le prime verità su Fermi ;)
Stai tranquillo.A bench definitivi sarai il primo che verrò a trovarti per scambiare un paio di opinioni in merito.Adesso ogni parola lascia il tempo il che trova...;)
aaasssdddfffggg
18-01-2010, 14:13
Speriamo :)
è quello che ci auguriamo tutti.
Kharonte85
18-01-2010, 14:26
Whitepaper del GF100 dal sito Nvidia:
http://www.nvidia.com/object/IO_86775.html
Per chi fosse interessato ad approfondire ;)
aaasssdddfffggg
18-01-2010, 14:30
Whitepaper del GF100 dal sito Nvidia:
http://www.nvidia.com/object/IO_86775.html
Per chi fosse interessato ad approfondire ;)
stavo proprio leggendo quel pdf.Il commento finale da parte di NVIDIA rispecchia quello che ogni utente si aspetta da un'azienda del genere : leadership prestazionale (mi piace come tende a marcare questo aspetto).:D
halduemilauno
18-01-2010, 14:30
Whitepaper del GF100 dal sito Nvidia:
http://www.nvidia.com/object/IO_86775.html
Per chi fosse interessato ad approfondire ;)
chiariamolo c'è scritto 512.
;)
chiariamolo c'è scritto 512.
;)
...notizie di consumi e costi ed eventuali schede minori derivate?...
...ciao Andrea...
appleroof
18-01-2010, 14:36
cmq l'unica slide interessante fatta vedere è questa...
http://img62.imageshack.us/img62/2793/wptessellationperf.jpg
e non a caso riguarda il tessellation. cmq anche in questo caso posto il commento dell'articolo...
Come tutti i grafici forniti direttamente dalle società produttrici anche quello sopra riportato va preso con le dovute considerazioni: non abbiamo informazioni realtive alle frequenze di funzionamento di GeForce GF100 e tantomeno la possibilità di replicare questi dati. Il grafico offre una vaga indicazione delle prestazioni che la scheda video di prossima generazione è in grado di garantire, confrontate con quelli ottenuti da Radeon HD 5870. Non abbiamo avuto però modo di verificare i dati e sapere su quale piattaforma e in quali scenari questi siano stati realizzati.
sempre in attesa di tutte le rece del caso.
;)
quoto, è l'unica cosa che sono andato a vedere dell'articolo di hwupgrade :D
questo perchè come ho detto dall'inizio in Unigine la 5850 con tasselletion attiva fatica alla grande
cmq, a parte l'ovvia e giusta considerazione che bisogna aspettare test indipendenti, direi che considero pure che quello è un bench fatto per spremere la vga, non credo raffiguri la realtà dei giochi che implementeranno la tasselletion (anche perchè imho passa ancora un anno buono prima di vederne "full dx11"); anche se è vero che se una vga x va meglio di quella y con Unigine, dovrebbe andare meglio pure nei giochi...
insomma sono pure indicazioni che cmq ritengo più che positive, aspettiamo e vediamo :)
stavo proprio leggendo quel pdf.Il commento finale da parte di NVIDIA rispecchia quello che ogni utente si aspetta da un'azienda del genere : leadership prestazionale (mi piace come tende a marcare questo aspetto).:D
ripeto, quello che mi piace di più è l'insistenza sulle prestazioni "geometriche", che sono la vera grossa novità delle dx11 rispetto alle 10...e non credo che abbiano la sfacciataggine di dichiararsi più veloci in un ambito se non ne hanno la ragionevole certezza (cioè una 5870 che gira a palla nei loro lab :D )
halduemilauno
18-01-2010, 14:39
...notizie di consumi e costi ed eventuali schede minori derivate?...
...ciao Andrea...
non avevi gia sentenziato su tutto?
aaasssdddfffggg
18-01-2010, 14:40
quoto, è l'unica cosa che sono andato a vedere dell'articolo di hwupgrade :D
questo perchè come ho detto dall'inizio in Unigine la 5850 con tasselletion attiva fatica alla grande
cmq, a parte l'ovvia e giusta considerazione che bisogna aspettare test indipendenti, direi che considero pure che quello è un bench fatto per spremere la vga, non credo raffiguri la realtà dei giochi che implementeranno la tasselletion (anche perchè imho passa ancora un anno buono prima di vederne "full dx11"); anche se è vero che se una vga x va meglio di quella y con Unigine, dovrebbe andare meglio pure nei giochi...
insomma sono pure indicazioni che cmq ritengo più che positive, aspettiamo e vediamo :)
ripeto, quello che mi piace di più è l'insistenza sulle prestazioni "geometriche", che sono la vera grossa novità delle dx11 rispetto alle 10...e non credo che abbiano la sfacciataggine di dichiararsi più veloci in un ambito se non ne hanno la ragionevole certezza (cioè una 5870 che gira a palla nei loro lab :D )
sai,stavo pensando proprio al tessellatore quando si diceva che nvidia l'avrebbe implementato via software.Alla fine vedrai che sarà proprio il tessellatore a registrare valori ben più alti della controparte più di ogni altro aspetto.:p
quoto, è l'unica cosa che sono andato a vedere dell'articolo di hwupgrade :D
questo perchè come ho detto dall'inizio in Unigine la 5850 con tasselletion attiva fatica alla grande
cmq, a parte l'ovvia e giusta considerazione che bisogna aspettare test indipendenti, direi che considero pure che quello è un bench fatto per spremere la vga, non credo raffiguri la realtà dei giochi che implementeranno la tasselletion (anche perchè imho passa ancora un anno buono prima di vederne "full dx11"); anche se è vero che se una vga x va meglio di quella y con Unigine, dovrebbe andare meglio pure nei giochi...
insomma sono pure indicazioni che cmq ritengo più che positive, aspettiamo e vediamo :)
come gia detto la tessellation in unigine è usata a sproposito e nn solo come serve.. ed essendo un bench relativamente leggero la nvidia puo sfruttare tutti gli shader model meno carichi per la tessellation e quindi ha disposizione una notevole capacita di computazione in piu del tessellatore dedicato... diversa è la storia se un engine molto esigente sfrutta intensamente tutte le shader unit del gf100... ovviamente senza game o prove concrete di cio queste considerazioni sono fuffa:D
Alekos Panagulis
18-01-2010, 14:42
Non capisco questo entusiasmo: inceramente se la gtx380 dovesse andare un 30% in più della 5870 e consumare e costare il doppio......per me sarebbe un fallimento. Non credo che ATI abbia problemi ad allargare il die size della sue GPU e metterci più roba dentro, per farla andare di più facendole succhiare più watt. Solo che non sarebbe sostenibile. Non capisco veramente quelli che dicono "non mi interessa se consuma 300w".
non avevi gia sentenziato su tutto?
...sto cercandop news a riguardo...sono le info che piu' mi interessano...non ho risposte certe ma solo mie supposizioni su quanto visto fin ora...su google.com/news non trovo info a riguardo legate a questa presentazione...
...ciao Andrea...
halduemilauno
18-01-2010, 14:43
quoto, è l'unica cosa che sono andato a vedere dell'articolo di hwupgrade :D
questo perchè come ho detto dall'inizio in Unigine la 5850 con tasselletion attiva fatica alla grande
cmq, a parte l'ovvia e giusta considerazione che bisogna aspettare test indipendenti, direi che considero pure che quello è un bench fatto per spremere la vga, non credo raffiguri la realtà dei giochi che implementeranno la tasselletion (anche perchè imho passa ancora un anno buono prima di vederne "full dx11"); anche se è vero che se una vga x va meglio di quella y con Unigine, dovrebbe andare meglio pure nei giochi...
insomma sono pure indicazioni che cmq ritengo più che positive, aspettiamo e vediamo :)
ripeto, quello che mi piace di più è l'insistenza sulle prestazioni "geometriche", che sono la vera grossa novità delle dx11 rispetto alle 10...e non credo che abbiano la sfacciataggine di dichiararsi più veloci in un ambito se non ne hanno la ragionevole certezza (cioè una 5870 che gira a palla nei loro lab :D )
aggiungerei questa immagine...
http://img35.imageshack.us/img35/1515/gf10018.th.jpg (http://img35.imageshack.us/i/gf10018.jpg/)
;)
Beh a livello di Tessellation hanno fatto un ottimo lavoro direi :D Questo secondo me perchè Fermi è orientata più verso il GPU Computing rispetto al gaming... come mai non fanno vedere performance in gaming spingendo invece sulla tessellation dove è superiore??? Ma il gioco non è fatto solo di Tessellation... ;)
appleroof
18-01-2010, 14:46
come gia detto la tessellation in unigine è usata a sproposito e nn solo come serve.. ed essendo un bench relativamente leggero la nvidia puo sfruttare tutti gli shader model meno carichi per la tessellation e quindi ha disposizione una notevole capacita di computazione in piu del tessellatore dedicato... diversa è la storia se un engine molto esigente sfrutta intensamente tutte le shader unit del gf100... ovviamente sonza game o prove concrete di cio queste considerazioni sono fuffa:D
no non ti seguo, delle due l'una: o in questo modo affermi che rv870 sia carente nella potenza shader (cosa che non credo) oppure, come penso l'unità di tassellazione di gf100 sia migliore e più performante di quella di rv870 :boh:
p.s.: cmq non credo proprio che unigine sia un test leggero, a parte la tassellazione...:D
halduemilauno
18-01-2010, 14:46
...sto cercandop news a riguardo...sono le info che piu' mi interessano...non ho risposte certe ma solo mie supposizioni su quanto visto fin ora...su google.com/news non trovo info a riguardo legate a questa presentazione...
...ciao Andrea...
io le ho dette. ma tu insisti sui 300watt. 600€. e zero derivati. che devo fare? lascio perdere.
appleroof
18-01-2010, 14:48
aggiungerei questa immagine...
[IMG]http://img35.imageshack.us/img35/1515/gf10018.jpg[IMG]
;)
Hal aggiusta...
Beh a livello di Tessellation hanno fatto un ottimo lavoro direi :D Questo secondo me perchè Fermi è orientata più verso il GPU Computing rispetto al gaming... come mai non fanno vedere performance in gaming spingendo invece sulla tessellation dove è superiore??? Ma il gioco non è fatto solo di Tessellation... ;)
quotone... come gia detto... un conto è un bench basato solo su quella... e se fermi come detto in precedenza usa la maggior parte delle shader unit per tessellare è superiore alla ati che ha un hw dedicato... se poi la gf100 è capace di elaborare fisica+engine particolarmente esoso di calcoli+tessellation allora sara davvero una scelta ben fatta... e gf100 schiaccera ati..
no non ti seguo, delle due l'una: o in questo modo affermi che rv870 sia carente nella potenza shader (cosa che non credo) oppure, come penso l'unità di tassellazione di gf100 sia migliore e più performante di quella di rv870 :boh:
p.s.: cmq non credo proprio che unigine sia un test leggero, a parte la tassellazione...:D
da quello che ho letto piu indietro non ha un tessellatore dedicato... ma utilizza gli shader per eseguirla... da qui le considerazioni.. poi magari mi sbaglio e ho capito male i post piu addietro
halduemilauno
18-01-2010, 14:50
Hal aggiusta...
fatto...cmq la ripropongo.
http://img35.imageshack.us/img35/1515/gf10018.th.jpg (http://img35.imageshack.us/i/gf10018.jpg/)
;)
quotone... come gia detto... un conto è un bench basato solo su quella... e se fermi come detto in precedenza usa la maggior parte delle shader unit per tessellare è superiore alla ati che ha un hw dedicato... se poi la gf100 è capace di elaborare fisica+engine particolarmente esoso di calcoli+tessellation allora sara davvero una scelta ben fatta... e gf100 schiaccera ati..
Infatti mentre molti gongolano (:D) ancora nessuno ha fatto caso al fatto che GF100 non ha hardware dedicato per la Tessellation... elabora tutto grazie alle shader unit, ma se le shader unit sono impegnate per la Tessellation al resto chici pensa?? :confused:
io le ho dette. ma tu insisti sui 300watt. 600€. e zero derivati. che devo fare? lascio perdere.
...si ma le ho ricavate da link come questi (http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/) o di come la roadmap mobile sia stata ufficializzata su renaming della precedente generazione...cerco di fare chiarezza su news e articoli trovati su testate affidabili...o almeno così spero...con Ati senza una reale concorrenza nelle fasce piu' importanti i portafogli piangono...la supremazia nvidia ha portato Ati a presentare soluzioni a costi impensabili fino a un paio di anni fa...tutto qui...
...ciao Andrea...
appleroof
18-01-2010, 14:52
fatto...cmq la ripropongo.
http://img35.imageshack.us/img35/1515/gf10018.th.jpg (http://img35.imageshack.us/i/gf10018.jpg/)
;)
ottimo, ho la conferma che cercavo (anche perchè non credo pubblichino un grafico con riferimenti così precisi se poi una tetsta o un utente "x" li sbugiarda) :)
aaasssdddfffggg
18-01-2010, 14:52
fatto...cmq la ripropongo.
http://img35.imageshack.us/img35/1515/gf10018.th.jpg (http://img35.imageshack.us/i/gf10018.jpg/)
;)
quel grafico è spaventoso comunque.Quello si che dà l'idea di "asfaltare" l'altra : sta sempre abbondantemente sopra.:)
Beh a livello di Tessellation hanno fatto un ottimo lavoro direi :D Questo secondo me perchè Fermi è orientata più verso il GPU Computing rispetto al gaming... come mai non fanno vedere performance in gaming spingendo invece sulla tessellation dove è superiore??? Ma il gioco non è fatto solo di Tessellation... ;)
Per il momento dal punto di vista del gioco nudo e crudo ci dobbiamo accontentare dello schemino che c' è a pag. 18 della white paper, nel quale purtroppo non è indicata nessuna configurazione di sorta, ma che rispecchia quanto detto qualche giorno fa da qualche entusiastone cinese...
Personalmente non sto nella pelle, voglio vedere i muscoli su schermo e non su carta, ma se così fosse proprio male male non sarebbe...:)
ps: e si parla di texturing performance, non di incremento totale, ne?
appleroof
18-01-2010, 14:53
Infatti mentre molti gongolano (:D) ancora nessuno ha fatto caso al fatto che GF100 non ha hardware dedicato per la Tessellation... elabora tutto grazie alle shader unit, ma se le shader unit sono impegnate per la Tessellation al resto chici pensa?? :confused:
Lo sviluppo di una componente hardware dedicata e formata dal PolyMorph Engine e dal Raster engine e la sua implementazione all'interno dell'architettura rappresenta una delle novità fondamentali presenti in Fermi che fino ad ora non era stata chiarita.
cosa non ti è chiaro della parola "dedicata"? :D :D
http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_4.html
aaasssdddfffggg
18-01-2010, 14:54
Lo sviluppo di una componente hardware dedicata e formata dal PolyMorph Engine e dal Raster engine e la sua implementazione all'interno dell'architettura rappresenta una delle novità fondamentali presenti in Fermi che fino ad ora non era stata chiarita.
cosa non ti è chiaro della parola "dedicata"? :D :D
http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_4.html
quoto.;)
Kharonte85
18-01-2010, 14:55
Credo che non siano state postate queste:
http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-42.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-43.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-44.jpg
Nota dal sito:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/27892-nvidia-s-geforce-gf100-under-microscope-14.html
As you look at the charts below, you will notice that we added in “simulated” HD 5870 1GB results and there is a story behind this. NVIDIA was very forward with us and revealed the specifications of the test system they were running: a stock Intel i7 960, 6GB of 1600Mhz memory and an ASUS Rampage II Extreme motherboard running Windows 7. While we weren’t able to copy the exact same system, we did our best to replicate it by using the exact same CPU and OS while estimating the memory latencies and using a Gigabyte X58-UD5 motherboard. The result? Our stock GTX 285 performed within 2% of the results NVIDIA showed us so we are confident in the accuracy of our results.
Guardate che secondo me questa cosa è molto significativa...ci sono forti probabilità che i risultati finali saranno davvero simili a questi (perlomeno su quei giochi).
Poi dopo aver letto un po' in giro mi sono fatto decisamente l'impressione che Nvidia non abbia per nulla sacrificato la parte grafica in favore del GPUcomputing...seppure abbia creato qualcosa di flessibile per entrambi mi sembra che ci siano molte più speranze rispetto a prima di vedere qualcosa di veramente rivoluzionario in termini di prestazioni nei giochi, e con quel sistema di implementazione della tesselation mi sa che il tutto si tradurrà in un vantaggio in quelle applicazioni che ne faranno uso.
aaasssdddfffggg
18-01-2010, 14:57
Guardate che secondo me questa cosa è molto significativa...ci sono forti probabilità che i risultati finali saranno davvero simili a questi (perlomeno su quei giochi).
Poi dopo aver letto un po' in giro mi sono fatto decisamente limpressione che Nvidia non abbia per nulla sacrificato la parte grafica in favore del GPUcomputing...seppure abbia creato qualcosa di flessibile per entrambi mi sembra che ci siano molte più speranze rispetto a prima di vedere qualcosa di veramente rivoluzionario in termini di prestazioni.
Fermi è una gpu completa.Non è solo gaming per questo l'apprezzo ancor di più.E' tecnologicamente più avanti e più completa di ati.Ce poco da girare intorno.;)
PConly92
18-01-2010, 14:57
Non capisco questo entusiasmo: inceramente se la gtx380 dovesse andare un 30% in più della 5870 e consumare e costare il doppio......per me sarebbe un fallimento. Non credo che ATI abbia problemi ad allargare il die size della sue GPU e metterci più roba dentro, per farla andare di più facendole succhiare più watt. Solo che non sarebbe sostenibile. Non capisco veramente quelli che dicono "non mi interessa se consuma 300w".
quoto
non mi va l'idea di avere nel case una vga che consuma quasi come la lavatrice...:(
Lo sviluppo di una componente hardware dedicata e formata dal PolyMorph Engine e dal Raster engine e la sua implementazione all'interno dell'architettura rappresenta una delle novità fondamentali presenti in Fermi che fino ad ora non era stata chiarita.
cosa non ti è chiaro della parola "dedicata"? :D :D
http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_4.html
E dimmi un po', dove sta scritto che è hardware dedicato alla Tessellation? A me sembra che sono nuove feature introdotte da nVidia...
halduemilauno
18-01-2010, 14:57
...si ma le ho ricavate da link come questi (http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/) o di come la roadmap mobile sia stata ufficializzata su renaming della precedente generazione...cerco di fare chiarezza su news e articoli trovati su testate affidabili...o almeno così spero...con Ati senza una reale concorrenza nelle fasce piu' importanti i portafogli piangono...la supremazia nvidia ha portato Ati a presentare soluzioni a costi impensabili fino a un paio di anni fa...tutto qui...
...ciao Andrea...
e se stai con quelli...quello è l'ultimo che devi vedere.
IMHO.
greeneye
18-01-2010, 14:58
cmq va detto che il tipo di semiaccurate non va considerato tanto attendibile..., ho letto ieri notte che ce l'ha con nvidia...e su beyond3D lo hanno pure preso in giro...xchè ha spesso postato cose inesatte.. (postate appunto da utenti di quel sito...in una foto è vestito pure da coniglio, per una scommessa persa con intel :rotfl:)
Semiaccurate è molto più attendibile di quando non si voglia credere.
Per esempio questo è quello che scriveva il 29 luglio 2009
Each spin is the same 8 weeks as the last hot lot. Adding one puts production silicon out of the door, with the previously alluded to trickle, in late February. A second spin puts it into Q2. If there is anything more, well mid-year is very likely. Smart money is on at least two spins.
Se ricordate era anche il periodo in cui i siti attendibili davano la disponibilità di fermi per novembre.
Alekos Panagulis
18-01-2010, 15:00
:eek: Questo è impressionante:
"To put things in perspective, between NV30 (GeForce FX 5800) and GT200 (GeForce GTX 280), the geometry performance of NVIDIA’s hardware only increases roughly 3x in performance. Meanwhile the shader performance of their cards increased by over 150x. Compared just to GT200, GF100 has 8x the geometry performance of GT200, and NVIDIA tells us this is something they have measured in their labs."
http://www.anandtech.com/video/showdoc.aspx?i=3721&p=3
appleroof
18-01-2010, 15:01
E dimmi un po', dove sta scritto che è hardware dedicato alla Tessellation? A me sembra che sono nuove feature introdotte da nVidia...
:mbe: scusa ma mi prendi in giro? :stordita:
proviamo così (no, giusto per la correttezza):
NVIDIA, con lo sviluppo di GF100 si è trovata così ad affrontare il problema relativo alla Tessellation e la sua relativa implementazione: Tessellation rappresenta un importante e fondamentale passo per lo sviluppo di videogiochi e applicazioni future e Fermi non può non essere in grado di supportarla correttamente.
Ma come è stato implementato il supporto a tale tecnologia? Una semplice aggiunta della tessellation alla pre-esistente architettura GT200 avrebbe rappresentato un collo di bottiglia importante per la gestione della geometria, a scapito diretto delle prestazioni. È stato quindi necessario studiare una implementazione nuova e in grado di rispondere in modo corretto alle nuove richieste che DirectX 11 comporta.
Lo sviluppo di una componente hardware dedicata e formata dal PolyMorph Engine e dal Raster engine e la sua implementazione all'interno dell'architettura rappresenta una delle novità fondamentali presenti in Fermi che fino ad ora non era stata chiarita. La vera sfida non è stata tanto quella di introdurre le unità di calcolo ma come integrarle in parallelo così da non incappare in eventuali colli di bottiglia con conseguenti cali prestazionali. Secondo i dati forniti da NVIDIA, le prestazioni geometriche che le nuove schede video GeForce GF100 sono in grado di garantire rispetto a quelle di GeForce GTX 285 sono circa di 8 volte superiori: è un incremento di fondamentale importanza, estremamente significativo se pensiamo che nel passaggio da NV30 a GT200 la potenza di elaborazione in termini di shader è aumentata di 150 volte, mentre quella poligonale solo di 3 volte.
http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_4.html
cioè dico, ma l'hai letto l'articolo o parli tanto per...:D
Non capisco questo entusiasmo: inceramente se la gtx380 dovesse andare un 30% in più della 5870 e consumare e costare il doppio......per me sarebbe un fallimento. Non credo che ATI abbia problemi ad allargare il die size della sue GPU e metterci più roba dentro, per farla andare di più facendole succhiare più watt. Solo che non sarebbe sostenibile. Non capisco veramente quelli che dicono "non mi interessa se consuma 300w".
sopratutto da un punto di vista ambientale, più che monetario! :O
Fragarsene, vuol dire dimostrare molta ignoranza.
halduemilauno
18-01-2010, 15:03
Guardate che secondo me questa cosa è molto significativa...ci sono forti probabilità che i risultati finali saranno davvero simili a questi (perlomeno su quei giochi).
Poi dopo aver letto un po' in giro mi sono fatto decisamente l'impressione che Nvidia non abbia per nulla sacrificato la parte grafica in favore del GPUcomputing...seppure abbia creato qualcosa di flessibile per entrambi mi sembra che ci siano molte più speranze rispetto a prima di vedere qualcosa di veramente rivoluzionario in termini di prestazioni nei giochi, e con quel sistema di implementazione della tesselation mi sa che il tutto si tradurrà in un vantaggio in quelle applicazioni che ne faranno uso.
ma questo fu detto chiarissimamente sin da subito. ma molti a fare orecchie da mercante nonostante smentite.
non c'è peggior sordo di chi non vuol sentire.
;)
aaasssdddfffggg
18-01-2010, 15:04
Io vorrei tanto sapere se ce qualche nuova info inerente anche la famosa nuova modalità di rendering per il multgpu che NVIDIA lancerà con Fermi.Non sono riuscito a trovare ancora nulla.
appleroof
18-01-2010, 15:04
ma questo fu detto chiarissimamente sin da subito. ma molti a fare orecchie da mercante nonostante smentite.
non c'è peggior sordo di chi non vuol sentire.
;)
questa mi ricorda ben altre situazioni con però identici protagonisti :D
Kharonte85
18-01-2010, 15:05
Fermi è una gpu completa.Non è solo gaming per questo l'apprezzo ancor di più.E' tecnologicamente più avanti e più completa di ati.Ce poco da girare intorno.;)
L'impressione è questa, anche perchè Cypress non si è evoluto molto dalla generazione di GPU precedente (pur essendo validissimo).
E dimmi un po', dove sta scritto che è hardware dedicato alla Tessellation? A me sembra che sono nuove feature introdotte da nVidia...
Ma tu le leggi le recensioni o parli giusto così per http://www.mmorpgitalia.it/forum/images/smilies/best66.gif su Nvidia? :fagiano:
http://www.hwupgrade.it/articoli/skvideo/2361/tessellation_hardware.jpg
Io leggo Tessellator.
aaasssdddfffggg
18-01-2010, 15:06
ma questo fu detto chiarissimamente sin da subito. ma molti a fare orecchie da mercante nonostante smentite.
non c'è peggior sordo di chi non vuol sentire.
;)
Quoto.A leggere i post precedenti di qualche mese fa,in questo Thread, viene solo da ridere...Se ne sono dette di tutti i colori (in negativo)su questa GPU.:D
gianni1879
18-01-2010, 15:06
C.V.D.
eccovi i test di una singola HD5870 con Farcry2 e "medesime impostazioni" con i920@3 GHz
http://www.xtremeshack.com/immagine/i42592_1.jpg
Ci sono anche quelli di una hd5970 per chi interessa
http://www.xtremeshack.com/immagine/i42593_2.jpg
I risultati ben diversi
A me da come è scritto sembra che sono dedicati alla parallelizzazione per favorire la Tessellation ma non un'unita che si occupa solo ed esclusivamente della Tessellation... aspetto che intervenga Yossarian per fare chiarezza in merito :D
halduemilauno
18-01-2010, 15:08
Non capisco questo entusiasmo: inceramente se la gtx380 dovesse andare un 30% in più della 5870 e consumare e costare il doppio......per me sarebbe un fallimento. Non credo che ATI abbia problemi ad allargare il die size della sue GPU e metterci più roba dentro, per farla andare di più facendole succhiare più watt. Solo che non sarebbe sostenibile. Non capisco veramente quelli che dicono "non mi interessa se consuma 300w".
quindi secondo te la gtx380 consuma sui 400 watt e costerà sui 700€?
aaasssdddfffggg
18-01-2010, 15:09
L'impressione è questa, anche perchè Cypress non si è evoluto molto dalla generazione di GPU precedente (pur essendo validissimo).
Ma tu le leggi le recensioni o parli giusto così per http://www.mmorpgitalia.it/forum/images/smilies/best66.gif su Nvidia? :fagiano:
http://www.hwupgrade.it/articoli/skvideo/2361/tessellation_hardware.jpg
Io leggo Tessellator.
Ma pensa te,circola ancora il dubbio che il tessellatore non sia gestito via hardware su Fermi.Certo che gli vogliono proprio male a Fermi.:D
IlGranTrebeobia
18-01-2010, 15:09
Lo sviluppo di una componente hardware dedicata e formata dal PolyMorph Engine e dal Raster engine e la sua implementazione all'interno dell'architettura rappresenta una delle novità fondamentali presenti in Fermi che fino ad ora non era stata chiarita.
cosa non ti è chiaro della parola "dedicata"? :D :D
http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_4.html
Non rigiriamo i termini, dedicato o no quello che si voleva dire è chiaro... In Fermi tutti (o comunque quanti se ne vuole) gli shader cores possono essere dedicati alla tessellation, indubbiamente questo rende gf100 un tessellator migliore di rv870 in applicazione che ne fanno un uso massivo.
Il dubbio che sorge è che questa peculiarità, in applicazioni "miste" dove il tesseling (se mai esista come termine :D) non è preponderante, vada a richiedere risorse a shader cores che altrimenti verrebbero usate per altre operazioni standard.
appleroof
18-01-2010, 15:10
A me da come è scritto sembra che sono dedicati alla parallelizzazione per favorire la Tessellation ma non un'unita che si occupa solo ed esclusivamente della Tessellation... aspetto che intervenga Yossarian per fare chiarezza in merito :D
sicuramente l'interevnto di Yoss è sempre gradito, ma credo che le parole dell'articolo lascino ben poco spazio a interpretazioni soggettive tipo la tua :boh:
io leggo hardware dedicato alla tasselletion, e fino a prova contraria parlo (magari male ma vabbè :asd: ) l'italiano :D
Alekos Panagulis
18-01-2010, 15:11
quindi secondo te la gtx380 consuma sui 400 watt e costerà sui 700€?
No, non così tanto probabilmente. 280-300w e 600 euro? E' fattibile?
Kharonte85
18-01-2010, 15:11
C.V.D.
eccovi i test di una singola HD5870 con Farcry2 e "medesime impostazioni" con i920@3 GHz
http://www.xtremeshack.com/immagine/i42592_1.jpg
Ci sono anche quelli di una hd5970 per chi interessa
http://www.xtremeshack.com/immagine/i42593_2.jpg
I risultati ben diversi
Non avevamo dubbi...:asd: eppure credo che il test più affidabile sia quello fatto da hardware canucks , perchè in effetti loro erano a conoscenza sia del sistema sia delle impostazioni, ed infatti non puo' essere un caso che abbiano avuto risultati con la GTX 285 con un errore del 2%
appleroof
18-01-2010, 15:12
Non rigiriamo i termini, dedicato o no quello che si voleva dire è chiaro... In Fermi tutti (o comunque quanti se ne vuole) gli shader cores possono essere dedicati alla tessellation, indubbiamente questo rende gf100 un tessellator migliore di rv870 in applicazione che ne fanno un uso massivo.
Il dubbio che sorge è che questa peculiarità, in applicazioni "miste" dove il tesseling (se mai esista come termine :D) non è preponderante, vada a richiedere risorse a shader cores che altrimenti verrebbero usate per altre operazioni standard.
no ragazzi qui mi sembra di sognare....io non giro i termini, io leggo le parole di un articolo che sono univoche
io poi non ho competenze techinche tali da giudicare, ma mi piacerebbe che voi sciorinaste le vostre per poter confutare quanto scritto a chiare lettere nell'articolo
Ma pensa te,circola ancora il dubbio che il tessellatore non sia gestito via hardware su Fermi.Certo che gli vogliono proprio male a Fermi.:D
Ma chi ha messo in dubbio questo?? Io ho detto che da come ho capito non ha un hardware dedicato che si occupa solo di tessellation e lascia libere le shader unit... qui sembra che GF100 fa passare tutto su shader unit occupandole tutte. Basta glorificare nVidia no?? :D
Non rigiriamo i termini, dedicato o no quello che si voleva dire è chiaro... In Fermi tutti (o comunque quanti se ne vuole) gli shader cores possono essere dedicati alla tessellation, indubbiamente questo rende gf100 un tessellator migliore di rv870 in applicazione che ne fanno un uso massivo.
Il dubbio che sorge è che questa peculiarità, in applicazioni "miste" dove il tesseling (se mai esista come termine :D) non è preponderante, vada a richiedere risorse a shader cores che altrimenti verrebbero usate per altre operazioni standard.
Vedo che almeno tu mi hai capito ;)
no non ti seguo, delle due l'una: o in questo modo affermi che rv870 sia carente nella potenza shader (cosa che non credo) oppure, come penso l'unità di tassellazione di gf100 sia migliore e più performante di quella di rv870 :boh:
p.s.: cmq non credo proprio che unigine sia un test leggero, a parte la tassellazione...:D
per la tessellation nvidia si appoggia agli shader, quindi, qualora gli shader non siano impegnati in altro, ottiene risultati molto positivi ... bisogna vedere in un gioco, dove gli shader presumibilmente saranno impegnati anche a fare altro, come si comporta questo approcio
quel grafico è spaventoso comunque.Quello si che dà l'idea di "asfaltare" l'altra : sta sempre abbondantemente sopra.:)
Teoricamente sarebbe più opportuno confrontare la HD5970, essendo nella stessa fascia di prezzo.
Sono felice di questo salto innovativo: la tesselation permette un bel salto visivo nella qualità di giochi, e vedere finalmente che anche Nvidia crede in una nuova tecnologia (cosa che è stata rara negli ultimi 3 anni) è un piacere. Oltretutto questo porterà alla diffusione della tesselation in tempi brevi.
gianni1879
18-01-2010, 15:16
Non avevamo dubbi...:asd: eppure credo che il test più affidabile sia quello fatto da hardware canucks , perchè in effetti loro erano a conoscenza sia del sistema sia delle impostazioni, ed infatti non puo' essere un caso che abbiano avuto risultati con la GTX 285 con un errore del 2%
dubbi di che??? :confused:
guarda, non sto criticando i risultati di Fermi o della gtx285, ma sto solo dicendo che la Ati non ha quelle performance, io stesso ricordavo intorno ai 70 fps per scheda singola, non andiamo ovviamente a guardare la differenza del singolo fps.
appleroof
18-01-2010, 15:17
per la tessellation nvidia si appoggia agli shader, quindi, qualora gli shader non siano impegnati in altro, ottiene risultati molto positivi ... bisogna vedere in un gioco, dove gli shader presumibilmente saranno impegnati anche a fare altro, come si comporta questo approcio
:help:
Ma dove sta scritto?!?!?
C'è scritto l'esatto contrario...anche a te: http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_4.html :read:
halduemilauno
18-01-2010, 15:17
No, non così tanto probabilmente. 280-300w e 600 euro? E' fattibile?
allora non è il doppio.
PConly92
18-01-2010, 15:19
dubbi di che??? :confused:
guarda, non sto criticando i risultati di Fermi o della gtx285, ma sto solo dicendo che la Ati non ha quelle performance, io stesso ricordavo intorno ai 70 fps per scheda singola, non andiamo ovviamente a guardare la differenza del singolo fps.
quoto
a 1920x1080 aa4x una hd 5850 no oc fa 67 fps... la hd 5870 dovrebbe stare sui 75-80fps;)
dubbi di che??? :confused:
guarda, non sto criticando i risultati di Fermi o della gtx285, ma sto solo dicendo che la Ati non ha quelle performance, io stesso ricordavo intorno ai 70 fps per scheda singola, non andiamo ovviamente a guardare la differenza del singolo fps.
Infatti non ho ben capito come possano uscire 20 fps di meno per la 5870... non stiamo parlando di 2- 3 ma di 20 fps...... questo lascia pensare molto....... :rolleyes:
Insomma da quello che ho capito GF100 è forte nella Tessellation perchè usa tutta le shader unit, ma per il resto mi sa che deluderà parecchi personaggi.... :D :D
:help:
Ma dove sta scritto?!?!?
C'è scritto l'esatto contrario...anche a te: http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_4.html :read:
Instead, the GF100 has what Nvidia calls a 'polymorph engine', and there is one per SM. Basically it added a few features to a subset of the shaders, and that is now what it is calling a tessellator, but it is not. ATI has a single fairly small dedicated tessellator that remains unchanged up and down the Evergreen HD5xxx stack. On ATI 5xxx cards, tessellation performance takes almost no shader time other than dealing with the output just like any other triangle. On GF100, there is no real dedicated hardware, so the more you crank up the tessellation, the more shaders you co-opt.
Nvidia is going to tout the 'scaling' of its tessellation capabilities, but since it is kicking off the GF100 line at the top, scaling is only going down from there. ATI's 5xxx parts don't lose anything when going down, nor do they lose die area when going up.
When showing off the tessellation capabilities last week, Nvidia was very careful to show the Unigine Heaven benchmark with the dragon statue, claiming it beat the ATI 5870 by 60 percent. While technically true, this number is purposely misleading on two accounts. First is that this is a best case for showing off tessellation and only tessellation. If it were to show any of the other Heaven tests, the margins would narrow significantly.
Secondly, the test is very light on other parts of the system, so any use of system resources for the tessellator would likely be masked. It is unlikely that this performance would carry over to a real world scenario, which is exactly why it was chosen. Synthetic benchmarks are usually used as a best case scenario, and in this instance, they are.
tratto da: http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/
in pratica sono delle "estensioni" degli shader, che però se non ho capito male, hanno un impatto sulle performance stesse degli shader qualora questi facciano altro oltre che "tassellare" ... aspettiamo yoss per una spiegazione tecnica completa :)
Ma chi ha messo in dubbio questo?? Io ho detto che da come ho capito non ha un hardware dedicato che si occupa solo di tessellation e lascia libere le shader unit... qui sembra che GF100 fa passare tutto su shader unit occupandole tutte. Basta glorificare nVidia no?? :D
Vedo che almeno tu mi hai capito ;)
Beh non è affatto uno svantaggio, sia in termini di utilizzo che di performance. Significa massimizzare SEMPRE la tesselazione. Su RV870 un gioco che fa ampio uso di tesselazione sarebbe limitato dal tessellatore, dove invece GF100 non lo sarebbe. Le fixed function sono destinate a sparire in qualche anno, proprio perchè non permettono un utilizzo dinamico dei transistors. Ad esempio in RV770 e RV870, le TMU occupano il 40% del die. Oggi giorno questa occupazione di spazio ha una ragione, ma in futuro, con l'aumentare delle potenza non ci sarà necessità di riservare questo spazio, e le ALU operaranno qualsiasi calcolo (con minore efficenza generale, ma in una maniera molto più dinamica, eliminando quindi i colli di bottiglia).
Kharonte85
18-01-2010, 15:25
dubbi di che??? :confused:
Sul fatto che sarebbero arrivate le confutazioni da parte dei possessori di schede 5xx0.
guarda, non sto criticando i risultati di Fermi o della gtx285, ma sto solo dicendo che la Ati non ha quelle performance, io stesso ricordavo intorno ai 70 fps per scheda singola, non andiamo ovviamente a guardare la differenza del singolo fps.
Ma se non hai la stessa configurazione di prova come fai a fare un test paragonabile? E come fai a capire se ti sei messo nelle stesse condizioni se non hai almeno un'altra scheda disponibile presente nella prova da confrontare (gtx 285 in questo caso)?
Gli unici che lo hanno fatto sono quelli del sito citato prima (infatti ottengono un risultato simile per la GTX285 ma migliore di quanto detto da Nvidia per la HD5870), se devo scegliere se fidarmi di un benchmark fatto da un utente oppure di un sito che ha avuto modo di vedere e sapere i dettagli delle impostazioni di test (e non dovrebbe essere interessato a favorire nessuno cosa non affatto scontata nel singolo utente) è chiaro che la mia scelta è ovvia.
Elendil_1
18-01-2010, 15:26
:help:
Ma dove sta scritto?!?!?
C'è scritto l'esatto contrario...anche a te: http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_4.html :read:
Basta guardare il grafico con l'architettura di Fermi. Da come lo leggo io, il polymorph engine si "appoggia" agli SM per i calcoli, ce n'è uno ogni tot SM. Immagino sia un'unità deputata alla gestione dei calcoli di tessellazione, ma i calcoli vengono eseguiti materialmente dagli SM.
Non so con Ati come funzioni.
appleroof
18-01-2010, 15:26
tratto da: http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/
in pratica sono delle "estensioni" degli shader, che però se non ho capito male, hanno un impatto sulle performance stesse degli shader qualora questi facciano altro oltre che "tassellare" ... aspettiamo yoss per una spiegazione tecnica completa :)
sono d'accordo sul fatto che ci vuole uno ritenuto supertecnico così da porre fine a questi dubbi :D, dubbi però che io non ho: rimango convinto però che Fermi ha hw dedicato alla tasselletion
poi che efficacia abbia questo rispetto a quello di rv870 per via delle diverse soluzioni scelte, ci vuole davvero uno come Yossarian per capirlo :D
Beh non è affatto uno svantaggio, sia in termini di utilizzo che di performance. Significa massimizzare SEMPRE la tesselazione. Su RV870 un gioco che fa ampio uso di tesselazione sarebbe limitato dal tessellatore, dove invece GF100 non lo sarebbe. Le fixed function sono destinate a sparire in qualche anno, proprio perchè non permettono un utilizzo dinamico dei transistors. Ad esempio in RV770 e RV870, le TMU occupano il 40% del die. Oggi giorno questa occupazione di spazio ha una ragione, ma in futuro, con l'aumentare delle potenza non ci sarà necessità di riservare questo spazio, e le ALU operaranno qualsiasi calcolo (con minore efficenza generale, ma in una maniera molto più dinamica, eliminando quindi i colli di bottiglia).
Non è uno svantaggio dici? E apparte Unigine Benchmark che praticamente è fatto tutto di Tessellation, mi dici come farà ad avere questo vantaggio nei giochi se le shader unit saranno occupate a tessellare?? Il resto con che lo renderizza/elabora??
IlGranTrebeobia
18-01-2010, 15:33
no ragazzi qui mi sembra di sognare....io non giro i termini, io leggo le parole di un articolo che sono univoche
io poi non ho competenze techinche tali da giudicare, ma mi piacerebbe che voi sciorinaste le vostre per poter confutare quanto scritto a chiare lettere nell'articolo
Ma anche io, infatti ho detto che in gf100 tutto può essere dedicato a tessellare... Eppure le parole possono essere usate con molteplici significati
A parte che:
dedicated
–adjective
1. wholly committed to something, as to an ideal, political cause, or personal goal: a dedicated artist.
2. set apart or reserved for a specific use or purpose: We don't need a computer but a dedicated word processor.
3. (of machine parts, electrical components, hardware, etc.) made or designed to interconnect exclusively with one model or a limited range of models in a manufacturer's line: The new tractors use only high-priced dedicated accessories.
Quindi io posso dire la stessa cosa in 2 modi diversi:
1) NO! Fermi non ha unità dedicate a tessellator, ma unità multi purpose che oltre a tessellare possono fare anche altro.
2) SI! Fermi ha unità che a seconda delle esigenze possono essere dedicate a tessellator.
Nello schemino che avete riportato si vede che i cores della gpu che possono, oltre ad altre operazioni, anche tessellare.
-> Quindi è come dire che, dato che posso programmare applicazioni che usano i core delle cpu per fare andare calcoli fisici allora la cpu è hardware dedicato alla fisica?
Per quanto riguarda vantaggio o svantaggio di questa architettura non saprei a priori, se risultasse sempre un vantaggio non mi strapperei di certo i capelli, anzi direi: "che figata!" :)
appleroof
18-01-2010, 15:35
Non è uno svantaggio dici? E apparte Unigine Benchmark che praticamente è fatto tutto di Tessellation, mi dici come farà ad avere questo vantaggio nei giochi se le shader unit saranno occupate a tessellare?? Il resto con che lo renderizza/elabora??
ma non è vero che Unigine è fatto tutto di Tasselletion :rolleyes:
mentre và il rendering và anche la tasselletion
cmq ora ho capito cosa intendevate per hw dedicato, l'equivoco è che voi intendete per tale solo una fixed unit, mentre pare che in Fermi l'hw dedicato consista in estensioni degli shader, ma è pur sempre hw dedicato
poi è quello che traggo io dalle mie poche competenze in merito, quale sia l'efficacia delle 2 soluzioni come al solito si dovrà vedere sul campo, i primi test (fatti in casa, non dimentichiamolo) dimostrerebbero che quella Nvidia è più performante, poi possiamo ipotizzare all'infinito (ma non arriviamo a dire che Unigine è tutto tassellazione per favore :D )
ma non è vero che Unigine è fatto tutto di Tasselletion :rolleyes:
mentre và il rendering và anche la tasselletion
cmq ora ho capito cosa intendevate per hw dedicato, l'equivoco è che voi intendete per tale solo una fixed unit, mentre pare che in Fermi l'hw dedicato consista in estensioni degli shader, ma è pur sempre hw dedicato
poi è quello che traggo io dalle mie poche competenze in merito, quale sia l'efficacia delle 2 soluzioni come al solito si dovrà vedere sul campo, i primi test (fatti in casa, non dimentichiamolo) dimostrerebbero che quella Nvidia è più performante, poi possiamo ipotizzare all'infinito (ma non arriviamo a dire che Unigine è tutto tassellazione per favore :D )
ci siamo capiti :p
unigine non è tutto tassellazione, però è il best case scenario per l'approcio scelto da nvidia, dubito che in gioco sarà così ;)
Adone_1985
18-01-2010, 15:38
O My God GF 100 !!!:D :D
quoto
a 1920x1080 aa4x una hd 5850 no oc fa 67 fps... la hd 5870 dovrebbe stare sui 75-80fps;)
è da stanotte che si è in fibrillazione per le nuove slide di "Fermi" by Nvidia, e nemmeno i dubbi di un moderatore li trattiene dal dire "eh, vedrete..." "eh, lo sapevo...." "eh, comincia il divertimento.." :asd:
quel test è stato fortemente alterato, e allo stato attuale i dati più veritieri e confermati dai precedenti video e da Anandtech sono che :
5870= 75 fps
Fermi= 84 fps
circa il 10% di differenza su un titolo (Farcry2) che anzi dovrebbe avvantaggiare Nvidia. Qua la situazione è poco rosea, e lo dico solo per il mercato, non me ne frega niente di queste 2 serie, perchè le salto entrambe. Tuttavia prego, stappiamo lo spumante per le ennesime slide di powerpoint, come a Novembre........... qua non si cresce mai; Sminuite con estrema leggerezza un video che mostra chiaramente 84 fps e vi date alla pazza gioia per un altro test solo perchè viene da Nvidia. Quelli devono vendere, potrebbero mai dirvi che va il 10%+ di una 5870 ? Possibile che non capite che per stappare lo spumante dovete attendere una (o più) recensioni ? Ma prego, continuiamo a rallegrarci dei numeri della giornata. Per le info vere sono ancora rimasto a quel video. Considerazioni personalissime, sia chiaro.
ma non è vero che Unigine è fatto tutto di Tasselletion :rolleyes:
mentre và il rendering và anche la tasselletion
cmq ora ho capito cosa intendevate per hw dedicato, l'equivoco è che voi intendete per tale solo una fixed unit, mentre pare che in Fermi l'hw dedicato consista in estensioni degli shader, ma è pur sempre hw dedicato
poi è quello che traggo io dalle mie poche competenze in merito, quale sia l'efficacia delle 2 soluzioni come al solito si dovrà vedere sul campo, i primi test (fatti in casa, non dimentichiamolo) dimostrerebbero che quella Nvidia è più performante, poi possiamo ipotizzare all'infinito (ma non arriviamo a dire che Unigine è tutto tassellazione per favore :D )
L'Unigine carissimo funziona male perchè va contro il principio per cui è stata introdotta la Tessellation, in quanto va applicata solo alle parti che sono vicine e a quelle lontane no, mentre nel suddetto bench la Tessellation viene applicata su tutto.
Avere hardware deidcato per la Tessellation (nel vero senso della parola :D) ti permette di avere il resto della vga "libera", e quindi di poter svolgere altri compiti importanti. Secondo te perchè non hanno fatto vedere grafici rivolti a una sessione di gaming? :muro:
L'articolo su Tom's (http://www.tomshw.it/cont/articolo/nvidia-gf100-fermi-geforce-da-urlo-sulla-carta/23595/1.html) mi sembra più entusiatico di quello pubblicato qui :mbe:
PConly92
18-01-2010, 15:45
è da stanotte che sono in fibrillazione per le nuove slide di "Fermi" by Nvidia, e nemmeno i dubbi di un moderatore li trattiene dal dire "eh, vedrete..." "eh, lo sapevo...." "eh, comincia il divertimento.." :asd:
quel test è stato fortemente alterato, e allo stato attuale i dati più veritieri e confermati dai precedenti video e da Anandtech sono che :
5870= 75 fps
Fermi= 84 fps
circa il 10% di differenza su un titolo (Farcry2) che anzi dovrebbe avvantaggiare Nvidia. Qua la situazione è poco rosea, e lo dico solo per il mercato, non me ne frega niente di queste 2 serie, perchè le salto entrambe. Tuttavia prego, stappiamo lo spumante per le ennesime slide di powerpoint, come a Novembre........... qua non si cresce mai; Sminuite con estrema leggerezza un video che mostra chiaramente 84 fps e vi date alla pazza gioia per un altro test solo perchè viene da Nvidia. Quelli devono vendere, potrebbero mai dirvi che va il 10%+ di una 5870 ? Possibile che non capite che per stappare lo spumante dovete attendere una (o più) recensioni ? Ma prego, continuiamo a rallegrarci dei numeri della giornata. Per le info vere sono ancora rimasto a quel video. Considerazioni personalissime, sia chiaro.
quoto tutto
finalmente uno che la pensa come me:cincin:
appleroof
18-01-2010, 15:46
L'Unigine carissimo funziona male perchè va contro il principio della Tessellation, in quanto va applicata solo alle parti che sono vicine e a quelle lontane no, mentre nel suddetto bench la Tessellation viene applicata su tutto.
Avere hardware deidcato per la Tessellation (nel vero senso della parola :D) ti permette di avere il resto della vga "libera", e quindi di poter svolgere altri compiti importanti. Secondo te perchè non hanno fatto vedere grafici rivolti a una sessione di gaming? :muro:
e questo chi lo dice? :asd: Se mi posti un documento ufficiale microsoft che lo dichiari apertamente allora potremmo riparlarne :boh:
se fosse come dici tu però, allora non ci dovrebbero essere i disastri che preannunci in game, visto che la tassellazione sarebbe più leggera :D
Kharonte85
18-01-2010, 15:48
ci siamo capiti :p
unigine non è tutto tassellazione, però è il best case scenario per l'approcio scelto da nvidia, dubito che in gioco sarà così ;)
A me sembra come la vecchia storia che in dx10 R600 sarebbe andato meglio di G80...secondo me se ottiene un risultato migliore come sembra nel benchmark di ungine non credo che possa esserci una speranza di vedere ribaltato questo dato. Questa interpretazione (perchè questo mi pare che sia per ora) la vedo un po' un :mc:
Adone_1985
18-01-2010, 15:49
quoto tutto
finalmente uno che la pensa come me:cincin:
ma come dite voi, i driver sono ACERBI...visto che vi piace questo termine
PConly92
18-01-2010, 15:52
ma come dite voi, i driver sono ACERBI...visto che vi piace questo termine
ahh io non ho mai detto niente di driver acerbi...:confused:
anzi sia nvidia che ati (9.12 i primi usciti per la nuova generazione hd5xxx) hanno driver "acerbi".
e questo chi lo dice? :asd: Se mi posti un documento ufficiale microsoft che lo dichiari apertamente allora potremmo riparlarne :boh:
se fosse come dici tu però, allora non ci dovrebbero essere i disastri che preannunci in game, visto che la tassellazione sarebbe più leggera :D
Si è capita ormai, sei un altro di quelli che vuole per forza che GF100 vada forte negando anche le verità. Lo sa mezzo mondo che la Tesselletion è stata implementata per rendere le immagine più dettagliate ma nello stesso tempo pesare poco sulla GPU, proprio applicandola solo agli oggetti più vicini (perchè a quelli lontani non la vedresti manco con la lente d'ingrandimento) e adesso tu mi cadi dalle nuvole dicendomi "e questo chi lo dice? postami un documento ufficiale"... :doh:
Sei troppo di parte e questo ti impedisce di guardare la realtà dei fatti... purtroppo...
Kharonte85
18-01-2010, 15:53
Veramente se ti leggi l'articolo di HWU la configurazione di sistema è scritta esplicitamente...
Non è del tutto vero, non è riportata ne' la scheda madre, ne' l'OS.
Non è uno svantaggio dici? E apparte Unigine Benchmark che praticamente è fatto tutto di Tessellation, mi dici come farà ad avere questo vantaggio nei giochi se le shader unit saranno occupate a tessellare?? Il resto con che lo renderizza/elabora??
Unigine non fa testo, essendo appunto un benchmark per la tesselazione.
Dubito che esisteranno giochi tessellation bound per i prossimi 2 anni, e appunto per questo dubito che l'effetto della tesselazione sulle unità di calcolo sarà risibile. Però almeno ci hanno investito qualcosa: anche i 4 tri/clk non sono cosa da poco. Tanti su B3D credono che questo sia il vero limite di RV870 (il setup rate). Su questo punto GF100 è davvero future-proof.
Però non mi eccito di sicuro per i grafici di Uningine (+60% su un RV870): sono assolutamente irrealistici. La realtà è che GF100 sarà come tutti si aspettano (20-30% sopra la 5870) , anche perchè qualcuno si domanda perchè non lo confrontino con la HD5970, se è davvero così veloce.
scorpion73
18-01-2010, 15:54
scusate ma a questo punto mi chiedo: visto che la PhysX oggi è meglio se viene demandato ad una scheda esterna, potrebbe essere, ad esempio, che dedicando un Fermi alla physx (magari quando esce la fascia media), si velocizzi anche la tessellation?
cioé, se fosse vero l'approccio per il quale gli shader o fanno la tessellation, o fanno il resto, si potrebbe prevedere il demand del tessellation alla scheda che gestisce physx, dedicando di fatto un hw praticamente di potenza enorme a questa feature.
Forse dico una scemata, ma potrebbe essere anche una strategia commerciale di nvidia per giustificare l'approccio alla seconda scheda video, spesso di fascia media e dedicata al physx.
Che ne pensate?
ma come dite voi, i driver sono ACERBI...visto che vi piace questo termine
Veramente è stato detto che il ritardo era dovuto soprattutto perchè si dovevano sviluppare driver migliori proprio per far andare GF100 al massimo già dall'inizio...
gianni1879
18-01-2010, 15:55
Sul fatto che sarebbero arrivate le confutazioni da parte dei possessori di schede 5xx0.
Ma se non hai la stessa configurazione di prova come fai a fare un test paragonabile? E come fai a capire se ti sei messo nelle stesse condizioni se non hai almeno un'altra scheda disponibile presente nella prova da confrontare (gtx 285 in questo caso)?
Gli unici che lo hanno fatto sono quelli del sito citato prima (infatti ottengono un risultato simile per la GTX285 ma migliore di quanto detto da Nvidia per la HD5870), se devo scegliere se fidarmi di un benchmark fatto da un utente oppure di un sito che ha avuto modo di vedere e sapere i dettagli delle impostazioni di test (e non dovrebbe essere interessato a favorire nessuno cosa non affatto scontata nel singolo utente) è chiaro che la mia scelta è ovvia.
beh ovvio che i test provenissero da utenti che hanno una HD5000, e da chi dovevano provenire altrimenti?
Quanto alla veridicità dei test, è un utente sicuramente affidabile, cmq vedremo quanto ci saranno veri test
Adone_1985
18-01-2010, 15:58
ahh io non ho mai detto niente di driver acerbi...:confused:
anzi sia nvidia che ati (9.12 i primi usciti per la nuova generazione hd5xxx) hanno driver "acerbi".
ho quotato te perchè era l'ultimo post...
non intendevo dire che l'avevi detto tu...
però mi è stato detto (non da te)...che con gli ultimi driver la 5870 andava + forte della gtx295...con immagini postate..
se la GF100, va più forte del 10% della 5870, che va + di una gtx 295....mi viene da pensare che quando i driver saranno più maturi, allora ci sarà da ridere....
gianni1879
18-01-2010, 16:01
ma come dite voi, i driver sono ACERBI...visto che vi piace questo termine
e che centrano adesso i driver???
PConly92
18-01-2010, 16:02
ho quotato te perchè era l'ultimo post...
non intendevo dire che l'avevi detto tu...
però mi è stato detto (non da te)...che con gli ultimi driver la 5870 andava + forte della gtx295...con immagini postate..
se la GF100, va più forte del 10% della 5870, che va + di una gtx 295....mi viene da pensare che quando i driver saranno più maturi, allora ci sarà da ridere....
beh ma solo i9.12 (dedicati per le hd5xxx) sono usciti e sono ancora i primi:asd: non che facciano miracoli però qualche frame in più "arriva"...;)
nvidia ha avuto tutti sti mesi per svillupare i driver per fermi, se non lo hanno fatto sono c"""I loro;)
ho quotato te perchè era l'ultimo post...
non intendevo dire che l'avevi detto tu...
però mi è stato detto (non da te)...che con gli ultimi driver la 5870 andava + forte della gtx295...con immagini postate..
se la GF100, va più forte del 10% della 5870, che va + di una gtx 295....mi viene da pensare che quando i driver saranno più maturi, allora ci sarà da ridere....
credo che da parte di Ati, i driver daranno i normali miglioramenti nel corso di vita di una vga, niente di soprannaturale, poichè hanno già una base solida di rodaggio dalla serie 4xxx; da fermi è un'incognita, immagino che i miglioramenti ci saranno e anche tanti, è una tecnologia nuova e secondo me per ora poco struttata anche a causa del pp a 40nm. Tuttavia c'è da chiedersi.... ok, migliorerà, ma quando ? temporalmente dopo N.I. a 28nm ? il tempo passa per tutti, e in informatica le lancette corrono, anzi galoppano.
A me sembra come la vecchia storia che in dx10 R600 sarebbe andato meglio di G80...secondo me se ottiene un risultato migliore come sembra nel benchmark di ungine non credo che possa esserci una speranza di vedere ribaltato questo dato. Questa interpretazione (perchè questo mi pare che sia per ora) la vedo un po' un :mc:
per il momento abbiamo solo un benchmark sintetico (unigine) ed un bench di un gioco che storicamente favorisce l'architettura nvidia ... penso che sia fuori discussione che fermi andrà meglio di rv870 (e ci credo con quasi il doppio dei transistor, a circa 5 volte il costo per gpu e con consumi da reattore nucleare), è solo capire quanto andrà meglio e soprattutto a che costi :) fa sorridere tutta questa esaltazione per un grafico markettaro ed un bench sintetico, non trovi?
ho quotato te perchè era l'ultimo post...
non intendevo dire che l'avevi detto tu...
però mi è stato detto (non da te)...che con gli ultimi driver la 5870 andava + forte della gtx295...con immagini postate..
se la GF100, va più forte del 10% della 5870, che va + di una gtx 295....mi viene da pensare che quando i driver saranno più maturi, allora ci sarà da ridere....
Ecco riapparire la leggenda dei driver "miracolosi" :asd:
Caro, i driver fin'ora non hanno mai sconvolto i bench, il buongiorno si vede dal mattino ;)
IlGranTrebeobia
18-01-2010, 16:05
Il fatto che parli di Application (singolare) e non di Games (plurale: BattleForge e DiRT 2), fa più pensare a Unigine Benchmark che a DiRT 2 ;)
Può essere, però c'è ancora troppo divario, secondo me si tratta di una applicazione interna fatta solo per valutare l'efficacia del tessellator (infatti non ci sono capelli in unigine)
Ecco riapparire la leggenda dei driver "miracolosi" :asd:
Caro, i driver fin'ora non hanno mai sconvolto i bench, il buongiorno si vede dal mattino ;)
Su questo concordo pure io! :)
Non è del tutto vero, non è riportata ne' la scheda madre, ne' l'OS.
Gli i7 9xx sono solo socket 1366 e le schede con questo socket montano solo chipset x58. Il test in dx10 può essere stato fatto o su Seven o su Vista e non si perdono 20-30fps da Vista a Seven o viceversa :mc:
L'articolo su Tom's (http://www.tomshw.it/cont/articolo/nvidia-gf100-fermi-geforce-da-urlo-sulla-carta/23595/1.html) mi sembra più entusiatico di quello pubblicato qui :mbe:
Tom's? Ma chissà come mai? :asd: quelli non cambieranno mai :doh:
se un giorno magari venisse fuori che Tom's ha preso mazzette da Intel e Nvidia io non sarò certo tra quelli che rimarranno basiti a bocca aperta...
PConly92
18-01-2010, 16:08
vi ricordo che anche r600 sulla carta avrebbe dovuto spaccare il mondo, invece sappiamo tutti come è andata per questo ho molti dubbi su fermi e le sue prestazioni nei giochi
ps. correggetemi se sbaglio;)
Kharonte85
18-01-2010, 16:10
beh ovvio che i test provenissero da utenti che hanno una HD5000, e da chi dovevano provenire altrimenti?
Dai siti che hanno a disposizione tutto il materiale per ricreare quelle condizioni ovviamente...se nò è ovvio che ognuno puo' avere la scheda che va di più. Anche la mia scheda video, sul mio sistema "se voglio" va di più del modello che viene recensito ;)
Quanto alla veridicità dei test, è un utente sicuramente affidabile, cmq vedremo quanto ci saranno veri test
Puo' essere anche affidabile ma le condizioni del test non sono state ricreate, anche per il semplice fatto che manca il dato della GTX 285.
appleroof
18-01-2010, 16:14
Si è capita ormai, sei un altro di quelli che vuole per forza che GF100 vada forte negando anche le verità. Lo sa mezzo mondo che la Tesselletion è stata implementata per rendere le immagine più dettagliate ma nello stesso tempo pesare poco sulla GPU, proprio applicandola solo agli oggetti più vicini (perchè a quelli lontani non la vedresti manco con la lente d'ingrandimento) e adesso tu mi cadi dalle nuvole dicendomi "e questo chi lo dice? postami un documento ufficiale"... :doh:
Sei troppo di parte e questo ti impedisce di guardare la realtà dei fatti... purtroppo...
guarda, potrei dire lo stesso di te, a parti invertite :D
io mi limito a leggere un articolo dove si parla di hw dedicato alla tasselletion (è la parte che mi interessa di più, lo ammetto) e tu contraddici questo peraltro senza portare alcuna argomentazione tecnica
poi, te ne esci che Unigine è solo tasselletion quando non è così, ma non perchè lo decido io :D
Poi, mi dici che la tasselletion non verrà applicata nei giochi come è stata applicata in Unigine e qui sono d'accordo: quello è un bench e come tale spreme la vga come i giochi mai faranno. Ma non è detto che per forza la tasselletion verrà applicata come dici tu (cioè più vicina ecc ecc), non è uno standard quello che sostieni, ma un'opinione tua, capisci che c'è differenza
Infine, dico solo che non sappiamo quale soluzione sarà migliore, ho già detto che per questo dovremo aspettare prove sul campo indipendenti e di utenti
In tutto questo non vedo dove voglio per forza che Fermi vada più forte delle Ati (e poi, anche se fosse, sarebbe un delitto? :asd: ); piuttosto dico che tu ed altri non fate che smontare Fermi ad ogni piè spinto, al limite se uno deve essere tacciato di fanboismo non credo proprio sia io (ricordi la favoletta del bue e dell'asino? :D ), che tra l'altro ho una 5850 nel case :eek:
tutto questo te lo dico senza polemica, credimi, ho solo commentato le news di oggi su Fermi :boh:
Dai siti che hanno a disposizione tutto il materiale per ricreare quelle condizioni ovviamente...se nò è ovvio che ognuno puo' avere la scheda che va di più. Anche la mia scheda video, sul mio sistema "se voglio" va di più del modello che viene recensito ;)
Puo' essere anche affidabile ma le condizioni del test non sono state ricreate, anche per il semplice fatto che manca il dato della GTX 285.
http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_8.html
"Ripetiamo per completezza di informazione che i parametri di funzionamento della scheda video GeForce GF100 impiegata non sono in nostro possesso, così come la versione driver e l'esatto quantitativo di memoria. NVIDIA ha eseguito sotto regime controllato i test con la nuova scheda sviluppata su architettura GF100 e messa a confronto con una normale GeForce GTX 285: i risultati per le schede NVIDIA sono quelli registrati in tale sessione. Nel caso dei test eseguiti con Radeon HD 5870 e Radeon HD 5850, portati avanti nel nostro laboratorio, i driver utilizzati sono stati i Catalyst 9.12. I dati mostrano una importante solida superiorità in favore della prossima scheda che NVIDIA intende commercializzare nei mesi a venire: la soluzione a singolo chip mostrata da NVIDIA è in grado di far registrare un framerate medio pari a 84,02 fps di gran lunga superiore ai 57,11 fps di Radeon HD 5870." :mc:
molochgrifone
18-01-2010, 16:14
Non è del tutto vero, non è riportata ne' la scheda madre, ne' l'OS.
A me sembra di aver letto Rampage 2 Extreme e Win 7, o sono impazzito? :confused:
Adone_1985
18-01-2010, 16:14
Ecco riapparire la leggenda dei driver "miracolosi" :asd:
Caro, i driver fin'ora non hanno mai sconvolto i bench, il buongiorno si vede dal mattino ;)
Adesso che sono uscite le schede Nvidia è così....
Prima con le schede ati non valeva questa cosa...
PConly92
18-01-2010, 16:20
Adesso che sono uscite le schede Nvidia è così....
Prima con le schede ati non valeva questa cosa...
è chi ha mai detto qualcosa sui driver ati:confused: visto che anche con driver "normali" le hd5xxx spaccano di brutto...boh:confused:
guarda, potrei dire lo stesso di te, a parti invertite :D
io mi limito a leggere un articolo dove si parla di hw dedicato alla tasselletion (è la parte che mi interessa di più, lo ammetto) e tu contraddici questo peraltro senza portare alcuna argomentazione tecnica
poi, te ne esci che Unigine è solo tasselletion quando non è così, ma non perchè lo decido io :D
Poi, mi dici che la tasselletion non verrà applicata nei giochi come è stata applicata in Unigine e qui sono d'accordo: quello è un bench e come tale spreme la vga come i giochi mai faranno. Ma non è detto che per forza la tasselletion verrà applicata come dici tu (cioè più vicina ecc ecc), non è uno standard quello che sostieni, ma un'opinione tua, capisci che c'è differenza
Infine, dico solo che non sappiamo quale soluzione sarà migliore, ho già detto che per questo dovremo aspettare prove sul campo indipendenti e di utenti
In tutto questo non vedo dove voglio per forza che Fermi vada più forte delle Ati (e poi, anche se fosse, sarebbe un delitto? :asd: ); piuttosto dico che tu ed altri non fate che smontare Fermi ad ogni piè spinto, al limite se uno deve essere tacciato di fanboismo non credo proprio sia io (ricordi la favoletta del bue e dell'asino? :D ), che tra l'altro ho una 5850 nel case :eek:
tutto questo te lo dico senza polemica, credimi, ho solo commentato le news di oggi su Fermi :boh:
Hai commentato la News di oggi di HW dove non so come ma la 5870 fa 57 fps ... forse l'hanno fatto con un pentium 4 a 2 ghz quel test non so... :doh:
Diciamo che in genere commentate ciò che vi va più a favore dai...
Cmq aspettiamo Yoss che farà sicuramente chiarezza ;)
http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_8.html
"Ripetiamo per completezza di informazione che i parametri di funzionamento della scheda video GeForce GF100 impiegata non sono in nostro possesso, così come la versione driver e l'esatto quantitativo di memoria. NVIDIA ha eseguito sotto regime controllato i test con la nuova scheda sviluppata su architettura GF100 e messa a confronto con una normale GeForce GTX 285: i risultati per le schede NVIDIA sono quelli registrati in tale sessione. Nel caso dei test eseguiti con Radeon HD 5870 e Radeon HD 5850, portati avanti nel nostro laboratorio, i driver utilizzati sono stati i Catalyst 9.12. I dati mostrano una importante solida superiorità in favore della prossima scheda che NVIDIA intende commercializzare nei mesi a venire: la soluzione a singolo chip mostrata da NVIDIA è in grado di far registrare un framerate medio pari a 84,02 fps di gran lunga superiore ai 57,11 fps di Radeon HD 5870." :mc:
Sinceramente inizio ad avere forti dubbi, e anche molto pesanti... quasi 20 fps tolti alla 5870 ragazzi. Adesso non venite a ricacciare scuse varie, non stiamo parlando si 2 - 3 fps ma di quasi 20...
Kharonte85
18-01-2010, 16:23
per il momento abbiamo solo un benchmark sintetico (unigine) ed un bench di un gioco che storicamente favorisce l'architettura nvidia ... penso che sia fuori discussione che fermi andrà meglio di rv870 (e ci credo con quasi il doppio dei transistor, a circa 5 volte il costo per gpu e con consumi da reattore nucleare), è solo capire quanto andrà meglio e soprattutto a che costi :) fa sorridere tutta questa esaltazione per un grafico markettaro ed un bench sintetico, non trovi?
Credo che l'esaltazione di qualcuno derivi dalla impressione dominante uscita dagli articoli di oggi: Gf100 è molto promettente ed è una GPU.
Prendo atto che qualcun'altro si affanna ad accampare interpretazioni forzate per cercare di ridimensionare quanto gli articoli su Gf100 di oggi hanno mostrato...come al solito aspettiamo i riscontri futuri ma quello che si è visto oggi è innegabilmente positivo ed era quello che ci si aspettava da Nvidia.
Nei mesi passati era tutto un: perchè non mostra i benchmark? (sottointendendo che non sarebbe stata in grado di farlo perchè non competitiva)
Bene ora lo ha fatto...come la mettiamo? Facciamo finta di non averli visti e andiamo avanti come prima oppure prendiamo atto del fatto che Nvidia ha finalmente lanciato il sasso?
PConly92
18-01-2010, 16:23
Hai commentato la News di oggi di HW dove non so come ma la 5870 fa 57 fps ... forse l'hanno fatto con un pentium 4 a 2 ghz quel test non so... :doh:
Diciamo che in genere commentate ciò che vi va più a favore dai...
Cmq aspettiamo Yoss che farà sicuramente chiarezza ;)
Sinceramente inizio ad avere forti dubbi, e anche molto pesanti... quasi 20 fps tolti alla 5870 ragazzi. Adesso non venite a ricacciare scuse varie, non stiamo parlando si 2 - 3 fps ma di quasi 20...
20 fps son troppi:eek:
in quasi tutte le recensioni la hd 5870 fa tra i 75-80 fps e qua addirittura 57 fps...:eek:
Legolas84
18-01-2010, 16:24
che tristezza... almeno una volta chi era palesemente tifoso postava solo nel thread della sua religione...
Hai commentato la News di oggi di HW dove non so come ma la 5870 fa 57 fps ... forse l'hanno fatto con un pentium 4 a 2 ghz quel test non so... :doh:
Diciamo che in genere commentate ciò che vi va più a favore dai...
Cmq aspettiamo Yoss che farà sicuramente chiarezza ;)
Sinceramente inizio ad avere forti dubbi, e anche molto pesanti... quasi 20 fps tolti alla 5870 ragazzi. Adesso non venite a ricacciare scuse varie, non stiamo parlando si 2 - 3 fps ma di quasi 20...
L'obbiettività è un dono di pochissimi! Mi colpisce che anche Gianni abbi fatto notare la cosa ma che sia stato quoto da pochissimi.... E' proprio vero l'obbiettività nn tutti la possono avere bha..............
yossarian
18-01-2010, 16:28
Spero che Yoss possa passare a darci il suo parere sui dettagli architetturali...quel polymorph engine sembra interessante/promettente
ciao Kharonte.
Il polymorph engine è un ibrido che prevede il tessellator vero e proprio in hardware e la sua parte programmabile eseguita dallo shader core. In pratica, nVIDIA ha scomposto la parte relativa alle operazioni geometriche della pipeline grafica, replicandone più volte gli elementi. Così, ogni gruppo di 128 alu ha un suo raster engine e ogni gruppo di 32 alu ha un suo tessellator dedicato.
Trova riscontro l'ipotesi che avevo fatto tempo fa sulla possiblità di avere un tessellator hardware. Come dicevo allora,s e qualcosa si può emulare questi sono hull e domain shader (ossia la parte programmabile), come avviene in RV770, mentre è del tutto controproducente farlo con il tessellator vero e proprio.
In pratica nVIDIA ha dotato ogni AP di un tessellator del tipo di quello visto per RV770 (ovviamente dimensionandolo al numero di alu che deve servire).
Vantaggi di questa soluzione sono la riduzione dell'ammontare di hardware dedicato e la possibilità di disattivare anche l'hw dedicato alle operazioni di tessellation quando si disabilitano SP.
Svantaggi: l'impatto sulle prestazioni è variabile e dipende da diversi fattori, ad iniziare dall'occuzione degli shader per finire con l'occupazione di banda tra shader core e polymorph engine. In questo caso, infatti, non si ha un flusso di dati che scorre in un solo verso, ma i vertici prelevati dallo stadio che fa vertex fetch passano allo shader core che svolge le funzioni tipiche degli hull shader, quindi tornano al polymorph engine per la tessellation, di nuovo alllo shader core per le operazioni di domain shading e, infine, al polymorph engine che prepara le operazioni di rasterizzazione. Questo complica ulteriormente la già complessa logica di controllo dei chip nVIDIA ma l'architettura con tessellator dedicato ad ogni SP dovrebbe ridurre l'impatto sulla banda passante tra polymorph engine e shader core (per essere più precisi si dovrebbero avere dati sulla capacità di trasferimento dati di quel canale).
Credo che l'esaltazione di qualcuno derivi dalla impressione dominante uscita dagli articoli di oggi: Gf100 è molto promettente ed è una GPU.
Prendo atto che qualcun'altro si affanna ad accampare interpretazioni forzate per cercare di ridimensionare quanto gli articoli su Gf100 di oggi hanno mostrato...come al solito aspettiamo i riscontri futuri ma quello che si è visto oggi è innegabilmente positivo ed era quello che ci si aspettava da Nvidia.
Nei mesi passati era tutto un: perchè non mostra i benchmark? (sottointendendo che non sarebbe stata in grado di farlo perchè non competitiva)
Bene ora lo ha fatto...come la mettiamo? Facciamo finta di non averli visti e andiamo avanti come prima oppure prendiamo atto del fatto che Nvidia ha finalmente lanciato il sasso?
il sasso sicuramente nvidia l'ha lanciato, curioso di vedere l'impatto reale che avrà :) conosciamo tutti nvidia ed il suo marketing molto "aggressivo" (penso siano secondi solo ad apple in questo, bisogna riconoscerlo): se hanno mostrato solo quel bench è perchè in altri scenari la situazione non è così rosea, e poi ripeto lo scenario mostrato imho non è così esaltante (i 57fps della 5870 non hanno riscontro come molti bench postati qui hanno dimostrato)
se prendiamo per buoni 70fps medi la differenza si riduce ad un misero 20%
non ho usato il termine misero a sproposito: questo 20% di perfomance in quanto si tradurrà in termini di costo e consumo? ovviamente lo sapremo con certezza a marzo/aprile, ma i primi indizi non sono incoraggianti
Non escludo che Fermi possa essere una GPU solida ma di sicuro i risultati della 5870 riportati da Hwupgrade, come sempre per quanto attiene le VGA ATI, sono VERGOGNOSI....!!!
Nei mesi passati era tutto un: perchè non mostra i benchmark? (sottointendendo che non sarebbe stata in grado di farlo perchè non competitiva)
Bene ora lo ha fatto...come la mettiamo? Facciamo finta di non averli visti e andiamo avanti come prima oppure prendiamo atto del fatto che Nvidia ha finalmente lanciato il sasso?
Come la mettiamo ?
5870= 75 fps
Fermi= 84 fps
vediamo se mi dici che uno dei 2 è fasullo :asd:
Dal whitepaper GF100 (pagina 5):
"PolyMorph Engines” . Each PolyMorph Engine includes a tessellation unit, an attribute
setup unit, and other geometry processing units. Each SM has its own dedicated PolyMorph Engine (we
provide more details on the Polymorph Engine in the GF100 architecture sections below). Newly
generated primitives are converted to pixels by four Raster Engines that operate in parallel (compared to
a single Raster Engine in prior generation GPUs). On-chip L1 and L2 caches enable high bandwidth
transfer of primitive attributes between the SM and the tessellation unit as well as between different SMs.
Tessellation and all its supporting stages are performed in parallel on GF100, enabling breathtaking
geometry throughput."
da pagina 7
"The first stage begins by fetching vertices from a global vertex buffer. Fetched vertices are sent to the
SM for vertex shading and hull shading. In these two stages vertices are transformed from object space
to world space, and parameters required for tessellation (such as tessellation factor) are calculated. The
tessellation factors (or LODs) are sent to the Tessellator.
In the second stage, the PolyMorph Engine reads the tessellation factors. The Tessellator dices the
patch (a smooth surface defined by a mesh of control points) and outputs a mesh of vertices. The mesh
is defined by patch (u,v) values, and how they are connected to form a mesh.
The new vertices are sent to the SM where the Domain Shader and Geometry Shader are executed. The
Domain Shader calculates the final position of each vertex based on input from the Hull Shader and
Tessellator. At this stage, a displacement map is usually applied to add detailed features to the patch.
The Geometry Shader conducts any post processing, adding and removing vertices and primitives
where needed. The results are sent back to the Tessellation Engine for the final pass."
PConly92
18-01-2010, 16:40
tutti qui parliamo di prestazioni (15-25% in più per fermi) ma nessuno parla di costi calore e consumi della futura scheda basata su fermi:(
ps. povero enrico fermi si stara rivoltando nella tomba ...:D
Kharonte85
18-01-2010, 16:41
ciao Kharonte.
Il polymorph engine è un ibrido che prevede il tessellator vero e proprio in hardware e la sua parte programmabile eseguita dallo shader core. In pratica, nVIDIA ha scomposto la parte relativa alle operazioni geometriche della pipeline grafica, replicandone più volte gli elementi. Così, ogni gruppo di 128 alu ha un suo raster engine e ogni gruppo di 32 alu ha un suo tessellator dedicato.
Trova riscontro l'ipotesi che avevo fatto tempo fa sulla possiblità di avere un tessellator hardware. Come dicevo allora,s e qualcosa si può emulare questi sono hull e domain shader (ossia la parte programmabile), come avviene in RV770, mentre è del tutto controproducente farlo con il tessellator vero e proprio.
In pratica nVIDIA ha dotato ogni AP di un tessellator del tipo di quello visto per RV770 (ovviamente dimensionandolo al numero di alu che deve servire).
Vantaggi di questa soluzione sono la riduzione dell'ammontare di hardware dedicato e la possibilità di disattivare anche l'hw dedicato alle operazioni di tessellation quando si disabilitano SP.
Svantaggi: l'impatto sulle prestazioni è variabile e dipende da diversi fattori, ad iniziare dall'occuzione degli shader per finire con l'occupazione di banda tra shader core e polymorph engine. In questo caso, infatti, non si ha un flusso di dati che scorre in un solo verso, ma i vertici prelevati dallo stadio che fa vertex fetch passano allo shader core che svolge le funzioni tipiche degli hull shader, quindi tornano al polymorph engine per la tessellation, di nuovo alllo shader core per le operazioni di domain shading e, infine, al polymorph engine che prepara le operazioni di rasterizzazione. Questo complica ulteriormente la già complessa logica di controllo dei chip nVIDIA ma l'architettura con tessellator dedicato ad ogni SP dovrebbe ridurre l'impatto sulla banda passante tra polymorph engine e shader core (per essere più precisi si dovrebbero avere dati sulla capacità di trasferimento dati di quel canale).
Ciao, intanto ti ringrazio della spiegazione chiara come al solito.
Da quello che dici mi sembra che comunque questa soluzione sia abbastanza buona, ma per essere più espliciti secondo te è possibile che laddove un tesselator di questo tipo (polymorph engine) funzioni bene (Ungine dx11) quello di Cypress funzioni male e o viceversa (Cypress>giochi dx11 e applicazioni reali) a tal punto da cambiare le sorti del vantaggio?
Nel complesso cosa ne dici di questo Gf100? Sembra in effetti più promettente di quello che si era visto nelle descrizioni del GPUcomputing o è solo una impressione?
Blackcat73
18-01-2010, 16:43
ciao Kharonte.
Il polymorph engine è un ibrido che prevede il tessellator vero e proprio in hardware e la sua parte programmabile eseguita dallo shader core. In pratica, nVIDIA ha scomposto la parte relativa alle operazioni geometriche della pipeline grafica, replicandone più volte gli elementi. Così, ogni gruppo di 128 alu ha un suo raster engine e ogni gruppo di 32 alu ha un suo tessellator dedicato.
Trova riscontro l'ipotesi che avevo fatto tempo fa sulla possiblità di avere un tessellator hardware. Come dicevo allora,s e qualcosa si può emulare questi sono hull e domain shader (ossia la parte programmabile), come avviene in RV770, mentre è del tutto controproducente farlo con il tessellator vero e proprio.
In pratica nVIDIA ha dotato ogni AP di un tessellator del tipo di quello visto per RV770 (ovviamente dimensionandolo al numero di alu che deve servire).
Vantaggi di questa soluzione sono la riduzione dell'ammontare di hardware dedicato e la possibilità di disattivare anche l'hw dedicato alle operazioni di tessellation quando si disabilitano SP.
Svantaggi: l'impatto sulle prestazioni è variabile e dipende da diversi fattori, ad iniziare dall'occuzione degli shader per finire con l'occupazione di banda tra shader core e polymorph engine. In questo caso, infatti, non si ha un flusso di dati che scorre in un solo verso, ma i vertici prelevati dallo stadio che fa vertex fetch passano allo shader core che svolge le funzioni tipiche degli hull shader, quindi tornano al polymorph engine per la tessellation, di nuovo alllo shader core per le operazioni di domain shading e, infine, al polymorph engine che prepara le operazioni di rasterizzazione. Questo complica ulteriormente la già complessa logica di controllo dei chip nVIDIA ma l'architettura con tessellator dedicato ad ogni SP dovrebbe ridurre l'impatto sulla banda passante tra polymorph engine e shader core (per essere più precisi si dovrebbero avere dati sulla capacità di trasferimento dati di quel canale).
Apprezzo molto ogni tuo intervento ma scusami se ti chiedo una cosa un poco da niubbo... in parole povere secondo te è buona come implementazione? Migliore di Ati? O solo con questi dati non è possibile giudicare ma bisognerà prima vederla all'opera?
Credo che l'esaltazione di qualcuno derivi dalla impressione dominante uscita dagli articoli di oggi: Gf100 è molto promettente ed è una GPU.
Prendo atto che qualcun'altro si affanna ad accampare interpretazioni forzate per cercare di ridimensionare quanto gli articoli su Gf100 di oggi hanno mostrato...come al solito aspettiamo i riscontri futuri ma quello che si è visto oggi è innegabilmente positivo ed era quello che ci si aspettava da Nvidia.
Nei mesi passati era tutto un: perchè non mostra i benchmark? (sottointendendo che non sarebbe stata in grado di farlo perchè non competitiva)
Bene ora lo ha fatto...come la mettiamo? Facciamo finta di non averli visti e andiamo avanti come prima oppure prendiamo atto del fatto che Nvidia ha finalmente lanciato il sasso?
Dati postati da utenti Autorevoli dicono 52, 75, 143 FPS di rispettivamente Min, Avg e Max in 1920x1200 con Ultra Quality e con un i7 920 a 200MHz inferiore rispetto al risultati di GF100. Quindi prendendo per buoni i valori di Nvidia abbiamo un misero +12% sulla 5870 in uno dei pochi game dove le ATI nn esprimono il loro potenziale.
http://www.xtremeshack.com/immagine/i42592_1.jpg
Si può continuare a discutere sui se e sui ma, però quei 57 FPS medi nn solo nn stanno nè in celo nè in terra ma sono passibili di denuncia per falsa informazione ad opera di una testata giornalistica. Poi la cosa fa ridere ma se ci si perde per degli stupidi numeri la cosa è un po' grave e patetica :rolleyes: Contenti voi......
Kharonte85
18-01-2010, 16:52
il sasso sicuramente nvidia l'ha lanciato, curioso di vedere l'impatto reale che avrà :) conosciamo tutti nvidia ed il suo marketing molto "aggressivo" (penso siano secondi solo ad apple in questo, bisogna riconoscerlo): se hanno mostrato solo quel bench è perchè in altri scenari la situazione non è così rosea, e poi ripeto lo scenario mostrato imho non è così esaltante (i 57fps della 5870 non hanno riscontro come molti bench postati qui hanno dimostrato)
se prendiamo per buoni 70fps medi la differenza si riduce ad un misero 20%
non ho usato il termine misero a sproposito: questo 20% di perfomance in quanto si tradurrà in termini di costo e consumo? ovviamente lo sapremo con certezza a marzo/aprile, ma i primi indizi non sono incoraggianti
Secondo me siamo alle solite con questi discorsi...io ti dico: puo' essere ma anche non essere.
In secondo: come si fa a dire che non sono incoraggianti se fino a ieri qualcuno dubitava perfino che fosse una GPU, che avesse il tesselator dei poveri ecc ecc...:asd:
Poi chiaro il resto si vedrà...
Non c'è molto da forzare, la HD5870 non ha quel framerate. La forzatura l'ha fatta chi ha inserito quel dato farlocco.
http://www.pcgameshardware.com/screenshots/original/2009/11/Ati_Radeon_HD_5970_Grafikkarte_Benchmark_FarCry2_2.PNG
http://www.hwupgrade.it/articoli/skvideo/2361/fc.png
La GTX285 è allineata, la HD5870 no.
Non mi irferivo ai test, i test confrontati così sono inaffidabili quasi di sicuro.
Dati postati da utenti Autorevoli dicono 52, 75, 143 FPS di rispettivamente Min, Avg e Max in 1920x1200 con Ultra Quality e con un i7 920 a 200MHz inferiore rispetto al risultati di GF100. Quindi prendendo per buoni i valori di Nvidia abbiamo un misero +12% sulla 5870 in uno dei pochi game dove le ATI nn esprimono il loro potenziale.
http://www.xtremeshack.com/immagine/i42592_1.jpg
Si può continuare a discutere sui se e sui ma, però quei 57 FPS medi nn solo nn stanno nè in celo nè in terra ma sono passibili di denuncia per falsa informazione ad opera di una testata giornalistica. Poi la cosa fa ridere ma se ci si perde per degli stupidi numeri la cosa è un po' grave e patetica :rolleyes: Contenti voi......
Io mi fido solo di questo dato:
http://www.hwupgrade.it/forum/showpost.php?p=30500890&postcount=17639
Le motivazioni sono scritte all'interno, del resto chi mi puo' assicurare che il dato di GF100 rimanga fisso in altre situazioni? Potrebbe aumentare anche lui.
yossarian
18-01-2010, 16:53
Ciao, intanto ti ringrazio della spiegazione chiara come al solito.
Da quello che dici mi sembra che comunque questa soluzione sia abbastanza buona, ma per essere più espliciti secondo te è possibile che laddove un tesselator di questo tipo (polymorph engine) funzioni bene (Ungine dx11) quello di Cypress funzioni male e o viceversa (Cypress>giochi dx11 e applicazioni reali) a tal punto da cambiare le sorti del vantaggio?
Nel complesso cosa ne dici di questo Gf100? Sembra in effetti più promettente di quello che si era visto nelle descrizioni del GPUcomputing o è solo una impressione?
il vantaggio o lo svantaggio di questo tipo di implementazione lo si potrà valutare solo caso per caso. Ripeto, la logica è simile a quella del tessellator di RV770 anche se, in quel caso, c'era un'unica unità per tutti e 10 gli SP mentre qui c'è un'unità (di dimensioni ridotte) per ogni SP. Vanno anche fatte le dovute proporzioni di potenza di elaborazione. Anche i dati dell'unigine si deve vedere a cosa sono riferiti (se a tutto il bench o solo ad una parte). Di sicuro la soluzione di nVIDIA può dar luogo a risultati più altalenanti.
L'architettura nel complesso è interessante ma lo è, soprattutto, in prospettiva, come tutte le nuove soluzioni. Nell'immediato credo abbiano ancora seri problemi ad avere rese accettabili e non so quando si vedrà realmente sul mercato la versione a 512 alu. I bench li hanno, con ogni probabilità, fatto con una versione a 512 alu ma in versione non definitiva. Ovvero, in versione definitiva per frequenze (in base a ciò che nVIDIA si è prefissata di ottenere) ma sicuramente non per consumi e dissipazione del calore (il fatto che non abbiano ancora distribuito pre sample e mostrino solo qualche slide di test interni è indicativo).
Apprezzo molto ogni tuo intervento ma scusami se ti chiedo una cosa un poco da niubbo... in parole povere secondo te è buona come implementazione? Migliore di Ati? O solo con questi dati non è possibile giudicare ma bisognerà prima vederla all'opera?
difficile fare previsioni; sicuramente lo scenario è destinato a cambiare anche titolo per titolo o, addirittura, mappa per mappa.
IlGranTrebeobia
18-01-2010, 16:58
quoto nn puo essere che hwupgrade sia praticamente l unica che riporta sempre bench in cui una ati va parecchio di meno 57 fps so davvero ridicoli come fate a definirli obiettivi!
anche co driver vecchi nn si possono fare 20 fps di meno!
per chi nn ha gli occhi foderati di prosciutto con bench seri la 5870 da un bel epic fail a gf100 per costi tdp e prestazioni leggermente superiori almeno per farcry2!
speriamo che altri giochi nn confermino questa tendenza o per nvidia son cavoli amari!
Mi avete fatto venir voglia di reinstallare far cry 2 per testare con mano... Sempre che non lo abbia buttato dalla finestra :p
edit: Anzi, ho cambiato idea, non potrei comunque arrivare a quella risoluzione :D
Iceman69
18-01-2010, 16:59
Molte aspettative, pochissimi benchmark e tante PR non fanno ben sperare, speriamo solo che Fermi vada veramente un po' meglio della 5870 perchè io dei drivers Ati non ne posso più e non vedo l'ora di tornare su nvidia, però ho forti dubbi sulle prestazioni, sui consumi e sul calore genererato (quindi sulla rumorosità che avrà la scheda una volta montata).
IlGranTrebeobia
18-01-2010, 17:02
speriamo solo che Fermi vada veramente un po' meglio della 5870 perchè io dei drivers Ati non ne posso più e non vedo l'ora di tornare su nvidia
:rolleyes: Va be'... Non dico niente perchè l'avatar mi ha ipnotizzato...
gianni1879
18-01-2010, 17:04
Dai siti che hanno a disposizione tutto il materiale per ricreare quelle condizioni ovviamente...se nò è ovvio che ognuno puo' avere la scheda che va di più. Anche la mia scheda video, sul mio sistema "se voglio" va di più del modello che viene recensito ;)
Puo' essere anche affidabile ma le condizioni del test non sono state ricreate, anche per il semplice fatto che manca il dato della GTX 285.
quindi hwupgrade che ha comparato i risultati delle hd5000 con i test fatti da nvidia sono corretti??
appleroof
18-01-2010, 17:08
Hai commentato la News di oggi di HW dove non so come ma la 5870 fa 57 fps ... forse l'hanno fatto con un pentium 4 a 2 ghz quel test non so... :doh:
Diciamo che in genere commentate ciò che vi va più a favore dai...
Cmq aspettiamo Yoss che farà sicuramente chiarezza ;)
cut
io guardavo il discorso legato alla tasselletion, l'avevo detto da subito che era l'unica cosa che mi interessava davvero, nel mio piccolo :D (poche pagine indietro troverai riscontro a quanto dico ora) ;)
ciao Kharonte.
Il polymorph engine è un ibrido che prevede il tessellator vero e proprio in hardware e la sua parte programmabile eseguita dallo shader core. In pratica, nVIDIA ha scomposto la parte relativa alle operazioni geometriche della pipeline grafica, replicandone più volte gli elementi. Così, ogni gruppo di 128 alu ha un suo raster engine e ogni gruppo di 32 alu ha un suo tessellator dedicato.
Trova riscontro l'ipotesi che avevo fatto tempo fa sulla possiblità di avere un tessellator hardware. Come dicevo allora,s e qualcosa si può emulare questi sono hull e domain shader (ossia la parte programmabile), come avviene in RV770, mentre è del tutto controproducente farlo con il tessellator vero e proprio.
In pratica nVIDIA ha dotato ogni AP di un tessellator del tipo di quello visto per RV770 (ovviamente dimensionandolo al numero di alu che deve servire).
Vantaggi di questa soluzione sono la riduzione dell'ammontare di hardware dedicato e la possibilità di disattivare anche l'hw dedicato alle operazioni di tessellation quando si disabilitano SP.
Svantaggi: l'impatto sulle prestazioni è variabile e dipende da diversi fattori, ad iniziare dall'occuzione degli shader per finire con l'occupazione di banda tra shader core e polymorph engine. In questo caso, infatti, non si ha un flusso di dati che scorre in un solo verso, ma i vertici prelevati dallo stadio che fa vertex fetch passano allo shader core che svolge le funzioni tipiche degli hull shader, quindi tornano al polymorph engine per la tessellation, di nuovo alllo shader core per le operazioni di domain shading e, infine, al polymorph engine che prepara le operazioni di rasterizzazione. Questo complica ulteriormente la già complessa logica di controllo dei chip nVIDIA ma l'architettura con tessellator dedicato ad ogni SP dovrebbe ridurre l'impatto sulla banda passante tra polymorph engine e shader core (per essere più precisi si dovrebbero avere dati sulla capacità di trasferimento dati di quel canale).
il vantaggio o lo svantaggio di questo tipo di implementazione lo si potrà valutare solo caso per caso. Ripeto, la logica è simile a quella del tessellator di RV770 anche se, in quel caso, c'era un'unica unità per tutti e 10 gli SP mentre qui c'è un'unità (di dimensioni ridotte) per ogni SP. Vanno anche fatte le dovute proporzioni di potenza di elaborazione. Anche i dati dell'unigine si deve vedere a cosa sono riferiti (se a tutto il bench o solo ad una parte). Di sicuro la soluzione di nVIDIA può dar luogo a risultati più altalenanti.
L'architettura nel complesso è interessante ma lo è, soprattutto, in prospettiva, come tutte le nuove soluzioni. Nell'immediato credo abbiano ancora seri problemi ad avere rese accettabili e non so quando si vedrà realmente sul mercato la versione a 512 alu. I bench li hanno, con ogni probabilità, fatto con una versione a 512 alu ma in versione non definitiva. Ovvero, in versione definitiva per frequenze (in base a ciò che nVIDIA si è prefissata di ottenere) ma sicuramente non per consumi e dissipazione del calore (il fatto che non abbiano ancora distribuito pre sample e mostrino solo qualche slide di test interni è indicativo).
difficile fare previsioni; sicuramente lo scenario è destinato a cambiare anche titolo per titolo o, addirittura, mappa per mappa.
grazie anche a nome mio, sempre chiaro anche per chi non è addentro alla materia come te :)
PConly92
18-01-2010, 17:12
Molte aspettative, pochissimi benchmark e tante PR non fanno ben sperare, speriamo solo che Fermi vada veramente un po' meglio della 5870 perchè io dei drivers Ati non ne posso più e non vedo l'ora di tornare su nvidia, però ho forti dubbi sulle prestazioni, sui consumi e sul calore genererato (quindi sulla rumorosità che avrà la scheda una volta montata).
mahhh ma io non so che problemi avete tutti con i drivers ati :confused: mai avuto nessun problema anzi con l'unica geforce 6600 che ho comprato mi dava errori grafici in half life 2, invece con la 6800 ultra (prestata) niente:confused:
anche nvidia anche ati hanno problemi di driver se tenete il so nel casino più totale.
ps. non mi piace quest'andamento di dire che i driver ati danno problemi di qua di la, invece pure i forceware danno problemi (guardate nei vari forum) ma nessuno dice niente chissà perché... mah
Kharonte85
18-01-2010, 17:15
il vantaggio o lo svantaggio di questo tipo di implementazione lo si potrà valutare solo caso per caso. Ripeto, la logica è simile a quella del tessellator di RV770 anche se, in quel caso, c'era un'unica unità per tutti e 10 gli SP mentre qui c'è un'unità (di dimensioni ridotte) per ogni SP. Vanno anche fatte le dovute proporzioni di potenza di elaborazione. Anche i dati dell'unigine si deve vedere a cosa sono riferiti (se a tutto il bench o solo ad una parte). Di sicuro la soluzione di nVIDIA può dar luogo a risultati più altalenanti.
L'architettura nel complesso è interessante ma lo è, soprattutto, in prospettiva, come tutte le nuove soluzioni. Nell'immediato credo abbiano ancora seri problemi ad avere rese accettabili e non so quando si vedrà realmente sul mercato la versione a 512 alu. I bench li hanno, con ogni probabilità, fatto con una versione a 512 alu ma in versione non definitiva. Ovvero, in versione definitiva per frequenze (in base a ciò che nVIDIA si è prefissata di ottenere) ma sicuramente non per consumi e dissipazione del calore (il fatto che non abbiano ancora distribuito pre sample e mostrino solo qualche slide di test interni è indicativo).
difficile fare previsioni; sicuramente lo scenario è destinato a cambiare anche titolo per titolo o, addirittura, mappa per mappa.
Quindi ci toccherà aspettare per vedere quanto sarà efficacie ma da quello che mi pare di capire rimane decisamente improprio darlo per perdente nelle altre applicazioni solo per la sua natura "ibrida".
Sulla questione di quando e come uscirà Gf100 c'è ancora confusione tutto è possibile, penso che non sia da escludere un debutto a 448SP...e a quel punto credo che la gtx 360 debba avere per forza caratteristiche inferiori.
Vedremo...grazie per il parere :)
quindi hwupgrade che ha comparato i risultati delle hd5000 con i test fatti da nvidia sono corretti??
Direi di no...
Mi rimane un mistero come prima possano dire che i risultati sono confrontabili con quelli ottenuti da HWUP per poi precisare:
abbiamo provato ad eseguire il test sulla nostra piattaforma, utilizzando GeForce GTX 285; rispetto ai dati forniti da NVIDIA le prestazioni scendono a 44 - 66,51 e 33,20 rispettivamente per avg framerate, max e min framerate
:confused:
mahhh ma io non so che problemi avete tutti con i drivers ati :confused: mai avuto nessun problema anzi con l'unica geforce 6600 che ho comprato mi dava errori grafici in half life 2, invece con la 6800 ultra (prestata) niente:confused:
anche nvidia anche ati hanno problemi di driver se tenete il so nel casino più totale.
ps. non mi piace quest'andamento di dire che i driver ati danno problemi di qua di la, invece pure i forceware danno problemi (guardate nei vari forum) ma nessuno dice niente chissà perché... mah
Infatti sta storia ha stancato... ma alla finea noi che ce ne importa :sofico:
Cmq nel Thread della 5970 ci sono parecchie testimonianze di possessori nVidia che passando ad ATI si sono trovati benissimo, e tra l'altro dicevanoi che non ne potevano più dei driver nVidia :D :D
Quindi i problemi stanno da entrambe le parti, basta con le favole ;)
gianni1879
18-01-2010, 17:20
Direi di no...
Mi rimane un mistero come prima possano dire che i risultati sono confrontabili con quelli ottenuti da HWUP per poi precisare:
:confused:
infatti a prescindere dai risultati postati sulle ati, i dati non possono essere confrontabili per nulla, anche perchè hanno precisato che i risultati sulla gtx285 erano pure diversi, per cui lascio a voi le conclusioni ovvie.
Un conto è postare i risultati effettuati da nvidia e commentarli...
Da questo sito
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/27892-nvidia-s-geforce-gf100-under-microscope-13.html
64 fps di media con HD5870
ma aggiungo anche questo sito:
http://www.hardware.fr/articles/782-6/nvidia-geforce-gf100-revolution-geometrique.html
che accenna ad un 66 fps sempre con la HD5870
ovviamente i valori di GTX285 e G100 restano quelli riportati da Nvidia.
io guardavo il discorso legato alla tasselletion, l'avevo detto da subito che era l'unica cosa che mi interessava davvero, nel mio piccolo :D (poche pagine indietro troverai riscontro a quanto dico ora) ;)
grazie anche a nome mio, sempre chiaro anche per chi non è addentro alla materia come te :)
quoto il ringraziamento a yossarian per le sue delucidazioni tecniche ;)
Yossorian non pensi sia positivo un aumento della potenza dei setup triangle, fermi ormai da diversi anni ad un poligono per ciclo di clock ?
Secondo te non comincia ad essere un collo di bottiglia ?
Ovviamente, mi sto riferendo al futuro e non agli attuali giochi che dubito aumenteranno la geometria oltre le capacità dei setup attuali.
appleroof
18-01-2010, 17:30
Quindi ci toccherà aspettare per vedere quanto sarà efficacie cut
bè cmq su questo non avevamo dubbi...:D diciamo che i test interni hanno fatto intravedere qualcosa che è molto promettente, adesso bisogna confermarla (o smentirla)
ovviamente imho :D
Teniamo anche presente che quello specifico test non è sempre uguale a se stesso ma ha una variabilità interna relativa a cosa si vede on screen, da run a run, che lo rende in generale inadatto a fare dei confronti (certo 20fps di differenza mi sembrano eccessivi anche con un test del genere).
Ricordo che quando feci i test di bandwidth con la HD4870 con Crysis (è lo stesso engine :confused: ) il comportamento era del tutto inesplicabile (overclockavo e scendeva, ridownclockavo e rimaneva com'era), quindi può essere che anche questo sia affetto dallo stesso problema, ma non lo so.
In ogni caso conviene aspettare le recensioni, perché questi dati non hanno riscontro con la realtà.
lo stesso di quale? Se ti riferisci a Farcry 2 non è lo stesso engine...
PConly92
18-01-2010, 17:30
Infatti sta storia ha stancato... ma alla finea noi che ce ne importa :sofico:
Cmq nel Thread della 5970 ci sono parecchie testimonianze di possessori nVidia che passando ad ATI si sono trovati benissimo, e tra l'altro dicevanoi che non ne potevano più dei driver nVidia :D :D
Quindi i problemi stanno da entrambe le parti, basta con le favole ;)
lo so non me ne importa niente (basta che a me va tutto bene) ma è brutto sentire che i driver ati fanno schifo invece quelli nvidia sono perfetti 100% e senza problemi non essendo vero...
Credo che l'esaltazione di qualcuno derivi dalla impressione dominante uscita dagli articoli di oggi: Gf100 è molto promettente ed è una GPU.
Prendo atto che qualcun'altro si affanna ad accampare interpretazioni forzate per cercare di ridimensionare quanto gli articoli su Gf100 di oggi hanno mostrato...come al solito aspettiamo i riscontri futuri ma quello che si è visto oggi è innegabilmente positivo ed era quello che ci si aspettava da Nvidia.
Nei mesi passati era tutto un: perchè non mostra i benchmark? (sottointendendo che non sarebbe stata in grado di farlo perchè non competitiva)
Bene ora lo ha fatto...come la mettiamo? Facciamo finta di non averli visti e andiamo avanti come prima oppure prendiamo atto del fatto che Nvidia ha finalmente lanciato il sasso?
Quali benchmark ha fatto vedere? 4 slide boicottate e non chiare tu li chiami bench?? Perchè non si accenna ai giochi?? Perchè non viene mostrato il risultato finale dell'Unigine ma solo 60 secondi di prova???
Per me, come per moltissimi altri a quanto vedo, non è cambiato niente...
appleroof
18-01-2010, 17:33
lo so non me ne importa niente (basta che a me va tutto bene) ma è brutto sentire che i driver ati fanno schifo invece quelli nvidia sono perfetti 100% e senza problemi...
premetto che non ho avuto mai problemi particolari con Ati, anzi mi ritengo più che soddisfatto (dalla 4870 in poi, non so prima, mentre con Nvidia ho avuto un'esperienza quasi decennale continuativa :D ) però se si è creata questa nomea un fondo di verità ci deve essere (consideriamo sempre la media degli utenti, non le esperienze soggettive), poi non saprei :boh:
Kharonte85
18-01-2010, 17:34
Teniamo anche presente che quello specifico test non è sempre uguale a se stesso ma ha una variabilità interna relativa a cosa si vede on screen, da run a run, che lo rende in generale inadatto a fare dei confronti (certo 20fps di differenza mi sembrano eccessivi anche con un test del genere).
Ricordo che quando feci i test di bandwidth con la HD4870 con Crysis (è lo stesso engine :confused: ) il comportamento era del tutto inesplicabile (overclockavo e scendeva, ridownclockavo e rimaneva com'era), quindi può essere che anche questo sia affetto dallo stesso problema, ma non lo so.
In ogni caso conviene aspettare le recensioni, perché questi dati non hanno riscontro con la realtà.
Secondo me se proprio si vuole fare delle previsioni sui giochi è meglio guardare ai dati della GTX 285 e lasciare perdere quelli delle AMD/ATI dove Nvidia puo' avere un po' pastrocchiato...dico semplicemente che se la distanza prestazionale rimane quella anche per gli altri giochi e se la gestione dell'AA8x è davvero migliorata come dicono il raddoppio in alcune condizioni potrebbe esserci.
Quali benchmark ha fatto vedere? 4 slide boicottate e non chiare tu li chiami bench?? Perchè non si accenna ai giochi?? Perchè non viene mostrato il risultato finale dell'Unigine ma solo 60 secondi di prova???
Per me, come per moltissimi altri a quanto vedo, non è cambiato niente...
Sono quelli i benchmark che venivano chiesti: perchè nvidia non ci da i risultati dell'ungine? Ne ha dati di 2min. Perchè nvidia non fa vedere i dati sui giochi? Ha diffuso i suoi dati su FC2. Cosa pretendi che ti faccia una recensione completa? :asd:
Ma a te non cambia niente perchè tanto hai già deciso da tempo che GF100 farà schifo a prescindere (e si vede)...per altri significa che Nvidia comincia a farsi vedere per instillare il dubbio che abbia sotto al tavolo un bel mostriciattolo e per bloccare le vendite delle HD5xx0 (non era questo che doveva fare?)...
appleroof
18-01-2010, 17:35
Secondo me se proprio si vuole fare delle previsioni sui giochi è meglio guardare ai dati della GTX 285 e lasciare perdere quelli delle AMD/ATI dove Nvidia puo' avere un po' pastrocchiato...dico semplicemente che se la distanza prestazionale rimane quella anche per gli altri giochi e se la gestione dell'AA8x è davvero migliorata come dicono il raddoppio in alcune condizioni potrebbe esserci.
quoto, e sarebbe un ottimo risultato secondo me...
lo so non me ne importa niente (basta che a me va tutto bene) ma è brutto sentire che i driver ati fanno schifo invece quelli nvidia sono perfetti 100% e senza problemi non essendo vero...
ma basta con sta storia dei driver:( ... allora la 4850 di mio cugino faceva crashare dopo 30min di gioco CoH non poteva piu giocarci finche dopo un mese non hanno sistemato con i nuovi driver...idem mass effect..un pattume con quei catalyst... ma io con la 4890 che ha mio padre sul pc va tutto da dio e mai un problema... con la mia gtx280 con i 18x.xx non ricordo quali empire total war mi riportava sul desktop assolutamente a caso 6 volte su 3...finche non li ho aggiornati era ingiocabile... quindi i problemi ci sono da una parte e dall altra... almeno qst è la mia esperienza...chiuso OT
Penso anch'io che i 57 fps rilevati da Corsini siano bassi, ma non conoscendo i settaggi adottati nei CCC (Adaptive AA, AF, Catalyst A.I), non posso sapere cosa c'è che non va'.
Aggiungo anche questa recensione di Xbitlabs, dove sono noti i settaggi dei driver (il processore è un i7 975 invece di un i7 960, ma memorie 1333 vs 1600):
http://www.xbitlabs.com/images/video/radeon-hd5970/farcry2.png
dove la HD5870 fa 65.5 fps di media.
Secondo me se proprio si vuole fare delle previsioni sui giochi è meglio guardare ai dati della GTX 285 e lasciare perdere quelli delle AMD/ATI dove Nvidia puo' avere un po' pastrocchiato...dico semplicemente che se la distanza prestazionale rimane quella anche per gli altri giochi e se la gestione dell'AA8x è davvero migliorata come dicono il raddoppio in alcune condizioni potrebbe esserci.
1. :asd: diciamo anche barato....
2. che cambio :rolleyes: non mi crollate tutte in una volta le aspettative....
yossarian
18-01-2010, 17:43
Ciao, intanto ti ringrazio della spiegazione chiara come al solito.
Da quello che dici mi sembra che comunque questa soluzione sia abbastanza buona, ma per essere più espliciti secondo te è possibile che laddove un tesselator di questo tipo (polymorph engine) funzioni bene (Ungine dx11) quello di Cypress funzioni male e o viceversa (Cypress>giochi dx11 e applicazioni reali) a tal punto da cambiare le sorti del vantaggio?
Nel complesso cosa ne dici di questo Gf100? Sembra in effetti più promettente di quello che si era visto nelle descrizioni del GPUcomputing o è solo una impressione?
grazie anche a nome mio, sempre chiaro anche per chi non è addentro alla materia come te :)
quoto il ringraziamento a yossarian per le sue delucidazioni tecniche ;)
grazie ragazzi, sono commosso.
Aggiungo altre due parole e poi giuro che sparisco (anche perchè ho da fare)
facciamo un discorso un po' più ampio: fermi ha la possibilità di gestire 16 kernel (che non sono da intendersi come i kernel di un OS, ma come, più semplicemente, 16 gruppi di thread della stessa applicazione).
Il tessellator è frazionato in 16 unità. Mettendo a sistema queste due cose, è possibile che, in un'applicazione in cui serva il tessellator, alcuni SP svolgano funzioni di tessellation e altri si occupino della grafica. Questo significa che, sulla carta. è possibile avere un tessellator che ha una capacità di calcolo minima pari a quella del singolo SP e massima pari alla somma di quelli dei 16 SP. Quindi, possiamo definirlo "modulabile". Ovviamente, quello o quegli SP che stanno lavorando sulle operazioni di tessellation non possono essere impiegati per fare altro.
Questo significa che mentre quello di ATi può risultare a volte sottodimensionato e altre volte sovradimensionato ma lavora sempre con HW dedicato, quello di nVIDIA è in grado di dare potenza quando serve ma questa potenza la sottrae ad altri tipi di operazioni. Discorso analogo a quanto visto per physx, in parole povere.
Ma anche HAWX con Directx 10.1 :D
Il motore grafico di Farcry 2 è il DUNE, che hanno adottato anche sul gioco di Avatar (graficamente è anche più pesante, specie a livello di vegetazione).
Non ricordo se nelle pagine precedenti qualcuno ha inserito questo grafico, sempre dalle slide d'Nvidia, col "famigerato" Crysis
http://pics.computerbase.de/2/8/1/1/5/16.png
grazie ragazzi, sono commosso.
Aggiungo altre due parole e poi giuro che sparisco (anche perchè ho da fare)
facciamo un discorso un po' più ampio: fermi ha la possibilità di gestire 16 kernel (che non sono da intendersi come i kernel di un OS, ma come, più semplicemente, 16 gruppi di thread della stessa applicazione).
Il tessellator è frazionato in 16 unità. Mettendo a sistema queste due cose, è possibile che, in un'applicazione in cui serva il tessellator, alcuni SP svolgano funzioni di tessellation e altri si occupino della grafica. Questo significa che, sulla carta. è possibile avere un tessellator che ha una capacità di calcolo minima pari a quella del singolo SP e massima pari alla somma di quelli dei 16 SP. Quindi, possiamo definirlo "modulabile". Ovviamente, quello o quegli SP che stanno lavorando sulle operazioni di tessellation non possono essere impiegati per fare altro.
Questo significa che mentre quello di ATi può risultare a volte sottodimensionato e altre volte sovradimensionato ma lavora sempre con HW dedicato, quello di nVIDIA è in grado di dare potenza quando serve ma questa potenza la sottrae ad altri tipi di operazioni. Discorso analogo a quanto visto per physx, in parole povere.
Poprio come avevamo ipotizzato ;)
Spero ora sia chiaro che GF100 non avrà un hardware dedicato solamente alla Tessellation...
yossarian
18-01-2010, 17:47
Yossorian non pensi sia positivo un aumento della potenza dei setup triangle, fermi ormai da diversi anni ad un poligono per ciclo di clock ?
Secondo te non comincia ad essere un collo di bottiglia ?
Ovviamente, mi sto riferendo al futuro e non agli attuali giochi che dubito aumenteranno la geometria oltre le capacità dei setup attuali.
un aumento c'è già stato anche nel numero di dati che è possibile caricare per ciclo. Dalle dx9 si è rimasti fermi a 16 vertici per ciclo ma solo fino alle dx10. Le dx10.1 prevedevano già un aumento a 32 vertici per ciclo.
Di sicuro, adesso, il collo di bottiglia inizia ad essere la velocità di trasferimento dei dati dalla cpu alla gpu. Infatti la tendenza è quella, ormai di effettuare trasferimenti in batch da cpu a vram sia per le texture che per i vertici.
yossarian
18-01-2010, 17:49
Poprio come avevamo ipotizzato ;)
Spero ora sia chiaro che GF100 non avrà un hardware dedicato solamente alla Tessellation...
GF100 ha un tessellator dedicato; non ha hull e domain shader che sono emulati dallo shader core.
Kharonte85
18-01-2010, 17:50
1. :asd: diciamo anche barato....
2. che cambio :rolleyes: non mi crollate tutte in una volta le aspettative....
1) puo' essere benissimo, pensarlo è lecito.
2) qui ti sbagli sarebbe un risultato a dir poco strepitoso riuscire a fare il 100% in più sulla GTX 285 (e basta che fai i paragoni con i recenti cambi generazionali di schede video per accorgertene)
GF100 ha un tessellator dedicato; non ha hull e domain shader che sono emulati dallo shader core.
Quindi in sostanza da solo non può fare granchè, ha bisogno di appoggiarsi alle shader units o sbaglio?
IlGranTrebeobia
18-01-2010, 17:55
Facciamo che sia semi-dedicato, così accontentiamo tutti :D :D
yossarian
18-01-2010, 17:55
Quindi in sostanza da solo non può fare granchè, ha isogno di appoggiarsi alle shader units o sbaglio?
non sbagli; il tessellator, come tutte le unità di tipo fixed function, è fondamentalmente "stupido", mi si passi il termine. Sa fare una cosa molto velocemente ma non si attiva finchè qualcuno non gli dice cosa e come deve fare quella cosa e non controlla che abbia lavorato bene. Questo qualcuno può essere l'accoppiata hull e domain shader oppure qualcuno che ne faccia le veci (lo shader core)
2) qui ti sbagli sarebbe un risultato a dir poco strepitoso riuscire a fare il 100% in più sulla GTX 285 (e basta che fai i paragoni con i recenti cambi generazionali di schede video per accorgertene)
errore mio, leggendo di fretta ho capito male, ovvero che ti riferissi alla 5870. ;)
Facciamo che sia semi-dedicato, così accontentiamo tutti :D :D
:asd:
non sbagli; il tessellator, come tutte le unità di tipo fixed function, è fondamentalmente "stupido", mi si passi il termine. Sa fare una cosa molto velocemente ma non si attiva finchè qualcuno non gli dice cosa e come deve fare quella cosa e non controlla che abbia lavorato bene. Questo qualcuno può essere l'accoppiata hull e domain shader oppure qualcuno che ne faccia le veci (lo shader core)
Perfetto Yoss grazie della spiegazione, mi hai fatto capire tutto chiaramente ;)
aaasssdddfffggg
18-01-2010, 17:59
bè cmq su questo non avevamo dubbi...:D diciamo che i test interni hanno fatto intravedere qualcosa che è molto promettente, adesso bisogna confermarla (o smentirla)
ovviamente imho :D
lo stesso di quale? Se ti riferisci a Farcry 2 non è lo stesso engine...
FarCry 2 usa il DUNIA ENGINE mentre CRYSIS usa il cryengine 2 ovviamente di CRYTEK.
Kharonte85
18-01-2010, 18:00
grazie ragazzi, sono commosso.
Aggiungo altre due parole e poi giuro che sparisco (anche perchè ho da fare)
facciamo un discorso un po' più ampio: fermi ha la possibilità di gestire 16 kernel (che non sono da intendersi come i kernel di un OS, ma come, più semplicemente, 16 gruppi di thread della stessa applicazione).
Il tessellator è frazionato in 16 unità. Mettendo a sistema queste due cose, è possibile che, in un'applicazione in cui serva il tessellator, alcuni SP svolgano funzioni di tessellation e altri si occupino della grafica. Questo significa che, sulla carta. è possibile avere un tessellator che ha una capacità di calcolo minima pari a quella del singolo SP e massima pari alla somma di quelli dei 16 SP. Quindi, possiamo definirlo "modulabile". Ovviamente, quello o quegli SP che stanno lavorando sulle operazioni di tessellation non possono essere impiegati per fare altro.
Questo significa che mentre quello di ATi può risultare a volte sottodimensionato e altre volte sovradimensionato ma lavora sempre con HW dedicato, quello di nVIDIA è in grado di dare potenza quando serve ma questa potenza la sottrae ad altri tipi di operazioni. Discorso analogo a quanto visto per physx, in parole povere.
Capito, quindi tutto starà nel vedere a quale soglia di utilizzo della tesselation questo tipo "modulare" di Gf100 diventi svantaggioso rispetto a quello "fisso" di Cypress.
Questo approccio di Nvidia mi pare intelligente in vista del fatto che i giochi in dx11 latiteranno un po' come quantità di tesselation usata, almeno sul breve periodo...
Capito, quindi tutto starà nel vedere a quale soglia di utilizzo della tesselation questo tipo "modulare" di Gf100 diventi svantaggioso rispetto a quello "fisso" di Cypress.
Questo approccio di Nvidia mi pare intelligente in vista del fatto che i giochi in dx11 latiteranno un po' come quantità di tesselation usata, almeno sul breve periodo...:fagiano:
Quindi fammi capire se uno vuole giocare nel frattempo a GTA IV, NFS Shift, Assassin's Creed ecc. ecc. deve tirare na miriade di bestemmie perchè non hanno la Tessellation?? Secondo il tuo ragionamento per sfruttare al meglio GF100 dovremmo stare dalla mattina alla sera a far girare Unigine Heaven Benchmark o no??
p.s: hai editato eh?? :D
scorpion73
18-01-2010, 18:03
domanda: ma hull e domain shader sulle ATI stanno nel tessellator dedicato o sono anche loro emulati dagli shaders?
E' giusto per paragonare le due architetture.
domanda: ma hull e domain shader sulle ATI stanno nel tessellator dedicato o sono anche loro emulati dagli shaders?
E' giusto per paragonare le due architetture.
Nelle ATI il Tessellator si occupa solo della Tessellazione e non ha biasogno di altro hardware... confermi Yoss? ;)
Kharonte85
18-01-2010, 18:05
Quindi fammi capire se uno vuole giocare nel frattempo a GTA IV, NFS Shift, Assassin's Creed ecc. ecc. deve tirare na miriade di bestemmie perchè non hanno la Tessellation??
No...non capisco a cosa ti riferisci...se non hanno il tesselatore non c'è da preoccuparsi
p.s: hai editato eh?? :D
no l'avevo cancellata per sbaglio (casini con la linea) rimessa ;)
yossarian
18-01-2010, 18:07
domanda: ma hull e domain shader sulle ATI stanno nel tessellator dedicato o sono anche loro emulati dagli shaders?
E' giusto per paragonare le due architetture.
Nelle ATI il Tessellator si occupa solo della Tessellazione e non ha biasogno di altro hardware... confermi Yoss? ;)
in RV770 sono emulati dagli shader in RV870 sono presenti come hardware dedicato
No...non capisco a cosa ti riferisci...se non hanno il tesselatore non c'è da preoccuparsi
no l'avevo cancellata per sbaglio (casini con la linea) rimessa ;)
Hai ragione avevo capito male, scusa ;)
Quindi secondo questa teoria GF100 è DX10 perchè nei giochi dove viene usata anche la Tessellation (da non confondersi con benchmark che si abbuffano inutilmente di Tessellation) diventa un epic fail più che un mostro... cosa che spiegherebbe anche il perchè non vengono mostrate performance in game (cosa per cui nasce la scheda, non per fare i bench sintetici). I conti iniziano a tornare ;)
aaasssdddfffggg
18-01-2010, 18:11
Hai ragione avevo capito male, scusa ;)
Quindi secondo questa teoria GF100 è DX10 perchè nei giochi dove viene usata anche la Tessellation (da non confondersi con benchmark che si abbuffano inutilmente di Tessellation) diventa un epic fail più che un mostro... cosa che spiegherebbe anche il perchè non vengono mostrate performance in game (cosa per cui nasce la scheda, non per fare i bench sintetici). I conti iniziano a tornare ;)
te sei epico davvero.Quali conti iniziano a tornare? :D
PConly92
18-01-2010, 18:16
te sei epico davvero.Quali conti iniziano a tornare? :D
il perché nvidia non ha fatto vedere bench (in game) fino a poco tempo fa dove sono stati costretti a far vedere qualcosa senno tutti rimanevano delusi;)
ps. devo dire che lo sono rimasti un po comunque...
IlGranTrebeobia
18-01-2010, 18:17
Uff, ma basta pippe mentali sul tessellatore e sugli epic schif, per vedere se è stata una scelta vincente la nuova architettura Fermi, più scalare e adattabile ma succhiatrice di risorse, si devono vedere dei bench seri.
te sei epico davvero.:D
Oddio, quasi devo quotare :Prrr:
aaasssdddfffggg
18-01-2010, 18:17
il perché nvidia non ha fatto vedere bench (in game) fino a poco tempo fa dove sono stati costretti a far vedere qualcosa senno tutti rimanevano delusi;)
ps. devo dire che lo sono rimasti un po comunque...
tra meno di 60 giorni i bench saranno sotto gli occhi di tutti...e daie con questa storia del giocare a nascondino.:p
quel un po' ovunque si traduce in milioni di appassionati nel mondo che sono in attesa dell'usscita di Fermi.;)
te sei epico davvero.Quali conti iniziano a tornare? :D
Oh carissimo!! Non ti ho visto per un po', come mai quando i discorsi non ti piacciono preferisci non figurare? :D
Iniziano a tornare i conti del perchè non vengono mostrati bench di giochi o anche sessioni di gaming... ovviamente apparte il test di Far Cry 2 semplicemente vergognoso in quanto la 5870 viene pesantemente penalizzata. Non trovi sia ridicolo penalizzare la controparte per apparire più belli e potenti? Ti sembra un comportamento da "Azienda leader supercaxxuta" quale ritieni nVidia?
PConly92
18-01-2010, 18:19
tra meno di 60 giorni i bench saranno sotto gli occhi di tutti...e daie con questa storia del giocare a nascondino.:p
vedremmo:cincin:
occhio che ati prepara la hd5890;)
occhio anche che alcuni tuoi post lì salvo per farteli vedere ;)
aaasssdddfffggg
18-01-2010, 18:19
Oh carissimo!! Non ti ho visto per un po', come mai quando i discorsi non ti piacciono preferisci non figurare? :D
Iniziano a tornare i conti del perchè non vengono mostrati bench di giochi o anche sessioni di gaming... ovviamente apparte il test di Far Cry 2 semplicemente vergognoso in quanto la 5870 viene pesantemente penalizzata. Non trovi sia ridicolo penalizzare la controparte per apparire più belli e potenti? Ti sembra un comportamento da "Azienda leader supercaxxuta" quale ritieni nVidia?
forse perchè mentre tu stai comodamente davanti al pc di casa, io sto lavorando....:muro:
Kharonte85
18-01-2010, 18:23
Hai ragione avevo capito male, scusa ;)
Quindi secondo questa teoria GF100 è DX10 perchè nei giochi dove viene usata anche la Tessellation (da non confondersi con benchmark che si abbuffano inutilmente di Tessellation) diventa un epic fail più che un mostro... cosa che spiegherebbe anche il perchè non vengono mostrate performance in game (cosa per cui nasce la scheda, non per fare i bench sintetici). I conti iniziano a tornare ;)
No, questo è esattamente quello che non sappiamo...se è vero che l'approccio modulare è più efficacie sul benchmark pesantemente tesselato non è detto che lo sia meno su un gioco con pochi effetti pero' potrebbe perdere efficacia in una "via di mezzo"...proprio in vista del fatto che è modulare :D
Kharonte85
18-01-2010, 18:25
Sul fatto che la cosa sia intelligente per la latitanza DX11 non saprei, ad ATi non è costato così tanto in termini di diespace vista la dimensione del chip.
Sulla prima parte il rischio è che questo limite sia a metà della totalità dei giochi, così che nessuna delle due soluzioni sia quella migliore. Tanto per rendere facile la scelta per gli utenti :asd:
Già, ci sarà da divertirsi...ma non è detto...dai speriamo che quello di gf100 sia meglio in tutto e sempre così la semplifichiamo :sofico: (un piccolo affondo :asd:)
forse perchè mentre tu stai comodamente davanti al pc di casa mentre io sto lavorando....:muro:
Non sto a casa bello, ma come te ho la possibilità di andare su internet sul lavoro :D
Cmq ti chiedo scusa se ti ho disturbato, non era mi intenzione... fai pure con calma ;)
yossarian
18-01-2010, 18:34
No, questo è esattamente quello che non sappiamo...se è vero che l'approccio modulare è più efficacie sul benchmark pesantemente tesselato non è detto che lo sia meno su un gioco con pochi effetti pero' potrebbe perdere efficacia in una "via di mezzo"...proprio in vista del fatto che è modulare :D
non è tanto importante quanto ci sia da "tessellare" quanto piuttosto quante e quali altre operazioni ci siano da fare in simultanea. Se, ad esempio, volendo estremizzare, parliamo di un wireframe, è molto probabile che la soluziozne di NVIDIA sia molto più performante di quella di ATi.
aaasssdddfffggg
18-01-2010, 18:35
Non sto a casa bello, ma come te ho la possibilità di andare su internet sul lavoro :D
Cmq ti chiedo scusa se ti ho disturbato, non era mi intenzione... fai pure con calma ;)
e si,oggi è un vero casino dentro sto lab.Non vedo l'ora che arrivi le 20.:asd:
non è tanto importante quanto ci sia da "tessellare" quanto piuttosto quante e quali altre operazioni ci siano da fare in simultanea. Se, ad esempio, volendo estremizzare, parliamo di un wireframe, è molto probabile che la soluziozne di NVIDIA sia molto più performante di quella di ATi.
Facendo un'ipotesi su uno scenario più realistico, in un gioco in DX11 che prevede la Tesselletion usata in maniera dinamica come si comporterebbe la soluzione di nVidia rispetto a quella ATI? Quale andrebbe meglio?
aaasssdddfffggg
18-01-2010, 18:37
Facendo un'ipotesi su uno scenario più realistico, in un gioco in DX11 che prevede la Tesselletion usata in maniera dinamica come si comporterebbe la soluzione di nVidia rispetto a quella ATI? Quale andrebbe meglio?
aspetta marzo e vedrai i bench finali...
Yossi non ha mica la sfera di cristallo...:D
yossarian
18-01-2010, 18:38
Facendo un'ipotesi su uno scenario più realistico, in un gioco in DX11 che prevede la Tesselletion usata in maniera dinamica come si comporterebbe la soluzione di nVidia rispetto a quella ATI? Quale andrebbe meglio?
non posso fare ipotesi su scenari inesistenti; se non si sa cosa uno scenario preveda sia calcolato, ogni discorso è del tutto inutile.
non posso fare ipotesi su scenari inesistenti; se non si sa cosa uno scenario preveda sia calcolato, ogni discorso è del tutto inutile.
Ah ho capito Yoss. Ho fatto questa domanda pechè da quanto detto fin'ora mi pareva di aver capito che se un certo numero (cmq sempre parecchio alto) di shader units sono occupate a tessellare, le altre si occupano di svolgere altri compiti, dimezzando così le prestazioni reali.
Cmq come detto dal buon Nemesi vedremo a Marzo (sperando che tutto vada bene) ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.