View Full Version : NVIDIA GeForce GF100 Fermi: preview dell'architettura
Redazione di Hardware Upg
18-01-2010, 07:08
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/2361/nvidia-geforce-gf100-fermi-preview-dell-architettura_index.html
NVIDIA rilascia parte delle specifiche delle prime schede video della famiglia GeForce basate su architettura Fermi, destinate all'utilizzo in sistemi desktop. Il debutto, dopo lunga attesa, sembra confermato per il mese di Marzo 2010
Click sul link per visualizzare l'articolo.
DottorLeo
18-01-2010, 07:28
Non male sulla carta ma preferisco aspettare bench reali per valutare la bontà di questa nuova architettura. :)
Finalmente ci sono alcune conferme come quello che riguarda tutto il comparto Tessellation, cmq i benchmark mostrati nn hanno alcuna attendibilità sia come dimostrato dai Redattori di HW sia da 3/4 degli utenti di mezzo mondo: http://www.xtremeshack.com/immagine/i42592_1.jpg
Quindi direi che attendiamo tutti benchmark più reali.....
halduemilauno
18-01-2010, 07:50
ottimo articolo e credo di poter gia dire ottima scheda perchè credo che le premesse ci siano tutte. ovviamente in attesa di avere le schede in mano e quindi con tutte le rece esaustive di questo mondo.
IMHO.
;)
PS una cosa perchè nell'unico bench mostrato la GF100 viene data con 1024 mega di ram? non dovrebbero essere 1536?
mordorozzo
18-01-2010, 08:39
ma scherziamo? e mai possibile un incremento cosi netto rispetto alla soluzione ATI?
in ogni caso aspetto decisamente qualche bench e qualche comparativa reale. nel caso in cui le proposte ATI risulteranno migliori come qualita\prezzo preferiro la concorrenza nonostante sia un semifan ATI, ho una 4890 e per quello che devo fare e piu che ottima, senza contare che l'ho poagata na miseria rispetto un nvidia di pari livello!
se han fatto solo questo bench - o sono ancora un pò indietro o la scheda non va quanto era lecito attendersi... cmq son sicuro sarà un buon prodotto "across the board" :)
mordorozzo
18-01-2010, 08:45
si ma credo che ci sia da levare un po di fumo da tutto cio...
...io terrei a precisare che, nonostante l'nvidia abbia sempre proposto ottime soluzioni (ho avuto una 8800GTX che mi è durata pure troppo vista l'evoluzione di tutto) c'è sempre da considerare ancora il netto margine di guadagno ancora della serie 5000 con driver ancora acerbi (pecca di ATI purtroppo) comunque in ogni caso attendo queste fermi per tantissimi motivi quindi ben vengano innovazioni e miglioramenti sulle DX11 nella speranza che non facciano la fine delle 10/10.1
mah... ancora niente foto... inoltre inutili questi test imho.
Tutto bello visto sulla carta, ma per dare un giudizio obiettivo... ci vogliono vere prove sul campo.
Il distacco che la scheda nVidia da alle concorrenti in Far cry 2 è davvero devastante (se vero), ma anche qui... ci vogliono molti altri bench, e vedremo come si comporterà con engine di nuova generazione (Metro 2033, Aliens vs predator, Far cry 2 ecc.) e con le DX 11.
Molto interessanti (anche se da verificare) le maggiori prestazioni della tassellation che, così come le gestiva ATI, imho erano inusufruibili.
Bene anche il supporto aumentato a physX, che se ben implementato (come ha dimostrato Batman) possono fare davvero la differenza: se queste nuove schede sapranno gestire la fisica senza impatti troppo devastanti (come invece oggi avviene in alcuni casi), si potrà proseguire verso un realismo sempre maggiore.
Curioso di sapere consumi e temperature, perchè anche quelli contano parecchio...
http://www.anandtech.com/video/showdoc.aspx?i=3721
For performance in particular, we have seen one benchmark: Far Cry 2, running the Ranch Small demo, with NVIDIA running it on both their unnamed GF100 card and a GTX285. The GF100 card was faster (84fps vs. 50fps), but as Ranch Small is a semi-randomized benchmark (certain objects are in some runs and not others) and we’ve seen Far Cry 2 to be CPU-limited in other situations, we don’t put much faith in this specific benchmark. When it comes to performance, we’re content to wait until we can test GF100 cards ourselves.
inoltre,
Attualmente le schede lavorano con 448 SP , per i 512 SP pare che ci vogliano 6 mesi in più ( sempre da un cinese ben'informato ). Le texture unit non lavorano al clock delle ALU , ma alla metà ( per correggere hal ).
Per il resto ai punti di domanda di Anand Tech non c'è ancora risposta:
http://www.anandtech.com/video/showdoc.aspx?i=3721
1. Die size
2. What cards will be made from the GF100
3. Clock speeds
4. Power usage (we only know that it’s more than GT200)
5. Pricing
6. Performance
ghiltanas
18-01-2010, 09:27
ancora una volta tanta fuffa e poco + ...unico gioco "testato" far cry 2, per giunta in dx9.
Io sono molto curioso di vedere i prezzi e il consumo di gf100, al di la delle prestazioni
Anche a questo giro nulla di concreto :rolleyes:
Ma FC è stato testato (????????????) in DX9, basta vedere la slide con il setup :mbe:
sulla carta promette tanto.. speriamo non deluda le aspettative che con questi test controllati Nvidia ha creato nell'utenza. Malgrado possiedo una ati 5850 da non appena e' uscita, spero fermi potra' davvero mantenere le promesse, in modo da riaccendere una competizione che per mesi purtroppo non c'e' stata (cosi' mi prendo un'altra 5850 da crossare a meta' prezzo, LOL!)
Punto interrogativo sui prezzi che a mio modo di vedere saranno con ogni probabilità pazzeschi. Se la top costera' 600 euro come si sente da vari rumors.. potrebbe anche essere un flop allucinante! (allo stesso prezzo ti prendi una 5970, che dovrebbe comunque andare d+)
vedremo, intanto faccio in bocca al lupo ad Nvidia :)
Tutto bello visto sulla carta, ma per dare un giudizio obiettivo... ci vogliono vere prove sul campo.
Il distacco che la scheda nVidia da alle concorrenti in Far cry 2 è davvero devastante (se vero), ma anche qui... ci vogliono molti altri bench, e vedremo come si comporterà con engine di nuova generazione (Metro 2033, Aliens vs predator, Far cry 2 ecc.) e con le DX 11.
Molto interessanti (anche se da verificare) le maggiori prestazioni della tassellation che, così come le gestiva ATI, imho erano inusufruibili.
Bene anche il supporto aumentato a physX, che se ben implementato (come ha dimostrato Batman) possono fare davvero la differenza: se queste nuove schede sapranno gestire la fisica senza impatti troppo devastanti (come invece oggi avviene in alcuni casi), si potrà proseguire verso un realismo sempre maggiore.
Curioso di sapere consumi e temperature, perchè anche quelli contano parecchio...
forse non ti sei accorto che la scheda in paragone è la 5870... non la 5970...
inoltre in dx9....
tarabas2
18-01-2010, 09:53
Se la scheda va quanto NVIDIA vuol far credere, il test lo avrebbe fatto su un terreno favorevole ad ATI, non sul titolo principe dove la serie 5xxx non ha brillato. In+ questo è un test realizzato da NVIDIA non si hanno indicazioni sui parametri di funzionamento memoria utilizzata ecc... sento quello stridio di unghie sugli specchi proprio come al tempo di ati 2900xt. Secondo il mio giudizio Nvidia ha dimostrato che di paura ne ha tanta........
lordvittish
18-01-2010, 09:56
Esempio di test NVIDioso:
la panda va più forte della ferrari:
La panda in questione, in discesa , con il vento a favore va il 50% in più di una ferrari.
A onor del vero non ci è dato sapere se :
la panda monta il motore atomico della ENterprice ,
la ferrari aveva ile gomme bucate e il baule pieno di piombo
la panda era pilotata da Valentino Rossi mentre la ferrari da mia Zia
la ferrari aveva o no il motore nel cofano.
Mi immagino quel povero addetto la Marketing Nvidia, chiuso in un pozzo buio da 6 mesi a inventarsi queste news....
Nightwalker
18-01-2010, 09:56
Il test è molto fazioso.
Serve solo a fare pubblicità, non rispecchia la scheda nella sua completezza.
Se vogliono competere con ATI... dovranno tenere i prezzi relativamente bassi.
Il vero asso nella manica di nVidia è che almeno il 70% dei giochi è sponsorizzato dalla casa californiana, con conseguenti ottimizzazioni per nVidia, PhysX e robe varie: ho avuto schede ATI per svariati anni, e nVidia per altrettanti, ed in ogni caso mi sono sempre trovato bene, ma da quando ho nVidia... non ho mai avuto un problema di compatibilità, prestazioni o quant'altro, godendomi sempre tutte le features nVidia only (in Batman, Mirror's edge, Shadowground survivor ecc.).
Ultima considerazione: nei prossimi 2 mesi usciranno un botto di giochi nuovi, ma solo alcuni trarranno benefici dalle DX 11, su tutti Aliens vs predator e Metro 2033 (PhysX); Mass effect 2 dovrebbe essere full DX9, mentre per Splinter cell: conviction e Assassin's creed 2... credo ci sarà solo una modalità DX 10.
Questo per dire che, anche se nVidia è arrivata in evidente ritardo rispetto ad ATI, non c'era un vero motivo per fare una corsa... visto che i giochi buoni usciranno solo nelle prossime settimane: se le schede sono già ora in produzione... credo che quelli di nVidia stiano aggiustando i driver il più possibile per fare un esordio solido e privo di problemi in un momento ricco di giochi.
Nvidia è nella .... :oink:
scheda tirata a LIQUIDO e Far Cry come test !!!!!!!!!!!!!
NO COMMENT
:muro:
Nightwalker
18-01-2010, 09:58
Mi sa tanto che a sto giro la redazione non ha ricevuto alcuna scheda da testare..:rolleyes:
Kharonte85
18-01-2010, 10:03
Mi sa tanto che a sto giro la redazione non ha ricevuto alcuna scheda da testare..:rolleyes:
Quello è evidente...:fagiano:
gabriele_burgazzi
18-01-2010, 10:04
Sottolineo una cosa che ho ripetuto più volte nel corso dell'articolo: i test riportati per GF100 sono stati eseguiti da NVIDIA nel corso di una sessione dedicata. La scheda non è ancora stata data alla stampa.
I test riportati per le soluzioni ATI sono invece stati fatti da noi sulla nostra piattaforma hardware, direttamente paragonabile per caratteristiche tecniche a quella che NVIDIA ha utilizzato durante la sessione dimostrativa.
Un saluto a tutti.
http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/
a malapena tengono a baada una single gpu, figuriamoci una dual.
Immagino la vedremo SOLO con i 28nm.
"Vediamo in dettaglio come sia costituito uno streaming multiprocessor. La parte centrale vede la presenza dei 32 CUDA cores: a gruppi di 4 sono associati ad un'unità di load e store (LD/ST), mentre 4 di questi gruppi sono abbinati ad una unità di tipo special function (SFU). A monte troviamo una cache per le istruzioni, seguita da due Warp Scheduler e da due unità per le operazioni di dispatch, collegate al registro dei files capace di gestire un massimo di 32.768 entry a 32bit."
Questo è il testo della news..ma guardano l'immagine le cose non stanno proprio così:
Pare che per ogni gruppo di 4 Core, ci siano DUE unità di LD/ST..e per ogni QUATTRO unità di LD/ST (oppure OTTO Core), ci sia un'unità Special Function..
(tra l'altro..non si capisce a quale componente si riferisce il "mentre 4 di QUESTI gruppi"..LD/ST (e allora sarebbe corretto..ma nella frase precedente non si parlava di gruppi di LD/ST, ma di componenti a sé stanti), oppure ai Core (e allora dovrebbero essere DUE gruppi..essendo ogni gruppo preso in esame precedentemente formato da 4 core).
Per il resto..lo dicono più volte nella news che sono info da prendere con le pinze e sulle quali si può dire poco..l'unico modo per avere dei riscontri paragonabili è attendere che escano le prime schede ES..allora sì che si potranno fare dei bench paragonabili!! Sperando che i prezzi siano anche allineati alla concorrenza, così da scatenare un po' di sana guerra tra i prezzi..
Paolo Corsini
18-01-2010, 10:17
"Vediamo in dettaglio come sia costituito uno streaming multiprocessor. La parte centrale vede la presenza dei 32 CUDA cores: a gruppi di 4 sono associati ad un'unità di load e store (LD/ST), mentre 4 di questi gruppi sono abbinati ad una unità di tipo special function (SFU). A monte troviamo una cache per le istruzioni, seguita da due Warp Scheduler e da due unità per le operazioni di dispatch, collegate al registro dei files capace di gestire un massimo di 32.768 entry a 32bit."
Questo è il testo della news..ma guardano l'immagine le cose non stanno proprio così:
Pare che per ogni gruppo di 4 Core, ci siano DUE unità di LD/ST..e per ogni QUATTRO unità di LD/ST (oppure OTTO Core), ci sia un'unità Special Function..
(tra l'altro..non si capisce a quale componente si riferisce il "mentre 4 di QUESTI gruppi"..LD/ST (e allora sarebbe corretto..ma nella frase precedente non si parlava di gruppi di LD/ST, ma di componenti a sé stanti), oppure ai Core (e allora dovrebbero essere DUE gruppi..essendo ogni gruppo preso in esame precedentemente formato da 4 core).
Refuso mio, che evidentemente non ho più dimestichezza nel contare i quadratini colorati con le dita e mandare a memoria numeri sotto il 10 ;)
Grazie della segnalazione, appena sistemato.
Xeon3540
18-01-2010, 10:20
speriamo che Ati si dà una mossa. che se Nvidia andrà forte e continuerà con Physx passerò ad Nvidia visto che posseggo una 5970 e 2 5870 in quadcrossfire e i driver ancora sono davvero acerbi....Lo spero per l' Ati che si diano una mossa per la fisica
Nightwalker
18-01-2010, 10:24
speriamo che Ati si dà una mossa
...
I miei uochiiiiii :eek:
la 5870 ha già QUATTRO MESI DI VITA.... e quando GF100 sarà commercializzato ne avrà almeno CINQUE, mi sembrano i risultati gonfiati della slide nvidia... anche troppo bassi!!!
Per un prodotto che ha 2.5 volte la quantità di transitor e che consumerà il doppio di una 5850... e che è più "nuovo" di quasi 6 mesi, ci si aspettava tutt'altro!!!!
Ohhh e finalmente il gf100 è stato presentato anche se superficialmente...
bene...anzi, ottimo :p
come era lecito aspettarsi, è un mostro di potenza e viaggerà sulla carta il doppio di una 285...il che vuol dire a livello pratico, ALMENO il 50% in più di una 5870 fino alle dx 10.1 (il 30% su una 5850 clocccata ;) ) ed IMHO anche oltre il 50% con i titoli dx11 che usciranno nella seconda parte dell'anno:mbe:
Per chi aspettava gf100 per sapere cosa e come acquistare....beh...chi aspetta, spera...e quindi, in questo caso...:ciapet: ...spera male:
gf100 (il TOP oggetto di questa presentazione) +ali "adeguato" costerà circa 600/800 euri...e forse anche più:doh:
la serie 5xxx pertanto non scenderà di un centesimo :mad:
gf100 sarà quasi sicuramente (visto che trovo improbabile che AMD abbia avuto la "possibilità" finanziaria di creare un progetto del genere in R900) per tutto l'anno la miglior GPU singola...in ogni caso però, 2 schede 5850 in CF e occate renderanno vano il rapporto prestazioni/prezzo di gf100 per tutto il 2010 :read:
gf100 è leader incontrastato per la fascia professionale...e diventerà appetibile per la maggior parte dei gamer (ovvero, per i misci come me :( ) solo verso fine anno...quando le dx11 saranno VERE...quando caleranno i prezzi grazie alle economie di scala...quando le GPGPU saranno sfruttate (speriamo presto)...quando ci sarà pure R900.
Solo allora avrà un senso...per la maggior parte dei potenziali clienti, pensarci sopra :read:
riuzasan
18-01-2010, 10:45
Onestamente avrei evitato questo spot-bench, dopo già che per mesi la redazione di HW è stata più che benevola con le bufale di Nvidia.
Per far andare quel bench basterebbe mettere il chip a frequenze molto alte, raffredando il tutto a liquido (cosa che si è vista al CES) + twekkando i driver per l'occasione.
Comunque con un rilascio posticipato di 8-9 mesi il fail è già una realtà anche tenendo presente quanto consteranno queste schede a causa dell'assurda complessità dell'architettura.
Totenrune
18-01-2010, 10:53
La cosa più interessante di queste vga, sono le novità introdotte che riguardano esclusivamente il mondo videoludico del PC, sfruttando l'effettiva superiorità e sviluppo a differenza delle console. Certo, ci sarà da vedere (oltre ai soliti bench prestazionali) quanto queste tecnologie verranno sfruttate dai programmatori in generale, oltre che ai costi e consumi del prodotto :)
@riuzasan
Non esageriamo: le informazioni fornite da nvidia sono state mostrate ovunque ed era giusto darle.
Peccato che in fin dei conti non dicano poi molto.
Come ci si poteva aspettare, Fermi avrà i suoi punti di forza: insomma, un progetto nato più di tre anni fa deve per forza, al di la dei problemi produttivi e di consumi, avere delle migliorie generiche.
Sembrano promettere bene l'AA 8x (che al momento vede in netto vantaggio ATI, forse ora sarà Nvidia in vantaggio) e la tessellation molto efficiente (ma qui la parola definitiva la diranno le prove sul campo).
@dany700
L'articolo non mostra nulla di quello che dici, mi pare un po' eccessivo prendere come riferimento ormai certo ed assoluto un test eseguito da nvidia viziato per i vari motivi sopra esposti.
Va bene l'ottimismo, ma qui siamo molto distanti da avere un riferimento prestazionale.
Piuttosto mi spaventa l'idea di Physics non limitata a semplici effetti grafici. Se nvidia insiste ancora su questi rischiamo di trovarci ancora schiavi di tecnologie proprietarie, spero che questo non costringa ATI a proporre le sue esclusive per controbattere un atteggiamento del genere.
gianni1879
18-01-2010, 10:54
Sottolineo una cosa che ho ripetuto più volte nel corso dell'articolo: i test riportati per GF100 sono stati eseguiti da NVIDIA nel corso di una sessione dedicata. La scheda non è ancora stata data alla stampa.
I test riportati per le soluzioni ATI sono invece stati fatti da noi sulla nostra piattaforma hardware, direttamente paragonabile per caratteristiche tecniche a quella che NVIDIA ha utilizzato durante la sessione dimostrativa.
Un saluto a tutti.
Potete chiarire anche questo:
http://www.hwupgrade.it/articoli/skvideo/2361/settaggi_gf100.jpg
mentre i vostri test nella slide sono in dx10
http://www.hwupgrade.it/articoli/skvideo/2361/fc.png
dany700, potresti fornirmi anche la combinazione del superenalotto, visto che hai già dato sentenze sul futuro, basate su fuffa mediatica Nvidia.
...non puoi immaginare...quanto vorrei:muro:
...che ciò che ho scritto, si rivelino solo delle gran fesserie...
per il bene di tutti noi :)
@riuzasan
@dany700
L'articolo non mostra nulla di quello che dici, mi pare un po' eccessivo prendere come riferimento ormai certo ed assoluto un test eseguito da nvidia viziato per i vari motivi sopra esposti.
Va bene l'ottimismo, ma qui siamo molto distanti da avere un riferimento prestazionale.
Piuttosto mi spaventa l'idea di Physics non limitata a semplici effetti grafici. Se nvidia insiste ancora su questi rischiamo di trovarci ancora schiavi di tecnologie proprietarie, spero che questo non costringa ATI a proporre le sue esclusive per controbattere un atteggiamento del genere.
Ai miei timori "prestazionali" over 50%....hai già risposto tu ;) Solo che preciserei un particolare...Physics così come la conosciamo....sarà devastante nei prodotti che usciranno fra qualche mese...IHMO dimentichiamoci le physics-ciofeche che abbiamo visto fino ad oggi:D
gabriele_burgazzi
18-01-2010, 11:04
Potete chiarire anche questo:
http://www.hwupgrade.it/articoli/skvideo/2361/settaggi_gf100.jpg
mentre i vostri test nella slide sono in dx10
http://www.hwupgrade.it/articoli/skvideo/2361/fc.png
Svuota la cache e riguarda la pagina: risolti gli errori.
Ciao.
Negative_creep
18-01-2010, 11:07
I test sono attendibili, si tratta di una 5870 vs 3 G100 in triple SLI
gianni1879
18-01-2010, 11:08
Svuota la cache e riguarda la pagina: risolti gli errori.
Ciao.
ok grazie ;)
Ai miei timori "prestazionali" over 50%....hai già risposto tu ;) Solo che preciserei un particolare...Physics così come la conosciamo....sarà devastante nei prodotti che usciranno fra qualche mese...IHMO dimentichiamoci le physics-ciofeche che abbiamo visto fino ad oggi:D
Beh, in Batman Arkham asylum... PhysX fa la differenza alla stragrande.
Il fatto è che al massimo livello, con la mia scheda, i rallentamenti in diversi frangenti sono vistosissimi (anche se il tutto resta giocabile, ma preferisco un framerate solido io).
Se riusciranno ad ottimizare le prestazioni... PhysX potrebbe diventare quel plus grafico e fisico che fa la differenza.
ghiltanas
18-01-2010, 11:16
I test sono attendibili, si tratta di una 5870 vs 3 G100 in triple SLI
:asd: in triplesli e raffreddate a liquido :p
Blackcat73
18-01-2010, 11:22
Io sinceramente ho pochi dubbi sul fatto che saranno più veloci(poi di quanto è da vedere dei test interni mi fido poco) quello che mi preoccupa è altro... ovvero prezzi e consumi se veramente consumerà 280w(come scritto in uno dei link postati) e costera oltre i 500euro beh.. imho può rimanere li, bello il physx belle altre cose ma mi accontenterò di un po' meno a prezzi umani.
mordorozzo
18-01-2010, 11:23
vabbe sti**zzi e normale che 3 schede so meglio di una...ma a sto punto pero se proprio vogliono proporci un tripleSLI le vendessero a 100€ l'una cosi un pensiero ce lo faccio!
...secondo me nonostante sia piu "vecchia" la serie 5000, vista l'ottimizzazione ai consumi e alle prestazioni, seguite da driver piu maturi, se la puo cavare decisamente...speriamo in bench positivi da parte di nvidia pero, in modo che il sistema concorrenziale faccia calare i prezzi di una e dell'altra soluzione!
Pitagora
18-01-2010, 11:30
Certo che se ATI cominciasse a fare drivers degni di questo nome NVIDIA sarebbe in un mare di guai...
Sta GF100 la vedo male, troppo costosa e troppo esosa come richieste di corrente... Per un mostro del genere la differenza prestazionale dovrebbe essere almeno del 50% rispetto ad una 5970... altro che 40% superiore ad una 5870 nel migliore degli scenari possibile...
E pensare che mi sono "accontentato" di una 275 perchè ho pensato che avrei optato presto per "fermi"...
Purtroppo sono un "talebano", un drogato dei forceware, finchè non imparano a fare i driver, per me le ATI non esistono. Sono spacciato. :(
mordorozzo
18-01-2010, 11:34
ragazzi ma schierarsi da una parte credo sia a svantaggio dell'utente stesso...ho sempre avuto nvidia, dalle vecchie geforce 4 TI alle MX...sono passato ad ati perke la mia cara scheda in IDLE consuma precisamente la meta di una 8800gtx e di una 285 e con crysis a tutto alto ris 1200x1050 o giu di li (scusate non la ricordo) il gameplay e dannatamente fluido e ci gioco senza problemi per non parlare di L4D e FC2 consumando il giusto.
quello che dici e verissimo in quanto se l'ati si svegliasse a livello di driver potrebbe concorrere in maniera molto piu marcata, ma non ho capito perke non ne vogliono sapere...io adesso con la 4890 non ho problemi, ma e abb kiaro dato che e una scheda che cmq ha il suo tempo...in ogni caso non escludo un futuro passaggio a fermi o cmq un ripasso ad nvidia, ma voglio che si impegnano nel prezzo (assurdo rispetto alla concorrenza e soprattutto non giustificato dal GAP prestazionale IMHO) e soprattutto nel consumo, che nvidia ci ha abituato a bei forni pro-enel
gabriele_burgazzi
18-01-2010, 11:35
vabbe sti**zzi e normale che 3 schede so meglio di una...ma a sto punto pero se proprio vogliono proporci un tripleSLI le vendessero a 100€ l'una cosi un pensiero ce lo faccio!
...secondo me nonostante sia piu "vecchia" la serie 5000, vista l'ottimizzazione ai consumi e alle prestazioni, seguite da driver piu maturi, se la puo cavare decisamente...speriamo in bench positivi da parte di nvidia pero, in modo che il sistema concorrenziale faccia calare i prezzi di una e dell'altra soluzione!
I Test riportati non sono in Triple SLI. Mi ripeto per fare nuovamente chiarezza:
i Test fanno riferimento ad una sola e SINGOLA GF100. I risultati sono frutto di una sessione di testing eseguita da NVIDIA stessa in nostra presenza. I test che fanno invece riferimento a Radeon HD 5800 sono stati eseguiti da noi su una piattaforma hardware uguale.
Ciao
riuzasan
18-01-2010, 11:39
Gabriele quello che vuoi, ma questi bench hanno validità zero e servono solo a far veder dopo mesi di bufale e balle che la scheda è finalmente in fase direalizzazione.
mordorozzo
18-01-2010, 11:40
possibile che fermi abbia un incremento rpestazionale medio del 20-25% rispetto all'ATI? :eek:
assurdo a dir poco...se quello che leggo verra confermato da ulteriori bench che dubito tarderanno ad essere effettuati dalla stessa redazione al momento del lancio il passaggio a fermi mi sembra alquanto obbligatorio!!
possibile che fermi abbia un incremento rpestazionale medio del 20-25% rispetto all'ATI? :eek:
assurdo a dir poco...se quello che leggo verra confermato da ulteriori bench che dubito tarderanno ad essere effettuati dalla stessa redazione al momento del lancio il passaggio a fermi mi sembra alquanto obbligatorio!!
- chip 2,5 volte più grande
- 5-6 MESI i più per lo sviluppo
- quasi il doppio dei consumi
anche a me il 20% rispetto ad ati sembra assurdo...
... UN RISULTATO ASSURDAMENTE FALLIMENTARE viste le caratteristiche!!!
gabriele_burgazzi
18-01-2010, 11:54
Gabriele quello che vuoi, ma questi bench hanno validità zero e servono solo a far veder dopo mesi di bufale e balle che la scheda è finalmente in fase direalizzazione.
Trai da te le conclusioni che ritieni valide. Volevo solo sottolinearti come non si tratta di un triple SLI bensì di una scheda singola. Lungi da me voler vendere fumo...è l'ultimo dei miei obbiettivi.
Ciao
A me sembra solo aria, tanta aria, va bene alzare il polverone per non far vendere le ATI, ma così sono ridicoli, dessero finalmente le schede ai veri recensori e poi voglio proprio gustarmi questi fantastici risultati fermo restando che non guardo solo i risultati di HU. che.. vabè passiamo oltre...
Se poi mostreranno di essere buone schede ben vengano, i prezzi della concorrenza si abbasserano ecc.. e io ringrazierò felice
Ma prima di test seri e non di parte questi loro spot mi fanno solo ridere
onestamente non capisco il motivo di affiancare NELLO STESSO GRAFICO anche i bench ati fatti in casa a quelli forniti da nvidia ... voi stessi avete rilevato che i numeri forniti da nvidia per le 285 non sono coerenti ... non era meglio fare due grafici distinti, uno con i dati nvidia ed uno vostro con le repliche dei test (per quanto di replica si possa parlare) ... sempre più perplesso per quanto riguarda la "linea editoriale" che tenete nei confronti di ati
A me sembra solo aria, tanta aria, va bene alzare il polverone per non far vendere le ATI, ma così sono ridicoli, dessero finalmente le schede ai veri recensori e poi voglio proprio gustarmi questi fantastici risultati fermo restando che non guardo solo i risultati di HU. che.. vabè passiamo oltre...
Se poi mostreranno di essere buone schede ben vengano, i prezzi della concorrenza si abbasserano ecc.. e io ringrazierò felice
Ma prima di test seri e non di parte questi loro spot mi fanno solo ridere
Ma scusa ma mettiti nei panni di nVidia, se da le schede ai recensori tutto sto castello di panzanate prestazionali crolla come una pila di carte al vento... ;)
La realtà sarà ben diversa da quanto si vocifera ---
sdjhgafkqwihaskldds
18-01-2010, 12:11
Mamma quanti commenti idioti, per fortuna è un'anteprima!
Chi parla di 5 mesi di posticipo, chi di ferrari e panda, chi non gli sta bene che sta uscendo questa scheda, chi dice che è un fallimento perchè il chip è grande il doppio....
onestamente non capisco il motivo di affiancare NELLO STESSO GRAFICO anche i bench ati fatti in casa a quelli forniti da nvidia ... voi stessi avete rilevato che i numeri forniti da nvidia per le 285 non sono coerenti ... non era meglio fare due grafici distinti, uno con i dati nvidia ed uno vostro con le repliche dei test (per quanto di replica si possa parlare) ... sempre più perplesso per quanto riguarda la "linea editoriale" che tenete nei confronti di ati
Assolutamente daccordo con te, teniamo poi conto che in innumerevoli risposte la stessa redazione ha affermato che è inutile quanto errato confrontare due recensioni diverse (anche con hw simile o uguale) dato che intervengono troppi fattori ad influire sui risultati, questa volta invece va bene pensa te che cambio di rotta :)
Ottimo il nuovo FSAA, sulla carta ottima la potenza computazionale sui vertici, il test su Farcry è indice però, secondo me, semmai del divario base che vi sarà, essendo un titolo che non sfrutta la tesselation, e anche in questo ambito il test interno Nvidia con Unigine è da prendere con le molle.
ghiltanas
18-01-2010, 12:17
Mamma quanti commenti idioti, per fortuna è un'anteprima!
Chi parla di 5 mesi di posticipo, chi di ferrari e panda, chi non gli sta bene che sta uscendo questa scheda, chi dice che è un fallimento perchè il chip è grande il doppio....
dicci te allora di cosa dobbiamo parlare...nn so di golf potrebbe andarle bene? :rolleyes:
Tenendo conto che gioco ancora con una 8800 in maniera ottimale, non oso immaginare le prestazioni di questa GPU! Detto ciò, ovviamente, conviene aspettare il rilascio di bench meno faziosi; nel decennio scorso è già accaduto più di una volta: promesse mirabolanti che alla fine erano solo un mucchio di chiacchere e arrampicaggi sugli specchi.
Purtroppo essendo un top di gamma nvidia costera' quanto meno un rene.
ghiltanas
18-01-2010, 12:20
Ma scusa ma mettiti nei panni di nVidia, se da le schede ai recensori tutto sto castello di panzanate prestazionali crolla come una pila di carte al vento... ;)
La realtà sarà ben diversa da quanto si vocifera ---
io al di la delle prestazioni in se, mi preoccupo parecchio dei consumi e dei costi... e dalla scalabilità del chip
sdjhgafkqwihaskldds
18-01-2010, 12:28
dicci te allora di cosa dobbiamo parlare...nn so di golf potrebbe andarle bene? :rolleyes:
NON commento aspetto una recensione, dopo che sia stata lanciata sul mercato, per la golf vado sui forum di auto.
Beh, in Batman Arkham asylum... PhysX fa la differenza alla stragrande.
Il fatto è che al massimo livello, con la mia scheda, i rallentamenti in diversi frangenti sono vistosissimi (anche se il tutto resta giocabile, ma preferisco un framerate solido io).
Se riusciranno ad ottimizare le prestazioni... PhysX potrebbe diventare quel plus grafico e fisico che fa la differenza.
A dirti la verità...ho visto qualche slide di Batman e la differenza c'è...invece, per quanto ciò possa influire a livello di piacere visivo "globale"...mi affido al tuo giudizio;)
Ma hai già risposto tu...quanto costava potersi garantire prestazioni decenti con physx e tutti i filtri?? uno sproposito ed ingiustificato.
...e con quanti titoli "degnamente" implementato??
gf100 comunque darà la polvere a qualsiasi configurazione immaginabile, nella fisica e pure alla grande!...non solo di una o due lunghezze :eek:
un Cf di 5850 okkate...diventeranno la scelta "economica" in tal senso.
Ciò che mi preoccupa maggiormente se fossi in procinto di acquistare, non sono le prestazioni...che francamente, saranno sicuramente superiori in tutto, ma esattamente su ogni altra questione:
- Prezzo di vendita ---> costi R&S, costi operativi "mega" per 5cm quadrati di silicio e di tutto quello che gli sta intorno (che tralascio di citare)...e per terminare...le rese iniziali di TSMC :banned:
- Reperibilità a prezzi umani per diversi mesi.
- Calore e consumi----> probabile nuovo ALI e raffreddamento/ventilazione del case potenziato o a liquido :D ovvero, per tutti quelli che non hanno già una 295 o 4870x2 che rulla dentro il case :cool:
- Drivers (qui si critica ATI ma voglio vederli questi drivers Nvidia, in un'architettura nuova quanto saranno efficienti nel breve periodo :mc: )
- Per chi è smanettone: zero overclock (con 1,2/1,4 Ghz ci mancherebbe altro :D )
IMHO...Sarà la felicità degli enthusiast e solo per loro...per un bel po' :cry:
blackshard
18-01-2010, 12:57
Beh dalle caratteristiche sulla carta deve per forza andare più di una 5870 e anche di parecchio.
Cmq a me quei grafici, se sono veritieri, sembrano interessanti. Certo mancano i consumi, che penso saranno stratosferici, però non mi sembra così malaccio. Rimango però con il parere che ci saranno buone chances che le 5850/5870 rimarranno con il migliore rapporto fra prezzo, prestazioni e consumi.
diegooo1972
18-01-2010, 12:59
Quale architettura una volta presentata ha fatto meglio del previsto e del fuffato ????????????????????
NESSUNA perche' non puo' succedere. Queste prestazioni farebbero di nvidia la scheda piu' veloce ma rappresenterebbero anche la perdita del divario tecnologico che aveva nvidia IMHO. tra il 20% e il 30% in 6 mesi mi pare del tutto normale.
Ma dai ragazzi, ancora queste storie dei driver Ati mal fatti?
Ad ogni articolo c'è qualcuno che deve uscirne con questa sparata, ovviamente senza averne avuto a che fare da secoli.
Capisco qualche esperienza personale negativa (che ovviamente diversi utenti hanno avuto con schede di entrambe le marche), ma da qui a far valere la cosa in generale ne passa...
Comunque piccola delusione per il 3D Vision Surround: pensavo che almeno sulle nuove schede avremo avuto le tre uscite contemporanee, invece pare che la cosa sia relegata ad uno sli (e al più, quando uscirà, alla dual cpu).
Ammirevole lo sforzo, però sarà un'esperienza ancora più di nicchia dell'eyefinity, dato che richiede monitor particolari che al momento sono parecchio costosi, soprattutto se bisogna acquistarne tre.
Sono curioso di vedere quale sia effettivamente la risposta ATI riguardo al 3D con le prossime release di driver.
Altra cosa che mi da un po' di perplessità è la questione dei prezzi. Vedo che molti si augurano una scheda particolarmente potente per far smuovere la situazione prezzi attuale, ma io la vedo dura in questo senso: Fermi, a causa della dimensione elevata e dei problemi di produzione è costoso.
Ho idea che prestazioni elevate significheranno solo un aumento di prezzo di questa scheda, non un livellamento generale verso il basso, visto anche il trend dei prezzi nvidia.
Spero di no naturalmente, ma non ci conto molto.
netcrusher
18-01-2010, 13:08
Ottimo il benchmark di far cry 2 ma scusate una cosa, non è che quel risultato è ottenuto con il triple sli?? perchè io dalla foto vedotre schede messe in sli......ihihihihihihihi
Dany_M82
18-01-2010, 13:09
Una compagnia allo sbando che ogni giorno che passa cade sempre più nel ridicolo!
però guardate, funziona! quanti .... stanno commentando "mi che potenza questa fermi" "mi va il 50% in + della ati" e così via, sulla base di fuffa, montata ad arte (topico l'affiancare i test di nvidia ed i test in casa sullo stesso grafico)... c'è chi profetizza "risultati devastanti" in ambito consumer e professional, che le convinzioni sul 2012 in confronto sono barzellette, chi disquisisce ancora una volta sui driver... (natale è passato, ma la moda di farlo a torrone con gli stessi discorsi non cambia mai)...
la redazione glissa con un "abbiamo specificato x, y e z" però monta dei grafici "particolari" nonostante l'esperienza che possiede e che fa giustamente arrivare alla conclusione che sono del tutto inutili per gli utenti (o utili agli acquirenti, ciò che interessa a nvidia). Dopo un trilione di news, ognuna delle quali diceva : " " (no, non ho sbagliato a scrivere), arriva per la prima volta nella storia la preview della preview che dice quanto detto nelle news ( " ") condendo il tutto con test ad hoc e senza dare informazioni dettagliate sul chip.
AL tempo...:D
1) si presume che quanto di tecnico sia stato citato nell'articolo in questione...corrisponda alla realtà oggettiva di quanto e cosa sia gf100. Non credo che la redazione si sarebbe sbilanciata così tanto (e bene) nel citarne le fondamentali caratteristiche.
2) a più riprese, hanno come dici tu, rimarcato la fondatezza "inattendibile" di quanto graficamente mostrato, infatti, per dovere di cronaca...hanno fatto benissimo sia a riportare le slide che a dire la loro in merito ;)
3) nella seconda parte dell'anno...i titoli ottimizzati nella fisica, profondità di campo ecc. ecc. faranno la differenza eccome e, saranno pure tanti titoli se non tutti...
Per cui, se R900+Fusion saranno un progetto all'altezza di gf100...e se contestualmente le GPGPU prenderanno il (meritato) sopravvento...
entro l'anno prossimo prepariamoci...ai grandi acquisti di massa di una o dell'altra (ciao ciao Intel :Prrr:)
halduemilauno
18-01-2010, 13:13
Ottimo il benchmark di far cry 2 ma scusate una cosa, non è che quel risultato è ottenuto con il triple sli?? perchè io dalla foto vedotre schede messe in sli......ihihihihihihihi
I Test riportati non sono in Triple SLI. Mi ripeto per fare nuovamente chiarezza:
i Test fanno riferimento ad una sola e SINGOLA GF100. I risultati sono frutto di una sessione di testing eseguita da NVIDIA stessa in nostra presenza. I test che fanno invece riferimento a Radeon HD 5800 sono stati eseguiti da noi su una piattaforma hardware uguale.
Ciao
bastava leggere un pò di +.
possibile che fermi abbia un incremento rpestazionale medio del 20-25% rispetto all'ATI? :eek:
assurdo a dir poco...
hai perfettamente ragione.
è asurdo che dopo 6 mesi, venga presentata una vga che pur avendo la gpu 2 volte più grande(con probabili consumi da centrale nucleare), vada solo il 20/25%.
percentuale che oltretutto è ben recuperabile con un banale OC su una 5850, visto che salgono su con niente.
questo test è quasi più riicolo di quello fatto con le 3 vga in SLI(indimenticabile). un solo gioco(far cry :D ), nessuna specifica REALE, delle vga. per quanto ne sappiamo, loro posso aver preparato una vga okkata di tantissimo, con raffreddamento a liquido, e poi aver fatto il test confrontadolo con la 5870 reference.
le unche certezze che abbiamo di FERMI sono:
consumi stratosferici
prezzi startosferici
prestazioni superiori ad ATI(questo si sapeva fin dall'inizio) ma che non giustificano i prezzi assurdi, e l'attesa di 6 mesi.
non abbiamo nessuna immagine della scheda mentre esegue il test, pochissime(e inutili) specifiche, e un test che chiamarlo ridocolo è a dir poco.
la verità è che Nvidia vuole arginare in ogni modo l'emorragia di punti percentuali del market share. di pronto e di valido attualmente non ha NIENTE e allora propone test ridicoli. il primo è stato quello al CES: una figuraccia senza precedenti come ricorderemo bene. il secondo è questo, ed ecco un'altra figuraccia servita.
per quanto riguarda i driver: quelli di ATI ora sono "acerbi", ma ricordiamoci che in 3 mesi sono migliorati nettamente, e hanno ancora almeno 2 mesi di "campo libero" prima di FERMI.
hai perfettamente ragione.
è asurdo che dopo 6 mesi, venga presentata una vga che pur avendo la gpu 2 volte più grande(con probabili consumi da centrale nucleare), vada solo il 20/25%.
percentuale che oltretutto è ben recuperabile con un banale OC su una 5850, visto che salgono su con niente.
questo test è quasi più riicolo di quello fatto con le 3 vga in SLI(indimenticabile). un solo gioco(far cry :D ), nessuna specifica REALE, delle vga. per quanto ne sappiamo, loro posso aver preparato una vga okkata di tantissimo, con raffreddamento a liquido, e poi aver fatto il test confrontadolo con la 5870 reference.
le unche certezze che abbiamo di FERMI sono:
consumi stratosferici
prezzi startosferici
prestazioni superiori ad ATI(questo si sapeva fin dall'inizio) ma che non giustificano i prezzi assurdi, e l'attesa di 6 mesi.
non abbiamo nessuna immagine della scheda mentre esegue il test, pochissime(e inutili) specifiche, e un test che chiamarlo ridocolo è a dir poco.
la verità è che Nvidia vuole arginare in ogni modo l'emorragia di punti percentuali del market share. di pronto e di valido attualmente non ha NIENTE e allora propone test ridicoli. il primo è stato quello al CES: una figuraccia senza precedenti come ricorderemo bene. il secondo è questo, ed ecco un'altra figuraccia servita.
per quanto riguarda i driver: quelli di ATI ora sono "acerbi", ma ricordiamoci che in 3 mesi sono migliorati nettamente, e hanno ancora almeno 2 mesi di "campo libero" prima di FERMI.
Premetto che imho i driver Ati sono ottimi, almeno per esperienza personale, ma io tutta sta figuraccia non la vedo, nel frattempo ha presentato Ion 2 e Tegra 2 2 pezzi fondamentali a lungo termine, e ora si appresta ad aggredire il comparto GPU, a me pare con un prodotto dalle premesse ottime, che sulla carta fa meglio (da utente Ati parlo) quello che deve fare in più per Dx11, cioè, muovere 8 volte i poligoni di g200.
E imho si appresta anche ad entrare nel mercato CPU, ma queste sono voci.
Dragon2002
18-01-2010, 13:31
Neanche un paper launch cioè mandi le schede da testare ai vari siti un paio di mesi prima della loro uscita sul mercato. Ora stiamo al preview launch.
CoolBits
18-01-2010, 13:34
le unche certezze che abbiamo di FERMI sono:
consumi stratosferici
prezzi startosferici
prestazioni superiori ad ATI(questo si sapeva fin dall'inizio) ma che non giustificano i prezzi assurdi, e l'attesa di 6 mesi.
Mi presti la tua palla di cristallo? devo giocare al superenalotto....
non esiste nessuna certezza...non si sa nulla sui consumi....nulla sul prezzo e nulla sulle prestazioni anche se qui è facile intuire che saranno superiori ad ATI ma senza sapere di quanto non serve a nulla
A onor del vero...non abbiamo davvero niente di esaustivo in mano al 100%...
Possiamo solo costruire ipotetici risultati su quanto man mano riusciamo ad ottenere giorno per giorno...
ritengo però, che gf100 andrà molto al di sopra di un 20/25% rispetto alla 5870...non dimentichiamoci ciò che viene dato per EFFETTIVO in quest'articolo:
i CUDA e come sono variati rispetto a 285...e non solo nella quantità...
i ROPS e la loro implementazione...e non solo nella quantità...
in aggiunta a quanto sopra, aggiungiamo la velocità del chip...che se sarà confermata sui 1,2/1,4...i 384 bit del controller...e i titoli farciti di fisica che usciranno...
sapendo peraltro ORA come va una 285 o una 5870....
Inevitabilmente...surclasserà "brutalmente" la 5870 :D...d'altro canto, la logica, rispecchia lo stesso motivo per cui si pensa che sicuramente, sarà esoso in energia e costosissimo per l'utente finale...
Certo...se OGGI i drivers ATI sono da considerare (forse) acerbi...i drivers NVIDIA al lancio, giocoforza...saranno veramente scandalosi:mbe: e contribuiranno a ledere "il potenziale" iniziale...magari in un gap di SOLO 20/30% rispetto alla 5xxx...ma...tempo al tempo :D
capitan_crasy
18-01-2010, 13:40
Premetto che imho i driver Ati sono ottimi, almeno per esperienza personale, ma io tutta sta figuraccia non la vedo, nel frattempo ha presentato Ion 2 e Tegra 2 2 pezzi fondamentali a lungo termine, e ora si appresta ad aggredire il comparto GPU, a me pare con un prodotto dalle premesse ottime, che sulla carta fa meglio (da utente Ati parlo) quello che deve fare in più per Dx11, cioè, muovere 8 volte i poligoni di g200.
Quando Nvidia presenterà finalmente le sue nuove GPU sapremo la verità su questi test; tuttavia il fatto che non abbia ancora rilasciato alcune caratteristiche mi fa pensare che abbia ancora dei grossi problemi di resa produttiva...
E imho si appresta anche ad entrare nel mercato CPU, ma queste sono voci.
Finchè ci sarà il piccolo problema delle licenze X86 la CPU Nvidia rimane solamente un invenzione di qualche buontempone...
Finchè ci sarà il piccolo problema delle licenze X86 la CPU Nvidia rimane solamente un invenzione di qualche buontempone...
:D
chi lo sà...magari...la disputa tra Nvidia ed Intel si risolverà...lasciando campo al produttore GF100 anche nel mercato CPU e compagnia bella...:cool:
marco XP2400+
18-01-2010, 13:50
:D
chi lo sà...magari...la disputa tra Nvidia ed Intel si risolverà...lasciando campo al produttore GF100 anche nel mercato CPU e compagnia bella...:cool:
imho è una fantasia, gpu e cpu stanno su di una scheda madre ma questo non significa che se progetti una gpu sai progettare anche una cpu
Mi auguro davvero che le prestazioni siano così elevate anche se le Ati con far cry2 non vanno proprio forte.. Mica scemi a proporre solo questo test :rolleyes:
Diciamo che ciò basta per trattenere parte dell'utenza da acquisti immediati ed attendere queste Fermi dato che manca poco..
Nessuno ci ha dato peso ma io invece ritengo un'ottima idea quella di contenere la lunghezza di queste schede ai livelli delle gt200 e non produrre dei tir come ha fa fatto ati. Se quando farò un upgrade posso evitare di cambiare il case ben venga ed è un altro punto a loro favore.
Rikardobari
18-01-2010, 13:55
mi sa mi sa che ora si ride :D
MarcoAK47
18-01-2010, 13:55
Io credo che appena uscirà la GF100 andrà circa il 25% in più di una 5870, in seguito con driver più maturi guadagnerà ancora un 10% credo...però a che prezzo?
Se dovesse costare sui 600$ la top di gamma spero che esca predisposta per il raffreddamento a liquido (dato che dovrebbe scaldare un botto :cool: ), tanto chi ha i soldi per acquistarla ha anche i soldi per un buon impianto a liquido.
capitan_crasy
18-01-2010, 13:56
:D
chi lo sà...magari...la disputa tra Nvidia ed Intel si risolverà...lasciando campo al produttore GF100 anche nel mercato CPU e compagnia bella...:cool:
Certo, la speranza è l'ultima a morire, tuttavia almeno finchè Nvidia non la smette di prendere per il fondo schiena Intel con "battute" (chiamiamole così) più o meno pesanti, non credo che riusciranno a raggiungere un accordo "amichevole"...
Quando Nvidia presenterà finalmente le sue nuove GPU sapremo la verità su questi test; tuttavia il fatto che non abbia ancora rilasciato alcune caratteristiche mi fa pensare che abbia ancora dei grossi problemi di resa produttiva...
Finchè ci sarà il piccolo problema delle licenze X86 la CPU Nvidia rimane solamente un invenzione di qualche buontempone...
ed oltretutto non solo intel deve concedere i diritti, ma anche amd: le estensioni a 64 bit (licenza amd) ed il memory controller integrato su tutte (intel utilizza nel primo caso licenze amd e nel secondo alcuni brevetti amd).
Ad onor del vero, limitando le prestazioni del 10% (per amalgamarli al test di hwupgrade) il risultato non è entusiasmante se consideriamo che è il test dove ati va meno.
diegooo1972
18-01-2010, 13:57
Se davvero ci fosse da cambiare il case per montare una gf100 personalmente gliela tirerei nelle gengive.
Ma dalla foto mi pare identica come lunghezza alla 5870.
marco XP2400+
18-01-2010, 14:00
mi sa mi sa che ora si ride :D
guarda che questa è una presentazione dell'architettura
poi ci sarà a marzo la presentazione della scheda
poi dopo ci sarà la disponibilità (che richiede tempo)
Quando Nvidia presenterà finalmente le sue nuove GPU sapremo la verità su questi test; tuttavia il fatto che non abbia ancora rilasciato alcune caratteristiche mi fa pensare che abbia ancora dei grossi problemi di resa produttiva...
Finchè ci sarà il piccolo problema delle licenze X86 la CPU Nvidia rimane solamente un invenzione di qualche buontempone...
Ovviamente, aggiungerei. Quando le presenterà sarà facile dire x è meglio di y e di quanto. Qui commento l'architettura, e quelle che sono le previsioni "elettorali" delle performance, o il FSAA come ho fatto.
Riguardo alle CPU è OT e IMHO.
ritengo però, che gf100 andrà molto al di sopra di un 20/25% rispetto alla 5870...non dimentichiamoci ciò che viene dato per EFFETTIVO in quest'articolo:
ora tocca a te passare la sfera di cristalo.
in questo articolo viene messo in luce solo la poitica ridicola che sta facendo nvidia per salvarsi in calcio d'angolo, visto il successo di HD5000.
in secondo luogo:
sicuramente FERMI andrà almeno un 20% in più di 5870(non dimentichiamoci che anche prendendo in esame questo testo, la 5970 è cmq irraggiungibile), anche perchè è l'unica cosa che può fare nvidia per rientrare nel mercato.
trova le differenze:
con la 5870 giocherai al top sul FULL HD(ci giochi al top anche ora), spendendo 350€ e consumando POCHISSIMO.
con la GTX385(nome ipotetico) giocherai al top sul FULL HD, spendendo 500€, e consumando quanto una centrale atomica(non vedo altre soluzioni visto la dimensione della gpu).
il tutto senza considerare che ad ATI, per mantenere il predominio, basta che operi un leggero taglio dei prezzi, e che inserisca nel mercato la carta "5890", o perfino una 5950.
cosi si manterrebbe al top delle prestazioni, offrendo come al solito il miglior rapporto qualità-prezzo.
capitan_crasy
18-01-2010, 14:04
ed oltretutto non solo intel deve concedere i diritti, ma anche amd: le estensioni a 64 bit (licenza amd) ed il memory controller integrato su tutte (intel utilizza nel primo caso licenze amd e nel secondo alcuni brevetti amd).
Ad onor del vero, limitando le prestazioni del 10% (per amalgamarli al test di hwupgrade) il risultato non è entusiasmante se consideriamo che è il test dove ati va meno.
Hai ragione...
In questo momento Nvidia è troppo egocentrica per poter stipulare qualsiasi accordo su tali brevetti con la sua rivale storica...
AMD invece non concederà MAI i suoi brevetti ad nvidia per evitare che ci sia il terzo incomodo...
molochgrifone
18-01-2010, 14:04
Se davvero ci fosse da cambiare il case per montare una gf100 personalmente gliela tirerei nelle gengive.
Ma dalla foto mi pare identica come lunghezza alla 5870.
Dovrebbe essere lunga come la serie nVidia basata su G200 e non come le nuove ATI :)
MarcoAK47
18-01-2010, 14:05
ora tocca a te passare la sfera di cristalo.
in questo articolo viene messo in luce solo la poitica ridicola che sta facendo nvidia per salvarsi in calcio d'angolo, visto il successo di HD5000.
in secondo luogo:
sicuramente FERMI andrà almeno un 20% in più di 5870(non dimentichiamoci che anche prendendo in esame questo testo, la 5970 è cmq irraggiungibile), anche perchè è l'unica cosa che può fare nvidia per rientrare nel mercato.
trova le differenze:
con la 5870 giocherai al top sul FULL HD(ci giochi al top anche ora), spendendo 350€ e consumando POCHISSIMO.
con la GTX385(nome ipotetico) giocherai al top sul FULL HD, spendendo 500€, e consumando quanto una centrale atomica(non vedo altre soluzioni visto la dimensione della gpu).
il tutto senza considerare che ad ATI, per mantenere il predominio, basta che operi un leggero taglio dei prezzi, e che inserisca nel mercato la carta "5890", o perfino una 5950.
cosi si manterrebbe al top delle prestazioni, offrendo come al solito il miglior rapporto qualità-prezzo.
quoto ;)
imho è una fantasia, gpu e cpu stanno su di una scheda madre ma questo non significa che se progetti una gpu sai progettare anche una cpu
come non darti ragione??? ;)
ma del resto...se le GPGPU prenderanno piede, Nvidia...avrà sempre AMD alle costole...grazie anche al comparto x86 di quest'ultima.
Non dimentichiamoci che se il prossimo futuro...SARA' coronato dal gpcomputing:
Intel avrà la leadership SOLO nelle cpu High End
Nvidia avrà la leadership SOLO nelle gpu High End
Amd con Fusion, R900 e Bulldozer...avrà tutto il resto.
Per cui, non mi stupirei più di tanto se:
-Nvidia volesse entrare in un mercato per contrastare AMD ad armi pari...
-Intel stesse investendo ogni risorsa in un ipotetico Larrabee++ per contrastare AMD ad armi pari...
Inoltre...cosa non di poco conto...che molti non hanno percepito veramente, è che nell'accordo AMD-INTEL non era prevista SOLO una misera multa...ma tanto tanto di più :D ...come dire...AMD se lo ritieni opportuno, ti lascio spazio per 5 anni in lungo e in largo...e in ogni campo---> prestando il fianco ad esempio...nei chipset integrati :fiufiu:
Se davvero ci fosse da cambiare il case per montare una gf100 personalmente gliela tirerei nelle gengive.
Ma dalla foto mi pare identica come lunghezza alla 5870.
Nell' articolo si legge che dovrebbero mantenere la lunghezza delle gt200 (non oltre i 27cm?) quindi molto meno della 5870 che a me già non entra nel case.
ora tocca a te passare la sfera di cristalo.
in questo articolo viene messo in luce solo la poitica ridicola che sta facendo nvidia per salvarsi in calcio d'angolo, visto il successo di HD5000.
in secondo luogo:
sicuramente FERMI andrà almeno un 20% in più di 5870(non dimentichiamoci che anche prendendo in esame questo testo, la 5970 è cmq irraggiungibile), anche perchè è l'unica cosa che può fare nvidia per rientrare nel mercato.
trova le differenze:
con la 5870 giocherai al top sul FULL HD(ci giochi al top anche ora), spendendo 350€ e consumando POCHISSIMO.
con la GTX385(nome ipotetico) giocherai al top sul FULL HD, spendendo 500€, e consumando quanto una centrale atomica(non vedo altre soluzioni visto la dimensione della gpu).
il tutto senza considerare che ad ATI, per mantenere il predominio, basta che operi un leggero taglio dei prezzi, e che inserisca nel mercato la carta "5890", o perfino una 5950.
cosi si manterrebbe al top delle prestazioni, offrendo come al solito il miglior rapporto qualità-prezzo.
:D :D :D
che fai??? scopiazzi i miei interventi precedenti???
ed oltretutto non solo intel deve concedere i diritti, ma anche amd: le estensioni a 64 bit (licenza amd) ed il memory controller integrato su tutte (intel utilizza nel primo caso licenze amd e nel secondo alcuni brevetti amd).
Ad onor del vero, limitando le prestazioni del 10% (per amalgamarli al test di hwupgrade) il risultato non è entusiasmante se consideriamo che è il test dove ati va meno.
OT (mi scuso in anticipo): la strategia non è quella di entrare come azienda, ma di acquisire (tutta o in parte) chi queste licenze già le possiede, e da questa base progettare qualcosa x86 proprio, ma è una conseguenza scontata, così come la progressiva integrazione della GPU nella CPU. Tutto queto Imho.
ed oltretutto non solo intel deve concedere i diritti, ma anche amd: le estensioni a 64 bit (licenza amd) ed il memory controller integrato su tutte (intel utilizza nel primo caso licenze amd e nel secondo alcuni brevetti amd).
Ad onor del vero, limitando le prestazioni del 10% (per amalgamarli al test di hwupgrade) il risultato non è entusiasmante se consideriamo che è il test dove ati va meno.
bingo...è tutta una guerra di licenze...alla fin fine, tutto ciò che troviamo sul mercato si riduce "praticamente" a questo :(
Mi auguro davvero che le prestazioni siano così elevate anche se le Ati con far cry2 non vanno proprio forte.. Mica scemi a proporre solo questo test :rolleyes:
Diciamo che ciò basta per trattenere parte dell'utenza da acquisti immediati ed attendere queste Fermi dato che manca poco..
Nessuno ci ha dato peso ma io invece ritengo un'ottima idea quella di contenere la lunghezza di queste schede ai livelli delle gt200 e non produrre dei tir come ha fa fatto ati. Se quando farò un upgrade posso evitare di cambiare il case ben venga ed è un altro punto a loro favore.
Quotissimo: ATi è nelle mie simpatie (non che odi nVidia, eh?), però non sta nè in cielo nè in terra che la gente debba "per forza" avere case molto spaziosi come HAF e simili perchè loro fanno vga "Rocco edition"
Certo, la speranza è l'ultima a morire, tuttavia almeno finchè Nvidia non la smette di prendere per il fondo schiena Intel con "battute" (chiamiamole così) più o meno pesanti, non credo che riusciranno a raggiungere un accordo "amichevole"...
ovviamente...e spero pure per noi, che l'accordo "non amichevole"...renda i 3 colossi...tutti egualmente sullo stesso piano...( che bello sognare :D )
Ma non doveva avere 2gb di ram la top ??
La Hdmi non è in versione 1.4 ??
Vabè, aspettiamo la primavera per vedere come andrà questo progetto totalmente nuovo... che di certo costerà 600€ :(
Cmq s'è capito che, quando usciranno gli Oled, vedremo i primi monitor senza cornice :)
BAU++
Cmq s'è capito che, quando usciranno gli Oled, vedremo i primi monitor senza cornice :)
BAU++
bah robetta :D ...io aspetto il primo Oled 5760x1080 :sofico:
:D :D :D
che fai??? scopiazzi i miei interventi precedenti???
cè il copyright?? :D
e cmq quali posto ti ho scopiazzato??se davvero ho scopiazzato, è un caso.
Quotissimo: ATi è nelle mie simpatie (non che odi nVidia, eh?), però non sta nè in cielo nè in terra che la gente debba "per forza" avere case molto spaziosi come HAF e simili perchè loro fanno vga "Rocco edition"
welaa!!
è vero che le vga ATI 5800 non sono definibili propio "low profile" :D , ma dire che ci vuole minimo un' HAF è un'esagerazione.
io ho fatto i conti, e nel mio cooler master 534 c'entra bene una 5850.
ora tocca a te passare la sfera di cristalo.
in questo articolo viene messo in luce solo la poitica ridicola che sta facendo nvidia per salvarsi in calcio d'angolo, visto il successo di HD5000.
in secondo luogo:
sicuramente FERMI andrà almeno un 20% in più di 5870(non dimentichiamoci che anche prendendo in esame questo testo, la 5970 è cmq irraggiungibile), anche perchè è l'unica cosa che può fare nvidia per rientrare nel mercato.
trova le differenze:
con la 5870 giocherai al top sul FULL HD(ci giochi al top anche ora), spendendo 350€ e consumando POCHISSIMO.
con la GTX385(nome ipotetico) giocherai al top sul FULL HD, spendendo 500€, e consumando quanto una centrale atomica(non vedo altre soluzioni visto la dimensione della gpu).
il tutto senza considerare che ad ATI, per mantenere il predominio, basta che operi un leggero taglio dei prezzi, e che inserisca nel mercato la carta "5890", o perfino una 5950.
cosi si manterrebbe al top delle prestazioni, offrendo come al solito il miglior rapporto qualità-prezzo.
scusa ma non capisco proprio questa frase:rolleyes:
nvidia al momento sta presentando una piccola anteprima delle nuove vga, non capisco proprio cosa c'entyra dire che sta cercando di salvarsi in un calcio d'angolo...nvidia non ne ha bisogno, in quanto ora è senza vga, quindi se la proposta verde non soddisfa, le persone che magari stavano attendendo la loro uscite andranno senza problemi ad acquistare ati!
per il momento sono delle preview, nvidia sta dimostrando di cosa sono capaci le loro schede, non vedo come potete dire che non sono veritiere, potrebbe anche essere vero, però a mio parere non lo ritengo giusto che venga criticata per una cosa che ancora non c'è!
abbiate pazienza e vedremo cosà sarà capace di fare quando ci saranno vere e proprie review!:D
io ho fiducia in loro, sicuramente saranno più costose della controparte ati, ma questo credo sia per via di caratteristiche aggiuntive (quali cuda, nvidia 3d surraund), cmq non vedo l'ora di vedere i risultati su carta!
e cmq sia riesci a giocare in fullhd senza problemi anche con una più economica 4890/gtx275, risparmaindo ancora di più, quindi ciò che dici non ha proprio senso....
Pitagora
18-01-2010, 14:32
Ma dai ragazzi, ancora queste storie dei driver Ati mal fatti?
Ad ogni articolo c'è qualcuno che deve uscirne con questa sparata, ovviamente senza averne avuto a che fare da secoli.
No vabbè... Se ci mettiamo pure a dire che sulle ATI il punto forte sono i driver allora possiamo dire tutto ed il contrario di tutto! :)
Non vorrai mica l'elenco puntuale delle problematiche a partire dalle piattaforme non più supportate, ai sistemi operativi mancanti o alla gestione dei chip per portatili, vero?
E non credere che ne sia contento... Mi piacerebbe comprare una ATI, specialmente ora... Ma ho il vizio di settare il vsync attivo forzato su tutte le applicazioni e tenere i monitor fullhd almeno a 60hz... non a 59. ;)
(due piccole provocazioni in base a recenti problematiche con i catalyst, spero sia chiaro il tenore della frase non necessariamente il contenuto ;) )
MarcoAK47
18-01-2010, 14:39
No vabbè... Se ci mettiamo pure a dire che sulle ATI il punto forte sono i driver allora possiamo dire tutto ed il contrario di tutto! :)
Non vorrai mica l'elenco puntuale delle problematiche a partire dalle piattaforme non più supportate, ai sistemi operativi mancanti o alla gestione dei chip per portatili, vero?
E non credere che ne sia contento... Mi piacerebbe comprare una ATI, specialmente ora... Ma ho il vizio di settare il vsync attivo forzato su tutte le applicazioni e tenere i monitor fullhd almeno a 60hz... non a 59. ;)
(due piccole provocazioni in base a recenti problematiche con i catalyst, spero sia chiaro il tenore della frase non necessariamente il contenuto ;) )
In effetti anche io nonostante non sia fan di nessuna delle due case da quando ho avuto una ati HD2600 xt che mi ha fatto tribulare per 2 mesi (poi l'ho buttata :mad: )non mi fido a comprare ati nonostante sappia bene che dalla serie HD3000 in poi di passi avanti ne ha fatti parecchi ;) però ora che ati/amd ha mesi di vantaggio sulla rivale è possibile che moltre software house si appoggino ad ati per sviluppare i propri giochi in dx11, dunque la situazione driver si potrebbe ribaltare :confused:
possibile che fermi abbia un incremento rpestazionale medio del 20-25% rispetto all'ATI? :eek:
assurdo a dir poco...se quello che leggo verra confermato da ulteriori bench che dubito tarderanno ad essere effettuati dalla stessa redazione al momento del lancio il passaggio a fermi mi sembra alquanto obbligatorio!!
Che Fermi vada di più lo auspico anch'io.... resta da vedere però se il 25% in più lo faranno pagare il 100% in più (600 e rotti € contro i 300 e rotti €) o se invece costerà proporzionalmente il 25% in più.... conoscendo nvidia (vedendo quanto OGGI costano ancora le gtx285) sono più propenso ad ipotizzare la prima soluzione... quindi ok... il trono della velocità tornerà a nvidia... ma non se la comprerà nessuno (a parte chi scialacqua denaro per le soluzioni top di gamma)
Pitagora
18-01-2010, 14:41
In effetti anche io nonostante non sia fan di nessuna delle due case da quando ho avuto una ati HD2600 xt che mi ha fatto tribulare per 2 mesi (poi l'ho buttata :mad: )non mi fido a comprare ati nonostante sappia bene che dalla serie HD3000 in poi di passi avanti ne ha fatti parecchi ;) però ora che ati/amd ha mesi di vantaggio sulla rivale è possibile che moltre software house si appoggino ad ati per sviluppare i propri giochi in dx11, dunque la situazione driver si potrebbe ribaltare :confused:
Ecco appunto... e ti garantisco che è quello che speriamo tutti...
Paolo Corsini
18-01-2010, 14:43
Assolutamente daccordo con te, teniamo poi conto che in innumerevoli risposte la stessa redazione ha affermato che è inutile quanto errato confrontare due recensioni diverse (anche con hw simile o uguale) dato che intervengono troppi fattori ad influire sui risultati, questa volta invece va bene pensa te che cambio di rotta :)
Ciao
la considerazione è molto semplice: fornire un seppur minimo metro di paragone. Se non li avessimo inseriti sareste andati a vedere quanto si poteva ottenere con una scheda 5870 con quel tipo di test, lamentandovi che non avevamo inserito un riferimento.
Abbiamo specificato che quei valori sono inseriti come riferimento "as is", e non abbiamo tratto alcun tipo di conclusione in quanto sono risultati non ottenuti da un sistema sotto il nostro controllo. Usare risultati provenienti da recensioni differenti, confrontando valori senza sapere le impostazioni con i quali sono stati ottenuti, e da questo trarre conclusioni è una cosa che abbiamo e che continueremo sempre a criticare.
In questo caso sappiamo che mappa è stata utilizzata da NVIDIA per quel test con Far Cry 2 e che impostazioni; le abbiamo replicate esattamente nel nostro sistema di test. C'è una differenza di approccio sostanziale, e rimarco come da parte nostra non sia stata tratta alcuna conclusione a riguardo delle prestazioni di GF100.
scusa ma non capisco proprio questa frase:rolleyes:
nvidia al momento sta presentando una piccola anteprima delle nuove vga, non capisco proprio cosa c'entyra dire che sta cercando di salvarsi in un calcio d'angolo...nvidia non ne ha bisogno, in quanto ora è senza vga, quindi se la proposta verde non soddisfa, le persone che magari stavano attendendo la loro uscite andranno senza problemi ad acquistare ati!
si è vero, qui si parla di preview.
ma analizza bene la preview, CHE PERFINO AL REDAZIONE NEI PASSI INIZIALI SOTTOLINEAVA COME NON TROPPO ATTENDIBILE.
viene proposto un test con una vga "non ben definita". un UFO dei computers.
un test fatto da nvidia stessa(:D ) su un gioco in cui le nvidia di base sono sempre andate più veloci. un test senza riscontri di terze parti.
della vga non viene mostrato NULLA. ne una foto, ne le specifiche tecniche(per quanto ne sappiamo poteva essere iper-okkata). addirittura non viene dato un prototipo alla redazione per dei test "casalinghi". e qui la redazione si dovrebbe vergognare per aver messo un test palesemente inaffidabile accanto ad uno della 5870, che loro stessi hanno eseguito. QUESTA SI CHIAMA MALAINFORMAZIONE
non sappiamo che tipo di drivers abbiano usato, nè come si comporta su altri giochi.
sappiamo solo che dal test di nvidia, quella vga va un 20/25% in più della 58570 reference.
bella preview... alla CIA passano più informazioni.
No vabbè... Se ci mettiamo pure a dire che sulle ATI il punto forte sono i driver allora possiamo dire tutto ed il contrario di tutto! :)
Non vorrai mica l'elenco puntuale delle problematiche a partire dalle piattaforme non più supportate, ai sistemi operativi mancanti o alla gestione dei chip per portatili, vero?
E non credere che ne sia contento... Mi piacerebbe comprare una ATI, specialmente ora... Ma ho il vizio di settare il vsync attivo forzato su tutte le applicazioni e tenere i monitor fullhd almeno a 60hz... non a 59. ;)
(due piccole provocazioni in base a recenti problematiche con i catalyst, spero sia chiaro il tenore della frase non necessariamente il contenuto ;) )
che strano, a me i drivers ATI hanno sempre funzionato perfettamente. mai un crash, mai problemi in game(neppure sotto OC).
forse perchè COME TUTTE LE COSE, ANCHE I DRIVERS ATI DEVONO SAPER ESSERE USATI PER FUNZIONARE BENE?? :D
Paolo Corsini
18-01-2010, 14:49
Se davvero ci fosse da cambiare il case per montare una gf100 personalmente gliela tirerei nelle gengive.
Ma dalla foto mi pare identica come lunghezza alla 5870.
No, è leggermente più corta. Le dimensioni sono quelle della GTX 285, salvo cambiamenti con la revision che andrà in mass production
Pitagora
18-01-2010, 14:53
che strano, a me i drivers ATI hanno sempre funzionato perfettamente. mai un crash, mai problemi in game(neppure sotto OC).
forse perchè COME TUTTE LE COSE, ANCHE I DRIVERS ATI DEVONO SAPER ESSERE USATI PER FUNZIONARE BENE?? :D
Tu sicuramente, come me, starai tutti i giorni a sistemare i pc di amici/colleghi/parenti che te li scaricano a casa perchè: "non ci funziona più il tasto destro del maus!"... :D
Poi perdonami ma debbo contraddirti... I driver esistono proprio per non essere "USATI" dall'utente... ;)
Paolo Corsini
18-01-2010, 14:55
si è vero, qui si parla di preview.
ma analizza bene la preview, CHE PERFINO AL REDAZIONE NEI PASSI INIZIALI SOTTOLINEAVA COME NON TROPPO ATTENDIBILE.
Ciao
dato che dovrei ricordarmi quello che ho scritto, mi indichi precisamente dove avrei indicato come "non troppo attendibile" quello che è presente in questo articolo?
Fatto ovviamente eccezione per i benchmark della scheda, forniti da NVIDIA e per i quali abbiamo giustamente indicato di dare il giusto peso per quello che sono (quindi molto vicino allo zero, per come la pensiamo). Per la cronaca: è scontato per noi approcciare le cose in questo modo, le si specifica ulteriormente nel testo per evitare che "qualche" utente si faccia prendere la mano.
Paolo Corsini
18-01-2010, 14:58
Ma non doveva avere 2gb di ram la top ??
La Hdmi non è in versione 1.4 ??
Vabè, aspettiamo la primavera per vedere come andrà questo progetto totalmente nuovo... che di certo costerà 600€ :(
Cmq s'è capito che, quando usciranno gli Oled, vedremo i primi monitor senza cornice :)
BAU++
2 Gbytes: con memory controller a 384bit la dotazione di memoria video è di 1,5 Gbytes, oppure 3 Gbytes come limite a seconda della densità dei moduli GDDR5 utilizzati. Dubito fortemente 3 Gbytes su una scheda consumer.
HDMI: non ne abbiamo parlato, e non ho informazioni a riguardo
Prezzo: se hai la lampada di Aladino ti prego di inviarmela; avrei necessità di conoscere i risultati precisi della prossima estrazione del Superenalotto. Grazie.
Pitagora
18-01-2010, 15:00
No, è leggermente più corta. Le dimensioni sono quelle della GTX 285, salvo cambiamenti con la revision che andrà in mass production
Questa, per esempio, per me è una informazione vitale... Uso esclusivamente barebone Shuttle, un centimetro di troppo e mi gioco la possibilità di montare una scheda video...
Paolo, ne approfitto, vi scongiuro di aggiungere sempre le dimensioni delle schede quando le recensite, per me (e forse anche per molti altri) sono importanti più o meno come la quantità di ram che montano o il clock a cui lavorano, e spesso sono informazioni difficilissime da trovare (su modelli specifici) anche in giro per la rete.
Taurus19-T-Rex2
18-01-2010, 15:04
test fake come sempre
ecco cosa fa una 5870 in farcry2
http://www.xtremeshack.com/immagine/i42592_1.jpg
Sammy Jankis
18-01-2010, 15:10
Prezzo: se hai la lampada di Aladino ti prego di inviarmela; avrei necessità di conoscere i risultati precisi della prossima estrazione del Superenalotto. Grazie.
Sbaglio o in questa parte del tuo intervento leggo una vena polemica non proprio da redattore ma più da utente nvidia ? Non ricordo altri casi in cui vi siate presi la briga di ribattere alle supposizioni (che anche io non prendo in considerazione) sui prezzi di un prodotto in uscita ?
Ciao
la considerazione è molto semplice: fornire un seppur minimo metro di paragone. Se non li avessimo inseriti sareste andati a vedere quanto si poteva ottenere con una scheda 5870 con quel tipo di test, lamentandovi che non avevamo inserito un riferimento.
Abbiamo specificato che quei valori sono inseriti come riferimento "as is", e non abbiamo tratto alcun tipo di conclusione in quanto sono risultati non ottenuti da un sistema sotto il nostro controllo. Usare risultati provenienti da recensioni differenti, confrontando valori senza sapere le impostazioni con i quali sono stati ottenuti, e da questo trarre conclusioni è una cosa che abbiamo e che continueremo sempre a criticare.
In questo caso sappiamo che mappa è stata utilizzata da NVIDIA per quel test con Far Cry 2 e che impostazioni; le abbiamo replicate esattamente nel nostro sistema di test. C'è una differenza di approccio sostanziale, e rimarco come da parte nostra non sia stata tratta alcuna conclusione a riguardo delle prestazioni di GF100.
Ma con la gtx285 avete avuto risultati inferiori rispetto a quella provata nel test della gt100?
prestazioni nvidia vs HWU: 50:44 con 285 (medi)
Se Fermi = 84 per nvidia --> x HWU= 73
cioè il 29% in più e non il 47%
considerando che poi è un gioco ottimizzato per nvidia (intel docet) non si può dire nulla.
ennesimo paperlaunch e vaporware
Paolo Corsini
18-01-2010, 15:20
Sbaglio o in questa parte del tuo intervento leggo una vena polemica non proprio da redattore ma più da utente nvidia ? Non ricordo altri casi in cui vi siate presi la briga di ribattere alle supposizioni (che anche io non prendo in considerazione) sui prezzi di un prodotto in uscita ?
Ciao
tu ci vedi una vena polemica, io ci leggo un po' di ironia per sdrammatizzare.
Faccio questo mestiere da ben più di un lustro, e di commenti credo di averne letti tanti in vita mia. In genere rispondo sempre con ironia a chi pensa di avere la verità in tasca
"che di certo costerà 600€"
La cosa più divertente è che non c'è alcun tipo di indicazione sul costo di queste schede, anche perché non si sa al momento quali versioni debutteranno sul mercato e quando.
A prescindere un'uscita come quella era da evitare; sarebbe bastato leggere il nostro pezzo o uno degli altri usciti oggi. Poi se uno ha la verità in tasca, che mi dia i numeri del Superenalotto: il ricavato tutto in beneficienza.
Per il lavoro che faccio, e anche per come sono come persona, non ho proprio interesse a patteggiare per una o per l'altra parte. Io patteggio per l'innovazione tecnologica, se possibile accessibile a tutte le tasche: per questo, e solo per questo, sono estremanente di parte e mi auguro con questo approccio di fare l'interesse dei miei lettori. Delle guerre tra aziende sono un osservatore dall'esterno, di certo per via della mia professione in una posizione migliore rispetto a quella degli utenti appassionati, ma vivo la cosa da fuori.
Paolo Corsini
18-01-2010, 15:22
prestazioni nvidia vs HWU: 50:44 con 285 (medi)
Se Fermi = 84 per nvidia --> x HWU= 73
cioè il 29% in più e non il 47%
considerando che poi è un gioco ottimizzato per nvidia (intel docet) non si può dire nulla.
ennesimo paperlaunch e vaporware
Francamente ci andrei cauto a fare le proporzioni, anche se a rigor di logica il tuo approccio non è sbagliato.
La cosa migliora è aspettare penso i primi di Marzo e vedere test con la scheda fatti di persona.
Taurus19-T-Rex2
18-01-2010, 15:23
Ciao
tu ci vedi una vena polemica, io ci leggo un po' di ironia per sdrammatizzare.
Faccio questo mestiere da ben più di un lustro, e di commenti credo di averne letti tanti in vita mia. In genere rispondo sempre con ironia a chi pensa di avere la verità in tasca
"che di certo costerà 600€"
La cosa più divertente è che non c'è alcun tipo di indicazione sul costo di queste schede, anche perché non si sa al momento quali versioni debutteranno sul mercato e quando.
A prescindere un'uscita come quella era da evitare; sarebbe bastato leggere il nostro pezzo o uno degli altri usciti oggi. Poi se uno ha la verità in tasca, che mi dia i numeri del Superenalotto: il ricavato tutto in beneficienza.
Per il lavoro che faccio, e anche per come sono come persona, non ho proprio interesse a patteggiare per una o per l'altra parte. Io patteggio per l'innovazione tecnologica, se possibile accessibile a tutte le tasche: per questo, e solo per questo, sono estremanente di parte e mi auguro con questo approccio di fare l'interesse dei miei lettori. Delle guerre tra aziende sono un osservatore dall'esterno, di certo per via della mia professione in una posizione migliore rispetto a quella degli utenti appassionati, ma vivo la cosa da fuori.
perchè i test sulla 5870 sono falsati?
Non mi sentirei di criticare la redazione per quanto pubblicato... In fondo si sono sforzati di dare un seppur minimo e inattendibile metro di paragone per capire di cosa stiamo parlando dopo che quest'oggetto mistico e misterioso (Fermi) è stato per mesi sulla bocca di tutti senza la minima vaga idea di cosa si stesse parlando.
Ovviamente sono sicuro che Corsini & Co. sapessero benissimo, prima della pubblicazione che si sarebbero messi in acque torbide e si sarebbero esposti agli attacchi di vari utenti per questo articolo. Hanno cercato di tutelarsi rimarcando più volte l'inattendibilità e faziosità dei test e non esprimendo commenti finali, ma evidentemente non è bastato...
Personalmente ho apprezzato il tentativo da parte della redazione di offrire un "valore aggiunto" ai dati attualmente disponibili tentando una elaborazione dei dati in loro possesso, oltre che a una semplice e asettica enunciazione.
Fermo restando le premesse di cui sopra, è evidente che sia il test di far cry, sia (E QUESTO POCHI L'HANNO DETTO) le slide nvidia con le percentuali vs ati siano nel dettaglio del tutto inaffidabili e lasciano il tempo che trovano... pur lasciando intuire ma non apprezzare ne quantificare una vaga superiorità generale di fermi vs HD5000 dal punto di visa meramente prestazionale.
Più che questa precaria e vaga superiorità prestazionale di Fermi, ci terrei a demarcare altri due aspetti decisamente più significativi:
1) Nvidia ha rilasciato dati tecnici anche molto specifici e dettagliati sull'architettura e sulle features implementate, mentre non quantifica 2 aspetti quali frequenze e numeri di SP; questa cosa è molto indicativa e denota grossi, anzi grossissimi problemi di produzione dell'architettura tanto minuziosamente sviscerata su carta in questo articolo. E' evidente che non sanno ancora neanche loro a che frequenze e con quanti stream processor riusciranno a proporre il prodotto sul mercato date le enormi difficoltà di avere una produzione su scala con rese omogenee.
2) Totale mancanza di test su consumo e temperature d'esercizio, e mancato accenno persino nelle slide pro-nvidia di elogi riguardanti il rapporto performance/watt di queste schede (invece estremamente rimarcate da Ati). Questa mancanza, unita alla recente presentazione al CES di schede Fermi sotto liquido, determina in maniere lampante l'eccessivo consumo e surriscaldamento all'atto pratico del chip, nonostante il processo a 40nm.
Considerazioni generali e personali:
In fondo tutti ci aspettiamo che a livello di performance GF100 sia avanti alle HD5000, vuoi per la complessità del chip o vuoi il forte divario temporale con il quale verranno commercializzate le 2 proposte. Nonostante ciò, pare che Nvidia dopo il successo indiscusso della serie HD4000 abbia voluto tentare il colpo grosso, cercando di progettare una architettura che sapesse dare un netto distacco ad Ati come fu al tempo del G80; tuttavia è ormai evidente (e non saranno 2 fragili slide by Nvidia a riuscire a celarlo) che la casa verde abbia fatto il passo più lungo della gamba finendo in un mare di guai dal quale difficilmente riuscirà a riprendersi presto salvo l'aiuto del progresso tecnologico che con un processo produttivo più piccolo e/o affidabile potrebbe dare giustizia a un progetto (Fermi) teoricamente buono su carta ma che vede evidenti problemi e limitazione nella costruzione pratica.
[VOGLIO GLI APPLAUSI PER IL DISCORSO :D]
quando NON hai una scheda video FINITA e pronta per la produzione...
come fai a darla in mano ai giornalisti? non ce l'hai in mano neanche lei!!!
Mirshann
18-01-2010, 15:30
In effetti anche io nonostante non sia fan di nessuna delle due case da quando ho avuto una ati HD2600 xt che mi ha fatto tribulare per 2 mesi (poi l'ho buttata :mad: )non mi fido a comprare ati nonostante sappia bene che dalla serie HD3000 in poi di passi avanti ne ha fatti parecchi ;) però ora che ati/amd ha mesi di vantaggio sulla rivale è possibile che moltre software house si appoggino ad ati per sviluppare i propri giochi in dx11, dunque la situazione driver si potrebbe ribaltare :confused:
Per la parte in grassetto invito a visitare questo link: Cliccami (http://game.amd.com/us-en/play_games.aspx)
Come vedi i giochi che si appoggiano ad ATI ultimamente sono aumentati, ma a differenza della contro parte, le Software House non sono obbligate a mettere il "twimtbp" ad inizio gioco...quindi la gente neanche lo viene a sapere...
la cosa più bella di questo 3d sono i rossi che minimizzano in ogni modo ogni cosa xD
mai come i verdi che si esaltano per 1 bench palesemente inaffidabile :) (visto che non sappiamo frequenze e numero degli shader)
Francamente ci andrei cauto a fare le proporzioni, anche se a rigor di logica il tuo approccio non è sbagliato.
La cosa migliora è aspettare penso i primi di Marzo e vedere test con la scheda fatti di persona.
Avete avuto modo di verificare la resa del nuovo FSAA, che mi sembra una delle novità più interessanti? Nel senso dall'articolo si percepisce una migliore pulizia soprattutto con parti come erba, capelli, reti il che non è poco visto che spesso stonano con il resto.
Francamente ci andrei cauto a fare le proporzioni, anche se a rigor di logica il tuo approccio non è sbagliato.
La cosa migliora è aspettare penso i primi di Marzo e vedere test con la scheda fatti di persona.
Grazie per la correttezza dell'approccio. Ovvio il discorso reale su schede vere. Prova ne è il valore della 285, molto lontano dal vostro.
Io sto scrivendo una review di 35 articoli sperimentali e ti assicuro che questi approcci sono all'ordine del giorno. Discorso diverso sono le conclusioni, c'è chi ammette ok il nostro lavoro non so perchè è diverso da tutti e chi invece dice no, il nostro risultato è cosi (non guarda gli altri) e la conclusione è che X va meglio di Y.
Lunar Wolf
18-01-2010, 15:32
test fake come sempre
ecco cosa fa una 5870 in farcry2
http://www.xtremeshack.com/immagine/i42592_1.jpg
Hai fatto tu il test?
Se fosse cosi, scusate il termine, qui nvidia oltre a prendere per i coglioni noi, ha scherzato pure con questa redazione, cioè Corsini & Co.
Possibile che registri un fps max di 143.82 contro quelli forniti da nVidia di soli 87.3???
Cioe, facendo due calcoli son 56fps in meno...bah.
Per il resto noto anche che questa scheda pur essendo single gpu ha un connettore da 6pin + 8pin quindi si puo confermare l'ipotesi che non consumera meno di una 5870 ma la curiosita c'è è come.
C'è da dire che era del tutto normale una cosa del genere. queste schede potevano uscir gia prima ma nvidia non aveva calcolato il DX11 ed infatti alla prima intervista han dichiarato che fermi non supportera le api 11 ma invece dopo ridiche avra pieno supporto alle directx 11 via HW ma anche SW allora ecco che qui ritarda di far uscire i suoi chip per ottimizzare l'architettura e migliorare supporto e driver per i nuovi titoli, cosa che ati fara con la prossima serie di gpu. Se ati avrebbe fatto la stessa cosa credo che pure lei ci avrebbe dato info in piu, che tutto cio rimane ancora da verificare...visto che qui un utente ha registrato valori ben piu alti di quelli dichiarati!
la cosa più bella di questo 3d sono i rossi che minimizzano in ogni modo ogni cosa xD
:asd:
li vedo preoccupati...
scherzo :fagiano:
Sammy Jankis
18-01-2010, 15:35
Ciao
tu ci vedi una vena polemica, io ci leggo un po' di ironia per sdrammatizzare.
Faccio questo mestiere da ben più di un lustro, e di commenti credo di averne letti tanti in vita mia. In genere rispondo sempre con ironia a chi pensa di avere la verità in tasca
"che di certo costerà 600€"
La cosa più divertente è che non c'è alcun tipo di indicazione sul costo di queste schede, anche perché non si sa al momento quali versioni debutteranno sul mercato e quando.
A prescindere un'uscita come quella era da evitare; sarebbe bastato leggere il nostro pezzo o uno degli altri usciti oggi. Poi se uno ha la verità in tasca, che mi dia i numeri del Superenalotto: il ricavato tutto in beneficienza.
Per il lavoro che faccio, e anche per come sono come persona, non ho proprio interesse a patteggiare per una o per l'altra parte. Io patteggio per l'innovazione tecnologica, se possibile accessibile a tutte le tasche: per questo, e solo per questo, sono estremanente di parte e mi auguro con questo approccio di fare l'interesse dei miei lettori. Delle guerre tra aziende sono un osservatore dall'esterno, di certo per via della mia professione in una posizione migliore rispetto a quella degli utenti appassionati, ma vivo la cosa da fuori.
Come al solito ti mostri disponibile nel rispondere alle domandedi tutti (anche se volutamente maligne), mi trovi in pieno accordo sulla considerazione di chi prevede prezzi, ti lancio l'ultima provocazione chiedendoti un piacere personale: alla prima recensione o articolo su schede ATI ti va di rispondere con una battuta al primo che se ne esce con il classico "peccato che non sanno fare i driver", noi poveri Atiisti ti saremmo grati in eterno :)
Grazie e buon lavoro.
Sammy Jankis
18-01-2010, 15:37
la cosa più bella di questo 3d sono i rossi che minimizzano in ogni modo ogni cosa xD
A massimizzare prezzi e consumi di solito ci pensa nvidia.....
anche le prestazioni dai.....
si scherza :D
Non è auspicabile che queste schede escano con un prezzo intorno ai 600 €.
Non è di buon auspicio per nessuno tranne che per AMD/ATI.
I clienti tutti sarebbero i primi a pagarne letteralmente le conseguenze.
nVidia d'altro canto e con quel prezzo lì uscirebbe dal mercao dei videogiochi seduta stante indipendentemente dalla potenza/prestazioni offerte dall'architettura FERMI.
La fascia HighEnd, vorrei ricordare, parte da prezzi intorno a 200 € e si estende fino al massimo a 400 € (uscendone con le ossa rotte comunque).
600 € non è più fascia rivolta agli appassionati, o meglio non solo appassionati; ma appassionati+grana (molta moltissima grana da scialacquare e sperperare).
Con l'enorme punto in sospeso poi che effettivamente ci sia modo di farle andare a pieno sfogo nell'uso pratico. E nel mondo videoludico... quando butto un occhio al mercato di traino costuituito dalle console mi preoccupo.
Io non ci credo che queste schede costeranno 600 euro, altrimenti mi tocca pensare che alla nVidia siano FESSI e dei pessimi aziendalisti, oltre a saper giocare sporco certe volte. Suicida fino a questo punto??? Mi rifiuto di crederci.
Per quel che riuarda i test, li prendo per quello che sono; e cioè dei test fatti da nVidia (che non posso ritenere imparziale) e senza materiale a disposizione (il che è una cosa non da poco).
A massimizzare prezzi e consumi di solito ci pensa nvidia.....
anche le prestazioni dai.....
si scherza :D
Beh io cerco di massimizzare le prestazioni/€
Non è auspicabile che queste schede escano con un prezzo intorno ai 600 €.
Non è di buon auspicio per nessuno tranne che per AMD/ATI.
I clienti tutti sarebbero i primi a pagarne letteralmente le conseguenze.
nVidia d'altro canto e con quel prezzo lì uscirebbe dal mercao dei videogiochi seduta stante indipendentemente dalla potenza/prestazioni offerte dall'architettura FERMI.
La fascia HighEnd, vorrei ricordare, parte da prezzi intorno a 200 € e si estende fino al massimo a 400 € (uscendone con le ossa rotte comunque).
600 € non è più fascia rivolta agli appassionati, o meglio non solo appassionati; ma appassionati+grana (molta moltissima grana da scialacquare e sperperare).
Con l'enorme punto in sospeso poi che effettivamente ci sia modo di farle andare a pieno sfogo nell'uso pratico. E nel mondo videoludico... quando butto un occhio al mercato di traino costuituito dalle console mi preoccupo.
Io non ci credo che queste schede costeranno 600 euro, altrimenti mi tocca pensare che alla nVidia siano FESSI e dei pessimi aziendalisti, oltre a saper giocare sporco certe volte. Suicida fino a questo punto??? Mi rifiuto di crederci.
Per quel che riuarda i test, li prendo per quello che sono; e cioè dei test fatti da nVidia (che non posso ritenere imparziale) e senza materiale a disposizione (il che è una cosa non da poco).
Un wafer 300mm TSMC costa 10000 dollari. Su un wafer ci vanno 104 die Fermi. Quindi, se lo yield fosse del 100% (impossibile), un die costerebbe circa 100 dollari. Stime danno lo yield massimo che potrebbe ottenere NVidia pari al 40%. Ciò si traduce in un costo di 250$ per die, medio. Mettiamoci il packaging, la scheda, i chip di memoria, i cavi, il bundle e il guadagno di tutta la catena... Credo che averla a meno di 500$ sia impossibile.
ghiltanas
18-01-2010, 15:57
Un wafer 300mm TSMC costa 10000 dollari. Su un wafer ci vanno 104 die Fermi. Quindi, se lo yield fosse del 100% (impossibile), un die costerebbe circa 100 dollari. Stime danno lo yield massimo che potrebbe ottenere NVidia pari al 40%. Ciò si traduce in un costo di 250$ per die, medio. Mettiamoci il packaging, la scheda, i chip di memoria, i cavi, il bundle e il guadagno di tutta la catena... Credo che averla a meno di 500$ sia impossibile.
le voci indicano 88 gpu per wafer, con resa intorno al 20%; costo di una gpu 200-250 dollari
http://www.onehardware.it/14/01/2010/la-gpu-fermi-di-nvidia-sara-molto-costosa/
Paolo Corsini
18-01-2010, 16:01
perchè i test sulla 5870 sono falsati?
perché non lo sono, molto semplice.
Se me lo permettete, non capisco il senso di queste domande. Se una persona pensa che i test siano "falsati", come se ci svegliassimo la mattina sparando numeri a caso, qualsiasi risposta io possa dare (prescindendo dal fatto che non capisco proprio la domanda) agli occhi di chi pensa che pubblico benchmark "falsati" sarà a prescindere insufficiente.
Quindi: perché postare in questo modo?
ennesima pagliacciata... foto inesistenti, test su far cry 2 in dx9 (:confused: ) e nessun parere su consumi e prestazioni reali... sapere che in fc2 guadagna bene ad alte risoluzioni non mi dice gran che...
Paolo Corsini
18-01-2010, 16:02
Avete avuto modo di verificare la resa del nuovo FSAA, che mi sembra una delle novità più interessanti? Nel senso dall'articolo si percepisce una migliore pulizia soprattutto con parti come erba, capelli, reti il che non è poco visto che spesso stonano con il resto.
Ciao,
è sicuramente una delle cose che più m'interessa verificare appena avrò la shceda a disposizione (non credo prima di 1 mese, onestamente). Quello che ho potuto verificare è sulle slide d'invidia; niente in prima battuta (non ci è stato permesso di mettere mano al sistema)
paolo visto che stai bazzicando i commenti ti chiedo un parere: non era meglio separare i due grafici? lasciare quello fornito da nvidia e poi riportare in un altro grafico le vostre prove con le schede ati? parlo proprio da un punto di vista giornalistico: quel grafico (anche se sotto ci sono tutte le precisazioni del caso) è decisamente fuorviante
halduemilauno
18-01-2010, 16:07
Un wafer 300mm TSMC costa 10000 dollari. Su un wafer ci vanno 104 die Fermi. Quindi, se lo yield fosse del 100% (impossibile), un die costerebbe circa 100 dollari. Stime danno lo yield massimo che potrebbe ottenere NVidia pari al 40%. Ciò si traduce in un costo di 250$ per die, medio. Mettiamoci il packaging, la scheda, i chip di memoria, i cavi, il bundle e il guadagno di tutta la catena... Credo che averla a meno di 500$ sia impossibile.
le voci indicano 88 gpu per wafer, con resa intorno al 20%; costo di una gpu 200-250 dollari
http://www.onehardware.it/14/01/2010/la-gpu-fermi-di-nvidia-sara-molto-costosa/
un'altra fonte(solitamente ben informata)ha detto 130 chip per waffer e con la resa attuale 150$ a chip. e dice che il prezzo finale starà tra i 499$ e i 549$.
http://www.brightsideofnews.com/news/2010/1/18/nvidia-gf100-architecture-alea-iacta-est.aspx
ghiltanas
18-01-2010, 16:08
un'altra fonte(solitamente ben informata)ha detto 130 chip per waffer e con la resa attuale 150$ a chip. e dice che il prezzo finale starà tra i 499$ e i 549$.
http://www.brightsideofnews.com/news/2010/1/18/nvidia-gf100-architecture-alea-iacta-est.aspx
cacchiarola...una cifra cmq troppo elevata..
cè il copyright?? :D
e cmq quali posto ti ho scopiazzato??se davvero ho scopiazzato, è un caso.
è lo sò che è un caso....anzi lo spero :D :D :D
diciamo che a grandi linee...hai espresso ciò che penso e ho scritto con altre parole ;)
ciò che conta...è che Nvidia ed Ati si facciano concorrenza, per l'innovazione e per i prezzi da applicare a noi (poveri) consumatori :p
le voci indicano 88 gpu per wafer, con resa intorno al 20%; costo di una gpu 200-250 dollari
http://www.onehardware.it/14/01/2010/la-gpu-fermi-di-nvidia-sara-molto-costosa/
18 GPU funzionanti per wafer, a 250$ l'una, vuol dire che un wafer costa meno di 5000$? Mi sembra poco.
Comunque se AMD con 175 die per wafer (circa il doppio) anche avesse uno yield doppio (dovrebbe essere così ), si avrebbero circa 70 die per wafer con un costo di 50-75$ per die. Considerando che solo il die costa il quadruplo, ma il resto della scheda dovrebbe costare lo stesso, si può ipotizzare un costo compreso tra il doppio e il triplo della 5870... 600 euro è una stima plausibile.
Paolo Corsini
18-01-2010, 16:12
Come al solito ti mostri disponibile nel rispondere alle domandedi tutti (anche se volutamente maligne), mi trovi in pieno accordo sulla considerazione di chi prevede prezzi, ti lancio l'ultima provocazione chiedendoti un piacere personale: alla prima recensione o articolo su schede ATI ti va di rispondere con una battuta al primo che se ne esce con il classico "peccato che non sanno fare i driver", noi poveri Atiisti ti saremmo grati in eterno :)
Grazie e buon lavoro.
Ciao
sono buon amico di Terry Makedon, che ho rivisto 2 settimane fa al CES. Terry è "Mr Catalyst", cioè colui che in ATi prima e in AMD ora segue tutto il progetto dei driver Catalyst.
Se riportassi a lui 1/100 dei discorsi sui driver ATI immaturi credo si farebbe una sonora risata. L'ottimizzazione dei driver è un processo continuo, che riguarda tutti: ATI e NVIDIA lavorano al proprio interno incessantemente per migliorare questi componenti e renderli il più possibile performanti con le proprie soluzioni.
Mi auguro di aver posto la parola fine su questo tema.
...diciamo anche che Fermi mantenga tutte le promesse. Sono ancora parecchie le incognite sul suo futuro come soluzione per vg.
Innanzitutto per sfruttarne massicciamente le prestazioni occorrono giochi pensati e scritti per implementare effetti di fisica particellare e tessellatore, con un buon bilanciamento nel carico dinamico fra i due impieghi della potenza di calcolo (tre se consideriamo anche la mera grafica).
Si tratterebbe poi di giochi dedicati alla piattaforma PC o di versioni enhanced di giochi per console, magari arricchite sulla base di engine classe dx9.
In secondo luogo il numero di schede vendute nei primi mesi sarà comunque troppo basso (disponibilità, costi e consumi elettrici - cambiare l'alimentatore per una scheda così è necessario) per orientare immediatamente le case produttrici di vg: è l'antico dilemma fra ampliare la platea di possibili utenti (la media sarà realisticamente una GPU di classe Juniper/GT200, con quote minori di Cypress e un minimo percentuale di Fermi) o produrre qualcosa che non gira in modo decente sulla maggioranza del parco macchine.
Sicuramente è una piattaforma che anticipa o tenta di anticipare una visione del futuro, che spinge molto su tecnologie proprietarie e che, nonostante ciò, rappresenta un passo estremamente rischioso per NV in ambito gaming.
Xbox 720 sarà basato su hw ati e Xbox 360 ha una GPU red anch'essa = la massa dei giochi saranno conversione da piattaforma hw concorrente.
Infine, c'è il discorso delle versioni mainstream, che fanno i numeri e, quindi, orientano i produttori di vg: per ora non se ne sa nulla, ma è scontato dire che la misura delle prestazioni da avere per i giochi prossimi venturi verrà fissata da una eventuale versione mainstream di vga NV basata su Fermi, da contrapporsi ad un mercato già presidiato da milioni di Juniper e Cypress.
halduemilauno
18-01-2010, 16:13
ennesima pagliacciata... foto inesistenti, test su far cry 2 in dx9 (:confused: ) e nessun parere su consumi e prestazioni reali... sapere che in fc2 guadagna bene ad alte risoluzioni non mi dice gran che...
veramente è in dx10.
Paolo Corsini
18-01-2010, 16:16
paolo visto che stai bazzicando i commenti ti chiedo un parere: non era meglio separare i due grafici? lasciare quello fornito da nvidia e poi riportare in un altro grafico le vostre prove con le schede ati? parlo proprio da un punto di vista giornalistico: quel grafico (anche se sotto ci sono tutte le precisazioni del caso) è decisamente fuorviante
Ciao
a me non sembra fuorviante, francamente; basta leggere il commento. Del resto se avessi messo due grafici separati, sarebbe comunque stato necessario leggere il commento per capire come si era arrivati a quei numeri.
A questo punto la domanda sorge spontanea: ma qualcuno questi benedetti commenti ai grafici li legge, o tutti "nascono imparati"?
un'altra fonte(solitamente ben informata)ha detto 130 chip per waffer e con la resa attuale 150$ a chip. e dice che il prezzo finale starà tra i 499$ e i 549$.
http://www.brightsideofnews.com/news/2010/1/18/nvidia-gf100-architecture-alea-iacta-est.aspx
I calcoli sono un po' ottimistici:
24x23.8 mm sono 571.2 mm^2
Senza considerare lo sfrido, su un wafer da 300mm ci stanno:
150*150/pi/571.2 = 123.7 die. Togli lo sfrido e alcuni decimi di mm per il taglio su ogni lato e sono sicurmente meno di 120 e non 130.
Anzi facciamo un conto: supponiamo che il chip sia 23.8x23.8. Ci vanno massimo 12 chip (12.6). 12x12 fa 144, ma il wafer non è quadrato. Dobbiamo dividere per 4 e moltiplicare per pi. Sono al più 113 die per wafer.
113 die/wafer, al 25% (che sembra ottimistico) sono 28 die/wafer
Nel sito si ipotizza che un wafer costa 38*130, circa 5000$
5000/28 sono circa 178$.
Accettando per vere le loro ipotesi, comunque ottengo un valore leggermente superiore.
Giusto per essere pignolo. ;)
@paolo: grazie per la risposta, è evidente che a riguardo la pensiamo in maniera diversa :)
Sammy Jankis
18-01-2010, 16:26
Ciao
sono buon amico di Terry Makedon, che ho rivisto 2 settimane fa al CES. Terry è "Mr Catalyst", cioè colui che in ATi prima e in AMD ora segue tutto il progetto dei driver Catalyst.
Se riportassi a lui 1/100 dei discorsi sui driver ATI immaturi credo si farebbe una sonora risata. L'ottimizzazione dei driver è un processo continuo, che riguarda tutti: ATI e NVIDIA lavorano al proprio interno incessantemente per migliorare questi componenti e renderli il più possibile performanti con le proprie soluzioni.
Mi auguro di aver posto la parola fine su questo tema.
OT: Posso mettere il tuo post in firma ? La tua speranza rimarrà tale....temo.
Obelix-it
18-01-2010, 16:30
Ciao
a me non sembra fuorviante, francamente; basta leggere il commento. Del resto se avessi messo due grafici separati, sarebbe comunque stato necessario leggere il commento per capire come si era arrivati a quei numeri.
Paolo, francamente: io ho guardato il grafico e la prima cosa che ho pensato, anche avendo letto il testo, e' che fossero tutti dati forniti da NV.
Del, resto, a pagina 8, non e' scritto chiaramente che i dati ATI li avete forniti voi (anche perche' nel grafico manca il riferimento 285 rilevato), diciamo che lo si capisce chiaramente se lo si sa.
Messo cosi' il grafico e' , oggettivamente, fuorviante. Quando ne guard ouno mi aspetto che idati siano omogenei, non provenienti da fonti diverse, proprio per avere un rapporto immediato.
IMHO, meglio sarebbe stato, come ha detto Giullo, due grafici, uno sopra con i dati fonriti da nVidia, l'altro sotto coi dati da voi rilevati e la spiegazione (bastava una riga nel titolo -> Dati ricevuti da nVidia -> Dati rilevati dalla redazione, fin li sappiamo tutti leggere... :D )
A questo punto la domanda sorge spontanea: ma qualcuno questi benedetti commenti ai grafici li legge, o tutti "nascono imparati"?
Beh, visto che "un grafico vale 1000 parole" [(c) con licenza], direi che a colpo d'occhio vale molto piu' il grafico che i caratteri piccoli.
darios81
18-01-2010, 16:31
Ciao
a me non sembra fuorviante, francamente; basta leggere il commento. Del resto se avessi messo due grafici separati, sarebbe comunque stato necessario leggere il commento per capire come si era arrivati a quei numeri.
A questo punto la domanda sorge spontanea: ma qualcuno questi benedetti commenti ai grafici li legge, o tutti "nascono imparati"?
Ma a fine articolo non hai detto chiaramente che i test con la GTX285 era inferiori rispetto ai test fatti da NVIDIA si un 10 - 15%.
Non mi sembra ci sia tanto da discutere, evidentemente il test di NVidia e' fatto appositamente per mette in risalto le caratteristiche della nuova architettura, introducendo qualcosa che permetta un overboost delle prestazioni.
Un po' come il benchmarck futuremark che produceva risultati fuorvianti con certi driver.
Aprile sara' il mese della verita' anche se onestamente per ora non se ne sente il bisogno di tutta questa potenza potenziale!!! ( bel gioco di parole)
un'altra fonte(solitamente ben informata)ha detto 130 chip per waffer e con la resa attuale 150$ a chip. e dice che il prezzo finale starà tra i 499$ e i 549$.
se va un 25/30% in più di una 5870, già conviene quest'ultima a quelle cifre, se poi AMD abbassa i prezzi (permettendoselo visto il minor costo produttivo) quale persona dotata di raziocinio, se le compra le Fermi?
purtroppo si aspetta e si spera qualcosa che ancora non ha solidità concreta...
....ovviamente sentir parlare sempre di ATI ha un non so che di monotono....
ma cosa volete farci?...
...sembra che tutto abbia un aura particolare....
....disquisizioni architetturali su dati parziali...
....speranze di fun....
...il sottile confine tra reale ed irreale non si conosce piu'...
...chiacchere da bar su chiacchere da bar per la felicità di chi aspetta il nuovo messiah...
...e noi aspetteremo...
Obelix-it
18-01-2010, 16:36
E, en passant mi chiedo: anche ammettendo che Fermi sia il 'mostro' di caratteristiche che la 'velina' di nVidia suggerisce, come potra' questo chip da solo risollevare le sorti di nVidia stessa??
Al momento, mi sembra che piu' o meno su tutta la linea siano 'outperformed' dalle ATI, riconquistare (posto che lo abbiano perso...) il titolo di "scheda singola piu' veloce dell'universo" al di la' del titolo onorifico, come fara ad invertire quello che sembra un trend arrembante di ATI??
Non mi pare che nelle fasce basse e medio/basse nVidia sia in grado di opporsi validamente ad ATI ne' al livello prezzo ne' a livello prestazioni, e sappiamo che i veri $$$ si fanno li', non di certo con le top di gamma....
darios81
18-01-2010, 16:37
Ciao
sono buon amico di Terry Makedon, che ho rivisto 2 settimane fa al CES. Terry è "Mr Catalyst", cioè colui che in ATi prima e in AMD ora segue tutto il progetto dei driver Catalyst.
Se riportassi a lui 1/100 dei discorsi sui driver ATI immaturi credo si farebbe una sonora risata. L'ottimizzazione dei driver è un processo continuo, che riguarda tutti: ATI e NVIDIA lavorano al proprio interno incessantemente per migliorare questi componenti e renderli il più possibile performanti con le proprie soluzioni.
Mi auguro di aver posto la parola fine su questo tema.
Perdonami ma cosi' generalizzi un tantino il mondo della programmazione.
Puo' anche darsi che Nvidia abbia un piano(planning di sviluppo dei driver) e un team che lavora sui driver molto piu efficente di quello ATI.
Ehi , vedete che sono possessore ATI, parlo solo per non generalizzare un discorso.Nel mondo ci sono persone dotate e altre meno.Puo' anche essere che Nvidia abbia la fortuna che tra il team che progetta i driver ci sia qualche genio della programmazione.
E, en passant mi chiedo: anche ammettendo che Fermi sia il 'mostro' di caratteristiche che la 'velina' di nVidia suggerisce, come potra' questo chip da solo risollevare le sorti di nVidia stessa??
Al momento, mi sembra che piu' o meno su tutta la linea siano 'outperformed' dalle ATI, riconquistare (posto che lo abbiano perso...) il titolo di "scheda singola piu' veloce dell'universo" al di la' del titolo onorifico, come fara ad invertire quello che sembra un trend arrembante di ATI??
i $$$ infatti si fanno con le quote di mercato, senza necessariamente avere la scheda single più veloce (ma anche la più costosa da produrre) del mondo
Obelix-it
18-01-2010, 16:44
se va un 25/30% in più di una 5870, già conviene quest'ultima a quelle cifre, se poi AMD abbassa i prezzi (permettendoselo visto il minor costo produttivo) quale persona dotata di raziocinio, se le compra le Fermi?
Mi chiedo perche' mai ATI dovrebbe abbassare i prezzi per quello che Fermi sembra dare: se come appare, offre il 25% inpiu' (ma famo pure il 40%) ma costa il doppio e consuma tanto, ATI e' ancora in un notevole vantaggio nel rapporto prezzo/prestazione, per cui puo' permettersi perfino di snobbarla, o semplicemente, di produrre una 5850x2 e stare a guardare....
E' vero che non abbiamo idea del prezzo a cui uscira' la scheda, ma in base alle dimensioni dei die si possono ipotizzare rese produttive e consumi: e con un die praticamente doppio di quello ATI, il costo base lievitera' ben oltre il doppio di quello ATI (La resanon e' lineare, raddoppiandio le dimensioni cala......)
Oltretutto, la netta impressione e' che ATI abbia piu' margine di nVidia, ene stia approfittando per ricavare utile in abbondanza.
Perdonami ma cosi' generalizzi un tantino il mondo della programmazione.
Puo' anche darsi che Nvidia abbia un piano(planning di sviluppo dei driver) e un team che lavora sui driver molto piu efficente di quello ATI.
Ehi , vedete che sono possessore ATI, parlo solo per non generalizzare un discorso.Nel mondo ci sono persone dotate e altre meno.Puo' anche essere che Nvidia abbia la fortuna che tra il team che progetta i driver ci sia qualche genio della programmazione.
Bho io continuo a non avere problemi con Ati, e sono su Note con driver forniti da Samsung, quindi non certo l'ultimo aggiornamento (ora sono i 9.9).
Detto questo il risultato dipende da troppe cose, una volta, ai tempi di ID e Doom3 Nvidia aveva un notevole vantaggio in opengl, e quello era un dato evidente, oggi imho si equivalgono, dipende sostanzialmente dal gioco, in Mass Effect ho trovato meglio Ati ad esempio, in altri titoli meglio Nvidia, magari forzatamente, magari per scelte dei programmatori, ma non penso che siano i driver a fare la differenza definitiva tra le due compagnie, ne che a parte le X2 varie, o configurazioni SLI-Cross ci siano poi tanti problemi di sfruttamento, certo magari si recupera un 10, max 15% in alcune situazioni.
Pitagora
18-01-2010, 16:49
Ciao
sono buon amico di Terry Makedon, che ho rivisto 2 settimane fa al CES. Terry è "Mr Catalyst", cioè colui che in ATi prima e in AMD ora segue tutto il progetto dei driver Catalyst.
Se riportassi a lui 1/100 dei discorsi sui driver ATI immaturi credo si farebbe una sonora risata. L'ottimizzazione dei driver è un processo continuo, che riguarda tutti: ATI e NVIDIA lavorano al proprio interno incessantemente per migliorare questi componenti e renderli il più possibile performanti con le proprie soluzioni.
Mi auguro di aver posto la parola fine su questo tema.
SCORDATELO!!! :D :D :D
Paolo, la prossima volta che vedi mr Catalyst, digli che avere un prerequisito software opzionale per installare dei driver hardware non è una cosa furbissima. Visto che i driver di solito sono la prima cosa che si installa su un sistema fresco fresco di setup. :D :D
Mi riferisco alla necessità di avere il .net framework installato su XP come requisito per l'installazione dei Catalyst.
Concedimi il tono scherzoso ;)
Sono sicuro che sia ATI che NVIDIA fanno un gran lavoro sui driver (e ci mancherebbe dai), però credo tu sappia da dove sono stati prese le menti che stavano dietro alla parte software di Nvidia sin dal suo debutto sul mercato...
Chiaro che non si vive di sola "legacy", però i risultati (anche considerata l'umanità di alcuni "nei"), e soprattutto le differenze di approccio "politico" alla gestione del supporto dei propri prodotti, è palesemente diversa tra i due colossi a mio avviso.
Di sicuro non voglio convincere nessuno, tantomeno te, che hai un ruolo professionale ed, in un certo senso, hai il dovere di essere super partes, però concedimi l'opinione discordante...
Se è vero che se da "professionista" sono ormai distante da molti anni (l'ultimo NDA che ho firmato era per una Matrox quando collaboravo ad una rivista che non esiste più :D ), la passione, l'entusiasmo e la quotidianeità nel trovare i bandoli di matasse hardware intricatissime, c'è ancora. :)
Taurus19-T-Rex2
18-01-2010, 16:50
perché non lo sono, molto semplice.
Se me lo permettete, non capisco il senso di queste domande. Se una persona pensa che i test siano "falsati", come se ci svegliassimo la mattina sparando numeri a caso, qualsiasi risposta io possa dare (prescindendo dal fatto che non capisco proprio la domanda) agli occhi di chi pensa che pubblico benchmark "falsati" sarà a prescindere insufficiente.
Quindi: perché postare in questo modo?
http://www.xtremeshack.com/immagine/i42592_1.jpg
voi scrivete che la piattaforma di test utilizzata, è paragonabile a quella utilizzata da nvidia.................non mi sembra
Ciao
dato che dovrei ricordarmi quello che ho scritto, mi indichi precisamente dove avrei indicato come "non troppo attendibile" quello che è presente in questo articolo?
Fatto ovviamente eccezione per i benchmark della scheda, forniti da NVIDIA e per i quali abbiamo giustamente indicato di dare il giusto peso per quello che sono (quindi molto vicino allo zero, per come la pensiamo). Per la cronaca: è scontato per noi approcciare le cose in questo modo, le si specifica ulteriormente nel testo per evitare che "qualche" utente si faccia prendere la mano.
il "non attendibile" non era riferito all'intero articolo.
era riferito al test PALESEMENTE PAGLIACCIATA di nvidia. mi pare che avete sottolineato questa cosa all'inzio dell'articolo, quando avete citato NV30.
cmq sia, se fossi stato in voi, avrei fatto questo medesimo articolo, però scrivendo in formato 72 e in rosso: "TEST FORNITOCI DA NVIDIA, SENZA CHE NOI POTESSIMO CONSTATARE AL 100% LA VERIDICITA' DEL CONTENUTO".
perchè cè gente che ha preso questo test per oro colato, quando è palese a tutti(anche a voi scommetto), che di chiaro e veritiero in quel test cè poco.
Ciao
sono buon amico di Terry Makedon, che ho rivisto 2 settimane fa al CES. Terry è "Mr Catalyst", cioè colui che in ATi prima e in AMD ora segue tutto il progetto dei driver Catalyst.
Se riportassi a lui 1/100 dei discorsi sui driver ATI immaturi credo si farebbe una sonora risata. L'ottimizzazione dei driver è un processo continuo, che riguarda tutti: ATI e NVIDIA lavorano al proprio interno incessantemente per migliorare questi componenti e renderli il più possibile performanti con le proprie soluzioni.
Mi auguro di aver posto la parola fine su questo tema.
sei un grande. purtroppo la parola fine su questo argomento non verrà mai messa.
l'utente medio si fa condizionare dai tizi in verde che le sparano grosse sui catalyst. e quindi nascono leggende metropolitane, sui catalyst che crashano e danno problemi anche quando non sono installati :D
la cosa più bella di questo 3d sono i rossi che minimizzano in ogni modo ogni cosa xD
guarda, che qui nessuno sta minimizzando niente. è nvidia stessa che si auto-minimizza con questo test fake.
a noi solo il compito di sottolinearlo.
e poi "rossi", ci stai dando dei comunisti?? :D
Obelix-it
18-01-2010, 17:01
Paolo, la prossima volta che vedi mr Catalyst, digli che avere un prerequisito software opzionale per installare dei driver hardware non è una cosa furbissima. Visto che i driver di solito sono la prima cosa che si installa su un sistema fresco fresco di setup. :D :D
Mi riferisco alla necessità di avere il .net framework installato su XP come requisito per l'installazione dei Catalyst.
Mi associo. Dovere installare quel bloatware di .net per usare i catalyst, personalmente, mi fa optare per installare i soli driver, o in alternativa, quasi per una nvidia. Imparare a programmare, no eh??
Concedimi il tono scherzoso ;)
Io no.... lo trovo aberrante...
Mi chiedo perche' mai ATI dovrebbe abbassare i prezzi per quello che Fermi sembra dare: se come appare, offre il 25% inpiu' (ma famo pure il 40%) ma costa il doppio e consuma tanto, ATI e' ancora in un notevole vantaggio nel rapporto prezzo/prestazione, per cui puo' permettersi perfino di snobbarla, o semplicemente, di produrre una 5850x2 e stare a guardare....
E' vero che non abbiamo idea del prezzo a cui uscira' la scheda, ma in base alle dimensioni dei die si possono ipotizzare rese produttive e consumi: e con un die praticamente doppio di quello ATI, il costo base lievitera' ben oltre il doppio di quello ATI (La resanon e' lineare, raddoppiandio le dimensioni cala......)
Oltretutto, la netta impressione e' che ATI abbia piu' margine di nVidia, ene stia approfittando per ricavare utile in abbondanza.
E aggiungiamoci la 5890, ho paura che per Nvidia sarà un 2010 difficile
Mi associo. Dovere installare quel bloatware di .net per usare i catalyst, personalmente, mi fa optare per installare i soli driver, o in alternativa, quasi per una nvidia. Imparare a programmare, no eh??
Io no.... lo trovo aberrante...
Quoto pure io, e alla grande
guarda, che qui nessuno sta minimizzando niente. è nvidia stessa che si auto-minimizza con questo test fake.
se si prende il test come fake allora non c'è nulla da commentare, se ne sa quanto prima. Se si prende il test come spunto minimamente credibile, allora è giusto parlare d'incrementi tra il 40 e il 50% rispetto alla controparte ATI, e non 20% come scrivono "i rossi".
Discorso prezzi non si sa nulla, ma è altamente improbabile che Nvidia lasci scoperta la fascia sui 300 euro.
e poi "rossi", ci stai dando dei comunisti?? :D
maledetti bolscevichi :Prrr:
se si prende il test come fake allora non c'è nulla da commentare, se ne sa quanto prima. Se si prende il test come spunto minimamente credibile, allora è giusto parlare d'incrementi tra il 40 e il 50% rispetto alla controparte ATI, e non 20% come scrivono "i rossi".
Discorso prezzi non si sa nulla, ma è altamente improbabile che Nvidia lasci scoperta la fascia sui 300 euro.
I dati sulla 5870 sono palesemente falsati da Nvidia, in molti altri siti (Anandtech ad esempio) su quello stesso test e con hardware uguale la 5870 fa 75 fps non 57
Perdonami ma cosi' generalizzi un tantino il mondo della programmazione.
Puo' anche darsi che Nvidia abbia un piano(planning di sviluppo dei driver) e un team che lavora sui driver molto piu efficente di quello ATI.
Ehi , vedete che sono possessore ATI, parlo solo per non generalizzare un discorso.Nel mondo ci sono persone dotate e altre meno.Puo' anche essere che Nvidia abbia la fortuna che tra il team che progetta i driver ci sia qualche genio della programmazione.
scusami...ma non penso proprio che sia come affermi tu ;)
anzi...ad esser pignoli direi OGGi esattamente l'opposto visto che in termini di efficienza sposterei il discorso su un altro piano:
L'efficienza si misura in funzione del margine di miglioramento rapportata ai costi in risorse necessari per raggiungerla.
L'efficacia misura invece la penetrazione, la comunicazione e la costanza con la quale l'efficienza si può considerare percepita dagli utenti.
Nvidia rispetto ad Ati, non è particolarmente efficiente ed è efficace solo a livello di MKT...perchè?
luogo comune: drivers Nvidia migliori di Ati...
1) entrambe le aziende possono vantare (credo) le medesime risorse da poter investire in tale ambito.
2) dato il punto 1...SE una è migliore dell'altra, tale risultato è da far ricadere sulla bontà del progetto e non sulla capacità di predisporre programmi ad hoc.
3) in virtù del punto 2...Nvidia ha SMESSO di investire risorse in tal senso...vogliamo contare le releases ufficiali di entrambe in questi ultimi 3 anni?
4) il MKT comunicativo di Intel sta ad Amd...come quello di Nvidia sta ad Ati: guardacaso, si riscontrano parecchie analogie se pur in ambiti diversi...i drivers dei bench truccati di una, sono degni figli di una concorrenza sleale dell'altra :mad:
5) dulcis in fundo...non fidarsi mai solo delle parole, ma dei fatti...Al momento, tenuto conto di quanto sopra...staremo a vedere COME (per il bene di noi utenti) Nvidia riprenderà a livello d'efficienza...i nuovi drivers:rolleyes:
Mi associo. Dovere installare quel bloatware di .net per usare i catalyst, personalmente, mi fa optare per installare i soli driver, o in alternativa, quasi per una nvidia. Imparare a programmare, no eh??
Io no.... lo trovo aberrante...
beh, io per l'80% del tempo per cui ho usato XP ho usato vga nvidia :D
solo per 1 anno e mezzo, ho usato ATI con XP, ma XP mi faceva cosi tanto cagare, che il bloatware per catalyst era l'ultimo dei miei problemi. da quando a apirle sono passato a 7, mi godo le mie belle ATI senza l'ombra di un problema o scocciatura.
se si prende il test come fake allora non c'è nulla da commentare, se ne sa quanto prima. Se si prende il test come spunto minimamente credibile, allora è giusto parlare d'incrementi tra il 40 e il 50% rispetto alla controparte ATI, e non 20% come scrivono "i rossi".
Discorso prezzi non si sa nulla, ma è altamente improbabile che Nvidia lasci scoperta la fascia sui 300 euro.
il test è stato fatto da nvidia, senza che terze perti potessero confermarlo. dovrebbe bastare questo per farti capire la veridicità di quel test.
altrimenti, il fatto che abbiano usato far cry 2, giocho che è universalmente noto va sempre meglio con le nvidia.
io un test NON fake lo consepisco cosi:
-immagini o descrizione delle vga a lavoro
-reportage dettagliato delle specifiche della vga
-reportage su rumorosità, e temperature(specialmente se è una vga nuova al debutto come FERMI)
-test con parecchi giochi di vario genere.
quali di questi punti mancano in questo TEST FAKE?? tutti... e sarai d'accordo con me immagino.
se va un 25/30% in più di una 5870, già conviene quest'ultima a quelle cifre, se poi AMD abbassa i prezzi (permettendoselo visto il minor costo produttivo) quale persona dotata di raziocinio, se le compra le Fermi?
25/30% in più in relazione a cosa? di dx11 e giochi veramente pesanti non se ne sa nulla di come si comporti...
Discorso prezzi non si sa nulla, ma è altamente improbabile che Nvidia lasci scoperta la fascia sui 300 euro.
Anche "il" Paolo...la pensa uguale (sdrammatizzando??? :D :D :D )
A livello di costi produttivi "vivi", come qualcuno ha fatto notare in precedenza, saranno ALMENO IL DOPPIO di una 5870...punto.
Diciamo anche con un velato ottimismo, che Nvidia ritenga di dover affrontare il mercato vendendo SOTTO COSTO...bene, in tal senso la TOP Nvidia costerà al pubblico ALMENO 500 euro...perchè l'azienda ha deciso di farsi carico di TUTTI i costi R&S...sperando...di recuperarli nei volumi spalmati in una forbice di tempo il più rapida possibile.
...Altrimenti, non oso pensare al prezzo del day 1:rolleyes:
Comunque sia...scordiamoci una fascia "degna" di un rapporto prestazioni/prezzo soddisfacente, al di sotto dei 300 euro...per diversi mesi :(
Comunque sia...scordiamoci una fascia "degna" di un rapporto prestazioni/prezzo soddisfacente, al di sotto dei 300 euro...per diversi mesi :(
stai facendo speculazioni, Nvidia non ha mai lasciato scoperta quella fascia ed è improbabile che lo faccia ora. E il rapporto prezzo/prestazioni è sempre stato eccellente in questa fascia, quando uscì la 8800 GTS costava 250-270 euro, ed era una vera bomba. Anzi, spinge benino ancora oggi, a 3 anni dalla sua uscita.
stai facendo speculazioni, Nvidia non ha mai lasciato scoperta quella fascia ed è improbabile che lo faccia ora. E il rapporto prezzo/prestazioni è sempre stato eccellente in questa fascia, quando uscì la 8800 GTS costava 250-270 euro, ed era una vera bomba. Anzi, spinge benino ancora oggi, a 3 anni dalla sua uscita.
tutti sappiamo il successo che ebbe la serie 8.
ma ormai sono passati 3 anni...
nelle ultime 3 serie, il miglior rapporto qualità/prezzo è sempre stato una prerogativa di ATI.
secondo te perchè io da utente convinto di nvidia(come ho accennato nel mio precedente post), poi sono passato ad ATI?? perchè mi piace il logo??
oppure perchè con una manciata di € compravo ottime vga(mai un problema) che mi facevano giocare al max sui vari monitor che ho avuto??
stai facendo speculazioni, Nvidia non ha mai lasciato scoperta quella fascia ed è improbabile che lo faccia ora. E il rapporto prezzo/prestazioni è sempre stato eccellente in questa fascia, quando uscì la 8800 GTS costava 250-270 euro, ed era una vera bomba. Anzi, spinge benino ancora oggi, a 3 anni dalla sua uscita.
ma io vorrei fare speculazioni...il problema è che fino a prova contraria, sarà proprio così :O A meno che, non si produca una base logica contrastante ed ugualmente oggettiva come la mia e di altri a cui la mia...è comunque associabile ;)
piuttosto...:D :D :D ...è appunto una speculazione ciò che hai scritto, basandoti su un passato ormai remoto...e ad OGGI per niente affidabile.
D'altro canto, io spero veramente...che si manifesti in TOTO ciò che credi...nel lancio di gf100...così mi farò un CF con due spiccioli ;) ...e perchè no, potrei passare pure ad Nvidia ;)
Randy88 :mad: :mad: :mad:
adesso mi ciuli pure le parole di bocca 3 minuti prima di me???
te lo dico in anticipo...se arriviamo al singolo minuto...potrei non reggere la situzione ed abbandonare il forum :sofico: :sofico: :sofico:
il divino
18-01-2010, 18:30
Quanto fervore intorno a queste schede video:eek:
Io per ora mi accontento della mia cara 8800 e aspetto di vedere cosa succede.
Se dovessi cambiare vga adesso prenderei quasi sicuramente una AMD, ma ripeto voglio vedere cosa succederà quando ci sarà concorrenza diretta.
Avrei preferito che la posizione dominante di AMD l'avesse portata ad una linea di prezzi bassa per aumentare la base di utenza di questa nuova generazione di schede....e conseguente calata di braghe da parte di Nvidia per recuperare.....
Invece come al solito chi domina il mercato alza i prezzi... e la concorrenza logicamente segue a ruota, cosa che in questo caso consentirà a Nvidia di uscire con prezzi abbastanza alti da non trovarsi impiccati.
E' purtroppo palese che si tratta del solito gioco di prezzi di cartello......del resto quando le alternative sono solo 2 non ci può essere vera concorrenza!
Hai fatto tu il test?
Se fosse cosi, scusate il termine, qui nvidia oltre a prendere per i coglioni noi, ha scherzato pure con questa redazione, cioè Corsini & Co.
Possibile che registri un fps max di 143.82 contro quelli forniti da nVidia di soli 87.3???
Cioe, facendo due calcoli son 56fps in meno...bah.
Per il resto noto anche che questa scheda pur essendo single gpu ha un connettore da 6pin + 8pin quindi si puo confermare l'ipotesi che non consumera meno di una 5870 ma la curiosita c'è è come.
C'è da dire che era del tutto normale una cosa del genere. queste schede potevano uscir gia prima ma nvidia non aveva calcolato il DX11 ed infatti alla prima intervista han dichiarato che fermi non supportera le api 11 ma invece dopo ridiche avra pieno supporto alle directx 11 via HW ma anche SW allora ecco che qui ritarda di far uscire i suoi chip per ottimizzare l'architettura e migliorare supporto e driver per i nuovi titoli, cosa che ati fara con la prossima serie di gpu. Se ati avrebbe fatto la stessa cosa credo che pure lei ci avrebbe dato info in piu, che tutto cio rimane ancora da verificare...visto che qui un utente ha registrato valori ben piu alti di quelli dichiarati!
I test li ho fatti io con la Hd5870.
Configurazione:
Processore: Intel Core i7 920@3000Mhz
Scheda Madre: Asus Rampage Extreme II - X58;
Ram: 6Gb DDR3
Scheda Video: Ati Hd5870@850/4800
Sistema Operativo: Windows 7 64 Bit.
Driver Ati: Ctalyst 10.1 beta
La scheda video con le impostazioni sopra descritte, totalizza i seguenti punteggi:
HD5870:
http://www.xtremeshack.com/immagine/t42907_1.jpg (http://www.xtremeshack.com/scheda/42907_1.jpg.html)
Ho pure provato con la HD5970.
HD5970:
http://www.xtremeshack.com/immagine/t42909_2.jpg (http://www.xtremeshack.com/scheda/42909_2.jpg.html)
Da 57 a 75 ci sono ben 18 Frame di differenza e non sono pochi.
I test sono stati fatti con sistema operativo pulito.
Provabilmente con un sistema magari non "pulito", saremmo scesi su i 70 Frame ....il che sarebbe stato allineato con i miei test.
Questo mio post non vuole essere una polemica contro nessuno.:)
Randy88 :mad: :mad: :mad:
adesso mi ciuli pure le parole di bocca 3 minuti prima di me???
te lo dico in anticipo...se arriviamo al singolo minuto...potrei non reggere la situzione ed abbandonare il forum :sofico: :sofico: :sofico:
che dici??
quotami almeno 2 parti uguali.
Quanto fervore intorno a queste schede video:eek:
ti infervoreresti anche tu, se ti sentissi preso per il :ciapet:
meno male che qualcosa inizia a vedersi..anche se poco :D
secondo me Fermi andrà decisamente di più delle schede ati ma credo che quest'ultime manterranno un rapporto prezzo\prestazioni\consumi ineguagliabile. Non sarà facile scegliere comunque, bisognerà anche vedere come queste schede si comporteranno con i giochi che usciranno nel primo quadrimestre 2010. meno male che la mia scheda spinge ancora alla grande quindi posso aspettare a preoccuparmi :)
ghiltanas
18-01-2010, 18:53
stai facendo speculazioni, Nvidia non ha mai lasciato scoperta quella fascia ed è improbabile che lo faccia ora. E il rapporto prezzo/prestazioni è sempre stato eccellente in questa fascia, quando uscì la 8800 GTS costava 250-270 euro, ed era una vera bomba. Anzi, spinge benino ancora oggi, a 3 anni dalla sua uscita.
forse è bene ricordare a tal proposito come nvidia abbia coperto le fasce da medio in giù con la serie 200 e 200b...ha usato schede di generazione precedente, rimarchiandole. La fascia media di gt200 nn esisteva, veniva affiancato da g92..Se il chip risarà cosi complesso come sembra essere, e dotato di una scalabilità pessima che fanno? fascia alta dx11 con fermi, fascia media continuano con gtx280 e company che sono dx10 e nn concorrenziali?
blackshard
18-01-2010, 18:55
blackshard, evidentemente tu hai la carta delle caratteristiche, perchè noi non l'abbiamo, per poter dire come andrà la scheda.
al contrario non hai letto la recensione, ne i commenti, per ritenere interessanti quei grafici.
Le caratteristiche sono 6 mesi che vengono sbandierate in lungo e in largo. Ogni tanto esce qualche news, tipo quella scoperta da Kharonte e riportata da hwupgrade, che diceva quanti shader processor sarebbero stati integrati nelle soluzioni tesla. Peraltro da qualche altra parte (hwupgrade? anandtech) si è parlato dell'implementazione, dei cuda cores e di altri dettagli di fermi che sono stati "divulgati" alla presentazione della scheda fasulla.
Per il resto, si è vero non ho letto approfonditamente la recensione perchè andavo di fretta, ma ho letto a sufficienza per sapere che i test non sono stati fatti dalla redazione ma da nvidia, infatti ho scritto che *SE* fossero veri (puoi anche controllare, non c'è edit nel post originale), quei grafici sarebbero interessanti per tutta una serie di motivi.
Kharonte85
18-01-2010, 18:57
forse è bene ricordare a tal proposito come nvidia abbia coperto le fasce da medio in giù con la serie 200 e 200b...ha usato schede di generazione precedente, rimarchiandole. La fascia media di gt200 nn esisteva, veniva affiancato da g92..Se il chip risarà cosi complesso come sembra essere, e dotato di una scalabilità pessima che fanno? fascia alta dx11 con fermi, fascia media continuano con gtx280 e company che sono dx10 e nn concorrenziali?
Per quello che puo' valere:
Non sappiamo ancora le intenzioni di Nvidia per le versioni a basso costo dell'architettura Fermi - tutti i dettagli che abbiamo sono relativi a un singolo chip - ma come vedrete, il progetto è modulare. Quindi, laddove tutte le schede GeForce GTX 200 avevano una sola (e costosa) GPU, c'è maggiore probabilità che questa volta Nvidia faccia alcuni tagli sulle versioni inferiori.
http://www.tomshw.it/cont/articolo/gf100-chip-basato-su-fermi/23595/3.html
Pier2204
18-01-2010, 19:00
185 post per parlare del nulla...:doh:
Stiamo valutando una scheda con parametri inattendibili, forniti dalla casa costruttrice, (quindi di parte), mancando completamente valori fondamentali quali consumi, driver certificati, prezzo, applicativi creati allo scopo per fare test reali sulle performance non su un gioco ottimizzato.
La redazione ha spiegato che questi dati sono da prendere con 1000 cautele e che non sono attendibili, se volessi comprare questa scheda con questi test dovrei affidarmi all'intuito o all'impressione fatta ad cazzum, non su basi oggettive provate e testate.
Questi test messi a dispozizione di Nvidia sono chiaramente un tentativo per non distogliere l'interesse a questa piattaforma, operazione più che comprensibile.
Obelix-it
18-01-2010, 19:13
se si prende il test come fake allora non c'è nulla da commentare, se ne sa quanto prima.
Il test e' una fake: lo ha fatto mamma nVidia, senza dare *alcuna* indicazione sul tipo/livello/caratteristiche della Sk usata, il che, proveniendo da una azienda che sta perdendo non solo il treno, ma financo la stazione, e che gia' in passato ha fornito ai bench "pubblici" schede opportunamente selezionate, autorizza al vecchio detto "a pensar male si fa peccato, ma ci si azzecca sempre".
Del resto, avendolo fornito appositamente su un titolo notoriamente di 'scuderia' NV, anche ammettendo che la scheda sia 'generica' i.e. non un prodotto particolarmente ben riuscito, vuol dire che il divario del 30% e' il *massimo* raggiungibile, nelle condizioni ideali di Fermi.
Se si prende il test come spunto minimamente credibile, allora è giusto parlare d'incrementi tra il 40 e il 50% rispetto alla controparte ATI, e non 20% come scrivono "i rossi".
Se tu avessi letto l'articolo, come Paolo ha fatto notare, sapresti che nVidia ha fornito solo i bench della 300 e della 285. I bench della Radeon sono stati fatti da HWU, con una configurazione su cui la 285 perdeva circa il 15% rispetto alla configuraizone NV. Da questo deriva la percentuale minore.
In pratica: GT300 nei test NV fa il 68% in piu' della 285, nei test HWU la 5870 fa il 30% in piu' della 285, ma sikkome la 285 nei test HWU fa il 13,6%in meno, il risultato 'riparametrato' e' che la 300 'corre' circa il 30% in piu *nella migliore configuraizone possibile". Ovviamente, la riparametrazione non e' una 'scienza' esatta, ma visto che per quel che sappiamo il risultato NV puo' essere stato fatto alla "Galeazzo Musolesi" (c) e' senz'altro una percentuale piu' ammissibile. Quindi, dal 30% di cui sopra togli un 5-10% dovuto all'ottimizzazione nVidia del gioco, ede ccoti un piu' ragionevole 20/25% medio basato sui risultati nVidia. Da prendere molto con le pinze, certo, nel senso che da li' mi sa che NV puo' solo scendere...
Per Paolo: te l'avevo detto che non si capiva facilmente, il grafico cosi' messo..
Discorso prezzi non si sa nulla, ma è altamente improbabile che Nvidia lasci scoperta la fascia sui 300 euro.
L'unica cosa che si sa per certo e' che un die grande il doppio costa almeno il doppio, consuma almeno il doppio, e scalda almeno il doppio...
E non credere che sia bello: se nVidia ha toppato il chip, vorra dire solo che ATI potra' contunuare a vendere le sue schede con un margine devastante per un ampio periodo di tempo, per cui la concorrenza (con conseguente riduzione dei prezzi e evoluzione tecnologico) manchera' completamente per il tempo che nVidia ci mettera' a risollevarsi. Se riuscira' a farlo.
E non e' affatto una bella cosa, salvo che uno non sia un FanBoy decerebrato....
Questi test messi a dispozizione di Nvidia sono chiaramente un tentativo per non distogliere l'interesse a questa piattaforma, operazione più che comprensibile.
si, ma operazione che però sta sortendo l'effetto opposto.
ovvero la gente inizia a chiedersi quanto NV ci stia prendendo per il "sedere", da 1 a 100.
se nVidia ha toppato il chip, vorra dire solo che ATI potra' contunuare a vendere le sue schede con un margine devastante per un ampio periodo di tempo
bravissimo, hai centrato il punto.
questa cosa mi fa paura, perchè NV sta andando propio in quella direzione, e come da copione ATI non ha abbassato i prezzi neppure di 1€.
non è successo dopo il famoso test "triple SLI" al CES, e non succederà dopo questo test fake.
a ringraziamo iddio che i prezzi non salgano.
il divino
18-01-2010, 19:48
185 post per parlare del nulla...:doh:
Stiamo valutando una scheda con parametri inattendibili, forniti dalla casa costruttrice, (quindi di parte), mancando completamente valori fondamentali quali consumi, driver certificati, prezzo, applicativi creati allo scopo per fare test reali sulle performance non su un gioco ottimizzato.
La redazione ha spiegato che questi dati sono da prendere con 1000 cautele e che non sono attendibili, se volessi comprare questa scheda con questi test dovrei affidarmi all'intuito o all'impressione fatta ad cazzum, non su basi oggettive provate e testate.
Questi test messi a dispozizione di Nvidia sono chiaramente un tentativo per non distogliere l'interesse a questa piattaforma, operazione più che comprensibile.
Quoto!:O
Qua si glissa come al solito, allora la vogliamo capire che una 5870, con una configurazione hardware di test del genere fa almeno 75 fps???
Dre@mwe@ver
18-01-2010, 20:07
Io vedo il tutto come un manovra di Nvidia per far finta di avere qualcosa di concreto e competitivo in mano. I test sono molto probabilmente falsati e a mio parere non hanno alcuna rilevanza, perchè dati certi non ce ne sono, e perchè i bench effettuati con la 5870 non rispecchiano il vero.
In ogni caso, se le Tesla scalderanno, consumeranno e costeranno così tanto come si vocifera (e come probabilmente sarà, guardando le caratteristiche note) per possono rimanere sullo scaffale anche se le loro prestazioni saranno ben maggiori delle 5870.
In ogni caso, per noi consumatori la concorrenza è una manna dal cielo, quindi se Nvidia si affossa ci affossiamo anche noi :D
OT: vorrei esprimere la mia sul fatto dei driver ATi: nella mia vita ho posseduto diverse schede, 2 Geforce (una Geforce 2 e una Geforce 4) e 3 Radeon (una 7000, una 9250 e la HD4850 che ho ora). Ebbene, con le 2 Geforce, anche se si parla di diversi anni fa, mai un problema; con la 7000 ne ho avuti parecchi, ma già con la 9250 la situazione era parecchio migliorata, e con la 4850 non ho mai avuto nessunissimo genere di problema. Sono davvero contento della mia scheda, e proprio non mi lamento dei Catalyst...
[QUOTE=Dre@mwe@ver;30505733...In ogni caso, se le Tesla scalderanno, consumeranno e costeranno così tanto come si vocifera (e come probabilmente sarà, guardando le caratteristiche note) per possono rimanere sullo scaffale anche se le loro prestazioni saranno ben maggiori delle 5870...[/QUOTE]
Che c' entrano le Tesla con le 5870? :rolleyes:
cervus92
18-01-2010, 20:20
I test li ho fatti io con la Hd5870.
Configurazione:
Processore: Intel Core i7 920@3000Mhz
Scheda Madre: Asus Rampage Extreme II - X58;
Ram: 6Gb DDR3
Scheda Video: Ati Hd5870@850/4800
Sistema Operativo: Windows 7 64 Bit.
Driver Ati: Ctalyst 10.1 beta
La scheda video con le impostazioni sopra descritte, totalizza i seguenti punteggi:
HD5870:
http://www.xtremeshack.com/immagine/t42907_1.jpg (http://www.xtremeshack.com/scheda/42907_1.jpg.html)
Ho pure provato con la HD5970.
HD5970:
http://www.xtremeshack.com/immagine/t42909_2.jpg (http://www.xtremeshack.com/scheda/42909_2.jpg.html)
Da 57 a 75 ci sono ben 18 Frame di differenza e non sono pochi.
I test sono stati fatti con sistema operativo pulito.
Provabilmente con un sistema magari non "pulito", saremmo scesi su i 70 Frame ....il che sarebbe stato allineato con i miei test.
Questo mio post non vuole essere una polemica contro nessuno.:)
Molto interessante il tuo test, se i risultati fossero confermati, il bench della preview perde ogni senso. Hai la possibilità di provare magari coi 9.12? (anche se mi sembra alquanto improbabile che una release di driver possa apportare tali miglioramenti).
Dre@mwe@ver
18-01-2010, 20:21
Che c' entrano le Tesla con le 5870? :rolleyes:
In che senso pike? :mbe:
Io volevo dire che se avranno le prestazioni migliori (il che significa surclassare le 5870) ma il loro rapporto prezzo/prestazioni sarà comunque sfavorevole, per me non saranno di certo un buon acquisto.
Non capisco il motivo del tuo commento :mbe:
Il test e' una fake: lo ha fatto mamma nVidia, senza dare *alcuna* indicazione sul tipo/livello/caratteristiche della Sk usata, il che, proveniendo da una azienda che sta perdendo non solo il treno, ma financo la stazione, e che gia' in passato ha fornito ai bench "pubblici" schede opportunamente selezionate, autorizza al vecchio detto "a pensar male si fa peccato, ma ci si azzecca sempre".
le tue opinioni non sono più credibili dei test di Nvidia, anzi, si basano su presupposti addirittura meno credibili.
Del resto, avendolo fornito appositamente su un titolo notoriamente di 'scuderia' NV, anche ammettendo che la scheda sia 'generica' i.e. non un prodotto particolarmente ben riuscito, vuol dire che il divario del 30% e' il *massimo* raggiungibile, nelle condizioni ideali di Fermi.
altra sparata dettata dalle "tue impressioni" come fonte di riferimento
Se tu avessi letto l'articolo, come Paolo ha fatto notare, sapresti che nVidia ha fornito solo i bench della 300 e della 285. I bench della Radeon sono stati fatti da HWU, con una configurazione su cui la 285 perdeva circa il 15% rispetto alla configuraizone NV. Da questo deriva la percentuale minore.
ho letto l'articolo, questo non cambia le impressioni che si ricavano dal test preliminare.
In pratica: GT300 nei test NV fa il 68% in piu' della 285, nei test HWU la 5870 fa il 30% in piu' della 285, ma sikkome la 285 nei test HWU fa il 13,6%in meno, il risultato 'riparametrato' e' che la 300 'corre' circa il 30% in piu *nella migliore configuraizone possibile". Ovviamente, la riparametrazione non e' una 'scienza' esatta, ma visto che per quel che sappiamo il risultato NV puo' essere stato fatto alla "Galeazzo Musolesi" (c) e' senz'altro una percentuale piu' ammissibile. Quindi, dal 30% di cui sopra togli un 5-10% dovuto all'ottimizzazione nVidia del gioco, ede ccoti un piu' ragionevole 20/25% medio basato sui risultati nVidia. Da prendere molto con le pinze, certo, nel senso che da li' mi sa che NV puo' solo scendere....
qui siamo al delirio totale, ossia prendi percentuali a cazzo di un test già di per sè poco preciso e ti permetti di dedurne altre conclusioni, fermo restando che parti da una base probabilmente già falsata di suo. Se il resoconto fornito dall'articolo può essere sbagliato, le tue conclusioni sono "sbagliate²".
L'unica cosa che si sa per certo e' che un die grande il doppio costa almeno il doppio, consuma almeno il doppio, e scalda almeno il doppio...
e invece l'unica cosa che sai è che il die è più grande, ma non sai quanto costa, non sai quanto consuma e non sai quanto scalda. Punto, viaggia meno con la fantasia.
E non credere che sia bello: se nVidia ha toppato il chip, vorra dire solo che ATI potra' contunuare a vendere le sue schede con un margine devastante per un ampio periodo di tempo, per cui la concorrenza (con conseguente riduzione dei prezzi e evoluzione tecnologico) manchera' completamente per il tempo che nVidia ci mettera' a risollevarsi. Se riuscira' a farlo.
E non e' affatto una bella cosa, salvo che uno non sia un FanBoy decerebrato....
l'ultima parte continua pure a crederla, anzi, Nvidia sta per fallire e ATI per dominare il mercato :asd:
Paolo Corsini
18-01-2010, 20:34
Qua si glissa come al solito, allora la vogliamo capire che una 5870, con una configurazione hardware di test del genere fa almeno 75 fps???
Nessuno glissa, caro; la prima cosa che mi viene da pensare è che quel sistema ha base clock a 200 MHz, contro i 133 MHz di default, e bus QPI overcloccato.
Nei grafici non è indicato, ma sospetto che neppure le memorie siano in specifica.
Molto interessante il tuo test, se i risultati fossero confermati, il bench della preview perde ogni senso. Hai la possibilità di provare magari coi 9.12? (anche se mi sembra alquanto improbabile che una release di driver possa apportare tali miglioramenti).
Adesso devo uscire.Domani te li posto.:)
In che senso pike? :mbe:
Io volevo dire che se avranno le prestazioni migliori (il che significa surclassare le 5870) ma il loro rapporto prezzo/prestazioni sarà comunque sfavorevole, per me non saranno di certo un buon acquisto.
Non capisco il motivo del tuo commento :mbe:
Nel senso che le Tesla non sono schede da gioco, ma sono deputate unicamente al calcolo (supercomputer...), tant' è che non hanno nemmeno uscite video.
Forse intendevi dire Fermi, le schede da gioco sono comunque Geforce! :)
I test li ho fatti io con la Hd5870.
Configurazione:
Processore: Intel Core i7 920@3000Mhz
Scheda Madre: Asus Rampage Extreme II - X58;
Ram: 6Gb DDR3
Scheda Video: Ati Hd5870@850/4800
Sistema Operativo: Windows 7 64 Bit.
Driver Ati: Ctalyst 10.1 beta
La scheda video con le impostazioni sopra descritte, totalizza i seguenti punteggi:
HD5870:
http://www.xtremeshack.com/immagine/t42907_1.jpg (http://www.xtremeshack.com/scheda/42907_1.jpg.html)
Ho pure provato con la HD5970.
HD5970:
http://www.xtremeshack.com/immagine/t42909_2.jpg (http://www.xtremeshack.com/scheda/42909_2.jpg.html)
Da 57 a 75 ci sono ben 18 Frame di differenza e non sono pochi.Beh, con risultati del genere, tenendo conto che il gioco favorisce nVidia e che è abbastanza verosimile che abbiano in qualche modo "pompato" i risultati, si profilerebbe una GF100 quantomeno molto vicina alla HD5870... il che francamente mi sembra impossibile, ma se si rivelasse vero, sarebbe una "debacle" incredibile.
darios81
18-01-2010, 20:41
Nessuno glissa, caro; la prima cosa che mi viene da pensare è che quel sistema ha base clock a 200 MHz, contro i 133 MHz di default, e bus QPI overcloccato.
Nei grafici non è indicato, ma sospetto che neppure le memorie siano in specifica.
e solo con quello guadagni 18 FPS?????
e invece l'unica cosa che sai è che il die è più grande, ma non sai quanto costa, non sai quanto consuma e non sai quanto scalda. Punto, viaggia meno con la fantasia.
hai ragione, ma già il fatto di avere il die raddoppiato, implica un riscaldamento, un costo e un consumo sensibilmente maggiore. non sarà esattamente il doppio, ma cmq sarà maggiore.
fattene una ragione.
menomale che non devo cambiare scheda a breve perché con sto continuo battibecco con nVidia che cerca di dimostrare di avere qualcosa di valido e ATI che cerca di convincere gli utonti a non aspettare marzo, mi sono un pochino scassato le @@ :asd:
se consterà troppo sarà il libero mercato a decidere le sorti di nVidia , io ho l'impressione che dobbiamo aspettarci qualcosa di valido prestazionalmente ma che scalda parecchio , più o meno lo stesso che capitò con le prima schede della serie 8000 .
Obelix-it
18-01-2010, 20:48
le tue opinioni non sono più credibili dei test di Nvidia, anzi, si basano su presupposti addirittura meno credibili.
Si basano *sui presupposto indicati da Paolo Corsini*.
altra sparata dettata dalle "tue impressioni" come fonte di riferimento
Anche qui, si basano su benchmark noti. Tu, invece, ti basi solo sul rifiuto a priori di qualsiais cosa non ti piaccia..
ho letto l'articolo, questo non cambia le impressioni che si ricavano dal test preliminare.
Cioe', che in condizioni sconosciute, nVidia dichiara che la fermi sia piu' veloce della 285 del 60%?? Perche' tutto quello che si ricava dal test e' quello (no, i numeri delle ATI non facevano parte de test nVidia, creca di ficcartelo in testa...)
qui siamo al delirio totale, ossia prendi percentuali a cazzo di un test già di per sè poco preciso e ti permetti di dedurne altre conclusioni, fermo restando che parti da una base probabilmente già falsata di suo. Se il resoconto fornito dall'articolo può essere sbagliato, le tue conclusioni sono "sbagliate²".
Io parto dalle cifre offerte da NV e HWU e ti spiego perche' tutti considerano un 25% e non un 40%. Lo so che e' tempo perso, che non ci arrivi/non ti interessa/sei un troll, ma che ci vuoi, fare,come per Fermi la speranza e' l'ultima a morire.
Del resto, te l'avevo ben detto che il calcolo e' risibile quanto la tua affermazione sul "perche' dite 25 quando e' 40".
Leggere non fa male...
e invece l'unica cosa che sai è che il die è più grande, ma non sai quanto costa, non sai quanto consuma e non sai quanto scalda. Punto, viaggia meno con la fantasia.
L'unica cosa cosa che dimostri e' la tua ignoranza: i die sono ricavati da una 'fetta' di silicio, la fetta di silicio costa x,dovex e' abbastanza fisso, la sua superficie e' Y ( supponendo lo standard da 300, ovrebbero essere sui 70.000 mm2) per cui se un die e' da 500 mm2 e l'altro da 362, e' *evidente* a chiunque abbia almeno un neurone funzionante che i chip piu' grando costano di piu' (lasciando eprdere le rese...). Per lo steso motivo, le rese sono peggiori (oh, non lo dico io: lo dicono le fonderie che piu' largo e' il die piu' possibilita' ci sono di avere un difetto) e scaldano di piu' perche' per far funzionarepiu' transistor ci vuole piu' corrente.
Certo, non so quanto costera' un die, ma di certo, anche ammettendo per *assurdo* che NV faccia le stesse rese di ATI, avrebbe comunque un chip piu' costoso del 50% ed oltre.
Questa e' mera fisica, la quale ha un grave difetto: non e' soggetta a fanboysmo od opinioni. E' tale,punto e basta. Capisco che nonti piaccia e preferisci evitare di pensarci
In quanto a 'nvidia sta per fallire', spero proprio di no, anzi non credo visto che hanno altre fonti di finanziamento, ma di certo la situazione e' messa male *per chi deve comperare una scheda video* visto che, storicamente, la mancanza di concorrenza valida si trasforma in un aumento dei costi all'utente finale. E allo stato attuale, con l'artia che tira su Fermi, sembra che non ci saranno alternative 'viables' per un bel periodo di tempo (salvo, ovviamente, per i fanboy foderati di prosciutto, ma...)
Per il resto, beati pure nelle tue fantasie: il mondo va avanti lo stesso...
mi è venuto in mente un particolare importante...il prezzo ;)
a molti...ancora non sono chiari i seguenti concetti fondamentali:
1) quando si compra hardware...che sia rosso o verde, all'interno del case diventa grigio per tutti quanti...
Ciò che conta è quanto si è disposti a spendere in rapporto a quanto si desidera ottenere...e non di certo per la marca o il colore:doh:
2) da 4 mesi a questa parte....dico 4 mica 1 eh...qualsiasi persona adeguatamente informata che ha acquistato...DEVE aver optato per ATI in ogni fascia di prezzo e/o esigenza esistente fra i 50 e 700 euro...punto.
3) per quei 4 "bontemponi" che continuano a ritenere la serie 5xxx troppo costosa...
se ATI è giusta...da 4 mesi NVIDIA è fuori mercato.
se ATI è cara...da 4 mesi NVIDIA è comunque fuori mercato.
4) A meno di un miracolo, con GF100 tale situazione non cambierà di una virgola per diversi mesi.
5) E questo finchè non si vedrà GF100 a 300 euro...ed anche se il miracolo avverrà...la 5870 magicamente scenderà a 200 euro...con la differenza che la prima ci perderà notevolmente...e la seconda continuerà a guadagnare comunque. Pertanto i punti 3 e 4 rimarranno validi per buona parte del 2010 se non per tutto l'anno:O
@randy88
esagerato...proprio i termini uguali no...ma diamine, prova a leggere il senso dei nostri due interventi ravvicinati di oggi :D :D :D
Nessuno glissa, caro; la prima cosa che mi viene da pensare è che quel sistema ha base clock a 200 MHz, contro i 133 MHz di default, e bus QPI overcloccato.
Nei grafici non è indicato, ma sospetto che neppure le memorie siano in specifica.
Paolo allora bisogna davvero capire come sia possibile perdere ben 18 fps tra due configurazioni similari, capirai che non è poco! Credo che sia necesssario indagare :)
Il test effettuato da dj883u2 ha addirittura 200 mhz in meno sulla cpu...
Paolo allora bisogna davvero capire come sia possibile perdere ben 18 fps tra due configurazioni similari, capirai che non è poco! Credo che sia necesssario indagare :)
Forse mentre benchavano in background con FC2 giocavano a WoW :asd: :asd:
c'.a'.z'.a'.za
Dre@mwe@ver
18-01-2010, 21:05
Nel senso che le Tesla non sono schede da gioco, ma sono deputate unicamente al calcolo (supercomputer...), tant' è che non hanno nemmeno uscite video.
Forse intendevi dire Fermi, le schede da gioco sono comunque Geforce! :)
Ah si hai ragione, non mi ero reso conto dell'errore! :)
Hai ragione le Tesla non c'entrano nulla, parlavo delle Geforce con architettura Fermi che saranno dedicate maggiormente al gioco e all'ambito dei PC casalinghi ;)...il loro successo o meno dipenderà esclusivamente dal rapporto prezzo prestazioni, a mio parere :)
Forse mentre benchavano in background con FC2 giocavano a WoW :asd: :asd:
c'.a'.z'.a'.za
Per perderne 18 devi giocare a Crysis in background :stordita:
Mirshann
18-01-2010, 21:15
Male, male e male...
anche con le prestazione mostrate da Nvidia, la top verde rimane comunque fuori mercato come scheda video. Basterebbe un livellamento leggermente al ribasso delle ATI per tagliare di nuovo fuori Nvidia da tutte le fascie di mercato :muro:
Senza contare una 5970 più performante e, con una leggera diminuizione del prezzo, molto più appetibile della soluzione Fermi...
A quanto pare devo aspettare le HD6xxx e le corrispettive controparti per cambiare scheda, anche se comprare una eventuale 5850 a basso prezzo non mi sarebbe dispiaciuto :sofico:
leoneazzurro
18-01-2010, 22:02
Elrim e Obelix-it, evitate di trascendere o si dovrá intervenire.
Paolo Corsini
18-01-2010, 22:27
Paolo allora bisogna davvero capire come sia possibile perdere ben 18 fps tra due configurazioni similari, capirai che non è poco! Credo che sia necesssario indagare :)
Il test effettuato da dj883u2 ha addirittura 200 mhz in meno sulla cpu...
Come ho già detto, quel sistema ha base clock fortemente spinto (da 133 MHz a 200 MHz), idem QPI. La frequenza di clock della memoria non è indicata, ma immagino sia molto spinta.
I sistemi, dici bene, sono similari, non simili. Quelle impostazioni in overclock fanno molta differenza. Far Cry 2 è un titolo che può essere fortemente dipendente dalla cpu; in questo caso base clock e clock memoria incidono molto più dei 200 MHz di differenza di clock. Questo spiega i 18 fps che indicate? Non penso del tutto, ma a mio avviso ne giustificano una buona parte.
Inoltre, quel valore riportato è sul primo loop; quello che noi tipicamente facciamo è eseguire 3 loop del benchmark e riportare il valore medio.
Detto questo, a me sembra che si stia montando un caso inutile; si vuole pretendere di derivare prestazioni assolute su una scheda video a confronto con l'altra utilizzando quale parametro 1 test con 1 titolo. Se nel confronto tra 5870 e GF100 con questo test specifico ottenessimo che la prima è più veloce della seconda del 50%, o la seconda più veloce della prima del 40%, avremmo un risultato specifico ma assolutamente nulla che permetta di trarre conclusioni sul comportamento medio di queste schede quando poste a confronto.
Questa e' mera fisica
no, più che altro è mera MATEMATICA.
e la matematica, salvo miracoli dell'ultimo secondo, non è opinabile.
@randy88
esagerato...proprio i termini uguali no...ma diamine, prova a leggere il senso dei nostri due interventi ravvicinati di oggi :D :D :D
vabbè, scusa ma che vuol dire??
significa che abbiamo idee simili e che le eslpetiamo sullo stesso thread. non puoi mica avere il copyright delle opinioni :D
Detto questo, a me sembra che si stia montando un caso inutile; si vuole pretendere di derivare prestazioni assolute su una scheda video a confronto con l'altra utilizzando quale parametro 1 test con 1 titolo.
il caso inutile veramente lo stiamo SMONTANDO. qui tutti quelli che hanno un briciolo di cervello, hanno capito che quel test non dimostra nulla.
ma cè qualche famboy che invece ha urlato al miracolo, e noi stiamo cercando di palesare l'inutilità e l'inaffidabilità del test di nvidia.
Come ho già detto, quel sistema ha base clock fortemente spinto (da 133 MHz a 200 MHz), idem QPI. La frequenza di clock della memoria non è indicata, ma immagino sia molto spinta.
I sistemi, dici bene, sono similari, non simili. Quelle impostazioni in overclock fanno molta differenza. Far Cry 2 è un titolo che può essere fortemente dipendente dalla cpu; in questo caso base clock e clock memoria incidono molto più dei 200 MHz di differenza di clock. Questo spiega i 18 fps che indicate? Non penso del tutto, ma a mio avviso ne giustificano una buona parte.
Inoltre, quel valore riportato è sul primo loop; quello che noi tipicamente facciamo è eseguire 3 loop del benchmark e riportare il valore medio.
Detto questo, a me sembra che si stia montando un caso inutile; si vuole pretendere di derivare prestazioni assolute su una scheda video a confronto con l'altra utilizzando quale parametro 1 test con 1 titolo. Se nel confronto tra 5870 e GF100 con questo test specifico ottenessimo che la prima è più veloce della seconda del 50%, o la seconda più veloce della prima del 40%, avremmo un risultato specifico ma assolutamente nulla che permetta di trarre conclusioni sul comportamento medio di queste schede quando poste a confronto.
Il problema è appunto questo benedetto e unico test, avendo solo questo non possiamo che rapportarci a lui per cercare di capirci qualcosa di più, dato che nella vostra anteprima è presente lo si analizza con tutti i riscontri che possono nascere da chi, volendo, gli stessi test può effettuarli in cerca di analogie prestazionali.
Bus o non bus la 5870 a 75 fps di media ci arriva, e questo si riscontra in molti lidi, tutto qua.
Se qualcuno potesse fare delle prove con i vari bus, default e over non sarebbe male... lancio la palla.
MarcoAK47
18-01-2010, 23:51
Il problema è appunto questo benedetto e unico test, avendo solo questo non possiamo che rapportarci a lui per cercare di capirci qualcosa di più, dato che nella vostra anteprima è presente lo si analizza con tutti i riscontri che possono nascere da chi, volendo, gli stessi test può effettuarli in cerca di analogie prestazionali.
Bus o non bus la 5870 a 75 fps di media ci arriva, e questo si riscontra in molti lidi, tutto qua.
Se qualcuno potesse fare delle prove con i vari bus, default e over non sarebbe male... lancio la palla.
Dai ragazzi siamo arrivati a 215 post dicendo tutto e il contrario di tutto; il test eseguito dai laboratori nvidia non è attendibile perchè non possiamo sapere che ottimizzazioni hanno fatto al gioco e ai driver, le frequenze operative della scheda, del processore...... ci sono troppe variabili da tenere in considerazione, è inutile fare strane illazioni e trarre conclusioni affrettate.;)
Basta avere pazienza e da qui a marzo/aprile ne vedremo molte di prove, test e dichiarazioni varie, molto più attendibili di quelle attuali. :O
da completo demente: ma com'è possibile che il test fatto dalla redazione con la 5870 sia cosi "scarso"?
SkinPoint
19-01-2010, 03:20
Al momento si tratta di spot-bench, fuffa mediatica, aria fritta ecc
per altro è preoccupante perché se la scheda fosse realmente così potente avrebbero fatto tests di ogni genere e sbandierato in tutte le salse la superiorità di Fermi, invece hanno messo su un teatrino da cui non viene niente di niente se non parole al vento... o lacrime nella pioggia.
Speriamo che fermi sia competitiva e che esca realmente in tempi utili, altrimenti ci ritroveremo in una situazione in cui ATI farà tutto quello che ha fatto Nvidia ultimamente, ovvero prezzi assurdi e prodotti rinominati senza introdurre sostanziali innovazioni.
Inutile dire che in questo caso bisogna proprio aspettare dei bench seri e un minimo affidabili
ndrmcchtt491
19-01-2010, 10:00
mi è venuto in mente un particolare importante...il prezzo ;)
a molti...ancora non sono chiari i seguenti concetti fondamentali:
1) quando si compra hardware...che sia rosso o verde, all'interno del case diventa grigio per tutti quanti...
Ciò che conta è quanto si è disposti a spendere in rapporto a quanto si desidera ottenere...e non di certo per la marca o il colore:doh:
2) da 4 mesi a questa parte....dico 4 mica 1 eh...qualsiasi persona adeguatamente informata che ha acquistato...DEVE aver optato per ATI in ogni fascia di prezzo e/o esigenza esistente fra i 50 e 700 euro...punto.
3) per quei 4 "bontemponi" che continuano a ritenere la serie 5xxx troppo costosa...
se ATI è giusta...da 4 mesi NVIDIA è fuori mercato.
se ATI è cara...da 4 mesi NVIDIA è comunque fuori mercato.
4) A meno di un miracolo, con GF100 tale situazione non cambierà di una virgola per diversi mesi.
5) E questo finchè non si vedrà GF100 a 300 euro...ed anche se il miracolo avverrà...la 5870 magicamente scenderà a 200 euro...con la differenza che la prima ci perderà notevolmente...e la seconda continuerà a guadagnare comunque. Pertanto i punti 3 e 4 rimarranno validi per buona parte del 2010 se non per tutto l'anno:O
Uno dei pochi discorsi seri che ho letto, in mezzo a un mare di cagate fatte da utenti con la sfera di vetro made in China...
Non so, io di tutta questa fuffa che dite non ne vedo traccia, è un prodotto interessante come premessa, certamente da valutare, che spinge enormemente la componente poligonale integrandola a ogni blocco cuda core, introducendone di fatto 4 unità in parallelo, ha un nuovo FSAA molto promettente, si vede che è la base per tutta la serie dx11.
mi è venuto in mente un particolare importante...il prezzo ;)
a molti...ancora non sono chiari i seguenti concetti fondamentali:
1) quando si compra hardware...che sia rosso o verde, all'interno del case diventa grigio per tutti quanti...
Ciò che conta è quanto si è disposti a spendere in rapporto a quanto si desidera ottenere...e non di certo per la marca o il colore:doh:
2) da 4 mesi a questa parte....dico 4 mica 1 eh...qualsiasi persona adeguatamente informata che ha acquistato...DEVE aver optato per ATI in ogni fascia di prezzo e/o esigenza esistente fra i 50 e 700 euro...punto.
3) per quei 4 "bontemponi" che continuano a ritenere la serie 5xxx troppo costosa...
se ATI è giusta...da 4 mesi NVIDIA è fuori mercato.
se ATI è cara...da 4 mesi NVIDIA è comunque fuori mercato.
4) A meno di un miracolo, con GF100 tale situazione non cambierà di una virgola per diversi mesi.
5) E questo finchè non si vedrà GF100 a 300 euro...ed anche se il miracolo avverrà...la 5870 magicamente scenderà a 200 euro...con la differenza che la prima ci perderà notevolmente...e la seconda continuerà a guadagnare comunque. Pertanto i punti 3 e 4 rimarranno validi per buona parte del 2010 se non per tutto l'anno:O
@randy88
esagerato...proprio i termini uguali no...ma diamine, prova a leggere il senso dei nostri due interventi ravvicinati di oggi :D :D :D
Non esiste un assioma in casi come questo, dipende sempre da quanto uno è disposto a spendere per un oggetto/servizio, e per quanto pensa di tenerlo/usufruirne.
Ora potrei dirti che il solo fatto di poter attivare gli effetti garantiti da PhysX... potrebbe rendere le Fermi incommensurabilmente migliori delle ATI, a prescindere dal prezzo.
Idem per la tassellation (se realmente nVidia la renderà una tecnologia usufruibile, perchè così com'è ora per le ATI... non lo è).
Poi bisogna vedere i bench, anche a distanza di mesi, perchè quella che oggi sembra potenza pura di ATI, fra qualche mese, con uovi giochi e nuovi motori, potrebbe dimostrarsi meno performante di quanto sembri ora, con giochi attuali bastai su tecnologie ormai vecchie.
Ecco allora che il ritardo di nVidia potrebbe trasformarsi in una riserva di potenza maggiore che le garantirà una longevità maggiore... soprattutto quando conterà veramente (non di certo ora e nelle settimane precedenti).
In genere preferisco spendere un po' di più ed avere una scheda più longeva che spendere di meno per avere un prodotto performante... quando non conta... e che mi lascia dubbi per il futuro.
Kharonte85
19-01-2010, 10:32
Come ho già detto, quel sistema ha base clock fortemente spinto (da 133 MHz a 200 MHz), idem QPI. La frequenza di clock della memoria non è indicata, ma immagino sia molto spinta.
I sistemi, dici bene, sono similari, non simili. Quelle impostazioni in overclock fanno molta differenza. Far Cry 2 è un titolo che può essere fortemente dipendente dalla cpu; in questo caso base clock e clock memoria incidono molto più dei 200 MHz di differenza di clock. Questo spiega i 18 fps che indicate? Non penso del tutto, ma a mio avviso ne giustificano una buona parte.
Inoltre, quel valore riportato è sul primo loop; quello che noi tipicamente facciamo è eseguire 3 loop del benchmark e riportare il valore medio.
Detto questo, a me sembra che si stia montando un caso inutile; si vuole pretendere di derivare prestazioni assolute su una scheda video a confronto con l'altra utilizzando quale parametro 1 test con 1 titolo. Se nel confronto tra 5870 e GF100 con questo test specifico ottenessimo che la prima è più veloce della seconda del 50%, o la seconda più veloce della prima del 40%, avremmo un risultato specifico ma assolutamente nulla che permetta di trarre conclusioni sul comportamento medio di queste schede quando poste a confronto.
Sono d'accordo con te per quanto riguarda l'inconfrontabilità delle situazioni e sul "caso" inutile che stanno montando (con la solita aleggiante accusa che il sito sia di parte :rolleyes: )...pero' in questo caso secondo me era meglio che separavate i grafici coi numeri proposti da Nvidia e i vostri test rifatti per dare una indicazione (mi ci è voluto un po' a capire che i test della HD5870 erano stati fatti da voi e non da Nvidia :stordita: ) proprio per quello che hai sempre sostenuto.
Grafico 1: dati di nvidia (gf100 Vs gtx 285)
Grafico 2: dati "nostri" (GTX 285 Vs HD5870) + HD5850 (che avete aggiunto dopo allo stesso grafico ma che secondo me aumenta solo la confusione)
+ commento per spiegare le possibili discrepanze.
Questo perchè all'interno dell'articolo avete scritto che il dato sulla GTX 285 vi risultava più basso:
Nel caso specifico, abbiamo provato ad eseguire il test sulla nostra piattaforma, utilizzando GeForce GTX 285; rispetto ai dati forniti da NVIDIA le prestazioni scendono a 44 - 66,51 e 33,20 rispettivamente per avg framerate, max e min framerate.
Quindi se non siete riusciti ad ottenere lo stesso Framerate della GTX 285 è molto molto probabile che anche il dato sulla HD5870 sia sottostimato (per un qualche motivo sconosciuto) rispetto alla configurazione usata da nvidia.
Per esempio in questo sito anche loro hanno simulato la HD5870 pero' lo hanno indicato chiaramente e soprattutto hanno indicato che il risultato sulla GTX 285 gli ritornava equivalente:
PLEASE READ:
As you look at the charts below, you will notice that we added in “simulated” HD 5870 1GB results and there is a story behind this. NVIDIA was very forward with us and revealed the specifications of the test system they were running: a stock Intel i7 960, 6GB of 1600Mhz memory and an ASUS Rampage II Extreme motherboard running Windows 7. While we weren’t able to copy the exact same system, we did our best to replicate it by using the exact same CPU and OS while estimating the memory latencies and using a Gigabyte X58-UD5 motherboard. The result? Our stock GTX 285 performed within 2% of the results NVIDIA showed us so we are confident in the accuracy of our results.
Far Cry 2 DX10
While Far Cry 2 was released some time ago, it is still considered an extremely demanding game, especially at the Ultra High DX10 settings NVIDIA was using. They used the Ranch Small built-in timedemo which does tend to give a good approximation of the performance within the game itself.
http://images.hardwarecanucks.com/image//skymtl/GPU/GF100/GF100-42.jpg
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/27892-nvidia-s-geforce-gf100-under-microscope-13.html
Questo dato quindi è più attendibile del vostro...ma soprattutto a colpo d'occhio dal grafico si capisce che è una stima simulata.
carlottoIIx6
19-01-2010, 11:55
ma perchè vi affligete tanto!
quando usciranno si farà un vero confronto
tutta questa anticipazione a che serve??????
fermi deve avere maggiore potenza di calcolo perchè i chip sono più grandi ma questo fa si che se ne riescano a produrre di meno, quindi tutto sta al prezzo
nvidia ed amd hanno filosofie diverse
nella filosofia ati è meglio fare chip più piccoli e poi fare l'x2
nvidia vuole fare chip più grossi
anche per questo il confronto prestazionale è inutile
nvidia alle corde perche' sul campo ha la scheda piu' veloce su piazza ma nei giochi non credo riuscirà a fare meglio della 5970 specie se non sarà concorrenziale con i prezzi
500 euro per una scheda video non sono bruscolini...
per quanto riguarda tutte le novità sul GPGPU computing vedremo come gestira' il bus pci-e e le varie modalità della scheda...
la scheda fermi sempra un pc su scheda pci-e piuttosto che una scheda aggiuntiva...
ossia il resto del pc e' periferica della scheda...
netcrusher
19-01-2010, 12:39
ma perchè vi affligete tanto!
quando usciranno si farà un vero confronto
tutta questa anticipazione a che serve??????
fermi deve avere maggiore potenza di calcolo perchè i chip sono più grandi ma questo fa si che se ne riescano a produrre di meno, quindi tutto sta al prezzo
nvidia ed amd hanno filosofie diverse
nella filosofia ati è meglio fare chip più piccoli e poi fare l'x2
nvidia vuole fare chip più grossi
anche per questo il confronto prestazionale è inutile
Sì chiama Hype ed è tutta una tattica per far crescere l'interesse delle persone verso un prodotto, poi quando esce vedremo se questa spasmodica attesa sia valsa la pena, al momento Ati è la migliore scelta però il puzzo di compromesso tra le software houses ed Nvidia si vede troppo, i titoli dx11 dove min...a sono????? Già questo dato dovrebbe dare parecchio a pensare.........forza Ati sempre e comunque, viva la trasparenza..........qui abbiamo a che fare con un progetto manco fosse un veivolo alieno dell'area 51....ma vafff.....
helmen84
19-01-2010, 12:40
BUUUUFALAAAAAAAAA!
Rifatto i test con la HD5870.
Configurazione:
Processore: Intel Core i7 920@2800Mhz "133x21";
Scheda Madre: Asus Rampage Extreme II - X58;
Ram: 6Gb DDR3 - 1066Mhz - Cas. 8-8-8-24-2t;
Scheda Video: Ati HD5870@850/4800;
Sistema Operativo: Windows 7 64 Bit;
Driver Ati: Ctalyst 9.12 ufficiali.
La scheda video con le impostazioni sopra descritte, totalizza li seguente punteggio:
http://www.xtremeshack.com/immagine/t42963_1.jpg (http://www.xtremeshack.com/scheda/42963_1.jpg.html)
Con queste impostazioni che vedono circa 400Mhz di differenza a sfantaggio del test da me condotti, rispetto la configurazione di riferimento della preview , la scheda totalizza 68 Frame.
I 57 Frame della "preview" sono ancora lontani.
Il mio intervento non vuol essere polemico nei confronti di nessuno.
ghiltanas
19-01-2010, 13:04
ma perchè vi affligete tanto!
quando usciranno si farà un vero confronto
tutta questa anticipazione a che serve??????
fermi deve avere maggiore potenza di calcolo perchè i chip sono più grandi ma questo fa si che se ne riescano a produrre di meno, quindi tutto sta al prezzo
nvidia ed amd hanno filosofie diverse
nella filosofia ati è meglio fare chip più piccoli e poi fare l'x2
nvidia vuole fare chip più grossi
anche per questo il confronto prestazionale è inutile
io personalmente figurarsi se mi affliggo su delle schede video :p , e come penso molti altri, si sta facendo semplicemente dei ragionamenti.
L'anticipazione serve solo a nvidia per salvarsi un pò la faccia e distogliere in minima parte l'attenzione dalle 5000 ati.
Le dimensioni dei chip sono un dato molto importante e nn trascurabile, chip grandi sono + complessi da realizzare e + costosi, c'è da vedere se con questa scelta si riesce ad essere competitiv anche nel prezzo quindi
marco XP2400+
19-01-2010, 13:04
Rifatto i test con la HD5870.
Configurazione:
Processore: Intel Core i7 920@2800Mhz "133x21";
Scheda Madre: Asus Rampage Extreme II - X58;
Ram: 6Gb DDR3 - 1066Mhz - Cas. 8-8-8-24-2t;
Scheda Video: Ati HD5870@850/4800;
Sistema Operativo: Windows 7 64 Bit;
Driver Ati: Ctalyst 9.12 ufficiali.
La scheda video con le impostazioni sopra descritte, totalizza li seguente punteggio:
http://www.xtremeshack.com/immagine/t42963_1.jpg (http://www.xtremeshack.com/scheda/42963_1.jpg.html)
Con queste impostazioni che vedono circa 400Mhz di differenza a sfantaggio del test da me condotti, rispetto la configurazione di riferimento della preview , la scheda totalizza 68 Frame.
I 57 Frame della "preview" sono ancora lontani.
Il mio intervento non vuol essere polemico nei confronti di nessuno.
edit
ghiltanas
19-01-2010, 13:07
Con queste impostazioni che vedono circa 400Mhz di differenza a sfantaggio del test da me condotti, rispetto la configurazione di riferimento della preview , la scheda totalizza 68 Frame.
infatti è quello il valore giusto, anche altre recensioni sono in linea con i 68fps
considerato che nvidia nei test avrà pompato il suo valore ci sono 16 frame di differenza, ottimisticamente e in uno dei giochi in cui nvidia va decisamente meglio...mmm
infatti è quello il valore giusto, anche altre recensioni sono in linea con i 68fps
considerato che nvidia nei test avrà pompato il suo valore ci sono 16 frame di differenza, ottimisticamente e in uno dei giochi in cui nvidia va decisamente meglio...mmm
Il tutto, come hai detto giustamente, su un gioco nvidia-oriented, con una scheda che sicuramente costerà molto di più e con consumi maggiori...doppio mmm
PS senza offesa, ma vorrei sapere anche io perchè dalle rece di hwupgrade la 5870 registra mediamente 10 frame in meno rispetto a tutte le altre, comprese quelle degli utenti, e non è la prima volta
netcrusher
19-01-2010, 14:01
Il tutto, come hai detto giustamente, su un gioco nvidia-oriented, con una scheda che sicuramente costerà molto di più e con consumi maggiori...doppio mmm
PS senza offesa, ma vorrei sapere anche io perchè dalle rece di hwupgrade la 5870 registra mediamente 10 frame in meno rispetto a tutte le altre, comprese quelle degli utenti, e non è la prima volta
Mi associo alla richiesta, non mi pare attendibile una recensione del genere, attendiamo quindi un intervento da parte di Corsini
Rifatto i test con la HD5870.
Configurazione:
Processore: Intel Core i7 920@2800Mhz "133x21";
Scheda Madre: Asus Rampage Extreme II - X58;
Ram: 6Gb DDR3 - 1066Mhz - Cas. 8-8-8-24-2t;
Scheda Video: Ati HD5870@850/4800;
Sistema Operativo: Windows 7 64 Bit;
Driver Ati: Ctalyst 9.12 ufficiali.
La scheda video con le impostazioni sopra descritte, totalizza li seguente punteggio:
http://www.xtremeshack.com/immagine/t42963_1.jpg (http://www.xtremeshack.com/scheda/42963_1.jpg.html)
Con queste impostazioni che vedono circa 400Mhz di differenza a sfantaggio del test da me condotti, rispetto la configurazione di riferimento della preview , la scheda totalizza 68 Frame.
I 57 Frame della "preview" sono ancora lontani.
Il mio intervento non vuol essere polemico nei confronti di nessuno.
Grazie per aver accolto l'invito, come sospettavo il risultato cambia ma poco, sono sempre oltre 10 fps (e ti mancano 400 mhz...).... che non si spiegano :rolleyes:
infatti è quello il valore giusto, anche altre recensioni sono in linea con i 68fps
considerato che nvidia nei test avrà pompato il suo valore ci sono 16 frame di differenza, ottimisticamente e in uno dei giochi in cui nvidia va decisamente meglio...mmm
Non è che sia proprio giusto...ci stanno sempre 400Mhz di differenza...il valore + allineato è quello di 72 Frame circa.:)
Comunque poco cambia.
michelgaetano
19-01-2010, 14:33
Non è che sia proprio giusto...ci stanno sempre 400Mhz di differenza...il valore + allineato è quello di 72 Frame circa.:)
Comunque poco cambia.
dj883u2 hai già avuto modo di fare il test con il processore a 3,2 ghz, come dalla piattaforma di test?
Se non ricordo male il primo test che avevi fatto vedeva la cpu @ 3 ghz.
ghiltanas
19-01-2010, 14:38
Non è che sia proprio giusto...ci stanno sempre 400Mhz di differenza...il valore + allineato è quello di 72 Frame circa.:)
Comunque poco cambia.
si infatti ero stato magnanimo diciamo...i frame si ridurrebbero a 12...nn certo un gran risultato
Paolo Corsini vorrei una spiegazione riguardo al test di cui sopra nel quale vengono totalizzati 68 fps contro i 57 fps della vostra recensione... e sottolineo che nel test fatto dall'utente dj883u2 il processore ha un clock di 400mhz inferiore e il QPI è inferiore rispetto a quello del processore con il quale avete fatto la prova.
Grazie.
mapoetti
19-01-2010, 14:48
Rifatto i test con la HD5870.
Configurazione:
Processore: Intel Core i7 920@2800Mhz "133x21";
Scheda Madre: Asus Rampage Extreme II - X58;
Ram: 6Gb DDR3 - 1066Mhz - Cas. 8-8-8-24-2t;
Scheda Video: Ati HD5870@850/4800;
Sistema Operativo: Windows 7 64 Bit;
Driver Ati: Ctalyst 9.12 ufficiali.
La scheda video con le impostazioni sopra descritte, totalizza li seguente punteggio:
http://www.xtremeshack.com/immagine/t42963_1.jpg (http://www.xtremeshack.com/scheda/42963_1.jpg.html)
Con queste impostazioni che vedono circa 400Mhz di differenza a sfantaggio del test da me condotti, rispetto la configurazione di riferimento della preview , la scheda totalizza 68 Frame.
I 57 Frame della "preview" sono ancora lontani.
Il mio intervento non vuol essere polemico nei confronti di nessuno.
forse non centra nulla nel trhead....ma mi hai fatto voglia di fare il test
almeno cosi sò per certo quanto và piu della 285....si non ho il tuo pc ..ma almeno posso farmi una reale idea
http://www.allfreeportal.com/imghost/thumbs/3117351.jpg ('http://www.allfreeportal.com/imghost/viewer.php?id=3117351.jpg')
forse non centra nulla nel trhead....ma mi hai fatto voglia di fare il test
almeno cosi sò per certo quanto và piu della 285....si non ho il tuo pc ..ma almeno posso farmi una reale idea
http://www.allfreeportal.com/imghost/thumbs/3117351.jpg ('http://www.allfreeportal.com/imghost/viewer.php?id=3117351.jpg')
Questo test non ha senso... hai processore e vga overcloccati, se vuoi un confronto alla pari rifai il test con le frequenze a default.
netcrusher
19-01-2010, 14:56
Questo test non ha senso... hai processore e vga overcloccati, se vuoi un confronto alla pari rifai il test con le frequenze a default.
rsdj te un bel default con la 5970 ce lo poi fà????
mapoetti
19-01-2010, 14:56
si ma non ho 8 core che in default lavorano quasi come il mio in oc
forse non centra nulla nel trhead....ma mi hai fatto voglia di fare il test
almeno cosi sò per certo quanto và piu della 285....si non ho il tuo pc ..ma almeno posso farmi una reale idea
http://www.allfreeportal.com/imghost/thumbs/3117351.jpg ('http://www.allfreeportal.com/imghost/viewer.php?id=3117351.jpg')
Ma mi prendi per i fondelli?......configurazioni troppo differenti per paragonarle.
rsdj te un bel default con la 5970 ce lo poi fà????
A che scopo? Non ha senso farlo con la Hd5970...ci sarebbe troppo divario.
mapoetti
19-01-2010, 15:00
o ragazzi scusate io non volevo offendere o polemizzare.....volevo solo capire quanto và di piu la 5870.....comunque fine ot grazie lo stesso
o ragazzi scusate io non volevo offendere o polemizzare.....volevo solo capire quanto và di piu la 5870.....comunque fine ot grazie lo stesso
Devi stare a frequenze in stock perlomeno, altrimenti come e in quale misura te ne rendi conto?
rsdj te un bel default con la 5970 ce lo poi fà????
Se me la spediscono oggi domani te lo faccio, altrimenti giovedì :D
Cmq come detto da dj883u2 non avrebbe senso...
si ma non ho 8 core che in default lavorano quasi come il mio in oc
8 core??
Va beh apparte questo, quello è un gioco dove incide molto la frequenza del procio più che i core ;)
dj883u2 hai già avuto modo di fare il test con il processore a 3,2 ghz, come dalla piattaforma di test?
Se non ricordo male il primo test che avevi fatto vedeva la cpu @ 3 ghz.
Si, lo avevo fatto a 3.0Ghz. Per farlo a 3.2Ghz con il mio processore dovrei impostare 21x152, ma ci sarebbero comunque delle differenze di QPI, ram e bus....anche se veramente minime.
Puoi farlo anche a 2.4, 3.2, 3.6, ammesso che la CPU non abbia problemi? Vorrei capire quanto è CPU dipendente.
Più tardi vedo di farli.:)
o ragazzi scusate io non volevo offendere o polemizzare.....volevo solo capire quanto và di piu la 5870.....comunque fine ot grazie lo stesso
Forse sono stato sgarbato nella risposta.Ti chiedo scusa.:)
Per fare un paragone reale, bisognerebbe avere dei parametri di riferimento decisamente + omogenei. Il tuo test è eseguito con settaggi troppo diversi, non ha senso paragonarlo.:)
Paolo Corsini
19-01-2010, 15:09
Sto accendendo adesso il sistema di test delle VGA; tempo qualche ora e avrete "un po'" di numeri.
netcrusher
19-01-2010, 15:14
Se me la spediscono oggi domani te lo faccio, altrimenti giovedì :D
Cmq come detto da dj883u2 non avrebbe senso...
8 core??
Va beh apparte questo, quello è un gioco dove incide molto la frequenza del procio più che i core ;)
giusto per godere un pò anche se inutilmente ai fini del test, vabbè ho capito se lo fai mandamelo in privè....ahahahaha
Paolo Corsini
19-01-2010, 15:18
Stando ai primi risultati, sembra proprio che debba fare una rettifica su quel risultato.
Radeon HD 5870
impostazioni con Far Cry 2 come indicato in precedenza
valori medi dopo 3 esecuzioni
min: 44,39
med: 65,67
max: 137,27
Sistema: quanto indicato nell'articolo, driver Catalyst 9.12
Cosa sto testando ancora: Radeon HD 5870 con Windows 7, a seguire Radeon HD 5850 con Windows Vista e Windows 7. Fatto questo GeForce GTX 285 con Windows Vista e Windows 7.
Stiamo cercando di capire per quale motivo il sistema ci abbia fornito valori più bassi l'altro giorno, in quanto le condizioni di test erano identiche a quelle attuali.
Kharonte85
19-01-2010, 15:25
Se correggete l'articolo ribadisco il suggerimento di mantenere i due grafici separati :)
Paolo Corsini
19-01-2010, 15:26
Da quanto so il bench di FarCry 2 non renderizza a schermo sempre le stesse cose ad ogni run, portando a risultati che sbarellano anche abbastanza.
Su questo hai ragione, ma le differenze non sono così marcate tra un run e l'altro.
halduemilauno
19-01-2010, 15:28
Stando ai primi risultati, sembra proprio che debba fare una rettifica su quel risultato.
Radeon HD 5870
impostazioni con Far Cry 2 come indicato in precedenza
valori medi dopo 3 esecuzioni
min: 44,39
med: 65,67
max: 137,27
Sistema: quanto indicato nell'articolo, driver Catalyst 9.12
Cosa sto testando ancora: Radeon HD 5870 con Windows 7, a seguire Radeon HD 5850 con Windows Vista e Windows 7. Fatto questo GeForce GTX 285 con Windows Vista e Windows 7.
Stiamo cercando di capire per quale motivo il sistema ci abbia fornito valori più bassi l'altro giorno, in quanto le condizioni di test erano identiche a quelle attuali.
cambierebbe tutto lo scenario.
Se correggete l'articolo ribadisco il suggerimento di mantenere i due grafici separati :)
quoto questo suggerimento.
è indispensabile in una situazione in cui parte dei test vengono efettuati da "altri"(nvidia nello specifico), senza che la redazione abbia potuto confemrare CON MANO la veridicità di tali test.
michelgaetano
19-01-2010, 15:36
Posso confermare la cosa delle differenze generalmente minime nei run di FC2, non ricordo davvero di aver mai visto con le schede video in mio possesso differenze superiori ai 2-3 frames.
In questo senso deve non essere andato qualcosa nella piattaforma di test per aver restituito un risultato del genere, salvo poi riallinearsi - nonche abbia la più pallida idea di cosa possa essere stato, ma vabeh :D.
Detto questo attendo ulteriori bench di dj883u2 (grazie per la disponibilità), perchè anche io sono interessato a vedere la differenza prestazionale al variare della frequenza della cpu.
Una domanda a questo riguardo: le mie esperienze in OC si fermano alla serie Core 2, quindi ignoro totalmente le variabili che si hanno con Nehalem. Chiedo quindi: QPI, RAM, bus etc, quanto influiscono, su processori a pari frequenza? È qualcosa di, numericamente, trascurabile, o davvero possono portare frames aggiuntivi? Se fosse la seconda opzione, sbaglio o neanche potremmo riuscire a fare un vero paragone col benchbed che Nvidia ha utilizzato per la presentazione (non mi pare si conosceva altro, se non piattaforma e frequenza della cpu).
Mi assoccio poi a chi dice di separare i grafici, perchè essendo test fatti da parti diverse, le cose possono fortemente cambiare.
Stando ai primi risultati, sembra proprio che debba fare una rettifica su quel risultato.
Radeon HD 5870
impostazioni con Far Cry 2 come indicato in precedenza
valori medi dopo 3 esecuzioni
min: 44,39
med: 65,67
max: 137,27
Sistema: quanto indicato nell'articolo, driver Catalyst 9.12
Cosa sto testando ancora: Radeon HD 5870 con Windows 7, a seguire Radeon HD 5850 con Windows Vista e Windows 7. Fatto questo GeForce GTX 285 con Windows Vista e Windows 7.
Stiamo cercando di capire per quale motivo il sistema ci abbia fornito valori più bassi l'altro giorno, in quanto le condizioni di test erano identiche a quelle attuali.
Questo valore cambia non poco le carte in tavola, ma l'anomalia è verificabile anche nei test da voi precedentemente fatti?
Posso confermare la cosa delle differenze generalmente minime nei run di FC2, non ricordo davvero di aver mai visto con le schede video in mio possesso differenze superiori ai 2-3 frames.
In questo senso deve non essere andato qualcosa nella piattaforma di test per aver restituito un risultato del genere, salvo poi riallinearsi - nonche abbia la più pallida idea di cosa possa essere stato, ma vabeh :D.
Detto questo attendo ulteriori bench di dj883u2 (grazie per la disponibilità), perchè anche io sono interessato a vedere la differenza prestazionale al variare della frequenza della cpu.
Una domanda a questo riguardo: le mie esperienze in OC si fermano alla serie Core 2, quindi ignoro totalmente le variabili che si hanno con Nehalem. Chiedo quindi: QPI, RAM, bus etc, quanto influiscono, su processori a pari frequenza? È qualcosa di, numericamente, trascurabile, o davvero possono portare frames aggiuntivi? Se fosse la seconda opzione, sbaglio o neanche potremmo riuscire a fare un vero paragone col benchbed che Nvidia ha utilizzato per la presentazione (non mi pare si conosceva altro, se non piattaforma e frequenza della cpu).
Mi assoccio poi a chi dice di separare i grafici, perchè essendo test fatti da parti diverse, le cose possono fortemente cambiare.
Ti posso dire, che a parità di frequenza del processore, con i test dei Benchmark su i giochi,e ci tengo a precisare su i giochi, non Benchmark sintetici, il QPI, RAM, bus influiscono si e no di 2/3 frame.
michelgaetano
19-01-2010, 15:43
Mi pareva fosse stato detto Core i7 960.
Sicuramente, errore mio che non ricordavo. In questo senso frequenza, QPI e tutto il resto appresso dovrebbe essere quanto meno replicabile o paragonabile, o sbaglio?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.