View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470
Andrea deluxe
19-11-2009, 14:18
:confused:
http://www.brightsideofnews.com/Data/2009_10_2/Colfax-worlds-first-8GPU-box-8TFLOPS/Colfax_8TFLOPS_GPU_01.jpg
Tesla C1060
sulle sk, ci sono degli adesivi con scritto warning (se vengono rimossi, celano un connettore di alimentazione)
Andrea deluxe
19-11-2009, 14:55
fermi ritarda?
Galaxy lavora.....
http://en.expreview.com/2009/11/19/galaxy-preps-a-special-dual-gpu-graphics-card-for-christmas-launch.html#more-5896
una minchiata in stile asus mars...... ma senza problemi di surriscaldamento.....
fermi ritarda?
Galaxy lavora.....
http://en.expreview.com/2009/11/19/galaxy-preps-a-special-dual-gpu-graphics-card-for-christmas-launch.html#more-5896
una minchiata in stile asus mars...... ma senza problemi di surriscaldamento.....
Ma quando la smettono :muro:
Bastoner
19-11-2009, 16:13
Ma quando la smettono :muro:
Qualcosa dovranno pur fare i partner di Nvidia :asd:
Gygabyte e Xfx ci hanno visto giusto.
ma escodo un paio di vga prima di natale?? Devo cambia scheda video:muro:
ma escodo un paio di vga prima di natale?? Devo cambia scheda video:muro:
no.
Già, delle belle schede vendute a coppia CrossFire Edition o SLi Edition fatte in questo modo :)
Ad ogni modo io sulla Maximus avrei un'autostrada fra le due VGA (se ne avessi due), quindi è proprio quella mobo ad essere pensata coi piedi (fra le altre cose tengo la VGA nel secondo slot, quello più basso, così la zona chipset/cpu ha più agio)
Si tra le altre cose si risparmierebbe spazio sulla motherboard in quanto la prima scheda non occuperebbe nemmeno uno slot sottostante. In poche parole invece di occupare 4 slot occuperesti solo 3 slot! Non riesco proprio a capire perche nessuno ci abbia pensato.... oppure magari alle case costerebbe troppo produrle?
halduemilauno
20-11-2009, 10:00
http://www.tomshw.it/cont/news/geforce-fermi-per-i-videogiochi-attesa-ripagata/22892/1.html
Completamente infondate e ridicole, secondo Nvidia, le dichiarazioni di Richard Huddy di AMD di qualche settimana fa, che indicavano in Nvidia un'azienda impegnata troppo sul mercato HPC (high performance computing) a discapito del tradizionale settore videogiochi.
"Il gioco rimane la nostra area principale. Tuttavia ci sono altre opportunità da esplorare per la crescita dell'azienda, come il settore HPC", ha dichiarato Bryan Del Rizzo.
"Ci sono due lati dell'architettura Fermi, uno di calcolo e uno grafico. Recentemente abbiamo mostrato il lato calcolo, ed è questo il motivo per cui abbiamo presentato le nostre nuove GPU Fermi della serie Tesla".
Del Rizzo promette che l'attesa per le schede GeForce sarà ripagata. "Capisco che alcune persone potrebbero essere un po' ansiose perché non abbiamo pubblicato informazioni dettagliate circa le schede video GeForce basate su Fermi. Tuttavia, posso assicurare che la divulgazione di ogni dato è vicina. L'attesa varrà la pena, specialmente quando le persone capiranno di che cosa sono capaci i prodotti basati su Fermi".
La foto che certificherebbe il funzionamento di una scheda video GeForce Fermi
A riprova dell'attenzione che Nvidia ripone verso il mondo dei videogiochi, Del Rizzo ha dichiarato che l'azienda ha aumentato l'impegno verso più piattaforme, quali Xbox e PS3.
"Nvidia ha portato capacità PhysX in giochi come Batman, Dark Void e Darkest of Days. Stiamo investendo moltissimi soldi e risorse per far migliorare i videogiochi su più piattaforme. Abbiamo anche introdotto la tecnologia 3D Vision, che supporta oltre 400 giochi".
"Nvidia offrirà ai videogiocatori una grande esperienza nel 2010 con la linea di schede GeForce basate su Fermi. Posso assicurarvelo, pazientate e sarete ripagati".
;)
[url]
"Nvidia offrirà ai videogiocatori una grande esperienza nel 2010 con la linea di schede GeForce basate su Fermi. Posso assicurarvelo, pazientate e sarete ripagati".
;)
speriamo ;)
halduemilauno
20-11-2009, 10:44
speriamo ;)
"Capisco che alcune persone potrebbero essere un po' ansiose perché non abbiamo pubblicato informazioni dettagliate circa le schede video GeForce basate su Fermi. Tuttavia, posso assicurare che la divulgazione di ogni dato è vicina. L'attesa varrà la pena, specialmente quando le persone capiranno di che cosa sono capaci i prodotti basati su Fermi".
metterei in evidenza anche quanto ho quotato. ora il "è vicina" o è molto molto vicina tipo il primo dicembre(come si è rumoreggiato)oppure è abbastanza vicina tipo il 7 gennaio.
in attesa di tutti i riscontri del caso.
;)
"Capisco che alcune persone potrebbero essere un po' ansiose perché non abbiamo pubblicato informazioni dettagliate circa le schede video GeForce basate su Fermi. Tuttavia, posso assicurare che la divulgazione di ogni dato è vicina. L'attesa varrà la pena, specialmente quando le persone capiranno di che cosa sono capaci i prodotti basati su Fermi".
metterei in evidenza anche quanto ho quotato. ora il "è vicina" o è molto molto vicina tipo il primo dicembre(come si è rumoreggiato)oppure è abbastanza vicina tipo il 7 gennaio.
in attesa di tutti i riscontri del caso.
;)
speriamo sia molto vicina piuttosto che abbastanza vicina :)
speriamo sia molto vicina piuttosto che abbastanza vicina :)
quoto :D
Kharonte85
20-11-2009, 12:06
http://www.tomshw.it/cont/news/geforce-fermi-per-i-videogiochi-attesa-ripagata/22892/1.html
Completamente infondate e ridicole, secondo Nvidia, le dichiarazioni di Richard Huddy di AMD di qualche settimana fa, che indicavano in Nvidia un'azienda impegnata troppo sul mercato HPC (high performance computing) a discapito del tradizionale settore videogiochi.
"Il gioco rimane la nostra area principale. Tuttavia ci sono altre opportunità da esplorare per la crescita dell'azienda, come il settore HPC", ha dichiarato Bryan Del Rizzo.
"Ci sono due lati dell'architettura Fermi, uno di calcolo e uno grafico. Recentemente abbiamo mostrato il lato calcolo, ed è questo il motivo per cui abbiamo presentato le nostre nuove GPU Fermi della serie Tesla".
Del Rizzo promette che l'attesa per le schede GeForce sarà ripagata. "Capisco che alcune persone potrebbero essere un po' ansiose perché non abbiamo pubblicato informazioni dettagliate circa le schede video GeForce basate su Fermi. Tuttavia, posso assicurare che la divulgazione di ogni dato è vicina. L'attesa varrà la pena, specialmente quando le persone capiranno di che cosa sono capaci i prodotti basati su Fermi".
La foto che certificherebbe il funzionamento di una scheda video GeForce Fermi
A riprova dell'attenzione che Nvidia ripone verso il mondo dei videogiochi, Del Rizzo ha dichiarato che l'azienda ha aumentato l'impegno verso più piattaforme, quali Xbox e PS3.
"Nvidia ha portato capacità PhysX in giochi come Batman, Dark Void e Darkest of Days. Stiamo investendo moltissimi soldi e risorse per far migliorare i videogiochi su più piattaforme. Abbiamo anche introdotto la tecnologia 3D Vision, che supporta oltre 400 giochi".
"Nvidia offrirà ai videogiocatori una grande esperienza nel 2010 con la linea di schede GeForce basate su Fermi. Posso assicurarvelo, pazientate e sarete ripagati".
;)
E' quello che ci aspettiamo...:sperem:
Athlon 64 3000+
20-11-2009, 12:06
Secondo me la situazione di Fermi è un bel po' incasinata e il fatto che sia in ritardo ci siano diverse motivazioni.
Dal fatto che TMSC che con i 40 nm sarebbero da fucilare al fatto di Nvidia di voler insistere con una gpu con superficie gigantesca che ha comportato additura la revisione A3 di Fermi.
Nvidia farebbe bene a darsi una mossa a far uscire le scheda invece di fare le loro solite cavolate di marketing come la scheda farlocca visto che per questo abbiamo le HD 5870 per esempio a 340 euro che come prezzo ritengo eccessivo.:mad:
speriamo sia molto vicina piuttosto che abbastanza vicina
... c'è tempo fino al 31/12/2010 per far uscire tali prodotti........ dovrebbero starci dentro no?! :asd:
halduemilauno
20-11-2009, 12:30
speriamo sia molto vicina piuttosto che abbastanza vicina :)
E' quello che ci aspettiamo...:sperem:
come detto un milione di volte ovvero in attesa di tutti i riscontri del caso si potrebbe dire che la volontà/necessità(presunta/rumoreggiata)di nvidia della terza rev.(la A3)sarebbe essa la causa/conseguenza del posticipo dal 24 novembre/1 dicembre a gennaio inoltrato. dopotutto vista la situazione del concorrente ovvero in piena penuria di chip a 40nm ecco che questa ulteriore perdita di tempo non dovrebbe sortire alcun effetto negativo o cmq molto molto relativo.
ripeto in attesa di tutti i riscontri del caso.
;)
... dopotutto vista la situazione del concorrente ovvero in piena penuria di chip a 40nm ecco che questa ulteriore perdita di tempo non dovrebbe sortire alcun effetto negativo o cmq molto molto relativo.
ripeto in attesa di tutti i riscontri del caso.
;)
.... " non dovrebbe sortire alcun effetto negativo o cmq molto molto relativo."
Sono curioso di vedere i prossimi risultati trimestrali di AMD, ;)
Parlando al telefono con un rivenditore poco fa ho sentito che entro dicembre dovrebbe debuttare a listino la nuova serie basata su Fermi, non so esattamente con quale modello (380?). Diceva che è un dato certo.............ma io sono come San Tommaso.
Kharonte85
20-11-2009, 14:07
.... " non dovrebbe sortire alcun effetto negativo o cmq molto molto relativo."
Sono curioso di vedere i prossimi risultati trimestrali di AMD, ;)
E da quello capiresti cosa? Dato che si sta parlando di nvidia, non di AMD...
Le schede di amd sono richieste ma non disponibili se questo scenario continua fino a fine anno è ovvio che nvidia non ha molto di cui preoccuparsi.
halduemilauno
20-11-2009, 14:40
E da quello capiresti cosa? Dato che si sta parlando di nvidia, non di AMD...
Le schede di amd sono richieste ma non disponibili se questo scenario continua fino a fine anno è ovvio che nvidia non ha molto di cui preoccuparsi.
appunto.
;)
sickofitall
20-11-2009, 14:48
E da quello capiresti cosa? Dato che si sta parlando di nvidia, non di AMD...
Le schede di amd sono richieste ma non disponibili se questo scenario continua fino a fine anno è ovvio che nvidia non ha molto di cui preoccuparsi.
già la 5970 ne han consegnate pooooochissime, next ne ha avute 3-4 pezzi, tecnocomputer pure, e i prossimi arrivi sono stimati dopo la seconda metà di dicembre
5870 e 5850 bisogna aspettare almeno 1 mese se hai :ciapet:
Quindi entrambi i fronti non è che se la passano benissimo :D
io ho avuto un gran :ciapet: xchè sono riuscito a prenderla la 5800, e me l'hanno consegnata in 2 gg :Perfido:
già la 5970 ne han consegnate pooooochissime, next ne ha avute 3-4 pezzi, tecnocomputer pure, e i prossimi arrivi sono stimati dopo la seconda metà di dicembre
5870 e 5850 bisogna aspettare almeno 1 mese se hai :ciapet:
Quindi entrambi i fronti non è che se la passano benissimo :D
next ne avrà vendute minimo una 50ina (2 le ho prese io), stessa cosa bow con i quali ero in contatto, più che altro arrivano col contagocce e appena arrivano le vendono tutte in poche ore. certo è un peccato per amd che potrebbe venderne molte di più e ogni giorno in più che passa gli utenti sono tentati di aspettare la risposta di nvidia, anche annullando gli ordini ;)
next ne avrà vendute minimo una 50ina (2 le ho prese io), stessa cosa bow con i quali ero in contatto, più che altro arrivano col contagocce e appena arrivano le vendono tutte in poche ore. certo è un peccato per amd che potrebbe venderne molte di più e ogni giorno in più che passa gli utenti sono tentati di aspettare la risposta di nvidia, anche annullando gli ordini ;)
è un peccato perchè questa sarebbe una occasione ghiottissima per amd di vendere un macello di schede :stordita: !!
io ho avuto un gran :ciapet: xchè sono riuscito a prenderla la 5800, e me l'hanno consegnata in 2 gg :Perfido:
chi ha acquistato subito (ma proprio subito) è riuscito a mettersi nel case la vga, chi ci ha pensato un giorno è rimasto fregato.
chi ha acquistato subito (ma proprio subito) è riuscito a mettersi nel case la vga, chi ci ha pensato un giorno è rimasto fregato.
e si...
E da quello capiresti cosa? Dato che si sta parlando di nvidia, non di AMD...
Le schede di amd sono richieste ma non disponibili se questo scenario continua fino a fine anno è ovvio che nvidia non ha molto di cui preoccuparsi.
... da quello capirei quanto è vera la sua/tua supposizione, :rolleyes:
La difficoltà di TMSC con i 40nm è un vero dramma per AMD e per quanti, come me, vorrebbero un mercato VGA decisamente più equilibrato.. :(
E' da tempo che ho deciso di acquistare anche in funzione della politica aziendale che le varie corporation mettono in essere..: per quanto mi riguarda, a prescindere dalla bontà dei loro prodotti, NVIDIA ed INTEL rimangono sullo scaffale!!!
kiriranshelo
20-11-2009, 15:30
La difficoltà di TMSC con i 40nm è un vero dramma per AMD e per quanti, come me, vorrebbero un mercato VGA decisamente più equilibrato.. :(
E' da tempo che ho deciso di acquistare anche in funzione della politica aziendale che le varie corporation mettono in essere..: per quanto mi riguarda, a prescindere dalla bontà dei loro prodotti, NVIDIA ed INTEL rimangono sullo scaffale!!!
il punto, come dice Ratatosk, è che sono TMSC e AMD ad avere problemi per i 40nm o solo AMD? potrebbe non essere un caso la resa pessima in questo momento.
appleroof
20-11-2009, 15:35
il punto, come dice Ratatosk, è che sono TMSC e AMD ad avere problemi per i 40nm o solo AMD? potrebbe non essere un caso la resa pessima in questo momento.
che vuol dire? Finora, i 40nm ad amd li fornisce sempre TMSC...
semmai la frase esatta è che sia Nvidia che Amd (che appunto si forniscono entrambe da TMSC) soffrono i problemi dei 40nm di TMSC, anzi tra le 2 è Nvidia a subirne maggiormente le conseguenze, molto probabilmente a causa della complessità maggiore del suo chippone rispetto a rv870
Kharonte85
20-11-2009, 15:37
... da quello capirei quanto è vera la sua/tua supposizione, :rolleyes:
Per quello dovresti aspettare i risultati finanziari di nvidia non di AMD.
kiriranshelo
20-11-2009, 15:38
che vuol dire? Finora, i 40nm ad amd li fornisce sempre TMSC...
semmai la frase esatta è che sia Nvidia che Amd (che appunto si forniscono entrambe da TMSC) soffrono i problemi dei 40nm di TMSC, anzi tra le 2 è Nvidia a subirne maggiormente le conseguenze, molto probabilmente a causa della complessità maggiore del suo chippone rispetto a rv870
la differenza è che ATI ha già manifestato da tempo che cambierà fonderia a differenza di Nvidia che aveva intenzione di farlo ma poi è tornata sui propri passi, chissà...
un regalino di TMSC?
a dir la verità la più colpita è ATI, Nvidia non ha molte schede a 40nm... anzi
a dir la verità la più colpita è ATI, Nvidia non ha molte schede a 40nm... anzi
per ora ha solo la gt240.
la differenza è che ATI ha già manifestato da tempo che cambierà fonderia a differenza di Nvidia che aveva intenzione di farlo ma poi è tornata sui propri passi, chissà...
un regalino di TMSC?
a dir la verità la più colpita è ATI, Nvidia non ha molte schede a 40nm... anzi
A pensar male ....:mbe:
C'era un whisper, non so quanto attentibile....che ipotizzava uno scenario del genere..
appleroof
20-11-2009, 15:47
la differenza è che ATI ha già manifestato da tempo che cambierà fonderia a differenza di Nvidia che aveva intenzione di farlo ma poi è tornata sui propri passi, chissà...
un regalino di TMSC?
Amd ha la sua "filiale" GF a cui rivolgersi....che Nvidia volesse cambiare non mi risulta, visto che solo TMSC attualmente ha la tecnologia per i 40nm per le gpu :stordita:
piuttosto Nvidia rifiuta di avere a che fare, per ora e ufficialmente, anch'essa con GF
a dir la verità la più colpita è ATI, Nvidia non ha molte schede a 40nm... anzi
ma l'hai capito il mio post? :what:
che vuol dire? Finora, i 40nm ad amd li fornisce sempre TMSC...
semmai la frase esatta è che sia Nvidia che Amd (che appunto si forniscono entrambe da TMSC) soffrono i problemi dei 40nm di TMSC, anzi tra le 2 è Nvidia a subirne maggiormente le conseguenze, molto probabilmente a causa della complessità maggiore del suo chippone rispetto a rv870
stà a significare che se aggiungi i problemi "propri" di TMSC (che sono la causa della penuria di rv870) alla maggiore complessità di gt300 (che è causa del ritardo) vedrai che la più colpita è...Nvidia
spero sia più chiaro così :boh:
kiriranshelo
20-11-2009, 15:48
...Nvidia che aveva intenzione di farlo ma poi è tornata sui propri passi, chissà...
un regalino di TMSC?
scusate se mi autoquoto, ma casualmente ad agosto viene deciso che non passeranno a GF. E se non sbaglio si sapeva già che Fermi ritardava di due/tre mesi mentre ATI era già lì lì per presentare la sua nuova scheda
http://www.xbitlabs.com/news/other/display/20091108225224_Nvidia_s_Chief_Executive_Says_No_to_Globalfoundries_Microprocessors.html
Iantikas
20-11-2009, 15:49
La difficoltà di TMSC con i 40nm è un vero dramma per AMD e per quanti, come me, vorrebbero un mercato VGA decisamente più equilibrato.. :(
E' da tempo che ho deciso di acquistare anche in funzione della politica aziendale che le varie corporation mettono in essere..: per quanto mi riguarda, a prescindere dalla bontà dei loro prodotti, NVIDIA ed INTEL rimangono sullo scaffale!!!
furbo!!! ;)
...x quanto mi riguarda attualmente nn comprerei neanke io una gpu nvidia ma x ragioni esclusivamente legate alla bontà dei loro prodotti in relazione alla concorrenza...
...ma x intel nn c'è un solo motivo valido x scartare a priori l'acquisto di uno dei suoi prodotti (siano essi una cpu, una mobo o un notebook)...
...dato ke in questi campi a farsi concorrenza nn'è ke ci stanno decine di aziende, ragionando come te uno si limita con le sue stesse mani la scelta come se vivesse in un regime di monopolio...
...contento te...
la differenza è che ATI ha già manifestato da tempo che cambierà fonderia a differenza di Nvidia che aveva intenzione di farlo ma poi è tornata sui propri passi, chissà...
un regalino di TMSC?
a dir la verità la più colpita è ATI, Nvidia non ha molte schede a 40nm... anzi
per forza, per adesso nvidia non ne ha ancora fatte... per me il problema è proprio questo, che non riescono a gestire i 40nm, mentre a quanto pare ati ci sta riuscendo molto bene (o comunque meglio di nvidia)
kiriranshelo
20-11-2009, 15:50
Amd ha la sua "filiale" GF a cui rivolgersi....che Nvidia volesse cambiare non mi risulta, visto che solo TMSC attualmente ha la tecnologia per i 40nm per le gpu :stordita:
http://www.pc-facile.com/news/nvidia_globalfoundries_trattative_corso/63288.htm
piuttosto Nvidia rifiuta di avere a che fare, per ora e ufficialmente, anch'essa con GF
speriamo solo, che davvero che sia così.
appleroof
20-11-2009, 15:51
scusate se mi autoquoto, ma casualmente ad agosto viene deciso che non passeranno a GF. E se non sbaglio si sapeva già che Fermi ritardava di due/tre mesi mentre ATI era già lì lì per presentare la sua nuova scheda
http://www.xbitlabs.com/news/other/display/20091108225224_Nvidia_s_Chief_Executive_Says_No_to_Globalfoundries_Microprocessors.html
quindi arrivi a pensare che Nvidia rifiuti GF non perchè questa è strettamente legata ad Amd, ma piuttosto perchè TMSC le avrebbe fatto un "regalino"
tutto è possibile, ma secondo me quando si parla di Nvidia vi viene davvero la paranoia da libro giallo...vedete complotti che manco la Agatha Christie :asd: :asd:
luX0r.reload
20-11-2009, 15:53
furbo!!! ;)
...x quanto mi riguarda attualmente nn comprerei neanke io una gpu nvidia ma x ragioni esclusivamente legate alla bontà dei loro prodotti in relazione alla concorrenza...
...ma x intel nn c'è un solo motivo valido x scartare a priori l'acquisto di uno dei suoi prodotti (siano essi una cpu, una mobo o un notebook)...
...dato ke in questi campi a farsi concorrenza nn'è ke ci stanno decine di aziende, ragionando come te uno si limita con le sue stesse mani la scelta come se vivesse in un regime di monopolio...
...contento te...
Magari volevi dire in relazione al rapporto prezzo/prestazioni di ATI, non alla bontà dei loro prodotti ;)
appleroof
20-11-2009, 15:54
furbo!!! ;)
...x quanto mi riguarda attualmente nn comprerei neanke io una gpu nvidia ma x ragioni esclusivamente legate alla bontà dei loro prodotti in relazione alla concorrenza...
...ma x intel nn c'è un solo motivo valido x scartare a priori l'acquisto di uno dei suoi prodotti (siano essi una cpu, una mobo o un notebook)...
...dato ke in questi campi a farsi concorrenza nn'è ke ci stanno decine di aziende, ragionando come te uno si limita con le sue stesse mani la scelta come se vivesse in un regime di monopolio...
...contento te...
quoto.
http://www.pc-facile.com/news/nvidia_globalfoundries_trattative_corso/63288.htm
speriamo solo, che davvero che sia così.
pensa che Jen-Hsun Huang ha pure lavorato in Amd prima di fondare Nvidia :D
furbo!!! ;)
...x quanto mi riguarda attualmente nn comprerei neanke io una gpu nvidia ma x ragioni esclusivamente legate alla bontà dei loro prodotti in relazione alla concorrenza...
...ma x intel nn c'è un solo motivo valido x scartare a priori l'acquisto di uno dei suoi prodotti (siano essi una cpu, una mobo o un notebook)...
...dato ke in questi campi a farsi concorrenza nn'è ke ci stanno decine di aziende, ragionando come te uno si limita con le sue stesse mani la scelta come se vivesse in un regime di monopolio...
...contento te...
concordo!!!
ciao ;)
kiriranshelo
20-11-2009, 15:55
...ma x intel nn c'è un solo motivo valido x scartare a priori l'acquisto di uno dei suoi prodotti (siano essi una cpu, una mobo o un notebook)...
bè certe volte uno può decidere di non comprarle per fattori che non comprendono le prestazioni. Vedi le azioni scorrette di Intel nei confronti di AMD
appleroof
20-11-2009, 15:58
bè certe volte uno può decidere di non comprarle per fattori che non comprendono le prestazioni. Vedi le azioni scorrette di Intel nei confronti di AMD
Per una cinquina d'anni allora non avremmo potuto comprare nessuna vga, visto il cartello ormai assodato che ci fu tra Nvidia ed Ati :D
http://www.tomshw.it/news.php?newsid=14771
kiriranshelo
20-11-2009, 16:00
tutto è possibile, ma secondo me quando si parla di Nvidia vi viene davvero la paranoia da libro giallo...vedete complotti che manco la Agatha Christie :asd: :asd:
non dico che sia vero, e spero veramente che non lo sia. Bè sai tra Intel e Nvidia (che ci ha già pensato con Batman dando la colpa a Eidos) non è che si possa pensare sempre bene
In ogni caso anche se ci ha lavorato (Jen-Hsun Huang) non vuol dire che non possa fare degli accordi sottobanco per favorirsi o limitare i danni
kiriranshelo
20-11-2009, 16:02
Per una cinquina d'anni allora non avremmo potuto comprare nessuna vga, visto il cartello ormai assodato che ci fu tra Nvidia ed Ati :D
http://www.tomshw.it/news.php?newsid=14771
questa non la sapevo. Qui non hai molta scelta sono due le ditte che producono chip grafici :)
Però se avessi la scelta e posso evitare di comprare ditte, che non solo leali o non si comportano correttamente, preferisco. Poi ognuno ha la sua idea :D
ps tra l'altro il periodo precede l'acquisto di ATI da parte di AMD che viene completato a fine 2006
appleroof
20-11-2009, 16:05
non dico che sia vero, e spero veramente che non lo sia. Bè sai tra Intel e Nvidia (che ci ha già pensato con Batman dando la colpa a Eidos) non è che si possa pensare sempre bene
io parto dal presupposto che nessuna azienda "gioca pulito", se può, e se dovessi seguire una morale nell'acquisto di questo o quel componente non comprerei più niente
sarà una filosofia estrema, ma pensare che esistano aziende "buone" e aziende "cattive" è un'illusione: gli affari sono affari, e se Amd potesse (leggi: avesse la forza contrattuale delle altre due) farebbe lo stesso. Non facciamoci abbindolare, compriamo quello che vogliamo ma non in base a moralismi inesistenti.
poi è una mia idea, magari sbagliatissima :boh:
edit: ho visto dopo il tuo ultimo post....sono d'accordo che ognuno ha la sua idea, per me uno compra quello che cavolo gli pare e sulla base delle motivazioni più disparate, non giudico ma ho anche io una mia idea, appunto :)
In ogni caso anche se ci ha lavorato (Jen-Hsun Huang) non vuol dire che non possa fare degli accordi sottobanco per favorirsi o limitare i danni
ma certo, era solo una battuta ;)
kiriranshelo
20-11-2009, 16:08
io parto dal presupposto che nessuna azienda "gioca pulito", se può, e se dovessi seguire una morale nell'acquisto di questo o quel componente non comprerei più niente
sarà una filosofia estrema, ma pensare che esistano aziende "buone" e aziende "cattive" è un'illusione: gli affari sono affari, e se Amd potesse (leggi: avesse la forza contrattuale delle altre due) farebbe lo stesso. Non facciamoci abbindolare, compriamo quello che vogliamo ma non in base a moralismi inesistenti.
poi è una mia idea, magari sbagliatissima :boh:
no alla fine è anche corretto e potrebbe anche darsi che AMD si possa comportare allo stesso modo anche se si spera di no. Alla fine uno può cercare di 'premiare' l'azienda che si comporta meglio anche perchè il discorso buono vs cattivo non può esistere.
L'unica azienda buona è quella che fa tutto gratis... :O
...e che non rischi di diventare un monopolio vedasi Google
ma certo, era solo una battuta ;)
;)
Per una cinquina d'anni allora non avremmo potuto comprare nessuna vga, visto il cartello ormai assodato che ci fu tra Nvidia ed Ati :D
http://www.tomshw.it/news.php?newsid=14771
in passato una cosa così l'ho anche sospettata :eek: !!
appleroof
20-11-2009, 16:11
no alla fine è anche corretto e potrebbe anche darsi che AMD si possa comportare allo stesso modo anche se si spera di no. Alla fine uno può cercare di 'premiare' l'azienda che si comporta meglio anche perchè il discorso buono vs cattivo non può esistere.
L'unica azienda buona è quella che fa tutto gratis :O
;)
esatto :asd: :asd:
in passato una cosa così l'ho anche sospettata :eek: !!
....e purtroppo non è detto che non si ripresenti, magari con protagonisti diversi: sopratutto in duopolio o in oligopolio a volte è moooolto più conveniente fare così, del tipo se non puoi batterli alleati con loro :rolleyes: (speriamo solo che l'improvvisa pace di questi giorni tra Intel e Amd non preluda in qualche modo a questo..appunto, ma forse adesso sono io che vedo i gialli alla Crhistie :D)
esatto :asd: :asd:
....e purtroppo non è detto che non si ripresenti, magari con protagonisti diversi: sopratutto in duopolio o in oligopolio a volte è moooolto più conveniente fare così, del tipo se non puoi batterli alleati con loro :rolleyes: (speriamo solo che l'improvvisa pace di questi giorni tra Intel e Amd non preluda in qualche modo a questo..appunto, ma forse adesso sono io che vedo i gialli alla Crhistie :D)
speriamo che non ci tocchi anche questa perfidata :Perfido:
concordo!!!
ciao ;)
anche io.
Non credo assolutamente che esistano corporation buone ed altre cattive...semplicemente cerco di comperare con un livello consapevolezza che non sia limitato al solo fattore prestazionale.... parliamo in ogni caso di prodotti assolutamente comparabili..anche nel versante CPU dove attualmente c'è il divario "maggiore".
Se la gente acquistasse badando a tutta una serie di aspetti..: politiche aziendali trasparenti, foot-printing etc etc non saremmmo nella merda sino al collo...in quanto consumatori ed anzitutto in quanto cittadini..
...ma x intel nn c'è un solo motivo valido x scartare a priori l'acquisto di uno dei suoi prodotti (siano essi una cpu, una mobo o un notebook)...
Affossano la concorrenza da una vita...se non è questo un buon motivo..!?
Quoto.
Partendo dal presupposto di non fare il proprio danno e di non fare beneficienza verso questa o quell'azienda, se però nel comprare si mettesse nel piatto anche la correttezza delle politiche commerciali, le aziende dovrebbero tenerne conto.
Kharonte85
20-11-2009, 22:16
io parto dal presupposto che nessuna azienda "gioca pulito", se può, e se dovessi seguire una morale nell'acquisto di questo o quel componente non comprerei più niente
sarà una filosofia estrema, ma pensare che esistano aziende "buone" e aziende "cattive" è un'illusione: gli affari sono affari, e se Amd potesse (leggi: avesse la forza contrattuale delle altre due) farebbe lo stesso. Non facciamoci abbindolare, compriamo quello che vogliamo ma non in base a moralismi inesistenti.
poi è una mia idea, magari sbagliatissima :boh:
edit: ho visto dopo il tuo ultimo post....sono d'accordo che ognuno ha la sua idea, per me uno compra quello che cavolo gli pare e sulla base delle motivazioni più disparate, non giudico ma ho anche io una mia idea, appunto :)
Infatti concordo e applico anche io quell'idea...;)
molochgrifone
21-11-2009, 01:40
La difficoltà di TMSC con i 40nm è un vero dramma per AMD e per quanti, come me, vorrebbero un mercato VGA decisamente più equilibrato.. :(
E' da tempo che ho deciso di acquistare anche in funzione della politica aziendale che le varie corporation mettono in essere..: per quanto mi riguarda, a prescindere dalla bontà dei loro prodotti, NVIDIA ed INTEL rimangono sullo scaffale!!!
Per dirla alla genovese, ti taglieresti il belino per far dispetto alla moglie...
In un mondo di grandi aziende NON esiste l'azienda pulita, semplicemente io sono dell'idea che quella in svantaggio economico/tecnologico cerca di recuperare qualche punto dal punto di vista "etico"; se la situazione fosse invertita, le parti lo sarebbero parimenti.
Quindi io sono per l'idea di prediligere quella migliore dal punto di vista delle performance pure (quando il portafoglio me lo consente) o alternativamente di prediligere quella con il miglior rapporto prezzo/prestazioni.
Per dirla alla genovese, ti taglieresti il belino per far dispetto alla moglie...
In un mondo di grandi aziende NON esiste l'azienda pulita, semplicemente io sono dell'idea che quella in svantaggio economico/tecnologico cerca di recuperare qualche punto dal punto di vista "etico"; se la situazione fosse invertita, le parti lo sarebbero parimenti.
Quindi io sono per l'idea di prediligere quella migliore dal punto di vista delle performance pure (quando il portafoglio me lo consente) o alternativamente di prediligere quella con il miglior rapporto prezzo/prestazioni.
Ma dai... =) : E' evidente a tutti che la più buona ha la rogna, e non dubito che AMD al posto di Intel farebbe alla stregua...il senso del mio discorso è che posso tranquilamente rinunciare ad un gain prestazionale del 10/15% "premiando" un'azienda che almeno apparentemente non si è "macchiata" di politiche commerciali scorrette...
In ogni caso tornando IT..."per Dicembre vedremo qualcosa di concreto...?Qualcosa che non siano slide o bench sintetici...?" Io credo di no!
Parleranno di PhysX e 3dVision, sono queste le grandi potenzialità che gli utenti capiranno...
voglio sperare che oltre a queste funzionalità in più venga mostrato anche qualche bench con alcuni giochi per mostrare la potenza di queste gtx300...
luX0r.reload
21-11-2009, 12:17
Parleranno di PhysX e 3dVision, sono queste le grandi potenzialità che gli utenti capiranno...
... penso siano comunque tecnologie più interessanti e utili di eyeinfinity :rolleyes:
Marscorpion
21-11-2009, 12:45
... penso siano comunque tecnologie più interessanti e utili di eyeinfinity :rolleyes:
D'accordissimo, non so come si faccia a giocare con tre monitor uno vicino all'altro......del tutto sproporzionato!
Questa naturalmente è una mia opinione. :)
Severnaya
21-11-2009, 12:57
... penso siano comunque tecnologie più interessanti e utili di eyeinfinity :rolleyes:
D'accordissimo, non so come si faccia a giocare con tre monitor uno vicino all'altro......del tutto sproporzionato!
Questa naturalmente è una mia opinione. :)
oddio mi fate morire http://www.diesirae-guild.eu/smf/Smileys/dies/rotfl.gif
mentre physics è utile invece :asd:
Bastoner
21-11-2009, 12:57
... penso siano comunque tecnologie più interessanti e utili di eyeinfinity :rolleyes:
Ah bhè :rolleyes:
D'accordissimo, non so come si faccia a giocare con tre monitor uno vicino all'altro......del tutto sproporzionato!
Questa naturalmente è una mia opinione. :)
Chi ha provato eyefinity parla di esperienza immersiva e coinvolgente, vedi la videorecensione di Guru3d, i commenti di Anand etc etc.
Chi ha provato 3d vision ha vomitato l'anima dopo 15 minuti di gioco. Pissx, vabè, no comment.
In ogni caso, Nvidia non ha nulla di nuovo da offrire e spinge su 3d Vision e Physix come caratteristiche aggiuntive (che dovrebbero spingere la clientela a preferire g200 e g92 a Cypress) tanto da farne il soggetto centrale del proprio marketing. Hanno avuto il coraggio di affermare che la gts250 è più performante della 5870 grazie alla fisica :asd:
Nvidia non può che buttare fumo negli occhi, visto che non ha nulla in mano, e infatti abbiamo visto che ha "punito" i recensori che non rimarcavano abbastaza il valore aggiuntivo di Physix non inviandogli la gts250 (vedi Anandtech che ha raccontanto i fatti e non è stato smentito da Nvidia).
Ati ha un'intera line up di GPU nuove fiammanti (peccato per il problemi dei 40nm), e eyefinity non è al centro del marketing. E' un fronzolo in più, per una nicchia di nerd disposti a sborsare grosse cifre per avere tre monitor. Se eyefinity fa schifo...bhè sti cazzi, ATI ha da offrire ben altro, in questo momento, che una vetusta-e-pluribocciata-dal-mercato-tecnologia-3-d, e quattro fogli che svolazzano. :doh: :rolleyes:
mister-x
21-11-2009, 13:01
Ah bhè :rolleyes:
Chi ha provato eyefinity parla di esperienza immersiva e coinvolgente, vedi la videorecensione di Guru3d, i commenti di Anand etc etc.
Chi ha provato 3d vision ha vomitato l'anima dopo 15 minuti di gioco. Pissx, vabè, no comment.
In ogni caso, Nvidia non ha nulla di nuovo da offrire e spinge su 3d Vision e Physix come caratteristiche aggiuntive (che dovrebbero spingere la clientela a preferire g200 e g92 a Cypress) tanto da farne il soggetto centrale del proprio marketing. Hanno avuto il coraggio di affermare che la gts250 è più performante della 5870 grazie alla fisica :asd:
Nvidia non può che buttare fumo negli occhi, visto che non ha nulla in mano, e infatti abbiamo visto che ha "punito" i recensori che non rimarcavano abbastaza il valore aggiuntivo di Physix non inviandogli la gts250 (vedi Anandtech che ha raccontanto i fatti e non è stato smentito da Nvidia).
Ati ha un'intera line up di GPU nuove fiammanti (peccato per il problemi dei 40nm), e eyefinity non è al centro del marketing. E' un fronzolo in più, per una nicchia di nerd disposti a sborsare grosse cifre per avere tre monitor. Se eyefinity fa schifo...bhè sti cazzi, ATI ha da offrire ben altro, in questo momento, che una vetusta-e-pluribocciata-dal-mercato-tecnologia-3-d, e quattro fogli che svolazzano. :doh: :rolleyes:
Quotone! Hai perfettamente ragione ;)
Severnaya
21-11-2009, 13:02
Chi ha provato eyefinity parla di esperienza immersiva e coinvolgente, vedi la videorecensione di Guru3d, i commenti di Anand etc etc.
Chi ha provato 3d vision ha vomitato l'anima dopo 15 minuti di gioco. Pissx, vabè, no comment.
In ogni caso, Nvidia non ha nulla di nuovo da offrire e spinge su 3d Vision e Physix come caratteristiche aggiuntive (che dovrebbero spingere la clientela a preferire g200 e g92 a Cypress) tanto da farne il soggetto centrale del proprio marketing. Hanno avuto il coraggio di affermare che la gts250 è più performante della 5870 grazie alla fisica :asd:
Nvidia non può che buttare fumo negli occhi, visto che non ha nulla in mano, e infatti abbiamo visto che ha "punito" i recensori che non rimarcavano abbastaza il valore aggiuntivo di Physix non inviandogli la gts250 (vedi Anandtech che ha raccontanto i fatti e non è stato smentito da Nvidia).
Ati ha un'intera line up di GPU nuove fiammanti (peccato per il problemi dei 40nm), e eyefinity non è al centro del marketing. E' un fronzolo in più, per una nicchia di nerd disposti a sborsare grosse cifre per avere tre monitor. Se eyefinity fa schifo...bhè sti cazzi, ATI ha da offrire ben altro, in questo momento, che una vetusta-e-pluribocciata-dal-mercato-tecnologia-3-d, e quattro fogli che svolazzano. :doh: :rolleyes:
oddio queste me l'ero proprio perse http://www.diesirae-guild.eu/smf/Smileys/dies/rotfl.gif
come giustamente dici tu è una caratteristica aggiuntiva testata e mostrata al pubblico ma ati nn basa la sua campagna di marketing su "comprate le schede ati per eyefinity", mentre nvidia fa l'esatto opposto mi sembra palese :mbe:
Severnaya
21-11-2009, 13:04
Peccato solo che nVidia conti su quello per vendere residuati, mentre eyefinity è solo una cosa in più su GPU estremamente performanti.
Per la cronaca ho appena iniziato a giocare Dragon Age, gira con ogni singolo setting al massimo e V-Sync attivo AA8x a 1680x con un dual core e una HD4870.
E' un titolo PhysX. Su CPU.
aaaaaaah touché :O
Marscorpion
21-11-2009, 13:04
oddio mi fate morire http://www.diesirae-guild.eu/smf/Smileys/dies/rotfl.gif
mentre physics è utile invece :asd:
A me non me ne frega niente ne di ATI ne di Nvidia, aspetto l'uscita di Fermi e poi acquisto quella che va meglio!
Certo però che acquistare tre monitor non è alla portata di tutte le tasche.....
Bastoner
21-11-2009, 13:06
A me non me ne frega niente ne di ATI ne di Nvidia, aspetto l'uscita di Fermi e poi acquisto quella che va meglio!
Certo però che acquistare tre monitor non è alla portata di tutte le tasche.....
Non lo sarà nemmeno la versione Geforce di Fermi. E visto che non sarà sicuramente un architettura su cui possono basare la fascia mainstream, mi chiedo se proporranno g92 in versione gts350.
con il chip principale della futura 380 ci potrebbero fare una gtx360 e 375.
per le fasce sotto faranno un chip + piccolo con molti meno shader e bus, sempre basato su quella architettura. insomma un pò come sta facendo ati con le 5700 e le prossime 5600.
Severnaya
21-11-2009, 13:10
A me non me ne frega niente ne di ATI ne di Nvidia, aspetto l'uscita di Fermi e poi acquisto quella che va meglio!
Certo però che acquistare tre monitor non è alla portata di tutte le tasche.....
che vuol dire quella che va meglio :mbe:
bhe se devo giocare a 20fps a 1920x1080 con physics attivato ti dico no grazie :mbe:
Bastoner
21-11-2009, 13:11
con il chip principale della futura 380 ci potrebbero fare una gtx360 e 375.
per le fasce sotto faranno un chip + piccolo con molti meno shader e bus, sempre basato su quella architettura. insomma un pò come sta facendo ati con le 5700 e le prossime 5600.
Ne sei convinto? Perchè non suggerisci agli ingegneri NVidia il modo per farlo? Bhè sai con g200 non ci sono riusciti, e probabilmente non ci riusciranno nemmeno con Fermi.
Marscorpion
21-11-2009, 13:12
Non lo sarà nemmeno la versione Geforce di Fermi. E visto che non sarà sicuramente un architettura su cui possono basare la fascia mainstream, mi chiedo se proporranno g92 in versione gts350.
Bè il prezzo sarà in funzione delle sue prestazioni, se andrà come una 5870 non possono venderla a 500 euro altrimenti chi se la compra.
Ne sei convinto? Perchè non suggerisci agli ingegneri NVidia il modo per farlo? Bhè sai con g200 non ci sono riusciti, e probabilmente non ci riusciranno nemmeno con Fermi.
con gt200 sarebbe stato inutile fare delle schede che sostituivano le g92. non ci sarebbe stato nessun vantaggio dato che il gt200 non è altro che un g92 con + shader e bus. diverso il discorso con fermi.
aaaaaaah touché :O
OT: ahahahah stupendo l'avatar :rotfl:
Marscorpion
21-11-2009, 13:17
che vuol dire quella che va meglio :mbe:
bhe se devo giocare a 20fps a 1920x1080 con physics attivato ti dico no grazie :mbe:
Vuol dire quella che va meglio...... La 5870 sarà anche una scheda ottima ma per chi come me è interessato alle configurazioni multigpu conviene ancora nVidia. Da quei pochi test che ho visto una 5870 è + potente della GTX285, ma uno SLI di GTX285 batte un crossfire di 5870!
luX0r.reload
21-11-2009, 13:18
Peccato solo che nVidia conti su quello per vendere residuati, mentre eyefinity è solo una cosa in più su GPU estremamente performanti.
Per la cronaca ho appena iniziato a giocare Dragon Age, gira con ogni singolo setting al massimo e V-Sync attivo AA8x a 1680x con un dual core e una HD4870.
E' un titolo PhysX. Su CPU.
E chi ha parlato di residuati? L'abstract dell'articolo che hai segnalato parla dell'architettura Fermi :rolleyes:
Bastoner
21-11-2009, 13:18
con gt200 sarebbe stato inutile fare delle schede che sostituivano le g92. non ci sarebbe stato nessun vantaggio dato che il gt200 non è altro che un g92 con + shader e bus. diverso il discorso con fermi.
Convinto tu.....
Convinto tu.....
si sinceramente penso sarà così. prima usciranno le schede di fascia alta basate sul chip grande...e dopo le altre media/ mainstream sempre dx11 basate su architattura fermi.
certo non ci metteranno poco a fare tutta la gamma completa, ma che nvidia miri ad averla tutta dx11 mi sembra plausibile.. :asd:
luX0r.reload
21-11-2009, 13:24
si sinceramente penso sarà così. prima usciranno le schede di fascia alta basate sul chip grande...e dopo le altre media/ mainstream sempre dx11 basate su architattura fermi.
certo non ci metteranno poco a fare tutta la gamma completa, ma che nvidia miri ad averla tutta dx11 mi sembra plusibile.. :asd:
Già :sofico: :Prrr:
Già :sofico: :Prrr:
plusibilissimo :asd:
luX0r.reload
21-11-2009, 13:30
Mi segnali una scheda con architettura Fermi da comprare? :rolleyes:
:mbe: Mò che c'entra?
Siamo sul thread "Aspettando le nuove GTX" quindi mi sembra chiaro, a meno che non si voglia andare off topic, che non si faccia riferimento ad hardware già sul mercato... hai perso qualche tassello per strada :D
ironman72
21-11-2009, 13:32
Fino all avvento delle hd5*** era Ati a rincorrere ora tocca ad Nvidia, poi ritocchera' ad Ati..
E' una storia trita e ritrita.. avevate tutti dato ati per morta, ed ecco la serie 5000...!!
Ora la morta e Nvidia.... poi ci sara' Fermi e scommetto ci sarannoi commenti del tipo..."Ati e' indietro le 5***x4 non reggono etc"
Attualmente Ati e' il top punto!
Io aspetto Fermi.......(ho una gtx275 che basta e avanza!!!)
Marscorpion
21-11-2009, 13:36
Immagino che questa perla venga per sentito dire, visto che i fatti dimostrano il contrario... :rolleyes:
http://www.pcgameshardware.com/aid,696698/Ati-Radeon-HD-5850/5870-Crossfire-vs-Nvidia-Geforce-GTX-285-SLI-Multi-GPU-Shootout/Reviews/
Io ho letto solo la recensione fatta da Guru3D e Solo in un gioco le 2 5870 battevano le GTX285, in tutti gli altri giochi testati andavano uguali o prevaleva lo sli.
luX0r.reload
21-11-2009, 13:36
Immagino che questa perla venga per sentito dire, visto che i fatti dimostrano il contrario... :rolleyes:
http://www.pcgameshardware.com/aid,696698/Ati-Radeon-HD-5850/5870-Crossfire-vs-Nvidia-Geforce-GTX-285-SLI-Multi-GPU-Shootout/Reviews/
Penso si riferisse al fatto che in generale lo SLI scali meglio del Crossfire... cosa risaputa e dimostrata anche in un articolo di hw di qualche mese fa.
Ma senza scomodare hw, nell'articolo che hai linkato si vede chiaramente che lo SLI funzioni meglio del crossfire.
Una singola 5870 è molto più veloce di una singola 285, ma in configurazioni multigpu nvidia recupera tantissimo e il divario tra 5870 e 285 è piccolissimo e addirittura in alcuni bench, tipo CoD5, le nvidia vanno meglio.
luX0r.reload
21-11-2009, 13:41
Si parlava su quello di cui parleranno al prossimo appuntamento. Parleranno di PhysX e 3DVision e di quanto sono fighi ad avercelo. Poi l'utente che decida che vuole queste due cose esce di casa e va al negozio o va su trovaprezzi e si compra un residuato perché GeForce@Fermi non ne esistono.
Mi sa che avevi perso il filo...
Perchè secondo te un utente che segue gli articoli su Fermi o va ad un convegno nVidia poi non è capace a distinguere una scheda con vecchia architettura da una con nuova architettura? Mah!
Penso si riferisse al fatto che in generale lo SLI scali meglio del Crossfire... cosa risaputa e dimostrata anche in un articolo di hw di qualche mese fa.
Ma senza scomodare hw, nell'articolo che hai linkato si vede chiaramente che lo SLI funzioni meglio del crossfire.
Una singola 5870 è molto più veloce di una singola 285, ma in configurazioni multigpu nvidia recupera tantissimo e il divario tra 5870 e 285 è piccolissimo e addirittura in alcuni bench, tipo CoD5, le nvidia vanno meglio.http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/18/#abschnitt_performancerating
Mancano le 2x5870 e 2x285, ma dalle 2x5850 e 2x275 si riesce a capire.
EDIT: posto anche questo http://www.anandtech.com/mb/showdoc.aspx?i=3649&p=1
Le nuove schede in dual sono molto potenti, quindi i risultati possono essere "falsati" da una cpu che non regge il settore video.
Questo scenario probabilmente si verificherá pure con fermi in SLI.
molochgrifone
21-11-2009, 13:48
Peccato solo che nVidia conti su quello per vendere residuati, mentre eyefinity è solo una cosa in più su GPU estremamente performanti.
Per la cronaca ho appena iniziato a giocare Dragon Age, gira con ogni singolo setting al massimo e V-Sync attivo AA8x a 1680x con un dual core e una HD4870.
E' un titolo PhysX. Su CPU.
Mi spieghi sta cosa del titolo PhysX su CPU? No visto che lo sto giocando pure io, non vorrei perdermi qualcosa per strada, perché al momento con tutto al max V-Sync attivo su ris 1920x1200 con la 8800 GTX lo reggo, però sta cosa del Physx me l'ero persa :confused:
Marscorpion
21-11-2009, 13:50
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/18/#abschnitt_performancerating
Mancano le 2x5870 e 2x285, ma dalle 2x5850 e 2x275 si riesce a capire.
Qui il divario è a favore del crossfire; mamma mia però da una recensione all'altra cambia moltissimo! L'unica sarebbe provarle di persona per rendersi conto.
Comunque niente da dire, ATI a sto giro a fatto un ottimo lavoro, per ora; magari all'uscita di Fermi tutto sarà ridimensionato.
Mi spieghi sta cosa del titolo PhysX su CPU? No visto che lo sto giocando pure io, non vorrei perdermi qualcosa per strada, perché al momento con tutto al max V-Sync attivo su ris 1920x1200 con la 8800 GTX lo reggo, però sta cosa del Physx me l'ero persa :confused:Semplice: physx é un middleware per la fisica.
Esiste una versione per CPU (ottimizzata quindi per il funzionamento su processore), e una versione GPU (ottimizzata per il funzionamento solo su schede nVidia, o emulata su cpu con risultati osceni).
Sta ai programmatori scegliere quale usare.
Qui il divario è a favore del crossfire; mamma mia però da una recensione all'altra cambia moltissimo! L'unica sarebbe provarle di persona per rendersi conto.Hanno usato un processore a 4.0GHz.
Laddove usano un processore a default, o con OC medio, il crossfire non mostra il suo vero valore. Accadrá lo scenario della seconda recensione che ho postato :)
yossarian
21-11-2009, 14:01
con gt200 sarebbe stato inutile fare delle schede che sostituivano le g92. non ci sarebbe stato nessun vantaggio dato che il gt200 non è altro che un g92 con + shader e bus. diverso il discorso con fermi.
siccome questo discorso l'ho sentito più di una volta, vorrei chiarire un concetto: quando produco un chip di fascia alta, gli scarti, lo si voglia o no, si creano perchè su un wafer solo una piccola quntità di die sono perfettamente funzionanti con numero di unità e frequenze stabilite. Più un chip è complrsso e più la resa produttiva è bassa, soprattutto se non hai unità ridondanti. significa che più un chip è complesso più scarti si avranno, indipendentemente dalla volontà di chi progetta e produce. Quindi, in realtà, non decidi se commercilizzare i meno prodotti di fascia bassa: lo devi fare e basta, altrimenti quelli sono tutti soldi (e tanti) buttati dalla finestra e non ammortizzerai mai il costo di produzione dei pochi chip in commercio, soprattutto se sei costreto a venderli a prezzi bassi a causa della concorrenza.
Quindi, quella di nVidia, fatta sia per i 55 che per i 65 nm, non è stata una libera scelta motivata dal fatto di avere già gli scarti di G80 da commercializzare ma è stata una scelta imposta dal fatto che si è dovuta affrettare a recuparare il porcesso rpoduttivo di svantaggio e, per farlo, ha dovuto utilizzare uno shrink di G80. Questo ha creato altri scarti della vecchia architettura che si andavano a sovrapporre a quelli di GT200.
Insomma, la scelta era tra restare indietro con i processi produttivi, oppure sacrificare quasi epr intero (tranne la fascia alta) la line up di GT200.
Mi segnali una scheda con architettura Fermi da comprare? :rolleyes:
secondo me, si dovrebbe riflettere su alcune cose:
finora si è parlato di GT300 soprattutto in ottica GP computing; sono cominciate a circolare le rpime specifiche, anche relative alla frequenza dello shader core della versione per il gpgpu; è stata fatta vedere una demo con un confronto tra GT200 e GT300 in doppia precisione (nota che prendo per buone tutte le cose presentate, ossia parto dal presupposto che non siano fake). Al contrario, non si sa nulla, neppure le frequenze degli shader, della versione gaming ed è stato fatto vedere uno screen shot su un presunto bench DX11 fatto girare da GT300. Ai fini di questo ragionamneto non conta sapere se quella foto è fake o no.
La riflessione che faccio è questa: al momento è stato mostrato poco o nulla ma si parlato molto e si è parlato soprattutto del gpgpu. Se considerassimo fake tutto ciò che è stato mostrato, si arriverebbe alla conclusione che non ci sia un solo sample di Fermi funzionante: il che sarebbe una tragedia (non se ne vedrebbe l'ombra neppure per la fine del Q2 2010).
Un'altra ipotesi potrebbe essere quella delle basse rese produttive, ma mi sentirei di scartarla, in quanto, ammesso che ci siano pochi sample funzionanti, questi sarebbero in mano a nVidia che potrebbe usarli per mostrare le potenzialità del chip invece di parlarne soltanto e far vedere pcb tarocchi e foto ambigue o, nel migliore dei casi, prive di significato.
Tera ipotesi è quella che sia vero quanto riportato da hw.fr a proposito delle capacità di calcolo di GT300 in singola e doppia precisione e nel calcolo di MADD e FMA; per comodità, riporto l'immagine da cui sembrerebbe che GT300, a fp32, abbia, con shader core a 1600 MHz, una capacità di calcolo teorica paragonabile a quella di GT200 per quanto riguarda le MADD
http://www.hardware.fr/medias/photos_news/00/27/IMG0027058.gif
http://www.hardware.fr/articles/772-7/nvidia-fermi-revolution-gpu-computing.html
Ora, sembrerebbe che nVidia abbia problemi a far funzionare GT300 con shader core a 1600 MHz, tanto che si è parlato di frequenze inferiori a quelle presviste anche per fp64 (il che allinea le prestazioni di fermi, in doppia precisione, a quelle di RV870). Se questo fosse confermato, allora, a fp32, GT300 non andrebbe meglio o, se si, non di molto, rispetto a GT200.
La mancanza di date di presentazione e di specifiche, potrebbe essere il sintomo che stiano tentando di tirare al massimo le frequenze per compensare la mancanza di potenza di calcolo (anche il lancio di NV30 fu posticipato, ma in quel caso, diffusero specifiche che poi non vennero confermate, in quanto NV30, inizialmente, doveva funzionare a frequenze inferiori che furono aumentate per cercare di ridurre il gap rispetto a R300).
Ultima ipotesi, è che c'è quelche bug. In tal caso, a seconda del tipo di bug, la soluzione potrebbe richiedere molti mesi o poche ore.
Al momento non mi vengono in mente altre ipotesi
Di sicuro è da scartare la tesi che nVidia stia nascondendo le sue carte, visto che la cosa non ha senso alcuno, poichè ATi le sue le ha già scoperte da un pezzo.
Kharonte85
21-11-2009, 14:09
Di sicuro è da scartare la tesi che nVidia stia nascondendo le sue carte, visto che la cosa non ha senso alcuno, poichè ATi le sue le ha già scoperte da un pazzo.
:rotfl: :rotfl: :rotfl:
Ma scusa non puo' essere semplicemente che stiano aspettando rese migliori? A me pare la spiegazione più logica e semplice...avendo il chip più grosso avranno incontrato certamente maggiori difficoltà e a vedere come è ridotta la disponibilità delle schede HD58x0 direi che la cosa acquista ancora di più un senso.
Il discorso di vedo/non vedo è fuorviante: mai nvidia ha rilasciato dati sulle performance finali prima dello scadere dell'NDA (prima di aver lanciato ufficialmente le schede), non lo farà nemmeno questa volta...e il motivo principale di questo comportamento sarebbe quello logico di continuare a vendere le attuali schede.
yossarian
21-11-2009, 14:21
:rotfl: :rotfl: :rotfl:
Ma scusa non puo' essere semplicemente che stiano aspettando rese migliori? A me pare la spiegazione più logica e semplice...avendo il chip più grosso avranno incontrato certamente maggiori difficoltà e a vedere come è ridotta la disponibilità delle schede HD58x0 direi che la cosa acquista ancora di più un senso.
Il discorso di vedo/non vedo è fuorviante: mai nvidia ha rilasciato dati sulle performance finali prima dello scadere dell'NDA (prima di aver lanciato ufficialmente le schede), il motivo principale sarebbe quello di continuare a vendere le attuali schede.
La tesi che nVidia non stia scoprendo le carte è di qualche utente del forum (l'ho solo riportata) non certo mia, visto che so bene che in casa AMD hanno informazioni piuttosto precise su Fermi (come nVidia le aveva su RV870). Comunque, corretto l'errore (lapsus freudiano o colpa del panino che stavo mangiando mentre digitavo?).
In quanto al resto, nVidia, stavolta, ha già svelato la sua architettura, ci sono anche white paper su GT300, on line, alla portata di tutti.
Cos'altro dovrebbe mostrare?
L'unica cosa che manca sono i bench.
Quindi anche la tesi che nVidia non mostra prima dello scadere dell'NDA non regge.
Prima di G80 non avevano fatto trapelare nulla, neppure che fose un chip a shader unificati (anche se i bene informati lo sapevano da un pezzo, ma parliamo di addetti ai lavori o quasi). Stavolta, al contrario, stanno parlando molto ma non stanno facendo vedere i test (soprattutto quelli in game o nei bench sintetici) che sono quelli che più interessano agli utenti di tipo consumer. Se esiste GT300 funzionante, il modo migliore per far vendere meno AMD sarebbe quello di mostrarne le vere potenzialità. Al contrario, si stanno rendendo ridicoli facendo vedere una volta un finto pcb e la volta successiva una foto senza senso. In questo modo danno forza alle tesi di chi sostiene che GT300 non funzioni o che non sia così performante, almeno in game, come vorrebbero far credere e ottengono l'effetto contrario.
in effetti il discorso non fa una piega.
servirebbero proprio i bench con i giochi per attirare l'attenzione al massimo e bloccare le vendite ati. e invece ancora niente :boh:
Peccato solo che nVidia conti su quello per vendere residuati, mentre eyefinity è solo una cosa in più su GPU estremamente performanti.
Eyefinity, una tecnologia che quando funzionerà anche con soluzioni crossfire potrebbe dare un ulteriore senso a configurazioni multi-gpu/scheda, certo che ad oggi siamo molto indietro.
Toms ne ha provati 7 sia su 5870 che su 5970, unica scheda quest'ultima a supportare in via preliminare eyefinity in crossfire , 5 sono incompatibili e/o crashati, uno va meglio con 5870 che con 5970, e l'altro va uguale, su 7 titoli i miglioramenti ottenuti su GPU estremamente performanti sono zero :rolleyes:
http://www.tomshw.it/cont/articolo/radeon-hd-5900-un-assaggio-di-eyefinity-e-crossfire/22847/6.html
Severnaya
21-11-2009, 14:43
io che giocavo a wow un pensierino ce l'avrei fatto :asd:
http://www.youtube.com/watch?v=NnL0PFIcnN4
Bastoner
21-11-2009, 14:52
siccome questo discorso l'ho sentito più di una volta, vorrei chiarire un concetto: quando produco un chip di fascia alta, gli scarti, lo si voglia o no, si creano perchè su un wafer solo una piccola quntità di die sono perfettamente funzionanti con numero di unità e frequenze stabilite. Più un chip è complrsso e più la resa produttiva è bassa, soprattutto se non hai unità ridondanti. significa che più un chip è complesso più scarti si avranno, indipendentemente dalla volontà di chi progetta e produce. Quindi, in realtà, non decidi se commercilizzare i meno prodotti di fascia bassa: lo devi fare e basta, altrimenti quelli sono tutti soldi (e tanti) buttati dalla finestra e non ammortizzerai mai il costo di produzione dei pochi chip in commercio, soprattutto se sei costreto a venderli a prezzi bassi a causa della concorrenza.
Quindi, quella di nVidia, fatta sia per i 55 che per i 65 nm, non è stata una libera scelta motivata dal fatto di avere già gli scarti di G80 da commercializzare ma è stata una scelta imposta dal fatto che si è dovuta affrettare a recuparare il porcesso rpoduttivo di svantaggio e, per farlo, ha dovuto utilizzare uno shrink di G80. Questo ha creato altri scarti della vecchia architettura che si andavano a sovrapporre a quelli di GT200.
Insomma, la scelta era tra restare indietro con i processi produttivi, oppure sacrificare quasi epr intero (tranne la fascia alta) la line up di GT200.
Questo dovrebbe far riflettere gli ingegneri improvvisati che abbiamo qui su hwu.
secondo me, si dovrebbe riflettere su alcune cose:
finora si è parlato di GT300 soprattutto in ottica GP computing; sono cominciate a circolare le rpime specifiche, anche relative alla frequenza dello shader core della versione per il gpgpu; è stata fatta vedere una demo con un confronto tra GT200 e GT300 in doppia precisione (nota che prendo per buone tutte le cose presentate, ossia parto dal presupposto che non siano fake). Al contrario, non si sa nulla, neppure le frequenze degli shader, della versione gaming ed è stato fatto vedere uno screen shot su un presunto bench DX11 fatto girare da GT300. Ai fini di questo ragionamneto non conta sapere se quella foto è fake o no.
La riflessione che faccio è questa: al momento è stato mostrato poco o nulla ma si parlato molto e si è parlato soprattutto del gpgpu. Se considerassimo fake tutto ciò che è stato mostrato, si arriverebbe alla conclusione che non ci sia un solo sample di Fermi funzionante: il che sarebbe una tragedia (non se ne vedrebbe l'ombra neppure per la fine del Q2 2010).
Un'altra ipotesi potrebbe essere quella delle basse rese produttive, ma mi sentirei di scartarla, in quanto, ammesso che ci siano pochi sample funzionanti, questi sarebbero in mano a nVidia che potrebbe usarli per mostrare le potenzialità del chip invece di parlarne soltanto e far vedere pcb tarocchi e foto ambigue o, nel migliore dei casi, prive di significato.
Tera ipotesi è quella che sia vero quanto riportato da hw.fr a proposito delle capacità di calcolo di GT300 in singola e doppia precisione e nel calcolo di MADD e FMA; per comodità, riporto l'immagine da cui sembrerebbe che GT300, a fp32, abbia, con shader core a 1600 MHz, una capacità di calcolo teorica paragonabile a quella di GT200 per quanto riguarda le MADD
http://www.hardware.fr/medias/photos_news/00/27/IMG0027058.gif
Ora, sembrerebbe che nVidia abbia problemi a far funzionare GT300 con shader core a 1600 MHz, tanto che si è parlato di frequenze inferiori a quelle presviste anche per fp64 (il che allinea le prestazioni di fermi, in doppia precisione, a quelle di RV870). Se questo fosse confermato, allora, a fp32, GT300 non andrebbe meglio o, se si, non di molto, rispetto a GT200.
La mancanza di date di presentazione e di specifiche, potrebbe essere il sintomo che stiano tentando di tirare al massimo le frequenze per compensare la mancanza di potenza di calcolo (anche il lancio di NV30 fu posticipato, ma in quel caso, diffusero specifiche che poi non vennero confermate, in quanto NV30, inizialmente, doveva funzionare a frequenze inferiori che furono aumentate per cercare di ridurre il gap rispetto a R300).
Ultima ipotesi, è che c'è quelche bug. In tal caso, a seconda del tipo di bug, la soluzione potrebbe richiedere molti mesi o poche ore.
Al momento non mi vengono in mente altre ipotesi
Di sicuro è da scartare la tesi che nVidia stia nascondendo le sue carte, visto che la cosa non ha senso alcuno, poiché ATi le sue le ha già scoperte da un pezzo.
Secondo me non esiste alcun sample funzionate. Lo avrebbero già fatto vedere.
Questo dovrebbe far riflettere gli ingegneri improvvisati che abbiamo qui su hwu.
scusami ma a chi tiriferisci con questa frasetta acida? :mbe:
forse a me? :asd:
se si ti sbagli, evita quindi queste uscite solo perchè c'è qualche utente interessato all'argomento che prova a dire la sua.
e se ci rifletti un attimino nonostante non sia un esperto, cmq torna il discorso che ho fatto da una parte: un derivato del gt200 mettiamo da 120shader sarebbe andato come un g92 e + o - sarebbe stato anche della stessa grandezza e sempre dx10. quindi inutile farlo in questo caso, a questo punto meglio continuare ad usare direttamente il g92b per le fasce + basse.
ma con fermi che presenta una nuova architettura questa cosa non credo si ripeterà. e quindi nvidia presto o tardi finirà per avere una gamma completa di schede dx11.
Kharonte85
21-11-2009, 15:05
La tesi che nVidia non stia scoprendo le carte è di qualche utente del forum (l'ho solo riportata) non certo mia, visto che so bene che in casa AMD hanno informazioni piuttosto precise su Fermi (come nVidia le aveva su RV870). Comunque, corretto l'errore (lapsus freudiano o colpa del panino che stavo mangiando mentre digitavo?).
In quanto al resto, nVidia, stavolta, ha già svelato la sua architettura, ci sono anche white paper su GT300, on line, alla portata di tutti.
Cos'altro dovrebbe mostrare?
L'unica cosa che manca sono i bench.
Quindi anche la tesi che nVidia non mostra prima dello scadere dell'NDA non regge.
Prima di G80 non avevano fatto trapelare nulla, neppure che fose un chip a shader unificati (anche se i bene informati lo sapevano da un pezzo, ma parliamo di addetti ai lavori o quasi). Stavolta, al contrario, stanno parlando molto ma non stanno facendo vedere i test (soprattutto quelli in game o nei bench sintetici) che sono quelli che più interessano agli utenti di tipo consumer. Se esiste GT300 funzionante, il modo migliore per far vendere meno AMD sarebbe quello di mostrarne le vere potenzialità. Al contrario, si stanno rendendo ridicoli facendo vedere una volta un finto pcb e la volta successiva una foto senza senso. In questo modo danno forza alle tesi di chi sostiene che GT300 non funzioni o che non sia così performante, almeno in game, come vorrebbero far credere e ottengono l'effetto contrario.
Secondo me nvidia questa volta ha svelato parzialmente le sue carte perchè era consapevole di essere in ritardo: quello di mostrare prima la versione tesla è un indice chiaro dell'interesse verso il GPU computing ma contemporaneamente Nvidia ci tiene a far sapere che la versione Comsumer sarà basata sulla stessa architettura e che arriveranno in commercio prima
http://www.hwupgrade.it/forum/showpost.php?p=29707525&postcount=8157
Con questo sistema (e le foto ambigue, e le dichiarazioni) Nvidia fa parlare di se, dimostra che le schede in versione Tesla possono girare ne dice il potenziale in GPUcomp e fa intendere che questa potenza sarà alla portata di tutti anche nel Gaming proprio nelle versioni Geforce
http://www.tomshw.it/cont/news/geforce-fermi-per-i-videogiochi-attesa-ripagata/22892/1.html
Che sia vero o meno staremo a vedere...ma la strategia di nvidia a giudicare dagli scleri sul forum secondo me sta pagando :asd: (coautrice involontaria di cio: la penuria delle nuove schede AMD/ATI).
Nell'ipotesi invece che le Geforce basate su Fermi siano non abbastanza competitive aspettare sarebbe lo stesso dannoso e lo scenario non cambierebbe...quindi direi che più semplicemente stanno aspettando di passare alla revision a3 (aggiustando le frequenze?) e di avere volumi passabili per fare un lancio.
in effetti il discorso non fa una piega.
servirebbero proprio i bench con i giochi per attirare l'attenzione al massimo e bloccare le vendite ati. e invece ancora niente :boh:
Ma per nvidia sarebbe peggio bloccare le propie vendite piuttosto che quelle di AMD, il modo migliore per farlo sarebbe proprio di mostrare le prestazioni di un prodotto con troppo anticipo :read: e questo mi pare abbastanza logico: nessuno comprerebbe le nvidia di adesso sapendo che è in arrivo una nuova scheda che andrà XXX (comunque di più)
A questo aggiungici che AMD/ATI ha presentato le schede ma la disponibilità è talmente bassa al momento che moltissime persone stanno annullando gli ordini o ripiegando su altre schede (AMD/nvidia vecchia generazione), ed ecco che nvidia puo' aspettare abbastanza tranquilla che migliorino gli yelds nelle fonderie.
Forse ne sapremo di più a dicembre...
Se nVidia aveva un esemplare di Fermi funzionate state certi che un 3dmark con frequenze a bomba l'avrebbe tirato fuori per stoppare RV870...
A distanza di tempo, e nonostante sia stata sotterrata di ilarità per i suoi fake, non ha esibito nulla di più concreto di una scheda tenuta insieme da viti da legno ed un'immagine farlocca di un benchmark... ;)
cut
Forse ne sapremo di più a dicembre...
mah vedremo :D cmq sono molto curioso :D
La tesi che nVidia non stia scoprendo le carte è di qualche utente del forum (l'ho solo riportata) non certo mia, visto che so bene che in casa AMD hanno informazioni piuttosto precise su Fermi (come nVidia le aveva su RV870).
Ti riferisci a spionaggio industriale, o più semplicemente all'attività di dipendenti che passando da un'azienda all'altra, autonomamente, si portano appresso documentazione riservata ?
http://www.pchs.it/News/Notizie-dal-WEB/intel-amd-e-spionaggio.html
Kharonte85
21-11-2009, 15:12
Se nVidia aveva un esemplare di Fermi funzionate state certi che un 3dmark con frequenze a bomba l'avrebbe tirato fuori per stoppare RV870...
A distanza di tempo, e nonostante sia stata sotterrata di ilarità per i suoi fake, non ha esibito nulla di più concreto di una scheda tenuta insieme da viti da legno ed un'immagine farlocca di un benchmark... ;)
Ma a che servirebbe? Tanto anche quelli sarebbero dichiarati Fake :asd:
Si puo' gridare al fake quanto ci pare ma il dubbio non ce lo leva niente fino allo scadere dell'NDA...e nel dubbio io aspetto :D
Ma a che servirebbe? Tanto anche quelli sarebbero dichiarati Fake :asd:
Tanto si puo' gridare al fake quanto ci pare ma il dubbio non ce lo leva niente fino allo scadere dell'NDA.
Bastava fare un filmato con il 3dmark in esecuzione e metterlo su youtube ;)
Bastava fare un filmato con il 3dmark in esecuzione e metterlo su youtube ;)
ma forse imho anche in questo caso qualcuno avrebbe cercato qualche dettaglio strano per gridare al fake :asd:
yossarian
21-11-2009, 15:18
Ti riferisci a spionaggio industriale, o più semplicemente all'attività di dipendenti che passando da un'azienda all'altra, autonomamente, si portano appresso documentazione riservata ?
http://www.pchs.it/News/Notizie-dal-WEB/intel-amd-e-spionaggio.html
non necessariamente ad una delle due cose: partendo da un'architettura, chi è del mestiere sa in anticipo cosa se ne può tirare fuori. G80 è la base di sviluppo di nVidia come R600 lo è per ATi. Da li non è difficile capire quali strade avrebbero preso entrambe con le rispettive architetture. Inoltre, a fornire un ulteriorei aiutino ci sono i brevetti. Ad esempio, ben prima dell'uscita di G80 (circa due anni prima), nVidia aveva brevettato l'architettura di un chip a shader parzialmente unificati (4 cluster di cui 3 dedicati alle operazioni di pixel shading ed uno in grado di fare sia quelle che calcoli geometrici).
Insomma, non è difficle avere informazioni senza scomodare lo spionaggio o dipendenti troppo "loquaci" :D
leoneazzurro
21-11-2009, 15:18
Io ho letto solo la recensione fatta da Guru3D e Solo in un gioco le 2 5870 battevano le GTX285, in tutti gli altri giochi testati andavano uguali o prevaleva lo sli.
Quale recensione hai letto? :confused:
In questa, che é poi quella di Guru3D, appunto, lo score é 4:2 a favore delle 5870 + un pareggio, e i 2 risultati a favore dello SLI di GTX285 sono praticamente pareggi...
http://www.guru3d.com/article/radeon-hd-5870-crossfirex-test-review/6
ma forse imho anche in questo caso qualcuno avrebbe cercato qualche dettaglio strano per gridare al fake :asd:
Allora poteva invitare i redattori di alcune testate online come prova della veridicità del test :asd:
Kharonte85
21-11-2009, 15:20
ma forse imho anche in questo caso qualcuno avrebbe cercato qualche dettaglio strano per gridare al fake :asd:
Infatti...:asd:
Allora poteva invitare i redattori di alcune testate online come prova della veridicità del test :asd:
Sì ma allora a quel punto la renderesti pubblica del tutto e se nvidia non fosse in grado di commercializzarla si sarebbe tirerata la zappa sui piedi da sola come dicevo prima...
Severnaya
21-11-2009, 15:53
ma anche prima di uscire la 5870 giravano dei benchmark e ovv tutti li prendevano con le pinze
far uscire dei benchmark (presumibilmente veri :asd:) di fermi a suo tempo poteva dare adito a qualche tipo di discussione fondata su "ipotizziamo che siano veri"
nvidia nn si è aiutata in questo senso visto che è essa stessa l'autrice di uno scivolone colossale, bastava anche solo far vedere il chip senza scheda per esempio
se volesse far parlare di se per guadagnare tempo con una scheda "attiva" sarebbe a suo favore far trapelare qualche informazione sulle prestazioni, nn dicendo "le direcx 11 nn servono" (e se lo dice nvidia :asd:) physics e il 3d è su cui spingiamo perché migliorano l'esperienza di gioco, ma per cortesia
Iantikas
21-11-2009, 15:56
con gt200 sarebbe stato inutile fare delle schede che sostituivano le g92. non ci sarebbe stato nessun vantaggio dato che il gt200 non è altro che un g92 con + shader e bus. diverso il discorso con fermi.
io xò xkè con fermi il discorso deve essere diverso nn l'ho mica capito...
...tutte le migliorie all'arkitettura rispetto a gt200 di cui hanno parlato finora si rivolgono al GP Computing...
...quali e quanti migliorie vi sono x ciò ke concerne l'ambito gaming nn si sa...può benissimo essere ke x ciò ke concerne le prestazioni nei gioki i mgilioramenti son molto minori e l'incremento prestazionale sia quasi unicamente dovuto all'incremento delle varie unità e della banda passante...
...se così fosse (data anke la possibilità ke le freq nn siano il massimo della vita con tutti i problemi di gioventù ke stanno dando i 40nm) con fermi nvidia potrebbe benissimo ritrovarsi nuovamente difronte ad uno scenario gt200 vs G80/g92 (una gtx280 quandò uscì nn'è ke fece gridare al miracolo x quanto migliorava rispetto ad una 8800ultra o ad una 9800gx2 sopratutto se messo in relazione alla sua complessità, al n° di transistor, al costo, etc)...
...e a quel punto la competitività nei confronti con rv870 sarebbe in seria crisi dato ke sicuramente nn potrebbero intraprendere una guerra dei prezzi con i costi di produzione molto + alti ke fermi avrà...
...seguendo questo ragionamento imho il motivo del forte ritardo delle geforce basate su fermi è unicamente dovuto a migliorare le tecniche produttive in modo da poter utilizzare freq + elevate (e quindi ottenere un maggiore divario prestazionale rispetto a rv870 ke ne giustifiki il costo superiore) e aver un numero + elevato di chip funzionanti (in modo da poter, con rese superiori, constratare meglio un'eventuale guerra al ribasso)...
...ciao
io xò xkè con fermi il discorso deve essere diverso nn l'ho mica capito...
come xchè?? per il fatto che l'architettura di fermi è dx11. :D e poi non credo che nvidia continuerà ad usare per sempre schede dx10 per la fascie più basse!! inoltre potrebbe anche andare meglio a parità di shader la nuova architettura, ma questa è solo un ipotesi, perchè ancora non si sa nulla.
ciao!
Andrea deluxe
21-11-2009, 19:06
Alcuni pensavano che al blackfriday di evga venissero date info su fermi.....
invece...
http://www.evga.com/blackfriday/images/4waypreview.jpg (http://www.evga.com/blackfriday/)
Alcuni pensavano che al blackfriday di evga venissero date info su fermi.....
invece...
http://www.evga.com/blackfriday/images/4waypreview.jpg
alimentatore consigliato :
http://www.giann.net/wp-content/uploads/Panorama%20-%20Centrale%20nucleare%20a%20Cattenom%20Francia.jpg
:asd:
3 connettori di alimentazione a scheda!? Ma sono fuori di melone?
3 connettori di alimentazione a scheda!? Ma sono fuori di melone?
quoto tutta la vita! cavolo fanno??
Iantikas
21-11-2009, 20:52
3 connettori di alimentazione a scheda!? Ma sono fuori di melone?
12 in tutto, LOL...in effetti ultimamente evga sta un pò pisxxando di fuori...
...sarei proprio curioso di sapere in tutto quante ne venderanno di queste soluzioni e come saranno supportate in futuro dato ke essendo una soluzione proprietaria nn possono rifarsi ai driver nvidia ma necessitano di quelli moddati dalla evga...
...ciao
12 in tutto, LOL...in effetti ultimamente evga sta un pò pisxxando di fuori...
...sarei proprio curioso di sapere in tutto quante ne venderanno di queste soluzioni e come saranno supportate in futuro dato ke essendo una soluzione proprietaria nn possono rifarsi ai driver nvidia ma necessitano di quelli moddati dalla evga...
...ciao
ste cose mi lasciano sempre un pò perplesso.......
yossarian
21-11-2009, 22:42
Secondo me nvidia questa volta ha svelato parzialmente le sue carte perchè era consapevole di essere in ritardo: quello di mostrare prima la versione tesla è un indice chiaro dell'interesse verso il GPU computing ma contemporaneamente Nvidia ci tiene a far sapere che la versione Comsumer sarà basata sulla stessa architettura e che arriveranno in commercio prima
http://www.hwupgrade.it/forum/showpost.php?p=29707525&postcount=8157
in realtà nVidia ha svelato tutto della nuova architettura (cosa piuttosto insolita); quindi non c'è nulla da tenere nascosto, neppure la prestazioni, visto che, per rendersi conto di quanto "andrà" Fermi è sufficiente basarsi sulle specifiche (mancano soltanot le frequenze per avere informazioni esatte sulla reale capacità di calcolo e non su quella stimata sulla scorta di frequenze ipotetiche). I dati riportati nelle varie review fatte sull'architettura di GT300 si basano su dati forniti dalla stessa nVidia e non sono frutto di speculazioni. Compresi quelli forniti da HW.fr sulla presunta potenza teorica di calcolo relativa alle MADD fp32 che nessuno ha finora smentito. Se così fosse, l'unica incognita sarebbe data dalle frequenze di funzionamento che, dalle info relative alla versione tesla, per cui già circolano i dati, sembrano inferiori a quelli attesi qualche tempo fa.
Chiaro che, a questo punto, hai un'architettura non dissimile da quella di GT200, magari più efficiente nella gestione del multithreading, che sicuramente trarrà vantaggio dalle ottimizzazioni delle dx10.1 e dx11, ma che ha, comunque, una capacità di calcolo teorica di 256 MADD contro la 240 di GT200b (e senza la MUL aggiuntiva di GT200) e, grosso modo, la stessa frequenza dello shader core.
Se le cose stessero veramente così, sarebbe lecito aspettarsi, con codice dx9 e dx10 (quello che c'è adesso) prestazioni non dissimili da quelle di una 285 GTX.
Altra cosa strana: nVidia dichiara che il suo core businness principale resta il 3D gaming ma, contrariamente a quanto fatto in precedenza, rilascia prima le specifiche della versione per GPU computing?
Anche il continuo insistere solo sugli "add on" (cuda, physx, 3D vision) più che parlare di performance è sospetto.
Con questo sistema (e le foto ambigue, e le dichiarazioni) Nvidia fa parlare di se, dimostra che le schede in versione Tesla possono girare ne dice il potenziale in GPUcomp
fa parlare di sé ma tutt'altro che in maniera positiva, direi. In quanto al potenziale, non serve far vedere una pseudo demo in cui si fa una comparazione della capacità di calcolo in FMA rispetto a GT200 (quasi nulla) per far sapere che, in quell'ambito, GT300 sarà molto superiore
e fa intendere che questa potenza sarà alla portata di tutti anche nel Gaming proprio nelle versioni Geforce
http://www.tomshw.it/cont/news/geforce-fermi-per-i-videogiochi-attesa-ripagata/22892/1.html
su questo siamo meno d'accordo: al di là delle chiacchiere degne di un PR, non si è visto nulla e pesa l'incognita della capacità di calcolo delle MADD fp32 che potrebbe essere dimezzata rispetto a quella delle FMA.
Che sia vero o meno staremo a vedere...ma la strategia di nvidia a giudicare dagli scleri sul forum secondo me sta pagando :asd: (coautrice involontaria di cio: la penuria delle nuove schede AMD/ATI).
.
non giudico quelli che definisci scleri del forum; mi pare, però, che siano molti a lamentarsi delle non notizie che HWU riporta su nVidia più che a sclerare per ciò che trapela. Insomma, non mi paiono reazioni di gente vittima dell'hype.
Nell'ipotesi invece che le Geforce basate su Fermi siano non abbastanza competitive aspettare sarebbe lo stesso dannoso e lo scenario non cambierebbe...quindi direi che più semplicemente stanno aspettando di passare alla revision a3 (aggiustando le frequenze?) e di avere volumi passabili per fare un lancio.
.
ribalto il concetto: se Fermi fosse competitvo, dopo aver mostrato tutto sull'architettura e detto o fatto trapelare notizie riportate da tutti sulla sua capacità di calcolo vera o presunta, basterebbe diffondere qualche bench per creare realmente hype. Invece si fa il contrario, si continua a parlare di qualcosa che, per quanto si è visto, potrebbe tranquillamente non esistere. Per quello che si sa oggi, Fermi potrebbe anche essere una riedizione del glaze3D dei bitboys :D
Ma per nvidia sarebbe peggio bloccare le propie vendite piuttosto che quelle di AMD, il modo migliore per farlo sarebbe proprio di mostrare le prestazioni di un prodotto con troppo anticipo :read: e questo mi pare abbastanza logico: nessuno comprerebbe le nvidia di adesso sapendo che è in arrivo una nuova scheda che andrà XXX (comunque di più)
.
in realtà già oggi ci sono prodotti che vanno di più e, immagino, anche gli aficionados nVidia si aspettino che i prodotti basati su GT300 vadano di più di quelli delle vecchie generazioni. A livello di vendite, cosa cambierebbe sapere quanto vanno di più? Non mi pare che ATi non stia vendendo più chip DX10.1 adesso che sono usciti quelli DX11. Vuoi per i prezzi, vuoi per la disponibilità dei nuovi prodotti
A questo aggiungici che AMD/ATI ha presentato le schede ma la disponibilità è talmente bassa al momento che moltissime persone stanno annullando gli ordini o ripiegando su altre schede (AMD/nvidia vecchia generazione), ed ecco che nvidia puo' aspettare abbastanza tranquilla che migliorino gli yelds nelle fonderie.
Forse ne sapremo di più a dicembre....
parliamo, comunque, di un prodotto, esistente, funzionante (anche piuttosto bene, seppure con driver acerbi e SW che non li sfrutta a dovere); al contrario, dall'altra parte abbiamo un chip "su carta" di cui si sa tutto, tranne le frequenze di funzionamento della versione gaming (e la cosa, già di per sé è sospetta).
Kharonte85
22-11-2009, 00:20
Non dico che l'atteggiamento di nvidia non sia strano, ma credo semplicemente che cio' sia dovuto al desiderio di mostrarsi per colmare un ritardo accumulato a causa dei problemi al pp@40nm
Come a dire che non importa se se ne parla o bene o male l'importante è che se ne parli...nvidia sembra sfruttare questo motto e infatti a me pare che l'hype sia molto alto.
Per il resto dico solo che non redo che sia come dici tu, nel senso che: non credo che la scheda sia inesistente e mi riesce molto difficile pensare che nvidia presenterà una scheda che non sarà in grado almeno di superare la sua dual GPU precedente, mi sembrerebbe davvero assurdo che un raddoppio degli SP e un aumento mostruoso della banda passante possa non essere sfruttato in quel senso...sarebbe davvero troppo clamoroso, poi in realtà nvidia ha diffuso informazioni sulla versione Tesla ma su quella Geforce è possibile che ci siano delle "sorprese".
Nvidia farebbe un danno a se stessa se divulgasse le prestazioni senza avere "a tiro" l'uscita della scheda, di questo ne sono sicuro: se fai una scheda fake, una foto fake, perchè non fare anche dei bei benchmark fake?
Staremo a vedere...per il momento è tutto in stallo: le vecchie schede spariscono, le nuove escono ma non arrivano nei negozi, le altre nuove non escono e i prezzi aumentano. Conviene aspettare comunque.
yossarian
22-11-2009, 01:08
Non dico che l'atteggiamento di nvidia non sia strano, ma credo semplicemente che cio' sia dovuto al desiderio di mostrarsi per colmare un ritardo accumulato a causa dei problemi al pp@40nm
il ritardo di nVidia non è dovuto al ritardo dei 40 nm; anche ATi è alle prese con lo stesso problema ma il suo chip lo ha presentato e fatto uscire rispettando la roadmap.
se come sostieni, nVidia sente la necessità di mostrarsi, deve farlo con elementi concreti e non con tentativi maldestri che ottengono l'effetto di far dubitare addirittura dell'esistenza di un chip o di una vga basata su quel chip che siano funzionanti.
Come a dire che non importa se se ne parla o bene o male l'importante è che se ne parli...nvidia sembra sfruttare questo motto e infatti a me pare che l'hype sia molto alto.
in realtà, la vga fake, la foto dell'altro giorno, le continue dichiarazioni senza mostrare nulla, stanno facendo sgonfiare l'hype (più di qualcuno sta accostando fermi a duke nukem e la cosa non depone bene :D )
Per il resto dico solo che non redo che sia come dici tu, nel senso che: non credo che la scheda sia inesistente
veramente, io sono dell'idea che il chip esista, funzioni, ma non sia così veloce e stanno cercando di spingere in alto le frequenze per cercare di guadagnare qualcosa. Questo spiega perchè sono state diffuse le frequenze della versione tesla ma non della geforce.
e mi riesce molto difficile pensare che nvidia presenterà una scheda che non sarà in grado almeno di superare la sua dual GPU precedente, mi sembrerebbe davvero assurdo che un raddoppio degli SP e un aumento mostruoso della banda passante possa non essere sfruttato in quel senso...sarebbe davvero troppo clamoroso, poi in realtà nvidia ha diffuso informazioni sulla versione Tesla ma su quella Geforce è possibile che ci siano delle "sorprese".
invece tanti elementi farebbero pensare che GT300 non riuscirà a superare la 295 GTX; se fosse vera la storia delle 256 MADD, rischierebbe di avere prestazioni più prossime a quelle di una 285 che di una 295.
Il raddoppio delle specifiche non comporta un necessario raddoppio delle prestazioni; un chip è un dispositivo molto complesso il cui comportamento è tutt'altro che lineare. Inoltre, come detto, resta da sciogliere il nodo principale (forse l'unico) relativo alle prestazioni in ambito gaming.
Nvidia farebbe un danno a se stessa se divulgasse le prestazioni senza avere "a tiro" l'uscita della scheda, di questo ne sono sicuro: se fai una scheda fake, una foto fake, perchè non fare anche dei bei benchmark fake?
una scheda fake, una foto fake, non accompagnate da altro, rischiano di fare un danno ancora peggiore. Sarebbe stato molto più semplice organizzare una dimostrazione, anche per pochi addetti, con un sample di fermi funzionante, in cui mostrare le potenzialità del chip in ambito DX11, e poi mostrare la vga utilizzata per il test, per fugare ogni dubbio sull'esistenza e le prestazioni, indipendentemente dalla data di lancio della line up. Sarebbe stato molto più utile mostrare le capacità del chip e dire: ad oggi abbiamo problemi di rese e non possiamo garantirne un quantitativo adeguato, ma il chip c'è ed è veloce. Invece, quando qualcuno ha parlato di yield bassi, nVidia si è affrettata a smentire, parlando di rese elevate; quindi, a loro dire, il problema non sono i 40 nm di TSMC http://www.brightsideofnews.com/news/2009/9/25/nvidia-says-gt300-on-schedule-for-q4-20092c-yields-are-fine.aspx. Contestualmente, però, ci si è limitati a mostrare tutto di GT300, tranne che un sample funzionante del chip e i risultati di un qualunque test.
Allora, e riporto le parole di nVidia, se il problema non è dato dai 40 nm di TSMC (yields are fine), il chip c'è e funziona bene, perchè non esce e, soprattutto, dove sono i risultati dei test?
Andrea deluxe
22-11-2009, 08:53
Le vendite di cosa?
sembra strano, ma un sacco di gente prende le 275 et similia al posto della 5850 et similia....
Bastoner
22-11-2009, 08:53
Non dico che l'atteggiamento di nvidia non sia strano, ma credo semplicemente che cio' sia dovuto al desiderio di mostrarsi per colmare un ritardo accumulato a causa dei problemi al pp@40nm
Ma lol :D certo che la fantasia abbonda in questo forum!!! Da quando il ritardo di Nvidia è dovuto al processo a 40nm????
La fase di design della GPU è diversa dalla fase di produzione vera e propria del chip. Il design lo fa Nvidia, la produzione la fa TSMC. :rolleyes:
Lo stesso Ujesh Desai quando gli è stato chiesto il perchè del ritardo ha non ha certo risposto che la colpa è del processo produttivo, la sue parole sono state queste: "Because designing GPUs this big is fucking hard"
Kharonte, più papista del papa e più realista del re :D
Andrea deluxe
22-11-2009, 09:00
nulla e' certo, ne cio' che dici ne cio' che dicono.
Bastoner
22-11-2009, 09:03
nulla e' certo, ne cio' che dici ne cio' che dicono.
I problemi di Nvidia non derivano dai bug dello shrink a 40nm, questo è certo.
I problemi di Nvidia non derivano dai bug dello shrink a 40nm, questo è certo.
ma secondo te è un bel fake anche l'ultima foto di fermi? :asd:
sembra strano, ma un sacco di gente prende le 275 et similia al posto della 5850 et similia....
xchè la prima magari è più facile da trovare :D
nulla e' certo, ne cio' che dici ne cio' che dicono.
quoto :D
Bastoner
22-11-2009, 09:13
ma secondo te è un bel fake anche l'ultima foto di fermi? :asd:
Io credo che sia un fake, ma è una mia opinione. Non è una mia opinione, ma una affermazione di Nvidia, che il loro ritardo non derivi dal pp a 40nm. :rolleyes:
Sentiamo, secondo te, perchè non sarebbe un fake?
Skullcrusher
22-11-2009, 09:13
sembra strano, ma un sacco di gente prende le 275 et similia al posto della 5850 et similia....
Finchè le 5850 sono come le mosche bianche è ovvio che la gente prensta 260/275. Se fossero normalmente disponibili la situazione cambierebbe secondo me.
penso che se nvidia avesse realizzato il chip fermi perfettamente funzionante lo avrebbe già lanciato sul mercato anche in volumi ridotti,i problemi del processo a 40nm secondo mè conta ma fino ad un certo punto...
Io credo che sia un fake, ma è una mia opinione. Non è una mia opinione, ma una affermazione di Nvidia, che il loro ritardo non derivi dal pp a 40nm. :rolleyes:
guarda io in questo caso penso che il ritardo ci sia un pò per tutti e 2 i motivi!!
per l'ultima foto del fermi sinceramente non so che pensare.. non lo so se è un fake o no!! io non sono riuscito a vederci niente di strano.
però mi domando xchè, se una scheda che funziona c'è, a questo punto non tirano fuori anche i benchmark. forse la scheda va affinata in qualche cosa :boh:
o forse per il motivo che ha scritto kharonte :boh:
Bastoner
22-11-2009, 09:26
guarda io in questo caso penso che il ritardo ci sia un pò per tutti e 2 i motivi!!
Libero di avere opinioni, ma le cose stanno diversamente, e non è un mio pensiero.
per l'ultima foto del fermi sinceramente non so che pensare.. non lo so se è un fake o no!! io non sono riuscito a vederci niente di strano.
però mi domando xchè, se una scheda che funziona c'è, a questo punto non tirano fuori anche i benchmark. forse la scheda va affinata in qualche cosa :boh:
Appunto, se esistesse un sample di Fermi funzionante sono sicuro che farebbero immediatamente almeno una dimostrazione a porte chiuse, per addetti ai lavori e per pochi giornalisti. Nvidia sta cercando di fare di tutto per far desistere gli utenti dal comprare ATI: schede fake, annunci roboanti, Pissx, Vision 3d, screenshot di dubbia provenienza. Figurati se non rfarebbe vedere una vera scheda funzionante!
Kharonte85
22-11-2009, 09:46
il ritardo di nVidia non è dovuto al ritardo dei 40 nm; anche ATi è alle prese con lo stesso problema ma il suo chip lo ha presentato e fatto uscire rispettando la roadmap.
se come sostieni, nVidia sente la necessità di mostrarsi, deve farlo con elementi concreti e non con tentativi maldestri che ottengono l'effetto di far dubitare addirittura dell'esistenza di un chip o di una vga basata su quel chip che siano funzionanti.
in realtà, la vga fake, la foto dell'altro giorno, le continue dichiarazioni senza mostrare nulla, stanno facendo sgonfiare l'hype (più di qualcuno sta accostando fermi a duke nukem e la cosa non depone bene :D )
veramente, io sono dell'idea che il chip esista, funzioni, ma non sia così veloce e stanno cercando di spingere in alto le frequenze per cercare di guadagnare qualcosa. Questo spiega perchè sono state diffuse le frequenze della versione tesla ma non della geforce.
invece tanti elementi farebbero pensare che GT300 non riuscirà a superare la 295 GTX; se fosse vera la storia delle 256 MADD, rischierebbe di avere prestazioni più prossime a quelle di una 285 che di una 295.
Il raddoppio delle specifiche non comporta un necessario raddoppio delle prestazioni; un chip è un dispositivo molto complesso il cui comportamento è tutt'altro che lineare. Inoltre, come detto, resta da sciogliere il nodo principale (forse l'unico) relativo alle prestazioni in ambito gaming.
una scheda fake, una foto fake, non accompagnate da altro, rischiano di fare un danno ancora peggiore. Sarebbe stato molto più semplice organizzare una dimostrazione, anche per pochi addetti, con un sample di fermi funzionante, in cui mostrare le potenzialità del chip in ambito DX11, e poi mostrare la vga utilizzata per il test, per fugare ogni dubbio sull'esistenza e le prestazioni, indipendentemente dalla data di lancio della line up. Sarebbe stato molto più utile mostrare le capacità del chip e dire: ad oggi abbiamo problemi di rese e non possiamo garantirne un quantitativo adeguato, ma il chip c'è ed è veloce. Invece, quando qualcuno ha parlato di yield bassi, nVidia si è affrettata a smentire, parlando di rese elevate; quindi, a loro dire, il problema non sono i 40 nm di TSMC http://www.brightsideofnews.com/news/2009/9/25/nvidia-says-gt300-on-schedule-for-q4-20092c-yields-are-fine.aspx. Contestualmente, però, ci si è limitati a mostrare tutto di GT300, tranne che un sample funzionante del chip e i risultati di un qualunque test.
Allora, e riporto le parole di nVidia, se il problema non è dato dai 40 nm di TSMC (yields are fine), il chip c'è e funziona bene, perchè non esce e, soprattutto, dove sono i risultati dei test?
Allora da quello che ho capito secondo te le prestazioni della ipotetica gtx 380 non supereranno quelle della hd5850, ma a questo punto a che servirebbe aspettare? Credo difficile che un innalzamento di frequenza possa ribaltare la situazione se il limite è quello che hai indicato tu...tanto varebbe farla uscire e battere sulle features fisica vision e altre menate (cosa che comunque nvidia da un po' di tempo fa sempre)...no io penso che la scheda se non fosse stato per i neoproblemi di tsmc (posteriori a quelle parole che tu riporti) sarebbe uscita a Dicembre...guardacaso quei problemi hanno messo in grave difficoltà anche AMD/ATI rendendo il lancio dei loro prodotti quasi un paper launch.
Un esempio? La nuova dual GPU è stata recensita eppure non se ne trova una: http://www.trovaprezzi.it/categoria.aspx?id=28&libera=hd+5970&prezzomin=-1&prezzomax=-1
Siccome entrambi si riforniscono da quelle fonderie per quale motivo Nvidia dovrebbe essere capace di presentare una scheda (oltretutto una scheda che ha un chip più grosso e quindi fisiologicamente con yelds peggiori)?
A me pare più credibile che il ritardo sia dovuto solo a questo se mi sbaglio e le prestazioni saranno deludenti pazienza mi andro' a prendere una hd5850 sperando che il prezzo cali all'uscita delle schede nvidia.
Ma lol :D certo che la fantasia abbonda in questo forum!!! Da quando il ritardo di Nvidia è dovuto al processo a 40nm????
La fase di design della GPU è diversa dalla fase di produzione vera e propria del chip. Il design lo fa Nvidia, la produzione la fa TSMC. :rolleyes:
Lo stesso Ujesh Desai quando gli è stato chiesto il perchè del ritardo ha non ha certo risposto che la colpa è del processo produttivo, la sue parole sono state queste: "Because designing GPUs this big is fucking hard"
Kharonte, più papista del papa e più realista del re :D
Appunto la fase di design del chip credo sia conclusa da un pezzo (se è vero che sono già in A2 e se le tesla erano funzionanti)...i problemi e il ritardo semmai li avranno avuti confrontandosi in produzione, a quanto pare stanno definendo le frequenze di funzionamento nel passaggio all versione A3 (il perchè lo stiano facendo non è dato sapere: per quel che ne sappiamo potrebbero pure abbassarle per avere consumi e una maggiore quantità di chip validi) che sarà quella che dovrebbe essere commercializzata.
E poi quando le ha dette queste parole? Prima o dopo che TSMC dichiarasse di essere in cacca con i 40nm? Prima. ;)
I problemi di Nvidia non derivano dai bug dello shrink a 40nm, questo è certo.
di "certo" c'è solo che dobbiamo morire...:asd:
Kharonte85
22-11-2009, 09:50
Libero di avere opinioni, ma le cose stanno diversamente, e non è un mio pensiero.
Appunto, se esistesse un sample di Fermi funzionante sono sicuro che farebbero immediatamente almeno una dimostrazione a porte chiuse, per addetti ai lavori e per pochi giornalisti. Nvidia sta cercando di fare di tutto per far desistere gli utenti dal comprare ATI: schede fake, annunci roboanti, Pissx, Vision 3d, screenshot di dubbia provenienza. Figurati se non rfarebbe vedere una vera scheda funzionante!
MA è un controsenso! Se chiedi questo è possibilissimo che sia stato già fatto, ai giornalisti ovviamente sarebbe stato imposto l'NDA come sempre e noi ne sapremmo esattamente come prima.
Poi la foto per nvidia è autentica (e potrebbe esserlo benissimo) quindi quella è una dimostrazione...che è fake lo dice chi?
MA è un controsenso! Se chiedi questo è possibilissimo che sia stato già fatto, ai giornalisti ovviamente sarebbe stato imposto l'NDA come sempre e noi ne sapremmo esattamente come prima.
in effetti potresti aver ragione :D !
cut
di "certo" c'è solo che dobbiamo morire...:asd:
purtroppo si :asd:
Bastoner
22-11-2009, 09:56
Allora da quello che ho capito secondo te le prestazioni della ipotetica gtx 380 non supereranno quelle della hd5850, ma a questo punto a che servirebbe aspettare? Credo difficile che un innalzamento di frequenza possa ribaltare la situazione se il limite è quello che hai indicato tu...tanto varebbe farla uscire e battere sulle features fisica vision e altre menate (cosa che comunque nvidia da un po' di tempo fa sempre)...no io penso che la scheda se non fosse stato per i neoproblemi di tsmc (posteriori a quelle parole che tu riporti) sarebbe uscita a Dicembre...guardacaso quei problemi hanno messo in grave difficoltà anche AMD/ATI rendendo il lancio dei loro prodotti quasi un paper launch.
Un esempio? La nuova dual GPU è stata recensita eppure non se ne trova una: http://www.trovaprezzi.it/categoria.aspx?id=28&libera=hd+5970&prezzomin=-1&prezzomax=-1
Siccome entrambi si riforniscono da quelle fonderie per quale motivo Nvidia dovrebbe essere capace di presentare una scheda (oltretutto una scheda che ha un chip più grosso e quindi fisiologicamente con yelds peggiori)?
A me pare più credibile che il ritardo sia dovuto solo a questo se mi sbaglio e le prestazioni saranno deludenti pazienza mi andro' a prendere una hd5850 sperando che il prezzo cali all'uscita delle schede nvidia.
Appunto la fase di design del chip credo sia conclusa da un pezzo (se è vero che sono già in A2 e se le tesla erano funzionanti)...i problemi e il ritardo semmai li avranno avuti confrontandosi in produzione, a quanto pare stanno definendo le frequenze di funzionamento nel passaggio all versione A3 (il perchè lo stiano facendo non è dato sapere: per quel che ne sappiamo potrebbero pure abbassarle per avere consumi e una maggiore quantità di chip validi) che sarà quella che dovrebbe essere commercializzata.
E poi quando le ha dette queste parole? Prima o dopo che TSMC dichiarasse di essere in cacca con i 40nm? Prima. ;)
di "certo" c'è solo che dobbiamo morire...:asd:
Si dai, hai ragione.
MA è un controsenso! Se chiedi questo è possibilissimo che sia stato già fatto, ai giornalisti ovviamente sarebbe stato imposto l'NDA come sempre e noi ne sapremmo esattamente come prima.
Poi la foto per nvidia è autentica (e potrebbe esserlo benissimo) quindi quella è una dimostrazione...che è fake lo dice chi?
Per Nvidia era autentica anche la scheda fake, salvo poi ammettere che era una sòla quando le maggiori testate giornalistiche (fra qui Techpowerup) avevano dimostrato che era un accrocchio.
Su uno screenshot non c'è molto da elucubrare, dovremmo credere sulla fiducia. :rolleyes:
Kharonte85
22-11-2009, 10:01
Secondo me c'è troppo complottismo spicciolo...invece non è sicuramente un caso che l'Nvidia Senior PR Manager Brian Burke abbia postato su facebook una foto della scheda proprio il giorno di presentazione della 5970, e per questo sono più propenso a credere che sia autentica: abbiamo visto le schede Tesla montate per quale motivo la versione Geforce che è dichiarata in uscita prima da nvidia stessa non dovrebbe essere in grado di girare con i suoi sample?
Andrea deluxe
22-11-2009, 10:18
Secondo me c'è troppo complottismo spicciolo...invece non è sicuramente un caso che l'Nvidia Senior PR Manager Brian Burke abbia postato su facebook una foto della scheda proprio il giorno di presentazione della 5970, e per questo sono più propenso a credere che sia autentica: abbiamo visto le schede Tesla montate per quale motivo la versione Geforce che è dichiarata in uscita prima da nvidia stessa non dovrebbe essere in grado di girare con i suoi sample?
ma infatti.......
qualche sample ci deve essere, altrimenti i driver come li programmano????
li programmano il giorno dell'uscita della sk?
poi siccome non hanno finalizzato i clock, non stanno rilasciando bench....
che fanno bench con silicio a2 che a stento tiene i 1300 di shader, per far comprare ad occhi chiusi le ati alla gente?
probabile che aspettino il silicio a3 per sputare qualche bench.....
chi sta nel limbo poi decide.....
guarda io in questo caso penso che il ritardo ci sia un pò per tutti e 2 i motivi!!
per l'ultima foto del fermi sinceramente non so che pensare.. non lo so se è un fake o no!! io non sono riuscito a vederci niente di strano.
però mi domando xchè, se una scheda che funziona c'è, a questo punto non tirano fuori anche i benchmark.
Con GT200 ad esempio i bench interni uscirono un paio di settimane prima della presentazione, la fine di maggio http://vr-zone.com/articles/GeForce_GTX_280_&_GTX_260_Gaming_Performance/5817.html?doc=5817, la diffusione di bench quindi dovrebbe avvenire nel momento in cui saranno chiare anche per nVidia le frequenze operative finali, e comunque non diversi mesi prima del lancio, cartaceo o meno :D
Bastoner
22-11-2009, 10:35
C'è gente che si comprerebbe la 275 al posto della 5850 anche se nVidia annunciasse il fallimento. Quindi che nVidia non mostri la potenza gaming di Fermi per non intaccare le proprie vendite è quantomeno naìf...
Beh, l'ha detto nVidia stessa che gli yelds a 40nm "sono buoni".
In pratica sostieni che nVidia mente ogni volta che dice qualcosa che può essere interpretato negativamente per Fermi e che dice la verità in situazione contraria. Mi sembra un po' troppo occhioprosciuttistico...
Fino ad oggi ha detto, ufficialmente:
- Abbiamo i sample funzionanti, è solo che sono brutti (Q: hey ma era un fake!)
- Fare chip grossi è un casino (Q: come mai non siete ancora usciti con Fermi?)
- Gli yelds a 40nm sono buoni (Q: avete problemi di yelds con TSMC?)
Quindi se vogliamo credere a nVidia il chip non è pronto per problemi di design (tant'è che devono fare almeno una revision A3).
Oppure possiamo non crederci, e questo è il mio caso, e allora non hanno niente di funzionante e la prima GeForce Fermi sul mercato la vedremo nella migliore delle ipotesi nell'ultima settimana di Marzo.
Quoterrimo, se solo la logica fosse di casa....
Questo ovviamente significa che sono lontani dall'averle definite.
Sicuramente non la presenteranno entro le prossime due settimane, ma non è detto che non sarà presentata agli inizi del 2010 come fecero l'anno scorso per la 285/295, bo, chi vivrà vedrà :)
ironman72
22-11-2009, 10:53
Abbiate pazienza... di certo ne sanno di piu' loro di tutti noi...imho Fermi dara' la paga a HD5***,se cosi' non sara AMEN!!
Ed in questo caso ,forse,una Ati entrera' nel mio case...
Per ora mi godo la mia gtx275 che fa girare tutto a palla sul mio 22" , non ho le dx11? e chi se ne frega, tutti i giochi odierni sono ancora dx9!!!!!
saluti......
Crysis90
22-11-2009, 11:05
Abbiate pazienza... di certo ne sanno di piu' loro di tutti noi...imho Fermi dara' la paga a HD5***,se cosi' non sara AMEN!!
Ed in questo caso ,forse,una Ati entrera' nel mio case...
Per ora mi godo la mia gtx275 che fa girare tutto a palla sul mio 22" , non ho le dx11? e chi se ne frega, tutti i giochi odierni sono ancora dx9!!!!!
saluti......
Parole sante...
Kharonte85
22-11-2009, 11:24
C'è gente che si comprerebbe la 275 al posto della 5850 anche se nVidia annunciasse il fallimento. Quindi che nVidia non mostri la potenza gaming di Fermi per non intaccare le proprie vendite è quantomeno naìf...
Ah sì? E allora perchè guardacaso non lo fanno mai di annunciare prima le prestazioni? Anche quando un prodotto è in orario ed è una bomba :read:
Beh, l'ha detto nVidia stessa che gli yelds a 40nm "sono buoni".
In pratica sostieni che nVidia mente ogni volta che dice qualcosa che può essere interpretato negativamente per Fermi e che dice la verità in situazione contraria. Mi sembra un po' troppo occhioprosciuttistico...
Fino ad oggi ha detto, ufficialmente:
- Abbiamo i sample funzionanti, è solo che sono brutti (Q: hey ma era un fake!)
- Fare chip grossi è un casino (Q: come mai non siete ancora usciti con Fermi?)
- Gli yelds a 40nm sono buoni (Q: avete problemi di yelds con TSMC?)
Quindi se vogliamo credere a nVidia il chip non è pronto per problemi di design (tant'è che devono fare almeno una revision A3).
Oppure possiamo non crederci, e questo è il mio caso, e allora non hanno niente di funzionante e la prima GeForce Fermi sul mercato la vedremo nella migliore delle ipotesi nell'ultima settimana di Marzo.
I problemi degli yelds sono sorti dopo l'uscita delle hd5xx0 per stessa ammissione di TSMC http://www.hwsetup.it/news/reader.php?objid=11830 le dichiarazioni fatte da nvidia riguardavano le voci che davano yelds al 2% e sono precedenti a questi fatti...è possibile che lo schifo del pp@40nm abbia costretto nvidia a passare alla revision a3 e al ritardo.
In questo le speculazioni sulle prestazioni non ci incastrerebbero nulla.
Se tsmc risolve entro l'anno come promesso in questo scenario credo sia probabile una presentazione a Gennaio con una disponibilità reale successiva di 1-2 mesi....altrimenti :boh:
Nvidia non ha bisogno di performance ...il brand provvede a tutto! :D
Kharonte85
22-11-2009, 11:35
Nvidia non ha bisogno di performance ...il brand provvede a tutto! :D
Per una generazione nata male come la serie fx ci puo' campare per 2 consecutive la faccenda si complicherebbe (scenario fino ad ora mai verificatosi per nessuno dei due produttori di GPU)
Kharonte85
22-11-2009, 12:55
Non fanno mai nemmeno annunci architetturali prima, eppure questa volta lo fanno, chissà perché... :rolleyes:
Ho già detto perchè secondo me questa volta hanno fatto una eccezione.
Tutto ciò non ha senso. Se TSMC non aveva problemi e poi sono sorti significa errore umano che può essere corretto per tornare allo stato precedente. Non c'è alcuna possibilità che questo comporti una nuova revisione del chip. Se c'è una revisione è un problema dell'architettura su quel processo non dipendente da questo presunto errore umano che ha portato a problemi a detta di tutti temporaneo.
Che è un errore umano lo dici tu...:fagiano:
Quello che è successo non ha senso: basta guardare la situazione di AMD/ATI che lancia una scheda a settembre che da ottobre non è più disponibile e continua a fare uscire soluzioni che hanno poca disponibilità o nulla.
O sono diventati tutti schizofrenici oppure TSMC con il pp@40nm ha fatto un buco nell'acqua semitotale...lo ripeto: per quel che ne sappiamo alla nvidia potrebbero pure abbassarle le frequenze con la a3 per cercare di avere più chip utili.
yossarian
22-11-2009, 13:07
Allora da quello che ho capito secondo te le prestazioni della ipotetica gtx 380 non supereranno quelle della hd5850, ma a questo punto a che servirebbe aspettare? Credo difficile che un innalzamento di frequenza possa ribaltare la situazione se il limite è quello che hai indicato tu...tanto varebbe farla uscire e battere sulle features fisica vision e altre menate (cosa che comunque nvidia da un po' di tempo fa sempre)...no io penso che la scheda se non fosse stato per i neoproblemi di tsmc (posteriori a quelle parole che tu riporti) sarebbe uscita a Dicembre...guardacaso quei problemi hanno messo in grave difficoltà anche AMD/ATI rendendo il lancio dei loro prodotti quasi un paper launch.
Un esempio? La nuova dual GPU è stata recensita eppure non se ne trova una: http://www.trovaprezzi.it/categoria.aspx?id=28&libera=hd+5970&prezzomin=-1&prezzomax=-1
Siccome entrambi si riforniscono da quelle fonderie per quale motivo Nvidia dovrebbe essere capace di presentare una scheda (oltretutto una scheda che ha un chip più grosso e quindi fisiologicamente con yelds peggiori)?
A me pare più credibile che il ritardo sia dovuto solo a questo se mi sbaglio e le prestazioni saranno deludenti pazienza mi andro' a prendere una hd5850 sperando che il prezzo cali all'uscita delle schede nvidia.
diciamo che penso, piuttosto, che si posizioni tra la 5850 e la 5870 e stiano tentando di aumentare le frequenze per avvicinarsi il più possibile a quest'ultima. Ripeto, quello che mi lascia perplesso è la faccendo del numero dio MADD. Se fosse come dice hardware.fr, allora, con soli 1300 MHz, Fermi avrebbe una potenza di calcolo teorica inferiore a quella di una 285 GTX anche se un'efficienza superiore nella gestione dei thread.
Comunque, partiamo dal presupposto che Fermi esista e che sia competitivo; ci sarebbe da porsi alcune domande: perchè continuano a coprirsi di ridicolo con presentazioni su carta, finti pcb (senza alcuna ragione) e foto ambigue? Perchè fanno trapelare indirettamente notizie di prestazioni superiore del 20-30% rispetto ad una 5870 ma, all'atto pratico, non mostrano uno straccio di bench?
Oggettivamente, non c'è più niente da nascondere e, ai fini delle vendite, il mostrare qualche bench non inficierebbe più di tanto le stesse (la gente si aspetta che fermi cada più della precedente generazione e la stessa nVidia fa circolare voci su presunte prestazioni di Fermi)
Ah sì? E allora perchè guardacaso non lo fanno mai di annunciare prima le prestazioni? Anche quando un prodotto è in orario ed è una bomba :read:
I problemi degli yelds sono sorti dopo l'uscita delle hd5xx0 per stessa ammissione di TSMC http://www.hwsetup.it/news/reader.php?objid=11830 le dichiarazioni fatte da nvidia riguardavano le voci che davano yelds al 2% e sono precedenti a questi fatti...è possibile che lo schifo del pp@40nm abbia costretto nvidia a passare alla revision a3 e al ritardo.
In questo le speculazioni sulle prestazioni non ci incastrerebbero nulla.
Se tsmc risolve entro l'anno come promesso in questo scenario credo sia probabile una presentazione a Gennaio con una disponibilità reale successiva di 1-2 mesi....altrimenti :boh:
è la prima volta che sento che i problemi di yield prima non ci sono è poi sorgono all'improvviso. Dell'esistenza dei problemi di TSMC con i 40 nm si sa da mesi e ci sono, online, news che parlavano del passaggio a 40 nm che,s econdo TSMC sarebbe stato senza problemi e un semplice half node (ma i ben informati affermavano il contrario). Invece nVidia afferma di non avere problemi di yield. Allora perchè Fermi non esce? Perchè aspettare il Q1 2010 (se tutto va bene)?
Foglia Morta
22-11-2009, 13:19
diciamo che penso, piuttosto, che si posizioni tra la 5850 e la 5870 e stiano tentando di aumentare le frequenze per avvicinarsi il più possibile a quest'ultima. Ripeto, quello che mi lascia perplesso è la faccendo del numero dio MADD. Se fosse come dice hardware.fr, allora, con soli 1300 MHz, Fermi avrebbe una potenza di calcolo teorica inferiore a quella di una 285 GTX anche se un'efficienza superiore nella gestione dei thread.
Comunque, partiamo dal presupposto che Fermi esista e che sia competitivo; ci sarebbe da porsi alcune domande: perchè continuano a coprirsi di ridicolo con presentazioni su carta, finti pcb (senza alcuna ragione) e foto ambigue? Perchè fanno trapelare indirettamente notizie di prestazioni superiore del 20-30% rispetto ad una 5870 ma, all'atto pratico, non mostrano uno straccio di bench?
Oggettivamente, non c'è più niente da nascondere e, ai fini delle vendite, il mostrare qualche bench non inficierebbe più di tanto le stesse (la gente si aspetta che fermi cada più della precedente generazione e la stessa nVidia fa circolare voci su presunte prestazioni di Fermi)
Una FMAD cos'è ( penso normali MADD , nel dubbio chiedo ) ?
Secondo questo articolo (http://www.siliconmadness.com/2009/11/nvidia-announces-tesla-20-series.html) in teoria anche le SFU sarebbero in grado di dare il loro contributo:
Theoretical performance on Nvidia's hardware can only be achived by using the SFUs as units capable of performing 4 single precision MUL or MAD FLOPS/s per SFU, but not FMAD. This is due to the flexibility of the interpolation hardware, which allows this to happen. Assuming that SFUs are unchanged from the GT200 design, that equals:
* ( 32 SPs * 2 (FMAD) + 4 * 4 SFUs ) * 16 (SMs) * 1.296MHz (core clock) = 1.66 TFLOPS/s
This is possible because - or at least in the two previous architectures - the SFUs could be schedulled in parallel with the SPs.
Kharonte85
22-11-2009, 13:39
Un processo che prima è salito negli yelds e poi è sceso stabilmente come lo chiami?
In ogni caso non si fa una nuova revision in un chip perché la fonderia ha fatto un errore per cui gli yelds sono scesi.
E perchè no?
Errore umano o meno le conseguenze dovrebbero farsi sentire proprio nel momento in cui uno deve affinare frequenze, calcolare margini di utilizzo dei chip di scarto ecc... non trovo strano che in queste condizioni nvidia voglia fare una revision a3.
diciamo che penso, piuttosto, che si posizioni tra la 5850 e la 5870 e stiano tentando di aumentare le frequenze per avvicinarsi il più possibile a quest'ultima. Ripeto, quello che mi lascia perplesso è la faccendo del numero dio MADD. Se fosse come dice hardware.fr, allora, con soli 1300 MHz, Fermi avrebbe una potenza di calcolo teorica inferiore a quella di una 285 GTX anche se un'efficienza superiore nella gestione dei thread.
Comunque, partiamo dal presupposto che Fermi esista e che sia competitivo; ci sarebbe da porsi alcune domande: perchè continuano a coprirsi di ridicolo con presentazioni su carta, finti pcb (senza alcuna ragione) e foto ambigue? Perchè fanno trapelare indirettamente notizie di prestazioni superiore del 20-30% rispetto ad una 5870 ma, all'atto pratico, non mostrano uno straccio di bench?
Oggettivamente, non c'è più niente da nascondere e, ai fini delle vendite, il mostrare qualche bench non inficierebbe più di tanto le stesse (la gente si aspetta che fermi cada più della precedente generazione e la stessa nVidia fa circolare voci su presunte prestazioni di Fermi)
E' qui che ti sbagli secondo me, le persone che vanno nei negozi per comprare un pc nuovo e/o prendere una scheda AMD, non trovandole disponibili, annullano gli ordini e comprano anche Nvidia.
Perchè nvidia dovrebbe togliersi l'occasione di vendere ora le sue schede e rivenderle di nuovo con fermi e derivati? Per fermare le non-vendite delle nuove schede AMD/ATI? E lei che ci guadagnerebbe?
Non è politica di queste aziende di diffondere i dati prestazionali prima dello scadere dell' nda e anche questa volta questo dogma non sarà messo in discussione: è inutile richiederlo fino a che nvidia non stabilirà la data di presentazione (è sempre stato così).
Ed è anche abbastanza sterile pensare di dedurre le prestazioni da questo comportamento...io tendo all'ottimismo per un semplice discorso di "corso e ricorso storico" che si sussegue e all'evidenza che fino ad ora Nvidia ha sempre fatto molto meglio della sua generazione passata di GPU.
è la prima volta che sento che i problemi di yield prima non ci sono è poi sorgono all'improvviso. Dell'esistenza dei problemi di TSMC con i 40 nm si sa da mesi e ci sono, online, news che parlavano del passaggio a 40 nm che,s econdo TSMC sarebbe stato senza problemi e un semplice half node (ma i ben informati affermavano il contrario). Invece nVidia afferma di non avere problemi di yield. Allora perchè Fermi non esce? Perchè aspettare il Q1 2010 (se tutto va bene)?
Perchè non è pronto per colpa di TSMC? Nvidia affermava mesi fa di non aver problemi, adesso evidentemente ce li ha (come AMD/ATI del resto).
yossarian
22-11-2009, 13:50
Una FMAD cos'è ( penso normali MADD , nel dubbio chiedo ) ?
Secondo questo articolo (http://www.siliconmadness.com/2009/11/nvidia-announces-tesla-20-series.html) in teoria anche le SFU sarebbero in grado di dare il loro contributo:
Theoretical performance on Nvidia's hardware can only be achived by using the SFUs as units capable of performing 4 single precision MUL or MAD FLOPS/s per SFU, but not FMAD. This is due to the flexibility of the interpolation hardware, which allows this to happen. Assuming that SFUs are unchanged from the GT200 design, that equals:
* ( 32 SPs * 2 (FMAD) + 4 * 4 SFUs ) * 16 (SMs) * 1.296MHz (core clock) = 1.66 TFLOPS/s
This is possible because - or at least in the two previous architectures - the SFUs could be schedulled in parallel with the SPs.
Le FMAD o FMA sono delle operazioni di moltiplicazione e addizione senza l'arrotondamento del risultato intermedio. In pratica, quando si esegue una MADD la prima delle due fmu in serie di cui è composta la alu esegue una moltiplicazione; il risultato di questa viene troncato a seconda del livello di precisione richiesto e, quindi, passato alla seconda alu che esegue l'addizione. In una FMA o FMAD che dir si voglia, il risultato della MUL è passato allo stadio che esegue la ADD senza arrotondamento. In questo modo aumenta la precisione di calcolo perchè il risultato intermedio non è approssimato e viene arrotondato solo alla fine delle due operazioni. Questo tipo di operazioni sono utilizzate per il gpu computing ma non per la programmazione dei giochi per cui si ricorre alle comuni MADD. Le MADD a fp32 e fp64 sono state definite dallo standard IEEE 754-1985 mentre le FMA dallo standard IEEE 754-2008.
Sulla seconda parte,
In quanto alle capacità della SFU, se fosse come dice l'articolo che hai postato, avrebbero la stessa capacità di calcolo di quelle di GT200 (ossia di eseguire 4 MUL per SFU per ciclo). Il calcolo che hai postato tiene conto del numero di FMA (o FMADD) ma non del numero di MADD totali di cui è capace GT300. Questa rappresenta la vera incognita in ambito gaming; se fosse come dice hw.fr, andrebbe dimezzato il valore delle MADD rispetto al calcolo riportato
Kharonte85
22-11-2009, 14:43
E' qui che sbagli. E' impossibile che una nuova revision del chip venga programmata per risolvere un problema di produzione che prima non c'era ed è apparso all'improvviso. Impossibile.
Chi ha parlato di risolvere? E' TSMC che deve risolvere nvidia deve adattarsi...
yossarian
22-11-2009, 14:47
E perchè no?
Errore umano o meno le conseguenze dovrebbero farsi sentire proprio nel momento in cui uno deve affinare frequenze, calcolare margini di utilizzo dei chip di scarto ecc... non trovo strano che in queste condizioni nvidia voglia fare una revision a3.
quando si parla di yield lo si fa tenendo conto del rpodotto finito e non di una rev intermedia; non ha senso dire: con la rev1 lo yeld è del 50% (ma sono chip che non posso mettere in produzione perchè, ad esempio, buggati) ma con la rev2 è sceso al 3%. Se considero chip non commercializzabili lo yield è sempre del 100% :D .
Perciò, affermazioni del tipo: prima lo yield era buono ma adesso, con l'affinamento del pp e la revisione dell'architettura è sceso, non ha assolutamente senso. O era basso da subito oppure non lo era prima e non lo è adesso.
Le successive rev e gli affinamenti del pp servono per far aumentare le rese. Se sono già buone non ha senso fare altre rev prima del lancio del chip (semmai se ne schedulano altre successivamente, una volta collaudato il nuovo pp, col chip già in produzione, per affinare le frequenze.
E' qui che ti sbagli secondo me, le persone che vanno nei negozi per comprare un pc nuovo e/o prendere una scheda AMD, non trovandole disponibili, annullano gli ordini e comprano anche Nvidia.
Perchè nvidia dovrebbe togliersi l'occasione di vendere ora le sue schede e rivenderle di nuovo con fermi e derivati? Per fermare le non-vendite delle nuove schede AMD/ATI? E lei che ci guadagnerebbe?
e allora perchè affannarsi a far uscire continuamente non notizie su Fermi ad ogni occasione? Perchè far trapelare indiscrezioni su presunte prestazioni di GT300? Che senso ha tutto ciò? Se vogliono affermare:"guardate che ci siamo anche noi, stiamo arrivando e fermi sarà più veloce di una 5870" stanno andando esattamente nella direzione opposta a quella che tu stai indicando. Però si contraddicono nel momento in cui non solo non diffondono i bench (ripeto, mancano solo quelli perchè su fermi si sa ormai tutto) ma incorrono in continue gaffe nel fare queste affermazioni.
Non è politica di queste aziende di diffondere i dati prestazionali prima dello scadere dell' nda e anche questa volta questo dogma non sarà messo in discussione: è inutile richiederlo fino a che nvidia non stabilirà la data di presentazione (è sempre stato così).
di fermi si sa tutto, comprese le frequenze delle tesla; amancano quelle delle geforce (perchè?). Su G80 solo i ben informati sapevano come stavano le cose.
Ed è anche abbastanza sterile pensare di dedurre le prestazioni da questo comportamento...io tendo all'ottimismo per un semplice discorso di "corso e ricorso storico" che si sussegue e all'evidenza che fino ad ora Nvidia ha sempre fatto molto meglio della sua generazione passata di GPU.
basta avere le frequenze per avere anche il dato sulle prestazioni, indipendentemente dai bench.
Qui non si tratta di essre ottimizti o pesismisti ma di valutare i fatti: prima si afferma che gli yield sono buoni e poi si dà la colpa a TSMC per il ritardo di GT300 (qualcuno ricorda l'episodio della 7800 GTX 512 MB phantom edition, lanciata in un migliaio di esemplari in tutto prima di natale 2005 con la motivazione che erano rare le ram per colpa di samsung (tesi smentita dalla stessa samsung e dalla disponibilità in elevati volumi delle stesse ram su vga con chip ATi della serie 520 e 580 successivamente). Poi fanno vedere una vga fake per evitare forme di spionaggio ma contestualmente rivelano di tutto e di più sull'architettura di fermi. Poi fanno veder una foto su un presunto bench dx11 (che non si sa se sta girando in dx11 se è un fermo immagine, a quanti fps va, ecc) e, di conseguenza, è una foto priva di qualsivoglia valenza (ammesso che sia fermi in funzione e che vada a 4 fps cosa me ne faccio?).
In quanto al fare molto meglio della precedente generazione, dipende che intendi. Gli unici salti degni di nota ci sono stati con NV40 (rispetto a NV30 ma tutti sappiamo il motivo) e con G80 rispetto a G70 (ma c'era il passaggio agli shader unificati e adesso non ci sarà lo stesso tipo di "rivoluzione")
Perchè non è pronto per colpa di TSMC? Nvidia affermava mesi fa di non aver problemi, adesso evidentemente ce li ha (come AMD/ATI del resto).
AMD non ha mai affermato di non avere problemi di yield, al contrario di nVidia; eppure i chip ATi a 40 nm esistono da prima rispetto a quelli nVidia.
A me sembra un continuo :mc:
yossarian
22-11-2009, 14:51
E' qui che sbagli. E' impossibile che una nuova revision del chip venga programmata per risolvere un problema di produzione che prima non c'era ed è apparso all'improvviso. Impossibile.
Chi ha parlato di risolvere? E' TSMC che deve risolvere nvidia deve adattarsi...
Ratatosk ha ragione: non ha senso propgrammare una nuova rev di un chip il cui yield è buono; semmai la rpogrammo in un secondo tempo una volta affinato il pp per lavorare, ad esempio sull'ottimizzazione delle interfacce con le metallizzazioni e aumentare le frequenze o ridurre i consumi ma non la programmo nel caso in cui va tutto bene (il chip funziona bene e lo yield è buono). Sono già in ritardo e che fanno? Perdono tempo a tirare fuori altre rev di un prodotto che funziona mentre, invece, la concorrenza ha problemi con le rese produttive (AMD le ha denunciate da RV770)? Non ritieni che sia poco credibile?
Bastoner
22-11-2009, 14:52
A me sembra un continuo :mc:
Anche a me, e non capisco in nome di che. :rolleyes:
yossarian
22-11-2009, 15:08
comunque sia, per chi volesse informazioni certe su fermi, almeno in versione gpu computing (finora è l'unico aspetto di cui hanno parlato), può dare un'occhiata a questo (l'architettura del chip è, comunque, quella)
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIA_Fermi_Compute_Architecture_Whitepaper.pdf
Ci sono anche dei bench comparativi con GT200 (che sappiamo essere un "chiodo" in double precision, però). Il fatto che questo documento è già da tempo che sia in rete e che ne esiste anche almeno una revisione precedente, dimostra che di Fermi si sa tutto già da tempo, comprese le frequenze di funzionamento (altrimenti non si potrebbero fare comparazioni quantitative rispetto alla precedente generazione). La cosa sospetta è che l'unico dato non ancora rivelato è quello relativo alle frequenze della verione gaming.
comunque sia, per chi volesse informazioni certe su fermi, almeno in versione gpu computing (finora è l'unico aspetto di cui hanno parlato), può dare un'occhiata a questo (l'architettura del chip è, comunque, quella)
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIA_Fermi_Compute_Architecture_Whitepaper.pdf
Interessante, in sp GT200 riesce a fare 240 MAD ops/clock, mentre Fermi 512 FMA ops/clock, leggendo il tuo precedente post le FMA fanno la stessa cosa delle MAD conservando la precisione, ma allora perchè in sp Fermi sarebbe così deludente se riesce a fare il doppio di operazioni in sp per ciclo di clock, dici che avrà frequenze particolarmente conservative ?
yossarian
22-11-2009, 15:37
Interessante, in sp GT200 riesce a fare 240 MAD ops/clock, mentre Fermi 512 FMA ops/clock, leggendo il tuo precedente post le FMA fanno la stessa cosa delle MAD conservando la precisione, ma allora perchè in sp Fermi sarebbe così deludente se riesce a fare il doppio di operazioni in sp per ciclo di clock, dici che avrà frequenze particolarmente conservative ?
no, piuttosto perchè per i giochi si utilizzano le MADD e, stando a quanto riportato da hardware.fr, fermi sarebbe in grado di fare solo 256 MADD per ciclo a fp32. L'unico nodo da sciogliere è proprio quello: è vero quanto afferma hardware.fr, oppure no? Nel white paper si parla di IEEE 754-2008 come standard di riferimento (che è quello delle FMA) ma non menziona le MADD; però sembrerebbe che i dati postati da hw.fr siano stati presi da fonti ufficiali e, in ogni caso, non sono stati smentiti. Ora, perchè questa distinzione tra FMA e MADD e perchè Fermi può eseguire 512 FMA ma solo 256 MADD?
Se effettivamente le cose stano come riporta hw.fr, alle frequenze a cui è probabile che fermi possa funzionare, la sua capacità di calcolo teorica, relativamente alle MADD fp32 non sarebbe troppo diversa da quella di una 285 GTX.
Ora capisci perchè è importante sapere di più su questo presunto limite di fermi e sulle sue frequenze di funzionamento in versione gaming?
Perchè nVidia che ha detto praticamente tutto su Fermi non scioglie questi ultimi nodi? Invece continua a glissare parlando di gpu computing, di 3d vision, di physx, ecc.
Sinceramente trovo la cosa piuttosto sospetta
Iantikas
22-11-2009, 16:00
@ eXes: se vuoi leggerlo l'articolo di hardware.fr è questo qui http://www.hardware.fr/articles/772-7/nvidia-fermi-revolution-gpu-computing.html ...
http://img412.imageshack.us/img412/3553/img0027058.gif (http://img412.imageshack.us/i/img0027058.gif/)
...è x tutti questi articoli ke io, al contrario di molti ke postano in questo 3d, tutta questa grande fiducia in questa nuova arkitettura nn c'è l'ho...
...ciao
Foglia Morta
22-11-2009, 16:12
Lo stesso articolo scritto in inglese: http://www.behardware.com/articles/772-7/nvidia-fermi-the-gpu-computing-revolution.html
@ eXes: se vuoi leggerlo l'articolo di hardware.fr è questo qui http://www.hardware.fr/articles/772-7/nvidia-fermi-revolution-gpu-computing.html ...
...è x tutti questi articoli ke io, al contrario di molti ke postano in questo 3d, tutta questa grande fiducia in questa nuova arkitettura nn c'è l'ho...
...ciaoStando a quei grafici però cypress, sotto il profilo delle operazioni FP32 MADD, sembrerebbe decisamente superiore rispetto a GT200/GT300, ma nei giochi non c'è sicuramente una simile differenza. è sbagliato paragonare 2 architetture tanto differenti? Ma in questo caso non sarebbe errato anche confrontare GT200 e Fermi?
Stando a quei grafici però cypress, sotto il profilo delle operazioni FP32 MADD, sembrerebbe decisamente superiore rispetto a GT200/GT300, ma nei giochi non c'è sicuramente una simile differenza. è sbagliato paragonare 2 architetture tanto differenti? Ma in questo caso non sarebbe errato anche confrontare GT200 e Fermi?
infatti!
Kharonte85
22-11-2009, 16:16
quando si parla di yield lo si fa tenendo conto del rpodotto finito e non di una rev intermedia; non ha senso dire: con la rev1 lo yeld è del 50% (ma sono chip che non posso mettere in produzione perchè, ad esempio, buggati) ma con la rev2 è sceso al 3%. Se considero chip non commercializzabili lo yield è sempre del 100% :D .
Perciò, affermazioni del tipo: prima lo yield era buono ma adesso, con l'affinamento del pp e la revisione dell'architettura è sceso, non ha assolutamente senso. O era basso da subito oppure non lo era prima e non lo è adesso.
Le successive rev e gli affinamenti del pp servono per far aumentare le rese. Se sono già buone non ha senso fare altre rev prima del lancio del chip (semmai se ne schedulano altre successivamente, una volta collaudato il nuovo pp, col chip già in produzione, per affinare le frequenze.
Ok, sostituiamo yelds con "rese" o chip che tsmc sarebbe in grado di produrre e il discorso magari acquista senso...se TSMC dice il vero (tu dici che è impossibile che accada invece qualcuno dice che è successo a tal punto che la serie mobile di AMD è shiftata di qualche mese fino al 2010) a quanto pare praticamente non è più in grado di tirar fuori nemeno le GPU Di AMD/ATI figuriamoci quelle di nvidia! Non mi sembra così difficile da capire.
e allora perchè affannarsi a far uscire continuamente non notizie su Fermi ad ogni occasione? Perchè far trapelare indiscrezioni su presunte prestazioni di GT300? Che senso ha tutto ciò? Se vogliono affermare:"guardate che ci siamo anche noi, stiamo arrivando e fermi sarà più veloce di una 5870" stanno andando esattamente nella direzione opposta a quella che tu stai indicando. Però si contraddicono nel momento in cui non solo non diffondono i bench (ripeto, mancano solo quelli perchè su fermi si sa ormai tutto) ma incorrono in continue gaffe nel fare queste affermazioni.
di fermi si sa tutto, comprese le frequenze delle tesla; amancano quelle delle geforce (perchè?). Su G80 solo i ben informati sapevano come stavano le cose.
Ancora? te l'ho già spiegato prima, tu non sei d'accordo e va bene ma è una considerazione molto più arbitraria la tua che la mia dato che lo ripeto per l'n volta: nvidia non ha mai rilasciato benchmark prima dello scadere dell'nda.
basta avere le frequenze per avere anche il dato sulle prestazioni, indipendentemente dai bench.
Qui non si tratta di essre ottimizti o pesismisti ma di valutare i fatti: prima si afferma che gli yield sono buoni e poi si dà la colpa a TSMC per il ritardo di GT300 (qualcuno ricorda l'episodio della 7800 GTX 512 MB phantom edition, lanciata in un migliaio di esemplari in tutto prima di natale 2005 con la motivazione che erano rare le ram per colpa di samsung (tesi smentita dalla stessa samsung e dalla disponibilità in elevati volumi delle stesse ram su vga con chip ATi della serie 520 e 580 successivamente). Poi fanno vedere una vga fake per evitare forme di spionaggio ma contestualmente rivelano di tutto e di più sull'architettura di fermi. Poi fanno veder una foto su un presunto bench dx11 (che non si sa se sta girando in dx11 se è un fermo immagine, a quanti fps va, ecc) e, di conseguenza, è una foto priva di qualsivoglia valenza (ammesso che sia fermi in funzione e che vada a 4 fps cosa me ne faccio?).
In quanto al fare molto meglio della precedente generazione, dipende che intendi. Gli unici salti degni di nota ci sono stati con NV40 (rispetto a NV30 ma tutti sappiamo il motivo) e con G80 rispetto a G70 (ma c'era il passaggio agli shader unificati e adesso non ci sarà lo stesso tipo di "rivoluzione")
AMD non ha mai affermato di non avere problemi di yield, al contrario di nVidia; eppure i chip ATi a 40 nm esistono da prima rispetto a quelli nVidia.
A me sembra un continuo :mc:
a me risulta il contrario...fra l'altro da sempre i chip @ 40nm hanno problemi di produzione/disponibilità (fin dalla hd4770) altrimenti AMD/ATI fa i dispetti a chi non avendo schede disponibili? :mbe:
leggi qua:
Problems with 40nm
http://www.theinquirer.net/inquirer/news/1560346/problems-40nm
AMD can't get enough GPUs
http://www.theinquirer.net/inquirer/news/1561517/amd-gpus
e
AMD graphics chip shortage hitting PC vendors
Offshore TSMC foundry slow to ramp up production of AMD's new 40-nanometer GPUs
http://www.pcworld.idg.com.au/article/325380/amd_graphics_chip_shortage_hitting_pc_vendors
Quindi...
Ratatosk ha ragione: non ha senso propgrammare una nuova rev di un chip il cui yield è buono; semmai la rpogrammo in un secondo tempo una volta affinato il pp per lavorare, ad esempio sull'ottimizzazione delle interfacce con le metallizzazioni e aumentare le frequenze o ridurre i consumi ma non la programmo nel caso in cui va tutto bene (il chip funziona bene e lo yield è buono). Sono già in ritardo e che fanno? Perdono tempo a tirare fuori altre rev di un prodotto che funziona mentre, invece, la concorrenza ha problemi con le rese produttive (AMD le ha denunciate da RV770)? Non ritieni che sia poco credibile?
Appunto e io che ho detto prima? Se TSMC è talmente in m. che AMD non ha una scheda nuova da vendere e che nvidia è costretta ad aspettare perchè non lavorare subito su una a3 in modo da fare quello che hai scritto in grassetto in attesa che si ripigli TSMC...non mi pare assurdo per niente.
Noo...macchè i problemi del ritardo di fermi non sono colpa di TSMC che probabilmente in questo momento sarebbe capace di produrne 2 in versione a2 (una per me e una per te :asd:) è colpa degli ingegneri nvidia che dormono...:sofico:
Non vorrei dirlo per scaramanzia ma ho la sensazione che se TSMC non si ripiglia a breve è un casino e allora sì che si puo' cominciare a parlare di Maggio...
Kharonte85
22-11-2009, 16:25
no, piuttosto perchè per i giochi si utilizzano le MADD e, stando a quanto riportato da hardware.fr, fermi sarebbe in grado di fare solo 256 MADD per ciclo a fp32. L'unico nodo da sciogliere è proprio quello: è vero quanto afferma hardware.fr, oppure no? Nel white paper si parla di IEEE 754-2008 come standard di riferimento (che è quello delle FMA) ma non menziona le MADD; però sembrerebbe che i dati postati da hw.fr siano stati presi da fonti ufficiali e, in ogni caso, non sono stati smentiti. Ora, perchè questa distinzione tra FMA e MADD e perchè Fermi può eseguire 512 FMA ma solo 256 MADD?
Se effettivamente le cose stano come riporta hw.fr, alle frequenze a cui è probabile che fermi possa funzionare, la sua capacità di calcolo teorica, relativamente alle MADD fp32 non sarebbe troppo diversa da quella di una 285 GTX.
Ora capisci perchè è importante sapere di più su questo presunto limite di fermi e sulle sue frequenze di funzionamento in versione gaming?
Perchè nVidia che ha detto praticamente tutto su Fermi non scioglie questi ultimi nodi? Invece continua a glissare parlando di gpu computing, di 3d vision, di physx, ecc.
Sinceramente trovo la cosa piuttosto sospetta
Invece ipotizzare che nvidia abbia creato una nuova scheda video che sulla carta andrebbe come la GTX 285 consumando pure di più è più credibile? Naa...:asd:
Invece ipotizzare che nvidia abbia creato una nuova scheda video che sulla carta andrebbe come la GTX 285 consumando pure di più è più credibile? Naa...:asd:
cmq razor93 ha fatto una giusta osservazione....
cioè, se è così importante questo fp32 mad nei giochi, allora perchè, la 5870, che lo ha di oltre 4 volte superiore ad una gtx285, poi nei giochi non va neanche il 50% in + rispetto a questa? :confused: :D
Stando a quei grafici però cypress, sotto il profilo delle operazioni FP32 MADD, sembrerebbe decisamente superiore rispetto a GT200/GT300, ma nei giochi non c'è sicuramente una simile differenza. è sbagliato paragonare 2 architetture tanto differenti? Ma in questo caso non sarebbe errato anche confrontare GT200 e Fermi?cmq razor93 ha fatto una giusta osservazione....
cioè, se è così importante questo fp32 mad nei giochi, allora perchè, la 5870, che lo ha di oltre 4 volte superiore ad una gtx285, poi nei giochi non va neanche il 50% in + rispetto a questa? :confused: :DBisogna calcolare l'efficienza del compilatore nel dividere il carico sui vec5 (normalmente si aggira sul 70% e varia da gioco a gioco).
Perché quello del grafico é il miglior caso, il peggiore assoluto sarebbe quel valore diviso 5.
Oltre a limiti quali texturing, banda passante, quantitá di ram ecc.
Bisogna calcolare l'efficienza del compilatore nel dividere il carico (normalmente si aggira sul 70% e varia da gioco a gioco).
Oltre a limiti quali texturing, banda passante, quantitá di ram ecc.
e allora vedi....entrano in gioco tanti fattori, non conta quello da solo...
Kharonte85
22-11-2009, 16:37
cmq razor93 ha fatto una giusta osservazione....
cioè, se è così importante questo fp32 mad nei giochi, allora perchè, la 5870, che lo ha di oltre 4 volte superiore ad una gtx285, poi nei giochi non va neanche il 50% in + rispetto a questa? :confused: :D
Eh già...il primo valore che mi viene in mente è la banda passante.
Il cui valore atteso per Fermi è guardacaso molto più elevato fra i 192 GB/s 230,4 GB/s rispetto ai 153,6 GB/s della 5870 e i 158,7 GB/s della gtx 285...niente niente che forse un pochetto di più della gtx 285 questa scheda ci andrà? :D
Edit: come mai qua
http://www.hwupgrade.it/articoli/skvideo/2293/nvidia-fermi-la-nuova-architettura-scopre-le-carte_3.html
http://img4.imageshack.us/img4/2311/catturasi.jpg
E' riportato che fermi riesce a fare 512 MAD per ciclo di clock?
e allora vedi....entrano in gioco tanti fattori, non conta quello da solo...Peró é anche vero che paragonare Fermi/g200 é molto piú facile che paragonare rv870/g200 :D
A meno che hardware.fr abbia sbagliato tutto...
yossarian
22-11-2009, 16:40
Ok, sostituiamo yelds con "rese" o chip che tsmc sarebbe in grado di produrre e il discorso magari acquista senso...se TSMC dice il vero (tu dici che è impossibile che accada invece qualcuno dice che è successo a tal punto che la serie mobile di AMD è shiftata di qualche mese fino al 2010) a quanto pare praticamente non è più in grado di tirar fuori nemeno le GPU Di AMD/ATI figuriamoci quelle di nvidia! Non mi sembra così difficile da capire.
TSMC non ha mai affermato che le rese inizialmente erano buone né lo ha mai affermato AMD; semmai nVidia ha detto testualmente yields are fine, frase che sembri ripetutamente ignorare. Allora se le rese erano buone prima non possono essere peggiorate adesso. O erano pessime dall'inizio e mBidia ha detto una stupidfaggine per coprire qualcos'altro, oppure sono buone anche ora (e stanno raccontando tutti delle frottole).
Mi sembra elementare come concetto
Ancora? te l'ho già spiegato prima, tu non sei d'accordo e va bene ma è una considerazione molto più arbitraria la tua che la mia dato che lo ripeto per l'n volta: nvidia non ha mai rilasciato benchmark prima dello scadere dell'nda.
certo, non rilascia benchmark ma mette a disposizione tutto il materiale relativo all'architettura e mostra vga fake e foto taroccate per rendersi ridicola. O mantieni il riserbo su tutto (tanto gli utenti sanno che prima o poi uscirà la nuova architettura senza che ti sbatti per ricordarlo ogni 3x2) o mostri tutto; quello che non ha sesno è il rendersi ridicoli come stanno facendo da qualche tempo a questa parte.
a me risulta il contrario...fra l'altro da sempre i chip @ 40nm hanno problemi di produzione/disponibilità (fin dalla hd4770) altrimenti AMD/ATI fa i dispetti a chi non avendo schede disponibili? :mbe:
leggi qua:
Problems with 40nm
http://www.theinquirer.net/inquirer/news/1560346/problems-40nm
AMD can't get enough GPUs
http://www.theinquirer.net/inquirer/news/1561517/amd-gpus
e
AMD graphics chip shortage hitting PC vendors
Offshore TSMC foundry slow to ramp up production of AMD's new 40-nanometer GPUs
http://www.pcworld.idg.com.au/article/325380/amd_graphics_chip_shortage_hitting_pc_vendors
Quindi...
a volte ho l'impressione che non ci si prenda la briga di leggere i commenti altrui: sto ripetendo da ore che AMD HA SEMPRE PARLATO DI PROBLEMI CON LE RESE A 40 nm; chi non l'ha fatto è nVidia che ha, anzi affermato, yields are fine anche quando si era a conoscenza dei rpoblemi di TSMC. Levati dalla testa che i problemi di TSMC sono roba recente: ci sono stati dall'inizio e tutti ne erano a conoscenza. Ripeto per l'ultima volta: non esiste che un pp abbia ottime rese all'inizio e cominci a fare schifo da un determinato momento in poi.
Appunto e io che ho detto prima? Se TSMC è talmente in m. che AMD non ha una scheda nuova da vendere e che nvidia è costretta ad aspettare perchè non lavorare subito su una a3 in modo da fare quello che hai scritto in grassetto in attesa che si ripigli TSMC...non mi pare assurdo per niente.
AMD ha schede da vendere a 40 nm e dx11 perchè RV870 esiste; non ne ha nella misura in cui potrebbe averne se il pp di TSMC fornisse rese più alte, ma ce li ha. Chi non ne ha affatto è nVidia.
Se TSMC non risolve i suoi problemi la rev3 non serve ad una cippa. Se si ha necessità di una rev3 è perchè ci sono problemi non legati allo yield del pp.
Noo...macchè i problemi del ritardo di fermi non sono colpa di TSMC che probabilmente in questo momento sarebbe capace di produrne 2 in versione a2 (una per me e una per te :asd:) è colpa degli ingegneri nvidia che dormono...:sofico:
mi pare che nonostante i problemi (noti da RV770) AMD abbia prodotot e continui a produrre e commercializzare chip a 40 nm. Al contrario di nVidia.
Non vorrei dirlo per scaramanzia ma ho la sensazione che se TSMC non si ripiglia a breve è un casino e allora sì che si puo' cominciare a parlare di Maggio...
tutti gli articoli che nhai postato parlano di AMD. Ti sei chisto perchè? Risposta elementare: perchè AMD sta producendo chip a 40 nm ed ha dei riscontri oggettivi sulle rese. Al contrario, di nVidia abbiamo la sola affermazione yield are fine (che continuo a riportare perchè vedo che viene ignorata). Dopo di quella, il vuoto pneumatico. Questo significa che nVidia non ha neppure iniziato la produzione di GT300 se non in pochi sample a livello sperimentale (ed è da vedere se funzionanti e come). Di sicuro non ha neppure tentato di avviare una produzione di massa e non per i problemi del pp (chip nVidia a 40 nm mi pare siano in produzione ma derivati da g80)
che poi ragazzi c'è anche da vedere se funzionerà effettivamente in quel modo!!
come ha scritto l'utente più su, questo resta un nodo da scogliere, insieme alle frequenze! e cmq non si può basare tutta la capacità di una scheda solo da quel valore li!
Bisogna calcolare l'efficienza del compilatore nel dividere il carico sui vec5 (normalmente si aggira sul 70% e varia da gioco a gioco).
Perché quello del grafico é il miglior caso, il peggiore assoluto sarebbe quel valore diviso 5.
Oltre a limiti quali texturing, banda passante, quantitá di ram ecc.Interessante. Chi ci assicura però che lo stesso valga per GT200? A livello puramente numerico GT200 e Fermi sono molto vicini, ma considerando che entrano in gioco molti più fattori è impossibile trarre conclusioni affrettate. E se GT200, nelle sue attuali incarnazioni, fosse incapace di offrire il massimo, e il suo valore di picco reale fosse di, non so, 1/4 rispetto a quanto vediamo in quel grafico? Non è possibile che GT300 offra teoricamente poco di più, ma elimini colli di bottiglia mostrando veramente ciò che queste architetture possono fare? Semplici ipotesi ovviamente, magari yoss può dirci qualcosa di più. :D
Iantikas
22-11-2009, 16:44
Stando a quei grafici però cypress, sotto il profilo delle operazioni FP32 MADD, sembrerebbe decisamente superiore rispetto a GT200/GT300, ma nei giochi non c'è sicuramente una simile differenza. è sbagliato paragonare 2 architetture tanto differenti? Ma in questo caso non sarebbe errato anche confrontare GT200 e Fermi?
quei grafici rappresentano x ogni arkitettura i massimi limiti teorici in ogni singolo tipo di calcolo...
...le prestazioni nei gioki nn dipendono solo da quanti gflops la gpu pompa eseguendo istruzioni di tipo MAD in FP32 ma da tante altre decine di fattori...
...e sempre contando ke quello è il massimo valore ke l'arkitettura può raggiungere...x quanto riguarda cypress si sa bene ke dato il tipo d'arkitettura l'efficenza nei gioki nn sarà mai del 100%...
...detto questo a me ke un ipotetico fermi con gli shader a 1600mhz (e potrebbe pure essere una freq ottimistica) incrementi le prestazioni in FP32 MAD rispetto ad una GTX285 solo del 13,5% lascia molto perplesso...
...ancora di + se questo dato vien fornito come ricavato da fonti ufficiali nvidia e nn prontamente smentito dalla stessa...
...ciao
Interessante. Chi ci assicura però che lo stesso valga per GT200? A livello puramente numerico GT200 e Fermi sono molto vicini, ma considerando che entrano in gioco molti più fattori è impossibile trarre conclusioni affrettate. E se GT200, nelle sue attuali incarnazioni, fosse incapace di offrire il massimo, e il suo valore di picco reale fosse di, non so, 1/4 rispetto a quanto vediamo in quel grafico? Non è possibile che GT300 offra teoricamente poco di più, ma elimini colli di bottiglia mostrando veramente ciò che queste architetture possono fare? Semplici ipotesi ovviamente, magari yoss può dirci qualcosa di più. :D
a riquoto!
yossarian
22-11-2009, 16:47
Invece ipotizzare che nvidia abbia creato una nuova scheda video che sulla carta andrebbe come la GTX 285 consumando pure di più è più credibile? Naa...:asd:
finora di poco credibile ci sono, nell'ordine: una vga finta, una foto taroccata, un'affermazione sulla bontà del pp a 40 nm di TSMC, un'affermazione su un presunto 30% di fermi rispetto alla 5870 non suffragata dai fatti, una presunta freuqenza di 1600 MHz fatta trapelare qualche tempo fa per lo shader core e, ultimamente smentita (tanto che più testate hanno iniziato a parlare di ridimensionamento delle prestazioni di GT300), una serie di annunci ufficiosi fatti fare da siti "amici" o "utenti ben informati" su presunte date di presentazione/rilascio, puntialmente smentite.
Al momento non mi viene in mente altro. Di certo l'articolo di hardware.fr non ha subito smentite.
yossarian
22-11-2009, 16:50
Eh già...il primo valore che mi viene in mente è la banda passante.
Il cui valore atteso per Fermi è guardacaso molto più elevato fra i 192 GB/s 230,4 GB/s rispetto ai 153,6 GB/s della 5870 e i 158,7 GB/s della gtx 285...niente niente che forse un pochetto di più della gtx 285 questa scheda ci andrà? :D
Edit: come mai qua
http://www.hwupgrade.it/articoli/skvideo/2293/nvidia-fermi-la-nuova-architettura-scopre-le-carte_3.html
http://img4.imageshack.us/img4/2311/catturasi.jpg
E' riportato che fermi riesce a fare 512 MAD per ciclo di clock?
chiedi alla redazione di HWU, visto che nei documenti ufficiali non c'è riferimento alle MADD, che altri siti riportano dati differenti e che lo stesso Corsini non ha smentito quanto riportato da hw.fr.
Il riferimento allo standard IEEE 754-2008 dei documenti ufficiali è quello relativo alle FMA (per le MADD si parla di IEEE 754-1985).
Interessante. Chi ci assicura però che lo stesso valga per GT200? A livello puramente numerico GT200 e Fermi sono molto vicini, ma considerando che entrano in gioco molti più fattori è impossibile trarre conclusioni affrettate. E se GT200, nelle sue attuali incarnazioni, fosse incapace di offrire il massimo, e il suo valore di picco reale fosse di, non so, 1/4 rispetto a quanto vediamo in quel grafico? Non è possibile che GT300 offra teoricamente poco di più, ma elimini colli di bottiglia mostrando veramente ciò che queste architetture possono fare? Semplici ipotesi ovviamente, magari yoss può dirci qualcosa di più. :DDa quel poco (molto poco) che so di architetture di vga, gt200 ha un efficienza ben superiore al 90%, che abbinata a frequenze ben piú alte di quelle di rv770 permettono di recuperare il gap numerico di SP.
Con Fermi dovrebbero aver migliorato ulteriomente questo aspetto, ma dai numeri potrai capire che migliorare qualcosa che é giá prossimo di 100 non porta vantaggi sostanziosi.
L'unica cosa che non so é quanto potrá incidere la banda passante. G200 é banda limited? (Yoss!!! :D e se ho cannato qualcosa, correggimi pure che da grande voglio essere come te :D)
Oltre al fatto ovviamente che non sappiamo se le operazioni che puó eseguire Fermi sono quelle riportate o no...
cut
Edit: come mai qua
http://www.hwupgrade.it/articoli/skvideo/2293/nvidia-fermi-la-nuova-architettura-scopre-le-carte_3.html
http://img4.imageshack.us/img4/2311/catturasi.jpg
E' riportato che fermi riesce a fare 512 MAD per ciclo di clock?
eheheheh...che è un colpo di scena!?!? :Perfido:
no vabbe :D a questo punto uno dice una cosa un altro sito ne dice un altra... mahh :boh: :asd:
yossarian
22-11-2009, 17:00
Interessante. Chi ci assicura però che lo stesso valga per GT200? A livello puramente numerico GT200 e Fermi sono molto vicini, ma considerando che entrano in gioco molti più fattori è impossibile trarre conclusioni affrettate. E se GT200, nelle sue attuali incarnazioni, fosse incapace di offrire il massimo, e il suo valore di picco reale fosse di, non so, 1/4 rispetto a quanto vediamo in quel grafico? Non è possibile che GT300 offra teoricamente poco di più, ma elimini colli di bottiglia mostrando veramente ciò che queste architetture possono fare? Semplici ipotesi ovviamente, magari yoss può dirci qualcosa di più. :D
quei grafici rappresentano la potenza di calcolo teorica; in un chip a shader unificati e di tipo superscalare, quel valore è molto prossimo a quello reale (nella peggiore ddelle ipotesi si può parlare di un 80% del rendimento teorico massimo) e non di 1/4 (quello è il caso peggiore dei chip a shader dedicati :D ). La banda passante non era un collo di bottiglia per GT200. Può esserlo, soprattutto con codice dx9 e dx10, in determinate situaioni, per RV870 (questo lho detto da subito, commentando l'uscita del chip ATi). Con le dx11 questo limite sarà meno "pesante" a causa di ottimizzazioni atte a sfruttare meglio la banda passante stessa ma siamo comunque al limite (anche un po' oltre).
Per quanto riguarda il discorso bandwidth/prestazioni, la prima non è indicativa delle seconde; semmai può costiuire un fattore limitante ma non può essere usato come parametro per tentare di capire le presunte prestazioni di un chip.
L'ampiezza del bus dipende anche dall'architettura dl MC; ogni MC ha a disposizione un bus a 64 bit (quindi ATi fa uso di 4 MC mentre nVidia su GT200 ne ha usati 8 che diventano 6 su GT300). Questo, però, dipende anche dalle scelte architetturali dello stesso e dalle ottimizzazioni fatte per ridurne l'utilizzo. Il fatto che a parità di frequenza della ram, la bandwidth di GT300 sia il 50% in più non significa che le prestazioni saranno superiori del 50% ma che a parità di traffico, se RV870 dovesse incontrare limiti, GT300 potrebbe non subire le stesse limitazioni (ma anche questo dipende da altri fattori come le suddette ottimizzazioni).
no, piuttosto perchè per i giochi si utilizzano le MADD e, stando a quanto riportato da hardware.fr, fermi sarebbe in grado di fare solo 256 MADD per ciclo a fp32.
Ma se le MAD sono così poco efficienti come chiaramente mostrato nei grafici postati da intiakas, poichè stiamo parlando di codice shader e poichè credo che i driver implementino fra le altre cose ottimizzatori di codice shader, non è possibile che con fermi i driver convertano le MAD in FMA, in modo da sfruttare la maggior efficienza di quest'ultimi ?
-Può esserlo, soprattutto con codice dx9 e dx10, in determinate situaioni, per RV870 (questo lho detto da subito, commentando l'uscita del chip ATi)-
infatti rv870 è limitato dalla banda passante!
altrimenti la 5870 non andrebbe leggermente meno (l'ho visto su computerbase) di una 4870x2, dato che la 5870 ha 1600 shader ad 850, quindi se non fosse per la banda passante inferiore, è come se fosse una dual di 4890 che andrebbero di più della 4870x2 che sta a 750 :cool:
-Può esserlo, soprattutto con codice dx9 e dx10, in determinate situaioni, per RV870 (questo lho detto da subito, commentando l'uscita del chip ATi)-
infatti rv870 è limitato dalla banda passante!
altrimenti la 5870 non andrebbe leggermente meno (l'ho visto su computerbase) di una 4870x2, dato che la 5870 ha 1600 shader ad 850, quindi se non fosse per la banda passante inferiore, è come se fosse una dual di 4890 che andrebbero di più della 4870x2 che sta a 750 :cool:Mi pare però che l'overclock delle memorie di una 5870 porti benefici minimi. Questo smentirebbe l'ipotesi che, almeno attualmente, cypress sia limitato dalla banda.
Mi pare però che l'overclock delle memorie di una 5870 porti benefici minimi. Questo smentirebbe l'ipotesi che, almeno attualmente, cypress sia limitato dalla banda.
in effetti è vero anche questo!
Kharonte85
22-11-2009, 17:26
TSMC non ha mai affermato che le rese inizialmente erano buone né lo ha mai affermato AMD; semmai nVidia ha detto testualmente yields are fine, frase che sembri ripetutamente ignorare. Allora se le rese erano buone prima non possono essere peggiorate adesso. O erano pessime dall'inizio e mBidia ha detto una stupidfaggine per coprire qualcos'altro, oppure sono buone anche ora (e stanno raccontando tutti delle frottole).
Mi sembra elementare come concetto
Te lo ripeto, questo
http://www.guru3d.com/news/nvidia--gt300-yields-are-fine-/
Rispondeva a chi voleva gli Yelds al 2%, non fornisce nessun'altra informazione quindi è inutile che ci insisiti...nvidia non poteva prevedere che mesi dopo TSMC incontrasse ulteriori problemi sul pp@40nm.
certo, non rilascia benchmark ma mette a disposizione tutto il materiale relativo all'architettura e mostra vga fake e foto taroccate per rendersi ridicola. O mantieni il riserbo su tutto (tanto gli utenti sanno che prima o poi uscirà la nuova architettura senza che ti sbatti per ricordarlo ogni 3x2) o mostri tutto; quello che non ha sesno è il rendersi ridicoli come stanno facendo da qualche tempo a questa parte.
Vabbe' hai ragione sono diventati schizofrenici e masochisti...non lo fanno perchè vogliono mantenere i riflettori puntati su di loro.
a volte ho l'impressione che non ci si prenda la briga di leggere i commenti altrui: sto ripetendo da ore che AMD HA SEMPRE PARLATO DI PROBLEMI CON LE RESE A 40 nm; chi non l'ha fatto è nVidia che ha, anzi affermato, yields are fine anche quando si era a conoscenza dei rpoblemi di TSMC. Levati dalla testa che i problemi di TSMC sono roba recente: ci sono stati dall'inizio e tutti ne erano a conoscenza. Ripeto per l'ultima volta: non esiste che un pp abbia ottime rese all'inizio e cominci a fare schifo da un determinato momento in poi.
Hai ragione hai usato una doppia negazione che mi era sfuggita sorry...riguardo a quello che dici dopo invece sembra che sia proprio successo
CEO Morris Chang said that yield rates for its 40nm node dropped to 40 per cent due to chamber matching issues
Non ho idea di che cosa sia questo problema ma dropped significa che prima stavano messi meglio di sicuro...
AMD ha schede da vendere a 40 nm e dx11 perchè RV870 esiste; non ne ha nella misura in cui potrebbe averne se il pp di TSMC fornisse rese più alte, ma ce li ha. Chi non ne ha affatto è nVidia.
Se TSMC non risolve i suoi problemi la rev3 non serve ad una cippa. Se si ha necessità di una rev3 è perchè ci sono problemi non legati allo yield del pp.
se TSMC non risolve i suoi problemi anche la rev2 non serve ad una cippa. :fagiano:
mi pare che nonostante i problemi (noti da RV770) AMD abbia prodotot e continui a produrre e commercializzare chip a 40 nm. Al contrario di nVidia.
tutti gli articoli che nhai postato parlano di AMD. Ti sei chisto perchè? Risposta elementare: perchè AMD sta producendo chip a 40 nm ed ha dei riscontri oggettivi sulle rese. Al contrario, di nVidia abbiamo la sola affermazione yield are fine (che continuo a riportare perchè vedo che viene ignorata). Dopo di quella, il vuoto pneumatico. Questo significa che nVidia non ha neppure iniziato la produzione di GT300 se non in pochi sample a livello sperimentale (ed è da vedere se funzionanti e come). Di sicuro non ha neppure tentato di avviare una produzione di massa e non per i problemi del pp (chip nVidia a 40 nm mi pare siano in produzione ma derivati da g80)
Certo che parlano di AMD ma Nvidia va a bere alla stessa fontana (altri articoli parlano di entrambe).
Ho capito cosa stai ipotizzando ma secondo me potrebbe essere ugualmente plausibile che nvidia abbia deciso di fare una revision a3 perchè deve aspettare che TSMC sia in grado di cominciarne la produzione.
Sbaglio o non sarebbe del tutto assurdo pensare che invece che alzarle vogliano abbassare le frequenze per avere più GPU utili e per non perdere ulteriore tempo e per limitare i consumi? Questo spiegherebbe pure perchè non mostrano benchmark e il motivo per cui nelle slide di Tesla c'è scritto che le specifiche sono soggette a cambiamento.
Varrebbe anche nel caso che Fermi facesse schifo...aspettare sarebbe ulteriormente dannoso.
Kharonte85
22-11-2009, 17:34
Mi pare però che l'overclock delle memorie di una 5870 porti benefici minimi. Questo smentirebbe l'ipotesi che, almeno attualmente, cypress sia limitato dalla banda.
Dipende da quanto si riesce ad overclockare in % , 500Mhz sembrano tanti ma su 4.800 MHz sono il 10% e qualcosa.
io nella mia ho spinto le memorie di 400mhz :fagiano:
Scusate, ma nel whitepaper nvidia si legge 512 FMA in singola precisione.
Non capisco da dove hwfrance abbia tirato fuori le 256 fma in singola precisione del grafico.
Nello stesso articolo francese si legge :
"two 16-way SIMD units (the 32 “cores”): 32 FMA FP32s, 32 ADD INT32s, 16 MUL INT32s, 16 FMA FP64s"
Dubito che nvidia sia così stolta da compromettere il mercato gpu, molto probabilmente, come già detto da molti hanno problemi con il clock dei CUDA core.
Yoss le scarse performance che ipotizzi, per via del clock, non potrebbero essere dovute al cambio di scelta nel rapporto SP/texture unit che allinea 5870/gt200 al nuovo nato ?
I giochi attuali non dipendono maggiormente dal texure fillrate ?
Kharonte85
22-11-2009, 17:54
chiedi alla redazione di HWU, visto che nei documenti ufficiali non c'è riferimento alle MADD, che altri siti riportano dati differenti e che lo stesso Corsini non ha smentito quanto riportato da hw.fr.
Il riferimento allo standard IEEE 754-2008 dei documenti ufficiali è quello relativo alle FMA (per le MADD si parla di IEEE 754-1985).
Stavo leggendo il pdf da te riportato prima che parla chiaramente di 512 FMA ops /clock probabilmente hanno sbagliato a trascrivere la tabella....
Ma Hw.fr dove li ha trovati i dati per fare quei grafici?
Iantikas
22-11-2009, 18:35
appunto parla di 512 FMA ops/clock non MAD...
...basta leggerlo l'articolo di hardware.fr x capire qual'è la perplessità...
Fermi SIMDs move from MAD (multiply add) type instruction capability to FMA (fused multiply add). The difference is one of precision. The MAD instruction performs a floating multiplication followed by a floating addition, which is to say that the result is rounded at each stage. The FMA instruction retains full precision in the intermediate stage and only rounds at the end.
Like Cypress, Fermi implements the new IEEE-754-2008 standard and therefore denormalized numbers and the four rounding modes. The big difference between Cypress and Fermi however is that Fermi cannot handle standard MADs for both single and double precision arithmetic. With Fermi, NVIDIA will replace the MAD instructions by FMA instructions. This doesn’t give an equivalent result and though it is more precise, it might be a source of problems. It will however be possible to specify at compilation time that rather than going with the FMA instruction, MADs should be split into MULs and ADDS, which will be an almost identical solution. To get a perfectly identical result however you have to forego MADs on current architectures and FMAs on the new one.
Cypress is able to handle both MADs and FMAs for both single and double precision and at the same speed, no doubt facilitated by the emulation of doubles using FP32 units and partial products. NVIDIA tells us that the decision to abandon MADs was influenced by the costs implied for the architecture.
The use of FMA instructions means acceleration of certain functions such as divisions and square roots. NVIDIA told us that they will supply a new library of maths functions that will be used automatically in compilation for Fermi and will use FMA instructions to accelerate them when possible. Cypress already uses double precision FMA instructions to speed up divisions (DIV) and square roots (SQRT).
in base alle considerazioni fatte sull'arkitettura ke si basano sui dati ufficiali forniti dalla stessa nvidia vengono poi riportati nella tabella allegata qualke post fa i valori teorici ke un ipotetico fermi con gli shader a 1600mhz raggiungerebbe nelle varie operazioni...
...a me quei dati lasciano molto perplesso ancor di + dato ke nvidia nn li sta smentendo...
...ciao
Kharonte85
22-11-2009, 19:31
Mah, l'unico modo di risolvere questo dubbio mi sa che sarà quello di aspettare l'uscita della scheda...
Sniperchris
22-11-2009, 19:41
Mah, l'unico modo di risolvere questo dubbio mi sa che sarà quello di aspettare l'uscita della scheda...
appunto... ma ormai quanto ancora bisogna aspettare per vedere qualche testino in rete?
Mah, l'unico modo di risolvere questo dubbio mi sa che sarà quello di aspettare l'uscita della scheda...Non credo ci siano dubbi in merito :D
Iantikas
22-11-2009, 20:03
appunto... ma ormai quanto ancora bisogna aspettare per vedere qualche testino in rete?
l'uscita prevista è x marzo 2010...ciao
ma nn doveva uscire qualcosa di valido prima? :stordita:
Kharonte85
22-11-2009, 21:23
ma nn doveva uscire qualcosa di valido prima? :stordita:
Sì...ma non è detto.
ma stavolta nvidia non ha quasi saltato una generazione? intendo come tempo di uscita :confused:
Oppure è amd che è stata più rapida del solito?
Kharonte85
22-11-2009, 21:29
ma stavolta nvidia non ha quasi saltato una generazione? intendo come tempo di uscita :confused:
Oppure è amd che è stata più rapida del solito?
Direi un po' entrambe...comunque anche AMD non scherza come problemi (sempre per colpa del pp@40nm)...è rapida a presentare le schede, meno a renderle disponibili.
E' un momento di stallo che fa male specialmente ai consumatori.
devAngnew
22-11-2009, 21:49
appunto parla di 512 FMA ops/clock non MAD...
Bhaa IMO vi fate troppi FIlm :asd: :asd: :asd: nvidia può benissimo sostituire a livello driver quindi al momento della compilazione dello shader alle MAD le FMA dopo tutto l'architettura Fermi esegue questa operazione sia a 32bit (in tal caso ben 512) e vanno bene nei giochi che a 64bit.
Quindi IMO Yossarin si stà sbagliando nel dire che g300 sarà pari o di poco superiore ad 285.
;)
yossarian
22-11-2009, 21:57
Ma se le MAD sono così poco efficienti come chiaramente mostrato nei grafici postati da intiakas, poichè stiamo parlando di codice shader e poichè credo che i driver implementino fra le altre cose ottimizzatori di codice shader, non è possibile che con fermi i driver convertano le MAD in FMA, in modo da sfruttare la maggior efficienza di quest'ultimi ?
innanzitutto sarebbe da capire perchè, se è vero quanto riportato da hardware.fr, GT300 sarebbe capace di 512 FMA ma solo di 256 MADD per ciclo. Per il resto, dipende dall'architettura; non è detto che si possa fare e, se si, bisogna vedere se ciò comporta un hit prestazionale e di che portata.
Stavo leggendo il pdf da te riportato prima che parla chiaramente di 512 FMA ops /clock probabilmente hanno sbagliato a trascrivere la tabella....
Ma Hw.fr dove li ha trovati i dati per fare quei grafici?
a detta del redattore, da documentazione ufficiale fornita da nVidia stessa. Ad avvalorare questa tesi c'è il fatto che tutti gli altri dati coincidono (e, inoltre, non c'è una smentita né ufficiale né per "vie traverse").
yossarian
22-11-2009, 22:00
Bhaa IMO vi fate troppi FIlm :asd: :asd: :asd: nvidia può benissimo sostituire a livello driver quindi al momento della compilazione dello shader alle MAD le FMA dopo tutto l'architettura Fermi esegue questa operazione sia a 32bit (in tal caso ben 512) e vanno bene nei giochi che a 64bit.
Quindi IMO Yossarin si stà sbagliando nel dire che g300 sarà pari o di poco superiore ad 285.
;)
ammesso che sia possibile, potrebbe succedere come per le operazioni di tessellation e di texture sampling emulate via SW da unità programmabili: possibili ma con un hit prestazionale tale da renderle sconvenienti rispetto alle unità fixed function
devAngnew
22-11-2009, 22:33
ammesso che sia possibile, potrebbe succedere come per le operazioni di tessellation e di texture sampling emulate via SW da unità programmabili: possibili ma con un hit prestazionale tale da renderle sconvenienti rispetto alle unità fixed function
Ma in questo caso g300 non deve emulare proprio niente visto che fa un operazione praticamente uguale alla MADD ma più precisa ed efficiente se vogliamo considerare attendibile HardwareFrance.
In pratica alla chiamata di una MADD operation il microcode esegue la FMA e il gioco è fatto nessuna emulazione.
;)
Kharonte85
22-11-2009, 22:38
innanzitutto sarebbe da capire perchè, se è vero quanto riportato da hardware.fr, GT300 sarebbe capace di 512 FMA ma solo di 256 MADD per ciclo. Per il resto, dipende dall'architettura; non è detto che si possa fare e, se si, bisogna vedere se ciò comporta un hit prestazionale e di che portata.
a detta del redattore, da documentazione ufficiale fornita da nVidia stessa. Ad avvalorare questa tesi c'è il fatto che tutti gli altri dati coincidono (e, inoltre, non c'è una smentita né ufficiale né per "vie traverse").
Sarà così allora...:boh:
Se fosse vero quello che dice devAngnew invece la scelta di nvidia acquisterebbe senso.
devAngnew
22-11-2009, 22:43
Precisa non serve a niente in un gioco, efficiente... in che senso efficiente? :mbe: :confused:
Nel senso che la FMA si comporta meglio di una MADD su G300 secondo i grafici di hardware france.
;)
Che poi si perdano i bit meno significativi per strada cosa importa visto che g300 è ottimizzata in quel senso.(IMO per risparmiare sul silicio)
;)
Kharonte85
22-11-2009, 22:43
Ma in questo caso g300 non deve emulare proprio niente visto che fa un operazione praticamente uguale alla MADD ma più precisa ed efficiente se vogliamo considerare attendibile HardwareFrance.
In pratica alla chiamata di una MADD operation il microcode esegue la FMA e il gioco è fatto nessuna emulazione.
;)
Ti riferisci a questo
http://img21.imageshack.us/img21/1206/catturaah.jpg
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIA_Fermi_Compute_Architecture_Whitepaper.pdf
vero?
In questo caso 512 FMA sarebbero parecchio di più di 240 MAD (che erano sulla GT200) :fagiano:
Praticamete 512 fusi sarebbero meglio di 240 matti
:rotfl: :rotfl: :rotfl:
scusate, non ho saputo resistere :asd:
devAngnew
22-11-2009, 22:47
Si Karonte85 mi riferisco esattamente a quello.
:D
;)
devAngnew
22-11-2009, 22:51
Esattamente cosi 512 FMA sono meglio dei MATTI (MADD) :asd: :asd: :asd: Nvidia avrebbe ottimizzato g300 proprio in questo senso perlomeno è quello che ho capito leggendo velocemente HrdFr. e il white paper Fermi.
;)
Kharonte85
22-11-2009, 22:56
Esattamente cosi 512 FMA sono meglio dei MATTI (MADD) :asd: :asd: :asd: Nvidia avrebbe ottimizzato g300 proprio in questo senso perlomeno è quello che ho capito leggendo velocemente HrdFr. e il white paper Fermi.
;)
Spero che sia come dici tu... :)
Anche se le FMA non servono per il calcolo grafico, non vedo il motivo di cali prestazionali. Al massimo hai una maggiore precisione non sfruttata in ambito gaming, ma di uguale performance alle MAD.
Sembra strano che un miglior arrotondamento causi un incompatibilità con il classico modo di eseguire i calcoli.
Dico una stupidaggine ?
Ancora? te l'ho già spiegato prima, tu non sei d'accordo e va bene ma è una considerazione molto più arbitraria la tua che la mia dato che lo ripeto per l'n volta: nvidia non ha mai rilasciato benchmark prima dello scadere dell'nda.
Da un punto di vista di spionaggio industriale (che è quello che cercano di combattere gli NDA) è molto peggio scoprire quello che ha fatto trapelare volontariamente NVidia, visto che sono le idee che si possono copiare (leggi schemi del chip, concetti che ci sono dietro), certo non i benchmarks, i quali anzi possono fare solo bene, perchè creano aspettative nei consumatori.
Quindi se potesse NVidia farebbe trapelare i benchmark, visto che ormai l'NDA l'ha bell e mandato a p****ne lei stessa.
[Supermegacut]
Tera ipotesi è quella che sia vero quanto riportato da hw.fr a proposito delle capacità di calcolo di GT300 in singola e doppia precisione e nel calcolo di MADD e FMA; per comodità, riporto l'immagine da cui sembrerebbe che GT300, a fp32, abbia, con shader core a 1600 MHz, una capacità di calcolo teorica paragonabile a quella di GT200 per quanto riguarda le MADD
http://www.hardware.fr/medias/photos_news/00/27/IMG0027058.gif
Ora, sembrerebbe che nVidia abbia problemi a far funzionare GT300 con shader core a 1600 MHz, tanto che si è parlato di frequenze inferiori a quelle presviste anche per fp64 (il che allinea le prestazioni di fermi, in doppia precisione, a quelle di RV870). Se questo fosse confermato, allora, a fp32, GT300 non andrebbe meglio o, se si, non di molto, rispetto a GT200.
[...]
L'articolo è molto interessante, così come il grafico... Purtroppo sono valori puramente teorici, troppo difficili da usare come metro di paragone, credo... Soprattutto tra Cypress e Fermi. Qualche indicazione in più però potrebbe darla il confronto tra GT200 e GT300, visto che se non ho capito male, nonostante i cambiamenti non da poco, il concetto di fondo che è dietro Fermi rimane lo stesso di G80.
Mi chiedo però quali siano le operazioni statisticamente usate più di frequente nel programmare i giochi... Immagino le MADD in virgola mobile e precisione a 32bit...
Perchè dal grafico pare che gli unici ambiti in cui Fermi riesce a dare un boost notevole rispetto a GT200 sono il calcolo FP64 e le operazioni FMA in generale... Quindi penso che il fulcro della questione sia quanto tali operazioni vengano usate nella realtà dai giochi.
Se, come credo, il loro uso sarà ancora piuttosto limitato, l'incremento tra Fermi e la generazione precedente potrebbe essere quello che prospetti o poco più, tenuto anche conto dei tweak vari, della cache migliorata, della banda aumentata, ecc...
Iantikas
23-11-2009, 00:20
boh dagli ultimi post sembra ke ognuno ci capisce quello ke preferisce dall'articolo di hardware.fr
...tralasciando tutto il discorso su fusi e matti ci si può anke solo rifare alla tabella con le prestazioni in FP32 (ke son quelle d'interesse in ambito gaming)...
...nel caso di istruzioni di tipo MAD e MUL un ipotetico fermi con gli shader a 1600mhz ha un limite teorico superiore solo del 13,5% ad una GTX285...
...dall'articolo di hardware.fr come fate a capire quello ke state capendo io mica lo capisco :sofico:
Da un punto di vista di spionaggio industriale (che è quello che cercano di combattere gli NDA) è molto peggio scoprire quello che ha fatto trapelare volontariamente NVidia, visto che sono le idee che si possono copiare (leggi schemi del chip, concetti che ci sono dietro), certo non i benchmarks, i quali anzi possono fare solo bene, perchè creano aspettative nei consumatori.
Quindi se potesse NVidia farebbe trapelare i benchmark, visto che ormai l'NDA l'ha bell e mandato a p****ne lei stessa.
quoto avrebbe avuto piu senso mostrare due benchmark piuttosto che tutta l'architettura, come ha detto il buon yossarian di fermi si sa tutto tranne le frequenze della versione gaming, amd sa bene le potenzialità di fermi e sa perfettamente come va coi giochi e in ambito professionale, io non escludo la possibilità di un +20% di fermi rispetto a gt200b visto che le frequenze sono piu' o meno uguali, la banda aumenta e puo' avere maggiori istruzioni. Ovviamente tessalation via software e altre feature emulate non sono un punto a favore della nuova architettura nvida a meno che disincentivi le sh a utilizzarle frenando di nuovo (dx10.1) le nuove feature proposte nei videogiochi
boh dagli ultimi post sembra ke ognuno ci capisce quello ke preferisce dall'articolo di hardware.fr
...tralasciando tutto il discorso su fusi e matti ci si può anke solo rifare alla tabella con le prestazioni in FP32 (ke son quelle d'interesse in ambito gaming)...
...nel caso di istruzioni di tipo MAD e MUL un ipotetico fermi con gli shader a 1600mhz ha un limite teorico superiore solo del 13,5% ad una GTX285...
...dall'articolo di hardware.fr come fate a capire quello ke state capendo io mica lo capisco :sofico:
be sarebbe realmente un fiasco se fosse cosi per nvida, hwfrance non son gli ultimi arrivati, se effettivamente sarà cosi nvida ha compeltamente sbagliato architettura per l'ambito gaming, ed allora i buon vecchi dipendenti ati han ragione: nvida snobba il mercato gaming per quello professionale. Leggendo inoltre un articolo che menzionava i prezzi delle nuove vga tesla con quelle consumer è trapelato che la professionale costerà circa 3000 euro, soldi ben spesi visto che in quell'ambito va molto di piu' rispetto a gt200 e alla concorrenza, ma quelle consumer? ovviamente se le vorrà vendere dovrà avere un prezzo giusto in base alle prestazioni, il 13% in piu' rispetto alla gtx285 significherebbe un costo compreso tra i 170 euro della gtx275 e i 230 della 5850, ovviamente assai poco conveniente a nvida visti i 3 miliardi di transistors e il costo per produrre un chip del genere.....
Iantikas
23-11-2009, 00:40
ma infatti nn penso ke lo scenario sarà quello (o almeno lo spero xkè sarebbe davvero una tragedia)...xò credo ke a malapena andrà meglio di una hd5870 e cmq x un chip di tale complessità e costo nn sarebbe un traguardo di cui andarne fieri...
...nn ci resta ke aspettare...anke se l'attesa mi sa ke sarà parekkio lunga...
...ciao
yossarian
23-11-2009, 01:27
Anche se le FMA non servono per il calcolo grafico, non vedo il motivo di cali prestazionali. Al massimo hai una maggiore precisione non sfruttata in ambito gaming, ma di uguale performance alle MAD.
Sembra strano che un miglior arrotondamento causi un incompatibilità con il classico modo di eseguire i calcoli.
Dico una stupidaggine ?
non vi sto ad ammorbare con schemi e spiegazioni troppo tecniche, però cerco di fare, contemporaneamente, una sintesi ed una semplificazione (spesso le due cose non vanno d'accordo).
Iniziamo col dire che una pipeline di tipo FMA ha un delay time inferiore tra le operazioni di moltiplicazione e di addizione (non ha uno stadio intermedio) ma ha latenze superiori per entrambe le operazioni e, nel complesso, è meno performante nell'esecuzione di un'operazione di moltiplicazione e addizione rispetto ad una MADD, anche se più precisa. Inoltre una pipeline FMA può eseguire operazioni di tipo MADD a condizione che contenga alcuni stadi aggiuntivi che eseguano operazioni di allineamento dei dati tra MUL e ADD (esattamente come quando si esegue un'addizione o una sottrazione in colonna :D ) e di incremento del numero di cifre decimali del secondo addendo (nell'ADD i due addendi devono comunque avere lo stesso numero di cifre). Questo comporta tempi ancora più lunghi di esecuzione. Ma questo è il meno; in assenza di questi due stadi (e di qualcun altro che non sto a citare) una pipeline FMA non può eseguire una MADD. Ora, da quello che ho capito dall'articolo di hw.fr (e da altra documentazione) le alu di GT300 sono di tipo FMA capaci di eseguire i calcoli prevista dallo standard IEEE 754-2008 a piena velocità (ossia una fma per ciclo) ma in caso di chiamate di tipo MADD hanno bisogno del doppio dei cicli di clock. D'altro canto, il pdf che ho postato, parla chiaro riguardo all'esecuzione "a piena velocità" dei calcoli previsti dallo standard IEEE 754-2008 ma non dà le stesse indicazioni su quelli dello standard IEEE 754-1985 (e in questo risulta piuttosto ambiguo). In ogni caso, bisognerà innanzitutto vedere se quanto riportato da hw.fr corrisponde a verità e, finchè non ci saranno altre informazioni o test questo non sarà possibile.
L'articolo è molto interessante, così come il grafico... Purtroppo sono valori puramente teorici, troppo difficili da usare come metro di paragone, credo... Soprattutto tra Cypress e Fermi. Qualche indicazione in più però potrebbe darla il confronto tra GT200 e GT300, visto che se non ho capito male, nonostante i cambiamenti non da poco, il concetto di fondo che è dietro Fermi rimane lo stesso di G80.
Mi chiedo però quali siano le operazioni statisticamente usate più di frequente nel programmare i giochi... Immagino le MADD in virgola mobile e precisione a 32bit...
Perchè dal grafico pare che gli unici ambiti in cui Fermi riesce a dare un boost notevole rispetto a GT200 sono il calcolo FP64 e le operazioni FMA in generale... Quindi penso che il fulcro della questione sia quanto tali operazioni vengano usate nella realtà dai giochi.
Se, come credo, il loro uso sarà ancora piuttosto limitato, l'incremento tra Fermi e la generazione precedente potrebbe essere quello che prospetti o poco più, tenuto anche conto dei tweak vari, della cache migliorata, della banda aumentata, ecc...
le operazioni usate più di frequente sono le MADD (infatti, quando si calcolano le flops, spesso ci si riferisce alle MADD e anche l'articolo di hw.fr fa riferimento alle sole MADD per tutti i chip della comparativa anche se GT200 e GT300 hanno delle MUL in più rispetto a RV870 le cui alu eseguono solo MADD).
In quanto alle prestazioni, la potenza di calcolo teorica è molto importante (la banda molto meno, in quanto GT200 non era bandwidth limited); parametri importanti sono invece la dimensione, la tipologia e il tipo di implementazione fatta delle cache e la possibilità di gestire contemporanemente 2 warp per cluster contro uno di GT200 (il che migliora l'efficienza del multithreading).
Il paragone in doppia precisione o a livello di FMA con GT200 è, per forza di cose impietoso; non bisogna dimenticare che GT200 deriva da G80, ovvero da un'architettura non nata per eseguire calcoli in doppia precisione e, quindi, neppure per il gpgpu, mentre GT300 pare un'architettura nativamente al gpgpu.
C'è poi, in ambito gaming, da vedere quale sarà la soluzione adottata per il tessellator; in hardware in un chip esterno? In hw e integrato? Emulato per intero o in parte? IMHO la soluzione migliore sarebbe la seconda (e la peggiore la terza).
Staremo a vedere.
halduemilauno
23-11-2009, 07:55
appunto... ma ormai quanto ancora bisogna aspettare per vedere qualche testino in rete?
ma nn doveva uscire qualcosa di valido prima? :stordita:
il CEO di Nvidia ha dichiarato che entro il 2009 ci sarà un'incontro con la stampa specializzata per render note tutte le potenzialità dei nuovi prodotti GeForce. Ufficialmente dovrebbero esser presentate il 7 gennaio 2010 e in quanto alla commercializzazione essa è attesa per metà/fine gennaio 2010.
;)
ciccionamente90
23-11-2009, 08:20
in quanto alla commercializzazione essa è attesa per metà/fine gennaio 2010.
;)
:sbav:
il CEO di Nvidia ha dichiarato che entro il 2009 ci sarà un'incontro con la stampa specializzata per render note tutte le potenzialità dei nuovi prodotti GeForce. Ufficialmente dovrebbero esser presentate il 7 gennaio 2010 e in quanto alla commercializzazione essa è attesa per metà/fine gennaio 2010.
;)
Pura propaganda...;)
Marscorpion
23-11-2009, 09:02
Pura propaganda...
E perchè scusa....prima o poi dovranno pur uscire ste nuove vga nVidia!
non vi sto ad ammorbare con schemi e spiegazioni troppo tecniche, però cerco di fare, contemporaneamente, una sintesi ed una semplificazione (spesso le due cose non vanno d'accordo).
Iniziamo col dire che una pipeline di tipo FMA ha un delay time inferiore tra le operazioni di moltiplicazione e di addizione (non ha uno stadio intermedio) ma ha latenze superiori per entrambe le operazioni e, nel complesso, è meno performante nell'esecuzione di un'operazione di moltiplicazione e addizione rispetto ad una MADD, anche se più precisa. Inoltre una pipeline FMA può eseguire operazioni di tipo MADD a condizione che contenga alcuni stadi aggiuntivi che eseguano operazioni di allineamento dei dati tra MUL e ADD (esattamente come quando si esegue un'addizione o una sottrazione in colonna :D ) e di incremento del numero di cifre decimali del secondo addendo (nell'ADD i due addendi devono comunque avere lo stesso numero di cifre). Questo comporta tempi ancora più lunghi di esecuzione. Ma questo è il meno; in assenza di questi due stadi (e di qualcun altro che non sto a citare) una pipeline FMA non può eseguire una MADD. Ora, da quello che ho capito dall'articolo di hw.fr (e da altra documentazione) le alu di GT300 sono di tipo FMA capaci di eseguire i calcoli prevista dallo standard IEEE 754-2008 a piena velocità (ossia una fma per ciclo) ma in caso di chiamate di tipo MADD hanno bisogno del doppio dei cicli di clock. D'altro canto, il pdf che ho postato, parla chiaro riguardo all'esecuzione "a piena velocità" dei calcoli previsti dallo standard IEEE 754-2008 ma non dà le stesse indicazioni su quelli dello standard IEEE 754-1985 (e in questo risulta piuttosto ambiguo). In ogni caso, bisognerà innanzitutto vedere se quanto riportato da hw.fr corrisponde a verità e, finchè non ci saranno altre informazioni o test questo non sarà possibile.
Su Beyond3D c'è addirittura chi prospetta problemi (artefatti) per una precisione troppo alta nel gaming...
http://forum.beyond3d.com/showpost.php?p=1343003&postcount=285
http://forum.beyond3d.com/showpost.php?p=1343030&postcount=296
P.S.: per chi volesse assicurarsi una prenotazione per le primissime GeForce basate su Fermi, segnalo che può farlo alla modica cifra di 1699$ + IVA... :asd: (In cambio si ottengono anche una motherboard quad-SLI ready e 4 GTX285)
http://www.evga.com/blackfriday/
C'è poi, in ambito gaming, da vedere quale sarà la soluzione adottata per il tessellator; in hardware in un chip esterno? In hw e integrato? Emulato per intero o in parte? IMHO la soluzione migliore sarebbe la seconda (e la peggiore la terza).
Staremo a vedere.
Addirittura emulato secondo te? Non credo che il tessellator sarà utilizzato, perlomeno nei primi 6 mesi, ma implementare un'emulazione mi sembra riduttivo.
Staremo a vedere ;)
in una rivasta informatica di questo mese ho letto che nvidia è sul punto di abbandonare il settore gamer di fascia alta,ed additittura si stia concentranto sulla produzione di chip integrati in altri dispositivi:asd: :stordita:
credo e spero non sia tutto vero,anche se la presentazione di scheda fake ecc mi fanno pensare in negativo:(
in una rivasta informatica di questo mese ho letto che nvidia è sul punto di abbandonare il settore gamer di fascia alta,ed additittura si stia concentranto sulla produzione di chip integrati in altri dispositivi:asd: :stordita:
credo e spero non sia tutto vero,anche se la presentazione di scheda fake ecc mi fanno pensare in negativo:(
NVIDIA è una grossa azienda, anche ammettendo che questa generazione sia un flop ha le capacità per riprendersi come e quando vuole ;)
Uscire dal mercato gaming? e dedicarsi a quello di nicchia come matrox? mmmmhh
C'è poi, in ambito gaming, da vedere quale sarà la soluzione adottata per il tessellator; in hardware in un chip esterno? In hw e integrato? Emulato per intero o in parte? IMHO la soluzione migliore sarebbe la seconda (e la peggiore la terza).
Staremo a vedere.
piccolo problema in tal senso, l'implementazione del tassellator in hardware con un chip esterno farebbe aumentare il costo della scheda, che sia già impelentata nella gpu a quanto hai detto non è cosi visto che la versione tesla ne è priva, l'unica strada è quella via software che renderebbe le prestazioni dei giochi che sfruttano tale tecnologia assai lenti, ergo io son piu' propenso nel pensare che la tessaletion sia un po come le dx10.1: le nostrevga non le supportano? bene boicottiamola e non facciamo uscire giochi con questa tecnologia...........
in una rivasta informatica di questo mese ho letto che nvidia è sul punto di abbandonare il settore gamer di fascia alta,ed additittura si stia concentranto sulla produzione di chip integrati in altri dispositivi:asd: :stordita:
credo e spero non sia tutto vero,anche se la presentazione di scheda fake ecc mi fanno pensare in negativo:(
se il CEO ha sentito il bisogno di smentire categoricamente queste voci credo che non c'è da preoccuparsi.
semplicemente a causa di questo ritardo di lancio se ne stanno sentendo di tutti i colori, io sono ancora speranzoso che usciranno con un buon prodotto, forse non la rivoluzione che si stava aspettando, ma secondo me sarà comunque un ottimo prodotto.
Il primo dicembre esce DiRT 2 e lo usa...
quoto poi a gennaio uscirà stalker call of prypiat e anche alòien vs predator, entrambi gli engine saranno compilati in dx11 e sfrutteranno la tesselation
Il primo dicembre esce DiRT 2 e lo usa...
Senza dubbio. Bisogna vedere come sarà implementato perchè oggettivamente dalle prime immagini di S.T.A.L.K.E.R.: Call of Pripyat non se ne avverte proprio la necessità (deve essere utilizzato in modo migliore).
Emulare qualcosa o implementarla in modo ibrido HW/SW mi sembra follia.
Senza dubbio. Bisogna vedere come sarà implementato perchè oggettivamente dalle prime immagini di S.T.A.L.K.E.R.: Call of Pripyat non se ne avverte proprio la necessità (deve essere utilizzato in modo migliore).
Emulare qualcosa o implementarla in modo ibrido HW/SW mi sembra follia.
ribadisco che con stalker il benchmark non fa notare assai molte differenze tra la modalità on e of, probabilmente in game si noterà di piu' l'utilizzo di questa tecnologia che nell'engine specifico è implementata per rendere maggiormente dettagliati i soldati e gli stalker presenti nel gioco, una migliore implementazione a mio avviso c'è in alien vs predator che anch'esso dovrebbe essere sugli scaffali nel q1 2010
la mia idea è che la tesselation è una buona tecnologia ovviamente se verrà implementata come si deve nei videogiochi, in caso contrario come suddetto' farà la fine delle dx10.1 sfruttate da soli 5 titoli
spero che Nvidia sforni qualcosa di buono perchè io con sta 5870 non mi piace molto, mi dà sempre problemi con le applicazioni. e ne ho mandate 2 volte in RMA.
La situazione è molto diversa da quella di pochi anni fa. La divisione chipset è morta, la low-end è destinata a morire a causa dei sistemi integrati Intel da un lato e AMD dall'altro (CPU+IGP) ai quali i grandi OEM preferiranno affiancare, quando richieste, le rispettive tecnologie grafiche discrete (nel caso di Intel quando saranno disponibili, e non manca molto) per non perdere i sistemi di risparmio energetico IGP+GPU.
Rimane solo l'high-end ed il professionale e se nell'high end te ne esci con un flop è dura riprendersi non potendo contare su altro.
Sono anni che se ne parla: è dal 2000 perlomeno che ad ogni mezzo passo falso si dice: "la situazione è diversa adesso". I chipset sono morti ufficialmente da poco, ma è diverso tempo che lo si sapeva e non credo che ne traessero così tanti vantaggi (non ho controllato).
Il settore Low end, da quanto ho potuto verificare, non ha subito stravolgimenti e non mi riferisco ai chipset, ma alle schede video discrete che vanno dai 30 agli 80€, sono quelle che si vendono più di tutte; un esempio diretto è quello del cliente che compera una scheda NVIDIA piuttosto che ATI per installare Ubuntu e godere degli effetti grafici di compiz.
Larrabee non è così vicino come pensi e non è detto che possa entrare in competizione nel mercato gaming, anche se vedo che lo date tutti per scontato è solo una possibilità.
Seppure la mia preferenza ricada in questo momento su AMD/ATI non faccio pensieri disastrosi come la chiusura di un'azienda che ha spinto e dato molto in tutti questi anni e i fantasmi di 3dfx sono mooooolto lontani
ribadisco che con stalker il benchmark non fa notare assai molte differenze tra la modalità on e of, probabilmente in game si noterà di piu' l'utilizzo di questa tecnologia che nell'engine specifico è implementata per rendere maggiormente dettagliati i soldati e gli stalker presenti nel gioco, una migliore implementazione a mio avviso c'è in alien vs predator che anch'esso dovrebbe essere sugli scaffali nel q1 2010
la mia idea è che la tesselation è una buona tecnologia ovviamente se verrà implementata come si deve nei videogiochi, in caso contrario come suddetto' farà la fine delle dx10.1 sfruttate da soli 5 titoli
Nei primi mesi secondo me non avremo un'implementazione sufficientemente complessa da mostrare i reali vantaggi: questo me lo suggerisce l'esperienza, ma sarei francamente felice di sbagliarmi.
Il settore Low end, da quanto o potuto verificare, non ha subito stravolgimenti e non mi riferisco ai chipset, ma alle schede video discrete che vanno dai 30 agli 80€, sono quelle che si vendono più di tutte; un esempio diretto è quello del cliente che compera una scheda NVIDIA piuttosto che ATI per installare Ubuntu e godere degli effetti grafici di compiz.
bene in tal senso sarà interessante vedere cosa proporrà nvida in quella fascia di prezzo, le gt2x0 secondo me son già vecchie, han ritardato ben 8 mesi rispetto alla road map e sono per giunta dx10.1,e non dx11.....
devAngnew
23-11-2009, 10:11
spero che Nvidia sforni qualcosa di buono perchè io con sta 5870 non mi piace molto, mi dà sempre problemi con le applicazioni. e ne ho mandate 2 volte in RMA.
Spero che se provieni da Nvidia abbia disinstallato bene i driver altrimenti avrai sempre o quasi problemi con le applicazioni.
;)
P.s: come mai hai fatto 2 RMA percaso OC ? .
Spero che se provieni da Nvidia abbia disinstallato bene i driver altrimenti avrai sempre o quasi problemi con le applicazioni.
;)
P.s: come mai hai fatto 2 RMA percaso OC ? .
no niente OC, tutto a default.
Ah perchè dite che i giochi vanno a scatti perchè non è abbastanza potente la VGA ? :mbe:
Comunque no ho problemi con alcuni giochi con i frames e ho RMA perchè quelle di prima crashavano o perdevano i pixel. Poi i driver sono pesantucci da windows e sono parecchio invasivi, come si fa a limitarli un po' nelle loro funzioni ?
no niente OC, tutto a default.
Ah perchè dite che i giochi vanno a scatti perchè non è abbastanza potente la VGA ? :mbe:
Comunque no ho problemi con alcuni giochi con i frames e ho RMA perchè quelle di prima crashavano o perdevano i pixel.
ti stiamo provando a rispondere nel thread dedicato, e ribadisco se 3 schede che hai provato tutte e tre davano gli stessi problemi, il problema sta nella tua configurazione e non nella vga in questione ;) le 5870 non soffrono dei problemi da te descritti......
Kharonte85
23-11-2009, 10:14
C'è poi, in ambito gaming, da vedere quale sarà la soluzione adottata per il tessellator; in hardware in un chip esterno? In hw e integrato? Emulato per intero o in parte? IMHO la soluzione migliore sarebbe la seconda (e la peggiore la terza).
Staremo a vedere.
Qualcuno tempo fa qui sul forum posto' una immagine (che purtroppo non sono riuscito a ritrovare :( ) che sembrava provenire da una slide ufficiale di nvidia e faceva intendere che il tesselatore sarebbe stato in hw.
Qualcuno tempo fa qui sul forum posto' una immagine (che purtroppo non sono riuscito a ritrovare :( ) che sembrava provenire da una slide ufficiale di nvidia e faceva intendere che il tesselatore sarebbe stato in hw.
confermo anche io, ergo ci sarà la versione retail che sarà diversa dalla versione professionale.....mi auguro che sto tesselator sia impiegato nel nuovo 3d mark....
spero di risolvere, perchè con al vecchia GTX 275 mi andava tutto da dio, quindi mi sembra strano che adesso faccia così
Kharonte85
23-11-2009, 10:20
confermo anche io, ergo ci sarà la versione retail che sarà diversa dalla versione professionale.....mi auguro che sto tesselator sia impiegato nel nuovo 3d mark....
Forse l'ho trovata, se non sbaglio era questa:
http://www.hardwarecanucks.com/imagehosting/2404ae326bfdc076.jpg
Forse l'ho trovata, se non sbaglio era questa:
no non era questa citava proprio che il tessalation sarebbe stato impiegato direttamente in hardware e non emulato, pero' nvida da settembre ad oggi potrebbe aver cambiato piano per tale implementazione, chi vivrà vedrà
spero di ritornare preso ad Nvidia. :(
Kharonte85
23-11-2009, 10:24
no non era questa citava proprio che il tessalation sarebbe stato impiegato direttamente in hardware e non emulato, pero' nvida da settembre ad oggi potrebbe aver cambiato piano per tale implementazione, chi vivrà vedrà
Non credo...comunque vedremo
Non credo...comunque vedremo
per semplice deduzione visto che le frequenze della tesla son note come anche l'architettura e le prestazioni in ambito professionale ritengo che per la versione retail abbian problemi in tal senso visto che non sono ancora state divulgate, sarà per il tessaletor in hardware che han sti problemi oppure per qualcosa d'altro non si sa visto che sembra che la versione professionale non sia dodata di questa feature aggiuntiva, che per giunta non servirebbe. Inoltre ci sarà da capire quanto influirà sui consumi l'implementazione in hardware del tessaletor, ricordo che la tesla avrà 215 di tdp, ergo la versione retail supponendo che avrà frequernze maggiori e tenendo per scontato il tesselatore in hardware consumerà assai di piu' c'è chi dice che avrà tdp di un 30 w in piu' chi addirittura un 40-50w, non vorrei che la revison a3 sia stata fatta proprio per togliere il tessellatore per riuscire a raggiungere frequenze piu' elevate, chi vivrà vedrà
scusate io vorrei fare una domanda a tutti.
ma i 512 stream processors che ha detto Nvidia sarebbero confermati ?
scusate io vorrei fare una domanda a tutti.
ma i 512 stream processors che ha detto Nvidia sarebbero confermati ?
ovviamente si, visto che si sa tutto della scheda video dal progetto rilasciato a settembre, tranne ovviamente i benchmark :)
Kharonte85
23-11-2009, 10:35
per semplice deduzione visto che le frequenze della tesla son note come anche l'architettura e le prestazioni in ambito professionale ritengo che per la versione retail abbian problemi in tal senso visto che non sono ancora state divulgate, sarà per il tessaletor in hardware che han sti problemi oppure per qualcosa d'altro non si sa visto che sembra che la versione professionale non sia dodata di questa feature aggiuntiva, che per giunta non servirebbe. Inoltre ci sarà da capire quanto influirà sui consumi l'implementazione in hardware del tessaletor, ricordo che la tesla avrà 215 di tdp, ergo la versione retail supponendo che avrà frequernze maggiori e tenendo per scontato il tesselatore in hardware consumerà assai di piu' c'è chi dice che avrà tdp di un 30 w in piu' chi addirittura un 40-50w, non vorrei che la revison a3 sia stata fatta proprio per togliere il tessellatore per riuscire a raggiungere frequenze piu' elevate, chi vivrà vedrà
Non ho idea di quanto possa influire sul consumo la presenza del tesselatore :boh:
scusate io vorrei fare una domanda a tutti.
ma i 512 stream processors che ha detto Nvidia sarebbero confermati ?
Sì ma si chiameranno "cuda cores"
MA CAVOLO ! :(
devo cambiare ancora scheda video. vabbè Meglio così in fondo.
Non ho idea di quanto possa influire sul consumo la presenza del tesselatore :boh:
una feature aggiuntiva in piu' consumerà di piu' con aggiunte le frequenze ipotizzate superiori ergo la versione consumer consumerà di piu' della versione tesla tenendo per ipotesi le suddette cose, spero che su questo siam d'accordo
MA CAVOLO ! :(
devo cambiare ancora scheda video. vabbè Meglio così in fondo.
Aspetta la prossima release dei driver. La serie 5000 necessita di un po' di lavoro sotto questo punto di vista, come tutte le schede alla loro uscita. Non pensare che Fermi ne sia dispensato ;)
Aspetta la prossima release dei driver. La serie 5000 necessita di un po' di lavoro sotto questo punto di vista, come tutte le schede alla loro uscita. Non pensare che Fermi ne sia dispensato ;)
boh speriamo perchè se sta 5870 continua a far girare solo i giochi che vuole lei....a me non sta bene. Sembra un componente alieno. con la GTX 275 andava tutto alla grande.
se non risolvono con i driver mi sa che posso passare ancora a Nvidia.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.