View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470
Life bringer
25-09-2009, 11:30
La differenza è che i non esperti che fanno i prezzi ragionano da consumatori, invece i grandi manager ragionano da manager, ognuno fa i propri interessi, poi c'è una curiosa minoranza che sono utenti più evoluti che pur essendo consumatori ragionano da manager facendo gli interessi della compagnia :rotfl:
mi fanno sempre un po' ridere questo tipo di affermazioni da megaprofessionisti del marketing.
potresti mandare il cv a nvidia e dirgli che hai delle incredibili strategie commerciali per renderli competitivi.
ma forse chi fa i prezzi ha accesso a qualche informazione in più del tipo: scorte, stime di produzione, disponibilità, analisi della concorrenza, previsioni di vendita, etc.
ascolta Nucleare il fatto è che la 5870 si trova a 320. Considerato che va circa come la 295 ed in più ci sono differenze di consumi, tecnologie eccetra il prezzo in linea con il concorrente è quello.
Poi loro possono fare il prezzo che vogliono come tu ridere di ciò che vuoi, solo che i dati parlano chiaro.. certo c'è pure chi le compra se sono a 400 euro, ma la realtà al momento è questa :)
ascolta Nucleare il fatto è che la 5870 si trova a 320. Considerato che va circa come la 295 ed in più ci sono differenze di consumi, tecnologie eccetra il prezzo in linea con il concorrente è quello.
Poi loro possono fare il prezzo che vogliono come tu ridere di ciò che vuoi, solo che i dati parlano chiaro.. certo c'è pure chi le compra se sono a 400 euro, ma la realtà al momento è questa :)
scusa non avevo visto che la 5870 si trova a 320 euro, se posti un link per favore che la vorrei ordinare grazie :)
halduemilauno
25-09-2009, 11:35
mi fanno sempre un po' ridere questo tipo di affermazioni da megaprofessionisti del marketing.
potresti mandare il cv a nvidia e dirgli che hai delle incredibili strategie commerciali per renderli competitivi.
ma forse chi fa i prezzi ha accesso a qualche informazione in più del tipo: scorte, stime di produzione, disponibilità, analisi della concorrenza, previsioni di vendita, etc.
certo hai ragione ma l'amico lo diceva in ottica molto prossima cioè quando le 5870 saranno realmente fra noi e sarebbe opportuno e ripeto gradito che quei 360/370€ calassero di quei 40/50€.
tutto qui. praticamente ho ripetuto quanto detto prima.
;)
La differenza è che i non esperti che fanno i prezzi ragionano da consumatori, invece i grandi manager ragionano da manager, ognuno fa i propri interessi, poi c'è una curiosa minoranza che sono utenti più evoluti che pur essendo consumatori ragionano da manager facendo gli interessi della compagnia :rotfl:
i prezzi principalmente li fa la domanda, ovvero la gente che compra, non quella che parla :D
Life bringer
25-09-2009, 11:37
i prezzi principalmente li fa la domanda, ovvero la gente che compra, non quella che parla :D
Quella che parla non compra, o magari parla e compra, o compra e non parla (gli utonti o gli utenti più evoluti :asd: ). Io non sono evoluto e ragiono da utente, se un prodotto viene venduto ad un prezzo che non ritengo conveniente non lo compro faccio parte della NON DOMANDA? ;)
I manager di prima sono andati a pranzo? :asd:
Dalla regia evoluta mi dicono che diminuendo i prezzi aumenta la domanda, vallo a dire ai manager, forse l'hanno dimenticato nel panino :asd:
halduemilauno
25-09-2009, 11:38
scusa non avevo visto che la 5870 si trova a 320 euro, se posti un link per favore che la vorrei ordinare grazie :)
adesso stiamo cosi...
http://www.trovaprezzi.it/categoria.aspx?libera=5870&id=28&prezzoMin=&prezzoMax=&sbox=sb
ma ripeto siamo ot quindi basta.
grazie.
halduemilauno
25-09-2009, 12:11
info correlate...
http://golubev.com/about_cpu_and_gpu_2_en.htm
Quella che parla non compra, o magari parla e compra, o compra e non parla (gli utonti o gli utenti più evoluti :asd: ). Io non sono evoluto e ragiono da utente, se un prodotto viene venduto ad un prezzo che non ritengo conveniente non lo compro faccio parte della NON DOMANDA? ;)
I manager di prima sono andati a pranzo? :asd:
Dalla regia evoluta mi dicono che diminuendo i prezzi aumenta la domanda, vallo a dire ai manager, forse l'hanno dimenticato nel panino :asd:
quello che generalmente da utenti non si prende in considerazione è che la domanda spesso è pilotata, non è detto che io voglia o possa vendere un numero infinito di patate perchè non ne ho, quindi avendone poche cercherò di venderle al prezzo maggiore possibile, con buona pace della maggior parte della gente che dirà: ma quello è pazzo se abbassasse i prezzi ne vnederebbe molte di più ;)
cmq è chiaro che la 295 ora debba scendere, con la 5870 a quel prezzo, e sicuramente non tarderà a farlo perchè dalla parte della distribuzione i professionisti non stanno a dormire ;)
Life bringer
25-09-2009, 12:50
Anche questo è vero, però queste cose per saperle bisogna essere "ai piani alti" da utenti noi non sappiamo a quanto ammonta l'offerta e la domanda, quindi io da semplice utente, come te mi auspico una diminuzione dei prezzi, come un lancio di gt300 il più presto possibile :D
quello che generalmente da utenti non si prende in considerazione è che la domanda spesso è pilotata, non è detto che io voglia o possa vendere un numero infinito di patate perchè non ne ho, quindi avendone poche cercherò di venderle al prezzo maggiore possibile, con buona pace della maggior parte della gente che dirà: ma quello è pazzo se abbassasse i prezzi ne vnederebbe molte di più ;)
cmq è chiaro che la 295 ora debba scendere, con la 5870 a quel prezzo, e sicuramente non tarderà a farlo perchè dalla parte della distribuzione i professionisti non stanno a dormire ;)
Il punto è che stiamo parlando di fette di mercato minime, secondo me il top vale solo come metro di paragone e base di schede più razionali, tant'è che su Steam tra tutte le schede dx10 295GTX incide solo del 0,7% sul totale mentre la serie 8800 conta un 15%, vedremo le nuove Ati, ma saranno volumi minimi imho, semmai interessante sarà la 5850, che mi sa che prenderà subito piede.
kiriranshelo
25-09-2009, 13:18
Anche questo è vero, però queste cose per saperle bisogna essere "ai piani alti" da utenti noi non sappiamo a quanto ammonta l'offerta e la domanda, quindi io da semplice utente, come te mi auspico una diminuzione dei prezzi, come un lancio di gt300 il più presto possibile :D
se sarà superiore, anche se non dubito, si. Se sarà inferiore sarà un vero autogoal
Mantis86
25-09-2009, 13:22
scusate ragazzi, non trovo il thread riguardo aspettando GT300, posso postare qui? grazie...
Il punto è che stiamo parlando di fette di mercato minime, secondo me il top vale solo come metro di paragone e base di schede più razionali, tant'è che su Steam tra tutte le schede dx10 295GTX incide solo del 0,7% sul totale mentre la serie 8800 conta un 15%, vedremo le nuove Ati, ma saranno volumi minimi imho, semmai interessante sarà la 5850, che mi sa che prenderà subito piede.
il segmento enthusiast importante non tanto in termini di volume di vendita ma anche per quanto guida il resto delle vendite, avere a catalago la scheda video più potente del mondo significa comunicare a milioni di utenti che si è i migliori, non so se ho reso l'idea. E' un po' come valentino rossi che fa vincere yamaha, sai quante gente compra yamaha solo per questo? ;)
Anche questo è vero, però queste cose per saperle bisogna essere "ai piani alti" da utenti noi non sappiamo a quanto ammonta l'offerta e la domanda, quindi io da semplice utente, come te mi auspico una diminuzione dei prezzi, come un lancio di gt300 il più presto possibile :D
in realtà per il momento l'offerta è limitata, nel senso che le 5850 e 70 le puoi già ordinare ma nella maggior parte dei casi non ti arriveranno prima di ottobre..
Oltre a questo è chiaro che essendo poche quelle realmente disponibili per il momento la maggior parte dei negozi cercano di tirare sù i prezzi. Diverso sarà già tra 1 o 2 settimane quando saranno disponibili in quantità più ampie.
In realtà il tentativo di ATI è proprio quello di avere schede con un ottimo rapport qualità prezzo anche nel segmento medio alto ed alto, così da aumentare le proprie vendite e la propria quota di mercato in questi mesi di "silenzio" da parte di nvidia (e certo anche l'immagine poi si traduce in profitti).
Domanda ed offerta non sono certo slegate.. credo che la produzione a parte il momento iniziale ( o a parte problemi come è avvenuto per la 4770) dipenderà direttamente dalla domanda..
ilratman
25-09-2009, 16:50
Il punto è che stiamo parlando di fette di mercato minime, secondo me il top vale solo come metro di paragone e base di schede più razionali, tant'è che su Steam tra tutte le schede dx10 295GTX incide solo del 0,7% sul totale mentre la serie 8800 conta un 15%, vedremo le nuove Ati, ma saranno volumi minimi imho, semmai interessante sarà la 5850, che mi sa che prenderà subito piede.
infatti dopo anni di nvidia prenderò questa!
sicuramente sostituirà degnamente la mia zotac 8800gt AMP!
se non mi soddisfa la vendo e ritorno a nvidia se faranno una scheda seria sotto i 24cm oppure rimetto su la 8800gt!
per il mio utilizzo la scheda non deve essere più luga di 24cm! :O
ilratman
25-09-2009, 16:55
Ma che io sappia le quadro hanno lo stesso chip delle soluzione per gamer quindi forse è solo questione di driver e non una questione hardware come mi sembra di aver capito di tuoi post.
L'ha preso per il thread di ATI .....:asd:
scusa non voglio essere scortese ma sei un'altro di quelli che crede che le quadro abbiano lo stesso chip delle gaming!
è della stessa famiglia ma non è lo stesso chip, la quadro ha tutta la parte di istruzioni opengl professional HW che la gaming non ha, ha anche l'aa HW che così sgrava la gpu durante il lavoro perchè l'aa è indispensabile se lavori in wireframe!
se tu fai una softmode, ossia forzi il driver delle quadro a funzionare sulla gaming, non ottieni relamente nulla di quello che può fare una quadro, giusto qualche punto percentulae di guadagno per via del driver più completo, anche se la maggior parte di quelli che fanno la softmode si illudono che invece siano uguali anzi se ne vantano! :D
nelle serie precedenti non era così, i chip erano identici con solo la parte hw dormiente ma non tutta e il driver si trovava a lavorare meglio!
il problema dell'opengl della 8800gt è stato riconosciuto dalla stessa nvidia e mai messo a posto!
maxmix65
25-09-2009, 17:03
:D In Germania si trovano gia a 300 euro le Sapphire 5870..:eek:
Da noi come al solito di + :muro:
Foglia Morta
25-09-2009, 17:04
:D In Germania si trovano gia a 300 euro le Sapphire 5870..:eek:
Da noi come al solito di + :muro:
Guarda il titolo del thread ;)
mister-x
25-09-2009, 17:20
"AMD vs Nvidia DX11 GPU War Heats Up This Christmas"
http://vr-zone.com/articles/amd-vs-nvidia-dx11-gpu-war-heats-up-this-christmas/7740.html?doc=7740
devAngnew
25-09-2009, 17:29
scusa non voglio essere scortese ma sei un'altro di quelli che crede che le quadro abbiano lo stesso chip delle gaming!
Hai delle prove certe che non lo sia a parte l'uso di una softmod fatta da terzi riuscita male...(senza polemica voglio solo informarmi).
è della stessa famiglia ma non è lo stesso chip, la quadro ha tutta la parte di istruzioni opengl professional HW che la gaming non ha, ha anche l'aa HW che così sgrava la gpu durante il lavoro perchè l'aa è indispensabile se lavori in wireframe!
se tu fai una softmode, ossia forzi il driver delle quadro a funzionare sulla gaming, non ottieni relamente nulla di quello che può fare una quadro, giusto qualche punto percentulae di guadagno per via del driver più completo, anche se la maggior parte di quelli che fanno la softmode si illudono che invece siano uguali anzi se ne vantano! :D
nelle serie precedenti non era così, i chip erano identici con solo la parte hw dormiente ma non tutta e il driver si trovava a lavorare meglio!
il problema dell'opengl della 8800gt è stato riconosciuto dalla stessa nvidia e mai messo a posto!
Mi forniresti il link cortesemente ?
Crysis90
25-09-2009, 17:50
http://www.tomshw.it/news.php?newsid=19508
Dai dai che sarà un Natale bollente!!!!
devAngnew
25-09-2009, 17:57
http://www.tomshw.it/news.php?newsid=19508
Dai dai che sarà un Natale bollente!!!!
OLD....:D :asd: ci ha pensato già il buon HAL..........
OLD....:D :asd: ci ha pensato già il buon HAL..........
come sempre del resto...
Kharonte85
25-09-2009, 19:31
"AMD vs Nvidia DX11 GPU War Heats Up This Christmas"
http://vr-zone.com/articles/amd-vs-nvidia-dx11-gpu-war-heats-up-this-christmas/7740.html?doc=7740
NVIDIA concentrate their effort on the next generation DX11 GT300 GPU and is determined to get it out this coming December. Interestingly, sources told us that AIC partners will get to design the GT300 cards themselves, which means, no more boring reference cards. Information we have gathered so far implies that GT300 has more than double the shader processors of the previous generation. Which means, more than 480 shader processors since GT200 has 240. GT300 card will be fitted with GDDR5 memories featuring a 384-bit memory interface.
Speriamo...:)
sickofitall
25-09-2009, 19:36
iscritto :)
Bastoner
25-09-2009, 19:37
NVIDIA concentrate their effort on the next generation DX11 GT300 GPU and is determined to get it out this coming December. Interestingly, sources told us that AIC partners will get to design the GT300 cards themselves, which means, no more boring reference cards. Information we have gathered so far implies that GT300 has more than double the shader processors of the previous generation. Which means, more than 480 shader processors since GT200 has 240. GT300 card will be fitted with GDDR5 memories featuring a 384-bit memory interface.
Speriamo...:)
No more reference? Significa che usciranno subito versioni custom? Questo é interessante.
Mi chiedo come facciano a infilarci 480 stream processor. Nonostante il processo produttivo inferiore mi sembrano tanti. Sarà enorme, e quanto scalderà? Considerando anche lo spazio per aggiungere la pipeline dx11...
michelgaetano
25-09-2009, 19:43
I dissipatori reference Nvidia sono sempre stati ottimi da G80 a qui, spiacerebbe non averli per quanto mi riguarda.
Andrea deluxe
25-09-2009, 19:44
quindi se il bus e' confermato, si avranno (con i moduli attuali) configurazioni con 1536mb di ram.....
Bastoner
25-09-2009, 19:46
I dissipatori reference Nvidia sono sempre stati ottimi da G80 a qui, spiacerebbe non averli per quanto mi riguarda.
Bhé dai :asd: i dissipatori delle prime 8800gt erano scandalosi....E ancora ora le mie gtx280 arrivano a temperature pericolosissime se non sparo le ventole al massimo :rolleyes:
halduemilauno
25-09-2009, 19:48
NVIDIA concentrate their effort on the next generation DX11 GT300 GPU and is determined to get it out this coming December. Interestingly, sources told us that AIC partners will get to design the GT300 cards themselves, which means, no more boring reference cards. Information we have gathered so far implies that GT300 has more than double the shader processors of the previous generation. Which means, more than 480 shader processors since GT200 has 240. GT300 card will be fitted with GDDR5 memories featuring a 384-bit memory interface.
Speriamo...:)
infatti dovrebbero essere 512 con superfice di 452mm2.
;)
michelgaetano
25-09-2009, 19:50
Bhé dai :asd: i dissipatori delle prime 8800gt erano scandalosi....E ancora ora le mie gtx280 arrivano a temperature pericolosissime se non sparo le ventole al massimo :rolleyes:
Mi riferivo al top di gamma, 8800 gtx/gts per G80, 8800 gts per G92, 260 e affini per GT200. Tutti dissipatori molto buoni dalle mie esperienze.
Mi riferivo al top di gamma, 8800 gtx/gts per G80, 8800 gts per G92, 260 e affini per GT200. Tutti dissipatori molto buoni dalle mie esperienze.
Si è vero, ed anche quelli della 9800gx2 e GTX295 sono ottimi per essere dissipatori reference. Molto meglio di quelli di 3870x2 e 4870x2.
devAngnew
25-09-2009, 20:01
infatti dovrebbero essere 512 con superfice di 452mm2.
;)
Hal (visto che manco da un pò di tempo :asd: ) il bus sarà 384bit come la gloriosa gtx 8800 o 512 come g200.
Hal (visto che manco da un pò di tempo :asd: ) il bus sarà 384bit come la gloriosa gtx 8800 o 512 come g200.
Probabilmente 384bit sarebbe troppo complicato implementare un controller a 512bit con ram di tipo GDDR5. Ricordati che g200 ha si un controller a 512bit pero usa ram GDDR3 e non GDDR5, con le GDDR5 la musica cambia e non poco.
michelgaetano
25-09-2009, 20:11
Ha scritto 512 bit 5 post sopra, eh :asd:
Ha scritto 512 bit 5 post sopra, eh :asd:
Credo si riferisse ai shader non alla memoria! " GT300 has more than double the shader processors of the previous generation. Which means, more than 480 shader processors since GT200 has 240"
quindi 512 shader processors invece di 480
michelgaetano
25-09-2009, 20:18
Credo si riferisse ai shader non alla memoria!
In effetti sì, non si capisce bene però.
Vabhe che sono solo rumors al momento :stordita:
In effetti sì, non si capisce bene però.
Vabhe che sono solo rumors al momento :stordita:
si infatti... cmq per ora i rumors sono:
1- 512 bit con 480 shader
2- 384 bit con 512 shader
vedremo quale sara la versione vera solo tra qualche mese... per il momento si parla solo ti ipotesi.
Secondo me è molto più probabile la versione da 384bit in quanto i 512bit su GDDR5 sarebbero improponibili oltre alla comlessità al fatto che costerebbero non poco a nVidia. E se nVidia vuole competere con Ati a livello di prezzo oltre che di prestazioni sarà costretta a fare scelte più intelligenti. Sicuramente gli costerebbe meno mettere più shader che non utilizzare un controller da 512 al posto di uno da 384bit
ilratman
25-09-2009, 20:37
Hai delle prove certe che non lo sia a parte l'uso di una softmod fatta da terzi riuscita male...(senza polemica voglio solo informarmi).
Mi forniresti il link cortesemente ?
visot che di soft mode ne ho provate tante e avevo anche le rispettive quadro da confrontare se non ti fidi non mi interessa poi molto e probabilmente non hai provato una quadro in opengl!
se hai voglia di leggere fallo
http://www.nvidia.com/object/quadro_geforce.html
ritrovare i link del forum nvidia è dura visto che sono di due anni fa circa e poi non mi sono più interessato tanto uso le quadro!
adesso nella workstation al alvoro ho una fx3700 nuova nuova, peccato che la dittà che è sempre poco informata non mi abbia preso una fx3800 con g200gl!
michelgaetano
25-09-2009, 20:38
Secondo me è molto più probabile la versione da 384bit in quanto i 512bit su GDDR5 sarebbero improponibili oltre alla comlessità al fatto che costerebbero non poco a nVidia. E se nVidia vuole competere con Ati a livello di prezzo oltre che di prestazioni sarà costretta a fare scelte più intelligenti. Sicuramente gli costerebbe meno mettere più shader che non utilizzare un controller da 512 al posto di uno da 384bit
Beh lo si è visto sin da RV770 vs GT200.
Il punto è vedere quanto la nuova architettura è potente e quanta banda necessiterà, perchè se di tutta questa banda non c'è bisogno (vedi come già vanno le 5870 con semplici 256 bit+GDDR5), il risparmio dovrebbe essere non certo trascurabile. Il quantitativo di memoria pure dovrebbe essere adeguato, cioè dovrebbe (bus 384bit) essere 1536 o sbaglio?
Beh lo si è visto sin da RV770 vs GT200.
Il punto è vedere quanto la nuova architettura è potente e quanta banda necessiterà, perchè se di tutta questa banda non c'è bisogno (vedi come già vanno le 5870 con semplici 256 bit+GDDR5), il risparmio dovrebbe essere non certo trascurabile. Il quantitativo di memoria pure dovrebbe essere adeguato, cioè dovrebbe (bus 384bit) essere 1536 o sbaglio?
No, dici più che bene penso che tutto sia come dici tu! 384bit e ram GDDR5 gia con 480shader sono gia più di quello che bastano per andare oltre a 5870 figuriamoci pure se le g300 hanno più di 480shader da come lasciato trapelare dai rumors.
No, dici più che bene penso che tutto sia come dici tu! 384bit e ram GDDR5 gia con 480shader sono gia più di quello che bastano per andare oltre a 5870 figuriamoci pure se le g300 hanno più di 480shader da come lasciato trapelare dai rumors.
oltre? perchè scusa la 5870 ccredo che sia ben proporzionata in banda, poi overcloccando le memroie se ne ha ancor di piu' ;)
oltre? perchè scusa la 5870 ccredo che sia ben proporzionata in banda, poi overcloccando le memroie se ne ha ancor di piu' ;)
Voglio farti presente due cose mettendo in contro che parliamo solo di aria fritta (in quanto di cose certe ancora non si sa nulla e si parla solo di rumors) pero analizzando le specifiche venute fuori da rumors avrei due cose da dire.
Primo, la 5870 non supera mai il 7% anche se overclockata a 950Mhz GPU e 5400Mhz Ram (e questa è una costa certa non un rumor basta che fai una ricerca in rete e vedrai tu stesso).
Secondo, non metto in dubbio che la 5870 sia ben proporzionata ma che la G300 sia superiore sempre stando alle voci dei rumors:
HD 5870
GPU 850Mhz
1600 Shader(simil shader)
Ram 4800Mhz 256bit
G300
GPU 700-750Mhz
480 o 512 Shader
Ram 4000Mhz 512Bit o Ram 4400Mhz 384bit
Sappiamo bene che 240 shader nVidia siano superiori a 800 shader Ati, quindi possiamo dedurre che 480 shader saranno superiori ai 1600 di ati se poi pensi al fatto che forse saranno più di 480 questo non fa che aumentare il vantaggio di g300. Stessa cosa sulle ram sia la versione da 4000Mhz 512Bit sia la versione da 4400Mhz 384bit sono superiori ai 4800Mhz 256bit di Ati.
michelgaetano
25-09-2009, 21:09
Primo, la 5870 non supera mai il 5% anche se overclockata a 950Mhz GPU e 5400Mhz Ram (basta che fai una ricerca in rete e vedrai tu stesso).
Ati.
Link? Quel 5 % l'ho visto ad OC ben più basso (900/5200 tipo)
cio che mi piacerebbe sapere è di che tipo sono questi 512 sp.
se fossero full-mimd , con aggiunta di altre ottimizzazioni , che vantaggi darebbero.
L'unica cosa che non mi piace dei 384 bit di bus (se fossero tali) , è il fatto di avere obbligatoriamente un quantitativo di GDDR5 dispari (1536) , insomma avere questi tagli intermedi che non mi piacciono.
Preferisco tagli precisi : 1GB-2GB-4GB ecctetera.
Su beyond3d alcuni esprimevano supposizioni su come sarebbero i 512 sp mimd.
Sinceramente , pur sforzandomi , i commenti erano in inglese e non ci ho capito quasi nulla.
Se non che sarebbero 512 SIMD ma nel cGPU interverrebbe una unità che attiverebbe sui 512 , un trhead aggiuntivo x sp !!!
Bà , questo ho capito , forse ho capito anche male , comunque vedremo , x ora le specifiche importanti sono ancora moltoooo fumose..
Link? Quel 5 % l'ho visto ad OC ben più basso (900/5200 tipo)
Guarda qua il massimo raggiunto con 925Mhz Gpu + 5400Mhz Ram, Crysis WarHEAD passa da 45 a 48 Fps vale a dire 6,6% periodico... certo più del 5% ma non abbastanza da avvicinare le performance della gtx 295 in oc che arriva anche a più del 14% (da 49 a 56):
Link HD 5870 OC:
http://www.guru3d.com/article/radeon-hd-5870-review-test/26
Link Gtx 295 OC:
http://www.guru3d.com/article/geforce-gtx-295-review-bfg/21
http://www.guru3d.com/article/asus-geforce-gtx-295-review-engtx295/21
Stando sulla carta la G300 a default dovrebbe essere superiore alla GTX 295 quindi il divario in OC sarebbe ben superiore...
devAngnew
25-09-2009, 21:27
Voglio farti presente due cose mettendo in contro che parliamo solo di aria fritta (in quanto di cose certe ancora non si sa nulla e si parla solo di rumors) pero analizzando le specifiche venute fuori da rumors avrei due cose da dire.
Primo, la 5870 non supera mai il 5% anche se overclockata a 950Mhz GPU e 5400Mhz Ram (e questa è una costa certa non un rumor basta che fai una ricerca in rete e vedrai tu stesso).
Secondo, non metto in dubbio che la 5870 sia ben proporzionata ma che la G300 sia superiore sempre stando alle voci dei rumors:
HD 5870
GPU 850Mhz
1600 Shader(simil shader)
Ram 4800Mhz 256bit
G300
GPU 700-750Mhz
480 o 512 Shader
Ram 4000Mhz 512Bit o Ram 4400Mhz 384bit
Sappiamo bene che 240 shader nVidia siano superiori a 800 shader Ati, quindi possiamo dedurre che 480 shader saranno superiori ai 1600 di ati se poi pensi al fatto che forse saranno più di 480 questo non fa che aumentare il vantaggio di g300. Stessa cosa sulle ram sia la versione da 4000Mhz 512Bit sia la versione da 4400Mhz 384bit sono superiori ai 4800Mhz 256bit di Ati.
C'è poi da aggiungere che sarà/(dovrebbe essere) un' architettura full MIMD tutto ciò rende tale gpu molto potente quindi la potenza di calcolo dovrebbe essere ben superiore di un derivato di g200 a 480 o 512 shader.
;)
C'è poi da aggiungere che sarà/(dovrebbe essere) un' architettura full MIMD tutto ciò rende tale gpu molto potente quindi la potenza di calcolo dovrebbe essere ben superiore di un derivato di g200 a 480 o 512 shader.
;)
Appunto per quello l'ho confrontato con qualcosa di sostanzioso che abbiamo in mano già da ora (GTX 295) per poterci immaginare oltre a quale potenza potra andare questa belva di G300.
State facendo un confronto mele con pere, senza contare che delle pere non conoscete nemmeno la varietà...
Già non si possono confrontare gli shader attuali AMD con quelli nVidia, figuriamoci se si può fare con gli shader della prossima senza sapere né come sono né quanti sono...
Ma infatti queste sono supposizioni non benchmark! A dire il vero stiamo confrontado le mele con frutta che non esiste nell'elenco ortofrutticolo e ci stiamo immaginando che gusto possa avere mentre già sappiamo che gusto abbiano le mele e le pere. Daltronde questo è il thread aspettando G300 cos'altro possiamo scrivere se non supposizioni?!?!
devAngnew
25-09-2009, 21:53
Ma infatti queste sono supposizioni non benchmark! A dire il vero stiamo confrontado le mele con frutta che non esiste nell'elenco ortofrutticolo e ci stiamo immaginando che gusto possa avere mentre già sappiamo che gusto abbiano le mele e le pere. Daltronde questo è il thread aspettando G300 cos'altro possiamo scrivere se non supposizioni?!?!
QUOTO :O
x esempio , al dilà dei numeri, sp ; bus; ecc....
come funzionalità DX11, mi piacerebbe sapere, il GT300 sarà qualitativo come la Ati 5870???
Mi spiego meglio: Ati nella 5870 ha introdotto x esempio la settima generazione del tessellatore.
Nvidia dato che mai prima d'ora ha introdotto il tessellatore, in GT300 il suo tessellatore avrà dunque la stessa qualità di quello Ati che è di settima generazione???
Oppure il formato di comprssione texture , che in Ati è BC6-BC7 , in GT300 avrà questo formato la stessa qualità??
O l'occlusion mapping , quale sarà il + efficiente e qualitativo???
Ecco di queste feature extra (ma non tanto) delle DX11 o precedenti , non si è mai parlato , ma solo di unità che fanno numero.:confused:
devAngnew
25-09-2009, 21:56
Ci sono supposizioni su come lavoreranno gli shader processor per risolvere probabili conflitti di scrittura in memoria da parte di questi ultimi vista la struttura MIMD ?
devAngnew
25-09-2009, 22:02
x esempio , al dilà dei numeri, sp ; bus; ecc....
come funzionalità DX11, mi piacerebbe sapere, il GT300 sarà qualitativo come la Ati 5870???
Mi spiego meglio: Ati nella 5870 ha introdotto x esempio la settima generazione del tessellatore.
Nvidia dato che mai prima d'ora ha introdotto il tessellatore, in GT300 il suo tessellatore avrà dunque la stessa qualità di quello Ati che è di settima generazione???
Oppure il formato di comprssione texture , che in Ati è BC6-BC7 , in GT300 avrà questo formato la stessa qualità??
O l'occlusion mapping , quale sarà il + efficiente e qualitativo???
Ecco di queste feature extra (ma non tanto) delle DX11 o precedenti , non si è mai parlato , ma solo di unità che fanno numero.:confused:
Bhe penso che per la tesselation unit non importi a nessuno di che generazioni sia, basta che sia competitivo con quello di ATI poi bisogna vedere se effettivamente ci sara una parte hardware tesselation, dopo tutto si è fatto tanto per avere gli shader unificati e poi si fanno 3 passi indietro :asd: per realizzare un hardware che effettui la fix function di rendere un oggetto meno spigoloso....
Per l' HDOC di Ati penso sia marketing più che altro (linciatemi pure se sbaglio)....:asd:
Se non sbaglio gli algoritmi di compressioni da te citate fanno parte delle future di dx11 ergo anche nvidia dovrà averle.(almeno lo spero)
Bhe penso che per la tesselation unit non importi a nessuno di che generazioni sia, basta che sia competitivo con quello di ATI poi bisogna vedere se effettivamente ci sara una parte hardware tesselation, dopo tutto si è fatto tanto per avere gli shader unificati e poi si fanno 3 passi indietro :asd: per realizzare un hardware che effettui la fix function di rendere un oggetto meno spigoloso....
Per l' HDOC di Ati penso sia marketing più che altro (linciatemi pure se sbaglio)....:asd:
infatti non frega nulla di generazioni, ma quanto sia efficiente quello ati o nvidia( tessellatore).
x ora comunque il tessellatore x entrambe le case sarà una unità separata.
x esempio , al dilà dei numeri, sp ; bus; ecc....
come funzionalità DX11, mi piacerebbe sapere, il GT300 sarà qualitativo come la Ati 5870???
Mi spiego meglio: Ati nella 5870 ha introdotto x esempio la settima generazione del tessellatore.
Nvidia dato che mai prima d'ora ha introdotto il tessellatore, in GT300 il suo tessellatore avrà dunque la stessa qualità di quello Ati che è di settima generazione???
Oppure il formato di comprssione texture , che in Ati è BC6-BC7 , in GT300 avrà questo formato la stessa qualità??
O l'occlusion mapping , quale sarà il + efficiente e qualitativo???
Ecco di queste feature extra (ma non tanto) delle DX11 o precedenti , non si è mai parlato , ma solo di unità che fanno numero.:confused:
Proprio perche non ci sono mai stati precedenti (sul tessellator e sulle DX10.1) in casa nVidia e perche non sono state rilasciate specifiche in merito è difficile pronunciare una sola parola per quanto riguarda questa tenologia.
Ci sono supposizioni su come lavoreranno gli shader processor per risolvere probabili conflitti di scrittura in memoria da parte di questi ultimi vista la struttura MIMD ?
Ne supposizioni ne rumors... per ora su questo argomento regna il silenzio totale! O nVidia ha veramente qualcosa di buono e non vuole svelare il segreto oppure stanno avendo problemi grossi con l'architettura del G300. Speriamo per laprima cosa!
devAngnew
25-09-2009, 22:21
infatti non frega nulla di generazioni, ma quanto sia efficiente quello ati o nvidia( tessellatore).
x ora comunque il tessellatore x entrambe le case sarà una unità separata.
Ma l'hai letto da qualche parte (link ).
Perchè se non hai fonti anche l'ipotesi di mancanza hardware di un tesselatore ci può stare basti che usi hull shader e domain shader e il tessellatore è servito :asd: e se sarà fatto tutto da eventuali shader unificati avremo una tesselation unit molto flessibile come lo sono ora le unità di shader per operazioni di pixel e vertex shader ecc.
Ma l'hai letto da qualche parte (link ).
Perchè se non hai fonti anche l'ipotesi di mancanza hardware di un tesselatore ci può stare basti che usi hull shader e domain shader e il tessellatore è servito :asd: e se sarà fatto tutto da eventuali shader unificati avremo una tesselation unit molto flessibile come lo sono ora le unità di shader per operazioni di pixel e vertex shader ecc.
Woww... questa ipotesi è a dir poco affascinante.
devAngnew
25-09-2009, 22:29
Woww... questa ipotesi è a dir poco affascinante.
Lo so :O non diamo limiti al genio umano ......:asd:
supersalam
25-09-2009, 22:35
Scusate ma "tesselatore" non si può sentire proprio :asd:
Scusate ma "tesselatore" non si può sentire proprio :asd:
sei più per la versione anglosassone ? :D
devAngnew
25-09-2009, 22:37
Scusate ma "tesselatore" non si può sentire proprio :asd:
Allora tappati le orecchie......... :asd: :D ;)
Ma l'hai letto da qualche parte (link ).
Perchè se non hai fonti anche l'ipotesi di mancanza hardware di un tesselatore ci può stare basti che usi hull shader e domain shader e il tessellatore è servito :asd: e se sarà fatto tutto da eventuali shader unificati avremo una tesselation unit molto flessibile come lo sono ora le unità di shader per operazioni di pixel e vertex shader ecc.
non ne ho la certezza , mi sembrava che qualcuno lo abbia detto nel topic della 5870.
Ma potrei sbagliarmi.
michelgaetano
25-09-2009, 22:40
Guarda qua il massimo raggiunto con 925Mhz Gpu + 5400Mhz Ram, Crysis WarHEAD passa da 45 a 48 Fps vale a dire 6,6% periodico... certo più del 5% ma non abbastanza da avvicinare le performance della gtx 295 in oc che arriva anche a più del 14% (da 49 a 56):
Link HD 5870 OC:
http://www.guru3d.com/article/radeon-hd-5870-review-test/26
Link Gtx 295 OC:
http://www.guru3d.com/article/geforce-gtx-295-review-bfg/21
http://www.guru3d.com/article/asus-geforce-gtx-295-review-engtx295/21
Stando sulla carta la G300 a default dovrebbe essere superiore alla GTX 295 quindi il divario in OC sarebbe ben superiore...
Non è questo il posto adatto e sarà meglio continuare nel thread sulla 5870, ma credo di aspettare veri riscontri (utenti) per l'OC.
Cioè se prendo TechPowerUp, il loro sample sale poco, 5 % su core e 6 % su memorie (mentre altri hanno fatto oltre il doppio). Con questi aumenti, hanno avuto un +5 % (4.9 % per l'esattezza) di prestazioni, cioè allineato.
Insomma, prima di asserire con certezza a riguardo preferisco aspettare, perchè si rischia solo di dare giudizia sbagliati al momento.
devAngnew
25-09-2009, 22:54
non ne ho la certezza , mi sembrava che qualcuno lo abbia detto nel topic della 5870.
Ma potrei sbagliarmi.
Bha ho provato a fare una ricerca sul thread della 5870 ma niente..:stordita:
yossarian
25-09-2009, 23:03
Ma l'hai letto da qualche parte (link ).
Perchè se non hai fonti anche l'ipotesi di mancanza hardware di un tesselatore ci può stare basti che usi hull shader e domain shader e il tessellatore è servito :asd: e se sarà fatto tutto da eventuali shader unificati avremo una tesselation unit molto flessibile come lo sono ora le unità di shader per operazioni di pixel e vertex shader ecc.
a cosa ti servono hull shader e domain shader se non hai un'unità di tessellation fisica?
devAngnew
25-09-2009, 23:10
a cosa ti servono hull shader e domain shader se non hai un'unità di tessellation fisica?
Io ho ipotizzato che anzichè avere un unità tesselation fissa quindi un pezzo di silicio che effettui hull e domain shader c'è ne possano essere 480/512 shader capaci dinamicamente di eseguire pixel, vertex , hull , geometry e domain shader spero di essere stato chiaro.
del resto le prime architetture sia Ati che nvidia usavano archietture a shader separati e poi si è visto dove siamo arrivati ........
;)
yossarian
25-09-2009, 23:16
Io ipotizzato che anzichè avere un unità tesselation fissa quindi un pezzo di silicio che effettui hull e domain shader c'è ne possano essere 480/512 shader capaci dinamicamente di eseguire pixel, vertex , hull , geometry e domain shader spero di essere stato chiaro.
del resto le prime architetture sia Ati che nvidia usavano archietture a shader separati e poi si è visto dove siamo arrivati ........
;)
su RV770 non ci sono hull e domin shader e sono sostituiti da vertex e geometry shader. C'è, però, l'unità di tessellation fixed function.
La pipeline dx11 prevede l'utilizzo di hull shader e domain shader; questo è l'unico motivo per cui il tessellator di RV770 non è dx11 fully compliant, pur essendo ugualmente programmabile.
Le ROP's e le TMU fanno ancora uso di fixed function e unità dedicate.
Una unità dedicata è più veloce nell'eseguire un determinato task rispetto ad una generica: quindi un'unità di tessellation dedicata è sicuramente più veloce di un gruppo di unità di shading che eseguano lo stesso compito.
Il vantaggio delle architetture a shader unificati sta nella maggior efficienza dell'intera architettura non in quella della singola unità o del singolo blocco funzionale.
devAngnew
25-09-2009, 23:35
su RV770 non ci sono hull e domin shader e sono sostituiti da vertex e geometry shader. C'è, però, l'unità di tessellation fixed function.
La pipeline dx11 prevede l'utilizzo di hull shader e domain shader; questo è l'unico motivo per cui il tessellator di RV770 non è dx11 fully compliant, pur essendo ugualmente programmabile.
Le ROP's e le TMU fanno ancora uso di fixed function e unità dedicate.
Una unità dedicata è più veloce nell'eseguire un determinato task rispetto ad una generica:
quindi un'unità di tessellation dedicata è sicuramente più veloce di un gruppo di unità di shading che eseguano lo stesso compito.
Certamente hai ragione. Io non ho parlato di efficienza ma di flessibilità.
:D ;)
Il vantaggio delle architetture a shader unificati sta nella maggior efficienza dell'intera architettura non in quella della singola unità o del singolo blocco funzionale.
Penso che ti stai sbagliando infatti il vantaggio delle architetture a shader unificati è la flessibilità infatti inizialmente la gpu deve scegliere quante unità destinare ai vertex sharer e quanti ai pixel shader ecc. e questo è un overhead di cui tener conto quando si progetta una gpu con tali capacità rispetto ad un'architettura a shader fissi come erano le vecchie generazioni
pre 8800 per capirci.(ergo le unità fisse sono più efficienti di quelle programmabili e lo hai detto tu stesso).
Tornado al ragionamento Il vantaggio si ha dopo la scelta del bilanciamento delle unità di shader ; infatti se ho bisogno di molti calcoli vertex rispetto che di pixel allora le unità saranno programmate per realizzare più calcoli di vertex shader pittosto che pixel e cosi via......
;)
Voglio farti presente due cose mettendo in contro che parliamo solo di aria fritta (in quanto di cose certe ancora non si sa nulla e si parla solo di rumors) pero analizzando le specifiche venute fuori da rumors avrei due cose da dire.
Primo, la 5870 non supera mai il 7% anche se overclockata a 950Mhz GPU e 5400Mhz Ram (e questa è una costa certa non un rumor basta che fai una ricerca in rete e vedrai tu stesso).
Secondo, non metto in dubbio che la 5870 sia ben proporzionata ma che la G300 sia superiore sempre stando alle voci dei rumors:
HD 5870
GPU 850Mhz
1600 Shader(simil shader)
Ram 4800Mhz 256bit
G300
GPU 700-750Mhz
480 o 512 Shader
Ram 4000Mhz 512Bit o Ram 4400Mhz 384bit
Sappiamo bene che 240 shader nVidia siano superiori a 800 shader Ati, quindi possiamo dedurre che 480 shader saranno superiori ai 1600 di ati se poi pensi al fatto che forse saranno più di 480 questo non fa che aumentare il vantaggio di g300. Stessa cosa sulle ram sia la versione da 4000Mhz 512Bit sia la versione da 4400Mhz 384bit sono superiori ai 4800Mhz 256bit di Ati.
Ciao.
Mettiamola cosi Hd5870 320 shader, ovvero alu a 5 lane, spero di non dire cacchiate, contro gli ipotetici 512 di g300. Il 1600 è un numero di marketing, dovuto dal fatto che su lo stesso pezzo di dato il singolo sp da r600 in poi puo eseguirci 5 operazioni, quindi 320x5= 1600.
Edit:
Chiedo anche qui, qualcuno sa se nelle gpu c'è una unità specifica che calcola gli indirizzi di memoria come nelle cpu(una agu)?
Inoltre come li trovano gli operandi? Scusatemi ma sono molto curioso
yossarian
25-09-2009, 23:54
Certamente hai ragione. Io non ho parlato di efficienza ma di flessibilità.
:D ;)
la flessibilità si traduce in efficienza architetturale, altrimenti resta un parametro fine a sé stesso e, pertanto, inutile. Non mi interessa avere un'architettura flessibile se è più lenta di una meno flessibile. Ad esempio, i chip ATi sono più flessibili di quelli nVidia perchè l'ILP è gestito dal compilatore e non in run time, ma questa maggior flessibilità si traduce in una minor efficienza architetturale. Il vantaggio è stato quello di aver potuto mettere tanti transistor in poco spazio e di aver potuto adottare versioni diverse di API (DX10, 10.1 e 11) senza grandi stravolgimenti architetturali.
Penso che ti stai sbagliando infatti il vantaggio delle architetture a shader unificati è la flessibilità infatti inizialmente la gpu deve scegliere quante unità destinare ai vertex sharer e quanti ai pixel shader ecc. e questo è un overhead di cui tener conto quando si progetta una gpu con tali capacità rispetto ad un'architettura a shader fissi come erano le vecchie generazioni
pre 8800 per capirci.(ergo le unità fisse sono più efficienti di quelle programmabili e lo hai detto tu stesso).
Tornado al ragionamento Il vantaggio si ha dopo la scelta del bilanciamento delle unità di shader ; infatti se ho bisogno di molti calcoli vertex rispetto che di pixel allora le unità saranno programmate per realizzare più calcoli di vertex shader pittosto che pixel e cosi via......
;)
vedi sopra; in un'architettura a shader dedicati ogni unità sa ciò che deve fare e lo fa molto più velocemente; in una a shader unificati ogni unità deve "pensare" a ciò che deve fare o meglio (le cose sono piuttosto complesse e ogni unità ha migliaia di registri su cui carica dati sia di tipo geometrico che non e di volta in volta deve "scegliere" su quali moperare), c'è un thread processor (arbiter + sequencer) che lo fa per lei e spreca cicli per fare questa operazione. Cicli che l'altra impiega per fare calcoli, invece.
Lo svantaggio degli shader dedicati è che è praticamente impossibile avere tutte le unità a pieno regime anzi, spesso, quando un blocco è in full l'altro è in idle. Oltre a ciò c'è la possibilità, di cui hai parlato, di poter effettuare ottimizzazioni sui carichi di lavoro a seconda di ciò che serve; entro certi limiti, però: le DX10, ad esempio, prevedono che non sia possibile fare più di 16 vertex fetch contemporanei, quindi le unità che fanno vertex shading potranno caricare solo 16 vertici per volta (come con le dx9); con le dx10.1 e le 11 si è passati a 32. Questo si traduce in efficienza architetturale globale (e non della singola unità)
Resta comunque il fatto che un'unità dedicata, di tipo fixed function, è più veloce di una generica e, quindi, un tessellator di tipo hardware è preferibile che sia implementato tramite fixed function, in quanto deve fare sempre e solo la stessa cosa (aggiungere vertici) mentre è l'hull shader (o i vertex shader, a seconda dell'implementazione scelta) a dirgli dove deve aggiungerli, a seconda del tipo di funzione scelta.
appleroof
25-09-2009, 23:57
su RV770 non ci sono hull e domin shader e sono sostituiti da vertex e geometry shader. C'è, però, l'unità di tessellation fixed function.
La pipeline dx11 prevede l'utilizzo di hull shader e domain shader; questo è l'unico motivo per cui il tessellator di RV770 non è dx11 fully compliant, pur essendo ugualmente programmabile.
cut
domanda interessata :D : insomma, un gioco che preveda l'utilizzo della tecnica della tasselazione, "gira" su rv770 come girerebbe su rv870, sia pure ovvio con minori prestazioni a parità di impostazioni?
domanda interessata :D : insomma, un gioco che preveda l'utilizzo della tecnica della tasselazione, "gira" su rv770 come girerebbe su rv870, sia pure ovvio con minori prestazioni a parità di impostazioni?
se ho capito qualcosa, in DX11 non dovrebbe funzionare
la flessibilità si traduce in efficienza architetturale, altrimenti resta un parametro fine a sé stesso e, pertanto, inutile. Non mi interessa avere un'architettura flessibile se è più lenta di una meno flessibile. Ad esempio, i chip ATi sono più flessibili di quelli nVidia perchè l'ILP è gestito dal compilatore e non in run time, ma questa maggior flessibilità si traduce in una minor efficienza architetturale. Il vantaggio è stato quello di aver potuto mettere tanti transistor in poco spazio e di aver potuto adottare versioni diverse di API (DX10, 10.1 e 11) senza grandi stravolgimenti architetturali.
vedi sopra; in un'architettura a shader dedicati ogni unità sa ciò che deve fare e lo fa molto più velocemente; in una a shader unificati ogni unità deve "pensare" a ciò che deve fare o meglio (le cose sono piuttosto complesse e ogni unità ha migliaia di registri su cui carica dati sia di tipo geometrico che non e di volta in volta deve "scegliere" su quali moperare), c'è un thread processor (arbiter + sequencer) che lo fa per lei e spreca cicli per fare questa operazione. Cicli che l'altra impiega per fare calcoli, invece.
Lo svantaggio degli shader dedicati è che è praticamente impossibile avere tutte le unità a pieno regime anzi, spesso, quando un blocco è in full l'altro è in idle. Oltre a ciò c'è la possibilità, di cui hai parlato, di poter effettuare ottimizzazioni sui carichi di lavoro a seconda di ciò che serve; entro certi limiti, però: le DX10, ad esempio, prevedono che non sia possibile fare più di 16 vertex fetch contemporanei, quindi le unità che fanno vertex shading potranno caricare solo 16 vertici per volta (come con le dx9); con le dx10.1 e le 11 si è passati a 32. Questo si traduce in efficienza architetturale globale (e non della singola unità)
Resta comunque il fatto che un'unità dedicata, di tipo fixed function, è più veloce di una generica e, quindi, un tessellator di tipo hardware è preferibile che sia implementato tramite fixed function, in quanto deve fare sempre e solo la stessa cosa (aggiungere vertici) mentre è l'hull shader (o i vertex shader, a seconda dell'implementazione scelta) a dirgli dove deve aggiungerli, a seconda del tipo di funzione scelta.
Ciao.
Complimenti per la preparazione tecnica, leggendo i tuoi articoli su appuntidigitali ho capito perfino io come funziona beno o male una gpu. Se non ti rompo vorrei porti una domanda. Le gpu possiedono unità atte a calcolare gli indirizzi di memoria come le agu sulle cpu? Inoltre possiedono unità di load e store? In tutto lo spulciare sulla rete ancora non ho capito come una gpu riesce a gestire queste cose per non parlare di come trova gli operandi.
yossarian
26-09-2009, 00:03
Ciao.
Mettiamola cosi Hd5870 320 shader, ovvero alu a 5 lane, spero di non dire cacchiate, contro gli ipotetici 512 di g300. Il 1600 è un numero di marketing, dovuto dal fatto che su lo stesso pezzo di dato il singolo sp da r600 in poi puo eseguirci 5 operazioni, quindi 320x5= 1600.
Edit:
Chiedo anche qui, qualcuno sa se nelle gpu c'è una unità specifica che calcola gli indirizzi di memoria come nelle cpu(una agu)?
Inoltre come li trovano gli operandi? Scusatemi ma sono molto curioso
le gpu lavorano tramite registri (non sempre a dir la verità, eprchè le funzioni memexport e memimport introdotte da ATi con R5x0 permettono l'accesso diretto alla ram da parte delle unità di calcolo). Comunque, gli indirizzi di memoria sono gestiti dall'arbiter del memory controller interno alla gpu; quando un'unità deve accedere a dati contenuti nella vram, inizializza un DMA; la richiesta di acceso è messa in coda all'interno di un buffer gestito dal MC che decide quali richieste evadere prima (funziona in modalità rigorosamente out of order). Invia la richiesta all'indirizzo di ram a cui è destinata e si occupa di indirizzare, successivamente, i dati verso i registri della alu che ha fatto richiesta. Gli indirizzi sono inviati, insieme alle istruzioni, dal thread processor e immagazzinati in speciali registri oppure in cache di tipo n-way set associative o fully associative. Quindi, sia gli operandi che le istruzioni che gli indirizzi sono forniti alle alu tramite set di registri appositi
le gpu lavorano tramite registri (non sempre a dir la verità, eprchè le funzioni memexport e memimport introdotte da ATi con R5x0 permettono l'accesso diretto alla ram da parte delle unità di calcolo). Comunque, gli indirizzi di memoria sono gestiti dall'arbiter del memory controller interno alla gpu; quando un'unità deve accedere a dati contenuti nella vram, inizializza un DMA; la richiesta di acceso è messa in coda all'interno di un buffer gestito dal MC che decide quali richieste evadere prima (funziona in modalità rigorosamente out of order). Invia la richiesta all'indirizzo di ram a cui è destinata e si occupa di indirizzare, successivamente, i dati verso i registri della alu che ha fatto richiesta. Gli indirizzi sono inviati, insieme alle istruzioni, dal thread processor e immagazzinati in speciali registri oppure in cache di tipo n-way set associative o fully associative. Quindi, sia gli operandi che le istruzioni che gli indirizzi sono forniti alle alu tramite set di registri appositi
Ti ringrazio della risposta molto esauriente.
Da quello che mi pare di capire, per carità non sono un esperto, tutta sta trafila divora bandwidth, dunque niente Load store unit, come cavolo fanno gli shader a non scannarsi per un pezzo di di bandwidth?
yossarian
26-09-2009, 00:10
Ciao.
Complimenti per la preparazione tecnica, leggendo i tuoi articoli su appuntidigitali ho capito perfino io come funziona beno o male una gpu. Se non ti rompo vorrei porti una domanda. Le gpu possiedono unità atte a calcolare gli indirizzi di memoria come le agu sulle cpu? Inoltre possiedono unità di load e store? In tutto lo spulciare sulla rete ancora non ho capito come una gpu riesce a gestire queste cose per non parlare di come trova gli operandi.
ho risposto sopra; le gpu lavorano prevalentemente tramite registri di vario tipo; ad esempio, i dati sono caricati su registri costanti che la alu può usare solo in lettura; quando esegue una operazione, ad esempio un'addizione, preleva i due operandi da 2 registri e li somma, mettendo il risultato in un registro temporaneo se deve essere disponibile per una nuova operazione o in un registro di output qualora il risultato sia definitivo e debba essere immagazzinato nel frame buffer. Quindi le operazioni di load e store avvengono dalla vram verso i registri delle alu ed è l'erbiter del memory controller che si occupa dell'operazione di instradamento. Invece è il thread processor a fornire istruzioni e indirizzi di memoria. Ogni cluster di alu ha una instruction cache e un instruction buffer che servono a gestire la coda delle istruzioni. Il thread processo è out of order mentre, una volta arrivate all'instruction buffer, le istruzioni sono eseguite in modalità in order (e si sfrutta il multithreading per mascherare le latenze).
ho risposto sopra; le gpu lavorano prevalentemente tramite registri vario tipo; ad esempio, i dati sono caricati su registri costanti che la alu può usare solo in lettura; quando esegue una operazione, ad esempio un'addizione, preleva i due operandi da 2 registri e li somma, mettendo il risultato in un registro temporaneo se deve essere disponibile per una nuova operazione o in un registro di output qualora il risultato sia definitivo e debba essere immagazzinato nel frame buffer. Quindi le operazioni di load e store avvengono dalla vram verso i registri delle alu ed è l'erbiter del memory controller che si occupa dell'operazione di instradamento. Invece è il thread processor a fornire istruzioni e indirizzi di memoria. Ogni cluster di alu ha una instruction cache e un instruction buffer che servono a gestire la coda delle istruzioni. Il thread processo è out of order mentre, una volta arrivate all'instruction buffer, le istruzioni sono eseguite in modalità in order (e si sfrutta il multithreading per mascherare le latenze).
Grazie. Scusami, non avevo visto che avevi gia risposto. Grazie ancora.
yossarian
26-09-2009, 00:16
domanda interessata :D : insomma, un gioco che preveda l'utilizzo della tecnica della tasselazione, "gira" su rv770 come girerebbe su rv870, sia pure ovvio con minori prestazioni a parità di impostazioni?
cambia solo il tipo di "chiamata"; in dx11 si fa riferimento agli hull shader e ai domain shader, con RV770 si fa riferimento ai vertex e ai geometry shader. Basta implementare due differenti path dello stesso shader. Ovviamente, l'utilizzo delle unità generiche su RV770 provoca un decadimento delle prestazini (anche perchè si tratta di risorse sottartte ad altre elaborazioni) ma, in linea di principio, può funzionare regolarmente. Insomma, se il programmatore, mi si passi il termine, stronzeggia, fa in modo che su RV770 non giri. Se si prende la briga di implementare una differente path (niente di eccessivamente complesso, si tratta solo di scegliere quali unità programmabili scegliere per "spiegare" al tessellator dove deve mettere i vertici in più :D ) allora gira tranquillamente anche su RV770.
Ti ringrazio della risposta molto esauriente.
Da quello che mi pare di capire, per carità non sono un esperto, tutta sta trafila divora bandwidth, dunque niente Load store unit, come cavolo fanno gli shader a non scannarsi per un pezzo di di bandwidth?
è compito dei memory controller stabilire a chi assegnare la priorità e come gestire la bandwidth. Ci osno alcuni trucchi per ottimizzare l'utilizzo della bandwidth: ad esmepio, ATi, da RV770 in poi, ha iniziato a far uso di cache L2 messa a disposizione dei MC per immagazzinare i dati di più frequente utilizzo. Comunque, la cosa più importante è programmare bene il MC
appleroof
26-09-2009, 00:16
se ho capito qualcosa, in DX11 non dovrebbe funzionare
ma infatti rimane un mistero come, a parità di condizioni, rv770 sia dx10.1 e rv870 dx11: "basta" (in estrema ipotesi) che i programmatori scelgano, in ipotesi di programmare in vertex e geometry piuttosto che in hull e domain shaders, e, avendo entrambe le gpu il tasselletor, il gioco è fatto (è proprio il caso di dirlo)
questo spiega anche come siamo polli a rincorrere sempre il software che non cìè con l'hardware che c'è :stordita:
cambia solo il tipo di "chiamata"; in dx11 si fa riferimento agli hull shader e ai domain shader, con RV770 si fa riferimento ai vertex e ai geometry shader. Basta implementare due differenti path dello stesso shader. Ovviamente, l'utilizzo delle unità generiche su RV770 provoca un decadimento delle prestazini (anche perchè si tratta di risorse sottartte ad altre elaborazioni) ma, in linea di principio, può funzionare regolarmente.
cut
ok, rispondo adesso perchè letto dopo: ma quindi, nell'economia del discrso che faccio in questo post, il tasselletor di rv770 potrebbe funzionare, una volta che siano implementati entrambi i path (sò che è un'ipotesi di scuola, dato che mai gli svuluppatori si sbatteranno tanto non avendo tempo e soldi a disposizione, e anche perchè le aziende produttrici di hw, nello specifico Ati, si incacchierebbero non poco :D )? Anche perchè credo che la potenza di rv770 sia ancora sufficiente a ciò...(intendo far girare un gioco programmato in quel modo in fullhd, magari senza aa)
riedit: mi hai risposto nella parte di post che hai aggiunto...insomma sono convinto: siamo preda del marketing e di sti cacchio di programmatori che a loro volta rispondono ai loro capi...mi si passi la filosofia, ma è veramente uno schifo, d'altra parte da quando "frequento" questo mondo ricordo che è così: in 2 parole, se le vga fossero "sfruttate" come si deve, potrebbero durare tipo 5 anni dando costantemente risultati grafici strabilianti :mad: invece il marketing ecc (diciamo il "sistema" per brevità) ci obbliga all'upgrade ogni 2 anni se và bene, facendo girare codice "vecchio" ma in maniera più veloce, o cmq scritto in maniera da "escludere" l'hw "vecchio" su hw che avrebbe ancora tantissimo da dire...:rolleyes:
scusate lo sfogo :stordita:
yossarian
26-09-2009, 00:21
ma infatti rimane un mistero come, a parità di condizioni, rv770 sia dx10.1 e rv870 dx11: "basta" (in estrema ipotesi) che i programmatori scelgano, in ipotesi di programmare in vertex e geometry piuttosto che in hull e domain shaders, e, avendo entrambe le gpu il tasselletor, il gioco è fatto (è proprio il caso di dirlo)
questo spiega anche come siamo polli a rincorrere sempre il software che non cìè con l'hardware che c'è :stordita:
in realtà il tessellator non è il motivo per cui RV770 non è dx11; ad esempio, c'è molta più differenza tra i compute shader 5.0 e i 4.1 (delle dx10.1) di quanto non ce ne sia tra il tessellator di RV870 e quello di RV770.
yossarian
26-09-2009, 00:22
ma infatti rimane un mistero come, a parità di condizioni, rv770 sia dx10.1 e rv870 dx11: "basta" (in estrema ipotesi) che i programmatori scelgano, in ipotesi di programmare in vertex e geometry piuttosto che in hull e domain shaders, e, avendo entrambe le gpu il tasselletor, il gioco è fatto (è proprio il caso di dirlo)
questo spiega anche come siamo polli a rincorrere sempre il software che non cìè con l'hardware che c'è :stordita:
ok, rispondo adesso perchè letto dopo: ma quindi, nell'economia del discrso che faccio in questo post, il tasselletor di rv770 potrebbe funzionare, una volta che siano implementati entrambi i path (sò che è un'ipotesi di scuola, dato che mai gli svuluppatori si sbatteranno tanto non avendo tempo e soldi a disposizione, e anche perchè le aziende produttrici di hw, nello specifico Ati, si incacchierebbero non poco :D )? Anche perchè credo che la potenza di rv770 sia ancora sufficiente a ciò...(intendo far girare un gioco programmato in quel modo in fullhd, magari senza aa)
nell'economia del discorso, si e, magari, anche con MSAA :D
in realtà il tessellator non è il motivo per cui RV770 non è dx11; ad esempio, c'è molta più differenza tra i compute shader 5.0 e i 4.1 (delle dx10.1) di quanto non ce ne sia tra il tessellator di RV870 e quello di RV770.
quindi?
yossarian
26-09-2009, 00:24
quindi?
quindi il tessellator di RV770 funziona con una path non dx11 (perchè non ha hull e domain shader) ma per il resto è identico a quello di rv870 e ugualmente programmabile; però rv770 non è dx11 :D
devAngnew
26-09-2009, 00:25
la flessibilità si traduce in efficienza architetturale, altrimenti resta un parametro fine a sé stesso e, pertanto, inutile. Non mi interessa avere un'architettura flessibile se è più lenta di una meno flessibile. Ad esempio, i chip ATi sono più flessibili di quelli nVidia perchè l'ILP è gestito dal compilatore e non in run time, ma questa maggior flessibilità si traduce in una minor efficienza architetturale. Il vantaggio è stato quello di aver potuto mettere tanti transistor in poco spazio e di aver potuto adottare versioni diverse di API (DX10, 10.1 e 11) senza grandi stravolgimenti architetturali.
Bhe se non sbaglio però l'architettura ati ha lo svantaggio che per fare 5 operazioni per ciclio deve operare sempre sulla stessa informazione quindi tanto flessibile non è.
vedi sopra; in un'architettura a shader dedicati ogni unità sa ciò che deve fare e lo fa molto più velocemente; in una a shader unificati ogni unità deve "pensare" a ciò che deve fare o meglio (le cose sono piuttosto complesse e ogni unità ha migliaia di registri su cui carica dati sia di tipo geometrico che non e di volta in volta deve "scegliere" su quali moperare), c'è un thread processor (arbiter + sequencer) che lo fa per lei e spreca cicli per fare questa operazione. Cicli che l'altra impiega per fare calcoli, invece.
certo però se il thread processor non ha deciso come bilanciare gli shader e cosa far calcolare a chi non penso che gli shader facciano qualcosa una volta finito il loro ultimo compito.
;)
Lo svantaggio degli shader dedicati è che è praticamente impossibile avere tutte le unità a pieno regime anzi, spesso, quando un blocco è in full l'altro è in idle.
Sono completamente d'accordo. Però nel caso limite che le unità siano tutte occupate e la scena da renderizzare non è sbilanciata rispetto alle unità presenti nella gpu sicuramente è più efficiente ecco perchè come già detto si è passati alle unità a shader unificati.
Oltre a ciò c'è la possibilità, di cui hai parlato, di poter effettuare ottimizzazioni sui carichi di lavoro a seconda di ciò che serve; entro certi limiti, però: le DX10, ad esempio, prevedono che non sia possibile fare più di 16 vertex fetch contemporanei, quindi le unità che fanno vertex shading potranno caricare solo 16 vertici per volta (come con le dx9); con le dx10.1 e le 11 si è passati a 32. Questo si traduce in efficienza architetturale globale (e non della singola unità)
Ovviamente il mio ragionamento è generico senza guardare i limiti architeturali imposti; Ma ribadisco che c'è sempre overhead iniziale per settare gli shader sul da farsi.
Resta comunque il fatto che un'unità dedicata, di tipo fixed function, è più veloce di una generica e, quindi, un tessellator di tipo hardware è preferibile che sia implementato tramite fixed function, in quanto deve fare sempre e solo la stessa cosa (aggiungere vertici) mentre è l'hull shader (o i vertex shader, a seconda dell'implementazione scelta) a dirgli dove deve aggiungerli, a seconda del tipo di funzione scelta.
La scelta non è cosa fare ma come farlo fare stà agli ingegneri che progettano la gpu scegliere la strada migliore secondo i loro test che fanno prima di mettere sul mercato una gpu.
Quindi secondo me la strada di fare operazioni di tesselation su unità a shader unificati non è completamente da scartare.
;)
Ps: notte a tutti ...
quindi il tessellator di RV770 funziona con una path non dx11 ma per il resto è identico a quello di rv870 e ugualmente programmabile; però rv770 non è dx11 :D
dunque non si sfrutterà mai il tessellator di rv770 giusto?
p.s. comunque non capisco perchè quando si parla dei verdi sei qui a parlar dei rossi e quando è richiesta la tua presenza nell'altro thread non ci sei mai......comunque ogni tuo post è oro!!!! grazie
appleroof
26-09-2009, 00:27
nell'economia del discorso, si e, magari, anche con MSAA :D
pure :eek:
mi hai dato il colpo di grazia...:sob:
appleroof
26-09-2009, 00:29
p.s. comunque non capisco perchè quando si parla dei verdi sei qui a parlar dei rossi e quando è richiesta la tua presenza nell'altro thread non ci sei mai......comunque ogni tuo post è oro!!!! grazie
a me in un forum di vga fà abbastanza indifferenza il verde piuttosto che il rosso piuttsto che il blu o il giallo o il viola...
a me in un forum di vga fà abbastanza indifferenza il verde piuttosto che il rosso piuttsto che il blu o il giallo o il viola...
si era capito a cosa alludevo ;)
quindi il tessellator di RV770 funziona con una path non dx11 (perchè non ha hull e domain shader) ma per il resto è identico a quello di rv870 e ugualmente programmabile; però rv770 non è dx11 :D
bene, non so se Stalker utilizza tale tecnologia, ma è un gico molto scalabile e permetterà di giocare in tutte le versioni di DX :sperem:
appleroof
26-09-2009, 00:32
si era capito a cosa alludevo ;)
si si, infatti :)
pure :eek:
mi hai dato il colpo di grazia...:sob:
Quello che chiedi tu e che si lamentono in molti esite già e si chiamano console.
Tutte con hw uguale che dura 5 e più anni ed ogni anno che passa dalla sua nascita migliora la grafica...:D
nell'economia del discorso, si e, magari, anche con MSAA :D
Esatto, il potere dell'economia...che è solo a favore dei produttori :rolleyes:
appleroof
26-09-2009, 00:43
Quello che chiedi tu e che si lamentono in molti esite già e si chiamano console.
Tutte con hw uguale che dura 5 e più anni ed ogni anno che passa dalla sua nascita migliora la grafica...:D
Esatto, il potere dell'economia...che è solo a favore dei produttori :rolleyes:
purtroppo hai ragione al 100%, c'è poco da dire.
Ma tendenzialmente rimango "attaccato" al pc, aspetto una vga dx11 che sia potene quanto la mia ma "accontenti" gli sviluppatori e non svuoti le mie tasche, mi stò orientando verso una 5850 se non addirittura una 57x0, aspettando le proposte Nvidia e considerando una top tipo 5870 solo in ottica longevità...
purtroppo hai ragione al 100%, c'è poco da dire.
Ma tendenzialmente rimango "attaccato" al pc, aspetto una vga dx11 che sia potene quanto la mia ma "accontenti" gli sviluppatori e non svuoti le mie tasche, mi stò orientando verso una 5850 se non addirittura una 57x0, aspettando le proposte Nvidia e considerando una top tipo 5870 solo in ottica longevità...
la longevità è un concetto relativo.. il modo più "risparmioso" è scegliere i prodotti col miglior rapporto qualità prezzo. Certo se poi prende la scimmia è un altro discorso :O
yossarian
26-09-2009, 00:49
Bhe se non sbaglio però l'architettura ati ha lo svantaggio che per fare 5 operazioni per ciclio deve operare sempre sulla stessa informazione quindi tanto flessibile non è.
non esattamente: l'architettura di ATi può eseguire fino a 5 operazioni indipendenti relative allo stesso thread; questo significa che, ad esempio, se un thread prevede di fare un'addizione tra due vettori completi (4 componenti), una alu ATi eseguirà l'istruzione in un solo passaggio una di nVidia ne impiegherà 4 (ma si tratta di differenti dati). Il problema con i chip ATi si ha quando ci sono thread composti da una sola istruzione o da poche istruzioni con dati di tipo scalare, ad esempio. In pratica, le alu nVidia lavorano meglio con istruzioni di tipo seriale, quelle ATi con istruzioni che permettano di avere il massimo parallelismo.
certo però se il thread processor non ha deciso come bilanciare gli shader e cosa far calcolare a chi non penso che gli shader facciano qualcosa una volta finito il loro ultimo compito.
;)
il thread processor e i relativi circuiti di controllo e trasmissione sono quanto di più complicato ci sia su una gpu; ad ogni istante riceve segnali di feedback dalle alu in modo da sapere sempre quale tipo di operazione si sta facendo, quale alu ha terminato il suo task, quale tipo di task è stato eseguito, ecc. Questo perchè deve organizzare, di conseguenza, le istruzioni da inviare successivamente ai cluster di unità funzionali.
La unità di calcolo, d'altro canto, non restano praticamente mai in idle se non per pochissimi cicli ogni tanto perchè hanno un numero elevatissimo di registri tra cui fare switching e mettere in attesa i thread che richiedono latenze più lunghe. Il limite, ovviamente, è quello imposto dalla condizione che non si può iniziare un thread se questo richiede un dato che deve essere fornito da un altro thread ancora in esecuzione.
La scelta non è cosa fare ma come farlo fare stà agli ingegneri che progettano la gpu scegliere la strada migliore secondo i loro test che fanno prima di mettere sul mercato una gpu.
Quindi secondo me la strada di fare operazioni di tesselation su unità a shader unificati non è completamente da scartare.
;)
Ps: notte a tutti ...
larrabee dovrebbe avere, secondo i propositi di intel pipeline completamente programmabili (anche nelle ROP's), però per le tmu si è scelto di continuare ad utilizzare fixed function perchè queste ultime svolgono in un solo ciclo un task che unità generiche impiegano 16 cicli a portare a termine. E' evidente che se ATi ha fatto una scelta analoga per il tessellator ci sarà una ragione simile.
Buona notte :)
dunque non si sfrutterà mai il tessellator di rv770 giusto?
ci si deve rimettere al buon cuore (e alla buona volontà) dei coder :D
p.s. comunque non capisco perchè quando si parla dei verdi sei qui a parlar dei rossi e quando è richiesta la tua presenza nell'altro thread non ci sei mai......comunque ogni tuo post è oro!!!! grazie
chi ha chiesto la mia presenza nell'altro thread?
Comunque è normale che stia a predicare tra i verdi: di là chi devo convertire? :sofico:
Battute a parte, è una discussione nata per caso, non ne sono del tutto responsabile. E poi non posso sparare tutte le cartucce: cosa scrivo su AD altrimenti? :D
pure :eek:
mi hai dato il colpo di grazia...:sob:
perchè mi dici ciò, tesoVo? :D
appleroof
26-09-2009, 00:52
cut
perchè mi dici ciò, tesoVo? :D
:asd:
perchè, seguendo il tuo discorso, non avremmo bisogno di dx11 e nuove vga che si fregiano di supportarle: basterebbe sviluppare per sfruttare quello che abbiamo già, ossia nello specifico rv770, che appunto attraverso geometry e vertex e tasselletor darebbe lo stesso rislutato grafico di hull+domain+ tasselletor in full-hd e addirittura, con la potenza che offre, con MSSA :(
yossarian
26-09-2009, 01:04
:asd:
perchè, seguendo il tuo discorso, non avremmo bisogno di dx11 e nuove vga che si fregiano di supportarle: basterebbe sviluppare per sfruttare quello che abbiamo già, ossia nello specifico rv770, che appunto attraverso geometry e vertex e tasselletor darebbe lo stesso rislutato grafico di hull+domain+ tasselletor in full-hd e addirittura, con la potenza che offre, con MSSA :(
già, ma il tessellator non era incluso nelle specifiche dx10 e, quindi, non era una feature "standard" e, come tale, poteva non essere implementata.
Non voglio buttare la croce su nessuno, ma tu sai bene chi era in ritardo con l'adozione delle nuove librerie, tanto che anche per il MSAA con deferred rendering si è dovuti ricorrere a tecniche "alternative" come il render to texture e il color buffer inizializzato da z-buffer per andare incontro alle esigenze di nVidia che non supporta il MRT su z-buffer.
Figurati se si faceva passare qualcosa che neppure era standardizzata e andava a vantaggio della sola ATi. E' evidente che AMD non ha la stessa forza di persuasione di nVidia.
Comunque, le DX11 non sono solo tessellation, per fortuna
appleroof
26-09-2009, 01:08
già, ma il tessellator non era incluso nelle specifiche dx10 e, quindi, non era una feature "standard" e, come tale, poteva non essere implementata.
Non voglio buttare la croce su nessuno, ma tu sai bene chi era in ritardo con l'adozione delle nuove librerie, tanto che anche per il MSAA con deferred rendering si è dovuti ricorrere a tecniche "alternative" come il render to texture e il color buffer inizializzato da z-buffer per andare incontro alle esigenze di nVidia che non supporta il MRT su z-buffer.
si, il discorso era sul "sistema" ed in quanto tale ricomprendeva tutti, nello specifico i produttori di vga ma anche microsoft e softwarehouse...vabbè, fine sfogo anche perchè qui sarebbe lungo e complesso, si presterebbe a flame, e sarebbe pure Ot :stordita:
yossarian
26-09-2009, 01:13
si, il discorso era sul "sistema" ed in quanto tale ricomprendeva tutti, nello specifico i produttori di vga ma anche microsoft e softwarehouse...vabbè, fine sfogo anche perchè qui sarebbe lungo, si presterebbe a flame, e sarebbe pure Ot :stordita:
è il problema delle implementazioni proprietarie che, quando non diventano standard, per quanto possano essere buone come idee, sono destinate a morire
appleroof
26-09-2009, 01:24
è il problema delle implementazioni proprietarie che, quando non diventano standard, per quanto possano essere buone come idee, sono destinate a morire
bè non era proprio in questi termini che mi esprimevo ma, sintetizzando: un chip come rv770 potrebbe dire ancora moltissimo senza un reale bisogno di dx11 e relative schede, perchè tecnicamente ne avrebbe la possibilità (non ricordo 1 gioco che sfrutti geometry shader e tasselletor "in dx10", tanto per dire, e tu mi insegni che il risultato sarebbe se non uguale molto simile, usando hull+domain+ tasselletor in dx11); ma per responsabilità del "sistema" e relativi interessi (che alla fine fanno comodo pure ad Ati che deve vendere le 58x0) si preferisce costringere all'upgrade l'appassionato.
yossarian
26-09-2009, 01:49
bè non era proprio in questi termini che mi esprimevo ma, sintetizzando: un chip come rv770 potrebbe dire ancora moltissimo senza un reale bisogno di dx11 e relative schede, perchè tecnicamente ne avrebbe la possibilità (non ricordo 1 gioco che sfrutti geometry shader e tasselletor "in dx10", tanto per dire, e tu mi insegni che il risultato sarebbe se non uguale molto simile, usando hull+domain+ tasselletor in dx11); ma per responsabilità del "sistema" e relativi interessi (che alla fine fanno comodo pure ad Ati che deve vendere le 58x0) si preferisce costringere all'upgrade l'appassionato.
nel caso della tessellation, ripeto, non siamo di fronte ad uno standard; per cui la differente implementazione e il mancato utilizzo fino alle dx11 ci possono stare tutte; ci sono stati altri casi in cui, invece, alcune feature, nonostante facessero parte degli standard dx sono state usato poco o niente. Ad esempio l'EMBM (environment mapped bump mapping), introdotto con le dx6 e supportato dalla matrox g400 ma non, ad esempio, dalle geforce che pure erano dx7, ha avuto scarso utilizzo, nonostante migliorasse non di poco la resa grafica. Oppure il vertex texturing, che sarebbe dovuto servire per il displacement mapping, presente nelle specifiche dx9c, supportato da NV40 e derivati, ma non da R3x0 e NV3x e supportato in maniera non "ortodossa" da da R5x0, ha trovato applicazione, forse, in un paio di titoli all'epoca di G70 e R580. Questo tanto per fare un paio di esempi.
Poi, cambiano le API di riferimento, cambia il modo di implementare una feature e quei chip che potevano farne uso qualche generazione prima restano tagliati fuori.
nel caso della tessellation, ripeto, non siamo di fronte ad uno standard; per cui la differente implementazione e il mancato utilizzo fino alle dx11 ci possono stare tutte; ci sono stati altri casi in cui, invece, alcune feature, nonostante facessero parte degli standard dx sono state usato poco o niente. Ad esempio l'EMBM (environment mapped bump mapping), introdotto con le dx6 e supportato dalla matrox g400 ma non, ad esempio, dalle geforce che pure erano dx7, ha avuto scarso utilizzo, nonostante migliorasse non di poco la resa grafica. Oppure il vertex texturing, che sarebbe dovuto servire per il displacement mapping, presente nelle specifiche dx9c, supportato da NV40 e derivati, ma non da R3x0 e NV3x e supportato in maniera non "ortodossa" da da R5x0, ha trovato applicazione, forse, in un paio di titoli all'epoca di G70 e R580. Questo tanto per fare un paio di esempi.
Poi, cambiano le API di riferimento, cambia il modo di implementare una feature e quei chip che potevano farne uso qualche generazione prima restano tagliati fuori.
mooolto interessante.
Yossarian pregasi altamente la tua "costante presenza almeno in questo topic"
24 ore su 24:D
a parte gli scherzi, sono le tue spiegazioni molto specifiche che vedi , servono proprio magari a stabilire se , quando e di che casa eventualmente scegliere una vga , sempre!!!
x evitare che la "scimmia" abbia il sopravvento sull'uomo :asd:
perciò si sempre + presente ..:D
con le dx 11 a proposito che razza ti texture mapping avremo???
Sinceramente dalle pic di alcuni pseudo giochi "presunti" dx11 , ma non lo sono nativi , è evidente,
si nota grazie al tassellatore sono un maggior dettaglio poligonale , quindi bordi e forme geometriche + arrotondate.
MA......"riguardo le texture , mi sembra che siamo ancora ad un dettaglio di 4 anni fà"
cioè vedo sempre superfici di oggetti e soggetti (dai video o immagini dei gioche che verranno) , molto molto basse come dettaglio TEXTURE , sempre quell'effetto SGRANATISSIMO di sempre.
Possibile che non abbiano introdotto un nuovo texture mapping e non si faccia un deciso passo in avanti riguardo proprio il dettaglio della tessitura??
P.S: Ricordo vagamente , (forse ricordo male) , che i primi giochi x xbox360 , come Gears of War o altri , avessero nonostante la vga vecchia della botolo rispetto a quelle pc, un dettaglio texture molto elevato ed in particolare la tecnica che + mi impressionò in un gioco , mi pare ( fifa 07 xbox 360),
utilizzava il BUMP MAPPING che era straordinario , le superfici erano davvero spesse , nitide e tridimensionali.
Poi hanno con le successive versioni degli stessi game , abbassato drasticamente il dettaglio texture.
Ma almeno su PC , ora che abbiamo chip + potenti , potevano fare un blzo nettissimo in avanti riguardo il dettaglio texture di tutto !!
Che ne pensi ...argomenta..
In particolare , ripeto , mi sembra che il Bump Mapping sia stato quello che + mi ha impressionato , ma solo sui primi giochi di xbox 360 , poi li abbandonato.
Ma su PC siamo messi lo stesso , riguardo questo fatto delle texture.
Quindi che cosa ci aspetteremo ???
A te la parola :D
mooolto interessante.
Yossarian pregasi altamente la tua "costante presenza almeno in questo topic"
24 ore su 24:D
a parte gli scherzi, sono le tue spiegazioni molto specifiche che vedi , servono proprio magari a stabilire se , quando e di che casa eventualmente scegliere una vga , sempre!!!
x evitare che la "scimmia" abbia il sopravvento sull'uomo :asd:
perciò si sempre + presente ..:D
con le dx 11 a proposito che razza ti texture mapping avremo???
Sinceramente dalle pic di alcuni pseudo giochi "presunti" dx11 , ma non lo sono nativi , è evidente,
si nota grazie al tassellatore sono un maggior dettaglio poligonale , quindi bordi e forme geometriche + arrotondate.
MA......"riguardo le texture , mi sembra che siamo ancora ad un dettaglio di 4 anni fà"
cioè vedo sempre superfici di oggetti e soggetti (dai video o immagini dei gioche che verranno) , molto molto basse come dettaglio TEXTURE , sempre quell'effetto SGRANATISSIMO di sempre.
Possibile che non abbiano introdotto un nuovo texture mapping e non si faccia un deciso passo in avanti riguardo proprio il dettaglio della tessitura??
P.S: Ricordo vagamente , (forse ricordo male) , che i primi giochi x xbox360 , come Gears of War o altri , avessero nonostante la vga vecchia della botolo rispetto a quelle pc, un dettaglio texture molto elevato ed in particolare la tecnica che + mi impressionò in un gioco , mi pare ( fifa 07 xbox 360),
utilizzava il BUMP MAPPING che era straordinario , le superfici erano davvero spesse , nitide e tridimensionali.
Poi hanno con le successive versioni degli stessi game , abbassato drasticamente il dettaglio texture.
Ma almeno su PC , ora che abbiamo chip + potenti , potevano fare un blzo nettissimo in avanti riguardo il dettaglio texture di tutto !!
Che ne pensi ...argomenta..
In particolare , ripeto , mi sembra che il Bump Mapping sia stato quello che + mi ha impressionato , ma solo sui primi giochi di xbox 360 , poi li abbandonato.
Ma su PC siamo messi lo stesso , riguardo questo fatto delle texture.
Quindi che cosa ci aspetteremo ???
A te la parola :D
P.S 2:
mi sta venendo un certo pensiero molto cattivo , come si dice a pensar male si fà peccato , ma spesso ci si azzecca::::
non è che questi furbacchioni (Ati e Nvidia e Microsoft pure) , hanno pensato:
"facciamogli i chip a shader unificati cosi pensano gli utonti a chissà quale grande rivoluzione grafica , invece semplicemente con gli shader unificati , spendono molto meno sul silicio essendo + programmabili ed a shader unificati anziche se i chip nuovi fossero a unità separate ( quindi solo un grosso risparmio ed un GRANDE BLUFF) , ma nella realtà la grafica sarà identica a quella di alcuni anni fà????
Insomma non è che sia tutta una gran bufala???
Shader unificati solo x risparmiare silicio e tempo di programmazione , ma la grafica non fà un passo avanti ?? ( quindi UN GRANDE BLUFF) di Ati e Nvidia ???????
quindi una gran presa x il :ciapet: ed un gran bluff sti shader unificati etc ???
devAngnew
26-09-2009, 08:38
non esattamente: l'architettura di ATi può eseguire fino a 5 operazioni indipendenti relative allo stesso thread; questo significa che, ad esempio, se un thread prevede di fare un'addizione tra due vettori completi (4 componenti), una alu ATi eseguirà l'istruzione in un solo passaggio una di nVidia ne impiegherà 4 (ma si tratta di differenti dati). Il problema con i chip ATi si ha quando ci sono thread composti da una sola istruzione o da poche istruzioni con dati di tipo scalare, ad esempio. In pratica, le alu nVidia lavorano meglio con istruzioni di tipo seriale, quelle ATi con istruzioni che permettano di avere il massimo parallelismo.
E' quello che intendevo anch' io quando parlavo di informazione ossia il lavoro che la gpu dovrà fare sul thread ottenuto a run time tipico di un' architettura vliw. Ovviamente come da te detto nel caso peggiore un architettura gpu come quella ati formtemente dipendente dal compilatore non pemetterà di eseguire 5 operazioni per ciclo di clock.
devAngnew
26-09-2009, 08:45
P.S 2:
mi sta venendo un certo pensiero molto cattivo , come si dice a pensar male si fà peccato , ma spesso ci si azzecca::::
non è che questi furbacchioni (Ati e Nvidia e Microsoft pure) , hanno pensato:
"facciamogli i chip a shader unificati cosi pensano gli utonti a chissà quale grande rivoluzione grafica , invece semplicemente con gli shader unificati , spendono molto meno sul silicio essendo + programmabili ed a shader unificati anziche se i chip nuovi fossero a unità separate ( quindi solo un grosso risparmio ed un GRANDE BLUFF) , ma nella realtà la grafica sarà identica a quella di alcuni anni fà????
Insomma non è che sia tutta una gran bufala???
Shader unificati solo x risparmiare silicio e tempo di programmazione , ma la grafica non fà un passo avanti ?? ( quindi UN GRANDE BLUFF) di Ati e Nvidia ???????
quindi una gran presa x il :ciapet: ed un gran bluff sti shader unificati etc ???
Il vantaggio degli shader unificati è che le strutture di calcolo delle gpu sono quasi sempre tutte impegnate ad eseguire operazioni di shading (ormai questo termine stà anche stretto) quindi niente presa in giro...mentre in quelle di vecchia generazione poteva capitare che le unità di vertex shader era impegnate mentre quelle di pixel stavano a girarsi i pollici......:asd:
nel caso della tessellation, ripeto, non siamo di fronte ad uno standard; per cui la differente implementazione e il mancato utilizzo fino alle dx11 ci possono stare tutte; ci sono stati altri casi in cui, invece, alcune feature, nonostante facessero parte degli standard dx sono state usato poco o niente. Ad esempio l'EMBM (environment mapped bump mapping), introdotto con le dx6 e supportato dalla matrox g400 ma non, ad esempio, dalle geforce che pure erano dx7, ha avuto scarso utilizzo, nonostante migliorasse non di poco la resa grafica. Oppure il vertex texturing, che sarebbe dovuto servire per il displacement mapping, presente nelle specifiche dx9c, supportato da NV40 e derivati, ma non da R3x0 e NV3x e supportato in maniera non "ortodossa" da da R5x0, ha trovato applicazione, forse, in un paio di titoli all'epoca di G70 e R580. Questo tanto per fare un paio di esempi.
Poi, cambiano le API di riferimento, cambia il modo di implementare una feature e quei chip che potevano farne uso qualche generazione prima restano tagliati fuori.
:eek: EMBM, Matrox :cry:
E' quello che intendevo anch' io quando parlavo di informazione ossia il lavoro che la gpu dovrà fare sul thread ottenuto a run time tipico di un' architettura vliw. Ovviamente come da te detto nel caso peggiore un architettura gpu come quella ati formtemente dipendente dal compilatore non pemetterà di eseguire 5 operazioni per ciclo di clock.
Ciao.
E' strano.
http://ati.amd.com/developer/cgo/2008/Rubin-CGO2008.pdf
Penso che il compiler dopo 3 generazioni faccia un ottimo lavoro, quindi sempre stando a quelle slides è un problema che si presenta poco.
Edit: Pag 32 in poi
Interessantissime le discussioni notturne :)
appleroof
26-09-2009, 09:55
Non meno di 3gg fa dicevi che ti tenevi la HD4870-1G, ora sei qui a decidere il nuovo acquisto, potere della scimmia :asd:
Io sono orientato a prendere una 5870, ma ti dirò che mi è balenata l'ipotesi 57xx, per guadagnarci in consumi e features senza perdere prestazioni (gudagnandone, forse, se non cambio monitor)
bè no, se leggi bene nel post che hai quotato ho scritto "aspettando le nuove proposte Nvidia" :D
cmq si, se la 57xx dovesse essere come descritta qui http://www.hwupgrade.it/news/skvideo/gpu-juniper-il-legittimo-successore-di-radeon-hd-4800_30224.html sarebbe una grande alternativa e pure io la considero seriamente...vabbè chiuso l'Ot
devAngnew
26-09-2009, 09:58
Ciao.
E' strano.
http://ati.amd.com/developer/cgo/2008/Rubin-CGO2008.pdf
Penso che il compiler dopo 3 generazioni faccia un ottimo lavoro, quindi sempre stando a quelle slides è un problema che si presenta poco.
Edit: Pag 32 in poi
Certamente nei caso medio è cosi, però ci sono sempre alcuni casi in cui un 'architettura super scalare tipo la gpu nvidia è avvantaggiata (dipende sempre da come sono scritti gli shader) in quel caso il compilatore anche se evoluto ci può fare ben poco basti pensare ai giochi che vanno più incontro all'architettura di nvidia .....
halduemilauno
26-09-2009, 10:01
http://www.brightsideofnews.com/news/2009/9/25/nvidia-says-gt300-on-schedule-for-q4-20092c-yields-are-fine.aspx
November is looking to be an exciting month as we hear rumblings of a launch of AMD's Radeon HD 5850 X2 and HD 5870 X2. In fact almost all of the news lately has been about AMD's new DX11 40nm GPU. The question on everyone's minds was the same - Where is NVIDIA?
We are happy to report that we were correct in our earlier predictions that the GT300 is farther along than many other sites were predicting. We hear that NVIDIA has made an official statement on the state of the GT300 yields.
It seems that the GT300 has been taped out long ago and that yields are fine. This statement comes from a senior product manager for the GT300, but we also have this from our own sources [who have been saying this all along].
So where did the rumors of sub 2% yields come from? Well according to the unnamed source it looks like AMD's Competitive Analysis team mistranslated some information that stated only 9 chips per wafer worked. This information quickly spread around the internet and became what we like to call "the repeated truth". Bear in mind that this was the same team in charge of spreading rumors that Larrabee is now in its third or fourth generation of silicon, which is direly incorrect. But we'll address Larrabee and the turmoil there in a future article.
Our sources [and the senior managers] are still saying that the GT300 is slated for a Q4 2009 launch. This means that you should expect the new GT300 to show up around the end of November. This is most likely a follow up to Editor's Day that should happen at the beginning of November. Most likely nVidia is pitching the GT300 chip exactly three years after its revolutionary G80 [also known as NV50] architecture, pitching it right around Thanksgiving, however from what we are hearing it is looking more like the very end of November or early December.
Still with this news it does take a little notch out of the AMD announcement. We are sure that NVIDIA will be making more information public as the momentum grows around AMD’s new 5xxx series GPUs. After all nothing works better to kill potential sales than leaked information on a possibly better product. Since we already disclosed some GT300 performance figures, expect an interesting war of words.
We all will have to wait to see if the GT300 can outperform the HD 5870, HD 5850X2 and the HD 5870X2 but as the current HD5870's margin is not that big we might see an interesting upset. No matter what the outcome the GPU race is certainly going to be very interesting in the coming months.
rispondendo ad alcune domande gli shader sono 512(480 per la nr2)(è prevista anche una nr3 e chip G304/306/308 successivi verso marzo)e in quanto al bus inizialmente previsto in 512bit ma poi tenendo conto dell'addozione della gddr5 e conseguente enorme BP si è anche provato il bus a 384 bit, la superfice del chip è come detto di 452mm2, il tape-out della rev2 è accaduto il 9 luglio, per i tempi gia detto.
un saluto a tutti.
;)
appleroof
26-09-2009, 10:06
http://www.brightsideofnews.com/news/2009/9/25/nvidia-says-gt300-on-schedule-for-q4-20092c-yields-are-fine.aspx
November is looking to be an exciting month as we hear rumblings of a launch of AMD's Radeon HD 5850 X2 and HD 5870 X2. In fact almost all of the news lately has been about AMD's new DX11 40nm GPU. The question on everyone's minds was the same - Where is NVIDIA?
We are happy to report that we were correct in our earlier predictions that the GT300 is farther along than many other sites were predicting. We hear that NVIDIA has made an official statement on the state of the GT300 yields.
It seems that the GT300 has been taped out long ago and that yields are fine. This statement comes from a senior product manager for the GT300, but we also have this from our own sources [who have been saying this all along].
So where did the rumors of sub 2% yields come from? Well according to the unnamed source it looks like AMD's Competitive Analysis team mistranslated some information that stated only 9 chips per wafer worked. This information quickly spread around the internet and became what we like to call "the repeated truth". Bear in mind that this was the same team in charge of spreading rumors that Larrabee is now in its third or fourth generation of silicon, which is direly incorrect. But we'll address Larrabee and the turmoil there in a future article.
Our sources [and the senior managers] are still saying that the GT300 is slated for a Q4 2009 launch. This means that you should expect the new GT300 to show up around the end of November. This is most likely a follow up to Editor's Day that should happen at the beginning of November. Most likely nVidia is pitching the GT300 chip exactly three years after its revolutionary G80 [also known as NV50] architecture, pitching it right around Thanksgiving, however from what we are hearing it is looking more like the very end of November or early December.
Still with this news it does take a little notch out of the AMD announcement. We are sure that NVIDIA will be making more information public as the momentum grows around AMD’s new 5xxx series GPUs. After all nothing works better to kill potential sales than leaked information on a possibly better product. Since we already disclosed some GT300 performance figures, expect an interesting war of words.
We all will have to wait to see if the GT300 can outperform the HD 5870, HD 5850X2 and the HD 5870X2 but as the current HD5870's margin is not that big we might see an interesting upset. No matter what the outcome the GPU race is certainly going to be very interesting in the coming months.
CVD :D
rispondendo ad alcune domande gli shader sono 512(480 per la nr2)(è prevista anche una nr3 e chip G304/306/308 successivi verso marzo)e in quanto al bus inizialmente previsto in 512bit ma poi tenendo conto dell'addozione della gddr5 e conseguente enorme BP si è anche provato il bus a 384 bit, la superfice del chip è come detto di 452mm2, il tape-out della rev2 è accaduto il 9 luglio, per i tempi gia detto.
un saluto a tutti.
;)
ottimo, le specifiche sembrano ancora confermate, con l'interessante aggiunta delle derivate che dici :)
devAngnew
26-09-2009, 10:11
http://www.brightsideofnews.com/news/2009/9/25/nvidia-says-gt300-on-schedule-for-q4-20092c-yields-are-fine.aspx
cut......
rispondendo ad alcune domande gli shader sono 512(480 per la nr2)(è prevista anche una nr3 e chip G304/306/308 successivi verso marzo)e in quanto al bus inizialmente previsto in 512bit ma poi tenendo conto dell'addozione della gddr5 e conseguente enorme BP si è anche provato il bus a 384 bit, la superfice del chip è come detto di 452mm2, il tape-out della rev2 è accaduto il 9 luglio, per i tempi gia detto.
un saluto a tutti.
;)
Cioè, si è passati al bus a 384 bit oppure si è fatto solo un test..:mbe:
halduemilauno
26-09-2009, 10:38
Cioè, si è passati al bus a 384 bit oppure si è fatto solo un test..:mbe:
provati e sempre parlando della BP si è provata sia ram a 4400 che a 4800(il tutto per trovare un giusto mix tra prestazioni e costi). alcune di queste news risalgono ad inizio agosto.
;)
halduemilauno
26-09-2009, 10:43
CVD :D
ottimo, le specifiche sembrano ancora confermate, con l'interessante aggiunta delle derivate che dici :)
al rilascio ufficiale di windows 7(22 ottobre)mi aspetterei un corposo rilascio di info da parte di nvidia.
;)
al rilascio ufficiale di windows 7(22 ottobre)mi aspetterei un corposo rilascio di info da parte di nvidia.
;)
Ottimo, sarà il punto chiave, essendo una nuova architettura.
appleroof
26-09-2009, 11:13
al rilascio ufficiale di windows 7(22 ottobre)mi aspetterei un corposo rilascio di info da parte di nvidia.
;)
benissimo, rimango sintonizzato :)
benissimo, rimango sintonizzato :)
idem :)
mircocatta
26-09-2009, 11:42
dunque non si sfrutterà mai il tessellator di rv770 giusto?
p.s. comunque non capisco perchè quando si parla dei verdi sei qui a parlar dei rossi e quando è richiesta la tua presenza nell'altro thread non ci sei mai......comunque ogni tuo post è oro!!!! grazie
si, perchè è il tassellation directx10.1 è diverso da quello dell'11. è meno "evoluto"
yossarian
26-09-2009, 11:49
mooolto interessante.
Yossarian pregasi altamente la tua "costante presenza almeno in questo topic"
24 ore su 24:D
a parte gli scherzi, sono le tue spiegazioni molto specifiche che vedi , servono proprio magari a stabilire se , quando e di che casa eventualmente scegliere una vga , sempre!!!
x evitare che la "scimmia" abbia il sopravvento sull'uomo :asd:
perciò si sempre + presente ..:D
con le dx 11 a proposito che razza ti texture mapping avremo???
Sinceramente dalle pic di alcuni pseudo giochi "presunti" dx11 , ma non lo sono nativi , è evidente,
si nota grazie al tassellatore sono un maggior dettaglio poligonale , quindi bordi e forme geometriche + arrotondate.
MA......"riguardo le texture , mi sembra che siamo ancora ad un dettaglio di 4 anni fà"
cioè vedo sempre superfici di oggetti e soggetti (dai video o immagini dei gioche che verranno) , molto molto basse come dettaglio TEXTURE , sempre quell'effetto SGRANATISSIMO di sempre.
Possibile che non abbiano introdotto un nuovo texture mapping e non si faccia un deciso passo in avanti riguardo proprio il dettaglio della tessitura??
P.S: Ricordo vagamente , (forse ricordo male) , che i primi giochi x xbox360 , come Gears of War o altri , avessero nonostante la vga vecchia della botolo rispetto a quelle pc, un dettaglio texture molto elevato ed in particolare la tecnica che + mi impressionò in un gioco , mi pare ( fifa 07 xbox 360),
utilizzava il BUMP MAPPING che era straordinario , le superfici erano davvero spesse , nitide e tridimensionali.
Poi hanno con le successive versioni degli stessi game , abbassato drasticamente il dettaglio texture.
Ma almeno su PC , ora che abbiamo chip + potenti , potevano fare un blzo nettissimo in avanti riguardo il dettaglio texture di tutto !!
Che ne pensi ...argomenta..
In particolare , ripeto , mi sembra che il Bump Mapping sia stato quello che + mi ha impressionato , ma solo sui primi giochi di xbox 360 , poi li abbandonato.
Ma su PC siamo messi lo stesso , riguardo questo fatto delle texture.
Quindi che cosa ci aspetteremo ???
A te la parola :D
posso risponderti solo in base a ciò che le dx11 prevedono e non in base a ciò che sarà realmente adottato. Le operazioni di texture filtering dovranno essere eseguite a fp32 (adesso è solo opzionale); si dovrebbe fare texture fetch con blocchi di texture 2x2 non filtrate al posto di singole texture con filtraggio bilineare (gather4) e si dovrebbero poter implementare operazioni di texture interpolazione tramite le unità di shading (il che significa che l'interpolazione non passa più attraverso fixed function ma attraverso unità programmabili e può essere di tipo custom).
Non voglio girare il coltello nella piaga (apple, sto parlando di te :p ) ma le prime due feature sono supportate anche da rv670 e rv770
P.S 2:
mi sta venendo un certo pensiero molto cattivo , come si dice a pensar male si fà peccato , ma spesso ci si azzecca::::
non è che questi furbacchioni (Ati e Nvidia e Microsoft pure) , hanno pensato:
"facciamogli i chip a shader unificati cosi pensano gli utonti a chissà quale grande rivoluzione grafica , invece semplicemente con gli shader unificati , spendono molto meno sul silicio essendo + programmabili ed a shader unificati anziche se i chip nuovi fossero a unità separate ( quindi solo un grosso risparmio ed un GRANDE BLUFF) , ma nella realtà la grafica sarà identica a quella di alcuni anni fà????
Insomma non è che sia tutta una gran bufala???
Shader unificati solo x risparmiare silicio e tempo di programmazione , ma la grafica non fà un passo avanti ?? ( quindi UN GRANDE BLUFF) di Ati e Nvidia ???????
quindi una gran presa x il :ciapet: ed un gran bluff sti shader unificati etc ???
ma anche no; i chip a shader unificati hanno si una unica fpu che si occupa di tutto, ma hanno una logica di controllo e trasmissione estremamente complessa rispetto alle gpu a shader dedicati e devono avere un gran numero di registri perchè hanno una maggior necessità di fare thread switching; questo non fa risparmiare silicio, ma al contrario, ne fa "sprecare" molto per unità che non si occupano di fare calcoli.
Elendil_1
26-09-2009, 11:52
rispondendo ad alcune domande gli shader sono 512(480 per la nr2)(è prevista anche una nr3 e chip G304/306/308 successivi verso marzo)e in quanto al bus inizialmente previsto in 512bit ma poi tenendo conto dell'addozione della gddr5 e conseguente enorme BP si è anche provato il bus a 384 bit, la superfice del chip è come detto di 452mm2, il tape-out della rev2 è accaduto il 9 luglio, per i tempi gia detto.
un saluto a tutti.
;)
Io non sono molto convinto.
Se davvero sono pressocché pronti ed escono a Novembre, dopo tutte queste dicerie, dopo che è uscita ATI con la serie 5, che ci mettono a fare un annuncio UFFICIALE "Usciamo nel Q4 2009 con G300 e spacchiamo i culi a tutti"?
Gli converrebbe decisamente e molti utenti che stanno prendendo la 5870 aspetterebbero.
Se non lo fanno, secondo me, è perché non possono permettersi di farlo, ovvero non sanno ancora quando potranno lanciare sul mercato la nuova scheda.
appleroof
26-09-2009, 11:53
posso risponderti solo in base a ciò che le dx11 prevedono e non in base a ciò che sarà realmente adottato. Le operazioni di texture filtering dovranno essere eseguite a fp32 (adesso è solo opzionale); si dovrebbe fare texture fetch con blocchi di texture 2x2 non filtrate al posto di singole texture con filtraggio bilineare (gather4) e si dovrebbero poter implementare operazioni di texture interpolazione tramite le unità di shading (il che significa che l'interpolazione non passa più attraverso fixed function ma attraverso unità programmabili e può essere di tipo custom).
Non voglio girare il coltello nella piaga (apple, sto parlando di te :p ) ma le prime due feature sono supportate anche da rv670 e rv770
ma anche no; i chip a shader unificati hanno si una unica fpu che si occupa di tutto, ma hanno una logica di controllo e trasmissione estremamente complessa rispetto alle gpu a shader dedicati e devono avere un gran numero di registri per poter fare thread switching; questo non fa risparmiare silicio, ma al contrario, ne fa "sprecare" molto per unità che non si occupano di fare calcoli.
ti diverti eh? :asd: :asd: :asd:
Io non sono molto convinto.
Se davvero sono pressocché pronti ed escono a Novembre, dopo tutte queste dicerie, dopo che è uscita ATI con la serie 5, che ci mettono a fare un annuncio UFFICIALE "Usciamo nel Q4 2009 con G300 e spacchiamo i culi a tutti"?
Gli converrebbe decisamente e molti utenti che stanno prendendo la 5870 aspetterebbero.
Se non lo fanno, secondo me, è perché non possono permettersi di farlo, ovvero non sanno ancora quando potranno lanciare sul mercato la nuova scheda.
quoto e poi bisogna vedere se realmente gt300 sarà piu' performante di rv870, se lo fosse davvero nvida non direbbe le dx11 non servono a nulla e physx è l'unica cosa che conta......
yossarian
26-09-2009, 11:59
ti diverti eh? :asd: :asd: :asd:
gather4 e texture fetch a quad dovrebbero essere implementati in modalità compatibile con le precedenti generazioni (sono feature dx10.1 che non hanno subito modifiche con le dx11). Però questo rientra in ciò che dicevi, ossia c'era già la possibilità di sfruttare al meglio quello che era già presente e si va in cerca di nuove proposte :D
appleroof
26-09-2009, 12:00
quoto e poi bisogna vedere se realmente gt300 sarà piu' performante di rv870, se lo fosse davvero nvida non direbbe le dx11 non servono a nulla e physx è l'unica cosa che conta......
cmq se tri riferisci alla dichiarazione riportata qui: http://www.hwupgrade.it/news/skvideo/directx-11-niente-aumento-di-vendite-per-le-gpu-parola-di-nvidia_30149.html si capisce che Nvidia non dice che le dx11 non servono a nulla, ma che nell'immediato ancora non traineranno le vendite delle vga
a prescindere se è una valutazione giusta o meno, il discorso è ben diverso come vedi
gather4 e texture fetch a quad dovrebbero essere implementati in modalità compatibile con le precedenti generazioni (sono feature dx10.1 che non hanno subito modifiche con le dx11). Però questo rientra in ciò che dicevi, ossia c'era già la possibilità di sfruttare al meglio quello che era già presente e si va in cerca di nuove proposte :D
già... :muro:
michelgaetano
26-09-2009, 12:00
quoto e poi bisogna vedere se realmente gt300 sarà piu' performante di rv870, se lo fosse davvero nvida non direbbe le dx11 non servono a nulla e physx è l'unica cosa che conta......
Lo dice anche andando di più (perchè va, se consideriamo che una 285 è si e no sul 30-40 % in meno solo) perchè al momento non ha questa feature, e sarebbe da stupidi dire altrimenti allo stato attuale delle cose, dove abbiamo solo battleforge in directx 11 :stordita:
cmq se tri riferisci alla dichiarazione riportata qui: http://www.hwupgrade.it/news/skvideo/directx-11-niente-aumento-di-vendite-per-le-gpu-parola-di-nvidia_30149.html si capisce che Nvidia non dice che le dx11 non servono a nulla, ma che nell'immediato ancora non traineranno le vendite delle vga
Non vera a mio avviso come cosa, perchè chi spende adesso lo fa in ottica futura. Insomma, qualche cliente lo perdono sicuramente. Ma ripeto, è comprensibilissima e giusta come dichiarazione.
Lo dice anche andando di più (perchè va, se consideriamo che una 285 è si e no sul 30-40 % in meno solo) perchè al momento non ha questa feature, e sarebbe da stupidi dire altrimenti allo stato attuale delle cose, dove abbiamo solo battleforge in directx 11 :stordita:
30-40% in piu' coi driver immaturi, aspettiamo quelli piu' maturi e vedremo. Per ora nvida non dice nulla, difende soltanto le proprie vga della vecchia generazione, io mi aspettavo invece che dicessero: a novembre uscirà la gtx380 molto piu' performante delle vga ati, non compratele e aspettate un mesetto e invece......dx 11 non servono physx si......:rolleyes:
ps del gpu gpu cuda e menate varie non interessa proprio a nessuno.......quindi feature inutili!!!!
appleroof
26-09-2009, 12:08
cut
Non vera a mio avviso come cosa, perchè chi spende adesso lo fa in ottica futura. Insomma, qualche cliente lo perdono sicuramente. Ma ripeto, è comprensibilissima e giusta come dichiarazione.
si insomma, era l'unica cosa da dire in questo momento e come ho avuto modo di dire commentando quella notizia, quell'affermazione suona proprio come le parole della volpe all'uva....però ripeto una cosa è affermare quello, un'altra che le dx11 non servono a nulla cosa che a quanto mi risulta Nvidia non ha mai dichiarato..poi vabbè se vogliamo travisare le cose perchè ne siamo convinti o perchè così ci sentiamo più appagati è un altro discorso :D
michelgaetano
26-09-2009, 12:14
si insomma, era l'unica cosa da dire in questo momento e come ho avuto modo di dire commentando quella notizia, quell'affermazione suona proprio come le parole della volpe all'uva....però ripeto una cosa è affermare quello, un'altra che le dx11 non servono a nulla cosa che a quanto mi risulta Nvidia non ha mai dichiarato..poi vabbè se vogliamo travisare le cose perchè ne siamo convinti o perchè così ci sentiamo più appagati è un altro discorso :D
Certamente, molti (se non tutti) cercano solo di portare acqua al loro mulino :D
dx 11 non servono physx si......:rolleyes:
ps del gpu gpu cuda e menate varie non interessa proprio a nessuno.......quindi feature inutili!!!!
Beh io non sono minimamente tra chi apprezza PhysX, tuttavia che le directx 11 non servano al momento è vero. Volendo, PhysX sull'immediato ti da qualcosa (è inutile e tutto quel che si vuole, ma i fogliettini, i drappi, i finti tornado e il fogliame, nonostante, ripeto, siano pessimi, sono lì e sono un plus).
Quello che dicevo con apple era proprio che le directx 11 non serviranno ora, ma le vendite, un minimo, le trainano.
Certamente nei caso medio è cosi, però ci sono sempre alcuni casi in cui un 'architettura super scalare tipo la gpu nvidia è avvantaggiata (dipende sempre da come sono scritti gli shader) in quel caso il compilatore anche se evoluto ci può fare ben poco basti pensare ai giochi che vanno più incontro all'architettura di nvidia .....
Ciao
Domandina:
Secondo te, nei giochi è più semplice scrivere codice seriale, in cui da r600 in poi una lane calcola e le altre aspettano l'operazione sia completata per poter operare, o scrivere codice con un alto livello di parallelismo in modo da velocizzare più le cose e che il compiler di Rvxxx abbia la vita facilitata?
Da quello che ne so io ci sono vantaggi per entrambi, per quello che ne capisco io codice seriale viene masticato seriamente in caso di GP computing, mentre i giochini dovrebbero preferire un approccio più alla rvxxx. Sbaglio? Quasi certamente.
devAngnew
26-09-2009, 12:32
30-40% in piu' coi driver immaturi, aspettiamo quelli piu' maturi e vedremo. Per ora nvida non dice nulla, difende soltanto le proprie vga della vecchia generazione, io mi aspettavo invece che dicessero: a novembre uscirà la gtx380 molto piu' performante delle vga ati, non compratele e aspettate un mesetto e invece......dx 11 non servono physx si......:rolleyes:
ps del gpu gpu cuda e menate varie non interessa proprio a nessuno.......quindi feature inutili!!!!
Vallo a dire alle università e di tutti le società che fanno simulazioni ecc....poi ne riparliamo :asd: ; il gpgpu è il futuro sono nuovi mercati ed nvidia ed ati mirano a questi mercati.........
;)
michelgaetano
26-09-2009, 12:38
Vallo a dire alle università e di tutti le società che fanno simulazioni ecc....poi ne riparliamo :asd: ; il gpgpu è il futuro sono nuovi mercati ed nvidia ed ati mirano a questi mercati.........
;)
Dipende dagli ambiti ovviamente, credo okorop si riferisse al puro gaming.
30-40% in piu' coi driver immaturi, aspettiamo quelli piu' maturi e vedremo. Per ora nvida non dice nulla, difende soltanto le proprie vga della vecchia generazione, io mi aspettavo invece che dicessero: a novembre uscirà la gtx380 molto piu' performante delle vga ati, non compratele e aspettate un mesetto e invece......dx 11 non servono physx si......:rolleyes:
ps del gpu gpu cuda e menate varie non interessa proprio a nessuno.......quindi feature inutili!!!!
No perchè Dx11 servono? Sono così innovative che è da 3 anni che Ati ha la stessa architettura video di base.
Vallo a dire alle università e di tutti le società che fanno simulazioni ecc....poi ne riparliamo :asd: ; il gpgpu è il futuro sono nuovi mercati ed nvidia ed ati mirano a questi mercati.........
;)
ci sono le schede video professionali per questo, di sicuro quelle desktop non puntano a quello......o olmeno io guardo solo alle performance non ai fronzoli che provo e poi non uso....
No perchè Dx11 servono? Sono così innovative che è da 3 anni che Ati ha la stessa architettura video di base.
le dx11 sono innovative saranno lo standrd e comunque ati ha cambiato i compute shader da 4.0 a 4.1 a 5.0 e le differenze sono enormi ;) per quanto riguarda l'architettura di rv670, rv770 e rv870 son simili ma le specifiche son cambiate assai.....
non perdetevi i commenti della bibbia delle vga yossarian, ogni suo post vale oro :read:
p.s. ati ha innovato in 3 anni nvida ha spremuto g80 in tutte le salse possibili......rinominando le vga 2 e in alcuni casi 3 volte....
Kharonte85
26-09-2009, 12:56
http://www.brightsideofnews.com/news/2009/9/25/nvidia-says-gt300-on-schedule-for-q4-20092c-yields-are-fine.aspx
November is looking to be an exciting month as we hear rumblings of a launch of AMD's Radeon HD 5850 X2 and HD 5870 X2. In fact almost all of the news lately has been about AMD's new DX11 40nm GPU. The question on everyone's minds was the same - Where is NVIDIA?
We are happy to report that we were correct in our earlier predictions that the GT300 is farther along than many other sites were predicting. We hear that NVIDIA has made an official statement on the state of the GT300 yields.
It seems that the GT300 has been taped out long ago and that yields are fine. This statement comes from a senior product manager for the GT300, but we also have this from our own sources [who have been saying this all along].
So where did the rumors of sub 2% yields come from? Well according to the unnamed source it looks like AMD's Competitive Analysis team mistranslated some information that stated only 9 chips per wafer worked. This information quickly spread around the internet and became what we like to call "the repeated truth". Bear in mind that this was the same team in charge of spreading rumors that Larrabee is now in its third or fourth generation of silicon, which is direly incorrect. But we'll address Larrabee and the turmoil there in a future article.
Our sources [and the senior managers] are still saying that the GT300 is slated for a Q4 2009 launch. This means that you should expect the new GT300 to show up around the end of November. This is most likely a follow up to Editor's Day that should happen at the beginning of November. Most likely nVidia is pitching the GT300 chip exactly three years after its revolutionary G80 [also known as NV50] architecture, pitching it right around Thanksgiving, however from what we are hearing it is looking more like the very end of November or early December.
Still with this news it does take a little notch out of the AMD announcement. We are sure that NVIDIA will be making more information public as the momentum grows around AMD’s new 5xxx series GPUs. After all nothing works better to kill potential sales than leaked information on a possibly better product. Since we already disclosed some GT300 performance figures, expect an interesting war of words.
We all will have to wait to see if the GT300 can outperform the HD 5870, HD 5850X2 and the HD 5870X2 but as the current HD5870's margin is not that big we might see an interesting upset. No matter what the outcome the GPU race is certainly going to be very interesting in the coming months.
rispondendo ad alcune domande gli shader sono 512(480 per la nr2)(è prevista anche una nr3 e chip G304/306/308 successivi verso marzo)e in quanto al bus inizialmente previsto in 512bit ma poi tenendo conto dell'addozione della gddr5 e conseguente enorme BP si è anche provato il bus a 384 bit, la superfice del chip è come detto di 452mm2, il tape-out della rev2 è accaduto il 9 luglio, per i tempi gia detto.
un saluto a tutti.
;)
Bene, speriamo che sia davvero così (così entro fine anno decido che fare :D )
Se abbinano le GDDR5 credo potrebbero tranquillamente riproporre il bus di 384bit per la Top e di 320bit per l'altra esattamente come fu per G80 nelle 8800GTX e 8800GTS...
Solo Intel rilascia informazioni prima del lancio dei prodotti. Da che mondo e mondo nVidia e AMD non lo hanno mai fatto (e questo sia per prodotti vincenti che perdenti, a scanso di equivoci)
Verissimo...G80 a shader separati fino al giorno prima del lancio...:asd:
freedom07
26-09-2009, 13:16
in rete ecco qui ;)
http://www.pctunerup.com/up/results/_200909/th_20090926140548_10913_0.jpg (http://www.pctunerup.com/up/image.php?src=_200909/20090926140548_10913_0.jpg)
anke se nn sò se sia un fake :confused: :confused: :confused:
in rete ecco qui ;)
http://www.pctunerup.com/up/results/_200909/th_20090926140548_10913_0.jpg (http://www.pctunerup.com/up/image.php?src=_200909/20090926140548_10913_0.jpg)
anke se nn sò se sia un fake :confused: :confused: :confused:
è un fake gt300 è a 40 nani ;)
freedom07
26-09-2009, 13:20
è un fake gt300 è a 40 nani ;)
:D grazie mille lo immaginavo infatti .. ma ho pensato ad un gpu-z nn aggiornato come successe per il passaggio alle 55nm le prime gtx ... cmq ci rimane solo da aspettare .. ed vedere.. ma sono mooooltoo fiducioso ke queste vga saranno dei mostri di potenza....
:D grazie mille lo immaginavo infatti .. ma ho pensato ad un gpu-z nn aggiornato come successe per il passaggio alle 55nm le prime gtx ... cmq ci rimane solo da aspettare .. ed vedere.. ma sono mooooltoo fiducioso ke queste vga saranno dei mostri di potenza....
dipende in quale ambito, per adesso si sa solo che lo saranno in ambito gpu gpu e questo non mi interessa assai,......
le dx11 sono innovative saranno lo standrd e comunque ati ha cambiato i compute shader da 4.0 a 4.1 a 5.0 e le differenze sono enormi per quanto riguarda l'architettura di rv670, rv770 e rv870 son simili ma le specifiche son cambiate assai.....
non perdetevi i commenti della bibbia delle vga yossarian, ogni suo post vale oro
p.s. ati ha innovato in 3 anni nvida ha spremuto g80 in tutte le salse possibili......rinominando le vga 2 e in alcuni casi 3 volte....
Il punto focale è che il codice dx11 funziona, senza alcune caratteristiche, anche su dx10, senza il bisogno di creare due paths, il che presuppone che chi ha una Vga dx10 o dx 10.1 non ha la necessità impellente di cambiare come successo per dx9-dx10 o dx8-dx9 perchè il gioco non lo supporta nemmeno.
Sono così poco innovative, infatti, che nVidia defe rifare la GPU tutta da capo per riuscire ad essere compliant... :rolleyes:
quoto
Sono così poco innovative, infatti, che nVidia defe rifare la GPU tutta da capo per riuscire ad essere compliant... :rolleyes:
Era r600 innovativa.
Kharonte85
26-09-2009, 13:35
Sono così poco innovative, infatti, che nVidia defe rifare la GPU tutta da capo per riuscire ad essere compliant... :rolleyes:
Per fortuna, senno' continuava con G92 rimarchiato in eterno...:asd:
travis^__^
26-09-2009, 15:17
Per fortuna, senno' continuava con G92 rimarchiato in eterno...:asd:
il mitico chip che si porta dietro da troppo tempo verrà dunque abbandonato?:D
il mitico chip che si porta dietro da troppo tempo verrà dunque abbandonato?:D
yes, GT300 dovrebbe essere qualcosa di completamente nuovo.. ALLELUJA!!!!!!
È da G80 che l'architettura nvidia non cambia di una virgola, e G80 non era già un'architettura innovativa (ma comunque molto efficiente).
Ora anche per nvidia è arrivato il momento di rifare il chip "da capo", come ATI ha già fatto con R600 a suo tempo.. :)
yes, GT300 dovrebbe essere qualcosa di completamente nuovo.. ALLELUJA!!!!!!
È da G80 che l'architettura nvidia non cambia di una virgola, e G80 non era già un'architettura innovativa (ma comunque molto efficiente).
Ora anche per nvidia è arrivato il momento di rifare il chip "da capo", come ATI ha già fatto con R600 a suo tempo.. :)
speriamo la prima uscita non gli vada allo stesso modo :stordita:
speriamo la prima uscita non gli vada allo stesso modo :stordita:
eheheh lo spero anche io di no.. però il rischio c'è per ogni nuova architettura.. :)
michelgaetano
26-09-2009, 16:24
speriamo la prima uscita non gli vada allo stesso modo :stordita:
eheheh lo spero anche io di no.. però il rischio c'è per ogni nuova architettura.. :)
Impossibile a mio avviso, perchè non c'è un abisso senza fondo tra Cypress e GT200 al momento. È un distacco importante (mi riferisco alle schede singole, 285 vs 5870), ma colmabilissimo.
Impossibile a mio avviso, perchè non c'è un abisso senza fondo tra Cypress e GT200 al momento. È un distacco importante (mi riferisco alle schede singole, 285 vs 5870), ma colmabilissimo.
quoto, però c'è sempre il rischio che progettando una nuova architettura si arrivi in ritardo o con prestazioni non all'altezza di quello che si era previsto.
quoto, però c'è sempre il rischio che progettando una nuova architettura si arrivi in ritardo o con prestazioni non all'altezza di quello che si era previsto.
quoto
goldorak
26-09-2009, 17:03
il mitico chip che si porta dietro da troppo tempo verrà dunque abbandonato?:D
yes, GT300 dovrebbe essere qualcosa di completamente nuovo.. ALLELUJA!!!!!!
È da G80 che l'architettura nvidia non cambia di una virgola, e G80 non era già un'architettura innovativa (ma comunque molto efficiente).
Ora anche per nvidia è arrivato il momento di rifare il chip "da capo", come ATI ha già fatto con R600 a suo tempo.. :)
Spero vivamente che sia cosi', ma ho grossi dubbi in proposito.
Credo che vedremo G300 nella fascia alta e G200 (GTX260) nella fascia media con le schede a base di G92b in fascia bassa oppure se sono troppo potenti eliminate dai listini.
Perche' dico questo, perche' se i rumors concernenti G300 sui yields bassissimi sono veri, e con le difficolta' che Nvidia ha e continua ad avere a fare scalare verso il basso i suoi chip monolitici non ce' speranza di vedere un G300 "depotenziato" per la fascia media. Quindi non oseranno riciclare G92b ma G200 credo proprio di si. :)
Spero vivamente che sia cosi', ma ho grossi dubbi in proposito.
Credo che vedremo G300 nella fascia alta e G200 (GTX260) nella fascia media con le schede a base di G92b in fascia bassa oppure se sono troppo potenti eliminate dai listini.
Perche' dico questo, perche' se i rumors concernenti G300 sui yields bassissimi sono veri, e con le difficolta' che Nvidia ha e continua ad avere a fare scalare verso il basso i suoi chip monolitici non ce' speranza di vedere un G300 "depotenziato" per la fascia media. Quindi non oseranno riciclare G92b ma G200 credo proprio di si. :)
mia previsione gtx380, prestazioni comprese tra la gtx295 e la 5870x2, costo 700$, gtx360 sarà una gtx275 rimarchiata a 40 nani, fascia media a 200 euro prestazioni simili alla 5850.....
michelgaetano
26-09-2009, 17:09
mia previsione gtx380, prestazioni comprese tra la gtx295 e la 5870x2, costo 700$, gtx360 sarà una gtx275 rimarchiata a 40 nani, fascia media a 200 euro prestazioni simili alla 5850.....
Non creeranno mai una sola scheda con GT300, ne han messe in commercio due per G80 e due per GT200.
Kharonte85
26-09-2009, 17:21
Non creeranno mai una sola scheda con GT300, ne han messe in commercio due per G80 e due per GT200.
Osservazione coretta, dopotutto lo fanno anche per "riciclare" chip non proprio perfetti (Stream processor non funzionanti), stessa cosa per la HD5850 ;)
travis^__^
26-09-2009, 17:22
Non creeranno mai una sola scheda con GT300, ne han messe in commercio due per G80 e due per GT200.
mm,,,questo è vero. Ma non si sa ancora molto su questa generazione...io sono per la concorrenza spietata e i prezzi sotto terra :O
Osservazione coretta, dopotutto lo fanno anche per "riciclare" chip non proprio perfetti (Stream processor non funzionanti), stessa cosa per la HD5850 ;)Esatto, i chip leggermente fallati o impuri devono essere riutilizzati...
Oltre al fatto che creare una produzione in serie per un prodotto che venderá oggettivamente poco (sará pur sempre una scheda di fascia altissima) non ha senso.
Foglia Morta
26-09-2009, 17:36
Si leggono cose diametralmente opposte...
L'admin di [H]ardocp:
http://hardforums.com/showpost.php?p=1034667865&postcount=362
I personally think that NVIDIA's GT300 will not see the light of a retail shelf for 4 to 6 months. Therefore it is my opinion that the GT300 is currently meaningless in this market place. Had the situation been different, I would have said exactly so.
Si leggono cose diametralmente opposte...
L'admin di [H]ardocp:
http://hardforums.com/showpost.php?p=1034667865&postcount=362
I personally think that NVIDIA's GT300 will not see the light of a retail shelf for 4 to 6 months. Therefore it is my opinion that the GT300 is currently meaningless in this market place. Had the situation been different, I would have said exactly so.
a pelle anche io ho la sensazione che non manca affatto poco al lancio, ma forse mi sbaglio e nvidia sta facendo grossi sforzi per tenere segreto un lancio inaspettato ed imminente, di sicuro se hanno qualcosa devono accelerare perchè ati ha lanciato una bella offensiva.
michelgaetano
26-09-2009, 17:40
Ma poi, vogliamo mettere anche le vendite proprie?
Cioè, quante GTX 260 vedete in rapporto alle 280? L'errore, imho, sarebbe proprio non produrre una scheda leggermente inferiore per prestazioni ma tremendamente superiore per rapporto prezzo/prestazioni (che è quello che poi vince nelle vendite).
Piuttosto, mi confermate che con un bus a 384 bit dovremmo avere 768*2 mb di vram (quindi 1536)? Su una soluzione a bus inferiore (se si segue il rapporto di GT200 dovrebbe essere 336, ma con G80 fu 320), dovremmo invece arrivare sui 1,3 gb di vram. Per gli standard attuali dovrebbero essere più che adeguati come quantitativi.
Si leggono cose diametralmente opposte...
L'admin di [H]ardocp:
http://hardforums.com/showpost.php?p=1034667865&postcount=362
I personally think that NVIDIA's GT300 will not see the light of a retail shelf for 4 to 6 months. Therefore it is my opinion that the GT300 is currently meaningless in this market place. Had the situation been different, I would have said exactly so.
Una stroncatura...
x.vegeth.x
26-09-2009, 17:50
Si leggono cose diametralmente opposte...
L'admin di [H]ardocp:
http://hardforums.com/showpost.php?p=1034667865&postcount=362
I personally think that NVIDIA's GT300 will not see the light of a retail shelf for 4 to 6 months. Therefore it is my opinion that the GT300 is currently meaningless in this market place. Had the situation been different, I would have said exactly so.
io ho l'impressione che la 5870 sia la nuova 8800gtx, e che nvidia stia per sfornare il degno successore della 2900 xt :stordita:
io ho l'impressione che la 5870 sia la nuova 8800gtx, e che nvidia stia per sfornare il degno successore della 2900 xt :stordita:
pero' è uscita anche la 8800 ultra, ci dobbiamo aspettare una 5870 ultra quindi?
comunque nvida a ogni cambio di rchitettura si è rinforzata quindi non penso che possa succedere....
Io penso che nvidia tirerà comunque fuori una buona scheda.. errori come il 5800, scheda bella a vedersi ed a dirsi ma poco a sentirsi ed a computazionare non credo si ripeteranno più.
Casomai sarà interessante quale dei 2 aprocci alla fine renderà maggiormente
mia previsione gtx380, prestazioni comprese tra la gtx295 e la 5870x2, costo 700$, gtx360 sarà una gtx275 rimarchiata a 40 nani, fascia media a 200 euro prestazioni simili alla 5850.....
GTX380 ci sta che stia tra la GTX295 e la 5870x2, pero il GTX275 a 40 nani non può avere prestazionio simili alla 5850 in quanto la 5850 e già superiore alla GTX285.
Bastoner
26-09-2009, 18:16
GTX380 ci sta che stia tra la GTX295 e la 5870x2, pero il GTX275 a 40 nani non può avere prestazionio simili alla 5850 in quanto la 5850 e già superiore alla GTX285.
Certo che ne avete di fantasia :asd:
io ho l'impressione che la 5870 sia la nuova 8800gtx, e che nvidia stia per sfornare il degno successore della 2900 xt :stordita:
io invece penso che la 5870 sia la nuova 8800gtx ma penso anche che GT300 sarà una scheda validissima, l'unica cosa è che uscira tardi...
P.s.: se GT300 dovesse essere un flop qua a cicli di nuove dx alterni nvidia e ati floppano.. XD
DX 9 -> flop nvidia
DX 10 -> flop ATI
DX 11 -> flop nvidia (??)
Speriamo di no!!!!!!!
Certo che ne avete di fantasia :asd:
Ti rifersci alla GTX380 o alla 5850?
GTX380 ci sta che stia tra la GTX295 e la 5870x2, pero il GTX275 a 40 nani non può avere prestazionio simili alla 5850 in quanto la 5850 e già superiore alla GTX285.
IMHO GTX380 avrà performance del 10% superiori alla GTX295, GTX360 avrà performance simili alla HD5870 e, sempre IMHO, per vedere le prime schede di fascia media DX11 a 40nm di nvidia dovremo attendere la primavera 2010... :read:
NVIDIA MUOVITI!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
x.vegeth.x
26-09-2009, 18:38
io invece penso che la 5870 sia la nuova 8800gtx ma penso anche che GT300 sarà una scheda validissima, l'unica cosa è che uscira tardi...
P.s.: se GT300 dovesse essere un flop qua a cicli di nuove dx alterni nvidia e ati floppano.. XD
DX 9 -> flop nvidia
DX 10 -> flop ATI
DX 11 -> flop nvidia (??)
Speriamo di no!!!!!!!
però ati e nvidia si alternano il primato a gen alterne già da un po
9800>5900
6800>x800
x1800>7800
8800>hd2900
...
Ti rifersci alla GTX380 o alla 5850?
penso alla GTX380 :asd: la HD5850 sappiamo già come va.. XD
però ati e nvidia si alternano il primato a gen alterne già da un po
9800>5900
6800>x800
x1800>7800
8800>hd2900
...
si ma le uniche 2 vere sono la 1° e la 4° (che corrispondono alle nuove DX)
infatti la 6800 era migliore della x800 come caratteristiche, ma inferiore come potenza. La x1800 era migliore della 7800 come potenza e caratteristiche (mi ricordo il fatidico HDR + AA che nvidia non poteva permettersi :D ) ma uscì 5 mesi in ritardo rispetto alla 7800!!
Skullcrusher
26-09-2009, 18:43
pero' è uscita anche la 8800 ultra, ci dobbiamo aspettare una 5870 ultra quindi?
comunque nvida a ogni cambio di rchitettura si è rinforzata quindi non penso che possa succedere....
Una 5870 ultra, ma tra un po' esce la 5890, è già presente nella roadmap.
Per quanto riguarda Nvidia, o lancia le schede entro fine anno per contrastare Ati oppure è segno che hanno decisamente problemi col nuovo chip, penso sia ovvio pensarla così.
Dylan BJ
26-09-2009, 20:57
secondo me Nvidia non sbagliera' l'appuntamento con l'uscita di Seven.. :D
goldorak
26-09-2009, 21:55
Si leggono cose diametralmente opposte...
L'admin di [H]ardocp:
http://hardforums.com/showpost.php?p=1034667865&postcount=362
I personally think that NVIDIA's GT300 will not see the light of a retail shelf for 4 to 6 months. Therefore it is my opinion that the GT300 is currently meaningless in this market place. Had the situation been different, I would have said exactly so.
Oh mamma questa e' una dichiarazione esplosiva :eek: adesso [H]ardocp verra' tacciato di essere un forum rosso.
E l'amministratore il capo dei rossi. :asd:
goldorak
26-09-2009, 21:57
pero' è uscita anche la 8800 ultra, ci dobbiamo aspettare una 5870 ultra quindi?
comunque nvida a ogni cambio di rchitettura si è rinforzata quindi non penso che possa succedere....
http://museum.bounce-gaming.net/5800.jpg :sofico:
Oh mamma questa e' una dichiarazione esplosiva :eek: adesso [H]ardocp verra' tacciato di essere un forum rosso.
E l'amministratore il capo dei rossi. :asd:
il comunismo non c'è piu' da un po di tempo :sbonk:
http://museum.bounce-gaming.net/5800.jpg :sofico:
vabbe dai uno sbaglio come quello fatto per la 5800 non credo che lo rifacciano .........comunque tutti sti problemi di produzione di gt300 a mio avviso potrebbero far cambiare l'architettura della gpu in fretta e forse non lo fanno come l'avevano progettata, solo in sto caso potrebbe esserci un flop.....
goldorak
26-09-2009, 22:06
il comunismo non c'è piu' da un po di tempo :sbonk:
Dai sai benissimo cosa intendevo. :Prrr:
vabbe dai uno sbaglio come quello fatto per la 5800 non credo che lo rifacciano .........comunque tutti sti problemi di produzione di gt300 a mio avviso potrebbero far cambiare l'architettura della gpu in fretta e forse non lo fanno come l'avevano progettata, solo in sto caso potrebbe esserci un flop.....
Non credo che possano cambiare cosi' di punto in bianco l'architettura di GT300. Ormai vanno avanti con quello che hanno, e se le prestazioni non sono al rendez-vous, gli nvidisti soffriranno, gli ingegneri verdi si rimetteranno al lavoro per fare un chip come si deve e magari seguono la strada di AMD, si aspettera' 1 anno e poi vedremo il risultato.
Nessuna azienda ha la bacchetta magica, Nvidia ha gia' toppato in passato, cosi' come ATI. Non e' detto che non possa succedere di nuovo tanto piu' che i progetti di gpu vengono elaborati a distanza di anni del loro ingresso sul mercato. Scommetto quello che volete che GT300 era gia' in fase progettuale quando G80 arrivo' sul mercato. Le condizioni di allora non sono piu' quelle di adesso, e magari le scelte che aveva senso fare qualche anno fa oggi sono fonte di enormi problemi.
Intanto sono passati parecchi mesi, è uscita la nuova ammiraglia di AMD.. a breve uscirà il mostro X2 e non ci sono nemmeno indiscrezioni da parte di nVidia. Se non esce ed anche in maniera aggressiva (prezzo/prestazioni) per la stagione natalizia, la vedo male ;)
Intanto sono passati parecchi mesi, è uscita la nuova ammiraglia di AMD.. a breve uscirà il mostro X2 e non ci sono nemmeno indiscrezioni da parte di nVidia. Se non esce ed anche in maniera aggressiva (prezzo/prestazioni) per la stagione natalizia, la vedo male ;)
c'è sempre physx, cuda, badaboom su cui possono puntare ;)
Foglia Morta
26-09-2009, 22:36
Si leggono cose diametralmente opposte...
L'admin di [H]ardocp:
http://hardforums.com/showpost.php?p=1034667865&postcount=362
I personally think that NVIDIA's GT300 will not see the light of a retail shelf for 4 to 6 months. Therefore it is my opinion that the GT300 is currently meaningless in this market place. Had the situation been different, I would have said exactly so.
Ha chiarito da dove provengono le sue info...
http://hardforums.com/showpost.php?p=1034673723&postcount=388
I am taking my information from people that have tremendously stable working relationships with TSMC
devAngnew
26-09-2009, 22:37
Ciao
Domandina:
Secondo te, nei giochi è più semplice scrivere codice seriale, in cui da r600 in poi una lane calcola e le altre aspettano l'operazione sia completata per poter operare, o scrivere codice con un alto livello di parallelismo in modo da velocizzare più le cose e che il compiler di Rvxxx abbia la vita facilitata?
Da quello che ne so io ci sono vantaggi per entrambi, per quello che ne capisco io codice seriale viene masticato seriamente in caso di GP computing, mentre i giochini dovrebbero preferire un approccio più alla rvxxx. Sbaglio? Quasi certamente.
Diciamo che il parallelismo nelle gpu è intrinseco della natura stessa dei chip infatti non fanno altro che calcoli matriciali, et simila...nei giochi si aggiungono operazioni di texturing , AA ma per il resto siamo li....
Per un programmatore ovviamente è molto più semplice scrivere un algoritmo senza pensare a come è fatto il processore sottostante (e questo è uno dei motivi della nascita dei linguaggi ad alto livello) quindi poichè
Nvidia usa un'approccio di tipo super scalare con schedulatore adatto a codice "generico" risulterà più semplice da usare; al contrario Ati con la sua "pipeline VLIW a 5 operandi" ha lo svantaggio che se il programmatore non pensa allo shader fatto in un certo modo il compilatore non riuscirà ad equilibrarle molto e quindi alcune di esse (unità di calcolo max disponibili) non saranno usate ottenendo così i casi in cui tutte le unità della VLIW sono usate o nel caso peggiore solo 1na.
Comunque nel caso medio circa la metà delle unità di calcolo dovrebbereessere sempre sfruttate (ma questo bisognerebbe chiederlo agli ingegneri di ATI).
;)
Ha chiarito da dove provengono le sue info...
http://hardforums.com/showpost.php?p=1034673723&postcount=388
I am taking my information from people that have tremendously stable working relationships with TSMC
a quindi tsmc direttamente, quindi fonte attendibile....
Kharonte85
26-09-2009, 22:40
Notizie contrastanti come spesso succede, quindi direi che è tutto normale :D
Stiamo alla finestra...io spero che arrivi in fretta per il bene di tutti.
Diciamo che il parallelismo nelle gpu è intrinseco della natura stessa dei chip infatti non fanno altro che calcoli matriciali, et simila...nei giochi si aggiungono operazioni di texturing , AA ma per il resto siamo li....
Per un programmatore ovviamente è molto più semplice scrivere un algoritmo senza pensare a come è fatto il processore sottostante (e questo è uno dei motivi della nascita dei linguaggi ad alto livello) quindi poichè
Nvidia usa un'approccio di tipo super scalare con schedulatore adatto a codice "generico" risulterà più semplice da usare; al contrario Ati con la sua "pipeline VLIW a 5 operandi" ha lo svantaggio che se il programmatore non pensa allo shader fatto in un certo modo il compilatore non riuscirà ad equilibrarle molto e quindi alcune di esse (unità di calcolo max disponibili) non saranno usate ottenendo così i casi in cui tutte le unità della VLIW sono usate o nel caso peggiore solo 1na.
Comunque nel caso medio circa la metà delle unità di calcolo dovrebbereessere sempre sfruttate (ma questo bisognerebbe chiederlo agli ingegneri di ATI).
;)
Grazie della risposta. Dalle slide che ho postato e poi in generale da rv770 in poi penso che più della metà delle unità di calcolo vengono sfruttate, diciamo in casi non proprio estremi che secondo me un 70-75% di media è ragionevole, altrimenti le performance sarebbero molto basse. Almeno cosi penso
vittorio8800
27-09-2009, 10:18
buon giorno a tutti :D
su internet ho trovato questo, secondo voi è un fake?
http://forum.amtech.com.vn/attachments/card-do-hoa-video-cards/15902d1105212697-ati-nvidia-cuoc-chien-khong-bao-gio-co-hoi-ket-geforce_380gtx_specification.png
who_is4tlas
27-09-2009, 10:23
buon giorno a tutti :D
su internet ho trovato questo, secondo voi è un fake?
http://forum.amtech.com.vn/attachments/card-do-hoa-video-cards/15902d1105212697-ati-nvidia-cuoc-chien-khong-bao-gio-co-hoi-ket-geforce_380gtx_specification.png
Si sono dimenticati di aggiornare lo Shader Model
vittorio8800
27-09-2009, 10:27
Si sono dimenticati di aggiornare lo Shader Model
già, non ci ho fatto caso!! che sbadato.... ho visto solo dx11
vabbè, ci tocca spettare.. anche se non sono così lontane, basta aspettare dicembre per averle, ho letto una news su Toms
Intanto sono passati parecchi mesi, è uscita la nuova ammiraglia di AMD.. a breve uscirà il mostro X2 e non ci sono nemmeno indiscrezioni da parte di nVidia. Se non esce ed anche in maniera aggressiva (prezzo/prestazioni) per la stagione natalizia, la vedo male ;)
pienamente daccordo, ma meglio che si prendano il loro tempo per fare un prodotto veramente innovativo piuttosto che corrano e facciano qualche capperata.
anche perchè parliamoci chiaro, stavo facendo questa considerazione, io al momento non sento la minima esigenza di avere una scheda più potente della mia 295 che mi permette di giocare a giochi come n4s shift su un 26" a 1920x1200 in full detail con 90/120 fps!
Per sfruttare ancora più potenza ci vorrebbe un 30" 2560x1600 che ancora costano minimo 1600 euro ;)
a mio avviso gt300 o 5870x2 sono schede che avranno senso fa diversi mesi.
michelgaetano
27-09-2009, 11:31
buon giorno a tutti :D
su internet ho trovato questo, secondo voi è un fake?
http://forum.amtech.com.vn/attachments/card-do-hoa-video-cards/15902d1105212697-ati-nvidia-cuoc-chien-khong-bao-gio-co-hoi-ket-geforce_380gtx_specification.png
Minchia che fake assurdo :asd:
devAngnew
27-09-2009, 12:03
Minchia che fake assurdo :asd:
Quoto :O quegli sceen li sà fare meglio il mio cuginetto di 5 anni..... :asd:
io al momento non sento la minima esigenza di avere una scheda più potente della mia 295
Non fai mia testo, chi è che in Italia ha una 295? Sarete in pochi :D
Scherzi a parte il grosso delle vendite è quello della fascia 80-150€ e una scheda di punta non fa altro che far crescere la popolarità del brand, per far si che si vendano anche le schede posizionate ben al di sotto di tale fascia.
devAngnew
27-09-2009, 15:10
Grazie della risposta. Dalle slide che ho postato e poi in generale da rv770 in poi penso che più della metà delle unità di calcolo vengono sfruttate, diciamo in casi non proprio estremi che secondo me un 70-75% di media è ragionevole, altrimenti le performance sarebbero molto basse. Almeno cosi penso
Si ho dato un'occhiata e precisamente nella slide n.ro 38 c'è una media di utilizzo delle unità VLIW in particolare abbiamo bioschock con un utilizzo di 4 unità su 5 mentre in coda abbiamo Lost planet coin un utilizzo di solo 3 unità.
Crysis non è affatto male ha una media di 3,8 .
;)
Si ho dato un'occhiata e precisamente nella slide n.ro 38 c'è una media di utilizzo delle unità VLIW in particolare abbiamo bioschock con un utilizzo di 4 unità su 5 mentre in coda abbiamo Lost planet coin un utilizzo di solo 3 unità.
Crysis non è affatto male ha una media di 3,8 .
;)
Ciao
Beh dopo 3 generazioni di VLIW sembra che il team dei driver l'abbia ottimizzato parecchio sto compiler. Altrimenti avrebbe senso mettere tutte queste alu se non vengono utlizzate mai? Sarebbe uno spreco di silicio immane. Ovviamente opinione mia. Sarebbe curioso confrontare le prestazioni e le percentuali di utilizzo di g300 se come si dice, sarà full MIMD.
devAngnew
27-09-2009, 19:58
Ciao
Beh dopo 3 generazioni di VLIW sembra che il team dei driver l'abbia ottimizzato parecchio sto compiler. Altrimenti avrebbe senso mettere tutte queste alu se non vengono utlizzate mai? Sarebbe uno spreco di silicio immane. Ovviamente opinione mia. Sarebbe curioso confrontare le prestazioni e le percentuali di utilizzo di g300 se come si dice, sarà full MIMD.
Tieni conto comunque che l'insieme dei giochi su cui vengono forniti i dati di uso delle unità VLIW è abbastanza esiguo per ottenere un dato preciso di utilizzo di queste unità; anche se si può stare relativamente tranquilli visto che ad esempio bioshock è basato sull'unreal engine usato da molti giochi.
Anch'io sono curioso delle prestazioni di g300 specialmente se sarà full MIMD....oltre al fatto che voglio vedere se nvidia si muoverà come ati fornendo un'unità tessellation, oppure come da me già detto gli shader processor saranno in grado di eseguire anche le operazioni di questa unità.
(ovviamente solo ipotesi)
;)
qualcuno di voi usa programmi di grafica 3d , come 3d studio max o cinema 4d?
se si, sotto windows vista 64 o windows 7 64 bit, come si comportano le nvidia GT200 ed ultimi driver, in ambito opengl???
Lo chiedo xchè si dice che le Ati ora , siano migliori di netto in opengl, perchè hanno riscritto i driver opengl e sono prestanti.
Mentre Nvidia che una volta primeggiava in opengl, ora è il contrario, meglio ati in opengl su windows vista-7.
Vi risulta??
Questo sarebbe importante saperlo anche in ottica GT300.
Grazie.
ilratman
27-09-2009, 21:16
pienamente daccordo, ma meglio che si prendano il loro tempo per fare un prodotto veramente innovativo piuttosto che corrano e facciano qualche capperata.
anche perchè parliamoci chiaro, stavo facendo questa considerazione, io al momento non sento la minima esigenza di avere una scheda più potente della mia 295 che mi permette di giocare a giochi come n4s shift su un 26" a 1920x1200 in full detail con 90/120 fps!
Per sfruttare ancora più potenza ci vorrebbe un 30" 2560x1600 che ancora costano minimo 1600 euro ;)
a mio avviso gt300 o 5870x2 sono schede che avranno senso fa diversi mesi.
a fine anno escono i double-fullHD anche detti highHD ossia 3840x2160 e le nueve schede saranno appena appena passabili, finalmente si tornerà a quando la scheda era il limite!
usare adesso le nuove schede sul fullhd, eccetto crysis ovviamente, è come usare una 8800gt con un 1280x1024 cioè la scheda neanche lo sente!
qualcuno di voi usa programmi di grafica 3d , come 3d studio max o cinema 4d?
se si, sotto windows vista 64 o windows 7 64 bit, come si comportano le nvidia GT200 ed ultimi driver, in ambito opengl???
Lo chiedo xchè si dice che le Ati ora , siano migliori di netto in opengl, perchè hanno riscritto i driver opengl e sono prestanti.
Mentre Nvidia che una volta primeggiava in opengl, ora è il contrario, meglio ati in opengl su windows vista-7.
Vi risulta??
Questo sarebbe importante saperlo anche in ottica GT300.
Grazie.
mah qui ti diranno tutto ok, già me lo immagino :asd:, ma io le ho usate e pur se uso da sempre quadro e non cambierò mai per le firepro o firegl di ati, anzi adesso vorrei prendere una quadro 3800 con il g200gl, devo dire che le gaming adesso sono penose in opengl.
siccome ho voglia di provarle per vedere se è vero quello che dicono sulle nuove ati te lo dirò presto se vanno o non vanno bene!
a fine anno escono i double-fullHD anche detti highHD ossia 3840x2160 e le nueve schede saranno appena appena passabili, finalmente si tornerà a quando la scheda era il limite!
usare adesso le nuove schede sul fullhd, eccetto crysis ovviamente, è come usare una 8800gt con un 1280x1024 cioè la scheda neanche lo sente!
mah qui ti diranno tutto ok, già me lo immagino :asd:, ma io le ho usate e pur se uso da sempre quadro e non cambierò mai per le firepro o firegl di ati, anzi adesso vorrei prendere una quadro 3800 con il g200gl, devo dire che le gaming adesso sono penose in opengl.
siccome ho voglia di provarle per vedere se è vero quello che dicono sulle nuove ati te lo dirò presto se vanno o non vanno bene!
grazie. :D
quindi prendi Ati una 58xx ?? giusto??
Non appena ti arriva , fai un test in opengl con uno dei software in questione.
Poi posta e dimmi se in opengl, sono meglio le gaming Ati o Nvidia.
Ti ringrazio in anticipo .
ilratman
28-09-2009, 00:46
Volendo provare io farei anche la prova di softmod :D
le softmode come forse ti ho già detto tempo fa servono solo a fare usare i driver, ad avere un pannello di controllo migliore e ad alzare i numerilli nei bench, poi quando ci lavori veramente con la scheda le softmoded vanno peggio delle normali e in ogni caso molto peggio delle quadro o firepro.
halduemilauno
28-09-2009, 07:31
tempo fa ho parlato di un'evento/incontro del 30 settembre che nvidia poteva utilizzare per parlare in qualche maniera di GT300. ecco a cosa mi riferivo...
http://www.nvidia.com/object/gpu_technology_conference.html
;)
tempo fa ho parlato di un'evento/incontro del 30 settembre che nvidia poteva utilizzare per parlare in qualche maniera di GT300. ecco a cosa mi riferivo...
http://www.nvidia.com/object/gpu_technology_conference.html
;)
Mi sembra l'evento ideale, ma ricordando l'ultima nuova GPU non credo parleranno se non in maniera assai generica, e credo solo in rapporto di performance.
halduemilauno
28-09-2009, 08:31
Mi sembra l'evento ideale, ma ricordando l'ultima nuova GPU non credo parleranno se non in maniera assai generica, e credo solo in rapporto di performance.
infatti ne ho parlato come di una ipotesi, una possibilità. di certo una molto + concreta potrebbe essere quando microsoft presenterà ufficialmente il suo nuovo windows seven il prossimo 22 ottobre.
;)
ma entro l'hanno cè la possibilità che queste schede siano presentate e commercializzate o bisognerà attendere chissà quando? lo chiedo a tè hal ?
ma entro l'hanno cè la possibilità che queste schede siano presentate e commercializzate o bisognerà attendere chissà quando? lo chiedo a tè hal ?
a quanto pare non prima di gennaio 2010 :)
a quanto pare non prima di gennaio 2010 :)
miiiii non credo cè la farò ad aspettare fino al 2010:(
halduemilauno
28-09-2009, 09:12
ma entro l'hanno cè la possibilità che queste schede siano presentate e commercializzate o bisognerà attendere chissà quando? lo chiedo a tè hal ?
mi pare che su questo argomento mi sia gia espresso + volte e con chiarezza. se parli di possibilità certo che si e ribadisco anche di concrete possibilità. come detto poco fa, il 22 ottobre credo che quantomeno, nvidia rilascerà info(leggasi slides)poi ho sempre parlato di metà/fine novembre. ripeto possibilità si. tocca esser pazienti.
ciao.
;)
ilratman
28-09-2009, 09:13
grazie. :D
quindi prendi Ati una 58xx ?? giusto??
Non appena ti arriva , fai un test in opengl con uno dei software in questione.
Poi posta e dimmi se in opengl, sono meglio le gaming Ati o Nvidia.
Ti ringrazio in anticipo .
guarda il problema è solo cinema4d, che però non conosco abbastanza da lavorarci per cui non potrei darti un giudizio obiettivo, mentre per 3dsmax il problema non si pone visto che si può scegliere l'accelerazione direct3d al posto dell'opengl!
quello che pssso fare è provare dei modelli reali che con la 8800gt non vanno bene mentre vanno da dio con la quadro 3700 che ho in ufficio che è sempre basata su g92.
secondo me non è un problema di driver, o meglio lo è ma solo perchè c'è qualcosa di diverso nelle nuove nvidia rispetto alle generazioni precedenti!
forse prima la parte di hw opengl disabilitata era minore oppure non era per nulla disabilitata ma il fatto rimane che chi lavora si è lamentato anche se giustamente nvidia ha detto se volete lavorare ci sono le quadro!
halduemilauno
28-09-2009, 10:37
ultime news...
http://www.fudzilla.com/content/view/15713/1/
Named after a nuclear reactor
The chip that we ended up calling GT300 has internal codename Fermi. The name might suit it well as Enrico Fermi was the chap that came up with the first nuclear reactor.
The new Nvidia chip is taped out and running, and we know that Nvidia showed it to some important people. The chip should be ready for very late 2009 launch. This GPU will also heavily concentrate on parallel computing and it will have bit elements on chip adjusted for this task. Nvidia plans to earn a lot of money because of that.
The chip supports GDDR5 memory, has billions of transistors and it should be bigger and faster than Radeon HD 5870. The GX2 dual version of card is also in the pipes. It's well worth noting that this is the biggest architectural change since G80 times as Nvidia wanted to add a lot of instructions for better parallel computing.
The gaming part is also going to be fast but we won’t know who will end up faster in DirectX 11 games until we see the games. The clocks will be similar or very close to one we've seen at ATI's DirectX 11 card for both GPU and memory but we still don't know enough about shader count and internal structure to draw any performance conclusions.
Of course, the chip supports DirectX 11 and Open GL 3.1
;)
mircocatta
28-09-2009, 10:54
ma entro l'hanno cè la possibilità che queste schede siano presentate e commercializzate o bisognerà attendere chissà quando? lo chiedo a tè hal ?
entro l'Hanno non credo
:doh:
mircocatta
28-09-2009, 10:56
ultime news...
http://www.fudzilla.com/content/view/15713/1/
Named after a nuclear reactor
The chip that we ended up calling GT300 has internal codename Fermi. The name might suit it well as Enrico Fermi was the chap that came up with the first nuclear reactor.
The new Nvidia chip is taped out and running, and we know that Nvidia showed it to some important people. The chip should be ready for very late 2009 launch. This GPU will also heavily concentrate on parallel computing and it will have bit elements on chip adjusted for this task. Nvidia plans to earn a lot of money because of that.
The chip supports GDDR5 memory, has billions of transistors and it should be bigger and faster than Radeon HD 5870. The GX2 dual version of card is also in the pipes. It's well worth noting that this is the biggest architectural change since G80 times as Nvidia wanted to add a lot of instructions for better parallel computing.
The gaming part is also going to be fast but we won’t know who will end up faster in DirectX 11 games until we see the games. The clocks will be similar or very close to one we've seen at ATI's DirectX 11 card for both GPU and memory but we still don't know enough about shader count and internal structure to draw any performance conclusions.
Of course, the chip supports DirectX 11 and Open GL 3.1
;)
ah bene, supporto opengl 3.1 quando oggi hanno fatto uscire il supporto opengl 3.2??
e tra l'altro, le directx11 (e anche le radeon 5800) non supportano le opengl4.0?? o mi sto confondendo con shader model 5.0 ?
ah bene, supporto opengl 3.1 quando oggi hanno fatto uscire il supporto opengl 3.2??
e tra l'altro, le directx11 (e anche le radeon 5800) non supportano le opengl4.0?? o mi sto confondendo con shader model 5.0 ?
in ambito open cl ati è sempre stata piu' avanti la serie 58x0 supportano le 3.2 con driver dedicati :)
nvida su questo lato è indietro......
per quanto riguarda le dx11 dovranno anche loro lanciare la scheda quindi era scontato che le implementassero, e penso che sia una vga potentissima
entro l'Hanno non credo
:doh:
:Prrr:
ma entro l'hanno cè la possibilità che queste schede siano presentate e commercializzate o bisognerà attendere chissà quando? lo chiedo a tè hal ?
Quanto tempo Zorco :D
Quanto tempo Zorco :D
:Prrr: anche a tè:D
Comunque nel caso medio circa la metà delle unità di calcolo dovrebbereessere sempre sfruttate (ma questo bisognerebbe chiederlo agli ingegneri di ATI).
;)
Ciao!
Quote di utilizzo stream processor nelle architetture R600 e derivati in alcuni giochi...
(non li ho inventati di sana pianta,non so come postare una pagina dal PDF....):)
EDIT:chiedo scusa,come al solito son arrivato in ritardo...:stordita:
Andrea deluxe
28-09-2009, 21:55
http://www.nvidia.com/object/cuda_opencl.html
guarda il problema è solo cinema4d, che però non conosco abbastanza da lavorarci per cui non potrei darti un giudizio obiettivo, mentre per 3dsmax il problema non si pone visto che si può scegliere l'accelerazione direct3d al posto dell'opengl!
quello che pssso fare è provare dei modelli reali che con la 8800gt non vanno bene mentre vanno da dio con la quadro 3700 che ho in ufficio che è sempre basata su g92.
secondo me non è un problema di driver, o meglio lo è ma solo perchè c'è qualcosa di diverso nelle nuove nvidia rispetto alle generazioni precedenti!
forse prima la parte di hw opengl disabilitata era minore oppure non era per nulla disabilitata ma il fatto rimane che chi lavora si è lamentato anche se giustamente nvidia ha detto se volete lavorare ci sono le quadro!be non è giusto assolutamente.
xchè Ati da ottimi driver opengl anche sulle schede gaming.
Nvidia fa quel discorso xchè al solito ha una quota di mercato molto + elevata.
Comunque, io uso Luxology Modo , Rhino 4 e Zbrush..provati su Gtx 285 sono penosi , artefatti grafici , lentezza e stuttering quando ruoti un oggetto con molti poligoni , insomma uno schifo , nelle Ati con catalyst 9.9 questo non succede.
leoneazzurro
29-09-2009, 08:58
Primo diagramma di GT300 (O meglio GF100)?
http://www.beyond3d.com/images/rys/gf100.jpg
16 clusters, con 32 SP ognuno = 512 shaders ma "solo" 128TMU.
Probabili 4 unità DP per cluster.
Bus memoria probabilmente 384 bit (GDDR5? Quasi sicuro, direi)
3+ miliardi di transistors, quindi 50%+ grande di Cypress (cioè dovrebbe essere intorno ai 500 mm^2 )
Bastoner
29-09-2009, 09:02
Primo diagramma di GT300 (O meglio GF100)?
http://www.beyond3d.com/images/rys/gf100.jpg
16 clusters, con 32 SP ognuno = 512 shaders ma "solo" 128TMU.
Probabili 4 unità DP per cluster.
Bus memoria probabilmente 384 bit (GDDR5? Quasi sicuro, direi)
3+ miliardi di transistors, quindi 50%+ grande di Cypress (cioè dovrebbe essere intorno ai 500 mm^2 )
Ammazza.....un bestione....
ilratman
29-09-2009, 09:07
be non è giusto assolutamente.
xchè Ati da ottimi driver opengl anche sulle schede gaming.
Nvidia fa quel discorso xchè al solito ha una quota di mercato molto + elevata.
Comunque, io uso Luxology Modo , Rhino 4 e Zbrush..provati su Gtx 285 sono penosi , artefatti grafici , lentezza e stuttering quando ruoti un oggetto con molti poligoni , insomma uno schifo , nelle Ati con catalyst 9.9 questo non succede.
come ho detto con le g200 non li ho provati ma lasituazione in opengl è così dal g80!
come se l'architettura a streams nvidia funzionasse bene in opnegl solo se non viene disabilitata la parte hw delle opengl professionali!
sono daccordo che non è giusto assolutamente ma dal punto di vista nvidia è così, vuoi lavorare prendi quadro!
Primo diagramma di GT300 (O meglio GF100)?
http://www.beyond3d.com/images/rys/gf100.jpg
16 clusters, con 32 SP ognuno = 512 shaders ma "solo" 128TMU.
Probabili 4 unità DP per cluster.
Bus memoria probabilmente 384 bit (GDDR5? Quasi sicuro, direi)
3+ miliardi di transistors, quindi 50%+ grande di Cypress (cioè dovrebbe essere intorno ai 500 mm^2 )
Però, sembra interessante, anche se come con ATI non vedo un punto di svolta come con le 8800, evidentemente non ce n'è bisogno :)
L'unica cosa non capisco da dove spunta quel GF100:confused:
mister-x
29-09-2009, 11:09
Però, sembra interessante, anche se come con ATI non vedo un punto di svolta come con le 8800, evidentemente non ce n'è bisogno :)
L'unica cosa non capisco da dove spunta quel GF100:confused:
http://vr-zone.com/articles/-rumour-nvidia-gt300-architecture-details-revealed/7763.html?doc=7763
Dovrebbe stare per "Geforce Fermi"
Roba vecchia?
http://www.brightsideofnews.com/news/2009/9/25/nvidia-says-gt300-on-schedule-for-q4-20092c-yields-are-fine.aspx
Roba vecchia?
http://www.brightsideofnews.com/news/2009/9/25/nvidia-says-gt300-on-schedule-for-q4-20092c-yields-are-fine.aspx
Era già stato postato, me ne sono accorto adesso :cry:
leoneazzurro
29-09-2009, 13:01
Update: sembrerebbe che il diagramma sia attendibile, e che le 4 unità per cluster non siano unità a doppia precisione, ma le SFU (Special Functions Unit). Gli SP poi non sarebbero nella nota configurazione MADD+MUL ma solo MADD. Non solo, ma queste unità, similarmente a quanto avviene con le schede ATI, verrebbero usate anche per i calcoli a doppia precisione (con capacità di picco ridotta rispetto ai calcoli in singola precisione).
Ipotizzando uno shader clock a 1.6 GHz, questo darebbe 1.638 GFlops in singola precisione e circa 410 GigaFLOPS in doppia precisione se il rapporto rimane 1/4 come nel caso di ATI.
Prime notizie sulle performances: circa 20% in più in media rispetto ad una ATI 5870, -30% rispetto ad un crossfire di 5870.
appleroof
29-09-2009, 13:13
Update: sembrerebbe che il diagramma sia attendibile, e che le 4 unità per cluster non siano unità a doppia precisione, ma le SFU (Special Functions Unit). Gli SP poi non sarebbero nella nota configurazione MADD+MUL ma solo MADD. Non solo, ma queste unità, similarmente a quanto avviene con le schede ATI, verrebbero usate anche per i calcoli a doppia precisione (con capacità di picco ridotta rispetto ai calcoli in singola precisione).
Ipotizzando uno shader clock a 1.6 GHz, questo darebbe 1.638 GFlops in singola precisione e circa 410 GigaFLOPS in doppia precisione se il rapporto rimane 1/4 come nel caso di ATI.
Prime notizie sulle performances: circa 20% in più in media rispetto ad una ATI 5870, -30% rispetto ad un crossfire di 5870.
finalmente qualcosa si comincia a muovere :)
al di là delle performance sulle quali è davvero presto e quindi inutile esprimere qualsiasi giudizio, imho, vorrei sapere di più sull'architettura (non sono un tecnico, per cui non riesco a capirlo da quanto posti, è confermata full-MIMD?) speriamo che -come immagino- nei prox giorni/settimane escano sempre più notizie in tal senso
leoneazzurro
29-09-2009, 13:25
(non sono un tecnico, per cui non riesco a capirlo da quanto posti, è confermata full-MIMD?)
Se quello è il diagramma di ciò che ci possiamo aspettare da Nvidia assolutamente no.
appleroof
29-09-2009, 13:31
Se quello è il diagramma di ciò che ci possiamo aspettare da Nvidia assolutamente no.
azz, questa è una notizia: allora se questi rumors fossero confermati, rimarrebbero all'architettura attuale, almeno nella sua struttura di fondo?
goldorak
29-09-2009, 13:33
Primo diagramma di GT300 (O meglio GF100)?
http://www.beyond3d.com/images/rys/gf100.jpg
16 clusters, con 32 SP ognuno = 512 shaders ma "solo" 128TMU.
Probabili 4 unità DP per cluster.
Bus memoria probabilmente 384 bit (GDDR5? Quasi sicuro, direi)
3+ miliardi di transistors, quindi 50%+ grande di Cypress (cioè dovrebbe essere intorno ai 500 mm^2 )
Una architettura VLIW simile a quella ATI ? :stordita:
leoneazzurro
29-09-2009, 13:35
azz, questa è una notizia: allora se questi rumors fossero confermati, rimarrebbero all'architettura attuale, almeno nella sua struttura di fondo?
Grossomodo si, anche se ci sono dei cambiamenti importanti nella struttura dei cluster.
goldorak
29-09-2009, 13:38
Prime notizie sulle performances: circa 20% in più in media rispetto ad una ATI 5870, -30% rispetto ad un crossfire di 5870.
Sono messi male, un chip che ha il 50% di transistor in piu' di Cypress a va solo il 20% in piu' ? 20% suppongo nel caso migliore magari senza filtri abilitati. Chissa' come si riduce la differenza con i filtri.
Ahi ahi ahi FX5900 Ultra il ritorno. :fagiano:
appleroof
29-09-2009, 13:39
Grossomodo si, anche se ci sono dei cambiamenti importanti nella struttura dei cluster.
Cavolo, secondo me è una notiziona (anche per i suoi risvolti su ritardi ecc..che a questo punto potrebbero essere imputati più al pp in sè che alla nuova architettura)...vedremo nei prox giorni, se ricordiamo la storia di G80 sappiamo che Nvidia è maestra nell'ingannare tutti, però se la cosa fosse confermata...
comincio a prenderci gusto :D
Se va il 20% in più nasce male, ATI tira fuori quando vuole una 5890 senza contare la X2 che sarà un osso durissimo per nVidia.
goldorak
29-09-2009, 13:54
Se va il 20% in più nasce male, ATI tira fuori quando vuole una 5890 senza contare la X2 che sarà un osso durissimo per nVidia.
Si ma cosi' si materializza il mio incubo.
E cioe' che Nvidia essendo alla pari di AMD non fara' guerra dei prezzi. E AMD conscia di avere una soluzioni estramente competitiva a livello di features/prestazioni non ha neanche lei alcuno motivo per far scendere il prezzo . :cry:
appleroof
29-09-2009, 13:55
Se va il 20% in più nasce male, ATI tira fuori quando vuole una 5890 senza contare la X2 che sarà un osso durissimo per nVidia.
e vabbè...magari anche Nvidia tira fuori la sua X2 e siamo punto e a capo...cmq ripeto, per me è proprio inutile commentare perfromance che non si sa su quale metro siano state misurate, è proprio parlare di aria fritta, secondo me :D :D
ma come fascia di prezzo si sa quale sarà quella di GT300?
Kharonte85
29-09-2009, 13:56
Primo diagramma di GT300 (O meglio GF100)?
http://www.beyond3d.com/images/rys/gf100.jpg
16 clusters, con 32 SP ognuno = 512 shaders ma "solo" 128TMU.
Probabili 4 unità DP per cluster.
Bus memoria probabilmente 384 bit (GDDR5? Quasi sicuro, direi)
3+ miliardi di transistors, quindi 50%+ grande di Cypress (cioè dovrebbe essere intorno ai 500 mm^2 )
Che animalo! :oink:
Per le prestazioni inutile pensarci adesso ma se sono veri state sicuri che la gtx 295 la sorpassa...poi 384bit abbinati alle GDDR5 garantirebbero Banda in eccesso.
Athlon 64 3000+
29-09-2009, 14:03
Con quelle caratteristiche unite alla nuova architettura(differente da G80/GT200)secondo me dovrebbe essere come prestazioni una bella schiacciasassi.
Il problema potrebbe essere il fatto che se la gpu è da 500 mm^2 ci potrebbe essere veramente delle basse rese e questo potrebbe creare grossi grattacapi a Nvidia.
Io spero che la GT300 o come si chiamerà non avrà le dimensioni esagerate della 5870 :sperem:
ilratman
29-09-2009, 14:25
Questo dipende molto da quanto vogliono spendere nel PCB, se fai un PCB più grande puoi forse ridurne la complessità e riuscire a fare un prezzo al pubblico un po' più basso.
quindi la 5850 essendo più corta gli costa di più?
gianni1879
29-09-2009, 14:30
quindi la 5850 essendo più corta gli costa di più?
ha un pcb meno complesso...
Probabilmente gli costa meno, il risparmio di lunghezza dato da una minore complessità circuitale, molto probabilmente relativa alle fasi di alimentazione.
io preferisco una scheda di 40 cm ma con 200-300 mhz in più sulla gpu che una da 30 ma con freq più basse.. anche se so che voi non sarete d'accordo :mc:
ciccionamente90
29-09-2009, 14:48
io preferisco una scheda di 40 cm ma con 200-300 mhz in più sulla gpu che una da 30 ma con freq più basse.. anche se so che voi non sarete d'accordo :mc:
rientrando in costi accettabili, quoto... spero che ci stia nel case comunque :asd:
ilratman
29-09-2009, 14:48
ha un pcb meno complesso...
Probabilmente gli costa meno, il risparmio di lunghezza dato da una minore complessità circuitale, molto probabilmente relativa alle fasi di alimentazione.
ok non ho tenuto conto dell fasi per cui è impensabile un g300 corto come la 5850?
io preferisco una scheda di 40 cm ma con 200-300 mhz in più sulla gpu che una da 30 ma con freq più basse.. anche se so che voi non sarete d'accordo :mc:
infatti non sono daccordo, preferisco una scheda corta che vada tanto e che consumi poco!
diciamo che il limite per me è la dim atx 24.4cm ossia come la 5850 9.5".
non ho ancora preso una gtx perchè sono troppo lunghe e non ho preso ancora una ati serie 4 perchè consumavano troppo in idle, adesso prenderò una 5850 anche se spero che nvidia sforni un g300 corto ma mi sa che mi illudo o forse un shrink di g200 a 40nm corto!
e vabbè...magari anche Nvidia tira fuori la sua X2 e siamo punto e a capo...cmq ripeto, per me è proprio inutile commentare perfromance che non si sa su quale metro siano state misurate, è proprio parlare di aria fritta, secondo me :D :D
Sinceramente per me è un mistero come nVidia possa mettere due "bestioni" per fare una X2, considerando la grandezza del chip e il calore che tirerà fuori! Presumo che useranno due versioni depotenziate o abbasserano parecchio il clock, ATI nell'X2 è in vantaggio pensandoci bene.
ciccionamente90
29-09-2009, 14:50
Presumo che useranno due versioni depotenziate o abbasserano parecchio il clock.
Hanno sampre fatto così, o sbaglio? :stordita:
Hanno sampre fatto così, o sbaglio? :stordita:
Si certo, ma io intendevo molto depotenziate :asd:
ciccionamente90
29-09-2009, 14:53
ah, ok :sofico:
Hanno sampre fatto così, o sbaglio? :stordita:
io presumo che la x2 nvida sarà costituita da un chip leggermente depotenziato di Fermi per intenderci gtx380, magari avrà quello della gtx360 oppure magari per ragioni tecniche non riusciranno manco a farlo....chissa vedremo, certo che un 20% di prestazioni in piu' non sono un granchè per una vga che nvida avrebbe voluto lanciare alla modica cifra di 599$ (vedi gtx280 al lancio); direi che dovrà studiare per bene i margini di guadagno perchè a mio avviso la nuova single gpu nvida dovrà avere un prezzo compreso tra i 370$ della 5870 e i presunti 550$ della 5870x2
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.