View Full Version : ATI R600 cosa ne pensate?
OverdeatH86
11-03-2006, 22:59
cosa ne pensate delle caratteristiche d R600:
65nm
64 Shader pipelines (Vec4+Scalar)
32 TMU's
32 ROPs
128 Shader Operations per Cycle
800MHz Core
102.4 billion shader ops/sec
512GFLOPs for the shaders
2 Billion triangles/sec
25.6 Gpixels/Gtexels/sec
256-bit 512MB 1.8GHz GDDR4 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
WGF2.0 Unified Shader
...sapete le specifiche di G80? in teoria dovrebbe uscire verso giugno il G80
...sapete le specifiche di G80? in teoria dovrebbe uscire verso giugno il G80
Si dice che G80 sarà ancora a shader separati.
KenMasters
11-03-2006, 23:09
assolutamente mostruosa stando a queste specifiche :)
se la g80 venisse presentata e commercializzata a giugno le varie 7900gt/gtx sarebbero la schede con la vita meno lunga nella storia di nvidia...minch.. 3 mesi :eek:
assolutamente mostruosa stando a queste specifiche :)
Peccato che queste specifiche siano online da ormai più di un anno e siano del tutto infondate.
Su G80, che avrà ancora unità specifiche, è praticamente certo visto che Kirk in persona ha dichiarato di trovare, attualmente, quelle unificate premature.
OverdeatH86
11-03-2006, 23:20
sn uscite le samsing a 3ghz mi pare potrebbero metterle su :D certo ke 32tmu e 32rops sn un macello...se fosse veramente cosi sarebbe un bel salto d prestazioni :sofico:
Dark Schneider
11-03-2006, 23:48
Sono caratteristiche smentite da molto tempo.
In ogni caso G80 e R600 non arriveranno prima dell'autunno 2006. Insomma c'è da aspettare ancora un po' di mesi per le vga DX10.
ciondolo
11-03-2006, 23:52
il prossimo autunno ci saranno gia' le schede video dx 10 ?
per i giochi ottimizzati si andra' a 2007 inoltrato credo...?
Athlon 64 3000+
12-03-2006, 14:21
il prossimo autunno ci saranno gia' le schede video dx 10 ?
per i giochi ottimizzati si andra' a 2007 inoltrato credo...?
per vedere i primi veri motori grafici Dx 10 arriveranno non prima di 2 anni dall'arrivo sul mercato di G80 e R600.
Dark Schneider
12-03-2006, 14:47
il prossimo autunno ci saranno gia' le schede video dx 10 ?
per i giochi ottimizzati si andra' a 2007 inoltrato credo...?
Giochi che sfruttano come si deve le Dx10 usciranno dopo un paio d'anni dalla loro immissione. Ovviamente qlc gioco che però supporterà qlc effetto DX10 uscirà prima. Tipo Crysis della Crytek(quelli di FC), il nuovo motore è basato pesantemente sulle DX9, ma supporterà anche alcuni effetti DX10 per le vga DX10. :) Infatti ci sarà un path DX9 ed uno DX10. Penso sarà uno dei giochi che uscirà e mostrerà un po' la qualità delle prime vga DX10. Ma per un uso pesante bisognerà attendere un po'. E' sempre stato così.
Naturalmente è logico che una scheda cmq pensata per le librerie DX10 cmq si mangerà applicazioni DX9 come fosse niente. :D
La cosa interessante sarà l'architettura ad esempio di R600 con le unità shader unificate. Avrà un efficenza molto superiore alle attuali vga. Probabilmente vedremo un raddoppio prestazionale rispetto alle Top di oggi. :)
Personalmente son molto curioso di vedere queste nuove architetture.
Ormai la potenza delle vga aumenta in maniera sempre più veloce. :)
OverdeatH86
12-03-2006, 15:01
Giochi che sfruttano come si deve le Dx10 usciranno dopo un paio d'anni dalla loro immissione. Ovviamente qlc gioco che però supporterà qlc effetto DX10 uscirà prima. Tipo Crysis della Crytek(quelli di FC), il nuovo motore è basato pesantemente sulle DX9, ma supporterà anche alcuni effetti DX10 per le vga DX10. :) Infatti ci sarà un path DX9 ed uno DX10. Penso sarà uno dei giochi che uscirà e mostrerà un po' la qualità delle prime vga DX10. Ma per un uso pesante bisognerà attendere un po'. E' sempre stato così.
Naturalmente è logico che una scheda cmq pensata per le librerie DX10 cmq si mangerà applicazioni DX9 come fosse niente. :D
La cosa interessante sarà l'architettura ad esempio di R600 con le unità shader unificate. Avrà un efficenza molto superiore alle attuali vga. Probabilmente vedremo un raddoppio prestazionale rispetto alle Top di oggi. :)
Personalmente son molto curioso di vedere queste nuove architetture.
Ormai la potenza delle vga aumenta in maniera sempre più veloce. :)
speriamo ke anke le cpu s diano una mossa x igiochi..
speriamo ke anke le cpu s diano una mossa x igiochi..
anche i programmatori direi, che inizino a sfruttare bene i 64bit e i dual core.
anche i programmatori direi, che inizino a sfruttare bene i 64bit e i dual core.
con tutta la potenza messa a disposizione dalle Gpu e dalle Cpu, i programmatori, alla fin fine, sono quelli che "lavorano di meno" nel senso dell'ottimizzazione intendo, rilasciano motori pesantissimi tanto poi ci pensa la vga....
ciondolo
12-03-2006, 16:09
con tutta la potenza messa a disposizione dalle Gpu e dalle Cpu, i programmatori, alla fin fine, sono quelli che "lavorano di meno" nel senso dell'ottimizzazione intendo, rilasciano motori pesantissimi tanto poi ci pensa la vga....
quoto
OverdeatH86
12-03-2006, 16:36
con tutta la potenza messa a disposizione dalle Gpu e dalle Cpu, i programmatori, alla fin fine, sono quelli che "lavorano di meno" nel senso dell'ottimizzazione intendo, rilasciano motori pesantissimi tanto poi ci pensa la vga....
si è vero!! quoto!! :rolleyes:
con tutta la potenza messa a disposizione dalle Gpu e dalle Cpu, i programmatori, alla fin fine, sono quelli che "lavorano di meno" nel senso dell'ottimizzazione intendo, rilasciano motori pesantissimi tanto poi ci pensa la vga....
Devi considerare più fattori:
a) Proprio l'uscita continua di nuove componenti, se da una parte aumentano la potenza semplicando la vita ai programmatori, dall'altra gli e la complicano dato che devono rendere l'engine compatibile con sempre più prodotti e prendere in pochi mesi la mano con nuove feature e architetture.
b) Mentre su console l'hardware è uno solo, monomarca, e non cambia per cinque anni, su PC invece ci sono più prodotti, vecchi e recenti, di più produttori.
c) Meno del 5% degli utenti possiede un PC medio-alto, la stragrande maggioranza (quasi tutti, oltre l'80%) possiede un PC antiquato. Se creassero engine concentrandosi sulle GPU High End, per di più recenti, le vendite calerebbero in modo consistente.
desmacker
12-03-2006, 21:26
cosa ne pensate delle caratteristiche d R600:
65nm
64 Shader pipelines (Vec4+Scalar)
32 TMU's
32 ROPs
128 Shader Operations per Cycle
800MHz Core
102.4 billion shader ops/sec
512GFLOPs for the shaders
2 Billion triangles/sec
25.6 Gpixels/Gtexels/sec
256-bit 512MB 1.8GHz GDDR4 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
WGF2.0 Unified Shader
...sapete le specifiche di G80? in teoria dovrebbe uscire verso giugno il G80
Finalmente i 65nm,l'R600 deve essere questo per forza altrimenti niente cambio VGA. :D
Finalmente i 65nm,l'R600 deve essere questo per forza altrimenti niente cambio VGA. :D
Perché, tu valuti la bontà di una GPU dal processo produttivo? Secondo te NV30 è migliore di R300, dato che il primo è a 130nm mentre il secondo a 150nm? :rolleyes:
OverdeatH86
12-03-2006, 21:59
almeno s spera ke cn i 65nm diminuiscano i consumi.....
desmacker
12-03-2006, 22:00
Perché, tu valuti la bontà di una GPU dal processo produttivo? Secondo te NV30 è migliore di R300, dato che il primo è a 130nm mentre il secondo a 150nm? :rolleyes:
Hai messo le GPU sbagliate dovevi metter invece la G70 110nm al posto dell'NV30
e R580 90nm al posto dell'R300 .Per fare GPU esagerate si deve per forza scendere di scala per evitare temperature di esercizio al limite del collasso e costi di produzione da crack finanziario.
Secondo te con tutta quella complessita si riesce arrivare a quelle frequenze rimanendo a 90nm ?
Per me no. ciao
Dark Schneider
12-03-2006, 22:15
Quelle caratteristiche vanno in giro dai tempi del NV40(cmq ricordo ancora non era uscito G70). Da un pezzo che son state smontate.
Ma non perchè impossibili. Semplicemente perchè qlc ha preso le specifiche dell'R500 di X-Box360...e le ha un po' pompate(visto R600 avrà praticamente la stessa architettura del chip x-box360). :doh:
Considerando che queste specifiche vanno in giro da oltre un anno..si può ben capire che è un po' assurdo pensare che con due anni di anticipo hanno finalizzato le specifiche.
processore86
12-03-2006, 22:24
certo che se riuscissero a fare una scheda del genere sarebbe un bel salto di prestazioni e consumi energetici....
OverdeatH86
13-03-2006, 00:04
be ma x voi cm potrebbero aumentare la potenza del chip escludendo l'aumento delle freqenze...aumentando le pipe/rops/pixel shader unit ecc...ke le porteranno d colpo a 32 mi pare un po esagerato.... visto cm pompano bene gia le 16 x me gia 20 bastano... :p
desmacker
13-03-2006, 01:00
certo che se riuscissero a fare una scheda del genere sarebbe un bel salto di prestazioni e consumi energetici....
Si è appunto per questo che penso che rimarrà un sogno irrealizzato. ;) E' più vicino ad un ipotetico R700 che R600.
Devi considerare più fattori:
c) Meno del 5% degli utenti possiede un PC medio-alto, la stragrande maggioranza (quasi tutti, oltre l'80%) possiede un PC antiquato. Se creassero engine concentrandosi sulle GPU High End, per di più recenti, le vendite calerebbero in modo consistente.
infatti io sostengo il contrario, ovvero che l'industria dei VG per star dietro al mercato (ad esempio molti giochi hanno l'uscita imposta dalla controparte in celluloide al cinema) rilasciano dei motori che faticano a girare anche su pc di fascia alta, figuriamoci su quelli che di fascia alta non sono. Si sta smarrendo una caratteristica importante: la scalabilità dell'engine.
Ho i miei dubbi che R600 venga prodotto a 65 nm. Se lo fosse sarei piacevolmente stupito. Penso un più abbordabile 80nm come processo produttivo.
Ho i miei dubbi che R600 venga prodotto a 65 nm. Se lo fosse sarei piacevolmente stupito. Penso un più abbordabile 80nm come processo produttivo.
Il sato da 90 a 65nm è relativamente semplice, e meno traumatico e complesso di quello da 130 a 90nm.
Si è appunto per questo che penso che rimarrà un sogno irrealizzato. ;) E' più vicino ad un ipotetico R700 che R600.
Io non ci vedo niente di particolarmente assurdo. In pratica è quasi un R500*2, il che è possibilissimo. Considerando che R580 ha 48 Pixel Processor più 8 Vertex Unit, non vedo perché R600 non possa avere 96ALU (il doppio di R500). Ci sarebbe un quasi raddoppio della complessità, ma lo si è visto anche da NV30-R300 a NV40-R420, in cui il numero di unità è raddoppiato (nel caso NV40 quadruplicato).
Ovviamente, però, c'è da considerare il fattore temporale che ribalta quanto detto appena sopra. R580 è attualmente il massimo della complessità che si può chiedere (384 mln di transistor per 352 mm² del die, nonostante il processo produttivo a 90nm). Per un salto come descritto prima servirebbe un distacco di almeno un anno abbondante. E se R600 uscirà effettivamente questo Autunno, difficilmente potrà proporre un raddoppio di complessità.
Comunque considerando che R500, per 48ALU, ha 250 mln di transistor circa; R600 per avere 96ALU dovrebbe averne circa quasi il doppio, cioè 500 mln. Un salto da 384 a 500 mln (un 30% circa in più) non mi sembra impossibile, anche in tempi ristretti, per una (realmente) nuova generazione (in tutto). Soprattutto considerando che, con il salto da 90 a 65nm, se realmente vi sarà, si avrà a parità di dimensioni del die un 27-28% in più di complessità.
Sulle memorie dubito vengano usate da 1.8Ghz, ma ben più veloci (sopra i 2 Ghz).
desmacker
14-03-2006, 00:09
Io non ci vedo niente di particolarmente assurdo. In pratica è quasi un R500*2, il che è possibilissimo. Considerando che R580 ha 48 Pixel Processor più 8 Vertex Unit, non vedo perché R600 non possa avere 96ALU (il doppio di R500). Ci sarebbe un quasi raddoppio della complessità, ma lo si è visto anche da NV30-R300 a NV40-R420, in cui il numero di unità è raddoppiato (nel caso NV40 quadruplicato).
Ovviamente, però, c'è da considerare il fattore temporale che ribalta quanto detto appena sopra. R580 è attualmente il massimo della complessità che si può chiedere (384 mln di transistor per 352 mm² del die, nonostante il processo produttivo a 90nm). Per un salto come descritto prima servirebbe un distacco di almeno un anno abbondante. E se R600 uscirà effettivamente questo Autunno, difficilmente potrà proporre un raddoppio di complessità.
Comunque considerando che R500, per 48ALU, ha 250 mln di transistor circa; R600 per avere 96ALU dovrebbe averne circa quasi il doppio, cioè 500 mln. Un salto da 384 a 500 mln (un 30% circa in più) non mi sembra impossibile, anche in tempi ristretti, per una (realmente) nuova generazione (in tutto). Soprattutto considerando che, con il salto da 90 a 65nm, se realmente vi sarà, si avrà a parità di dimensioni del die un 27-28% in più di complessità.
Sulle memorie dubito vengano usate da 1.8Ghz, ma ben più veloci (sopra i 2 Ghz).
Gira e rigira si torna al discorso dei 65nm mi rendevano particolarmente interessato :D ,però con tutta quella complessità si rischierebbe di essere costretti a mantenere il dissipatore dualslot e non arrivare alla frequenza di 800 mhz del core,causa un consumo di corrente superiore all'R580 e di conseguenza temperature di esercizio elevate,quindi il vantaggio di passare ai 65nm non porterebbe con se una diminuzione di richieste energetiche. :muro:
Gia con l'R580 si può vedere questo problema dove i 90nm sono obbligatori per rendere la GPU commerciabile,mentre il G71 rispetto al G70 riducendo di poco la complessità è riuscito con i 90nm a ridurre i consumi energetici,anche perchè in partenza il G70 era meno complesso dell'R580.
con tutta la potenza messa a disposizione dalle Gpu e dalle Cpu, i programmatori, alla fin fine, sono quelli che "lavorano di meno" nel senso dell'ottimizzazione intendo, rilasciano motori pesantissimi tanto poi ci pensa la vga....
$£"%$"%$%"£!^!^$^^"!"!£%$!
$£"%$"%$%"£!^!^$^^"!"!£%$!
:D
$£"%$"%$%"£!^!^$^^"!"!£%$!
:confused: :confused:
:confused: :confused:
Credo che voglia dire che lui (essendo programmatore di videogiochi) non abbia trovato semplicita' con l'avanzare di queste tecnologie. :D;)
Foglia Morta
14-03-2006, 15:06
Credo che voglia dire che lui (essendo programmatore di videogiochi) non abbia trovato semplicita' con l'avanzare di queste tecnologie. :D;)
ho un altra teoria: i programmatori spendono molto tempo per ottimizzare il software per le gpu più diffuse nel mercato nel momento in cui deve uscire il gioco. Mi pare l'abbia detto diverse volte e gli viene un colpo leggere certe cose :D
desmacker
14-03-2006, 16:22
con tutta la potenza messa a disposizione dalle Gpu e dalle Cpu, i programmatori, alla fin fine, sono quelli che "lavorano di meno" nel senso dell'ottimizzazione intendo, rilasciano motori pesantissimi tanto poi ci pensa la vga....
Ne sei davvero convinto o stai scherzando ? :mbe:
Dark Schneider
14-03-2006, 18:10
La realtà è che il programmatore ottimizza eccome. Soltanto non è come nelle console, dove l'hardware è quello per un tot anni e quindi è più facile svilupparci, sfruttare l'hardware ed ottimizzarlo.
Su Pc i programmatori sviluppano su almeno una dozzina di macchine, di potenza bassa, media ed alta. Su pc ci sono anche tanti chip video, ognuno con architetture differenti, ognuno con i pro e contro e così via...!! Quindi devono ottimizzare su tante configurazioni diifferenti. Non è lavoro da poco. Senza considerare che spesso ci sono anche tempi da rispettare.
Il fatto che ci sono tanti chip video da supportare e con cui un determinato gioco deve funzionare non è cosa che deve essere sottovalutata. Un esempio: ci sono tantissimi possessori di GeForce FX, che come tutti sanno è stata una serie sfortunata. Ma sfigata o meno, tutti i possessori di FX che sono molti devono essere supportati perchè in ogni caso sono potenziali acquirenti del gioco. Un programmatore dovrà fare dei salti mortali per rendere il gioco gradevole e giocabile nonostante i limiti di architettura che non aiutano di certo.
E' poi cmq oggi anche chi ha chessò una Radeon 9800Pro gioca bene, basta che abbassa i dettagli e gioca a tutto. Non a caso su Pc c'è la scalabilità.
La verità è che l'utente tutte queste cose non le considera e vorrebbe sempre vedere il suo Pc ben comportarsi in tutte le situazioni. Quindi l'abbassare dei dettagli, subito fa pensare "è stato programmato male".
$£"%$"%$%"£!^!^$^^"!"!£%$!
Sogno o son destro? :D
Ne sei davvero convinto o stai scherzando ? :mbe:
sono serio, prova a giocare a Vietcong2 e poi mi dici se è stato fatto un buon lavoro ;)
non ho niente contro i programmatori per carità, credo però che con le schede che abbiamo si dovrebbe giocare ad alto livello per lungo tempo, invece non accade e se vuoi fluidità devi abbassare i dettagli o spendere di nuovo.
Credo che voglia dire che lui (essendo programmatore di videogiochi) non abbia trovato semplicita' con l'avanzare di queste tecnologie. :D;)
non è mia intenzione offendere nessuno, mi piacerebbe solo che quando spendi 540 euro in una scheda poi tu possa avere una longevità a buon livello non ti dico come una console, ma quasi...
desmacker
14-03-2006, 20:47
sono serio, prova a giocare a Vietcong2 e poi mi dici se è stato fatto un buon lavoro ;)
non ho niente contro i programmatori per carità, credo però che con le schede che abbiamo si dovrebbe giocare ad alto livello per lungo tempo, invece non accade e se vuoi fluidità devi abbassare i dettagli o spendere di nuovo.
Non ho mai giocato a Vietgong2,ma ho giocato a molti fps incluso FEAR e i gli eventuali problemi,la maggiorparte delle volte derivano dalla scarsa ottimizzazione per la scheda da me posseduta, peraltro risolta dalle patch e driver e dalla pesantezza dei motori grafici sempre più esigenti e non dalla scarsa qualità della programmazione.
Se giochi al primo Vietgong sicuramente sarai fluido.
Per le console è un discorso diverso,molte volte i programmatori sono costretti ad ottimizzare troppo i videogiochi per farli girare bene rendendo il gioco qualitivamente inferiore rispetto alla versione per PC.
Questo problema è molto visibile con la PS1 non certo con l'Xbox360.
Bye
gli eventuali problemi,la maggiorparte delle volte derivano dalla scarsa ottimizzazione per la scheda da me posseduta, peraltro risolta dalle patch e driver e dalla pesantezza dei motori grafici sempre più esigenti e non dalla scarsa qualità della programmazione.
beh: patch, diver e motori grafici (purtroppo) non li faccio io.
Spesso le patch vengono fatte per tappare dei buchi in fase di primo rilascio.
Comunque il termine da me usato: programmatore, è magari non preciso, diciamo che voglio intendere coloro i quali realizzano un VG e leggendo i credits sono una quantità enorme di persone ;)
Ecco, tutte queste persone talvolta mettono in commercio un prodotto (che si paga 50 euro, indipendentemente dall'hardware che si possiede) e che può essere goduto al massimo solo da pochi.
desmacker
14-03-2006, 23:43
Ecco, tutte queste persone talvolta mettono in commercio un prodotto (che si paga 50 euro, indipendentemente dall'hardware che si possiede) e che può essere goduto al massimo solo da pochi.
Questo è il prezzo che devi pagare se vuoi un gioco alla massima qualità tecnicamente possibile,una qualità che le console non avranno mai... anche se per godertela appieno dovrai aspettare fino al prossimo aggiornamento. :muro: bye
non è mia intenzione offendere nessuno, mi piacerebbe solo che quando spendi 540 euro in una scheda poi tu possa avere una longevità a buon livello non ti dico come una console, ma quasi...
Beh dai, e' sempre stato cosi'. Ci sono giochi come ai tempi era GTA3 ad esempio che giravano "male" su tutte le schede, che fossero quelle da 500 euro o quelle da 100. Questo pero' non mi ha frenato a giocarci alla perfezione su giochi usciti magari un'anno dopo. Non e' il singolo titolo a farmi gridare allo scandalo.
Ci sono giochi in cui la complessita' grafica e' appesantita anche da altri fattori che determinano il frame rate finale e la scheda video magari puo' farci poco. La serie GTA ad esempio ha sicuramente molti altri fattori da tenere in considerazione durante il gioco, fattori quali intelligenza artificiale di ogni singolo passante, la gestione degli "eventi" che possono accadere senza alcune interazione del giocatore.
Magari sono fattori non a carico delle vpu ma comunque a carico del processore/ e che comunque comportano un ulteriore carico di lavoro.
Imho comunque siamo sempre alle solite: chi compra una scheda video da 600 euro deve rendersi conto che la stessa scheda non sara' mai "sfruttata" (anceh se questa parola in se vuol dire poco niente) da li a poco, ma la reale differenza la si vedra' mesi se non anni dopo quando tutte le altre che costavano la meta' saranno in seria difficolta e tu potrai effettivamente raccogliere i frutti dei soldi spesi. Io stesso ho speso 250 euro 3 anni or sono per la 9500@9700 (che per me gia' sono tanti, non ho mai voluto spendere piu' di queste cifre) e ancora ora ce l'ho sul pc principale. ;)
Un po' come capito' ai tempi con la GeForce3... piu' di un milione e passa di lire per una scheda che inizialmente girava uguale se non meno della GeForce2 Ultra nei titoli Directx7.x.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.