PDA

View Full Version : [THREAD UFFICIALE] Aspettando R700


Pagine : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

ArCH85
06-05-2008, 21:46
si queste erano le notizie di una volta :D

pare che gt200 si affiderà alle care vecchie gddr3 (ecco perchè secondo me il bus a 512bit, per questioni di banda) secondo il mio modesto parere per contenere i costi visto che pare abbiano problemi con i 55nm

magari dopo qualche mese uscirà gt202 con gddr5, bus 256 e 55nm...

il tutto ovviamente imho e basandomi sugli ultimi rumors assolutamente da confermare/smentire

io son d'accordo con te... una 9950GTX probabilmente :D

(visto che a nVidia il numero 10000 non piace a quanto sembra :asd: )

nico88desmo
06-05-2008, 22:30
io son d'accordo con te... una 9950GTX probabilmente :D

(visto che a nVidia il numero 10000 non piace a quanto sembra :asd: )

O lo vuole tenere per le DX11 ;)

Comunque spero che questo RV770 sia molto competitivo

Athlon 64 3000+
06-05-2008, 22:37
io mi sa che farei bene ad aspettare una gpu dx11 visto che con la HD 2900XT vado ancora alla grande.
Vedremo come andrà RV770.

Kharonte85
06-05-2008, 23:05
[/b]

O lo vuole tenere per le DX11 ;)

Comunque spero che questo RV770 sia molto competitivo
Perche'? Hai intenzione finalmente di cambiare la fx5700? :asd:

io mi sa che farei bene ad aspettare una gpu dx11 visto che con la HD 2900XT vado ancora alla grande.
Vedremo come andrà RV770.
Pure io sono sulla stessa linea (ma con 8800gts g92)...per ora...:fagiano:

Anche perche' dubito che gli equilibri creati da queste architetture subiscano dei forti cambiamenti prima delle Dx11...magari AMD/ATI riguadagnera' un po' di competitivita', ma alla fine sia r700 che GT200 non saranno altro che versioni ingrossate e ritoccate di r600 e g80, la "filosofia di base" resta la stessa...per le sorprese vere dovremo attendere le dx11 [anche di averne effettivamente bisono pero' :fagiano: ]

Mercuri0
07-05-2008, 02:01
.per le sorprese vere dovremo attendere le dx11 [anche di averne effettivamente bisono pero' :fagiano: ]
Se l'andazzo si conferma ho paura che bisognerà aspettare la prossima next-gen di console.

(ormai è risaputo che i vari giochi DX10 di oggi sono porting "DX9" con solo qualche parte "pensata" in DX10, che li rende meno efficienti di quando potrebbero. Però sentire questa cosa detta direttamente da un ex ingegnere AMD su beyond 3d, con tanto di codice d'esempio, m'ha messo tristezza. Altro che DX11)

Imo le GPU su Pc possono evolversi solo fino a coprire la risoluzione degli schermi HD più spinti. Oltre bisognerà aspettare la next-gen di console, perché i giochi più di tanto non si evolveranno :(

Buh, magari AMD & nVidia tireranno fuori qualche applicazione GPGPU interessante... o magari nei prossimi 2 anni si arriverà al punto che basterà un IGP per far girare tutti i giochi su un portatile :D

p.s. di questa storia quello che mi fa rabbia è che se non c'è necessità di GPU spinte Intel riuscirà a stravendere il suo Larrabee anche fosse una mezza sega, "perché buono abbastanza". :mad:

Free Gordon
07-05-2008, 02:34
concretamente, in cosa si sarebbe rivelato vincente? no perchè a me pare che nel complesso, fino a 256bit, le 2 soluzioni di fatto si equivalgono


Il ringbus è almeno nell'70% dei casi più efficiente del vecchio crossbar (pensa alla differenza che c'è tra la rotatoria e il semaforo :D ) e lo è sempre di più al salire dei client (anche il Cell ad esempio, usa un ringbus), per cui imho con bus a 512bit sarà quasi obbligatorio... ;)
Ovviamente però i vantaggi nell'implementarlo dipendono effettivamente da quanto possa venir sfruttato.
In R520/580 è stato utile (mi viene in mente l'utilizzo che ne è stato fatto per velocizzare i motori ID, da sempre sviluppati su Nvidia), in R600 non ha portato alcun vantaggio perchè nessun gioco sfruttava quella banda mostruosa e soprattutto nessuno lo faceva nel mondo in cui voleva ATI (per gli SP soprattutto). I tempi non erano maturi per niente...

Pat77
07-05-2008, 07:43
Bhe non è detto che nel futuro prossimo a giochi maggiormente pensati per controller 512 non ne possa trarre benefici anche r600, che per me resta un'ottima scheda, soprattutto con fsaa 8x.
Io ripeto una top con controller 512 e GDDR5 non la vedo così utopistica, ma penso che uscirà prima a 256 bit e poi forse a 512.
Il problema di r600 fu che usarono lo stesso software pensato per i 256 bit.

HackaB321
07-05-2008, 08:03
concretamente, in cosa si sarebbe rivelato vincente? no perchè a me pare che nel complesso, fino a 256bit, le 2 soluzioni di fatto si equivalgono


Il ringbus riduce le latenze e, a parità di altri fattori, apporta consistenti vantaggi nella velocità di accesso alla memoria. E' chiaro che tutto questo ha un "costo" e che questo costo a 256bit si è dimostrato sostenibile perfettamente, a 512 bit decisamente no.
Questo "vantaggio" al crescere della risoluzione (senza AA) è visibile in alcuni casi confrontando G92 con RV670 (dove le riduzioni percentuali dei frame non sono proprio le stesse) ma nella maggior parte dei casi i limiti di texture e z fillrate di Rv670 frenano questa architettura prima che i potenziali vantaggi del ringbus diventino visibili.

Athlon 64 3000+
07-05-2008, 08:27
c'è anche da dire che la banda passante di R600 con il controller a 512 bit che è di oltre 100 gb/s era sovradimensionata per la gpu stessa.
Infatto la HD 3870 con le gddr4 ha 72 gb/s è sono più che sufficienti per la gpu.

Pat77
07-05-2008, 08:50
c'è anche da dire che la banda passante di R600 con il controller a 512 bit che è di oltre 100 gb/s era sovradimensionata per la gpu stessa.
Infatto la HD 3870 con le gddr4 ha 72 gb/s è sono più che sufficienti per la gpu.

:D magari in futuro la sfrutti, non sei contento? ;)

Athlon 64 3000+
07-05-2008, 09:42
:D magari in futuro la sfrutti, non sei contento? ;)

Meglio se mi ottimizzeranno in futuro il controller a 512 bit ring bus della mia HD 2900XT

Pat77
07-05-2008, 09:58
Bhe in questo caso devi sperare a un passaggio ai 512 Bit :cool:
R700 secondo qualche illazione potrebbe in versione top, sperare non costa nulla, magari viene fuori un controller innovativo come fu quello di 9700 pro.

Foglia Morta
07-05-2008, 10:01
il controller di memoria interno ( ringbus ) di R600 è a 1024bit , quello di RV670 512bit. State confondendo il bus interno con quello esterno

Pat77
07-05-2008, 10:10
Lo so, ma convenzionalmente si intende il bus esterno, 3870 256bit, 2900xt 512bit, poi è vero che internamente vanno il doppio, mi pare però che con nvidia questo non succeda, per cui si preferisce prendere come dato quello di cui stiamo parlando.

Mercuri0
07-05-2008, 10:11
Una conferma su i 480 shaders?

Il boss di folding@home s'è lasciato scappare l'informazione.
http://foldingforum.org/viewtopic.php?f=42&t=2454#p22137

Resta da capire se lui abbia avuto accesso a qualche info particolare, o se i rumors si sono inculcati anche nella sua testa. :D

Ci sta che a meno di cataclismi i 480/32/16 siano le specifiche più probabili.

Mercuri0
07-05-2008, 10:15
Bhe non è detto che nel futuro prossimo a giochi maggiormente pensati per controller 512 non ne possa trarre benefici anche r600,
Non penso proprio che i programmatori si preoccupino di pensare/ottimizzare i giochi per il numero di bit di bus alla memoria.

Di certo si preoccupano della banda, ma dei bit... probabilmente non hanno modo per farlo neanche volessero.

Anche perché non so perché ci si ostini a parlare continuamente in termini di bit anziché di banda.

Mi spiegate perché 512bit a 1ghz dovrebbero essere meglio di 256 a 2ghz? Se ci sono mi aspetto differenze più teoriche che pratiche. o no? (domanda sincera)

Pat77
07-05-2008, 10:22
:cool: ma il controller dalle x19xx in poi è programmabile, inoltre quello a 512 Bit ha anche differenze di funzionamento che ora non ricordo nello specifico che lo rendono un po' più complesso da sfruttare (riguardano le "fermate" dei dati se non ricordo male).
Nessuna differenza, ma con le stesse ram identiche potresti avere il doppio della banda e più efficenza, fu il grande cruccio ai tempi di nv30 (128 bit a 1 Ghz per pareggiare i 256 bit di ati) poi si preferì passare in massa ai 256 bit.
Ora per me gddr5 e controller a 512 bit, presto o tardi, convoleranno a nozze ;)

_morghan_1968
07-05-2008, 10:24
:cool: ma il controller dalle x19xx in poi è programmabile, inoltre quello a 512 Bit ha anche differenze di funzionamento che ora non ricordo nello specifico che lo rendono un po' più complesso da sfruttare (riguardano le "fermate" dei dati se non ricordo male).
Nessuna differenza, ma con le stesse ram identiche potresti avere il doppio della banda e più efficenza, fu il grande cruccio ai tempi di nv30 (128 bit a 1 Ghz per pareggiare i 256 bit di ati) poi si preferì passare in massa ai 256 bit.
Ora per me gddr5 e controller a 512 bit, presto o tardi, convoleranno a nozze ;)

quoto !!!

Mercuri0
07-05-2008, 10:45
Nessuna differenza, ma con le stesse ram identiche potresti avere il doppio della banda e più efficenza
Nessuna differenza, ma con le stessa identica ampiezza di bus potresti avere il doppio della banda e più efficienza. :)

Appunto è un discorso di banda&efficienza, non di bit di bus. I progettisti faranno la scelta migliore (legata anche alle tecnologie del momento) tra bit e frequenza.

Perché vi fa più figo "512bit" che non 16bit a interconnessioni ottiche? :D

Molto dipenderà comunque anche dall'evoluzione che avranno i giochi: potrebbe anche darsi che il collo di bottiglia si sposti dalla memoria alla capacità di calcolo degli SP.

HackaB321
07-05-2008, 10:53
Non penso proprio che i programmatori si preoccupino di pensare/ottimizzare i giochi per il numero di bit di bus alla memoria.

Di certo si preoccupano della banda, ma dei bit... probabilmente non hanno modo per farlo neanche volessero.

Anche perché non so perché ci si ostini a parlare continuamente in termini di bit anziché di banda.

Mi spiegate perché 512bit a 1ghz dovrebbero essere meglio di 256 a 2ghz? Se ci sono mi aspetto differenze più teoriche che pratiche. o no? (domanda sincera)

Esatto. Le differenze sono trascurabili se il confronto viene fatto tra tipi diversi di memoria (a causa delle diverse latenze), sono praticamente inesistenti se il tipo di memoria è lo stesso.

:cool: ma il controller dalle x19xx in poi è programmabile, inoltre quello a 512 Bit ha anche differenze di funzionamento che ora non ricordo nello specifico che lo rendono un po' più complesso da sfruttare (riguardano le "fermate" dei dati se non ricordo male).
Nessuna differenza, ma con le stesse ram identiche potresti avere il doppio della banda e più efficenza, fu il grande cruccio ai tempi di nv30 (128 bit a 1 Ghz per pareggiare i 256 bit di ati) poi si preferì passare in massa ai 256 bit.
Ora per me gddr5 e controller a 512 bit, presto o tardi, convoleranno a nozze ;)

Penso tardi. 256bit+GDDR5 metteranno a disposizione una banda sufficiente per i giochi dei prossimi 2 anni almeno a livello di fascia media. Mia opinione. Anche perchè la banda (per non parlare del solo bus) è il parametro più sopravvalutato nella valutazione delle schede odierne.
Il bus a 512bit fu messo su R600 soprattutto pensando a finalità di GPGPU della scheda (oltre che per un'errata previsione di evoluzione dei giochi e per finalità di puro marketing), e in ogni caso si è trattato di un grosso errore.

Pat77
07-05-2008, 11:09
Non lo so, ok i 256 bit oggi, ok anche domani con gddr5, ma la top di gamma io la vedo già a 512, è il passo più logico ed è bello li che pronto imho.
Il bus comunque non dovrebbe essere mai un collo di bottiglia, dipenderà anche dalle nuove mirabolanti modalità di FSAA e come verrà sfruttato il futuro bus e come inciderà sul tutto.
A volte bus inferiore (7600) ha dato riusultati migliori anche di bus con ampiezza doppia (6800).
Eppoi sì, fa figo dire io ce l'ho a 512 Bit.
Ovviamente scherzo ;)

nico88desmo
07-05-2008, 11:44
Perche'? Hai intenzione finalmente di cambiare la fx5700? :asd:

[cut]

Con la prossima generazione cambierò sicuramente il pc completamente con l'uscita di nehalem ;)

Sicuramente non attenderò le Dx11. Ci mancherebbe!!!
Avrei già cambiato pc se avessi potuto :( , e di attendere ancora non ci penso proprio ;)
Quindi la prossima gen. è quella buona per me eh eh! :D

Pat77
07-05-2008, 12:13
Bhe ora costa tutto poco, non ricordo momento migliore sinceramente.

Pat77
07-05-2008, 12:56
Faccio presente che le GDDR5 hanno la possibilità di arrivare a 6GHz in produzione (con immagino ulteriori margini con sampling e overclock, un po' come per la 8800Ultra sono le GDDR3).

6GHz con un bus a 256bit vogliono dire quasi 200 GB/s, prima di almeno due anni questo valore sarà più che sovrabbondante e per quel tempo non credo sia difficile ipotizzare i primi sample GDDR6 che spingano il limite oltre...

:) ottimo, ma come mai tutte ste remore su un controller più ampio, a me sembra la cosa più logica anche per bilanciare il tutto.

HackaB321
07-05-2008, 13:01
:) ottimo, ma come mai tutte ste remore su un controller più ampio, a me sembra la cosa più logica anche per bilanciare il tutto.

Perchè il bus più ampio occupa spazio che può essere usato/risparmiato per altro, raggiungendo l'aumento della banda attraverso un più semplice aumento delle frequenze.

Pat77
07-05-2008, 13:07
Pienamente concorde, finchè la baracca regge ;)

gervi
07-05-2008, 15:00
Perchè il bus più ampio occupa spazio che può essere usato/risparmiato per altro, raggiungendo l'aumento della banda attraverso un più semplice aumento delle frequenze.

quoto, transistor sottratti per i 512 bit, in favore di pi+ core o texture unit magari, cosi con 256 bit e gddr5 ultra veloci, si ottengono risutati medesimi di banda, ( se non superiori, con gddr5 già da 5 Ghz)

Pat77
07-05-2008, 15:06
Per colpa di Fudzilla, che si ostina ad associare i 512bit di R700 a RV770 ;)

Ma quindi r700 è confermata 512 bit?

Kharonte85
07-05-2008, 15:14
Ma quindi r700 è confermata 512 bit?
No...R700 è piu' probabile che sara' un 256bit x2 visto che secondo i rumors sara' la versione x2 dell' rv770....

Pat77
07-05-2008, 15:37
No...R700 è piu' probabile che sara' un 256bit x2 visto che secondo i rumors sara' la versione x2 dell' rv770....

Ok grazie per la spiegazione.

Catan
07-05-2008, 17:12
:) ottimo, ma come mai tutte ste remore su un controller più ampio, a me sembra la cosa più logica anche per bilanciare il tutto.

guarda chi come me ha avuto un r600 sa i pregi e i difetti del bus a 512 o cmq in generale.

il difetto nvidia è che continuando ad utilizzare un archidettura crossbar deve aumentare in modo pazzesco i contatti diretti a ogni blocco di mememoria da 32...il che vuol dire 16 blocchi di ram da 32 o 64mb ( a seconda del taglio di memoria da 512mb o 1024) ogni uno con un canale da 32bit diretto...
il che vuol dire pcb mostruosamente grossi, lunghi e costosi.
ma infondo una volta realizzato tecnicamente non è un problema da programmare.

ati invece con la sua archidettura a ringbus programmabile fare un bus a 512bit non è un problema tecnico quanto programmabile, un bus a 512bit esterni verso la memoria e 1024bit interni è un casino da programmare, ha un numero di ringstop molto + elevato rispetto a uno a 256bit di ampiezza esterna e 512bit interni (controler di rv670).
di fatti i programmatori ati con l'esperienza di r600 hanno visto che un bus a 256bit con delle gddr4-5 elevato da banda sufficente.
in modo da semplificare anche la programmazione dei dvr, visto che gia far lavorare in maniera ottimale tutte le sp di r600 e archidetture derivate non è semplice, cosi se no i programmatori dovevano ammazzarsi a programmare sia il ringbus che il core.
in questa maniera utilizzano per il ringbus l'esperienza maturata con r520-580-rv670, e si concentrano sull'ottimizazione del core.

Pat77
07-05-2008, 17:25
guarda chi come me ha avuto un r600 sa i pregi e i difetti del bus a 512 o cmq in generale.

il difetto nvidia è che continuando ad utilizzare un archidettura crossbar deve aumentare in modo pazzesco i contatti diretti a ogni blocco di mememoria da 32...il che vuol dire 16 blocchi di ram da 32 o 64mb ( a seconda del taglio di memoria da 512mb o 1024) ogni uno con un canale da 32bit diretto...
il che vuol dire pcb mostruosamente grossi, lunghi e costosi.
ma infondo una volta realizzato tecnicamente non è un problema da programmare.

ati invece con la sua archidettura a ringbus programmabile fare un bus a 512bit non è un problema tecnico quanto programmabile, un bus a 512bit esterni verso la memoria e 1024bit interni è un casino da programmare, ha un numero di ringstop molto + elevato rispetto a uno a 256bit di ampiezza esterna e 512bit interni (controler di rv670).
di fatti i programmatori ati con l'esperienza di r600 hanno visto che un bus a 256bit con delle gddr4-5 elevato da banda sufficente.
in modo da semplificare anche la programmazione dei dvr, visto che gia far lavorare in maniera ottimale tutte le sp di r600 e archidetture derivate non è semplice, cosi se no i programmatori dovevano ammazzarsi a programmare sia il ringbus che il core.
in questa maniera utilizzano per il ringbus l'esperienza maturata con r520-580-rv670, e si concentrano sull'ottimizazione del core.

Condivido la tua analisi, fui uno dei primi ad avere la hd2900 XT, hai ragione è difficile programmare il controller (soprattutto se lo programmi passivamente utilizzando gli stessi principi di quello a 256 bit raddoppiando i fattori senza ottimizzarne il funzionamento).
Ma quella fu la prima implementazione, prima o poi ci ritenteranno credo ;)
Io non abbandonerei questa strada, nel senso ok mettiamoci più tmu, rops e SP e condiamo il tutto con GDDR5 a frequenze mostruose aumentando nel contempo anche la velocità degli SP, il prossimo passo però sarà aumentare l'ampiezza del controller, magari in una ultra top.
Comunque vedremo, è sempre bello parlare del nulla con voi ragazzi ;)

Faustinho DaSilva
08-05-2008, 00:56
Condivido la tua analisi, fui uno dei primi ad avere la hd2900 XT, hai ragione è difficile programmare il controller (soprattutto se lo programmi passivamente utilizzando gli stessi principi di quello a 256 bit raddoppiando i fattori senza ottimizzarne il funzionamento).
Ma quella fu la prima implementazione, prima o poi ci ritenteranno credo ;)
Io non abbandonerei questa strada, nel senso ok mettiamoci più tmu, rops e SP e condiamo il tutto con GDDR5 a frequenze mostruose aumentando nel contempo anche la velocità degli SP, il prossimo passo però sarà aumentare l'ampiezza del controller, magari in una ultra top.se ci metti tutta sta roba magari avrebbe senso il bus più ampio se no :hic: magari rimane un collo di bottiglia:D
Comunque vedremo, è sempre bello parlare del nulla con voi ragazzi ;)

:asd:

HackaB321
08-05-2008, 07:24
Niente di nuovo, postato solo per dovere di rumor: release date 31 maggio è un pò troppo vicino....
Interessantissima la 4850 se davvero avesse 110w di consumo massimo (anche se resto molto scettico)


ATi Radeon HD 4870

Manufacturer: ATi
Series: Radeon HD 4k
GPU: RV770
Release Date: 2008-05-31
Interface: PCI-E 2.0 x16
Core Clock: 850 MHz
Shader Clock: 1050 MHz
Memory Clock: 1935 MHz (3870 DDR)
Memory Bandwidth: 123.84 GB/sec
FLOPS: 1008 GFLOPS
Pixel Fill Rate: 13600 MPixels/sec
Texture Fill Rate: 27200 MTexels/sec
Max Power Draw: 150 W
Noise Level: ?
Framebuffer: 1024 MB
Memory Type: GDDR5
Memory Bus Type: 32x8 (256 bit)
DirectX Compliance: 10.1
OpenGL Compliance: 2.1
PS/VS Version: 4.1/4.1
Process: 55 nm
Shader Processors: 480
Pipeline Layout: ?
Texture Units: 32
Raster Operators 16


ATi Radeon HD 4850 GDDR3

Manufacturer: ATi
Series: Radeon HD 4k
GPU: RV770
Release Date: 2008-05-31
Interface: PCI-E 2.0 x16
Core Clock: 650 MHz
Shader Clock: 850 MHz
Memory Clock: 1143 MHz (2286 DDR)
Memory Bandwidth: 73.152 GB/sec
FLOPS: 816 GFLOPS
Pixel Fill Rate: 10400 MPixels/sec
Texture Fill Rate: 20800 MTexels/sec
Max Power Draw: 110 W
Noise Level: ?
Framebuffer: 512 MB
Memory Type: GDDR3
Memory Bus Type: 32x8 (256 bit)
DirectX Compliance: 10.1
OpenGL Compliance: 2.1
PS/VS Version: 4.1/4.1
Process: 55 nm
Shader Processors: 480
Pipeline Layout: ?
Texture Units: 32
Raster Operators 16

http://www.gpureview.com/show_cards.php?card1=566&card2=564

Faustinho DaSilva
08-05-2008, 08:16
quindi alla fine le rops dovrebbero rimanere 16?

Mercuri0
08-05-2008, 09:27
cancello per doppio post (non so cosa sia successo)

Freisar
08-05-2008, 09:30
Basta che si decidiano a rilsciare date e caratteristiche ufficiali.


PS:secondo voi l'E4300 limiterà la HD4850?

Mercuri0
08-05-2008, 09:31
Queste specifiche sembrano verisimili. Dai numeri sembrerebbe che anche la 4850 possa giocarsela con la 9800GTX con circa il 30% in meno di TDP (!). Però il texture fillrate di R770 è ancora basso rispetto a G92, spero che alla AMD si siano fatti bene i loro conti.

Oltre che i 110watt a carico per la 4850, sono curiosissimo di vedere cosa succede in idle. I rumor erano < 10 watt (praticamente la scheda si spegne), ma penso valessero per le schede con memoria GDDR5.

palla di vetro: la 4870 in idle consumerà meno della 4850! :)

Notevole anche il teraflop di potenza di calcolo che raggiunge la 4870. Era l'obiettivo di Larrabee, che però esce tra due anni...

quindi alla fine le rops dovrebbero rimanere 16?
Anche G92 ne ha 16, no? il numero di per se non è un problema, e da questi rumor la 4850 raggiungerebbe il fill rate della 9800GTX.

Pat77
08-05-2008, 09:36
se ci metti tutta sta roba magari avrebbe senso il bus più ampio se no :hic: magari rimane un collo di bottiglia:D

:asd:

Bhe a parte le rops uguali è tutto dentro a quanto sembra, e se veritiere a naso mi sembra un buon prodotto, basandomi sulle mere specifiche tecniche, certo che non manca poi molto al lancio ma dati reali zero.

Vifani
08-05-2008, 09:50
Notevole anche il teraflop di potenza di calcolo che raggiunge la 4870. Per intenderci, era l'obiettivo di Larrabee, che però esce tra due anni...


Anche G92 ne ha 16, no? il numero di per se non è un problema.

Beh ma Larrabee non si sa se sarà propriamente un chip grafico come li intendiamo noi oggi.

Si anche G92 ne ha 16. Incrementare le ROP non ha molto senso considerando che le operazioni ad essere loro delegate sono sempre meno (specie se, come sembra sarà, l'AA sarà sempre più delegato alle shader unit).

Riguardo le TMU: un loro raddoppio a fronte di minor incremento delle unità di shading fa ben sperare (anche se si dice che le unità di shading lavoreranno a frequenza diversa dal core). Il rapporto dovrebbe, comunque, essere più favorevole alle TMU rispetto a RV670.

Mercuri0
08-05-2008, 10:10
Beh ma Larrabee non si sa se sarà propriamente un chip grafico come li intendiamo noi oggi.

Zi, ma la cosa è in peggio.
GPU di oggi: 1 teraflop di SP specializzati per il calcolo grafico + TMU e ROP
Larrabee: 1 teraflop di potenza di calcolo non meglio specializzata che forse deve fare anche da TMU....

E' possibile però che le specifiche di Larrabee varino prima dell'uscita.


Riguardo le TMU: un loro raddoppio a fronte di minor incremento delle unità di shading fa ben sperare (anche se si dice che le unità di shading lavoreranno a frequenza diversa dal core). Il rapporto dovrebbe, comunque, essere più favorevole alle TMU rispetto a RV670.
A me pare che i numeri della 4870 siano tutti più o meno doppi rispetto alla 3870. Il rapporto potenza di calcolo/TMU non è cambiato, a causa della maggior frequenza degli SP, ma il texture fillrate è raddoppiato rispetto alla 3870. Basterà?

Se alla AMD quelli che analizzano i giochi ci hanno preso bene, (invece di fare death match con UT :asd:. Non deve essere male come lavoro :D ) la 4870 potrebbe essere una sorpresa. Non è impossibile che in qualche sparuta circostanza la 4870 superi la GX2.

Mister Tarpone
08-05-2008, 10:59
ATi Radeon HD 4850 GDDR3

Manufacturer: ATi
Series: Radeon HD 4k
GPU: RV770
Release Date: 2008-05-31
Interface: PCI-E 2.0 x16
Core Clock: 650 MHz
Shader Clock: 850 MHz
Memory Clock: 1143 MHz (2286 DDR)
Memory Bandwidth: 73.152 GB/sec
FLOPS: 816 GFLOPS
Pixel Fill Rate: 10400 MPixels/sec
Texture Fill Rate: 20800 MTexels/sec
Max Power Draw: 110 W
Noise Level: ?
Framebuffer: 512 MB
Memory Type: GDDR3
Memory Bus Type: 32x8 (256 bit)
DirectX Compliance: 10.1
OpenGL Compliance: 2.1
PS/VS Version: 4.1/4.1
Process: 55 nm
Shader Processors: 480
Pipeline Layout: ?
Texture Units: 32
Raster Operators 16

http://www.gpureview.com/show_cards.php?card1=566&card2=564

praticamente abbiamo 160shader e 16tmu + rispetto ad una 3870... questi sono i miglioramenti...

imho, questa scheda andrà come una gts 512...non di +.

poi puo essere che mi sbaglio... bohh.. vedremo.. ;)

HackaB321
08-05-2008, 11:10
Zi, ma la cosa è in peggio.
GPU di oggi: 1 teraflop di SP specializzati per il calcolo grafico + TMU e ROP
Larrabee: 1 teraflop di potenza di calcolo non meglio specializzata che forse deve fare anche da TMU....

E' possibile però che le specifiche di Larrabee varino prima dell'uscita.


A me pare che i numeri della 4870 siano tutti più o meno doppi rispetto alla 3870. Il rapporto potenza di calcolo/TMU non è cambiato, a causa della maggior frequenza degli SP, ma il texture fillrate è raddoppiato rispetto alla 3870. Basterà?

Se alla AMD quelli che analizzano i giochi ci hanno preso bene, (invece di fare death match con UT :asd:. Non deve essere male come lavoro :D ) la 4870 potrebbe essere una sorpresa. Non è impossibile che in qualche sparuta circostanza la 4870 superi la GX2.

La capacità di calcolo di 1 teraflop è un valore molto potenziale perchè si basa:

1. Sull'esecuzione simultanea di due thread per clock come in R600. Infatti questo valore è ottenuto moltiplicando 1050*480*2 (come i 475GFlop di R600 erano ottenuti con 742*320*2). In realtà i 2 thread sono simultaneamente passati allo shader core per ridurre le latenze (e sfruttare le probabili dipendenze) tra una VLIW e la seguente ma non vengono eseguiti effettivamente nello stesso clock (sono in realtà elaborati alternando in modalità interleaving un thread per clock)
2. Sulla capacità del compilatore di assemblare una macroistruzione VLIW sempre e comunque con 5 istruzioni scalari.

In ogni caso questo valore serve per esigenze di marketing perchè l'ultimo dei problemi di RV770 saranno le capacità di calcolo matematico.

Il rapporto ALU:TEX sarà sicuramente minore perchè normalizzando le frequenze passa da 4:1 a 3:1. E' vero che (pare) avremo shader più veloci delle TMU ma non in maniera tale da riportare quel valore a 4:1.

Le TMU di R600 e G80 (così come quelle di GT200 vs RV770) non vanno poi confrontate solo sul piano numerico o del fillrate: le due architetture gestiscono queste operazioni in maniera molto diversa e singolarmente quelle ATi hanno dimostrato di essere più efficienti (la GT ha 3,5 volte le TFU della 3870 e quasi 3 volte il texture fillrate ma non è 3 volte più veloce nonostante RV670 sia fortemente limitato da queste unità e non possa quindi più di tanto avvantaggiarsi delle maggiori capacità di shading).

Le Rops restano 16, grazie alla frequenza aumentata (almeno nella 4870) avremo più fillrate (sia pixel che z). Ottimo sarebbe come detto più volte se gli z sample per clock raddoppiassero da 2 a 4.

HackaB321
08-05-2008, 11:20
praticamente abbiamo 160shader e 16tmu + rispetto ad una 3870... questi sono i miglioramenti...

imho, questa scheda andrà come una gts 512...non di +.

poi puo essere che mi sbaglio... bohh.. vedremo.. ;)

Considera che le capacità di texturing di R600 sono come un freno a mano sempre inserito per quella architettura. Quindi un raddoppio delle TMU potrebbe portare un aumento più che proporzionale al loro semplice aumento numerico.
Comunque il target di una 4850, dai rumor, sembra essere la 9800GTX quindi sì, presumibilmente avrà prestazioni più o meno allineate anche alla GTS. E chiaro poi che se le stesse performance fossero davvero fornite con 40-50 watt di consumo massimo in meno sarebbe una alternativa a parità di prezzo molto interessante

Free Gordon
08-05-2008, 11:38
Notevole anche il teraflop di potenza di calcolo che raggiunge la 4870. Era l'obiettivo di Larrabee, che però esce tra due anni...

Larrabee esce a dicembre.. :D

+Lonewolf+
08-05-2008, 11:42
Larrabee esce a dicembre.. :D

:D sei perfido

halduemilauno
08-05-2008, 12:00
La capacità di calcolo di 1 teraflop è un valore molto potenziale perchè si basa:

1. Sull'esecuzione simultanea di due thread per clock come in R600. Infatti questo valore è ottenuto moltiplicando 1050*480*2 (come i 475GFlop di R600 erano ottenuti con 742*320*2). In realtà i 2 thread sono simultaneamente passati allo shader core per ridurre le latenze (e sfruttare le probabili dipendenze) tra una VLIW e la seguente ma non vengono eseguiti effettivamente nello stesso clock (sono in realtà elaborati alternando in modalità interleaving un thread per clock)
2. Sulla capacità del compilatore di assemblare una macroistruzione VLIW sempre e comunque con 5 istruzioni scalari.

In ogni caso questo valore serve per esigenze di marketing perchè l'ultimo dei problemi di RV770 saranno le capacità di calcolo matematico.



Il rapporto ALU:TEX sarà sicuramente minore perchè normalizzando le frequenze passa da 4:1 a 3:1. E' vero che (pare) avremo shader più veloci delle TMU ma non in maniera tale da riportare quel valore a 4:1.

Le TMU di R600 e G80 (così come quelle di GT200 vs RV770) non vanno poi confrontate solo sul piano numerico o del fillrate: le due architetture gestiscono queste operazioni in maniera molto diversa e singolarmente quelle ATi hanno dimostrato di essere più efficienti (la GT ha 3,5 volte le TFU della 3870 e quasi 3 volte il texture fillrate ma non è 3 volte più veloce nonostante RV670 sia fortemente limitato da queste unità e non possa quindi più di tanto avvantaggiarsi delle maggiori capacità di shading).

Le Rops restano 16, grazie alla frequenza aumentata (almeno nella 4870) avremo più fillrate (sia pixel che z). Ottimo sarebbe come detto più volte se gli z sample per clock raddoppiassero da 2 a 4.
si ma i 475GFlop di R600 erano ottenuti con 742*320*2). erano gia superiori ai 346.6(1350*128*2) della 8800gtx poi si è visto nei giochi come è andata a finire.

Mercuri0
08-05-2008, 12:21
La capacità di calcolo di 1 teraflop è un valore molto potenziale perchè si basa:

Certo, e grazie per i dettagli. Ma questo vale anche per le alte architetture.


In ogni caso questo valore serve per esigenze di marketing perchè l'ultimo dei problemi di RV770 saranno le capacità di calcolo matematico.

Di certo il teraflop fa marketing, ma non posso pensare che i transistor messi per gli SP in più, e la frequenza più alta, non abbiano ragione d'essere, di sicuro gli ing AMD hanno pensato che saranno impegnati in qualche modo.
Ottimo sarebbe come detto più volte se gli z sample per clock raddoppiassero da 2 a 4.
L'avevo sentino anch'io, ma il valore dell fill-rate non comprende anche lo z-buffer? (oppure vengono portati separatamente?). Come è messo R670 con lo z-buffer rispetto a G92?

Larrabee esce a dicembre.. :D
Si, vede che a dicembre fa freddo, e torna dentro. ;)
(Anche se Intel avesse pronti i campioni di Larrabee a dicembre, tra driver e tutto da qui a dire che fa le schede grafiche ci vorrebbe ancora un annetto e qualcosa buono mi sa.)

si ma i 475GFlop di R600 erano ottenuti con 742*320*2). erano gia superiori ai 346.6(1350*128*2) della 8800gtx poi si è visto nei giochi come è andata a finire.
Eerrr... :eek: mi sembra un modo strano per contare la capacità di calcolo di un chip.

- Wikipedia riporta che la GTX fa 518.0 Gigaflop
- Che senso ha guardare *un solo aspetto* di un chip grafico e confrontarlo con le sue prestazioni generali nei giochi? chi mai ne ha parlato?

Foglia Morta
08-05-2008, 12:26
si ma i 475GFlop di R600 erano ottenuti con 742*320*2). erano gia superiori ai 346.6(1350*128*2) della 8800gtx poi si è visto nei giochi come è andata a finire.

nVidia quando parla di GFlops considera anche la mul ( utilizzabile o meno loro la considerano ) = 1350*128*3 . E tempo fa lo facevi anche tu... Ora no :mbe: . Ma a parte questo sono architetture diverse, anche i test sintetici non riflettono le potenzialità delle gpu proprio perchè per essere sfruttate al massimo hanno bisogno di software sviluppato ad hoc.

halduemilauno
08-05-2008, 12:28
Certo, e grazie per i dettagli. Ma questo vale anche per le alte architetture.


Di certo il teraflop fa marketing, ma non posso pensare che i transistor messi per gli SP in più, e la frequenza più alta, non abbiano ragione d'essere, di sicuro gli ing AMD hanno pensato che saranno impegnati in qualche modo.


Si, vede che a dicembre fa freddo, e torna dentro. ;)
(Anche se Intel avesse pronti i campioni di Larrabee a dicembre, tra driver e tutto da qui a dire che fa le schede grafiche ci vorrebbe ancora un annetto e qualcosa buono mi sa.)


Eerrr... :eek: mi sembra un modo strano per contare la capacità di calcolo di un chip.

- Wikipedia riporta che la GTX fa 518.0 Gigaflop
- Che senso ha guardare *un solo aspetto* di un chip grafico e confrontarlo con le sue prestazioni generali nei giochi? chi mai ne ha parlato?


io rispondevo ad hackab321.

halduemilauno
08-05-2008, 12:31
nVidia quando parla di GFlops considera anche la mul ( utilizzabile o meno loro la considerano ) = 1350*128*3 . E tempo fa lo facevi anche tu... Ora no :mbe: . Ma a parte questo sono architetture diverse, anche i test sintetici non riflettono le potenzialità delle gpu proprio perchè per essere sfruttate al massimo hanno bisogno di software sviluppato ad hoc.

giusto non ricordavo la faccenda mul.

supercomputer1
08-05-2008, 12:35
Bello il link del sito che hai riportato.
Peccato che cio che non avete calcolato é che la serie 4870 viene venduta con frequenze impostate al minimo di default per poter avere un elevata (efficienza energetica=consumare poco corrente) AMD si e' dedicata di piu sul consumo che su altro se poi vuoi aumentare le frequenze sono fatti tuoi se consumera' 500 watt 3 volte e mezzo in piu del consumo di default
andate su questo link e fate un bel esperimento .
http://www.gpureview.com/Radeon-HD-4870-card-564.html#

1) Sotto la scritta advanced option portate il core da 850 a 950 cliccando piu volte sul + fino a raggiungere il valore di 950 .
2) Portate la mem da 1935 a 2650 sempre cliccando sul + fino a raggiungere 2650.
Come potete vedere il pixel fillrate e' passato da 13600 MPixels/sec(valore con frequenze al minimo di default per consumare poco) a 15200 MPixels/sec
Mentre il texture fillrate e' passato da 27200 MTexels/sec(con frequenze al minimo di default) a 30400 MTexels/sec invece la larghezza di banda della memoria è passata da 123,84GB/seconds a 169,6 GB/seconds.
Per quanto riguarda il pixel Fillrate da notare che ancora questi sono dei valori calcolati in modo molto teorico anche perche' per sapere il vero Pixel Fillrate che e' in grado di raggiungere la scheda video si dovrebbero conoscere il numero di pixel generabili dalle PIPELINE della scheda video per ogni ciclo di clock ( come potete notare sulla scritta PIPELINE LAYOUT sotto la scritta Details a sinistra il layout delle PIPELINE è ancora sconosciuto quindi non si possono avere dati certi sul vero Pixel Fillrate raggiungibile dalla scheda video.
Diverso é invece per quanto riguarda il Texture Fllrate che viene ottenuto moltiplicando il clock core per il numero di texture( in questo caso 950*32=30400 Megatextel/seconds)
950 la frequenza del core moltiplicato per il numero di TMU=32.
Essendo la memoria di tipo Gddr5 le frequenze raggiungibili per la memoria potrebbero tranquillamente anche essere maggiori di 2650 MHz . tutto dipendera' da quale valore lo standardizzatore Jedec le standardizzerà.

Milotto
08-05-2008, 12:46
io rispondevo ad hackab321.

Diciamo che il tuo intervento era un po' faziosetto...sembrava quasi uno spot...se lavori per Nvidia OK..!!!Altrimenti la cosa è triste....:( ;)

halduemilauno
08-05-2008, 12:47
Bello il link del sito che hai riportato.
Peccato che cio che non avete calcolato é che la serie 4870 viene venduta con frequenze impostate al minimo di default per poter avere un elevata (efficienza energetica=consumare poco corrente) AMD si e' dedicata di piu sul consumo che su altro se poi vuoi aumentare le frequenze sono fatti tuoi se consumera' 500 watt 3 volte e mezzo in piu del consumo di default
andate su questo link e fate un bel esperimento .
http://www.gpureview.com/Radeon-HD-4870-card-564.html#

1) Sotto la scritta advanced option portate il core da 850 a 950 cliccando piu volte sul + fino a raggiungere il valore di 950 .
2) Portate la mem da 1935 a 2650 sempre cliccando sul + fino a raggiungere 2650.
Come potete vedere il pixel fillrate e' passato da 13600 MPixels/sec(valore con frequenze al minimo di default per consumare poco) a 15200 MPixels/sec
Mentre il texture fillrate e' passato da 27200 MTexels/sec(con frequenze al minimo di default) a 30400 MTexels/sec.
Da notare che ancora questi sono dei valori calcolati in modo molto teorico
anche perche' per sapere il vero pixel fillrate che e' in grado di raggiungere la scheda video si dovrebbero conoscere il numero di pixel generabili dalle PIPELINE della scheda video per ogni ciclo di clock ( come potete notare sulla scritta PIPELINE LAYOUT sotto la scritta Details a sinistra il layout delle PIPELINE è ancora sconosciuto quindi non si possono avere dati esatti sul pixel fillrate raggiungibile dalla scheda video.
Diverso é invece per quanto riguarda il Texture Fllrate che viene ottenuto moltiplicando il clock core per il numero di texture( in questo caso 950*32=30400 Megatextel/seconds)
950 la frequenza del core moltiplicato per il numero di TMU=32.
Essendo la memoria di tipo Gddr5 le frequenze raggiungibili per la memoria potrebbero tranquillamente anche essere maggiori di 2650 MHz . tutto dipendera' da quale valore lo standardizzatore Jedec le standardizzerà.


quindi ci stai dicendo che se oc aumenti il fillrate.
accidenti.

halduemilauno
08-05-2008, 12:53
Diciamo che il tuo intervento era un po' faziosetto...sembrava quasi uno spot...se lavori per Nvidia OK..!!!Altrimenti la cosa è triste....:(

ripeto ho risposto ad un'utente che metteva in risalto un solo aspetto dandogli una importazza(a mio avviso) eccessiva e nel farlo ho fatto un'esempio. sbagliando nel calcolo ma credo non molto nella sostanza.
ti ha dato fastidio?

Marko#88
08-05-2008, 12:57
...Comunque il target di una 4850, dai rumor, sembra essere la 9800GTX quindi sì, presumibilmente avrà prestazioni più o meno allineate anche alla GTS. E chiaro poi che se le stesse performance fossero davvero fornite con 40-50 watt di consumo massimo in meno sarebbe una alternativa a parità di prezzo molto interessante

vero... in effetti se andasse grosso modo così costando grosso modo uguale e consumando meno non sarebbe malaccio per chi vuole risparmiare.....:)

quindi ci stai dicendo che se oc aumenti il fillrate.
accidenti.

:asd:

Milotto
08-05-2008, 13:02
ripeto ho risposto ad un'utente che metteva in risalto un solo aspetto dandogli una importazza(a mio avviso) eccessiva e nel farlo ho fatto un'esempio. sbagliando nel calcolo ma credo non molto nella sostanza.
ti ha dato fastidio?

Più che darmi fastidio, non l'ho capito il senso del tuo intervento ...:non credo che HackaB321 stesso considerando la capacità di calcolo come elemento topico , anzi..
Per questo la tua risposta mi è parsa sintetica e inopportuna a tal punto da apparire faziosa... :mbe: :)

HackaB321
08-05-2008, 13:03
si ma i 475GFlop di R600 erano ottenuti con 742*320*2). erano gia superiori ai 346.6(1350*128*2) della 8800gtx poi si è visto nei giochi come è andata a finire.

Si certo era superiore anche prima, G80 ha avuto prestazioni superiori perchè come noto è un'architettura più equilibrata.



L'avevo sentino anch'io, ma il valore dell fill-rate non comprende anche lo z-buffer? (oppure vengono portati separatamente?). Come è messo R670 con lo z-buffer rispetto a G92?



Lo z buffer è il buffer dove la gpu memorizza la profondità di ogni pixel. Lo z sample rate è il prodotto di frequenza*rops*z sample per clock. In r600 è 23,7 Gsample perchè è 742*16*2. In G80 (gtx) è (senza aa) 575*24*8=110 Gsample. Ovviamente questi sono picchi teorici che possono essere limitati da 1000 fattori (banda in primis)

Vifani
08-05-2008, 13:04
Comunque discutere della potenza di calcolo ha un valore pari a zero visto che state confrontando unità di calcolo molto diverse. Più che altro bisognerà vedere se a livello software ci saranno i miglioramenti necessari affinché le unità abbiano sempre qualcosa da fare.

HackaB321
08-05-2008, 13:06
ripeto ho risposto ad un'utente che metteva in risalto un solo aspetto dandogli una importazza(a mio avviso) eccessiva e nel farlo ho fatto un'esempio. sbagliando nel calcolo ma credo non molto nella sostanza.
ti ha dato fastidio?

Ho detto che il teraflop serve per esigenze di marketing. Dove sta l'importanza eccessiva?

halduemilauno
08-05-2008, 13:11
Ho detto che il teraflop serve per esigenze di marketing. Dove sta l'importanza eccessiva?

ok posso aver equivocato. cmq per curiosità a 1008 ci arriva anche la gt200 con 1750*192*3. ripeto per curiosità.
cmq ha ragione chi dice che è riduttivo confrontare architetture unità cosi diverse.

supercomputer1
08-05-2008, 13:20
quindi ci stai dicendo che se oc aumenti il fillrate.
accidenti.

Esattamente fai la prova tu stesso sul link che ho riportato leggi quello che ho scritto su come cambiare i valori e ti accorgi tu stesso che ' cosi' .
Per quanto riguarda il vero Pixel fillrate che è in grado di raggiungere la scheda video mancano come valori il numero di pixel generabili dalle PIPELINE
come riportato vi e' un punto ? significa che non si conoscono questi dati di fondamentale importanza per il calcolo del corretto Pixel Fillrate.

Marko#88
08-05-2008, 13:25
Esattamente fai la prova tu stesso sul link che ho riportato leggi quello che ho scritto su come cambiare i valori e ti accorgi tu stesso che ' cosi' .
Per quanto riguarda il vero Pixel fillrate che è in grado di raggiungere la scheda video mancano come valori il numero di pixel generabili dalle PIPELINE
come riportato vi e' un punto ? significa che non si conoscono questi dati di fondamentale importanza per il calcolo del corretto Pixel Fillrate.

ma è ovvio che aumentando le frequenze di core e shader aumentino pixel fillrate ecc...non hai detto nulla di nuovo...:asd:
da che mondo è mondo le vga si occano, poi c'è quella che ne risente di più come quella che ne risente di meno...;)

supercomputer1
08-05-2008, 13:27
Fate questa prova per vedere variare la texture fillrate : per i pixel fillrate i valori non sono reali mancano alcuni parametri per poterli calcolare vedete in basso la descrizione.
Bello il link del sito che hai riportato.
Peccato che cio che non avete calcolato é che la serie 4870 viene venduta con frequenze impostate al minimo di default per poter avere un elevata (efficienza energetica=consumare poco corrente) AMD si e' dedicata di piu sul consumo che su altro se poi vuoi aumentare le frequenze sono fatti tuoi se consumera' 500 watt 3 volte e mezzo in piu del consumo di default
andate su questo link e fate un bel esperimento .
http://www.gpureview.com/Radeon-HD-4870-card-564.html#

1) Sotto la scritta advanced option portate il core da 850 a 950 cliccando piu volte sul + fino a raggiungere il valore di 950 .
2) Portate la mem da 1935 a 2650 sempre cliccando sul + fino a raggiungere 2650.
Come potete vedere il pixel fillrate e' passato da 13600 MPixels/sec(valore con frequenze al minimo di default per consumare poco) a 15200 MPixels/sec
Mentre il texture fillrate e' passato da 27200 MTexels/sec(con frequenze al minimo di default) a 30400 MTexels/sec invece la larghezza di banda della memoria è passata da 123,84GB/seconds a 169,6 GB/seconds.
Per quanto riguarda il pixel Fillrate da notare che ancora questi sono dei valori calcolati in modo molto teorico anche perche' per sapere il vero Pixel Fillrate che e' in grado di raggiungere la scheda video si dovrebbero conoscere il numero di pixel generabili dalle PIPELINE della scheda video per ogni ciclo di clock ( come potete notare sulla scritta PIPELINE LAYOUT sotto la scritta Details a sinistra il layout delle PIPELINE è ancora sconosciuto quindi non si possono avere dati certi sul vero Pixel Fillrate raggiungibile dalla scheda video.
Diverso é invece per quanto riguarda il Texture Fllrate che viene ottenuto moltiplicando il clock core per il numero di texture( in questo caso 950*32=30400 Megatextel/seconds)
950 la frequenza del core moltiplicato per il numero di TMU=32.
Essendo la memoria di tipo Gddr5 le frequenze raggiungibili per la memoria potrebbero tranquillamente anche essere maggiori di 2650 MHz . tutto dipendera' da quale valore lo standardizzatore Jedec le standardizzerà.

supercomputer1
08-05-2008, 13:38
ma è ovvio che aumentando le frequenze di core e shader aumentino pixel fillrate ecc...non hai detto nulla di nuovo...:asd:
da che mondo è mondo le vga si occano, poi c'è quella che ne risente di più come quella che ne risente di meno...;)
Mi sa tanto che non hai capito quello che voglio dire.
Che le GPU si overcloccano lo sappiamo gia tutti su questo non ci piove ; ma cio' che volevo dire e' che i bassi valori di pixel fillrate sono dovuti a una macanza del numero dei pixel generabili dalla PIPELINE riguarda al link che ho inviato .
Mentre per quanto riguarda tutti valori riportati in generale. Volevo dire che sono bassi perche' AMD ha deciso di orientarsi di piu su bassi consumi energetici che sulle prestazioni . se poi non dovessi essere soddisfatto delle attuali prestazioni allora puoi tranquillamente aumentare le frequenze;
ma non ti aspettare che la scheda continui a consumare sempre 150watt
anche con le frequenze alzate perche' cosi' non è.
In parole povere il consumo finale di RV770 dipendera' dall'UTENTE FINALE
anche se per default il consumo energetico e' impostato a 150 watt con quie bassi valori di Pixel fillrate e textel fillrate .

supercomputer1
08-05-2008, 13:43
sempre per Marko Rileggi qua e vedi che mancano il numero di Pixel generabili dalle PIPELINE.
Fate questa prova per vedere variare la texture fillrate : per i pixel fillrate i valori non sono reali mancano alcuni parametri per poterli calcolare vedete in basso la descrizione.
Originariamente inviato da supercomputer1 Bello il link del sito che hai riportato.
Peccato che cio che non avete calcolato é che la serie 4870 viene venduta con frequenze impostate al minimo di default per poter avere un elevata (efficienza energetica=consumare poco corrente) AMD si e' dedicata di piu sul consumo che su altro se poi vuoi aumentare le frequenze sono fatti tuoi se consumera' 500 watt 3 volte e mezzo in piu del consumo di default
andate su questo link e fate un bel esperimento .
http://www.gpureview.com/Radeon-HD-4870-card-564.html#

1) Sotto la scritta advanced option portate il core da 850 a 950 cliccando piu volte sul + fino a raggiungere il valore di 950 .
2) Portate la mem da 1935 a 2650 sempre cliccando sul + fino a raggiungere 2650.
Come potete vedere il pixel fillrate e' passato da 13600 MPixels/sec(valore con frequenze al minimo di default per consumare poco) a 15200 MPixels/sec
Mentre il texture fillrate e' passato da 27200 MTexels/sec(con frequenze al minimo di default) a 30400 MTexels/sec invece la larghezza di banda della memoria è passata da 123,84GB/seconds a 169,6 GB/seconds.
Per quanto riguarda il pixel Fillrate da notare che ancora questi sono dei valori calcolati in modo molto teorico anche perche' per sapere il vero Pixel Fillrate che e' in grado di raggiungere la scheda video si dovrebbero conoscere il numero di pixel generabili dalle PIPELINE della scheda video per ogni ciclo di clock ( come potete notare sulla scritta PIPELINE LAYOUT sotto la scritta Details a sinistra il layout delle PIPELINE è ancora sconosciuto quindi non si possono avere dati certi sul vero Pixel Fillrate raggiungibile dalla scheda video.
Diverso é invece per quanto riguarda il Texture Fllrate che viene ottenuto moltiplicando il clock core per il numero di texture( in questo caso 950*32=30400 Megatextel/seconds)
950 la frequenza del core moltiplicato per il numero di TMU=32.
Essendo la memoria di tipo Gddr5 le frequenze raggiungibili per la memoria potrebbero tranquillamente anche essere maggiori di 2650 MHz . tutto dipendera' da quale valore lo standardizzatore Jedec le standardizzerà.

leoneazzurro
08-05-2008, 13:48
Esattamente fai la prova tu stesso sul link che ho riportato leggi quello che ho scritto su come cambiare i valori e ti accorgi tu stesso che ' cosi' .
Per quanto riguarda il vero Pixel fillrate che è in grado di raggiungere la scheda video mancano come valori il numero di pixel generabili dalle PIPELINE
come riportato vi e' un punto ? significa che non si conoscono questi dati di fondamentale importanza per il calcolo del corretto Pixel Fillrate.

Il parametro "pipeline layout" in quello schema si riferisce alla struttura dei calcoli delle unità shader, infatti in G8X/G9x riporta "scalar MADD+MUL", in RV670 è "scalar MADDX5", mentre sulle schede non DX10 non è presente. Quindi non ha nessun rapporto con il numero di pixel in output.
Il pixel fill rate REALE non è mai quantificabile in quento dipende dall'applicazione, ovviamente il pixel fill rate teorico è quello massimo raggiungibile.

The_SaN
08-05-2008, 14:33
sempre per Marko Rileggi qua e vedi che mancano il numero di Pixel generabili dalle PIPELINE.

Originariamente inviato da supercomputer1 Bello il link del sito che hai riportato.
Peccato che cio che non avete calcolato é che la serie 4870 viene venduta con frequenze impostate al minimo di default per poter avere un elevata (efficienza energetica=consumare poco corrente) AMD si e' dedicata di piu sul consumo che su altro se poi vuoi aumentare le frequenze sono fatti tuoi se consumera' 500 watt 3 volte e mezzo in piu del consumo di default
andate su questo link e fate un bel esperimento .
http://www.gpureview.com/Radeon-HD-4870-card-564.html#

1) Sotto la scritta advanced option portate il core da 850 a 950 cliccando piu volte sul + fino a raggiungere il valore di 950 .
2) Portate la mem da 1935 a 2650 sempre cliccando sul + fino a raggiungere 2650.
Come potete vedere il pixel fillrate e' passato da 13600 MPixels/sec(valore con frequenze al minimo di default per consumare poco) a 15200 MPixels/sec
Mentre il texture fillrate e' passato da 27200 MTexels/sec(con frequenze al minimo di default) a 30400 MTexels/sec invece la larghezza di banda della memoria è passata da 123,84GB/seconds a 169,6 GB/seconds.
Per quanto riguarda il pixel Fillrate da notare che ancora questi sono dei valori calcolati in modo molto teorico anche perche' per sapere il vero Pixel Fillrate che e' in grado di raggiungere la scheda video si dovrebbero conoscere il numero di pixel generabili dalle PIPELINE della scheda video per ogni ciclo di clock ( come potete notare sulla scritta PIPELINE LAYOUT sotto la scritta Details a sinistra il layout delle PIPELINE è ancora sconosciuto quindi non si possono avere dati certi sul vero Pixel Fillrate raggiungibile dalla scheda video.
Diverso é invece per quanto riguarda il Texture Fllrate che viene ottenuto moltiplicando il clock core per il numero di texture( in questo caso 950*32=30400 Megatextel/seconds)
950 la frequenza del core moltiplicato per il numero di TMU=32.
Essendo la memoria di tipo Gddr5 le frequenze raggiungibili per la memoria potrebbero tranquillamente anche essere maggiori di 2650 MHz . tutto dipendera' da quale valore lo standardizzatore Jedec le standardizzerà.

Si, ma non c'é niente di nuovo/innovativo/rivoluzionario.
É cosi per TUTTE le schede. A parte quelle occate dai produttori.
Sempre, quando si fa un processore o una scheda video, si progetta il tutto tenendo a mente il rapporto prestazioni/consumo.
Perché, come spiegato da alcune leggi della fisica (di cui ora non ricordo esattamente il nome, perdonami) il consumo non é proporzionale alla frequenza, in quanto la dispersione di energia, e quindi calore, aumenta con l'aumentare dei MHz.
Quindi se aumenti il clock del 10%, consumerai il 15% in piú, per dire (numeri sparati). E peggio ancora se si pratica l'overvolt.

É cosi anche per g92, che si puó occare di almeno 100MHz come niente.

Mercuri0
08-05-2008, 15:12
.
Mentre per quanto riguarda tutti valori riportati in generale. Volevo dire che sono bassi perche' AMD...
Non entro in merito del discorso perché non ho ben capito cosa vuoi dire (che probabilmente la 4870 sarà facilmente e vantaggiosamente overcloccabile?), ma perchè dici che i valori di pixel fillrate sono bassi?

Dai rumors alla frequenza di default la 4870 fa oltre 13Gigapixel/s, cioé 30% in più della GTX.

Più che altro è interessante vedere come si comporta con il z-buffer (visto che pare che R680 sia in svantaggio anche lì... io pensavo che la velocità di riempimento dello z-buffer fosse considerata nel pixel fill-rate)


ok posso aver equivocato. cmq per curiosità a 1008 ci arriva anche la gt200 con 1750*192*3. ripeto per curiosità.
Zi il GT200 si aspetta anche, e forse sopratutto, per le sue doti in campo GPGPU, visto che nVidia ci costruirà qualche supercomputer sopra, e delle prestazioni aritmetiche del GT200 se ne parla anche perché possono essere stimate dalle specifiche di tali supercomputer. (ci si aspetta anche che supporti i conti a precisione doppia, magari non veloci come R770 - giusto per far incazzare hal :D - ma li supporta).

Boh, io avevo accennato al fatto "anvedi, R770 già supera il teraflop" (pensando al prossimo scontro GPUvsLarrabee) e s'è scatenato un putiferio come se avessi detto che fa girare Crysis al massimo :mbe:

Frequento da poco questo thread, qui dev'essere solito scannarcisi su gigaflop e bit mi sa :D

+Lonewolf+
08-05-2008, 15:15
ok posso aver equivocato. cmq per curiosità a 1008 ci arriva anche la gt200 con 1750*192*3. ripeto per curiosità.
cmq ha ragione chi dice che è riduttivo confrontare architetture unità cosi diverse.

qua si parla di r700;)

Mercuri0
08-05-2008, 15:22
Perché, come spiegato da alcune leggi della fisica (di cui ora non ricordo esattamente il nome, perdonami) il consumo non é proporzionale alla frequenza, in quanto la dispersione di energia, e quindi calore, aumenta con l'aumentare dei MHz.

Giusto per fare il figo: la formula canonica per il consumo di potenza dinamico indica una proporzionalità diretta con la frequenza e quadratica con il voltaggio.

Solo che non so se a 55nm ci siano altri fattori :boh:
(è poi chiaro che nel TDP globale della scheda bisogna normalizzare alle percentuali dei singoli componenti)

halduemilauno
08-05-2008, 15:23
Non entro in merito del discorso perché non ho ben capito cosa vuoi dire (che probabilmente la 4870 sarà facilmente e vantaggiosamente overcloccabile?), ma perchè dici che i valori di pixel fillrate sono bassi?

Dai rumors alla frequenza di default la 4870 fa oltre 13Gigapixel/s, cioé 30% in più della GTX.

Più che altro è interessante vedere come si comporta con il z-buffer (visto che pare che R680 sia in svantaggio anche lì... io pensavo che la velocità di riempimento dello z-buffer fosse considerata nel pixel fill-rate)



Zi il GT200 si aspetta anche, e forse sopratutto, per le sue doti in campo GPGPU, visto che nVidia ci costruirà qualche supercomputer sopra, e delle prestazioni aritmetiche del GT200 se ne parla anche perché possono essere stimate dalle specifiche di tali supercomputer. (ci si aspetta anche che supporti i conti a precisione doppia, magari non veloci come R770 - giusto per far incazzare hal :D - ma li supporta).

Boh, io avevo accennato al fatto "anvedi, R770 già supera il teraflop" (pensando al prossimo scontro GPUvsLarrabee) e s'è scatenato un putiferio come se avessi detto che fa girare Crysis al massimo :mbe:


no no assolutamente nessun problema.
;)

Marko#88
08-05-2008, 17:42
Mi sa tanto che non hai capito quello che voglio dire.
Che le GPU si overcloccano lo sappiamo gia tutti su questo non ci piove ; ma cio' che volevo dire e' che i bassi valori di pixel fillrate sono dovuti a una macanza del numero dei pixel generabili dalla PIPELINE riguarda al link che ho inviato .
Mentre per quanto riguarda tutti valori riportati in generale. Volevo dire che sono bassi perche' AMD ha deciso di orientarsi di piu su bassi consumi energetici che sulle prestazioni . se poi non dovessi essere soddisfatto delle attuali prestazioni allora puoi tranquillamente aumentare le frequenze;
ma non ti aspettare che la scheda continui a consumare sempre 150watt
anche con le frequenze alzate perche' cosi' non è.
In parole povere il consumo finale di RV770 dipendera' dall'UTENTE FINALE
anche se per default il consumo energetico e' impostato a 150 watt con quie bassi valori di Pixel fillrate e textel fillrate .

A me sembra che sia tu quello che non ha capito...:asd:
Tutte le vga che escono con date frequenze hanno margini di clock più o meno elevati, non è che AMD l'ha fatto per la prima volta nella storia...se è per questo sono esistite addirittura anche vga come la x1800gto2 che era moddabile a xt...magia!! :eek:
...amd ha scelto delle frequenze, l'utente le può innalzare a suo piacimento...boh, non ci vedo nulla di nuovo, assolutamente...:O
ed è altrettanto ovvio che alzando le frequenze si alzi di conseguenza la richiesta energetica, anche qui nulla di strano, è SEMPRE così...

appleroof
08-05-2008, 18:42
Comunque discutere della potenza di calcolo ha un valore pari a zero visto che state confrontando unità di calcolo molto diverse. Più che altro bisognerà vedere se a livello software ci saranno i miglioramenti necessari affinché le unità abbiano sempre qualcosa da fare.

quoterrimo

aggiungo, in generale, discutere di un singolo apsetto di una vga di volta in volta (tipo meglio 256bit+gddr5 vs 512bit+gddr3, oppure meglio 300sp "stile nvidia" o 1000 "stile ati" ecc ecc), imho

Athlon 64 3000+
08-05-2008, 18:54
edit

Mercuri0
09-05-2008, 01:28
Novità importanti su Assassin Creed e DX10.1
(le posto qui perché mi sembrano perfettamente in-topic)

http://www.tgdaily.com/content/view/37326/98
http://techreport.com/discussions.x/14707

In sostanza c'è la conferma ufficiale che il DX10.1 aumenta le prestazioni consentendo un passo di rendering in meno con AA abilitato. (e si risente la voce che il "vero" DX10 dovesse essere il 10.1 :( )

Entrambi gli articoli sono molto interessanti, comunque.

Marko#88
09-05-2008, 06:16
quoterrimo

aggiungo, in generale, discutere di un singolo apsetto di una vga di volta in volta (tipo meglio 256bit+gddr5 vs 512bit+gddr3, oppure meglio 300sp "stile nvidia" o 1000 "stile ati" ecc ecc), imho

Vero, le cose vanno confrontate nel complesso...:)

Pat77
09-05-2008, 07:37
Novità importanti su Assassin Creed e DX10.1
(le posto qui perché mi sembrano perfettamente in-topic)

http://www.tgdaily.com/content/view/37326/98
http://techreport.com/discussions.x/14707

In sostanza c'è la conferma ufficiale che il DX10.1 aumenta le prestazioni consentendo un passo di rendering in meno con AA abilitato. (e si risente la voce che il "vero" DX10 dovesse essere il 10.1 :( )

Entrambi gli articoli sono molto interessanti, comunque.

Molto interessante, spero che queste ottimizzazioni influiscano sui titoli futuri, è un buon modo per sfruttare l'attuale e la futura r700 a costo 0.

Foglia Morta
09-05-2008, 07:40
continua a insistere...

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7240&Itemid=1

One of the two chips


The fastest or ATI's two upcoming chips, the RV770XT, will offer support for two cool memory marchitectures. One is GDDR5, a very fast memory and the second is 512-bit memory interface.

We are getting back to the memory controller of R600, but possibly significantly improved and this time the chip can cope with GDDR5 while the previous controller could only cope with GDDR3 and GDDR4.

As GDDR4 didn’t really got these cards any faster, ATI decided to go for GDDR5. We believe this is the future and this definitely makes the RV770 a bit bigger than the RV670 and this will be the most significant difference between the chips.

The launch date still remains June, with volume availability in July and onward.

Bhairava
09-05-2008, 07:45
Novità importanti su Assassin Creed e DX10.1
(le posto qui perché mi sembrano perfettamente in-topic)

http://www.tgdaily.com/content/view/37326/98
http://techreport.com/discussions.x/14707

In sostanza c'è la conferma ufficiale che il DX10.1 aumenta le prestazioni consentendo un passo di rendering in meno con AA abilitato. (e si risente la voce che il "vero" DX10 dovesse essere il 10.1 :( )

Entrambi gli articoli sono molto interessanti, comunque.

E i programmatori Ubistoft che dicevano che questo passaggio in meno fosse un errore? Sono ancora intenzionati at togliere il supporto 10.1 con la prossima patch del gioco??? Questa storia puzza ancora di imbroglio.

gianni1879
09-05-2008, 07:55
Novità importanti su Assassin Creed e DX10.1
(le posto qui perché mi sembrano perfettamente in-topic)

http://www.tgdaily.com/content/view/37326/98
http://techreport.com/discussions.x/14707

In sostanza c'è la conferma ufficiale che il DX10.1 aumenta le prestazioni consentendo un passo di rendering in meno con AA abilitato. (e si risente la voce che il "vero" DX10 dovesse essere il 10.1 :( )

Entrambi gli articoli sono molto interessanti, comunque.

molto interessante, alla faccia delle visioni

Bhairava
09-05-2008, 07:57
Non hanno mai detto che fosse un errore. Hanno detto una cosa diversa, ovvero che nel path DX10.1 un passo di rendering non veniva effettuato, cosa che alcuni si sono ostinati a voler leggere come un errore nonostante gli venisse detto, fra gli altri anche dal sottoscritto, che quel passo non era necessario in DX10.1 e per questo non veniva effettuato rendendo l'esecuzione più veloce.

Mi sembrava di ricordare bene che loro lo definissero un errore....
Allora se non lo ritengono tale, come mai rimuovono le DX10.1?

HackaB321
09-05-2008, 07:57
quoterrimo

aggiungo, in generale, discutere di un singolo apsetto di una vga di volta in volta (tipo meglio 256bit+gddr5 vs 512bit+gddr3, oppure meglio 300sp "stile nvidia" o 1000 "stile ati" ecc ecc), imho

Vero, le cose vanno confrontate nel complesso...:)

Confrontare le varie parti di due architetture per vedere nei singoli aspetti dove una prevale sull'altra e al tempo stesso avere ben presente che i risultati finali li faranno sia l'insieme delle caratteristiche nel loro complesso sia il codice che andranno ad eseguire, non sono per me due cose incompatibili, anzi.

Non hanno mai detto che fosse un errore. Hanno detto una cosa diversa, ovvero che nel path DX10.1 un passo di rendering non veniva effettuato, cosa che alcuni si sono ostinati a voler leggere come un errore nonostante gli venisse detto, fra gli altri anche dal sottoscritto, che quel passo non era necessario in DX10.1 e per questo non veniva effettuato rendendo l'esecuzione più veloce.

...come era evidente dal fatto che l'effetto di postprocessing mancante fosse invisibile. La soluzione ovvia (visto che nel frattempo hanno anche risolto con la release dei Cata per il Vantage il bug dell'AF) è (per ora):

Solution is simple: if you run ATI hardware, just don't patch the game (once that the patch comes out) and enjoy all the advantages of DirectX 10.1 - e.g. one pass less to render.

jok3r87
09-05-2008, 08:00
Confrontare le varie parti di due architetture per vedere nei singoli aspetti dove una prevale sull'altra e al tempo stesso avere ben presente che i risultati finali li faranno sia l'insieme delle caratteristiche nel loro complesso sia il codice che andranno ad eseguire, non sono per me due cose incompatibili, anzi.



...come era evidente dal fatto che l'effetto di postprocessing mancante fosse invisibile. La soluzione ovvia (visto che nel frattempo hanno anche risolto con la release dei Cata per il Vantage il bug dell'AF) è:

Solution is simple: if you run ATI hardware, just don't patch the game (once that the patch comes out) and enjoy all the advantages of DirectX 10.1 - e.g. one pass less to render.

:asd: Comunque speriamo che GT200 supporti le dx10.1 cosi che tutte le SH scoprano da sole ( :rotfl: ) i vantaggi delle dx10.1

Bhairava
09-05-2008, 08:01
Solution is simple: if you run ATI hardware, just don't patch the game (once that the patch comes out) and enjoy all the advantages of DirectX 10.1 - e.g. one pass less to render.

Eh, ma se con la patch, oltre a rimuovere le dx10.1, apportassero migliorie al gioco, tipo l'eliminazione della bande nere o altro, come la mettiamo?

Pat77
09-05-2008, 08:05
Eh, ma se con la patch, oltre a rimuovere le dx10.1, apportassero migliorie al gioco, tipo l'eliminazione della bande nere o altro, come la mettiamo?

Io per le bande lo gioco a 1280x720, è un rimedio paliativo ma la resa è nettamente migliore.

Bhairava
09-05-2008, 08:05
In proposito io penso male...

Penso male anch'io. :rolleyes:

Bhairava
09-05-2008, 08:06
Io per le bande lo gioco a 1280x720, è un rimedio paliativo ma la resa è nettamente migliore.

Sono a 1680x1050, a dir la verità le bande nere non sono molto fastidiose come a 1280x1024.

:ot:

HackaB321
09-05-2008, 08:25
Eh, ma se con la patch, oltre a rimuovere le dx10.1, apportassero migliorie al gioco, tipo l'eliminazione della bande nere o altro, come la mettiamo?

Su quello ci puoi scommettere...più che una patch faranno un service pack per spingere le persone ad installarla:D
Boh vedremo se sono più i costi o i benefici (anche se per me AC può anche stare sugli scaffali sopravviverò lo stesso)

Bhairava
09-05-2008, 08:29
Su quello ci puoi scommettere...più che una patch faranno un service pack per spingere le persone ad installarla:D
Boh vedremo se sono più i costi o i benefici (anche se per me AC può anche stare sugli scaffali sopravviverò lo stesso)

Non vedo proprio la necessità di rimuovere la dx10.1, il vero motivo è sotto gli occhi di tutti ed è molto, molto triste.
Questa è una politica esplicitamente anti-ATi, e mi chiedo come AMD-ATI andrà avanti: vaso di coccio fra vasi di ferro.

HackaB321
09-05-2008, 08:40
Non vedo proprio la necessità di rimuovere la dx10.1, il vero motivo è sotto gli occhi di tutti ed è molto, molto triste.
Questa è una politica esplicitamente anti-ATi, e mi chiedo come AMD-ATI andrà avanti: vaso di coccio fra vasi di ferro.

Ma poi la considerazione da fare è anche un'altra: adesso anche Ubisoft ha ammesso esplicitamente che le 10.1+MSAA apportano vantaggi prestazionali. Abbiamo inoltre appreso che le 10.1 rendono inutile un effetto di pp senza togliere nulla alla qualità dell'immagine.Al tempo stesso hanno anche detto che lavoreranno ad una reimplementazione delle 10.1 una volta risolto il misterioso "bug".

A questo punto:

1)O reimplementano le 10.1 con gli stessi vantaggi prestazioniali e con la stessa QI (e allora abbiamo sbagliato noi a pensare male)
2)O non reimplementano le 10.1 (e perdono la faccia)
3)O reimplementano le 10.1 senza vantaggi prestazionali (e perdono la faccia 2 volte)

okorop
09-05-2008, 08:43
Ma poi la considerazione da fare è anche un'altra: adesso anche Ubisoft ha ammesso esplicitamente che le 10.1+MSAA apportano vantaggi prestazionali. Abbiamo inoltre appreso che le 10.1 rendono inutile un effetto di pp senza togliere nulla alla qualità dell'immagine.Al tempo stesso hanno anche detto che lavoreranno ad una reimplementazione delle 10.1 una volta risolto il misterioso "bug".

A questo punto:

1)O reimplementano le 10.1 con gli stessi vantaggi prestazioniali e con la stessa QI (e allora abbiamo sbagliato noi a pensare male)
2)O non reimplementano le 10.1 (e perdono la faccia)
3)O reimplementano le 10.1 senza vantaggi prestazionali (e perdono la faccia 2 volte)

secondo me non riplementano le dx10.1 fin tanto che nvidia non fara una scheda video dx10.1 quindi novembre-dicembre ottimizzando queste nuove librerie solo per la nuova gpu di nvidia a scapito di amd-ati

Bhairava
09-05-2008, 08:44
Ma poi la considerazione da fare è anche un'altra: adesso anche Ubisoft ha ammesso esplicitamente che le 10.1+MSAA apportano vantaggi prestazionali. Abbiamo inoltre appreso che le 10.1 rendono inutile un effetto di pp senza togliere nulla alla qualità dell'immagine.Al tempo stesso hanno anche detto che lavoreranno ad una reimplementazione delle 10.1 una volta risolto il misterioso "bug".

A questo punto:

1)O reimplementano le 10.1 con gli stessi vantaggi prestazioniali e con la stessa QI (e allora abbiamo sbagliato noi a pensare male)
2)O non reimplementano le 10.1 (e perdono la faccia)
3)O reimplementano le 10.1 senza vantaggi prestazionali (e perdono la faccia 2 volte)

4) Implementeranno le dx10.1 quando Nvidia sarà in grado di supportarle. :rolleyes: ( e perdono la faccia 3 volte)

Immortal
09-05-2008, 09:01
4) Implementeranno le dx10.1 quando Nvidia sarà in grado di supportarle. :rolleyes: ( e perdono la faccia 3 volte)

quoto pure io...

inoltre..per la notizia di fudzilla e dei 512bit..forse intendono dire che faranno la versione 256bit-gddr5 e una versione 512bit-gddr3..così da avere una bandwith pressoché simile...ma chi lo sa.. :stordita: :stordita:

halduemilauno
09-05-2008, 09:29
http://my.ocworkbench.com/bbs/showthread.php?p=430981#post430981
niente rv770 al computex.
;)

Mercuri0
09-05-2008, 09:47
Sul Directx 10.1, i programmatori Ubisoft erano stati in realtà criptici con una frase tecnicamente corretta ma che poteva essere interpretata alla rovescia. E anche nell'intervista su TechReport continuano su questa linea: hanno dovuto fargli una domanda diretta per chiarire.

pensieri sparsi...

- Il DX10 doveva fare andare i giochi più velocemente, ma i giochi attuali sono DX9 travestiti. Alla Microsoft hanno detto che questo approccio peggiora le prestazioni: il DX10 è quindi per ora usato solo come marketing (il "very high" di Crysis è stato un tristissimo caso estremo :mad: ).

- Il DX10.1 di Assassin Creed consente evidentemente anche ad un gioco "DX9" di avere facilmente un incremento prestazionale col trucco di fare FSAA+postprocessing in un passo solo (con risparmio di banda, tempo e quant'altro).

- Anche se ci saranno in futuro giochi DX10.1 (e dal secondo link che ho postato è certo che ce ne saranno) può darsi che questa funzione non sarà pubblicizzata, come è successo ad Assassin Creed. Similmente per la GT200: potrebbe essere DX10.1 senza dirlo a nessuno.

- Secondo me con R700 alla AMD faranno qualche passo indietro per equilibrare l'architettura verso i giochi DX9 e mezzo di adesso.

- Su Techreport dicono che a seconda di come finisce questa storia, potrebbero scegliere di non usare i giochi TWIMTBP nei loro test. Hardcop ha misurato 34% di differenza medio su Assasin Creed con AA e DX10.1. 34% è la differenza tra la fascia mainstream e la fascia alta! Che servono i test se hanno un 34% di errore a seconda delle politiche del gioco? Direi di stendere un velo pietoso anche sul 3dMark Vantage.

Insomma, alla fine lo sviluppo tecnologico e noi utenti lo prendiamo in quel posto, con giochi DX9 travestiti dal marketing (a volte in maniera oscena, come Crysis) e le funzionalità utili che non possono essere usate per motivi politici. :mad:

A me vien da perdere l'entusiasmo, mi sento profondamente preso in giro.

Si lamentano che i giochi per PC stanno affondando?

p.s. adesso mi sembra meno strano il perché il gruppo che sta definendo le OpenGL3.0 è completamente muto da mesi.

<^MORFEO^>
09-05-2008, 09:52
A me vien da perdere l'entusiasmo, mi sento profondamente preso in giro.

Si lamentano che i giochi per PC stanno affondando?

Ti quoto in pieno! :mad:

jok3r87
09-05-2008, 09:59
quoto pure io...

inoltre..per la notizia di fudzilla e dei 512bit..forse intendono dire che faranno la versione 256bit-gddr5 e una versione 512bit-gddr3..così da avere una bandwith pressoché simile...ma chi lo sa.. :stordita: :stordita:

Non avrebbe senso, praticamente due schede completamente diverse da produrre e da ottimizzare via driver e che poi andrebbero a scontrarsi nella stessa fascia di prezzo, perchè quello che si risparmia con le gddr3 lo si perde con il bus a 512bit

Sul Directx 10.1, i programmatori Ubisoft erano stati in realtà criptici con una frase tecnicamente corretta ma che poteva essere interpretata alla rovescia. E anche nell'intervista su TechReport continuano su questa linea: hanno dovuto fargli una domanda diretta per chiarire.

pensieri sparsi...

- Il DX10 doveva fare andare i giochi più velocemente, ma i giochi attuali sono DX9 travestiti. Alla Microsoft hanno detto che questo approccio peggiora le prestazioni: il DX10 è quindi per ora usato solo come marketing (il "very high" di Crysis è stato un tristissimo caso estremo :mad: ).

- Il DX10.1 di Assassin Creed consente evidentemente anche ad un gioco "DX9" di avere facilmente un incremento prestazionale col trucco di fare FSAA+postprocessing in un passo solo (con risparmio di banda, tempo e quant'altro).

- Anche se ci saranno in futuro giochi DX10.1 (e dal secondo link che ho postato è certo che ce ne saranno) può darsi che questa funzione non sarà pubblicizzata, come è successo ad Assassin Creed. Similmente per la GT200: potrebbe essere DX10.1 senza dirlo a nessuno.

- Secondo me con R700 alla AMD faranno qualche passo indietro per equilibrare l'architettura verso i giochi DX9 e mezzo di adesso.

- Su Techreport dicono che a seconda di come finisce questa storia, potrebbero scegliere di non usare i giochi TWIMTBP nei loro test. Hardcop ha misurato 34% di differenza medio su Assasin Creed con AA e DX10.1. 34% è la differenza tra la fascia mainstream e la fascia alta! Che servono i test se hanno un 34% di errore a seconda delle politiche del gioco? Direi di stendere un velo pietoso anche sul 3dMark Vantage.

Insomma, alla fine lo sviluppo tecnologico e noi utenti lo prendiamo in quel posto, con giochi DX9 travestiti dal marketing (a volte in maniera oscena, come Crysis) e le funzionalità utili che non possono essere usate per motivi politici. :mad:

A me vien da perdere l'entusiasmo, mi sento profondamente preso in giro.

Si lamentano che i giochi per PC stanno affondando?

p.s. adesso mi sembra meno strano il perché il gruppo che sta definendo le OpenGL3.0 è completamente muto da mesi.

;)

HackaB321
09-05-2008, 10:02
4) Implementeranno le dx10.1 quando Nvidia sarà in grado di supportarle. :rolleyes: ( e perdono la faccia 3 volte)

Sono scettico sul fatto che GT200 supporterà le 10.1. Almeno nelle intenzioni iniziali secondo me l'intento di Nvidia era quello di passare direttamente alle Dx11, anche perchè un supporto alle 10.1 dovrebbe comportare dei cambiamenti rilevanti alla loro architettura. Potrebbero però aver cambiato idea dato che il mondo degli sviluppatori spinge (come pare da più parti) nel riconoscere certi indubbi vantaggi delle Dx10.1.Vedremo.

taleboldi
09-05-2008, 11:27
http://my.ocworkbench.com/bbs/showthread.php?p=430981#post430981
niente rv770 al computex.
;)

quindi slitta tutto al terzo trimestre ... mmmmmmm ... :confused:

Immortal
09-05-2008, 12:19
Non avrebbe senso, praticamente due schede completamente diverse da produrre e da ottimizzare via driver e che poi andrebbero a scontrarsi nella stessa fascia di prezzo, perchè quello che si risparmia con le gddr3 lo si perde con il bus a 512bit


http://www.nordichardware.com/Reviews/?page=10&skrivelse=530

già hanno fatto una 3870 con 512bit gddr3 contro le 256bit gddr4...non mi pare una cosa così assurda ;)

jok3r87
09-05-2008, 12:25
http://www.nordichardware.com/Reviews/?page=10&skrivelse=530

già hanno fatto una 3870 con 512bit gddr3 contro le 256bit gddr4...non mi pare una cosa così assurda ;)

Quella è stata fatta da partner non da ATI, i test dimostrano l'inutilità di una HD3870 con 512bit. Inoltre non ho visto il prezzo ? Sai quanto costa ?
Il fatto che esista non significa che abbia un senso, i test lo dimostrano. ;)
Poi a te può non sembrare senza senso, ciò non toglie che lo sia.

Immortal
09-05-2008, 12:40
Quella è stata fatta da partner non da ATI, i test dimostrano l'inutilità di una HD3870 con 512bit. Inoltre non ho visto il prezzo ? Sai quanto costa ?
Il fatto che esista non significa che abbia un senso, i test lo dimostrano. ;)
Poi a te può non sembrare senza senso, ciò non toglie che lo sia.

no no..non ho detto che per me ha un senso...ho detto che FORSE ha un senso per quelli di fruitzilla dato che hanno messo quella news...e quindi ho cercato di intuire cosa intendessero loro nelle loro "teste". ma anche per me non ha molto senso fare una cosa del genere..sia chiaro :p

jok3r87
09-05-2008, 13:03
no no..non ho detto che per me ha un senso...ho detto che FORSE ha un senso per quelli di fruitzilla dato che hanno messo quella news...e quindi ho cercato di intuire cosa intendessero loro nelle loro "teste". ma anche per me non ha molto senso fare una cosa del genere..sia chiaro :p

:doh: ah allora ok, non avevo capito :mano: :fagiano:

Free Gordon
09-05-2008, 13:14
Quella è stata fatta da partner non da ATI, i test dimostrano l'inutilità di una HD3870 con 512bit.

Rv770 dovrebbe avere il doppio delle TMU, per cui molta più "fame" di banda rispetto a Rv670. ;)

Cmq credo che questi rumor siano tutti sbagliati, io mi aspetto delle sorprese questa volta da ATI. :D

Mercuri0
09-05-2008, 13:23
http://www.nordichardware.com/Reviews/?page=10&skrivelse=530

già hanno fatto una 3870 con 512bit gddr3 contro le 256bit gddr4...non mi pare una cosa così assurda ;)

Quella è stata fatta da partner non da ATI,
Io mica ci credo che sia a 512 bit. Devono aver preso una cantonata allucinante. Un bus verso la memoria non è cosa che si possano inventare i patners, e mi pare difficile che R670 abbia 256 piedini in più mai utilizzati :mbe:
La cosa sarebbe da approfondire.
(i contatti per un chip sono costosissimi)


Rv770 dovrebbe avere il doppio delle TMU, per cui molta più "fame" di banda rispetto a Rv670. ;)

Eh, ma la banda a 256bit con frequenze GDDR5 è già più che sufficiente. Credo che per R700 fudzilla intendesse al solito 256 di ogni chip x2.

p.s. c'è un altra ipotesi che mi vien in mente: 256bit verso la ram. 256bit di contatto tra i due chip che possono essere "riqualificati". ma non mi va troppo di fantasticare :)

edit: 256bit per le connessioni tra i due chip mi sembrano troppi, se il percorso è corto meglio usare meno fili ed aumentare la frequenza.

appleroof
09-05-2008, 13:54
http://www.diamondmm.com/3870PE31GB.php

Io vedo scritto 256bit, probabilmente il recensore di Nordic Hardware ha fumato tanto peyote prima di iniziare a scrivere l'articolo -.-

RV670 ha 256bit di interfaccia memoria esterna, non è possibile che ci sia una scheda con questo chip e interfaccia a 512bit. E' possibile fare il contrario, infatti esistono schede con chip RV670 e bus tagliato a 128bit, così come con R600 e bus a 256bit, ma non questo, sarebbe assurdo progettare un chip con 512bit di interfaccia e dispendio di transistor enorme per poi venderlo solo con interfaccia a 256bit.

quoto...

leoneazzurro
09-05-2008, 13:59
Ci sono altre ragioni per le quali RV770 difficilmente sarà a 512 bit...
Ossia praticamente la stessa per cui G92 non è a 320/384 bit: la difficoltà di avere un package con un alta densità di pin sale con il diminuire del die size. Per cui, a meno di non vedere die size nell'ordine dei 400+ mm^2, difficilmente avremo bus a 512 bit. Teniamo conto poi che con le nuove GDDR5 all'orizzonte, bus così grandi diventano meno importanti.

appleroof
09-05-2008, 14:27
Ci sono altre ragioni per le quali RV770 difficilmente sarà a 512 bit...
Ossia praticamente la stessa per cui G92 non è a 320/384 bit: la difficoltà di avere un package con un alta densità di pin sale con il diminuire del die size. Per cui, a meno di non vedere die size nell'ordine dei 400+ mm^2, difficilmente avremo bus a 512 bit.

forse è anche per questo (e per le ddr3= necessità di più banda) che invece pare che gt200 abbia il bus a 512

Teniamo conto poi che con le nuove GDDR5 all'orizzonte, bus così grandi diventano meno importanti.

non ci piove, credo sia quasi (nel senso che manca la prova del 9 sul campo, ma in teoria è sacrosanto) assodato ormai...

Athlon 64 3000+
09-05-2008, 15:03
Ci sono altre ragioni per le quali RV770 difficilmente sarà a 512 bit...
Ossia praticamente la stessa per cui G92 non è a 320/384 bit: la difficoltà di avere un package con un alta densità di pin sale con il diminuire del die size. Per cui, a meno di non vedere die size nell'ordine dei 400+ mm^2, difficilmente avremo bus a 512 bit. Teniamo conto poi che con le nuove GDDR5 all'orizzonte, bus così grandi diventano meno importanti.

Concordo,RV770 con il ring bus 512/256 e le gddr5 avrà quasi sicuramente un banda passante parecchio oltre i 100 gb/s avendo un controller di memoria meno complicato da programmare di R600.

Iantikas
09-05-2008, 15:18
quella HD3870 ke è stata postata nn ha il bus a 512bit...fu un errore del reparto marketing della diamond mentre davano le info ai vari recensori definendola come 512bit...

...anke su altri siti, tipo legitreviews, è uscito un errata x informare ke la gpu ha un bus a 256bit...ciao

@ndrey
09-05-2008, 16:32
da fudzillazza :D 512bit x RV770XT Link (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7240&Itemid=65)

pierluigi86
09-05-2008, 17:20
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/mai/atis_rv770-gpu_512-bit-interface/



dice che è molto improbabile che rv770 abbia il bus da 512bit.

halduemilauno
09-05-2008, 17:54
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/mai/atis_rv770-gpu_512-bit-interface/



dice che è molto improbabile che rv770 abbia il bus da 512bit.

lo credo anch'io. i costi di bus a 512 unito alla ram gddr5 sarebbero molto elevati con in cambio una banda esagerata che probabilmente non frutterebbe alcun vantaggio.
mia opinione.

giopro
09-05-2008, 18:30
A meno che non vogliano pilotare schermi da 50 pollici :sofico: :D

Ciao :)

gervi
09-05-2008, 18:42
scusate, ma com'è la storia delle open gl 3.0??

non ho capito.

e che c'azzecca con le dx 10.1???? che sono altre librerie??? :confused:

Mo vuoi vedere che le dx 10.1 non sono + buone ?? E che si fà , torniamo infietro a dx 9??? visto che di dx 10 c'è il nulla????


E a che cavolo servirà allora, accattare nuove vga ati cin appunto dx 10.1????? MO è che sono nel pallone + totale..

<^MORFEO^>
09-05-2008, 23:34
A meno che non vogliano pilotare schermi da 50 pollici :sofico: :D

Ciao :)

e quindi puntando decisamente tutti gli sforzi per la gamma di schede video di fascia entry level che è poi quella che apporta i maggiori guadagni...! :asd:
Chi al giorno d'oggi non possiede un 50" per il proprio PC??? :sofico:

Catan
10-05-2008, 07:53
lo credo anch'io. i costi di bus a 512 unito alla ram gddr5 sarebbero molto elevati con in cambio una banda esagerata che probabilmente non frutterebbe alcun vantaggio.
mia opinione.

anche xè stiamo davanti ad un bel cambiamento con ste gddr5.
solitamente ci hanno abituato ad ogni cambio di gddr ad aumenti iniziali di banda di 400-600mhz...qui si rischia di passare dai 2400mhz delle gddr4 attuali ai 3600mhz delle prime gdd5....insomma un passaggio di 1200mhz secchi, che si traducono in 36gb di banda subito.

parcher
10-05-2008, 07:55
seguo ;)

<^MORFEO^>
10-05-2008, 10:53
Io, più che altro sono molto curioso di sapere quanto saliranno in OC queste GDDR5... :eek:
A mio avviso i 4GHz li toccheranno sicuramente :O

Mercuri0
10-05-2008, 11:10
scusate, ma com'è la storia delle open gl 3.0??
non ho capito.
e che c'azzecca con le dx 10.1???? che sono altre librerie??? :confused:

Capiti a fagiolo, mi ero connesso giusto per cambiare la firma a proposito delle OpenGL 3.0 :D

Non ho ben capito cosa vorresti sapere in particolare.

Le OpenGL sono API come le DirectX. Solo che mentre le DirectX sono definite solo da Microsoft e solo per Windows (le DX10 solo per Vista), le OpenGL sono uno standard multi piattaforma e multi hardware (ci sono anche sui telefonini) definito da un gruppo di cui fanno parte nVidia, Ati, Sun, Adobe, Intel, 3dLabs e tanti altri, che quindi devono mettersi d'accordo.

Le specifiche OpenGL 3.0 sembrava dovessero uscire a settembre dello scorso anno, ma per qualche (strano) motivo non se ne hanno avuto più notizie... tutto tace.

Visti i casini sul DX10.1 tra AMD e nVidia, ho detto che mi sembrava meno strano il silenzio sulle OpenGL3.0. (per cui, ripeto, AMD e nVidia dovrebbero mettersi d'accordo. E temo ci sia dell'altro).

Forse l'unica cosa che in realtà ti interessa: le OpenGL 3.0 dovevano essere in grado di girare su tutte le schede video DX9, le OpenGL 3.1 solo sulle schede con il supporto DX10. Ma a questo punto non ti saprei dire.

Simpaticamente, le OpenGL 3.1 (che dovevano uscire qualche mese fa) avrebbero portato tutte le possibilità DX10 anche su Windows XP.

Più mi informo e più mi rendo conto di quanto siamo presi in giro :cry:

M4R1|<
10-05-2008, 13:19
http://my.ocworkbench.com/bbs/showthread.php?p=430981#post430981
niente rv770 al computex.
;)

peccato, quindi eividentemente slitta di trimestre

Sul Directx 10.1, i programmatori Ubisoft erano stati in realtà criptici con una frase tecnicamente corretta ma che poteva essere interpretata alla rovescia. E anche nell'intervista su TechReport continuano su questa linea: hanno dovuto fargli una domanda diretta per chiarire.

pensieri sparsi...

- Il DX10 doveva fare andare i giochi più velocemente, ma i giochi attuali sono DX9 travestiti. Alla Microsoft hanno detto che questo approccio peggiora le prestazioni: il DX10 è quindi per ora usato solo come marketing (il "very high" di Crysis è stato un tristissimo caso estremo :mad: ).

- Il DX10.1 di Assassin Creed consente evidentemente anche ad un gioco "DX9" di avere facilmente un incremento prestazionale col trucco di fare FSAA+postprocessing in un passo solo (con risparmio di banda, tempo e quant'altro).

- Anche se ci saranno in futuro giochi DX10.1 (e dal secondo link che ho postato è certo che ce ne saranno) può darsi che questa funzione non sarà pubblicizzata, come è successo ad Assassin Creed. Similmente per la GT200: potrebbe essere DX10.1 senza dirlo a nessuno.

- Secondo me con R700 alla AMD faranno qualche passo indietro per equilibrare l'architettura verso i giochi DX9 e mezzo di adesso.

- Su Techreport dicono che a seconda di come finisce questa storia, potrebbero scegliere di non usare i giochi TWIMTBP nei loro test. Hardcop ha misurato 34% di differenza medio su Assasin Creed con AA e DX10.1. 34% è la differenza tra la fascia mainstream e la fascia alta! Che servono i test se hanno un 34% di errore a seconda delle politiche del gioco? Direi di stendere un velo pietoso anche sul 3dMark Vantage.
Insomma, alla fine lo sviluppo tecnologico e noi utenti lo prendiamo in quel posto, con giochi DX9 travestiti dal marketing (a volte in maniera oscena, come Crysis) e le funzionalità utili che non possono essere usate per motivi politici. :mad:

A me vien da perdere l'entusiasmo, mi sento profondamente preso in giro.

Si lamentano che i giochi per PC stanno affondando?

p.s. adesso mi sembra meno strano il perché il gruppo che sta definendo le OpenGL3.0 è completamente muto da mesi.


Quotissimo ;)


Capiti a fagiolo, mi ero connesso giusto per cambiare la firma a proposito delle OpenGL 3.0 :D

Non ho ben capito cosa vorresti sapere in particolare.

Le OpenGL sono API come le DirectX. Solo che mentre le DirectX sono definite solo da Microsoft e solo per Windows (le DX10 solo per Vista), le OpenGL sono uno standard multi piattaforma e multi hardware (ci sono anche sui telefonini) definito da un gruppo di cui fanno parte nVidia, Ati, Sun, Adobe, Intel, 3dLabs e tanti altri, che quindi devono mettersi d'accordo.

Le specifiche OpenGL 3.0 sembrava dovessero uscire a settembre dello scorso anno, ma per qualche (strano) motivo non se ne hanno avuto più notizie... tutto tace.

Visti i casini sul DX10.1 tra AMD e nVidia, ho detto che mi sembrava meno strano il silenzio sulle OpenGL3.0. (per cui, ripeto, AMD e nVidia dovrebbero mettersi d'accordo. E temo ci sia dell'altro).

Forse l'unica cosa che in realtà ti interessa: le OpenGL 3.0 dovevano essere in grado di girare su tutte le schede video DX9, le OpenGL 3.1 solo sulle schede con il supporto DX10. Ma a questo punto non ti saprei dire.

Simpaticamente, le OpenGL 3.1 (che dovevano uscire qualche mese fa) avrebbero portato tutte le possibilità DX10 anche su Windows XP.

Più mi informo e più mi rendo conto di quanto siamo presi in giro :cry:

se si trovasse il modo di avere gli effetti delle dx10.0/.1 su xp, ms nn solo vedrebbe un tragico crollo di utenti che utilizzano vista, ma sarebbe anche costretta a rinnovare il supporto per un os che definisce vecchio (che effettivamente per molti aspetti lo è, ma per altri nn c'è storia ;))

_morghan_1968
10-05-2008, 15:07
molti credono che la differenza principale tra XP & VISTA sia nelle DX 10....
in realtà la VERA differenza consiste nel fatto che
XP tutti lo installano...
VISTA tutti lo disinstallano :D :D :D

@ndrey
10-05-2008, 15:29
molti credono che la differenza principale tra XP & VISTA sia nelle DX 10....
in realtà la VERA differenza consiste nel fatto che
XP tutti lo installano...
VISTA tutti lo disinstallano :D :D :D

ma lol
Beh ho vista .., ma sempre affiancato da xp :O

Mister Tarpone
10-05-2008, 16:11
molti credono che la differenza principale tra XP & VISTA sia nelle DX 10....
in realtà la VERA differenza consiste nel fatto che
XP tutti lo installano...
VISTA tutti lo disinstallano :D :D :D

esatto... :sbonk:

A.L.M.
10-05-2008, 16:15
http://my.ocworkbench.com/bbs/showthread.php?p=430981#post430981
niente rv770 al computex.
;)

Ehm, veramente la notizia dice "AMD potrebbe non fare uno showcase ufficiale delle nuove schede al Computex". Inoltre si lascia intendere che i partners invece potrebbero presentarne dei sample ugualmente.
Ormai mi sembra ovvio che a fine maggio non uscirà nulla, anche perchè far uscire per prima la HD4850 non ha molto senso imho. Dovranno presentarle insieme, quindi penso che potrebbero fare un paper launch a giugno...

Mercuri0
10-05-2008, 16:33
Ehm, veramente la notizia dice "AMD potrebbe non fare uno showcase ufficiale delle nuove schede al Computex". Inoltre si lascia intendere che i partners invece potrebbero presentarne dei sample ugualmente.
Ormai mi sembra ovvio che a fine maggio non uscirà nulla, anche perchè far uscire per prima la HD4850 non ha molto senso imho. Dovranno presentarle insieme, quindi penso che potrebbero fare un paper launch a giugno...
Sulla data di uscita AMD sta facendo pretattica. La volta scorsa rimasero scottati dal tempismo perfetto della 8800GT, questa volta mi sa staranno più attenti.

Infatti nVidia ha già spostato la data della sua press-conference una volta, imo stanno cercando di "indovinare" il giorno giusto.

Ho l'impressione che la data di uscita delle 4xxx sarà un pò una sorpresa.

halduemilauno
10-05-2008, 16:40
Sulla data di uscita AMD sta facendo pretattica. La volta scorsa rimasero scottati dal tempismo perfetto della 8800GT, questa volta mi sa staranno più attenti.

Infatti nVidia ha già spostato la data della sua press-conference una volta, imo stanno cercando di "indovinare" il giorno giusto.

Ho l'impressione che la data di uscita delle 4xxx sarà un pò una sorpresa.

ma il 23 nvidia non presenterà alcuna scheda. poi se parliamo di pretattica allora nvidia ha fatto una pretatticona presentando a suo tempo le 9800 gtx e gx2.

taleboldi
10-05-2008, 16:49
molti credono che la differenza principale tra XP & VISTA sia nelle DX 10....
in realtà la VERA differenza consiste nel fatto che
XP tutti lo installano...
VISTA tutti lo disinstallano :D :D :D

mah io ho vista, e di (grossi) probelmi non ne ho :tie: :tie: :tie:

ciauz

halduemilauno
10-05-2008, 17:11
mah io ho vista, e di (grossi) probelmi non ne ho :tie: :tie: :tie:

ciauz

quoto tutto. anche l'emoticons.
;)

Mister Tarpone
10-05-2008, 17:15
mah io ho vista, e di (grossi) probelmi non ne ho :tie: :tie: :tie:

ciauz

quoto tutto. anche l'emoticons.
;)

con i giochi è una bella incu..ta rispetto ad xp

Mr_Paulus
10-05-2008, 17:21
con i giochi è una bella incu..ta rispetto ad xp

io mi accorgo solo che swappa di più..(in effetti 1 gb di ram con vista è un po' pochino) ma quando non swappa non noto differenze di framerate..anzi, con oblivion mi sembra addirittura più fluido.

Mister Tarpone
10-05-2008, 17:24
io mi accorgo solo che swappa di più..(in effetti 1 gb di ram con vista è un po' pochino) ma quando non swappa non noto differenze di framerate..anzi, con oblivion mi sembra addirittura più fluido.

addirittura??

allora sei un miracolato :sofico:

Mr_Paulus
10-05-2008, 17:26
addirittura??

allora sei un miracolato :sofico:

:D no comunque da fastidio la frequenza maggiore di swap...quello si..

ArCH85
10-05-2008, 20:19
:D no comunque da fastidio la frequenza maggiore di swap...quello si..

aumenta la ram.. il tuo gb non ce la fa :D

Foglia Morta
10-05-2008, 22:04
disponibili in volumi fino a 4,5Ghz

http://www.xbitlabs.com/news/video/display/20080510113121_GDDR5_in_Production_New_Round_of_Graphics_Cards_War_Imminent.html

Qimonda, a leading manufacturer of advanced dynamic random access memory (DRAM), said that it could deliver next-generation GDDR5 memory for graphics cards and other applications that require high memory bandwidth in volume. At this point Qimonda can supply makers of graphics boards GDDR5 memory with up to 4.50GHz clock-speed.

“Qimonda was the first to announce samples of GDDR5 back in November 2007. We have proven the technology and we can deliver in volume production to the market today,” said Glen Haley, communications director of Qimonda in North America, in an interview with X-bit labs web-site.

Presently Qimonda has 512Mb (16Mx32) GDDR5 chips at 3.60GHz, 4.0GHz and 4.50GHz clock-speeds in PG-TFBGA-170 packages in production. It is interesting to note that current-generation GDDR3 chips from Qimonda use PG-TFBGA-136 packing, which means that GDDR5 has more pins and requires more complex print-circuit boards of graphics cards.

It is projected that GDDR5 will play a substantial role in the next round of war between the leading designers of graphics processing units (GPUs) because it can double bandwidth available for graphics chips. Unfortunately, the price of GDDR5 memory from Qimonda is unclear. But while Qimonda does not unveil the exact pricing, it is likely that GDDR5 will be more expensive than GDDR3 and GDDR4, at least initially.

“If you look at the best performing GDDR3 parts today, they are running at about 2Gbit/s. With our GDDR5 we are able to at least double this data rate. We believe that Qimonda offers the highest performing graphics memory. There is a price/performance curve, and we are well-positioned to accommodate market demand as adoption increases,” Mr. Haley said.

Existing GDDR3 memory chips may run at 2.0GHz – 2.2GHz, which provides up to 140.8GB/s memory bandwidth in case of 512-bit bus, though, such chips are pretty expensive, just like print-circuit boards with 512-bit memory bus. For ATI, graphics product group of Advanced Micro Devices, the use of high-speed GDDR4 is an option, but Nvidia’s GeForce 8 and 9 GPUs do not support GDDR4. Therefore, the company either needs expensive GDDR3 in conjunction with wide memory bus, or GDDR5 with its extreme clock-speed potential.

In addition to Qimonda, Hynix Semiconductor and Samsung Electronics also plan to make GDDR5 memory.

Denny21
10-05-2008, 22:10
Ehm, veramente la notizia dice "AMD potrebbe non fare uno showcase ufficiale delle nuove schede al Computex". Inoltre si lascia intendere che i partners invece potrebbero presentarne dei sample ugualmente.
Ormai mi sembra ovvio che a fine maggio non uscirà nulla, anche perchè far uscire per prima la HD4850 non ha molto senso imho. Dovranno presentarle insieme, quindi penso che potrebbero fare un paper launch a giugno...


quando credete ci sia in volumi?
fine estate?

A.L.M.
10-05-2008, 22:23
quando credete ci sia in volumi?
fine estate?

Boh, chi può dirlo? Forse già a luglio.... :boh:

Nikolaj Wojdelko
10-05-2008, 22:24
.

Pat77
10-05-2008, 23:06
quando credete ci sia in volumi?
fine estate?

Spero luglio se hanno imparato dai propri errori. Sempre se le presentano a giugno sulla carta. ;)

Freisar
11-05-2008, 00:07
Basta che sidecidano ad AMD a rilasciare una data ufficiale perchè dal 23 maggio devo decidere per certi acquisti.....

:(

Cmq è sicuto entro fine giugno almeno?

Kharonte85
11-05-2008, 09:50
io mi accorgo solo che swappa di più..(in effetti 1 gb di ram con vista è un po' pochino) ma quando non swappa non noto differenze di framerate..anzi, con oblivion mi sembra addirittura più fluido.
:eek: Tu pensa che ho notato miglioramenti tangibili passando da 2gb a 4gb con Vista...:fagiano:

Per quanto riguarda le memorie direi che queste gddr5 sembrano avere molto potenziale (a differenza delle gddr4 che non hanno mai convinto granche')...a questo punto sono molto curioso di sapere se anche (ormai ammetto che per quanto riguarda l'utilizzo da parte di AMD/ATI non dovrebbero esserci piu' sorprese) nvidia decidera' di supportarle/usarle in futuro...in caso contrario credo che alla lunga cio' possa tradursi in un chiaro vantaggio per AMD/ATI ...

<^MORFEO^>
11-05-2008, 10:47
:eek: Tu pensa che ho notato miglioramenti tangibili passando da 2gb a 4gb con Vista...:fagiano:

Per quanto riguarda le memorie direi che queste gddr5 sembrano avere molto potenziale (a differenza delle gddr4 che non hanno mai convinto granche')...a questo punto sono molto curioso di sapere se anche (ormai ammetto che per quanto riguarda l'utilizzo da parte di AMD/ATI non dovrebbero esserci piu' sorprese) nvidia decidera' di supportarle/usarle in futuro...in caso contrario credo che alla lunga cio' possa tradursi in un chiaro vantaggio per AMD/ATI ...

E aggiungo che non sarebbe neanche una brutta cosa! :O
Soprattutto visto l'andazzo degli ultimi tempi...

halduemilauno
11-05-2008, 11:05
:eek: Tu pensa che ho notato miglioramenti tangibili passando da 2gb a 4gb con Vista...:fagiano:

Per quanto riguarda le memorie direi che queste gddr5 sembrano avere molto potenziale (a differenza delle gddr4 che non hanno mai convinto granche')...a questo punto sono molto curioso di sapere se anche (ormai ammetto che per quanto riguarda l'utilizzo da parte di AMD/ATI non dovrebbero esserci piu' sorprese) nvidia decidera' di supportarle/usarle in futuro...in caso contrario credo che alla lunga cio' possa tradursi in un chiaro vantaggio per AMD/ATI ...

finche esiste la possibilità di unire gddr3 al bus da 512 bit le gddr5 unite al bus da 256 ci vorrebbero gddr5 a 4600 per pareggiare i conti. l'ideale quando i costi lo riterranno opportuno sarà unire il meglio con il meglio ovvero gddr5 + bus a 512 bit. per il momento o l'uno o l'altro.
;)

A.L.M.
11-05-2008, 11:23
:eek: Tu pensa che ho notato miglioramenti tangibili passando da 2gb a 4gb con Vista...:fagiano:

Per quanto riguarda le memorie direi che queste gddr5 sembrano avere molto potenziale (a differenza delle gddr4 che non hanno mai convinto granche')...a questo punto sono molto curioso di sapere se anche (ormai ammetto che per quanto riguarda l'utilizzo da parte di AMD/ATI non dovrebbero esserci piu' sorprese) nvidia decidera' di supportarle/usarle in futuro...in caso contrario credo che alla lunga cio' possa tradursi in un chiaro vantaggio per AMD/ATI ...

Il vantaggio reale in termini (strettamente teorici) di banda non è enorme: con i primi moduli in commercio (che arrivano fino a 4.5GHz-5.0GHz DDR effettivi) la banda di una scheda con un bus a 256 bit potrebbe toccare i 144-160GB/s, mentre la banda con GDDR3, usando un bus a 512bit, è ferma a 140GB/s, usando moduli da 0.8ns.
Il ringbus a 512bit di ATi si è rivelato troppo immaturo, occorrerà capire quali saranno i risultati di NVidia con il crossbar 512bit (sempre che usino un crossbar), in termini di prestazioni/sfruttabilità/consumi/semplicità di progettazione. Se i risultati saranno validi, non credo che ci siano grandi differenze nell'usare una o l'altra soluzione, a parte i consumi ed i costi produttivi, sicuramente molto inferiori nel caso di 256bit+GDDR5.
Piuttosto bisognerebbe capire quando le gpu riusciranno a saturare e/o a sfruttare davvero 140GB/s di banda. A quel punto bisognerà passare per forza alle GDDR5, visto che credo siano escluse grosse novità per le GDDR3. Ma potrebbe essere così avanti nel tempo che forse le EDRAM potrebbero essere diventate abbordabili... :D

Piuttosto se le GDDR5 non saranno troppo care, potrebbero rappresentare un'ottima alternativa al bus a 256bit per la fascia media (quella della 9600GT, per intenderci).

finche esiste la possibilità di unire gddr3 al bus da 512 bit le gddr5 unite al bus da 256 ci vorrebbero gddr5 a 4600 per pareggiare i conti. l'ideale quando i costi lo riterranno opportuno sarà unire il meglio con il meglio ovvero gddr5 + bus a 512 bit. per il momento o l'uno o l'altro.
;)

Quello non è un problema, Hynix le ha già annunciate a 5.0GHz (e siamo solo all'inizio)... :asd:

http://www.xbitlabs.com/news/memory/display/20071118225423_Hynix_Announces_Samples_of_GDDR5_Memory_Chips.html

Mercuri0
11-05-2008, 11:24
Per quanto riguarda le memorie direi che queste gddr5 sembrano avere molto potenziale (a differenza delle gddr4 che non hanno mai convinto granche')...a questo punto sono molto curioso di sapere se anche (ormai ammetto che per quanto riguarda l'utilizzo da parte di AMD/ATI non dovrebbero esserci piu' sorprese) nvidia decidera' di supportarle/usarle in futuro...in caso contrario credo che alla lunga cio' possa tradursi in un chiaro vantaggio per AMD/ATI ...
Se davvero le GDDR5 funzionano come devono, è molto probabile che in una prossima revisione dei chip nVidia le usi, altrimenti proprio non vedrei come possa competere quando le GDDR5 (e la banda che consentono) entreranno nella fascia mainstream.

Un bus a 512bit nella fascia mainstream mi sembra una soluzione troppo costosa. Almeno dovrebbero fare i chip GDDR3 da 64bit l'uno per evitare di doverne mettere 16 come sembra faccia la futura 9900

nico88desmo
11-05-2008, 11:31
Se davvero le GDDR5 funzionano come devono, è molto probabile che in una prossima revisione dei chip nVidia le usi, altrimenti proprio non vedrei come possa competere quando le GDDR5 (e la banda che consentono) entreranno nella fascia mainstream.

Tempo fà uno della nVidia ha detto che sarebbe passata dalle GDDR3 alle GDDR5.
Quindi è molto probabile che nVidia le adotterà, solo che non si sà quando ;).
Secondo me ci sarà la versione GT200 con 512bit GDDR3 e poi 512bit con GDDR5. Tutta questa banda verso le memorie in ogni caso, ora come ora non la vedo molto utile.

appleroof
11-05-2008, 12:07
Se davvero le GDDR5 funzionano come devono, è molto probabile che in una prossima revisione dei chip nVidia le usi, altrimenti proprio non vedrei come possa competere quando le GDDR5 (e la banda che consentono) entreranno nella fascia mainstream.

Un bus a 512bit nella fascia mainstream mi sembra una soluzione troppo costosa. Almeno dovrebbero fare i chip GDDR3 da 64bit l'uno per evitare di doverne mettere 16 come sembra faccia la futura 9900

nella fascia cui fai riferimento anche una mega banda passante per ora è inutile ed esagerata, se il resto della scheda è giocoforza meno prestante, tanta banda non ha senso

Mr_Paulus
11-05-2008, 12:16
:eek: Tu pensa che ho notato miglioramenti tangibili passando da 2gb a 4gb con Vista...:fagiano:

Per quanto riguarda le memorie direi che queste gddr5 sembrano avere molto potenziale (a differenza delle gddr4 che non hanno mai convinto granche'

secondo me uno dei motivi per cui non hanno convinto è il fatto che sono arrivate in un momento in cui le gpu non hanno richieste "enormi" di banda verso la memoria e quindi alla fine le ddr3 sono più che sufficienti.
cioè, sto dicendo che anche se fossero state disponibili le ddr5 con le attuali gpu non avrebbero avuto successo in quanto bastano le ddr3. imho.

Mercuri0
11-05-2008, 12:19
nella fascia cui fai riferimento anche una mega banda passante per ora è inutile ed esagerata, se il resto della scheda è giocoforza meno prestante, tanta banda non ha senso

Io però avevo detto
quando le GDDR5 (e la banda che consentono) entreranno nella fascia mainstream
Perché mi aspetto che ci entrino presto :)
Qualunque sia il prezzo della 4870 all'uscita, il prezzo di quella scheda è fatto per scendere. (compatibilmente a cosa tira fuori nVidia)

appleroof
11-05-2008, 12:20
secondo me uno dei motivi per cui non hanno convinto è il fatto che sono arrivate in un momento in cui le gpu non hanno richieste "enormi" di banda verso la memoria e quindi alla fine le ddr3 sono più che sufficienti.
cioè, sto dicendo che anche se fossero state disponibili le ddr5 con le attuali gpu non avrebbero avuto successo in quanto bastano le ddr3. imho.

quoto

per quanto riguarda rv770 per me l'unico motivo per cui Ati passerebbe ora alle gddr5 (parlo di motivo pratico, lasciamo perdere il marketing) è la complessità del ring-bus 1024/512: l'unico modo per evitarlo, ed usare quello di rv670 ma avere cmq buona banda per ora e per il futuro sono appunto le gddr5 e le grandi freq. che raggiungono

appleroof
11-05-2008, 12:21
Io però avevo detto

Perché mi aspetto che ci entrino presto :)
Qualunque sia il prezzo della 4870 all'uscita, il prezzo di quella scheda è fatto per scendere. (compatibilmente a cosa tira fuori nVidia)

ah ok, potrebbe darsi vedremo

quanto al prezzo è sempre stato così....:asd:

Athlon 64 3000+
11-05-2008, 12:32
quoto

per quanto riguarda rv770 per me l'unico motivo per cui Ati passerebbe ora alle gddr5 (parlo di motivo pratico, lasciamo perdere il marketing) è la complessità del ring-bus 1024/512: l'unico modo per evitarlo, ed usare quello di rv670 ma avere cmq buona banda per ora e per il futuro sono appunto le gddr5 e le grandi freq. che raggiungono

Concordo.
Essendo il ring bus 1024/512 di R600 parecchio complesso da programmare optereanno ben un ring bus full 512/256 che è più semplice da ottimizzare e con l'abbinamento delle GDDR5 si avranno delle bande passanti molto superiori anche a quella della mia HD 2900XT.

appleroof
11-05-2008, 12:36
Concordo.
Essendo il ring bus 1024/512 di R600 parecchio complesso da programmare optereanno ben un ring bus full 512/256 che è più semplice da ottimizzare e con l'abbinamento delle GDDR5 si avranno delle bande passanti molto superiori anche a quella della mia HD 2900XT.

aggiungo anche che dovrebbero avere un certo contenimento dei costi in questo modo, senza dubbio non è poco

ancora le gddr5 consumano meno e come detto da altri ben più tecnici di me in questo stesso tread, hanno funzionalità avanzate di risparmio energetico che le gddr3 non hanno (anche se poi non so in cosa consitano concretamente)

insomma, tanti ottimi motivi dal loro punto di vista (e da quello del consumatore finale, se il contenimento dei costi si rifletterà sul prezzo finale, prestazioni Nvidia permettendo) ma quello prestazionale in effetti non c'entra nulla, allo stato attuale

Pat77
11-05-2008, 15:07
Concordo in pieno :cool:
Sono curioso anche di capire che richiesta di banda avrà r700, secondo me sui 100-120 Gb, contanto che 3870 si assesta sui 60-70 Gb.

Mr_Paulus
11-05-2008, 16:05
Da tutto ciò ne guadagna il costo del PCB, per il bus 256bit invece che 512bit, ne guadagna la dimensione del chip o la parte dello stesso che deve essere destinata al memory controller togliendo spazio ai componenti di calcolo e non sono certo che le GDDR5, su cui i produttori puntano in modo molto più deciso delle GDDR4 (alcuni le GDDR4 non le hanno mai prodotte) possano effettivamente andare a costare tanto di più.

quindi secondo te è lecito aspettarsi un gt200 anche più "ingombrante" come pcb rispetto a rv770 sempre se è vera la storia dei 512 bit?

appleroof
11-05-2008, 16:26
quindi secondo te è lecito aspettarsi un gt200 anche più "ingombrante" come pcb rispetto a rv770 sempre se è vera la storia dei 512 bit?

gt200 dovrebbe avere n pcb identico, quanto a dimensioni, all'attuale 8800gtx

resta da capire, se ciò fosse vero, se non solo la 9900gtx avrà un pcb di quelle dimensioni, ma anche la 9900gts

lor68pdit
11-05-2008, 17:37
..........Sembra il thread del phenom!!!!!:D

DriftKing
11-05-2008, 21:27
Ciao ragazzi ... :)
volevo chiedere se qualcuno aveva voglia di fare un piccolo riassuntino x me sulla situazione ... le probbabili date di uscita, le performance ... ecc.
xche nella prima pagina nn ci sono molte info ... :(

grazie mille

p.s. vi chiedo di scusarmi se una cosa del genere e gia stata scritta poche pagine indietro ... ma nn ho voglia di rileggermi tutto il 3d :p :)

appleroof
11-05-2008, 21:48
Ciao ragazzi ... :)
volevo chiedere se qualcuno aveva voglia di fare un piccolo riassuntino x me sulla situazione ... le probbabili date di uscita, le performance ... ecc.
xche nella prima pagina nn ci sono molte info ... :(

grazie mille

p.s. vi chiedo di scusarmi se una cosa del genere e gia stata scritta poche pagine indietro ... ma nn ho voglia di rileggermi tutto il 3d :p :)

le schede dovrebbero essere presentate a giugno e vendute a luglio, le prime dovrebbero essere la 4850 e 4870, quest'ultima dovrebbe andare meglio di una 9800gtx e costare sui 350 euri, pare, poi sarà la volta della 4870x2

da un punto di vista tecnico le novità salienti rispetto a rv670 saranno 480sp/32tmu, gddr5 a circa 4Ghz ddr sempre con bus a 256bit

ecco tutto per ora :D

Immortal
11-05-2008, 22:17
le schede dovrebbero essere presentate a giugno e vendute a luglio, le prime dovrebbero essere la 4850 e 4870, quest'ultima dovrebbe andare meglio di una 9800gtx e costare sui 350 euri, pare, poi sarà la volta della 4870x2

da un punto di vista tecnico le novità salienti rispetto a rv670 saranno 480sp/32tmu, gddr5 a circa 4Ghz ddr sempre con bus a 256bit

ecco tutto per ora :D

350 dollari, non euri :D :D

<^MORFEO^>
12-05-2008, 00:04
le schede dovrebbero essere presentate a giugno e vendute a luglio, le prime dovrebbero essere la 4850 e 4870, quest'ultima dovrebbe andare meglio di una 9800gtx e costare sui 350 euri, pare, poi sarà la volta della 4870x2

da un punto di vista tecnico le novità salienti rispetto a rv670 saranno 480sp/32tmu, gddr5 a circa 4Ghz ddr sempre con bus a 256bit

ecco tutto per ora :D

:eek: :eek: :eek:

350 dollari, non euri :D :D

Ah, ecco!
Mi era preso un colpo al cuore...
Siccome, a meno che non si fosse rivelata una ciofeca, la dovrei acquistare, sarebbe stato un salasso dovermela pagare 350€ :bsod:

A.L.M.
12-05-2008, 00:22
350 dollari, non euri :D :D

Purtroppo in Europa è sempre così. 350$=350€. :( ;)

@ndrey
12-05-2008, 01:00
Purtroppo in Europa è sempre così. 350$=350€. :( ;)

Non sono d’accordo.. 9800gtx in usa non costa 220/230$ ;)

The_SaN
12-05-2008, 01:51
Oppure la 3870x2 da 399$ che costa 255 euro :)

halduemilauno
12-05-2008, 08:50
Oppure la 3870x2 da 399$ che costa 255 euro :)

ora 255€ all'inizio 355€.

halduemilauno
12-05-2008, 08:51
http://www.tomshw.it/news.php?newsid=13987
;)

Pat77
12-05-2008, 08:57
http://www.tomshw.it/news.php?newsid=13987
;)

Ottima segnalazione, secondo me si sceglierà la via di mezzo 4 Ghz.

halduemilauno
12-05-2008, 09:47
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7274&Itemid=1

GDDR3 only

We wrote that RV770XT supports 512bit here and now we have learned that the slower RV770PRO will only support 256 bit and it will use GDDR3.

It looks that the current GDDR5 design sticks with 512 bit memory interface and as RV770PRO will use 256bit GDDR3 memory. The RV770PRO will need a smaller cooler, it is definitely going to end up cheaper of two, and you can bet on a sub-$200 price.

RV770PRO will also end up with a slower clock than RV770XT but we still don’t know what is the current speed plan. It is sampled and it works at least the RV770PRO with 256bit GDDR3 does.
;)

Pat77
12-05-2008, 10:41
Le specifiche cambiano ogni giorno, secondo me il controller 512 ha senso solo in una ultra top evoluzione di r700, magari con più SP (640).

The_SaN
12-05-2008, 12:09
ora 255€ all'inizio 355€.

Come la gtx, all' inizio costava 290-300...
Il solito comportamento dei negozianti...2 settimane ed é tutto a posto.
Negli USA invece tutte e 2 le schede hanno i loro rispettivi prezzi, senza modifiche verso il basso :)

DriftKing
12-05-2008, 13:27
le schede dovrebbero essere presentate a giugno e vendute a luglio, le prime dovrebbero essere la 4850 e 4870, quest'ultima dovrebbe andare meglio di una 9800gtx e costare sui 350 euri, pare, poi sarà la volta della 4870x2

da un punto di vista tecnico le novità salienti rispetto a rv670 saranno 480sp/32tmu, gddr5 a circa 4Ghz ddr sempre con bus a 256bit

ecco tutto per ora :D

grazie :D

Rufus86
12-05-2008, 14:38
Le specifiche cambiano ogni giorno, secondo me il controller 512 ha senso solo in una ultra top evoluzione di r700, magari con più SP (640).

Come detto da altri, probabilmente quel 512 Bit che taluni indicano è semplicemente un 256+256 dato dalla presenza di due GPU nell'X2.

pierluigi86
12-05-2008, 17:21
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/mai/amds_rv770-familie_mitte_juni/
rv770 sarà presentato a metà giugno

halduemilauno
12-05-2008, 17:23
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/mai/amds_rv770-familie_mitte_juni/
rv770 sarà presentato a metà luglio

giugno.

pierluigi86
12-05-2008, 17:27
giugno.

grazie. io non ho mai studiato il tedesco.

appleroof
12-05-2008, 17:53
Come la gtx, all' inizio costava 290-300...
Il solito comportamento dei negozianti...2 settimane ed é tutto a posto.
Negli USA invece tutte e 2 le schede hanno i loro rispettivi prezzi, senza modifiche verso il basso :)

non possiamo sapere a priori se verrà applicato il cambio esatto (in un Paese normale così dovrebbe essere, ma noi siamo in Italia :winner: ) oppure 1:1 come finora fanno...

questo al lancio, sul fatto di scendere dopo dipenderà da altri fattori (prestazioni concorrenza in primis) certo i margini di rv770 dovrebbero diminuire sensibilmente rispetto a rv670 (anche per colpa delle gddr5 che all'inizio costeranno un bel pò) quindi forse non riusciranno a giocare tanto sul prezzo come fatto con 3870 & derivati

tutto poi senza considerare che le schede andranno meglio della concorrenza, ripeto, perchè se così sarà te saluto ribassi, insomma staremo a vedere

la cosa più probabile è appunto, purtroppo per tutti noi, il cambio 1:1 quindi se costerà 350$ la vedremo a 350€ :mad: ovviamente felicissimo di essere smentito

grazie :D

nada ;)

ATi7500
12-05-2008, 18:31
non possiamo sapere a priori se verrà applicato il cambio esatto (in un Paese normale così dovrebbe essere, ma noi siamo in Italia :winner: ) oppure 1:1 come finora fanno...

questo al lancio, sul fatto di scendere dopo dipenderà da altri fattori (prestazioni concorrenza in primis) certo i margini di rv770 dovrebbero diminuire sensibilmente rispetto a rv670 (anche per colpa delle gddr5 che all'inizio costeranno un bel pò) quindi forse non riusciranno a giocare tanto sul prezzo come fatto con 3870 & derivati

tutto poi senza considerare che le schede andranno meglio della concorrenza, ripeto, perchè se così sarà te saluto ribassi, insomma staremo a vedere

la cosa più probabile è appunto, purtroppo per tutti noi, il cambio 1:1 quindi se costerà 350$ la vedremo a 350€ :mad: ovviamente felicissimo di essere smentito



nada ;)

da una scheda che costa il doppio di una 3870 io mi aspetto, appunto, che vada il doppio :)

bYeZ!

halduemilauno
12-05-2008, 18:38
non possiamo sapere a priori se verrà applicato il cambio esatto (in un Paese normale così dovrebbe essere, ma noi siamo in Italia :winner: ) oppure 1:1 come finora fanno...

questo al lancio, sul fatto di scendere dopo dipenderà da altri fattori (prestazioni concorrenza in primis) certo i margini di rv770 dovrebbero diminuire sensibilmente rispetto a rv670 (anche per colpa delle gddr5 che all'inizio costeranno un bel pò) quindi forse non riusciranno a giocare tanto sul prezzo come fatto con 3870 & derivati

tutto poi senza considerare che le schede andranno meglio della concorrenza, ripeto, perchè se così sarà te saluto ribassi, insomma staremo a vedere

la cosa più probabile è appunto, purtroppo per tutti noi, il cambio 1:1 quindi se costerà 350$ la vedremo a 350€ :mad: ovviamente felicissimo di essere smentito



nada ;)


oltre che dalla concorrenza dipenderà anche da come sarà articolata la serie 4800 su 5 pezzi il prezzo sarà più alto che se fossero 4. parlo della 4870.
;)

appleroof
12-05-2008, 18:41
da una scheda che costa il doppio di una 3870 io mi aspetto, appunto, che vada il doppio :)

bYeZ!

eh...anche io (quindi 220/240 euro?), bisogna vedere però se andrà il doppio, i rumors parlano di un +50% rispetto a 3870 e di un prezzo sui 350$...:boh:

a questo punto delle 2 l'una: o andrà il doppio (allora 350 sarebbero più giustificati) oppure no e quindi costerà di meno (senza considerare il discorso sulla concorrenza), tocca aspettare...

oltre che dalla concorrenza dipenderà anche da come sarà articolata la serie 4800 su 5 pezzi il prezzo sarà più alto che se fossero 4. parlo della 4870.
;)

giusto, onestamente non sapevo questa cosa...

Freisar
12-05-2008, 20:04
RV770 = HD4870/50?

Perciò in uscita a fine giugno?

:(

<^MORFEO^>
12-05-2008, 21:16
Prestazioni a parte, secondo me 250€ sarebbe un ottimo prezzo... :O
Soprattutto considerando che ora la 3870 costa sui 150€!

The_SaN
12-05-2008, 21:35
Prestazioni a parte, secondo me 250€ sarebbe un ottimo prezzo... :O
Soprattutto considerando che ora la 3870 costa sui 150€!

250 Euro sarebbe giá piú del doppio di quello che costa la 3870 :)
Sono giá a 118 euro.

@ndrey
12-05-2008, 21:36
vuolevi dire 110€ :asd:

E poi di nuovo sto discorso $ = € :rolleyes: ma sono unico a comprare la roba con il cambio giusto :confused: o forse qst ''regola'' applicabile solo alle schede ati :O
no comment :doh:

The_SaN
12-05-2008, 21:48
vuolevi dire 110€ :asd:

E poi di nuovo sto discorso $ = € :rolleyes: ma sono unico a comprare la roba con il cambio giusto :confused: o forse qst ''regola'' applicabile solo alle schede ati :O
no comment :doh:

A 110 c'é quella gddr3, mentre le gddr4 sono 8 euro piú care :)

The_SaN
12-05-2008, 21:53
non possiamo sapere a priori se verrà applicato il cambio esatto (in un Paese normale così dovrebbe essere, ma noi siamo in Italia :winner: ) oppure 1:1 come finora fanno...

questo al lancio, sul fatto di scendere dopo dipenderà da altri fattori (prestazioni concorrenza in primis) certo i margini di rv770 dovrebbero diminuire sensibilmente rispetto a rv670 (anche per colpa delle gddr5 che all'inizio costeranno un bel pò) quindi forse non riusciranno a giocare tanto sul prezzo come fatto con 3870 & derivati

tutto poi senza considerare che le schede andranno meglio della concorrenza, ripeto, perchè se così sarà te saluto ribassi, insomma staremo a vedere

la cosa più probabile è appunto, purtroppo per tutti noi, il cambio 1:1 quindi se costerà 350$ la vedremo a 350€ :mad: ovviamente felicissimo di essere smentito



nada ;)

Il calo a cui mi sono riferito (9800gtx e 3870x2) c'é stato solo in Italia.
Negli USA il prezzo é rimasto invariato. Quindi ne deduco che le prestazioni in questo caso non c'entrano nulla, ma erano solo i negozi che ci guadagnavano sopra (con la scusa della novitá).

Ormai il cambio 1:1 non esiste da un bel po' , almeno dopo l' effetto novitá.

appleroof
12-05-2008, 21:56
Il calo a cui mi sono riferito (9800gtx e 3870x2) c'é stato solo in Italia.
Negli USA il prezzo é rimasto invariato. Quindi ne deduco che le prestazioni in questo caso non c'entrano nulla, ma erano solo i negozi che ci guadagnavano sopra (con la scusa della novitá).

Ormai il cambio 1:1 non esiste da un bel po' , almeno dopo l' effetto novitá.

si con la scusa della novità siamo d'accordo: fatto stà che in Italia è così che va (e vale per i processori ecc..)

per il prezzo legato alle prestazioni è un discorso a monte ;)

lor68pdit
12-05-2008, 22:46
.........aspettando R700 vediamo di spremere fino all'osso quelle che abbiamo!!!
http://immagini.p2pforum.it/out.php/t320659_CFRecord.JPG (http://immagini.p2pforum.it/out.php/i320659_CFRecord.JPG)

Feidar
12-05-2008, 22:51
Scommetto a liquido!

Nikolaj Wojdelko
12-05-2008, 23:10
.........aspettando R700 vediamo di spremere fino all'osso quelle che abbiamo!!!
http://immagini.p2pforum.it/out.php/t320659_CFRecord.JPG (http://immagini.p2pforum.it/out.php/i320659_CFRecord.JPG)

Un pò OT ma non è un pò poco sulla cpu ? Prova ad abbassare sia lo strap, alzare le ram ed abbassare il moltiplicatore (ram permettendo ;) ) . Secondo me dovresti fare di più , a 3740x8 ho toccato i 5850 ad aria ..

lor68pdit
12-05-2008, 23:19
:ot:
Ma, credo sia in linea, non è un QX il procio. Comunque lo strap è a 200 e sforare i 500 di FSB con la extreme per abbassare il molti non è semplice. Domani altri test. Scusate l'OT ma mi sto divertendo un pò prima del passaggio a 4870.:sperem: presto. Fine :ot:

Denny21
12-05-2008, 23:28
le schede dovrebbero essere presentate a giugno e vendute a luglio, le prime dovrebbero essere la 4850 e 4870, quest'ultima dovrebbe andare meglio di una 9800gtx e costare sui 350 euri, pare, poi sarà la volta della 4870x2

da un punto di vista tecnico le novità salienti rispetto a rv670 saranno 480sp/32tmu, gddr5 a circa 4Ghz ddr sempre con bus a 256bit

ecco tutto per ora :D

azz ! luglio,ma con le ferie settembre per una scheda meglio di una 9800gtx a 299 €?

comprare una 8800 gt adesso credete che sia una scemenza ? (o meglio una gts ?)

:help: :help:

Foglia Morta
13-05-2008, 06:59
vabbe ventola al 100% ....

http://r800.blogspot.com/

We learned that the core speed of RV770 Pro now can be reached 990MHz, using the ATI RV770 reference single slot cooler with 100% fan speed. We estimated the core speed of retail version won't be set at 990MHz; it may be at 860-910MHz. We hoped the core speed of RV770 will break 1GHz obstacle with air-cooling oc

Foglia Morta
13-05-2008, 08:05
Essendo la versione Pro sarebbe un risultato notevole, anche con la ventola al 100%...

si, anche considerando il single slot e ciò fa ben sperare per la "XT" dual slot. Dicevo "vabbe" perchè tanto sarebbe un impostazione poco fruibile a causa dell'eccessivo rumore ( ancora da conoscere ma ipotizzabile ).

Foglia Morta
13-05-2008, 08:08
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7287&Itemid=1

Behind the closed doors at Computex


AMD plans to show off its RV770XT and PRO cards at Computex but it won't launch it until late June.

We've learned that AMD plans a launch and a retail /etail availability of RV770XT and PRO based products in last week of June.

We've told you before that the real retail availability is planned for Q3 2008 and Q3 as you might know will start with first day of July. If AMD decided to launch the card at Computex, the retail cards would follow after three weeks and the company doesn’t want that.

Nvidia set up a launch and its available rule and ATI obeys to this one.

taleboldi
13-05-2008, 09:13
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7289&Itemid=1

RV770 GDDR5 to sample soon

In a week

RV770PRO with GDDR3 has been sampled a few weeks ago and AMD is about to sample RV770XT cards with GDDR5 memory.

As we said before RV770XT will end up as the faster from two and it has the 512bit memory support. Naturally, RV770XT is bigger and hotter than its predecessor, the RV670XT, but at the same time, it will end up significantly faster.

It will have a bigger cooler and of course it supports DirectX 10.1 and its developed in 55nm. Remember this is a mainstream/performance product and it won’t be that expensive.

speriamo che trapeli vedere qlcs di +

ciauz

Mercuri0
13-05-2008, 10:33
Bah, pensavo avessero già preprodotto anche la 4870.

E della 4870x2 proprio nessuna nuova :boh:

Immortal
13-05-2008, 11:20
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7289&Itemid=1

RV770 GDDR5 to sample soon

In a week

RV770PRO with GDDR3 has been sampled a few weeks ago and AMD is about to sample RV770XT cards with GDDR5 memory.

As we said before RV770XT will end up as the faster from two and it has the 512bit memory support. Naturally, RV770XT is bigger and hotter than its predecessor, the RV670XT, but at the same time, it will end up significantly faster.

It will have a bigger cooler and of course it supports DirectX 10.1 and its developed in 55nm. Remember this is a mainstream/performance product and it won’t be that expensive.

speriamo che trapeli vedere qlcs di +

ciauz

e ridaje con i 512bit... ma se fud avesse ragione (:rolleyes:) 512bit con gddr5 sarebbero solo un impiccio nella programmazione dei driver oppure potrebbero portare qualche vantaggio?

<^MORFEO^>
13-05-2008, 11:21
Fruitzilla insiste con i 512bit di bus... :fagiano:
E continuo a sostenere che sia altamente improbabile per la RV770

Pat77
13-05-2008, 11:36
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7289&Itemid=1

RV770 GDDR5 to sample soon

In a week

RV770PRO with GDDR3 has been sampled a few weeks ago and AMD is about to sample RV770XT cards with GDDR5 memory.

As we said before RV770XT will end up as the faster from two and it has the 512bit memory support. Naturally, RV770XT is bigger and hotter than its predecessor, the RV670XT, but at the same time, it will end up significantly faster.

It will have a bigger cooler and of course it supports DirectX 10.1 and its developed in 55nm. Remember this is a mainstream/performance product and it won’t be that expensive.

speriamo che trapeli vedere qlcs di +

ciauz

Bhe sulla Pro il controller 512 mi sembra alquanto improbabile. ;)

HackaB321
13-05-2008, 11:43
Rumor sull'uscita da Chiphell.
nApoleon fa parte degli utenti "ben informati" dei forum cinesi (questo non vuol dire che questa non sia una bufala ovviamente)

RV770 mainland release date has been set.
6月11日 June 11

http://translate.google.co.uk/translate?u=bbs.chiphell.com&langpair=zh%7Cen&hl=en&ie=UTF-8

Foglia Morta
13-05-2008, 11:52
e come al solito nordic hardware riscrive ciò che legge da altre parti :

http://www.nordichardware.com/news,7726.html

Reports of AMD engineers playing around with the soon to be launched RV770Pro graphics circuits says that the core has been most cooperative. Apparently they were able to hit close to 1GHz core frequency with a media sample on air cooling, and in the hands of a skilled reviewer, beyond 1GHz should not be an issue. RV770Pro will be the slower of the two RV770 cards, with RV770XT as the faster sibling. Expect the first reviews on June 11.

CJ dice 16-18 giugno la pro e una settimana dopo la xt con gddr5

Freisar
13-05-2008, 12:09
CJ dice 16-18 giugno la pro e una settimana dopo la xt con gddr5

Ma la pro non ha le GDDR5?

Foglia Morta
13-05-2008, 12:11
si dice di no, attendiamo

Mercuri0
13-05-2008, 14:46
Rumor sull'uscita da Chiphell.
nApoleon fa parte degli utenti "ben informati" dei forum cinesi (questo non vuol dire che questa non sia una bufala ovviamente)

RV770 mainland release date has been set.
6月11日 June 11

http://translate.google.co.uk/translate?u=bbs.chiphell.com&langpair=zh%7Cen&hl=en&ie=UTF-8
Che vuol dire "mainland"? In Cina? Se escono prima in Cina per il resto del mondo non ne rimangono :D

Ma la pro non ha le GDDR5?
Per pro si intende la "4850" che pare sia assodato avrà le GDDR3, e la cosa sembra pure logica.

Freisar
13-05-2008, 15:00
Per pro si intende la "4850" che pare sia assodato avrà le GDDR3, e la cosa sembra pure logica.

A sto punto mi aspetto un prezzo molto basso...

<^MORFEO^>
13-05-2008, 15:04
A sto punto mi aspetto un prezzo molto basso...

Penso sia la speranza di tutti... ;)

Enochian
13-05-2008, 15:08
Ho letto un po' il thread e volevo chiedere : ipoteticamente di quanto sarà più veloce questa r700 rispetto alla 9800gx2?

pierluigi86
13-05-2008, 15:15
Ho letto un po' il thread e volevo chiedere : ipoteticamente di quanto sarà più veloce questa r700 rispetto alla 9800gx2?

stando agli ultimi dovrebbero essere pari. ma per avere certezze bisognera aspettare giugno-luglio


per r700 intendo la 4870x2

halduemilauno
13-05-2008, 15:18
Ma la pro non ha le GDDR5?

no la xt. la differenza tra pro e xt è proprio nella frequenza.

halduemilauno
13-05-2008, 15:20
Ho letto un po' il thread e volevo chiedere : ipoteticamente di quanto sarà più veloce questa r700 rispetto alla 9800gx2?

stando agli ultimi dovrebbero essere pari. ma per avere certezze bisognera aspettare giugno-luglio

se l'amico si rifersce alla 4870x2 credo di +. certo per avere certezza tocca aspettare.

HackaB321
13-05-2008, 15:54
Che vuol dire "mainland"? In Cina? Se escono prima in Cina per il resto del mondo non ne rimangono :D


No penso sia nel senso di "giorno di lancio": le traduzioni di google translate, specie dal cinese, vanno sempre un pò interpretate

Ho letto un po' il thread e volevo chiedere : ipoteticamente di quanto sarà più veloce questa r700 rispetto alla 9800gx2?

Riassunto della situazione (tutto si basa sui rumor circolanti fino ad ora e può quindi essere benissimo smentito):
RV770XT se le specifiche sono quelle fino ad ora supposte (riassumendo: 96sp, 480ALU, 32TMU, frequenze intorno al Ghz, 16 Rops, 64 z sample per clock,120 Gb/s di banda) avrà per me prestazioni un pò superiori alla 9800Gtx diciamo molto vicine alla 3870x2 in tutti i casi dove quest'ultima non è frenata da problemi di driver. Sarà comunque sotto la GX2 a parte forse rari casi dove già oggi la 3870x2 le è vicina (ad esempio Half-Life EP2). Aggiungo che se RV770 avrà 32TFU e 64 z sample avrà prestazioni proporzionalmente migliori a R600/RV670 in situazioni con AA/AF abilitati.
Come performance per watt dovrebbe invece essere la migliore in assoluto perchè questi risultati dovrebbero essere raggiunti con soli 150w di TDP: avrà un consumo in full simile alla 8800GTS e un consumo in idle bassissimo, inferiore alle 38*0 (che già oggi sono le migliori schede da questo punto di vista).

Questi risultati così bassi dei consumi saranno ottenuti grazie alle GDDR5 (che hanno una tecnologia simile al power play per il risparmio energetico) e grazie alla revision A12 di RV670 (non in commercio ma pronta da marzo) su cui si baserà anche RV770.

Riguardo a R700 invece le notizie sono ancora molto scarne, non si sa se sarà un semplice crossfire come la 3870x2 (e in questo caso avrà prestazioni medie di un 50-60% in più di RV770 ma dipenderà molto da gioco a gioco) oppure se avrà forme più "evolute" di integrazione tra gpu: dalla memoria condivisa tra i due chip, alla ripartizione del carico tra le due gpu via hardware fino alla ipotesi più suggestiva (e quindi meno probabile) della integrazione di due gpu nello stesso package (in stile Kentsfield di Intel). I consumi saranno invece penso da record anche perchè per motivi di costi e di quasi raddoppio del bus e probabile che R700 non avrà le GDDR5. D'altronde il targeting di utenza a cui si rivolge R700 pone il problema dei consumi decisamente in secondo piano.

pierluigi86
13-05-2008, 17:18
se la 4870 andrà come la 3870x2 (quando i driver funzionano) credo proprio che sarò costretto a prenderla. :D :D :D :D

Denny21
14-05-2008, 00:06
azz ! luglio,ma con le ferie settembre ...

comprare una 8800 gt adesso credete che sia una scemenza ? (o meglio una gts ?)

:help: :help:

che ne pensate ?

<^MORFEO^>
14-05-2008, 00:40
che ne pensate ?

Se non hai una fretta tremenda, allora si che sarebbe uno sbaglio comprare adesso una scheda video di quella fascia... ;)
Io ti consiglio di aspettare!
Un pò di oculatezza nell'acquisto non ha mai fatto male a nessuno... :O

The_SaN
14-05-2008, 00:48
Se non hai una fretta tremenda, allora si che sarebbe uno sbaglio comprare adesso una scheda video di quella fascia... ;)
Io ti consiglio di aspettare!
Un pò di oculatezza nell'acquisto non ha mai fatto male a nessuno... :O

Io difficilmente consiglio di aspettare una scheda nuova. Sono sempre dell' idea che ad aspettare non si compra niente.
Peró in questo caso siamo di fronte ad una nuova generazione.
La 9800GTX probabilmente sará sostituita dal g92b, quindi consiglio di aspettare quello o la 4850/70.
Ormai manca poco...

A.L.M.
14-05-2008, 01:12
Oggi Napoleon (moderatore di Chiphell, che sulle schede ATi ci ha spesso preso), ha annunciato la data di uscita presunta di RV770: 11 giugno. :)
http://translate.google.it/translate?u=bbs.chiphell.com&sl=zh-CN&tl=en&hl=it&ie=UTF-8

Hal2001
14-05-2008, 01:24
Il link non va, metti l'originale, poi ci pensa ognuno a tradurselo ;)

HackaB321
14-05-2008, 08:05
Same as last time

We've learned that R700, a dual RV770 product, won't launch alongside with RV770 products. As we've said before, both RV770 are scheduled for late June launch and it looks like the dual chip card won't launch simultaneously.

R700 will launch at least one month later and you can probably blame the complicated design and drivers for such an inconvenient timing.

The way it looks now, GT200 based cards will launch first and then will AMD follow with its high end card.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7321&Itemid=1

RV770 sembra ormai sempre più probabile uscirà nella seconda metà di giugno. R700 un mese dopo mi sembra però improbabile perchè fine luglio da un punto di vista marketing non è certo un buon periodo per un lancio. Più probabile fine agosto per sfruttare il back-to-school e (pare) il contemporaneo lancio di GT200.

pierluigi86
14-05-2008, 08:08
questa volta sono sicuro che amd brucerà sui tempi nvidia. Non può permettersi altri ritardi ed errori

halduemilauno
14-05-2008, 08:36
questa volta sono sicuro che amd brucerà sui tempi nvidia. Non può permettersi altri ritardi ed errori

ho la sensazione che l'attuale situazione non ti sia ben chiara. una sensazione.
;)

halduemilauno
14-05-2008, 09:19
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7321&Itemid=1

Same as last time

We've learned that R700, a dual RV770 product, won't launch alongside with RV770 products. As we've said before, both RV770 are scheduled for late June launch and it looks like the dual chip card won't launch simultaneously.

R700 will launch at least one month later and you can probably blame the complicated design and drivers for such an inconvenient timing.

The way it looks now, GT200 based cards will launch first and then will AMD follow with its high end card.
;)

Immortal
14-05-2008, 09:35
riflessioni sulle varie notizie...soprattutto sui 512bit che vengono spesso annunciati ad rv770xt.

con un singolo chip, abbinato a gddr5, la banda sarebbe sproporzionata, e fin qui ci siamo tutti. Ma se r700 unisse i due chip via HT e quindi figurasse come un "unico chippone", allora quei 512bit potrebbero tornare utili. (unendo i chip con un multi-chip-package non dovrebbero fare 2x512, ma rimarrebbero i soli 512bit, giusto? sennò tutto quel che ho detto è una cagata :sofico: )
Quindi magari per non progettare 2 schede diverse, fanno una 4870 con 512bit in modo che cambiando solo chip il pcb rimane pressoché identico. Se è ipotizzabile, ditemelo che la mando come "fonte riservata" a fudzilla :P

ArCH85
14-05-2008, 09:59
può anche essere che (seguendo il tuo ragionamento) castrino la singola a 256bit per contenere i costi.

Pat77
14-05-2008, 10:02
Concordo con immortal, imho potrebbero fare un controller 512 solo per una top dual core gpu, e in quel caso servirebbe.
Per tutto il resto basta 256 e gddr5. :)

ATi7500
14-05-2008, 10:09
Concordo con immortal, imho potrebbero fare un controller 512 solo per una top dual core gpu, e in quel caso servirebbe.
Per tutto il resto basta 256 e gddr5. :)

dubito usino lo stesso PCB per una "dual gpu" e una scheda a chip singolo

bYeZ!

HackaB321
14-05-2008, 10:30
riflessioni sulle varie notizie...soprattutto sui 512bit che vengono spesso annunciati ad rv770xt.

con un singolo chip, abbinato a gddr5, la banda sarebbe sproporzionata, e fin qui ci siamo tutti. Ma se r700 unisse i due chip via HT e quindi figurasse come un "unico chippone", allora quei 512bit potrebbero tornare utili. (unendo i chip con un multi-chip-package non dovrebbero fare 2x512, ma rimarrebbero i soli 512bit, giusto? sennò tutto quel che ho detto è una cagata :sofico: )
Quindi magari per non progettare 2 schede diverse, fanno una 4870 con 512bit in modo che cambiando solo chip il pcb rimane pressoché identico. Se è ipotizzabile, ditemelo che la mando come "fonte riservata" a fudzilla :P


Per me è improbabile. 256bit+GDDR5 sono sufficienti anche per una fascia high-end se R700 sarà single-die: considera che come banda GDDR5+256>=GDDR3+512, quindi anche con bus a 256 un R700 con GDDR5 avrebbe più banda di un eventuale GT200 con GDDR3, con memorie che consumano meno e più spazio percentuale del die da dedicare ad altro. In caso di un crossfire semplice invece R700 credo avrà GDDR3 perchè potrà comunque sfruttare il doppio bus per avere più banda.

Pat77
14-05-2008, 10:57
dubito usino lo stesso PCB per una "dual gpu" e una scheda a chip singolo

bYeZ!

Era l'idea dell'unico chippone via HT che la rendeva plausibile ;)

halduemilauno
14-05-2008, 11:36
Per me è improbabile. 256bit+GDDR5 sono sufficienti anche per una fascia high-end se R700 sarà single-die: considera che come banda GDDR5+256>=GDDR3+512, quindi anche con bus a 256 un R700 con GDDR5 avrebbe più banda di un eventuale GT200 con GDDR3, con memorie che consumano meno e più spazio percentuale del die da dedicare ad altro. In caso di un crossfire semplice invece R700 credo avrà GDDR3 perchè potrà comunque sfruttare il doppio bus per avere più banda.

gddr3 a 2300 + 512 bus avrebbe + banda della gddr5 3800 + 256 di bus. per eguagliare i 2300 dovrebbe avere la ram a 4600.

Mercuri0
14-05-2008, 11:42
. In caso di un crossfire semplice invece R700 credo avrà GDDR3 perchè potrà comunque sfruttare il doppio bus per avere più banda.
Il problema è che la 4870 con le GDDR5 ha già banda doppia rispetto alla 4850 (almeno dalle stime). Anche virtualmente "raddoppiando" il bus per R700, se usasse le GDDR3 *pareggerebbe* la 4870!

Imo l'ipotesi delle GDDR3 per R700 può essere valida solo se la 4870 ha di suo banda da buttare, o se si possono alzare i clock delle GDDR3 a livelli sufficienti.


con un singolo chip, abbinato a gddr5, la banda sarebbe sproporzionata, e fin qui ci siamo tutti. Ma se r700 unisse i due chip via HT e quindi figurasse come un "unico chippone", allora quei 512bit potrebbero tornare utili. (unendo i chip con un multi-chip-package non dovrebbero fare 2x512, ma rimarrebbero i soli 512bit, giusto? sennò tutto quel che ho detto è una cagata :sofico: )

- "Unire i chip in uno stesso package" vuol dire solo metterli nella stessa scatola: da questo punto di vista non ci sarebbe nessuna differenza architetturale. Viceversa, possono esserci differenze architetturali nel loro funzionamento anche se i chip sono in scatole diverse. La questione è puramente legata al sistema di dissipazione e alla velocità richiesta per le interconnessioni tra i due chip. (più sono vicini i chip, più le interconnesioni sono veloci)

- Chi è che dovrebbe "vedere" solo un chip? A meno di un improbabile (e inutile) chip hardware che "emuli" una GPU sfruttando le due presenti, i driver e il sistema vedranno sempre 2 GPU: al massimo l'emulazione della GPU singola potrà essere fatta via software. A noi alla fine interessa che i giochi funzionino ;)

- Secondo me c'è una possibilità che in R700 ogni chip potrà accedere direttamente alla sua memoria con il suo bus a 256bit, ma potrà accedere anche all'altra memoria facendo richiesta all'altro chip. Mi sembra sia lo stesso trucco che usino gli Opteron sui sistemi multi-socket, e su beyond3d dicevano che l'architettura R600 sembra adatta a questo meccanismo. Cosi ogni chip vedrà tutta la memoria, ma con latenze differenti.

Resta da vedere come il driver sfrutterà le possibilità dell'hardware: io mi aspetto usino per lo più l'alternate frame rendering, come ora, magari via via condividendo sempre più risorse, o inserendo particolari modalità per alcuni giochi. Quindi alla fine finirà che la memoria sulla scheda sarà qualcosa del tipo 512MiB+512MiB=728MiB :D (perché alcune parti saranno duplicate, alcune no). Inutile farsi pippe, bisogna aspettare i benchmark.


Quindi magari per non progettare 2 schede diverse, fanno una 4870 con 512bit in modo che cambiando solo chip il pcb rimane pressoché identico. Se è ipotizzabile, ditemelo che la mando come "fonte riservata" a fudzilla :P
Imo è molto improbabile che dotino un chip di 256 contatti in più usati solo per R700: come aveva detto anche leoneazzurro, i contatti costano tanta superficie del chip e vanno scelti con cura.

Molto semplicemente si può intendere che il bus *interno* sia a 512bit. Del resto l'interconnessione chip-chip non è necessario che abbia 256 piedini per essere altrettanto veloce: al solito basterebbero meno connessioni e alta frequenza.

HackaB321
14-05-2008, 13:07
gddr3 a 2300 + 512 bus avrebbe + banda della gddr5 3800 + 256 di bus. per eguagliare i 2300 dovrebbe avere la ram a 4600.

Se Rv770 avrà clock di memoria a 3800 si. Ma quello che intendevo è che mentre le GDDR5 oltre 3800 effettivi vanno senza problemi, le GDDR3 oltre 2200/2300 no, quindi la soluzione GDDR5+256 fornisce potenzialmente più banda.

Il problema è che la 4870 con le GDDR5 ha già banda doppia rispetto alla 4850 (almeno dalle stime). Anche virtualmente "raddoppiando" il bus per R700, se usasse le GDDR3 *pareggerebbe* la 4870!

Imo l'ipotesi delle GDDR3 per R700 può essere valida solo se la 4870 ha di suo banda da buttare, o se si possono alzare i clock delle GDDR3 a livelli sufficienti.

Molto probabile che RV770XT avrà banda da buttare :D . Nel senso che penso ci saranno mille fattori che potranno limitare la GPU prima della banda anche se spero meno che in R600/RV670. Poi potranno esistere versioni di R700 con GDDR5 (come esistono le 3870x2 con GDDR4) ma la reference board per me sarà con GDDR3 sia per questioni di costo sia per l'inutilità di una banda superiore ai 200Gb/s



- Chi è che dovrebbe "vedere" solo un chip? A meno di un improbabile (e inutile) chip hardware che "emuli" una GPU sfruttando le due presenti, i driver e il sistema vedranno sempre 2 GPU: al massimo l'emulazione della GPU singola potrà essere fatta via software. A noi alla fine interessa che i giochi funzionino ;)


Una possibile soluzione hardware per risolvere i limiti del multigpu è quella di un chip che ripartisca il carico di lavoro tra le due (o più) gpu.
Le due possibilità in questo ambito sono una ripartizione per frame (facendo quindi quello che fanno attualmente i driver) o una ripartizione per thread (facendo quello che fanno i dispatch processor nelle gpu attuali).
Nel primo caso i vantaggi sarebbero evidenti perchè i driver vedrebbero la scheda come single-gpu, sarebbe poi compito di questa unità assegnare in modo bilanciato i frame alle varie gpu. La difficoltà di realizzare un chip del genere è ovviamente molto alta perchè, come noto, le modalità di ripartizione dovrebbero variare da gioco a gioco e da scena a scena (per questo i driver necessitano oggi di una ottimizzazione ad hoc per ogni gioco).
La seconda soluzione invece si ricollega ai chip multi-core: come oggi esiste un thread processor che ripartisce i thread fra i vari cluster, potrebbe esistere un dispatch processor superiore che ripartisce il carico a monte tra le varie gpu. In sostanza mentre la parte di thread batch setup di una gpu (in R600 command processor,setup engine,dispatch processor ed eventualmente le cache interne) non verrebbe duplicata, verrebbe duplicata (o più) solo la parte di calcolo vero e proprio (la shader-core, TMU e Rops ). I vantaggi in questo senso sarebbero di costi di progettazione, perchè invece di progettare da zero una gpu con più unità si unirebbero più unità di calcolo (un solo progetto quindi) con la condivisione a monte di un chip di scheduling.

Mercuri0
14-05-2008, 13:54
Molto probabile che RV770XT avrà banda da buttare :D . Nel senso che penso ci saranno mille fattori che potranno limitare la GPU prima della banda anche se spero meno che in R600/RV670. Poi potranno esistere versioni di R700 con GDDR5 (come esistono le 3870x2 con GDDR4) ma la reference board per me sarà con GDDR3 sia per questioni di costo sia per l'inutilità di una banda superiore ai 200Gb/s

Anche secondo me le GDDR5 daranno a R770 banda da buttare... ma per saperlo, e sapere quali memorie userà R700, dovremmo avere una vaga idea delle sue prestazioni. Aspettiamo la 4870 prima di fare scommesse :D


Una possibile soluzione hardware per risolvere i limiti del multigpu è quella di un chip che ripartisca il carico di lavoro tra le due (o più) gpu.
Il mio punto è che non è necessario che questo chip sia hardware, può essere "emulato" via software dal driver. L'approccio via driver mi sembra molto più sicuro e flessibile, e inoltre può essere implementato in maniera progressiva mano a mano che il driver si evolve.

Che vantaggio ci sarebbe se il driver vedesse la scheda come singola GPU?
Il driver può vedere quel che vuole (e più vede e meglio è)

Il punto cruciale sta in cosa è che vedono le API e i giochi.

A meno che non ci sia qualche collo di bottiglia per cui convenga un componente dedicato. Ma questo può saperlo solo AMD :boh:

Daytona
14-05-2008, 15:42
RV770XT cooler exposed

Queste non sarebbe meglio metterle in prima pagina?! ;)

http://bbs.chiphell.com/attachments/month_0804/20080412_99a352fa5cdc00c12ef59TliiiYtmh6h.jpg

http://bbs.chiphell.com/attachments/month_0804/20080412_c081e23a80c02f4d6fdacVhZElGKEgGc.jpg

HackaB321
14-05-2008, 15:46
Che vantaggio ci sarebbe se il driver vedesse la scheda come singola GPU?
Il driver può vedere quel che vuole (e più vede e meglio è)

Il punto cruciale sta in cosa è che vedono le API e i giochi.

A meno che non ci sia qualche collo di bottiglia per cui convenga un componente dedicato. Ma questo può saperlo solo AMD :boh:


Tutto quello che "vedono" le API e i giochi prima di essere passato all'hardware deve passare per i driver perchè sono i driver che convertono le chiamate delle API per l'hw che gestiscono.
Una ripartizione via hardware avrebbe tre vantaggi:

-Non sarebbe necessario scrivere dei driver ad hoc per gestire il multigpu.
-Ogni singolo gioco non andrebbe ottimizzato per il multigpu
-Non vi sarebbe quella perdita di performance che in informatica c'è sempre quando una componente hw viene emulata via software

Già oggi le gpu sono in un certo senso multicore (i cluster di G80 soprattutto possono essere visti come "core"), la ripartizione del carico tra i core però non avviene via software ma via hardware (tramite il dispatch processor). I driver di G80 sono gli stessi indipendentemente dal numero di core che devono gestire perchè la gpu ha componenti hardware al suo interno che ripartiscono i thread tra le varie unità. In altre parole, tra una GTX e una GTS non vi sono differenze a livello di driver nonostante la GTX abbia due "core" in più perchè la ripartizione del carico tra core non viene gestita dai driver.
Avere un multigpu gestito via hw vorrebbe dire trasformare questa ripartizione invece che a livello di cluster a livello di gpu. Quindi vorrebbe dire avere gli stessi driver indipendentemente da quante gpu vi sono nel die o nella scheda.

Pat77
14-05-2008, 15:59
RV770XT cooler exposed

Queste non sarebbe meglio metterle in prima pagina?! ;)

http://bbs.chiphell.com/attachments/month_0804/20080412_99a352fa5cdc00c12ef59TliiiYtmh6h.jpg

http://bbs.chiphell.com/attachments/month_0804/20080412_c081e23a80c02f4d6fdacVhZElGKEgGc.jpg

Sembra il primo di 2900xt.
Poi ne fecero uno con 3 pipe mi pare.

Mercuri0
14-05-2008, 16:13
Tutto quello che "vedono" le API e i giochi prima di essere passato all'hardware deve passare per i driver perchè sono i driver che convertono le chiamate delle API per l'hw che gestiscono.

Appunto: quindi è il driver che fa vedere quello che vuole al programma che utilizza le API.

Una ripartizione via hardware avrebbe tre vantaggi:

-Non sarebbe necessario scrivere dei driver ad hoc per gestire il multigpu.

Sarebbe necessario progettare hardware ad hoc per gestire il multigpu, ed evolverlo e correggerlo in presenza di bug.

-Ogni singolo gioco non andrebbe ottimizzato per il multigpu

E' proprio questa la cosa su cui non ci troviamo: se il gioco vede una sola GPU (perché il driver gliela fa vedere) per il gioco non cambia se "la fusione" è fatta dal driver o via hardware. Viceversa, tutti i problemi di incompatibilità che ci potrebbero essere, ci sarebbero anche se l'implementazione fosse fatta via hardware.

Con la differenza che il driver lo aggiorni, l'hardware è più difficile ;)


-Non vi sarebbe quella perdita di performance che in informatica c'è sempre quando una componente hw viene emulata via software

Zi, ma ragionando così arriveresti a dire che è meglio imbottire il PC di chip hardware ognuno per una funzione specifica invece di usare la CPU.

Il discorso, al solito, è di bilanciare le prestazioni/costo: mi conviene più un chip hardware o usare la CPU? Questo è un discorso che devono farsi alla AMD.

Il problema è che la soluzione hardware è troppo meno flessibile. Probabilmente avrebbe senso usarla per allargare qualche ipotetico collo di bottiglia nell'architettura, di cui però non ho né informazioni né competenze per discutere.

Al solito, penso che adotteranno una soluzione ibrida: il driver farà il lavoro "facilitato" da alcune caratteristiche hardware messe apposta nei chip.

Comunque il punto della mia discussione era ribadire che "il sistema vede una sola GPU" vuol dire poco o niente: è importante, semmai, quello che vede il gioco.

p.s. alle volte in effetti mi sento troppo pedante :stordita:

HackaB321
14-05-2008, 17:02
E' proprio questa la cosa su cui non ci troviamo: se il gioco vede una sola GPU (perché il driver gliela fa vedere) per il gioco non cambia se "la fusione" è fatta dal driver o via hardware. Viceversa, tutti i problemi di incompatibilità che ci potrebbero essere, ci sarebbero anche se l'implementazione fosse fatta via hardware.


Il gioco non "vede" nessuna gpu. Il gioco, o meglio le API, "chiamano" l'hardware per l'esecuzione di un'istruzione, i driver convertono quella chiamata per l'hardware che gestiscono . Il problema è che se la gpu è una sola, i driver devono "solo" adattare e tradurre le istruzioni che compongono la scena da renderizzare per l'hw, se le gpu sono più di una devono prima scomporre la scena in frame alternati (se usano l'AFR), stabilire in base alla complessità della scena due o più carichi di ripartizione equilibrati e poi inviare un carico fi frame ad una gpu e l'altro all'altra. Il tutto si traduce in un lavoro pazzesco di tuning del software che varia da gioco a gioco e da scena a scena.
Se esistesse viceversa un hardware adatto a ripartire il carico tra le varie gpu basterebbe scrivere un firmware che regoli il funzionamento di ripartizione indipendentemente dal gioco come già succede adesso nei dispatch processor delle gpu (dove ripeto la ripartizione dei thread NON è fatta dai driver).
Oggi nelle GPU si cerca, il più possibile e dove possibile, di "convertire" in componenti hardware ciò che prima veniva fatto via driver: basti pensare al Command Processor di R600 che è lì per ottimizzare e ridurre molti dei compiti svolti dai driver in generazioni precedenti di gpu ATi.

Immortal
14-05-2008, 18:59
Il problema è che la 4870 con le GDDR5 ha già banda doppia rispetto alla 4850 (almeno dalle stime). Anche virtualmente "raddoppiando" il bus per R700, se usasse le GDDR3 *pareggerebbe* la 4870!
Imo l'ipotesi delle GDDR3 per R700 può essere valida solo se la 4870 ha di suo banda da buttare, o se si possono alzare i clock delle GDDR3 a livelli sufficienti.


intanto premetto che la mia era solo un ipotesi campata per aria..non un'analisi attenta e precisa (anche perché dati ne abbiamo gran pochi). :p


- "Unire i chip in uno stesso package" vuol dire solo metterli nella stessa scatola: da questo punto di vista non ci sarebbe nessuna differenza architetturale. Viceversa, possono esserci differenze architetturali nel loro funzionamento anche se i chip sono in scatole diverse. La questione è puramente legata al sistema di dissipazione e alla velocità richiesta per le interconnessioni tra i due chip. (più sono vicini i chip, più le interconnesioni sono veloci)

- Chi è che dovrebbe "vedere" solo un chip? A meno di un improbabile (e inutile) chip hardware che "emuli" una GPU sfruttando le due presenti, i driver e il sistema vedranno sempre 2 GPU: al massimo l'emulazione della GPU singola potrà essere fatta via software. A noi alla fine interessa che i giochi funzionino ;)

Resta da vedere come il driver sfrutterà le possibilità dell'hardware: io mi aspetto usino per lo più l'alternate frame rendering, come ora, magari via via condividendo sempre più risorse, o inserendo particolari modalità per alcuni giochi. Quindi alla fine finirà che la memoria sulla scheda sarà qualcosa del tipo 512MiB+512MiB=728MiB :D (perché alcune parti saranno duplicate, alcune no). Inutile farsi pippe, bisogna aspettare i benchmark.



per "unire i chip nello stesso package" intendo fare la stessa cosa che han fatto con i primi core 2 quad, dove hanno unito 2 dual in un unico die (spero di non far casino con i termini, in caso scusami).
In questo caso "vedendo un solo chip" si avrebbe bisogno di una memoria unica condivisa permettendo FORSE un'elaborazione più veloce. Intendo dire che MAGARI in un caso del genere l'AFR non servirebbe e quindi i due chip al posto di lavorare in parallelo (ognuno col proprio frame da elaborare), potrebbero lavorare insieme allo stesso frame (nel caso in cui unendo i due chip, ne venisse fuori uno, ad esempio, in grado di gestire 960 spu e non 2x480spu). E questo porterebbe vantaggi nell'immediato in tutti quei giochi che non supportano ancora tecnologie multi-gpu.
Ripeto che la mia è solo un'ipotesi campata per aria, magari totalmente irrealizzabile (il corso di architettura è l'anno prossimo :p ), o cmq non realizzabile a breve ;)


Imo è molto improbabile che dotino un chip di 256 contatti in più usati solo per R700: come aveva detto anche leoneazzurro, i contatti costano tanta superficie del chip e vanno scelti con cura.

Molto semplicemente si può intendere che il bus *interno* sia a 512bit. Del resto l'interconnessione chip-chip non è necessario che abbia 256 piedini per essere altrettanto veloce: al solito basterebbero meno connessioni e alta frequenza.


la mia ipotesi era quella di fare un pcb con le piste per i 512bit, in grado di ospitare sia rv770 che r700 (nel caso sia un chip "unico" come detto prima), senza "perdere" tempo nella riprogettazione di 2 pcb differenti. Da un lato risparmierebbero tempo nella progettazione di 2 pcb differenti, dall'altro, come giustamente fai notare, il costo sarebbe più elevato e le rese inferiori. Ma vabbé..o aspettiamo ancora un mesetto, o ci dotiamo tutti di una palla di vetro :sofico:

Foglia Morta
14-05-2008, 20:52
sarà vero ?

Poco tempo fa un cinese aveva detto proprio 256mm2

http://img98.imageshack.us/img98/3483/20080515450515a91407ef9vj5.jpg

Paskyno
14-05-2008, 21:38
RV770XT cooler exposed

Queste non sarebbe meglio metterle in prima pagina?! ;)

http://bbs.chiphell.com/attachments/month_0804/20080412_99a352fa5cdc00c12ef59TliiiYtmh6h.jpg

http://bbs.chiphell.com/attachments/month_0804/20080412_c081e23a80c02f4d6fdacVhZElGKEgGc.jpg

si in effetti assomiglia a quello della 2900xt

http://www.techpowerup.com/reviews/ATI/HD_2900_XT/images/cooler1.jpg

http://www.techpowerup.com/reviews/ATI/HD_2900_XT/images/cooler2.jpg

A.L.M.
14-05-2008, 22:01
Chiphell, tramite il solito Napoleon, fa qualche altra rivelazione riguardo RV770: dopo la data di presentazione (che dovrebbe essere l'11 giugno (http://en.chiphell.com/?p=10)), rivela i clocks potenziali.

The revision “A12″ RV770PRO core frequency have been able to reach 980MHZ. The testing card only uses one slot cooler and makes cooler work at full speed. The retail RV770PRO will not be working at 980MHZ level, and the retail card’s working frequency would possibly be limited into 850-900MHZ. But with a better cooling condition, it is not so hard for RV770PRO core to break 1GHZ.

HD4850 (RV770Pro) dovrebbe essere una single slot, e pare riesca ad arrivare a 980MHz in OC con lo stock cooler... :eek:

Per finire un confronto tra le superfici di alcuni chip... :D

http://bbs.chiphell.com/attachments/month_0805/20080514_1b291e6ab5e4ee03ce0b6rpe9qyNoT0k.jpg

256mm^2 vs 192mm^2, dunque, ossia il 33.33% in più.
Non sembra tantissimo, ma se pensiamo che RV670 è solo il 62.7% più grande di RV635 (die size di 118mm^2), pur avendo il 166.67% in più di shaders, un bus doppio, TMU doppie e ROPs triple, allora ci si accorge che lo spazio in più è parecchio (dato che il bus per RV670 e RV770 sarà lo stesso). ;)

Errik89
14-05-2008, 22:27
Chiphell, tramite il solito Napoleon, fa qualche altra rivelazione riguardo RV770: dopo la data di presentazione (che dovrebbe essere l'11 giugno (http://en.chiphell.com/?p=10)), rivela i clocks potenziali.



HD4850 (RV770Pro) dovrebbe essere una single slot, e pare riesca ad arrivare a 980MHz in OC con lo stock cooler... :eek:

Per finire un confronto tra le superfici di alcuni chip... :D

http://bbs.chiphell.com/attachments/month_0805/20080514_1b291e6ab5e4ee03ce0b6rpe9qyNoT0k.jpg

256mm^2 vs 192mm^2, dunque, ossia il 33.33% in più.
Non sembra tantissimo, ma se pensiamo che RV670 è solo il 62.7% più grande di RV635 (die size di 118mm^2), pur avendo il 166.67% in più di shaders, un bus doppio, TMU doppie e ROPs triple, allora ci si accorge che lo spazio in più è parecchio (dato che il bus per RV670 e RV770 sarà lo stesso). ;)
è sempre e comunque meno di G92 e penso che sia anche poco meno di G94 o alla pari (da quel che mi ricordo era intorno ai 250mmq anche G94).
Comunque se tutte le indiscrezioni arrivate fin'ora si riveleranno vere (prestazioni comprese) direi che l'anno azzeccata in pieno! :)

A.L.M.
14-05-2008, 22:34
è sempre e comunque meno di G92 e penso che sia anche poco meno di G94 o alla pari (da quel che mi ricordo era intorno ai 250mmq anche G94).
Comunque se tutte le indiscrezioni arrivate fin'ora si riveleranno vere (prestazioni comprese) direi che l'anno azzeccata in pieno! :)

G92 è a 65nm, RV670 e RV770 sono a 55nm. ;)

Mercuri0
14-05-2008, 23:45
G92 è a 65nm, RV670 e RV770 sono a 55nm. ;)

Su beyond3d avevano stimato a spanne che RV770 fosse più piccolo persino del G92B.

Aspettiamo di vedere le prestazioni :)


Se esistesse viceversa un hardware adatto a ripartire il carico tra le varie gpu

Non riusciamo ad intenderci, ma stasera l'ora è tarda :)

per "unire i chip nello stesso package" intendo fare la stessa cosa che han fatto con i primi core 2 quad, dove hanno unito 2 dual in un unico die (spero di non far casino con i termini, in caso scusami).

Dicevo che non è un discorso di scatola: per l'aspetto elettrico, tra più core (parlo di core in senso generico) sullo stesso pcb, package o die l'unica cosa che cambia è la velocità delle interconnessioni, i costi di produzione e il sistema di dissipazione.

E' tutto slegato dall'architettura*, è sbagliato pensare che mettendoli nella stessa scatola cambi qualcosa, o che viceversa se stanno separati non può cambiar niente.

(ovviamente l'architettura deve tener conto delle velocità elettriche nelle interconnesioni)

p.s. tutti i Quad di intel sono tuttora 2 die su un piccolo PCB ad alte prestazioni,(di solito si chiamano "Multi Chip Module"), in un singolo package.

A.L.M.
15-05-2008, 00:04
Su beyond3d avevano stimato a spanne che RV770 fosse più piccolo persino del G92B.

Io invece penso che saranno praticamente uguali.
Tra RV630 e RV635 in termini di volume di unità funzionali non c'è praticamente differenza. Quindi credo che sia un ottimo esempio del guadagno che NVidia potrebbe ottenere passando dai 65nm ai 55nm.

RV630=153mm^2
RV635=118mm^2

Ossia il passaggio ad un processo produttivo inferiore ha portato ad una riduzione del die size di circa il 23%.

G92= 334mm^2
G92b= 334*(1-0.23)= 257mm^2

Piuttosto la cosa incredibile è che più o meno nello stesso spazio ATI dovrebbe riuscire a stipare oltre 100 milioni di transistors in più rispetto a NVidia (oltre 850 milioni vs 754 milioni).

Milotto
15-05-2008, 01:50
Qualche altra informazione interessante su prezzo e prestazioni....:

http://www.tgdaily.com/content/view/37453/135/

Per quanto mi riguarda mi auguro che la 4870 sia decisamente più performante della 3870x2 ,raggiungere dopo due anni le prestazioni della 8800GTX..... =(
E Chissà se ATi sarà in grado con R700 di incrementare l'efficienza hardware e quindi di avvicinare l'indice di rendimento della sua soluzione MultiGPU al 200% rispetto a RV770...?
Cmq , in quanto a consumi e prezzo ..: decisamnete OK!

notte..;) :)

Hal2001
15-05-2008, 02:20
160-180€ per la top.. magari :D

halduemilauno
15-05-2008, 07:11
http://forums.vr-zone.com/showthread.php?t=275818

TG Daily Exclusive – We previously published several details about AMD’s next-generation graphics card lineup and as we get closer to the launch we are getting more details about the launch date, feature set and prices. The good news: The new boards will come with “physics processing capability” and prices that will start below $200 for a 512 MB board. The bad news: The 4800 series will launch after Nvidia’s GT200.

Yes, we know, we previously said that the 4800 series would launch in May, but as it stands right now, we won’t be seeing the first new cards until mid-June. According To AMD’s current introduction schedule, the Radeon 4800 series will launch in week 25, which puts the day of the introduction somewhere between June 15 and June 22. What is significant about this time frame is that ATI will trail Nvidia and their new high-end chip GT200.

halduemilauno
15-05-2008, 07:16
http://www.tomshw.it/news.php?newsid=14031
Rispetto alle indiscrezioni di qualche settimana fa, emergono maggiori dettagli sulle schede video Radeon HD 4800 in sviluppo presso ATI, divisione grafica di Advanced Micro Devices. Innanzitutto, urge una rettifica sulla data di presentazione: non più maggio, ma probabilmente tra il 15 e il 22 giugno. Stando a quanto riportato dai colleghi di TG Daily, il ritardo permetterà a nVidia di presentare i nuovi prodotti GT 200 prima di ATI. Il nuovo chip nVidia e i prodotti derivati, tuttavia, non dovrebbero essere concorrenti diretti dei chip RV770, a cui nVidia dovrebbe opporre soluzioni G92 a 55 nanometri (9800 GT e simili).

La serie ATI Radeon HD 4800, sarà disponibile in tre modelli principali: 4850, 4870 e 4870 X2 (R700).

La Radeon 4850, nome in codice "Makedon" - come il Terry Makedon, l'uomo dei Catalyst - integrerà 512 MB di memoria GDDR3, avrà un raffreddamento in grado di occupare un singolo slot, supporterà la tecnologia multischeda CrossFireX e richiederà alimentazione ausiliaria grazie a un connettore a 6 pin. Alcuni OEM o produttori, potrebbero proporre la scheda anche con 256 MB di memoria, sempre GDDR3.

A luglio, saranno disponibili le schede Radeon HD 4870 512 MB GDDR5 e HD 4870 X2 1024 MB GDDR5 (R700). Il chip, nome in codice "Trojan", sarà raffreddato da un dissipatore dual-slot. Per quanto concerne la Radeon 4870, alcuni produttori potrebbero svelare in futuro modelli con 1 GB di memoria.

Per quanto riguarda le prestazioni, una scheda 4870 dovrebbe essere alla pari - o addirittura più veloce - di una 3870 X2. La nuova soluzione dual-chip, la 4870 X2, dovrebbe integrare un controller PCIe rinnovato: pari infatti che tra i problemi della 3870 X2 ci fosse il controller PCIe Gen1, limitativo per lo spostamento dei dati tra i core e il sistema e quindi per le prestazioni.



Oltre alle tecnologie implementate con la gamma HD 3800, alcuni materiali promozionali nelle mani dei colleghi riportano la voce "Game physics processing capability", ma non è chiaro a cosa si riferisca. Tra le altre caratteristiche, il supporto all'audio 7.1 canali via HDMI, un miglioramento significativo dell'uscita del colore e l'UVD - Unified Video Decoder - di seconda generazione. Non è chiaro se sarà presente una porta HDMI 1.3.

I consumi saranno tenuti a bada dalla funzionalità PowerPlay. Nessuna delle schede video single chip sarà equipaggiata con connettori 8+6pin ausiliari (la mente ritorna alla 2900 XT) e, sempre sul materiale promozionale, vengono indicati alimentatori da 450 watt per configurazioni a singola scheda, e da 550 watt per configurazioni CrossFireX a due schede.

E ora parliamo di prezzi, tuttavia non ancora ufficializzati. La Radeon 4850 dovrebbe avere un prezzo tra i 189 e i 219 dollari, mentre la 4870 GDDR5 dovrebbe inserirsi tra i 249 e i 279 dollari (AMD, tuttavia, potrebbe scendere fascia tra i 199 e i 249 dollari).

Prezzi, tecnologie e prestazioni dovrebbero essere interessanti, la palla quindi passa a nVidia: riuscirà a controbattere o saremo spettatori di un ritorno in grande stile di ATI?

Athlon 64 3000+
15-05-2008, 07:32
personalmente ritengo da parte di AMD che non avrebbe senso prima presentare la HD 4850 a giungo e poi a luglio la HD 4870,ma che essendo basate sullo stesso chip dovrebbe essere lanciata gia a giugno e poi a luglio lancierà R700.