View Full Version : [THREAD UFFICIALE] Aspettando R700
HackaB321
24-04-2008, 10:14
In realtà anche G80 potrebbe supportare filtri customizzati, essendo il resolve via shader possibile anche con g80 (non a caso nvidia nel caso di Call of Juarez accusava i programmatori di aver forzato esclusivamente questa modalità). Se non erro la possibilità di effettuare il resolve via shader è uno dei requisiti delle DX10 "base". Ma rispetto a R6XX, che nasce esclusivamente con il resolve via shader, sicuramente incorre in una penalità prestazionale piuttosto alta.
Nel caso delle DX10.1 il resolve via shader viene "esposto" nella API e sarà quindi programmabile direttamente dagli sviluppatori anzichè soltanto dai driver team delle rispettive aziende.
Ok non sapevo di questa differenza tra filtri personalizzati via driver (nelle DX10) e via applicazione (nelle Dx10.1). Quindi anche in G80 è possibile creare e aggiungere un nuovo filtro ma solo dal driver team, solo a patto di non usare le Rops per il resolve e solo mettendo in conto un aggravio prestazionale maggiore che in R600.
Nel caso delle DX10.1 il resolve via shader viene "esposto" nella API e sarà quindi programmabile direttamente dagli sviluppatori anzichè soltanto dai driver team delle rispettive aziende.
Che è poi la cosa migliore per un'ottimizzazione specifica dei filtri.
mokaverus
24-04-2008, 10:40
la cosa che mi sembra strana è che nvidia ha un rapporto preciso tra shader e core di 2,5:1 mentre ati secondo i rumors ha un rapporto casuale diverso tra le varie vga.
4870: 1050/850 = 1.2352...../1
4850: 850/650 = 1.3076...../1
magari non centra niente, però sembra strano.
Per me sono scelte progettuali che non indicano affatto un problema :cool:
La HD3850 in € secondo i rumor quando verrebbe?
:D dove incominciare a fare i miei calcoli per le spese...e poi ho il problema dell'ali....se va bene o no.....
HackaB321
24-04-2008, 11:25
la cosa che mi sembra strana è che nvidia ha un rapporto preciso tra shader e core di 2,5:1 mentre ati secondo i rumors ha un rapporto casuale diverso tra le varie vga.
4870: 1050/850 = 1.2352...../1
4850: 850/650 = 1.3076...../1
magari non centra niente, però sembra strano.
C'entra invece ed è normale che ti sembri strano. Sembra molto strano anche a me che infatti ho molti dubbi riguardo a frequenze distinte per gli shaders in RV770.
albert75
24-04-2008, 11:41
http://www.tgdaily.com/content/view/37093/135/
ATI’s RV770 will be rated at a fill rate of 20.8-27.2 GTexel/s (excluding X2 version), which is on the lower end of the GeForce 9 series (9600 GT: 20.8; 9800 GTX: 43.2 9800 GX2: 76.8).
New for the 4800 series is AMD’s decision to split the clock of the GPU and shaders, following a move that Nvidia made with the GeForce 8800: Back then, the shaders were clocked at 1.35 GHz, while the rest of the chip ticked at 575 MHz.[/I]
secondo questo dato la 4870 e' inferiore alla 9800gtx o non c' entra niente
halduemilauno
24-04-2008, 11:41
La HD3850 in € secondo i rumor quando verrebbe?
:D dove incominciare a fare i miei calcoli per le spese...e poi ho il problema dell'ali....se va bene o no.....
poco più di 100€...
http://www.trovaprezzi.it/categoria.aspx?libera=3850&id=28&prezzoMin=&prezzoMax=&sbox=sb
;)
goldorak
24-04-2008, 11:47
secondo questo dato la 4870 e' inferiore alla 9800gtx o non c' entra niente
No, che sia inferiore (prestazionalmente) lo dici tu mica l'articolo. :stordita:
Quest'ultimo dice solo che il fillrate delle 48xx e' numericamente inferiore a quello delle schede Nvidia.
Da qui a inferire che la 48xx andranno peggio delle GF9xxx bisogna fare o un salto di logica grande quanto il grand canyon oppure fare un atto di fede verde.
albert75
24-04-2008, 11:52
No, che sia inferiore (prestazionalmente) lo dici tu mica l'articolo. :stordita:
Quest'ultimo dice solo che il fillrate delle 48xx e' numericamente inferiore a quello delle schede Nvidia.
Da qui a inferire che la 48xx andranno peggio delle GF9xxx bisogna fare o un salto di logica grande quanto il grand canyon oppure fare un atto di fede verde.
:mbe: veramente ho chiesto solo e non sto infierendo su nessuno....sto aspettando anche io la 4870...sapevo solo che il pixel fillrate e' importante nei giochi
http://www.neoseeker.com/news/7932-supposed-specs-for-atis-hd-4850-and-4870-leaked/
da questa tabella addirittura il fillrate sarebbe più basso rispetto anche ad una 8800gt,però non credo che questo fattore comprometta nell'insieme le prestazioni di questa scheda,o almeno lo spero..:stordita:
albert75
24-04-2008, 12:01
hal illuminaci:sofico:
halduemilauno
24-04-2008, 12:13
hal illuminaci:sofico:
sul fillrate? in questo caso non va paragonato a quello delle nvidia ma a quello della 3870/3870x2. ho gia detto che nel complesso + o - la 4870 sarà da paragonare proprio alla 3870x2.
albert75
24-04-2008, 12:17
sul fillrate? in questo caso non va paragonato a quello delle nvidia ma a quello della 3870/3870x2. ho gia detto che nel complesso + o - la 4870 sarà da paragonare proprio alla 3870x2.
quindi un fillrate inferiore alla 9800gtx non vuol dire che vada peggio nei giochi??
mokaverus
24-04-2008, 12:19
quindi un fillrate inferiore alla 9800gtx non vuol dire che vada peggio nei giochi??
il fillrate della 3870 è quasi metà della 9600gt e un terzo della 8800gt, non mi sembra che rispecchi le prestazioni.
albert75
24-04-2008, 12:20
il fillrate della 3870 è quasi metà della 9600gt e un terzo della 8800gt, non mi sembra che rispecchi le prestazioni.
beh pero' in effetti la 3870 non va proprio come una 9600gt
halduemilauno
24-04-2008, 12:38
quindi un fillrate inferiore alla 9800gtx non vuol dire che vada peggio nei giochi??
spero che questo ti aiuti a capire...
http://www.tomshw.it/guide.php?guide=20060731&page=schede_video_per_principianti_parte_2-02
HackaB321
24-04-2008, 12:38
beh pero' in effetti la 3870 non va proprio come una 9600gt
Ti sembra che vada la metà? Il texture fillrate è uno dei 3-400 parametri che determinano le prestazioni finali di una schede video: basare delle previsioni di performance solo su quello è come dire che una ferrari va più forte di una 500 perchè ha le ruote più grosse.
albert75
24-04-2008, 12:41
Ti sembra che vada la metà? Il texture fillrate è uno dei 3-400 parametri che determinano le prestazioni finali di una schede video: basare delle previsioni di performance solo su quello è come dire che una ferrari va più forte di una 500 perchè ha le ruote più grosse.
il fillrate e' un risultato come lo e' il punteggio del 3dmark piu' o meno...quindi se tanto mi da tanto....
albert75
24-04-2008, 12:41
spero che questo ti aiuti a capire...
http://www.tomshw.it/guide.php?guide=20060731&page=schede_video_per_principianti_parte_2-02
grazie hal gia' l' ho letta quella guida;)
HackaB321
24-04-2008, 12:48
il fillrate e' un risultato come lo e' il punteggio del 3dmark piu' o meno...quindi se tanto mi da tanto....
No. Il 3d mark è un bench sintetico che simula le prestazioni delle gpu sfruttando nel complesso l'insieme delle caratteristiche di quest'ultime. Utilizza un proprio motore di rendering che può avvantaggiare una particolare architettura in maniera più o meno diversa da come fanno i giochi (per questo il risultato può differire + o - da quello che si vede in game).
Il texture fillrate è solo un parametro che indica il massimo potenziale teorico di una scheda video nello svolgere uno specifico compito: niente vieta che una gpu con meno texture fillrate abbia prestazioni superiori ad una con più texture fillrate.
Oltre tutto il tf è anche un parametro approssimativo (come tutti i fillrate) delle capacità di texturing perchè è il semplice prodotto tra numero di TMU e frequenza: non ci dice nulla sulle capacità delle singole TMU di svolgere più o meno operazioni per clock nè della loro ottimizzazione nel modo in cui operano in collaborazione con le unità di calcolo.
beh pero' in effetti la 3870 non va proprio come una 9600gt
infatti la 3870 va di piu senza filtri (sopratutto aniso) e di meno con :)
bYeZ!
albert75
24-04-2008, 12:51
No. Il 3d mark è un bench sintetico che simula le prestazioni delle gpu sfruttando nel complesso l'insieme delle caratteristiche di quest'ultime. Utilizza un proprio motore di rendering che può avvantaggiare una particolare architettura in maniera più o meno diversa da come fanno i giochi (per questo il risultato può differire + o - da quello che si vede in game).
Il texture fillrate è solo un parametro che indica il massimo potenziale teorico di una scheda video nello svolgere uno specifico compito: niente vieta che una gpu con meno texture fillrate abbia prestazioni superiori ad una con più texture fillrate.
scusa il fillrate non e' la quantita' massima di pixel che una scheda puo' elaborare....indi visto che i giochi sono pixellosi e' il parametro piu' importante da tenere sotto controllo....penso....
HackaB321
24-04-2008, 13:01
scusa il fillrate non e' la quantita' massima di pixel che una scheda puo' elaborare....indi visto che i giochi sono pixellosi e' il parametro piu' importante da tenere sotto controllo....penso....
texture fillrate=TMU x Frequenza (numero massimo teorico di operazioni di texture mapping al secondo)
pixel fillrate=Rops x Frequenza (numero massimo teorico di pixel che la gpu può scrivere nel framebuffer al secondo)
Foglia Morta
24-04-2008, 13:24
http://forums.vr-zone.com/showthread.php?t=266999
Nvidia G92 yield rate isn't good so per chip production cost is about $100. There are many variants of G92 out there and 8800GT is only one that Nvidia is selling at a loss. Nvidia has to shift to 55nm fast to lower cost. The new 55nm G92 is said to cost about $70-80 and performance wise will be comparable to RV770.
poco più di 100€...
http://www.trovaprezzi.it/categoria.aspx?libera=3850&id=28&prezzoMin=&prezzoMax=&sbox=sb
;)
Scusa intendevo la 4850.... lapsus...
Tidus.hw
24-04-2008, 13:36
ragazzi bisogna distinguere il pixel fillrate e texture fillrate (o texel rate).
E' nel texel rate che le ati sono molto distanti dalle nvidia, non nel pixel fillrate.
supercomputer1
24-04-2008, 13:36
albert i giochi non fanno uso massiccio di pixel come dici tu ma bensi fanno uso massiccio di texture, cio' ne deriva anche il fatto che le Nvidia avendo un maggior numero di (TMU=texture management unit) fanno piu (FPS=frame per second) nei giochi ed avendo un maggior numero di (rop=raster opertion) hanno una texture fill rate maggiore delle concorrenti Ati, ma il rovescio deella medaglia viene fuori se si confrontano le prestazioni tra Nvidia ed Ati usando il 3d mark il quale facendo un uso massiccio di calcoli matematici tipo Perlin noise che serve a generare frattali producendo rumore generato in modo casuale cioe' vengono create delle specie di simulazioni casuali delle variabili d'ambiente tipo creazione nuvole ecc. effeti di luce creati con applicazione dell' (HDR=hight dinamic range) ed altri test di tipo matematico vengono creati dal 3dmark difatti con il 3d mark le ATI non le batte nessuno
prpoipio perche i veri effetti della grafica li genera il 3d mark.
La grafica 3d generata dai games non ha niente a che veder con la vera grafica 3d alcuni di questi effetti li crea il 3d mark.
Poi un 'altra cosa sfido chiunque abbia una Nvidia a prendere un gioco fare delle screenshot avendo lo stesso monitor e stesso sistema e poi rifare le stesse screenshot sullo stesso sistema pero' utilizzando una ATI e poi vedere le differenze di luce e colori e la definizione degli oggetti. e confrontarli con gli screenshot su cui vi era installata una Nvidia. le immagini generate dalle ATI vengono definite meglio .
albert75
24-04-2008, 13:40
albert i giovci non fanno uso massiccio di pixel come dici tu ma bensi fano uso massiccio di texture, cio' ne deriva anche il fatto che le Nvidia avendo un maggior numero di (TMU=texture management unit) fanno piu (FPS=frame per second) nei giochi ed avendo un maggior numero di (rop=raster opertion) hanno una texture fill rate maggiore delle concorrenti Ati, ma il rovescio deella medaglia viene fuori se si confrontano le prestazioni tra Nvidia ed Ati usando il 3d mark il quale facendo un uso massiccio di calcoli matematici tipo Perlin noise che serve a generare frattali producendo rumore generato in modo casuale cioe' vengono create delle specie di simulazioni casuali delle variabili d'ambiente tipo creazione nuvole ecc. effeti di luce creati con applicazione dell' (HDR=hight dinamic range) ed altri test di tipo matematico vengono creati dal 3dmark difatti in con il 3d mark le ATI non le batte nessuno
prpoipio perche i veri effetti della grafica li genera il 3d mark.
La grafica 3d generata dai games non ha niente a che veder con la vera grafica 3d alcuni di questi effetti li crea il 2d mark.
Poi un 'altra cosa sfido chiunque abbia una Nvidia a prendere un gioco fare delle screenshot avendo lo stesso monitor e stesso sistema e poi rifare le stesse screenshot sullo stesso sistema pero' utilizzando una Nvidia e poi vedere le differenze di luce e colori e la definizione degli oggetti. e confrontarli con gli screenshot su cui vi era installata una ATI. le immagini generate dalle ATI vengono definite meglio .
grazie per la spiegazione, ma le texture non sono costituite da pixel??
e il 3dmark06 non serve a nulla??
HackaB321
24-04-2008, 13:45
http://forums.vr-zone.com/showthread.php?t=266999
Nvidia G92 yield rate isn't good so per chip production cost is about $100. There are many variants of G92 out there and 8800GT is only one that Nvidia is selling at a loss. Nvidia has to shift to 55nm fast to lower cost. The new 55nm G92 is said to cost about $70-80 and performance wise will be comparable to RV770.
Chiedo chiarimenti sulla roadmap nvidia: G92 a 55nm è un refresh che riguarda tutta la linea o solo la 9800Gt? Perchè se riguarda solo la Gt e se è vero che la GT avrà prestazioni simili a RV770, avremo anche una 9800GT con prestazioni uguali o superiori alla 9800GTX...:wtf:
Tidus.hw
24-04-2008, 13:46
grazie per la spiegazione, ma le texture non sono costituite da pixel??
sì, ma le rop svologno varie *operazioni* sui pixel, non è tutto ciò che riguarda i pixel viene fatto esclusivamente dalle Rops. Ad esempio le rops hanno un ruolo fondamentale quando si applica l'AA..
albert75
24-04-2008, 13:48
sì, ma le rop svologno varie *operazioni* sui pixel, non è tutto ciò che riguarda i pixel viene fatto esclusivamente dalle Rops. Ad esempio le rops hanno un ruolo fondamentale quando si applica l'AA..
capito....ma quindi nemmeno il 3dmark dobbiamo guardare come riferimento, ma solo attenereci ai bench sui giochi:confused:
Tidus.hw
24-04-2008, 13:52
capito....ma quindi nemmeno il 3dmark dobbiamo guardare come riferimento, ma solo attenereci ai bench sui giochi:confused:
dipende, c'è a chi piace giocare al 3dmark :D
se ti interessano un determinato gioco ovviamente cerchi di prenderti la scheda video più adatta :)
Foglia Morta
24-04-2008, 13:54
Chiedo chiarimenti sulla roadmap nvidia: G92 a 55nm è un refresh che riguarda tutta la linea o solo la 9800Gt? Perchè se riguarda solo la Gt e se è vero che la GT avrà prestazioni simili a RV770, avremo anche una 9800GT con prestazioni uguali o superiori alla 9800GTX...:wtf:
Vr-Zone (http://sg.vr-zone.com/articles/GeForce_9800_GX2_Cards_Get_New_GPUs/5733.html) dice anche che la versione a 55nm di G92 andrà sulla 9800GX2 , per il resto non so...
supercomputer1
24-04-2008, 13:57
Certo le texture sono anche costituite da pixel e non solo da pixel ma anche da (vertex=vertici), una Texture e' il risultato di cio' che viene fuori combinando insieme pixel e (vertex=vertici).
il 3d mark chi l'ha detto che non serve a nulla ?
Il nome stesso dice tutto (3d mark = marcatore 3d) testa quanto sia abile una scheda video se sottoposta a calcoli di grafica 3d ( nota la grafica 3d e' tutta un'altra cosa della grafica che vediamo nei giochi 3d tipo crysis , call of duty, stalker , ecc) infatti se compri una scheda video 3d per (workstation=stazione di lavoro) cioe' quelle schede video professionali che costano intorno alle 2000 Euro non vanno bene per giocarci
tutt'altro invece se le dai in pasto a programmi tipo come il 3d mark oppure lightwave 3d, 3d studio max, cinema 4d, maya, ecc . tutti programmi di vera grafica 3d che fanno un uso masiccio di calcoli matematici della scheda video a differenza degli attuali giochi 3d che conosciamo il quale invece fannno uso massiccio di texture. Hai mai priovato a guardare il codice sorgente di un gioco ?
Se lo guardi ti rendi conto di quante istruzione texture vi sono.
albert75
24-04-2008, 13:58
dipende, c'è a chi piace giocare al 3dmark :D
se ti interessano un determinato gioco ovviamente cerchi di prenderti la scheda video più adatta :)
;)
allora ci facciam 2 pc uno con una 9800gtx ed uno con una 4870:sofico:
albert75
24-04-2008, 14:01
Certo le texture sono anche costituite da pixel e non solo da pixel ma anche da (vertex=vertici), una Texture e' il risultato di cio' che viene fuori combinando insieme pixel e (vertex=vertici).
il 3d mark chi l'ha detto che non serve a nulla ?
Il nome stesso dice tutto (3d mark = marcatore 3d) testa quanto sia abile una scheda video se sottoposta a calcoli di grafica 3d ( nota la grafica 3d e' tutta un'altra cosa della grafica che vediamo nei giochi 3d tipo crysis , call of duty, stalker , ecc) infatti se compri una scheda video 3d per (workstation=stazione di lavoro) cioe' quelle schede video professionali che costano intorno alle 2000 Euro non vanno bene per giocarci
tutt'altro invece se le dai in pasto a programmi tipo come il 3d mark oppure lightwave 3d, 3d studio max, cinema 4d, maya, ecc . tutti programmi di vera grafica 3d che fanno un uso masiccio di calcoli matematici della scheda video a differenza degli attuali giochi 3d che conosciamo il quale invece fannno uso massiccio di texture. Hai mai priovato a guardare il codice sorgente di un gioco ?
Se lo guardi ti rendi conto di quante istruzione texture vi sono.
si ma tu hai detto che la grafica dei giochi non e' quella utilizzata nel 3dmark, quindi visto che le vga sono fatte per eseguire al meglio i calcoli nel 3dmark e nei giochi no, ne deduco che il 3dmark servira' solo quando nei giocgi useranno la stessa grafica ed effetti
halduemilauno
24-04-2008, 14:07
Interessante, che poi è quello che si diceva già da tempo, nonostante l'avversione di qualcuno che sosteneva che invece nVidia ci faceva i millemila miliardi...
http://www.scrat.it/ext/unrelated.jpg
eri tu che parlavi di vagonate di soldi per ati dicendo perchè essa usava un processo produttivo inferiore non io che dicevo nvidia millemila miliardi. io ti ho fatto presente che ciò era palesemente falso e cmq riduttivo perchè nel tuo ragionamento non tenevi conto di quanto costa il chip e poi a quanto lo rivendi e della quantita degli stessi venduti. ti rifaccio l'esempio dell'altra volta se ad ati un chip costa 20$ e lo rivende ai suoi partner a 40$ mentre nvidia grazie a un pp maggiore un chip gli costa 25$ ma lo rivende a 50$???? e questo può essere proprio in virtù del maggior peso contrattuale che essa, nvidia, può avere con i suoi partner produttivi a differenza di ati. e poi come dissi e ho ribadito prima dalla quantità venduta degli stessi. vagonate di soldi con sei trimestri consecutivi in perdità e un settimo gia annunciato...
:boh:
eccole le vagonate...
http://www.tomshw.it/news.php?newsid=13777
supercomputer1
24-04-2008, 14:11
Esattamente.
Alcuni di questi effetti li avremo dai giochi nativi directx10 in poi anche se
se essendo directx 10 in poi faranno sempre un uso massiccio di texture.
comunque come qualita' di immagine non cambierei mai le Ati per niente al mondo
se poi uno preferisce qualche FPS in piu nei giochi non dando tanta importanza alla qualita' delle immagini come la profondita' colore, la riflessione della luce allora e' piu Nvidia oriented.
Bhairava
24-04-2008, 14:13
Ola, chi si rivede! Ma non ci hai ancora detto nulla sulle tue notizie supersegrete....Dai sono curioso...
albert75
24-04-2008, 14:15
Esattamente.
Alcuni di questi effetti li avremo dai giochi nativi directx10 in poi anche se
se essendo directx 10 in poi faranno sempre un uso massiccio di texture.
comunque come qaulita' di immagine non cambierei le Ati per niente al mondo
se poi uno preferisce qualche fps in piu nei giochi non dando importanza alla qualita' delle immagini come la profondita' colore, la riflessione della luce allora e' piu Nvidia oriented.
condivido in quanto ho avuto prima nvidia e poi una 9800pro e adesso una 1950pro...stavo per prendere la 8800gts, ma aspetto con ansia questa 4870...che sara' la mia scheda tanto ormai di potenza ce n'e' tanta i giochi latitano, quelli che ci sono a 1680*1050 vengono macinati ben bene....speriamo in quelli futuri
halduemilauno
24-04-2008, 14:16
http://www.tomshw.it/news.php?newsid=13850
Dopo le prime concrete indiscrezioni, emergono nuove informazioni sulle proposte ATI Radeon HD 4800 in arrivo durante il mese di maggio. Sottolineiamo che non si tratta di dati ufficiali rilasciati da ATI, ma la precisione di alcuni aspetti ci lascia pensare che gran parte delle specifiche possano essere prese come sicure.
Iniziamo parlando del chip che sarà il cuore di queste soluzioni, conosciuto con il nome in codice RV770. Realizzato a 55 nanometri con processo 55GC da TSMC e dotato di oltre 800 milioni di transistor, il nuovo core grafico integrerà 480 unità stream processor, 32 unità texture, 16 ROPs e un controller di memoria a 256 bit con supporto alle memorie GDDR3/4/5.
Rispettto alle proposte DirectX 10 e 10.1 presentate da ATI fino ad oggi, la serie 4800 presenterà frequenze di lavoro differenti per GPU e unità shader, seguendo il cammino intrapreso da nVidia fin dalla presentazione della serie GeForce 8800.
La versione minore della nuova gamma si chiamerà Radeon HD 4850 e verrà commercializzata con una frequenza di 650 MHz per il coree 850 MHz per le unità shader. La frequenza della memoria sarà differente a seconda del modello, GDDR3 o GDDR5, e perciò si parla di 1140 MHz (256/512 GDDR3) oppure di 1730 MHz (512 GDDR5).
La versione più spinta, chiamata 4870, avrà una GPU con frequenza di 850 MHz e shader a 1050 MHz. La memoria GDDR5 (1 GB) lavorerà a 1940 MHz.
Dall'unione di due chip RV770 su unico PCB nascerà una scheda R700, di cui vi abbiamo accennato ieri. Non è chiaro se tale prodotto avrà 1 o 2 GB di memoria, oppure se sarà venduto in entrambe le configurazioni: in ogni caso la memoria dovrebbe lavorare a 1730 MHz, anche se le specifiche non sono state ancora confermate. Per questa scheda si preannuncia il supporto PCI Express 2.0 (la 3870 X2 è PCIe 1.1).
Nonostante le specifiche indubbiamente interessanti, ATI punta molto anche sui consumi energetici: si parla di 110 watt per il modello 4850 (meno di 100 watt per il modello 4850 GDDR3 256MB). In ogni caso, le indiscrezioni riportano che le memorie GDDR5 dovrebbero consumare il 34,5% di energia in meno delle GDDR3. I consumi ridotti permetteranno ad ATI di vendere questa soluzione con un dissipatore a singolo slot. Per quanto concerne invece la 4870, si parla di una richiesta energetica di 150 watt, quindi le soluzioni sul mercato dovrebbero essere sia a singolo slot che a doppio slot.
Infine, parliamo dei prezzi, argomento caro un po' a tutti:
Radeon HD 4850 con 256 MB di GDDR3: sotto i 200 dollari
Radeon HD 4850 con 512 MB di GDDR3: 229 dollari
Radeon HD 4850 con 512 MB di GDDR5: 249-269 dollari
Radeon HD 4870 con 1 GB di memoria GDDR5: 329/349 dollari
Radeon Hd 4870 X2: 499 dollari
;)
supercomputer1
24-04-2008, 14:18
Ciao vorrei dirti qualcosina in piu ma ho paura che cio' possa fare danno .
Sai quando una cosa non e' tua non hai il diritto di farci cio' che vuoi
nel caso ci fai cio' che vuoi poi la maggior parte delle volte va finire che il propietario di quella cosa si incazz....
Comunque concordo sempre con quello che avevo detto e su questo non ci piove.
albert75
24-04-2008, 14:24
la 4850 gddr5 potrebbe essere un ottimo acquisto.....
albert75
24-04-2008, 14:30
Ciao vorrei dirti qualcosina in piu ma ho paura che cio' possa fare danno .
Sai quando una cosa non e' tua non hai il diritto di farci cio' che vuoi
nel caso ci fai cio' che vuoi poi la maggior parte delle volte va finire che il propietario di quella cosa si incazz....
Comunque concordo sempre con quello che avevo detto e su questo non ci piove.
:mbe: :mbe: caro superpc....cosa hai da dirci.....dai:fagiano: :fagiano:
propongo di sdoppiare il thread e creare un aspettando rv770 e questo
raga scusate l' ot mi rispondete qua:
http://www.hwupgrade.it/forum/showthread.php?p=22167173#post22167173
Foglia Morta
24-04-2008, 15:20
eri tu che parlavi di vagonate di soldi per ati dicendo perchè essa usava un processo produttivo inferiore non io che dicevo nvidia millemila miliardi. io ti ho fatto presente che ciò era palesemente falso e cmq riduttivo perchè nel tuo ragionamento non tenevi conto di quanto costa il chip e poi a quanto lo rivendi e della quantita degli stessi venduti. ti rifaccio l'esempio dell'altra volta se ad ati un chip costa 20$ e lo rivende ai suoi partner a 40$ mentre nvidia grazie a un pp maggiore un chip gli costa 25$ ma lo rivende a 50$???? e questo può essere proprio in virtù del maggior peso contrattuale che essa, nvidia, può avere con i suoi partner produttivi a differenza di ati. e poi come dissi e ho ribadito prima dalla quantità venduta degli stessi. vagonate di soldi con sei trimestri consecutivi in perdità e un settimo gia annunciato...
:boh:
eccole le vagonate...
http://www.tomshw.it/news.php?newsid=13777
premesso che non è il thread più adatto. Ho comunque riportato che G92 in alcune sue versioni sarebbe venduto in perdita ( se fosse vero evidentemente lo è solo perchè nVidia tra il guadagnare soldi e il limitare la perdita di market share preferisce la seconda possibilità ) , poi una scrittina su un forum non so quanto possa valere ( e per questo andrebbe sempre usato il condizionale quando non si hanno fonti ufficiali ) ma qui spesso si prende per oro colato quel che si trova in giro.
Comunque RV670 nonostante sia venduto ad un prezzo più basso è servito a limitare i danni ( e quindi venduto in guadagno ) in base a quanto è stato riferito all'analist day ( il problema è stato la fascia bassa ).
gianni1879
24-04-2008, 15:22
Interessante, che poi è quello che si diceva già da tempo, nonostante l'avversione di qualcuno che sosteneva che invece nVidia ci faceva i millemila miliardi...
http://www.scrat.it/ext/unrelated.jpg
e chi lo sosteneva i soliti boyzfan, era ovvio e scontato che Nvidia usasse i 55nm
Bhairava
24-04-2008, 15:32
Ciao vorrei dirti qualcosina in piu ma ho paura che cio' possa fare danno .
Sai quando una cosa non e' tua non hai il diritto di farci cio' che vuoi
nel caso ci fai cio' che vuoi poi la maggior parte delle volte va finire che il propietario di quella cosa si incazz....
Comunque concordo sempre con quello che avevo detto e su questo non ci piove.
Se fosse vero quello sostieni, non avresti accennato affatto a questa informazione segreta. Te la tenevi per te.
Così hai rimediato solo una magra figura.
albert75
24-04-2008, 15:36
Se fosse vero quello sostieni, non avresti accennato affatto a questa informazione segreta. Te la tenevi per te.
Così hai rimediato solo una magra figura.
ma di cosa parlate:mbe: :mbe: :mbe: :confused: :confused: :confused:
4870 fa segnare 100 frame in crysis
:D :D :D
http://www.pctunerup.com/up/results/_200804/20080424170927_ATI_Girls.jpg
non so voi.., ma io preferisco la HD4870 :sofico:
taleboldi
24-04-2008, 16:15
:D :D :D
...
non so voi.., ma io preferisco la HD4870 :sofico:
AZZZZ
ma se gira sta foto la 4850 e la 4870x2 restano sugli scaffali
:asd: :asd: :asd:
Tidus.hw
24-04-2008, 16:17
quella a sinistra è carina :fagiano:
AZZZZ
ma se gira sta foto la 4850 e la 4870x2 restano sugli scaffali
:asd: :asd: :asd:
:sbonk: :asd:
Gabriyzf
24-04-2008, 16:30
:D :D :D
http://www.pctunerup.com/up/results/_200804/20080424170927_ATI_Girls.jpg
non so voi.., ma io preferisco la HD4870 :sofico:
anch'io :D
Immortal
24-04-2008, 16:54
:D :D :D
http://www.pctunerup.com/up/results/_200804/20080424170927_ATI_Girls.jpg
non so voi.., ma io preferisco la HD4870 :sofico:
idem :sofico: :sofico: :sofico: , xò ora rivelaci il sito da dove le prendi tutte ste foto.. :fagiano:
la 4870 è mia :D e la sorella non si puo avere insieme?
appleroof
24-04-2008, 17:04
la cosa che mi sembra strana è che nvidia ha un rapporto preciso tra shader e core di 2,5:1 mentre ati secondo i rumors ha un rapporto casuale diverso tra le varie vga.
4870: 1050/850 = 1.2352...../1
4850: 850/650 = 1.3076...../1
magari non centra niente, però sembra strano.
C'entra invece ed è normale che ti sembri strano. Sembra molto strano anche a me che infatti ho molti dubbi riguardo a frequenze distinte per gli shaders in RV770.
Motivo in più per non credere a questo rumor.
Poi se verrò smentito non me la prenderò, ma finché non lo vedo con i miei occhi non ci credo.
Nvidia non ha sempre un rapporto fisso 2.5 tra shader e core: esempio con riva da un bel pò volendo puoi oc solo gli shader, se io mettessi 1600/575 nella mia, il rapporto sarebbe 2,78xxxxx...../1
ma già al ultra a default ha un rapporto 2.45 e rotti /1
Bhairava
24-04-2008, 17:06
Ma poi che c'èntra la topa con le schede grafiche......
:doh:
Ma poi che c'èntra la topa con le schede grafiche......
:doh:
X togliere un po’ la tensione .., dai :O
Qst l’ultima promesso :sofico: è troppo cattiva :Perfido:
http://www.pctunerup.com/up/results/_200804/20080424181715_Sapphire_Girl_two_by_suckerhead.jpg
Ma poi che c'èntra la topa con le schede grafiche......
:doh:
fidati che c'entra: dato che ati sta quasi fallendo allora utilizza qualsiasi cosa per farsi del marketing e quindi per vendere da in dotazione una di quelle ragazze per un test assieme alle schede video :sofico:
io ho gia ordinato pre relased la 4870:D
fidati che c'entra: dato che ati sta quasi fallendo allora utilizza qualsiasi cosa per farsi del marketing e quindi ci ha messo la topa:sofico:
ma lol .., ke centra, ormai da anni sia Ati sia Nvidia sono affiancate dalle tope :sofico: preferiresti un gaio :asd:
devo dire che ritrovarmi sulla penultima pagina queste belle info e nell'ultima una 4870 da paura mi fa piacere :D:D
cmq
http://www.tomshw.it/news.php?newsid=13850
Dopo le prime concrete indiscrezioni, emergono nuove informazioni sulle proposte ATI Radeon HD 4800 in arrivo durante il mese di maggio. Sottolineiamo che non si tratta di dati ufficiali rilasciati da ATI, ma la precisione di alcuni aspetti ci lascia pensare che gran parte delle specifiche possano essere prese come sicure.
Iniziamo parlando del chip che sarà il cuore di queste soluzioni, conosciuto con il nome in codice RV770. Realizzato a 55 nanometri con processo 55GC da TSMC e dotato di oltre 800 milioni di transistor, il nuovo core grafico integrerà 480 unità stream processor, 32 unità texture, 16 ROPs e un controller di memoria a 256 bit con supporto alle memorie GDDR3/4/5.
Rispettto alle proposte DirectX 10 e 10.1 presentate da ATI fino ad oggi, la serie 4800 presenterà frequenze di lavoro differenti per GPU e unità shader, seguendo il cammino intrapreso da nVidia fin dalla presentazione della serie GeForce 8800.
La versione minore della nuova gamma si chiamerà Radeon HD 4850 e verrà commercializzata con una frequenza di 650 MHz per il coree 850 MHz per le unità shader. La frequenza della memoria sarà differente a seconda del modello, GDDR3 o GDDR5, e perciò si parla di 1140 MHz (256/512 GDDR3) oppure di 1730 MHz (512 GDDR5).
La versione più spinta, chiamata 4870, avrà una GPU con frequenza di 850 MHz e shader a 1050 MHz. La memoria GDDR5 (1 GB) lavorerà a 1940 MHz.
Dall'unione di due chip RV770 su unico PCB nascerà una scheda R700, di cui vi abbiamo accennato ieri. Non è chiaro se tale prodotto avrà 1 o 2 GB di memoria, oppure se sarà venduto in entrambe le configurazioni: in ogni caso la memoria dovrebbe lavorare a 1730 MHz, anche se le specifiche non sono state ancora confermate. Per questa scheda si preannuncia il supporto PCI Express 2.0 (la 3870 X2 è PCIe 1.1).
Nonostante le specifiche indubbiamente interessanti, ATI punta molto anche sui consumi energetici: si parla di 110 watt per il modello 4850 (meno di 100 watt per il modello 4850 GDDR3 256MB). In ogni caso, le indiscrezioni riportano che le memorie GDDR5 dovrebbero consumare il 34,5% di energia in meno delle GDDR3. I consumi ridotti permetteranno ad ATI di vendere questa soluzione con un dissipatore a singolo slot. Per quanto concerne invece la 4870, si parla di una richiesta energetica di 150 watt, quindi le soluzioni sul mercato dovrebbero essere sia a singolo slot che a doppio slot.
Infine, parliamo dei prezzi, argomento caro un po' a tutti:
Radeon HD 4850 con 256 MB di GDDR3: sotto i 200 dollari
Radeon HD 4850 con 512 MB di GDDR3: 229 dollari
Radeon HD 4850 con 512 MB di GDDR5: 249-269 dollari
Radeon HD 4870 con 1 GB di memoria GDDR5: 329/349 dollari
Radeon Hd 4870 X2: 499 dollari
;)
se i dati sui prezzi sono confermati mi pare che ci sia un ~50% in più rispetto a RV670 e pure un sostanziale pareggio con G92, idem per il modello multi-gpu.
va be, l'unica cosa che mi proccupa è il fatto che GT200 arriverà tra noi entro poco e nn la vedo rosea.
cmq imho lasciare le rops a 16 mi pare sbagliato e invece incrementare a 96 il numero di sp per cluster mi pare una buona idea
halduemilauno
24-04-2008, 18:10
devo dire che ritrovarmi sulla penultima pagina queste belle info e nell'ultima una 4870 da paura mi fa piacere :D:D
cmq
se i dati sui prezzi sono confermati mi pare che ci sia un ~50% in più rispetto a RV670 e pure un sostanziale pareggio con G92, idem per il modello multi-gpu.
va be, l'unica cosa che mi proccupa è il fatto che GT200 arriverà tra noi entro poco e nn la vedo rosea.
cmq imho lasciare le rops a 16 mi pare sbagliato e invece incrementare a 96 il numero di sp per cluster mi pare una buona idea
non credo affatto che tutte quelle schede vengano affrontate da GT200. c'è la 9800gtx e G92b.
;)
Immortal
24-04-2008, 18:15
ma solo a me puzzano ste ultime news? frequenze separate? meno di 1ghz per il core? boh... a me, come detto qualche post fa, sembra solo una fusione di varie cose che giravano per la rete...
appleroof
24-04-2008, 18:26
ma solo a me puzzano ste ultime news? frequenze separate? meno di 1ghz per il core? boh... a me, come detto qualche post fa, sembra solo una fusione di varie cose che giravano per la rete...
è sottointeso che prima che la scheda sia presentata ufficialmente occorre prendere tutto molto cautamente (ricordo la famosa ed eclatante storia di g80 a shader separati fino praticamente al lancio sul mercato :asd: ) però al limite le 2 caratteristiche da te richiamate mi farebbero solo piacere, se fossi interessato a rv770: la frequenza degli sp separata e più alta di quella del core è uno dei punti di forza di g80 e derivati, e sappiamo di che chip parliamo, e se fà scuola tanto di guadagnato; la frequenza del chip in sè non conta nulla (appunto g80 a 575/rv670 a 775 e và meglio g80)
cmq ripeto, al solito occorre aspettare conferme/smentite
appleroof
24-04-2008, 18:36
Visto che il deficit di RV670 non è nella potenza di shading non mi sembra particolarmente utile, però, separare le frequenze per aumentare quelle degli shader.
Vedremo...
male non farebbe di sicuro, al limite potrebbe portare ulteriore boost...certo che ovviamente di per sè è anche esso un dato sterile, in effetti andrebbe visto nell'insieme e cmq come dici....vedremo :D
halduemilauno
24-04-2008, 18:37
Visto che il deficit di RV670 non è nella potenza di shading non mi sembra particolarmente utile, però, separare le frequenze per aumentare quelle degli shader.
Vedremo...
ma se le ggf le hanno aumentate del 50%.
:boh:
appleroof
24-04-2008, 18:40
ma se le ggf le hanno aumentate del 50%.
:boh:
anche, in effetti....:asd:
halduemilauno
24-04-2008, 19:16
E le TMU del 100% ;)
appunto.
albert75
24-04-2008, 19:20
da ignorante il difetto di rv670 qual' e' stato?? poche tu?
mircocatta
24-04-2008, 19:21
ATI Radeon HD 4800 Specifiche Ufficiali Stampa E-mail
Scritto da Carlo Panceri
gio 24 aprile 2008 14:31
Social List Bookmarking Widget
Circa una settimana fa vi avevamo rilasciato qualche informazione sulle nuove AMD/ATI disponibili a breve nei negozi. Nella giornata di oggi il sito TG Daily ha rilasciato quelle che dovrebbero essere le specifiche tecniche ufficiali delle nuove schede Radeon serie 4. In particolare tutti i nuovi modelli della serie 4800 saranno equipaggiati con GPU con processo produttivo a 55nm, con circa 800 milioni di transistor, 480 stream processors o shader units (96+384), 32 texture units, 16 ROPs, controller delle memorie a 256-bit (512-bit per la Radeon 4870 X2) e supporto a memorie GDDR3/4/5.
Per il momento le schede che verranno rilasciate sul mercato saranno tre:
* ATI Radeon HD 4850 - Frequenze: 650MHz/850MHz/1140MHz rispettivamente Core/Shader/Memorie, 20.8 GTexel/s (32 TMU x 0.65 GHz) fill-rate,disponibili in versioni da 256MB/512MB GDDR3 o 512MB GDDR5 con clock a 1.73GHz.
* ATI Radeon HD 4870 - Frequenze:850MHz/1050MHz/1940MHz rispettivamente Core/Shader/Memorie, 27.2 GTexel/s (32 TMU x 0.85 GHz) fill-rate, disponibile solo con 1GB GDDR5.
* ATI Radeon HD 4870 X2 - per il momento le frequenze sono ancora sconosciute, disponibile con un quantitavo di 2048MB GDDR5 con clock a 1730MHz.
I prezzi dovrebbero essere rispettivamente di 200$ per la versione HD4850 256MB GDDR3, 229$ per la versione HD4850 512MB GDDR3, 249-269$ per la versione HD4850 512MB GDDR5, 329-349$ per la HD4870 e per finire 499$ per la HD 4870X2.
da ignorante il difetto di rv670 qual' e' stato?? poche tu?
la G80 :O
halduemilauno
24-04-2008, 19:24
:confused:
da comer parli te pare che l'unica cosa che dovevano fare era adottare le gddr5 per aumentare la banda passante una volta non adottato il bus a 512 bit.
il problema dei chip serie r600 e derivati è proprio nei chip serie r600 e derivati.
halduemilauno
24-04-2008, 19:25
da ignorante il difetto di rv670 qual' e' stato?? poche tu?
G80 prima e G92 dopo.
;)
albert75
24-04-2008, 19:26
:ciapet:
halduemilauno
24-04-2008, 19:27
ATI Radeon HD 4800 Specifiche Ufficiali Stampa E-mail
Scritto da Carlo Panceri
gio 24 aprile 2008 14:31
Social List Bookmarking Widget
Circa una settimana fa vi avevamo rilasciato qualche informazione sulle nuove AMD/ATI disponibili a breve nei negozi. Nella giornata di oggi il sito TG Daily ha rilasciato quelle che dovrebbero essere le specifiche tecniche ufficiali delle nuove schede Radeon serie 4. In particolare tutti i nuovi modelli della serie 4800 saranno equipaggiati con GPU con processo produttivo a 55nm, con circa 800 milioni di transistor, 480 stream processors o shader units (96+384), 32 texture units, 16 ROPs, controller delle memorie a 256-bit (512-bit per la Radeon 4870 X2) e supporto a memorie GDDR3/4/5.
Per il momento le schede che verranno rilasciate sul mercato saranno tre:
* ATI Radeon HD 4850 - Frequenze: 650MHz/850MHz/1140MHz rispettivamente Core/Shader/Memorie, 20.8 GTexel/s (32 TMU x 0.65 GHz) fill-rate,disponibili in versioni da 256MB/512MB GDDR3 o 512MB GDDR5 con clock a 1.73GHz.
* ATI Radeon HD 4870 - Frequenze:850MHz/1050MHz/1940MHz rispettivamente Core/Shader/Memorie, 27.2 GTexel/s (32 TMU x 0.85 GHz) fill-rate, disponibile solo con 1GB GDDR5.
* ATI Radeon HD 4870 X2 - per il momento le frequenze sono ancora sconosciute, disponibile con un quantitavo di 2048MB GDDR5 con clock a 1730MHz.
I prezzi dovrebbero essere rispettivamente di 200$ per la versione HD4850 256MB GDDR3, 229$ per la versione HD4850 512MB GDDR3, 249-269$ per la versione HD4850 512MB GDDR5, 329-349$ per la HD4870 e per finire 499$ per la HD 4870X2.
non è altro che ribadire il rumors di provenienza tgdaily. voglio dire niente di nuovo ormai ha fatto il giro del mondo.
mircocatta
24-04-2008, 19:28
329-349$ per la HD4870 1GB la fa rendere molto interessante, secondo me andrà meglio della 9800gtx, vedremo come andrà e come risponderà nvidia...
questa serie di ati mi incurioscisce un mucchio...non vedo l'ora dei primi test!!!!!!
albert75
24-04-2008, 19:31
329-349$ per la HD4870 1GB la fa rendere molto interessante, secondo me andrà meglio della 9800gtx, vedremo come andrà e come risponderà nvidia...
questa serie di ati mi incurioscisce un mucchio...non vedo l'ora dei primi test!!!!!!
penso sara' la mia scheda...:sofico:
halduemilauno
24-04-2008, 19:32
329-349$ per la HD4870 1GB la fa rendere molto interessante, secondo me andrà meglio della 9800gtx, vedremo come andrà e come risponderà nvidia...
questa serie di ati mi incurioscisce un mucchio...non vedo l'ora dei primi test!!!!!!
con la 9800gtx attuale nei confronti della 4850 512 e con il g92b per la 4870. poi per la 4870x2 ovvero l'r700 ci sarà il gt200.
;)
supercomputer1
24-04-2008, 19:35
http://www.tomshardware.com/news/ati-radeon-4800,5223.html
Chicago (IL) – Next month will be more important for AMD’s graphics division than any other month of this year: The company is set to release the (RV770) 4800-series of graphics cards, including the models 4850, 4870 and 4870 X2. While the launch is still very much a secret, we were able to receive details and the specifications of the new cards – which will put ATI back into the ring with NVIDIA.
The product launch will be significant not just because of the availability of chips, but also because of the fact that AMD/ATI is returning to a true six-month refresh cycle of its graphics products. Looking back, the 2900/3800 series was not really a six-month refresh, since the 2900XT was eight months late. The Radeon 3800 series was launched in November of 2007 and since the Radeon 4800 is pretty much set for a May 2008 launch (cards went into production in March), the ATI team has returned to its traditional cycle. There is a good chance that the acquisition troubles have been digested and new products will be surfacing in a more predictable fashion from now on.
Specifications: 480 stream processors, 800+ million transistors
Let’s have a look at the general specifications of the Radeon 4800 series, which is based on the RV770 graphics processor. The new GPU has 480 stream processors or shader units (96+384), 32 Texture units (up from 16), 16 ROP (same as 2900/3800), a 256-bit memory controller and native GDDR3/4/5 support (expect GDDR3 and GDDR5 memory versions of RV770 cards).
The transistor count has jumped from 666 million in the RV670 to more than 800 million transistors in the RV770.
The manufacturing process has been carried over: TSMC is producing the GPUs in 55 nm (the process itself is called 55GC).
The Radeon 3800 series had a serious flaw called texture low fill-rate, which was addressed by ATI with an increased number of TMUs (Texture Memory Unit) from 16 to 32. The specifications indicate that 16 TMUs can address 80 textures on the fly, which means that 32 units should be able to fetch 160 in the RV770: This should allow the new GPU to catch up with NVIDIA’s G92 design. However, the G92 has 64 TMUs that were enabled gradually (some SKUs shipped with 56), resulting in a fill-rate performance that beat the original 8800GTX and Ultra models.
ATI’s RV770 will be rated at a fill rate of 20.8-27.2 GTexel/s (excluding X2 version), which is on the lower end of the GeForce 9 series (9600 GT: 20.8; 9800 GTX: 43.2 9800 GX2: 76.8).
New for the 4800 series is AMD’s decision to split the clock of the GPU and shaders, following a move that NVIDIA made with the GeForce 8800: Back then, the shaders were clocked at 1.35 GHz, while the rest of the chip ticked at 575 MHz.
The Radeon 4850 will debut with a GPU clocked at 650 MHz, while the shader array will be clocked 850 MHz. The 4870 has an 850 MHz core and a 1050 MHz shader clock. The fill-rate is closely tied to the GPU clock: The 4850 sports a fill-rate of 20.8 GTexel/s (32 TMU x 0.65 GHz), while the 4870 achieves a 27.2 GTexel/s (32 TMU x 0.85 GHz) performance.
The RV770 GPU is equipped with a 256-bit memory controller (512-bit for the Radeon 4870 X2: The R700 represents just two RV770 GPUs slapped together). 4850 GDDR3 models will come with 256 MB or 512MB of GDDR3 memory, clocked at 1.14 GHz (2.29 GTransfer/s), resulting in a memory bandwidth of 73.2 GB/s. 4850 GDDR5 versions integrate 512 MB of GDDR5 memory clocked at 1.73 GHz (3.46 GT/s), supporting a bandwidth of 110.5 GB/s. 4870 GDDR5 models will get 1 GB of memory clocked at 1.94 GHz (3.87 GT/s), achieving a maximum bandwidth of 123.8 GB/s.
Flagship dual-GPU 4870 X2 cards will include 2048 GB of GDDR5 memory clocked at 1.73 GHz. The Radeon HD 4870 X2 will be introduced at a later date (and could see spec revisions).
You may be wondering why ATI decided to go with "odd clocks" for the video memory part and the answer may surprise you: According to our sources, AMD is no longer clocking the cards towards performance, but towards power efficiency instead. This happened first with the Radeon 2900XT (which was bleeding lots of current) and continued with the 3800 series.
Overclockers should have no problem reaching the magic 4 GHz mark for the GDDR5 memory (1.94 to 2.0 GHz), but that, of course, would break the sub-150 watt thermal-envelope these cards were designed for. More than ever before we can envision AMD and add-in-board vendors offering a “Radeon HD 4870 TDP - Saves you $$$ on Electricity Bills!" or a "4870 Lots of Horsepower and Power Hungry" edition of these cards.
The 4850 in fact is in a 110 watt power envelope (the 4850 256MB GDDR3 is a sub-100 watt card). There is, by the way, a big difference in power consumption between GDDR3 and GDDR5 versions. 512MB GDDR5 memory will consume 34.5% less power than a model with 512MB of GDDR3 memory.
As you can guess, a 110 watt power envelope means that 4850 boards will have a single-slot cooler, while the 150 watt part (4870) should be available as single-slot part as well (from at least one partner, 1-slot vapor chamber part). Most of manufacturers will, however, offer dual-slot cooling for the 4870.
4870 X2 is an interesting version. AMD did not send out any specs to its partners and it is expected the board will be a bit more than just a 3870 X2 two RV770 GPUs. ATI is said to be making some changes, most notably in the PCI Express department (3870 X2 is actually a PCIe 1.1 part). The product will keep the aggressive pricing in place, and, according to our sources, will scale much better than 3870 X2.
The 4850 256MB GDDR3 version will arrive as the successor of the 3850 256MB with a price in the sub-$200 range. The 4850 512MB GDDR3 should retail for $229, the 4850 512MB GDDR5 will set you back about $249-269. The big daddy, the 1GB GDDR5 powered 4870 will retail between $329-349.
When it will become available the 4870 X2 will hit the market for $499.
Our sources indicate that the launch is only weeks away, so expect your usual hardware sites to feature dozens of reviews of 4850 and 4870 with GDDR5 memory, since this memory type will be a hot topic in months to come.
La R700 sara' la futura 4870x2 e avra le 2 GPU non collegate come la vecchia 3870x2 ma avra un memory controller da 512bit ed una memoria gddr5 da 2048 GB e scalera' meglio in prestazioni della nota 3870 x2 ; l'uscita di r700 arrivera' in ritardo vi saranno varie revisioni visto che la memoria GDDR5 e' ancora in fase assestamento.
gia la singola gpu la 4870 avra 1 gb di memoria gddr5 ed una larghezza di banda passante da 123 GB/s. sconosciuta quella della 4870x2.
Nota: gia vi e' in commercio una 3870 con un bus della memoria a 512 bit
su questo sito una rcensione
http://www.legitreviews.com/article/698/1/
The upside is that the 1GB card has a 512-bit bus where the 512MB card has only a 256-bit.
http://www.diamondmm.com/3870PE31GB.php
vedere le specifiche 512-bit memory interface .
albert75
24-04-2008, 19:36
a parita' di prestazioni tra le due mi butto su ATI sara' un luogo comune ma e' comunque vero che la qualita' d'immagine e' leggermente migliore:fagiano:
non credo affatto che tutte quelle schede vengano affrontate da GT200. c'è la 9800gtx e G92b.
;)
infatti il mio timore (visti i prezzi) è un dejavu dell'attuale situazione tra 3870x2 e 9800gx2 solo con chip diversi ma però una ipotetica 10800 gtx a singola gpu;)
ma solo a me puzzano ste ultime news? frequenze separate? meno di 1ghz per il core? boh... a me, come detto qualche post fa, sembra solo una fusione di varie cose che giravano per la rete...
cioè quello che dici è vero, però dovresti ricordare due cose:
1) siamo un un thread aspettando...
2) bisogna avere un po' di memoria storica (es: 3d aspettando r600 e pure quello di g80)
;)
con la 9800gtx attuale nei confronti della 4850 512 e con il g92b per la 4870. poi per la 4870x2 ovvero l'r700 ci sarà il gt200.
;)
sempre che nn faccia poco di più della 9800 gx2, se no temo che gt200 la fuma (sempre che esca per i tempi previsti e con le caratteristiche dette)
appleroof
24-04-2008, 20:06
cut
Flagship dual-GPU 4870 X2 cards will include 2048 GB of GDDR5 memory clocked at 1.73 GHz. The Radeon HD 4870 X2 will be introduced at a later date (and could see spec revisions).
cut
4870 X2 is an interesting version. AMD did not send out any specs to its partners and it is expected the board will be a bit more than just a 3870 X2 two RV770 GPUs. ATI is said to be making some changes, most notably in the PCI Express department (3870 X2 is actually a PCIe 1.1 part). The product will keep the aggressive pricing in place, and, according to our sources, will scale much better than 3870 X2.
cut
La R700 sara' la futura 4870x2 e avra le 2 GPU non collegate come la vecchia 3870x2 ma avra un memory controller da 512bit ed una memoria gddr5 da 2048 GB e scalera' meglio in prestazioni della nota 3870 x2 ; l'uscita di r700 arrivera' in ritardo vi saranno varie revisioni visto che la memoria GDDR5 e' ancora in fase assestamento.
cut
la parte italiana è la traduzione di quella inglese? Perchè ci sono incongruenze tra le due: in quella inglese si dice che la 4870x2 non sarà semplicemente una 3870x2 con 2 rv770, quanto al collegamento tra le due gpu non si dice nulla più, mi pare
quanto al bus e memorie, credo sia la semplice somma delle 2 gpu (256 bit ed 1 giga per una)
insomma, la cosa che mi attira di più, cioè scoprire se le 2 gpu saranno veramente collegate con qualcosa di diverso rispetto ad oggi, rimane un mistero...
albert75
24-04-2008, 20:13
rega o si cambia il titolo del thread o si apre un aspettando rv770
la parte italiana è la traduzione di quella inglese? Perchè ci sono incongruenze tra le due: in quella inglese si dice che la 4870x2 non sarà semplicemente una 3870x2 con 2 rv770, quanto al collegamento tra le due gpu non si dice nulla più, mi pare
quanto al bus e memorie, credo sia la semplice somma delle 2 gpu (256 bit ed 1 giga per una)
insomma, la cosa che mi attira di più, cioè scoprire se le 2 gpu saranno veramente collegate con qualcosa di diverso rispetto ad oggi, rimane un mistero...
a parte che cmq il proggetto vero di r700 (cioè quello di tante mini gpu) nn è quello che conosciamo oggi, però cmq amd aveva detto che sarebbe stato collegato con una tecnologia simile all'ht, quindi è possibile che il tutto nn avenga col cf, però è tutto un forse
appleroof
24-04-2008, 20:16
a parte che cmq il proggetto vero di r700 (cioè quello di tante mini gpu) nn è quello che conosciamo oggi, però cmq amd aveva detto che sarebbe stato collegato con una tecnologia simile all'ht, quindi è possibile che il tutto nn avenga col cf, però è tutto un forse
esatto, è quello che mi aspetterei....
supercomputer1
24-04-2008, 20:25
ATI is said to be making some changes, most notably in the PCI Express department (3870 X2 is actually a PCIe 1.1 part)
traduco ATI dice di cambiare alcune cose, piu notevolmente nella parte del PCI express( la 3870 x2 monta attualmente un PCIexpress versione1.1)
le 2 gpu nella 3870 x2 comunicano tra di loro con il PLX che e' una connessione pci express versione 1 il cui offre una larghezza di banda da 2,5GB/s (cioe' 2,5 Gibabit al secondo) gia soltanto mettendo un ponte pci express di versione 2 raddoppierebbe la banda passande tra le 2 GPU da
2,5 Gb/s a ben 5 Gb/s; da non dimenticare anche che la futura R700 avra'
la memoria condivisa tra le 2 GPU) quindi il tutto verra' collegato in modo diverso dell'attuale 3870 x2 in pratica le 2 GPU verranno collegate con qualcosa di piu veloce e funzioneranno come fossero 2GPUin 1 condividendo la stessa memoria.
Vedi disegno slide su un mio post mandato precedentemente.
esatto, è quello che mi aspetterei....
nn solo tu ;) cmq nn ti sembra un po' azzardata la decisione di mantenere le 16 rop's?
Intanto una girata con G92 me la faccio :O
http://www.pctunerup.com/up/results/_200804/20080424214241_Immagine.jpg
156euro Nuova dal negozio (due aste entrabe a stessa cifra LOL) una XFX Alpha Dog nome in codice XXX :ciapet: :D
aah dimenticavo, il mercatino di Hwup inizia un po’ puzzare :O ;)
albert75
24-04-2008, 20:54
rega ma quando si trovera' in vendita a maggio o piu' in la:confused:
appleroof
24-04-2008, 20:55
ATI is said to be making some changes, most notably in the PCI Express department (3870 X2 is actually a PCIe 1.1 part)
traduco ATI dice di cambiare alcune cose, piu notevolmente nella parte del PCI express( la 3870 x2 monta attualmente un PCIexpress versione1.1)
le 2 gpu nella 3870 x2 comunicano tra di loro con il PLX che e' una connessione pci express versione 1 il cui offre una larghezza di banda da 2,5GB/s (cioe' 2,5 Gibabit al secondo) gia soltanto mettendo un ponte pci express di versione 2 raddoppierebbe la banda passande tra le 2 GPU da
2,5 Gb/s a ben 5 Gb/s; da non dimenticare anche che la futura R700 avra'
la memoria condivisa tra le 2 GPU) quindi il tutto verra' collegato in modo diverso dell'attuale 3870 x2 in pratica le 2 GPU verranno collegate con qualcosa di piu veloce e funzioneranno come fossero 2GPUin 1 condividendo la stessa memoria.
Vedi disegno slide su un mio post mandato precedentemente.
si, allora avevo capito bene, cmq grazie della conferma...:)
nn solo tu ;) cmq nn ti sembra un po' azzardata la decisione di mantenere le 16 rop's?
ti devo dire che gente ben più preparata di me tecnicamente su questo stesso tread è quasi pronta a giurare che le migliorie ventilate di rv770 (tmu, sp) bastano ed avanzano, e se le rop's rimangono 16 non c'è problema perchè non rappresenterebbero il collo di bottiglia...
io per quanto mi riguarda stò alla finestra, mi limito a seguire molto da vicino perchè una tra r700 e gt200 sostituirà credo la 88gtx, per cui vedremo, solo le rece al solito ci diranno chi ha ragione, per fortuna sembra mancare poco per gt200 e pochissimo per r700 (o meglio rv770, ma insomma...) :)
supercomputer1
24-04-2008, 20:55
http://pc.watch.impress.co.jp/docs/2007/1204/kaigai404_01l.gif
dove vi e' scritto dual GPU r680 generation non e' altro che la 3870 x2
guarda sulla scritta PCIe switch ( questo e' il chip PLX che altro non e' un pci express versione 1 con banda passante 2,5 Gb/s) come e' facile notare si ha un collo di bottiglia propio nel PCIe SWITCH anche se fosse la versione 2 con 5 Gb/s figuriamoci il collo di bottiglia che si ha nella 3870 x2 che monta la versione 1 del PCIe con 2,5 Gb/s di banda passante invece di montare la versione PCIe 2 con il doppio della banda passante. Guarda invece come sono collegate le 2 GPU dove vi e' scritto dual die GPU R700 generation.
Le 2 GPU dialogano tra di loro con una banda passante teorica infinita ed in piu condividono entrambi la stessa memoria condivisa.
appleroof
24-04-2008, 20:59
http://pc.watch.impress.co.jp/docs/2007/1204/kaigai404_01l.gif
dove vi e' scritto dual GPU r680 generation non e' altro che la 3870 x2
guarda sulla scritta PCIe switch ( questo e' il chip PLX che altro non e' un pci express versione 1 con banda passante 2,5 Gb/s) come e' facile notare si ha un collo di bottiglia propio nel PCIe SWITCH anche se fosse la versione 2 con 5 Gb/s figuriamoci il collo di bottiglia che si ha nella 3870 x2 montando la versione 1 con 2,5 Gb/s di banda passante invece di montare la versione 2 con il doppio della banda passante. Guarda invece come sono collegate le 2 GPU dove vi e' scritto dual die GPU R700 generation.
Le 2 GPU dialogano tra di loro con una banda passante teorica infinita ed in piu condividono entrambi la stessa memoria condivisa.
ok, ma dai rumors riportati non esiste quello che nel tuo schema è r700 aka 4870x2,
nei rumors da te riportati la connessione di r700 è identica a r680, con l'unico cambio dello switch pci-ex che da tipo 1.1 diventa 2...
proprio perchè pensavo allo schema da te postato la cosa sarebbe molto ridimensionata (al di là poi di vedere sul campo come andrebbe r700 con classica connessione CF)
supercomputer1
24-04-2008, 21:02
Se sulle Nvidia mettessero 16 rop la scheda video riuscirebbe a malapena a far girare pac man. sulle Ati il discorso e' diverso ( vedi la notevole differenza tra l'elevato numero degli stream pocessor contenuti nelle ATI ed il basso numero
di stream processor contenuto nelle Nvidia/" che pero' hanno piu ROP e piu TMU" ) cio serve per compensare il basso numero di TMU ed il basso numero di ROP contebnuto nelle ATI.
supercomputer1
24-04-2008, 21:08
No non hai capito . Non passeranno dalla connessione PCIe versione1 alla PCIe versione 2; ma il tutto sara' collegato con architettura Multi chip module.
Un po come i processori quad core di intel composti cioe' da 2 processori core 2 duo sullo stesso die=wafer con memoria condivisa per tutti e 4 i core.
No non hai capito . Non passeranno dalla connessione PCIe versione1 alla PCIe versione 2; ma il tutto sara' collegato con architettura Multi chip module.
Un po come i processori quad core di intel composti cioe' da 2 processori core 2 duo sullo stesso die=wafer con memoria condivisa per tutti e 4 i core.
Se la fanno cosi é mia :D
Lo spero davvero, ma quella tabella che hai postato é olderrima :old:
Piú probabile che i chip siano separati, ma nello stesso pcb in stile 3870x2, pur con migliorie nelle connessioni (forse ringbus) e quindi nella scalabilitá complessiva.
albert75
24-04-2008, 21:23
certo che i consumi non vi spaventano??:Prrr:
scusate ma con un ali come il mio con 33a sui 12 ce la faccio a far partire la 4870:confused:
certo che i consumi non vi spaventano??:Prrr:
scusate ma con un ali come il mio con 33a sui 12 ce la faccio a far partire la 4870:confused:
Certamente :)
albert75
24-04-2008, 21:36
Certamente :)
;)
ma a maggio saranno gia' in vendita le schede o verranno solo presentate??
ok, ma dai rumors riportati non esiste quello che nel tuo schema è r700 aka 4870x2,
nei rumors da te riportati la connessione di r700 è identica a r680, con l'unico cambio dello switch pci-ex che da tipo 1.1 diventa 2...
proprio perchè pensavo allo schema da te postato la cosa sarebbe molto ridimensionata (al di là poi di vedere sul campo come andrebbe r700 con classica connessione CF)
nn l'avrei mai detto :D seriamo in bene
Certamente :)
quoto ;)
supercomputer1
24-04-2008, 21:45
Certo che e' vecchia e' datata 2007 infatti R700 e' un progetto di addirittura prima del 2007. Forse credevi che quando si crea una nuova scheda video la progetti una settimana prima e la settimana dopo e' gia pronta per essere messa in vendita . La fase di progettazione e' assai lunga e complessa
1) system requirements=requisiti del sistema overro cosa fara' cosa avra'.
2) Preliminary design= disegno preliminare una bozza.
3) Detailed design=disegno dettagliato ogni singolo componente che interagisce con un'altro.
4) Unit testing= test dell'unita' se non vi sono bug o problemi.
5) System testing=si testa l'intero systema nel completo.
6) acceptance testing=test di accettazione..
per quanto riguarda il software la cosa si allunga ancora di molto visto che ci vuole un software adatto per una soluzione multichip.
albert75
24-04-2008, 21:52
ma nessuno mi risponde:fagiano:
supercomputer1
24-04-2008, 22:00
La r700 no piu in la'.
albert75
24-04-2008, 22:01
La r700 no piu in la'.
la 4870:confused: se non esce a maggio mi prendo una 8800gts g92 aspetto da troppo tempo l' upgrade
Certo che e' vecchia e' datata 2007 infatti R700 e' un progetto di addirittura prima del 2007. Forse credevi che quando si crea una nuova scheda video la progetti una settimana prima e la settimana dopo e' gia pronta per essere messa in vendita . La fase di progettazione e' assai lunga e complessa
1) system requirements=requisiti del sistema overro cosa fara' cosa avra'.
2) Preliminary design= disegno preliminare una bozza.
3) Detailed design=disegno dettagliato ogni singolo componente che interagisce con un'altro.
4) Unit testing= test dell'unita' se non vi sono bug o problemi.
5) System testing=si testa l'intero systema nel completo.
6) acceptance testing=test di accettazione..
per quanto riguarda il software la cosa si allunga ancora di molto visto che ci vuole un software adatto per una soluzione multichip.
Certo, questo lo so molto bene...
Se non erro il progetto di r600 é durato minimo 3 anni (forse di piú), e ATi ha 2 team diversi che lavorano per ogni generazione.
Ho detto che la tabella é olderrima perché é un rumor. E come tale, quanto prima viene presentata, piú possibilitá ci sono di essere un fake.
Quando un progetto non é ancora concluso (infatti la produzione di rv770 é iniziata quest' anno) é molto piú difficile avere informazioni precise e dettagliate sull' architettura :)
appleroof
24-04-2008, 22:13
ATI is said to be making some changes, most notably in the PCI Express department (3870 X2 is actually a PCIe 1.1 part)
traduco ATI dice di cambiare alcune cose, piu notevolmente nella parte del PCI express( la 3870 x2 monta attualmente un PCIexpress versione1.1)
le 2 gpu nella 3870 x2 comunicano tra di loro con il PLX che e' una connessione pci express versione 1 il cui offre una larghezza di banda da 2,5GB/s (cioe' 2,5 Gibabit al secondo) gia soltanto mettendo un ponte pci express di versione 2 raddoppierebbe la banda passande tra le 2 GPU da
2,5 Gb/s a ben 5 Gb/s; da non dimenticare anche che la futura R700 avra'
la memoria condivisa tra le 2 GPU) quindi il tutto verra' collegato in modo diverso dell'attuale 3870 x2 in pratica le 2 GPU verranno collegate con qualcosa di piu veloce e funzioneranno come fossero 2GPUin 1 condividendo la stessa memoria.
Vedi disegno slide su un mio post mandato precedentemente.
no non traduci, "inventi" :asd: :asd:
non ti offendere: intendo dire che nel rumor in inglese da te riportato si dice semplicemente che la 4870x2 non sarà una 3870x2 con al posto di rv670 rv770 e basta, ma qualcosa in più
poi aggiunge che la connessione (al pc, non tra le due gpu, è qui l'equivoco nostro) sarà pci-ex2 e non più pci-ex 1.1
il resto condensato e spiegato meglio da te qui sotto
No non hai capito . Non passeranno dalla connessione PCIe versione1 alla PCIe versione 2; ma il tutto sara' collegato con architettura Multi chip module.
Un po come i processori quad core di intel composti cioe' da 2 processori core 2 duo sullo stesso die=wafer con memoria condivisa per tutti e 4 i core.
lo dici tu (attingendo dai rumors che circolano da mesi e mai confermati, nammeno ora che ci avviciniamo al lancio se ne parla per nulla) non la fonte inglese da te riportata, basta leggerla bene ;)
p.s.: il fatto che non se ne parli di per sè può voler dire tutto e niente, ma insomma....
la 4870:confused: se non esce a maggio mi prendo una 8800gts g92 aspetto da troppo tempo l' upgrade
R700 = 4870x2 uscita:?
rv770= 4870 uscita: pare fine maggio
albert75
24-04-2008, 22:19
che due bocce...un altro mese
mircocatta
24-04-2008, 22:28
con la 9800gtx attuale nei confronti della 4850 512 e con il g92b per la 4870. poi per la 4870x2 ovvero l'r700 ci sarà il gt200.
;)
finalmente ati raggiunge g80:sofico:
appleroof
24-04-2008, 22:29
finalmente ati raggiunge g80:sofico:
il problema è che quello sta per essere sostituito da GT200 :D :D :D :sofico:
si scherza eh? :)
albert75
24-04-2008, 22:32
il problema è che quello sta per essere sostituito da GT200 :D :D :D :sofico:
si scherza eh? :)
fra sei mesi??mica adesso
appleroof
24-04-2008, 22:34
fra sei mesi??mica adesso
l'ultimo rumor riportato nel tread della GT200 parla di luglio
cmq secondo me tra luglio e settembre, a questo punto
Comunque io mi aspetto un gt200 che vada circa come una 9800gx2, forse poco piú, ma senza i problemi legati all' SLI.
albert75
24-04-2008, 22:37
l'ultimo rumor riportato nel tread della GT200 parla di luglio
cmq secondo me tra luglio e settembre, a questo punto
certo che con quel monitorazzo che hai ci vuole un bel po' di potenza:sofico:
sono troppo contento che ati ritorna alla ribalta....
g100 a cosa lo si puo' paragonare allora???
mircocatta
24-04-2008, 22:37
io sono davvero curioso di vedere come andrà, secondo me queste 4870 andranno più della 9800gtx e chissà la x2....sinceramente non vedo l'ora anche di gt200 così da vedere cosa andrà di più a parità di prezzi...
posso resistere fino a gt200 senza acquisti perchè fino all'uscita di gt200 penso che la mia 8800gt possa bastare :sofico:
albert75
24-04-2008, 22:39
Comunque io mi aspetto un gt200 che vada circa come una 9800gx2, forse poco piú, ma senza i problemi legati all' SLI.
ma gt200 e' single core?? o e' come gx2??
albert75
24-04-2008, 22:39
io sono davvero curioso di vedere come andrà, secondo me queste 4870 andranno più della 9800gtx e chissà la x2....sinceramente non vedo l'ora anche di gt200 così da vedere cosa andrà di più a parità di prezzi...
posso resistere fino a gt200 senza acquisti perchè fino all'uscita di gt200 penso che la mia 8800gt possa bastare :sofico:
io invece non riesco piu' ad aspettare questo mese sara'infinito....
appleroof
24-04-2008, 22:41
Comunque io mi aspetto un gt200 che vada circa come una 9800gx2, forse poco piú, ma senza i problemi legati all' SLI.
magari! :D
certo che con quel monitorazzo che hai ci vuole un bel po' di potenza:sofico:
sono troppo contento che ati ritorna alla ribalta....
eh si :)
io sono davvero curioso di vedere come andrà, secondo me queste 4870 andranno più della 9800gtx e chissà la x2....sinceramente non vedo l'ora anche di gt200 così da vedere cosa andrà di più a parità di prezzi...
posso resistere fino a gt200 senza acquisti perchè fino all'uscita di gt200 penso che la mia 8800gt possa bastare :sofico:
quoterrimo
ma gt200 e' single core?? o e' come gx2??
single core...al 99% :D
ma gt200 e' single core?? o e' come gx2??
dai rumors, sembra singlecore, tdp 250W
albert75
24-04-2008, 22:43
single core...al 99% :D
ma allora g100 che e??
appleroof
24-04-2008, 22:45
ma allora g100 che e??
non esiste più ti riassumo quella che dovrebbe essere la situazione nei prox mesi, secondo alcuni (che condivido) e salvo conferme/smentite:
4870 (rv770): g92b (quello che doveva essere g100)
4870x2 (r700): GT200
non esiste più ti riassumo quella che dovrebbe essere la situazione nei prox mesi, secondo alcuni (che condivido) e salvo conferme/smentite:
4870 (rv770): g92b (quello che doveva essere g100)
4870x2 (r700): GT200
Esatto. E aggiungo che non mi aspetto divari prestazionali elevati come nella scorsa generazione. Sempre IMHO ;)
appleroof
24-04-2008, 22:47
Esatto. E aggiungo che non mi aspetto divari prestazionali elevati come nella scorsa generazione. Sempre IMHO ;)
anche io, credo, e credo (spero per meglio dire) che questo torni a nostro vantaggio (€) :D
albert75
24-04-2008, 22:48
non esiste più ti riassumo quella che dovrebbe essere la situazione nei prox mesi, secondo alcuni (che condivido) e salvo conferme/smentite:
4870 (rv770): g92b (quello che doveva essere g100)
4870x2 (r700): GT200
quindi gt200 dovrebbe andare 1 volta e un po' piu' di g92:ciapet:
albert75
24-04-2008, 22:50
allora spero che fra un po' per scegliere ati o nvidia dovremo basarci sul consumo....su qualche euro di differenza..sul dissipatore e sulla rumorosita'':sofico:
appleroof
24-04-2008, 22:50
quindi gt200 dovrebbe andare 1 volta e un po' piu' di g92:ciapet:
le migliori fonti (che finora non hanno sbagliato una volta) dicono il doppio della 8800gtx ( :eek: )
albert75
24-04-2008, 22:52
le migliori fonti (che finora non hanno sbagliato una volta) dicono il doppio della 8800gtx ( :eek: )
porca vacca.....gt200 single core andra' 2 volte una 8800gtx?? e che ce ne facciamo:Prrr: :Prrr: :Prrr:
e poi se la vedra' alla pari con 4870x2 dualcore???tireranno fuori un mostro?? ma quanto spazio occupera'?? e come hanno fatto ad ottenere la potenza di una x2??
appleroof
24-04-2008, 22:54
porca vacca.....gt200 single core andra' 2 volte una 8800gtx?? e che ce ne facciamo:Prrr: :Prrr: :Prrr:
io un'idea ce l'avrei :D
se la gtx mi è durata senza battere ciglio dal 2006 ad oggi, mi aspetto che gt200 (e/o r700, vedremo) si comportino allo stesso modo fino a dx11...inoltrate :D
e poi se la vedra' alla pari con 4870x2 dualcore???
si così pare, cmq tutto sia per GT200 che per r700 è da vedere, attenzione
albert75
24-04-2008, 22:58
un altra cosa....la 4870x2 sara' come la gx2, cioe' con doppio pcb oppure sara come un dual core?? ma poi perche' si ostinano a tirare fuori questi dual core, non possono fare una sola gpu ma con un area grande quanto una doppia???
albert75
24-04-2008, 22:59
io un'idea ce l'avrei :D
se la gtx mi è durata senza battere ciglio dal 2006 ad oggi, mi aspetto che gt200 (e/o r700, vedremo) si comportino allo stesso modo fino a dx11...inoltrate :D
si così pare, cmq tutto sia per GT200 che per r700 è da vedere, attenzione
ma se cosi ' fosse gt200 consumerebbe molto meno rispetto ad una 4870x2
appleroof
24-04-2008, 23:02
un altra cosa....la 4870x2 sara' come la gx2, cioe' con doppio pcb oppure sara come un dual core?? ma poi perche' si ostinano a tirare fuori questi dual core, non possono fare una sola gpu ma con un area grande quanto una doppia???
ma se cosi ' fosse gt200 consumerebbe molto meno rispetto ad una 4870x2
non si sà nulla (parte in neretto)
per il resto, attualmente non è possibile fare l' "unica gpu" come la intendi tu, su r700 si diceva fosse come dici tu, ma finora anche qui mistero più totale (molti propendono per una scheda ancora tipo 3870x2 ma bisogna vedere)
porca vacca.....gt200 single core andra' 2 volte una 8800gtx?? e che ce ne facciamo:Prrr: :Prrr: :Prrr:
e poi se la vedra' alla pari con 4870x2 dualcore???tireranno fuori un mostro?? ma quanto spazio occupera'?? e come hanno fatto ad ottenere la potenza di una x2??
Sono 2 strade diverse: una porta ad un chip sempre piú complesso, che probabilmente vuol dire migliore efficienza. Con il difetto peró di avere un maggior costo di progetto e yield peggiori, in quanto é un chip molto grosso e piú soggetto a difetti.
L'altra porta a 2 chip meno complessi collegati tra di loro (e non si sa se con crossfire, ringbus o altro), cosa che ti fa perdere un po' in efficienza, ma ti permette di avere yield migliori, chip meno costosi sia in progetto che in produzione.Oltre ad avere una sola linea di produzione per la fascia media e la fascia alta.
Parte informativa ON :D : In poche parole, quando si deve fare un processore, é utilizzata una grande fetta di silicio purissimo, dove sono "stampati" i chip.
Ovviamente non tutto il silicio é purissimo, quindi ci saranno parti della fetta che avranno impuritá, e quando avviene la "stampa" il chip con l'impuritá sará difettoso. É chiaro quindi, che quanto piú grande il chip, oltre ad avere meno chip per fetta, la possibilitá di avere un procio difettoso aumenta.
albert75
24-04-2008, 23:04
che processore si potrebbe affiancare ad un gt200 o 4870x2....ad esempio il mio e6420 portato a 3.2ghz con le ddr2 in sincrono a 800mhz...andrebbe bene??
appleroof
24-04-2008, 23:07
Sono 2 strade diverse: una porta ad un chip sempre piú complesso, che probabilmente vuol dire migliore efficienza. Con il difetto peró di avere un maggior costo di progetto e yield peggiori, in quanto é un chip molto grosso e piú soggetto a difetti.
L'altra porta a 2 chip meno complessi collegati tra di loro (e non si sa se con crossfire, ringbus o altro), cosa che ti fa perdere un po' in efficienza, ma ti permette di avere yield migliori, chip meno costosi sia in progetto che in produzione.Oltre ad avere una sola linea di produzione per la fascia media e la fascia alta.
Parte informativa ON :D : In poche parole, quando si deve fare un processore, é utilizzata una grande fetta di silicio purissimo, dove sono "stampati" i chip.
Ovviamente non tutto il silicio é purissimo, quindi ci saranno parti della fetta che avranno impuritá, equando avviene la "stampa" il chip con l'impuritá sará difettoso. É chiaro quindi, che quanto piú grande il chip, oltre ad avere meno chip per fetta, la possibilitá di avere un procio difettoso aumenta.
si vabbè, ma onor del vero difettoso (se magari per questo non intendi solo che sopporta frequenze meno alte che altri esemplari, quello che in genere chiamiamo "sfigato" :D ) ne vero senso della parola, nell'ordine di percentuali tipo lo 0,01%....
che processore si potrebbe affiancare ad un gt200 o 4870x2....ad esempio il mio e6420 portato a 3.2ghz con le ddr2 in sincrono a 800mhz...andrebbe bene??
secondo me si: per darti un'idea vaga, io ho tenuto la gtx con un opteron 2.6 giga e andava bene, certo con quello attuale và meglio, ma insomma prima non era proprio strozzata e la stessa cosa la riferirei ad una situazione tipo la tua (tant'è che credo di rimadare l'acquisto del q9450 per fare prima il cambio di vga, ci sto pensando ma credo di aver deciso in questo senso)
albert75
24-04-2008, 23:07
Sono 2 strade diverse: una porta ad un chip sempre piú complesso, che probabilmente vuol dire migliore efficienza. Con il difetto peró di avere un maggior costo di progetto e yield peggiori, in quanto é un chip molto grosso e piú soggetto a difetti.
L'altra porta a 2 chip meno complessi collegati tra di loro (e non si sa se con crossfire, ringbus o altro), cosa che ti fa perdere un po' in efficienza, ma ti permette di avere yield migliori, chip meno costosi sia in progetto che in produzione.Oltre ad avere una sola linea di produzione per la fascia media e la fascia alta.
Parte informativa ON :D : In poche parole, quando si deve fare un processore, é utilizzata una grande fetta di silicio purissimo, dove sono "stampati" i chip.
Ovviamente non tutto il silicio é purissimo, quindi ci saranno parti della fetta che avranno impuritá, e quando avviene la "stampa" il chip con l'impuritá sará difettoso. É chiaro quindi, che quanto piú grande il chip, oltre ad avere meno chip per fetta, la possibilitá di avere un procio difettoso aumenta.insomma ci sono ancora molti limiti.....una cosa che mi domand da sempre...ma gli hd non possono essere fatti e funzionare come la ram.??.
albert75
24-04-2008, 23:11
ot" devo prendere una mamma e mi hanno caldamente consigliato la asus p5k premium...tu come ti trovi con la dfi p35? vado di asus o dfi??'...fine ot
appleroof
24-04-2008, 23:12
[/B]insomma ci sono ancora molti limiti.....una cosa che mi domand da sempre...ma gli hd non possono essere fatti e funzionare come la ram.??.
stai davvero divagando, cmq una cosa tipo quella che prospetti no, però un grosso passo avanti lo faranno i dischi SSD, cmq usciamo veramente dal topic così, meglio chiuderlaò
ot" devo prendere una mamma e mi hanno caldamente consigliato la asus p5k premium...tu come ti trovi con la dfi p35? vado di asus o dfi??'...fine ot
la dfi è una roccia, mi trovo benissimo, ed è una mobo eccellente, quanto a qualità e prezzo/prestazioni (un esempio su tutti: v-drop quasi inesistente e questo con una alimentazione non certo al top, a 4 fasi)
però anche l'asus che ti hanno consigliato in effetti è una bella mobo, in effetti tra le due per le caratteristiche che ha prenderei l'asus, più completa ma insomma dovresti chiedere a chi ce l'ha....cmq chiudiamo dai
supercomputer1
24-04-2008, 23:14
A pagina 115 hai scritto " poi aggiunge che la connessione (al pc, non tra le due gpu, è qui l'equivoco nostro) sarà pci-ex2 e non più pci-ex 1.1 "
Guarda che non si riferiva alla connessione PCIe che collega la csheda video al pc in quanto la 3870 x2 e' gia' una scheda con connessione al pc di tipo PCIe versione 2; ma sono le 2 GPU collegate tra loro ad avere connessione PCIe versione1 che altro non e' il noto chip PLX.
perche' confondi tutto ?
si vabbè, ma onor del vero difettoso (se magari per questo non intendi solo che sopporta frequenze meno alte che altri esemplari, quello che in genere chiamiamo "sfigato" :D ) ne vero senso della parola, nell'ordine di percentuali tipo lo 0,01%....
Ci sono 2 tipi di impuritá: quelle che non ti fanno reggere alte frequenze (al quale si puó ovviare facendo una scheda con frequenze minori a minor prezzo) e quelle che proprio non fanno funzionare niente.
Nello yield si contano sia i proci che non reggono le frequenze minime per la scheda di fascia piú bassa, sia quelli proprio difettosi.
Per rv770 si parla di cifre al di sopra del 70% di processori perfetti, un numero che direi davvero molto buono. Anche perché sono chip piuttosto piccoli e e per ogni wafer ne sono prodotti molti. E siamo solo alla prima vagonata, di solito dopo si migliora :)
albert75
24-04-2008, 23:18
Ci sono 2 tipi di impuritá: quelle che non ti fanno reggere alte frequenze (al quale si puó ovviare facendo una scheda con frequenze minori a minor prezzo) e quelle che proprio non fanno funzionare niente.
Nello yield si contano sia i proci che non reggono le frequenze minime per la scheda di fascia piú bassa, sia quelli proprio difettosi.
Per rv770 si parla di cifre al di sopra del 70% di processori perfetti, un numero che direi davvero molto buono. Anche perché sono chip piuttosto piccoli e e per ogni wafer ne sono prodotti molti. E siamo solo alla prima vagonata, di solito dopo si migliora :)
ma ndo le prendo ste notizie:mbe:
ma ndo le prendo ste notizie:mbe:
Notizia di marzo, quando era appena iniziata la produzione di rv770.
http://forums.vr-zone.com/showthread.php?t=244004
Post di un utente che riporta un link a chiphell :)
appleroof
24-04-2008, 23:23
A pagina 115 hai scritto " poi aggiunge che la connessione (al pc, non tra le due gpu, è qui l'equivoco nostro) sarà pci-ex2 e non più pci-ex 1.1 "
Guarda che non si riferiva alla connessione PCIe che collega la csheda video al pc in quanto la 3870 x2 e' gia' una scheda con connessione al pc di tipo PCIe versione 2; ma sono le 2 GPU collegate tra loro ad avere connessione PCIe versione1 che altro non e' il noto chip PLX.
perche' confondi tutto ?
ti invito a rileggere i miei post con calma, se vuoi, e vedrai che ad aver confuso tutto (anche me, ad un certo punto, lo ammetto) sei stato tu
i post sono li :)
albert75
24-04-2008, 23:23
Notizia di marzo, quando era appena iniziata la produzione di rv770.
http://forums.vr-zone.com/showthread.php?t=244004
Post di un utente che riporta un link a chiphell :)
;)
supercomputer1
24-04-2008, 23:31
Ecco com'era la citazione originale .
ATI is said to be making some changes, most notably in the PCI Express department (3870 X2 is actually a PCIe 1.1 part). The product will keep the aggressive pricing in place, and, according to our sources, will scale much better than 3870 X2.
Il testo parla chiaro solo che bisogna vedere come la si interpreta
(3870 X2 is actually a PCIe 1.1 part)significa la 3870 x2 e' un pezzo fatto da
un PCIe 1.1; ma cio si riferisce al modo in cui sono collegate le 2 GPU
no alla connessione tra la scheda ed il pc difatti il collegamento schedavideo e pc viene fatto tramite PCIe versione 2 guarda qua in questo link
PCI Express 2.0 x16 bus interface5
http://ati.amd.com/products/radeonhd3800/specs.html
renaulto86
24-04-2008, 23:35
Intanto una girata con G92 me la faccio :O
http://www.pctunerup.com/up/results/_200804/20080424214241_Immagine.jpg
156euro Nuova dal negozio (due aste entrabe a stessa cifra LOL) una XFX Alpha Dog nome in codice XXX :ciapet: :D
ciao, potresti dirmi in pvt il negozio in cui l'hai presa? :D
grazie
appleroof
24-04-2008, 23:37
Ecco com'era la citazione originale .
ATI is said to be making some changes, most notably in the PCI Express department (3870 X2 is actually a PCIe 1.1 part). The product will keep the aggressive pricing in place, and, according to our sources, will scale much better than 3870 X2.
Il testo parla chiaro solo che bisogna vedere come la si interpreta
(3870 X2 is actually a PCIe 1.1 part)significa la 3870 x2 e' un pezzo fatto da
un PCIe 1.1; ma cio si riferisce al modo in cui sono collegate le 2 GPU
no alla connessione tra la scheda ed il pc difatta il collegamento scheda pc viene fatto tramite PCIe versione 2 guarda qua in questo link
PCI Express 2.0 x16 bus interface5
http://ati.amd.com/products/radeonhd3800/specs.html
o signur, ti riporto i post nell'esatto ordine in cui sono stati postati:
la parte italiana è la traduzione di quella inglese? Perchè ci sono incongruenze tra le due: in quella inglese si dice che la 4870x2 non sarà semplicemente una 3870x2 con 2 rv770, quanto al collegamento tra le due gpu non si dice nulla più, mi pare
quanto al bus e memorie, credo sia la semplice somma delle 2 gpu (256 bit ed 1 giga per una)
insomma, la cosa che mi attira di più, cioè scoprire se le 2 gpu saranno veramente collegate con qualcosa di diverso rispetto ad oggi, rimane un mistero...
ATI is said to be making some changes, most notably in the PCI Express department (3870 X2 is actually a PCIe 1.1 part)
traduco ATI dice di cambiare alcune cose, piu notevolmente nella parte del PCI express( la 3870 x2 monta attualmente un PCIexpress versione1.1)
le 2 gpu nella 3870 x2 comunicano tra di loro con il PLX che e' una connessione pci express versione 1 il cui offre una larghezza di banda da 2,5GB/s (cioe' 2,5 Gibabit al secondo) gia soltanto mettendo un ponte pci express di versione 2 raddoppierebbe la banda passande tra le 2 GPU da
2,5 Gb/s a ben 5 Gb/s; da non dimenticare anche che la futura R700 avra'
la memoria condivisa tra le 2 GPU) quindi il tutto verra' collegato in modo diverso dell'attuale 3870 x2 in pratica le 2 GPU verranno collegate con qualcosa di piu veloce e funzioneranno come fossero 2GPUin 1 condividendo la stessa memoria.
Vedi disegno slide su un mio post mandato precedentemente.
si, allora avevo capito bene, cmq grazie della conferma...:)
cut
ok, ma dai rumors riportati non esiste quello che nel tuo schema è r700 aka 4870x2,
nei rumors da te riportati la connessione di r700 è identica a r680, con l'unico cambio dello switch pci-ex che da tipo 1.1 diventa 2...
proprio perchè pensavo allo schema da te postato la cosa sarebbe molto ridimensionata (al di là poi di vedere sul campo come andrebbe r700 con classica connessione CF)
qui improvvisamente non parlavi più di connessione tra le 2 gpu, ma di r700 con gpu collegate tra loro "stile q6600" cosa totalmente diversa
infatti di nuovo mi dici
No non hai capito . Non passeranno dalla connessione PCIe versione1 alla PCIe versione 2; ma il tutto sara' collegato con architettura Multi chip module.
Un po come i processori quad core di intel composti cioe' da 2 processori core 2 duo sullo stesso die=wafer con memoria condivisa per tutti e 4 i core.
allora qui ho detto, facendomi incasinare anche a me :D (parte in neretto) che questo lo dici tu, riprendendo vecchi rumors su r700, ma non c'è da nessuna parte in quello da te postato e che ha dato il via al tutto ok? ;)
no non traduci, "inventi" :asd: :asd:
non ti offendere: intendo dire che nel rumor in inglese da te riportato si dice semplicemente che la 4870x2 non sarà una 3870x2 con al posto di rv670 rv770 e basta, ma qualcosa in più
poi aggiunge che la connessione (al pc, non tra le due gpu, è qui l'equivoco nostro) sarà pci-ex2 e non più pci-ex 1.1
il resto condensato e spiegato meglio da te qui sotto
lo dici tu (attingendo dai rumors che circolano da mesi e mai confermati, nammeno ora che ci avviciniamo al lancio se ne parla per nulla) non la fonte inglese da te riportata, basta leggerla bene ;)
p.s.: il fatto che non se ne parli di per sè può voler dire tutto e niente, ma insomma....
R700 = 4870x2 uscita:?
rv770= 4870 uscita: pare fine maggio
le migliori fonti (che finora non hanno sbagliato una volta) dicono il doppio della 8800gtx ( :eek: )
Secondo me bisogna ancora capire se GT200 è o meno la scheda NVidia che uscirà a luglio (G92 a 55nm e migliorato). Se sì, non credo proprio che andrà il doppio di G80. Si è già visto come con l'architettura di G80 e derivati l'incremento di SP non porta ad incrementi prestazionali direttamente proporzionali, anzi l'incremento decresce con l'aumentare del numero. Al max una scheda con 192SP potrebbe andare un 50% più della 9800GTX, e già mi pare troppo.
Se GT200 non è la scheda che uscirà a luglio, allora sarebbe possibile.
appleroof
24-04-2008, 23:40
Secondo me bisogna ancora capire se GT200 è o meno la scheda NVidia che uscirà a luglio (G92 a 55nm e migliorato). Se sì, non credo proprio che andrà il doppio di G80. Si è già visto come con l'architettura di G80 e derivati l'incremento di SP non porta ad incrementi prestazionali direttamente proporzionali, anzi l'incremento decresce con l'aumentare del numero. Al max una scheda con 192SP potrebbe andare un 50% più della 9800GTX, e già mi pare troppo.
Se GT200 non è la scheda che uscirà a luglio, allora sarebbe possibile.
esatto, io mi riferivo proprio a quella che "non uscirà a luglio"
fermo restando che a luglio potrebbe uscire GT200 (e non più g92b?)
a Nvidia piace confondere le acque fino all'ultimo per cui non mi stupirei di nulla a questo punto ;)
supercomputer1
24-04-2008, 23:49
Guarda anche questo
http://www.pctuner.net/news/8132/Nuove_3870_X2_da_ATI/
Spiega che nella 3870 x2 le 2 GPU sono collegate con ponte PCIe versione 1.1 esattamente cio che diceva il testo in Inglese perche mi vieni a dire che parla della connessione PCIe col pc ?
Invece la nuova generazione di 3870 x2 che uscira a meta' 2008 montera' la PCIe versione 2 raddoppiando la larghezza di banda per collegare le 2 GPU questa sara' la nuova versione della 3870 x2 che montera' memoria GDDR4 e chip revisione A12 invece delle attuali A11 invece per quanto riguarda r700 sara' MCM multi chip module niente a che vedere con il collegamento delle 2 GPU come avviene nella 3870 x2
per approfondimenti questo
http://www.pctuner.net/goto.php?url=http://www.fudzilla.com/index.php?option=com_content&task=view&id=5980&Itemid=1
supercomputer1
25-04-2008, 00:10
no non traduci, "inventi" :asd: :asd:
non ti offendere: intendo dire che nel rumor in inglese da te riportato si dice semplicemente che la 4870x2 non sarà una 3870x2 con al posto di rv670 rv770 e basta, ma qualcosa in più
poi aggiunge che la connessione (al pc, non tra le due gpu, è qui l'equivoco nostro) sarà pci-ex2 e non più pci-ex 1.1
Guarda anche questo
http://www.pctuner.net/news/8132/Nuove_3870_X2_da_ATI/
Spiega che nella 3870 x2 le 2 GPU sono collegate con ponte PCIe versione 1.1 esattamente cio che diceva il testo in Inglese perche mi vieni a dire che parla della connessione PCIe tra la scheda ed il pc ?
Invece la nuova generazione di 3870 x2 che uscira a meta' 2008 montera' la PCIe versione 2 raddoppiando la larghezza di banda per collegare le 2 GPU questa sara' la nuova versione della 3870 x2 che montera' memoria GDDR4 e chip revisione A12 invece delle attuali A11 invece per quanto riguarda r700 sara' MCM multi chip module niente a che vedere con il collegamento delle 2 GPU come avviene nella 3870 x2
per approfondimenti questo
http://www.pctuner.net/goto.php?url=http://www.fudzilla.com/index.php?option=com_content&task=view&id=5980&Itemid=1
appleroof
25-04-2008, 08:15
Guarda anche questo
http://www.pctuner.net/news/8132/Nuove_3870_X2_da_ATI/
Spiega che nella 3870 x2 le 2 GPU sono collegate con ponte PCIe versione 1.1 esattamente cio che diceva il testo in Inglese perche mi vieni a dire che parla della connessione PCIe col pc ?
Invece la nuova generazione di 3870 x2 che uscira a meta' 2008 montera' la PCIe versione 2 raddoppiando la larghezza di banda per collegare le 2 GPU questa sara' la nuova versione della 3870 x2 che montera' memoria GDDR4 e chip revisione A12 invece delle attuali A11 invece per quanto riguarda r700 sara' MCM multi chip module niente a che vedere con il collegamento delle 2 GPU come avviene nella 3870 x2
per approfondimenti questo
http://www.pctuner.net/goto.php?url=http://www.fudzilla.com/index.php?option=com_content&task=view&id=5980&Itemid=1
Guarda anche questo
http://www.pctuner.net/news/8132/Nuove_3870_X2_da_ATI/
Spiega che nella 3870 x2 le 2 GPU sono collegate con ponte PCIe versione 1.1 esattamente cio che diceva il testo in Inglese perche mi vieni a dire che parla della connessione PCIe tra la scheda ed il pc ?
Invece la nuova generazione di 3870 x2 che uscira a meta' 2008 montera' la PCIe versione 2 raddoppiando la larghezza di banda per collegare le 2 GPU questa sara' la nuova versione della 3870 x2 che montera' memoria GDDR4 e chip revisione A12 invece delle attuali A11 invece per quanto riguarda r700 sara' MCM multi chip module niente a che vedere con il collegamento delle 2 GPU come avviene nella 3870 x2
per approfondimenti questo
http://www.pctuner.net/goto.php?url=http://www.fudzilla.com/index.php?option=com_content&task=view&id=5980&Itemid=1
va bene, ci rinuncio. :rolleyes:
Vedendo i prezzi postati più sopra, se espressi in dollari le trovo ottimi, confermano sostanzialmente quello visto con 3xxx, non so però se prenderlo come un segno di debolezza.
Vedendo i prezzi postati più sopra, se espressi in dollari le trovo ottimi, confermano sostanzialmente quello visto con 3xxx, non so però se prenderlo come un segno di debolezza.
speriamo sinceramente di nò...
halduemilauno
25-04-2008, 09:27
Comunque io mi aspetto un gt200 che vada circa come una 9800gx2, forse poco piú, ma senza i problemi legati all' SLI.
quale versione di GT200? poi addirittura "circa", poi ti riprendi e dici "forse poco più".
Evidentemente non sei stato attento, visto che dico da 100 pagine che quello di cui ha più bisogno ATi è maggiore potenza di texturing e che non è bandwidth limited. Il che con quello che dici tu che io direi.
e allora quando tu hai citato il doppio delle tmu io ti ho detto appunto e tu perchè hai risposto con un :confused:
quello che tu dici da 100 pagine io lo dico dal 15 maggio 2007 e qualchecosetta pure prima.
halduemilauno
25-04-2008, 09:29
Comunque io mi aspetto un gt200 che vada circa come una 9800gx2, forse poco piú, ma senza i problemi legati all' SLI.
quale versione di GT200? poi addirittura "circa", poi ti riprendi e dici "forse poco più".
Evidentemente non sei stato attento, visto che dico da 100 pagine che quello di cui ha più bisogno ATi è maggiore potenza di texturing e che non è bandwidth limited. Il che con quello che dici tu che io direi.
e allora quando tu hai citato il doppio delle tmu io ti ho detto appunto e tu perchè hai risposto con un :confused:
quello che tu dici da 100 pagine io lo dico dal 15 maggio 2007 e qualchecosetta pure prima.
pierluigi86
25-04-2008, 09:37
va bene, ci rinuncio. :rolleyes:
LoL :doh: :doh: :doh: :doh:
albert75
25-04-2008, 09:42
se gt200 esce a luglio...coviene aspettare prima di buttarsi su r700:stordita:
Se sulle Nvidia mettessero 16 rop la scheda video riuscirebbe a malapena a far girare pac man. sulle Ati il discorso e' diverso ( vedi la notevole differenza tra l'elevato numero degli stream pocessor contenuti nelle ATI ed il basso numero
di stream processor contenuto nelle Nvidia/" che pero' hanno piu ROP e piu TMU" ) cio serve per compensare il basso numero di TMU ed il basso numero di ROP contebnuto nelle ATI.
guarda che le Geforce 8/9 hanno un numero di ROPS variabile tra 16 e 24.. che castronerie vai dicendo? :)
http://www.hwupgrade.it/articoli/skvideo/1936/nvidia-geforce-9800gtx-potenza-a-basso-consumo_3.html
bYeZ!
River Phoenix
25-04-2008, 09:56
Scusate ma è il 3d di r700 o gt200.....mi sembra che ci sia il 3d apposito per quello :rolleyes:
se gt200 esce a luglio...coviene aspettare prima di buttarsi su r700:stordita:
quoto ...... pero secondo me è meglio aspettare a novembre prima di un cambio di vga perche pare che a luglio uscira sonlo un refresh di g92 montato sulle 9900gx2 e 9900gtx e poi successivamente usciranno le vga nvidia con gt200
albert75
25-04-2008, 10:03
nun ce capisco piu' niente:
qua dicono a luglio e parlano di g92b che andra' a formare il gt200:
http://forums.vr-zone.com/showthread.php?t=267135.....
comunque tu con la 3870 +o- te la cavi ma io con la 1950pro a 1680*1050 nei giochi me la vedo male, pensa che in trackmania forevere faccio 28frame:Prrr:
albert75
25-04-2008, 10:06
edit
nun ce capisco piu' niente:
qua dicono a luglio e parlano di g92b che andra' a formare il gt200:
http://forums.vr-zone.com/showthread.php?t=267135.....
comunque tu con la 3870 +o- te la cavi ma io con la 1950pro a 1680*1050 nei giochi me la vedo male, pensa che in trackmania forevere faccio 28frame:Prrr:
Alla faccia di cavarsela con una 3870, per me può durare allegramente 2-3 anni, ho notato ora che con questi rumors i prezzi dell'hw di questa generazione stanno crollando.
Ritronando a r700 e la mia considerazione sui prezzi, purtroppo AMD con le nuove schede le posiziona in un rapporto strettisimo tra prezzo-prestazioni, vedesi 2900XT.
albert75
25-04-2008, 10:22
Alla faccia di cavarsela con una 3870, per me può durare allegramente 2-3 anni, ho notato ora che con questi rumors i prezzi dell'hw di questa generazione stanno crollando.
Ritronando a r700 e la mia considerazione sui prezzi, purtroppo AMD con le nuove schede le posiziona in un rapporto strettisimo tra prezzo-prestazioni, vedesi 2900XT.
:mbe:
un anno:Prrr:
Sì se hai un monitor hd da 24 pollici forse. Dicevano così anche della hd2900xt, le davano 6 mesi di vita pensa te...
Andrea deluxe
25-04-2008, 10:41
in aiuto ad appleroof!
le connessioni interne della 3870x2 sono pciexpress 1.1 ed hai ragione!
ecco i link:
http://www.plxtech.com/pdf/product_briefs/PEX8547_Product_Brief_v1.5_15Aug07.pdf
http://www.plxtech.com/products/expresslane/pex8547.asp
albert75
25-04-2008, 10:43
Sì se hai un monitor hd da 24 pollici forse. Dicevano così anche della hd2900xt, le davano 6 mesi di vita pensa te...
comunque appena esce 4870 la prendo e buonanotte a tutti...lascio questa sezione per almeno un anno....e mi butto sui giochi....devo rigiocare dei titoli che non mi sono goduto affatto....stalker fear colin dirt scda addirittura....devo rispolverare un po' di titoli:sofico:
comunque appena esce 4870 la prendo e buonanotte a tutti...lascio questa sezione per almeno un anno....e mi butto sui giochi....devo rigiocare dei titoli che non mi sono goduto affatto....stalker fear colin dirt scda addirittura....devo rispolverare un po' di titoli:sofico:
Bhe puoi sempre frequentarla, anzi devi dirci come va :D
albert75
25-04-2008, 12:25
Bhe puoi sempre frequentarla, anzi devi dirci come va :D
sicuramente e faro' quattro bench uno con cpu oc e scheda default...uno con cpu default e gpu oc...uno con tutti e due default e uno con tutte due oc:Prrr:
Riassumendo:
http://img117.imageshack.us/img117/8278/4870specyk4.jpg
Su Beyond3d dicono che quello che avrebbe dovuto essere R650 è alla fine RV770, cioè un R600 molto potenziato.
Rispetto a RV670 è:
Shading: 100% in più
Texturing:120%
Pixel-FillRate:5% (senza nessuna modifica)
Bandwidth: 40%
A giudicare da questi numeri direi che le ROPS dovrebbero essere state modificate, se no rimarebbero il punto debole del chip, e che prestazioni il 50% superiore a RV670 siano effettivamente conservative.
Se R700 sarà poi qualcosa di più di 2xGPU sullo stesso pcb, potrebbe essere una scheda competitiva anche nei confronti di GT200.
Il punto debole del chip non sono le ROPs, ma le TMU...
Il punto debole di R600 e RV670 sono principalmente le TMU, ma molti giochi , soprattutto quelli più pesanti, necessitano di molto pixel fill-rate e se il comparto ROPs rimane invariato questo potrebbe limitare il chip. Ad esempio in Crysis, la differenza delle prestazioni di G92 e G80 è minima, anche se il primo ha una potenza di shading molto superiore. Tra queste due schede infatti il pixel fill-rate è molto simile.
Se invece l'architettura di quelle 16ROPs è stata modificata e potenziata rispetto a RV670, allora il chip potrà sfruttare tutta la potenza di shading e texturing di RV770.
Mr_Paulus
25-04-2008, 19:24
in un articolo mi sembra di avere letto che 16 rops bastavano anche per le risoluzioni più spinte dei comuni lcd.
sbaglierò ragionamento, ma se le rops sono la parte della gpu che permette di scrivere i pixel nel framebuffer, e se a una risoluzione che x esempio può essere 1680x1050 ci sono su schermo circa 1,7M di pixel e con "n" rops la scheda x ha un pixel fllrate che supera quel valore, il semplice aumento di rops non porta benefici prestazionali a quella risoluzione giusto?(sto parlando di valori teorici...senza contare i vari colli di bottiglia che possono arrivare da sp o tmu o altro)
Paolobody
25-04-2008, 20:53
scusate io ci riprovo.
Ma le 4670 e 4650 invece con che nvidia andranno a competere?
E soprattutto quando andranno? come la 3870 di adesso?
quale versione di GT200? poi addirittura "circa", poi ti riprendi e dici "forse poco più".
Quella che tu definisci "mega chippone" :)
Contando che una 9800gx2 va circa il 60% in piú di una GTS 512, fino ad un massimo del 75% in piú...
Mi aspetto che il chippone vada circa l' 80% in piú di una gts 512, ma in modo stabile, differente da quanto succede con la dual.
Ovviamente sono solo mie supposizioni ;)
albert75
25-04-2008, 21:37
Quella che tu definisci "mega chippone" :)
Contando che una 9800gx2 va circa il 60% in piú di una GTS 512, fino ad un massimo del 75% in piú...
Mi aspetto che il chippone vada circa l' 80% in piú di una gts 512, ma in modo stabile, differente da quanto succede con la dual.
Ovviamente sono solo mie supposizioni ;)
80%%:eek: :eek:
mircocatta
25-04-2008, 22:43
cmq i 480 shader sono poi i soliti 480/4=120 shader effettivi giusto? bisognerà vedere se questi fantomatici 480 verranno sfruttati o no
Iantikas
25-04-2008, 22:47
http://www.digit-life.com/articles2/video/g80_units2-page1.html
un articolo ke inzia ad essere un pò vekkiotto ma ke può cmq aiutare a farsi un'idea di quello ke è il carico a cui son sottoposte le varie unità presenti all'interno di una GPU...
...dalle conclusioni:
The ROP load was always low - up to 10-20% in both cases. Of course, we should take into account the FPS difference. But the number and capacities of ROPs were not the main stumbling block in our tests. The G80 and G84 demonstrate similar results, except for one case (PT Boats), probably owing to high requirements to video memory size.
Modern games still heavily load texture units, their minimum load is 30%, up to 75% maximum (in the G80!) Plans of some companies to change the ratio between the number of texture and shader units were apparently premature - even such an advanced game as Lost Planet: Extreme Condition uses TMUs so actively.
The load on geometry units and input assembler (it fetches geometry and other data from memory to be used by other units) in games is quite low. It never limits rendering speed, although the load on input assembler is heavier in some projects than in other games.
Unified processors in all new games act as the main bottleneck. Their peak load in almost all games reaches 70-90%, which speaks of their full utilization. So their performance determines rendering speed. Consequently, performance of these units plays the most important role in modern games. As the G84 does not have many such units, the GeForce 8600 cannot demonstrate better results. The load on shader units in the G80 is evidently lower. This GPU has a certain performance margin of unified ALUs.
...da ciò si può dedurre ke l'aumento degli shader da 320 a 480, sebbene fosse un campo dove già la potenza di alcolo nn mancava, nn può fare ke bene...ke il raddoppio delle TMU farà benissimo...e ke le 16 ROP saranno + ke sufficenti nonostante le maggiori potenzialità della GPU negli altri settori...
...ciao
Iantikas
25-04-2008, 22:57
cmq i 480 shader sono poi i soliti 480/4=120 shader effettivi giusto? bisognerà vedere se questi fantomatici 480 verranno sfruttati o no
480/5=96 ...ciao
p.s.: stando ai rumor in RV770 ci saranno 6 cluster da 16 SU ognuno...ogni SU avrà all'interno 5 ALU addette alle operazioni d shading, capaci d'eseguire 5 istruzioni contemporaneamente a patto ke siano indipendenti tra d loro, + un'unità addetta al branching...le 5 ALU presenti all'interno di ogni SU nn sono xò tutte uguali....4 son "+ piccole" capaci "solo" di add sugli interi e di add, mul ,mad, dp sui FP...la quinta invece è "+ grossa" e, sebbene nn possa fare dp in FP, oltre a ciò ke fanno le altre 4 può fare div, mul, shift con interi e operazioni "speciali" (tipo sin, cos, log, exp, etc) e può anke fare conversioni fp->int...
...così come in R600 e RV670 anke in RV770 l'occupazione dello shader core dipenderà dalle istruzioni presenti nell'applicazone ke si sta facendo girare e dall'ottimizzazione lato driver xò in uno scenario reale anke se è difficile ke si abbiano tutte e 480 le unità occupate si avrà + probabilmente un occupazione + vicina al max ke viceversa...cmq anke nel peggiore dei casi, usando solo 96 SU, nn è un panorama così tragico...x es. le unità "+ grosse" possono fare un operazione di MUL/MAD in int32 in un singolo ciclo di clock (G80 e derivati ce ne metterebbero 4)...
p.p.s.: io cmq son abb fiducioso in questo nuovo chip ke sta x sfronare ati (anke se cmq nn m'aspetto miracoli)...ciao
Quella che tu definisci "mega chippone" :)
Contando che una 9800gx2 va circa il 60% in piú di una GTS 512, fino ad un massimo del 75% in piú...
Mi aspetto che il chippone vada circa l' 80% in piú di una gts 512, ma in modo stabile, differente da quanto succede con la dual.
Ovviamente sono solo mie supposizioni ;)
La vedo difficile: l'80% è veramente tanto, e l'architettura G80/G92 ha mostrato che non scala nemmeno proporzionalmente con la quantità di SP in più... La 9800GTX non è veloce il doppio della 9600GT, ad esempio. La 9800GX2 ha comunque 256SP a disposizione, mentre la GT200 dovrebbe averne 192. Penso che un 50% (dovuto in gran parte all'aumento delle unità SP e TMU, e in parte alla banda maggiore) in più rispetto ad una GTS512 sia molto più realistico. ;)
albert75
26-04-2008, 11:23
50% in piu'=30.000 punti allo 06:sofico:
Tidus.hw
26-04-2008, 11:27
50% in piu'=30.000 punti allo 06:sofico:
sì, con la scheda occata a morte e un octacore :D
albert75
26-04-2008, 11:42
sì, con la scheda occata a morte e un octacore :D
23.000:Prrr:
La vedo difficile: l'80% è veramente tanto, e l'architettura G80/G92 ha mostrato che non scala nemmeno proporzionalmente con la quantità di SP in più... La 9800GTX non è veloce il doppio della 9600GT, ad esempio. La 9800GX2 ha comunque 256SP a disposizione, mentre la GT200 dovrebbe averne 192. Penso che un 50% (dovuto in gran parte all'aumento delle unità SP e TMU, e in parte alla banda maggiore) in più rispetto ad una GTS512 sia molto più realistico. ;)
L' 80% a cui mi riferivo era a risoluzioni molto alte con filtri (dove credo che la maggior potenza di calcolo e il bus che forse sará a 512bit potranno fare la differenza, g80 soffre abbastanza delle limitazioni di banda in uqeste situazioni), dove anche la GX2 distanzia maggiormente la gts.
Negli altri casi mi aspetto anche io un percentuale piú basso (cosa che succede anche con la dual).
Poi certo, non me ne intendo benissimo dell' architettura nVidia e devo ancora iniziare a studiare architetture di proci e video all' uni :)
We just caught a news saying RV770XT’s score would be twice as HD2900Pro under 3DMark06. A further judgement is probably needed in the following days.
HD2900PRO 3DMARK06 SCORE = 9K (cpu=c2d e6700)
RV770XT=2 X HD2900PRO = 18K
http://forums.vr-zone.com/showthread.php?t=267700
Questa news, se confermata nei fatti, mi fa credere che i famosi 1050MHz siano fesserie, perché con questo risultato sarebbe una GPU intorno agli 800MHz.
Certo che sono numeri da paura...18k con dualcore vuol dire superare i 20k con una config. quadcore :eek:
We just caught a news saying RV770XT’s score would be twice as HD2900Pro under 3DMark06. A further judgement is probably needed in the following days.
HD2900PRO 3DMARK06 SCORE = 9K (cpu=c2d e6700)
RV770XT=2 X HD2900PRO = 18K
http://forums.vr-zone.com/showthread.php?t=267700
Questa news, se confermata nei fatti, mi fa credere che i famosi 1050MHz siano fesserie, perché con questo risultato sarebbe una GPU intorno agli 800MHz.
Sinceramente credo sia difficile calcolare i clocks da quei risultati... :sofico:
Piuttosto se fossero veri, se ne potrebbero trarre 2 conclusioni molto interessanti:
1) è un risultato di oltre il 30% superiore a quello della HD3870X2, il che potrebbe porre RV770 parecchio sopra la stessa in termini di prestazioni reali.
2) Mi risulta un po'difficile credere in un incremento del genere con solo il 50% degli SP in più (480 vs i 320 di R600Pro). Ricordo che in pratica la HD3870X2 ha 640SP. Se la scala di valori fosse davvero questa, mi sa che gli 800SP sono più probabili...
800SP vs 640SP= +25% di shaders in più. Aggiungiamoci clocks un po' più spinti ed il fatto che stiamo parlando di una single card, il che dà ancora un edge prestazionale a parità di specifiche, e otterremmo un risultato compatibile con quei 18k. :)
appleroof
26-04-2008, 14:03
La vedo difficile: l'80% è veramente tanto, e l'architettura G80/G92 ha mostrato che non scala nemmeno proporzionalmente con la quantità di SP in più... La 9800GTX non è veloce il doppio della 9600GT, ad esempio. La 9800GX2 ha comunque 256SP a disposizione, mentre la GT200 dovrebbe averne 192. Penso che un 50% (dovuto in gran parte all'aumento delle unità SP e TMU, e in parte alla banda maggiore) in più rispetto ad una GTS512 sia molto più realistico. ;)
si ma qui il discorso è viziato dal fatto di essere un'architettura sli, non è lo stesso che avere 256sp, in teoria, in un unico chip
cmq quanto alle prestazioni di GT200 rispetto a G80 la differenza non sarà solo l'aumento degli sp, come hai ricordato, ma l'insieme di migliorie: se questo comportasse un aumento del 50% medio a parità di prestazioni rispetto alla 8800gtx (esempio tipico, da 25fps, soglia minimia di giocabilità, a 37,5, giocabilità ottima), sarà un grosso risultato, direi, tutto quello che verrebbe in più sarebbe goduria pura
appleroof
26-04-2008, 14:04
Sinceramente credo sia difficile calcolare i clocks da quei risultati... :sofico:
Piuttosto se fossero veri, se ne potrebbero trarre 2 conclusioni molto interessanti:
1) è un risultato di oltre il 30% superiore a quello della HD3870X2, il che potrebbe porre RV770 parecchio sopra la stessa in termini di prestazioni reali.
2) Mi risulta un po'difficile credere in un incremento del genere con solo il 50% degli SP in più (480 vs i 320 di R600Pro). Ricordo che in pratica la HD3870X2 ha 640SP. Se la scala di valori fosse davvero questa, mi sa che gli 800SP sono più probabili...
800SP vs 640SP= +25% di shaders in più. Aggiungiamoci clocks un po' più spinti ed il fatto che stiamo parlando di una single card, il che dà ancora un edge prestazionale a parità di specifiche, e otterremmo un risultato compatibile con quei 18k. :)
ancora, dimentichi i limiti della configurazione CF, come prima dello SLI
L' 80% a cui mi riferivo era a risoluzioni molto alte con filtri (dove credo che la maggior potenza di calcolo e il bus che forse sará a 512bit potranno fare la differenza, g80 soffre abbastanza delle limitazioni di banda in uqeste situazioni), dove anche la GX2 distanzia maggiormente la gts.
Negli altri casi mi aspetto anche io un percentuale piú basso (cosa che succede anche con la dual).
Beh il bus conta ma fino ad un certo punto, le 8800 GTX e le Ultra beneficiano di un 15-20% di prestazioni in più a parità di clocks rispetto a G92, e non credo che oltre i 100GB/s si senta davvero la differenza. A quello ci aggiungerei un 30-35%, forse 40% di prestazioni in più grazie a più SP e clocks più alti grazie ai 55nm. Penso che una 9900GTX andrà un pelo meno di una GX2.
RV770 potrebbe dire la sua contro GT200 se fossero veri i numeri postati da Ratatosk: e se ci sarà ancora un gap vs nvidia, potrebbe essere molto ridotto. R700 (RV770X2) potrebbe essere davvero una bestia (800SPx2=1600SP :eek: ).
Ovviamente quanto visto è ancora troppo poco, ma tra un mesetto si saprà molto di più. ;)
si ma qui il discorso è viziato dal fatto di essere un'architettura sli, non è lo stesso che avere 256sp, in teoria, in un unico chip
cmq quanto alle prestazioni di GT200 rispetto a G80 la differenza non sarà solo l'aumento degli sp, come hai ricordato, ma l'insieme di migliorie: se questo comportasse un aumento del 50% medio a parità di prestazioni rispetto alla 8800gtx (esempio tipico, da 25fps, soglia minimia di giocabilità, a 37,5, giocabilità ottima), sarà un grosso risultato, direi, tutto quello che verrebbe in più sarebbe goduria pura
Certo, ma comunque 256SP in SLI al massimo sono uguali a 192SP in single card, non credi? ;)
Certo non credo proprio che una GT200 ipotetica con 192SP possa andare più della GX2: stiamo pur sempre parlando della stessa architettura, più o meno. ;)
ancora, dimentichi i limiti della configurazione CF, come prima dello SLI
I limiti di CF e SLI li ho considerati, infatti:
"Aggiungiamoci clocks un po' più spinti ed il fatto che stiamo parlando di una single card, il che dà ancora un edge prestazionale a parità di specifiche" ;)
Sinceramente credo sia difficile calcolare i clocks da quei risultati... :sofico:
Piuttosto se fossero veri, se ne potrebbero trarre 2 conclusioni molto interessanti:
1) è un risultato di oltre il 30% superiore a quello della HD3870X2, il che potrebbe porre RV770 parecchio sopra la stessa in termini di prestazioni reali.
2) Mi risulta un po'difficile credere in un incremento del genere con solo il 50% degli SP in più (480 vs i 320 di R600Pro). Ricordo che in pratica la HD3870X2 ha 640SP. Se la scala di valori fosse davvero questa, mi sa che gli 800SP sono più probabili...
800SP vs 640SP= +25% di shaders in più. Aggiungiamoci clocks un po' più spinti ed il fatto che stiamo parlando di una single card, il che dà ancora un edge prestazionale a parità di specifiche, e otterremmo un risultato compatibile con quei 18k. :)
Oppure, come nei rumor che circolano in una settimana, al posto di 800sp@800Mhz, sono 480@1050Mhz e il resto della gpu a 850Mhz.
Io credo che il risultato sia quello previsto:
una HD3870 è intorno ai 12K, il 50% in più sono 18K.
appleroof
26-04-2008, 14:32
Certo, ma comunque 256SP in SLI al massimo sono uguali a 192SP in single card, non credi? ;)
Certo non credo proprio che una GT200 ipotetica con 192SP possa andare più della GX2: stiamo pur sempre parlando della stessa architettura, più o meno. ;)
ma infatti siamo d'accordo: se GT200 andasse come la 9800gx2 (nella sua espressione migliore, quando cioè driver/gioco non fanno capricci) sarebbe una scheda superba, visto che eliminirebbe tutte le magagne che ancora affliggono le soluzioni SLI/CF (insomma, andrebbe a qui livelli sempre e comunque)
I limiti di CF e SLI li ho considerati, infatti:
"Aggiungiamoci clocks un po' più spinti ed il fatto che stiamo parlando di una single card, il che dà ancora un edge prestazionale a parità di specifiche" ;)
si ma secondo me tutto il tuo discorso è falsato dalla prospettiva dalla quale parti, e dalla quale arrivi a parlare addirittura di 800sp, quando tutti i rumors convergono su 480 (si ok, tutto può essere ancora)
cmq rv770 promette bene, ci mancherebbe altro (sbagliare và bene, ma perseverare....) per quello sto morendo dalla curiosità di vederlo all'opera, visto che tra questo (magari in versione r700, ma vediamo, le soluzioni dual finora non mi attirano proprio) e GT200 uscirà il sostituto della Gloriosa :D
;)
albert75
26-04-2008, 15:14
18.000 punti + 60frame in crysis= 300€ spesi bene;)
18.000 punti + 60frame in crysis= 300€ spesi bene;)
assolutamente si straquoto
Mister Tarpone
26-04-2008, 15:48
18.000 punti + 60frame in crysis= 300€ spesi bene;)
esatto ;)
300€ spesi bene per fare 60fps nel primo livello e 20fps nell'ultimo ;) :asd:
esatto ;)
300€ spesi bene per fare 60fps nel primo livello e 20fps nell'ultimo ;) :asd:
dho quello no!!!!
gianni1879
26-04-2008, 16:01
esatto ;)
300€ spesi bene per fare 60fps nel primo livello e 20fps nell'ultimo ;) :asd:
meglio di spenderne 600€ e farne 25 :D
Mister Tarpone
26-04-2008, 16:01
meglio di spenderne 600€ e farne 25 :D
:eek: :Perfido:!!!
Iantikas
26-04-2008, 16:25
cmq rv770 promette bene, ci mancherebbe altro (sbagliare và bene, ma perseverare....) per quello sto morendo dalla curiosità di vederlo all'opera, visto che tra questo (magari in versione r700, ma vediamo, le soluzioni dual finora non mi attirano proprio) e GT200 uscirà il sostituto della Gloriosa :D
;)
ank'io l'aspetto con interesse...xò un upgrade lo considererei solo se l'aumento sarà intorno al 50%, si dimostri + o - meno generalizzato e il costo sia + da medio-alta ke da high-end (intorno ai 350/400€)...
...altrimenti mi sa ke aspetto la gen successiva...ciao
albert75
26-04-2008, 16:27
:sofico: :sofico: :sofico: :sofico:
l' importante e' spendere:rolleyes: :rolleyes:
comunque a parte tutto sto giocando crysis col natural mod:eek: :eek: :eek: :eek: :eek: :eek:
a 1024*768 (15frame):rolleyes:
appleroof
26-04-2008, 18:30
ank'io l'aspetto con interesse...xò un upgrade lo considererei solo se l'aumento sarà intorno al 50%, si dimostri + o - meno generalizzato e il costo sia + da medio-alta ke da high-end (intorno ai 350/400€)...
...altrimenti mi sa ke aspetto la gen successiva...ciao
per gen successiva intendi dx11, a stò punto?
ma infatti siamo d'accordo: se GT200 andasse come la 9800gx2 (nella sua espressione migliore, quando cioè driver/gioco non fanno capricci) sarebbe una scheda superba, visto che eliminirebbe tutte le magagne che ancora affliggono le soluzioni SLI/CF (insomma, andrebbe a qui livelli sempre e comunque)
si ma secondo me tutto il tuo discorso è falsato dalla prospettiva dalla quale parti, e dalla quale arrivi a parlare addirittura di 800sp, quando tutti i rumors convergono su 480 (si ok, tutto può essere ancora)
cmq rv770 promette bene, ci mancherebbe altro (sbagliare và bene, ma perseverare....) per quello sto morendo dalla curiosità di vederlo all'opera, visto che tra questo (magari in versione r700, ma vediamo, le soluzioni dual finora non mi attirano proprio) e GT200 uscirà il sostituto della Gloriosa :D
;)
Più che altro gli stessi che hanno detto che RV770 fa 18k al 3DMark06 hanno detto pure che ha 800SP (la notizia postata da Ratatosk viene dal nuovo sito in inglese di Chiphell). ;)
Oppure, come nei rumor che circolano in una settimana, al posto di 800sp@800Mhz, sono 480@1050Mhz e il resto della gpu a 850Mhz.
Io credo che il risultato sia quello previsto:
una HD3870 è intorno ai 12K, il 50% in più sono 18K.
Con un E6700 e tutto a default? Non credo proprio. :D Con quella cpu e tutto a default ne fa circa 10.3K.
I 18K della notizia sono con un E6700 e a default. :)
http://www.pctunerup.com/up/results/_200804/20080426202008_3870_chip.jpg
http://lly316.blogspot.com/2008/04/rv770-radeon-hd4850-hd4870.html
poi questi news:
http://www.pcper.com/#NewsID-5540
http://www.tgdaily.com/content/view/37093/135/
http://forums.pcper.com/showthread.php?t=454278
La news di tgdaily è molto interesente..
''Our sources indicate that the launch is only weeks away, so expect your usual hardware sites to feature dozens of reviews of 4850 and 4870 with GDDR5 memory, since this memory type will be a hot topic in months to come''
Tra una settimana :eek:
La news di tgdaily è molto interesente..
''Our sources indicate that the launch is only weeks away, so expect your usual hardware sites to feature dozens of reviews of 4850 and 4870 with GDDR5 memory, since this memory type will be a hot topic in months to come''
Tra una settimana :eek:
Da quello che c'è scritto non è tra 1 settimana, ma si parla di un'attesa nell'ordine delle settimane, non dei mesi.
In poche parole, tra meno di 1 mese escono.
Più che altro gli stessi che hanno detto che RV770 fa 18k al 3DMark06 hanno detto pure che ha 800SP (la notizia postata da Ratatosk viene dal nuovo sito in inglese di Chiphell). ;)
Con un E6700 e tutto a default? Non credo proprio. :D Con quella cpu e tutto a default ne fa circa 10.3K.
I 18K della notizia sono con un E6700 e a default. :)
Allora è veramente tanto, il 74% in più! Resto comunque dell'idea che sia composto da 480SP.
Infatti rispetto a RV670, RV770 ha potenziato del:
100% lo shading ->da 512 Gigaflops a 1 Teraflops
105% le texture -> 16TMU@825mhz -> 32TMU@850Mhz
40% bandwidth
20% -30% ->Transistor ->666 mil -> 800+ mil
Mi sembrano ragionevoli le performance con questi aumenti teorici.
Speriamo si rispecchino anche nei giochi e non solo nei bench, perchè a questo punto mi aspetto che R700 sia un mostro! (il 150% in più di HD3870X2? :D )
albert75
26-04-2008, 19:50
sapro' accontentarmi di 4870:D :D venendo da una 1950pro...ho un bel po' di titoloni da rigiocarmi al massimo di risoluzione e dettagli:cool: :cool: ....mi sa che quando comprero' uno dei titoli nuovi li trovero' nei centri commerciali a meta' prezzo:D
Da quello che c'è scritto non è tra 1 settimana, ma si parla di un'attesa nell'ordine delle settimane, non dei mesi.
In poche parole, tra meno di 1 mese escono.
Hai ragione: settimane a venire.., mi scapata la ''s'' weeks :O ;)
Mister Tarpone
26-04-2008, 20:55
sapro' accontentarmi di 4870:D :D venendo da una 1950pro...ho un bel po' di titoloni da rigiocarmi al massimo di risoluzione e dettagli:cool: :cool: ....mi sa che quando comprero' uno dei titoli nuovi li trovero' nei centri commerciali a meta' prezzo:D
:cool: imho non comprerai neanche la 4870 :cool:
come minimo ti prenderà l'ennesima indecisione per qualche altra scheda... :asd:
...vediamo se c'indovino pure qui... :asd:
Hai ragione: settimane a venire.., mi scapata la ''s'' weeks :O ;)
e stai attento :bsod: !!!
:D :D :D
Bhairava
26-04-2008, 21:27
Più che altro gli stessi che hanno detto che RV770 fa 18k al 3DMark06 hanno detto pure che ha 800SP (la notizia postata da Ratatosk viene dal nuovo sito in inglese di Chiphell). ;)
Con un E6700 e tutto a default? Non credo proprio. :D Con quella cpu e tutto a default ne fa circa 10.3K.
I 18K della notizia sono con un E6700 e a default. :)
Io faccio intorno ai 12.000 con 3870@850/1200 e e6300@3,5ghz.
Io faccio intorno ai 12.000 con 3870@850/1200 e e6300@3,5ghz.
E infatti io stavo parlando di scheda e cpu a default. ;)
Iantikas
26-04-2008, 21:34
per gen successiva intendi dx11, a stò punto?
son convinto ke uscirà almeno un nuovo refresh prima dell'arrivo delle prime gpu DX11...magari con 640sp, 64 TMU, 32 rop, 512bit e gddr5 :sofico: ...
...skerzi (o sogni :D ) a parte cmq dipenderà sopratutto da come gireranno i gioki sulla gpu ke ho ora...se x es. vedo ke i prox titoloni stentano probabilmente la cambio prima...ma se le rinuncie saranno poke stavolta preferisco aspettare...ciao
Marko#88
26-04-2008, 22:41
sapro' accontentarmi di 4870:D :D venendo da una 1950pro...ho un bel po' di titoloni da rigiocarmi al massimo di risoluzione e dettagli:cool: :cool: ....mi sa che quando comprero' uno dei titoli nuovi li trovero' nei centri commerciali a meta' prezzo:D
ma te non avevi preso una 8800GTS?
ma te non avevi preso una 8800GTS?
infatti :mbe:
albert75
26-04-2008, 23:05
avete tutti ragione...ma quando ho fatto l'ordine erano trerminate le schede madri e dopo una settimana me lo hanno chiuso...quando poi erano disponibili le schede madri dopo una ventina di giorni e le gpu ho cominciato a leggere dell' uscita di queste nuove gpu e della 9800gtx.....insomma adesso vedo se 4870 andra' bene la prendero' sicuramente...non riesco a giocare a niente stalkere me lo sto giocaando in modalita' finestra a 1280*720 e non e' nemmeno fluido:ciapet: spero che nvidia cacci qualcosa di simile, se no il rezzo non lo smuove nessuno
p.s. speriamo che con questa bestiola crysis sia domato.....il natuarl mod e' troppo fico...ma giocarlo a 12 frame a 1024*768 su un 1680*1050 e' ancora piu' fico
Sempre meglio di me che non mi sono informato, prima dell'acquisto, che la mia attuale scheda madre non supporta il g92 della mia 8800GTS: sai che brutto dover saltare l'università perché non c'è nessuno in casa ad aspettare il tuo pacco e poi scoprire, tutto contento, durante il montaggio della GPU, che non funziona?
Ora sto rimediando, ma ripiegare su una 8400GS quando avrei voglia di giocare ad Assassin's Creed, Guitar Hero 3, Crysis, Jericho e un'altro paio di giochini mica tanto leggeri...è avvilente. ;_;
Sempre meglio di me che non mi sono informato, prima dell'acquisto, che la mia attuale scheda madre non supporta il g92 della mia 8800GTS: sai che brutto dover saltare l'università perché non c'è nessuno in casa ad aspettare il tuo pacco e poi scoprire, tutto contento, durante il montaggio della GPU, che non funziona?
Ora sto rimediando, ma ripiegare su una 8400GS quando avrei voglia di giocare ad Assassin's Creed, Guitar Hero 3, Crysis, Jericho e un'altro paio di giochini mica tanto leggeri...è avvilente. ;_;
ma per quale motivo hai dato via la 3870?
bYeZ!
ma per quale motivo hai dato via la 3870?
bYeZ!
ma infatti,girano tutti i giochi egregiamente,da una scheda come quella io avrei aspettato fine anno per cambiarla..
cazzos io con la 8600gts riesco ancora a giocare discretamente,figuriamoci chi ha schede tipo 3870 o 8800gt,secondo mè chi li sostituisce oggi lo fà solo per la smania di nuovo acquisto e non per un reale bisogno..
ma per quale motivo hai dato via la 3870?
bYeZ!
Perché il cambio è stato solo di 60 euro di differenza.
Per il resto volevo giocare fluidamente ad alcuni giochi senza compromessi a 1600*1200.
http://www.hardware-infos.com/news.php?news=2008
Altra conferma...
http://www.hardware-infos.com/news.php?news=2008
Altra conferma...
:old: Ne stiamo parlando da pagine. ;)
albert75
27-04-2008, 14:32
rega quando lancio gpuz 0.1.8 mi si riavvia il pc:confused:
:old: Ne stiamo parlando da pagine. ;)
Altra conferma delle medesime specifiche... :D
Secondo me saranno quelle e il lancio avverrà in 2-3 settimane.
rega quando lancio gpuz 0.1.8 mi si riavvia il pc:confused:
a meno che tu non abbia il problema con un qlc sample di r700 non vedo l'attinenza col thread :rolleyes:
:D
mokaverus
27-04-2008, 22:41
rega quando lancio gpuz 0.1.8 mi si riavvia il pc:confused:
non c'è ancora una versione che supporti r700 e rv770 :asd:
albert75
27-04-2008, 22:42
ovvaimente ho sbagliato sezione:Prrr:
-noxius-
28-04-2008, 00:23
iscritto
halduemilauno
28-04-2008, 06:45
http://forums.vr-zone.com/showthread.php?t=268409
Athlon 64 3000+
28-04-2008, 07:25
se cominciano a saltare fuori tutte queste presunte notizie su RV770 allora non è da escludere che possa essere veramente presentato entro la fine di maggio.
HackaB321
28-04-2008, 09:01
in un articolo mi sembra di avere letto che 16 rops bastavano anche per le risoluzioni più spinte dei comuni lcd.
sbaglierò ragionamento, ma se le rops sono la parte della gpu che permette di scrivere i pixel nel framebuffer, e se a una risoluzione che x esempio può essere 1680x1050 ci sono su schermo circa 1,7M di pixel e con "n" rops la scheda x ha un pixel fllrate che supera quel valore, il semplice aumento di rops non porta benefici prestazionali a quella risoluzione giusto?(sto parlando di valori teorici...senza contare i vari colli di bottiglia che possono arrivare da sp o tmu o altro)
Il pixel fillrate indica il numero di pixel massimo teorico che la gpu può "mostrare a schermo". Prendi la 3870: ha un pixel fillrate di 12400 Mpixel/sec, se il tuo schermo contiene 1,7Mpixel significa che teoricamente la 3870 sarebbe in grado di scrivere nel framebuffer i pixel del tuo schermo ad una velocità di 12400/1,7=7.294 volte al secondo. Ovviamente questo non significa che a quella risoluzione la 3870 fa 7.294 fps (:eek: ) ma che aumentando il pf (senza contare altri fattori limitanti) aumentano le probabilità che tu abbia benefici prestazionali anche se il pf supera (come sempre accade ci mancherebbe) il numero di pixel rappresentati dal monitor
Il punto debole di R600 e RV670 sono principalmente le TMU, ma molti giochi , soprattutto quelli più pesanti, necessitano di molto pixel fill-rate e se il comparto ROPs rimane invariato questo potrebbe limitare il chip. Ad esempio in Crysis, la differenza delle prestazioni di G92 e G80 è minima, anche se il primo ha una potenza di shading molto superiore. Tra queste due schede infatti il pixel fill-rate è molto simile.
Se invece l'architettura di quelle 16ROPs è stata modificata e potenziata rispetto a RV670, allora il chip potrà sfruttare tutta la potenza di shading e texturing di RV770.
Le rops di R600 sono un limite per lo Z sample rate non per il pixel fillrate (la 3870 ha un pf superiore alla 8800 GTS)
halduemilauno
28-04-2008, 09:05
se cominciano a saltare fuori tutte queste presunte notizie su RV770 allora non è da escludere che possa essere veramente presentato entro la fine di maggio.
l'rv770 pro ovvero la 4850. per l'rv770 xt ovvero la 4870 pare dopo, prima del previsto ma dopo.
Mr_Paulus
28-04-2008, 09:11
Il pixel fillrate indica il numero di pixel massimo teorico che la gpu può "mostrare a schermo". Prendi la 3870: ha un pixel fillrate di 12400 Mpixel/sec, se il tuo schermo contiene 1,7Mpixel significa che teoricamente la 3870 sarebbe in grado di scrivere nel framebuffer i pixel del tuo schermo ad una velocità di 12400/1,7=7.294 volte al secondo. Ovviamente questo non significa che a quella risoluzione la 3870 fa 7.294 fps (:eek: ) ma che aumentando il pf (senza contare altri fattori limitanti) aumentano le probabilità che tu abbia benefici prestazionali anche se il pf supera (come sempre accade ci mancherebbe) il numero di pixel rappresentati dal monitor
ok capito grazie:)
ma alla fine è vero il fatto che 16 rops sono più che sufficienti per adesso?
un'altra cosa..visto che la debolezza di r6xx nn è negli sp, invece che far lavorare gli shader a una freq. maggiore (come è saltato fuori negli ultimi roumors) non sarebbe meglio far lavorare le tmu a una frequenza maggiore rispetto al resto del chip?(sempre se la tal cosa è possibile?)
Ma giusto x la cronaca e x rispolverare un pò di nozioni tecniche.
primo: in generale 1 singola TMU , che grado di potenza ha?? Prendendo 1 TMU come unità campione diciamo.
Cioè 1 TMU che potenza ha??? x ciclo di clock 1 Tmu che dimensione di texture, riesce a processare???
Poi in RV770 , la potenza x ciclo di clock di ogni shader core, è aumentata rispetto ad r600-rv 670???? Dato che pare che g80, si diceva avese shader + potenti di rv670.
Insomma al di là delle quantità, ogni unità shader e tmu di rv770, è stata potenziata rispetto ad rv670????????????????????????????????
sapro' accontentarmi di 4870:D :D venendo da una 1950pro...ho un bel po' di titoloni da rigiocarmi al massimo di risoluzione e dettagli:cool: :cool: ....mi sa che quando comprero' uno dei titoli nuovi li trovero' nei centri commerciali a meta' prezzo:D
:banned: :banned: :D
ma te non avevi preso una 8800GTS?
no ha una ultra il signorino :D
a meno che tu non abbia il problema con un qlc sample di r700 non vedo l'attinenza col thread :rolleyes:
:D
:asd:
cmq stanno saltando fuori troppe news mi sa davvero che per metà maggio abbiamo qualcosa, speriamo solo che amd abbia corretto il tiro
HackaB321
28-04-2008, 10:37
ok capito grazie:)
ma alla fine è vero il fatto che 16 rops sono più che sufficienti per adesso?
un'altra cosa..visto che la debolezza di r6xx nn è negli sp, invece che far lavorare gli shader a una freq. maggiore (come è saltato fuori negli ultimi roumors) non sarebbe meglio far lavorare le tmu a una frequenza maggiore rispetto al resto del chip?(sempre se la tal cosa è possibile?)
Le Rops non sono un problema di R600 a livello di pixel fillrate. Come detto, RV670 ha un pf puro superiore a G92 e un rapporto thread/rops più basso di G80 (64/16 contro 128/24). Il problema quindi non sono le semplici capacità di scrittura dei pixel. Le 16 rops sono invece un problema a livello di Z-fillrate: questo parametro indica il numero di pixel su cui la gpu è in grado di eseguire il depth test (controllare cioè quali pixel sono visibili e quali occultati). Questo parametro è importante perchè incide proporzionalmente (a differenza delle capacità di texturing) anche sul MSAA: con questa modalità di antialiasing infatti il depth test avviene a livello di singolo sample (come se fosse supersampling aa) a differenza delle operazioni di texturing che sono fatte solo a livello di pixel.
Per quanto riguarda le frequenze ho molti dubbi. In teoria sarebbe possibile anche avere frequenze maggiori per le texture units: se lo scheduling dei threads funziona come in R600 è il dispatch processor che fornisce "in anticipo" le texture fetch da svolgere ad ogni blocco (senza aspettare che lo shader core ne abbia bisogno). Una separazione così netta delle frequenze tra gpu e shaders credo però sia in realtà molto difficile da implementare su un'architettura simile a R600 dove, per ridurre le latenze, l'integrazione tra shaders e texture units è molto più forte che in G80. D'altro canto è anche vero che già da tempo le frequenze delle varie parti delle GPU ATi funzionano a clock leggermente diversi. Esiste poi una risposta "possibilista" riguardo a questo argomento di Demers nell'intervista di beyond3D su R600:
Q: NVIDIA have gone from a minor reliance on clock domains in his last generation to a rather heavy reliance on them in their current generation. Do you see that as an approach that AMD might find useful in the future? If not, why not?
A: Well, I think we have over 30 clock domains in our chip, so asynchronous or pseudo-synchronous interfaces are well understood by us. But the concept of running significant parts of the chip at higher levels than others is generally a good idea. You do need to balance the benefits vs. the costs, but it's certainly something we could do if it made sense. In the R600, we decided to run at a high clock for most of the design, which gives it some unique properties, such as sustaining polygon rates of 700Mpoly/sec, in some of our tessellation demos. There's benefits and costs that need to be analyzed for every product.
ma i prezzi riportati in prima pagina sono reali?
taleboldi
28-04-2008, 12:13
ma i prezzi riportati in prima pagina sono reali?
di sicuro non c'è niente
ciauz
di sicuro non c'è niente
ciauz
solo la morte :D
intendevo più o meno ovvio :asd:
cmq ok tutto chiaro grazie
Foglia Morta
29-04-2008, 09:49
altra prova su AC riguardo il caso formatosi qualche giorno fa... stavolta da HardOCP http://enthusiast.hardocp.com/article.html?art=MTQ5MywxLCxoZW50aHVzaWFzdA==
Kyle’s note: We think we have done our homework here and don’t see any reason for DX10.1 support to be taken away from Radeon 3800 series owners. This is the first time we have seen the ATI Radeon 3870 benefit from the heavily marketed DX10.1 support. To simply take that away is a travesty and we think that Ubisoft should at least leave the choice up to the end user. Obviously you don’t have to patch the game, so Ubisoft can’t really take it away from you, but don’t expect continued support for the DX10.1 version of the game, at least not for the time being. And that time being is very likely till NVIDIA gets its own DX10.1 GPU considering it has a reported US$4,000,000.00 in deals invested with Ubisoft at the moment. Time will tell.
Foglia Morta
29-04-2008, 09:50
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7085&Itemid=1
Launch still in June
RV770 and R700 will both launch at some point in June but we've heard that partners expects to ship the big volume quantities in very early Q3 2008. July is the month to hope for many cards.
This doesn’t mean that you shouldn't be able to get your RV770 or R700 the card with two 55nm RV770 shortly after the launch in June, but at the same time it means that the real volume shipments are scheduled for July and onward.
Nvidia should be launching its next generation around the same time, but the biggest trouble for both of them is that consumers usually don’t really buy a lot of expensive computer stuff in July as people in western hemisphere tend to go on expensive vacations at that time.
Still, both Nvidia and ATI will be ready for back to school period which dictates to have the cards ready for OEM refresh in late July and early August, and ultimately for September and early Q4 when the cool games usually get launched.
Ironically, R700 will launch roughly a year after the R600 fiasco.
HackaB321
29-04-2008, 09:54
We're hearing that GDDR5 testing has been going so well that AMD has ramped up production of the RV770 chips and will be aiming to have both RV770XT and RV770Pro out as soon as possible. While current GDDR5 chips are capable of more than 4GHz, AMD will keep them below that for power consumption reasons. Partners will have overclocked cards for you to sink your teeth into. Media samples are being produced as we write this, and should be heading out to testers very soon now.
http://www.nordichardware.com/news,7682.html
albert75
29-04-2008, 10:00
quindi a maggio non esce nulla....:confused: beh nel frattempo mi sparo una x360 e gta IV;)
appleroof
29-04-2008, 10:40
Alla faccia di chi dice che non ha foraggiato gli sviluppatori di AC e che non è per questo che è stato tolto il supporto DX10.1...
anche coj è stato un gioco sponsorizzato Nvidia, e poi guarda come è finita :asd:
HackaB321
29-04-2008, 10:46
altra prova su AC riguardo il caso formatosi qualche giorno fa... stavolta da HardOCP http://enthusiast.hardocp.com/article.html?art=MTQ5MywxLCxoZW50aHVzaWFzdA==
Bellissimo articolo. Riassumendo: il gioco supporta le Dx10.1 (e non c'erano dubbi), questo (con 2xAA abilitato) si traduce in un +20% di performance sulla 3870x2 e in un +34%(:eek:) sulla 3870. Questo incremento dipende solo dalle 10.1 perchè non si riscontra sulle schede Nvidia, nè sulle ATi con MSAA disabilitato.
La qualità dell'immagine è la stessa sia con sia senza SP1 (quindi il supposto effetto di postprocessing mancante nessuno lo ha notato).
In conclusione: togliere il supporto alle DX10.1 è una scelta completamente senza senso dettata solo da motivi di marketing, tutti i possessori di schede ATi non devono installare la patch (a meno che questa non risolva il problema dell'AF in game, in quel caso si tratterebbe di una scelta tra performance e qualità dell'immagine).
appleroof
29-04-2008, 10:47
Il diavolo fa le pentole... :D
e gli a(l)t(r)i ci cucinano :rolleyes: :D
altra prova su AC riguardo il caso formatosi qualche giorno fa... stavolta da HardOCP http://enthusiast.hardocp.com/article.html?art=MTQ5MywxLCxoZW50aHVzaWFzdA==
Kyle’s note: We think we have done our homework here and don’t see any reason for DX10.1 support to be taken away from Radeon 3800 series owners. This is the first time we have seen the ATI Radeon 3870 benefit from the heavily marketed DX10.1 support. To simply take that away is a travesty and we think that Ubisoft should at least leave the choice up to the end user. Obviously you don’t have to patch the game, so Ubisoft can’t really take it away from you, but don’t expect continued support for the DX10.1 version of the game, at least not for the time being. And that time being is very likely till NVIDIA gets its own DX10.1 GPU considering it has a reported US$4,000,000.00 in deals invested with Ubisoft at the moment. Time will tell.
Ma la mancanza di questo effetto non si nota, non è mica come i riflessi mancanti di Crysis :asd:, quindi se dagli screen non ci sono differenze allora perchè credere che l'effetto non venga applicato ? A questo punto che dimostrino che in DX10.1 manca qualcosa, perchè dagli screen fatti da chi ha la scheda (discussione sulla hd3870) non si notano differenze. A meno che sia in dx9 che in dx10/10.1 le schede ATI non sia in grado di elaborare questo effetto.
Per il resto sono d'accordo.
:O
Ma visto che GT200 avrà quasi sicuramente le dx10.1, faranno uscire un'altra patch per riabilitare il supporto ?
<^MORFEO^>
29-04-2008, 11:03
Certo che nVidia è proprio bastarda dentro... :O :mad:
E anche scorretta aggiungerei!
Solo perchè non ha ancora introdotto le dx10.1 nelle sue schede allora non possono saltare fuori giochi in dx10.1! Veramente scorretti... :grrr:
Peccato che queste cose non vengano comunicate ufficialmente per poi vedere come decade la reputazione di azienda seria di nVidia...
<^MORFEO^>
29-04-2008, 11:04
:O
Ma visto che GT200 avrà quasi sicuramente le dx10.1, faranno uscire un'altra patch per riabilitare il supporto ?
Probabile, ma solo quando uscirà GT200! :fagiano:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.