PDA

View Full Version : Aspettando Ati Radeon HD 4870X2


Pagine : 1 2 [3] 4 5 6

maxsona
12-07-2008, 22:58
Early benchmarks of 4870X2

Link (http://my.ocworkbench.com/bbs/showthread.php?p=433771#post433771)

Here are some early estimates of the benchmarks of the Radeon HD 4870X2.

3D Mark06 19K
3DMark Vantage P12000
Crysis at 1600x1200 50 fps

* QX9770 at 3.2GHz on Intel X48 mainboard

michelgaetano
12-07-2008, 23:02
Early benchmarks of 4870X2

Link (http://my.ocworkbench.com/bbs/showthread.php?p=433771#post433771)

Here are some early estimates of the benchmarks of the Radeon HD 4870X2.

3D Mark06 19K
3DMark Vantage P12000
Crysis at 1600x1200 50 fps

* QX9770 at 3.2GHz on Intel X48 mainboard

19k @ default? ricordo male o i CF di 4870 fanno sui 20k?

Marko91
12-07-2008, 23:11
19k @ default? ricordo male o i CF di 4870 fanno sui 20k?
Si...
Crysis nn si sa a che livello di dettaglio. Se è a VH è un ottimo risultato (Un cf di hd4870 da 512mb fa 39fps)

FedNat
13-07-2008, 00:21
Ogni Rv770, arriva in DP ad 1/5 del picco teorico del SP.

Sono 800 unità (x2) x 750mhz = 1.2 Tflops, per cui 240 Gflops per chip. ;)

Un R700 è composto da 2 Rv770, per cui 480 Gflops.

4 R700 sono 1.92 Tflops ;) (quasi 2 teraflops teorici)

Hai ragione, ho scritto Gflops ma sono tutti Tflops :doh:

E poi ho anche scritto 1.96 invece di 1.92 come risultato finale :nono:

In conclusione non ne ho azzeccata una :ops: :D

Saluti

yossarian
13-07-2008, 03:35
In totale 128 thread per ciclo di clock, ma a 2 Ghz (assumendo come veri i rumor di 32 core@2ghz).

il problema non è la frequenza, ma il numero di thread che è troppo basso; con 4 thread per core, considerando il fatto che le gpu gestiscono operazioni con latenze molto più elevate rispetto alle cpu, le unità di calcolo passerebbero la maggior parte del loro tempo in idle, in attesa dei dati per completare uno dei thread in flight. Da questo punto di vista, Larrabee è solo leggermente migliore del cell

Giusto per confrontarli.. quanti thread possono gestire RV770 e GT200?


diverse migliaia


Forse ricordo male.. ma ogni SIMD di R600/RV770 dovrebbe gestirne 64, quindi su RV770 dovrebbero essere 640 thread per ciclo di clock.

probabilmente ti confondi con il numero di pixel per batch usati per il branching

Le ALU di G80/GT200 sono dual-thread e in totale quindi su GT200 sono 480 per ciclo di clock.

per fortuna no; se fossero dual threaded sarebbe una tragedia :D . Una alu di G80/GT200 può fare una MADD+una MUL per ciclo (ovvero 2+1 operazioni) ma questo non vuol dire che sia dual threaded (i thread in flight sono molti ma molti di più)

Foglia Morta
13-07-2008, 07:04
Non con un bus a 256bit :D

Hanno fatto quasi fatica a metterlo in RV770 , con un processo produttivo inferiore bisognerebbe progettare una gpu con moltissime unità di calcolo in più per occupare spazio. Poi a fine anno ci saranno GDDR5 a 1500Mhz , quelle più lente penso proprio saranno molto a buon mercato. Bisogna vedere cosa gli conviene di più a loro ( la differenza di scalabilità fra multi-die e unico die ), ma per me è fattibile :D

Mercuri0
13-07-2008, 08:01
cmq ho una domanda per yossarian e Mercuri0: ho sentito dire che le software house scelgono Nvidia nn solo/tanto perchè paga ma perchè mette a disposizione dei programmatori numerosi strumenti e utility che sono abbastaza fondamentali, è vero?
Se ti riferisci al TWIMTBP, secondo quanto dice nVidia si tratta sopratutto di un programma di co-marketing. Cioè, pubblicità :D

Da techreport: http://techreport.com/discussions.x/14707
Nvidia spokesman Ken Brown told us unequivocally that "no money changed hands" as a result of Ubisoft joining Nvidia's "The Way It's Meant To Be Played" program, because that program is entirely a co-marketing arrangement. As part of this program, Nvidia may promote Assassin's Creed for Ubisoft in various ways (including magazine advertising) and may offer engineering resources and development assistance. But, Brown said, the value for Ubisoft comes solely from such activities.

Un pò come il logo EAX di creative.

Sui tool agli sviluppatori nin zo, bisognerebbe chiederlo a loro, ma non penso che ATI sia da meno nel supporto.
(sul sito di ATI si può scaricare liberamente un programma per testare gli shader, per dirne una che non so quanto sia significativa)


la 4870X2 ha un solo connettore per il crossfire quindi quello potrebbe essere solo un esperimento per soluzioni future.
Per il GPGPU su più GPU il crossfire non serve mi sa, le GPU vengono usate in maniera separata.

Foglia Morta
13-07-2008, 08:01
Riguardo alla techdemo Medusa avviabile su schede ATi tramite la patch:

http://img299.imageshack.us/img299/9089/medusawg2.png

R700 potrebbe essere più veloce della GTX 280 in una techdemo nVidia :D

Comunque quel grafico è un worst case scenario per nVidia... ci sono altri test in quel link in cui se la cava meglio: http://www.tweakpc.de/hardware/infos/grafik/nvidia_medusa_techdemo_radeon/s06.php

test di PCGH :

http://www.pcghx.com/screenshots/medium/2008/07/Medusa_Bench_HD4850_HD4870_HD3870_1280x1024_4xAA.PNG

M4R1|<
13-07-2008, 08:22
Se ti riferisci al TWIMTBP, secondo quanto dice nVidia si tratta sopratutto di un programma di co-marketing. Cioè, pubblicità :D

Da techreport: http://techreport.com/discussions.x/14707
Nvidia spokesman Ken Brown told us unequivocally that "no money changed hands" as a result of Ubisoft joining Nvidia's "The Way It's Meant To Be Played" program, because that program is entirely a co-marketing arrangement. As part of this program, Nvidia may promote Assassin's Creed for Ubisoft in various ways (including magazine advertising) and may offer engineering resources and development assistance. But, Brown said, the value for Ubisoft comes solely from such activities.

Un pò come il logo EAX di creative.

Sui tool agli sviluppatori nin zo, bisognerebbe chiederlo a loro, ma non penso che ATI sia da meno nel supporto.
(sul sito di ATI si può scaricare liberamente un programma per testare gli shader, per dirne una che non so quanto sia significativa)


Per il GPGPU su più GPU il crossfire non serve mi sa, le GPU vengono usate in maniera separata.

sinceramente nn so nemmeno io avevo letto in giro di questa cosa e mi ero un po' stupito....
va be cmq grazie :D

HackaB321
13-07-2008, 08:25
Riguardo alla techdemo Medusa ...


La spiegazione di questi risultati è che Medusa si basa su un engine dx10 nativo che fa largo uso dei geometry shaders. Di conseguenza RV770 va meglio di G80-G92 (quest'ultimo è probabilmente anche band limited), RV670 è vicino a G92 e tra GT200 e le precedenti architetture Nvidia c'è un abisso. Tutto questo nonostante, ovviamente, il codice sia straottimizzato per schede Nvidia. Non mi sorprenderei se ,in giochi (un pò più imparziali di una demo) che usano gs, una HD 3870 andrà meglio di una 9800GTX.

Foglia Morta
13-07-2008, 09:09
Pare che la seconda revisione di RV770 ( praticamente già pronta ) possa lavorare con un voltaggio inferiore del 7% ed essere overclockato di 50Mhz in più rispetto alla revisione che si trova montata ora nelle schede. Letto su B3d , non so se sia attendibile ma secondo me si.
Dato che R700 dovrebbe essere disponibile ad Agosto penso che monteranno questa nuova revisione su tutte le schede

Mercuri0
13-07-2008, 09:24
Nuovamente a proposito del microstuttering...

A parte le notizie sulla 4870x2 su cui ora non mi esprimo, leggendo qui e li come funziona il V-sync mi è sembrato di capire che il V-sync cancelli il microstuttering anche sotto i 60fps.

Qualcuno ha letto/sa qualcosa che direbbe il contrario?

Andrea deluxe
13-07-2008, 09:53
Nuovamente a proposito del microstuttering...

A parte le notizie sulla 4870x2 su cui ora non mi esprimo, leggendo qui e li come funziona il V-sync mi è sembrato di capire che il V-sync cancelli il microstuttering anche sotto i 60fps.

Qualcuno ha letto/sa qualcosa che direbbe il contrario?

interessa anche a me in previsione di crossfire di 2 4870x2!

dewwwxx84
13-07-2008, 10:10
dite che due di queste schedozze spingeranno di più di uno sli 280 gtx??? :mc:

PS: sono fissato con crysis :mbe:

non so se si era capito :sofico:

direi proprio di si'.
ho letto in giro che un cros di HD4870x2 ha prestazioni simili ad un freewey sli :D

Mercuri0
13-07-2008, 10:57
interessa anche a me in previsione di crossfire di 2 4870x2!
Mah senti indagando sul microstuttering sono arrivato ad approfondire sul v-sync.

La sai una cosa simpatica e curiosa? Se ho capito bene come funzionano le cose, il V-sync + triple buffering crea un forte effetto di "microstuttering" sullo schermo anche per le GPU singole! Solo che programmi come fraps evidentemente non riportano la cosa. Probabilmente alla AMD basterà cambiare la risposta che il driver da a fraps sugli FPS per far tutti contenti.

Felle
13-07-2008, 11:00
direi proprio di si'.
ho letto in giro che un cros di HD4870x2 ha prestazioni simili ad un freewey sli :D

:eek:

Milotto
13-07-2008, 11:06
Pare che la seconda revisione di RV770 ( praticamente già pronta ) possa lavorare con un voltaggio inferiore del 7% ed essere overclockato di 50Mhz in più rispetto alla revisione che si trova montata ora nelle schede. Letto su B3d , non so se sia attendibile ma secondo me si.
Dato che R700 dovrebbe essere disponibile ad Agosto penso che monteranno questa nuova revisione su tutte le schede


Probabilmente sarà il "superRV770" di cui tanto si mormora...:)
Se può essere overcloccato 50mhz in più di quanto si possa fare f con RV770 e con il Vcore il 7% in meno...

michelgaetano
13-07-2008, 11:07
Sì, le info trapelate davano un CF di 4870X2 andare come un tree-way SLI, ma questo nel 3d crap :D

gianni1879
13-07-2008, 11:13
Probabilmente sarà il "superRV770" di cui tanto si mormora...:)
Se può essere overcloccato 50mhz in più di quanto si possa fare f con RV770 e con il Vcore il 7% in meno...

probabile sia lui, resta da capire se verrà anche montato su r700.

Mercuri0
13-07-2008, 11:21
Già che i conti me li ero fatti li posto, sperando che qualcuno mi legga e mi corregga se dico castronerie.

Questo discorso riguarda il V-sync e il triplebuffering e vale per le GPU singole. Non c'entra né microstuttering né multi-GPU, anche se forse porta a vedere il problema del "microstuttering" in luce diversa. (e sopratutto si può facilmente pensare cosa succeda al microstuttering con il v-sync attivo)

Alura:

- Senza v-sync la GPU spara la schermata (frame) renderizzata direttamente allo schermo, appena finisce. Questo comporta che se lo schermo è più lento della scheda video a visualizzarla, lo schermo visualizza spezzoni di frame diversi, e crea il "tearing".

- Attivando il v-sync, la GPU crea 2 buffer: uno lo spara allo schermo, mentre renderizza il frame nell'altro. Appena lo schermo ha finito, gli passa il frame che ha renderizzato, e comincia a renderizzare quello dopo. Siccome lo schermo visualizza sempre a 60FPS, questo comporta:


se la scheda grafica fa più di 60FPS, è costretta ad aspettare lo schermo prima di cominciare a renderizzare il frame successivo. Gli FPS vengono quindi inchiodati a 60.

se la scheda grafica fa meno di 60FPS, passa allo schermo due volte la stessa immagine (cioè gli dice "tienti quello di prima che devo ancora finire"), e quindi il framerate precipita di botto a 30! se ancora più lenta tiene lo stesso frame per 3 volte (20FPS) 4 (15FPS) e così via.

I framerate concessi con il v-sync attivo sono quindi
60,30,20 etc.
La distanza in ms tra un frame e l'altro con il v-sync attivo è sempre costante, ed è un multiplo intero della frequenza dello schermo.

- Con l v-sync+triple-buffering, vengono creati 3 buffer anziché due, in questo modo se la scheda finisce il secondo e il monitor ancora è al primo, la scheda può già cominciare a renderizzare il terzo. Se ci pensate un pò questo comporta che mentre con il v-sync il cambio di frame può essere solo a-b-a-b-a-b (60FPS) o aa-bb-aa-bb (30FPS), con il triplebuffering può essere anche aa-b-aa-b o aaa-bb-aaa-bb

I framerate concessi con il v-sync + triplebuffering sono quindi (dopo un pò di conti)
60, 40*, 30, 24*,20, etc.

Solo che quello con l'asterisco sono "microstutterati", perché il frame a rimane visualizzato sullo schermo di più del frame b (di un multiplo della frequenza di refresh dello schermo). Questo effetto evidentemente non da problemi.

Stranamente fraps non riporta la progressione 60,40, etc che dicevo: perché probabilmente fraps non riporta i frame che vengono visualizzati sullo schermo, ma quelli che vengono appena renderizzati, che possono avere valori oscillanti e intermedi, in virtù dello "spazio d'errore" che il triple buffering concede alla GPU.

Andrea deluxe
13-07-2008, 11:28
Già che i conti me li ero fatti li posto, sperando che qualcuno mi legga e mi corregga se dico castronerie.

Questo discorso riguarda il V-sync e il triplebuffering e vale per le GPU singole. Non c'entra né microstuttering né multi-GPU, anche se forse porta a vedere il problema del "microstuttering" in luce diversa. (e sopratutto si può facilmente pensare cosa succeda al microstuttering con il v-sync attivo)

Alura:

- Senza v-sync la GPU spara la schermata (frame) renderizzata direttamente allo schermo, appena finisce. Questo comporta che se lo schermo è più lento della scheda video a visualizzarla, lo schermo visualizza spezzoni di frame diversi, e crea il "tearing".

- Attivando il v-sync, la GPU crea 2 buffer: uno lo spara allo schermo, mentre renderizza il frame nell'altro. Appena lo schermo ha finito, gli passa il frame che ha renderizzato, e comincia a renderizzare quello dopo. Siccome lo schermo visualizza sempre a 60FPS, questo comporta:


se la scheda grafica fa più di 60FPS, è costretta ad aspettare lo schermo prima di cominciare a renderizzare il frame successivo. Gli FPS vengono quindi inchiodati a 60.

se la scheda grafica fa meno di 60FPS, passa allo schermo due volte la stessa immagine (cioè gli dice "tienti quello di prima che devo ancora finire"), e quindi il framerate precipita di botto a 30! se ancora più lenta tiene lo stesso frame per 3 volte (20FPS) 4 (15FPS) e così via.

I framerate concessi con il v-sync attivo sono quindi
60,30,20 etc.
La distanza in ms tra un frame e l'altro con il v-sync attivo è sempre costante, ed è un multiplo intero della frequenza dello schermo.

- Con l v-sync+triple-buffering, vengono creati 3 buffer anziché due, in questo modo se la scheda finisce il secondo e il monitor ancora è al primo, la scheda può già cominciare a renderizzare il terzo. Se ci pensate un pò questo comporta che mentre con il v-sync il cambio di frame può essere solo a-b-a-b-a-b (60FPS) o aa-bb-aa-bb (30FPS), con il triplebuffering può essere anche aa-b-aa-b o aaa-bb-aaa-bb

I framerate concessi con il v-sync + triplebuffering sono quindi (dopo un pò di conti)
60, 40*, 30, 24*,20, etc.

Solo che quello con l'asterisco sono "microshutterati", perché il frame a rimane visualizzato sullo schermo di più del frame b (di un multiplo della frequenza di refresh dello schermo). Questo effetto evidentemente non da problemi.

Stranamente fraps non riporta la progressione 60,40, etc che dicevo: perché probabilmente fraps non riporta i frame che vengono visualizzati sullo schermo, ma quelli che vengono appena renderizzati, che possono avere valori oscillanti e intermedi, in virtù dello "spazio d'errore" che il triple buffering concede alla GPU.

Ti adoro!

HackaB321
13-07-2008, 11:34
il problema non è la frequenza, ma il numero di thread che è troppo basso; con 4 thread per core, considerando il fatto che le gpu gestiscono operazioni con latenze molto più elevate rispetto alle cpu, le unità di calcolo passerebbero la maggior parte del loro tempo in idle, in attesa dei dati per completare uno dei thread in flight. Da questo punto di vista, Larrabee è solo leggermente migliore del cell


Ma 4 thread per core sono i thread che la gpu può processare o che può gestire? R600, come dici tu, ha una gestione di migliaia di thread "in flight" (che servono per nascondere le latenze ogni volta che un thread in esecuzione va in sleep perchè, ad es, in attesa di una texture fetch) ma può eseguire in pratica istruzioni solo su 64 threads per clock (perchè 64 sono gli sp). Quindi se 4*32=128 threads fossero i threads che Larrabee può processare sarebbe un risultato in linea con le gpu attuali, se fossero i thread che può gestire "in flight" invece sarebbe un risultato pessimo.

Mercuri0
13-07-2008, 11:47
Ti adoro!
Eh mi piacerebbero verifiche a quello che ho scritto, ti fidi più tu di me stesso di quello che dico, :D anche se non vedo altri modi in cui le cose possano funzionare.

Faccio qualche nota: il "minimicrostuttering" introtto talvolta dal triplebuffering crea un ritardo tra due "cambi di frame" di 16.66ms. E' tanto o poco? Boh.

Nel caso del multi-gpu con il v-sync attivo, anche sotto i 60 fps, il microstuttering viene cancellato se è poco (il v-sync sincronizza comunque i frame), ma viene amplificato se è tanto (una GPU perde l'appuntamento con lo schermo) non mi va di far conti ora, ma sarà sempre qualcosa di quei 16.66 ms.

Ma anche senza il v-sync, lo schermo sempre a quella frequenza va, e il microstuttering si confonde con il tearing.

Io penso che il microstuttering possa essere un problema rilevante solo a frame rate molto bassi (o quando il ritardo tra i due frame è veramente insostenibile...). 20fps di media senza crossfire fanno meno schifo di 20fps di media con. Ma sempre schifo fanno, eh.

Probabilmente molti confondono il problema del microstuttering con i 100.000 altri problemi che il crossfire può avere.

Felle
13-07-2008, 11:50
complimenti per la delucidazione in merito al v-sync e triplo buffering....

visto che siamo in tema ora ti chiedo o vi chiedo :D com'è possibile che negli ultimi driver ati non sia più presente la voce triplo buffering???:doh:

io ora sono con una 9800gx2, prima avevo nel pc due ati 3870 in crossfire e per abilitare il triplo buffering + v-sync ricorrevo all'utility D3DOverrider che il più delle volte mi dava problemi nei giochi.... comunque mi sembra un assurdo da parte di ati presentare driver senza triplo buffering nel 2008, quando loro stessi lo implementavano nel 2006..... che cavolo hanno fatto? sono impazziti??

Io anche per questo sono passato dal crossfire alla 9800 gx2.... ora vorrei passare a due 4870x2 però mi preoccupa il fattore triplo buffering!!!

Non vorrei ritrovarmi con lo stesso problema che avevo con il crossfire delle 2 3870....

Chi mi illumina please.......:mc:

Mercuri0
13-07-2008, 11:57
com'è possibile che negli ultimi driver ati non sia più presente la voce triplo buffering???
Io l'ho vista sempre presente solo per l'OpenGL nei driver ATI, ma magari mi sono perso qualche versione.

Il triplebuffering dovrebbe essere impostato dal gioco, comunque atitray tool può forzare il triplebuffering in DirectX.

Arun di beyond3d ("Egli") considera eretico chi gioca con il v-sync off o il triplebuffering on, anche se sul triplebuffering ha posizioni più morbide :D

Felle
13-07-2008, 12:02
Io l'ho vista sempre presente solo per l'OpenGL nei driver ATI, ma magari mi sono perso qualche versione.

Il triplebuffering dovrebbe essere impostato dal gioco, comunque atitray tool può forzare il triplebuffering in DirectX.

Arun di beyond3d ("Egli") considera eretico chi gioca con il v-sync off o il triplebuffering on, anche se sul triplebuffering ha posizioni più morbide :D

si era sottointeso in D3d... peccato che in vista 64 bit atitray tool non funziona:muro:

Mercuri0
13-07-2008, 12:09
si era sottointeso in D3d... peccato che in vista 64 bit atitray tool non funziona:muro:
Ah... deve essere per quella storia che Vista 64bit fa girare solo i driver consentiti da MS (con la firma digitale), e atitray evidentemente richiede un driver.

Il primo effetto del "Palladium" a quanto pare, anche se in Vista "il Palladium" è solo l'ombra di quel che doveva essere.

edit: vedo che per atitray stanno già spuntando i workaround... bene bene saranno utili anche per altre cose. Grazie al cielo il "palladium" avrebbe funzionano solo nella sua versione completa. ;)

Felle
13-07-2008, 12:12
Ah... deve essere per quella storia che Vista 64bit fa girare solo i driver consentiti da MS (con la firma digitale), e atitray evidentemente richiede un driver.

Il primo effetto del "Palladium" a quanto pare, anche se in Vista "il Palladium" è solo l'ombra di quel che doveva essere.

dunque....... avendo vista 64 bit mi devo preoccupare??? se dovessi ritornare in casa ati come faccio ad usare v-sync + triplo buffering???

mi sembra un assurdo montare 2 4870x2 e non poter abilitarli entrambi:muro:

pazzesco...........

astaris
13-07-2008, 12:56
Già che i conti me li ero fatti li posto, sperando che qualcuno mi legga e mi corregga se dico castronerie.

Questo discorso riguarda il V-sync e il triplebuffering e vale per le GPU singole. Non c'entra né microstuttering né multi-GPU, anche se forse porta a vedere il problema del "microstuttering" in luce diversa. (e sopratutto si può facilmente pensare cosa succeda al microstuttering con il v-sync attivo)

Alura:

- Senza v-sync la GPU spara la schermata (frame) renderizzata direttamente allo schermo, appena finisce. Questo comporta che se lo schermo è più lento della scheda video a visualizzarla, lo schermo visualizza spezzoni di frame diversi, e crea il "tearing".

- Attivando il v-sync, la GPU crea 2 buffer: uno lo spara allo schermo, mentre renderizza il frame nell'altro. Appena lo schermo ha finito, gli passa il frame che ha renderizzato, e comincia a renderizzare quello dopo. Siccome lo schermo visualizza sempre a 60FPS, questo comporta:


se la scheda grafica fa più di 60FPS, è costretta ad aspettare lo schermo prima di cominciare a renderizzare il frame successivo. Gli FPS vengono quindi inchiodati a 60.

se la scheda grafica fa meno di 60FPS, passa allo schermo due volte la stessa immagine (cioè gli dice "tienti quello di prima che devo ancora finire"), e quindi il framerate precipita di botto a 30! se ancora più lenta tiene lo stesso frame per 3 volte (20FPS) 4 (15FPS) e così via.

I framerate concessi con il v-sync attivo sono quindi
60,30,20 etc.
La distanza in ms tra un frame e l'altro con il v-sync attivo è sempre costante, ed è un multiplo intero della frequenza dello schermo.

- Con l v-sync+triple-buffering, vengono creati 3 buffer anziché due, in questo modo se la scheda finisce il secondo e il monitor ancora è al primo, la scheda può già cominciare a renderizzare il terzo. Se ci pensate un pò questo comporta che mentre con il v-sync il cambio di frame può essere solo a-b-a-b-a-b (60FPS) o aa-bb-aa-bb (30FPS), con il triplebuffering può essere anche aa-b-aa-b o aaa-bb-aaa-bb

I framerate concessi con il v-sync + triplebuffering sono quindi (dopo un pò di conti)
60, 40*, 30, 24*,20, etc.

Solo che quello con l'asterisco sono "microstutterati", perché il frame a rimane visualizzato sullo schermo di più del frame b (di un multiplo della frequenza di refresh dello schermo). Questo effetto evidentemente non da problemi.

Stranamente fraps non riporta la progressione 60,40, etc che dicevo: perché probabilmente fraps non riporta i frame che vengono visualizzati sullo schermo, ma quelli che vengono appena renderizzati, che possono avere valori oscillanti e intermedi, in virtù dello "spazio d'errore" che il triple buffering concede alla GPU.
Faccio giusto un esempio per fissare le idee.
Supponiamo che il Vsync sia attivato con double buffering e che la scheda calcoli i frames a 50 fps.
Siano Trm gli istanti in cui il frame va al monitor e viene renderizzato, Tm gli istanti in cui il frame va al monitor e Tr gli istanti in cui il frame viene renderizzato. Numeriamo i frames partendo dal frame 1 e indichiamo il contenuto del double buffer con gli indici dei frames che contengono.
Analizzando i primi 100 ms si ha:
T1,rm 1,1 t=0ms
T2,m 1,1 t=1/60ms
T3,r 1,2 t=1/50ms
T4,m 2,2 t=2/60ms
T5,r 2,3 t=2/50ms
T6,m 3,3 t=3/60ms
T7,r 3,4 t=3/50ms
T8,m 4,4 t=4/60ms
T9,r 4,5 t=4/50ms
T10,m 5,5 t=5/60ms
T11,rm 6,6 t=6/60ms=5/50ms
Quindi il frame rate istantaneo, misurato tra due frames, varia tra 0 e 60 fps (ed è sempre così) mentre il frame rate medio, misurato su 1 secondo, è pari a 50 fps e coincide con il frame rate istantaneo di renderizzazione.
La sequenza dei frames visualizzati è del tipo:
1-1-2-3-4-5-6-6-7-8-9-10-11-11 e così via.

yossarian
13-07-2008, 13:53
Già che i conti me li ero fatti li posto, sperando che qualcuno mi legga e mi corregga se dico castronerie.

Questo discorso riguarda il V-sync e il triplebuffering e vale per le GPU singole. Non c'entra né microstuttering né multi-GPU, anche se forse porta a vedere il problema del "microstuttering" in luce diversa. (e sopratutto si può facilmente pensare cosa succeda al microstuttering con il v-sync attivo)

Alura:

- Senza v-sync la GPU spara la schermata (frame) renderizzata direttamente allo schermo, appena finisce. Questo comporta che se lo schermo è più lento della scheda video a visualizzarla, lo schermo visualizza spezzoni di frame diversi, e crea il "tearing".

- Attivando il v-sync, la GPU crea 2 buffer: uno lo spara allo schermo, mentre renderizza il frame nell'altro. Appena lo schermo ha finito, gli passa il frame che ha renderizzato, e comincia a renderizzare quello dopo. Siccome lo schermo visualizza sempre a 60FPS, questo comporta:


se la scheda grafica fa più di 60FPS, è costretta ad aspettare lo schermo prima di cominciare a renderizzare il frame successivo. Gli FPS vengono quindi inchiodati a 60.

se la scheda grafica fa meno di 60FPS, passa allo schermo due volte la stessa immagine (cioè gli dice "tienti quello di prima che devo ancora finire"), e quindi il framerate precipita di botto a 30! se ancora più lenta tiene lo stesso frame per 3 volte (20FPS) 4 (15FPS) e così via.

I framerate concessi con il v-sync attivo sono quindi
60,30,20 etc.
La distanza in ms tra un frame e l'altro con il v-sync attivo è sempre costante, ed è un multiplo intero della frequenza dello schermo.

- Con l v-sync+triple-buffering, vengono creati 3 buffer anziché due, in questo modo se la scheda finisce il secondo e il monitor ancora è al primo, la scheda può già cominciare a renderizzare il terzo. Se ci pensate un pò questo comporta che mentre con il v-sync il cambio di frame può essere solo a-b-a-b-a-b (60FPS) o aa-bb-aa-bb (30FPS), con il triplebuffering può essere anche aa-b-aa-b o aaa-bb-aaa-bb

I framerate concessi con il v-sync + triplebuffering sono quindi (dopo un pò di conti)
60, 40*, 30, 24*,20, etc.

Solo che quello con l'asterisco sono "microstutterati", perché il frame a rimane visualizzato sullo schermo di più del frame b (di un multiplo della frequenza di refresh dello schermo). Questo effetto evidentemente non da problemi.

Stranamente fraps non riporta la progressione 60,40, etc che dicevo: perché probabilmente fraps non riporta i frame che vengono visualizzati sullo schermo, ma quelli che vengono appena renderizzati, che possono avere valori oscillanti e intermedi, in virtù dello "spazio d'errore" che il triple buffering concede alla GPU.

se hai attivato il v-sync, in ogni caso non viene inviata l'immagine successiva prima che sia concluso il refresh del monitor. Il triple buffering serve solo ad accelerare la velocità di elaborazione dei frame e non la velocità di invio al monitor con v-sync attivo. Quindi se la velocità di elaborazione della gpu è superiore a quella di refresh il triple buffering non serve (occupa solo spazio nel fb); in caso contrario, invece, può permettere di evitare il microstuttering (se il fb è abbastanza grande da permettere di fare triple buffering).

Ma 4 thread per core sono i thread che la gpu può processare o che può gestire? R600, come dici tu, ha una gestione di migliaia di thread "in flight" (che servono per nascondere le latenze ogni volta che un thread in esecuzione va in sleep perchè, ad es, in attesa di una texture fetch) ma può eseguire in pratica istruzioni solo su 64 threads per clock (perchè 64 sono gli sp). Quindi se 4*32=128 threads fossero i threads che Larrabee può processare sarebbe un risultato in linea con le gpu attuali, se fossero i thread che può gestire "in flight" invece sarebbe un risultato pessimo.

in tal caso si; facendo qualche rapido calcolo, poichè si parla di 4 thread in fp per core e di circa 1 Tflops di potenza elaborativa di picco (sarebbe in linea con una 4850), è ipotizzabile che si tratti di 4 MADD di tipo vettoriale e di un'architettura a 16 core. Resta da vedere quanti thread in fly questa architettura riesce a gestire e in che modo (questo è il parametro più importante, molto più della potenza di calcolo di picco). Una pipeline con alu vettoriali potrebbe creare problemi a livello di ILP con le istruzioni di pixel shading, come avviene con R600 e derivati, con la differenza che la soluzione non sarebbe possibile via SW (il motivo per cui sia ATi che nVidia hanno abbandonato le alu vettoriali passando ad architetture unificate); questo potrebbe rendere praticamente impossibile il raggiungimento della potenza di picco teorica.

yossarian
13-07-2008, 14:12
cmq ho una domanda per yossarian e Mercuri0: ho sentito dire che le software house scelgono Nvidia nn solo/tanto perchè paga ma perchè mette a disposizione dei programmatori numerosi strumenti e utility che sono abbastaza fondamentali, è vero?

no; tutti cercano di convincere i programmatori a scrivere codice che sia più "digeribile" per le proprie gpu e per farlo cercano di mettere a disposizione gli strumenti e le utility necessari

ATi7500
13-07-2008, 14:28
se hai attivato il v-sync, in ogni caso non viene inviata l'immagine successiva prima che sia concluso il refresh del monitor. Il triple buffering serve solo ad accelerare la velocità di elaborazione dei frame e non la velocità di invio al monitor con v-sync attivo. Quindi se la velocità di elaborazione della gpu è superiore a quella di refresh il triple buffering non serve (occupa solo spazio nel fb); in caso contrario, invece, può permettere di evitare il microstuttering (se il fb è abbastanza grande da permettere di fare triple buffering).

Ciao yoss ;)

una domanda, se io attivo il triple buffering da driver, senza però attivare il vsync, la memoria nel fb viene occupata ugualmente?

bYeZ!

Mercuri0
13-07-2008, 14:29
1-1-2-3-4-5-6-6-7-8-9-10-11-11 e così via.
Non mi convince questa sequenza con il v-sync senza triple buffering. Probabilmente nel tuo modello non hai considerato che anche se la scheda fa 50FPS, ha solo un buffer in più da riempire prima di mandarlo allo schermo, e deve comunque aspettarlo nei casi un cui l'abbia riempito ma lo schermo non l'abbia ancora richiesto. (casi che capitano anche a 50fps)

Nella tua sequenza, nel 2-3-4-5 la scheda sembra avanti di almeno 3 frame :mbe:

Con il v-sync on e triple off la sequenza può esser solo
1-2-3-4-5-6-7 (se la scheda fa più di 60FPS)
1-1-2-2-3-3-4-4 (Se la scheda fa più di 30)
1-1-1-2-2-2-3-3-3-4-4-4 (se la scheda fa più di venti)
Rivedi un pò i tuoi conti se sono stato convincente altrimenti per capirli io mi tocca fare un disegnino. :D

se hai attivato il v-sync, in ogni caso non viene inviata l'immagine successiva prima che sia concluso il refresh del monitor. Il triple buffering serve solo ad accelerare la velocità di elaborazione dei frame e non la velocità di invio al monitor con v-sync attivo. Quindi se la velocità di elaborazione della gpu è superiore a quella di refresh il triple buffering non serve (occupa solo spazio nel fb);
Oki - se non l'ho detto l'intendevo

in caso contrario, invece, può permettere di evitare il microstuttering (se il fb è abbastanza grande da permettere di fare triple buffering).

Meno oki: il v-sync sincronizza perfettamente i frame, mentre il triplebuffering crea una forma di "microstuttering" perché consente sequenze del tipo 1-1-2-3-3-4 etc, in cui un frame rimane per 2 cicli del monitor e l'altro solo per 1 ciclo.

Comunque non vorrei creare confusione in alcuni, io ora non sto parlando di multi-gpu, ma il termine "microstuttering" è comunque appropiato, perchè è un differente ritardo tra un frame e l'altro
Ma di certo 1-1-2-3-3-4 (40 fps) è meglio di 1-1-2-2-3-3 (30 fps)


Ho fatto un pò di conti sulla memoria che serve a 1600x1200.. Considerando ciascun buffer 1600x1200x24, il v-sync occupa 5.76MiB di ram in più della scheda video, e il triple buffering altri 5.76MiB... non mi sembra ci sia troppo da preoccuparsi. ;)

Cooperdale
13-07-2008, 14:34
Ah... deve essere per quella storia che Vista 64bit fa girare solo i driver consentiti da MS (con la firma digitale), e atitray evidentemente richiede un driver.

Il primo effetto del "Palladium" a quanto pare, anche se in Vista "il Palladium" è solo l'ombra di quel che doveva essere.

edit: vedo che per atitray stanno già spuntando i workaround... bene bene saranno utili anche per altre cose. Grazie al cielo il "palladium" avrebbe funzionano solo nella sua versione completa. ;)

dunque....... avendo vista 64 bit mi devo preoccupare??? se dovessi ritornare in casa ati come faccio ad usare v-sync + triplo buffering???

mi sembra un assurdo montare 2 4870x2 e non poter abilitarli entrambi:muro:

pazzesco...........

Ma quindi si può usare o no in vista64 il tray tool?

Edit:
ho cercato su Google, in effetti si trovano dei workaround.

Andrea deluxe
13-07-2008, 14:35
Ho fatto un pò di conti sulla memoria che serve a 1600x1200.. Considerando ciascun buffer 1600x1200x24, il v-sync occupa 5.76MiB di ram in più della scheda video, e il triple buffering altri 5.76MiB... non mi sembra ci sia troppo da preoccuparsi. ;)

Per singolo frame?

Mercuri0
13-07-2008, 14:51
Per singolo frame?
Gli spazi di memoria che vengono usati quelli sono... ogni nuovo frame poi li riusa. ;)

Che, ti vuoi tenere l'immagine di tutti frame già renderizzati in memoria? :D

Per dirla facile: se prendi un programma che misura la videoram libera e attivi il v-sync a 1600X1200 dovresti vedere che l'occupazione di memoria sale di circa 5MiB.

Se attivi anche il triple sale di altri 5MiB.

Io ho provato con GuildWars alla mia risoluzione e la cosa sembra tornare. Roba di pochi MB.

Andrea deluxe
13-07-2008, 14:58
Gli spazi di memoria che vengono usati quelli sono... ogni nuovo frame poi li riusa. ;)

Che, ti vuoi tenere l'immagine di tutti frame già renderizzati in memoria? :D

Per dirla facile: se prendi un programma che misura la videoram libera e attivi il v-sync a 1600X1200 dovresti vedere che l'occupazione di memoria sale di circa 5MiB.

Se attivi anche il triple sale di altri 5MiB.

Io ho provato con GuildWars alla mia risoluzione e la cosa sembra tornare. Roba di pochi MB.

io mi stavo impicciando moltiplicando il valore per i fotogrammi visualizzati per secondo...

yossarian
13-07-2008, 15:03
Ciao yoss ;)

una domanda, se io attivo il triple buffering da driver, senza però attivare il vsync, la memoria nel fb viene occupata ugualmente?

bYeZ!

si; sono due cose non collefate tra loro; il triple buffering lo puoi usare senza v-sync per aumentare il frame rate; con il double buffering si hanno solo 2 buffer a disposizione (front e back buffer); mentre il primo viene inviato al monitor, il secondo diventa front buffer e contemporaneamente viene creato un nuovo back buffer; con il triple buffering i buffer pieni diventano 3; senza v-sync attivo, la gpu invia a monitor il primo e contemporaneamente riindicizza gli altri e crea un nuovo buffer; con il v-sync attivo succede la stessa cosa, solo che la velocità con cui il front buffer è inviato al monitor non è dettata dalla velocità con cui le RBE riescono a scrivere un frame nel buffer ma dalla velocità di sincronismo dello schermo

Non mi convince questa sequenza con il v-sync senza triple buffering. Probabilmente nel tuo modello non hai considerato che anche se la scheda fa 50FPS, ha solo un buffer in più da riempire prima di mandarlo allo schermo, e deve comunque aspettarlo nei casi un cui l'abbia riempito ma lo schermo non l'abbia ancora richiesto. (casi che capitano anche a 50fps)

Nella tua sequenza, nel 2-3-4-5 la scheda sembra avanti di almeno 3 frame :mbe:

Con il v-sync on e triple off la sequenza può esser solo
1-2-3-4-5-6-7 (se la scheda fa più di 60FPS)
1-1-2-2-3-3-4-4 (Se la scheda fa più di 30)
1-1-1-2-2-2-3-3-3-4-4-4 (se la scheda fa più di venti)
Rivedi un pò i tuoi conti se sono stato convincente altrimenti per capirli io mi tocca fare un disegnino. :D


Oki - se non l'ho detto l'intendevo

Meno oki: il v-sync sincronizza perfettamente i frame, mentre il triplebuffering crea una forma di "microstuttering" perché consente sequenze del tipo 1-1-2-3-3-4 etc, in cui un frame rimane per 2 cicli del monitor e l'altro solo per 1 ciclo.

Comunque non vorrei creare confusione in alcuni, io ora non sto parlando di multi-gpu, ma il termine "microstuttering" è comunque appropiato, perchè è un differente ritardo tra un frame e l'altro
Ma di certo 1-1-2-3-3-4 (40 fps) è meglio di 1-1-2-2-3-3 (30 fps)


Ho fatto un pò di conti sulla memoria che serve a 1600x1200.. Considerando ciascun buffer 1600x1200x24, il v-sync occupa 5.76MiB di ram in più della scheda video, e il triple buffering altri 5.76MiB... non mi sembra ci sia troppo da preoccuparsi. ;)

il triple buffering non forza l'invio di frame al monitor se il v-sync è attivo; il v-sync è comunque prioritario; questo significa che se la velocità con cui le RBE scrivono i frame nel buffer è inferiore a quella di refresh, allora il triple buffering può eliminare o diminuire lo stuttering; in caso contrario occupa solo spazio in memoria. Utilizzare il TB significa solo mettere a disposizione delle RBE 3 render target su cui scrivere i frame anzichè 2. Solo all'inizio dell'elaborazione c'è da aspettare un po' di più, in quanto l'invio delle immagini al monitor inizia quando i 3 frame sono completi.

Felle
13-07-2008, 15:05
nessuno gentilmente sa rispondere in quale modo si può attivare il triplo buffering in vista 64bit???:mc:

Mercuri0
13-07-2008, 15:23
Faccio giusto un esempio per fissare le idee.
Non sono riuscito dal trattenermi dal fare un disegnino per spiegare quello che intendo :)

V-sync on con GPU capace di 120 e 45 Fps
http://img386.imageshack.us/img386/7937/vsyncsf9.png
Se la scheda farebbe 120 FPS, finirebbe per renderizzare il frame prima della "richiesta" del monitor (la freccina), e siccome non ha altri buffer dove renderizzare, per metà del tempo non lavora! Gli FPS sono 60.

Anche se la scheda farebbe 45 fps, c'è sempre un periodo di tempo in cui il buffer è pieno e la scheda non lavora. Gli FPS scendono a 30.

V-sync on con triplebuffering e GPU capace di 45 fps:
http://img362.imageshack.us/img362/8285/triplebufdr8.png
Stavolta la GPU appena finisce di renderizzare un frame lo scarica nel 2° buffer (la seconda linea), e può già cominciare a lavorare al prossimo frame!

In realtà ci possono essere casi un cui la scheda riempe tutti e 3 i buffer - per esempio se facesse framerate sopra i 60, in cui il triple buffering diventerebbe quindi inutile.
Forse ci sono casi anche per framerate sotto i 60, ma certo il tempo di "non lavoro" della GPU è mitigato, anche se i frame può capitare che si alternino in maniera "zoppa" del tipo 1,1,2,3,3,4 come si vede in figura. ("microstuttering da sincronizzazione col monitor" :D )

Si nota però come il triplebuffering comporti un'aumento di latenza (in un videogioco si traduce in "input lag") di almeno 1 frame, perché la scheda renderizza 2 frame avanti a quello che il giocatore vede.

nota: in realtà nei miei disegnini c'è una semplificazione (la latenza del primo frame), ma penso rendano l'idea comunque.

Cooperdale
13-07-2008, 15:23
nessuno gentilmente sa rispondere in quale modo si può attivare il triplo buffering in vista 64bit???:mc:

Qui per esempio uno dei link che ho trovato:

http://forums.guru3d.com/showthread.php?t=258777

yossarian
13-07-2008, 15:29
Non sono riuscito dal trattenermi dal fare un disegnino per spiegare quello che intendo :)

V-sync on con GPU capace di 120 e 45 Fps
http://img386.imageshack.us/img386/7937/vsyncsf9.png
Se la scheda farebbe 120 FPS, finirebbe per renderizzare il frame prima della "richiesta" del monitor (la freccina), e siccome non ha altri buffer dove renderizzare, per metà del tempo non lavora! Gli FPS sono 60.

Anche se la scheda farebbe 45 fps, c'è sempre un periodo di tempo in cui il buffer è pieno e la scheda non lavora. Gli FPS scendono a 30.

V-sync on con triplebuffering e GPU capace di 45 fps:
http://img362.imageshack.us/img362/8285/triplebufdr8.png
Stavolta la GPU appena finisce di renderizzare un frame lo scarica nel 2° buffer (la seconda linea), e può già cominciare a lavorare al prossimo frame!

In realtà ci possono essere casi un cui la scheda riempe tutti e 3 i buffer - per esempio se facesse framerate sopra i 60... Forse ci sono anche per framerate sotto i 60, ma certo il tempo di "non lavoro" della GPU è mitigato, anche se i frame può capitare che si alternino in maniera "zoppa" del tipo 1,1,2,3,3,4 come si vede in figura. ("microstuttering da sincronizzazione col monitor" :D )

Si nota però come il triplebuffering comporti un'aumento di latenza (in un videogioco si traduce in "input lag") di almeno 1 frame, perché la scheda renderizza 2 frame avanti a quello che il giocatore vede.

nota: in realtà nei miei disegnini c'è una semplificazione (la latenza del primo frame), ma penso rendano l'idea comunque.

lo stuttering lo hai quando un'immagine tarda ad arrivare al monitor, non quando la gpu non lavora; se hai 3 buffer pieni e le RBE sono in idle, non hai stuttering perchè i frame vengono inviati al monitor appena sono pronti (e ne hai 3 belli e pronti da spedire). Avere 3 buffer pieni evita di avere microstuttering

Mercuri0
13-07-2008, 15:35
lo stuttering lo hai quando un'immagine tarda ad arrivare al monitor, non quando la gpu non lavora; se hai 3 buffer pieni e le RBE sono in idle, non hai stuttering perchè i frame vengono inviati al monitor appena sono pronti (e ne hai 3 belli e pronti da spedire). Avere 3 buffer pieni evita di avere microstuttering
Il "microstuttering", definito nel modo in cui si sente parlare in giro riguardo il multi-gpu, è il fatto che il tempo tra un frame è l'altro non è esattamente lo stesso.

Nel caso del v-sync con triple buffering, se la scheda fa sotto i 60 ma qualcosa sopra i 30 si verifica la condizione che uno stesso frame rimane per due cicli sul monitor, e poi il secondo rimane un ciclo solo.

1-2 frame: 33ms
2-3 frame: 16ms
3-4 frame: 33ms.
etc.

Non può davvero esserci alternativa all'alternanza dei frame sullo schermo tra i 60 e i 30 fps: con il solo v-sync o c'è 16ms (60FPS) tra un frame e l'altro o 33ms (30FPS). Con v-sync e triplebuffering si può creare anche la condizione di sopra.

Secondo la definizione di microstuttering che si usa in giro, anche l'effetto del v-sync con triplebuffering è microstuttering, anche se probabilmente fraps non lo rileva perché lui misura quando la scheda ha finito di renderizzare, non quello che si vede sullo schermo.

p.s. in tutto il mio ragionamento ho presupposto che la scheda non possa rallentare il refresh del monitor neanche di una virgola dai suoi 60hz. Magari ho sbagliato in questo punto ;)

magnusll
13-07-2008, 15:38
Se la scheda farebbe 120 FPS,

Anche se la scheda farebbe 45 fps,

Dio mio :muro: http://forum.my-game.it/images/smilies/zanichelli.gif

FACESSE.. Se la scheda facesse...

Meriteresti due settimane di ban per assassinio di congiuntivi...

Felle
13-07-2008, 15:38
Qui per esempio uno dei link che ho trovato:

http://forums.guru3d.com/showthread.php?t=258777


grazie.... stò dando ora una lettura veloce..... non mastico benissimo l'inglese :rolleyes:

è il colmo però che ati non implementi più nel suo pannello di controllo il triplo buffering per il D3d:muro:

yossarian
13-07-2008, 15:45
Il "microstuttering", definito nel modo in cui si sente parlare in giro riguardo il multi-gpu, è il fatto che il tempo tra un frame è l'altro non è esattamente lo stesso.

Nel caso del v-sync con triple buffering, se la scheda fa sotto i 60 ma sopra i 30 si verifica la condizione che uno stesso frame rimane per due cicli sul monitor, e poi il secondo rimane un ciclo solo.

1-2 frame: 33ms
2-3 frame: 16ms
3-4 frame: 33ms.
etc.

Secondo la definizione di microstuttering che si usa in giro, anche l'effetto del v-sync con triplebuffering è microstuttering, anche se probabilmente fraps non lo rileva perché lui misura quando la scheda ha finito di renderizzare, non quello che si vede sullo schermo.

il microstuttering si ha, con alcuni motori grafici e con alcune gpu, anche con gpu singola ed è l'efffetto epr cui l'immagine si freeza per alcuni istanti e poi riparte.
Ora proviamo con uno schemino del tipo domanda e risposta
D: cosa crea il microstuttering?
R: il ritardato invio di un'immagine al monitor
D: cosa accade se ho un solo render target per renderizzare il frame
R: se la gpu è più lenta del refresh del monitor l'immagine deve permanere fino all'arrivo della nuova
D: se ho 2 RT a disposizione?
R: allora le probabilità di non avere un frame pronto da inviare diminuiscono
D: e se ne ho 3?
R: allora le probabilità soon ancora minori

Questo vale sia con singola che con doppia gpu

yossarian
13-07-2008, 15:45
Dio mio :muro: http://forum.my-game.it/images/smilies/zanichelli.gif

FACESSE.. Se la scheda facesse...

Meriteresti due settimane di ban per assassinio di congiuntivi...

:D

Mercuri0
13-07-2008, 15:49
Dio mio :muro: http://forum.my-game.it/images/smilies/zanichelli.gif

FACESSE.. Se la scheda facesse...

Meriteresti due settimane di ban per assassinio di congiuntivi...
Marò come sei fiscale, tagliando e incollando ed editando se ne fanno di errori.

Il senso era:
La scheda farebbe tot fps se non fosse limitata da...

Perciò "contraendo" m'è rimasto il condizionale. Se usavo l'imperfetto non mi dicevi niente, eh? (:asd:)

YANEZ84
13-07-2008, 15:49
:D



lol

YANEZ84
13-07-2008, 15:53
Più che altro mi piacerebbe sapere il perché...


Ma come mai questa cosa da parte di ati sul pannelo di controllo ????

Nikolaj Wojdelko
13-07-2008, 15:54
Marò come sei fiscale, tagliando e incollando ed editando se ne fanno di errori.

Il senso era:
La scheda farebbe tot fps se non fosse limitata da...

Perciò "contraendo" m'è rimasto il condizionale. Se usavo (AVESSI USATO) l'imperfetto non mi dicevi (AVRESTI DETTO) niente, eh? (:asd:)

Si vabbè , io metterei la testa sotto la sabbia adesso se FOSSI al posto tuo :ciapet:

:ops:

(si scherza ..)



Piuttosto, quand'è la data di lancio ufficiale ? E' vera la storia del paper launch fra pochi giorni e della vendita in volumi verso fine luglio ?

dantess
13-07-2008, 15:56
ho sempre amato ati!!! stà rinascendo vai!:D...x tutti quelli che dicevano amd c'ha rovinato vai ati!!!!

YANEZ84
13-07-2008, 15:59
ho sempre amato ati!!! stà rinascendo vai!:D...x tutti quelli che dicevano amd c'ha rovinato vai ati!!!!


si ma dopo un bel po si sta riprendendo

Mercuri0
13-07-2008, 16:01
il microstuttering si ha, con alcuni motori grafici e con alcune gpu, anche con gpu singola ed è l'efffetto epr cui l'immagine si freeza per alcuni istanti e poi riparte.
Ora proviamo con uno schemino del tipo domanda e risposta
D: cosa crea il microstuttering?
R: il ritardato invio di un'immagine al monitor
D: cosa accade se ho un solo render target per renderizzare il frame
R: se la gpu è più lenta del refresh del monitor l'immagine deve permanere fino all'arrivo della nuova
D: se ho 2 RT a disposizione?
R: allora le probabilità di non avere un frame pronto da inviare diminuiscono
D: e se ne ho 3?
R: allora le probabilità soon ancora minori

Questo vale sia con singola che con doppia gpu
Difatti :D

Comunque mi stavo focalizzando su v-sync e triplebuffering, evidenziando come degli effetti di sincronizazione (v-sync) e viceversa dei "ritmi zoppi" (v-sync + triplebuffering) ci siano comunque anche per il mono-gpu.

Siccome si parla molto del microstuttering riguardo al multigpu, volevo enfatizzare che il problema non è "se" ma "quanto", visto che adesso sembra che sia una nuova forma d'aids scoperta l'altro ieri, per cui tutti stanno a misurar millisecondi...

p.s. non è che basterebbe un buffer in più per risolvere il microstuttering da multi-gpu?

M4R1|<
13-07-2008, 16:03
no; tutti cercano di convincere i programmatori a scrivere codice che sia più "digeribile" per le proprie gpu e per farlo cercano di mettere a disposizione gli strumenti e le utility necessari

si be allora come da sempre ognuno tira l'acqua al suo mulino...

Dio mio :muro: http://forum.my-game.it/images/smilies/zanichelli.gif

FACESSE.. Se la scheda facesse...

Meriteresti due settimane di ban per assassinio di congiuntivi...

:asd:

si ma dopo un bel po si sta riprendendo

be AMD nn centra con R600 :rolleyes: è tutta opera della vecchia ATI

yossarian
13-07-2008, 16:12
Difatti :D

Comunque mi stavo focalizzando su v-sync e triplebuffering, evidenziando come degli effetti di sincronizazione (v-sync) e viceversa dei "ritmi zoppi" (v-sync + triplebuffering) ci siano comunque anche per il mono-gpu.

Siccome si parla molto del microstuttering riguardo al multigpu, volevo enfatizzare che il problema non è "se" ma "quanto", visto che adesso sembra che sia una nuova forma d'aids scoperta l'altro ieri, per cui tutti stanno a misurar millisecondi...

p.s. non è che basterebbe un buffer in più per risolvere il microstuttering da multi-gpu?

già il triple buffering, con l'aumento delle risoluzione e l'adozione dei filtri pone non pochi problemi di spazio (le DX10.1 prevedono come standard minimo l'AA 4x e filtraggi a fp32, con le dx11 sarà anche peggio). Inoltre le modalità di rendering delle prossime API prevedono l'impiego di più render target sia per le RBE che per lo shader core (per effettuare, ad esempio, l'antialiasing con il deferred rendering). Utilizzare un quad buffering sarebbe ancora più problematico. Quantitativi di ram più elevati portano alla necesità di adottare soluzioni più sofisticate epr i MC per limitare le latenze.
La soluzione più indolore è aumentare la velocità di elaborazione delle gpu, aumentando la potenza di calcolo e la velocità con cui le RBE scrivono i frame.

Felle
13-07-2008, 16:13
Più che altro mi piacerebbe sapere il perché...

:mbe:

anche a me.....

dai su.... delucidazioni in merito please..... non vedo l'ora di ordinare 2 4870x2 ma non voglio avere dubbi su come posso abilitare il triplo buffering in vista 64 bit:rolleyes:

YANEZ84
13-07-2008, 16:18
:mbe:

anche a me.....

dai su.... delucidazioni in merito please..... non vedo l'ora di ordinare 2 4870x2 ma non voglio avere dubbi su come posso abilitare il triplo buffering in vista 64 bit:rolleyes:

e secondo me non ne avrai

Felle
13-07-2008, 16:21
e secondo me non ne avrai


per ora i dubbi li ho e come..... visto che avevo un crossfire di 2 3870 ed ho avuto sempre problemi ad abilitare il triplo buffering.......:muro:

Mercuri0
13-07-2008, 16:24
già il triple buffering, con l'aumento delle risoluzione e l'adozione dei filtri pone non pochi problemi di spazio (le DX10.1 prevedono come standard minimo l'AA 4x e filtraggi a fp32, con le dx11 sarà anche peggio). Inoltre le modalità di rendering delle prossime API prevedono l'impiego di più render target sia per le RBE che per lo shader core (per effettuare, ad esempio, l'antialiasing con il deferred rendering). Utilizzare un quad buffering sarebbe ancora più problematico. Quantitativi di ram più elevati portano alla necesità di adottare soluzioni più sofisticate epr i MC per limitare le latenze.
La soluzione più indolore è aumentare la velocità di elaborazione delle gpu, aumentando la potenza di calcolo e la velocità con cui le RBE scrivono i frame.
Ma per il giochino del v-sync o del triple buffering non basterebbe comunque replicare il solo color buffer? (o comunque il solo buffer che viene sparato allo schermo, quello che una volta si chiamava "framebuffer" anche se ora mi sa che il termine si usa per altro)

Qualunque sia il tipo di rendering che la scheda fa con la precisione che vuole, lo schermo più di 24bit alla sua risoluzione non va... quello è l'unica informazione che serve allo schermo.

La GPU spara allo schermo buffer a 32bit :mbe: ? O viene fatta una conversione nella parte che pilota lo schermo?

Mercuri0
13-07-2008, 17:33
...come volevasi dimostrare :D

Un tipo dice di star facendo test su R700, e che non rivela microstuttering
http://www.xtremesystems.org/forums/showpost.php?p=3135424&postcount=529

Il bello è che sta misurando per confronto con le altre schede ritardi di 5-6 ms (!!!), su framerate medi di olte 40fps.

Vabbé, per me il discorso ha perso completamente di interesse, che già ne aveva poco. Se pure poteva esserci un problema vero da qualche parte (bassi FPS medi?) ormai il microstuttering è solo "il tormentone dell'estate 2008", per gli appassionati dei 5 millisecondi.

Nikolaj Wojdelko
13-07-2008, 17:40
...come volevasi dimostrare :D

Un tipo dice di star facendo test su R700, e che non rivela microstuttering
http://www.xtremesystems.org/forums/showpost.php?p=3135424&postcount=529

Il bello è che sta misurando per confronto con le altre schede ritardi di 5-6 ms (!!!), su framerate medi di olte 40fps.

Vabbé, per me il discorso ha perso completamente di interesse, che già ne aveva poco. Se pure poteva esserci un problema vero da qualche parte (bassi FPS medi?) ormai il microstuttering è solo "il tormentone dell'estate 2008", per gli appassionati dei 5 millisecondi.

Morale della favola in quanto a microstuttering è leggermente meglio di una GX2 ? Quindi ce l'ha ugualmente o no ?

fafathebest
13-07-2008, 18:17
allora ragazzi domani si saprà di più su questa scheda o sbaglio?

ho letto che dovrebbero uscire i primi test:p

Marko91
13-07-2008, 18:20
Morale della favola in quanto a microstuttering è leggermente meglio di una GX2 ? Quindi ce l'ha ugualmente o no ?

leggermente meglio di un CF di HD4870. Ma è praticamente un non problema per le schede ATi. Nvidia ne soffre molto di più, ma anche li sono ritardi minimi di nemmeno 5 millisecondi.

The_SaN
13-07-2008, 19:01
...come volevasi dimostrare :D

Un tipo dice di star facendo test su R700, e che non rivela microstuttering
http://www.xtremesystems.org/forums/showpost.php?p=3135424&postcount=529

Il bello è che sta misurando per confronto con le altre schede ritardi di 5-6 ms (!!!), su framerate medi di olte 40fps.

Vabbé, per me il discorso ha perso completamente di interesse, che già ne aveva poco. Se pure poteva esserci un problema vero da qualche parte (bassi FPS medi?) ormai il microstuttering è solo "il tormentone dell'estate 2008", per gli appassionati dei 5 millisecondi.

Ma infatti discutendo nel thread delle gtx280, feci notare che almeno dal mio punto di vista il microstuttering era un problema di marketing piú che altro.
Vedendo l' SLI di 8800gt del mio amico non ho notato davvero nulla :mbe:
E guarda che "mi lamento" sempre del suo dell 24" che fa un ritardo di 40-50ms di input lag e io lo noto...quindi direi che sono abbastanza sensibile...

PS: il "mi lamento" é tra virgolette perché lamentarsi di un dell 24" é roba da rinchiudere al manicomio... :ciapet:

yossarian
13-07-2008, 19:31
Ma per il giochino del v-sync o del triple buffering non basterebbe comunque replicare il solo color buffer? (o comunque il solo buffer che viene sparato allo schermo, quello che una volta si chiamava "framebuffer" anche se ora mi sa che il termine si usa per altro)



ogni frame andrà renderizzato alla stessa maniera (z-ops su un RT, su cui si calcola l'AA, e color ops su una altro).



Qualunque sia il tipo di rendering che la scheda fa con la precisione che vuole, lo schermo più di 24bit alla sua risoluzione non va... quello è l'unica informazione che serve allo schermo.


a parte che esistono pannelli TN con 6 bit per canale, questo non significa che non esistano monitor che facciano uso di più di 8 bit. Mai sentito parlare di monitor con LUT a 10 o 12 bit che lavorano internamente a 12 o 16 bit?



La GPU spara allo schermo buffer a 32bit :mbe: ? O viene fatta una conversione nella parte che pilota lo schermo?

le RBE possono scrivere a 8, 10, 16 o 32 bit per canale; nei primi dua casi utilizzano sempre 32 bit (8+8+8+8 o 10+10+10+2), nel secondo caso 64 e nel terzo caso 128 bit. I valori vengono poi riconvertiti nel numero di bit richiesto dalla LUT del monitor. In ogni caso, l'utilizzo di un numero di bit più elevato, indipendentemente dallke necessità del monitor, permette di ridurre gli errori da arrotondamento.

appleroof
13-07-2008, 20:07
http://www.xtremesystems.org/forums/showpost.php?p=3135424&postcount=529

M4R1|<
13-07-2008, 20:43
dite che le prime recensioni si vedranno domani in giornata o magari già dalla mezzanotte di oggi?

appleroof
13-07-2008, 20:49
non aggiunge nulla, ma conferma quello che ci aspettiamo tutti: la scheda scalda molto (credo la provi fuori dal case, come il post che ho riportato prima) e consuma altrettanto

http://forum.beyond3d.com/showpost.php?p=1188827&postcount=200

michelgaetano
13-07-2008, 20:53
non aggiunge nulla, ma conferma quello che ci aspettiamo tutti: la scheda scalda molto (credo la provi fuori dal case, come il post che ho riportato prima) e consuma altrettanto

http://forum.beyond3d.com/showpost.php?p=1188827&postcount=200

Beh penso fosse moooolto prevedibile ^^"

appleroof
13-07-2008, 20:55
Beh penso fosse moooolto prevedibile ^^"

si, scontatissimo, l'ho riportato solo perchè è una conferma "dal vivo"..

Cocco83
13-07-2008, 21:18
ha detto scalda abbastanza, non molto.... e cosuma tanto quello sì l'ha detto..... diciamo è stato + duro sui consumi che sul calore.......

michelgaetano
13-07-2008, 21:20
ha detto scalda abbastanza, non molto.... e cosuma tanto quello sì l'ha detto..... diciamo è stato + duro sui consumi che sul calore.......

Quanto facevano le 3870X2 come temps?

appleroof
13-07-2008, 21:36
ha detto scalda abbastanza, non molto.... e cosuma tanto quello sì l'ha detto..... diciamo è stato + duro sui consumi che sul calore.......

produces quite a lot heat and power consumption is high in italiano è produce parecchio calore e il consumo è alto :boh:

Marko91
13-07-2008, 21:38
produces quite a lot heat and power consumption is high in italiano è produce parecchio calore e il consumo è alto :boh:

Beh ci sono tanti vantaggi. In inverno la si può usare come phon.. e non consuma nemmeno troppo (per quel compito.. i phon sono da 500-1500W)
XD :sofico:
E direi anche per riscaldare la stanza...

appleroof
13-07-2008, 21:39
Beh ci sono tanti vantaggi. In inverno la si può usare come phon.. e non consuma nemmeno troppo (per quel compito.. i phon sono da 500-1500W)
XD :sofico:
E direi anche per riscaldare la stanza...

:asd: :asd: :asd:

astaris
13-07-2008, 21:41
Beh già si sapeva che il consumo sarebbe stato alto, non vedo perchè meravigliarsi.

appleroof
13-07-2008, 21:43
Beh già si sapeva che il consumo sarebbe stato alto, non vedo perchè meravigliarsi.

:mbe:

non aggiunge nulla, ma conferma quello che ci aspettiamo tutti: la scheda scalda molto (credo la provi fuori dal case, come il post che ho riportato prima) e consuma altrettanto

http://forum.beyond3d.com/showpost.php?p=1188827&postcount=200

Beh penso fosse moooolto prevedibile ^^"

si, scontatissimo, l'ho riportato solo perchè è una conferma "dal vivo"..

:boh:

astaris
13-07-2008, 21:47
appleroof mi riferivo alle parole si sampsa:
Actually there was new driver released before weekend. I already ran all my tests again for the preview I'm working on. I would say this card is performing very good but it produces quite a lot heat and power consumption is high.
Avrebbe dovuto scrivere:
I would say this card is performing very good and of course it produces quite a lot heat and power consumption is high.
:D

appleroof
13-07-2008, 21:48
appleroof mi riferivo alle parole si sampsa:

Avrebbe dovuto scrivere:
I would say this card is performing very good and of course it produces quite a lot heat and power consumption is high.
:D

ah ok :stordita: però non si capiva dal tuo post :D

inoltre nemmeno sampsa mi sembra stupito, riporta solo quello che vede con mano...cmq se è vero che domani scade l'nda sapremo tutta la verità :O ;)

michelgaetano
13-07-2008, 22:11
E direi anche per riscaldare la stanza...

Ma sai che quando ho tenuto per un bel po' l ex procio montato male ( 70° fissi, evvai :sofico:) e il case piccolissimo non ho acceso i termosifoni d'inverno :rotfl:

Free Gordon
13-07-2008, 22:33
La soluzione più indolore è aumentare la velocità di elaborazione delle gpu, aumentando la potenza di calcolo e la velocità con cui le RBE scrivono i frame.


Che detta così sembrerebbe un pò l'uovo di Colombo, neh.. :sofico:

Cocco83
13-07-2008, 22:50
produces quite a lot heat and power consumption is high in italiano è produce parecchio calore e il consumo è alto :boh:

scusa hai ragionissima, mi sono fermato troppo sul quite..... cmq anche io n inverno la stanza del pc non gli tengo i termosifoni accesi... anche perché è proprio dietro il case, monitor e stampante....

Iantikas
14-07-2008, 00:57
http://www.driverheaven.net/reviews.php?reviewid=588



prima preview di R700...purtroppo ati ha voluto limitare la rece a solo 4 test e la gpu inviata era un engineering sample, quindi x dati e info complete tocca ancora aspettare...ciao

Milotto
14-07-2008, 01:31
http://www.driverheaven.net/reviews.php?reviewid=588



prima preview di R700...purtroppo ati ha voluto limitare la rece a solo 4 test e la gpu inviata era un engineering sample, quindi x dati e info complete tocca ancora aspettare...ciao


Se altre review confermassero questi risultati R700 non sarebbe altro che un semplice crossfire tra due RV770 : nessuna innovazione rispetto ad R680!! :(
Probabilmente quel 10% in più rispetto a 2 RV770 in CF è da ricercare esclusivamente nel diverso quantitativo di RAM cui dispone ciascuna GPU, 1GB vs 512MB...
Ammenocchè i Catalyst 8.7 .......ne dubito.

Felle
14-07-2008, 01:58
mi sa che non sono l'unico nottambulo che segue il forum ma soprattutto i primi test:D

massimomarc
14-07-2008, 02:23
review incompleta, però si nota come i distacchi più interessanti ( 15\20% ) rispetto a un crossfire di due 4870 si ottengono a risoluzioni e settaggi elevatissimi (2580x1800 8xaa ecc), sicuramente dovuto al fatto che qui ogni rv770 ha 1 gb di memoria, e non 512.


lascia l'amaro in bocca il test di crysis che non funziona praticamente , speriamo risolvano in fretta...


cmq imho 10 % in più di un cross di 4870, contanto che però si è a 512 vs 1 gb di memoria per chip, non è che sia sta gran cosa...

imho dipenderà tutto dal prezzo, se sarà meglio prendere 2 4870 o un r700....

contando che la 4870 ora si trova a 200 euro tondi, imho non più di 400\450 euro per r700 al debutto...

halduemilauno
14-07-2008, 06:22
http://www.pcper.com/article.php?type=expert&aid=590&pid=2
;)

Marko#88
14-07-2008, 06:28
http://www.pcper.com/article.php?type=expert&aid=590&pid=2
;)

quindi per ora pare che abbia prestazioni da xfire di 4870 ma col vantaggio di avere 1GB di vram e di non dover avere mobo xfire per poterla montare...dipenderà dal prezzo dunque...

halduemilauno
14-07-2008, 06:42
un'altra...
http://www.hexus.net/content/item.php?item=14178
;)

Cooperdale
14-07-2008, 07:05
:mbe:

anche a me.....

dai su.... delucidazioni in merito please..... non vedo l'ora di ordinare 2 4870x2 ma non voglio avere dubbi su come posso abilitare il triplo buffering in vista 64 bit:rolleyes:

Beh di workaround ce ne sono ma spiegati tutti in inglese. Per ora non mi metto a tradurli perché non ho ancora vista64, devo aspettare di avere la scheda video per assemblare il nuovo pc. Se vuoi appena sono pronto ci provo e se riesco ti dico.

Foglia Morta
14-07-2008, 07:25
http://anandtech.com/video/showdoc.aspx?i=3354&p=4

http://techreport.com/articles.x/15105/1

Foglia Morta
14-07-2008, 07:31
altre 2:

http://www.extremetech.com/article2/0,2845,2325444,00.asp

http://enthusiast.hardocp.com/article.html?art=MTUzMSwxLCxoZW50aHVzaWFzdA==

Nikolaj Wojdelko
14-07-2008, 07:38
Se altre review confermassero questi risultati R700 non sarebbe altro che un semplice crossfire tra due RV770 : nessuna innovazione rispetto ad R680!! :(
Probabilmente quel 10% in più rispetto a 2 RV770 in CF è da ricercare esclusivamente nel diverso quantitativo di RAM cui dispone ciascuna GPU, 1GB vs 512MB...
Ammenocchè i Catalyst 8.7 .......ne dubito.

E ti pare poco ? Chi non ha una X38 potrà solo che gioire per questo .

Adesso speriamo solo che calino i prezzi, di modo che nel frattempo con i soldi risparmiati mi ci possa comprare un ali più potente :doh:

Tidus.hw
14-07-2008, 07:40
beh ragazzi, perlomeno non ha problemi di memoria ad altissime risoluzioni :asd:
guardate come scala linearmente :D

Capozz
14-07-2008, 07:45
Sarà pure un semplice CF di 4870, però cavolo è sempre superiore alla GTX280, a volte anche ad uno sli di 280 :eek:

Cocco83
14-07-2008, 08:12
siamo però sempre senza alcun driver specifico.... ho visto che molti addirittura usano gli 8.5/8.52..... e cmq sia viaggia senza ombra di dubbio..... mi sorprendono i 41fps a crysis di extremetech a 1920x1200 4xaa

Cmq sia notate sin da subito che anche senza driver, tutti i giochi provati hanno risposto al dual GPU, con la HD3870X2 mi ricordo che ce ne erano parecchi di giochi che non riconoscevano il crossfire on board della scheda......

althasius
14-07-2008, 08:25
review incompleta, però si nota come i distacchi più interessanti ( 15\20% ) rispetto a un crossfire di due 4870 si ottengono a risoluzioni e settaggi elevatissimi (2580x1800 8xaa ecc), sicuramente dovuto al fatto che qui ogni rv770 ha 1 gb di memoria, e non 512.

cmq imho 10 % in più di un cross di 4870, contanto che però si è a 512 vs 1 gb di memoria per chip, non è che sia sta gran cosa...

imho dipenderà tutto dal prezzo, se sarà meglio prendere 2 4870 o un r700....

contando che la 4870 ora si trova a 200 euro tondi, imho non più di 400\450 euro per r700 al debutto...

è inutile aspettarsi risultati miracolosi da questa scheda, alla fine è pur sempre un cf di 4870 ( utile cmq a risoluzioni elevatissime). Il vantaggio, nel caso di prezzo aggressivo, consiste nel montarla su qualsiasi scheda madre e spero in una dissipazione del calore più efficiente.

M4R1|<
14-07-2008, 08:28
beh ragazzi, perlomeno non ha problemi di memoria ad altissime risoluzioni :asd:
guardate come scala linearmente :D

è vero però chi come me si aspettava un metodo diverso per la comunicazione delle due gpu ha prezo una mezza cantonata (mezza perchè hanno risolto il problema del microclustering).
poi nn ho capito perchè nella concluzione di anandtech dice che questa preview rappresenta solo quello che potrebbe essere :confused: cioè anche se la scheda fosse un ES cmq quella è e quella rimane discorso a parte per i driver, ma quella è una cosa che si vedrà con il tempo..... sbaglio?
e poi ma la 4870X2 nn doveva avere 2GB?

M4R1|<
14-07-2008, 08:32
è inutile aspettarsi risultati miracolosi da questa scheda, alla fine è pur sempre un cf di 4870 ( utile cmq a risoluzioni elevatissime). Il vantaggio, nel caso di prezzo aggressivo, consiste nel montarla su qualsiasi scheda madre e spero in una dissipazione del calore più efficiente.

nessuno si aspetta i miracoli :D ma quando nn ci sono nemmeno i driver che la supportino la cosa cambia ;)

altra cosa (per voi che ne sapete più di me) come mai il cf funziona in tutti i giochi?? e si che ce ne sono che nn lo sfruttano.....

YANEZ84
14-07-2008, 08:36
raga una domanda ma secondo voi conviene fare un quadsli di 4870x2 se non si supera la risoluzione di 1920...,oppure prendere le 4870 da 512 e fare un crossfire o aspettare quelle da 1gb?(perchè dai test almeno che non ci siano driver miracolosi queste 4870x2 non vanno + di un crossfire di 4870).

Foglia Morta
14-07-2008, 08:44
beh praticamente va un 40-50% in più della 280, in qualche caso anche di più. Anche rispetto alle 280 overclockate. Interessante AOC , AA8X free secondo la rece di HardOCP . Crysis va male , ma il resto bene

raga una domanda ma secondo voi conviene fare un quadsli di 4870x2 se non si supera la risoluzione di 1920...,oppure prendere le 4870 da 512 e fare un crossfire o aspettare quelle da 1gb?(perchè dai test almeno che non ci siano driver miracolosi queste 4870x2 non vanno + di un crossfire di 4870).

HardOCP ha fatto dei test con Quad Xfire , guarda lì . A 1920 comunque è inutile ( ma anche a 2560 IMHO )

Athlon 64 3000+
14-07-2008, 08:53
Io sapevo che nel nuovo controller di memoria di RV770 avendo aggiunti un collegamento per il crossfire X che permettesse di fa comunicare alle GPU della HD 4870 x2 rendendolo più efficiente di un semplice crossfire di HD 4870 e poi ti far vedere al sistema( e di usarla) tutte la ram on-board della scheda video.

Foglia Morta
14-07-2008, 09:00
Si vedono test discordanti...

Driver Heaven

http://www.driverheaven.net/reviewimages/r700preview/graphs/wic1920.jpg

e Extremetech

http://common.ziffdavisinternet.com/util_get_image/21/0,1425,i=214572,00.jpg

Però Extremetech mi pare abbia gli unici test su Crysis in cui R700 si comporta bene . Le solite diversità che si incontrano di rece in rece

Athlon 64 3000+
14-07-2008, 09:01
edit

mircocatta
14-07-2008, 09:15
se ciao i test sono fatti con driver 8.6 nemmeno fixxati...mi sa che la differenza sarà ancora maggiore con gli 8.7 o maggiori..
addirittura pc prospective con gli 8.5 e danno comunque in vantaggio la x2!!!! LOL...possibilità di miglioramento nette...visto che già i 8.7beta fanno fatica a supportare un crossfire di 4870...

buona cosa!!!!

HackaB321
14-07-2008, 09:19
Premesso che si tratta di una scheda che non comprerei nemmeno sotto tortura, bisogna dire che:

-i consumi, che per una scheda video sono semplicemente allucinanti, vengono un po' ridimensionati dalle prestazioni assolute e relative: inferiori ad un cf di 4870, poco superiori ad uno sli di 9800GTX (pur andando ben di più). Uno sli di GTX280 ad es. ha performance/watt decisamente peggiori.

-grazie ai 1600 spu, permette, per chi lo gradisce, l'abilitazione di CFAA anche a risoluzioni Full HD: la qualità dell'immagine che ne viene fuori sembra essere senza paragoni ma è chiaramente questione di gusti.

Resta la delusione assoluta, ma ormai lo si sapeva, per l'assenza di innovazioni tecnologiche di rilievo: si pagano sembre 2Gb di memoria per usarne 1, se manca il profilo di un gioco si hanno le prestazioni di una scheda che costa meno della metà etc.. etc..il multigpu attuale continua ad essere un vantaggio molto più grande per chi produce piuttosto che per chi compra.

raga una domanda ma secondo voi conviene fare un quadsli di 4870x2 se non si supera la risoluzione di 1920...,oppure prendere le 4870 da 512 e fare un crossfire o aspettare quelle da 1gb?(perchè dai test almeno che non ci siano driver miracolosi queste 4870x2 non vanno + di un crossfire di 4870).

Un quadsli di 4870x2 la vedo dura D
La miglior scheda (in rapporto al prezzo) a 1920 è (sarà) la 4870 da 1GB. Nè la 4870x2 nè la GTX 280 possono competere con il piccolo mostro se il prezzo ha una sua importanza. Se invece per te il prezzo è secondario, vai di una di queste due. Le 2 4870x2 sono la scelta sborone-mode-on che ha sempre senso se vuoi il massimo assoluto e basta: ma come convenienza e logicità dell'acquisto siamo vicini allo zero.

mircocatta
14-07-2008, 09:19
Avranno una press degli 8.6, non credo facciano test con driver incapaci di riconoscere la scheda...

leggiti quella di pc prospective ;) addirittura hanno usato gli 8.5 .... e danno comunque un margine di vantaggio sulla gtx280

Mercuri0
14-07-2008, 09:23
è vero però chi come me si aspettava un metodo diverso per la comunicazione delle due gpu ha prezo una mezza cantonata
A dire il vero qualcosa di nuovo c'è, anandtech fa un accenno ma scopriremo tutto il mese prossimo.

Non riesco ad accedere a techreport, ma su Anandtech la 4870x2 fa numeri impressionanti, supera un sli di GTX280 in GRID, ein Age of Conan va al doppio di una GTX280.

La cosa interessante è che Anand avrebbe una versione da 1GiB soltanto. Sarà stato un errore del recensore?

Su [H]entusiast invece non sanno più che livelli di AA settare per sfruttare la scheda... dopo aver scoperto che in AgeofConan fa l'8x gratis, stanno usando il 24x CFAA...

Anand riporta anche i consumi: quasi 90Watt in più di una GTX280, ma inferiori a uno sli di 9800GTX+. Una scheda per tenersi caldi in inverno, insomma :D... anche se le prestazioni in proporzione salgono di più dei consumi, a quanto sembra.

Milotto
14-07-2008, 09:24
CUT...
Resta la delusione assoluta, ma ormai lo si sapeva, per l'assenza di innovazioni tecnologiche di rilievo: si pagano sembre 2Gb di memoria per usarne 1, se manca il profilo di un gioco si hanno le prestazioni di una scheda che costa meno della metà etc.. etc..il multigpu attuale continua ad essere un vantaggio molto più grande per chi produce piuttosto che per chi compra.

Assolutamente d'accordo... ;)

Nè la 4870x2 nè la GTX 280 possono competere con il piccolo mostro se il prezzo ha una sua importanza. Se invece per te il prezzo è secondario, vai di una di queste due. Le 2 4870x2 sono la scelta sborone-mode-on che ha sempre senso se vuoi il massimo assoluto e basta: ma come convenienza e logicità dell'acquisto siamo vicini allo zero.


Ache HAL ha preferito non comperare una GTX280...: l'ha fatta comperare ad altri... :D

Mercuri0
14-07-2008, 09:31
Resta la delusione assoluta, ma ormai lo si sapeva, per l'assenza di innovazioni tecnologiche di rilievo
Bisogna ancora vedere, i recensori non ne hanno parlato perché ancora sotto NDA, non perché non ci sia qualcosa. Vedremo il prossimo mese.
(non che mi aspetti granché, come scrissi 3 mesi fa almeno qui da qualche parte)

Comunque lo sapete ormai che il mio punto di vista sulla storia delle "tecnologie" del multi-gpu è praticamente l'opposto della maggior parte della gente qui :)

Se fai una scheda che ha il miglior rapporto prestazioni/costo, la tecnologia che hai usato è quella giusta :D

_andrea_
14-07-2008, 09:35
A me invece piace il multigpu. Ati si è comportata bene anche con le 3870x2 dai catalyst 8.2 in poi non si è avuto nessun problema. I giochi sfruttano a pieno le due gpu. Mi è rimasto solo 1 amaro in bocca e vedo che si verifica anche con r700. Lo scaling su crysis è pessimo. Per me (da possessore della 3870x2) è meglio che sia un problema driver (magari per trovare una soluzione per portare r700 in una situazione di vantaggio ne guadagna qualcosa anche la mia visto che lo scaling da singola 3870 è pressochè nullo sui dettagli very high! :D )

E' successo anche per la mia (all'inizio sembrava andasse poco più di una 8800gtx adesso è ad un buon livello prestazionale, subito sotto le gx2): vedremo dei miglioramenti prestazionali grossi con i catalyst 8.7 e 8.8..bisogna solo portare pazienza. imho

Mercuri0
14-07-2008, 09:35
Ma la notate anche voi una cosa?

Nelle recensioni ci sono solo giochi che fanno framerate esagerati con le schede di fascia alta (che i recensori non sanno più che risoluzione usare).

Non so se la cosa è buona o cattiva: sarebbe bello che i giochi le sfruttassero.

E poi c'è Crysis. Tutte le schede sembrano inchiodate come se fossero CPU-bound, ma Crysis non è CPU-bound. :confused:

Mah, secondo me quando esce Warhead, Crysis possiamo buttarlo nel viccì anche come benchmark.

HackaB321
14-07-2008, 09:38
A dire il vero qualcosa di nuovo c'è, anandtech fa un accenno ma scopriremo tutto il mese prossimo.



Anche Hardocp dice:

The new Radeon HD 4870 X2 uses a newer bridge chip that supports PCIe 2.0 and AMD has also improved the bandwidth between the GPUs. The bandwidth between both GPUs has been bumped from 6GB/sec, as found on the Radeon HD 3870 X2, to 20GB/sec on the Radeon HD 4870 X2. AMD has also beefed up the RAM on the Radeon HD 4870 X2; our samples have 1GB of GDDR5 accessible to each GPU (so 2GB total on the board.) Now, this memory is still not completely shared, the framebuffer is still duplicated and the memory is not combined. However, due to some inherent evolutionary upgrades present in GDDR5 memory modules there is actually a method in place to share some data between modules using that 20GB/sec bus. All of these improvements are evolutionary, through the memory, and the bridge chip, and should help improve performance and consistency with the Radeon HD 4870 X2 since it is a dual-GPU solution.

Mercuri0
14-07-2008, 09:42
Anche Hardocp dice:

Imo la GDDR5 non c'entra niente (molti hanno capito un aspetto delle specifiche al contrario, mia sa) e il tipo di [H] sarà smentito dall 4850x2.

A proposito... chi era che diceva che AoC gira male sulle Radeon? :D

al135
14-07-2008, 09:46
bella scheda non cè che dire.
due note:

1) per chi parla di mancata innovazione tecnologica mi vien da sorridere pensando che quei poveri programmatori e tecnici debbano per forza studiare salti tecnologici sboccando sangue ogni 6 mesi :rolleyes:
direi che invece cosi è piuttosto normale.

2) spero di non vedere piu giochi solo nvidiosi stile crysis e compagnia bella siamo al limite dello scandalo e del boicottaggio.
vorrei qualche logo ati assieme a quelli nvidia per i prossimi giochi.

Mercuri0
14-07-2008, 09:52
Semi OT: una risposta del boss di [H]entusiast a chi chiedeva del perché non facessero qualche test sul microstuttering

well, we talk about real gameplay, not bs like some of the others.

"bs" cosa vuol dire esattamente? :confused:

Milotto
14-07-2008, 09:55
Sembra che queste news, tuttora celate, non si traducano in alcun vantaggio prestazionale rispetto al CF classico..ma suscitono curiosità da un punto di vista strettamente "evoluzionistico" :D
Cmq devo dire che la stessa 3870X2 rispetto al suo esordio oggi performa di gran lunga meglio..: i driver ne hanno fatta di strada...
Per quanto mi riguarda preferirei che il carico di lavoro tra le due GPU fosse smistato via hardware piuttosto che software: questa sarebbe una rivoluzione...

Foglia Morta
14-07-2008, 10:00
Semi OT: una risposta del boss di [H]entusiast a chi chiedeva del perché non facessero qualche test sul microstuttering



"bs" cosa vuol dire esattamente? :confused:

forse vuol dire bull shit , ( merda , disinformazione , ste così qui insomma )

mircocatta
14-07-2008, 10:03
http://www.hwupgrade.it/news/skvideo/ati-radeon-hd-4870-x2-in-preview_25968.html

Mercuri0
14-07-2008, 10:06
forse vuol dire bull shit , ( merda , disinformazione , ste così qui insomma )
Ah.
Avevo dubbi solo sulla "b" in realtà :D


Per quanto mi riguarda preferirei che il carico di lavoro tra le due GPU fosse smistato via hardware piuttosto che software: questa sarebbe una rivoluzione...
"aridaje"
Io preferirei che i programmatori curassero i loro giochi anche per il multi-GPU: questa sarebbe una rivoluzione,...

A me, comunque, anche la CPU pare già abbastanza hardware. :asd:

HackaB321
14-07-2008, 10:12
1) per chi parla di mancata innovazione tecnologica mi vien da sorridere pensando che quei poveri programmatori e tecnici debbano per forza studiare salti tecnologici sboccando sangue ogni 6 mesi :rolleyes:
direi che invece cosi è piuttosto normale.


6 mesi?
Il cf e lo sli esistono da 4 anni (anzi da 10 se ci mettiamo pure 3dfx) e da 4 anni sono gli stessi. Ci sono stati miglioramenti nella compatibilità dei titoli ma nessuna innovazione di rilievo perchè consentono di risparmiare sui costi di sviluppo e di vendere x2 qualcosa che non va x2 come prestazioni. Sai come sono contenti i produttori di memoria che ti possono rifilare 2Gb anche se ne usi 1? Chi glielo fa fare di trovare metodi alternativi per sfruttare 1Gb di memoria come tale? E se a me piace giocare al più sconosciuto fps indipendente della terra e non esiste un profilo dedicato nei driver chi meli rende i soldi della gpu che sta a lì a grattarsi mentre gioco? E i giochi che anche con il profilo adeguato non scalano quasi per niente?
Il tutto considerando che hai per 200euro una gpu, la 4870 singola, che oltre ad essere tecologicamente superlativa, consente di giocare a tutto a 1920 con filtri attivi.

Marko91
14-07-2008, 10:13
Premesso che si tratta di una scheda che non comprerei nemmeno sotto tortura, bisogna dire che:

-i consumi, che per una scheda video sono semplicemente allucinanti, vengono un po' ridimensionati dalle prestazioni assolute e relative: inferiori ad un cf di 4870, poco superiori ad uno sli di 9800GTX (pur andando ben di più). Uno sli di GTX280 ad es. ha performance/watt decisamente peggiori.

-grazie ai 1600 spu, permette, per chi lo gradisce, l'abilitazione di CFAA anche a risoluzioni Full HD: la qualità dell'immagine che ne viene fuori sembra essere senza paragoni ma è chiaramente questione di gusti.

Resta la delusione assoluta, ma ormai lo si sapeva, per l'assenza di innovazioni tecnologiche di rilievo: si pagano sembre 2Gb di memoria per usarne 1, se manca il profilo di un gioco si hanno le prestazioni di una scheda che costa meno della metà etc.. etc..il multigpu attuale continua ad essere un vantaggio molto più grande per chi produce piuttosto che per chi compra.



Un quadsli di 4870x2 la vedo dura D
La miglior scheda (in rapporto al prezzo) a 1920 è (sarà) la 4870 da 1GB. Nè la 4870x2 nè la GTX 280 possono competere con il piccolo mostro se il prezzo ha una sua importanza. Se invece per te il prezzo è secondario, vai di una di queste due. Le 2 4870x2 sono la scelta sborone-mode-on che ha sempre senso se vuoi il massimo assoluto e basta: ma come convenienza e logicità dell'acquisto siamo vicini allo zero.


Quoto te e quoto pure Mercuri0. Speriamo che sia l'ultima multi-gpu di questo tipo per ATI. La prossima generazione voglio vedere qualcosa di seriamente innovativo da Ati, non un "banale" CF su singola scheda.
Perciò non compratela! Se la comprate in troppi ATI continuerà così per sempre! :sofico:

Edit: logicamente parlo della fascia altissima, perchè come innovazioni su RV770 c'è ne sono anche troppe.. è un mostro tecnologico!

The_max_80
14-07-2008, 10:33
Si vedono test discordanti...

Driver Heaven

http://www.driverheaven.net/reviewimages/r700preview/graphs/wic1920.jpg

e Extremetech

http://common.ziffdavisinternet.com/util_get_image/21/0,1425,i=214572,00.jpg

Però Extremetech mi pare abbia gli unici test su Crysis in cui R700 si comporta bene . Le solite diversità che si incontrano di rece in rece


se vi fate un giro vi accorgete che molti test si contraddicono, è in tile, è troppo presto per delle rece "serie"

Milotto
14-07-2008, 10:35
"aridaje"
Io preferirei che i programmatori curassero i loro giochi anche per il multi-GPU: questa sarebbe una rivoluzione,...

A me, comunque, anche la CPU pare già abbastanza hardware. :asd:

Sulla prima affermazione mi vede concorde, sulla seconda invece...: la pensiamo diversamente...:)

The_max_80
14-07-2008, 10:43
ragazzi ma in sostanza la differenza gtx280 vs 4870 x2 di quanto è in media?

Marko91
14-07-2008, 10:45
ragazzi ma in sostanza la differenza gtx280 vs 4870 x2 di quanto è in media?

In Crysis è poca (20-30%) in altri giochi va dal 50 al 80%. Di media sarà il 40-50%

The_max_80
14-07-2008, 10:50
In Crysis è poca (20-30%) in altri giochi va dal 50 al 80%. Di media sarà il 40-50%

considerando che si tratta di un cross, molto dipendente dai driver, probabilmente questo margine ha solo da aumentare penso :eek:

Einhander
14-07-2008, 11:03
In Crysis è poca (20-30%) in altri giochi va dal 50 al 80%. Di media sarà il 40-50%

OT : marko91 anche io vado in canada x un annetto,pero' parto intorno a gennaio\febbraio prossimo...me ne vado a Vancouver :D :D

IT : :eek: :eek: Porca pupazza quanto va cosiderando che i driver sono ancora immaturi...

Tra l'altro mi trovo d'accordo con chi afferma che forse sarebbe il caso che le fantastiche software house decidessero di implementare il multigpu in modo piu' appropriato,dato che ormai sono cmq due generazioni che ati propone schede multigpu,e cmq anche sli e xfire ci sono da diversi anni...Va bene trasportare giochi da console,ma cavolo almeno un supporto migliore...

E cmq i giochi team based della serie meant to be played e get in game saranno pure necessari a livello marketing ma poi sono delle incredibili zappate sui piedi per noi utenti...

Mi chiedo anche per il GPGPU come vada sta schedozza alla fine dei conti asd..

P.s: se fossi microsoft punterei tutto sul cinema 2.0 di ati\amd per la prossima generazione di console,anche se e' un po' ironica come cosa ^^

Mercuri0
14-07-2008, 11:04
considerando che si tratta di un cross, molto dipendente dai driver, probabilmente questo margine ha solo da aumentare penso :eek:
In alcuni test la 4870x2 è pari a uno SLI di GTX280 (GRID su anandtech)

Comunque prima del 12 Agosto non se ne vedranno in giro, quindi vedremo meglio quando uscirà.

Mercuri0
14-07-2008, 11:07
considerando che si tratta di un cross, molto dipendente dai driver, probabilmente questo margine ha solo da aumentare penso :eek:
In alcuni test la 4870x2 è pari a uno SLI di GTX280 (GRID su anandtech)

Comunque prima del 12 Agosto non se ne vedranno in giro, quindi vedremo meglio quando uscirà.

'ste scede hanno senso solo a risoluzione esagerate comunque. I recensori non sanno più che livello di AA settare.

Urgono giochi che le impegnino, ma prima della next-gen delle console ne vedremo pochi.

Il lato positivo è che con una 4850 ti porti a casa tanta roba :D

Ottima cosa anche in ottica portatili... vediamo che ci riserva il futuro.

Athlon 64 3000+
14-07-2008, 13:40
Vorrei capire allora a che cavolo serve il collegamendo Crossifire X Sideport che è stato inserito nel nuovo controller di memoria di RV770. :confused:

Tidus.hw
14-07-2008, 13:44
Vorrei capire allora a che cavolo serve il collegamendo Crossifire X Sideport che è stato inserito nel nuovo controller di memoria di RV770. :confused:

credo che serva per permettere a una gpu di accedere alla ram dell'altra,
infatti se guardi su Gpuz vedi la ram totale e non quella per ogni singola gpu..

Però non so bene come funzioni quindi aspettiamo il commento di qualcun altro :D

magnusll
14-07-2008, 13:45
Vorrei capire allora a che cavolo serve il collegamendo Crossifire X Sideport che è stato inserito nel nuovo controller di memoria di RV770. :confused:

E' presumibile che sia un componente che, ove sfruttato, permetta una maggiore omogeneita' di risultati sul Crossfire.

Ovviamente per essere sfruttato immagino abbia bisogno di driver appositi...

HackaB321
14-07-2008, 13:45
Vorrei capire allora a che cavolo serve il collegamendo Crossifire X Sideport che è stato inserito nel nuovo controller di memoria di RV770. :confused:

Anandtech dice che per la prima volta in R700 le due Gpu sono in grado di comunicare fra loro invece che lavorare solo separatamente come visto finora .Il sideport dovrebbe servire a permettere questa comunicazione. in cosa consista e che vantaggi permetta questa "comunicazione" ancora non si sa. Di sicuro anche se una gpu potesse leggere il framebuffer dell'altra, i dati devono essere duplicati in ogni framebuffer come nel cf tradizionale

Cooperdale
14-07-2008, 13:54
Sta storia della memoria mi fa imbestialire. Dovevano essere 2x1Gb, ora sembra essere 2x0.5Gb. Io cerco assolutamente una scheda da 1Gb.

Comunque perché dite che il Crossfire è sempre il solito, se pare che il microstuttering sia sparito? (con due 7800 in sli era devastante)

Foglia Morta
14-07-2008, 14:01
Derek Wilson ( quello che ha fatto la recensione su Anand ) dice che la memoria non è condivisa , ogni gpu ha il suo fb e bon .

Però , sempre nella rece di Anand , se guardate la singola 4870 e la 4870X2 alla risoluzione più alta c'è sempre un raddoppio delle prestazioni ( tranne Crysis , ma non sorprende nessuno questo ) . Quindi qualche innovazione significativa c'è a giudicare dai risultati , se sia sulla memoria o altro importa meno.

Andrea deluxe
14-07-2008, 14:06
sono cieco io o di review con dettagli very high dx10 non ne ho viste?


mettono tutto su high e solo qualcosa in very high!

che deficenti.....

Nikolaj Wojdelko
14-07-2008, 14:08
Vorrei capire allora a che cavolo serve il collegamendo Crossifire X Sideport che è stato inserito nel nuovo controller di memoria di RV770. :confused:

Siamo ancora sotto NDA e poi se l'hanno messo non sono certo idioti, un motivo sicuramente c'è e sarà sfruttato a dovere ;)

Foglia Morta
14-07-2008, 14:14
sono cieco io o di review con dettagli very high dx10 non ne ho viste?


mettono tutto su high e solo qualcosa in very high!

che deficenti.....

Tech Report

http://techreport.com/r.x/r700-preview/crysis-1920-veryhigh.gif

HackaB321
14-07-2008, 14:20
sono cieco io o di review con dettagli very high dx10 non ne ho viste?


mettono tutto su high e solo qualcosa in very high!

che deficenti.....

http://www.techreport.com/articles.x/15105/5.

Comunque nemmeno 2 4870x2 riescono a far andare Crysis tutto in vh in full hd con filtri attivi.
4,8 teraflop e 3200 ALU non sono suffcienti per questo gioiello di programmazione.:D

Andrea deluxe
14-07-2008, 14:23
http://www.techreport.com/articles.x/15105/5.

Comunque nemmeno 2 4870x2 riescono a far andare Crysis tutto in vh in full hd con filtri attivi.
4,8 teraflop e 3200 ALU non sono suffcienti per questo gioiello di programmazione.:D

VERAMENTE ASSURDO!

Nikolaj Wojdelko
14-07-2008, 14:26
http://www.techreport.com/articles.x/15105/5.

Comunque nemmeno 2 4870x2 riescono a far andare Crysis tutto in vh in full hd con filtri attivi.
4,8 teraflop e 3200 ALU non sono suffcienti per questo gioiello di programmazione.:D

Inizio a pensare pure io che sia tale :ciapet: ..

Ad ogni modo lo scaling in crysis non funziona nè per le nvidia nè per le ati , interessante ...

Non è cpu limited
Non è gpu limited
Non è driver limited
E' ENGINE LIMITED :read: :doh:

atreides79
14-07-2008, 14:43
Bah non c'e' grossa uguaglianza fra le varie recensioni,aspettiamo quelle finali con driver ufficiali(spero si diano una mossa col supporto,non dovevano uscire oggi gli 8.7 ufficiali???)e anche l'ufficialita' delle versioni con i relativi prezzi.

Dobermann75
14-07-2008, 14:56
Credo che sia presto per verificare le prestazioni della 4870x2...
i driver veri non esistono...

Io volevo sostituire la 9800gx2 che non amo particolarmente (con la HD4870x2) ma che per giocare alla risoluzione nativa del 24" con una qualita' alta era d'obbligo...
vedendo i grafici dei risultati in crysis della 4870x2, credo proprio che i driver siano ancora tutti da fare:
http://img.hexus.net/v2/graphics_cards/ati/4870X2/Cry19.png
bisogna avere pazienza fino ad Agosto alla scadenza dell'NDA :muro: per farsi un'idea reale, per adesso sono solo supposizioni.

HackaB321
14-07-2008, 15:07
Inizio a pensare pure io che sia tale :ciapet: ..

Ad ogni modo lo scaling in crysis non funziona nè per le nvidia nè per le ati , interessante ...

Non è cpu limited
Non è gpu limited
Non è driver limited
E' ENGINE LIMITED :read: :doh:

si sembra che nel codice ci sia un autovelox che fa la foto alla gpu se supera i 30fps....:asd:

The_max_80
14-07-2008, 15:11
Credo che sia presto per verificare le prestazioni della 4870x2...
i driver veri non esistono...

Io volevo sostituire la 9800gx2 che non amo particolarmente (con la HD4870x2) ma che per giocare alla risoluzione nativa del 24" con una qualita' alta era d'obbligo...
vedendo i grafici dei risultati in crysis della 4870x2, credo proprio che i driver siano ancora tutti da fare:
http://img.hexus.net/v2/graphics_cards/ati/4870X2/Cry19.png
bisogna avere pazienza fino ad Agosto alla scadenza dell'NDA :muro: per farsi un'idea reale, per adesso sono solo supposizioni.

in altre rece in crysis è cmq davanti la 4870x2.

Mercuri0
14-07-2008, 15:28
E' ENGINE LIMITED :read: :doh:
Probabilmente dovremo sorbirci il tormentone Crysis fino all'uscita di Warhead.

Dopo i recensori dovranno abituarsi ad usare l'AA 24x su queste schede.

Dobermann75
14-07-2008, 15:28
in altre rece in crysis è cmq davanti la 4870x2.
mi daresti i link, (ovviamnete dove ci sia un test a 1920x1200) mi interessa approfondire (anche se come detto bisogna attendere che esca sul mercato per avere delle race piu reali)
ciao ;)

halduemilauno
14-07-2008, 15:44
http://plaza.fi/muropaketti/artikkelit/naytonohjaimet/ati-radeon-hd-4870-x2-r700
;)

HackaB321
14-07-2008, 15:52
http://plaza.fi/s/f/editor/images/grid_graph2.png

halduemilauno
14-07-2008, 16:20
http://www.legitreviews.com/article/745/1/
prestazioni da prima della classe con lo scotto del consumo enorme. ma agli appassionati ovviamente e giustamente interessa solo la prima.
;)

Alexandrus
14-07-2008, 16:21
http://plaza.fi/s/f/editor/images/grid_graph2.png

E' risaputo che Grid è fatto per le Nvidia... basta dare uno sguardo su schede a confronto su sto giochetto, su youtube... :D

DjLode
14-07-2008, 16:35
E' risaputo che Grid è fatto per le Nvidia... basta dare uno sguardo su schede a confronto su sto giochetto, su youtube... :D

A dire il vero credo che il buon HackaB321 volesse far vedere altro e cioè che la 4870 X2 non soffre di micro stuttering come la 3870.

HackaB321
14-07-2008, 16:41
http://www.legitreviews.com/article/745/1/
prestazioni da prima della classe con lo scotto del consumo enorme. ma agli appassionati ovviamente e giustamente interessa solo la prima.
;)

1280*1024?
:sob:

E' risaputo che Grid è fatto per le Nvidia... basta dare uno sguardo su schede a confronto su sto giochetto, su youtube... :D

Grid va meglio su schede ATi

A dire il vero credo che il buon HackaB321 volesse far vedere altro e cioè che la 4870 X2 non soffre di micro stuttering come la 3870.

;) così almeno sostiene uno dei più famosi overclocker del mondo.

Alexandrus
14-07-2008, 16:43
Grid va meglio su schede ATi

Sono rimasto allora al confronto 9800GTX, 9800gx2, 3870x2 :p

okorop
14-07-2008, 16:43
campioni del mondo:winner:
non vedo l'ora di vederla in azione

massimomarc
14-07-2008, 16:46
E' risaputo che Grid è fatto per le Nvidia... basta dare uno sguardo su schede a confronto su sto giochetto, su youtube... :D

occhio a non confondere i grafici, quello sta a indicare il fenomeno del famoso microstuttering delle soluzioni dualgpu, non prestazioni :)

cmq a mente fredda, e analizzando il fatto che si va cmq da un 10% a un 20% delle prestazioni di due 4870 in crossfire, la scheda sembra riuscita, anche perchè consuma qualcosina ina ina in meno, nonostante le stesse frequenze e il doppio di memoria on board rispetto a due 4870

http://images.anandtech.com/graphs/r700_071308223626/17191.png


contando inoltre che la scheda in media è il 50% più veloce di una gtx 280 , ci stanno anche i consumi del 30% superiori imho ;)

ora bisognerà vedere il prezzo. più che altro se amd riconoscerà di avere la soluzione enthusiast più potente in assoluto ( e quindi prezzare r700 come soluzione di tale livello, quindi 500\550 euro), oppure andare ancora a rompere le uova nel paniere a nvidia, prezzando a 400\450 euro , e rendendo la gtx280 di fatto incomprabile ;)

ai poster l'ardua sentenza.

massimomarc
14-07-2008, 16:50
Sono rimasto allora al confronto 9800GTX, 9800gx2, 3870x2 :p

credo di si a vedere questo bench

http://images.anandtech.com/graphs/r700_071308223626/17190.png


r700 va esattamente il doppio di un gtx280 :asd: ( ad essere precisi il 110 % in più )


anche questo sembra interessante

http://images.anandtech.com/graphs/r700_071308223626/17187.png

r700 è il 20% più veloce di uno SLI di gtx280.

Vash88
14-07-2008, 16:57
va esattamente come un CF, solo in casi inumani dove si usano più di 512 mb di ram fa la differenza, come era lecito aspettarsi. il prezzo sarà circa lo stesso di un CF o entro i 30-40 € in più.

massimomarc
14-07-2008, 17:05
va esattamente come un CF, solo in casi inumani dove si usano più di 512 mb di ram fa la differenza.

i "casi inumani" sono quegli scenari dove queste schede acquistano significato, chiamandosi appunto enthusiast. chi compra questa scheda gioca a 1920x1080 o più, con filtri aa e af al massimo. e in questi scenari il 10\20% rispetto a un crossfire fatto con gli stessi chip imho non è da disprezzare :), contando poi che il tutto con queste impostazioni è perfettamente giocabile, alla fine tutto si riduce al problema di avere uno schermo con tale risoluzione :) ( apparte crysis che oramai sembra appurato, è stato ottimizzato da una scimmia ammaestrata a pigiare pulsanti sulla tastiera)

okorop
14-07-2008, 17:08
i "casi inumani" sono quegli scenari dove queste schede acquistano significato, chiamandosi appunto enthusiast. chi compra questa scheda gioca a 1920x1080 o più, con filtri aa e af al massimo. e in questi scenari il 10\20% rispetto a un crossfire fatto con gli stessi chip imho non è da disprezzare :), contando poi che il tutto con queste impostazioni è perfettamente giocabile, alla fine tutto si riduce al problema di avere uno schermo con tale risoluzione :) ( apparte crysis che oramai sembra appurato, è stato ottimizzato da una scimmia ammaestrata a pigiare pulsanti sulla tastiera)

:asd:

Mercuri0
14-07-2008, 17:17
E' risaputo che Grid è fatto per le Nvidia...
:rotfl:

Errik89
14-07-2008, 17:21
questa è la scheda ideale per i 2560x1600 e 1920x1200 x chi vuole il top.
Praticamente in alcuni titoli DOPPIA la GTX280 a queste risoluzioni!!! :eek: :eek:

L'unica nota dolente, ancora una volta, sono i consumi in idle. :(
In load non è una nota dolente xkè si sa che chi vuole il top non guarda ai consumi. (Anche se IMHO sono cmq ALTISSIMI). :)

appleroof
14-07-2008, 17:23
cut

il multigpu attuale continua ad essere un vantaggio molto più grande per chi produce piuttosto che per chi compra.

cut

amen per il concetto.

quanto alle prestazioni in sè, aspetterei i 8.7 per trarre conclusioni definitive...

massimomarc
14-07-2008, 17:27
per i consumi il full load, poco da fare, quelli sono :)

ma per i consumi in idle, ecco cosa dice AMD ad anandtech. Sono le richieste per fare queste pre-recensioni .


"

AMD did have some stipulations for our R700 preview, they were as follows:

1. Previews can be posted any time after 12:01 am on Monday, July 14th.
2. Previews can include benchmarks of any combination of artificial tests or games up to a maximum of four.
3. As PowerPlay has not been enabled in the BIOS on your engineering sample, please stay away from Idle Power tests at this point.
4. In the interest of leaving something for the full NDA lift in August, we'd ask you to keep this high level and not go deep on the architecture at this point.

Today is Monday, July 14th, so we met the first requirement. AMD didn't give us much detail on the architecture, so check there as well. PowerPlay hasn't been enabled but it will in the final card, fair enough, we will only test load power. The second point was the tricky one though - AMD only wanted us to test four games, although it was up to us to choose which ones.

"



quindi per i consumi in idle, bisogna aspettare i driver poco da fare :) ( ricordo che sul sito amd non ci sono ancora nemmeno i driver ufficiali per 4850 e 4870, ergo dovevano essere impazienti di vendere le schede il prima possibile :asd: )

appleroof
14-07-2008, 17:28
per i consumi il full load, poco da fare, quelli sono :)

ma per i consumi in idle, ecco cosa dice AMD ad anandtech. Sono le richieste per fare queste pre-recensioni .


"

AMD did have some stipulations for our R700 preview, they were as follows:

1. Previews can be posted any time after 12:01 am on Monday, July 14th.
2. Previews can include benchmarks of any combination of artificial tests or games up to a maximum of four.
3. As PowerPlay has not been enabled in the BIOS on your engineering sample, please stay away from Idle Power tests at this point.
4. In the interest of leaving something for the full NDA lift in August, we'd ask you to keep this high level and not go deep on the architecture at this point.

Today is Monday, July 14th, so we met the first requirement. AMD didn't give us much detail on the architecture, so check there as well. PowerPlay hasn't been enabled but it will in the final card, fair enough, we will only test load power. The second point was the tricky one though - AMD only wanted us to test four games, although it was up to us to choose which ones.

"



quindi per i consumi in idle, bisogna aspettare i driver poco da fare :) ( ricordo che sul sito amd non ci sono ancora nemmeno i driver ufficiali per 4850 e 4870, ergo dovevano essere impazienti di vendere le schede prima di tutto :asd: )

più che driver lì parla di bios....

Errik89
14-07-2008, 17:30
più che driver lì parla di bios....
QUOTO. Il powerplay infatti è controllato da bios e non da driver... ;)

massimomarc
14-07-2008, 17:33
cavolo che precisini :asd:

Errik89
14-07-2008, 17:34
cavolo che precisini :asd:
e ti è andata bene che non è arrivato Bhairava... :asd: :asd:
(per chi lo conosce lo sa cosa intendo... :asd: )

appleroof
14-07-2008, 17:34
QUOTO. Il powerplay infatti è controllato da bios e non da driver... ;)

una domanda mi viene assolutamente spontanea però: si è detto che le 4850 e 4870 non hanno il powerplay ancora abilitato o cmq funzionante al 100%...li evidentemente sarà un problema di driver (a meno che si voglia imporre a tutti gli utenti un flashbios :D :D ), corretto?

cavolo che precisini :asd:

e vabbè, c'è una grossa differenza, non è mica un particolare :D

Errik89
14-07-2008, 17:36
una domanda mi viene assolutamente spontanea però: si è detto che le 4850 e 4870 non hanno il powerplay ancora abilitato o cmq funzionante al 100%...li evidentemente sarà un problema di driver (a meno che si voglia imporre a tutti gli utenti un flashbios :D :D ), corretto?
le tabelle powerplay sono nel bios non nei driver, che poi dai driver possono "forzare" frequenze e voltaggi è possibilissimo, anzi, si può fare benissimo.
Comunque per farti un esempio, MSI ha rilasciato 1 bios con frequenze in idle di 160/500 contro i 500/750 del bios reference ATI... i consumi così dovrebbero essere alla pari della 3870 in idle... ;)

Comunque per ora chi non vuole la VGA a 80°C in idle deve comunque fare un flashbios (a meno che non usi la, IMHO pessima, strategia del CCC) :D

halduemilauno
14-07-2008, 17:37
1280*1024?
:sob:



Grid va meglio su schede ATi



;) così almeno sostiene uno dei più famosi overclocker del mondo.

la prima. la prima cosa che ho detto ovvero le prestazioni.

Mercuri0
14-07-2008, 17:41
il multigpu attuale continua ad essere un vantaggio molto più grande per chi produce piuttosto che per chi compra.

Commentino anche da parte mia: certo! :D

Il multi-gpu non è fatto per essere un vantaggio per chi compra, ma per chi vende*.
Ieri, ora, domani, per sempre.

Il multi-core nelle CPU è nato per aggirare un problema tecnologico, mentre il multi-GPU è solo un discorso di "costi" e time-to-market.

Però un vantaggio noi utenti l'abbiamo avuto eccome: con la strategia di AMD, la fascia performance adesso vale molto molto di più! Con pochi soldi ti porti a casa robe come la 9800GTX, e le 48xx! Mentre con la strategia di nVidia c'era fascia "ricchi" e fascia "poveracci"... persino la 8800GT l'aveva tirata fuori solo come risposta alle 3xxx.

Per quel che mi riguarda spero che con il fatto che i giochi sono palesemente indietro rispetto alle GPU, possano uscire schedine capaci con consumi bassi. :D

postilla: Può darsi che il collegamento usato per la 4870x2 sia usato anche per due 4870 in crossfire. Anzi lo trovo molto probabile. E' solo una questione di "lunghezza dei fili", e non possiamo sapere quanto questa sia determinante, senza sapere cosa ci passa sopra.

*però è pure vero che può consentire prestazioni improponibili con una singola GPU a parità di tecnologia.

Andrea deluxe
14-07-2008, 17:44
questa è la scheda ideale per i 2560x1600 e 1920x1200 x chi vuole il top.
Praticamente in alcuni titoli DOPPIA la GTX280 a queste risoluzioni!!! :eek: :eek:

L'unica nota dolente, ancora una volta, sono i consumi in idle. :(
In load non è una nota dolente xkè si sa che chi vuole il top non guarda ai consumi. (Anche se IMHO sono cmq ALTISSIMI). :)

Ma dove?

appleroof
14-07-2008, 17:47
le tabelle powerplay sono nel bios non nei driver, che poi dai driver possono "forzare" frequenze e voltaggi è possibilissimo, anzi, si può fare benissimo.
Comunque per farti un esempio, MSI ha rilasciato 1 bios con frequenze in idle di 160/500 contro i 500/750 del bios reference ATI... i consumi così dovrebbero essere alla pari della 3870 in idle... ;)

Comunque per ora chi non vuole la VGA a 80°C in idle deve comunque fare un flashbios (a meno che non usi la, IMHO pessima, strategia del CCC) :D

grazie del chiarimento :)

però non è una cosa buona, obiettivamente, costringere ad un flashbios (e la garanzia?) per ottenere un qualcosa che è spacciato come feature della scheda, dai non esiste (e i nubbi? :rolleyes: )

io credo senz'altro (chiedevo semmai i possessori sapessero qualcosa di certo al riguardo) che nelle 48x0 la funzione deve essere abilitata via bios, ma gli 8.6 non implementino bene il tutto, altrimenti è una vera e propria presa per il :ciapet: c'è poco da fare....

cut
Il multi-core nelle CPU è nato per aggirare un problema tecnologico, mentre il multi-GPU è solo un discorso di "costi" e time-to-market.
cut

almeno per ora, prima o poi anche nelle gpu sarà una scelta obbligata imho...cmq per ora confermo la mia personale avversione verso queste soluzioni, Ati o Nvidia che siano

Mercuri0
14-07-2008, 17:47
le tabelle powerplay sono nel bios non nei driver, che poi dai driver possono "forzare" frequenze e voltaggi è possibilissimo, anzi, si può fare benissimo.
Non zo per le GPU, ma per le CPU funziona più o meno così.

Hanno i loro "default" ma possono essere comunque pilotati dal software.

Del resto se il pannello di controllo delle ATI può controllare i voltaggi, è prova che può farlo il driver.

HackaB321
14-07-2008, 17:54
la prima. la prima cosa che ho detto ovvero le prestazioni.

:wtf: intendevo dire che senso ha testare schede del genere a quella risoluzione

Commentino anche da parte mia: certo! :D

Il multi-gpu non è fatto per essere un vantaggio per chi compra, ma per chi vende.
Ieri, ora, domani, per sempre.

Il multi-core nelle CPU è nato per aggirare un problema tecnologico, mentre il multi-GPU è solo un discorso di "costi" e time-to-market.



sai qual è il limite di tutto questo? Mentre finora il limite alla economicità nella produzione di una gpu single si è avvertito solo nella fascia enthusiast, man mano che la complessità e le performance dei chip cresceranno, diventerà antieconomico anche sviluppare e produrre schede di fascia performance single gpu (già ATi c'è quasi con le 4850x2). E allora per fare una scheda enthusiast dovranno inventarsi qualcosa di nuovo a meno che non creino dei pcb grossi come tavoli da biliardo dove infilarci 4 o 8 gpu. Ed è a quel punto che dal multigpu si passerà al multicore anche nelle gpu (se mi rispondi che le gpu sono multicore da sempre giuro che ti uccido:D )

Mercuri0
14-07-2008, 17:54
almeno per ora, prima o poi anche nelle gpu sarà una scelta obbligata imho...cmq per ora confermo la mia personale avversione verso queste soluzioni, Ati o Nvidia che siano
Io non la vedo come scelta obbligata per niente, neanche per il futuro.

L'unico motivo per cui AMD (nvidia) potrebbe scegliere di fare schede con 4 GPU piccole, sarebbe per poter progettare un solo chip per tutta la linea di prodotti.

Ad oggi è improbabile. E poi se cominciano a usare 4/8 GPU bisogna davvero abbandonare l'AFR... tutti parlano di microstuttering ma un problema che può farsi sentire davvero in certe condizioni è l'input lag, cioé il fatto che la scheda renderizzerebbe 8 frame avanti di quel che vedo... anche 60FPS il gioco sarebbe avanti di 133ms... tu vedi il proiettile partire, ma in realtà la scheda grafica ha renderizzato già la tua morte :asd:

appleroof
14-07-2008, 18:01
Io non la vedo come scelta obbligata per niente, neanche per il futuro.

L'unico motivo per cui AMD (nvidia) potrebbe scegliere di fare schede con 4 GPU piccole, sarebbe per poter progettare un solo chip per tutta la linea di prodotti.

Ad oggi è improbabile. E poi se cominciano a usare 4/8 GPU bisogna davvero abbandonare l'AFR... tutti parlano di microstuttering ma un problema che può farsi sentire davvero in certe condizioni è l'input lag, cioé il fatto che la scheda renderizzerebbe 8 frame avanti di quel che vedo... anche 60FPS il gioco sarebbe avanti di 133ms... tu vedi il proiettile partire, ma in realtà la scheda grafica ha renderizzato già la tua morte :asd:

non fosse altro che ad un certo punto (mica tanto lontano, se ci pensi, già sui 32nm si stanno ingegnando con fotolitografie ad immersione & co.) la corsa al pp sempre più miniaturizzato si fermerà...( e poi a che pro avere, per ipotesi assurda, 1 chip a 20nm stratirato, quando con 2/4/8 di questi, a seconda della fascia, a frequenze rilassate hai lo stesso risultato? [cioè quello che ha avviato Ati, pare])

la cosa veramente importante (e qui sono completamente d'accordo con te) però è inventare qualcosa di nuovo dal punto di vista della connessione/sinergia delle varie gpu sull'unico pcb, e superare gli attuali limiti dello sli/cf imho...

Mercuri0
14-07-2008, 18:01
sai qual è il limite di tutto questo? Mentre finora il limite alla economicità nella produzione di una gpu single si è avvertito solo nella fascia enthusiast, man mano che la complessità e le performance dei chip cresceranno, diventerà antieconomico anche sviluppare e produrre schede di fascia performance single gpu (già ATi c'è quasi con le 4850x2). E allora per fare una scheda enthusiast dovranno inventarsi qualcosa di nuovo a meno che non creino dei pcb grossi come tavoli da biliardo dove infilarci 4 o 8 gpu. Ed è a quel punto che dal multigpu si passerà al multicore anche nelle gpu (se mi rispondi che le gpu sono multicore da sempre giuro che ti uccido:D )
Io no capire "multicore anche nelle GPU"
(cioé immagino due GPU complete sullo stesso die, ecco, io no capire quale sarebbe il vantaggio, visto che l'architettura di una GPU singola è già estremamente modulare)

Io scommettere che al massimo tra quattro anni (o anche solo alla prossima generazione di schede AMD) vi ricorderete di me.

Marko91
14-07-2008, 18:04
Io non la vedo come scelta obbligata per niente, neanche per il futuro.

L'unico motivo per cui AMD (nvidia) potrebbe scegliere di fare schede con 4 GPU piccole, sarebbe per poter progettare un solo chip per tutta la linea di prodotti.

Ad oggi è improbabile. E poi se cominciano a usare 4/8 GPU bisogna davvero abbandonare l'AFR... tutti parlano di microstuttering ma un problema che può farsi sentire davvero in certe condizioni è l'input lag, cioé il fatto che la scheda renderizzerebbe 8 frame avanti di quel che vedo... anche 60FPS il gioco sarebbe avanti di 133ms... tu vedi il proiettile partire, ma in realtà la scheda grafica ha renderizzato già la tua morte :asd:

Ahahha giusto. :D
In quel caso si dovrebbe trovare un modo di distruibire il lavoro via hardware tra i core grafici. Magari con un core master con integrato un super-Thread Dispatch Processor come ipotizzato da yoss. Tutti e 4 i core al lavoro sullo stesso frame. Ad ogni gen "basterebbe" progettare un core e adattare il Thread Dispatch Process alla evoluzione architetturale. Virtualmente se non c'è bisogno di innovare l'architettura aggiungendo il supporto a nuove tecnologie si potrebbe passare da 4 a 8 core (die-shrinkati) riducendo quindi all'osso i costi di progettazione e produttivi. Ogni 2-3 anni si riprogettano i core da "zero" e si riparte.

appleroof
14-07-2008, 18:06
Ahahha giusto. :D
In quel caso si dovrebbe trovare un modo di distruibire il lavoro via hardware tra i core grafici. Magari con un core master con integrato un super-Thread Dispatch Processor come ipotizzato da yoss. Tutti e 4 i core al lavoro sullo stesso frame. Ad ogni gen "basterebbe" progettare un core e adattare il Thread Dispatch Process alla evoluzione architetturale. Virtualmente se non c'è bisogno di innovare l'architettura aggiungendo il supporto a nuove tecnologie si potrebbe passare da 4 a 8 core (die-shrinkati) riducendo quindi all'osso i costi di progettazione e produttivi. Ogni 2-3 anni si riprogettano i core da "zero" e si riparte.

Magari: sono sicuro che avremmo giochi fotorealistici in dx9 :read: :D

Mercuri0
14-07-2008, 18:08
non fosse altro che ad un certo punto (mica tanto lontano, se ci pensi, già sui 32nm si stanno ingegnando con fotolitografie ad immersione & co.) la corsa al pp sempre più miniaturizzato si fermerà...

Se la miniaturizzazione si fermasse (improbabile, ma mettiamola come ipotesi) il multi-gpu non risolverebbe un bel niente: quanto dovrebbe essere grande la scheda per mettere 8 chip? E se i chip sono piccoli, allora posso farne uno grande al loro posto.

Il multi-gpu estemo sarebbe conveniente solo se gli yeld peggiorassero incontrollabilmente con l'area man mano si scala di processo: allora si 8, chippini ti convengono di più del chippone.

Nelle CPU i multi core sono nati per risolvere un problema di consumi: non si poteva salire di clock, e le operazioni che fa la CPU non sono parallele per cui puoi fare un core "più largo".

Le GPU eseguono istruzioni parallele: non puoi salire di clock? Ci infili altri SP e pareggi! E il multi gpu non risolve certo i problemi di consumi* ;)

(anche se forse può aiutare sulla dissipazione)

Marko91
14-07-2008, 18:10
Io no capire "multicore anche nelle GPU"
(cioé immagino due GPU complete sullo stesso die, ecco, io no capire quale sarebbe il vantaggio, visto che l'architettura di una GPU singola è già estremamente modulare)

Io scommettere che al massimo tra quattro anni (o anche solo alla prossima generazione di schede AMD) vi ricorderete di me.

I vantaggio è questo. Progetti un core grafico da 100 mm^2 e tot transistor e un core master da una 50ina di mm^2 se non meno.
Ne produci una caterba da un solo wafer con costi di produzione ridicoli e costi di progettazioni distribuiti su molti più chip.
Dopodichè:

1 core grafico nello stesso package -> mainstream
2 core grafici + 1 core "master" nello stesso package -> low performance
3 core grafici + 1 core "master" nello stesso package -> high performance
4 core grafici + 1 core "master" nello stesso package -> enthusiasth

appleroof
14-07-2008, 18:11
Se la miniaturizzazione si fermasse (improbabile, ma mettiamola come ipotesi) il multi-gpu non risolverebbe un bel niente: quanto dovrebbe essere grande la scheda per mettere 8 chip? E se i chip sono piccoli, allora posso farne uno grande.

Il multi-gpu estemo sarebbe conveniente solo se gli yeld peggiorassero incontrollabilmente con l'area man mano si scala di processo: allora si 8, chippini ti convengono di più del chippone.

Nelle CPU i multi core sono nati per risolvere un problema di consumi: non si poteva salire di clock e le operazioni che fa la CPU non sono parallele.

Le GPU hanno un'architettura parallela di loro: non puoi salire di clock? Ci infili altri SP e pareggi! E il multi gpu non risolve certo i problemi di consumi ;)

mmm...in effetti non ci avevo pensato...detta così tutto si riduce davvero ad un discorso di costi industriali :rolleyes:

questo non toglie che, se ci fosse una scheda multigpu con prestazioni costanti e che superi i limiti attuali che sappiamo, con un prezzo al consumatore pari a quello che avrebbe una vga "classica" non mi farebbe mica schifo :D


p.s.: sei sicuro riguardo alla miniaturizzazione...all'infinito? :sofico:

Marko91
14-07-2008, 18:17
mmm...in effetti non ci avevo pensato...detta così tutto si riduce davvero ad un discorso di costi industriali :rolleyes:


No no.. è proprio SOLO un discorso di costi. :D
Però si riflette anche sugli utenti. Potrebbe pagare meno perchè le schede costerebbero meno per essere prodotte rispetto al chippone.



p.s.: sei sicuro riguardo alla miniaturizzazione...all'infinito? :sofico:

Dovremmo stare tranquilli per altri 6-8 anni. Abbiamo ancora da sfruttare i 45nm/40nm/32nm/22nm/16nm.. forse anche 10nm/ 8nm/ 4nm/ 2nm
Molto prima di arrivare a quel limite passeremo al grafene / nanotubi di carbonio e probabilmente saremo già nell'informatica basata sui mem-ristor e non troppo lontani dai primi circuiti integrati quantistici. :D

Drakon99
14-07-2008, 18:18
Ciao a tutti, ho una domanda da fare:

Un alimentatore da 480W di buona marca (tipo quello che ho in firma per esempio :p) è sufficiente per alimentare una HD4870 x2?
Lo chiedo perchè in alcune recensioni non si supera il consumo di 480W mentre in altre (tipo Hwupgrade) si superano abbondantemente i 500W. So che magari il sistema di test sarà diverso ma alla fine non sono forse la GPU e la CPU a fare la differenza sui consumi?
Riporto un confronto

AnandTech: consumo in full 406.9 W (http://www.anandtech.com/video/showdoc.aspx?i=3354&p=8)
HwUpgrade: consumo in full 570 W (http://www.hwupgrade.it/articoli/skvideo/2007/ati-radeon-hd-4870-x2-r700-in-preview_3.html) (:eek:)

Mercuri0
14-07-2008, 18:19
I vantaggio è questo. Progetti un core grafico da 100 mm^2 e tot transistor e un core master da una 50ina di mm^2 se non meno.
Ne produci una caterba da un solo wafer con costi di produzione ridicoli e costi di progettazioni distribuiti su molti più chip.

Appunto, come dicevo l'unico vantaggio è che puoi fare un solo chip per tutta la tua line-up. Però a seconda dei volumi di produzione e costi che hai, ti può risultare più conveniente farne uno apposta che metterne due distinti.

Come dicevo è un discorso di costi e volumi di produzione, non una "necessità" dell'evoluzione tecnologica delle GPU.


questo non toglie che, se ci fosse una scheda multigpu con prestazioni costanti e che superi i limiti attuali che sappiamo, con un prezzo al consumatore pari a quello che avrebbe una vga "classica" non mi farebbe mica schifo :D

Su questo sei troppo fiscale: anche le singole GPU dipendono dai driver, e per l'AFR le cose si stanno mettendo sempre di più per il meglio.

p.s.: sei sicuro riguardo alla miniaturizzazione...all'infinito? :sofico:
Io no, ma lntel ci ha scommesso tutto. :D

Se la legge di Moore si ferma, bisognerà ricorrere ad architetture specifiche per le varie applicazioni (già si fa in alcuni contesti), altro che x86 dappertutto* e GPU (leggi: larrabee) che per essere competitive hanno bisogno di essere prodotte con una tecnologia un nodo avanti alla concorrenza.

Comunque se si ferma il silicio si userà qualcos'altro. Magari non si progredirà ai ritmi di oggi, ma certo non ci fermiamo. :)

Mercuri0
14-07-2008, 18:21
probabilmente saremo già nell'informatica basata sui mem-ristor e non troppo lontani dai primi circuiti integrati quantistici. :D
Allora, forse, riusciremo a far girare Crysis.

yossarian
14-07-2008, 18:21
Io no capire "multicore anche nelle GPU"
(cioé immagino due GPU complete sullo stesso die, ecco, io no capire quale sarebbe il vantaggio, visto che l'architettura di una GPU singola è già estremamente modulare)

Io scommettere che al massimo tra quattro anni (o anche solo alla prossima generazione di schede AMD) vi ricorderete di me.

c'è un vantaggio non indifferente nella progettazione. Se faccio gpu monolitiche sempre più grandi e con un numero di unità sempre maggiore ho bisogno, ogni volta, di riprogettare alcune parti importanti dell'architettura: ad esempio le dimensioni delle cache e la loro allocazione, le dimensioni del MC, le dimensioni dei bus di collegamento tra i vari blocchi di unità di calcolo. Tutte cose che incidono non poco sul costo finale di un prodotto. Utilizzando l'approccio multicore sposto la complessità di progetto a livello di bus di comunicazione tra le varie gpu; una volta risolto quel problema, metterne 2, 3, 4 o 8 cambia poco

gervi
14-07-2008, 18:22
Ma la 4870x2 uscirà con 1 gb o 2 GB???

appleroof
14-07-2008, 18:24
No no.. è proprio SOLO un discorso di costi. :D
Però si riflette anche sugli utenti. Potrebbe pagare meno perchè le schede costerebbero meno per essere prodotte rispetto al chippone.

no scusa non ti seguo: dal punto di vista loro costa poco e li aiuta (alla grande, direi, visto rv770) ad essere competitivi; dal punto di vista nostro (se per ipotesi avessimo un quadro astrologico unico per il consumatore come quello attuale, chè Ati non è una onlus come non lo è alcuna azienda :D ) pagherebbe di più perchè le schede costerebbero meno sul mercato

però eliminate lo sli/cf, per favore :D


Dovremmo stare tranquilli per altri 6-8 anni. Abbiamo ancora da sfruttare i 45nm/40nm/32nm/22nm/16nm.. forse anche 10nm/ 8nm/ 4nm/ 2nm
Molto prima di arrivare a quel limite passeremo al grafene / nanotubi di carbonio e probabilmente saremo già nell'informatica basata sui mem-ristor e non troppo lontani dai primi circuiti integrati quantistici. :D

eh la madonna dove siamo arrivati....:D (dove io arrivavo con la mia obiezione a Mercuri0, in fondo :D )

cmq non ho il vostro bagaglio tecnico su queste cose, mi limito a ribadire che me ne fregherei se una scheda avesse 1 chip a 0,5 nm (ma anche a 300nm) oppure 50 di quelli: l'importante sarebbe l'efficacia ed efficienza finale, imho.....

Allora, forse, riusciremo a far girare Crysis.

:asd: :asd:

Errik89
14-07-2008, 18:25
Ma la 4870x2 uscirà con 1 gb o 2 GB???
con 1gb e con 2gb

Mercuri0
14-07-2008, 18:27
Ciao a tutti, ho una domanda da fare:

Un alimentatore da 480W di buona marca (tipo quello che ho in firma per esempio :p) è sufficiente per alimentare una HD4870 x2?

Drak, imo non ti conviene in ogni caso arrivare tirato sull'alimentazione. Se proprio vuoi usare una HD4870x2, ti conviene cambiare anche ali.

L'HD4870x2 è un "lusso" e se vuoi fare lo sborone, allora fallo bene senza rischiare che ti scoppi tutto.

Altrimenti vai sulle 48xx o le nVidia (per le nVidia a seconda del prezzo - che ormai non si capisce niente) che sono comunque schede strapotenti come mai si era visto. E consumano di meno!

Errik89
14-07-2008, 18:28
grazie del chiarimento :)

però non è una cosa buona, obiettivamente, costringere ad un flashbios (e la garanzia?) per ottenere un qualcosa che è spacciato come feature della scheda, dai non esiste (e i nubbi? :rolleyes: )

io credo senz'altro (chiedevo semmai i possessori sapessero qualcosa di certo al riguardo) che nelle 48x0 la funzione deve essere abilitata via bios, ma gli 8.6 non implementino bene il tutto, altrimenti è una vera e propria presa per il :ciapet: c'è poco da fare....

Beh... di sicuro non si può "constringere" ad un flash bios tutti, quindi DI SICURO, le tabelle powerplay pur essendo integrate nel bios sono controllabili anche dai driver, certo che mentre nel 1° caso la vga funziona SEMPRE seguendo le tabelle powerplay corrette, nel 2° caso funziona seguendo le tabelle powerplay corrette SOLO con i driver installati. Sta proprio qua la differenza tra 1 e l'altra modalità...
Io preferisco la 1°! :)
Per quanto riguarda i nubbi, non sanno nemmeno cos'è una VGA a momenti, sai cosa gliene frega se la vga consuma 20W in più in idle o se sta a 80°C in idle? :D

appleroof
14-07-2008, 18:29
c'è un vantaggio non indifferente nella progettazione. Se faccio gpu monolitiche sempre più grandi e con un numero di unità sempre maggiore ho bisogno, ogni volta, di riprogettare alcune parti importanti dell'architettura: ad esempio le dimensioni delle cache e la loro allocazione, le dimensioni del MC, le dimensioni dei bus di collegamento tra i vari blocchi di unità di calcolo. Tutte cose che incidono non poco sul costo finale di un prodotto. Utilizzando l'approccio multicore sposto la complessità di progetto a livello di bus di comunicazione tra le varie gpu; una volta risolto quel problema, metterne 2, 3, 4 o 8 cambia poco

quindi multicore inteso come multigpu sullo stesso pcb (e giustamente direi, almeno allo stato attuale no?), così poniamo fine a numerose fantasie :D

yossarian
14-07-2008, 18:30
quindi multicore inteso come multigpu sullo stesso pcb (e giustamente direi, almeno allo stato attuale no?), così poniamo fine a numerose fantasie :D

al momento non si può andare oltre il multigpu sullo stesso pcb :D

appleroof
14-07-2008, 18:33
Beh... di sicuro non si può "constringere" ad un flash bios tutti, quindi DI SICURO, le tabelle powerplay pur essendo integrate nel bios sono controllabili anche dai driver, certo che mentre nel 1° caso la vga funziona SEMPRE seguendo le tabelle powerplay corrette, nel 2° caso funziona seguendo le tabelle powerplay corrette SOLO con i driver installati. Sta proprio qua la differenza tra 1 e l'altra modalità...
Io preferisco la 1°! :)

:mbe: perchè tu usi una vga senza driver? :D

vabbè ho capito, è solo una questione driver (speriamo solo che già gli 8.7 risolvano) :)

Per quanto riguarda i nubbi, non sanno nemmeno cos'è una VGA a momenti, sai cosa gliene frega se la vga consuma 20W in più in idle o se sta a 80°C in idle? :D

un approccio cinico ma giusto direi :D

il punto è che non puoi sbandierare una feature che poi non c'è, capisci? cmq era solo un'ipotesi la mia, ripeto credo proprio che con le prox release di driver il poerplay funzionerà come previsto

Mercuri0
14-07-2008, 18:38
c'è un vantaggio non indifferente nella progettazione. Se faccio gpu monolitiche sempre più grandi e con un numero di unità sempre maggiore ho bisogno, ogni volta, di riprogettare alcune parti importanti dell'architettura: ad esempio le dimensioni delle cache e la loro allocazione, le dimensioni del MC, le dimensioni dei bus di collegamento tra i vari blocchi di unità di calcolo. Tutte cose che incidono non poco sul costo finale di un prodotto. Utilizzando l'approccio multicore sposto la complessità di progetto a livello di bus di comunicazione tra le varie gpu; una volta risolto quel problema, metterne 2, 3, 4 o 8 cambia poco

Sposti il problema a dover progettare "solo" un meccanismo di comunicazione ultra-scalabile che funzioni con n-core, sperando che le inefficienze introdotte dal fatto di usare core completi non siano critiche.

Più alzi il livello di astrazione nella modularità più semplifichi la progettazione ma aumenti le inefficienze, e coi tempi che corrono non puoi tanto permetterti di buttar transistor.

Mi gioco una pizza che alla AMD preferiscono dimensionare la cache etc etc, almeno per gli anni prossimi a venire. E di sicuro qualsiasi strategia adotteranno per l'astrazione nel progetto, -che probabilmente sarà qualcosa di "ibrido"- non chiameranno le GPU "multi-core" con 2 o 3 core GPU.

Come farebbero per il larrabee? "multi-multi-core" come le matrioske? :D

appleroof
14-07-2008, 18:38
al momento non si può andare oltre il multigpu sullo stesso pcb :D

rispondi sempre in modo così "sibillino"? :D :D

Mercuri0
14-07-2008, 18:46
...tra l'altro AMD sta sbandierando ai quattro venti il fatto di avere già un'architettura "scalabile", e che possono tirar fuori il chip mainstream e notebook senza batter ciglio.

I problemi di progettazione che il "multi-GPU on die" contribuirebbe ad attenuare, probabilmente se li sono già posti, e li hanno già risolti da R600 o giù di li.

Immortal
14-07-2008, 18:48
scusate, ma solo io ho notato che qui:
http://www.pcper.com/article.php?type=expert&aid=590&pid=2

si vede come la scheda non utilizzi più solamente gddr5 della qimonda? se pure gli altri arrivano è una bella gioia per l'abbassamento dei prezzi :D

Mercuri0
14-07-2008, 18:51
scusate, ma solo io ho notato che qui:
http://www.pcper.com/article.php?type=expert&aid=590&pid=2

si vede come la scheda non utilizzi più solamente gddr5 della qimonda? se pure gli altri arrivano è una bella gioia per l'abbassamento dei prezzi :D
Già si era visto, ma il prezzo delle GDDR5 non influenzerà i prezzi delle schede.

'a sto giro il prezzo lo fa AMD.
(anche prima della 4870x2)

yossarian
14-07-2008, 18:53
Sposti il problema a dover progettare "solo" un meccanismo di comunicazione ultra-scalabile che funzioni con n-core, sperando che le inefficienze introdotte dal fatto di usare core completi non siano critiche.

Più alzi il livello di astrazione nella modularità più semplifichi la progettazione ma aumenti le inefficienze, e coi tempi che corrono non puoi tanto permetterti di buttar transistor.

Mi gioco una pizza che alla AMD preferiscono dimensionare la cache etc etc, almeno per gli anni prossimi a venire. E di sicuro qualsiasi strategia adotteranno per l'astrazione nel progetto, -che probabilmente sarà qualcosa di "ibrido"- non chiameranno le GPU "multi-core" con 2 o 3 core GPU.

Come farebbero per il larrabee? "multi-multi-core" come le matrioske? :D

esistono già modelli di bus che mettono in comunicazione più core o più gruppi di unità di calcolo; il problema è sceglere il più idoneo tenendo conto del costo e delle prestazioni che si vogliono ottenere. Il progetto lo fai tenendo conto del numero massimo di core che devi mettere in comunicazione e poi scali.
Larrabee potrebbe avere un'architettura modulare con 4 core che accedono ad una unica cache, esterna ai core e un gruppo di tmu dedicato ai 4 core che accede alla stessa cache; l'architettura diverrebbe modulare in quanto sarebbe possibile una connessione diretta tra due cache (e quindi 8 core e 2 gruppi di tmu), oppure una connessione di tipo ring o crossbar tra 4 o più cache.

rispondi sempre in modo così "sibillino"? :D :D

dipende dalle domande :D

appleroof
14-07-2008, 18:56
cut
dipende dalle domande :D

già......:asd:

Mercuri0
14-07-2008, 18:58
esistono già modelli di bus che mettono in comunicazione più core o più gruppi di unità di calcolo;
Come avevo appena scritto AMD va già fiera della scalabilità dell'architettura delle sue GPU, e non manca di farlo notare.

Per il resto vale sempre la scommessa della pizza. :D

Io dico niente altri livelli gerarchici per le GPU per i prossimi 3 anni.

(tra l'altro basta aspettare il prossimo giugno per sapere come va per i prossimi 3 anni...)

Drakon99
14-07-2008, 19:12
Drak, imo non ti conviene in ogni caso arrivare tirato sull'alimentazione. Se proprio vuoi usare una HD4870x2, ti conviene cambiare anche ali.

L'HD4870x2 è un "lusso" e se vuoi fare lo sborone, allora fallo bene senza rischiare che ti scoppi tutto.

Altrimenti vai sulle 48xx o le nVidia (per le nVidia a seconda del prezzo - che ormai non si capisce niente) che sono comunque schede strapotenti come mai si era visto. E consumano di meno!

Vabbè, scoppiare no. Al massimo si spegne il PC... :asd:
Era interessante comunque capire quanto consuma effettivamente questa scheda... Immagino: :sofico:

dewwwxx84
14-07-2008, 19:20
visto che siamo OT non ricordo se la scheda e' compatibile col PCIexpres x16 versione 1.0 :mc:

Mercuri0
14-07-2008, 19:20
Vabbè, scoppiare no. Al massimo si spegne il PC... :asd:
Non direi: se l'ampli 'un ce la fa proprio, il computer si spegne.

Se l'ampli ce la fa a filo, rischi che prima o poi scoppi :)
(far funzionare le cose al limite delle loro specifiche non è una gran furbata, se si vuole che durino)

Era interessante comunque capire quanto consuma effettivamente questa scheda... Immagino: :sofico:
Dicono qualcosa in meno di uno SLI di 9800GTX+, ma considerevolmente di più della GTX280. Comunque oggi è solo "preview" manca ancora un mese al lancio...

dewwwxx84
14-07-2008, 19:22
xo' belle prestazioni GRAZIE ATI

M4R1|<
14-07-2008, 20:01
A dire il vero qualcosa di nuovo c'è, anandtech fa un accenno ma scopriremo tutto il mese prossimo.

Non riesco ad accedere a techreport, ma su Anandtech la 4870x2 fa numeri impressionanti, supera un sli di GTX280 in GRID, ein Age of Conan va al doppio di una GTX280.

La cosa interessante è che Anand avrebbe una versione da 1GiB soltanto. Sarà stato un errore del recensore?

Su [H]entusiast invece non sanno più che livelli di AA settare per sfruttare la scheda... dopo aver scoperto che in AgeofConan fa l'8x gratis, stanno usando il 24x CFAA...

Anand riporta anche i consumi: quasi 90Watt in più di una GTX280, ma inferiori a uno sli di 9800GTX+. Una scheda per tenersi caldi in inverno, insomma :D... anche se le prestazioni in proporzione salgono di più dei consumi, a quanto sembra.

LOL AMD ha sfondato :Perfido:
cmq mi sembra l'ora di usare il 12 ed il 16x :asd: il 4 è già quasi gratis sulla 4850 ;)

http://www.techreport.com/articles.x/15105/5.

Comunque nemmeno 2 4870x2 riescono a far andare Crysis tutto in vh in full hd con filtri attivi.
4,8 teraflop e 3200 ALU non sono suffcienti per questo gioiello di programmazione.:D

si deve arrivare almeno a 10tflop per avere i 30 frame :O

Inizio a pensare pure io che sia tale :ciapet: ..

Ad ogni modo lo scaling in crysis non funziona nè per le nvidia nè per le ati , interessante ...

Non è cpu limited
Non è gpu limited
Non è driver limited
E' ENGINE LIMITED :read: :doh:

be guarda nn sfruttando il multi core cmq fa una fitica immane ad usare una tale potenza nella gpu oltre al fatto che l'engine l'avrà scritto una scimmia :asd:

Probabilmente dovremo sorbirci il tormentone Crysis fino all'uscita di Warhead.

Dopo i recensori dovranno abituarsi ad usare l'AA 24x su queste schede.

:asd: e che fanne che nvidia nn lo supporta :D

M4R1|<
14-07-2008, 20:05
credo di si a vedere questo bench

http://images.anandtech.com/graphs/r700_071308223626/17190.png


r700 va esattamente il doppio di un gtx280 :asd: ( ad essere precisi il 110 % in più )


anche questo sembra interessante

http://images.anandtech.com/graphs/r700_071308223626/17187.png

r700 è il 20% più veloce di uno SLI di gtx280.

dici che ad nvidia sono rossi ? :D :sofico:

va esattamente come un CF, solo in casi inumani dove si usano più di 512 mb di ram fa la differenza, come era lecito aspettarsi. il prezzo sarà circa lo stesso di un CF o entro i 30-40 € in più.

è vero ma se per qualche motivo le dx11 nn arriveranno in tempo la 4870x2 sarà la vga su singolo slot più longeva di tutte

Ahahha giusto. :D
In quel caso si dovrebbe trovare un modo di distruibire il lavoro via hardware tra i core grafici. Magari con un core master con integrato un super-Thread Dispatch Processor come ipotizzato da yoss. Tutti e 4 i core al lavoro sullo stesso frame. Ad ogni gen "basterebbe" progettare un core e adattare il Thread Dispatch Process alla evoluzione architetturale. Virtualmente se non c'è bisogno di innovare l'architettura aggiungendo il supporto a nuove tecnologie si potrebbe passare da 4 a 8 core (die-shrinkati) riducendo quindi all'osso i costi di progettazione e produttivi. Ogni 2-3 anni si riprogettano i core da "zero" e si riparte.

io penso sempre ai primi rumor di r700 che lo davano multi-core bho secondo me r800 sarà così poi cmq si vedrà :D

No no.. è proprio SOLO un discorso di costi. :D
Però si riflette anche sugli utenti. Potrebbe pagare meno perchè le schede costerebbero meno per essere prodotte rispetto al chippone.



Dovremmo stare tranquilli per altri 6-8 anni. Abbiamo ancora da sfruttare i 45nm/40nm/32nm/22nm/16nm.. forse anche 10nm/ 8nm/ 4nm/ 2nm
Molto prima di arrivare a quel limite passeremo al grafene / nanotubi di carbonio e probabilmente saremo già nell'informatica basata sui mem-ristor e non troppo lontani dai primi circuiti integrati quantistici. :D

è un miracolo se si arriverà ai 22nm i 16 sono impossibili...
e cmq quando saremo ai 22 (cioè 2012/13) ci saranno ormai le prime soluzioni quantistiche...

APC1
14-07-2008, 20:20
con 1gb e con 2gb


Salve

Mi accodo.

Ma 2 GB servono veramente?

Ciao

sim89
14-07-2008, 20:25
CUT

Su race driver a 2560x1600 va veramente fortissimo la 4870X2 :sbavvv: Che bestia di scheda ragazzi :D

sim89
14-07-2008, 20:28
e cmq quando saremo ai 22 (cioè 2012/13) ci saranno ormai le prime soluzioni quantistiche...

Tempo fa lessi che questi operano soltanto a bassissime temperature, confermate?

Sorry per il doppio post, è scappato :p

Errik89
14-07-2008, 20:35
:mbe: perchè tu usi una vga senza driver? :D

vabbè ho capito, è solo una questione driver (speriamo solo che già gli 8.7 risolvano) :)



un approccio cinico ma giusto direi :D

il punto è che non puoi sbandierare una feature che poi non c'è, capisci? cmq era solo un'ipotesi la mia, ripeto credo proprio che con le prox release di driver il poerplay funzionerà come previsto
beh questo è ovvio e sono completamente d'accordo con te ed è per questo che penso si risolva tutto via driver.

Comunque x driver non intendevo i driver, ma il CCC... :D

Errik89
14-07-2008, 20:37
Salve

Mi accodo.

Ma 2 GB servono veramente?

Ciao
2gb = 1gb reali ;)
con il CF le RAM non si sommano... :)

Errik89
14-07-2008, 20:39
credo di si a vedere questo bench

http://images.anandtech.com/graphs/r700_071308223626/17190.png


r700 va esattamente il doppio di un gtx280 :asd: ( ad essere precisi il 110 % in più )


anche questo sembra interessante

http://images.anandtech.com/graphs/r700_071308223626/17187.png

r700 è il 20% più veloce di uno SLI di gtx280.
:eek: :eek:
è allucinante come scala bene il CF quando funziona!!!
Cod4, grid e AoC sono i giochi dove il CF scala meglio in assoluto, IMHO. :)
Se scalasse così anche con crysis (anche se anche lo SLI scala male con crysis)......... :muro: :muro:

Drakon99
14-07-2008, 20:46
Non direi: se l'ampli 'un ce la fa proprio, il computer si spegne.

Se l'ampli ce la fa a filo, rischi che prima o poi scoppi :)
(far funzionare le cose al limite delle loro specifiche non è una gran furbata, se si vuole che durino)

Dicono qualcosa in meno di uno SLI di 9800GTX+, ma considerevolmente di più della GTX280. Comunque oggi è solo "preview" manca ancora un mese al lancio...

Mi sa che mi accontenterò di una semplice HD4870... :D
Io sono ambientalista! :rolleyes:

2gb = 1gb reali ;)
con il CF le RAM non si sommano... :)

Questa mi è nuova... :mbe:
Sicuro? Dove lo hai letto?

Errik89
14-07-2008, 20:51
Mi sa che mi accontenterò di una semplice HD4870... :D
Io sono ambientalista! :rolleyes:



Questa mi è nuova... :mbe:
Sicuro? Dove lo hai letto?
è straarcinoto che con CF e SLI le RAM NON SI SOMMANO!! Se si usa l'AFR ogni vga calcolando ogni frame ha accesso alle sue ram e non a quelle delle altre vga. C'erano voci che dicevano che la RAM sulla 4870x2 sarebbe stata condivisa, ma visti i quantitiativi direi proprio che erano stupidate... :read:

APC1
14-07-2008, 21:18
è straarcinoto che con CF e SLI le RAM NON SI SOMMANO!! Se si usa l'AFR ogni vga calcolando ogni frame ha accesso alle sue ram e non a quelle delle altre vga. C'erano voci che dicevano che la RAM sulla 4870x2 sarebbe stata condivisa, ma visti i quantitiativi direi proprio che erano stupidate... :read:

Vedere se ho capito.

Sulla 4870 x2 ci sono due gpu ognuna con 512 MB o un 1 GB che non sommano e perció alla prattica prendere quella da 1 GB significa avere una scheda da 512.

É cosí?

Mi sa che ho sparato una cazz...:banned: . Si prega spiegazione piú dettagliata e se é sufficente con un 1GB o sono conveienti 2GB (reali o no che siano)

CIao

appleroof
14-07-2008, 21:39
Vedere se ho capito.

Sulla 4870 x2 ci sono due gpu ognuna con 512 MB o un 1 GB che non sommano e perció alla prattica prendere quella da 1 GB significa avere una scheda da 512.

É cosí?
cut
CIao

hai capito bene

Rougequellovero
14-07-2008, 21:41
Vedere se ho capito.

Sulla 4870 x2 ci sono due gpu ognuna con 512 MB o un 1 GB che non sommano e perció alla prattica prendere quella da 1 GB significa avere una scheda da 512.

É cosí?

Mi sa che ho sparato una cazz...:banned: . Si prega spiegazione piú dettagliata e se é sufficente con un 1GB o sono conveienti 2GB (reali o no che siano)

CIao

è così come hai detto.
quella da 1GB cioè 2x512MB è da considersi come una da 512MB
quella da 2GB cioè 2x 1GB è da considersi come una da 1GB

Drakon99
14-07-2008, 22:50
è così come hai detto.
quella da 1GB cioè 2x512MB è da considersi come una da 512MB
quella da 2GB cioè 2x 1GB è da considersi come una da 1GB

Un momento:
che io sappia le tecnlogie multi GPU funzionano in uno dei due modi:

1) Una GPU renderizza i frame pari, l'altra i dispari.
2) Una GPU renderizza mezzo frame e l'altra la rimanente metà.

In ogni caso ogni GPU renderizza esattamente metà dei frame totali e la memoria ad essa dedita si preoccuperà solo di quelli.
Quindi non vedo spreco di memoria.
Ho sbagliato qualcosa?

Andrea deluxe
14-07-2008, 22:54
Un momento:
che io sappia le tecnlogie multi GPU funzionano in uno dei due modi:

1) Una GPU renderizza i frame pari, l'altra i dispari.
2) Una GPU renderizza mezzo frame e l'altra la rimanente metà.

In ogni caso ogni GPU renderizza esattamente metà dei frame totali e la memoria ad essa dedita si preoccuperà solo di quelli.
Quindi non vedo spreco di memoria.
Ho sbagliato qualcosa?

il problema e' che le texture del gioco vengono memorizzate in toto su entrambe le partizioni di memoria!

Drakon99
14-07-2008, 23:00
il problema e' che le texture del gioco vengono memorizzate in toto su entrambe le partizioni di memoria!

Ecco la fregatura. :asd:
Però mi sa di tremendo spreco questa cosa.
Cioè la memoria verrebbe gestita come una specie di Raid 1 (mirroring) ?

APC1
14-07-2008, 23:10
Ok allora ho capito:D

Pero per chiarire. Per una 4870x2 cosa convien? La versione da 1 GB o da 2 GB?

Ciao e grazie

Ravoldi
15-07-2008, 02:10
Mi piacerebbe vedere un test con 2 4870x2 (sempre che alla fine non sia possibile metterne per fino 4 :D ) e un 3way di 280 :sofico:

michelgaetano
15-07-2008, 05:10
Ok allora ho capito:D

Pero per chiarire. Per una 4870x2 cosa convien? La versione da 1 GB o da 2 GB?

Ciao e grazie

Beh a chi vuole alte risoluzioni e filtri, più memoria dovrebbe solamente giovare :D

Marko#88
15-07-2008, 06:40
Mi piacerebbe vedere un test con 2 4870x2 (sempre che alla fine non sia possibile metterne per fino 4 :D ) e un 3way di 280 :sofico:

nessuno dei due andrebbe chissà quanto nel senso che i driver non supportano per un cacchio quelle robe e nei giochi rispetto a singola X2 o a sli di 280 o vanno uguale o peggio in pratica...

Andrea deluxe
15-07-2008, 07:18
Ecco la fregatura. :asd:
Però mi sa di tremendo spreco questa cosa.
Cioè la memoria verrebbe gestita come una specie di Raid 1 (mirroring) ?

a grandi linee, si!

HackaB321
15-07-2008, 07:18
Nordich rumoreggia già di RV870:D : inizio 2009,40nm e 2000 shaders

AMD has one or two plans for next year, not that we would call them surprises, but they do have some shock value. AMD is first of all going to shrink things with the RV740 core. If you hadn't already figured it out, 40 means 40nm. This GPU is slated for Q1 2009. Somewhere around there, AMD will be giving the the final touches to its next "high-end" GPU RV870, using the same node. So far, the only thing we know about it is based on a lose rumor that says it will have 2000 shader processors. Considering the mere size of ATI's shaders, it's not unfeasible, but it's still too early too say anything really.

Funerale di RV670 nel 3° trimestre sostituito da RV730

AMD, or should we say ATI, is in a real nice place right now. The Radeon HD 4800 models have redeemed much what faith was lost with the Radeon HD 2000 and 3000 series. Even though they are not the fastest cards on the market, at their respective price points, NVIDIA is having some serious trouble to keep up. We're certain NVIDIA will do everything in its power to get back in the lead in the ~$200 segment, we're just not sure how it will do that. In the mean time, AMD is planning on launching its lower-end models based on the RV730 and RV710 cores.

This is due this quarter, I.e. Q3. When the Radeon HD 4600 and 4400 series hits the market, the older Radeon HD 3000 series will phase out as they have reached EOL (End Of Life). There is little reason for AMD to keep the older chips alive when they will be able to fill all segments with the new cores, which are also mighty cheap to produce.


http://www.nordichardware.com/news,7948.html

Andrea deluxe
15-07-2008, 07:30
WAF!

http://lucidlogix.com/index.html

HackaB321
15-07-2008, 07:34
WAF!

http://lucidlogix.com/index.html

siamo al mostro a tante teste (http://en.wikipedia.org/wiki/Lernaean_Hydra)

http://www.tomshw.it/news.php?newsid=14746

la parte più interessante è questa:

HYDRA combina un SoC (system on chip) con tecnologie software che permettono di bilanciare i carichi grafici, facendo sì che la curva delle prestazioni con più schede grafiche sia lineare.

altri dettagli

The HYDRA Engine sits between the chipset and multi-GPUs. It is built to meet the most demanding 3-D photorealism graphic tasks. The technology drives the GPUs, performing scalable rendering of a particular image or scene, and relies on unique adaptive decomposition and acceleration algorithms to overcome bottlenecks. This optimizes the usage of GPU resources, with minimal power consumption, helping the GPUs deliver increased performance.

Lucid is unique in finding a way to deploy high-level parallelism to both the graphic application and to the GPU. It can decompose a complex scene into well-balanced parallel tasks, and then recompose each task into the correct final image with no overhead. Overcoming this challenge is what makes the solution "generic" and compatible with chipsets, GPUs and applications from any vendor.

The HYDRA real-time distributed processing engine can:

Deliver cost-effective graphic performance with a near-linear to above-linear performance.
Operate in an adaptive, dynamic, real-time manner.
Eliminate bottlenecks that exist in typical 3D graphic applications.
Provide interoperability with all GPUs and chipsets.
Work with the latest versions of DirectX and OpenGL.

Foglia Morta
15-07-2008, 07:40
WAF!

http://lucidlogix.com/index.html

Sarebbe interessante ma c'è dietro:

http://lucidlogix.com/images/logo_intel.gif

Ma poi non dovrebbe essere una specie di dispatch processor ?

Immagino che anche ATi stia progettando qualcosa del genere per conto suo , dato che pare abbia definitivamente scelto il multi-gpu

HackaB321
15-07-2008, 08:00
Sarebbe interessante ma c'è dietro:

http://lucidlogix.com/images/logo_intel.gif

Ma poi non dovrebbe essere una specie di dispatch processor ?

Immagino che anche ATi stia progettando qualcosa del genere per conto suo , dato che pare abbia definitivamente scelto il multi-gpu

Anche se Intel è azionista di questa società niente vieta di venderla ad altri e tra ATi e Intel esiste da anni una forte partnership in molti ambiti (proseguita anche dopo l'acquisto di AMD dato che pecunia non olet)
La tecnologia, a quanto ci dicono, è compatibile con qualsiasi chipset o scheda video per questo non credo sia uguale ad un dispatch processor dato che i dispatch processor visti finora nelle gpu sono ovviamente dipendenti dall'architettura. La frase chiave è

It can decompose a complex scene into well-balanced parallel tasks, and then recompose each task into the correct final image with no overhead

che sembra una via di mezzo tra quello che fanno adesso i driver e quello che fa un dp. Bisognerà poi vedere cosa resta di concreto dopo aver tolto tutta la fuffa marketing da questi paroloni.

Foglia Morta
15-07-2008, 08:13
bho mi sembra strana sta tecnologia...

Il vantaggio nella compatibilità nella prima metà 2009 ? E allora perchè Intel dovrebbe pagare nVidia per questo : nForce 200 SLI (http://www.tomshw.it/news.php?newsid=14745)

Poi questo chip come interferisce nelle scelte dei produttori di gpu ? Se uno vuole usare l' AFR , uno l' SFR ? Resta ugualmente compatibile ?

Resto perplesso... imo il multi-gpu dev'essere qualcosa di particolarmente curato ed efficiente per dare il meglio di sè e solo il produttore di gpu potrebbe farlo come si deve

Marko91
15-07-2008, 08:55
Nordich rumoreggia già di RV870:D : inizio 2009,40nm e 2000 shaders


Plausibile. Sarebbero 25 SIMD attuali oppure 20 SIMD se cambiano la struttura dei SIMD è mettono 20SP/5TMU. Certo che se è vero ATi corre parecchio. Un chip simile dovrebbe garantire le prestazioni di una HD4870X2 sempre e probabilmente in molti giochi anche oltre. Praticamente una HD4950/HD5850 potrebbe avere prestazioni decisamente superiori ad una GTX280 anche con un clock di 500Mhz. (2 Tflops / 50 Gigatexel/s)
Nvidia dovrebbe rispondere con un GT300/GT400 con il doppio delle ALU se non oltre, sperando che ATi non migliori troppo /inventi qualcosa per eliminare il CF. Uno scaling perfetto sarebbe decisamente troppo per Nvidia. Contro 4000sp, 200TMU... avrebbero bisogno di GT500 con 1000sp. :D

gianni1879
15-07-2008, 09:13
Nordich rumoreggia già di RV870:D : inizio 2009,40nm e 2000 shaders



Funerale di RV670 nel 3° trimestre sostituito da RV730



http://www.nordichardware.com/news,7948.html

bene bene :D

Marck
15-07-2008, 10:21
leggendo di là mi sembra di aver capito che la scheda con le impostazioni che sta usando Bhairava, si riducono drasticamente i consumi, solo che appena parte qualsiasi programma che sfrutta la gpu parte il profilo max per cui la scheda và in full con conseguente aumento dei consumi..

The_max_80
15-07-2008, 11:35
ma è confermato che ci sara anche la versione 2*1gb?

Vash88
15-07-2008, 12:33
Nordich rumoreggia già di RV870:D : inizio 2009,40nm e 2000 shaders

http://www.nordichardware.com/news,7948.html

mi sa di cavolata perchè ati ha scelto di produrre chip piccoli e poco costosi, predurre un chip del genere sarebbe possibile ma controproducente pr le sue strategie, anche usando un processo produttivo migliore sarebbe ben più costoso di una 4850, 4870.

yossarian
15-07-2008, 12:34
mi sa di cavolata perchè ati ha scelto di produrre chip piccoli e poco costosi, predurre un chip del genere sarebbe possibile ma controproducente pr le sue strategie, anche usando un processo produttivo migliore sarebbe ben più costoso di una 4850, 4870.

a 40 nm verrebbe all'incirca delle stesse dimensioni di RV770

yossarian
15-07-2008, 12:43
Che pare siano anche le dimensioni minime per poter mantenere un bus a 256bit su GDDR5, giusto?

le dimensioni del bus dipendono dalla bandwidth necessaria e quindi anche dalla frequenza delle ram (e per il Q1 2009 ci saranno ram più veloci delle attuali)

Mercuri0
15-07-2008, 12:46
Nordich rumoreggia già di RV870:D : inizio 2009,40nm e 2000 shaders

Dalle informazioni che abbiamo a inizio 2009 al massimo fanno il tape-out di un chip a 40nm.

Io mi aspetto un "RV780" prima, forse a 45nm. Però non sono circolate ancora voci, boh.

WAF!
http://lucidlogix.com/index.html
L'avevo visto tempo fa, ma mi sembra qualcosa di utile solo per robe simili alle "render farm", o contesti professionali. Il link era venuto fuori da una discussione su Beyond3d sulla possibilità di dividere i carichi di lavoro sulle GPU. (alla fine l'opinione comune era che l'AFR è la soluzione più comoda per tutti, produttori e sviluppatori :P )

edit: mi sono sbagliato, mi riferivo ad un'altra soluzione ancora. Questa dovevo vederla ancora.
ma è confermato che ci sara anche la versione 2*1gb?
Secondo me le review le hanno fatte con la versione 2*1GiB... la 4870x2 non è mai risultata limitata dalla memoria nei test. Quindi o hanno usato la 2*1, o la 2*1 non serve.

Che pare siano anche le dimensioni minime per poter mantenere un bus a 256bit su GDDR5, giusto?
Già dovrebbe essere così, pad più pad meno. Questo taglia la testa completamente a schede grafiche con 4 GPU più piccole.

Foglia Morta
15-07-2008, 13:02
Già dovrebbe essere così, pad più pad meno. Questo taglia la testa completamente a schede grafiche con 4 GPU più piccole.

Potrebbe essere sufficiente un bus 128bit con GDDR5 molto più veloci , oppure bus 192bit.

Ma comunque a 40nm una gpu di 256mm2 consumerebbe molto, forse veramente troppo

Mercuri0
15-07-2008, 13:05
Sui 2000 shaders, NordicHardware linkava sè stesso, dicendo...

Chiphell claims that AMD is aiming for 2000 shader processors with the next high-end card, R870, which should also be a dual-GPU card, meaning 1000 shader processors in each of the 40nm (?) RV870 GPUs.

Cioè 1000x2 SP, solo 200 in più degli 800 attuali!

Questi rumor possono essere veri per "RV780" e non a 40nm, ma al massimo a 45nm, che ci sta esca a a fine 2008/ inizio 2009.

Mercuri0
15-07-2008, 13:10
Potrebbe essere sufficiente un bus 128bit con GDDR5 molto più veloci , oppure bus 192bit.

Ma comunque a 40nm una gpu di 256mm2 consumerebbe molto, forse veramente troppo
Beh mica l'area ha una relazione diretta coi consumi? Probabilmente sceglieranno strutture che occupano più spazio ma consumano di meno, a parità di prestazioni. Non possono davvero fare altro.

Dubito che scendano sul bus, i requisiti di bandwith aumenteranno comunque, e su beyond dicevano che portare in giro sul PCB segnali a 5ghz comincia a diventar difficile.

Foglia Morta
15-07-2008, 13:21
Beh mica l'area ha una relazione diretta coi consumi? Probabilmente sceglieranno strutture che occupano più spazio ma consumano di meno, a parità di prestazioni. Non possono davvero fare altro.

l'avevi già letto... http://www.beyond3d.com/content/news/636

con i 40nm i consumi calano di meno rispetto al calare della superificie. Quindi consumerebbe moltissimo un architettura così a 40nm e con un die di 256mm2 .

Edit:


Dubito che scendano sul bus, i requisiti di bandwith aumenteranno comunque, e su beyond dicevano che portare in giro sul PCB segnali a 5ghz comincia a diventar difficile.

Le GDDR5 a 5Gbit/s andrebbero poi a 1250Mhz :D