View Full Version : Radeon HD 3800: nuove informazioni da Diamond
Redazione di Hardware Upg
06-11-2007, 07:39
Link alla notizia: http://www.hwupgrade.it/news/skvideo/radeon-hd-3800-nuove-informazioni-da-diamond_23143.html
Emergono nuove caratteristiche tecniche delle prossime generazioni di GPU AMD di fascia medio alta, grazie ad alcune informazioni pubblicate da Diamond Multimedia
Click sul link per visualizzare la notizia.
ghiltanas
06-11-2007, 08:04
non so voi ma io comincio un po' a stufarmi di possibili caratteristiche...perche' nn cominciano a circolare qualche test vero sulle prestazioni???
quello che ho intuito dalle varie news è che questa scheda dovrebbe presentarsi come diretta concorrente della 8800 GT sia come fascia di prezzo che come prestazioni(perlomeno la HD3870). E' corretto?
E la data di uscita? Anche qui da quanto ho capito dovrebbero uscire attorno a metà novembre(tra il 15 ed il 19) insieme ai Phenom x4
killer978
06-11-2007, 08:09
Intanto ho visto in vendita le X2900GT, ma non c'è uno straccio di test di in giro!!! so solo (leggendo le caratteristiche dal sito) che hanno il bus a 256Bit/256mb di Ram e le freq 600/1600, prezzo 168€ chissa come vanno?
killer978
06-11-2007, 08:11
x bernh
Non credo possano competere con le 8800GT (parlo delle HD38xx), da quanto si puo capire andranno + o - come le HD2900 e queste ultime se comparate alle 8800GT fanno una magra figura!!!
Peggio di peggio e pensare che sono stato sempre un sostenitore di ATI, speriamo nelle prox VGA
x killer978
io non credo che andrano COME le HD2900. Sicuramente andranno meglio, il vero problema, la vera domanda è quanto meglio?
Se lasciamo perdere la GTS e la Ultra la GS e la GT non sono poi così lontane in fondo.
Sono "romantico" ma io ci credo ancora! Comunque credo sia arrivato il momento di cambiare la mia x1950GT, di conseguenza aspettero che escano le HD38xx e poi deciderò se prendere una HD3870 o una 8800GT.
ghiltanas
06-11-2007, 08:27
x killer978
di conseguenza aspettero che escano le HD38xx e poi deciderò se prendere una HD3870 o una 8800GT.
idem per me
Su un altro forum ho letto una cosa interessante a proposito di queste schede.
Preciso che si tratta di indiscrezioni e non di dati ufficialmente confermati da AMD, quindi come tali vanno prese.
Però sembra che, a prescidere da quanto andranno nel complesso, queste schede introducano una novità nel settore GPU per quanto riguarda l'aspetto del risparmio energetico. Sembra infatti che le HD38xx avranno modo di aumentare o diminuire in automatico le frequenze in base alle risorse richieste da una scena di un qualsiasi gioco. Quindi per esempio giocando a football manager la scheda abbasserà da sola le frequenze per consentire un risparmio energetico, giocando aCrysis, nelle scene più convulse, avverrà il contrario, la scheda aumenterà le frequenze al limite.
jventure
06-11-2007, 08:42
Sembra infatti che le HD38xx avranno modo di aumentare o diminuire in automatico le frequenze in base alle risorse richieste da una scena di un qualsiasi gioco. Quindi per esempio giocando a football manager la scheda abbasserà da sola le frequenze per consentire un risparmio energetico, giocando aCrysis, nelle scene più convulse, avverrà il contrario, la scheda aumenterà le frequenze al limite.
Sarebbe una vera gallata ... si ridurebbero i consumi in idle durante il normale utilizzo del pc (navigare,ufficio) ...
ma non basta questa funzionalità a far vendere una scheda ... :mc:
aspettiamo ... ( e speriamo :boh: )
halduemilauno
06-11-2007, 08:43
Intanto ho visto in vendita le X2900GT, ma non c'è uno straccio di test di in giro!!! so solo (leggendo le caratteristiche dal sito) che hanno il bus a 256Bit/256mb di Ram e le freq 600/1600, prezzo 168€ chissa come vanno?
e 240 shader al posto di 320. e mi pare un numero inferiore di tmu e rops il tutto rispetto alle altre 2900.
MiKeLezZ
06-11-2007, 09:07
perche' nn cominciano a circolare qualche test vero sulle prestazioni???Si darebbero la zappa sui piedi :asd:
A questo giro se la giocano con le DirectX nuove, la piattaforma unificata AMD "Spider", l'UVD che funziona del 8% meglio con VC-1 rispetto NVIDIA :D
Le HD38xx hanno una gestione dinamica del clock del gpu a seconda del carico di lavoro. Un po' come le cpu.
Sono convinto che in idle consumeranno meno delle 8800GT.
In full load il discorso è più complesso, perchè si dovrebbe monitorare un'intera sessione di test (Shadermark o Crysis demo benchmark, provare per credere ;-) e verificare qual'è la scheda che consuma meno. Il solo picco massimo non basta.
Sarebbe opportuno disabilitare testare anche con e senza risparmio energetico delle cpu, così si separa il "consumo gpu" dal consumo "uso quotidiano". Entrambi i parametri sono importanti.
Chiaramente, poi conta vedere il performance/W: il punto è tutto lì ;-)
ghiltanas
06-11-2007, 13:23
Le HD38xx hanno una gestione dinamica del clock del gpu a seconda del carico di lavoro. Un po' come le cpu.
Sono convinto che in idle consumeranno meno delle 8800GT.
In full load il discorso è più complesso, perchè si dovrebbe monitorare un'intera sessione di test (Shadermark o Crysis demo benchmark, provare per credere ;-) e verificare qual'è la scheda che consuma meno. Il solo picco massimo non basta.
Sarebbe opportuno disabilitare testare anche con e senza risparmio energetico delle cpu, così si separa il "consumo gpu" dal consumo "uso quotidiano". Entrambi i parametri sono importanti.
Chiaramente, poi conta vedere il performance/W: il punto è tutto lì ;-)
questa cosa a me per esempio nn piace, quando gioco voglio il massimo sempre, non che per risparmiare 2 w devo avere dei cali di frame improvvisi. Le gestioni automatiche si sa nn sono mai il massimo, indi per cui secondo me chi compra vga di un certo livello vuole prestazioni elevate in 3d. In 2d è tutto diverso il discorso e dovrebbero cercare di ridurre il + possibile i consumi
Re Lothar
06-11-2007, 13:28
questa cosa a me per esempio nn piace, quando gioco voglio il massimo sempre, non che per risparmiare 2 w devo avere dei cali di frame improvvisi. Le gestioni automatiche si sa nn sono mai il massimo, indi per cui secondo me chi compra vga di un certo livello vuole prestazioni elevate in 3d. In 2d è tutto diverso il discorso e dovrebbero cercare di ridurre il + possibile i consumi
Guarda che non è che ci sono delle diminuzioni di FPS altrimenti non avrebbe senso, la scheda video fa in modo che dove c'è meno sforzo non si utilizzi la potenza in piu... altrimenti se è come dici tu non avrebbe senso... eppoi si sa che prima o poi anche ATI-nvidia avrebbero seguito le strade dei produttori di processori, perche i consumi si stanno alzando davvero molto... ehh ricordo molto bene quel maledetto prescott :rolleyes:
Credo che in ogni caso sia possibile disattivare quel sistema, se è gestito via drivers...
Ad ogni modo non è il caso di trarre giudizi affrettati sulle prestazioni di queste schede, perché ancora non circolano bench ufficiali.
Onestamente spero che ATi sia riuscita ad eliminare (o cmq contenere) i difetti della serie HD2900 (ricordo che la HD2600 paradossalmente non soffriva degli stessi problemi, ed infatti si fa valere contro le 8600)... anche perché se così non fosse non avrebbe senso fare una serie HD3800, se non fosse per un prezzo di molto inferiore alle 2900 attuali...
Tra quelli più grandi c'era il "problema" dell'antialiasing fatto tramite shader (e quindi la scheda ha perso la circuiteria apposita, corregetemi se sbaglio, al contrario di hd2600 che invece ce l'ha), che sarà una regola per i giochi DX10 mentre non lo è per i giochi DX9 (dove infatti l'ati perde di più).
Quello che manca più di tutte cmq è una scheda top di gamma in grado di rivaleggiare contro una 8800 Ultra, anche se poi dal punto di vista pratico lo sappiamo tutti che i produttori guadagnano con le schede di fascia bassa e media, ma cmq una ipotetica 3900xt potrebbe fare da traino commerciale.
Quello che manca più di tutte cmq è una scheda top di gamma in grado di rivaleggiare contro una 8800 Ultra, anche se poi dal punto di vista pratico lo sappiamo tutti che i produttori guadagnano con le schede di fascia bassa e media, ma cmq una ipotetica 3900xt potrebbe fare da traino commerciale.
secondo me le schede top di gamma scompariranno. verranno sostituite da 2,3,4 schede in parallelo per chi ha bisogno di molta potenza.
Re Lothar
06-11-2007, 15:13
secondo me le schede top di gamma scompariranno. verranno sostituite da 2,3,4 schede in parallelo per chi ha bisogno di molta potenza.
ma non diciamo frescacce, come ti viene in mente una cosa del genere?!? :rolleyes:
Critterix
06-11-2007, 15:15
La questione della frequenza dinamica della gpu penso sia abbastanza discutibile, finora infatti non ho mai incontrato un gioco in cui la scheda andasse leggera, visto che, un po' come tutti, cerco sempre di aumentare la qualità grafica il più possibile .
Cambiare la frequenza dinamicamente porta in ogni caso ad un minimo di calo di prestazioni, un po' come si avverte un po' di calo con l'attivazione del cool'n quiet o simili.
( E poi in windows (in 2d) praticamente tutte le schede3D abbassano le frequenza di funzionamento di gpu e vram).
L'unica cosa che potrebbe essere sensata (imho) è abbassare le frequenze nei menu di gioco, visto che stranamente la mia scheda video diventa spesso più rumorosa quando pauso un gioco entrando nel menù, magari perché il fatto che dietro rimanga un'immagine fissa va ad interessare sempre la medesima parte di circuiteria (IMHO!!!!!:mc: )
ma non diciamo frescacce, come ti viene in mente una cosa del genere?!? :rolleyes:
secondo te a cosa serve una
http://www.hwupgrade.it/news/skmadri/3-schede-madri-amd-790fx-anche-per-gigabyte_23153.html
"Gigabyte GA-MA790FX-DQ6: chipset AMD 790FX"
con il posto per 4 schede video?
Re Lothar
06-11-2007, 15:25
secondo te a cosa serve una
"Gigabyte GA-MA790FX-DQ6: chipset AMD 790FX"
con il posto per 4 schede video?
E' ovvio che le offerte per attirare gli utenti le fanno tutte, ma in coscenza, vi pare una cosa seria (oltre che inutile) mettere in parallelo QUATTRO schede video invece che una sola ma piu potente?? Ma non mi fare ridere, già è tanto che se ne possono mettere 2 insieme, figurati 4, da adesso in poi useremo le schede madri solo per alloggiare tutte le nostre schede video... è proprio vero il detto: "chi piu ne ha piu ne mette" :O
E' ovvio che le offerte per attirare gli utenti le fanno tutte, ma in coscenza, vi pare una cosa seria (oltre che inutile) mettere in parallelo QUATTRO schede video invece che una sola ma piu potente?? Ma non mi fare ridere, già è tanto che se ne possono mettere 2 insieme, figurati 4, da adesso in poi useremo le schede madri solo per alloggiare tutte le nostre schede video... è proprio vero il detto: "chi piu ne ha piu ne mette" :O
tutto dipende dai costi costi delle schede video e dalle prestazioni complessive.
Re Lothar
06-11-2007, 15:35
tutto dipende dai costi costi delle schede video e dalle prestazioni complessive.
4 schede video in parallelo non saranno mai piu convenienti di una topgamma, sia come consumi che come prezzo
magilvia
06-11-2007, 15:59
Cambiare la frequenza dinamicamente porta in ogni caso ad un minimo di calo di prestazioni, un po' come si avverte un po' di calo con l'attivazione del cool'n quiet o simili.
Nessun calo di prestazioni con il cool'n quiet. La suggestione gioca brutti scherzi...
Ma anche perchè poi gli Enthusiast semmai ci buttano 4 top!!
Quindi credo anche io che non scompariranno! Al massimo potranno diventare un po meno top, sia come prezzo che come prestazioni, ma di più non penso!
La gestione dinamica del carico della cpu non comporta variazioni di prestazioni apprezzabili. Ti test ne sono stati fatti anni fa'.
In overclock viene disabilitato perchè la cpu, al limite, è instabile di suo.
Ma anche questo è evitabile scendendo leggermente di clock rispetto al massimo raggiungibile. Spesso basta poco per renderlo stabile ad un clock inferiore, ma con risparmio energetico abilitato.
Provare per credere.
Quindi non c'è motivo di pensare che una gpu con gestione dinamica del clock, possa avere "perdite di frame", fino a prova contraria.
Altra cosa: durante un gioco 3D la gpu non è sempre a massimo carico, tutt'altro
Ci sono momenti in cui è memory bandwidth limited, altri in cui è cpu limited . Quando è shaders limited, ovviamente, sono dolori in termini di consumo :-)
Lo dimostra il fatto che ci possono essere forti differenze sui picchi di consumo, usando applicativi/giochi diversi.
Tempo fa' è uscita una recensione della 8800GTX dove c'erano differenze fino a 40W in full load, a seconda del gioco utilizzato (ne testarono 6 o 7).
Potete fare una ricerca.
Critterix
06-11-2007, 17:09
Nessun calo di prestazioni con il cool'n quiet. La suggestione gioca brutti scherzi...
Calo effettivo di FPS misurato in-game non direi che sia proprio suggestione...
Tra l'altro il cool'n quiet effettua un controllo sul carico di lavoro un tot numero di volte al secondo (30 mi sembra), e non in maniera continua, motivo per cui non è possibile avere le stesse prestazioni, ma si perdono cicli di clock calcolabili come una parte della frazione di secondo (cioè una parte di 33ms, statisticamente direi la metà, quindi 16ms, ma bisognerebbe fare una media pesata sulle differenze di frequenza) moltiplicata la differenza di frequenza rispetto a quella massima, e questo ad ogni transizione (non sono certo di tutto, ma del calo di FPS si!).
Critterix
06-11-2007, 17:22
Altra cosa: durante un gioco 3D la gpu non è sempre a massimo carico, tutt'altro
Ci sono momenti in cui è memory bandwidth limited, altri in cui è cpu limited . Quando è shaders limited, ovviamente, sono dolori in termini di consumo :-)
Lo dimostra il fatto che ci possono essere forti differenze sui picchi di consumo, usando applicativi/giochi diversi.
Tempo fa' è uscita una recensione della 8800GTX dove c'erano differenze fino a 40W in full load, a seconda del gioco utilizzato (ne testarono 6 o 7).
Potete fare una ricerca.
Scusa ma proprio il fatto che possa essere shaders limited è una prova che è raro che si possa abbassare la frequenza di lavoro. Al limite si potrebbe cambiare dinamicamente la frequenza di shaders in maniera indipendente da memorie e gpu, e viceversa. Anche la memory bandwidth dipende anche dalla frequenza di lavoro.
Quindi, a parte il fatto in cui ci sia un freno dovuto alla CPU del sistema, abbassare la frequenza può avere senso solo se si può agire in maniera indipendente solo su alcune frequenze, non tutte insieme. (sempre imho)
BlueKnight
06-11-2007, 17:34
E' ovvio che le offerte per attirare gli utenti le fanno tutte, ma in coscenza, vi pare una cosa seria (oltre che inutile) mettere in parallelo QUATTRO schede video invece che una sola ma piu potente?? Ma non mi fare ridere, già è tanto che se ne possono mettere 2 insieme, figurati 4, da adesso in poi useremo le schede madri solo per alloggiare tutte le nostre schede video... è proprio vero il detto: "chi piu ne ha piu ne mette" :O
Gli slot in più dovrebbero servire per montare schede che andrebbero a calcolare la fisica in game.
BlueKnight
06-11-2007, 17:43
Altra cosa, come già detto da alcuni utenti in post precedenti, magari questo sistema rende il numero di frames più stabile e migliora la situazione della fluidità.
C'è gente che crede ancora al fatto che avere più frames rende il gioco più fluido, quando l'occhio umano in realtà può vedere massimo 25/30 frames per secondo. Quando dite che un gioco è meno "fluido" è perchè vi è un rempentino cambiamento di FPS, da 80 a 40 per esempio, o da 120 a 55...questo influisce sulla fluidità. Sarebbe meglio avere un sistema rivoluzionario, forse questo, che insieme al Vertical Sync mi possa garantire sempre 60 frame in un gioco, come succede nelle consolle ( o perlomeno succedeva in quelle di vecchia generazione).
Critterix
06-11-2007, 18:18
C'è gente che crede ancora al fatto che avere più frames rende il gioco più fluido, quando l'occhio umano in realtà può vedere massimo 25/30 frames per secondo.
(Scusate se sto facendo il rompiballe ma sono questioni che mi interessano ed espongo il mio punto di vista non per imporlo ma per capire se può essere sensato.)
I FPS sono i frame al secondo, se ce ne sono 45 allora in un secondo ne sono stati visualizzati 45 ma non è affatto detto che siano della stessa durata, ma magari 1 ha occupato 1/2 secondo e gli altri 44 si sono spartiti l'altro 1/2, magari perché in quel momento c'era un caricamento di nuove texture (per questo gli fps non vogliono dire tutto), senza caricamento questa scheda ne avrebbe fatti diciamo 88!! Allora se ci fosse stato il vSync che limita tutto a 60fps sincronizzati con il refresh dello schermo, in realtà il gioco avrebbe visualizzato al massimo 30 dei frame calcolati della seconda parte del secondo più quello calcolato nella prima metà, quindi 31 fps contro 44...
In realtà penso che il vsync sia ancora più bastardo e che droppi ancora più frame (ma io lo amo cmq).
Se invece che limitare il gioco a 60 si pensasse di limitarlo a 25 non si potrebbe assolutamente pensare di aspettarsi la fluidità di un dvd PAL, poiché non è detto che la scheda video riesca sempre a calcolare un frame in 1/25 di secondo, in quel caso il frame che visualizzi durante il calcolo andrebbe ad occupare il posto del frame successivo, con il risultato di un fps effettivo più basso. (tutto imho)
zanardi84
06-11-2007, 18:54
Questa vga sarà una scheda laboratorio, un po' come la HD2900XT.
La vedo così: la 2900 ha introdotto i 512bit al bus memoria con scarsi risultati-
Questa introdurrà le DX10.1 che in teoria dovrebbero essere la base dei nuovi giochi (sono uscite molto presto rispetto alla 10.0, quindi è ipotizzabile un discorso simile a quanto sviluppato sulle 8.1)
A queste due aggiungeteci svariate ottimizzazioni dell'architettura, miglioramenti in ambito filtri, diminuzione ragguardevole di consumi e produzione di calore e qualche sistemazione doverosa del comparto multimedia. Questo per non dire che l'attuale architettura potrebbe venir stravolta nel caso non funzionasse ancora.
A quel punto otterrete una nuova vga con un po' di esperienza accumulata dagli errori fatti.
Intanto nVidia mi pare stia iniziando a manovrare commercialmente riciclando versioni e cambiando sigle (a quando le 8800MX??? :asd: )
Se AMD non sbaglia secondo me potrebbe ancora verificarsi un discorso che si è già visto nel passato.
Radeon 8500 e Geforce 4. La radeon arranca ma costa meno della concorrenza e ha i driver ballerini. nVidia, forte della sua posizione di primato gigioneggia e ricilca roba vecchia. ATi lavora sodo e spara fuori r300 che ridicolizza le Geforce 4 al tempo le migliori.
Re Lothar
06-11-2007, 19:34
Gli slot in più dovrebbero servire per montare schede che andrebbero a calcolare la fisica in game.
3 schede per la fisica??? mi sembra un esagerazione...
BlueKnight
06-11-2007, 22:19
No :D
Con 2 o 3 ci fai il CrossFire, con 1 calcoli la fisica. Lo SLI e il Cross Fire con 3 schede sono stati presentati da un pò di tempo! :D
magilvia
07-11-2007, 08:00
Calo effettivo di FPS misurato in-game non direi che sia proprio suggestione...
Tra l'altro il cool'n quiet effettua un controllo sul carico di lavoro un tot numero di volte al secondo (30 mi sembra), e non in maniera continua, motivo per cui non è possibile avere le stesse prestazioni, ma si perdono cicli di clock calcolabili come una parte della frazione di secondo (cioè una parte di 33ms, statisticamente direi la metà, quindi 16ms, ma bisognerebbe fare una media pesata sulle differenze di frequenza) moltiplicata la differenza di frequenza rispetto a quella massima, e questo ad ogni transizione (non sono certo di tutto, ma del calo di FPS si!).
Ma che cool & quiet hai tu? Io ad esempio al 3dmark ottengo lo stesso identico punteggio, misurato diverse volte.
jventure
07-11-2007, 08:35
la riduzione delle frequenze di funzionamento delle schede video non ha come obiettivo le fasi di gioco che, pur prolungate, non sono paragonabili in termini di tempo al funzionamento in idle della scheda.
A mio avviso è auspicabile che questa riduzione delle frequenze, attivabile e disattivabile tramite driver, venga disabilitata ingame e abilitata altrimenti ...
mi ritrovo così che mentre lavoro la mia scheda va la metà o meno, la ventolina riduce la velocità ottenendo:
risparmio
meno calore
meno rumore
così mentre lavoro ho anche un ambiente silenzioso :)
ovviamente tutto IMHO
Mercuri0
07-11-2007, 09:55
la riduzione delle frequenze di funzionamento delle schede video non ha come obiettivo le fasi di gioco che, pur prolungate, non sono paragonabili in termini di tempo al funzionamento in idle della scheda.
C'è da dire che per un (bel) gioco come the wicther, coi suoi enormi tempi di caricamento, una scheda downcloccandosi avrebbe tutto il tempo di raffreddarsi (e prendersi anche un caffè)
la discussione mi fa sorgere una domanda:
avendo io una - OTTIMA - 7900GTO 512mb che sul mercato adesso avrebbe poco senso rivendere, volendo passare ad una 8800GT c'è la possibilità di utilizzare la 'vecchia' scheda in questione per aggiungere potenza computazionale (es. calcoli fisica, sgravi di qualche tipo sulla cpu, ecc)? C'è un supporto ufficiale NVIDIA per un discorso del genere?
Critterix
07-11-2007, 12:24
Ma che cool & quiet hai tu? Io ad esempio al 3dmark ottengo lo stesso identico punteggio, misurato diverse volte.
Mi sembra ASSOLUTAMENTE OVVIO che con 3dmark si ottenga lo stesso risulatato, visto che 3d mark fa lavorare tutto sempre al massimo! Infatti come ho cercato di spiegare la perdita di cicli di clock si ha nei momenti di transizione da frequenza più basse a più alte, cosa che avviene nell'uso normale e molto meno con un programma che testa tutto al 100% dello stress, limitando di molto le transizioni!!!!!! :O
Critterix
07-11-2007, 12:27
E poi c'è anche un'altra questione da considerare.. la differenza di FPS dipende anche da quanto si è cpu limited o gpu limited, e da quanto costante è la quantità di calcolo richiesta.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.