View Full Version : [THREAD UFFICIALE] ATI Radeon X1800XT/XL
No, ognuno può dirsi quello che gli pare per autoconvicersi che la scheda che si compra sia la migliore.
Classico errore in cui incorre una persona che prende una scheda video top di gamma, la paura che dopo qualche tempo esca qualcosa di meglio.
La 7800GTX rimane una scheda mostruosa (ci pensavo leggendo l'articolo ci sono numeri esagerati anche a risoluzioni sovraumano con filtri al massimo, più di quanti oggi ne servano per giocare), non necessariamente deve essere la migliore per giustificarne l'acquisto.
Logico, se (come ho letto da qualche parte) si tira fuori la storia che a 1024x768 è più veloce, mi cascano le braccia :) Queste schede si usano a 1280x1024 con AA e anisotropico al massimo possibile.
geminibruni
12-10-2005, 12:09
ognuno i dati li legge come gli pare, per carità.
Solo che alcune cose mi lasciano interdetto.
Leggo spesso "si, però le prestazioni sono allineate e c'è un vantaggio di r520 con tanti filtri e risoluzioni elevate.."
Minchia, hai detto niente! E poi, fosse solo un piccolo vantaggio... Che mi compro a fare una scheda da 500-600 euro? Per giocarci a 1024*768 senza filtri?
Altra cosa che mi sfugge... come si fa a non considerare un fatto decisivo? Cioè che questo chip gestisce meglio l'HDR con prestazioni migliori? E con AAA non crolla miseramente?
Che faccio, mi compro una scheda video per farmi andare un gioco a 100 e poi nuove features come l'HDR lo gestisco peggio della controparte? Proprio adesso che cominciano a uscire titoli HDR? Però posso dire che TCOR lo gioco a 15 fps in più?
Eppure pare che la discriminante per prendere la scheda sia il tempo intercorso e la velocità sui giochi opengl...
Ma guarda che IO ho detto che questo margine (anche abbastanza modesto) c'è, e ci mancherebbe perchè altrimenti sarebbe stato davvero un fiasco COLOSSALE.
Però va segnalato come questo "margine" prende corpo soltanto con un coktail di risoluzione+filtri attivati che per il 99% delle persone non sono possibile perchè risoluzioni come 1920x1440 :mbe: e processori come l'FX57 sono ad appannaggio soltanto dei miliardari. Certo questi test servono per "vedere" il reale potenziale della scheda, ma è un potenziale che od oggi è soltanto virtuale per i più :O :fagiano:
...belin che vga... :eek:
...complimenti per la recensione, ottimo lavoro. :)
...ho modificato la prima pagina del thread:
R520, recensione completa HwUpgrade:
-ATI Radeon X1800: quando 16 pipeline sono meglio di 24 (di Raffaele Fanizzi) (http://www.hwupgrade.it/articoli/skvideo/1361/index.html)
...ciao!
Ma guarda che IO ho detto che questo margine (anche abbastanza modesto) c'è, e ci mancherebbe perchè altrimenti sarebbe stato davvero un fiasco COLOSSALE.
Però va segnalato come questo "margine" prende corpo soltanto con un coktail di risoluzione+filtri attivati che per il 99% delle persone non sono possibile perchè risoluzioni come 1920x1440 :mbe: e processori come l'FX57 sono ad appannaggio soltanto dei miliardari. Certo questi test servono per "vedere" il reale potenziale della scheda, ma è un potenziale che od oggi è soltanto virtuale per i più :O :fagiano:
beh, un fx-57 é un processore che é appannagio di chi vuol mettere queste schede.
Il grafico sulla scalabilità te lo dice: inutile comprare tali schede se poi affianchi un p4 2000 o simili.
Se spendi 500 euro o più per una top di gamma come queste, devi esser pronto a spendere quasi altrettanto per una cpu da mettergli accanto.
Altrimenti, si, che l' unico modo per sfruttarle é mettere i filtri e le risoluzioni al massimo (perché tanto sei cpu limited, che te ne fai a lasciarli bassi?)
andreamarra
12-10-2005, 12:17
Ma guarda che IO ho detto che questo margine (anche abbastanza modesto) c'è, e ci mancherebbe perchè altrimenti sarebbe stato davvero un fiasco COLOSSALE.
Però va segnalato come questo "margine" prende corpo soltanto con un coktail di risoluzione+filtri attivati che per il 99% delle persone non sono possibile perchè risoluzioni come 1920x1440 :mbe: e processori come l'FX57 sono ad appannaggio soltanto dei miliardari. Certo questi test servono per "vedere" il reale potenziale della scheda, ma è un potenziale che od oggi è soltanto virtuale per i più :O :fagiano:
si, perfettamente daccordo :)
non sul "modesto margine", perchè la g70 già a prestazioni inumane, già fare di più... e occhio perchè il divario potrebbe aumentare ulteriormente.
però considera che a parte la 1600*1200 :asd: che usano pochissime persone, io ad esempio gioco a 1280*960/1024. E mi piacerebbe sparargli almeno 4X di AAA e Aniso al massimo. Da quello che vedo, in situazioni simili la R520 va decisamente meglio, ma la cosa che mi intriga di più è il valore di decadimento prestazionale con HDR.
Ora molti giochi vengono scritti per supportare come modalità di rendering l'HDR, e io vedo che questo R520 va nettamente meglio con questa modalità dei render (per me più decisivo che far andare un gioco a 500 fps). In più, mettendo i filtri cosa che G70 non può fare, le prestazioni sono comunque soddisfacenti.
Da qui ne deriva per me, che non si tratta semplicemente di una scheda video leggeremente più potente :)
Al di là dei freddi numeri, per me è molto di più.
Al di là dei freddi numeri, per me è molto di più.
E' completa :)
Quando ovviamente anche l'Avivo funzionerà adeguatamente.
Beh è presumibile pensare che se la demo non è ottimizzata per un'architettura nota come quella di G70, non lo è nemmeno per una nuova come quella di R520.
Mi sempre strano che proprio Nvidia ne sconsigli l'utilizzo, quando FEAR è un gioco TWIMTBB
Mi sempre strano che proprio Nvidia ne sconsigli l'utilizzo, quando FEAR è un gioco TWIMTBB
Ma non doveva essere un gioco programmato su hardware Ati? :confused:
Cmq ne sconsiglia l'uso in quanto demo e in quanto al fatto che non garantisce lo specchio delle prestazioni del gioco finale. In sostanza stanno ottimizzando i driver :asd:
efficienza?
mmm imho hai tirato troppo sto concetto perchè se è vero che le 16 pipe rendono più delle 24 nvidia l'efficienza delle setesse va misurata a parità di mhz e a parità di mhz pur restando più efficienti non c'è sta fenomenale differenza.
Ma non doveva essere un gioco programmato su hardware Ati? :confused:
Boh, lanciando la demo multiplayer c'è proprio il logo Nvidia.
EDIT guarda cosa c'è in basso a destra sul sito ufficiale.
http://www.whatisfear.com/us/
andreamarra
12-10-2005, 12:40
complimenti Raffaele, ottima recensione, completa e dettagliata :)
A tutti quelli che continuano a sparare ca@@ate su overclock, overvolt, efficienza e frequenze, faccio una sola domanda:
conoscete la differenza tra un'architettura come quella di R520 e una come quella di G70, a livello di logica di funzionamento?
Se si, allora vi invito a esporla; altrimenti vi consiglio di documentarvi.
Discorso analogo in merito a numero di transistor e tensioni di alimentazione
.
Classico errore in cui incorre una persona che prende una scheda video top di gamma, la paura che dopo qualche tempo esca qualcosa di meglio.
La 7800GTX rimane una scheda mostruosa (ci pensavo leggendo l'articolo ci sono numeri esagerati anche a risoluzioni sovraumano con filtri al massimo, più di quanti oggi ne servano per giocare), non necessariamente deve essere la migliore per giustificarne l'acquisto.
Logico, se (come ho letto da qualche parte) si tira fuori la storia che a 1024x768 è più veloce, mi cascano le braccia :) Queste schede si usano a 1280x1024 con AA e anisotropico al massimo possibile.
Veramente io la 7800gtx non la uso mai sotto 1600x1200 con i filtri ;)
Non c' è di che lamentarsi insomma.
Certo che questo R520 spacca di brutto anche come qualità.
~Mr.PartyHut~
12-10-2005, 12:53
Mi sento in dovere di ringraziare Vifani, tutti coloro che hanno contribuito a ultimare la MegaRece e a tutti gli altri come ad esempio andreamarra, che stanno fornendo pareri utilissimi per un futuro acquisto :)
Ragazzi, in poche parole mi avete quasi convinto a prendere una ATI :D
Dico QUASI, non perchè sono ancora titubante sulle nuove potenzialità di casa ATI, ma per il semplice fattore TEMPO: ossia, quando saranno disponibili almeno le XL? Lo so che può sembrare stupido, ma per necessità, dovrei acquistare la nuova macchina entro 2 settimane, quindi se questa XL non si sbriga ad uscire dovrò trovare un rimpiazzo :(
Se qualcuno ha notizia di uno shop italiano che le ha in prenotazione (almeno) lo dica per favore, anche in PVT. :)
Ciao
~» Mr.Party`Hut «~
andreamarra
12-10-2005, 13:31
Bho, anche a costo di diventare tedioso e farmi ritenere di parte, io sinceramente vorrei sapere come si fa a dire (alla luce dei tantissimi bench in rete) che questo R520 è "leggermente meglio" di un G70.
Ma sono serio, nelle situazioni come risoluzione alte (perchè a quanto pare se uno parla di risoluzioni altissime non vale perchè in pochi possono usare certe ris, invece di capire che è il modo migliore per capire la effettiva potenza di una scheda, ma vabbè...), filtraggi elevati (che sono tra l'altro superiori qualitativamente, cosa che pare non fregare infatti l'importante è fare 500 fps a dedalus...) e HDR la scheda non è "leggermente meglio".
Gli dà le mazzate dietro le orecchie e basta. Fa andare a risoluzioni più elevate e filtri maggiori, e HDR molto meglio la maggior parte dei giochi.
Se uno dice che non è così è perchè è in malafede :) :D.
e non mi fate la frase fatta "certo perchè uno deve per forza dire che è la più super mega massima excelsior". Perchè io potrei dire "invece altri devono trovare peli nell'uovo che non ci sono, senza discuterli dal punto di vista tecnico e sparando fesserie".
HaCKeR.InSiDe
12-10-2005, 13:35
be una cosa ke nn mi aspettavo e il prezzo...549 dollari per una X1800XT da 512mb nn e troppo...calcolando ke sono state appena lanciate...no?
a questo punto quando arriveranno in italia secondo me...o la 7800GTX la venderanno a 400 euro...oppure ne venderanno poke secondo me :rolleyes:
andreamarra
12-10-2005, 13:35
Cioè, in diversi test ci sono divari di anche 30 fps (trenta!) con risoluzioni alte (e non altissime) e filtri e HDR. Con qualità video migliore.
Per me non è una differenza che può essere descritta come "pressappoco simili o leggerissimamente simili".
No, la differenza è nettissima.
Ora però, con una "semplice" GT già giochi una meraviglia... avere anche solo 5 fps in più non è decisivo per un acquisto. E neanche averne 25-30 (o almeno, per me).
Ma lo è quando oltre ad essere decisamente più veloce ha una qualità superiore. Se poi aggiungiamo il fatto che nei giochi che sono usciti e che stanno per uscire questa scheda ati fa le fiamme con HDR e Branchyng...
HaCKeR.InSiDe
12-10-2005, 13:37
gia...kissa' come si comportera' con F.E.A.R. Quake 4 ecc
andreamarra
12-10-2005, 13:43
gia...kissa' come si comportera' con F.E.A.R. Quake 4 ecc
quake 4 quasi sicuramente sarà appannaggio delle schede nvidia.
Ma se alla fine uno vede i bench dei giochi openglo, vede che in entrambi i casi con una ati ci giochi bene lo stesso. Se poi le schede ati andavano in direct3d come vanno in opengl allora mi sarei preoccupato, ma siccome non è così... e poi di giochi opengl quanti ce ne sono?
Fear è da valutare, perchè dai primi test c'erano differenze clamorose tra ati e nvidia appannaggio di ati. Però è probabile che c'erano dei problemi nella demo e nei driver nvidia. certo che se venissero confermati anche in parte certi risultati, sfido io a dire "prestazioni allineate".
In ogni caso, fa bene sperare questa architettura nuova perchè a livello di driver e giochi non viene riconosciuta perfettamente ancora.
HaCKeR.InSiDe
12-10-2005, 13:46
esatto...anke se Quake 4 e ottimizzato per NVIDIA voglio vedere come si comporta la nuova regina di casa ATI contro l ammiraglia della NVIDIA ;)
CMQ secondo me come QUALITA' di immagine la X1800XT e insuperabile attualmente
Veramente io la 7800gtx non la uso mai sotto 1600x1200 con i filtri ;)
Non c' è di che lamentarsi insomma.
Certo che questo R520 spacca di brutto anche come qualità.
Ovviamente stavo parlando di caso limite verso il basso. Quella sicuramente (1280x1024) è una risoluzione che più persone si possono permettere.
andreamarra
12-10-2005, 13:52
anzi, dai bench che vedo io :D mi sembra che in situazioni di render pesanti ma non assolutamente pesanti (che non voglio considerare perchè poi qualcuno mi fa notare che 1600*1200 e filtri al massimo non è un qualcosa che viene usato dagli utenti, sebbene per me sia indicativo della potenza massima esprimibile da una vga ma vabbhè...) la x1800XL sia a livello di una 7800GTX. Leggerissimamante meno, nell'ordine dei pochi fps, a volte qualcosina in più. Ma diciamo che in certe situazioni di render pesante stanno li li. Ovviamente parlo di XL.
Questo ovviamente nei giochi direct 3D (che sono praticamente il 99% di quelli fatti, ricordiamocelo).
Altra cosa che forse è sfuggita: guardate i bench dei giochi con HDR. A parte che le prestazioni in giochi HDR sono ben superiori per il chip R520 (e non di poco), notate come si comporta una XT con HDR+AAA 4X... va esattamente come una GT senza filtri e con solo HDR.
questa la dice lunga su questa architettura nuova di ati.
ah, per carità, ci tengoa precisare che tutto questo è senza polemica. :)
HaCKeR.InSiDe
12-10-2005, 13:56
sono daccordo con te...io sono sempre con ATI...xo quando vedo due skede una ATI e una NVIDIA ke si scontrano e vedo la superiorita' della NVIDIA nn nego...cmq nn e questo il caso...secondo me R520 e una rivoluzione.
sono anke daccordo con te sul fatto ke a 1600*1200 il divario aumenta...come dice qualcuno...nn tutti se lo possono xmettere...ki puo sfruttera' ankora meglio questa novita' ;)
~Mr.PartyHut~
12-10-2005, 14:05
la x1800XL sia a livello di una 7800GTX. Leggerissimamante meno, nell'ordine dei pochi fps, a volte qualcosina in più.
E' questo che mi ha fatto pensare :)
Qualità migliore dell'immagine per ATI XL, calo prestazionale inferiore con filtri e HDR. Ora non ci resta che vedere il prezzo della XL che mi sembra la soluzione adatta Qualità/prezzo :)
Ciao
~» Mr.Party`Hut «~
Ovviamente stavo parlando di caso limite verso il basso. Quella sicuramente (1280x1024) è una risoluzione che più persone si possono permettere.
certo, io confermavo quello che dicevi, ovvero che la 7800gtx non è da buttare, anzi ;)
HaCKeR.InSiDe
12-10-2005, 14:07
nn e da buttare senza dubbio...
ma e inferiore alla R520XT senza dubbio...
a risoluzioni piu alte lo e ankora di piu senza dubbio...
andreamarra
12-10-2005, 14:08
Io leggo:
"si vabbhè, ma alle alte risoluzioni la ati è avvantaggiata dai 512 mega di ram".
bene, perfetto.
Peccato che però ad altissimi risoluzioni e ad altissimi filtraggi, la XL (a 256 mega di ram) abbia dei picchi che non si spiegano e vada meglio di una GT.
poi altra frase gettonatissima è "si, ma dopo 5 mesi sono tutti bravi... mi aspettavo di più".
Ora, forse non si ricordano di quando la nvidia fece uscire in ritardo una certa scheda... e le prstazioni facevano cagare.. come se uno con il solo tempo in più possa migliorare.
Ma ci vuole tanto a capire che mettere mano a un progetto come l'NV40 per ottenere G70, senza necessità di inserire novità, sm3.0 e dovendo passare al processo produttivo da 0.13 a 0.11 non sia propriamente la stessa cosa di passare da R420 a R520 (sm3.0, tutte le cose che non ha G70, fp32, passaggio da 0.13 a 0.09 (!), architettura totalmente nuova)?
nn e da buttare senza dubbio...
ma e inferiore alla R520XT senza dubbio...
a risoluzioni piu alte lo e ankora di piu senza dubbio...
E chi ha detto il contrario? ;)
certo, io confermavo quello che dicevi, ovvero che la 7800gtx non è da buttare, anzi ;)
Impossibile sostenere il contrario.
HaCKeR.InSiDe
12-10-2005, 14:13
QUESTA e un ottima osservazione ANDREAMARRA...inoltre nn hanno nemmeno dovuto preoccuparsi di ottenere FREQUENZE DI LAVORO "STELLARI"
xke la 7800GTX ha aumentato rispetto alla 6800U di circa 100 mhz x le memorie mentre la X1800XT rispetto alla X850XTPE ha aumentato di quasi 400mhz...poi come dici tu loro avevano gia gli SM3.0 mentre ATI no...
quindi secondo me 5 mesi di ritardo calcolando tutte le novita' ke la nuova R520XT possiede nn sono nemmeno molti...e sono pronto a scommettere ke anke se uscira' una 7800GTX da 512mb...la R520XT SARA' sempre meglio
JENA PLISSKEN
12-10-2005, 14:16
anzi, dai bench che vedo io :D mi sembra che in situazioni di render pesanti ma non assolutamente pesanti (che non voglio considerare perchè poi qualcuno mi fa notare che 1600*1200 e filtri al massimo non è un qualcosa che viene usato dagli utenti, sebbene per me sia indicativo della potenza massima esprimibile da una vga ma vabbhè...) la x1800XL sia a livello di una 7800GTX. Leggerissimamante meno, nell'ordine dei pochi fps, a volte qualcosina in più. Ma diciamo che in certe situazioni di render pesante stanno li li. Ovviamente parlo di XL.
Questo ovviamente nei giochi direct 3D (che sono praticamente il 99% di quelli fatti, ricordiamocelo).
Altra cosa che forse è sfuggita: guardate i bench dei giochi con HDR. A parte che le prestazioni in giochi HDR sono ben superiori per il chip R520 (e non di poco), notate come si comporta una XT con HDR+AAA 4X... va esattamente come una GT senza filtri e con solo HDR.
questa la dice lunga su questa architettura nuova di ati.
ah, per carità, ci tengoa precisare che tutto questo è senza polemica. :)
Ho appena finito di leggere la rece...beh che dire...esattamente quello che mi aspettavo ...massima efficienza...grandi miglioramenti in termini qualitativi..distrutte le prestazioni di 2 6800sli :D tsk tsk :O ...i miei complimenti ad ATI...forse nn mi da la sensazione di Rivoluzione coma la ebbi con l' R300...ma HDR+ AA...siamo di fronte ad una qualità incredibile... ed ad un bel passo avanti nella storia delle VGA.
Boh, lanciando la demo multiplayer c'è proprio il logo Nvidia.
EDIT guarda cosa c'è in basso a destra sul sito ufficiale.
http://www.whatisfear.com/us/
Mi fido, mi fido. Solo che da quanto sapevo e da quanto si diceva era un gioco programmato per Ati e su Ati...
Avran cambiato idea, magari faceva la stessa fine della 5800 con TRAOD :asd:
DevilMalak
12-10-2005, 14:34
appena finito di leggere la rece e i commenti [ :rotfl: ]
Fantastica rece, ora resta da vedere quanto costeranno
comunque oggi in molti hanno dato il meglio di se :rotfl:
andreamarra
12-10-2005, 14:41
E' questo che mi ha fatto pensare :)
Qualità migliore dell'immagine per ATI XL, calo prestazionale inferiore con filtri e HDR. Ora non ci resta che vedere il prezzo della XL che mi sembra la soluzione adatta Qualità/prezzo :)
Ciao
~» Mr.Party`Hut «~
ciao :)
io faccio queste considerazioni.
Se devo comprare una nuova scheda video, ovviamente cerco quella che mi da un rapporto qualità/prestazioni/innovazione grafica migliore in senso assoluto.
Ad esempio, nonostante l'R420 fosse più performante (anche se di poco, tranne i casi di risoluzione altissima e filtri... anche allora c'era sta cosa...) di un NV40, io tra la scheda di fascia top di ati e quella top di nvidia... preferisco una bella 6800GT (da portare a ultra). Nonostante prestazioni mediamente inferiori anche se di pochissimo (e a volte prestazioni superiori), io premio l'architettura migliore e che mi può dare maggior longevità.
discorso R520/G70. In questo caso appare evidente che il chip R520 sia nettamente superiore al G70 per qanto riguarda il branchyng e l'HDR, in più gestisce senza troppi patemi HDR+AAA. Se guardi i bench, vedi che prestazioni assurde che ha un R520 con HDR+AAA. Va praticamente come un G70 senza filtri ma solo HDR. Per non parlare della qualità dei filtri e il vantaggio che si accumula alzando risoluzioni e filtri.
Ora, ritengo che nel futuro prossimo (ma anche nel presente) a farla da padrone nei giochi è l'HDR. penso a Oblivion, a cod2, a sc3, a ss2 ecc. ecc.
Quindi, dovendo scegliere una scheda video adesso, guardo si alle prestazioni, ma soprattutto a quanto mi può andare la nuova scheda video con nuove tecnologie.
Quindi: se a livello di prestazioni pure le differenze sono grosse sono in alcuni casi (risoluzione e filtri elevati), la differenza diventa ancora più grande con modalità di render HDR che verrà usato spesso e volentieri.
Da qui, il mio convincimento che attualmente come acquisto migliore sia la X1800XL. Perchè cmq vada ha prestazione elevatissime, migliora il gap dalle altre a filtri e risoluzioni elevate, ha un impatto con HDR molto basso rispetto a G70. Poi, con un pò di fortuna, overvoltando il chip e le ram da bios e overcloccando... ti puoi ritrovare praticamente con una scheda molto vicina alle prestazioni esagerate di una XT/GT.
ovviamente senti tutte le campane che ti servono, non prendere ciò che dico alla lettera ;)
Dai, almeno non sfottete altri utenti.
Dai, almeno non sfottete altri utenti.
hai ragione, ho editato.
Cmq io la vedo esattamente con andreamarra. Anche sulla questione nv40 vs r4x0 delle due architetture.
Per quello che in questi casi bisogna essere oggettivi nelle considerazioni. Non sopporto invece la gente che parla per partito preso :muro: non la concepisco
maxpower21
12-10-2005, 14:49
be una cosa ke nn mi aspettavo e il prezzo...549 dollari per una X1800XT da 512mb nn e troppo...calcolando ke sono state appena lanciate...no?
a questo punto quando arriveranno in italia secondo me...o la 7800GTX la venderanno a 400 euro...oppure ne venderanno poke secondo me :rolleyes:
Io continuo a pensare che 549$ (che in Italia naturalmente saranno 549 Euro...) sono troppi per una scheda video.
Anche se è la più performante del momento..
Taurus19-T-Rex2
12-10-2005, 14:51
Complimenti per la recensione................NA ROBBA ECCEZZZZZZIONALE..... :sofico: :D :D ;) ............................. :eek:
~Mr.PartyHut~
12-10-2005, 14:54
ciao :)
io faccio queste considerazioni.
Se devo comprare una nuova scheda video, ovviamente cerco quella che mi da un rapporto qualità/prestazioni/innovazione grafica migliore in senso assoluto.
Ad esempio, nonostante l'R420 fosse più performante (anche se di poco, tranne i casi di risoluzione altissima e filtri... anche allora c'era sta cosa...) di un NV40, io tra la scheda di fascia top di ati e quella top di nvidia... preferisco una bella 6800GT (da portare a ultra). Nonostante prestazioni mediamente inferiori anche se di pochissimo (e a volte prestazioni superiori), io premio l'architettura migliore e che mi può dare maggior longevità.
discorso R520/G70. In questo caso appare evidente che il chip R520 sia nettamente superiore al G70 per qanto riguarda il branchyng e l'HDR, in più gestisce senza troppi patemi HDR+AAA. Se guardi i bench, vedi che prestazioni assurde che ha un R520 con HDR+AAA. Va praticamente come un G70 senza filtri ma solo HDR. Per non parlare della qualità dei filtri e il vantaggio che si accumula alzando risoluzioni e filtri.
Ora, ritengo che nel futuro prossimo (ma anche nel presente) a farla da padrone nei giochi è l'HDR. penso a Oblivion, a cod2, a sc3, a ss2 ecc. ecc.
Quindi, dovendo scegliere una scheda video adesso, guardo si alle prestazioni, ma soprattutto a quanto mi può andare la nuova scheda video con nuove tecnologie.
Quindi: se a livello di prestazioni pure le differenze sono grosse sono in alcuni casi (risoluzione e filtri elevati), la differenza diventa ancora più grande con modalità di render HDR che verrà usato spesso e volentieri.
Da qui, il mio convincimento che attualmente come acquisto migliore sia la X1800XL. Perchè cmq vada ha prestazione elevatissime, migliora il gap dalle altre a filtri e risoluzioni elevate, ha un impatto con HDR molto basso rispetto a G70. Poi, con un pò di fortuna, overvoltando il chip e le ram da bios e overcloccando... ti puoi ritrovare praticamente con una scheda molto vicina alle prestazioni esagerate di una XT/GT.
ovviamente senti tutte le campane che ti servono, non prendere ciò che dico alla lettera ;)
Condivido in tutto e per tutto quello che hai detto andrea :)
Aggiungo anche che il fattore "LONGEVITA' NEL TEMPO", per certi utenti è fondamentale. Quindi per questi utenti, serve una scheda che supporti tecnologie che in futuro la faranno da padrona :) e non superschede veloci (in termini di numero di frame al secondo puri), ma che non possono garantirgli un'illuminzaione ed un AA in giochi come CoD 3, che credo siano spettacolari, IMHO :)
Aggiungo anche che la PowerColor ATI Radeon X1800XL dovrebbe già essere disponibile entro stasera o al massimo domani su un noto negozio online (TC :D ). Andate a guardare il listino ed infondo alla lista, in mezzo ai prodotti non disp, ma in arrivo ;)
Guardate che bellina che è :D
http://www.powercolor.com/global/images/assets/PCIE_X1800_4710810937880/PSD/image_a_s.jpg
Ciao
~» Mr.Party`Hut «~
JENA PLISSKEN
12-10-2005, 15:02
mah...nn mi resta che concordare con andreamarra...anche xchè è l' unico discorso logico da farsi edi dati parlano chiaro...poi io ho alternato ATI ed NV...i tempi del tifo son finiti....tempi divertenti cmq :D :D :D
yossarian
12-10-2005, 15:03
Parlando sempre di r500 non ho capito bene le capacità di color fillrate...
Dallo schema pare che il main-chip sia capace di inviare solo 8pixel o 16z-pixel al Dcore che però può eseguire più calcoli del necessario.
Perchè il setup dei triangoli è limitato solo a 500mil di trinagoli ?
Un'unità 4+1 come si comporta nel calcolo dei pixel shader ? (le situzioni + frequenti non sono 3+1 o 1+1+1+1?)
gli 8 pixel sono quelli "scritti" dalle rop's nel frame buffer. Se guardi attentamente, parla di 8 pixel a 32bpp (che è la classica notazione i8 per canale del frame buffer); il main chip opera a 128 bpp (fp32).
il setup dei triangoli è un dato molto poco indicativo (si basa su calcoli puramente teorici che non hanno riscontro alcuno nella pratica); in ogni caso quel valore è satto estrapolato considerando 16 unità di calcolo dedicate all'elaborazione geometrica (si presuppone che il carico di lavoro maggiore riguardi l'elaborazione dei pixel).
Un'architettura 4+1 può essere molto utile, in quando uno shader relativo ad un singolo pixel non reca solo le informazioni relative ai 3 colori e all'alpha channel; quindi avere un'unità scalare che si occupa di altro, in parallelo a quella principale, può far rispermiare diversi cicli di clock; soprattutto in considerazione del fatto che ogni unità scalare può occuparsi anche di operazioni diverse rispetto a quelle dell'unità vettoriale (e che i risultati delle varie elaborazioni finiscono in un buffer a cui tutte le unità possono accedere)
andreamarra
12-10-2005, 15:23
Altra cosa, che posto anche qua, riguarda la ram.
Molti ritengono che la differenza di prestazioni tra G70 e R520 siano dovute alle ram estremamente performanti e al quantitativo della stessa.
Oppure che si ritiene che se mettendo le ram della R520 su G70 la situazione si ribalterebbe.
Ora, tralasciando il fatto che anche fosse vera sta cosa voglio vedere come se la cavano a dissaldare le ram del R520 e metterle sul pcb di una G70 :asd:, ciò è sbagliatissimo dal punto di vista pratico.
Infatti, discutendone con chi realmente ne capisce di queste cose, la G70 è limitata di fillrate. Praticamente, anche mettendo un quantitativo spropositato di ram a frequenza anche doppia di quella attuale, non cambierebbe la sitauzione.
andreamarra
12-10-2005, 15:30
Condivido in tutto e per tutto quello che hai detto andrea :)
Aggiungo anche che il fattore "LONGEVITA' NEL TEMPO", per certi utenti è fondamentale. Quindi per questi utenti, serve una scheda che supporti tecnologie che in futuro la faranno da padrona :) e non superschede veloci (in termini di numero di frame al secondo puri), ma che non possono garantirgli un'illuminzaione ed un AA in giochi come CoD 3, che credo siano spettacolari, IMHO :)
Aggiungo anche che la PowerColor ATI Radeon X1800XL dovrebbe già essere disponibile entro stasera o al massimo domani su un noto negozio online (TC :D ). Andate a guardare il listino ed infondo alla lista, in mezzo ai prodotti non disp, ma in arrivo ;)
Guardate che bellina che è :D
http://www.powercolor.com/global/images/assets/PCIE_X1800_4710810937880/PSD/image_a_s.jpg
Ciao
~» Mr.Party`Hut «~
ascolta, forse te l'ho già chiesto ma non ricordo... che scheda video hai attualmente?
In ogni caso, sono sempre più convinto che la X1800XL sia la "nuova" 6800GT, nel senso che è il miglior rapporto prestazioni/qualità.
Vediamo a quanto la vendono, se la vendono a poco più della cifra di una 7800GT per me è la soluzione migliore.
Inoltre, considera che la scheda la si potrà overvoltare da programma senza invalidarne la garanzia, potresti cambiare il dissi e mettercene uno più silenzioso e performante (cosa che io di solito faccio per tutte le vga che prendo o faccio prendere). Overvoltando gpu e core ai valori della XT, la scheda potrà andare indicativamente come una XT. Spendendo un fracco di soldi in meno.
POi, non ti nascondo che sono particolarmente fiducioso su questo controller di memoria configurabile... un gioco che esce sistemando i driver appositamente per lui, potrebbe dare risultati eclatanti.
Athlon 64 3000+
12-10-2005, 15:39
in queste ore mi stò sempre più convincendo quando 2 settimane fà ho ordinato la 7800GTX(peccato che mi debba ancora arrivare) di aver fatto una grossa cazzata perchè Stò R520 mi intriga veramente parecchio e mi interesserebbe molto prendere la X1800XL.
~Mr.PartyHut~
12-10-2005, 15:44
ascolta, forse te l'ho già chiesto ma non ricordo... che scheda video hai attualmente?
In ogni caso, sono sempre più convinto che la X1800XL sia la "nuova" 6800GT, nel senso che è il miglior rapporto prestazioni/qualità.
Vediamo a quanto la vendono, se la vendono a poco più della cifra di una 7800GT per me è la soluzione migliore.
Ciao andrea,
io prima di vendere tutto il mio PC avevo una Radeon 9800 Pro 128Mb Sapphire.
Cmq credo che questa nuova ATI X1800XL non costerà più di 420€ (o almeno spero :) )
Il problema è che sono un gamer troppo esigente e già la 9800 Pro cominciava a starmi stretta già 6 mesi fa :rolleyes: (sono in un clan UT2004)
Credo però che questa XL andrà bene per il prossimo UT2007 :rolleyes: (sempre sperem) :p
Ciao
~» Mr.Party`Hut «~
andreamarra
12-10-2005, 16:05
in queste ore mi stò sempre più convincendo quando 2 settimane fà ho ordinato la 7800GTX(peccato che mi debba ancora arrivare) di aver fatto una grossa cazzata perchè Stò R520 mi intriga veramente parecchio e mi interesserebbe molto prendere la X1800XL.
bhè aspetta, parlare di "grossa cazzata" per aver preso una 7800GTX mi sembra un "tantinello" sbagliato :D :sofico:
hai preso "semplicemente" il top della gamma nvidia, e una tra le migliori schede video attualmente in giro, una robetta da nulla insomma :D!
andreamarra
12-10-2005, 16:14
Ciao andrea,
io prima di vendere tutto il mio PC avevo una Radeon 9800 Pro 128Mb Sapphire.
Cmq credo che questa nuova ATI X1800XL non costerà più di 420€ (o almeno spero :) )
Il problema è che sono un gamer troppo esigente e già la 9800 Pro cominciava a starmi stretta già 6 mesi fa :rolleyes: (sono in un clan UT2004)
Credo però che questa XL andrà bene per il prossimo UT2007 :rolleyes: (sempre sperem) :p
Ciao
~» Mr.Party`Hut «~
dunque, se la XL la trovi a quella cifra, io la prenderi. Ma se costa un 30 euro di più... o aspetti che scende il prezzo oppure punti su atra scheda.
Io ti posso dire che sono molto sorpreso dalla velcoità di rendering pesante di questo R520. L'HDR va benissimo, anche troppo :D, e con i filtri non hai perdita prestazionale eccessiva.
Diciamo che quindi, sulla "fiducia", ritengo che con i titoli nuovi la scheda ati possa andare "meglio".
Usare come fanno molti il discorso "openGL" è quanto di più inutile si possa fare... con R520 giochi ugualmente a giochi OpenGL (vecchi, tra l'altro), e il futuro è sempre più Direct3D. Il rapporto di giochi Direct3D vs OpenGL è mostruoso...
Ora, il problema riguardo ai giochi futuri con Unreal 3 engine... sinceramente qua non ho dati per poter capire quale architettura sia avvantaggiata o meno. Occorrerebbero almeno dei bench per capire come i due chip si comportano con questo engine. E' da vedere, ma sulle prestazioni con R520 sarei molto tranquillo.
andreamarra
12-10-2005, 16:20
altra cosa che mi è venuta in mente, è il discorso fp32...
la R520 lavora costantemente a fp32 (prima le ati lavoravano a fp24), mentre la G70 lavora ancora in modalità mista fp16/fp32.
Questo a livello qualitativo non inficia più di tanto, ma a livello quantitativo moltissimo.
il calcolo con precisione a 32 costante può far capire, se ce ne fosse ancora bisogno, di come la scehda ati abbia una potenza di render davvero tremenda anche rispetto a una scheda (dal render mostruoso) che lavora con il "vantaggio" prestazionale della modalità mista fp16/32
andreamarra
12-10-2005, 16:24
ora sarà interessante vedere come nvidia si muoverà, se riterrà di mettere fuori una scheda G70 Ultra con frequenze superiori e 512 mega di ram, oppure se riterrà di mettersi al lavoro per un progetto nuovo.
da vedere, sono curioso, in cosa consisterà questo progetto. Se sarà innovativo e si avvicinerà al concetto di pipeline e vertex unificate come in R500 per xbox360, o se prenderà altre strade.
Di sicuro, la ati con questo R520 ha già messo in cassaforte il suo R580. Migliorando dove l'R520 è "carente", ovvero la gestione dei PS (sebbene nei giochi, per vari motivi, questa mancanza strutturale non viene mostrata completamente).
Un bella sfida ;)
altra cosa che mi è venuta in mente, è il discorso fp32...
la R520 lavora costantemente a fp32 (prima le ati lavoravano a fp24), mentre la G70 lavora ancora in modalità mista fp16/fp32.
Questo a livello qualitativo non inficia più di tanto, ma a livello quantitativo moltissimo.
il calcolo con precisione a 32 costante può far capire, se ce ne fosse ancora bisogno, di come la scehda ati abbia una potenza di render davvero tremenda anche rispetto a una scheda (dal render mostruoso) che lavora con il "vantaggio" prestazionale della modalità mista fp16/32
Yoss stima nel 20% la potenza sottratta dall'elaborazione full 32 rispetto ad un ibrido 16/32, insomma qui tutto fa numero...
Se questa è la base la prossima evoluzione (R480) sarà qlc di clamoroso dal lato prestazionale :)
andreamarra
12-10-2005, 16:36
Yoss stima nel 20% la potenza sottratta dall'elaborazione full 32 rispetto ad un ibrido 16/32, insomma qui tutto fa numero...
Se questa è la base la prossima evoluzione (R480) sarà qlc di clamoroso dal lato prestazionale :)
si, diciamo che quello che ho scritto io era un pò per "fare il verso" (sempre scherzosamente, ci mancherebbe :) ) a chi fa domande del tipo "ma a frequenze minori come andrebbe, ma con ram meno potenti che farebbe, ma...".
indubbiamente l'R580, visto le premesse sarà qualcosa di davvero sensazionale.
Probabilmente, i vari tape out non riusciti del R520 sono da inserire anche nell'ottica di R580.
andreamarra
12-10-2005, 16:41
quoto un intervento di un utente su altro 3D, ed è una cosa che sinceramente a me è balzata subito agli occhi.
Comunque vorrei far notare a quelli che dicono che le schede sono sostanzialmente alla pari che hanno una strana concezione del termine "sostanziale".
COn filtri attivati (come vuole la logica di queste schede high end) ci sono distacchi anche di 20-30% negli FPS (a risoluzioni alte).
Far Cry circa 15%
Splinter 25%
BF2 40%
UT2004 un po' meno di 30%
E avanti così...
Ora, 2 schede allineate lo sono quando siamo intorno al 3-5%.
Questo non per difendere Ati a tutti i costi ma semplicemente per onestà dei numeri.
Cioè con lo stesso discorso allora una GTX è sostanzialmente alla pari con una 6800Ultra, cosa evidentemente non vera
questo anche per rispondere a chi, non ne capisco il motivo, diceva che si aspettava prestazioni superiori.
andreamarra
12-10-2005, 17:58
Cmq ragazzi, certi post che sto leggendo in giro su questo chip sono altamente LOL :asd:!!
mitico quello che per denigrare il vantaggio di HDR+AA insieme riesce a dire che se si fa vedere uno shot del genere a uno ignorante in materia non capisce la differenza...
Ma davvero, oltre la barzelletta :sofico: !!!
gli 8 pixel sono quelli "scritti" dalle rop's nel frame buffer. Se guardi attentamente, parla di 8 pixel a 32bpp (che è la classica notazione i8 per canale del frame buffer); il main chip opera a 128 bpp (fp32).
cioè lavora con un hdr 8bit interi ? :(
Salve ragazzi,
vi informo che ho letteralmente bruciato il sample della Radeon X1800 XT :D
Più tardi vi dò maggiori dettagli :)
andreamarra
12-10-2005, 18:39
Salve ragazzi,
vi informo che ho letteralmente bruciato il sample della Radeon X1800 XT :D
Più tardi vi dò maggiori dettagli :)
azz...
Salve ragazzi,
vi informo che ho letteralmente bruciato il sample della Radeon X1800 XT :D
:D :sbonk: :D
...le hai tirato il collo!!! confessa!!!
andreamarra
12-10-2005, 18:47
bho, al di là di quello che ci hanno fatto, non è che sia un bel segnale vedere una scheda sample bruciarsi... non vorrei che fosse sinonimo di progetto "instabile".
vediamo un pò..
...beh no dai, con tutte i sample che ci sono in giro, tirati in o.c. e non, questa è la prima che si "rompe" (tra virgolette perchè non sappiamo ancora le cause)... con tutte quelle testate e bruciate in questi mesi di prova hai voglia ad avere schede instabili!
...ciao!
bho, al di là di quello che ci hanno fatto, non è che sia un bel segnale vedere una scheda sample bruciarsi... non vorrei che fosse sinonimo di progetto "instabile".
vediamo un pò..
ma va dai... sarà stata una battuta per dire che l'ha stressata all'inverosimile :ave:
non la vedete la faccina :asd:
Salve ragazzi,
vi informo che ho letteralmente bruciato il sample della Radeon X1800 XT :D
Più tardi vi dò maggiori dettagli :)
Da ora sono aperti i commenti sul "lo avete visto che è occata di fabbrica", vai col televoto..
~Mr.PartyHut~
12-10-2005, 18:56
...beh no dai, con tutte i sample che ci sono in giro, tirati in o.c. e non, questa è la prima che si "rompe" (tra virgolette perchè non sappiamo ancora le cause)... con tutte quelle testate e bruciate in questi mesi di prova hai voglia ad avere schede instabili!
...ciao!
lol Belin,
con l'avatar che hai, non prometti niente di buono :D :sofico: :D
EDIT: povere ATI :sofico:
Ciao
~» Mr.Party`Hut «~
...vi segnalo questo interessante breve articolo : http://techreport.com/onearticle.x/8887
...ciao!
lol Belin,
con l'avatar che hai, non prometti niente di buono :D :sofico: :D :cool: :D
...beh, un pò di ragione ce l'hai... non sono un patito dell'overclock, ma la 9600XT che avevo l'ho tirata sino a 650mhz :Perfido: ...ed è ancora perfettamente funzionante... :cool:
Da ora sono aperti i commenti sul "lo avete visto che è occata di fabbrica", vai col televoto..
No no ragazzi, però dovete comprendere bene la lingua italiana. Ho scritto "ho bruciato", non "si è bruciata", il che è molto differente.
Adesso vi racconto cosa è successo. Completata la recensione mi sono divertito un po a vedere questa scheda in OC quanto arriva spremendola al massimo. Sempre attraverso fonti interne ad ATI ho avuto un software estremamente "confidential" che consente di scrivere all'interno dei singoli registri della scheda, compresi quelli che regolano il voltaggio del processore grafico. Se non ho capito male (i valori sono in esadecimale e non sono molto chiari) la scheda di default ha 1,32 V sul core. Diciamo che in maniera un po avventata ho portato il core direttamente intorno ai 1,44 V e la scheda reggeva. A questo punto sono andato ancora oltre (usando un valore a me del tutto ignoto, ma sicuramente superiore ai 1,5 V) e morte fu :cry:
A 1,44 V la scheda reggeva i 750 Mhz di core. Non so se sarebbe andata oltre perché l'ho portata al voltaggio successivo (quello fatale) prima di cercare il limite.
cazz
e adesso non succede niente vero? :D non è che vi fanno causa :asd: ehehe
andreamarra
12-10-2005, 19:33
No no ragazzi, però dovete comprendere bene la lingua italiana. Ho scritto "ho bruciato", non "si è bruciata", il che è molto differente.
Adesso vi racconto cosa è successo. Completata la recensione mi sono divertito un po a vedere questa scheda in OC quanto arriva spremendola al massimo. Sempre attraverso fonti interne ad ATI ho avuto un software estremamente "confidential" che consente di scrivere all'interno dei singoli registri della scheda, compresi quelli che regolano il voltaggio del processore grafico. Se non ho capito male (i valori sono in esadecimale e non sono molto chiari) la scheda di default ha 1,32 V sul core. Diciamo che in maniera un po avventata ho portato il core direttamente intorno ai 1,44 V e la scheda reggeva. A questo punto sono andato ancora oltre (usando un valore a me del tutto ignoto, ma sicuramente superiore ai 1,5 V) e morte fu :cry:
A 1,44 V la scheda reggeva i 750 Mhz di core. Non so se sarebbe andata oltre perché l'ho portata al voltaggio successivo (quello fatale) prima di cercare il limite.
ah, hai fatto la stronzatina di inserire un valore esadecimale errato... :asd: LOL
magari gli hai dato 3 volt al core :asd: :sofico:
meno male, credevo che si fosse bruciata per altri problemi...
cmq, interessante il fatto che la scheda si possa overvoltare ulteriormente :eek:!! 750 ad aria con dissy stock (così hai fatto la prova vero?) è davvero un numero impressionante...
Eddie666
12-10-2005, 19:34
No no ragazzi, però dovete comprendere bene la lingua italiana. Ho scritto "ho bruciato", non "si è bruciata", il che è molto differente.
Adesso vi racconto cosa è successo. Completata la recensione mi sono divertito un po a vedere questa scheda in OC quanto arriva spremendola al massimo. Sempre attraverso fonti interne ad ATI ho avuto un software estremamente "confidential" che consente di scrivere all'interno dei singoli registri della scheda, compresi quelli che regolano il voltaggio del processore grafico. Se non ho capito male (i valori sono in esadecimale e non sono molto chiari) la scheda di default ha 1,32 V sul core. Diciamo che in maniera un po avventata ho portato il core direttamente intorno ai 1,44 V e la scheda reggeva. A questo punto sono andato ancora oltre (usando un valore a me del tutto ignoto, ma sicuramente superiore ai 1,5 V) e morte fu :cry:
A 1,44 V la scheda reggeva i 750 Mhz di core. Non so se sarebbe andata oltre perché l'ho portata al voltaggio successivo (quello fatale) prima di cercare il limite.
ma lol.....immagino la faccia che presumo tu possa avere fatto (e anche quella del corsini :D ) quando ti sei reso conto del fattaccio!!!
vabbe',una scheda immolata per la conoscenza,potremmo dire,.....una povera martire..... :sofico:
beh, pensare che macci e sampsa a ibiza hanno tirato una scheda xt a 950mhz sul core con LN2 :asd: semplicemente mostruoso!
Bhè x una scheda tirata x il collo di fabbrica non è male, e pensare che la mia che non è tirata x il collo non supera i 40mhz di oc :muro:
~Mr.PartyHut~
12-10-2005, 19:52
e morte fu :cry:
HAHAHAAHAA, miodio me fate morì :D
Costano così tanto queste schede che meriterebbero un funerale come si deve http://www.drusie.com/forum/images/smiles/adolfo.gif
Ciao
~» Mr.Party`Hut «~ http://www.drusie.com/forum/images/smiles/maniaco.gif
yossarian
12-10-2005, 20:12
ognuno i dati li legge come gli pare, per carità.
quando esce una nuova vga è un po' come dopo le elezioni :D
yossarian
12-10-2005, 20:14
cioè lavora con un hdr 8bit interi ? :(
no gli 8 bit sono quelli a cui si deve convertire l'immagine per inviarla al monitor (non ci sono monitor a 16 bit per canale). L'hdr lo fa a fp16
...sono disponibili i Catalyst 5.10... ;)
...ciao!
andreamarra
12-10-2005, 20:47
quando esce una nuova vga è un po' come dopo le elezioni :D
certo :D!
però non riesco lo stesso a capire certi commenti.
Leggo cose del tipo "mi aspettavo di più, le prestazioni sono praticamente allineate"... quando basterebbe vedere i grafici di tutte le rece in giro e notare che in situazioni di render pesante (ovvero, 1280*1024 AA6X Aniso 16X) le schede ati fanno letteralmente paura e prendono margini dal 15% al 40% in alcuni titoli... come se poi non bastasse vedere che l'impatto dell'HDR sul R520 è nettamente minore..
a sentire qualcuno, a momenti è un difetto di R520 quello di andare a risoluzioni assurde e filtri assurdi con prestazioni eccellenti... :asd:
quella sul "G70 ha driver acerbi" poi è la piccola perla della settimana... una architettura che deriva da NV40 con driver molto stabili, contro i driver di una architettura appena uscita e che con la precedente ati ha in comune il logo :sofico:
eccezionale leggere quei "mi piacerebbe vedere..." "se sdradicassi le ram con le pinze di mio cuggino" "se mettessi la ruota del criceto al posto della ventola ati"... mi fanno cappottare :asd: :rotfl:, primo perchè io devo guardare come va la scheda senza farmi troppe pippe mentali, e secondo perchè le pippe mentali vengono smontate in tre secondi.
:sofico:
Captain_mason
12-10-2005, 20:49
certo :D!
però non riesco lo stesso a capire certi commenti.
Leggo cose del tipo "mi aspettavo di più, le prestazioni sono praticamente allineate"... quando basterebbe vedere i grafici di tutte le rece in giro e notare che in situazioni di render pesante (ovvero, 1280*1024 AA6X Aniso 16X) le schede ati fanno letteralmente paura e prendono margini dal 15% al 40% in alcuni titoli... come se poi non bastasse vedere che l'impatto dell'HDR sul R520 è nettamente minore..
a sentire qualcuno, a momenti è un difetto di R520 quello di andare a risoluzioni assurde e filtri assurdi con prestazioni eccellenti... :asd:
quella sul "G70 ha driver acerbi" poi è la piccola perla della settimana... una architettura che deriva da NV40 con driver molto stabili, contro i driver di una architettura appena uscita e che con la precedente ati ha in comune il logo :sofico:
eccezionale leggere quei "mi piacerebbe vedere..." "se sdradicassi le ram con le pinze di mio cuggino" "se mettessi la ruota del criceto al posto della ventola ati"... mi fanno cappottare :asd: :rotfl:, primo perchè io devo guardare come va la scheda senza farmi troppe pippe mentali, e secondo perchè le pippe mentali vengono smontate in tre secondi.
:sofico:
ancora? ti sei fissato?ma lol
Assassino assassinooooooooooooooooooooooo :cry:
andreamarra
12-10-2005, 20:53
ancora? ti sei fissato?ma lol
si mi sono fissato :sofico:!!
il fatto è che quando uno spiega certe cose, poi ti esce qualcuno che rispara ste domande io mi collasso dal ridere e non riesco a fermarmi :sofico:
ok giuro che la smetto :O!
certo :D!
quella sul "G70 ha driver acerbi" poi è la piccola perla della settimana... una architettura che deriva da NV40 con driver molto stabili, contro i driver di una architettura appena uscita e che con la precedente ati ha in comune il logo :sofico:
:sofico:
Calma, ti posso assicurare che rispetto il passato questi driver per G70 hanno diversi problemini ;)
no gli 8 bit sono quelli a cui si deve convertire l'immagine per inviarla al monitor (non ci sono monitor a 16 bit per canale). L'hdr lo fa a fp16
Ok, thank you.
Con uno schermo al plasma o lcd può essere arginato in parte questo problema ?
Quanti bit possono inviare i collegamenti VGA,DVi,HDMI ?
scasa x la miriade di domande :sofico:
Captain_mason
12-10-2005, 20:55
si mi sono fissato :sofico:!!
il fatto è che quando uno spiega certe cose, poi ti esce qualcuno che rispara ste domande io mi collasso dal ridere e non riesco a fermarmi :sofico:
ok giuro che la smetto :O!
e si smettila che nn c'è bisogno credimi :sofico:
andreamarra
12-10-2005, 20:56
e si smettila che nn c'è bisogno credimi :sofico:
ho detto che la smetto :(
non trattetemi così... :( :cry:
andreamarra
12-10-2005, 20:58
Calma, ti posso assicurare che rispetto il passato questi driver per G70 hanno diversi problemini ;)
in che senso :confused:?
cmq era una battuta sul fatto che vedo da parte di alcuni il sollevare il tormentone "i driver sono acerbi" in qualunque situazione in cui la nvidia stia sotto, mentre quando è sopra il discorso driver non si accennerà :D!
cioè, il G70 deriva da NV40, quindi i driver dovrebbero essere abbastanza definitivi o no? :confused:
yossarian
12-10-2005, 21:02
in che senso :confused:?
cmq era una battuta sul fatto che vedo da parte di alcuni il sollevare il tormentone "i driver sono acerbi" in qualunque situazione in cui la nvidia stia sotto, mentre quando è sopra il discorso driver non si accennerà :D!
cioè, il G70 deriva da NV40, quindi i driver dovrebbero essere abbastanza definitivi o no? :confused:
gli ultimi non certificati davano diversi artefatti e non sono stati, per questo, utilizzati da molti recensori nei test.
yossarian
12-10-2005, 21:05
Ok, thank you.
Con uno schermo al plasma o lcd può essere arginato in parte questo problema ?
Quanti bit possono inviare i collegamenti VGA,DVi,HDMI ?
scasa x la miriade di domande :sofico:
non cambia niente; i livelli per canale sono sempre 256 (tranne nei monitor che utilizzano la notazione i10; nessun monitor, allo stato attuale, supporta fp16 e nemmeno i16. Il problema è costituito dai livelli di crominanza e luminanza ottenibile con le tecnologie attuali sui display, non sui dispositivi di collegamento
andreamarra
12-10-2005, 21:06
vabbhè dai, un'altra cosa la voglio dire... non resisto :asd:
quando leggo "grandissimo prodotto, ma non rivoluzionario".
Ma che minchia volete dalle schede video :asd:?
Oltre che spararvi una scena ultra complessa a risoluzioni assurde e filtraggi al massimo a 150 fps cosa si vuole di più :sofico:???
vi fanno una scheda video del genere, che praticamenteha features che anticipano i giochi stessi... con quella potenza e qualità...
ma cosa volete?
che vi faccia proiezioni olografiche :D??
yossarian
12-10-2005, 21:08
vabbhè dai, un'altra cosa la voglio dire... non resisto :asd:
quando leggo "grandissimo prodotto, ma non rivoluzionario".
Ma che minchia volete dalle schede video :asd:?
Oltre che spararvi una scena ultra complessa a risoluzioni assurde e filtraggi al massimo a 150 fps cosa si vuole di più :sofico:???
vi fanno una scheda video del genere, che praticamenteha features che anticipano i giochi stessi... con quella potenza e qualità...
ma cosa volete?
che vi faccia proiezioni olografiche :D??
prima o poi ci si arriva (comunque, prima di quanto si possa immaginare ;) )
in che senso :confused:?
cmq era una battuta sul fatto che vedo da parte di alcuni il sollevare il tormentone "i driver sono acerbi" in qualunque situazione in cui la nvidia stia sotto, mentre quando è sopra il discorso driver non si accennerà :D!
cioè, il G70 deriva da NV40, quindi i driver dovrebbero essere abbastanza definitivi o no? :confused:
Texture corrotte e artefatti a video con diversi game, sia ufficiali che beta ufficiali che leaked ;)
Potrebbe esserci un aumento di prestazioni, non eccessivo chiaramente, ma si è ben lontani dall' essere al 100%
Chiaramente il discorso vale in maniera più accentuata per la serie X1000 :)
Sempre attraverso fonti interne ad ATI ho avuto un software estremamente "confidential" che consente di scrivere all'interno dei singoli registri della scheda, compresi quelli che regolano il voltaggio del processore grafico
...beh questo non è il caso... però... come dire... non è che... insomma... non si potrebbe avere quel programmino tanto carino che si chiama Winclk?!?! :fiufiu:
...ciao!
Io non ho ancora capito se questa X1800XT scalda un sacco o meno... e se le temperature in idle ed in full saranno più alte della 7800 GTX...
In teoria sì se i consumi, come da recensione, sono superiori.
Foglia Morta
13-10-2005, 07:43
Io non ho ancora capito se questa X1800XT scalda un sacco o meno... e se le temperature in idle ed in full saranno più alte della 7800 GTX...
In teoria sì se i consumi, come da recensione, sono superiori.
Per i consumi considera che la scheda XT ha 512Mb alimentati a 2.0 V ( specifica Samsung ) , se guardi la X1800Xl consuma si di più della X850 e NV40 e G70 in idle ma meno sotto stress .
E poi come punto di riferimento potresti usare la tua 6800ULTRA , nel test è quella più rumorosa , quindi almeno da questo punto di vista con qualsiasi scheda di fascia alta puoi migliorare il pc.
~Mr.PartyHut~
13-10-2005, 10:56
e ti pareva !!!
Neanche oggi è uscita su TC la versione XL :cry: :cry: :cry:
maronna, quando riuscirò a completare l'ordine per il mio nuovo picci :cry:
Ciao
~» Mr.Party`Hut «~
Jedi_Master
13-10-2005, 11:18
Se non ho capito male (i valori sono in esadecimale e non sono molto chiari) la scheda di default ha 1,32 V sul core. Diciamo che in maniera un po avventata ho portato il core direttamente intorno ai 1,44 V e la scheda reggeva. A questo punto sono andato ancora oltre (usando un valore a me del tutto ignoto, ma sicuramente superiore ai 1,5 V) e morte fu
Ma bravo, bell'esempio per i giovani!!
:D
ps: se la butti nel cassonetto mi dici in pvt dove è che magari passo
da li' e do' un'occhiata...... :fiufiu:
features che anticipano i giochi stessi...
da che mondo è mondo è sempre stato così, sennò fanno uscire i giochi con features che nessuno supporta? ma soprattutto dove li realizzerebbero?
andreamarra
13-10-2005, 11:46
da che mondo è mondo è sempre stato così, sennò fanno uscire i giochi con features che nessuno supporta? ma soprattutto dove li realizzerebbero?
si appunto, la mia voleva essere una battuta sul fatto che leggo spesso, per qualsiasi gpu, "ottima, ma non rivoluzionaria!".
e io mi chiedo: cosa chiedere di più da una scheda che fa tutto, in maniera estremamente veloce e qualitativamente al meglio :D
un'altra cosa simpatica, che a me fa sinceramente ridere :D :) e quando leggo "ottimo, ma è una scheda di transizione".
Cazzarola, sono TUTTE schede di transizione :D...
quando esce il R580, per quanto assurdo e potente... sarà di transizione aspettando R600, e R600 sarà di transizione attendendo maggior potenza per supportare meglio le features ecc. ecc.
:sofico:
Athlon 64 3000+
13-10-2005, 11:49
ieri sera Ati ha rilasciato i catalist 5.10 ma nelle note delle gpu supportate non viene riportato il supporto per le X1800.
:confused:
andreamarra
13-10-2005, 11:58
ieri sera Ati ha rilasciato i catalist 5.10 ma nelle note delle gpu supportate non viene riportato il supporto per le X1800.
:confused:
dovremmo chiedere a vifani che ha usato i 5.10 beta per i test...
~Mr.PartyHut~
13-10-2005, 12:06
ieri sera Ati ha rilasciato i catalist 5.10 ma nelle note delle gpu supportate non viene riportato il supporto per le X1800.
:confused:
Si infatti :confused:
Metti che oggi prendevo la XL, cosa gli davo in pasto? :p
E mi chiedo anche cosa ci sarà dentro la scatola in bundle delle PowerColor?
Ci deve essere per forza un CD con i driver; si, ma quali? :mbe:
Ciao
~» Mr.Party`Hut «~
andreamarra
13-10-2005, 12:11
tutti quanti hanno fatto i test con i 5.10 beta (forse qualcuno con i 5.9 non so).
il problema cmq non è tanto quello dei driver... quanto quello dei giochi.
MOltissimi, nonostante vadano benissimo, NON riconoscevano la scheda video X1800 :D
ad esempio riddick, occorreva digitare a mano che scheda fosse :D
~Mr.PartyHut~
13-10-2005, 12:16
ad esempio riddick, occorreva digitare a mano che scheda fosse :D
loooooooooooooool :sbonk:
Ciao
~» Mr.Party`Hut «~
andreamarra
13-10-2005, 12:18
loooooooooooooool :sbonk:
Ciao
~» Mr.Party`Hut «~
almeno, è quello che mi sembra di aver capito da un intervento di vifani :D
magari ho capito male, eh! :D
A chi interessa ci sono alcuni venditori su ebay che già la vendono! :)
andreamarra
13-10-2005, 12:43
A chi interessa ci sono alcuni venditori su ebay che già la vendono! :)
si ho visto.
bhè, se non altro significa che sono effettivamente nei negozi.
~Mr.PartyHut~
13-10-2005, 12:47
A chi interessa ci sono alcuni venditori su ebay che già la vendono! :)
Grazie per la segnalazione, a buon rendere :sofico:
Ciao
~» Mr.Party`Hut «~
tutti quanti hanno fatto i test con i 5.10 beta (forse qualcuno con i 5.9 non so).
il problema cmq non è tanto quello dei driver... quanto quello dei giochi.
MOltissimi, nonostante vadano benissimo, NON riconoscevano la scheda video X1800 :D
ad esempio riddick, occorreva digitare a mano che scheda fosse :D
Insieme alla scheda sicuramente ci sono driver beta, probabilmente una release un po più matura di quella data a noi per risolvere i problemi di riproduzione WMV.
Il discorso di riddick non l'ho capito. Non ho avuto alcun problema al riguardo.
Jedi_Master
13-10-2005, 13:58
Grazie per la segnalazione, a buon rendere
Occhio a ebay!! nn vorrei che ti vendano la "MATTONE" edition!!
:sofico:
andreamarra
13-10-2005, 13:58
Insieme alla scheda sicuramente ci sono driver beta, probabilmente una release un po più matura di quella data a noi per risolvere i problemi di riproduzione WMV.
Il discorso di riddick non l'ho capito. Non ho avuto alcun problema al riguardo.
ah ok!
su riddick: non ricordo chi abbia detto che il gioco non riconosceva la scheda, magari mi sarò sbagliato io :confused: !
Occhio a ebay!! nn vorrei che ti vendano la "MATTONE" edition!!
:sofico:
ragazzi basta con questa sfiducia ad ebay..basta vedere i 2 venditori a cui a volte ho preso qualcosa gente che come pover seller fa 10 vendite al giorno con gente soddisfattissima e ti vendon cose nuove quando le 7800gtx costavano 500e loro gia le vendevano a 450-480...nsomma con tutti i contolli che ci sono su ebay è sicuro come un negozio poi basta leggere i feedback dei venditori per capire che uno che ha all'attivo + di 300 venite è uno onesto e non un rubone
andreamarra
13-10-2005, 14:06
piuttosto... ma le schede che sono in vendita ecc. ecc. hanno frequenze di core e ram come da specifiche ati e samsung, oppure di quelle in commercio hanno valori più bassi?
edit: visto link di yossarian postati su altra discussione.
andreamarra
13-10-2005, 14:11
ragazzi basta con questa sfiducia ad ebay..basta vedere i 2 venditori a cui a volte ho preso qualcosa gente che come pover seller fa 10 vendite al giorno con gente soddisfattissima e ti vendon cose nuove quando le 7800gtx costavano 500e loro gia le vendevano a 450-480...nsomma con tutti i contolli che ci sono su ebay è sicuro come un negozio poi basta leggere i feedback dei venditori per capire che uno che ha all'attivo + di 300 venite è uno onesto e non un rubone
quoto :)
cmq bisognerebbe seguire certe aste, che sono interessanti.
comq al solito nel giro degli ultimi 5 minuti il prezzo si raddoppia :D, però se si riesce a controllare bene il tutto... una X800XL a buon prezzo la si riesce a prendere :D!
andreamarra
13-10-2005, 14:13
piuttosto... ma le schede che sono in vendita ecc. ecc. hanno frequenze di core e ram come da specifiche ati e samsung, oppure di quelle in commercio hanno valori più bassi?
edit: visto link di yossarian postati su altra discussione.
riguardava le XL...
ma per le XT? I cotruttori che frequenze hanno specificato? In linea, o sotto i valori resi noti da ati?
Jedi_Master
13-10-2005, 14:17
ragazzi basta con questa sfiducia ad ebay...
Vabbe stavolta scherzavo!
:)
Pero', saro' io che sono diffidente, ma comprare un prodotto che
non ha nessun'altro su ebay.......no, non lo farei mai.
andreamarra
13-10-2005, 14:19
Vabbe stavolta scherzavo!
:)
Pero', saro' io che sono diffidente, ma comprare un prodotto che
non ha nessun'altro su ebay.......no, non lo farei mai.
certo, se uno e solo uno vende X1800XT... allora il pacco è bello che pronto :asd:
però per questa XL, che in altri negozi è già disponibile (ma non in Italia, arrivano sempre dopo le cose :(), mi fiderei ecco :D
allora le xt da 512mb avranno tutte frequenze standard ati...
pare che invece quelle da 256mb alcune case vorrebbero proporre una versione 600-1400 leggermente depotenziata vendendo questa come x1800xt e la versione 512 625-1500 come x1800xt pe... da quello che so powercolor inn primis anche se nsomma se la versione da 256 con freqeunze di 600-1400 per 100E di meno sarebbe veramente ottimo
quoto :)
cmq bisognerebbe seguire certe aste, che sono interessanti.
comq al solito nel giro degli ultimi 5 minuti il prezzo si raddoppia :D, però se si riesce a controllare bene il tutto... una X800XL a buon prezzo la si riesce a prendere :D!
guarda io le 2 aste le sto seguendo con attenzione anche se prevedo di mettere una offerta limite e vedere se ci arrivano o la superano
andreamarra
13-10-2005, 14:33
allora le xt da 512mb avranno tutte frequenze standard ati...
pare che invece quelle da 256mb alcune case vorrebbero proporre una versione 600-1400 leggermente depotenziata vendendo questa come x1800xt e la versione 512 625-1500 come x1800xt pe... da quello che so powercolor inn primis anche se nsomma se la versione da 256 con freqeunze di 600-1400 per 100E di meno sarebbe veramente ottimo
quindi è scongiurato, almeno per ora, il fatto che non tutte le schede reggano le frequenze date da Ati.
Sarebbe mooolto interessante proporre una XT a 600/1400 e una XTPE a 625/1500, costerebbe molto di meno e praticamente sarebbe come avere una XT....
in questo caso si avrebbe non solo la XL a far da contraltare alla GT, ma ci sarebbe anche la XT contro GT e GTX, e XTPE per sboronare :D
Andre_Santarell
13-10-2005, 15:13
guarda io le 2 aste le sto seguendo con attenzione anche se prevedo di mettere una offerta limite e vedere se ci arrivano o la superano
penso che questa idea la abbiano in tanti eheh ;)
cmq sia non posso che parlar bene di Luca Sardi (l'altro non lo conosco): il miglior venditore /negoziante.. addirittura quando pagavo per i j3 lui spediva in j1 e mi ha sempre fornito super prodotti :) al contrario di molti negozi veri propri che si sgraffignano i prodotti migliori in overclock eheh
andreamarra
13-10-2005, 15:51
ma ci saranno test con G70 e R520 su fear una volta che sarà uscito ufficialmente?
scheda squagliata :asd: a parte :D...
ma ci saranno test con G70 e R520 su fear una volta che sarà uscito ufficialmente?
scheda squagliata :asd: a parte :D...
Vedremo. Quando arriva il gioco lo valuteremo. Non mi piace riempire le recensioni con i test di troppi giochi che alla fine dicono tutti le stesse cose. La scelta deve essere oculata. Se FEAR non sarà CPU limited, permetterà di eseguire timedemo e darà nuovi elementi di discussione, sarà il benvenuto.
Intel-Inside
13-10-2005, 17:20
La X1800 XL ha prestazioni simili alle X850XT e PE... ke ne dite? o sbaglio?
andreamarra
13-10-2005, 17:23
Vedremo. Quando arriva il gioco lo valuteremo. Non mi piace riempire le recensioni con i test di troppi giochi che alla fine dicono tutti le stesse cose. La scelta deve essere oculata. Se FEAR non sarà CPU limited, permetterà di eseguire timedemo e darà nuovi elementi di discussione, sarà il benvenuto.
perfetto.
sai perchè lo chiedo? Perchè personalmente sapere quando mi fa una X1800XT in una mappa di unreal tournament 2004 è interessante per vari motivi, ma ovviamente lo è di più sapere il comportamento di una nuova scheda di fronte a giochi nuovi come fear.
andreamarra
13-10-2005, 17:27
ad esempio, io non vedo l'ora di sapere come andranno queste schede video con l'unreal 3 engine...
perchè un futuro acquisto dipenderebbe molto da come le gpu nvidia e ati muoverebbero il tutto.
anche oblivion, ad esempio, mi piacerebbe sapere con che architettura va meglio.
devo aspettà... :cry:
La X1800 XL ha prestazioni simili alle X850XT e PE... ke ne dite? o sbaglio?
dai test con i giochi dx9 e sm 2.0b la x850xt pe la sovrasta sempre di 4-5fps dovuti alla maggiore banda e alle maggiori freqeunze(540-1180vs 500-1000) anche se effettivamente con l'uso massicio si sm3.0 la situazione dovrebbe avvantaggiare di quei 2-3fps la 1800xl...cmq con una x850xt pe giocherai tutto al massimo da qui a 2 anni mettnedo ora i filtri a palla e gradadamente abbassandoli ma credo cmq che anche con u3 engine una x850xt pe possa dire la sua con aa2x
DevilMalak
13-10-2005, 19:04
ad esempio, io non vedo l'ora di sapere come andranno queste schede video con l'unreal 3 engine...
perchè un futuro acquisto dipenderebbe molto da come le gpu nvidia e ati muoverebbero il tutto.
anche oblivion, ad esempio, mi piacerebbe sapere con che architettura va meglio.
devo aspettà... :cry:
Ricordiamoci che al momento x1800xt va meglio con la maggior parte dei giochi e che non possiam comunque comprare una vga per un gioco: in ogni caso la vedo dura che ati o nvidia vadano molto peggio dell'altra nei giochi, per cui andrei a occhi chiusi su quella che sembra migliore complessivamente già da questi bench
Pare che con i prossimi Catalyst 5.11 (primo set di driver ufficiali che supporterà le X1000 ) Ati intrtodurra una funzionel che, con filtri attivi, aumenterà le prestazioni di un buon 35% in Doom3:
http://img.hexus.net/v2/beanz/cat511ogl/bench-doom3.png
http://www.hexus.net/content/item.php?item=3668
Pare che con i Catalyst 5.11 (primo set di driver ufficiali che supportera le X1000 ) Ati intrtodurra una funzionel che, con filtri attivi, aumenterà le prestazioni di un buon 35% in Doom3:
http://img.hexus.net/v2/beanz/cat511ogl/bench-doom3.png
http://www.hexus.net/content/item.php?item=3668
:eek: pazzesco! :muro:
ma quando usciranno?
Confermo quel fix per Doom 3. Ho ricevuto anche io un programmino per abilitarlo da subito.
cosworth6k
13-10-2005, 21:03
A grandi linee a metà del prox mese.
ma si può sapere se sia una ottimizzazione che non va ad intaccare la qualità dell'immagine? nel senso, non c'è il pericolo di qualcosa di poco "corretto"? :stordita: speriamo di no eh :Prrr:
yossarian
13-10-2005, 21:42
Pare che con i prossimi Catalyst 5.11 (primo set di driver ufficiali che supporterà le X1000 ) Ati intrtodurra una funzionel che, con filtri attivi, aumenterà le prestazioni di un buon 35% in Doom3:
http://img.hexus.net/v2/beanz/cat511ogl/bench-doom3.png
http://www.hexus.net/content/item.php?item=3668
ottimizzazioni del genere, magari non sempre con incrementi di quella portata, nei prossimi mesi saranno abbastanza frequenti anche per altri titoli.
Non si deve dimenticare che i controller di R520 sono ottimizzabili via drivewr, anche in maniera mirata alla singola applicazione.
ottimizzazioni del genere, magari non sempre con incrementi di quella portata, nei prossimi mesi saranno abbastanza frequenti anche per altri titoli.
Non si deve dimenticare che i controller di R520 sono ottimizzabili via drivewr, anche in maniera mirata alla singola applicazione.
scusate se lo dico, ma questa è una cosa fantastica :ave:
Eddie666
13-10-2005, 21:53
ottimizzazioni del genere, magari non sempre con incrementi di quella portata, nei prossimi mesi saranno abbastanza frequenti anche per altri titoli.
Non si deve dimenticare che i controller di R520 sono ottimizzabili via drivewr, anche in maniera mirata alla singola applicazione.
quindi,correggimi se dico male,la' dove non arriveranno i programmatori di videogiochi,vincolati a non poter ottimizzare piu' di tanto i loro motori grafici in virtu' della gran omogeneita' di pc su cui dovranno girare,saranno invece gli sviluppatori di driver a poter effettuare ulteriori aggiustamenti "di fino' per le singole applicazioni 3d? probabilmente mi sono espresso malissimo :D .ma spero che tu abbia capito lo stesso il succo del discorso!
cmq se cosi' fosse sarebbe un ulteriore garanzia di longevita' della scheda stessa....
ciao
yossarian
13-10-2005, 21:55
a pensarci bene, secondo me l'R520 è il tuo chip ideale. Pensa alla possibilità di programmarlo via driver, ottimizzandolo per Linux e OpenGL :sofico:
ottimizzazioni del genere, magari non sempre con incrementi di quella portata, nei prossimi mesi saranno abbastanza frequenti anche per altri titoli.
Non si deve dimenticare che i controller di R520 sono ottimizzabili via drivewr, anche in maniera mirata alla singola applicazione.
Ciao yossarian,
volevo farti una domanda in merito al grado di programmazione di questo controller di memoria rispetto a quelli crossbar classici (dal GF3 in poi se non vado errato).
I vecchi controller non erano affatto programmabili/ottimizzabili via driver (e quindi queste caratteristiche sarebbero prerogative di R520) oppure anche i controller precedenti avevano certe capacità di programmazione?
Ciao grazie. :)
yossarian
13-10-2005, 22:00
quindi,correggimi se dico male,la' dove non arriveranno i programmatori di videogiochi,vincolati a non poter ottimizzare piu' di tanto i loro motori grafici in virtu' della gran omogeneita' di pc su cui dovranno girare,saranno invece gli sviluppatori di driver a poter effettuare ulteriori aggiustamenti "di fino' per le singole applicazioni 3d? probabilmente mi sono espresso malissimo :D .ma spero che tu abbia capito lo stesso il succo del discorso!
cmq se cosi' fosse sarebbe un ulteriore garanzia di longevita' della scheda stessa....
ciao
si; oddio, c'è sempre da tener presenti i limiti HW; ad esempio non posso pensare di programmare thread più lunghi di x istruzioni o un numero superiore di thread a parità di istruzioni (in entrambi i casi per mancanza di spazio nei registri interni). Però posso ottimizzare il flusso di dati e il tipo di elaborazione in base alle caratteristiche del motore grafico, in maniera molto più pesante di quanto non sia possibile con glin attuali chip. Oltre a poter lavorare sul riordino delle istruzioni, cosa già possibile adesso, sarà anche possibile cambiare la priorità di esecuzione delle istruzioni stesse, in modo tale da impedire che alcune elaborazioni facciano da collo di bottiglia alle prestazioni complessive.
yossarian
13-10-2005, 22:03
Ciao yossarian,
volevo farti una domanda in merito al grado di programmazione di questo controller di memoria rispetto a quelli crossbar classici (dal GF3 in poi se non vado errato).
I vecchi controller non erano affatto programmabili/ottimizzabili via driver (e quindi queste caratteristiche sarebbero prerogative di R520) oppure anche i controller precedenti avevano certe capacità di programmazione?
Ciao grazie. :)
in R520 non è programmabile il solo controller della memoria (anzi, questa è una caratteristica secondaria); il controller programmabile è il dispatch processor, ossia quello principale. Comunque i normali controller di un'architettura crossbar non sono programmabili, se non al più basso livello (non attraverso i drivers)
Eddie666
13-10-2005, 22:06
si; oddio, c'è sempre da tener presenti i limiti HW; ad esempio non posso pensare di programmare thread più lunghi di x istruzioni o un numero superiore di thread a parità di istruzioni (in entrambi i casi per mancanza di spazio nei registri interni). Però posso ottimizzare il flusso di dati e il tipo di elaborazione in base alle caratteristiche del motore grafico, in maniera molto più pesante di quanto non sia possibile con glin attuali chip. Oltre a poter lavorare sul riordino delle istruzioni, cosa già possibile adesso, sarà anche possibile cambiare la priorità di esecuzione delle istruzioni stesse, in modo tale da impedire che alcune elaborazioni facciano da collo di bottiglia alle prestazioni complessive.
ok,piu' o meno ho capito:ottimizzazioni nei limiti della capacita' hardware della scheda stessa.....beh,un'ottima cosa direi.....mi piace l'ottimizzazione! :D
denghiu
in R520 non è programmabile il solo controller della memoria (anzi, questa è una caratteristica secondaria); il controller programmabile è il dispatch processor, ossia quello principale.
Come pensavo...
Comunque i normali controller di un'architettura crossbar non sono programmabili, se non al più basso livello (non attraverso i drivers)
Mmm... ricordo che all'epoca dei Detonator XP molti dissero che le GF3 beneficiarono di un bel balzo di prestazioni grazie a ottimizzazioni del memory controller di NV20. Quindi sostanzialmente questa motivazione è errata, in quanto il suo controller di memoria era programmabile solo tramite modifiche hardware e non software... oppure forse con questa frase si voleva/poteva intendere qualcos'altro (che però mi sfugge... :confused: ).
Ciao. :)
yossarian
13-10-2005, 22:37
Come pensavo...
Mmm... ricordo che all'epoca dei Detonator XP molti dissero che le GF3 beneficiarono di un bel balzo di prestazioni grazie a ottimizzazioni del memory controller di NV20. Quindi sostanzialmente questa motivazione è errata, in quanto il suo controller di memoria era programmabile solo tramite modifiche hardware e non software... oppure forse con questa frase si voleva/poteva intendere qualcos'altro (che però mi sfugge... :confused: ).
Ciao. :)
non lo ricordo, però, molto probabilmente, era relativa allo sfruttamento di un'architettura di tipo crossbar rispetto ad una a canale unico tradizionale. NV20 è stato il chip con cui si è introdotta l'architettura crossbar che, rispetto a quella a canale unico, costituiva un notevole passo avanti in fatto di velocità di accesso alla ram.
non lo ricordo, però, molto probabilmente, era relativa allo sfruttamento di un'architettura di tipo crossbar rispetto ad una a canale unico tradizionale. NV20 è stato il chip con cui si è introdotta l'architettura crossbar che, rispetto a quella a canale unico, costituiva un notevole passo avanti in fatto di velocità di accesso alla ram.
Quindi gli incrementi sono stati avuti non perchè si è riprogrammato il memory controller, ma perchè i driver hanno adeguato il numero / l'ordine degli accessi alla RAM in modo da rendere il carico ottimale per un controller di tipo crossbar.
Spero di aver capito bene... :)
Ciao. :)
JENA PLISSKEN
13-10-2005, 23:59
Quindi gli incrementi sono stati avuti non perchè si è riprogrammato il memory controller, ma perchè i driver hanno adeguato il numero / l'ordine degli accessi alla RAM in modo da rendere il carico ottimale per un controller di tipo crossbar.
Spero di aver capito bene... :)
Ciao. :)
erano i mitici detonator 23.11 :oink: :oink: ...me li ricordo...eccome
Ma è vero che le x1800 sono compatibili solo con Win XP?
erano i mitici detonator 23.11 :oink: :oink: ...me li ricordo...eccome
Io pure... assieme al Via Gart 4.10B, mi garantirono un salto da 2700 a 3000 punti nel 3dmark2001 (con cpu celeron 1000@1250 e geforce 256 DDR).
Che bei tempi... :O :O
andreamarra
14-10-2005, 00:10
Pare che con i prossimi Catalyst 5.11 (primo set di driver ufficiali che supporterà le X1000 ) Ati intrtodurra una funzionel che, con filtri attivi, aumenterà le prestazioni di un buon 35% in Doom3:
http://img.hexus.net/v2/beanz/cat511ogl/bench-doom3.png
http://www.hexus.net/content/item.php?item=3668
molto interessante :)!
sarebbe bello che adesso, a ogni release mensile, si riuscisse a inserire in base ai giochi dei fix che, una volta partito il gioco, indicano alla scheda dei percorsi semplificati o scorciatoie per renderizzare in minor tempo una scena.
Pare che lo faranno, a quanto ho capito.
Se non sbaglio, correggimi yossy :D, basterebbe indicare al controller che in presenza di un tale gioco che sfrutta molto un determinato tipo di calcolo, delle priorità o altro per snellire le operazioni. In modo da avere dei vantaggi prestazionali soddisfacenti.
corretto :D?
andreamarra
14-10-2005, 00:11
:eek: pazzesco! :muro:
ma quando usciranno?
che domande... tra un mese :D!
si spera con la XT... :sperem: :)
JENA PLISSKEN
14-10-2005, 00:11
Io pure... assieme al Via Gart 4.10B, mi garantirono un salto da 2700 a 3000 punti nel 3dmark2001 (con cpu celeron 1000@1250 e geforce 256 DDR).
Che bei tempi... :O :O
stra...asd...il via gart...me ne ero quasi dimenticato....ringrazio cmq NV x aver inventato l' Nforce :D
andreamarra
14-10-2005, 00:12
Confermo quel fix per Doom 3. Ho ricevuto anche io un programmino per abilitarlo da subito.
ciao, ma lo avete utilizzato nei vostri bench con DooM3 questo fix?
JENA PLISSKEN
14-10-2005, 00:13
molto interessante :)!
sarebbe bello che adesso, a ogni release mensile, si riuscisse a inserire in base ai giochi dei fix che, una volta partito il gioco, indicano alla scheda dei percorsi semplificati o scorciatoie per renderizzare in minor tempo una scena.
Pare che lo faranno, a quanto ho capito.
Se non sbaglio, correggimi yossy :D, basterebbe indicare al controller che in presenza di un tale gioco che sfrutta molto un determinato tipo di calcolo, delle priorità o altro per snellire le operazioni. In modo da avere dei vantaggi prestazionali soddisfacenti.
corretto :D?
Così pare...sperando senza orribili ottimizzazioni...tipo la mitica storia di QUAK al posto di Quake :sofico:
andreamarra
14-10-2005, 00:15
ma si può sapere se sia una ottimizzazione che non va ad intaccare la qualità dell'immagine? nel senso, non c'è il pericolo di qualcosa di poco "corretto"? :stordita: speriamo di no eh :Prrr:
non credo proprio che si tratterà di intaccare la qualità video (e a qualcuno neanche importerebbe, in fondo se non è importante l'aniso con tutte le angolazioni... :D), quanto di dare al controller probabilmente delle priorità o dei "suggerimenti" in modo da evitare calcoli ridondanti e inutili o robe del genere.
in modo da avere in meno tempo più potenza di calcolo disponibile.
Ovviamente ogni release mensile potrà apportare miglioramenti al controller per i vari giochi.
da verificare se verrà fatta sta cosa per i titoli più importanti o quelli in cui ci sono defaillance, e se il vantaggio prestazionale si attesterà su valori sensibili e non minimi.
andreamarra
14-10-2005, 00:17
Così pare...sperando senza orribili ottimizzazioni...tipo la mitica storia di QUAK al posto di Quake :sofico:
LOL... Quak... :asd:
mi ricordo le prime volte che seguivo il forum delle risate a leggere chi sio scannava con frasi del tipo "scusa, ma il draghetto dov'è :asd: ??" " ma tu pensa a quak va..."
:sofico:
in ogni caso non dovrebbero essere ottimizzazioni volte a peggiorare la qualità grafica, quanto un modo per dare delle "dritte" alla scheda video in modo da gestire al meglio un determinato tipo di ombra (ad esempio) o un determinato tipo di effetto.
Qua ci vorrebbe yossarian e fek per fare esempi, magari sto scrivendo puttanate :asd:
JENA PLISSKEN
14-10-2005, 00:22
LOL... Quak... :asd:
mi ricordo le prime volte che seguivo il forum delle risate a leggere chi sio scannava con frasi del tipo "scusa, ma il draghetto dov'è :asd: ??" " ma tu pensa a quak va..."
:sofico:
in ogni caso non dovrebbero essere ottimizzazioni volte a peggiorare la qualità grafica, quanto un modo per dare delle "dritte" alla scheda video in modo da gestire al meglio un determinato tipo di ombra (ad esempio) o un determinato tipo di effetto.
Qua ci vorrebbe yossarian e fek per fare esempi, magari sto scrivendo puttanate :asd:
No No...credo sia esattamente quello che dici ;)
yossarian
14-10-2005, 00:26
Quindi gli incrementi sono stati avuti non perchè si è riprogrammato il memory controller, ma perchè i driver hanno adeguato il numero / l'ordine degli accessi alla RAM in modo da rendere il carico ottimale per un controller di tipo crossbar.
Spero di aver capito bene... :)
Ciao. :)
esatto: avere 4 canali bidirezionali e sfruttarli in maniera ottimale, è meglio che averne uno che funziona a senso unico alternato :D
andreamarra
14-10-2005, 00:27
infatti, ho detto una cagata :asd:
praticamente il vate(r) :D yossarian spiega che:
La programmabilità via driver permette di ottimizzare il comportamento del chip per ogni singola applicazione, arrivando a riorganizzare, di volta in volta, il flusso di dati interno (agendo sui meccanismi di priorità delle operazioni e sugli accessi in menoria e alle cache interne). Questo significa, una volta individuato cosa rallenta il chip in quella determinata applicazione, poter intervenire per eliminare o ridurre l'impatto dei colli di bottiglia.
praticamente, nessun peggioramento dell'immagine.
andreamarra
14-10-2005, 00:28
No No...credo sia esattamente quello che dici ;)
non proprio :D
anche se in pratica poi avviene, come conseguenza, quello che ho detto io.
almeno credo :D...
yossarian
14-10-2005, 00:29
infatti, ho detto una cagata :asd:
praticamente il vate(r) :D yossarian spiega che:
praticamente, nessun peggioramento dell'immagine.
wate(r) con la doppia v; è inglese :D
andreamarra
14-10-2005, 00:33
wate(r) con la doppia v; è inglese :D
mi perdoni :ave:!
:D
JENA PLISSKEN
14-10-2005, 00:37
infatti, ho detto una cagata :asd:
praticamente il vate(r) :D yossarian spiega che:
praticamente, nessun peggioramento dell'immagine.
ed io ti ho c@g@t@ contro...ed avevo pure letto quello che aveva scritto yossarian...ormai dovrei andare a letto e basta :D
riguarda la memoria...traduciamo così :D
ciao, ma lo avete utilizzato nei vostri bench con DooM3 questo fix?
No, mi è stato fornito solo ieri.
No, mi è stato fornito solo ieri.
si ma tu hai bruciato la scheda, ora che facciamo ? :cry: :(
Ma è vero che le x1800 sono compatibili solo con Win XP?
:confused:
Nessuno sa dirmi qcs?
credo in ogni caso una macchina da gioco dovrebbe avere come so un xp o superiore, un 98 e inferiore la vedo male (visto che il pc non é solo scheda video)
halduemilauno
14-10-2005, 09:04
:confused:
Nessuno sa dirmi qcs?
ma i drivers credo vengono rilasciati anche per il 2000. se hai il 98 in tutti i casi cambialo.
;)
Volevo fare solo i complimenti per la Recensione qui su Hwu :eek:
Penso sia una delle rece più complete e ben fatte che abbia mai letto!
Davvero bravi :)
ma i drivers credo vengono rilasciati anche per il 2000. se hai il 98 in tutti i casi cambialo.
;)
Mi sono informato e mi hanno detto che nn c'è alcun problema con Win 2000.
Cmq grazie. :)
JENA PLISSKEN
14-10-2005, 10:15
si ma tu hai bruciato la scheda, ora che facciamo ? :cry: :(
Ma sul serio??? :D
Ma sul serio??? :D
purtroppo si :cry:
JENA PLISSKEN
14-10-2005, 10:36
purtroppo si :cry:
ma come cappero è successo? :muro: :muro: Adesso glieli detrarranno dallo stipendio questi 500€ e passa? :sofico:
ehm, ha leggermente* overvoltato il core...
*cioé, da quanto ho capito ha messo un valore sballato, che potrebbe essere anche moooolto maggiore dello standard
JENA PLISSKEN
14-10-2005, 10:39
ma come cappero è successo? :muro: :muro: Adesso glieli detrarranno dallo stipendio questi 500€ e passa? :sofico:
Lo vedete che era meglio la dissipazione della 5800?
Che ignoranti che siete...NN avete capito nULLA :O
http://www.computerworld.no/bildearkiv/FF061D65-9381-4646-1C12202BEE814CFA.jpg
JENA PLISSKEN
14-10-2005, 10:40
ehm, ha leggermente overvoltato il core...
e xchè.... di grazia?? :D
e xchè.... di grazia?? :D
ehm, ho modificato...
comunque era per vedere la stabilità in oc... solo che Vifani non sa che valore aveva messo (da quanto ho capito) e la scheda s'é bruciata (magari era qualche volt in più)
JENA PLISSKEN
14-10-2005, 10:43
ehm, ho modificato...
comunque era per vedere la stabilità in oc... solo che Vifani non sa che valore aveva messo (da quanto ho capito) e la scheda s'é bruciata (magari era qualche volt in più)
ripeto...una trattenuta sullo stipendio è d' uopo :D :D
Ma come stò parlando stamattina? :confused: :mbe: :eek:
e xchè.... di grazia?? :D
Ma non ti vedo molto aggiornato, ma che fai bigi la sezione schede video ? :sofico: :mad: :fagiano: :ciapet:
JENA PLISSKEN
14-10-2005, 10:45
Ma non ti vedo molto aggiornato, ma che fai bigi la sezione schede video ? :sofico: :mad: :fagiano: :ciapet:
ahimè...nn seguo + come una volta :cry: :cry: ...purtroppo :muro:
ahimè...nn seguo + come una volta :cry: :cry: ...purtroppo :muro:
:O
JENA PLISSKEN
14-10-2005, 10:50
:O
Cmq il dissy della 5800 ha fatto scuola...ha aperto un' era...ha indicato una nuova via...e poi dicevano che quella scheda NN serviva ad un tubo :D
Quindi x ora niente bench con questa fix?? :confused: ..ha overvoltate tutte e 2 le schede?
Maury, tu che sei un intenditore, che te ne pare dell' hdr della x1800? Si abbina bene all' unto?
JENA PLISSKEN
14-10-2005, 11:04
Maury, tu che sei un intenditore, che te ne pare dell' hdr della x1800? Si abbina bene all' unto?
Beh...cavoli...lo dovrebbe ESALTARE...hai visto al differneza di resa con le NV??
E' ormai al scheda UFF degli adoratori del Sacro unto :O
Maury, tu che sei un intenditore, che te ne pare dell' hdr della x1800? Si abbina bene all' unto?
bello bello :read: :oink:
Beh...cavoli...lo dovrebbe ESALTARE...hai visto al differneza di resa con le NV??
E' ormai al scheda UFF degli adoratori del Sacro unto :O
e tu non vuoi fare parte del club? :O
JENA PLISSKEN
14-10-2005, 11:44
e tu non vuoi fare parte del club? :O
Io ci sono nato nell' UNTO :O :eek: :D
Che si deve fare?? :D
Io ci sono nato nell' UNTO :O :eek: :D
Che si deve fare?? :D
Codice per la firma
<B>Adepto dell'Ordine<COLOR=red> "GLI ADORATORI DEL SACRO UNTO"</COLOR></B>
Sostituite le < con le quadre
:read:
JENA PLISSKEN
14-10-2005, 12:18
Codice per la firma
<B>Adepto dell'Ordine<COLOR=red> "GLI ADORATORI DEL SACRO UNTO"</COLOR></B>
Sostituite le < con le quadre
:read:
Fa fa fatto
yossarian
14-10-2005, 12:25
'sto forum sta diventando estremamente "scivoloso" :sofico:
'sto forum sta diventando estremamente "scivoloso" :sofico:
Yoss sarebbe un vero onore avere te come membro :p almeno pensaci :stordita:
yossarian
14-10-2005, 13:49
Yoss sarebbe un vero onore avere te come membro :p almeno pensaci :stordita:
ti ringrazio per l'invito; ne sono lusingato. Il fatto è che che sono ideologicamente troppo anarchico per abbracciare un qualsivoglia credo e troppo individualista per sentirmi parte di un gruppo.
:sofico:
...quanto unto stamattina nel thread... :eek: :D
ti ringrazio per l'invito; ne sono lusingato. Il fatto è che che sono ideologicamente troppo anarchico per abbracciare un qualsivoglia credo e troppo individualista per sentirmi parte di un gruppo.
:sofico:
è una sorta di 2 di picche diplomatico insomma ? :sofico: :cry:
ti ringrazio per l'invito; ne sono lusingato. Il fatto è che che sono ideologicamente troppo anarchico per abbracciare un qualsivoglia credo e troppo individualista per sentirmi parte di un gruppo.
:sofico:
Ahi ahi... mi sa che yoss è dell'altra sponda... :sofico: :doh:
Ahi ahi... mi sa che yoss è dell'altra sponda... :sofico: :doh:
...no è che a yossarian non piace tanto l'hdr, quindi niente unto... lui preferisce l'asciutto TAA... l'ha confessato qualche post fa... :D :D
yossarian
14-10-2005, 14:37
è una sorta di 2 di picche diplomatico insomma ? :sofico: :cry:
+ o -
yossarian
14-10-2005, 14:38
Ahi ahi... mi sa che yoss è dell'altra sponda... :sofico: :doh:
:Prrr:
conan_75
14-10-2005, 14:40
Unto forever :D
Unto forever :D
ben venuto :friend:
quanto conosci un'architettura a pipeline come quella di G70? Quante unità di shading ha? Che tipo di operazioni può svolgere ognuna? Come sono collegate tra loro? Possono svolgere operazioni su elementi (ad esempio pixel) diversi? Quanti pixel diversi possono circolare dentro una pipeline di G70? Mai sentito parlare di istruzioni di salto? Hai idea di quanti punti di ingresso e uscita può avere una pipeline? Sai cosa sono i cicli di loopback e a cosa servono?
Se vogliamo fare i pignoli, anche una pipeline a 3 stadi è un'anomalia.
Estrapolato da un altro thread.
E' l'architetto di Matrix!L'ho scoperto! :eek:
yossarian
14-10-2005, 15:00
Estrapolato da un altro thread.
E' l'architetto di Matrix!L'ho scoperto! :eek:
ops
:ops:
gianlu75xp
14-10-2005, 15:06
Scusate se sono di fretta, posto dal lavoro e ho necessità di sapere solo se questa scheda si trova già da qualche parte in vendita... a casa non ho più il pc, è saltato l'alimentatore e c'è il rischio che si sia trascinato nell'aldilà quasi tutti i componenti, 6800GT agp inclusa :(
Ero orientato sulla 7800GT(X)... ma sembra che la risposta di Ati questa volta non dia spazio ad equivoci e risulti molto performante... ma ho necessità di assemblarmi il pc in 2e2=4 e volevo, appunto, sapere se potevo includerla nella mia cfg :rolleyes: :)
Si trova? :rolleyes:
Quincy_it
14-10-2005, 15:15
Si trova? :rolleyes:
Della XT non v'è traccia, la XL dovrebbe essere in arrivo.
gianlu75xp
14-10-2005, 15:19
Della XT non v'è traccia, la XL dovrebbe essere in arrivo.
La XL è la risposta alla 7800 Gt e la XT alla GTX giusto?
La XL dovrebbe andare un 20% di più rispetto alla GT da quel che ho capito, correggetemi se sbaglio... perchè se costa = allora non ho dubbi su cosa indirizzarmi :rolleyes:
voglioilmondo
14-10-2005, 15:24
mi sa che a natale na 1800xt non mi scappa :sofico:
Quincy_it
14-10-2005, 15:42
La XL è la risposta alla 7800 Gt e la XT alla GTX giusto?
La XL dovrebbe andare un 20% di più rispetto alla GT da quel che ho capito, correggetemi se sbaglio... perchè se costa = allora non ho dubbi su cosa indirizzarmi :rolleyes:
Diciamo che se hai molta fretta nell'acquisto, perfortuna (o purtroppo) non hai scelta: le 7800 GTX e GT si trovano (almeno le prime di sicuro), le X1800 ancora no.
andreamarra
14-10-2005, 15:49
le X1800XL in Italia sono in arrivo, e ovviamente costeranno per i primi tempi un pacco di soldi...
all'estero pare che si trovino già, su ebay le commercializzano.
In ogni caso, se devo prendere una scheda del genere la prendo in germania.
Foglia Morta
14-10-2005, 15:50
La XL è la risposta alla 7800 Gt e la XT alla GTX giusto?
La XL dovrebbe andare un 20% di più rispetto alla GT da quel che ho capito, correggetemi se sbaglio... perchè se costa = allora non ho dubbi su cosa indirizzarmi :rolleyes:
La XL da quel che si è visto fino ad ora va come la 7800GT più o meno , ma grazie alla programmabilità di cui parlavano prima gli altri la XL potrebbe dare la polvere alla GT... ma ancora di preciso non si sa quantificare il vantaggio che otterrà da driver ottimizzati.
Comunque se puoi permetterti la XT io andrei su quella appena è reperibile , intanto una scheda economica per temporeggiare , poi la rivendi e ci rimetti pochissimo.
ormai si tratta di attendere 2 o 3 settimane per la XT
andreamarra
14-10-2005, 15:55
La XL è la risposta alla 7800 Gt e la XT alla GTX giusto?
La XL dovrebbe andare un 20% di più rispetto alla GT da quel che ho capito, correggetemi se sbaglio... perchè se costa = allora non ho dubbi su cosa indirizzarmi :rolleyes:
bhè no, la XL non va il 20% in più di una 7800GT.
quasi sempre, anche se di poco, la Gt gli è superiore.
Il margine di vantaggio la XL lo prende però in certe situazioni di render pesante (che poi, personalmente, sono le situazioni tipiche di chi usa queste schede), ovvero almeno 1280*1024 e filtri a manetta.
decisivo sarà vedere come verrà gestito dai driver mensili il controller di memoria di R520. Già con D3 pare dare vantaggi prestazionali intorno al +35%, e in Riddick pari al 16%. Che non sono stronzatine, secondo me.
tra l'altro in diversi test, la X850XT va leggermente di più di una X1800XL a causa di banda passante maggiore. Ma ovviamente nelle situazioni che ho esposto, la XL prende il largo.
a deporre in favore delle schede R520: qualità di filtri superiore, architettura innovativa, possibilità di incrementare sensibilmente le prestazioni con i driver che gestiscono il controller di memoria, HDR+AA, renderizzazione HDR e heavy HDR migliore di G70, branching dinamico e heavy branching dinamico nettamente superiore.
In più, se usi un dissi migliore di quello di fabbrica, la si può overvoltare da bios (senza metterci mano quindi) e aumentare le frequenze fino a quelle della XT. Questo è quanto ho percepito in giro.
ovviamente, solo se il prezzo non è eccessivamente superiore a una GT l'acquisto è caldamente consigliato.
gianlu75xp
14-10-2005, 16:00
bhè no, la XL non va il 20% in più di una 7800GT.
quasi sempre, anche se di poco, la Gt gli è superiore.
Il margine di vantaggio la XL lo prende però in certe situazioni di render pesante (che poi, personalmente, sono le situazioni tipiche di chi usa queste schede), ovvero almeno 1280*1024 e filtri a manetta.
decisivo sarà vedere come verrà gestito dai driver mensili il controller di memoria di R520. Già con D3 pare dare vantaggi prestazionali intorno al +35%, e in Riddick pari al 16%. Che non sono stronzatine, secondo me.
tra l'altro in diversi test, la X850XT va leggermente di più di una X1800XL a causa di banda passante maggiore. Ma ovviamente nelle situazioni che ho esposto, la XL prende il largo.
a deporre in favore delle schede R520: qualità di filtri superiore, architettura innovativa, possibilità di incrementare sensibilmente le prestazioni con i driver che gestiscono il controller di memoria, HDR+AA, renderizzazione HDR e heavy HDR migliore di G70, branching dinamico e heavy branching dinamico nettamente superiore.
In più, se usi un dissi migliore di quello di fabbrica, la si può overvoltare da bios (senza metterci mano quindi) e aumentare le frequenze fino a quelle della XT. Questo è quanto ho percepito in giro.
ovviamente, solo se il prezzo non è eccessivamente superiore a una GT l'acquisto è caldamente consigliato.
Grazie Andrea, mi hai tolto qualche dubbio :)
~Mr.PartyHut~
14-10-2005, 16:01
raga, non ci siamo :(
in UK la XL è disponibile e costa (della Sapphire) 492 € comprese le spese :rolleyes:
Mentre sullo stesso sito vendono una BFG 7800 GT a 346 € spese incluse :rolleyes:
Per di più l'uscita delle XT è prevista per il 28 Novembre, quindi in Italia saranno disponibili a Dicembre.
Ho parlato anche con un negozio italiano per sapere la disponibilità da loro e mi hanno detto che per ora non sanno nulla di preciso e che queste schede sono un pò più sulla carta che ai fornitori :rolleyes:
non so ragazzi, sicuramente per ora vada con una scheda di "passaggio". Magari la 7800 GT della BFG :rolleyes:
Non so se provate la mia stessa sensazione, ma sembra che stiamo parlando dell'aria, nel senso che sono delle schede mostruose in termini di efficienza, ma dove sono? :rolleyes:
Sicuramente me ne comprerò una, ma non credo questo sia il periodo giusto (e neanche novembre secondo me). Secondo sempre il mio modesto parere, dovremmo farle carburare prima queste schede e non comprarle a Dicembre, quando sarà uscito al massimo una Release dei Catalyst.
Quindi credo sia meglio far perfezionare il meccanismo dalla ATI. Che rilascino tutti i driver ottimizzati, ma lasciamo anche che esca :p e soprattutto che cali di prezzo. Sinceramente 500€ per la XL, ora non li spendo :(
Ciao
~» Mr.Party`Hut «~
Foglia Morta
14-10-2005, 16:06
io nei siti inglesi che guardavo vedevo sempre prezzi superiori che in italia, ora non li guardo più. Ma se puoi comprarti una 7800GT ora e una X1800 fra 1 o 2 mesi beato te
andreamarra
14-10-2005, 16:09
sul discorso prezzi: è normale che la G70 essendo uscita diverso tempo fa adesso la si trova a prezzi ben più bassi di quando era uscita il giorno stesso.
La XL ovviamente nelle prime settimane avrà prezzi infernali. Ma purtroppo è una situazione tipica, ricordo quando uscì la 9800pro che la si trovava in Italia a prezzi clamorosi, roba tipo 600 euro o poco meno...
dopo poco, il prezzo di sistemò.
Ora, se uno ha necessità estrema di prendere una vga nuova adesso (scheda video scarsetta, semplice voglia ecc. ecc.) personalmente può fare diverse scelte:
-prendersi una GT/GTX perchè costa per ora di meno della controparte ati, sebbene quest'ultima personalmente mi dia maggiori garanzie.
-prendere una scheda video nvidia o ati di fascia "media" per tenere botta se si ha intenzione di aspettare XL e XT, e poi venderla su ebay e riprenderci i soldi. Su ebay spesso con l'asta si vendono cose a prezzi assurdi :asd:
-aspettare la XL/XT.
io personalmente, non avendo fretta ancora posso tranquillamente aspettare.
andreamarra
14-10-2005, 16:12
Grazie Andrea, mi hai tolto qualche dubbio :)
spero di essere stato il più obiettivo possibile :)
in ogni caso, è normale che il prezzo poi incida sulla scelta della scheda. Naturale.
se proprio vuoi prendere sta nuova scheda ati ma non puoi aspettare che i prezzi si allineino e che sia disponibile, potresti puntare a prendere una scehda di fascia media ati o nvidia per tirare ancora un pò. Nel caso poi la vendi su ebay, e si sa che con le aste i prezzi lievitano incredibilmente... forse ci recuperi pure tutti i soldi :D (io sono riuscito a vendere la mia NF7-s + barton su ebay, e con i soldi presi sono riuscito a rpendermi una ULI+Venice 3200+ testato a 2700 MHz... :D)
nel frattempo, con prezzi più stabili e rivolti verso il basso, nuovi giochi mangia vpu e driver ottimizzati per controller e robe varie, puoi fare una scelta più oculata futura.
ancora con la storia dei prezzi! questi sono quelli tedeschi!
395,69€ Sapphire Hybrid Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe, bulk/lite retail
399,00€ Club 3D Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe
408,78€ Sapphire Hybrid Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe, full retail
419,31€ Connect3D Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe
430,36€ GeCube Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe
478,90€ Connect3D Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
537,90€ GeCube Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
589,98€ GeCube Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe
non sembrano prezzi eccessivi! se poi in UK e in Italia li fanno a 6000€, non vedo qaule sia il problema! :cool:
andreamarra
14-10-2005, 16:18
cmq in ogni caso, parere personale, io quando esce un nuovo componente (qualunque esso sia) aspetto sempre almeno un mese prima di acquistarlo.
sia per il discorso reperibilità, sia per il discorso soldi, che per altro discorso. Ovvero, di solito i chip quanto più si va avanti con la produzione tendono a migliorare in tenuta di OC magari.
e nel caso ci dovessero essere problemi vari o bug (vedi qualche processore in passato), per lo meno evito fregature :D!
andreamarra
14-10-2005, 16:19
ancora con la storia dei prezzi! questi sono quelli tedeschi!
395,69€ Sapphire Hybrid Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe, bulk/lite retail
399,00€ Club 3D Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe
408,78€ Sapphire Hybrid Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe, full retail
419,31€ Connect3D Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe
430,36€ GeCube Radeon X1800 XL, 256MB GDDR3, 2x DVI, ViVo, PCIe
478,90€ Connect3D Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
537,90€ GeCube Radeon X1800 XT, 256MB GDDR3, 2x DVI, ViVo, PCIe
589,98€ GeCube Radeon X1800 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe
non sembrano prezzi eccessivi! se poi in UK e in Italia li fanno a 6000€, non vedo qaule sia il problema! :cool:
ma negli shop teteschi :D sono già ordinabili, o sono soltanto prezzi di componenti ancora in arrivo?
ovviamente parlo della versione XL.
voglioilmondo
14-10-2005, 16:21
ma la xt con 512 di ram che ti fa anche da fornelletto dentro il pc?
Quincy_it
14-10-2005, 16:28
ovviamente parlo della versione XL.
Ho dato un'occhiata prima al sito "Overcloccatori" in uk e le XL sono già disponibili.
Le XT invece sono previste per fine novembre.
andreamarra
14-10-2005, 16:31
Ho dato un'occhiata prima al sito "Overcloccatori" in uk e le XL sono già disponibili.
Le XT invece sono previste per fine novembre.
la xl è sicuramente in giro, chiedevo se fossero disponibili anche in germania... con quei prezzi un o il pensierino ce lo fa :D
strano per la XT, io sapevo che i lancio era destinato al 5 di novembre.. non vorrei che abbiano problema di resa.
ma per tutto il mondo la XT verrà rilasciata a fine novembre?
Ma la x1800xt è + potente di tanto della 7800 gtx??
xè l'ho appena ordinata la7800 gtx e mi girerebbe.
va be ke se esce a fine novembre faccio in tempo a godermela un pò, venderla e poi prendermi la x1800xt o a stò punto mi faccio uno sli di 7800 gtx??
ma negli shop teteschi :D sono già ordinabili, o sono soltanto prezzi di componenti ancora in arrivo?
ovviamente parlo della versione XL.
dipende dagli shop. Quei prezzi li ho presi su un motore di ricerca di shop online tedeschi. Qualcuno li avrà già in stock. Secondo me basta aspettare settimana prossima. L'importante però che i prezzi sono quelli lì! :read:
Foglia Morta
14-10-2005, 16:59
Ma la x1800xt è + potente di tanto della 7800 gtx??
xè l'ho appena ordinata la7800 gtx e mi girerebbe.
va be ke se esce a fine novembre faccio in tempo a godermela un pò, venderla e poi prendermi la x1800xt o a stò punto mi faccio uno sli di 7800 gtx??
con i filtri la X1800XT è nettamente più potente in generale , poi con anche i driver ottimizzati dovrebbe guadagnare ancora un bel po
andreamarra
14-10-2005, 17:11
anche in Serious Sam 2 si parla di fix volti a migliorare le prestazioni di R520 in maniera sensibile, circa come Riddick (si parla di un 16%).
andreamarra
14-10-2005, 17:26
Ma questi fix per il controller di memoria di R520 non riguarderanno solo i giochi openGL vero?
tecnicamente possono ottimizzare l'accesso dei dati tramite controller anche con giochi direct3D no?
Ma questi fix per il controller di memoria di R520 non riguarderanno solo i giochi openGL vero? tecnicamente possono ottimizzare l'accesso dei dati tramite controller anche con giochi direct3D no?
certamente :)
Quincy_it
14-10-2005, 20:11
ma per tutto il mondo la XT verrà rilasciata a fine novembre?
:boh:
Di certo ci sto facendo un pensierino :D
http://akiba.ascii24.com/akiba/news/2005/10/14/images/images789130.jpg
http://akiba.ascii24.com/akiba/news/2005/10/14/images/images789131.jpg
http://akiba.ascii24.com/akiba/news/2005/10/14/images/images789132.jpg
http://akiba.ascii24.com/akiba/news/2005/10/14/images/images789133.jpg
http://akiba.ascii24.com/akiba/news/2005/10/14/images/images789170.jpg
Ma la x1800xt è + potente di tanto della 7800 gtx??
xè l'ho appena ordinata la7800 gtx e mi girerebbe.
va be ke se esce a fine novembre faccio in tempo a godermela un pò, venderla e poi prendermi la x1800xt o a stò punto mi faccio uno sli di 7800 gtx??
Hai preso un'ottima scheda, che ti durerà all'incirca come la 1800xt, non farti troppi problemi, le differenze sono alle alte risoluzioni con tutti i filtri.
Pk77
~Mr.PartyHut~
14-10-2005, 22:25
cmq in ogni caso, parere personale, io quando esce un nuovo componente (qualunque esso sia) aspetto sempre almeno un mese prima di acquistarlo.
sia per il discorso reperibilità, sia per il discorso soldi, che per altro discorso. Ovvero, di solito i chip quanto più si va avanti con la produzione tendono a migliorare in tenuta di OC magari.
e nel caso ci dovessero essere problemi vari o bug (vedi qualche processore in passato), per lo meno evito fregature :D!
Io volevo dire questo andrea :)
Diamo tempo a queste schede di mostrare veramente i denti. In questo primo periodo non possiamo vedere il quadro completo, anche perchè quanti Catalyst debbono uscire per far diventare queste schede potentissime? :)
Poi magari ci sarà qualche bug con qualche gioco/motore grafico. Non credo, ma mai dire mai :D
Poi quando dico di comprare una scheda che sia provvisoria, non dico che lo debba essere per uno o due mesi. Se mi faccio una scheda provvisoria me la tengo almeno 6 mesi :) poi intanto sarà uscita anche la controrisposta da nVidia :D
Ciao
~» Mr.Party`Hut «~
DarKilleR
14-10-2005, 22:31
uno come scheda provvisoria si può prendere anche una 9800 Pro.... :cool:
Ho letto 4-5 recensioni e questa x1800xt mi piace veramente tanto. Questa generazione mi sa che ritorno in casa Ati. (ho ancora la 9600xt, mi ci sono affezionato :D ) Ovviamente dovrò aspettare la fascia media, si sa qualcosa quando esce?
Jaguar64bit
15-10-2005, 01:58
http://akiba.ascii24.com/akiba/news/2005/10/14/images/images789130.jpg
http://akiba.ascii24.com/akiba/news/2005/10/14/images/images789131.jpg
http://akiba.ascii24.com/akiba/news/2005/10/14/images/images789132.jpg
http://akiba.ascii24.com/akiba/news/2005/10/14/images/images789133.jpg
http://akiba.ascii24.com/akiba/news/2005/10/14/images/images789170.jpg
Cavolo che figata la scheda e la confezione ..da paura.
JENA PLISSKEN
15-10-2005, 09:07
Io volevo dire questo andrea :)
Diamo tempo a queste schede di mostrare veramente i denti. In questo primo periodo non possiamo vedere il quadro completo, anche perchè quanti Catalyst debbono uscire per far diventare queste schede potentissime? :)
Poi magari ci sarà qualche bug con qualche gioco/motore grafico. Non credo, ma mai dire mai :D
Poi quando dico di comprare una scheda che sia provvisoria, non dico che lo debba essere per uno o due mesi. Se mi faccio una scheda provvisoria me la tengo almeno 6 mesi :) poi intanto sarà uscita anche la controrisposta da nVidia :D
Ciao
~» Mr.Party`Hut «~
Aspettare un po' è sempre meglio...soprattutto x possibili bug. ;)
~Mr.PartyHut~
15-10-2005, 10:46
Aspettare un po' è sempre meglio...soprattutto x possibili bug. ;)
Infatti... Mi sto facendo prendere troppo dalla fretta :)
Come del resto ho avuto bug con la 9800 Pro e alcuni giochi, mai risolti, ne da ATI ne dalle varie patch :( (esempio: ToCa Race Driver 2, non si poteva settare alcun filtro AA in concomitanza con il dettaglio massimo) :(
Ciao
~» Mr.Party`Hut «~
Cavolo che figata la scheda e la confezione ..da paura.
Visto che parliamo della sapphire, sapete quali titoli mette a disposizione Sapphire da scaricare???? :D
Sapphire ha introdotto una genialata: anzikè mettere demo o giochi completi decisi a priori ( quindi il classico bundle ), permette all'acquirente d scaricare dal proprio sito 2 Giochi Completi a sua scelta inserendo il codice fornito nella confezione :sofico:
JENA PLISSKEN
15-10-2005, 12:16
Visto che parliamo della sapphire, sapete quali titoli mette a disposizione Sapphire da scaricare???? :D
Sapphire ha introdotto una genialata: anzikè mettere demo o giochi completi decisi a priori ( quindi il classico bundle ), permette all'acquirente d scaricare dal proprio sito 2 Giochi Completi a sua scelta inserendo il codice fornito nella confezione :sofico:
E bravi. C è DUKE NUKEM FOREVER e HL3...vero? :O
andreamarra
15-10-2005, 12:21
Io volevo dire questo andrea :)
Diamo tempo a queste schede di mostrare veramente i denti. In questo primo periodo non possiamo vedere il quadro completo, anche perchè quanti Catalyst debbono uscire per far diventare queste schede potentissime? :)
Poi magari ci sarà qualche bug con qualche gioco/motore grafico. Non credo, ma mai dire mai :D
Poi quando dico di comprare una scheda che sia provvisoria, non dico che lo debba essere per uno o due mesi. Se mi faccio una scheda provvisoria me la tengo almeno 6 mesi :) poi intanto sarà uscita anche la controrisposta da nVidia :D
Ciao
~» Mr.Party`Hut «~
no io non parlo di bug con motori grafici. Tra l'altro grazie alla altissima programmabilità del chip R520 credo che eventualità del genere siano da scongiurarsi.
Io intendo dire che aspetto sempre un mesetto in più per evitare che ci possano essere problemi strutturali del chip, che magari in revision successive verrebbero ad essere sistemate.
faccio l'esempio della NF7-s, che è uscita in diverse versioni. La prima era oscena per OC, la seconda un pò meglio, la terza (la 2.0) semplicemente esaltante.
ma è una situazione che sinceramente per l'R520 non prendo in considerazione, ma fidarsi è bene... :D
JENA PLISSKEN
15-10-2005, 12:24
no io non parlo di bug con motori grafici. Tra l'altro grazie alla altissima programmabilità del chip R520 credo che eventualità del genere siano da scongiurarsi.
Io intendo dire che aspetto sempre un mesetto in più per evitare che ci possano essere problemi strutturali del chip, che magari in revision successive verrebbero ad essere sistemate.
faccio l'esempio della NF7-s, che è uscita in diverse versioni. La prima era oscena per OC, la seconda un pò meglio, la terza (la 2.0) semplicemente esaltante.
ma è una situazione che sinceramente per l'R520 non prendo in considerazione, ma fidarsi è bene... :D
Beh magari esce qualcosa con le pseudopipe attivabili?? Tipo la gto2 :sofico:
E bravi. C è DUKE NUKEM FOREVER e HL3...vero? :O
forse tra 2-3-4 generazioni d prossime ATI :D
ben venuto :friend:
Benvenunto semmai :D
Visto che parliamo della sapphire, sapete quali titoli mette a disposizione Sapphire da scaricare???? :D
Sapphire ha introdotto una genialata: anzikè mettere demo o giochi completi decisi a priori ( quindi il classico bundle ), permette all'acquirente d scaricare dal proprio sito 2 Giochi Completi a sua scelta inserendo il codice fornito nella confezione :sofico:
Dalla confezione sembra:
Act of War
Prince of Persia
Richard Burns' Rally
Brothers in Arms
Insomma...giochi d'attualità :D
Spero che con la versione xt ci sia almeno Fear :rolleyes:
andreamarra
15-10-2005, 15:06
le schede meglio sempre comprarle senza bundle inutile... ti costano un botto di più e spesso ti danno giochi che neanche vorresti...
io cmq mi sa che prendo serissimamente in considerazione l'acquisto della sapphire X800GTO2 moddabile a X850XT/PE.....
ovviamente come scheda di passaggio attendendo i prossimi chip nvidia e ati.
andreamarra
15-10-2005, 15:10
.
andreamarra
15-10-2005, 15:50
Beh magari esce qualcosa con le pseudopipe attivabili?? Tipo la gto2 :sofico:
e....
uscisse una scheda del genere sarebbe la svolta epocale...
io per adesso mi sa che mi fiondo, nell'attesa, proprio su una GTO2...
la si trova a oltre 100 euro di meno di una 6800GT e la si porta tranquillamente a X850XTPE....
all'estero poi te la regalano davvero...
~Mr.PartyHut~
15-10-2005, 17:05
e....
uscisse una scheda del genere sarebbe la svolta epocale...
io per adesso mi sa che mi fiondo, nell'attesa, proprio su una GTO2...
la si trova a oltre 100 euro di meno di una 6800GT e la si porta tranquillamente a X850XTPE....
all'estero poi te la regalano davvero...
lol andrea, mi hai fatto venire voglia, lol :sofico:
E' facile moddarla? O è una cosa che va a "fortuna"? :D
Ciao
~» Mr.Party`Hut «~
~Mr.PartyHut~
15-10-2005, 17:25
alt alt alt :D
Trovata :cool:
Si trova sul sito OC UK a soli 248 € (IVA e Espese postali comprese). Questa però è laversione OEM, senza cavetti e giochi. Credo in Germania si possa trovare a 200€ tutto compreso, solo che è un casino con la lingua e se ti sirompe vaglielo a far capire :rolleyes:
Ciao
~» Mr.Party`Hut «~
andreamarra
15-10-2005, 18:01
lol andrea, mi hai fatto venire voglia, lol :sofico:
E' facile moddarla? O è una cosa che va a "fortuna"? :D
Ciao
~» Mr.Party`Hut «~
ot
vanno tutte, garantito :D ovviamente la sapphire X800GTO2...
le 4 pipeline sopite le abilita tutte, sempree comunque. Basta usare il bios giusto e flashare... "male" che va, l'overclock della gpu potrebbe non arrivare a quello assurdo dalla X850XTPE, ma a quanto pare moltissimi ci arrivano e solo pochi "sfortunati" non riescono per poche decine di MHz su core e ram le frequenze della XTPE.
da moddare è una cagata unica :D, semplicissimo
ciapa qui http://www.hwupgrade.it/forum/showthread.php?t=1016383 :ciapet:
p.s. quel prezzo del link del secondo tuo post è eccessivamente alto, in Italia (vai su www.trovaprezzi.it) la si trova a molto meno! anhe 220 euro, in Italia... in germani la trovi a nulla...
considerando prezzo-prestazioni per quanto mi riguarda è la migliore scheda video in circolazione. E se la si usa come "scheda tampone" è pur sempre un lusso.
~Mr.PartyHut~
15-10-2005, 18:10
ot (ma neanche tanto, a seconda dei punti di vista, lol)
andrea ti adoro :sofico:
Eh si che è una ottima scheda video tampone, in attesa che le X1800XT 512 Mb calino di prezzo e si sviluppino in maniera impressionante i Catalyst per le nuove X1000 :D
Ciao
~» Mr.Party`Hut «~
gianlu75xp
17-10-2005, 07:33
Quindi allo stato attuale delle cose (primi bench, tecnologia ecc) la classifica di questi mostri di gpu @default dovrebbe essere così:
- X1800 XT
- 7800 GTX
- 7800 GT
- X1800 XL
giusto?
Vi sembra un buon acquisto la 7800 GT al momento, visto che si porta @GTX facilmente o no? Il solito dilemma si ripropone... meglio aspettare di avere qualche fps da una architettura nuova ma virtualmente acerba fra 2 mesi "tirando a giocare" a risoluzioni più basse con qualcosa di temporaneo o puntare sulla consolidata tecnologia G70 con 2 schede che comunque sono potentissime? :rolleyes:
N.B. Nessuno vieta di fare come detto sopra, comprare G70 adesso e aspettare che esca r520... e si abbassi di prezzo (ci vorranno dei mesi, quindi non prima di marzo '06) :D
Non mi risulta che la 7800GT si possa portare a GTX. Non ho letto niente a riguardo. Magari come frequenze sì, ma la GT ha 4 pipelines in meno.
giusto?
...più o meno si. più precisamente:
senza filtri
- X1800 XT
- 7800 GTX
- 7800 GT
- X1800 XL
coi filtri
- X1800 XT
- 7800 GTX
- X1800 XL
- 7800 GT
...comprare una di queste 4 vga significa mettersi nel case un mostro di potenza; in questo thread ci sono ben spiegate le differenze tra G70 e R520. io personalmente comprerei R520 per tutto quello che rappresenta di nuovo. in UK e Germania si trovano già le XL, tra pochi giorni direi anche qui da noi.
...ciao!
ps: portare una 7800GT a GTX è impossibile, le mancano 4 pipeline.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.