View Full Version : ATI Radeon X800 [Thread ufficiale]
Pagine :
1
2
3
4
[
5]
6
7
8
TheRipper
07-05-2004, 12:44
Sinceramente io non avrei alcun dubbio...Propenderei per Ati sicuramente...
Soprattutto considerando anche la politica di risparmio che ha attuato, visto che la nuova x800 sembra consumare addirittura MENO della 9800xt, utilizza un dissipatore che occupa un solo slot e piu' piccolo della concorrenza e probabilmente creera' meno rumore.
Poi guardando le ultime recensioni sembra che come potenza PURA, sia ben piu' veloce della concorrenza in modo tangibile, nonostante quest'ultima utilizzi la precisione a 16 bit e gli shaders 2.0 (percio' non oso pensare al tonfo che farebbe con ps3.0 a 32bit).
Lord style
07-05-2004, 12:48
FEK, che tu sappia, la tecnologia 3Dc di ATi sarà implementate nelle prossime api DX9.0c ?
Sarà facile sfruttare la 3Dc per voi programmatori ?
LittleLux
07-05-2004, 12:53
Originariamente inviato da DjLode
Si vocifera di una X800 XT PE overclockata a 715mhz:
http://www.tmcnet.com/usubmit/2004/May/1039563.htm
:eek: :eek: :eek: :eek: :eek: :eek:
Bisognerebbe capire con che sistema di raffreddamento lo hanno eseguito, comunque è un risultato sorprendente, a prescindere da questo...
Originariamente inviato da Lord style
FEK, che tu sappia, la tecnologia 3Dc di ATi sarà implementate nelle prossime api DX9.0c ?
Sarà facile sfruttare la 3Dc per voi programmatori ?
Non so se sara' supportata direttamente dalle DX9.0c, nella BETA non c'e' alcun supporto.
E' cmq piuttosto semplice da usare, si tratta di comprimere le normal map con un tool fornito da ATI e aggiungere un paio di istruzioni nel ps.
overclockata a 700mhz potrebbe fare 3 volte una 9800XT, la scheda dei sogni di ognuno di noi (fino a un mese fa).
LittleLux
07-05-2004, 13:26
Originariamente inviato da DjLode
Si vocifera di una X800 XT PE overclockata a 715mhz:
http://www.tmcnet.com/usubmit/2004/May/1039563.htm
:eek: :eek: :eek: :eek: :eek: :eek:
Bisognerebbe capire con che sistema di raffreddamento lo hanno eseguito, comunque è un risultato sorprendente, a prescindere da questo...
Originariamente inviato da LittleLux
Bisognerebbe capire con che sistema di raffreddamento lo hanno eseguito, comunque è un risultato sorprendente, a prescindere da questo...
Un normalissimo raffredamento a liquido ho letto :)
Perfectdavid
07-05-2004, 13:34
Originariamente inviato da sanitarium
Ci sono già giochi che mettono alle corde le attuali schede di punta, se si attivano filtri a manetta e risoluzioni paurose, non direi proprio che il vantaggio di ATi è inutile, anzi...
scusami ma quali sono questi giochi?
penso che un 9800xt non si trovi in difficoltà con niente.
In Far Cry già a 1024 senza filtri ad esempio.
andreamarra
07-05-2004, 13:41
Originariamente inviato da devis
In Far Cry già a 1024 senza filtri ad esempio.
Infatti. E il "problema" dell'NV40 è proprio quello di capire se i "disagi" di Far Cry saranno trasportati anche negli altri giochi Full DX9 oppure è da intendere che il solo Far Cry (per motivi di programmazione che noi ignoriamo) abbia proprio una intolleranza nei confronti del chip nvidia.
Per il resto rimango sempre più della mia idea: entrambi i chip hanno dei notevoli vantaggi (ati nel sicuro presente e nell'immediato futuro e forse anche qualcosa in più, nvidia potrebbe avere dei consoderevoli vantaggi nel lungo periodo) ma anche dei limiti e piccole o grandi mancanze (soprattutto R420).
Nessun vincitore allo stato attuale :)
Lord style
07-05-2004, 13:42
Originariamente inviato da fek
Non so se sara' supportata direttamente dalle DX9.0c, nella BETA non c'e' alcun supporto.
E' cmq piuttosto semplice da usare, si tratta di comprimere le normal map con un tool fornito da ATI e aggiungere un paio di istruzioni nel ps.
Voi della B&W Studios avete ipotizzato di implementarla nelle vostre prossime realizzazioni ?
Vedi un futuro per questa tecnologia o si procederà per un'altra starda ? Che idea vi siete fatti voi programmatori di questa feature ?
P.S.
Grazie per la disponibilità.
sanitarium
07-05-2004, 13:44
Originariamente inviato da Perfectdavid
scusami ma quali sono questi giochi?
penso che un 9800xt non si trovi in difficoltà con niente.
Devis ti ha già citato il non plus ultra della pesantezza (Far cry), ma potrei dirti anche Painkiller e UT2K4 ad esempio.
Occhio che sto parlando di giocare a 1280x1024 e oltre con tutti i dettagli al max e filtri a manetta, senza compromessi di prestazioni.
Originariamente inviato da LittleLux
Bisognerebbe capire con che sistema di raffreddamento lo hanno eseguito, comunque è un risultato sorprendente, a prescindere da questo...
Già, a liquido o a ghiaccio secco non importa. Il dato importante è che ci arriva, magari ad aria o con un impianto a liquido decente ma "comune" si arriva tranquillamente sui 600. Il che se proprio lo devo dire, schifo non mi fa :)
Originariamente inviato da sanitarium
Devis ti ha già citato il non plus ultra della pesantezza (Far cry), ma potrei dirti anche Painkiller e UT2K4 ad esempio.
Occhio che sto parlando di giocare a 1280x1024 e oltre con tutti i dettagli al max e filtri a manetta, senza compromessi di prestazioni.
Painkiller mi funziona a 1024x768 con AA 4x e Anisotropico a 8x o 16x, direi che questo non è un esempio da portare per dire che le schede attuali fanno fatica :)
Considera che ho una 9700 Pro di default e una cpu che ora come ora è facile surclassare.
sanitarium
07-05-2004, 13:48
Originariamente inviato da DjLode
Painkiller mi funziona a 1024x768 con AA 4x e Anisotropico a 8x o 16x, direi che questo non è un esempio da portare per dire che le schede attuali fanno fatica :)
Considera che ho una 9700 Pro di default e una cpu che ora come ora è facile surclassare.
Giochi con v-sync attivato o disattivato?
Originariamente inviato da Lord style
Voi della B&W Studios avete ipotizzato di implementarla nelle vostre prossime realizzazioni ?
Vedi un futuro per questa tecnologia o si procederà per un'altra starda ?
P.S.
Grazie per la disponibilità.
Mettici anche il dubbio amletico di andrea m.
:p
Quoto e rilancio (per la milionesima volta ) la questione amletica che non riesce a farmi convincere di quale sia la scheda "migliore", occorre valutare (e secondo me è vitale) alcuni fattori non trascurabili, ovvero:
1-fp32+ps3.0+potenza render shader Nv40
2-fp24+ps2.0b+potenza rendere R420
Qua ci vuole un tecnico che riesca ad ipotizzare almeno se 1 sia maggiore di 2, oppure uguale o addirittura inferiore.
Originariamente inviato da sanitarium
Giochi con v-sync attivato o disattivato?
Porc, questo non me lo ricordo se non sbaglio mi pareva di averlo attivato di default dai driver, ora ho tolto il gioco (l'ho finito e cancellato) e mi sto dedicando a Colin4.
andreamarra
07-05-2004, 13:52
Originariamente inviato da devis
Mettici anche il dubbio amletico di andrea m.
:p
Quoto e rilancio (per la milionesima volta ) la questione amletica che non riesce a farmi convincere di quale sia la scheda "migliore", occorre valutare (e secondo me è vitale) alcuni fattori non trascurabili, ovvero:
1-fp32+ps3.0+potenza render shader Nv40
2-fp24+ps2.0b+potenza rendere R420
Qua ci vuole un tecnico che riesca ad ipotizzare almeno se 1 sia maggiore di 2, oppure uguale o addirittura inferiore.
:D
Il fatto è che paradossalmente (nonostante possa non sembrare) può succedere che se guadagni tanto da una parte perdi dall'altra e viceversa. Quindi un tecnico potrebbe dare almeno una sua idea della questione ;)
Che poi per me è il punto focale della diatriba ATI Vs NVIDIA :)
feeeek.......!!! :fiufiu: :)
sanitarium
07-05-2004, 14:02
Originariamente inviato da DjLode
Porc, questo non me lo ricordo se non sbaglio mi pareva di averlo attivato di default dai driver, ora ho tolto il gioco (l'ho finito e cancellato) e mi sto dedicando a Colin4.
Te lo chiedo perché io, a parità di settaggi (1280x960, AF16x, no AA, no ombre dei personaggi), senza v-sync sto sugli 80fps, con il v-sync non mi schiodo dai 50fps (con refresh a 100Hz, se lo metto a 85Hz peggio ancora, sto sui 43fps...).
Siccome odio giocare senza v-sync, credo che per godermelo al massimo possibile non mi basterebbe una 9800xt...
andreamarra
07-05-2004, 14:06
A proposito di Colin 4... non ho avuto modo di vedere nessun dato tecnico o altro o demo....
Volevo sapere se aveva effetti DX9 puri come i ps2.0...
Lord style
07-05-2004, 14:09
Ragazzi non possiamo tutti fermarci un attimo e non postare stupidate. :O
Se la pagina attuale con le domande a Fek finisce nel dimenticatoio finiremo per non avere risposta alle nostre domande. Ci scappa un'occasione.
Io rimarrò un po fermo, magari discutiamo di inutilità in un'altro thread ;)
LittleLux
07-05-2004, 14:29
Originariamente inviato da Maury
Un normalissimo raffredamento a liquido ho letto :)
Stando così le cose, è ancor più sorprendente, probabilmente come dice djlode, i 600 sono raggiungibili senza dover adottare soluzioni estreme...vedremo...
aceto876
07-05-2004, 15:53
Spero di non ripetere roba già detto ma avete visto che roba!Altro che le X800 che non salgono
http://www.anandtech.com/news/shownews.html?i=22124
andreamarra
07-05-2004, 16:14
Originariamente inviato da aceto876
Spero di non ripetere roba già detto ma avete visto che roba!Altro che le X800 che non salgono
http://www.anandtech.com/news/shownews.html?i=22124
Già detto :)
E aggiungo una cosa già detta ma ancora nn smentita che mi turba :confused:
http://www.hardocp.com/article.html?art=NjExLDEw
Certo è che se questi bench sono veritieri c'è da dire che le due schede hanno uguali performance in fps min e fps max con differenze di AA&Aniso e risoluzione a dir poco imbarazzante a favore di R420...
CMQ più tardi mando un PVT a fek per chiedergli quelle cose che stiamo cercando di scoprire... :)
im ho non esiste in questa generazione una differenza di prestazionali tale da preferire assolutamente una dall'altra.
mi sembra che ati abbia un po frainteso il conetto di "nuova generazione":sofico:
TheDarkAngel
07-05-2004, 16:21
Originariamente inviato da dwfgerw
im ho non esiste in questa generazione una differenza di prestazionali tale da preferire assolutamente una dall'altra.
mi sembra che ati abbia un po frainteso il conetto di "nuova generazione":sofico:
mi pare che gli utenti abbiamo frainteso cosa voglia dire "nuova generazione"
no, non credo che lo abbiamo frainteso noi.
anche lo stesso yoss è rimasto con l'amaro in bocca vedendo che ati ci ha dato in pasto un nuovo r300 castrato nella versione pro a diofferenza della gt...
TheDarkAngel
07-05-2004, 16:39
Originariamente inviato da dwfgerw
no, non credo che lo abbiamo frainteso noi.
anche lo stesso yoss è rimasto con l'amaro in bocca vedendo che ati ci ha dato in pasto un nuovo r300 castrato nella versione pro a diofferenza della gt...
non mi sembra tanto castrato visto che va come la gt...
Beh, é un "castrato" su cui però non é che mi sembra ci sia tanto da lamentarsi...
é castrato in 4 pipe, se non erro, non nelle features.
Sawato Onizuka
07-05-2004, 17:08
Originariamente inviato da street
Beh, é un "castrato" su cui però non é che mi sembra ci sia tanto da lamentarsi...
é castrato in 4 pipe, se non erro, non nelle features.
ma fa il mazzo o quasi alla 6800 GT lol :sofico:
andreamarra
07-05-2004, 17:24
Originariamente inviato da TheDarkAngel
mi pare che gli utenti abbiamo frainteso cosa voglia dire "nuova generazione"
Il fatto è che sono state due strade diverse per arrivare agli shader 3.0:
-la nvidia è andata direttamente verso il versante 3.0 (ma con il problema da chiarire delle prestazioni pure ps2.0 e soprattutto del problema, anch'esso da chiarire, dell'onerosità di calcolo del fp32 -considerando che a fp16 le prestazioni sono elevate ma si possono verificare problemi di blending che non possono essere non considerati-)
-la ati ha sfornato un chip che farà da ponte tra i 2.0 e i 3.0 utilizando i 2.0b che daranno vantaggi nei "pure 2.0" e con l'incognita dei ps3.0 (che saranno visualizzati -senza differenze grafiche di sorta, ma ancora molti non l'hanno capito- come dei 2.0b con fp a 24 che non ha differenze dal più pesante fp32 che impone lo standar 3.0)
Quindi la vera rivoluzione è stat fatta da nvidia, sicuramente. Ma non è detto che questo passo possa avere dei sicuri vantaggi, anzi. Stessa cosa per R420.
Una volta chiarito il mistero su fp32+ps3.0+ potenza ottima NV40 Vs fp24+ps2.0b+potenza brutale R420 potremo definire una vincitrice.
Ora come ora io non oserei dire chi ha fatto la scelta vincente...
SumoBoy_666
07-05-2004, 18:11
salve gente! sapete per caso se come per la radeon 9500 liscia (ah! i bei tempi..:( ) sarà possibile con qualke modifica hardware attivare le 4 pipe per arrivare a 16 sulla x800pro? (4 pipe non si rifiutano mai, in tutti i sensi :D ) PS: nel caso che abbiate già trattato l'argomento: scusatemi..... non cel'ho fatta a leggere tutte le 52 pagine ^_^ w la pigrizia!!:cool:
goldorak
07-05-2004, 18:14
No, la Ati ha fatto sapere che nelle versioni inferiori le pipes verranno disabilitate via hardware quindi sara' impossibile attivarle.
andreamarra
07-05-2004, 18:42
raga, siccome da altre parti si parla di R500... :asd:
Si sa qualcosa dei Cata 4.5? Di solito escono intorno a inizio mese.....
cmq, siccome qualcuno lo chiedeva, ecco quale sarà il nuovo layout grafico dei Catalyst...
http://news.hwupgrade.it/immagini/catalyst_new_control_panel.jpg
Dedicato a tutti coloro che scelgono una scheda video per la bellezza del pannello di controllo :D :asd: (scherzo, ma non troppo)
;)
palanzana
07-05-2004, 18:59
Originariamente inviato da SumoBoy_666
salve gente! sapete per caso se come per la radeon 9500 liscia (ah! i bei tempi..:( ) sarà possibile con qualke modifica hardware attivare le 4 pipe per arrivare a 16 sulla x800pro? (4 pipe non si rifiutano mai, in tutti i sensi :D ) PS: nel caso che abbiate già trattato l'argomento: scusatemi..... non cel'ho fatta a leggere tutte le 52 pagine ^_^ w la pigrizia!!:cool:
purtroppo nnsarà poss :muro:
Ciao raga! :D
Ho trovato questo. Spero che non sia old (non seguo troppo i 3d fiume).
http://www.ati.com/companyinfo/press/2004/4752.html
Saluto tutti.
Ciaoooz! :D
http://www.akiba-pc.com/e107_images/articles/dry/15738_f.JPG
Ho scoperto da chi...
By Macci.
(il solito :D )
Ma perchè oltre i dati sui giochi (che comunque sono:eek: )perchè mancano gli altri?
Erano interessanti da vedere...altrochè.....
Originariamente inviato da Yagami
Ciao raga! :D
Ho trovato questo. Spero che non sia old (non seguo troppo i 3d fiume).
http://www.ati.com/companyinfo/press/2004/4752.html
:old: :old:
Originariamente inviato da devis
:old: :old:
Immaginavo :D
Prendetelo come un up, allora.
Ciaoooz!
-=Krynn=-
07-05-2004, 19:37
Originariamente inviato da LCol84
Credo che siano parecchio pesanti i ps 3.0, ma dato che sono nativi sulla 6800 credo che non rallenteranno pesantemente le prestazioni...
Tanto difficilemnte se ne farà uso in massa nel prossimo anno...
ma che vuol dire IMHO???
Anche la 5800 ha i ps2 nativi..ma ciò non vuol dire che non la rallentino e di brutto....
andreamarra
07-05-2004, 19:41
Originariamente inviato da -=Krynn=-
Anche la 5800 ha i ps2 nativi..ma ciò non vuol dire che non la rallentino e di brutto....
Io da un pò cerco di calmare la folla desiderosa di ps3.0... come può essere un progetto vincente, può essere un progetto perdente.
Tra l'altro in giro ho trovato dei forum in cui si parlava del NV3X contro la R300 con discussioni sull'innovazione e sul futuro identiche a quelle che sono nate qui...
Ecco perchè dico di stare con i piedi ancorati.
Da una parte (moltissimo) e dall'altra (un pò di meno).
Si sa qualcosa del displacement mapping su R420???
-=Krynn=-
07-05-2004, 19:53
a quanto ne so io ancora nulla. (parlo del DM su r420)
Dark Schneider
07-05-2004, 20:05
Originariamente inviato da andreamarra
Io da un pò cerco di calmare la folla desiderosa di ps3.0... come può essere un progetto vincente, può essere un progetto perdente.
Tra l'altro in giro ho trovato dei forum in cui si parlava del NV3X contro la R300 con discussioni sull'innovazione e sul futuro identiche a quelle che sono nate qui...
Ecco perchè dico di stare con i piedi ancorati.
Da una parte (moltissimo) e dall'altra (un pò di meno).
Si sa qualcosa del displacement mapping su R420???
Da quello che dice Yoss pare non essere implementato.
Dark Schneider
07-05-2004, 20:10
Originariamente inviato da andreamarra
A proposito di Colin 4... non ho avuto modo di vedere nessun dato tecnico o altro o demo....
Volevo sapere se aveva effetti DX9 puri come i ps2.0...
A me pare che non sia un gioco DX9 in realtà.
andreamarra
07-05-2004, 21:36
Originariamente inviato da Dark Schneider
Da quello che dice Yoss pare non essere implementato.
Lo stesso fek crede che sia così, io aspetto notizie. Pare che potrebbe essere solo un problema di DX9 che ancora non ha potuto mettere, però ritiene che sia probabilmente una mancanza hardware. Se fosse così (e probabilmente lo sarà) è un vero peccato.
Crystal1988
07-05-2004, 21:36
Ma l'R5xx sarà sup pci-x o anche su agp????
Se sarà su agp aspetterò un annetto....;) ;) ;) ;) ;) ;) ;)
Norbrek™
07-05-2004, 21:39
Originariamente inviato da Crystal1988
Ma l'R5xx sarà sup pci-x o anche su agp????
Se sarà su agp aspetterò un annetto....;) ;) ;) ;) ;) ;) ;)
Non sarà su agp..
goldorak
07-05-2004, 21:44
Originariamente inviato da Crystal1988
Ma l'R5xx sarà sup pci-x o anche su agp????
Se sarà su agp aspetterò un annetto....;) ;) ;) ;) ;) ;) ;)
Uscira' se va bene nel 2006.
Il tempo in cui una nuova architettura veniva presentata ogni 6 mesi appartiene al passato.
Crystal1988
07-05-2004, 21:49
Niente agp:cry: :cry:
Ma si vocifera già ora da parte di ati per r5xx!!!!!
Si pensa di non passare neanche all'R480!!!!
A proposito se lo fanno..... quando esce l'R480?????????????
Un anno a sto punto????
goldorak
07-05-2004, 22:12
Non capisco tutta questa disperazione.
E' forse l'R420 a non essere troppo potente che gia' pensate al suo successore?
Dark Schneider
07-05-2004, 22:19
Originariamente inviato da andreamarra
Lo stesso fek crede che sia così, io aspetto notizie. Pare che potrebbe essere solo un problema di DX9 che ancora non ha potuto mettere, però ritiene che sia probabilmente una mancanza hardware. Se fosse così (e probabilmente lo sarà) è un vero peccato.
Da come dice Yoss in realtà non sarebbe stato nemmeno tanto difficile implementarlo il displacement mapping.
Dark Schneider
07-05-2004, 22:20
Originariamente inviato da goldorak
Uscira' se va bene nel 2006.
Il tempo in cui una nuova architettura veniva presentata ogni 6 mesi appartiene al passato.
Infatti direi un annetto e mezzo.
nirvanboy81
07-05-2004, 22:41
Ooooh ragazzi, ma vi pare che già si parla di R480, R520, R1000 e qui ancora non non sono neanche usciti sul mercato R420 e Nv40?
Mi sembra un pò eccessiva tutta questa frenesia per i modelli successivi. Non credo che questi non ci daranno belle soddisfazioni, ma scherziamo??:eek:
Boni, state boni :sofico:
Dark Schneider
08-05-2004, 03:27
Originariamente inviato da nirvanboy81
Ooooh ragazzi, ma vi pare che già si parla di R480, R520, R1000 e qui ancora non non sono neanche usciti sul mercato R420 e Nv40?
Mi sembra un pò eccessiva tutta questa frenesia per i modelli successivi. Non credo che questi non ci daranno belle soddisfazioni, ma scherziamo??:eek:
Boni, state boni :sofico:
Ah ma se per questo a me frega ben poco l'R500 o il NV45 o il NV50.
Mi prendo una bella GeForce 6800 GT e poi per due anni non voglio sentire più parlare di schede video!!:D
Tra l'altro NV40 quando la cambierò....sarà per NV60 esattamente.
Ma adesso fatemela comprare...chisse ne frega poi delle schede che verranno tra sei mesi, tra un anno,ecc. ;) :D
Perfectdavid
08-05-2004, 06:59
ma usciranno a breve modelli belli potentuzzi senza molex aggiuntivo e soprattutto con un piccolo dissipatore passivo sulla gpu e basta?
Originariamente inviato da Dark Schneider
Da quello che dice Yoss pare non essere implementato.
D' altra parte é anche vero che era uno dei problemi di HL2 sotto nvidia, il fatto di non avere tale feature (il diplacement mapping) in hardware, mentre gia con le r3x0 si poteva fare.
Ora, ovviamente questa cosa é da prendere non con le molle, ma anche con le presine, visto che viene dalla bocca di newell... però questo disse un annetto fa.
andreamarra
08-05-2004, 10:49
Originariamente inviato da Crystal1988
Niente agp:cry: :cry:
Ma si vocifera già ora da parte di ati per r5xx!!!!!
Si pensa di non passare neanche all'R480!!!!
A proposito se lo fanno..... quando esce l'R480?????????????
Un anno a sto punto????
Visti gli ottimi risultati di nvidia credo anch'io che le generazioni R480 potrebbero non venire alla luce. Ammesso che inserire gli shader 3.0, il branchyng e altre cose sia possibile anche all'interno del R420 rivisto e corretto.
E si passerebbe a R500 forse quasi subito.
Dardo Xp
08-05-2004, 11:02
Ma per quando è previsto l'R500?
Dardo Xp
Come si corre!! Deve ancora uscire la nuova scheda e già si pensa alla prossima generazione!!:)
Comunque state sottovalutando ATI!! X800 darà eccellenti risultati!!
Nvidia?? No grazie!!ATI forever!!;)
GUARDATE
QUA (http://www.xtremesystems.org/forums/showthread.php?s=&threadid=34905)
Questo ragazzo di anni 20 che razza di punteggio ha fatto....avete ancora dubbi????:D
andreamarra
08-05-2004, 11:20
Originariamente inviato da Maximum
GUARDATE
QUA (http://www.xtremesystems.org/forums/showthread.php?s=&threadid=34905)
Questo ragazzo di anni 20 che razza di punteggio ha fatto....avete ancora dubbi????:D
Si ma Macci è soprannaturale... :D è fuori concorso :D
Si però tieni conto che la scheda non è stata toccata ......ha solo alzato le freq via windows...:)
Athlon 64 3000+
08-05-2004, 11:39
Io invece dato che avevo una 9700pro allora avevo deciso di non prendere per il momento la x800pro ma di aspettare verso la fine dell'anno.SOltanto che mi è successo che la scheda è risultata difettosa e la ho mandata in garanzia,ma è successo che dato che la scheda la ho mandata con il dissipatore della Thermaltake Crystal orb ma il mio fornitore la ha spedità direttamente al Produttore e le due possibili schede sostitutive che sono:
Sapphire Radeon 9800Pro 128 MB(220+iva)
Sapphire Radeon 9800Pro 256 MB DDR2(300+iva)
A me hanno detto che la avrebbero sostituita non con una scheda pari prezzo ma con pari caratteristiche anche se la ho pagata 298+iva a maggio dell'anno scorso e quindi se mai me la avessero sostituita mi avrebbero dato una Raddeon 9800Pro 128 MB ma ieri l'altro e sparita dal listini.
Mi sa proprio che me la manderanno in dietro e me la dovro prendere nuova e sono indeciso tra i due seguenti modelli:
Radeon 9800Pro 128 a 236 euro
Radeon X800Pro a 475 Euro
Lo so che è magari un confronto improponibile ma l'anno scorso mio cugino ha preso una geforceFX 5900Ultra appena uscita e dopo 9 mesi gli è scoppiata e allora riguardo all'R420 nutrivo gli stessi dubbi dato che deve uscire in questo periodo non vorrei che mi si ripeta la stessa cosa di mio cugino e allora prendendo magari la 9800pro anche se mi durerà di meno avro magari meno risichi.
Le Geforce6800 non le considero nenche perchè le ho gia bocciare in partenza.
andreamarra
08-05-2004, 11:40
Originariamente inviato da Maximum
Si però tieni conto che la scheda non è stata toccata ......ha solo alzato le freq via windows...:)
Ver, tra l'altro ha usato mi sembra un impianto al liquido... quindi con un buon dissipatore ad aria potrebbero esserci overclock di un certo tipo... :oink:
bhè, se inizialmente si parlava di un possibile OC della X800XT nel core di circa il 2%... adesso credo che la situazione sia un "tantino" diversa ;)
Originariamente inviato da Athlon 64 3000+
Io invece dato che avevo una 9700pro allora avevo deciso di non prendere per il momento la x800pro ma di aspettare verso la fine dell'anno.SOltanto che mi è successo che la scheda è risultata difettosa e la ho mandata in garanzia,ma è successo che dato che la scheda la ho mandata con il dissipatore della Thermaltake Crystal orb ma il mio fornitore la ha spedità direttamente al Produttore e le due possibili schede sostitutive che sono:
Sapphire Radeon 9800Pro 128 MB(220+iva)
Sapphire Radeon 9800Pro 256 MB DDR2(300+iva)
A me hanno detto che la avrebbero sostituita non con una scheda pari prezzo ma con pari caratteristiche anche se la ho pagata 298+iva a maggio dell'anno scorso e quindi se mai me la avessero sostituita mi avrebbero dato una Raddeon 9800Pro 128 MB ma ieri l'altro e sparita dal listini.
Mi sa proprio che me la manderanno in dietro e me la dovro prendere nuova e sono indeciso tra i due seguenti modelli:
Radeon 9800Pro 128 a 236 euro
Radeon X800Pro a 475 Euro
Lo so che è magari un confronto improponibile ma l'anno scorso mio cugino ha preso una geforceFX 5900Ultra appena uscita e dopo 9 mesi gli è scoppiata e allora riguardo all'R420 nutrivo gli stessi dubbi dato che deve uscire in questo periodo non vorrei che mi si ripeta la stessa cosa di mio cugino e allora prendendo magari la 9800pro anche se mi durerà di meno avro magari meno risichi.
Le Geforce6800 non le considero nenche perchè le ho gia bocciare in partenza.
Forse appena confrontati i prezzi,stiamo pensando ad un ordine collettivo.
Guarda il thread quì sotto.
Se posso esprimere un giudizio questa generazione di schede video non mi piace.....e non mi convince.Sono nate premature e aimè i parti prima del tempo non vanno quasi mai a buon fine.Ati tira fuori un chip nato già vecchio (che sono sicuro prestissimo verrà rimpiazzato) con velocità stratosferiche quando far cry è una mosca bianca. Non esiste e non esisterà a breve giochi che richiedano tale potenza visto l'esiguità dell'installato e quello che già la R300 e la controparte Nvidia permettono di ottenere.
La Nvidia si propone con un velocissimo chip anche lei....e mi vengono le stesse considerazioni di sopra.
Se è vero che il Ps+Vs 3.0 a breve termine non ha utilità vale anche per la potenza di questi chip.
Sarebbe stato meglio che se invece di tirare fuori un nuovo chip avessero venduto le 9800xt a 200euro :)
Almeno aumenti l'installato Directx 9 (ed elimini almeno le directx 7......) e invogli i programmatori a spostarsi verso Ps e Vs 2.0.
Non vedo la necessità di giocare a 400fps al secondo quando ora si gioca a 150.....sono soldi e potenza sprecata.
Almeno finchè,ripeto,i programmatori non decidono di sfruttare al 100% le schede per i giochi.
andreamarra
08-05-2004, 12:03
Originariamente inviato da luckye
Se posso esprimere un giudizio questa generazione di schede video non mi piace.....e non mi convince.Sono nate premature e aimè i parti prima del tempo non vanno quasi mai a buon fine.Ati tira fuori un chip nato già vecchio (che sono sicuro prestissimo verrà rimpiazzato) con velocità stratosferiche quando far cry è una mosca bianca. Non esiste e non esisterà a breve giochi che richiedano tale potenza visto l'esiguità dell'installato e quello che già la R300 e la controparte Nvidia permettono di ottenere.
La Nvidia si propone con un velocissimo chip anche lei....e mi vengono le stesse considerazioni di sopra.
Se è vero che il Ps+Vs 3.0 a breve termine non ha utilità vale anche per la potenza di questi chip.
Sarebbe stato meglio che se invece di tirare fuori un nuovo chip avessero venduto le 9800xt a 200euro :)
Almeno aumenti l'installato Directx 9 (ed elimini almeno le directx 7......) e invogli i programmatori a spostarsi verso Ps e Vs 2.0.
Non vedo la necessità di giocare a 400fps al secondo quando ora si gioca a 150.....sono soldi e potenza sprecata.
Almeno finchè,ripeto,i programmatori non decidono di sfruttare al 100% le schede per i giochi.
Marketing, marketing, marketing
il problema è sempre e solo questo... :(
-=Krynn=-
08-05-2004, 13:31
marketing marketing marketing.
Una 9700pro sarebbe ancora il top del top e ci strabilierebbe, se solo i programmatori sapessero sfruttarla ed ottimizzassero
Originariamente inviato da andreamarra
Ver, tra l'altro ha usato mi sembra un impianto al liquido... quindi con un buon dissipatore ad aria potrebbero esserci overclock di un certo tipo... :oink:
Da quanto ne so io Macci non ha mai usato niente di così commerciale. Ha sempre usato almeno ghiaccio secco o azoto liquido (e su quest'ultima forse potrei dire una stupidata) per i suoi overclock. Quindi non ci sperate troppo sul liquido :)
bhè, se inizialmente si parlava di un possibile OC della X800XT nel core di circa il 2%... adesso credo che la situazione sia un "tantino" diversa ;)
Si parlava di chip bloccati anche e anche Raffaele ha incontrato un sacco di problemi e infatti nella rece mancano i test in overclock perchè anche con un solo mhz si avevano crash.
Dark Schneider
08-05-2004, 14:00
Originariamente inviato da street
D' altra parte é anche vero che era uno dei problemi di HL2 sotto nvidia, il fatto di non avere tale feature (il diplacement mapping) in hardware, mentre gia con le r3x0 si poteva fare.
Ora, ovviamente questa cosa é da prendere non con le molle, ma anche con le presine, visto che viene dalla bocca di newell... però questo disse un annetto fa.
Oddio in realtà il dispacement mapping di R300 non vorrei ricordare male ma pare essere una versione "embrionale" o una versione semplificata. Ma devo andare a rileggere. Cmq non quello implementato da NV40.
Dark Schneider
08-05-2004, 14:08
Originariamente inviato da luckye
Se posso esprimere un giudizio questa generazione di schede video non mi piace.....e non mi convince.Sono nate premature e aimè i parti prima del tempo non vanno quasi mai a buon fine.Ati tira fuori un chip nato già vecchio (che sono sicuro prestissimo verrà rimpiazzato) con velocità stratosferiche quando far cry è una mosca bianca. Non esiste e non esisterà a breve giochi che richiedano tale potenza visto l'esiguità dell'installato e quello che già la R300 e la controparte Nvidia permettono di ottenere.
La Nvidia si propone con un velocissimo chip anche lei....e mi vengono le stesse considerazioni di sopra.
Se è vero che il Ps+Vs 3.0 a breve termine non ha utilità vale anche per la potenza di questi chip.
Sarebbe stato meglio che se invece di tirare fuori un nuovo chip avessero venduto le 9800xt a 200euro :)
Almeno aumenti l'installato Directx 9 (ed elimini almeno le directx 7......) e invogli i programmatori a spostarsi verso Ps e Vs 2.0.
Non vedo la necessità di giocare a 400fps al secondo quando ora si gioca a 150.....sono soldi e potenza sprecata.
Almeno finchè,ripeto,i programmatori non decidono di sfruttare al 100% le schede per i giochi.
Guarda che qlc lo doveva anche introdurre gli shader 3.0!! Poi i programmatori hanno bisogno di un po' di tempo per impararli. nVidia ha fatto bene ad introdurli.
Per di più devi pensare che la scheda più diffusa al mondo è la GeForce 4 MX...sono una minoranza le persone che hanno 9700-9800-5900.......e le prossime 6800 e X800. Non sono tagliabili fuori le schede DX7.
Marko Ramius
08-05-2004, 14:25
Il prezzo della x800xt più o meno quanto sarà?
Grazie e ciao
Dark Schneider
08-05-2004, 14:30
Originariamente inviato da Marko Ramius
Il prezzo della x800xt più o meno quanto sarà?
Grazie e ciao
Sicuro oltre i 600 euro.
Marko Ramius
08-05-2004, 14:33
Originariamente inviato da Dark Schneider
Sicuro oltre i 600 euro.
Ma come si fa a proporre certi prezzi?
Aspetterò qualcuno che la vende usata :D
sanitarium
08-05-2004, 14:34
Originariamente inviato da Dark Schneider
Sicuro oltre i 600 euro.
Io non credo che si andrà oltre i 600 euro per la X800XT, almeno una volta che la scheda verrà venduta in volumi...
Dark Schneider
08-05-2004, 14:56
Originariamente inviato da sanitarium
Io non credo che si andrà oltre i 600 euro per la X800XT, almeno una volta che la scheda verrà venduta in volumi...
Mah..qua in Italia è difficile purtroppo!! :(
Io spero nei prezzi più bassi possibili. Non sono minimamente interessato alla X800 XT così non lo sono minimamente della 6800 Ultra...Ultra Extreme,ecc.
Però ovvio che se già queste schede costano meno possibile....quella che interessa a me, la 6800 GT costerà logicamente ancora meno. :)
Cmq incrociamo le dita ragà per questi prezzi.
Dark Schneider
08-05-2004, 14:57
Originariamente inviato da Marko Ramius
Ma come si fa a proporre certi prezzi?
Aspetterò qualcuno che la vende usata :D
Ehhh...allora mi sa che dovrai aspettare un bel po'!!:D
andreamarra
08-05-2004, 16:12
Originariamente inviato da Dark Schneider
Mah..qua in Italia è difficile purtroppo!! :(
Io spero nei prezzi più bassi possibili. Non sono minimamente interessato alla X800 XT così non lo sono minimamente della 6800 Ultra...Ultra Extreme,ecc.
Però ovvio che se già queste schede costano meno possibile....quella che interessa a me, la 6800 GT costerà logicamente ancora meno. :)
Cmq incrociamo le dita ragà per questi prezzi.
e se òla x800xt costasse poco di più della GT che faresti :D ?
andreamarra
08-05-2004, 16:12
Originariamente inviato da Dark Schneider
Ehhh...allora mi sa che dovrai aspettare un bel po'!!:D
Decisamente... :D
Originariamente inviato da andreamarra
e se òla x800xt costasse poco di più della GT che faresti :D ?
son domande da porsi? :D
andreamarra
08-05-2004, 16:24
Originariamente inviato da Eizo
son domande da porsi? :D
Diciamo di si :D
andreamarra
08-05-2004, 16:25
Allora, notiziuole interessanti: stando al prode fek il Displacement Mapping Adattivo manca in R420.
Comì come manca anche su NV40.
Dark Schneider
08-05-2004, 16:43
Originariamente inviato da andreamarra
Allora, notiziuole interessanti: stando al prode fek il Displacement Mapping Adattivo manca in R420.
Comì come manca anche su NV40.
Si.
E' il geometry instancing che probabilmente non è presente in R420....geometry instancing che pare se utilizzato è in grado di dare un bel boost!
Cmq staremo a vedere!! :)
Dark Schneider
08-05-2004, 16:49
Originariamente inviato da andreamarra
e se òla x800xt costasse poco di più della GT che faresti :D ?
Purtroppo non è solo questione ludica, ecco perchè cmq alla fine prenderò la 6800 in ogni caso. Lo so che la costosa XT va più della meno costosa...ma pur sempre costosa GT, però appunto non è solo questione ludica per me.
Tipo anche Linux devo considerare...visto che lo uso al 90% e nVidia è la miglior scelta in quest'ambito! ;)
Ed in più mi tira anche la questione del Video Processor! :)
Se non dovessi considerare anche queste cose...a me farebbe anche piacere variare...non son unoche si fa problemi, anzi... Una volta variavo negli acquisti per dirti...negli ultimi due anni invece nVidia ed ho motivi validi per continuare con nVidia.
andreamarra
08-05-2004, 16:52
Originariamente inviato da Dark Schneider
Si.
E' il geometry instancing che probabilmente non è presente in R420....geometry instancing che pare se utilizzato è in grado di dare un bel boost!
Cmq staremo a vedere!! :)
E' un peccato che manchi in tutte e due le schede questa features... :(
Ma il GI è supportato di sicuro dalla NV40? Sulla R420 ,nonostante gli sia stato giurato, fek ha dei dubbi...
Non ci capisco più una cippazza :asd: :D :sofico:
andreamarra
08-05-2004, 16:54
Originariamente inviato da Dark Schneider
Purtroppo non è solo questione ludica, ecco perchè cmq alla fine prenderò la 6800 in ogni caso. Lo so che la costosa XT va più della meno costosa...ma pur sempre costosa GT, però appunto non è solo questione ludica per me.
Tipo anche Linux devo considerare...visto che lo uso al 90% e nVidia è la miglior scelta in quest'ambito! ;)
Ed in più mi tira anche la questione del Video Processor! :)
Se non dovessi considerare anche queste cose...a me farebbe anche piacere variare...non son unoche si fa problemi, anzi... Una volta variavo negli acquisti per dirti...negli ultimi due anni invece nVidia ed ho motivi validi per continuare con nVidia.
Si lo so che a te serve per Linux, era una battuta :D
La cosa bella è che entrambe le case dal punto di vista del video utilizzano delle cosucce interessanti, come il video processore di nvidia e quel discorso di utilizzare le potenti unità ps per i video..
Peccato che non si abbiano tutte e due queste cose dentro le schede... :(
Dark Schneider
08-05-2004, 16:55
Originariamente inviato da andreamarra
E' un peccato che manchi in tutte e due le schede questa features... :(
Ma il GI è supportato di sicuro dalla NV40? Sulla R420 ,nonostante gli sia stato giurato, fek ha dei dubbi...
Non ci capisco più una cippazza :asd: :D :sofico:
Si il GI in NV40 pare proprio di si. In R420 non è chiaro ed infatti fek ha dei dubbi.
Cmq ci stiamo a fa tutti le pippe mentali eheheh!! :D
Dark Schneider
08-05-2004, 16:58
Originariamente inviato da andreamarra
Si lo so che a te serve per Linux, era una battuta :D
La cosa bella è che entrambe le case dal punto di vista del video utilizzano delle cosucce interessanti, come il video processore di nvidia e quel discorso di utilizzare le potenti unità ps per i video..
Peccato che non si abbiano tutte e due queste cose dentro le schede... :(
Sul video processor cmq c'è parecchio da approfondire, perchè in giro ci son solo alcune ipotesi sul funzionamento.
A me come funziona funziona...basta che velocizza quando devo fare deconding/encoding!! Ambito dove i P4 vanno meglio degli AMD XP....e quindi se mi fa risparmiare cmq qualcosina a me possessore di AMD...ben venga!!:)
andreamarra
08-05-2004, 17:02
Originariamente inviato da Dark Schneider
Sul video processor cmq c'è parecchio da approfondire, perchè in giro ci son solo alcune ipotesi sul funzionamento.
A me come funziona funziona...basta che velocizza quando devo fare deconding/encoding!! Ambito dove i P4 vanno meglio degli AMD XP....e quindi se mi fa risparmiare cmq qualcosina a me possessore di AMD...ben venga!!:)
Speriamo :)
Però rimango sempre troppo confuso, in pratica tutte quelle features avveniristiche della NV40 sembrano alcune di difficile applicazione (se non impossibile, come il Dynamic Branching) e altre non si riesce ad essere sicuri al 100% della loro esistenza...
Questo texture fetch ad esempio, non capisco se ci sia o non nelle due schede...
Se io volessi vendere una scheda video che la mia dispone di GI lo scriverei a chiare lettere (e anche in NV40 è un "quasi" sicuramente), ci capisco ancora meno di una cippazza :asd:
Dark Schneider
08-05-2004, 17:30
Originariamente inviato da andreamarra
Speriamo :)
Però rimango sempre troppo confuso, in pratica tutte quelle features avveniristiche della NV40 sembrano alcune di difficile applicazione (se non impossibile, come il Dynamic Branching) e altre non si riesce ad essere sicuri al 100% della loro esistenza...
Se io volessi vendere una scheda video che la mia dispone di GI lo scriverei a chiare lettere (e anche in NV40 è un "quasi" sicuramente), ci capisco ancora meno di una cippazza :asd:
Riguardo il GI c'è.
Scaricati questo documento in pdf e fai zoom!! :)
http://www.nvidia.com/object/IO_12464.html
Cmq secondo Yoss cmq i Pro di NV40 dal punto di vista dell'innovazione sono di maggior portata rispetto a quelli di R420.
Cmq una cosa è certa, per saperne realmente di più su tutte queste cose, incluso la questione del DM,ecc. dobbiamo aspettare un po'. Mi sa che è inutile che adesso ci facciam tutte ste pippe!!:D
andreamarra
08-05-2004, 18:15
Originariamente inviato da Dark Schneider
Riguardo il GI c'è.
Scaricati questo documento in pdf e fai zoom!! :)
http://www.nvidia.com/object/IO_12464.html
Cmq secondo Yoss cmq i Pro di NV40 dal punto di vista dell'innovazione sono di maggior portata rispetto a quelli di R420.
Cmq una cosa è certa, per saperne realmente di più su tutte queste cose, incluso la questione del DM,ecc. dobbiamo aspettare un po'. Mi sa che è inutile che adesso ci facciam tutte ste pippe!!:D
Sicuro che dal punto di vista dell'innovazione la NV40 è superiore a R420, però vorrei che questo dominio sulla carta si concretizzasse anche nei giochi.
TheDarkAngel
08-05-2004, 18:17
Originariamente inviato da andreamarra
Sicuro che dal punto di vista dell'innovazione la NV40 è superiore a R420, però vorrei che questo dominio sulla carta si concretizzasse anche nei giochi.
e pare che a differenza di ati fa tutto forchè concretizzarsi :mbe:
Paoletta Corsini
08-05-2004, 19:23
Originariamente inviato da TheDarkAngel
e pare che a differenza di ati fa tutto forchè concretizzarsi :mbe:
non sparare dai a zero così :D
Originariamente inviato da TheDarkAngel
e pare che a differenza di ati fa tutto forchè concretizzarsi :mbe:
Inzomma
:eek:
Se ati non si mettera' a stringere degli accordi con gli sviluppatori il 3dc fara' la fine del truform :)
Originariamente inviato da ballero
Se ati non si mettera' a stringere degli accordi con gli sviluppatori il 3dc fara' la fine del truform :)
... su questo ti dò pienamente ragione! :asd:
Se questo 3dc NON è una cosa compresa nelle directX... beh... allora bye bye! :rolleyes:
(vedi: Truform, Rendermonkey, nvidiaCG,....)
Dark Schneider
08-05-2004, 20:13
Originariamente inviato da ballero
Inzomma
:eek:
Se ati non si mettera' a stringere degli accordi con gli sviluppatori il 3dc fara' la fine del truform :)
In effetti il Trueform era una bella cosa, ma Ati non ha creduto in esso. Correggetemi se sbaglio, ma mi sa che nell'R3xx è eseguito in maniera software al contrario della mitica 8500 che lo eseguiva in hardware.
Dark Schneider
08-05-2004, 20:19
Originariamente inviato da Raven
... su questo ti dò pienamente ragione! :asd:
Se questo 3dc NON è una cosa compresa nelle directX... beh... allora bye bye! :rolleyes:
(vedi: Truform, Rendermonkey, nvidiaCG,....)
Mmm no pare che non siano incluse nelle DX..pare. Mi sa che è una funzionalità che ha bisogno di un supporto specifico.
Originariamente inviato da Dark Schneider
In effetti il Trueform era una bella cosa, ma Ati non ha creduto in esso. Correggetemi se sbaglio, ma mi sa che nell'R3xx è eseguito in maniera software al contrario della mitica 8500 che lo eseguiva in hardware.
Ati non crtedette in esso.... e fu pure boicottato un pochino (in neverwinter nights si può attivare "di nascosto" ottenendo un fantastico effetto! ;) )
Originariamente inviato da Dark Schneider
Mmm no pare che non siano incluse nelle DX..pare. Mi sa che è una funzionalità che ha bisogno di un supporto specifico.
... e allora... NO WAY, MAN! ;)
La considero come una feature inesistente... :O
Dark Schneider
08-05-2004, 20:28
Originariamente inviato da Raven
Ati non crtedette in esso.... e fu pure boicottato un pochino (in neverwinter nights si può attivare "di nascosto" ottenendo un fantastico effetto! ;) )
Il fatto è che ormai entrambi fanno accordi strategici...ci son software house che sono più vicine a nVidia ed altre ad Ati.
Se invece si tratta di cose presenti nelle librerie le cose son ben diverse.
sanitarium
08-05-2004, 20:31
Originariamente inviato da Raven
... e allora... NO WAY, MAN! ;)
La considero come una feature inesistente... :O
Non è detto... In pratica per implementare il 3DC nei propri giochi, gli sviluppatori non devono fare altro che utilizzare un semplice tool di ATi che pensa quasi a tutto. ;)
Oltretutto non è uno standard proprietario, qualsiasi scheda da adesso in poi potrà usufruire del 3DC.
Serious Sam 2 userà il 3DC ( http://forum.hwupgrade.it/showthread.php?s=&threadid=680507&perpage=20&pagenumber=1 ), e se non erro anche Half life 2.
Originariamente inviato da sanitarium
Non è detto... In pratica per implementare il 3DC nei propri giochi, gli sviluppatori non devono fare altro che utilizzare un semplice tool di ATi che pensa quasi a tutto. ;)
Oltretutto non è uno standard proprietario, qualsiasi scheda da adesso in poi potrà usufruire del 3DC.
Ma ci deve essere il supporto in hardware.
Per gli sviluppatori non e' molto oneroso implementarlo ma comunque la scheda deve essere predisposta e al momento l'unica esistente e' R420.
Dark Schneider
08-05-2004, 20:50
Originariamente inviato da ballero
Ma ci deve essere il supporto in hardware.
Per gli sviluppatori non e' molto oneroso implementarlo ma comunque la scheda deve essere predisposta e al momento l'unica esistente e' R420.
Appunto probabilmente lo useranno i partner-software house di Ati...quelli più vicini alla casa canadese.
Per questo dicevo ormai entrambi fanno accordi strategici. Se son già cose che riguardano le DX invece è già diverso l'approccio di supporto.
sanitarium
08-05-2004, 22:19
Originariamente inviato da ballero
Ma ci deve essere il supporto in hardware.
Per gli sviluppatori non e' molto oneroso implementarlo ma comunque la scheda deve essere predisposta e al momento l'unica esistente e' R420.
Certo che deve esserci supporto hardware, e infatti ho scritto "qualsiasi scheda da adesso in poi potrà usufruire del 3DC". Se NVidia vorrà sfruttarlo, gli basterà implementarne il supporto in hardware nelle sue prossime schede, senza dovere nulla ad ATi.
Qualcuno può spiegare cos'è questo 3DC???:rolleyes:
TheDarkAngel
09-05-2004, 08:46
Originariamente inviato da Raven
Ati non crtedette in esso.... e fu pure boicottato un pochino (in neverwinter nights si può attivare "di nascosto" ottenendo un fantastico effetto! ;) )
anke in morrowind...
solo che attivandolo :eek: :eek: :eek: :eek:
e le prestazioni :mad: :mad: :mad:
andreamarra
09-05-2004, 10:10
Originariamente inviato da Dark Schneider
Appunto probabilmente lo useranno i partner-software house di Ati...quelli più vicini alla casa canadese.
Per questo dicevo ormai entrambi fanno accordi strategici. Se son già cose che riguardano le DX invece è già diverso l'approccio di supporto.
Lo penso anch'io, ma potrebbe anche essere che alcuni programatori rilascino set di texture in 3DC fatte appositamente per giochi già usciti. Un pò come le texture per Quake con effetti vari.
Non che mi interessi più di tanto, però non sarebbe male :)
Ovviamente penso che potrebbero uscire dei set di texture artigianali :eek: , non si sa belle fino a che punto :D
shinji_85
09-05-2004, 11:24
Originariamente inviato da Maximum
Qualcuno può spiegare cos'è questo 3DC???:rolleyes:
http://www.hwupgrade.it/articoli/1013/5.html
Chiaro??? :D
andreamarra
09-05-2004, 13:45
Ancora non si nulla sul GI su R420?
Ormai sembra calciomercato, una volta c'è la presentazione, il giorno dopo no, il giorno dopo ancora c'è l'intervista, poi c'è il giornale, poi non si fa più nulla.... :confused:
andreamarra
09-05-2004, 16:32
Originariamente inviato da andreamarra
Ancora non si nulla sul GI su R420?
Ormai sembra calciomercato, una volta c'è la presentazione, il giorno dopo no, il giorno dopo ancora c'è l'intervista, poi c'è il giornale, poi non si fa più nulla.... :confused:
Mistero di fatima :asd: ??
Sawato Onizuka
09-05-2004, 16:57
:old:
par condicio l'ho postato sul topic 6800u e mò lo rimetto pure qua lol :cool:
http://www.nvnews.net/images/news/200405/comparison_2.png
Dark Schneider
09-05-2004, 17:03
Si roba vecchia si! :)
Cmq è ancora troppo presto per emettere sentenze. Bisognerà aspettare un po' di tempo.
andreamarra
09-05-2004, 17:05
Questo schema non l'avevo visto...
Che dire, senza filtri e con risoluzione 1024*768 spesso al 6800 ultra è spueriore. Appena si aumenta risoluzione e filtri si piega e di brutto. La R420 effettivamente non ha differenze di prestazioni tra filtri attivi e non come succeda alla Nv40.
Credo che per coloro che voglio non fare un acquisto a lungo termine queste cose potrebbero essere molto più importanti di shader 3.0 a fp32
Ovviamente aspettiamo conferme o smentite fra qualche tempo.
Originariamente inviato da Dark Schneider
Si roba vecchia si! :)
Cmq è ancora troppo presto per emettere sentenze. Bisognerà aspettare un po' di tempo.
in effetti....
La 6800 si difende meglio su motori grafici datati. Strano che non sia il contrario :fiufiu:
KenMasters
09-05-2004, 17:07
Originariamente inviato da Dark Schneider
Si roba vecchia si! :)
Cmq è ancora troppo presto per emettere sentenze. Bisognerà aspettare un po' di tempo.
Devo dire che il 3dc di ati mi lascia senza fiato. In quanto a novità ati è sempre presente :D
fabiannit
09-05-2004, 17:10
Originariamente inviato da Dark Schneider
Si roba vecchia si! :)
Cmq è ancora troppo presto per emettere sentenze. Bisognerà aspettare un po' di tempo.
Sto impazzendo o sto post l'ho già letto da qualche parte???:what:
Dark Schneider
09-05-2004, 17:15
Originariamente inviato da fabiannit
Sto impazzendo o sto post l'ho già letto da qualche parte???:what:
:D
andreamarra
09-05-2004, 17:16
Tra l'altro noto che la R420 ha dei vantaggi evidenti quando viene testato con cpu come l'AFX. Questo perchè satura moltissimo le cpu meno recenti.
Se il trend venisse confermato (e quindi le prestazioni dovessero aumentare in caso di cpu di ultima generazione) non sarebbe male in quella che molti chiamano "acquisto per il futuro".
Non lo so, a me sembra che sta X800XT può fare ancora più danni con processori che la supportano a dovere.
halduemilauno
09-05-2004, 17:16
Originariamente inviato da fabiannit
Sto impazzendo o sto post l'ho già letto da qualche parte???:what:
forse avevi/avevate visto questo.
http://www.nvnews.net/images/news/200405/comparison.png
;)
andreamarra
09-05-2004, 17:19
Originariamente inviato da devis
La 6800 si difende meglio su motori grafici datati. Strano che non sia il contrario :fiufiu:
La stessa cosa che ho notato io. Ecco perchè predico mooolta prudenza.
andreamarra
09-05-2004, 17:20
AA limitato a 4X. Perchè?
E in ogni caso è migliore quello postato precedentemente, perchè fa vedere le reali differenze tra un gioco a risoluzione bassa e zero filtri e lo stesso gioco fatto a filtri al max e ris altissime.
In quello postato da Hal è realizzato facendo una media. Ciò vuol dire che se a ris. basse e zero filtri la scheda X fa 300 fps e l'altra ne fa 250, alzando la ris e i filtri la X farà 150 e l'altra 200.
Allora si ottengono valori migliori per la X, ma è detto che sia meglio.
fabiannit
09-05-2004, 17:23
Originariamente inviato da halduemilauno
forse avevi/avevate visto questo.
;)
Si, ho quotato il post sbagliato....
e cmq dicevo cosi poichè ora ho visto che ha postato quella immagine sia sul 3d della X800 che della 6800 :p
Dark Schneider
09-05-2004, 17:32
Originariamente inviato da andreamarra
La stessa cosa che ho notato io. Ecco perchè predico mooolta prudenza.
Infatti NV40 ha più margine di miglioramento del già collaudato R420 che è un R300 raddoppiato. Visto che per nVidia si tratta di un architettura nuova e non si può non prendere in considerazione che i drivers catalyst per quanto beta siano, sono cmq ad uno stadio ben più avanzato: sono meglio ottimizzati per far rendere al meglio e/o cmq non sono difficili da adattare all'X800..perchè si basano su un architettura già ben collaudata!! :) E' giusto aspettare ed essere prudenti nel drecretare una sentenza....sia da una parte e sia da un altra. :)
In uno dei prossimi drivers ci saranno delle novità interessanti più specifiche per NV40 che faranno aumentare l'efficenza con gli shader. Forse non dal prossimo set di drivers ma cmq uno dei prossimi pare.
Magari velocizzeranno anche l'AF...che è quello l'elemento che al momento non riesce a gestire benissimo nelle risoluzioni più estreme(non l'aa) e che fa perdere prestazioni. :) In ogni caso staremo a vedere. :)
Perfectdavid
09-05-2004, 17:50
e cmq da sempre i driver nvidi sono sempre migliorati tantissimo anche del 50%.
andreamarra
09-05-2004, 18:00
Originariamente inviato da Perfectdavid
e cmq da sempre i driver nvidi sono sempre migliorati tantissimo anche del 50%.
Cioè fammi capire. Da sempre sono migliorabili anche del 50%?
Cioè, vuol dire che se dovesse andare benissimo, allora un gioco vecchio senza filtri e e risoluzioni basse da 300fps passa a 450?
E poi perdonatemi la battuta. Ma migliorabili del 50% nei benchmark o nei giochi?
Perfectdavid
09-05-2004, 18:15
se i driver migliorano del 50% non significa che migliorano le prestazioni del 50% ma un 20% almeno si...no no guarda parlo dei giochi...testato di persona...
Scusatemi, ma sto seguendo poco, purtroppo....
Mi spiegate una cosa?
Ho visto che i bench tra GeF6800Ultra e Radeon X9800XT le posizionano circa a pari merito.
Però mi chiedevo due cose:
- quale delle due avrà più margine di miglioramento per via dei driver?
- nei bench con AA la Radeon dovrebbe stravincere con AA + t-AA ma invece ciò non accade.... almeno...
Grazie x le delucidazioni :)
Perfectdavid
09-05-2004, 18:23
per i driver al 100%nvidia.
Wizard77
09-05-2004, 18:34
Originariamente inviato da Perfectdavid
se i driver migliorano del 50% non significa che migliorano le prestazioni del 50% ma un 20% almeno si...no no guarda parlo dei giochi...testato di persona...
ne dubito fortemente che le prestazioni migliorino del 20%. Poi staremo a vedere.
è già tanto se migliorano del 5/10%
Perfectdavid
09-05-2004, 18:36
io ne son convinto....
andreamarra
09-05-2004, 18:40
bhe i driver hanno sicuramente il loro peso.
Ma le inflessioni eccessive che ha la Nv40 quando gli vengono somministrati filtri vari e risoluzioni alte sono da attribuire soltanto ai driver?
Parlaimo di cose concrete adesso. I discorsi ipotetici sono sicuramente a favore di nvidia, ma i discorsi pragmatici e di immediato riscontro e di futuro prossimo credo che vadano a favore di ati.
Io per adesso guardo la situazione schede non da fan o per semplice simpatia. Guardo le cose in concreto.
Per ora le incognite maggiori le ha la NV40. Perchè non basta dire che i driver miglioreranno la situazione (sicuramente, ma non si quanto, e se non fosse un aumento così sensibile?), che giochi che usciranno a metà del 2005 potrebbero avere dei vantaggi con la Nv40. E i ps3.0+fp32 saranno gestibili più facilmente dei più leggeri e qualitativamente identici ps2.0b+fp24 della ati? notare l'uso dei verbi, tutti che sprigionano dubbio.
I fatti adesso dicono che la r420 è più potente come render e soprattutto rimane imperturbabile di fronte a filtri e risoluzioni pesanti soprattutto con i giochi più recenti. Sappiamo che la scheda libera maggior potenza con processori di ultima generazione. In ottica futura non sono cose da non sottovalutare. Sappiamo di sicuro che con i ps2.0 si comporta eccellentemente con fp24, a differenza di NV40 che potrebbe avere (in futuro non sarà così magari, ma sono sempre ipotesi!) dei problemi con ps2.0+fp32/fp16(banding ipotetico, reale attualmente con FC). Il 3DC non sarà a livello di marketing così bello come i ps3.0, ma si può utilizzare subito senza il minimo dubbio sulla qualità e sulle prestazioni generali, che rimangono identiche o addirittura possono migliorare.
Concretezza. Non diciamo di vedere un incendio vastissimo se in realtà vediamo del fumo.
Insomma, parliamoci chiaro. Qua dentro uno vuole vedere perchè preferire una scheda all'altra. Senza campanilismi e senza supposizioni. Io attualmente non mi sentirei di consacrare una scheda a scapito dell'altra. Perchè non è giusto nei confronti di quegli utenti che niubbamente lurkano o postano da poco qui e andranno magari a spendere 500 euro per una scheda consigliata magari per questioni di "cuore" e non di testa.
Poi ognuno può postare qualunque bench sul web, magari non inserendo quelli "scomodi". E' successo tante volte che mi viene da ridere. Postare il bench x a 800*600 e far vedere la scheda nvidia mostruosamente più veloce di quella ati. E omettere quelle del mezzo che mostrano la "strana" inflessione. Cerchiamo di essere tutti meno presi da fatti di cuore, ecco.
Spero che capiate le mie motivazioni.
Originariamente inviato da TheDarkAngel
anke in morrowind...
solo che attivandolo :eek: :eek: :eek: :eek:
e le prestazioni :mad: :mad: :mad:
Con la 8500 le prestazioni col truform rimangono quasi invariate! :p
sanitarium
09-05-2004, 19:20
Originariamente inviato da david-1
Scusatemi, ma sto seguendo poco, purtroppo....
Mi spiegate una cosa?
Ho visto che i bench tra GeF6800Ultra e Radeon X9800XT le posizionano circa a pari merito.
Però mi chiedevo due cose:
- quale delle due avrà più margine di miglioramento per via dei driver?
- nei bench con AA la Radeon dovrebbe stravincere con AA + t-AA ma invece ciò non accade.... almeno...
Grazie x le delucidazioni :)
X quanto riguarda i driver, in teoria quelli di NV40 sono quelli che dovrebbero avere maggior possibilità di miglioramento, considerando l'architettura praticamente nuova (quella di R420 è già più rodata).
I test delle varie recensioni sono stati condotti con l'AA tradizionale, nessuno ha eseguito test con il TAA per via del fatto che quest'ultimo necessita del v-sync attivo.
Le X800 danno il meglio di sè quando si parla di risoluzioni parecchio alte, con AA e AF attivi: quest'ultimo viene attivato con un costo prestazionale praticamente pari a zero.
L'AA è più leggero per le 6800 per il semplice motivo che queste non hanno la correzione gamma implementata nell'AA, a differenza delle X800.
Ciao. ;)
Sawato Onizuka
09-05-2004, 20:06
Originariamente inviato da Raven
Con la 8500 le prestazioni col truform rimangono quasi invariate! :p
ci credo vuoi mettere tra eseguirlo in Hardware e in Software ? :D
io dico solo una cosa dai 53.03 ai 56.72 la differenza con la mia XT è abissale :sofico:
il prob è chi nn è esperto o etc cm può rimediare se un gioco agli inizi va male o ha problemi (vedi farcry che un buon compromesso di prestazioni e IQ ci è voluta 1 patch e dei forceware nuovi)
Secondo voi che PC ci vuole per sfruttare una X800pro? Un Barton 2600 è troppo poco?
andreamarra
09-05-2004, 21:10
Originariamente inviato da Lelevt
Secondo voi che PC ci vuole per sfruttare una X800pro? Un Barton 2600 è troppo poco?
Io ipotizzo, leggendo i commenti in giro (compresi su HWUpgrade) che un 2600 andrebbe anche bene, però questa scheda per sfoggiare i muscoli necessita di un AFX tanto per capirci.
Potrebbe essere che con questo processore la X800Pro, la X800XT e la 6800Ultra abbiano risultati uguali, nonostante le differenze.
E' difficile da dire, insomma :)
Però io rimango dell'idea che ad esempio una XT è sprecata con un processore athlon7pentium4... gli serve altro per saturare... :oink:
Originariamente inviato da andreamarra
Poi ognuno può postare qualunque bench sul web, magari non inserendo quelli "scomodi". E' successo tante volte che mi viene da ridere. Postare il bench x a 800*600 e far vedere la scheda nvidia mostruosamente più veloce di quella ati. E omettere quelle del mezzo che mostrano la "strana" inflessione. Cerchiamo di essere tutti meno presi da fatti di cuore, ecco.
Grande Andrea!!! ;)
Imho le due schede attualmente le classificherei con un NG, perchè sono fatte per farci giocare al massimo ad HL2, Doom3, Stalker, Serious Sam 2 e chi più ne ha più ne metta. Ma nessuno di questi titoli è ancora uscito. L'unico che le mette un po' alla prova è FarCry, per il resto...
Aggiungiamoci anche il fatto che le stesse schede date in pasto ai recensori sono beta e gli stessi driver sono beta. Ricordo che sia ATI che nVidia stanno lavorando ad un nuovo compilatore per gli gli shader e che ATI sta riscrivendo il driver OpenGL da zero.
Dopo tutte queste premesse non riesco ancora a comprendere come molti utenti, tra cui il più convinto sembra essere Dark Schneider, abbiano già le idee così chiare in un senso o nell'altro dopo qualche recensione con, mi ripeto, schede beta e driver beta e test su giochi che non giustificano minimamente un esborso di 500 e passa euro (Far Cry gira bene anche sulla mia 9800 liscia...) per un componente hardware.
andreamarra
09-05-2004, 21:27
Originariamente inviato da MaBru
Grande Andrea!!! ;)
Imho le due schede attualmente le classificherei con un NG, perchè sono fatte per farci giocare al massimo ad HL2, Doom3, Stalker, Serious Sam 2 e chi più ne ha più ne metta. Ma nessuno di questi titoli è ancora uscito. L'unico che le mette un po' alla prova è FarCry, per il resto...
Aggiungiamoci anche il fatto che le stesse schede date in pasto ai recensori sono beta e gli stessi driver sono beta. Ricordo che sia ATI che nVidia stanno lavorando ad un nuovo compilatore per gli gli shader e che ATI sta riscrivendo il driver OpenGL da zero.
Dopo tutte queste premesse non riesco ancora a comprendere come molti utenti, tra cui il più convinto sembra essere Dark Schneider, abbiano già le idee così chiare in un senso o nell'altro dopo qualche recensione con, mi ripeto, schede beta e driver beta e test su giochi che non giustificano minimamente un esborso di 500 e passa euro (Far Cry gira bene anche sulla mia 9800 liscia...) per un componente hardware.
:flower:
Il discorso è questo: se io che non sono un novellino in hardware ho dei dubbi sulla scelta della scheda video, adesso, delle due case, figurarsi un niubbio che si fa abbindolare da promesse realizzabili ma sempre e comunque in forse.
Credo che bisogni elencare tutti i pregi, tutti i difetti, tutti i grafici. E cercare di essere il meno fazioso possibile. ;)
So che è difficile, mi ricordo io da amante di matrox quando difendevo l'indifendibile Mystique... :asd: :asd:
p.s. la posizione di Dark Shneider io la capisco perfettamente: ha una scheda da cambiare, e spendendo cifre altissime ma non astronomiche si porta a casa una scheda ottima come la Gt. In fondo non avrebbe senso a prendere una 9800pro o xt, allora punta su una scheda di fascia altissima (non mostruosa come la Ultra o la X800XT) e per un bel pò sta a posto.
Poi considera che Dark S. ha bisogno di Linux, e i drifver ati non sono proprio simpatici sotto questo sistema... :D
;)
Originariamente inviato da andreamarra
So che è difficile, mi ricordo io da amante di matrox quando difendevo l'indifendibile Mystique... :asd: :asd:
Al tempo un mio amico mi faceva notare ogni taglio di prezzo applicato alla Mystique cercando di convincermi sull'ottimo rapporto qualità/prezzo quando io me me stavo tranquillisssimo con una fiammante Voodoo Graphics appena montata nel case. ;)
Certa gente non si arrende nemmeno di fronte all'evidenza. :p
andreamarra
09-05-2004, 21:33
Originariamente inviato da MaBru
Al tempo un mio amico mi faceva notare ogni taglio di prezzo applicato alla Mystique cercando di convincermi sull'ottimo rapporto qualità/prezzo quando io me me stavo tranquillisssimo con una fiammante Voodoo Graphics appena montata nel case. ;)
Certa gente non si arrende nemmeno di fronte all'evidenza. :p
Per fortuna l'infatuamento è durato poco... :asd:
Però la millennium mi rimane sempre nel cuoricino... :flower:
io ai tempi avevo un P200MMX con una Mystique per il 2D e una Voodoo per il 3D... bei tempi... :D :D :D
Originariamente inviato da Manp
io ai tempi avevo un P200MMX con una Mystique per il 2D e una Voodoo per il 3D... bei tempi... :D :D :D
Ecco, questa era una soluzione ottimale, ma questo mio amico si ostinava a difendere la Mystique soprattutto per il 3D. :mc:
Originariamente inviato da Manp
io ai tempi avevo un P200MMX con una Mystique per il 2D e una Voodoo per il 3D... bei tempi... :D :D :D
pure io, poi la mystique mi abbandonò e me la cambiarono con una g100
per tornare on, sembra che la compressione delle tex di ati sia stata invocata da tempo da quel tipo che sta facendo un certo doom3 :D
Attualmente secondo voi, chi ha intensione di comprare la xt800 farebbe bene ad aspettare la versione r480 con pci express o no? :confused:
PSYCOMANTIS
09-05-2004, 22:37
La Matrox Mistique non gestiva neppure il bilinear filtering...:D
Comunque anch'io l'avevo abbinata ad una Voodoo (una Orchid Righteous per la precisione) Bei tempi........allora non c'era da pensarci tanto, o ti prendevi una Voodoo o eri out.
DeMonViTo
09-05-2004, 22:40
Raga ho fatto un thread con tutti i demo tech di ATi e NVidia...
se mi date una mano con Wrapper e altre cose utili sarebbe bello :) :cool:
andreamarra
09-05-2004, 22:42
Originariamente inviato da PSYCOMANTIS
La Matrox Mistique non gestiva neppure il bilinear filtering...:D
Comunque anch'io l'avevo abbinata ad una Voodoo (una Orchid Righteous per la precisione) Bei tempi........allora non c'era da pensarci tanto, o ti prendevi una Voodoo o eri out.
Io in accoppiata con la Diamond Monster... che bei tempi... :cry:
ricordo il demo di Anubi... :cry:
Cmq, tornando ON... questo 3DC mi sconquiffera.... :oink:
Speriamo che diventi una tecnologia fruibile come lo è stato il bilinear, l'AA, l'Aniso ecc. ecc.... :sperem:
Insomma, che diventi un qualcosa da portare avanti nel futuro... :oink:
andreamarra
09-05-2004, 22:44
Originariamente inviato da Kars
Attualmente secondo voi, chi ha intensione di comprare la xt800 farebbe bene ad aspettare la versione r480 con pci express o no? :confused:
Se vuoi cambiare integralmente sistema, si :D
la pci express necessita di slot apposta, e poi prima della r480 ci sarà da aspettare almeno a dopo l'estate. E non sono neanche sicuro che ci sia un R480, se la nvidia si dimostrerà un rivale pericolo (e già lo sta cominciando a dimostrare) la ati potrebbe sparare un R500 direttamente :oink: :fantahardware: :D
Dark Schneider
10-05-2004, 00:25
Originariamente inviato da andreamarra
bhe i driver hanno sicuramente il loro peso.
Ma le inflessioni eccessive che ha la Nv40 quando gli vengono somministrati filtri vari e risoluzioni alte sono da attribuire soltanto ai driver?
NV40 attualmente ha un AF meno veloce di Ati ed è l'AF che alle risoluzioni quelle estreme gli fa perdere un buon numero di fps al momento. Con i drivers è possibile recuperare queste prestazioni. Attenzione: non sto mica dicendo che sicuro supererà il concorrente. Dico solo che buona parte del gap è recuperabile. Non è un caso mai visto quello di incrementare le prestazioni alle risoluzioni estreme. Può essere che resterà cmq meno veloce dell'AF concorrente, ma cmq è possibile velocizzarlo.
Sappiamo di sicuro che con i ps2.0 si comporta eccellentemente con fp24, a differenza di NV40 che potrebbe avere (in futuro non sarà così magari, ma sono sempre ipotesi!) dei problemi con ps2.0+fp32/fp16(banding ipotetico, reale attualmente con FC).
Andrea dai....fek ha spiegato bene che è molto più probabile che Crytek ha cannato sugli fp16...addirittura quando si scrive uno shader con una 40ina di istruzioni nemmeno lui...che li scrive...vede differenze tra fp16 e fp24. Quel difetto non è imputabile a NV40. Con fp32 al momento la scheda non si comporta male e in futuro sopratutto col compilatore nuovo può migliorare eccome. ;)
Ma come NV40 ha bisogno di tempo.....ovviamente anche tu hai bisogno di tempo per capire..lo so!! E' mi sembra anche logico e giusto come ragionamento il tuo. :)
Spero che capiate le mie motivazioni.
Ci mancherebbe. ;) Ognuno ha le proprie motivazioni e quindi in base a queste fa delle scelte. La cosa più importante è che poi siam soddisfatti della scelta che facciamo. Alla fine non importa se magari quella scheda va meglio qua...quest'altra va meglio di qua. L'importante è che ci soddisfanno e ci fanno divertire. :)
Dark Schneider
10-05-2004, 00:29
Originariamente inviato da andreamarra
p.s. la posizione di Dark Shneider io la capisco perfettamente: ha una scheda da cambiare, e spendendo cifre altissime ma non astronomiche si porta a casa una scheda ottima come la Gt. In fondo non avrebbe senso a prendere una 9800pro o xt, allora punta su una scheda di fascia altissima (non mostruosa come la Ultra o la X800XT) e per un bel pò sta a posto.
Poi considera che Dark S. ha bisogno di Linux, e i drifver ati non sono proprio simpatici sotto questo sistema... :D
;)
:mano: Esattamente...grazie per aver ricordato i motivi. Ecco perchè io ho le idee più precise. La scelta l'ho fatta anche per altri motivi. :)
In effetti non invidio la vostra posizione..che dovete ed avete bisogno di più tempo per fare la scelta: R420 e NV40 sono due grandi GPU.:sofico:
sanitarium
10-05-2004, 00:30
Raga, ci tengo a dire che ho cannato una cosa a proposito del 3DC: questa tecnologia è TM di ATi, e sono gli sviluppatori di videogiochi che possono usufruirne senza dover pagare nulla ad ATi, non anche i produttori di chip video.
Ci tenevo a precisarlo perché non vorrei diffondere involontariamente notizie sbagliate.
Dark Schneider
10-05-2004, 00:30
Originariamente inviato da PSYCOMANTIS
La Matrox Mistique non gestiva neppure il bilinear filtering...:D
Comunque anch'io l'avevo abbinata ad una Voodoo (una Orchid Righteous per la precisione) Bei tempi........allora non c'era da pensarci tanto, o ti prendevi una Voodoo o eri out.
non aveva nemmeno il fog!! :D
Dark Schneider
10-05-2004, 00:32
Originariamente inviato da sanitarium
X quanto riguarda i driver, in teoria quelli di NV40 sono quelli che dovrebbero avere maggior possibilità di miglioramento, considerando l'architettura praticamente nuova (quella di R420 è già più rodata).
I test delle varie recensioni sono stati condotti con l'AA tradizionale, nessuno ha eseguito test con il TAA per via del fatto che quest'ultimo necessita del v-sync attivo.
Le X800 danno il meglio di sè quando si parla di risoluzioni parecchio alte, con AA e AF attivi: quest'ultimo viene attivato con un costo prestazionale praticamente pari a zero.
L'AA è più leggero per le 6800 per il semplice motivo che queste non hanno la correzione gamma implementata nell'AA, a differenza delle X800.
Ciao. ;)
Concordo!! :)
Dark Schneider
10-05-2004, 00:35
Originariamente inviato da sanitarium
Raga, ci tengo a dire che ho cannato una cosa a proposito del 3DC: questa tecnologia è TM di ATi, e sono gli sviluppatori di videogiochi che possono usufruirne senza dover pagare nulla ad ATi, non anche i produttori di chip video.
Ci tenevo a precisarlo perché non vorrei diffondere involontariamente notizie sbagliate.
Ah ecco mi sembrava strano!!:D
Originariamente inviato da Dark Schneider
Andrea dai....fek ha spiegato bene che è molto più probabile che Crytek ha cannato sugli fp16...addirittura quando si scrive uno shader con una 40ina di istruzioni nemmeno lui...che li scrive...vede differenze tra fp16 e fp24. Quel difetto non è imputabile a NV40.
Secondo le informazioni in mio possesso il problema del banding è un problema dei driver che NVIDIA sta studiando. Probabilmente lo risolveranno con qualche modifica ad hoc del compiler ;)
Dovrebbe venire risolto anche sulle schede NV3x.
Dark Schneider
10-05-2004, 02:24
Originariamente inviato da Vifani
Secondo le informazioni in mio possesso il problema del banding è un problema dei driver che NVIDIA sta studiando. Probabilmente lo risolveranno con qualche modifica ad hoc del compiler ;)
Dovrebbe venire risolto anche sulle schede NV3x.
Magari può essere anche un po' da tutte due le cse.Da come ho letto secondo Fek può anche essere che Crytek ha cannato riguardo l'fp16 in FC perchè appunto non dovrebbe essere quella la qualità. Cmq si ho letto anchio che sarebbe stato risolto o da qlc patch oppure con dei prossimi drivers da nVidia stessa. :)
Ma cmq si è una buona notizia direi il fatto che risolveranno. ;)
Ehi Raffaele: ti reinvieranno di nuovo una GT?
Lord style
10-05-2004, 08:10
A quanto pare aveva visto bene FEK, quel banding era troppo esagerato per essere il risultato di una elaborazione FP16.
Strano che nVidia, a questo punto, non abbia ancora corretto il bug nei driver.
Originariamente inviato da Dark Schneider
Ehi Raffaele: ti reinvieranno di nuovo una GT?
Non lo so ancora.
-=Krynn=-
10-05-2004, 10:31
Originariamente inviato da Dark Schneider
:mano: Esattamente...grazie per aver ricordato i motivi. Ecco perchè io ho le idee più precise. La scelta l'ho fatta anche per altri motivi. :)
In effetti non invidio la vostra posizione..che dovete ed avete bisogno di più tempo per fare la scelta: R420 e NV40 sono due grandi GPU.:sofico:
IO aspetto fino a settembre, quando potrò toccare con mano i prezzi e vari bench fatti da utenti.
Anche se ora come ora sono propenso al 70% per la X800pro (non la xt) perchè mi son trovato benissimo con la 8500
Dark Schneider
10-05-2004, 10:42
Originariamente inviato da Lord style
A quanto pare aveva visto bene FEK, quel banding era troppo esagerato per essere il risultato di una elaborazione FP16.
Strano che nVidia, a questo punto, non abbia ancora corretto il bug nei driver.
Appunto ci stanno lavorando come ha detto Vifani. :)
Io sapevo infatti o che usciva una qlc patch o che se ne occupava nVidia stessa di risolvere con nuovi drivers. Con i 61.11 hanno già risolto un altra cosettina. Magari per il banding risolveranno in tempo per i primi drivers ufficiali..staremo a vedere. :)
Originariamente inviato da Lord style
A quanto pare aveva visto bene FEK, quel banding era troppo esagerato per essere il risultato di una elaborazione FP16.
Strano che nVidia, a questo punto, non abbia ancora corretto il bug nei driver.
Puo' darsi che la patch 1.2 abbia corretto il problema.
Avete delle informazioni in merito?
Dark Schneider
10-05-2004, 10:46
Originariamente inviato da -=Krynn=-
IO aspetto fino a settembre, quando potrò toccare con mano i prezzi e vari bench fatti da utenti.
Anche se ora come ora sono propenso al 70% per la X800pro (non la xt) perchè mi son trovato benissimo con la 8500
Mi sembra anche logico. Se uno si è trovato bene con un produttore ovvio che si augura di continuare con lo stesso produttore. :) Anche se poi cambiare aria qlc volta e provare altro non fa male.
Ma ognuno appunto ha i suoi motivi. :)
Originariamente inviato da sanitarium
X quanto riguarda i driver, in teoria quelli di NV40 sono quelli che dovrebbero avere maggior possibilità di miglioramento, considerando l'architettura praticamente nuova (quella di R420 è già più rodata).
Francamente , sto discorso mi fa ridere , é lo stesso che si é fatto per la 5800/5600/5900/5700/5950 , ogni volta le stesse frasi "l' architettura é nuova" , "I driver sono acerbi" , "si vedranno miglioramenti in futuro" , "con la prossima release ci saranno notevoli aumenti prestazionali" etc. , nel frattempo la 5800 non si é schiodata di un mm dalle sue prestazioni e si sono visti solo ed esclusivamente cheat .
Ma poi quanto é nuova questa architettura della 6800 ?
E se fosse solo una 5950 rivisitata ? ( gli stessi punti deboli , gli stessi bug , la stessa qualità , lo stesso comportamento ... per essere due architetture diverse si assomigliano veramente tanto )
"fatti , non pugnette" , se e quando usciranno questi fantasmagorici driver ne riparleremo , i discorsi "oggi va più piano ma compratele lo stesso che in futuro saremo i più veloci" li abbiamo già sentiti .
Originariamente inviato da Cfranco
Francamente , sto discorso mi fa ridere , é lo stesso che si é fatto per la 5800/5600/5900/5700/5950 , ogni volta le stesse frasi "l' architettura é nuova" , "I driver sono acerbi" , "si vedranno miglioramenti in futuro" , "con la prossima release ci saranno notevoli aumenti prestazionali" etc. , nel frattempo la 5800 non si é schiodata di un mm dalle sue prestazioni e si sono visti solo ed esclusivamente cheat .
Veramente i driver hanno migliorato moltissimo le prestazioni delle schede Nv3x, specialmente nei pixel shader grazie al compilatore introdotto coi 50.xx
Ormai tra i risultati ottenuti in hlsl e quelli ottenuti dai driver, non c'è sostanzialmente differenza.
Non so come tu possa ignorarlo o addirittura negarlo.
sanitarium
10-05-2004, 12:16
Originariamente inviato da Cfranco
Francamente , sto discorso mi fa ridere , é lo stesso che si é fatto per la 5800/5600/5900/5700/5950 , ogni volta le stesse frasi "l' architettura é nuova" , "I driver sono acerbi" , "si vedranno miglioramenti in futuro" , "con la prossima release ci saranno notevoli aumenti prestazionali" etc. , nel frattempo la 5800 non si é schiodata di un mm dalle sue prestazioni e si sono visti solo ed esclusivamente cheat .
Ma poi quanto é nuova questa architettura della 6800 ?
E se fosse solo una 5950 rivisitata ? ( gli stessi punti deboli , gli stessi bug , la stessa qualità , lo stesso comportamento ... per essere due architetture diverse si assomigliano veramente tanto )
"fatti , non pugnette" , se e quando usciranno questi fantasmagorici driver ne riparleremo , i discorsi "oggi va più piano ma compratele lo stesso che in futuro saremo i più veloci" li abbiamo già sentiti .
Scusa Cfranco, ma mi sembrava di essermi espresso chiaramente scrivendo "in teoria"... Non trovo nulla di assurdo o di risibile nello scrivere che PROBABILMENTE, essendo NV40 un'architettura più nuova di R420, la prima ha maggiori potenzialità di sviluppo dei driver rispetto alla seconda.
Si sa che poi teoria e pratica non viaggiano sempre sugli stessi binari...
P.S.: Fra NV40 e R420 preferisco nettamente la seconda, quindi il mio non era certo un discorso propagandistico...
Lord style
10-05-2004, 12:39
Originariamente inviato da Dark Schneider
Appunto ci stanno lavorando come ha detto Vifani. :)
Io sapevo infatti o che usciva una qlc patch o che se ne occupava nVidia stessa di risolvere con nuovi drivers. Con i 61.11 hanno già risolto un altra cosettina. Magari per il banding risolveranno in tempo per i primi drivers ufficiali..staremo a vedere. :)
La dichiarazione di Vifani mi ha lasciato a "bocca aperta" francamente. Fino a iero si era "sicuri" che il problema del banding stava in una insufficente precisione dell'FP16, ora invece il problema sta in un bug dei driver, risolvibile. Questa è una svolta importante. Dalla recensione di HWU non si evince che il problema potrebbe essere un bug, nei driver o nel gioco: si evince che il banding è il risultato di una elaborazione FP16. Niente di più sbagliato a questo punto.
Io consiglio, se è confermato che si tratta di bug come Vifani dice, di aggiornare la recensione in modo da non creare inutili allarmismi e diffondere notizie fuorvianti.
Questo è il mio punto di vista.
Nessuno vuole fare allarmismo. Far Cry soffre di questo problema attualmente e noi lo abbiamo riportato. Il problema è legato al 100% alla precisione di calcolo FP16.
Purtroppo non vi posso postare le release notes di NVIDIA, ma il banding di Far Cry è segnalato come "problema che verrà risolto in una prossima release dei driver" (sia NV38 che NV40).
I dettagli del perchè esiste questo problema attualmente e di come verrà risolto mi sono ignoti.
Originariamente inviato da ballero
Veramente i driver hanno migliorato moltissimo le prestazioni delle schede Nv3x, specialmente nei pixel shader grazie al compilatore introdotto coi 50.xx
Ormai tra i risultati ottenuti in hlsl e quelli ottenuti dai driver, non c'è sostanzialmente differenza.
Non so come tu possa ignorarlo o addirittura negarlo.
Posso anche sbagliarmi , però ...
mi pare che ciò sia dovuto principalmente al cambio 5800/5600 -> 5900/5700 e che anche con i nuovi driver le 5800/5600 restino sostanzialmente deboli in questo settore , poi magari mi sono perso qualche test , ma non mi ricordo di aver visto nessun miracolo che possa tirar su il vecchio phon .
Scusa Cfranco, ma mi sembrava di essermi espresso chiaramente scrivendo "in teoria"... Non trovo nulla di assurdo o di risibile nello scrivere che PROBABILMENTE, essendo NV40 un'architettura più nuova di R420, la prima ha maggiori potenzialità di sviluppo dei driver rispetto alla seconda. Si sa che poi teoria e pratica non viaggiano sempre sugli stessi binari..
.
Scusa se non sono stato chiaro , ma non ce l' avevo con te .
Il mio discorso era riferito a un certo marketing che si articola in due punti :
- L' architettura é nuova e i driver acerbi .
- Adesso va così ma fidatevi che con i driver nuovi andrà come un missile .
Per la serie "adesso compratela che poi vedrete quanto forte la faremo andare" .
Questo tipo di approccio non mi piace , ed é tipico di Nvidia vendere prodotti "orientati al futuro" con feature sostanzialmente inutili .
Chi si ricorda la TNT ?
"E' il futuro perché supporta i 32 bit"
Non é mai servito a niente , quando sono arrivati i giochi a 32 bit la TNT era già da buttare .
Chi si ricorda la GeForce ?
"E' il futuro perché ha il T&L"
Su quella scheda non é mai servito a niente .
Chi si ricorda la GF3 ?
"E' il futoro grazie al supporto per le DX8"
Ma almeno erano delle schede grandiose per prestazioni , indipendentemente dalle nuove ( e inutili ) feature , adesso che non sono più al top si attaccano a queste presunte innovazioni per dimostrare la loro "superiorità" .
E poi , diciamolo chiaramente , che NV40 sia un chip nuovo é ancora tutto da dimostrare , il fatto é che Nvidia ha tutti i motivi di questo mondo per dichiararlo , ma francamente a me non sembra .
Chi si ricorda il confronto Gf2 / Gf3 ?
Si vedeva chiaramente che erano chip completamente diversi , avevano un comportamento completamente differente nei vari test , lo stesso si può dire confrontando le prestazioni della Gf4 e della 5800 , schede completamente diverse .
A me questa diversità tra la 5950 e la 6800 non é affatto evidente , la 6800 si comporta esattamente come se avessero raddoppiato la 5950 , mi ricorda un po' il salto Gf1 -> Gf2 oppure Gf3-> Gf4 , una rivisitazione "minore" con qualche aggiunta ma nessuna sostanziale modifica , per questo sono ancora più scettico sulle possibilità di migliorarne le prestazioni tramite nuovi driver .
Lord style
10-05-2004, 13:57
Originariamente inviato da Vifani
Nessuno vuole fare allarmismo. Far Cry soffre di questo problema attualmente e noi lo abbiamo riportato. Il problema è legato al 100% alla precisione di calcolo FP16.
Purtroppo non vi posso postare le release notes di NVIDIA, ma il banding di Far Cry è segnalato come "problema che verrà risolto in una prossima release dei driver" (sia NV38 che NV40).
I dettagli del perchè esiste questo problema attualmente e di come verrà risolto mi sono ignoti.
Ho qualche dubbio che nell'articolo avete esclusivamente "segnalato il problema". Avete invece a mio avviso "segnalato il problema" e dato una "spiegazione del problema". In questa spiegazione si arriva a delle conclusioni diverse dalla realtà.
In questi due passaggi si lascia intendere chiaramente che il problema della scarsa qualità e del banding sta nella bassa precisione che un calcolo FP16 in genere garantisce.
... Nel caso delle schede NV3x il percorso di rendering prevede l'uso di shader con precisione di calcolo FP16. Anche se tale precisione è più che sufficiente in molte situazioni, ne esistono alcune in cui i risultati possono non essere qualitativamente identici ad un analogo shader FP32. ...
... e iniziano le immagini con banding.
Poi si tirano le conclusioni.
Sia con NV38 che NV40 la qualità dell'immagine con precisione FP16 lascia a desiderare: i materiali che fanno uso della riflessione speculare sono soggetti ad un fastioso effetto banding, non presente nel calcolo FP24 delle GPU ATI. Con FP32 la situazione migliora notevolmente e le immagini diventano uguali (se non leggermente migliori) a quelle FP24. La differenza tra FP16 e FP24 è superiore a quella tra FP24 e FP32 per lo stesso motivo per cui tra un desktop a 8 bit ed uno a 16 bit la differenza è superiore rispetto al confronto tra 16 bit e 32 bit: più si aumenta il numero dei colori e più ci si avvicina al limite in cui l'occhio umano non è più in grado di distinguerli perché il numero di sfumature è troppo elevato.
Non potete dire, a mio parere, che la differenza di qualità di immagine che stavate riscontrando è notevole perchè il passaggio da elaborazione FP16 a FP24 è notevole. Non è esatto, almeno per il problema che avevate riscontrato e stavate analizzando.
Da quello che hai scitto qualche post fa, la differenza non è dovuta all'FP16 in se stesso, ma a qualche altro problema che Far Cry ha nell'utilizzo dell'FP16.
Nell'articolo non se ne fa mensione, ecco perchè vi chiedevo di modificarlo alla luce delle nuove news che avete avuto.
PhoEniX-VooDoo
10-05-2004, 14:29
causa poco tempo mi sono perso le ultime 30pagine del topic, quindi non so se è già stata postata...cmq:
Asus AX800 Pro/TD/256M
http://hardware.multiplayer.it/immagini/news/4/16134/img1.jpg
http://hardware.multiplayer.it/immagini/news/4/16134/img2.jpg
(ventola con LED blu :cool: )
IMHO è proprio bella! ...e se la vedo i ngiro non so se riuscirò a trattenermi :)
bye!
andreamarra
10-05-2004, 18:28
Originariamente inviato da Cfranco
Posso anche sbagliarmi , però ...
mi pare che ciò sia dovuto principalmente al cambio 5800/5600 -> 5900/5700 e che anche con i nuovi driver le 5800/5600 restino sostanzialmente deboli in questo settore , poi magari mi sono perso qualche test , ma non mi ricordo di aver visto nessun miracolo che possa tirar su il vecchio phon .
Scusa se non sono stato chiaro , ma non ce l' avevo con te .
Il mio discorso era riferito a un certo marketing che si articola in due punti :
- L' architettura é nuova e i driver acerbi .
- Adesso va così ma fidatevi che con i driver nuovi andrà come un missile .
Per la serie "adesso compratela che poi vedrete quanto forte la faremo andare" .
Questo tipo di approccio non mi piace , ed é tipico di Nvidia vendere prodotti "orientati al futuro" con feature sostanzialmente inutili .
Chi si ricorda la TNT ?
"E' il futuro perché supporta i 32 bit"
Non é mai servito a niente , quando sono arrivati i giochi a 32 bit la TNT era già da buttare .
Chi si ricorda la GeForce ?
"E' il futuro perché ha il T&L"
Su quella scheda non é mai servito a niente .
Chi si ricorda la GF3 ?
"E' il futoro grazie al supporto per le DX8"
Ma almeno erano delle schede grandiose per prestazioni , indipendentemente dalle nuove ( e inutili ) feature , adesso che non sono più al top si attaccano a queste presunte innovazioni per dimostrare la loro "superiorità" .
E poi , diciamolo chiaramente , che NV40 sia un chip nuovo é ancora tutto da dimostrare , il fatto é che Nvidia ha tutti i motivi di questo mondo per dichiararlo , ma francamente a me non sembra .
Chi si ricorda il confronto Gf2 / Gf3 ?
Si vedeva chiaramente che erano chip completamente diversi , avevano un comportamento completamente differente nei vari test , lo stesso si può dire confrontando le prestazioni della Gf4 e della 5800 , schede completamente diverse .
A me questa diversità tra la 5950 e la 6800 non é affatto evidente , la 6800 si comporta esattamente come se avessero raddoppiato la 5950 , mi ricorda un po' il salto Gf1 -> Gf2 oppure Gf3-> Gf4 , una rivisitazione "minore" con qualche aggiunta ma nessuna sostanziale modifica , per questo sono ancora più scettico sulle possibilità di migliorarne le prestazioni tramite nuovi driver .
Sawato Onizuka
10-05-2004, 18:52
http://cgi.ebay.it/ws/eBayISAPI.dll?ViewItem&category=47564&item=4130445152&rd=1&ssPageName=WDVW
:huh: wow :eek:
bimbi belli viziatelli
su accattatevela lol
Originariamente inviato da Lord style
Ho qualche dubbio che nell'articolo avete esclusivamente "segnalato il problema". Avete invece a mio avviso "segnalato il problema" e dato una "spiegazione del problema". In questa spiegazione si arriva a delle conclusioni diverse dalla realtà.
In questi due passaggi si lascia intendere chiaramente che il problema della scarsa qualità e del banding sta nella bassa precisione che un calcolo FP16 in genere garantisce.
... e iniziano le immagini con banding.
Poi si tirano le conclusioni.
Non potete dire, a mio parere, che la differenza di qualità di immagine che stavate riscontrando è notevole perchè il passaggio da elaborazione FP16 a FP24 è notevole. Non è esatto, almeno per il problema che avevate riscontrato e stavate analizzando.
Da quello che hai scitto qualche post fa, la differenza non è dovuta all'FP16 in se stesso, ma a qualche altro problema che Far Cry ha nell'utilizzo dell'FP16.
Nell'articolo non se ne fa mensione, ecco perchè vi chiedevo di modificarlo alla luce delle nuove news che avete avuto.
Hanno riscontrato quella che è l'attuale realtà, anche perchè in far cry le differenze le noti proprio in quegli shaders che hanno maggiore lunghezza e complessità(la differenza nel riflesso del pavimento opaco è praticamente inesistente, quando invece hai superfici con diversi effetti di rifrazione o che presuppongono una sfumatura con maggiore profondità di colore è evidente), logico aspettarsi che Nvidia, visto il calibro della scheda scelga l'fp32 o almeno il mixed mode nei giochi "di confronto", irreale pensare che la gestione dei calcoli da un quantitativo pari a 16bit a 32bit sia a costo 0.
E' logico che tale costo sarà ininfluente in istruzioni brevi, sempre + influente con l'allungarsi delle stesse, tale onere sarà in alcune particolari condizioni colmabile con lo sm3.0, ma nella maggior parte delle condizioni penso proprio di no.
Lord style
10-05-2004, 19:26
Originariamente inviato da Cifer
Hanno riscontrato quella che è l'attuale realtà, anche perchè in far cry le differenze le noti proprio in quegli shaders che hanno maggiore lunghezza e complessità(la differenza nel riflesso del pavimento opaco è praticamente inesistente, quando invece hai superfici con diversi effetti di rifrazione o che presuppongono una sfumatura con maggiore profondità di colore è evidente), logico aspettarsi che Nvidia, visto il calibro della scheda scelga l'fp32 o almeno il mixed mode nei giochi "di confronto", irreale pensare che la gestione dei calcoli da un quantitativo pari a 16bit a 32bit sia a costo 0.
E' logico che tale costo sarà ininfluente in istruzioni brevi, sempre + influente con l'allungarsi delle stesse, tale onere sarà in alcune particolari condizioni colmabile con lo sm3.0, ma nella maggior parte delle condizioni penso proprio di no.
Il problema del banding non dipende dalla risoluzione di calcolo FP16, ma dipende da un bug dei driver che si manifesta quando viene attivata la modalità FP16. E' diverso quindi. nVidia non ha bisogno affatto di scegliere l'elaborazione ONLY FP32 come tu dici (... Nvidia scelga l'fp32 o almeno il mixed mode nei giochi "di confronto") poichè l'FP16 è più che sufficente in FarCry. Probabilmente non hai colto il senso del mio discorso. ;)
Ecco cosa ha detto Vifani in merito.
Secondo le informazioni in mio possesso il problema del banding è un problema dei driver che NVIDIA sta studiando. Probabilmente lo risolveranno con qualche modifica ad hoc del compiler
Dovrebbe venire risolto anche sulle schede NV3x.
sanitarium
10-05-2004, 19:28
Originariamente inviato da Sawato Onizuka
http://cgi.ebay.it/ws/eBayISAPI.dll?ViewItem&category=47564&item=4130445152&rd=1&ssPageName=WDVW
:huh: wow :eek:
bimbi belli viziatelli
su accattatevela lol
Cioè, 550 euri la X800XT? Mica male. :cool:
-=Krynn=-
10-05-2004, 19:41
a quel prezzo se la tengono
andreamarra
10-05-2004, 19:44
Originariamente inviato da -=Krynn=-
a quel prezzo se la tengono
Bhè, per essere appena uscita non è male. io mi aspettavo una roba tipo 600/630 euro... :D
Cmq dopo l'estate e con una diffusione maggiore il prezzo scnederò almeno di un 120 euro se va male..
Almeno ci spero :sperem: :D
Originariamente inviato da Lord style
Il problema del banding non dipende dalla risoluzione di calcolo FP16, ma dipende da un bug dei driver che si manifesta quando viene attivata la modalità FP16. E' diverso quindi. nVidia non ha bisogno affatto di scegliere l'elaborazione ONLY FP32 come tu dici (... Nvidia scelga l'fp32 o almeno il mixed mode nei giochi "di confronto") poichè l'FP16 è più che sufficente in FarCry. Probabilmente non hai colto il senso del mio discorso. ;)
Ecco cosa ha detto Vifani in merito.
Se sei convinto di cio' che scrivi fai bene a scriverlo, il banding è certamente legato all'fp16, poi se hai la volontà di interpretare cio' che ho scritto così come lo ho scritto e non leggi fra le righe ciò che altri non mi pare abbiano scritto, capirai che il banding in fp16 è mano mano + evidente in presenza di shaders lunghi, proprio come in far cry hai delle differenze che vanno da un imperscrutabile ad un evidente.
Se per te il banding che si evidenzia in far cry è trascurabile, allora fai bene a dire che nello stesso( poichè l'FP16 è più che sufficente in FarCry l'fp16) è + che sufficiente, per quella che è la mia percezione visiva non mi sento di condividere il tuo punto di vista, evidentemente anche chi ha recensito la scheda.
Se attualmente lo sm3.0 richiede una fp32 un motivo ci sarà...
sanitarium
10-05-2004, 19:50
Originariamente inviato da -=Krynn=-
a quel prezzo se la tengono
Non è male, considerando che ancora deve uscire...
andreamarra
10-05-2004, 20:00
Originariamente inviato da Cifer
Se sei convinto di cio' che scrivi fai bene a scriverlo, il banding è certamente legato all'fp16, poi se hai la volontà di interpretare cio' che ho scritto così come lo ho scritto e non leggi fra le righe ciò che altri non mi pare abbiano scritto, capirai che il banding in fp16 è mano mano + evidente in presenza di shaders lunghi, proprio come in far cry hai delle differenze che vanno da un imperscrutabile ad un evidente.
Se per te il banding che si evidenzia in far cry è trascurabile, allora fai bene a dire che nello stesso( poichè l'FP16 è più che sufficente in FarCry l'fp16) è + che sufficiente, per quella che è la mia percezione visiva non mi sento di condividere il tuo punto di vista, evidentemente anche chi ha recensito la scheda.
Se attualmente lo sm3.0 richiede una fp32 un motivo ci sarà...
Secondo te il problema con giochi in ps2.0 e fp16 (banding)/fp32 (pesante) resterà? Ovviamente in presenze di istruzioni per shader come in Far Cry.
Tra l'altro mi sembra di aver capito che lo shader in Far Cry con l'istruzione più lunga non arriva minimamente a saturare un 2.0b.
E' sbagliato quello che ho scritto? :)
Lord style
10-05-2004, 20:07
Originariamente inviato da Cifer
Se sei convinto di cio' che scrivi fai bene a scriverlo, il banding è certamente legato all'fp16, poi se hai la volontà di interpretare cio' che ho scritto così come lo ho scritto e non leggi fra le righe ciò che altri non mi pare abbiano scritto, capirai che il banding in fp16 è mano mano + evidente in presenza di shaders lunghi, proprio come in far cry hai delle differenze che vanno da un imperscrutabile ad un evidente.
Se per te il banding che si evidenzia in far cry è trascurabile, allora fai bene a dire che nello stesso( poichè l'FP16 è più che sufficente in FarCry l'fp16) è + che sufficiente, per quella che è la mia percezione visiva non mi sento di condividere il tuo punto di vista, evidentemente anche chi ha recensito la scheda.
Se attualmente lo sm3.0 richiede una fp32 un motivo ci sarà...
Per me non è tracurabile quel banding. Anzi, è insopportabile. Sono d'accordissimo con te quando dici che con l'aumentare delle istruzioni delgli shader diventa sempre più importante salire di precisione ( Gli SM3.0 lo dimostrano chiaramente, visto che accettano ONLY FP32).
A detta di programmatori esperti quegli effetti di riflessioni in Far Cry hanno poche istruzioni, (meno di 40 circa): in queste circostanze non ci sono differenze di qualità nell'aborazione FP16 rispetto a FP32.
Il banding, ripeto, sembra dipendere da un bug e non dalla eccessiva lunghezza delle istruzioni.
Originariamente inviato da andreamarra
Secondo te il problema con giochi in ps2.0 e fp16 (banding)/fp32 (pesante) resterà? Ovviamente in presenze di istruzioni per shader come in Far Cry.
Tra l'altro mi sembra di aver capito che lo shader in Far Cry con l'istruzione più lunga non arriva minimamente a saturare un 2.0b.
E' sbagliato quello che ho scritto? :)
Se per "saturazione" intendi il numero massimo di istruzioni inteso come lunghezza, allorà passerà parecchio prima di saturare il 2.b, già il 2.0 è a 96 mi pare(la 9700), il che vuol dire che difficilmente incontra limiti, almeno allo stato attuale.
Al di là del saturare il numero massimo di istruzioni eseguibili c'è comunque da considerare il fatto che tale istruzioni necessitano di risorse per essere eseguite, + sono lunghe e maggiori risorse occupano, + il dato di partenza è grosso(bit) e maggiore sarà l'uso dei registri che lo ospiteranno durante l'esecuzione delle operazioni richieste, sommato al numero stesso di operazioni richieste.
+ le istruzioni sono lunghe, + la precisione di calcolo è alta, maggiore è lo stress delle unità di calcolo.
+ si va avanti, + gli shaders diventano complessi, maggiore diventa la differenza qualitativa fra fp16-24-32(in modo indirettamente proporzionale al salire di bit).
Personalmente ritengo "saggia" la decisione di Ati di rimanere sui 24bit, apprezzabile quella di Nvidia di implementare lo sm3.0, il problema è che dubito si abbia sufficiente potenza per elaborazioni a 32bit che tengano il passo con la concorrenza, anche in presenza di quelle "direi sporadiche" situazioni in cui la logica dello sm3.0 venga incontro alle performance.
andreamarra
10-05-2004, 20:59
Originariamente inviato da Cifer
Se per "saturazione" intendi il numero massimo di istruzioni inteso come lunghezza, allorà passerà parecchio prima di saturare il 2.b, già il 2.0 è a 96 mi pare(la 9700), il che vuol dire che difficilmente incontra limiti, almeno allo stato attuale.
Al di là del saturare il numero massimo di istruzioni eseguibili c'è comunque da considerare il fatto che tale istruzioni necessitano di risorse per essere eseguite, + sono lunghe e maggiori risorse occupano, + il dato di partenza è grosso(bit) e maggiore sarà l'uso dei registri che lo ospiteranno durante l'esecuzione delle operazioni richieste, sommato al numero stesso di operazioni richieste.
+ le istruzioni sono lunghe, + la precisione di calcolo è alta, maggiore è lo stress delle unità di calcolo.
+ si va avanti, + gli shaders diventano complessi, maggiore diventa la differenza qualitativa fra fp16-24-32(in modo indirettamente proporzionale al salire di bit).
Personalmente ritengo "saggia" la decisione di Ati di rimanere sui 24bit, apprezzabile quella di Nvidia di implementare lo sm3.0, il problema è che dubito si abbia sufficiente potenza per elaborazioni a 32bit che tengano il passo con la concorrenza, anche in presenza di quelle "direi sporadiche" situazioni in cui la logica dello sm3.0 venga incontro alle performance.
grazie :)
si, oper saturazione intendevo quello che hai spiegato molto bene.
Ma la cosa che non capisco ancora è questa: se dovesse uscire un gioco che sfrutta subito i ps3.0, il R420 li visualizzerebbe come dei ps2.0b in fp24?
Se fosse così, a tuo giudizio una soluzione ps3.0+fp32 teroicamente sarebbe più veloce, meno veloce o uguale a un ps2.0b+fp24? ovviamente considerando anche la differenza di potenza di rendering tra le due schede.
Lo chiedo perchè mi assilla il fatto che un ps3.0 necessita di fp32 data la lunghezza, a 16 potrebbe generare banding (potrebbe, altrimenti poi mi assalgono in 15 :D ). E quindi se da una parte aumenti la velocità dello shader (usando un ps 3.0), dall'altra hai l'onere dei fp32.
mettiamola così, ipotizzando un nv40 che elabora shaders in fp 16 però seguendo lo sm3.0 (solo la logica, visto che in teoria la precisione fp dovrebbe essere a 32bit), avresti:
-Il Dynamic branching, cioè una specie di precalcolo che elimina dal processo vero e proprio di calcolo tutti quei pixel la cui esecuzione di shaders non ha influenza sulla scena, una sorta di hsr applicato agli shaders, un calocolo volto a risparmiare calcoli.
-Avresti l'instancing support, cioè la possibilità di disegnare diversi oggetti prestabiliti con un solo comando(l'oggetto come un modello prestabilito di base, ad esempio memorizzare un modello come cespuglio e poi riprodurlo centinaia di volte, il modello rimane il medesimo, ad ogni riproduzione corrisponde il medesimo modello di base cui però vengono applicati i dati inerenti il colore, la posizione e la lunghezza delle foglie inerentemente alla singola riproduzione).
Queste sono le notività che dovrebbero introdurre nuove logiche che permettano un risparmio gestione calcolo/risultato.
Ora, il dynamic branching è un'arma a doppio taglio, il problema è che bisogna vedere quando e dove il precalcolo sia conveniente rispetto al calcolo indifferente, e probabilmente lo è quando le istruzioni raggiungono una lunghezza tale da mettere comunque in ginocchio l'architettura. Il punto è che bisogna vedere come tale precalcolo viene implementato e l'impatto che ha sulle prestazioni, se le condizioni che lo rendono opportuno sono sporadiche, come pare qualcuno abbia fatto notare, allora bisognerà aspettare successive implementazioni, cioè il punto in cui tale precalcolo sia indistintamente favorevole esattamente come avviene con le tecniche di risparmio sulla banda.
L'instancing support, qualora non fosse supportato da r420 potrebbe fare la differenza in diverse situazioni, ma è difficile capire quanto sia realmente inferiore lo stress delle unità vertex in relazione al suo uso, e comunque le unità vertex di Ati almeno nella precedente generazione di schede aveva un'efficienza in relazione ai mhz sensibilmente superiore a quella Nvidia, ora dovrebbe vantare anche frequenze superiori).
C'è da considerare che in entrambe i casi hai 32 registri temporanei, ora, + lunghe e complesse diventano le istruzioni, maggiore sarà la differenza visiva fra fp16 ed fp24, avendo entrambe lo stesso numero di registri temporanei è facile immaginare come con l'allungarsi delle istruzioni avrai ipoteticamente fra fp16-24 nel primo caso un impatto inferiore sulle performance ma superiore sulla qualità, nel secondo caso l'opposto.
Se invece confronti fp32-24 hai nel primo caso con l'aumentare delle istruzioni una migliore qualità a fronte di un degrado sulle prestazioni, nel secondo un'inferiore qualità ma visto che i registri sono sempre 32 anche un minore impatto sulle prestazioni.
Ecco perchè personalmente trovo decisamente migliore la soluzione di Ati, perquanto odiosamente conservatrice, mentre ammirevole quella Nvidia sotto chiamiamolo il profilo "della ricerca", per quanto imho decisamente debole sotto il profilo delle ipotetiche performance con fp32.
Lord style
11-05-2004, 00:10
Cifer quando parli dell'Instancing Support ti riferisci al Geometry Instancing, vero ?
Originariamente inviato da Lord style
Non potete dire, a mio parere, che la differenza di qualità di immagine che stavate riscontrando è notevole perchè il passaggio da elaborazione FP16 a FP24 è notevole. Non è esatto, almeno per il problema che avevate riscontrato e stavate analizzando.
Da quello che hai scitto qualche post fa, la differenza non è dovuta all'FP16 in se stesso, ma a qualche altro problema che Far Cry ha nell'utilizzo dell'FP16.
Nell'articolo non se ne fa mensione, ecco perchè vi chiedevo di modificarlo alla luce delle nuove news che avete avuto.
Il problema è nella precisione FP16. Questo non è in discussione. Perché nel momento in cui si forza FP32 o quando si usa FP24, il problema non esiste.
Chiarito questo punto, è ovvio che noi riportiamo tale problema. Non so se ricordate il test Pixel Shader 2.0 del 3D Mark 2003. Con le prime release dei driver NV3x quel test aveva una qualità scandalosa. Poi hanno fatto un botta e risposta FutureMark e NVIDIA con patch e driver e successivamente hanno risolto il problema incrementando le prestazioni e risolvendo il fattore qualità.
Alla luce di queste informazioni, io ipotizzo che NVIDIA abbia bisogno di ottimizzare alcuni particolari shader attraverso i driver per farli calcolare con FP16 senza degradi qualitativi.
Detto questo, alla domanda "tutti i giochi PS2.0 calcolati FP16 avranno questo problema?" io rispondo "assolutamente no. esiste una possibilità, ma bisogna che lo shader sia complesso e, anche se fosse, che NVIDIA non abbia ottimizzato il driver prima che quel gioco arrivi sul mercato".
Originariamente inviato da Lord style
Cifer quando parli dell'Instancing Support ti riferisci al Geometry Instancing, vero ?
si.
Originariamente inviato da Vifani
Detto questo, alla domanda "tutti i giochi PS2.0 calcolati FP16 avranno questo problema?" io rispondo "assolutamente no. esiste una possibilità, ma bisogna che lo shader sia complesso e, anche se fosse, che NVIDIA non abbia ottimizzato il driver prima che quel gioco arrivi sul mercato".
E questa imho é la cosa brutta: ottimizzare i driver per calcolare in modo diverso alcuni shader (per esempio) poiché benché la scheda supporti fp32 che non darebbe quindi problemi nvidia lo abbia messo come cosa di facciata perché poi sceglie di lavorare "di default" fp16.
Avrei preferito di gran lunga vedere che riconoscendo "farcry.exe" i drivers avessero impostato fp32 in automatico, risolvendo quindi i problemi qualitativi anche a scapito della velocità. Nei test quindi sarebbe venuto fuori il discorso: "benché calcoli a fp32 sta al passo, forse leggermente sotto, alla x800. Nei futuri drivers moglioreranno la cosa".
Dal punto di vista dell' immagine sarebbero stati però avvantaggiati, perché questi primi bench non servono per gli acquisti (ancora non sono sul mercato), e col le release "miracolose" dei loro drivers in futuro avrebbero potuto magari avvicinarsi alle x800, vatando però fp32.
E difendendosi per via dei drivers "acerbi".
Romanino
11-05-2004, 09:30
ciao ragazzi... nn menatemi x questa domanda ma sò davvero poco o nulla sulle schede video... continuo a leggere sto forum ma parlate davvero troppo complicato x me :cry: :D ... bene la domanda era : io a giugno/luglio dovrei cambiare tutto il pc e con questo naturalmente la scheda video...ed ero indirizzato sul prendermi le nuove " bestie " dell'ati...secondo voi vale la pena spendere 550 €(spero meno!) x la x800xt o mi prendo una x800pro? Dalle caratteristiche che ho visto delle 2 schede cambiano solo i pipeline? 12 x la pro e 16 x la xt se nn sbaglio...poi n'altra cosa sono così fondamentali 4 pipe in +? thx a tutti anticipatamente :p :D ...spero di nn aver postato nel 3ad sbagliato ma visto ke è quello " ufficiale " della x800...
Originariamente inviato da Cifer
si.
la miseria Cifer.. ma quante ne sai? :eek:
complimenti!
Originariamente inviato da Romanino
ciao ragazzi... nn menatemi x questa domanda ma sò davvero poco o nulla sulle schede video... continuo a leggere sto forum ma parlate davvero troppo complicato x me :cry: :D ... bene la domanda era : io a giugno/luglio dovrei cambiare tutto il pc e con questo naturalmente la scheda video...ed ero indirizzato sul prendermi le nuove " bestie " dell'ati...secondo voi vale la pena spendere 550 €(spero meno!) x la x800xt o mi prendo una x800pro? Dalle caratteristiche che ho visto delle 2 schede cambiano solo i pipeline? 12 x la pro e 16 x la xt se nn sbaglio...poi n'altra cosa sono così fondamentali 4 pipe in +? thx a tutti anticipatamente :p :D ...spero di nn aver postato nel 3ad sbagliato ma visto ke è quello " ufficiale " della x800...
L' estate in genere é il periodo peggiore per cambiare hw... in genere le pulizie si fanno a settembre-ottoble
halduemilauno
11-05-2004, 09:43
Originariamente inviato da Romanino
ciao ragazzi... nn menatemi x questa domanda ma sò davvero poco o nulla sulle schede video... continuo a leggere sto forum ma parlate davvero troppo complicato x me :cry: :D ... bene la domanda era : io a giugno/luglio dovrei cambiare tutto il pc e con questo naturalmente la scheda video...ed ero indirizzato sul prendermi le nuove " bestie " dell'ati...secondo voi vale la pena spendere 550 €(spero meno!) x la x800xt o mi prendo una x800pro? Dalle caratteristiche che ho visto delle 2 schede cambiano solo i pipeline? 12 x la pro e 16 x la xt se nn sbaglio...poi n'altra cosa sono così fondamentali 4 pipe in +? thx a tutti anticipatamente :p :D ...spero di nn aver postato nel 3ad sbagliato ma visto ke è quello " ufficiale " della x800...
bhe cambiano anche le frequenze una 475/900 l'altra 520/1120.
ciao.
;)
Romanino
11-05-2004, 11:00
innanzi tutto thx halduemilauno :D
e poi....
Originariamente inviato da street
L' estate in genere é il periodo peggiore per cambiare hw... in genere le pulizie si fanno a settembre-ottoble
ma xkè??? o_O x i prezzi? se è per i prezzi se aspetto ottobre riandrei a spendere la stessa cifra xkè uscirebbe la nuova raddy...
:rolleyes: ( thx cmq anke a te x la risp ;) )
bombardax
11-05-2004, 11:02
Originariamente inviato da Romanino
innanzi tutto thx halduemilauno :D
e poi....
ma xkè??? o_O x i prezzi? se è per i prezzi se aspetto ottobre riandrei a spendere la stessa cifra xkè uscirebbe la nuova raddy...
:rolleyes: ( thx cmq anke a te x la risp ;) )
ottobre 2004 è troppo presto per la nuova generazione di schede, sicuramente non vedranno lo scaffale prima del 2005 (secondo trimestre??)
Originariamente inviato da Romanino
innanzi tutto thx halduemilauno :D
e poi....
ma xkè??? o_O x i prezzi? se è per i prezzi se aspetto ottobre riandrei a spendere la stessa cifra xkè uscirebbe la nuova raddy...
:rolleyes: ( thx cmq anke a te x la risp ;) )
D' estate in genere non escono giochi nuovi, si esce di più, si usa meno il pc...
A settembre-ottobre in genere i prezzi di tutto l' hw calano dscretamente, per poi scoppaire nuovamente a novembre-dicembre
andreamarra
11-05-2004, 11:41
Originariamente inviato da street
D' estate in genere non escono giochi nuovi, si esce di più, si usa meno il pc...
A settembre-ottobre in genere i prezzi di tutto l' hw calano dscretamente, per poi scoppaire nuovamente a novembre-dicembre
Aggiungo anche che per gli smanettoni l'este il pc non può neanche essere acceso :D ....
andreamarra
11-05-2004, 12:29
Originariamente inviato da Cifer
mettiamola così, ipotizzando un nv40 che elabora shaders in fp 16 però seguendo lo sm3.0 (solo la logica, visto che in teoria la precisione fp dovrebbe essere a 32bit), avresti:
-Il Dynamic branching, cioè una specie di precalcolo che elimina dal processo vero e proprio di calcolo tutti quei pixel la cui esecuzione di shaders non ha influenza sulla scena, una sorta di hsr applicato agli shaders, un calocolo volto a risparmiare calcoli.
-Avresti l'instancing support, cioè la possibilità di disegnare diversi oggetti prestabiliti con un solo comando(l'oggetto come un modello prestabilito di base, ad esempio memorizzare un modello come cespuglio e poi riprodurlo centinaia di volte, il modello rimane il medesimo, ad ogni riproduzione corrisponde il medesimo modello di base cui però vengono applicati i dati inerenti il colore, la posizione e la lunghezza delle foglie inerentemente alla singola riproduzione).
Queste sono le notività che dovrebbero introdurre nuove logiche che permettano un risparmio gestione calcolo/risultato.
Ora, il dynamic branching è un'arma a doppio taglio, il problema è che bisogna vedere quando e dove il precalcolo sia conveniente rispetto al calcolo indifferente, e probabilmente lo è quando le istruzioni raggiungono una lunghezza tale da mettere comunque in ginocchio l'architettura. Il punto è che bisogna vedere come tale precalcolo viene implementato e l'impatto che ha sulle prestazioni, se le condizioni che lo rendono opportuno sono sporadiche, come pare qualcuno abbia fatto notare, allora bisognerà aspettare successive implementazioni, cioè il punto in cui tale precalcolo sia indistintamente favorevole esattamente come avviene con le tecniche di risparmio sulla banda.
L'instancing support, qualora non fosse supportato da r420 potrebbe fare la differenza in diverse situazioni, ma è difficile capire quanto sia realmente inferiore lo stress delle unità vertex in relazione al suo uso, e comunque le unità vertex di Ati almeno nella precedente generazione di schede aveva un'efficienza in relazione ai mhz sensibilmente superiore a quella Nvidia, ora dovrebbe vantare anche frequenze superiori).
C'è da considerare che in entrambe i casi hai 32 registri temporanei, ora, + lunghe e complesse diventano le istruzioni, maggiore sarà la differenza visiva fra fp16 ed fp24, avendo entrambe lo stesso numero di registri temporanei è facile immaginare come con l'allungarsi delle istruzioni avrai ipoteticamente fra fp16-24 nel primo caso un impatto inferiore sulle performance ma superiore sulla qualità, nel secondo caso l'opposto.
Se invece confronti fp32-24 hai nel primo caso con l'aumentare delle istruzioni una migliore qualità a fronte di un degrado sulle prestazioni, nel secondo un'inferiore qualità ma visto che i registri sono sempre 32 anche un minore impatto sulle prestazioni.
Ecco perchè personalmente trovo decisamente migliore la soluzione di Ati, perquanto odiosamente conservatrice, mentre ammirevole quella Nvidia sotto chiamiamolo il profilo "della ricerca", per quanto imho decisamente debole sotto il profilo delle ipotetiche performance con fp32.
Perfetto, ottima spiegazione :cool:
Cmq la cosa assurda è che ancora non si sa bene se certe features siano o no presenti in R420, come il GI... :confused:
In japan è fuori....ma a parte questo,sotto il logo Sapphire c'è quello di HL2 e c'è scritto Free Half Life 2.
Chissà se è ancora il cupon o il gioco....
http://www.hardware4you.sm/nucleus/media/1/20040511-sap_x800pro.jpg
Thunder82
11-05-2004, 21:44
Una recensione un po' diversa dal solito :D
http://bbspot.com/News/2004/05/radeon_x800_vs_geforce_6800.html
Names
The actual card companies will create more fanciful names like Madcapitator X800 or Zombie XTReMe 6800, but the chip names are fairly subdued.
GeFORCE 6800 - G forces are cool, and something you'll subject your video card to when the drivers are buggy. Nothing too inspiring about 6800, but it is one digit away from 6900.
Radeon X800 - Radeon sounds like something you shouldn't stand too close to if you want to have children. X800 is on the edge of cool, because it invokes the X-factor, but the X-factor is losing its luster.
Advantage - GeFORCE 6800
Domain Names
GeFORCE 6800 - GeForce6800.com could not be found.
Radeon X800 - RadeonX800.com is a blank page.
Advantage - Radeon X800
Mascots
GeFORCE 6800 - Nalu, the scantily clad mermaid for Nvidia is a nice choice for a mascot, if you're marketing your product to eight-year-old girls that is. I know a mermaid was chosen, so they can highlight all the cool underwater effects the card can do, but can she blow anything up? I don't think so.
Radeon X800 - While Ruby might not be able to show the advantages of the card as well as a mermaid, she could kick Nalu's ass any day. She might not be the kind of girl that you take home to mother, but that's what we really want from our video card mascot, right?
Advantage - Radeon X800
Google Fights
"Why does my Radeon X800 have buggy drivers?" - 104 results
Vs.
"Why does my GeFORCE 6800 have buggy drivers?" - 157 results
Next...
"GeFORCE 6800" - 872,000 results
Vs.
"Radeon X800" - 143,000 results
Tiebreaker...
"I'll get more ladies/men with a geforce 6800" - 0 results
Vs.
"I'll get more ladies/men with a Radeon X800" - 0 results
Tiebreaker 2...
"I lost a finger installing my geforce 6800" - 71 results
Vs.
"I lost a finger installing my radeon x800" - 24 results
Advantage: Radeon X800 (unless you like losing fingers)
Coin Flip - Best of 7 :eek: :D
GeFORCE 6800 - Heads
Radeon X800 - Tails
Advantage - GeFORCE 4-3
Coolest Sounding Technology
GeFORCE 6800 - Ultrashadow II sounds like it could be the sequel to a summer blockbuster starring Vin Diesel. "Fighting crime in the darkened allies of Center City it's Ultrashadow!"
Radeon X800 - Smartshader HD sounds like Ultrashadow's goofy sidekick when the franchise is ruined by the campy TV series.
Advantage - GeFORCE 6800
Press Release Marketspeak Benchmark
BBspot analyzed both Nvidia's and ATI's press releases and calculated the percentage of each release that was marketspeak, legalspeak, superlatives, non-quantitative flourishes or other bullshit language.
GeFORCE 6800 - Included such gems as: "the worldwide leader in visual processing solutions", "Unprecedented on-chip video processing engine", "staggering amount of graphics horsepower", and this doozy "bringing next-generation DirectX 9 rendering performance to new heights while continuing forward with the high-definition floating-point rendering"
Radeon X800 - Featured bologna such as: "deliver the industry’s most awesome gaming experience possible", "the most sought-after high-end visual processors in the world", "RADEON X800 is awesome!", "will ship later this month", and "the design team has accomplished something that no one thought was possible."
http://bbspot.com/Images/News_Features/2004/05/benchmark.gif
Advantage - Radeon X800
Conclusions
It was a close battle, but the Radeon X800 edges out a victory against the GeFORCE 6800 and wins our Technical Award of Excellence.
Sono fuori di test questi :D
Questa rece è un capolavoro *-*
Cmq considerando che c'è scritto free half life 2 qualcosa mi dice che sia il coupon :(
sanitarium
11-05-2004, 23:47
Originariamente inviato da Thunder82
Una recensione un po' diversa dal solito :D
[...]
Sono fuori di test questi :D
Sono perfettamente d'accordo! :sofico:
Originariamente inviato da Thunder82
The actual card companies will create more fanciful names like Madcapitator X800 or Zombie XTReMe 6800, but the chip names are fairly subdued.
Radeon X800 - Radeon sounds like something you shouldn't stand too close to if you want to have children. X800 is on the edge of cool, because it invokes the X-factor, but the X-factor is losing its luster.
"I'll get more ladies/men with a geforce 6800" - 0 results
Vs.
"I'll get more ladies/men with a Radeon X800" - 0 results
Tiebreaker 2...
"I lost a finger installing my geforce 6800" - 71 results
Vs.
"I lost a finger installing my radeon x800" - 24 results
GeFORCE 6800 - Ultrashadow II sounds like it could be the sequel to a summer blockbuster starring Vin Diesel. "Fighting crime in the darkened allies of Center City it's Ultrashadow!"
Radeon X800 - Smartshader HD sounds like Ultrashadow's goofy sidekick when the franchise is ruined by the campy TV series.
su queste ho rischiato seriamente di lasciarci le penne dal ridere! :D :D :D :cry:
non postare mai più una cosa del genere senza una vviso di pericolo di morte! :D
:)
andreamarra
12-05-2004, 14:27
Ma si hanno novità sulle specifiche tecniche? GI c'è o no?
andreamarra
13-05-2004, 01:01
Nel frattempo sono usciti i 4.5...
andreamarra
13-05-2004, 01:01
doppio :D
Thunder82
13-05-2004, 01:24
Originariamente inviato da andreamarra
Nel frattempo sono usciti i 4.5...
veramente? Hanno la nuova interfaccia delle foto? :eek:
andreamarra
13-05-2004, 01:29
Originariamente inviato da Thunder82
veramente? Hanno la nuova interfaccia delle foto? :eek:
http://forum.hwupgrade.it/showthread.php?s=&threadid=683881
:D
... domani li provo e vediamo :D
cmq hanno risolto il problem dell'AA con DTM Race Driver 2 and Ravenshield (quest'ultimo un utente lo assicura)
Domani bencho un pò :p
Originariamente inviato da Thunder82
veramente? Hanno la nuova interfaccia delle foto? :eek:
no :(
bYeZ!
Thunder82
13-05-2004, 01:40
Originariamente inviato da ATi7500
no :(
bYeZ!
uffa, e quando viene fuori la nuova interfaccia? :(
voglio l'interfaccia lollosa :bimbo:
andreamarra
13-05-2004, 01:41
Originariamente inviato da Thunder82
uffa, e quando viene fuori la nuova interfaccia? :(
voglio l'interfaccia lollosa :bimbo:
:asd: :asd: :asd:
dovrebbe essere integrata nei 4.6
:)
Originariamente inviato da Thunder82
uffa, e quando viene fuori la nuova interfaccia? :(
voglio l'interfaccia lollosa :bimbo:
si mormora nella prossima release, i 4.6... :)
bYeZ!
-=Krynn=-
13-05-2004, 13:44
Originariamente inviato da andreamarra
Bhè, per essere appena uscita non è male. io mi aspettavo una roba tipo 600/630 euro... :D
Cmq dopo l'estate e con una diffusione maggiore il prezzo scnederò almeno di un 120 euro se va male..
Almeno ci spero :sperem: :D
Ci spero proprio, anche perchè se costasse anche 450 la versione XT, sicuramente la pro ad un 100 euro (e forse +) in meno si riesce a trovarla
halduemilauno
13-05-2004, 18:55
http://firingsquad.com/hardware/x800_pro_athlon_xp/
;)
andreamarra
13-05-2004, 20:18
Originariamente inviato da halduemilauno
http://firingsquad.com/hardware/x800_pro_athlon_xp/
;)
Effettivamente la X800 come scheda necessita di un processore particolarmente "putende"....
satura la CPU in maniera mostruosa... :eek:
nirvanboy81
13-05-2004, 20:23
Originariamente inviato da halduemilauno
http://firingsquad.com/hardware/x800_pro_athlon_xp/
;)
Non conosco il sito in questione per cui non riesco a dare giudizi sulla veridicità e consistenza dei test, tuttavia la situazione emersa è piuttosto delicata. In pratica chi possiede "solo" una 3200+, e credo che siamo ancora un bel pò rispetto al cugino a 64bit, non guadagna praticamente nulla passando da 9800xt a x800pro, almeno mi pare di aver capito questo. Però alla fin fine il procio testato dai "nostri" è un P4 3,06 HT, non pensavo si comportasse così diversamente rispetto a un 3200+ in campo videoludico.:confused: ...mmm resto un pò perplesso, mi sembrano eccessivamente piatti quei bench postati..
I nostri che dicono di quei risultati ottenuti con il 3200+? Potrebbero essere attendibili??:confused: :rolleyes:
andreamarra
13-05-2004, 20:27
Originariamente inviato da nirvanboy81
Non conosco il sito in questione per cui non riesco a dare giudizi sulla veridicità e consistenza dei test, tuttavia la situazione emersa è piuttosto delicata. In pratica chi possiede "solo" una 3200+, e credo che siamo ancora un bel pò rispetto al cugino a 64bit, non guadagna praticamente nulla passando da 9800xt a x800pro, almeno mi pare di aver capito questo. Però alla fin fine il procio testato dai "nostri" è un P4 3,06 HT, non pensavo si comportasse così diversamente rispetto a un 3200+ in campo videoludico.:confused: ...mmm resto un pò perplesso, mi sembrano eccessivamente piatti quei bench postati..
I nostri che dicono di quei risultati ottenuti con il 3200+? Potrebbero essere attendibili??:confused: :rolleyes:
Bho, io guradavo i test oltre una certa risoluzione... in altri casi con risoluzioni bassissime è vero quello che dici tu.
Non ci si capisce più una ceppa :D
nirvanboy81
13-05-2004, 20:31
Hai ragione, ho dimenticato di dire che mi riferisco ai risultati ottenuti a 1024x768..:doh:
Cavolo ma sono diventato Senior Member di Hwupgrade!?!?!? :boxe: :ubriachi:
Sono commosso :cry:
palanzana
13-05-2004, 20:34
nessuno ke labbia comprata su ebay?
link (http://search.ebay.it/ws/search/SaleSearch?ht=1&maxrecordsreturned=300&saavailabletosite=101&satitle=x800&sorecordsperpage=50&x=0&y=0&sosortproperty=3&sosortorder=1&sbrsrt=l)
andreamarra
13-05-2004, 21:26
Originariamente inviato da nirvanboy81
Hai ragione, ho dimenticato di dire che mi riferisco ai risultati ottenuti a 1024x768..:doh:
Cavolo ma sono diventato Senior Member di Hwupgrade!?!?!? :boxe: :ubriachi:
Sono commosso :cry:
:)
Auguri senior :D ;)
Originariamente inviato da nirvanboy81
Non conosco il sito in questione per cui non riesco a dare giudizi sulla veridicità e consistenza dei test
ma cosa significa? adesso tutti i siti sono diventati di parte?!?! ad ogni modo Firing Squad imho è un sito molto serio e attendibile ;)
:)
nirvanboy81
13-05-2004, 22:14
Originariamente inviato da Manp
ma cosa significa? adesso tutti i siti sono diventati di parte?!?! ad ogni modo Firing Squad imho è un sito molto serio e attendibile ;)
:)
Boh, forse non ti ho capito io.. volevo dire che i test per quello che dicono sono molto pesanti e non conoscendo il sito non posso neanche permettermi di dire che sono sbagliati. Capito?;)
Originariamente inviato da palanzana
nessuno ke labbia comprata su ebay?
link (http://search.ebay.it/ws/search/SaleSearch?ht=1&maxrecordsreturned=300&saavailabletosite=101&satitle=x800&sorecordsperpage=50&x=0&y=0&sosortproperty=3&sosortorder=1&sbrsrt=l)
Ma comve fa ad avere già la XT ??? :confused: :eek:
http://firingsquad.com/hardware/x800_pro_athlon_xp/page15.asp
la 9800xt al limite a 1280X1024 4XAA
la X800pro al limite a 1600x1200 4XAA
interessante
palanzana
13-05-2004, 23:43
Originariamente inviato da sgksgk
Ma comve fa ad avere già la XT ??? :confused: :eek:
in america già sarà uscita...maledetta italia.:muro:
romansnake
14-05-2004, 04:16
C'è scritto disponibile da giugno 2k4... in pratica la paghi oggi e te la spedisce quando le importa :D
andreamarra
14-05-2004, 10:24
Novità interessanti per il nuovo gioiellino :) ???
halduemilauno
14-05-2004, 11:02
http://www.pcper.com/article.php?aid=40
PSYCOMANTIS
14-05-2004, 11:33
http://www.compusa.com/products/product_info.asp?product_code=313032&pfp=hpf2#checkstore
TheDarkAngel
14-05-2004, 12:36
Originariamente inviato da PSYCOMANTIS
http://www.compusa.com/products/product_info.asp?product_code=313032&pfp=hpf2#checkstore
ancora in preorder... uff
-=Krynn=-
14-05-2004, 12:45
Originariamente inviato da romansnake
C'è scritto disponibile da giugno 2k4... in pratica la paghi oggi e te la spedisce quando le importa :D
bella fregatura:O
Originariamente inviato da -=Krynn=-
bella fregatura:O
Il pre-order funziona così.
PSYCOMANTIS
14-05-2004, 15:29
Originariamente inviato da TheDarkAngel
ancora in preorder... uff
Comunque sembra un buon prezzo. Non ho mai comprato niente su internet ma questa volta sono tentato.....specialmente se da sd la prezzano a piu' di 600.
palanzana
14-05-2004, 15:45
cè anke questo http://forum.hwupgrade.it/showthread.php?s=&threadid=681742
TheDarkAngel
14-05-2004, 16:18
Originariamente inviato da PSYCOMANTIS
Comunque sembra un buon prezzo. Non ho mai comprato niente su internet ma questa volta sono tentato.....specialmente se da sd la prezzano a piu' di 600.
600?
se sogna
almeno 650€ ti sparano fuori -.-
se fossi in te terrei d'okkio clubdelcosto...
non vedo l'ora di stringere tra le mani la x800xt :sbav::sbav::sbav:
andreamarra
14-05-2004, 17:06
Originariamente inviato da TheDarkAngel
x800xt :sbav::sbav::sbav:
feticista :oink: !
:D
PSYCOMANTIS
14-05-2004, 17:13
Appena ne arriva una in Italia mi travesto da Sam Fisher e la vado a prendere!:D
zerothehero
14-05-2004, 23:36
Riporto una notiziuola tutta da verificare su x800pro postata sull'ordine collettivo da Rubex...
Through contrasts two section Radeon the X800Pro graph chip and two section Radeon the X800XT graph chip, we discovered on the chip seal surface right angle has is similar to the AMD processor surface three groups of golden bridge, said to Radeon X800Pro, is left the first group of golden bridge to shut off by the laser, said to Radeon X800XT, is most left and the most right two groups of golden bridge completely connects, therefore we have the reason to extrapolate, if connects most left side group of golden bridges, then Radeon X800Pro is shielded 4 exaggerate the pipeline to be allowed to open once more, if about 2 groups of golden bridges completely will shut off, then Radeon X800XT turned Radeon X800SE, Only some 8 picture elements exaggerate the pipeline, certainly, the R420 graph chip has certainly certainly in the middle of the production process is good rate, after in other words Radeon X800Pro forces opens 16 to exaggerate the pipeline, 16 exaggerate the pipeline whether completely normal work also to have to look at everybody the luck.
Chissa se riuscirò a trattenermi quando mi arriverà la schedina:oink: :D
Sawato Onizuka
15-05-2004, 10:49
Originariamente inviato da zerothehero
Only some 8 picture elements exaggerate the pipeline, certainly, the R420 graph chip has certainly certainly in the middle of the production process is good rate, after in other words Radeon X800Pro forces opens 16 to exaggerate the pipeline, 16 exaggerate the pipeline whether completely normal work also to have to look at everybody the luck. :D
sbaglio o così facendo solo la modifca col saldatore la porta praticamente a @ xt senza problemi di funzionamento (mi pare di leggere così o forse xk' mi son appena svegliato lol) ?
zerothehero
15-05-2004, 12:08
Originariamente inviato da Sawato Onizuka
sbaglio o così facendo solo la modifca col saldatore la porta praticamente a @ xt senza problemi di funzionamento (mi pare di leggere così o forse xk' mi son appena svegliato lol) ?
spero non sbagli perchè tra 4-5 giorni io questa scheda ce l'ho...
Perfectdavid
15-05-2004, 12:27
Originariamente inviato da zerothehero
spero non sbagli perchè tra 4-5 giorni io questa scheda ce l'ho...
direi 8-10giorni:D
zerothehero
15-05-2004, 12:48
Originariamente inviato da Perfectdavid
direi 8-10giorni:D
come siamo puntigliosi :O :D 6-7 giorni...il 20 arriva la scheda nel negozio 2 giorni per spedire e il 22 dovrei avercela...spero...
-=Krynn=-
15-05-2004, 15:09
facci sapere...bech, foto, e soprattutto info modifica;)
andreamarra
15-05-2004, 15:15
Fatemi capire... è possibile tramite saldatore ( :eek: ) ridare vita alle 4 pipeline castrate???
Io cmq non mi fiderei, almeno non subito :asd:
andreamarra
15-05-2004, 15:20
http://service.futuremark.com/compare?2k3=2511974
Praticamente in diversi siti si dice che ad aria e con dissipatore ati di serie, una PRO è stata portata (dai 475/450 di base) @ 554 Core/559 Memory... in uno shuttle minipc...
Perfectdavid
15-05-2004, 15:30
se mi sale a 550/550 e mi si attivano le 4 pippe rimaste sono i 380 euro spesi meglio fin'ora su un pc da parte mia...
Se vuoi anche un litro di sangue, fai un fischio :)
-=Krynn=-
15-05-2004, 18:33
IO comunque aspetto settembre, almeno i prezzi si saranno ribassati un pochetto. Poi tra gli esami universitari e le vacanze non posso giocare molto...
Originariamente inviato da Perfectdavid
se mi sale a 550/550 e mi si attivano le 4 pippe rimaste sono i 380 euro spesi meglio fin'ora su un pc da parte mia...
David dalle rece viste in giro il core sale come una xt ed anche +,le ram invece arrivano + basse,ovviamente x limite fisico.
BYe
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.