View Full Version : Radeon serie X1000: le nuove GPU ATI
nachtymnen
06-10-2005, 17:00
Quà vi state a scannare per una vga...avete i paraocchi(scusate se generalizzo)...o solo ATI o solo nvidia...come per il calcio...una squadra è la migliore e le altre fanno cagare...mah!!! :confused: ...sono due ottime vga punto e basta.
Chi preferisce ATI e chi nvidia.
Perchè non ammettere che nonostante tutto R520 sia una gran scheda?Così come la 7800GTX lo sia.
Guarda che io non sono pro niente, anzi, se proprio vogliamo stare ad indagare il mio mito è 3dfx e questo dovrebbe portarmi ad avere una lieve antipatia verso nvidia.
Io per ora non ho sentito "chi lavora nel campo" esprimere una nota negativa... che stavolta ATI abbia tirato fuori il prodotto perfetto?
E cmq per me possono parlare tutti, me compreso :D
strano... le allusioni fatte nei post precedenti mi sembravano alquanto palesi... bo evidentemente mi sogno le cose...
:doh:
Chi preferisce ATI e chi nvidia.
Perchè non ammettere che nonostante tutto R520 sia una gran scheda?Così come la 7800GTX lo sia.
xchè qua c'è gente che ha passato il tempo a sputare veleno da quando è uscita la notizia che la nuova ATi avrebbe avuto solo 16 pipe... SOLO 16?!?!??! muahhaha
tutto così era...
bartolino3200
06-10-2005, 17:01
da me è uscito un lieve sole :rolleyes: tempo di cacca :cry:
Mazza non se ne può più di sto tempo, a momenti un fulmine mi veniva in testa per la gioia di molti, sembrava l' inizio della Guerra dei mondi :D
bartolino3200
06-10-2005, 17:02
Quà vi state a scannare per una vga...avete i paraocchi(scusate se generalizzo)...o solo ATI o solo nvidia...come per il calcio...una squadra è la migliore e le altre fanno cagare...mah!!! :confused: ...sono due ottime vga punto e basta.
Chi preferisce ATI e chi nvidia.
Perchè non ammettere che nonostante tutto R520 sia una gran scheda?Così come la 7800GTX lo sia.
Sono daccordo, ma io e T3D ce la stiamo spassando mica ci strappiamo le unghie coi denti ;)
nachtymnen
06-10-2005, 17:04
Sono daccordo, ma io e T3D ce la stiamo spassando mica ci strappiamo le unghie coi denti ;)
Si però è un pò triste.Invece che trovare i punti positivi e le innovazioni di questa bella schedozza ci sono molte critiche pesanti non giuste secondo me.
Vabbè...ogniuno la vede a modo suo.
Si però è un pò triste.Invece che trovare i punti positivi e le innovazioni di questa bella schedozza ci sono molte critiche pesanti non giuste secondo me.
Vabbè...ogniuno la vede a modo suo.
quoto... in tutti i miei reply mi hai mai visto definire la bellissima 7800GTX una schifezza di scheda? assolutissimamente no, anzi. Quello che mi ha dato fastidio è il dare contro ad una azienda e al suo prodotto a prescindere dai risultati e da analisi obiettive! e questo bartolino lo hai fatto. Se ne sono accorti tutti :rolleyes:
bartolino3200
06-10-2005, 17:06
Si però è un pò triste.Invece che trovare i punti positivi e le innovazioni di questa bella schedozza ci sono molte critiche pesanti non giuste secondo me.
Vabbè...ogniuno la vede a modo suo.
Bhe no dai, c' è sempre chi vi trova i pregi e ci sono chiaramente chi invece ci trova i difetti che non mancano, chiaramente.
Tutto qui, altrimenti il mondo sarebbe di un piatto spaventoso ;)
Io credo che se mettessi questo link nella tua sign sarebbe quanto mai esplicativo delle tue tendenze
http://64.233.183.104/search?q=cache:aGrFpeNO33cJ:www.ati.com/developer/friendsk-l.html+Lionhead+ati&hl=it
E se mettessi questo:
http://developer.nvidia.com/object/gpu_gems_2_home.html
Inside Geometry Instancing
Francesco Carucci (Lionhead Studios)
Al solito, finiti gli argomenti, si passa alla saga del venduto.
Infatti, per me è acqua fresca visto che non me ne frega niente di quelle features, non quanto OpenGL o LINUX.
E' un reato?
Sarò libero di dire cosa mi interessa o no in un prodotto?
Non ho mica accrodi commerciali con ATI io per difenderla a spadatratta.
Ciao e buon proseguimento.
Non e' un reato avere delle esigenza. E' disinformazione promuovere o bocciare un prodotto in assoluto solo in base alle proprie esigenze.
Le tue esigenze, per fortuna, non sono quelle di tutti gli altri. Per le tue esigenze ATI produce le FireGL e NVIDIA le Quadro.
E' come se bocciassi un frigorifero perche' non ti cuoce le torte.
Senza contare che nel tuo post, non vedo alcun riferimento ad un'opinione personale o alle tue esigenze:
Insomma prestazioni allineate, ma con l' inconveniente di Ati di consumare di più, generare più calore e più rumore, consumare un quantitativo di energia in più che fa la differenza. E non dimientichiamolo ATI COSTA DI PIU'. Per quanto mi riguarda non ci siamo proprio, visto che non saranno 2 fps o qualità dell' immagine leggermente superiore (voglio vedere chi fa screenshot quando deve giocare per notare la differenza al microscopio), a farmi propendere per ATI.
Se ci aggiungiamo il supporto per Linux e in ambito OpenGL davvero discutibile, il verdetto è dato : BOCCIATA!!!
Inutile infine tornare sui ritardi e sulle aspettative mancate da questi nuovi prodotti ati che per me rimangono solo un biglietto da visita a R580, immessi sul mercato per forza vista la necessità di contrastare nVidia e 7800GTX.
Noi dovremmo fare piu' attenzione a quello che scriviamo, ma tu dovresti cercare almeno di esprimere il tuo pensiero in maniera precisa.
halduemilauno
06-10-2005, 17:09
molto costruttivo il tuo commento, peccato che nn tieni conto che questa scheda gira con 1/3 delle pipeline della 7800
e non tieni conto neanche del fatto che x i driver nvdia sono ormai "collaudati" da parecchi mesi al contrario di quelli ati.
questa è una distorsione dei fatti e della realtà che è oggettiva, la novità tecnologica c'è sei te che nn la vuoi vedere
grazie a dio nn fai tu i test delle schede video non ho mai visto una recensione mettere come premesse quelle elencate da te, se fosse così avremo come "king of the hill" una matrox :D
credo che siano i tuoi parametri a essere un tantino diversi dalla maggioranza, quindi nn dare del fanboy agli altri, sistemi operativi come linux rappresentano una piccola % di utenti (bada bene che nn parlo di qualità), open gl è un ambiente che nel corso del tempo ha solo perso il vantaggio che aveva nei confronti delle directx, rumorosità è da ricontrollare dato che alcuni siti la danno silenziosa altri no.
prezzo, ne riparliamo quando avremo la disponibilità.
EDIT
1/3 delle pipeline .... in meno (ho dimenticato di aggiungere thx )
si certo è vero che ha 1/3 di pipe in meno ma ha anche un bel 195/300 di frequenza in più.
in quanto ai drivers hai ragione. ma anche quelli di nVidia erano(in alcune rece)i nuovi serie 8x.xx
cmq è certo che il chip ati sia tecnologicamente valido e anzi tecnologicamente un passo avanti rispetto al G70. si è sempre detto che il G70 era un refresh dell'NV40 non a caso la sua denominazione d'origine era NV47. quell'aspetto non è mai stato messo in discussione. NV40 e G70 son parenti stretti mentre R420 e R520 son parenti forse per modo di dire.
ma era ati che doveva adottare questa mossa. una mossa obbligata. una mossa che in origine prevedeva altro e che per cause diverse non è riuscita a completare. e che lo sarà nell'R580 che, caso più unico che raro ha effettuato il tape-out addirittura tre mesi prima(agosto) della commercializzazione(novembre) della scheda che dovrà sostituire.
e questo a mio modesto avviso farà si che la vita commerciale dell'R520 sarà breve. molto breve.
;)
si certo è vero che ha 1/3 di pipe in meno ma ha anche un bel 195/300 di frequenza in più.
in quanto ai drivers hai ragione. ma anche quelli di nVidia erano(in alcune rece)i nuovi serie 8x.xx
cmq è certo che il chip ati sia tecnologicamente valido e anzi tecnologicamente un passo avanti rispetto al G70. si è sempre detto che il G70 era un refresh dell'NV40 non a caso la sua denominazione d'origine era NV47. quell'aspetto non è mai stato messo in discussione. NV40 e G70 son parenti stretti mentre R420 e R520 son parenti forse per modo di dire.
ma era ati che doveva adottare questa mossa. una mossa obbligata. una mossa che in origine prevedeva altro e che per cause diverse non è riuscita a completare. e che lo sarà nell'R580 che, caso più unico che raro ha effettuato il tape-out addirittura tre mesi prima(agosto) della commercializzazione(novembre) della scheda che dovrà sostituire.
e questo a mio modesto avviso farà si che la vita commerciale dell'R520 sarà breve. molto breve.
;)
concordo :O
CiccoMan
06-10-2005, 17:12
strano... le allusioni fatte nei post precedenti mi sembravano alquanto palesi... bo evidentemente mi sogno le cose...
:doh:.
http://www.hwupgrade.it/forum/showpost.php?p=9723284&postcount=104
http://www.hwupgrade.it/forum/showpost.php?p=9726750&postcount=147
http://www.hwupgrade.it/forum/showpost.php?p=9727164&postcount=156
http://www.hwupgrade.it/forum/showpost.php?p=9727400&postcount=162
http://www.hwupgrade.it/forum/showpost.php?p=9731400&postcount=194
http://www.hwupgrade.it/forum/showpost.php?p=9732448&postcount=213
http://www.hwupgrade.it/forum/showpost.php?p=9733318&postcount=229
http://www.hwupgrade.it/forum/showpost.php?p=9733547&postcount=235
http://www.hwupgrade.it/forum/showpost.php?p=9733891&postcount=248
Nessuna allusione ;)
Ma, come te, sopporto poco chi difende/offende a spada tratta una o l'altra azienda!
Ma la rece di HWU quando esce, sono impaziente :D
bartolino3200
06-10-2005, 17:12
E se mettessi questo:
http://developer.nvidia.com/object/gpu_gems_2_home.html
Inside Geometry Instancing
Francesco Carucci (Lionhead Studios)
Al solito, finiti gli argomenti, si passa alla saga del venduto.
Ammetto la bassezza della mia sparata, contrariamente a molti altri.
Molti mi danno del fanboy di Nvidia ma gli basterebbe leggere questo 3d, non certo un elogio per la stessa casa:
http://www.hwupgrade.it/forum/showthread.php?t=998913&page=1&pp=20
Ammetto la bassezza della mia sparata, contrariamente a molti altri.
E' gia' qualcosa.
La questione del vertex texturing è interessante. Le specifiche OpenGL 2.0 riportano sia per la fixed pipeline, che per i vertex shader, la possibiltà del vertex texturing (non so se opzionale o meno, potrei controllare...). Ora mi spiego la mia meraviglia nel vedere che dei driver video supportavano "solo" l'OpenGL 1.5... dovevano essere dei catalyst... :D Qualcuno sa se le ultime versioni dei catalyst supportano OGL 2.0 ?
Invece i forceware (almeno gli ultimi), supportano l'OpenGL 2.0...
I Catalyst hanno supportato le OpenGL 2.0 ben prima dei Forceware... (solo con la serie 75 hanno cominciato a supportarli, ATi mi pare dalle prime versioni di Catalyst 5.x ).
bartolino3200
06-10-2005, 17:18
E' gia' qualcosa.
Considera che sono uno dei più forti sostenitori da sempre anti nForce4 e anti SLI, da un po' di tempo a questa parte anche anti Cross Fire.
Sono molto presente nel forum silent pc, penso che la cosa ti possa dire molto di me.
Dice di quanto consumi e rumore facciano parte delle mie priorità ;)
yossarian
06-10-2005, 17:25
siete proprio convinti che il progetto di partenza prevedesse 32 pipeline? E siete altrettanto sicuri che il prossimo chip NV sarà a 32 pipeline?
:fiufiu:
si certo è vero che ha 1/3 di pipe in meno ma ha anche un bel 195/300 di frequenza in più.
in quanto ai drivers hai ragione. ma anche quelli di nVidia erano(in alcune rece)i nuovi serie 8x.xx
cmq è certo che il chip ati sia tecnologicamente valido e anzi tecnologicamente un passo avanti rispetto al G70. si è sempre detto che il G70 era un refresh dell'NV40 non a caso la sua denominazione d'origine era NV47. quell'aspetto non è mai stato messo in discussione. NV40 e G70 son parenti stretti mentre R420 e R520 son parenti forse per modo di dire.
ma era ati che doveva adottare questa mossa. una mossa obbligata. una mossa che in origine prevedeva altro e che per cause diverse non è riuscita a completare. e che lo sarà nell'R580 che, caso più unico che raro ha effettuato il tape-out addirittura tre mesi prima(agosto) della commercializzazione(novembre) della scheda che dovrà sostituire.
e questo a mio modesto avviso farà si che la vita commerciale dell'R520 sarà breve. molto breve.
;)
se vai a rileggere il mio post vedrai che era in risposta a chi parlava solo ed "esclusivamente" dei mhz in + da parte di Ati, facendo imho un confronto nn del tutto obiettivo (x quanto parlare solo di pipe e mhz nn riesca a spiegare tutte le differenze che c possono essere)
x quanto riguarda la durata di questa scheda ho ancora delle perplessità, date in partcolar modo dalla "scarsa" efficenza dei modelli + bassi rispetto alla serie 1800xl/t, nn sappiamo ancora quali saranno le fasce interessate dall'r580 potrebbe mancare la fascia "medio/bassa" magari così come nvidia ha fatto con g70, declassando di fatto (e di prezzo suppongo) la serie 1800 e 1600....
imho a ricorrere dal 2006 ritornerà nvidia dato che nn credo che le basterà "aggiornare" g70 con la memoria e il processo produttivo.
byez
Considera che sono uno dei più forti sostenitori da sempre anti nForce4 e anti SLI, da un po' di tempo a questa parte anche anti Cross Fire.
Sono molto presente nel forum silent pc, penso che la cosa ti possa dire molto di me.
Non mi dice assolutamente nulla.
L'unica cosa che non capisco e' perche' si debba dare del venduto anche solo velatamente a qualcuno che non ti da' ragione su una scheda grafica. E' proprio fuori dalla mia comprensione.
siete proprio convinti che il progetto di partenza prevedesse 32 pipeline? E siete altrettanto sicuri che il prossimo chip NV sarà a 32 pipeline?
:fiufiu:
No ad entrambe le domande. Altrimenti mi aspetterei di vederle disabilitate nella gpu.
yossarian
06-10-2005, 17:40
R300 e R420 sono sostanzialmente la stessa architettura, come NV40 e G70.
Come dice yoss, effettivamente le differenze a livello implementativo sono sostanziali. Ad esempio a noi ATI non ne aveva parlato e ci aveva presentato mesi fa sostanzialmente un R300 rivisitato con SM3.0.
Infatti Raffaele ancora mi insulta perche' io gli ho continuato a dire che le due architetture erano simili :D
http://www.xbox365.com/news.cgi?id=GGGuNiNuru04031840
guarda un po' uno dei brevetti per R500.
Non noti qualche analogia con R520? Ovvio che R500 è a shader unificati, però, se a questo schema aggiungi un altro controller in alto, che divida i thread relativi ai pixel da quelli relativi ai vertex shader e un secondo gruppo di fpu che siano collegate ad anello con la vertex station, avresti un chip a shader separati (all'interno), che si comporta, all'esterno, come uno a shader unificati
:D
I Catalyst hanno supportato le OpenGL 2.0 ben prima dei Forceware... (solo con la serie 75 hanno cominciato a supportarli, ATi mi pare dalle prime versioni di Catalyst 5.x ).
Scusate, la mia era solo una domanda, perchè ho cercato nelle vecchie news di HWUpgrade se era indicata la versione di OGL supportata ed ho trovato solo dei driver DNA basati sui 5.6 che dicevano qualcosa su OpenGL 1.5 (che versione supportano i 5.6???). La cosa che mi chiedo: come fanno a supportare OGL 2.0 se non supportano il vertex texturing? E' una feature opzionale delle OGL 2.0? Oppure sono emulate via software?
Grazie.
yossarian
06-10-2005, 17:44
No ad entrambe le domande. Altrimenti mi aspetterei di vederle disabilitate nella gpu.
esatto; in caso contrario, se cioè non fossero disabilitate, in R520 si dovrebbero aggiungere, grosso modo, un 300 mln di transistor (va replicata una seconda struttura identica a quella esistente, magari senza aumentare le vsu); in G70, invece, se le pipe fosero disabilitate, si dovrebbero avere almeno altre 8 rop's (anche quelle disabilitate).
yossarian
06-10-2005, 17:45
Scusate, la mia era solo una domanda, perchè ho cercato nelle vecchie news di HWUpgrade se era indicata la versione di OGL supportata ed ho trovato solo dei driver DNA basati sui 5.6 che dicevano qualcosa su OpenGL 1.5 (che versione supportano i 5.6???). La cosa che mi chiedo: come fanno a supportare OGL 2.0 se non supportano il vertex texturing? E' una feature opzionale delle OGL 2.0? Oppure sono emulate via software?
Grazie.
è opzionale come per le DX
bartolino3200
06-10-2005, 17:49
Un dissy del genere con heatpipe e ventola a basso regime sarebbe stata la soluzione migliore per la X1800XT
Speriamo solo che qualche produttore si muova su soluzioni simili a sto punto.
http://img246.imageshack.us/img246/1945/winfastpx7800gtxtdhvivoe23lr.jpg (http://imageshack.us)
http://www.xbox365.com/news.cgi?id=GGGuNiNuru04031840
guarda un po' uno dei brevetti per R500.
Non noti qualche analogia con R520? Ovvio che R500 è a shader unificati, però, se a questo schema aggiungi un altro controller in alto, che divida i thread relativi ai pixel da quelli relativi ai vertex shader e un secondo gruppo di fpu che siano collegate ad anello con la vertex station, avresti un chip a shader separati (all'interno), che si comporta, all'esterno, come uno a shader unificati
:D
E' vero! Sei un genio :D
Denghiu'... Peccato... :D
Da che versione i catalyst supportano OGL 2.0? Cosa succede se si compila un vertex shader che usa il vertex texturing se non è supportato dalla scheda?
halduemilauno
06-10-2005, 18:09
esatto; in caso contrario, se cioè non fossero disabilitate, in R520 si dovrebbero aggiungere, grosso modo, un 300 mln di transistor (va replicata una seconda struttura identica a quella esistente, magari senza aumentare le vsu); in G70, invece, se le pipe fosero disabilitate, si dovrebbero avere almeno altre 8 rop's (anche quelle disabilitate).
però scusami come che sei cosi pronto ora ad escludere le 32 pipe del G70(cosa della quale non ne ho mai sentito parlare)e non hai fatto lo stesso in tutti questi mesi nei confronti delle ventilate/supposte 32 pipe dell'R520?
non pensi o puoi non escludere che in quei sei mesi(di forzato ritardo)ati possa(vista/accortasi per tempo dei problemi) aver revisionato il chip al contrario ovvero togliere l'inutile superfluo???
sai i diversi scenari, la mia è una curiosità.
e poi lasciamelo dire il carrozzone 32 pipe(vere/false/presunte) dell'r520 ha fatto comodo a molte persone.
ciao.
;)
Denghiu'... Peccato... :D
Da che versione i catalyst supportano OGL 2.0? Cosa succede se si compila un vertex shader che usa il vertex texturing se non è supportato dalla scheda?
Penso che il compilatore ATI si arrabbia :D Comunque se non erro dalla revsione 5.1 o 5.2.
Einhander
06-10-2005, 18:20
Mah nn capisco certe sentenze...secondo me prima di dire se va meglio o peggio,o se sia da bocciare(!!) bisognerebbe valutare i pro e i contro:
1)A livello di innovazione sia dal punto di vista dell'architettura che del processo produttivo,sia per quanto riguarda l'implementazione di alcune tecniche che migliorano la qualita' video mi pare che ati sia avanti,e lo sarebbe stata anche se fosse uscita 5 mesi fa.
In piu' da quel poco che si e' visto mi pare che anche a livello di overclock si comporti degnamente(nn so' se quel link era vero pero' se cosi' fosse sarebbero delle prestazioni mostruose)
2)Dal punto di vista della compatibilita' e' vero che le sche de ati erano e sono assai piu' limitate di quelle nVidia,vedi la voce linux,tuttavia sebbene qualcuno lo usi la percentuale di linuxiani e' cmq assai bassa...
3)Dal punto di vista dei consumi pare evidente dai link sopraesposti da altri che le schede ati siano peggiori di quelle nVidia anche se e' lecito attendere una recensione...
4)Le prestazioni che poi credo che per una scheda di fascia highend siano la principale causa d'acquisto,mi pare siano cmq dalla parte di ati(e chi se ne frega se poi le ram girano a 1000GHz o se le pipe sono 1,2 o 1000) ..
5)Il prezzo invece e' e sara' per un po' un mistero ma e presumibile che la novita ati verra' a costare di piu' di quella nVidia se nn altro conta meno mesi sulla pellaccia..Cmq finche' nn saranno disponibili sugli scaffali queste sono solo congetture..
Tuttavia va anche pprecisato che se devo spendere 500euri o 550 o 470 beh nn e' per 50 euro che passo all'una o all'altra ,ma potrei comprendere chi acquista una soluzione highend in merito a questa differrenza di costo..
Alla fine mi pare evidente ,come per altro ho letto anche su altri siti che la soluzione ati,in questo segmento ,per i motivi sopracitati mi paia leggermente avanti a nVidia-ovviamente e' una mia opinione..-
P.s.:nn e' che ati ha ritardato il lancio,bensi le fonderie hanno causato molti problemi che hanno contribuito in maniera rilevante al crearsi di questo destino per questa scheda ati-che cmq nn e' esante da difetti,anzi...-
detto questo spero di nn aver offeso nessuno con le mie considerazioni,byezz
è la stagione natalizia è la + proficua x cui Ati ci cade dentro se rispetta le promesse...anche con il top di gamma (che comunque non serve + di tanto x i $ quanto ad immagine.
ci cade dentro senza poter accontentare tutti. quindi se uno vuole prendersi una X1800 quando uscirà è meglio ke la prenda al volo nel primo negozio in cui la trova. se no a dicembre non si troveranno +.
yossarian
06-10-2005, 18:25
però scusami come che sei cosi pronto ora ad escludere le 32 pipe del G70(cosa della quale non ne ho mai sentito parlare)e non hai fatto lo stesso in tutti questi mesi nei confronti delle ventilate/supposte 32 pipe dell'R520?
non pensi o puoi non escludere che in quei sei mesi(di forzato ritardo)ati possa(vista/accortasi per tempo dei problemi) aver revisionato il chip al contrario ovvero togliere l'inutile superfluo???
sai i diversi scenari, la mia è una curiosità.
e poi lasciamelo dire il carrozzone 32 pipe(vere/false/presunte) dell'r520 ha fatto comodo a molte persone.
ciao.
;)
perchè conosco i dati relativi all'RSX, che è a 0,09 e, secondo le informazioni sul numero di operazioni per ciclo (l'architettura di base è quella di G70), è a 24 pp; inoltre, personalmente, non ho mai avallato l'ipotesi delle 32 pipeline per R520 e, a maggior ragione la escludo adesso che ho i dati definitivi sull'architettura.
I problemi di R520 erano di altra natura (non sul numero di pipeline); posso solo dirti che sarebbe potuto/dovuto uscire con frequenze ancora superiori e ha un margine di o/c piuttosto elevato. Dico solo due cose: alte frequenze, correnti parassite (è un giochino facile, si tratta solo di incastrare due tessere di un mosaico nel modo giusto :D ). Questo il motivo per cui un solo tapeout non è stato sufficiente. R580 sarà diverso, ma non nel numero delle pipeline. Diciamo che avrà più potenza di calcolo a parità di frequenza
yossarian
06-10-2005, 18:26
E' vero! Sei un genio :D
non esagerare, potrei finire con il crederci
:D
Penso basti questo per dedurre che mediamente la X1800XT consuma quasi 40 watt in più della 7800GTX di nVidia.
Insomma prestazioni allineate, ma con l' inconveniente di Ati di consumare di più, generare più calore e più rumore, consumare un quantitativo di energia in più che fa la differenza. E non dimientichiamolo ATI COSTA DI PIU'. Per quanto mi riguarda non ci siamo proprio, visto che non saranno 2 fps o qualità dell' immagine leggermente superiore (voglio vedere chi fa screenshot quando deve giocare per notare la differenza al microscopio), a farmi propendere per ATI.
Se ci aggiungiamo il supporto per Linux e in ambito OpenGL davvero discutibile, il verdetto è dato : BOCCIATA!!!
Inutile infine tornare sui ritardi e sulle aspettative mancate da questi nuovi prodotti ati che per me rimangono solo un biglietto da visita a R580, immessi sul mercato per forza vista la necessità di contrastare nVidia e 7800GTX.
sono daccordo. oramai x quanto puo' essere migliore come qualità di imamgini è impercettibile all'occhio umano. Con la nasciata delle Dx9 e l'implementazione
dei PS e VS oramai non si nota più. La qualità dei giochi è sorprendente a 1280 AA4x e Af8x.
Entrambe le case hanno raggiungo una qualità ottima , come per i colori che a 32bit ne fà 16 milioni. Una cosa fuori misura per notarlo. Ora quello da tenere d'occhio e' chi fà + frame e il prezzo.
leoneazzurro
06-10-2005, 18:34
. Diciamo che avrà più potenza di calcolo a parità di frequenza
R580 circa = 4x RV530
i rumors lo indicano come
10 Unità VS
48 unità PS (anzi, Pixel processor)
16 unità texture
16 Z/stencil units units
16 ROPS.
Almeno per quello che ho letto ;)
davestas
06-10-2005, 18:35
ma + terra terra se devo giocare in tutta tranquillita al top co cod2 e futuro unreal e relativi games ke ne sfruttano i motori ke devo "accattare"??????????????
AH FINALMENTE UNO CHE NON CI GIRA INTORNO, e si MASTURBA SIA MENTALMENTE CHE MANUALMENTE!!!! :D :muro: :muro:
Una 6800gt basta cosi da aspettare tranquillamente schede WFG 2.0 (nel frattempo mi commpro pure una xbox360 :D )
halduemilauno
06-10-2005, 18:36
perchè conosco i dati relativi all'RSX, che è a 0,09 e, secondo le informazioni sul numero di operazioni per ciclo (l'architettura di base è quella di G70), è a 24 pp; inoltre, personalmente, non ho mai avallato l'ipotesi delle 32 pipeline per R520 e, a maggior ragione la escludo adesso che ho i dati definitivi sull'architettura.
I problemi di R520 erano di altra natura (non sul numero di pipeline); posso solo dirti che sarebbe potuto/dovuto uscire con frequenze ancora superiori e ha un margine di o/c piuttosto elevato. Dico solo due cose: alte frequenze, correnti parassite (è un giochino facile, si tratta solo di incastrare due tessere di un mosaico nel modo giusto :D ). Questo il motivo per cui un solo tapeout non è stato sufficiente. R580 sarà diverso, ma non nel numero delle pipeline. Diciamo che avrà più potenza di calcolo a parità di frequenza
ma perchè insisti sulle 32 pipe del G70 che non è neanche in discussione?
quindi sul carrozzone delle 32 pipe(vere/false/presunte)dell'R580 non ci sali?
;)
sono daccordo. oramai x quanto puo' essere migliore come qualità di imamgini è impercettibile all'occhio umano. Con la nasciata delle Dx9 e l'implementazione
dei PS e VS oramai non si nota più. La qualità dei giochi è sorprendente a 1280 AA4x e Af8x.
Entrambe le case hanno raggiungo una qualità ottima , come per i colori che a 32bit ne fà 16 milioni. Una cosa fuori misura per notarlo. Ora quello da tenere d'occhio e' chi fà + frame e il prezzo.
Hmmm....
for (int i = 0; i < 1024; ++i)
{
*color++ = D3DCOLOR_RGBA((float) i / 1024.0f, 0.0f, 0.0f, 0.0f);
}
DrawQuad();
Fai la stessa cosa con una texture a 16 bit e nota differenza.
Comunque in questo caso si parla di 32bit in floating point per componente (e non per colore). Per shader corti, e' piuttosto difficile notare differenze, ma in alcune situazioni limite, ho dovuto usare fp32 sull'NV40: la differenza fra l'usarlo e il non usarlo era un grosso texel nero in mezzo all'acqua di un paio di metri :D
thunderaccio
06-10-2005, 18:43
Non c'è che dire, questa x1800 è davvero una gran scheda. Tenendo presente che possiede solo 16 pipeline contro le 24 della 7800GTX si evince che prestazionalmente queste schede offrono prestazioni simili. Senz'altro le frequenze così elevate diminuiscono il gap delle pipeline ma indubbiamente si tratta di una architettura sensazionale. Sono molto felice per i sostenitori di ATi ( nonostante io preferisca comunque Nvidia, anche se prestazionalmente è spesso inferiore), tuttavia vorrei invitare i probabili futuri acquirenti di questa scheda a valutare un attimino la situazione.
Già dalla presentazione delle specifiche tecniche che avrebbero dovuto avere i chip grafici di nuova generazione, tutti avevano gridato al miracolo. Ci si aspettava tutti che sia ATI che Nvidia avrebbero prodotto performance perlomeno doppie rispetto alla generazione precedente. Tutti erano convinti di poter avere in breve tempo 32 pipeline tutte da gustare. Nvidia però ha limitato le pippe a 24 per la GTX e l'analisi tecnica ha dimostrato che più che di una rivoluzione si è trattato di una più semplice evoluzione. In effetti tutti si aspettavano prestezioni più alte nonostante siano comunque elevate. Pare quindi che Nvidia abbia puntato più sul discorso consumi e rumorosità, anche in previsione di un incremento nel mercato di sistemi SLI. Sulla carta comunque ATI sembrava essere meglio ( e in effetti lo è). Nvidia poi ha sfruttato una carta importante, la disponibilità imediata, e da 4 mesi ormai è regina indiscussa delle schede highend.
ATI ha poi dichiarato problemi di tapeout del chip che ha visto la drastica riduzione di pippe da 32 a 24 e poi infine a 16, costringendo ad aumentare la frequenza di gpu e memorie ( che sono secondo me stratosferiche). Ma quello che mi lascia basito è che di conseguenza Nvidia cancella, o perlomeno ritarda, l'uscita della versione ULTRA ( e secondo me ha fatto bene) mentre poi ATI dichiara di aver già pronto R580 (????) con l'intenzione di farlo uscire tra pochissimo e facendo intendere di avere ste benedette 32 pippe. Poi presenta la scheda alla stampa ma non è ancora stata distribuita (si parla di novembre). Verrebbe da pensare: "Ma chi è quel benedetto i@@@ta che si compra questa scheda"?
E quì secondo me c'è puzza di bruciato, che non proviene mica idai sostenitori di Nvidia che si friggono il fegato per la rabbia.
A me viene il dubbio che ATI non abbia mica pronto niente nel cassetto ma anzi, stia commettendo l'ennesimo errore di PR. Forse le dichiarazioni sono più per non far perdere troppo il valore azionario dell'azienda. Mi spiego meglio.
Esce la x1800, prendo 550 eurozzi e gongolante vado dal negoziante.
Arrivo davanti alla vetrina e vedo la 7800GTX a 470€ ( la si trova già)
esito un'attimino perchè la cosa mi tenta ma poi opto lo stesso per la ATI. Sono felice come una pasqua ma ho un pò di amaro in bocca perchè con quegli 80 euro di diff. potevo farci qualcos'altro. Passano 4 mesi (stando ad ATI) ed esce R580 che rulla quasi il doppio. La x1800 ora te la tirano dietro ( diciamo 400 € esagerando?)
Come la prendo? Cavolo ma allora potevano farci aspettare ancora un po' e darci direttamente R580. Ma a Natale però si guadagna bene.
Finalmente questa scheda (la R520) è alle porte ma se l'avessi bramata così tanto ora avrei seri dubbi se prendermela o aspettare ancora un po' ( se ho tenuto duro fino ad adesso posso aspettare il top dei top). Ati non avrebbe fatto meglio a parlare di r580 dopo natale? E' controproducente fare simili dichiarazioni.
Ma forse sono solo voci nella speranza di limitare i danni visto che gli azionisti ci hanno già rimesso abbastanza. Boh!!
Sinceramente, io mi sparo una bella 6800gt a meno di 300€ e ditemi se non faccio bene.
Se però avessi più soldi però punterei dritto alla GTX perchè comunque vada mi girerebbero meno le balle quando uscirà R580.
Voi come commentate?
P.S.
Tra SLI e CrossFire mi pare sempre meglio la prima soluzione. Senz'altro più matura e disponibile ma anche un pelino flessibile. Si possono usare due gpu sulla stessa scheda per non occupare due slot ( o 4 nel caso di crossfire).
Ciaooo
davestas
06-10-2005, 18:44
Se vedi un po' di recensioni online, ti accorgerai che HL2 non presenta più il divario di prestazioni che c'era tra X8x0 e 6800, che poi LostCoast sarà più performante con ATI non mi stupisce affatto, visto che ormai lo sanno anche le pietre che il Source engine è stato sviluppato congiuntamente con ATI, e a maggior ragione questa nuova versione con HDR e compagnia bella; ah, Call of Duty 2 non usa affatto il D3 engine http://www.firingsquad.com/games/call_of_duty_2_preview/
Quindi anche tu stai dicendo che è meglio propendere per un ATi che oer la 6800gt se interessa piu' cs:s, dod.s, ecc??
No?? :D
Cmq mi prendo anche io la 6800gt, che mi sembra l'unica conveniente per qualità-prezzom, spero di trovarla a meno di 300 pciexpress....
Hmmm....
for (int i = 0; i < 1024; ++i)
{
*color++ = D3DCOLOR_RGBA((float) i / 1024.0f, 0.0f, 0.0f, 0.0f);
}
DrawQuad();
Fai la stessa cosa con una texture a 16 bit e nota differenza.
Comunque in questo caso si parla di 32bit in floating point per componente (e non per colore). Per shader corti, e' piuttosto difficile notare differenze, ma in alcune situazioni limite, ho dovuto usare fp32 sull'NV40: la differenza fra l'usarlo e il non usarlo era un grosso texel nero in mezzo all'acqua di un paio di metri :D
no ma io intendevo che su 16 milioni di colori è duro da notare tutte le sfumature. no ? cioè. 16 milioni sono tanti e chissà quante sfumature ci sono che l'occhio umano non puo' notare. non intendevo la differanza fra 16 e 32 bit. :) sulla qualità intedevo la stessa cosa. che mettendo 1280 aa4x e af8x non si puo' notare se non andando ad ingrandire oltre il 100% uno screenshot.
yossarian
06-10-2005, 18:46
Io sull'architettura totalmente nuova ho alcuni dubbi, a me sembra sempre un'evoluzione anche se marcata dell'R3X0/R4X0.
Almeno dal punto di vista funzionali, quello che si presenta al programmatore e' proprio una semplice evoluzione. Ad esempio manca il vertex texturing, rispetto all'NV40 (e via con i flame ora, ve l'ho servito su un piatto d'argento :)).
vero fino ad un certo punto; le vertex unit non possono eseguire direttamente operazioni di texturing ma hanno comunque la possibilità di accedere ai dati contenuti nel texture buffer, anche se non è una feature sposta nei driver e non è uffiicalmente supportata dalle DX; tra l'altro si tratta di una tecnica (R2VB) accessibile anche ai chip sm2.0
leoneazzurro
06-10-2005, 18:48
Questo il motivo per cui un solo tapeout non è stato sufficiente. R580 sarà diverso, ma non nel numero delle pipeline. Diciamo che avrà più potenza di calcolo a parità di frequenza
Ritorno un attimo sull'argomento perchè mi è saltata in mente una curiosità: ma secondo te, un R580 che è praticamente un 4xRV530, non ne condividerà anche le limitazioni? Mi spiego meglio: avremmo una potenza di shading semplicemente devastante, ma alla fine si sarebbe limitati sul post processing da sole 16 ROPs (per quanto indipendenti). Questo mi porterebbe a dire che nelle operazioni di AA, AF, HDR, R580 potrebbe non essere molto più veloce di R520 a parità di frequenza (ci sarebbe poi da discutere dell'overhead aggiuntivo delle 16 unità PP in più), a meno che le ROPs non siano significativamente diverse.
Ci ho preso o sto prendendo solo una cantonata?
yossarian
06-10-2005, 18:50
ma perchè insisti sulle 32 pipe del G70 che non è neanche in discussione?
quindi sul carrozzone delle 32 pipe(vere/false/presunte)dell'R580 non ci sali?
;)
forse non è in discussione per te (ma non credo neppure nelle 32 pipeline di G73, se devo dirla tutta); sei stato tu a chiedermi perchè era scettico sulle 32 pp del G70, ho solo risposto; no non salgo sul carrozzone delle 32 pipeline di R580.
Il confronto si farà partendo da queste due architetture di base, senza stravolgimenti di sorta (di R580 ho già detto troppo, non vorrei sbilanciarmi anche su G7x :D )
no ma io intendevo che su 16 milioni di colori è duro da notare tutte le sfumature. no ? cioè. 16 milioni sono tanti e chissà quante sfumature ci sono che l'occhio umano non puo' notare. non intendevo la differanza fra 16 e 32 bit. :) sulla qualità intedevo la stessa cosa. che mettendo 1280 aa4x e af8x non si puo' notare se non andando ad ingrandire oltre il 100% uno screenshot.
Il problema in questo caso non e' tanto il numero di sfumature che l'occhio umano puo' notare nel range coperto da RGBA8, ma che cosa l'occhio umano e' "bravo" a notare e che cosa no.
L'occhio umano e' ottimo a notare i gradienti, ad esempio, quindi se tu fai un gradiente di rossi come nel codice che ho postato e lo fai su una texture a 16 bit (65k combinazioni possibili), avrai solo 16 "rossi" a disposizione e l'occhio se ne accorge immediatamente.
A 32 bit avrai 256 rossi a disposizione e l'occhio nota anche quelli, per questo l'output professionale e' a 10bit per colore (tipo la Matrix), oppure anche 16 o 32 bit per colore come nel rendering per i film.
La differenza fra 16 e 32 bit per colore e' gia' molto meno notabile, ma quando i 16 bit sono usati durante i calcoli in un pixel shader, per shader piuttosto lunghi con operazioni complesse, un bit magari di errore nei 16 bit puo' esplodere fino a prendere tutti e 16 i bit per componente. Il problema si minimizza usando 32 bit per colore.
Comunque e' un caso relativamente raro.
yossarian
06-10-2005, 18:51
Ritorno un attimo sull'argomento perchè mi è saltata in mente una curiosità: ma secondo te, un R580 che è praticamente un 4xRV530, non ne condividerà anche le limitazioni? Mi spiego meglio: avremmo una potenza di shading semplicemente devastante, ma alla fine si sarebbe limitati sul post processing da sole 16 ROPs (per quanto indipendenti). Questo mi porterebbe a dire che nelle operazioni di AA, AF, HDR, R580 potrebbe non essere molto più veloce di R520 a parità di frequenza (ci sarebbe poi da discutere dell'overhead aggiuntivo delle 16 unità PP in più), a meno che le ROPs non siano significativamente diverse.
Ci ho preso o sto prendendo solo una cantonata?
avrà più potenza di calcolo matematico (quello che attualmente manca a R520)
yossarian
06-10-2005, 18:52
R580 circa = 4x RV530
i rumors lo indicano come
10 Unità VS
48 unità PS (anzi, Pixel processor)
16 unità texture
16 Z/stencil units units
16 ROPS.
Almeno per quello che ho letto ;)
sicuramente molto più verosimile delle 32 pipeline ;)
leoneazzurro
06-10-2005, 18:54
avrà più potenza di calcolo matematico (quello che attualmente manca a R520)
Su, su, sbilanciati :D
Non mi dirai che a 1600x1200 4xAdaptiveAA+HDR+ AF HQ si è limitati in primo luogo dai PS? ;)
vero fino ad un certo punto; le vertex unit non possono eseguire direttamente operazioni di texturing ma hanno comunque la possibilità di accedere ai dati contenuti nel texture buffer, anche se non è una feature sposta nei driver e non è uffiicalmente supportata dalle DX; tra l'altro si tratta di una tecnica (R2VB) accessibile anche ai chip sm2.0
*fischietta*
leoneazzurro
06-10-2005, 19:01
sicuramente molto più verosimile delle 32 pipeline ;)
Hmm.. e se per il prossimo stepping (non parlo di generazione perchè probabilmente per la casa americanza si tratterà di una scheda WGF 2.0) Nvidia adottasse l'approccio della potenza bruta e rendesse le sue ROPs indipendenti (così da rendere possibile HDR+AA) e migliorasse il supporto ai filtri AF? (ossia, si mettesse in apri con R520 in termini di features)
Sarebbe una cosa inverosimile, o... ?
Il problema in questo caso non e' tanto il numero di sfumature che l'occhio umano puo' notare nel range coperto da RGBA8, ma che cosa l'occhio umano e' "bravo" a notare e che cosa no.
L'occhio umano e' ottimo a notare i gradienti, ad esempio, quindi se tu fai un gradiente di rossi come nel codice che ho postato e lo fai su una texture a 16 bit (65k combinazioni possibili), avrai solo 16 "rossi" a disposizione e l'occhio se ne accorge immediatamente.
A 32 bit avrai 256 rossi a disposizione e l'occhio nota anche quelli, per questo l'output professionale e' a 10bit per colore (tipo la Matrix), oppure anche 16 o 32 bit per colore come nel rendering per i film.
La differenza fra 16 e 32 bit per colore e' gia' molto meno notabile, ma quando i 16 bit sono usati durante i calcoli in un pixel shader, per shader piuttosto lunghi con operazioni complesse, un bit magari di errore nei 16 bit puo' esplodere fino a prendere tutti e 16 i bit per componente. Il problema si minimizza usando 32 bit per colore.
Comunque e' un caso relativamente raro.
wow. grazie per la spiegazione :)
yossarian
06-10-2005, 19:03
Hmm.. e se per il prossimo stepping (non parlo di generazione perchè probabilmente per la casa americanza si tratterà di una scheda WGF 2.0) Nvidia adottasse l'approccio della potenza bruta e rendesse le sue ROPs indipendenti (così da rendere possibile HDR+AA) e migliorasse il supporto ai filtri AF? (ossia, si mettesse in apri con R520 in termini di features)
Sarebbe una cosa inverosimile, o... ?
potrebbe essere: un G70 a 0,09 con 24 pipeline, 16 rop's indipendenti dalle pp e con un circuito per l'AF più complesso è abbastanza verosimile (a 0,11 è impossibile)
halduemilauno
06-10-2005, 19:05
forse non è in discussione per te (ma non credo neppure nelle 32 pipeline di G73, se devo dirla tutta); sei stato tu a chiedermi perchè era scettico sulle 32 pp del G70, ho solo risposto; no non salgo sul carrozzone delle 32 pipeline di R580.
Il confronto si farà partendo da queste due architetture di base, senza stravolgimenti di sorta (di R580 ho già detto troppo, non vorrei sbilanciarmi anche su G7x :D )
non ti ho chiesto perchè eri scettico. ti ho chiesto perchè ti sei affrettato a continuare a dire che non ci sono quando nessuno ha sollevato il dilemma.
ok prendo atto(e con piacere)che non salirai sul carrozzone delle(vere/false/presunte)32 pipe dell'R580.
a ma sul G7x sbilanciati pure prego.
;)
yossarian
06-10-2005, 19:07
non ti ho chiesto perchè eri scettico. ti ho chiesto perchè ti sei affrettato a continuare a dire che non ci sono quando nessuno ha sollevato il dilemma.
ok prendo atto(e con piacere)che non salirai sul carrozzone delle(vere/false/presunte)32 pipe dell'R580.
a ma sul G7x sbilanciati pure prego.
;)
perchè qualcun altro si è affrettato a sostenere il contrario, ovvero che ci sono e lo ha fatto per lungo tempo.
Devo sbilanciarmi su G7x? Al 90% non avrà 32 pp (nonostante quanto dica Uttar) :)
bartolino3200
06-10-2005, 19:16
perchè qualcun altro si è affrettato a sostenere il contrario, ovvero che ci sono e lo ha fatto per lungo tempo.
Devo sbilanciarmi su G7x? Al 90% non avrà 32 pp (nonostante quanto dica Uttar) :)
Ma dicendo questo non fai altro che http://img178.imageshack.us/img178/6879/martellateneimaroni1ui0px7wq.gif
yossarian
06-10-2005, 19:28
Ma dicendo questo non fai altro che http://img178.imageshack.us/img178/6879/martellateneimaroni1ui0px7wq.gif
non vedo il motivo; qui c'è più di qualcuno che dice quello che pensa (o spera), spacciandolo per verità; non sono libero di esprimere le mie convinzioni?
Sai quante operazioni compie per ciclo G70? Sai quante sono le operazioni per ciclo di RSX? Se si, basta fare 2+2. Non sempre fa 4, ma molto spesso si
nonikname
06-10-2005, 19:37
Nvidia schedules G72 GPU release in early 2006 [Wednesday 5 October 2005]
Nvidia has scheduled its G72 graphics processing unit (GPU), which will be manufactured using 90nm process technology, to be introduced in early 2006, according to sources at Taiwan graphics card makers. The G72, a 90nm version of the G70 GPU, will compete with the 90nm R-series from ATI Technologies, which will announce the launch of its long-awaited R520, RV515 and RV530 GPUs on October 5, U.S. time, indicated the sources.
The 90nm G72 will have a much smaller size than the 0.11-micron based G70 allowing for multiple GPUs to be utilized on one graphics card through SLI technology, providing an effective and attractive alternative to those who do not want to fork out money for two graphics cards, the sources claimed. ;)
ATI: AVIVO ---> http://www.anandtech.com/video/showdoc.aspx?i=2551 :(
AH FINALMENTE UNO CHE NON CI GIRA INTORNO, e si MASTURBA SIA MENTALMENTE CHE MANUALMENTE!!!! :D :muro: :muro:
Una 6800gt basta cosi da aspettare tranquillamente schede WFG 2.0 (nel frattempo mi commpro pure una xbox360 :D )
modestamente nn ho ne il tempo ne la voglia di star dietro a pippe da marketing con altre pippe da consumer...prendo quello ke mi serve e stop.
UltimaWeapon
06-10-2005, 19:49
chiedo perdono nel caso qualcuno l'abbia già chiesto, ma mi piacerebbe tanto che inseriste nella recensione anche le temperature delle schede nelle varie condizioni per vedere se il processo a 90nm è valido :D
grazie :)
davestas
06-10-2005, 20:47
icoborg secondo te una 6800gt basta ed avanza per i prossimi due anni?
Calcolando che l'engine di Half Life 2 mi va al top con una 6800 liscia lievemente overcloccata, idem dicasi per Doom 3, idem ancora per Far Cry... e calcolando che tali engine sono un punto di riferimento poichè verranno riutilizzati per i prossimi videogame.. Beh a Natale 2006 ci arriviamo benissimo.. oltretutto felici e con FEAR, Quake4 e tanti altri bei titoli completati e spolpati..
IMHO.
GiovanniGTS
06-10-2005, 21:16
icoborg secondo te una 6800gt basta ed avanza per i prossimi due anni?
Si, basta! avanza non direi proprio!
Ora pero' smettila, una persona di media cultura con un minimo di attenzione avrebbe gia' capito da tempo cosa comprare, basta leggere le news e le recensioni qui!
Se poi vuoi farti schifare da tutto il forum continua pure cosi'!
Calcolando che l'engine di Half Life 2 mi va al top con una 6800 liscia lievemente overcloccata, idem dicasi per Doom 3, idem ancora per Far Cry... e calcolando che tali engine sono un punto di riferimento poichè verranno riutilizzati per i prossimi videogame.. Beh a Natale 2006 ci arriviamo benissimo.. oltretutto felici e con FEAR, Quake4 e tanti altri bei titoli completati e spolpati..
IMHO.
Non ne sarei tanto sicuro, il prossimo anno usciranno engine piuttosto "mostruosi", quali l'UE3 (moltissimi giochi di svariate software house ne faranno uso) e quello di Alan Wake, che useranno in modo massiccio l'SM3.0. :sofico:
Nvidia schedules G72 GPU release in early 2006 [Wednesday 5 October 2005]
Nvidia has scheduled its G72 graphics processing unit (GPU), which will be manufactured using 90nm process technology, to be introduced in early 2006, according to sources at Taiwan graphics card makers. The G72, a 90nm version of the G70 GPU, will compete with the 90nm R-series from ATI Technologies, which will announce the launch of its long-awaited R520, RV515 and RV530 GPUs on October 5, U.S. time, indicated the sources.
The 90nm G72 will have a much smaller size than the 0.11-micron based G70 allowing for multiple GPUs to be utilized on one graphics card through SLI technology, providing an effective and attractive alternative to those who do not want to fork out money for two graphics cards, the sources claimed. ;)
ATI: AVIVO ---> http://www.anandtech.com/video/showdoc.aspx?i=2551 :(
Bah, una news(rumor) piuttosto confusa. nVIDIA non credo che rilascerà una sola GPU ma un intera famiglia G7X a 90nm (quindi più versioni), che avranno i nomi commerciali di 7600 e 7200 e con tutta probabilità anche 7900.
Credo che le vedremo intorno al prossimo CeBIT (Marzo), assieme ad R580 (e, secondo me, un RV560/X1700).
Foglia Morta
06-10-2005, 21:53
chiedo il parere dei più esperti : potrebbero esserci molte differenze fra l'affiancare la 7800 oppure la X1800 alla futura PPU di ageia ? Nel senso potrebbero esserci ottimizzazioni particolari a favore dell'una o dell'altra scheda se affiancate appunto da un ageia ? Oppure non c' entra assolutamente nulla ?
chiedo il parere dei più esperti : potrebbero esserci molte differenze fra l'affiancare la 7800 oppure la X1800 alla futura PPU di ageia ? Nel senso potrebbero esserci ottimizzazioni particolari a favore dell'una o dell'altra scheda se affiancate appunto da un ageia ? Oppure non c' entra assolutamente nulla ?
Non dovrebbero c'entrare nulla.
yossarian
06-10-2005, 22:41
chiedo il parere dei più esperti : potrebbero esserci molte differenze fra l'affiancare la 7800 oppure la X1800 alla futura PPU di ageia ? Nel senso potrebbero esserci ottimizzazioni particolari a favore dell'una o dell'altra scheda se affiancate appunto da un ageia ? Oppure non c' entra assolutamente nulla ?
no, a meno che non sia stato ottimizzato espressamente per lavorare con l'uno o l'altro chip; in caso contrario, per come una vga è vista dal circuito esterno (in termini di input e output), tra R520 e G70 non c'è alcuna differenza.
Foglia Morta
06-10-2005, 22:44
ok grazie a entrambi :)
majin boo
06-10-2005, 23:07
AH FINALMENTE UNO CHE NON CI GIRA INTORNO, e si MASTURBA SIA MENTALMENTE CHE MANUALMENTE!!!! :D :muro: :muro:
Una 6800gt basta cosi da aspettare tranquillamente schede WFG 2.0 (nel frattempo mi commpro pure una xbox360 :D )
Si, basta! avanza non direi proprio!
Ora pero' smettila, una persona di media cultura con un minimo di attenzione avrebbe gia' capito da tempo cosa comprare, basta leggere le news e le recensioni qui!
Se poi vuoi farti schifare da tutto il forum continua pure cosi'!
davestas mi fai morire...:rotfl:
inizi a diventarmi simpatico con i tuoi interventi surreali :D
anch'io vorrei darti un consiglio:visto il budget PRENDI UNA 6800 gt, tanto se vuoi una scheda che "basti e avanzi" fino a WGF non puoi pretendere di spendere massimo 250 euro, quindi ti devi accontentare di un'ottima scheda che rulla bene, magari non ai massimi dettagli, anche con i giochi di prossima uscita. E questa è la soluzione migliore come prezzo/prestazioni allo stato attuale, considerando anche che potrebbe essere facilmente portata @ultra se sei fortunato.
Altrimenti non ti resta che fare ciò che fai da circa un anno:
:muro: :muro: :muro:
icoborg secondo te una 6800gt basta ed avanza per i prossimi due anni?
Dico la mia :fagiano:
A sto punto aspetta ancora un pò, così i prossimi hit scenderanno di prezzo e potrai avere più potenza per il futuro, se prendi una GT ora prendi una scheda già sorpassata, meglio ancora se riesce a tirare sino alla prox generazione :stordita:
:mc:
davestas
06-10-2005, 23:25
DI quali hit parli? cmq devo decidere o la 6800gt o addirittura la x800gto2 ,di cui ho letto addirittura che si porta tranquillamente anche per chi non l'ha mai fatto a x850xtPE :eek: resta da verficarlo pero' perchè sono diffidente su quese trsformazioni repentine senza alcun problema... :muro:
DarKilleR
07-10-2005, 00:22
E' impressionante come certe persone riescono a rivoltare la frittata come niente fosse....
Il bello è che queste, quando io portavo a confronto il discorso consumo dell'R420/480 e R430 (X800 XL) e compagnia bella consumi e rumore vari....nei confronti con NV40, non andavano assolutamente presi in considerazione.
Qui sono il 200% del valore della scheda.
Non per dire che i consumi sono bassi di X1800 XT anzi anche troppo alti per i miei gusti...ma un po' di coerenza non guasta mai...
DarKilleR
07-10-2005, 00:23
DOMANDA PER FEK....
ma le future schede WGF 2.0 saranno retrocompatibili con le applicazioni che sfruttano le DirecX 9.0, 8.0 e 7.0????
DOMANDA PER FEK....
ma le future schede WGF 2.0 saranno retrocompatibili con le applicazioni che sfruttano le DirecX 9.0, 8.0 e 7.0????
No.
eheh cmq nn è un problema esistenziale ...si fa anke altro oltre ke usare il pc...sul fatto se basti e avanzi ..dipende sempre dal portafoglio oltre una certa soglia "addabasta" ^^ :D cmq probabilmente il neo pc lo rifaccio lanno venturo. a meno di vincite al lotto^^
davestas
07-10-2005, 01:14
io devo farlo in questo periodo...
AHHH ecco perke sei nel pieno del fervore e nn sono la persona giusta per darti consigli è un po ke sto fuori prima era facile...cerano 3 skede...9500 9700 9800 liscie o pro...ora devi prima prendere il master in nominologia.
Dark Schneider
07-10-2005, 02:59
Aspetta, a me non risulta che la 6800gt a differenza delle nuove ati anche x1600 abbia HDR, fondamentale in motori come il source e per i nuovi come unreal3(infatti per esempio dod.d è una cosa con HDR ed un'altra cosa senza).
Io ho anche detto che doom3, , INSIEME AI GIOCHI OPENGL, non mi interessano, e mentre amo giochi in cui le ATI dominano e domineranno come queli basati su SOURCE ED UNREAL3, dove le Nvidia faticano...8ora un po' meno con gli ultimi Forceware..)
Percio' sono sempre stato e rimango un po' titubante a prendere una 6800GT....pero' se cio' viene smentito dai bench della x1600 e dalle prove su strada ahimè prendero' la 6800gt, anche perchè spendere 400-500 euro per una 7800gt-gtx o x1800xl-xt le ritengo davvero una follia visto che ormai siamo vicini alle schede WFG 2.0...
Guarda che il NV40 supporta l'HDR. Forse ti stai confondendo con R420.
Ma poi non c'è paragone: ma le hai viste le prestazioni della X1600XT? Vanno più le 6800 lisce che ste RV530. Come si fa a paragonarla addirittura alla 6800GT?
Poi scusa ma sto Source dove fatica nVidia non lo vedo. Andrà meno di Ati nel Source di HL2 ma io ci ho giocato al top del dettaglio e filtri. Non mi pare di aver "sofferto" scatti e roba simile.
Che poi se vogliamo dirla tutta...sto Source non lo vedo granchè implementato. C'è solo HL2-CSS, poi un livello aggiuntivo ed un MOD.
Ci sarebbe Vampires Bloodline...che intanto non è granchè graficamente, nemmeno sembra il Source quasi...ed in più ho letto le prestazioni delle varie schede..e praticamente al contrario di HL2..6800 ed X800 fanno segnare gli stessi fps.
Se vogliamo dirla davvero tutta...intanto il motore di Doom 3 è pure più utilizzato, Doom 3, ci hanno fatto l'espansione Resurrection of Evil, tra 2 settimane arriva Quake 4 che è basato appunto su questo motore. In Febbrario arriva Prey..basato sul D3 Engine...successivamente Enemy Territory Quake Wars e così via..
E per ultimo: scusa ma a te chi te lo dice che Ati va meglio con l'Unreal 3 Engine? :confused: C'hai la sfera magica per caso? :confused:
Graphicmaniac
07-10-2005, 03:04
ogni volta finisce sempre in rissa
ma chissenefrega se uno tifa per ati o nvidia
x me i defic.enti sono quelli che accusano non quelli che espongono seppur di parte le proprie idee civilmente
e poi essere un fanboy non vuol mica dire avere le fette di salame sugli occhi
io tifo Nvidia ma amo le X800GTO...
quindi?
Dark Schneider
07-10-2005, 03:09
Dico la mia :fagiano:
A sto punto aspetta ancora un pò, così i prossimi hit scenderanno di prezzo e potrai avere più potenza per il futuro, se prendi una GT ora prendi una scheda già sorpassata, meglio ancora se riesce a tirare sino alla prox generazione :stordita:
:mc:
Per me è assurdo stare sempre ad aspettare. Cioè lui sta "aspettando" dall'Ottobre 2004. Mica da ieri...aspetta aspetta non si compra mai un cavolo. Quando uscirà R580...continuerà ad aspettare...
Graphicmaniac
07-10-2005, 03:14
ah per il signore che ha chiesto a riguardo della scheda AGEIA
Ati ha detto che con i futuri catalyst (non i prossimi ma molto + in là credo) abiliteranno le loro schede video (forse addirittura dalla 9700 in poi) a fare calcoli molto simili a quelli di AGEIA, anche se mi pare ovvio che con le X1800XT i risultati dovrebbero essere migliori.
Nvidia ne aveva parlato già tempo fa ma senza indicare se lo avrebbero fatto già con i G70
vedremo.
Un dissy del genere con heatpipe e ventola a basso regime sarebbe stata la soluzione migliore per la X1800XT
Speriamo solo che qualche produttore si muova su soluzioni simili a sto punto.
http://img246.imageshack.us/img246/1945/winfastpx7800gtxtdhvivoe23lr.jpg (http://imageshack.us)
Hai mai sentito il rumore di quella "silenziosissima" soluzione?? Credo di no. :)
Menomale che esiste lo zalman vf700 che sulla 7800gtx lavora anche in passivo.. (anche se non e' consigliabile, vosto che al minomo regine e' comunque afono).
___________________________
Tuttavia va anche pprecisato che se devo spendere 500euri o 550 o 470 beh nn e' per 50 euro che passo all'una o all'altra ,ma potrei comprendere chi acquista una soluzione highend in merito a questa differrenza di costo..
Non si puo' sempre dire che 50€ (o giu' di lì), non facciano la differenza, perche' prima di arrivare alla GTX si passa per la GT, che costa 50-70€ in meno e gia' siamo a 100-150 in piu' che, viste le prestazioni non troppo dissimili da quelle della GTX e dunque non troppo lontane da quelle dell'R520, (che mi pare primeggi nel 3dmark, ma nel resto non sia 'sta gran rivoluzione) e' in ballo anch'essa.
Poi consideriamo che ci sono ancora le 6800gt ed ultra.. con le quali risparmiamo ancora 200 e passa €, abbiamo ugualmente tutte le caratteristiche della neonata ATI (e che parto faticoso) come SM3.0 o HDR (anche se senza AA, ma chissene..) certo, hanno prestazioni inferiori (che per ora strabastano ed avanzano, ed un domani, quando non basteranno piu', ci si potra' affiancare un'altra scheda identica (ad un costo risibile).
Insomma, io faccio poco testo perche' ne ho per le mani in continuazione, ma ti garantisco che i ragazzi guardano anche i 50€ di differenza, specialmente quando hanno metaforicamente "rotto il salvadanaio" e sono gia' oltre lo spendibile.. 500€ sono tanti.
Alla fine mi pare evidente ,come per altro ho letto anche su altri siti che la soluzione ati,in questo segmento ,per i motivi sopracitati mi paia leggermente avanti a nVidia-ovviamente e' una mia opinione..-
A me non sembra avanti, e' indubbiamente un bel progetto, ma da l'idea (perche' lo e') che sia a meta', ionsomma frequenze elevate per compensare le pipe che non sono riusciti a far funzionare. Con piu' pipeline, si sarebbero potuti scordare lo scalare in frequenza di questo R520 (la 6800LE PCX, docet.. nanometria inferiore, 12 pipe e non 16-4, ed ecco fatto che arriva facilemnte alla soglia dei 500mhz, 60-70 piu' della media delle versioni a 16).
Non fraintendetemi ora, ritengo il lavoro condotto da ATI eccezionale, ma mutilato.. peccato. Credo abbiano un po' "strafatto".
P.s.:nn e' che ati ha ritardato il lancio,bensi le fonderie hanno causato molti problemi che hanno contribuito in maniera rilevante al crearsi di questo destino per questa scheda ati-che cmq nn e' esante da difetti,anzi...-
Questo discorso sarebbe da bandire da qualunque forum, non e' colpa delle fonderie, loro fanno solo cio' che gli viene detto, se il risultato e' fallimentare e' indice di un progetto sbagliato, e' solo colpa di chi lo ha creato ed ideato.
Nvidia per produrre a 90Nm (ma anche per i 110 e mi pare i 130nm) paga i brevetti SOI a IBM.
Se la GTX esiste da mesi sul mercato e non e' "zoppa", e' perche' Nvidia non ha fatto il passo piu' lungo della gamba (questa volta).
Per me è assurdo stare sempre ad aspettare. Cioè lui sta "aspettando" dall'Ottobre 2004. Mica da ieri...aspetta aspetta non si compra mai un cavolo. Quando uscirà R580...continuerà ad aspettare...
Infatti ero ironico... chiaro che ogni scheda è un compromesso, io se fossi in lui ne prenderei una ora (scelta in base alla disponibilità monetaria) e vivrei felice per tanto tempo. :)
Foglia Morta
07-10-2005, 09:10
ah per il signore che ha chiesto a riguardo della scheda AGEIA
Ati ha detto che con i futuri catalyst (non i prossimi ma molto + in là credo) abiliteranno le loro schede video (forse addirittura dalla 9700 in poi) a fare calcoli molto simili a quelli di AGEIA, anche se mi pare ovvio che con le X1800XT i risultati dovrebbero essere migliori.
Nvidia ne aveva parlato già tempo fa ma senza indicare se lo avrebbero fatto già con i G70
vedremo.
grazie sia per il sgnore che per le info :)
Scusate, sono molto curioso e non molto informato. Vorrei avere informazioni sul perchè l'HDR + AA richiede PP e ROP indipendenti.
Mi pare di capire che l'HDR richieda la capacità di renderizzare su texture FP senza clamping. L'impossibilità di attivare HDR + AA su NVIDIA, è data dall'impossibilità di attivare AA nel rendering a texture, giusto? Questo perchè le ROP e le PP non sono completamente indipendenti? Questo cosa vuol dire esattemente? E l'R520 cosa ha di diverso?
Scusate per tutte queste domande, ma sono curioso :D
Grazie in anticipo per le risposte...
[OT]Le WGF2.0 ora si (ri)chiamano DirectX10. :p
^TiGeRShArK^
07-10-2005, 09:26
X ^TiGeRShArK^
vabbè forse ho esagerato nello sfottere il dissipatore della x1800 e, dopo aver visto i dati sulla rumorosità ti devo dar ragione, però, visto che ci vorrà minimo un mese all'introduzione sul mercato del modello xt, nvidia avrà sufficiente tempo per introdurre una gpu identica al gtx, ma a 90nm e fare una scheda con le stesse frequenze dell'ammiraglia di Ati, ma con ben 8 pipeline in più.
km si dice dalle nostre parti...
e torna a coppi cu 'll'asi i mazzi!
(continui a dire cose ke non c'entrano niente... Trad.)
secondo te è possibile in UN MESE effettuare un cambio di processo costruttivo???
quest cose non si fanno come se niente fosse...
non basta cambiare le maschere ed è tutto a posto così, ma la realtà è molto diversa..
inoltre continui a non capire il discorso dell'arkitettura diversa...
anke a 90 nm la skeda nvidia non potrà raggiungere le frequenze di R520...
è proprio un arkitettura differente...
certo...potrà avere frequenze piu' elevate...
ma assolutamente NON a quei livelli.
cdimauro
07-10-2005, 09:53
Ma sono l'unico a tifare per il mio portafogli?
gianni1879
07-10-2005, 10:02
Ma sono l'unico a tifare per il mio portafogli?
siamo in due!!
siamo in due!!
Tifi anche tu per il portafoglio di cdimauro?
io devo farlo in questo periodo...
un periodo un pò lunghetto :asd:
Io fossi in te aspetterei la ps4 o l' xbox 720
davestas
07-10-2005, 10:09
Guarda che il NV40 supporta l'HDR. Forse ti stai confondendo con R420.
Ma poi non c'è paragone: ma le hai viste le prestazioni della X1600XT? Vanno più le 6800 lisce che ste RV530. Come si fa a paragonarla addirittura alla 6800GT?
Poi scusa ma sto Source dove fatica nVidia non lo vedo. Andrà meno di Ati nel Source di HL2 ma io ci ho giocato al top del dettaglio e filtri. Non mi pare di aver "sofferto" scatti e roba simile.
Che poi se vogliamo dirla tutta...sto Source non lo vedo granchè implementato. C'è solo HL2-CSS, poi un livello aggiuntivo ed un MOD.
Ci sarebbe Vampires Bloodline...che intanto non è granchè graficamente, nemmeno sembra il Source quasi...ed in più ho letto le prestazioni delle varie schede..e praticamente al contrario di HL2..6800 ed X800 fanno segnare gli stessi fps.
Se vogliamo dirla davvero tutta...intanto il motore di Doom 3 è pure più utilizzato, Doom 3, ci hanno fatto l'espansione Resurrection of Evil, tra 2 settimane arriva Quake 4 che è basato appunto su questo motore. In Febbrario arriva Prey..basato sul D3 Engine...successivamente Enemy Territory Quake Wars e così via..
E per ultimo: scusa ma a te chi te lo dice che Ati va meglio con l'Unreal 3 Engine? :confused: C'hai la sfera magica per caso? :confused:
Me lo dice CHI sta sviluppando il gioco CHE CON ATI ANDRA' MEGLIO... :D
Ragazzi cmq HO TROVATO una sapphire GTO2 a 230 euro, MA è VERO CHE SI PORTA SENZA alcun problema a X850XT PE :eek: , anche per chi non ha mai oc nella sua vita????
Mi conviene prenderla a posto della 6800gt, magari ci metto una mobo CROSSFIRE, chissà per il futuro??? :cry:
leoneazzurro
07-10-2005, 10:17
Scusate, sono molto curioso e non molto informato. Vorrei avere informazioni sul perchè l'HDR + AA richiede PP e ROP indipendenti.
Mi pare di capire che l'HDR richieda la capacità di renderizzare su texture FP senza clamping. L'impossibilità di attivare HDR + AA su NVIDIA, è data dall'impossibilità di attivare AA nel rendering a texture, giusto? Questo perchè le ROP e le PP non sono completamente indipendenti? Questo cosa vuol dire esattemente? E l'R520 cosa ha di diverso?
Scusate per tutte queste domande, ma sono curioso :D
Grazie in anticipo per le risposte...
Se ho capito bene le lezioni del professor Yossarian ( :D ) se le ROPs non sono indipendenti dal resto della pipeline, significa che gli effetti di AA e HDR verrebbero applicati separatamente, cioè scrivendo la scena nel frame buffer due volte, una volta con Aa e l'alra con HDR, sovrascrivendo per questo motivo la precedente elaborazione (non so se si possa immaginare di riprelevare la medesima scena dal frame buffer insieme a tutti i dati necessari per la "seconda passata" e rielaborarla, ma penso che se anche fosse possibile ciò non sarebbe compatibile con il real time).
Questo a causa del fatto che le ROPs utilizzano elementi della pipe dei PS per effettuare i calcoli relativi ai due effetti.
Avendo le ROPs indipendenti si può invece processare tutta l'immagine con una sola "passata" e scriverla nel frame buffer solo una volta.
Questo è quel che ho capito io in linea teorica, l'implementazione pratica te la può dare solo il "prof" :D
leoneazzurro
07-10-2005, 10:18
Me lo dice CHI sta sviluppando il gioco CHE CON ATI ANDRA' MEGLIO... :D
Ragazzi cmq HO TROVATO una sapphire GTO2 a 230 euro, MA è VERO CHE SI PORTA SENZA alcun problema a X850XT PE :eek: , anche per chi non ha mai oc nella sua vita????
Mi conviene prenderla a posto della 6800gt, magari ci metto una mobo CROSSFIRE, chissà per il futuro??? :cry:
ma come, prima vuoi l'HDR e poi ti orienti su di una scheda che non lo supporta?
davestas
07-10-2005, 10:27
la gto2@850xtPE (se effettivamente funziona e non crea problemi) non è nettamente superiore alla 6800gt?
leoneazzurro
07-10-2005, 10:34
Dipende.. in Doom 3 no :p
Se funziona è più veloce. Ma l'HDR non lo supporta lo stesso, nè lo SM 3.0.
leoneazzurro
07-10-2005, 10:35
Dipende.. in Doom 3 no :p
Se funziona è più veloce. Ma l'HDR non lo supporta lo stesso, nè lo SM 3.0.
Ad ogni modo ci faresti girare tutti i giochi da qui a 2 anni, come con la 6800 GT.
Meno quelli che richiedono il supporto specifico a WGF 2.0, se ci saranno.
gianni1879
07-10-2005, 10:36
Tifi anche tu per il portafoglio di cdimauro?
ognuno per il suo!! eh eh eh
veramente ci sono anke io!^^
CiccoMan
07-10-2005, 12:17
la gto2@850xtPE (se effettivamente funziona e non crea problemi) non è nettamente superiore alla 6800gt?
Guarda che anche la 6800gt si overclokka ;)
Come già rilevato da tutti.. é un tipo di tecnologia che si indirizza ad un determinato tipo di utenti, parlandone dal punto di vista commerciale indubbiamente ha dalla sua molte frecce nel suo arco (sebbene il ritardo abbia inficiato leggermente l'immagine di Ati in questo senso), dal lato tecnologico oltre ad Avivo e tutte le chicche di cui si avvantaggeranno i programmatori semplificandosi il lavoro si aggiungono quegli alti numeri nei bench che faranno la felicità di ogni patito di quel genere di divertimento :)
Da parte mia ero partito pieno di stupore e meraviglia.. poi man mano sono andato a leggere le prestazioni sui giochi veri e propri e son tornato con i piedi a terra, é una 7800gtx by ati eh?
Rifletterò ancora e ancora.. ma sì, passino pure generazioni e vga finché riesco a sorridere non pensandoci affatto ;)
davestas
07-10-2005, 12:34
Guarda che anche la 6800gt si overclokka ;)
si ma se davvero questa GTO2 si oc TRANQUILLAMENTE a 850xtPE, per una scheda di 230euro non è un grande affare rispetto ad una 6800gt pciex che costa nettamente di piu'ed in quasi tutti i giochi risulta inferiore alla x850xtPE??(non ne parliamo del source)... .
davestas
07-10-2005, 12:37
Dipende.. in Doom 3 no :p
Se funziona è più veloce. Ma l'HDR non lo supporta lo stesso, nè lo SM 3.0.
doom3 non mi interessa, cod2,battlefield2 invece si... :D
CiccoMan
07-10-2005, 12:41
si ma se davvero questa GTO2 si oc TRANQUILLAMENTE a 850xtPE, per una scheda di 230euro non è un grande affare rispetto ad una 6800gt pciex che costa nettamente di piu'ed in quasi tutti i giochi risulta inferiore alla x850xtPE??(non ne parliamo del source)... .
Si, ma lui la 6800gt ce l'ha già e cmq da quello che ho letto io l'unica cosa sicura è che si possano abilitare le pipeline, poi per le frequenze dipende dalla fortuna, anche se tutti dicono che alle frequenze della xt ci si arriva al 99%, mentre per la xtpe le probabilità scendono!
certo, se non avesse una vga, sicuramente la GTO2 sarebbe da preferire!
halduemilauno
07-10-2005, 13:04
si ma se davvero questa GTO2 si oc TRANQUILLAMENTE a 850xtPE, per una scheda di 230euro non è un grande affare rispetto ad una 6800gt pciex che costa nettamente di piu'ed in quasi tutti i giochi risulta inferiore alla x850xtPE??(non ne parliamo del source)... .
guarda qui di tranquillamente c'è solo la 6800gt che si oc a ultra e oltre.
;)
yossarian
07-10-2005, 13:16
Scusate, sono molto curioso e non molto informato. Vorrei avere informazioni sul perchè l'HDR + AA richiede PP e ROP indipendenti.
Mi pare di capire che l'HDR richieda la capacità di renderizzare su texture FP senza clamping. L'impossibilità di attivare HDR + AA su NVIDIA, è data dall'impossibilità di attivare AA nel rendering a texture, giusto? Questo perchè le ROP e le PP non sono completamente indipendenti? Questo cosa vuol dire esattemente? E l'R520 cosa ha di diverso?
Scusate per tutte queste domande, ma sono curioso :D
Grazie in anticipo per le risposte...
ti ha già risposto leoneazzurro; significa che le due operazioni, svolte entrambe in post processing, si avvalgono delle stesse unità di calcolo (le rop's di G70 si appoggiano ai ps per eseguire operazioni di blending a fp16) e hanno identico indirizzamento nel frame buffer. Questo sifgnifica che le due operazioni non possono essere svolte contemporanemente e se fossero svolte in istanti successivi una andrebbe a sovrascrivere l'altra (si avrebbe solo uno dei due effetti visibili e la velocità di elaborazione ne risentirebbe comunque)
Ho trovato su beyond 3d (credo) un thread dove veniva spiegato come fare AA con i PS. Ora, non ho letto con molto interesse e quindi ricordo ben poco, ma è possibile una cosa del genere? Se le prestazioni non fossero basse si potrebbe usare HDR e AA anche su schede che non supportano "nativamente" questo metodo di rendering.
^TiGeRShArK^
07-10-2005, 14:04
[edit]
avevo già rsp..
maledette riunioni d lavoro ke corrompono i neuroni.. :muro:
^TiGeRShArK^
07-10-2005, 14:15
Io di fanboy ne ho visti tanti fra ieri ed oggi e siete voi tutti pro ATI.
appunto... mi stavo giusto kiedendo ke fine avessero fatto tutti quelli ke si divertivano a spalare merda su r520 in seguito a quei bench fasulli! :asd:
(e cmq kiamarmi fan-boy ATI mi pare un pò 'na kakata.... voglio vedere tra un paio di anni se m kiamerete fan-boy nvidia.. :rolleyes: )
E' chiaro che questa scheda per come la penso io è solo un fiaschetto pompato nelle frequenze per tenere il passo della 7800GTX.
e allora facendo il discorso duale G70 è un fiasketto pompato nelle pipeline x tenere il passo con R520??? hai x caso notato i cmabiamenti arkitetturali di R520 o t 6 limitato solo a vedere 16 pipeline e 625 mhz??? :rolleyes:
Diverso il discorso se si parla invece di novità tecnologica, anche se pure in questo caso come ha ribadito fek non c' è un grande stacco.
ha posto le basi x un arkitettura a shader unificati...se non me lo kiami un grande stakko questo.... a livello alto non cambia molto, ma a livello implementativo è COMPLETAMENTE diverso.
Per quanto riguarda la mia bocciatura è ben motivata, ma questo non significa che altri utenti con atre esigenze non trovino in Ati il miglior prodotto.
Attenzione quindi a definirmi in questo modo perchè ci rimango davvero male.
La prossima volta leggi bene le premesse del mio discorso non solo le conclusioni se non vuoi che la gente ti confonda per fanboy o quantomeno per distratto (giusto per essere educati)
Se le mie premesse sono:
1) COnsumi
2) OpenGL
3) Linux
4) Rumorosità
5) Rapporto prestazioni/prezzo
Ed in tutti i punti il prodotto non mi soddisfa, chiaramente per me è BOCCIATA
1)non mi pare ke la 6800 ultra consumasse molto di meno di R520, km non mi pare ke nessuno si sia mai lamentato...
2)è un nonsense...ormai le differenze prestazionali in openGl sono quasi del tutto scomparse... rimangono con doom 3 &co. xkè utilizzano le stencil shadow ed è FORTEMENTE ottimizzato x l'arkitettura NV40
3)x una skeda prettamente ludica parlare di linux come piattaforma x giocare è un'emerita stronzata km ti ha già detto fek....
4)vedi l'1....la 6800 ultra è addirittura PIU' rumorosa... ma non mi pare ke tu ti sia mai lamentato
5)questo è soggettivo, in quanto devi considerare pure le features in piu' di R520...512 MB di GDDR non sono certo a costo zero + inoltre la maggiore qualità di immagine e gli altri ammenicoli vari di cui forse a te nn interessa niente..
Se i tuoi parametri sono differenti dai miei come credo, per te la scheda è pienamente fruibile. quindi PROMOSSA.
Ma la cosa è soggettiva chiaramente nè io nè tu ne nessuna recensione ha mai torto marcio o piena ragione.
Ciao e la prossima volta, fa più attenzione prima di parlare e giudicare.
Non è assolutamente soggettiva la cosa...
ci sono dei parametri obiettivi da valutare....
e tu ti 6 limitato a valutarli in modo sbagliato....
la conclusione è IMHO ke non è un OTTIMO progetto, ma questa skeda è stata cmq un BUON lavoro da parte di ATI.... e l'evidenza credo ke ormai l'abbiamo sotto gli okki tutti...
^TiGeRShArK^
07-10-2005, 14:30
Qui piove a dirotto, da voi? :D
Loro invece non possono mai essere di parte no.
Siete tutti superpartes...
essere super partes vuol dire fare valutazioni corrette e oggettive..
non certo fare come fai tu ke metti i consumi e il rumore, nonkè le prestazioni in linux x una skeda TOP-LEVEL ludica come parametri x bocciare una skeda... :rolleyes:
^TiGeRShArK^
07-10-2005, 14:31
Perchè non ammettere che nonostante tutto R520 sia una gran scheda?Così come la 7800GTX lo sia.
appunto..
proprio questo mi sfugge..
perchè osannare e incensare SOLO nvidia???
io ho sempre detto ke sono due OTTIME skede...
ma x qualcuno invece si dovrebbe bocciare trovando appigli invisibili (:mc: ) qualkosa solo xkè ha un certo marchio rosso con su scritto ATI...:rolleyes:
walter89
07-10-2005, 14:31
Ma La X1600 ha il bus a 128 bit contro i 256 della X800 GT.
Qualcosa non mi quadra :confused:
^TiGeRShArK^
07-10-2005, 14:47
Passano 4 mesi (stando ad ATI) ed esce R580 che rulla quasi il doppio. La x1800 ora te la tirano dietro ( diciamo 400 € esagerando?)
Come la prendo? Cavolo ma allora potevano farci aspettare ancora un po' e darci direttamente R580. Ma a Natale però si guadagna bene.
Ki ti ha detto ke R580 andrà il doppio????
non mi pare proprio ke la x850 xt andasse il doppio della x800xt PE....
R580 sarà un semplice refresh...
il cambiamento strutturale è stato fatto x R520..
e non ti aspettare assolutamente le 32 pipeline nè da nvidia nè da ATI con la prossima generazione di skede.....
Almeno a quanto dice yossarian questo è altamente improbabile...
^TiGeRShArK^
07-10-2005, 14:50
no ma io intendevo che su 16 milioni di colori è duro da notare tutte le sfumature. no ? cioè. 16 milioni sono tanti e chissà quante sfumature ci sono che l'occhio umano non puo' notare. non intendevo la differanza fra 16 e 32 bit. :) sulla qualità intedevo la stessa cosa. che mettendo 1280 aa4x e af8x non si puo' notare se non andando ad ingrandire oltre il 100% uno screenshot.
ehm...
con 24 bit(16.777.216 colori) abbiamo 256 sfumature per componente cromatica...e ti assicuro che 256 sfumature è il minimo per non dare fastidio ad un okkio esigente..
prova a mettere windows a 16 bit e vedi come te ne accorgi subito ke la qualità è peggiore...
cmq 'sto discorso non c'entra niente con le skede video...
là la precisione serve per i calcoli all'interno degli shader :p
e tra l'altro si parla di 16 o 32 bit PER COMPONENTE..
quindi avremo in tutto 64 o 128 bit in tutto.
^TiGeRShArK^
07-10-2005, 15:01
fiuu...
ke maratona...
scusate so ho rsp a cose ke si erano già risolte...
ma rsp sequenzialmente ancora non avevo lette le rsp...
mmmm...
pare un pò complicato km concetto... :fagiano:
cmq... in pratica vuol dire... :muro:
Dark Schneider
07-10-2005, 15:05
Me lo dice CHI sta sviluppando il gioco CHE CON ATI ANDRA' MEGLIO... :D
Ragazzi cmq HO TROVATO una sapphire GTO2 a 230 euro, MA è VERO CHE SI PORTA SENZA alcun problema a X850XT PE :eek: , anche per chi non ha mai oc nella sua vita????
Mi conviene prenderla a posto della 6800gt, magari ci metto una mobo CROSSFIRE, chissà per il futuro??? :cry:
Si certo come no...magari lo stesso che ti aveva convinto che la X1600XT era superiore alla 6800GT.
Poi mamma mia non mi dirai che guardi ancora all'X-Box360 che "siccome" c'ha l'R500 che è un chip video Ati e giochi basati su U3 Engine usciranno anche per il 360...allora secondo te significa che Ati su PC va meglio di nVidia nell'U3 Engine? :rolleyes: E' una gran minchiata.
Inoltre quando vedrai che giochi basati su U3 Engine gireranno anche sulla nVidia G70 della PS3 che fai?
A parte poi che confrontare le prestazioni ed i chip delle console con quelle PC NON ha senso. PC e Console hanno hardware differenti.
Me lo dice CHI sta sviluppando il gioco CHE CON ATI ANDRA' MEGLIO... :D
Ragazzi cmq HO TROVATO una sapphire GTO2 a 230 euro, MA è VERO CHE SI PORTA SENZA alcun problema a X850XT PE :eek: , anche per chi non ha mai oc nella sua vita????
Mi conviene prenderla a posto della 6800gt, magari ci metto una mobo CROSSFIRE, chissà per il futuro??? :cry:
Sì, si puo' fare, ma non credo sia cosi' per tutte, vedi le prime 6800, al 50% si potevano abilitare le 4pipe mancanti, (la gente lo sapeva ed il mercato si espandeva), oramai e' un terno al lotto. Percio' dipendera' da ATI.
QUI (http://www.techpowerup.com/articles/overclocking/vidcard/127/3)
Non mi sembra molto logico cambiare un bios per passare sa 116 a 155 (comunque un bel risultato) con il rischio (concreto) di inficiare la garanzia.
Per quanto riguarda la possibilita' di fare il CF un domani, forse conviene vendere la singola e comprarne una piu' potente. Spenderesti ancora soldi per una scheda senza HDR e con gli sm2.0 tra un anno?? io non lo farei.
In questo caso e' palesemente migliore la 6800GT.
Dark Schneider
07-10-2005, 15:19
Cmq ragà io non vedo motivo di parlare male di R520. Voglio dire: ha fatto si l'odissea, ancora non è disponibile e tutto il resto. Però come chip c'è.
Non è velocissima o meglio è veloce quanto la soluzione nVidia GTX...la supremazia si alterna da titolo a titolo. Non c'è una sentenza assoluta.
Ha però in più per l'utente finale il fatto che può abbinare HDR all'AA...ed è una cosa decisamente carina. Certo al momento solo Far Cry e SC3 ne fanno uso...ed inoltre bisogna vedere se prestazionalmente regge con questo abbinamento(già HDR è pesante di per sè). Però insomma non mi sembra il caso di attaccarsi ai consumi, rumore,ecc. Poi che consuma un po' più o un po' meno...se cmq sta bene o male sul livello delle vecchie Top in quanto a consumi..dove sta il problema?
leoneazzurro
07-10-2005, 15:22
Ma La X1600 ha il bus a 128 bit contro i 256 della X800 GT.
Qualcosa non mi quadra :confused:
No, è così per ridurre i costi (il PCB è più semplice)
leoneazzurro
07-10-2005, 15:26
Ki ti ha detto ke R580 andrà il doppio????
non mi pare proprio ke la x850 xt andasse il doppio della x800xt PE....
R580 sarà un semplice refresh...
il cambiamento strutturale è stato fatto x R520..
e non ti aspettare assolutamente le 32 pipeline nè da nvidia nè da ATI con la prossima generazione di skede.....
Almeno a quanto dice yossarian questo è altamente improbabile...
32 pixel pipeline complete no, ma (vedi il discorso più su) 48 unità di pixel shading si ;)
Guarda che anche la 6800gt si overclokka ;)
Su un'altro forum (concorrente :D), con una 6800GT ho messo dietro quasi tutte le 850XT PE nella classifica 3DM2005, notoriamente pro-Ati. .. ed anche tutte le 6800Ultra. :D (rigorosamente ad aria).
si ma se davvero questa GTO2 si oc TRANQUILLAMENTE a 850xtPE, per una scheda di 230euro non è un grande affare rispetto ad una 6800gt pciex che costa nettamente di
Preso da un listino al pubblico
GeForce 6800Ultra 256Mb PciExp MSI 2xDVI/Tv-Out € 279,00 € 334,80 (con iva)
in rapidissima discesa.
la GT si trova a 282€ ivata, non mi sembra uno sproposito.
piu'ed in quasi tutti i giochi risulta inferiore alla x850xtPE??(non ne parliamo del source)... .
In Far Cry 1.3 con HDR fa zero FPS e nei giochi SM3.0 vi sara' una qualita' d'immagine (effetti) inferiore rispetto alle attuali Nvidia.
In Far Cry 1.3 con HDR fa zero FPS e nei giochi SM3.0 vi sara' una qualita' d'immagine (effetti) inferiore rispetto alle attuali Nvidia.
Non mi risulta che lo SM3 permetta di migliorare la qualità di immagine, ma solo l'esecuzione di alcuni shader.
yossarian
07-10-2005, 15:50
Non mi risulta che lo SM3 permetta di migliorare la qualità di immagine, ma solo l'esecuzione di alcuni shader.
forse si riferiva alle immagini prese prima della patch che permette l'utilizzo di ps2.0 su chip ATi; in quel caso la differenza era tra SM3.0 e SM1.x
Cmq ragà io non vedo motivo di parlare male di R520. Voglio dire: ha fatto si l'odissea, ancora non è disponibile e tutto il resto. Però come chip c'è.
Non è velocissima o meglio è veloce quanto la soluzione nVidia GTX...la supremazia si alterna da titolo a titolo. Non c'è una sentenza assoluta.
Ha però in più per l'utente finale il fatto che può abbinare HDR all'AA...ed è una cosa decisamente carina. Certo al momento solo Far Cry e SC3 ne fanno uso...ed inoltre bisogna vedere se prestazionalmente regge con questo abbinamento(già HDR è pesante di per sè). Però insomma non mi sembra il caso di attaccarsi ai consumi, rumore,ecc. Poi che consuma un po' più o un po' meno...se cmq sta bene o male sul livello delle vecchie Top in quanto a consumi..dove sta il problema?
Infatti e' proprio questa parita' che secondo me la mette in svantaggio, insomma, sarebbe stato un buon concorrente se fosse uscito mesi fa, non certo ora. Con questo divario di tempo (generazionale quasi) avrebbe dovuto stracciare la GTX (non solo su un inutile 3DM2005). Passimo le caratteristiche "rivoluzionarie o quasi", ma come giustamente detto da qualcuno, arrivato a queste qualita' d'immagine (migliore ora per ATI, ma non certo abissale, sempre di sm3.0 si tratta), quello che conta di piu' sono i (gli?? :D) FPS.
Per quanto riguarda la rumorosita' ed i consumi, il problema a mio avviso sussiste, insomma io vorrei parlare di evoluzione in tutte le direzioni, questo e' un palese passo in dietro. L'elevato consumo (nonostante la nanometria applicata) potrebbe essere anche un indice di "overclock" di serie, per compensare le deficienza in termini di pipe.
appunto..
proprio questo mi sfugge..
perchè osannare e incensare SOLO nvidia???
io ho sempre detto ke sono due OTTIME skede...
ma x qualcuno invece si dovrebbe bocciare trovando appigli invisibili (:mc: ) qualkosa solo xkè ha un certo marchio rosso con su scritto ATI...:rolleyes:
Bocciarla infatti e' errato, ma quanto detto qui sopra resta valido.
Resta l'impressione che lR520 sia un tampone per accaparrarsi un po' di mercato natalizio, in attesa di far funzionare bene ed immettere nel mercato l'R580.
Non mi risulta che lo SM3 permetta di migliorare la qualità di immagine, ma solo l'esecuzione di alcuni shader.
infatti c'e' una parentesi.. uno shader migliore, aumenta la qualita' (realismo) e l'impatto visivo di un'immagine.
forse si riferiva alle immagini prese prima della patch che permette l'utilizzo di ps2.0 su chip ATi; in quel caso la differenza era tra SM3.0 e SM1.x
C'e' molta differenza anche tra SM2.0 e 3.0, certo, non come tra 1.0 e 3.0, ovviamente!! Ma sulla carta la vrs 3.0 straccia ed eclissa la 2.0.. Va be', ma a chi lo sto spiegando?? se non le sai tu 'ste cose. :D
infatti c'e' una parentesi.. uno shader migliore, aumenta la qualita' (realismo) e l'impatto visivo di un'immagine.
Non ha senso comunque, parentesi o meno, lo SM3 non permette una maggiore qualità di immagine. Punto.
C'e' molta differenza anche tra SM2.0 e 3.0, certo, non come tra 1.0 e 3.0, ovviamente!! Ma sulla carta la vrs 3.0 straccia ed eclissa la 2.0.. Va be', ma a chi lo sto spiegando?? se non le sai tu 'ste cose. :D
Straccia ed eclissa che bei termini, che ovviamente ora spiegherai :)
ForeverBlue
07-10-2005, 16:08
se dovessi comprare a gennaio una video e le cose si mantenessero allo stato attuale andrei sicuramente su X1800Xt e, per non passare da Fanboy (che ormai va di moda etichettare come fanboy ogni persona che da una opinione) vi spiego il perchè: inutile darle di architettura mancata, le cui frequuenze sono tirate "solo per star dietro a 7800gtx", perchè non è così, R520 è un chip evidentemente progettato per frequenze alte, un po' come lo è Northwood rispetto a Clawhammer (scaldano suppergiù uguale a frequnze nettamente diverse e prestazioni idealmente uguali). Ha delle ram paurose, supera in ogni test G70 (approssimo) seppur a volte di poschissimo, RIESCE AD APPLICARE AA A SCENE HDR. In particolare mi soffermerei su qst. Ciò la pone molto sopra la concorrenza, per un semplice discorso di avanzatezza tecnologica. CrossFire non mi convince molto, ma a cosa serve su bestie come queste?
Inoltre sembrerebbe arrivare a frequenze altissime di core.
In ogni caso qualcuno nel giro sa dirmi la data di uscita della rece definitiva? :eek:
HaCKeR.InSiDe
07-10-2005, 16:41
infatti c'e' una parentesi.. uno shader migliore, aumenta la qualita' (realismo) e l'impatto visivo di un'immagine.
C'e' molta differenza anche tra SM2.0 e 3.0, certo, non come tra 1.0 e 3.0, ovviamente!! Ma sulla carta la vrs 3.0 straccia ed eclissa la 2.0.. Va be', ma a chi lo sto spiegando?? se non le sai tu 'ste cose. :D
caxxo sta dicendo questo :D
la cocaina fa male nn te lo ha detto mamma?
HaCKeR.InSiDe
07-10-2005, 16:43
Su un'altro forum (concorrente :D), con una 6800GT ho messo dietro quasi tutte le 850XT PE nella classifica 3DMARK2005
Mio dio cosa mi tokka leggere :doh:
CiccoMan
07-10-2005, 16:53
se dovessi comprare a gennaio una video e le cose si mantenessero allo stato attuale andrei sicuramente su X1800Xt e, per non passare da Fanboy (che ormai va di moda etichettare come fanboy ogni persona che da una opinione) vi spiego il perchè: inutile darle di architettura mancata, le cui frequuenze sono tirate "solo per star dietro a 7800gtx", perchè non è così, R520 è un chip evidentemente progettato per frequenze alte, un po' come lo è Northwood rispetto a Clawhammer (scaldano suppergiù uguale a frequnze nettamente diverse e prestazioni idealmente uguali). Ha delle ram paurose, supera in ogni test G70 (approssimo) seppur a volte di poschissimo, RIESCE AD APPLICARE AA A SCENE HDR. In particolare mi soffermerei su qst. Ciò la pone molto sopra la concorrenza, per un semplice discorso di avanzatezza tecnologica. CrossFire non mi convince molto, ma a cosa serve su bestie come queste?
Inoltre sembrerebbe arrivare a frequenze altissime di core.
In ogni caso qualcuno nel giro sa dirmi la data di uscita della rece definitiva? :eek:
Se le cose si mantenessora allo stato attuale ti toccerebbe comperare una 7800 visto che per ora la x1800 è uscita solo sulla carta... quindi si dovrebbe dire:
se dovessi comprare a gennaio una video e se per quella data le schede ati fossero disponibili e (visto che stiamo fantasticando) se per quella data nvidia non tirasse fuori un'ipotetico g71/g72 più potente, allora andrei sicuramente su X1800Xt :D
Per il resto quoto e approvo le tue motivazioni ;)
Mio dio cosa mi tokka leggere :doh:
Tieni, QUI (http://www.tomshw.it/forum/showthread.php?t=7582&page=1&pp=15) lo leggi anche meglio.
____________________
Non ha senso comunque, parentesi o meno, lo SM3 non permette una maggiore qualità di immagine. Punto.
Ma guarda, anche punto e virgola se vuoi.. Non ho parlato di texture o filtri.. ma di risultati finali.. ovviamente per te gli SM3.0 sono inutili.. che vuoi che sia, sono meri punti di vista (a questo punto).
Straccia ed eclissa che bei termini, che ovviamente ora spiegherai :)
SM3.0 (http://www.microsoft.com/whdc/winhec/partners/shadermodel30_NVIDIA.mspx)
Gia', differiscono di poco, quasi non si nota. :)
Ma guarda, anche punto e virgola se vuoi.. Non ho parlato di texture o filtri.. ma di risultati finali.. ovviamente per te gli SM3.0 sono inutili.. che vuoi che sia, sono meri punti di vista (a questo punto).
Parlo pure io di risultati finale, e infatti la qualità non c'entra. Niente.
SM3.0 (http://www.microsoft.com/whdc/winhec/partners/shadermodel30_NVIDIA.mspx)
Gia', differiscono di poco, quasi non si nota. :)
Ok, quindi tutto questo, per te, si traduce in maggiore qualità? :asd:
Non hai spiegato straccia ed eclissa, link, differenze tangibili, non numeri :)
DarKilleR
07-10-2005, 17:37
Gli SM 2.0 e SM 3.0 la differenza sta nella possibilità di programmare matematicamente gli shader diversamente, ed in alcuni casi in modo leggermente più veloce....si parla di un 7% teorico per alcuni effetti....che sono tranquillamente fattibili anche con i 2.0 B
P.S. apparte che tra la 6800 GT e la X850 XT PE la differenza @ default c'è eccome, comunque si possono overcloccare entrambe.....
Se uno sul forum con una 6800 GT batte le X850 XT PE (cosa normalissima oltretutto se le frequenze sono attorno ai 465/1210....) esistono e son tante le X850 XT PE che in OC eguagliano le 7800 GTX....quindi non veniamo a fare confronti assurdi e ridicoli...
ForeverBlue
07-10-2005, 17:40
mah....a mio modo di vedere R480 è stata per molti aspetto (a livello di performance) superiore e non di poco a NV40
halduemilauno
07-10-2005, 17:44
Cmq ragà io non vedo motivo di parlare male di R520. Voglio dire: ha fatto si l'odissea, ancora non è disponibile e tutto il resto. Però come chip c'è.
Non è velocissima o meglio è veloce quanto la soluzione nVidia GTX...la supremazia si alterna da titolo a titolo. Non c'è una sentenza assoluta.
Ha però in più per l'utente finale il fatto che può abbinare HDR all'AA...ed è una cosa decisamente carina. Certo al momento solo Far Cry e SC3 ne fanno uso...ed inoltre bisogna vedere se prestazionalmente regge con questo abbinamento(già HDR è pesante di per sè). Però insomma non mi sembra il caso di attaccarsi ai consumi, rumore,ecc. Poi che consuma un po' più o un po' meno...se cmq sta bene o male sul livello delle vecchie Top in quanto a consumi..dove sta il problema?
concordo.
il fatto è che se escludiamo 3d mark 2005 si assiste a un sostanziale pareggio. con la differenza che una è gia qui mentre l'altra tocca aspettare un'altra mesata, e poi il prezzo. la 7800gtx costa 470€ I.I. per la x1800xt si parla almeno di 100/150€ in più. un'utente(dr House) l'ha vista ordinabile a 700€, ma certamente è un prezzo fuori mercato.
ciao.
;)
Darkgift
07-10-2005, 17:45
mamma mia quanto è brutta la x1600!!!!!!!!!!!!!!!!!!!speriamo che i partners rimedino.......
non solo dal punto di vista estetico dico.
Ancora con bus a 128!!!
Ho preso ora una X800 gto e credo di aver fatto bene...........con quello che l'ho pagata!! 6600 gt+ 30 euri!!!
brutto momento per ATI.
halduemilauno
07-10-2005, 17:50
mamma mia quanto è brutta la x1600!!!!!!!!!!!!!!!!!!!speriamo che i partners rimedino.......
non solo dal punto di vista estetico dico.
Ancora con bus a 128!!!
Ho preso ora una X800 gto e credo di aver fatto bene...........con quello che l'ho pagata!! 6600 gt+ 30 euri!!!
brutto momento per ATI.
ma scusa la fascia alta è con il bus a 256 e che volevi anche la fascia media con il bus a 256???
:rolleyes:
Parlo pure io di risultati finale, e infatti la qualità non c'entra. Niente.
Ok, quindi tutto questo, per te, si traduce in maggiore qualità? :asd:
Non hai spiegato straccia ed eclissa, link, differenze tangibili, non numeri :)
Ridi cosi' tanto per qualche problema tipo una paresi, ho hai ragioni sociali psicologiche differenti??
Evito di dare ulteriori pareri al riguardo miei, lascio parlare altra gente ..
Kevin Stephens, Director of Technology, Monolith:
"La possibilità di creare e implementare ombreggiatori di pixel e vertex versione 3.0 ci consente di raggiungere nuovi livelli di realismo che prima erano assolutamente improponibili."
Julien Merceron, CTO, Ubisoft:
"Abbiamo un obiettivo estremamente chiaro per il motore di gioco Xubl renderizzare 80.000 poligoni per frame senza nessuna riduzione delle prestazioni. Grazie a NVIDIA GeForce 6800, non soltanto siamo in grado di ottenere il risultato sperato, ma anche di realizzare effetti esclusivi e stilisticamente pregevoli su una piattaforma hardware ad altissime prestazioni che supporta tecniche di rendering avanzatissime quali la mappatura normale, l'illuminazione a elevata gamma dinamica e gli ombreggiatori complessi versione 3.0."
Beh, direi che due bastino come esempio, se vuoi ne incollo qualche altra decina..
Insomma alcuni effetti legatiagli SM3.0 utilizzati ad esempio in Splinter Cell Chaos Theory, The Chronicles Of Riddick e Far Cry, a mio avviso, aumentano notevolmente il realismo e dunque la qualita' dell'immaigne finale.
Gli SM 2.0 e SM 3.0 la differenza sta nella possibilità di programmare matematicamente gli shader diversamente, ed in alcuni casi in modo leggermente più veloce....si parla di un 7% teorico per alcuni effetti....che sono tranquillamente fattibili anche con i 2.0 B
Dunque gli SM3.0 sono inutili. :) Certo.. Mi chiedo perche' li abbiano implementati anche sull'R520, che fessi!!
Se uno sul forum con una 6800 GT batte le X850 XT PE (cosa normalissima oltretutto se le frequenze sono attorno ai 465/1210....) esistono e son tante le X850 XT PE che in OC eguagliano le 7800 GTX....quindi non veniamo a fare confronti assurdi e ridicoli...
Il mio paragone non verteva a dire che la GT fosse piu' veloce di una x850XT PE, ovvio che no!! ma solo ad indicare i margini di OC di tale scheda Nvidia. Poco mi interessa qualche FPS in piu' se perdo gli SM3.0 o resto senza HDR (ad esempio).
jpjcssource
07-10-2005, 18:51
Riportando un pezzo dell'artico su risultati finanziari di Ati pubblicato da questo sito si apprende:
Nei giorni scorsi il sito web taiwanese Digitimes ha pubblicato alcune indiscrezioni, secondo le quali anche NVIDIA passerà alla produzione di architetture video top di gamma utilizzando il processo produttivo a 0.09 micron sviluppato dalla fonderia taiwanese TSMC. Si tratta della stessa fabbrica utilizzata da ATI per la produzione di chip R520, RV530 e RV515 utilizzati nelle schede video della serie Radeon X1000, ma non si tratta del primo approccio NVIDIA con il processo produttivo a 0.09 micron; l'azienda americana, infatti, ha sviluppato i nuovi chipset GeForce 6100 e GeForce 6150, soluzioni con video integrato per processori AMD Athlon 64, proprio con questa tecnologia.
Sembra che Nvidia abbia il processo produttivo a 0.09 micron a portata di mano e non è da escludere che riesca a produrre un chip 7800 gtx con quel processo produttivo e portarlo alle stesse frequenze del 1800xt
Magari non prorpio le stesse frequenze... Se le pipeline del G70 sono più corte, non è detto che arrivino alla stessa frequenza ;)
Insomma alcuni effetti legatiagli SM3.0 utilizzati ad esempio in Splinter Cell Chaos Theory, The Chronicles Of Riddick e Far Cry, a mio avviso, aumentano notevolmente il realismo e dunque la qualita' dell'immaigne finale.
Bingo. Far Cry con la patch per lo shader model 2.0b è esattamente identico a Far Cry con lo Sm3. I guadagni sono esattamente gli stessi. C'è anche il geometry instancing che fanno sia R300 che i suoi derivati.
Splinter Cell nelle opzioni che lui chiama SM3 inserisce HDR (utilizzando Blending in floating point a 16bit) che non è una caratteristica chiave dello Sm3. Inserisce anche il parallax mapping che si può fare benissimo anche su R300 e derivati.
Riddick invece cosa usa? E' un gioco OpenGl :) cosa c'entra con lo shader model 3 lo sai solo tu. Si chiama UltraShadow quello che usa e guarda caso è una tecnica proprietaria di Nvidia.
Di certo hai dimostrato poco :asd:
P.S. Mai detto che sono inutili, ho sempre detto che rispetto allo SM2.0b le differenze sono poche. E la qualità non c'entra assoltuamente nulla. Non mettere in bocca ad altri parole mai pronunciate ;)
majin boo
07-10-2005, 19:18
Bingo. Far Cry con la patch per lo shader model 2.0b è esattamente identico a Far Cry con lo Sm3. I guadagni sono esattamente gli stessi. C'è anche il geometry instancing che fanno sia R300 che i suoi derivati.
Splinter Cell nelle opzioni che lui chiama SM3 inserisce HDR (utilizzando Blending in floating point a 16bit) che non è una caratteristica chiave dello Sm3. Inserisce anche il parallax mapping che si può fare benissimo anche su R300 e derivati.
Riddick invece cosa usa? E' un gioco OpenGl :) cosa c'entra con lo shader model 3 lo sai solo tu. Si chiama UltraShadow quello che usa e guarda caso è una tecnica proprietaria di Nvidia.
Di certo hai dimostrato poco :asd:
P.S. Mai detto che sono inutili, ho sempre detto che rispetto allo SM2.0b le differenze sono poche. E la qualità non c'entra assoltuamente nulla. Non mettere in bocca ad altri parole mai pronunciate ;)
bè, a parte alcuni particolari mi pare che Madrat abbia egregiamente dimostrato quanto gli si chiedeva...non mi pare una tragedia dargli ragione... ;)
bè, a parte alcuni particolari mi pare che Madrat abbia egregiamente dimostrato quanto gli si chiedeva...non mi pare una tragedia dargli ragione... ;)
Cosa avrebbe dimostrato? Io sto aspettando dimostrazioni sul fatto che lo SM3 permetterebbe una migliora qualità visiva. I tre esempi citati sono stati contraddetti in toto. A parte alcuni particolari, cioè tutto quello che ha detto, non ha dimostrato niente :)
davestas
07-10-2005, 19:33
Gli SM 2.0 e SM 3.0 la differenza sta nella possibilità di programmare matematicamente gli shader diversamente, ed in alcuni casi in modo leggermente più veloce....si parla di un 7% teorico per alcuni effetti....che sono tranquillamente fattibili anche con i 2.0 B
P.S. apparte che tra la 6800 GT e la X850 XT PE la differenza @ default c'è eccome, comunque si possono overcloccare entrambe.....
Se uno sul forum con una 6800 GT batte le X850 XT PE (cosa normalissima oltretutto se le frequenze sono attorno ai 465/1210....) esistono e son tante le X850 XT PE che in OC eguagliano le 7800 GTX....quindi non veniamo a fare confronti assurdi e ridicoli...
si ma ATTENZIONE io parlo eventualmente di X800GTO2@x850xtPE.... VS 6800GT eventualmente @ULTRA
bè, a parte alcuni particolari mi pare che Madrat abbia egregiamente dimostrato quanto gli si chiedeva...non mi pare una tragedia dargli ragione... ;)
Quasi quasi ci rinuncio, tanto che lui si ricreda a me non cambia nulla..
se per lui con gli SM2.0b si possono ottenere gli stessi risultati ottenibili con gli SM3.0 (con lo scarto prestazionale del 7%), affari suoi. Contento lui, contenti tutti. :)
HaCKeR.InSiDe
07-10-2005, 19:47
ma state qua a litigare con questo
lasciatelo sognare con i suoi smart shader cosi e contento ;)
Bingo. Far Cry con la patch per lo shader model 2.0b è esattamente identico a Far Cry con lo Sm3. I guadagni sono esattamente gli stessi. C'è anche il geometry instancing che fanno sia R300 che i suoi derivati.
Splinter Cell nelle opzioni che lui chiama SM3 inserisce HDR (utilizzando Blending in floating point a 16bit) che non è una caratteristica chiave dello Sm3. Inserisce anche il parallax mapping che si può fare benissimo anche su R300 e derivati.
Riddick invece cosa usa? E' un gioco OpenGl :) cosa c'entra con lo shader model 3 lo sai solo tu. Si chiama UltraShadow quello che usa e guarda caso è una tecnica proprietaria di Nvidia.
Di certo hai dimostrato poco :asd:
P.S. Mai detto che sono inutili, ho sempre detto che rispetto allo SM2.0b le differenze sono poche. E la qualità non c'entra assoltuamente nulla. Non mettere in bocca ad altri parole mai pronunciate ;)
Alcune piccole correzioni e integrazioni.
Splinter Cell Chaos Theory con l'ultima patch supporta attraverso lo SM2.0, tutto ciò che prima supportava con lo shader model 3.0 e tra questo ci sta anche il parallax mapping e l'HDR.
In OpenGL non c'è lo "shader model", ma esiste semplicemente "il numero massimo di istruzioni", "il numeri massimo di variabili", "il numero massimo di costanti", utilizzabili in ogni shader. Quindi se la scheda video supporta uno shader, lo compila, altrimenti non funziona.
Splinter Cell Chaos Theory con l'ultima patch supporta attraverso lo SM2.0, tutto ciò che prima supportava con lo shader model 3.0 e tra questo ci sta anche il parallax mapping e l'HDR.
Mi deve arrivare quindi questa della patch non la sapevo.
HDR presumo venga ottenuto con blooming nel caso di una Ati precedente alla R520, in quanto se non ricordo male l'HDR "normale" era ottenuto effettivamente usando il blending in floating point. Corretto?
In OpenGL non c'è lo "shader model", ma esiste semplicemente "il numero massimo di istruzioni", "il numeri massimo di variabili", "il numero massimo di costanti", utilizzabili in ogni shader. Quindi se la scheda video supporta uno shader, lo compila, altrimenti non funziona.
Certo, ma se non ricordo male (sempre pronto ad essere corretto) in Riddick l'unica cosa di effettivamente utilizzabile su un Nv40 o successivi a differenza di altre schede erano le ombre. Che non hanno niente a che fare con lo SM3.
yossarian
07-10-2005, 21:19
Magari non prorpio le stesse frequenze... Se le pipeline del G70 sono più corte, non è detto che arrivino alla stessa frequenza ;)
è diversa la filosofia che sta alla base di R520 e G70. Quindi non vale il discorso sulla lunghezza delle pipeline, applicabile, solitamente, ad un'architettura di tipo pipelined.
R520 opera, per certi versi, come un processore SIMD, con una serie di unità di calcolo, estremamente semplici rispetto alle pipeline tradizionali ma, proprio per questo, estremamente veloci ed efficaci. Alla base di R520 c'è il concetto di frazionamento di un thread lungo in una serie di thread più corti, con esecuzione rapidissima di ognuno di questi ultimi, appoggiandosi, tra l'altro, all'array di registri general pourpose. Di conseguenza è un chip che è strutturato per lavorare ad alte frequenze (fanno parte della sua filosofia costruttiva).
Al contrario, in un chip di tipo pipelined si riduce la lunghezza degli stadi più lenti, frazionandoli in più unità e allungando la pipeline, per ottenere una maggiore efficienza mascherando le latenze e riducendo le fasi di idle delle unità di calcolo.
Ora come ora, R520 è sotto G70 solo nella capacità di calcolo matematico (16 unità MAD contro 48, confronto che diventa 16 contro 24 se l'input prevede MAD+texture fetch).
nVIDIA può lavorare sull'aumento delle frequenze, una volta passata a 0,09; ATi sull'ottimizzazione del chip (che non va dimenticato che è completamente programmabile) e sull'incremento del numero di unità MAD (è presumibile che R580 ne abbia 48 al posto delle attuali 16 di R520, ed è probabile che R520 abbia, in realtà, 32 fpu disabilitate, stando almeno al conteggio del numero di registri totali presenti su R520.
Mi deve arrivare quindi questa della patch non la sapevo.
HDR presumo venga ottenuto con blooming nel caso di una Ati precedente alla R520, in quanto se non ricordo male l'HDR "normale" era ottenuto effettivamente usando il blending in floating point. Corretto?
Certo, ma se non ricordo male (sempre pronto ad essere corretto) in Riddick l'unica cosa di effettivamente utilizzabile su un Nv40 o successivi a differenza di altre schede erano le ombre. Che non hanno niente a che fare con lo SM3.
Dunque l'HDR non è implementabile solo in un modo, ma esistono diverse tecniche che possono dare vita a risultati quasi matematicamente equivalenti. In Splinter Cell Chaos Theory, così come in Half-Life 2 Lost Coast, l'HDR con le schede R4x0 è realizzato attraverso texture in formato intero a 32 bit per canale invece che una in FP. E' da considerarsi HDR a tutti gli effetti.
In Riddick viene utilizzata una tecnica che si chiama penumbra wedge stencil shadows, realizzata attraverso pixel shaders che richiedono molte istruzioni, più di quelle supportate da un'architettura SM2.0. Ergo anche con R520 si potrà abilitare questa tecnica in Riddick. La tecnologia UltraShadow di NVIDIA offre funzionalità esclusive per accellerare la generazione di stencil shadows, ma non funzionalità esclusive che danno vita a effetti "nuovi".
Dunque l'HDR non è implementabile solo in un modo, ma esistono diverse tecniche che possono dare vita a risultati quasi matematicamente equivalenti. In Splinter Cell Chaos Theory, così come in Half-Life 2 Lost Coast, l'HDR con le schede R4x0 è realizzato attraverso texture in formato intero a 32 bit per canale invece che una in FP. E' da considerarsi HDR a tutti gli effetti.
Ero assolutamente convinto che usasse floating point. Lo so che l'HDR non è implementabile in un solo modo, quindi l'unico che lo usa in questo modo è far cry?
In Riddick viene utilizzata una tecnica che si chiama penumbra wedge stencil shadows, realizzata attraverso pixel shaders che richiedono molte istruzioni, più di quelle supportate da un'architettura SM2.0. Ergo anche con R520 si potrà abilitare questa tecnica in Riddick. La tecnologia UltraShadow di NVIDIA offre funzionalità esclusive per accellerare la generazione di stencil shadows, ma non funzionalità esclusive che danno vita a effetti "nuovi".
Pure qua allora sapevo male :)
Ero convinto (leggendo in giro) che le ombre (l'opzione non la ricordo l'ho giocato tempo fa e la memoria causa età fa cilecca) fossero generate usando ottimizzazioni vicine alle schede Nvidia, per quello attivabili solo su queste schede. Scusa l'insistenza ma mi confermi che questa tecnica era non attivabile sulle Ati solo perchè usava più istruzioni di quante potesse supportare una X800?
Come fa ATI ad utilizzare un vero HDR?? magari qualche "imitazione" alla Half-Life 2 Lost Coast.
Il paragone con riddik che ho fato c'entra poco con gli SM sono d'accordo, ma calza perfettamente nel conteggio delle caratteristiche che possono influenzare le prestazioni dell'una e dell'atra scheda.
Per quanto riguarda i risultati ottenuti con gli SM2.0b, sono eccellenti, come nel caso della demo di Humus (utente del forum di Beyond3d, che lavora per ATI, per chi non lo conoscesse). QUI (http://gfzone.altervista.org/html/index.php?p=news&pageNum=93) trovate un parere interessante al riguardo. Risulta inoltre evidente come non sia possibile realizzare tutto cio' che si potrebbe realizzare con il pieno utilizzo degli SM3.0, tramite 2.0(B che siano). Non avrebbero senso di esistere.
Cmq spendere ora soldi per quella generazione ATI, a mio modesto parere, e' una stupidagine, sia per la mancanza degli SM3.0 (e dunque per l'FP32), che per la prossima uscita di schede ATI che colmeranno tali lacune.
davestas
07-10-2005, 22:51
si ma sai qual'e' il problema, una 7800gt o x1800xl, cioè schede di fascia alta per due motivinon convengono. perchè con gli stessi soldi preferisco prendermi UNA XBOX360
ForeverBlue
07-10-2005, 23:00
si ma sai qual'e' il problema, una 7800gt o x1800xl, cioè schede di fascia alta per due motivinon convengono. perchè con gli stessi soldi preferisco prendermi UNA XBOX360
vado a seppellirmi... :muro:
ora, appena esce la icscatola, tu la compri immediatamente full optional e non torni mai più ok? :eek:
si ma sai qual'e' il problema, una 7800gt o x1800xl, cioè schede di fascia alta per due motivinon convengono. perchè con gli stessi soldi preferisco prendermi UNA XBOX360
sei un grande :winner:
:ubriachi: un mito da raccontare alla gente :yeah:
Free Gordon
07-10-2005, 23:16
Su un'altro forum (concorrente :D), con una 6800GT ho messo dietro quasi tutte le 850XT PE nella classifica 3DM2005, notoriamente pro-Ati. .. ed anche tutte le 6800Ultra. :D (rigorosamente ad aria).
E quanto hai fatto al 2005?
Con che raffreddamento?
Dimmi che son assetato di bench.. :D
Free Gordon
07-10-2005, 23:29
Cosa avrebbe dimostrato? Io sto aspettando dimostrazioni sul fatto che lo SM3 permetterebbe una migliora qualità visiva. I tre esempi citati sono stati contraddetti in toto. A parte alcuni particolari, cioè tutto quello che ha detto, non ha dimostrato niente :)
Fino ad oggi è come dici tu: gli SM3 sono stati utilizzati più per velocizzare che per aumentare la qualità grafica.
Da Fear in poi potrebbe cambiare però. ;)
davestas
07-10-2005, 23:35
sei un grande :winner:
:ubriachi: un mito da raccontare alla gente :yeah:
due motivi, ma soprattutto PERCHE' ormai siamo verso l'inizio di una rivoluzione quali le schede WFG 2.0 in uscita il prossimo anno, quindi perchè spendere 400-500 euro per schede che supportano una"libreria" ormai stravecchiA ed AGLI SGOCCIOLI???
Percio'preferisco spendere massimo 300 per una 6800gt o x800gto2, ed accoppiarci mahari una xbox360 aspettando R580 che magari supporterà già le directx10 come si mormora...
yossarian
07-10-2005, 23:37
due motivi, ma soprattutto PERCHE' ormai siamo verso l'inizio di una rivoluzione quali le schede WFG 2.0 in uscita il prossimo anno, quindi perchè spendere 400-500 euro per schede che supportano una"libreria" ormai stravecchiA ed AGLI SGOCCIOLI???
Percio'preferisco spendere massimo 300 per una 6800gt o x800gto2, ed accoppiarci mahari una xbox360 asoettando R580 che magari supporterà già le direcx10 come si mormora...
non credo proprio :ops:
:D
davestas
07-10-2005, 23:49
si ma cmq l'arrivo delle schede WFG2.0 è vicino, cioè secondo me queste schede di dascia alta ultimamente uscite si Nvidia che ATI NON RAPPRESENTANO ASSOLUTAMENTE PER ESEMPIO QUELLO CHE fu una 9700pro per esempio, cioè queste schede sono il termine di una lunga generazione, NON l'inizio. Io la penso cosi....
Se la pensi così , ma proprio così, cominciamo a capire tante cose amico mio :) Orsù, scusa ma un po' d'ordine ai tuoi pensieri prima di scrivere.. d'accordo il linguaggio colloquiale.. però... :)
Percio'preferisco spendere massimo 300 per una 6800gt o x800gto2, ed accoppiarci mahari una xbox360 aspettando R580 che magari supporterà già le directx10 come si mormora...
Si dice che con alcuni riti voodoo l'R580 supportera' anche le DX11 e pixel shader 5 6 e 7 ( :p ).
La versione CrossFire potra' essere affiancata ad una 3dfx voodoo2 (da qui i riti) e nelle notti di luna piena si comportera' come DX11, ma nei giorni dispari retrocedera' a DX7.
Se le affianchi una 7800 dovresti riuscire a giocare DX9 nei giorni pari, DX10 quasi sempre e DX11 con la luna piena. Ti conviene munirti di un ottimo programma per controllare le fasi lunari.
Direi che e' tutto.
Ero assolutamente convinto che usasse floating point. Lo so che l'HDR non è implementabile in un solo modo, quindi l'unico che lo usa in questo modo è far cry?
SC CT renderizza sicuramente su superfici in floating point.
si ma cmq l'arrivo delle schede WFG2.0 è vicino,
Praticamente dietro l'angolo. Devi solo aspettare un annetto abbondante, ma poi aspetterei un altro anno ancora dopo, perche' stanno gia' definendo le specifiche di DX10a (questo non e' uno scherzo).
Percio'preferisco spendere massimo 300 per una 6800gt o x800gto2, ed accoppiarci mahari una xbox360 aspettando R580 che magari supporterà già le directx10 come si mormora..
Si puo' mettere la 6800gt e l'Xbox360 in SLI? Dici che in questa configurazione supporteranno le DX10? Sono un po' confuso, non so se comprarle tutte e tre, magari metto anche l'xbox dentro il case cosi' sono pronto per le DX11. Non so cosa fare :muro:
Free Gordon
08-10-2005, 00:04
La scheda che supporterà le DX10 si chiamerà R600.
E il suo nome, così tondo :D ricorda giusto giusto un un illustre predecessore..
Qui c'è una questione interessante, sollevata da Tom's..
http://www.tomshw.it/news.php?newsid=4923
davestas
08-10-2005, 00:27
Praticamente dietro l'angolo. Devi solo aspettare un annetto abbondante, ma poi aspetterei un altro anno ancora dopo, perche' stanno gia' definendo le specifiche di DX10a (questo non e' uno scherzo).
Si puo' mettere la 6800gt e l'Xbox360 in SLI? Dici che in questa configurazione supporteranno le DX10? Sono un po' confuso, non so se comprarle tutte e tre, magari metto anche l'xbox dentro il case cosi' sono pronto per le DX11. Non so cosa fare :muro:
Mi dispiace per la vostra ironia.....se uscirà qualche gioco esclusivo pc (ormai sono pochissimi..) lo giochero' bene su pc fino a quando non usciranno le schede WFG2.0,mentre utilizzero' la xbox360 con i tantissimi giochi esclusivi e con quelli multipiataforma. Quindi invito a vedere la differenza che ci sarà tra le versioni di ghostrecon3 e oblivion per esempio, basta vedere già i video di entrambe le versioni..... quelliper pc assomigliano, anzi sono quasi uguali alla qualità(eufemismo) di ghostrecon2summitstrike per xbox1, mentre c'e' un video ingame di GR3 xbox360 che è FANTASTICO....
Mi dispiace per la vostra ironia.....se uscirà qualche gioco esclusivo pc (ormai sono pochissimi..) lo giochero' bene su pc fino a quando non usciranno le schede WFG2.0,mentre utilizzero' la xbox360 con i tantissimi giochi esclusivi e con quelli multipiataforma. Quindi invito a vedere la differenza che ci sarà tra le versioni di ghostrecon3 e oblivion per esempio, basta vedere già i video di entrambe le versioni..... quelliper pc assomigliano, anzi sono quasi uguali alla qualità(eufemismo) di ghostrecon2summitstrike per xbox1, mentre c'e' un video ingame di GR3 xbox360 che è FANTASTICO....
Sei sicuro di riuscire a dormire la notte? :D
Pure qua allora sapevo male :)
Ero convinto (leggendo in giro) che le ombre (l'opzione non la ricordo l'ho giocato tempo fa e la memoria causa età fa cilecca) fossero generate usando ottimizzazioni vicine alle schede Nvidia, per quello attivabili solo su queste schede. Scusa l'insistenza ma mi confermi che questa tecnica era non attivabile sulle Ati solo perchè usava più istruzioni di quante potesse supportare una X800?
E' sicuro al 100%. Nonostante ciò R520 non mi consente di abilitarle, ma questo accade perché in Riddick non è stato fatto un controllo sulle capacità della scheda, ma sul suo nome :)
Uscirà probabilmente una patch per risolvere questo discorso.
majin boo
08-10-2005, 02:40
si ma cmq l'arrivo delle schede WFG2.0 è vicino, cioè secondo me queste schede di dascia alta ultimamente uscite si Nvidia che ATI NON RAPPRESENTANO ASSOLUTAMENTE PER ESEMPIO QUELLO CHE fu una 9700pro per esempio, cioè queste schede sono il termine di una lunga generazione, NON l'inizio. Io la penso cosi....
beh...a parte il linguaggio conviviale, il ragionamento non mi pare così campato in aria... :) dopotutto le attuali schede top di gamma potrebbero considerarsi degli estremi potenziamenti delle prime schede dx9 con qualche feature in più, ma sostanzialmente una 9700 non è troppo dissimile dalle attuali top di gamma in quanto a resa grafica, sebbene non sia dotata di SM3 etc... (e per di più è in grado di far girare ancora egregiamente la maggior parte dei titoli esistenti), diversamente (credo...) da quanto accadrà con wgf.
fek/yoss: non linciatemi se ho detto una ca**ata :stordita:
si ma sai qual'e' il problema, una 7800gt o x1800xl, cioè schede di fascia alta per due motivinon convengono. perchè con gli stessi soldi preferisco prendermi UNA XBOX360
mi fai davvero sempre più morire... :rotfl:
mi unisco al coro di chi ti considera UN MITO! :yeah: :cool:
W DAVESTAS, FACCIAMOLO MASCOTTE!
E quanto hai fatto al 2005?
Con che raffreddamento?
Dimmi che son assetato di bench.. :D
Ho postato il link prima.. 6575, Link (http://www.tomshw.it/forum/showthread.php?t=7582&page=1&pp=15), ma non e' il risultato in se per se, quanto una piccola dimostrazione della vera competitivita' di tale scheda.. >QUI (http://img133.imageshack.us/my.php?image=65757ta.jpg)< (si puo' notare come abbia selezionato gli SM2.0/b in luogo dei 3.0, questo per il semplice fatto che il punteggio sale e la qualita' migliora!! credo che l'ottimizzazione del 3DM2005, in tal senso, non sia eccezionale.. :) )
La scheda era raffreddata ad aria con lo zalman FV700Cu e la CPU era un 3000 Venice a 2,67 Ghz, con uno zalman CNPS7700.
Per 280€ di scheda, non e' malaccio direi.
In termini di meri risultati, in laboratorio ho fatto (sempre ad aria) quasi 9700 Pt con una GTX (usando un x2 3800@2,7).
si ma cmq l'arrivo delle schede WFG2.0 è vicino, cioè secondo me queste schede di dascia alta ultimamente uscite si Nvidia che ATI NON RAPPRESENTANO ASSOLUTAMENTE PER ESEMPIO QUELLO CHE fu una 9700pro per esempio, cioè queste schede sono il termine di una lunga generazione, NON l'inizio. Io la penso cosi....
Insomma tra 9800xt e X800xt, cosi' come tra 5950U e 6800U (o magari 7800GTX), non c'e' un salto prestazionale considerevole?? :-/ mah..
l'incremento prestazionale avuto con questa generazione di VPU, e' considerevole e raro quanto quello avuto con la famiglia R3xx ed NV3x.
considerando le risoluzioni a cui permettono di giocare le schede video di fascia alta di ultima generazione mi chiedo a chi veramente possa servire mettere addirittura due schede in coppia!?!
davestas
08-10-2005, 12:03
Insomma tra 9800xt e X800xt, cosi' come tra 5950U e 6800U (o magari 7800GTX), non c'e' un salto prestazionale considerevole?? :-/ mah..
l'incremento prestazionale avuto con questa generazione di VPU, e' considerevole e raro quanto quello avuto con la famiglia R3xx ed NV3x.
C'e' un salto prestazionale ma non generazionale, quello si avrà con le schede WFG 2.0 per le quali sarà sensato (almeno per chi non è pieno di soldi) spendere 400-500 euro per una scheda video....
Cmq invito a vedere i video di Gears of War per xbox360, quella ROBA li sarà possibile giocarla per soli 399 euro.....
due motivi, ma soprattutto PERCHE' ormai siamo verso l'inizio di una rivoluzione quali le schede WFG 2.0 in uscita il prossimo anno, quindi perchè spendere 400-500 euro per schede che supportano una"libreria" ormai stravecchiA ed AGLI SGOCCIOLI???
Percio'preferisco spendere massimo 300 per una 6800gt o x800gto2, ed accoppiarci mahari una xbox360 aspettando R580 che magari supporterà già le directx10 come si mormora...
concordo . sarà una buona macchina da gioco aspettando le dx10. :D
io oramai ho perso da tempo giochi in single player. Dedicandomi ai multiplyer ed entrando in un clan. Resto dell'idea che per quanto riguarda il multiplyer, il pc resta il migliore. per i single player l'xbox360. Non ho citato xbox e ps2 x' è già da anni che sono rimaste indietro come grafica.
Anche x' so che x xbox360 devi pagare un abbonamento mensile e la cosa mi lascia molto perplesso. Cioè... poi sono tanti altri motivi... patch.... settaggi della config del gioco... ts... internet. tutto questo in un click.
Xbox360 lo prendero' anche io di certo per smanettarci dentro :Prrr:
Per l'HDR senza il floating point blending, date una occhiata qui:
http://msdn.microsoft.com/archive/en-us/directx9_c_Dec_2004/directx/graphics/tutorialsandsamples/samples/hdrformats.asp
Per yossarian:
ho sbagliato a dire pipeline corte, volevo dire critical path lungo ;)
ThePunisher
08-10-2005, 13:27
Ho trovato una Preview decisamente interessante:
http://www.hexus.net/content/item.php?item=3603&page=1
Guardate i bench nei vari giochi.
Su F.E.A.R. la X1800XT fa assolutamente PAURA, tuttavia nei giochi che sfruttano l'HDR al massimo arriva addirittura a perdere rispetto alla 7800 GTX.
andreamarra
08-10-2005, 13:33
Ho trovato una Preview decisamente interessante:
http://www.hexus.net/content/item.php?item=3603&page=1
Guardate i bench nei vari giochi.
Su F.E.A.R. la X1800XT fa assolutamente PAURA, tuttavia nei giochi che sfruttano l'HDR al massimo arriva addirittura a perdere rispetto alla 7800 GTX.
a parte splinter cell (dove la ati nuova fa paura), quali altri giochi supportano HDR e la ati va male nei test :confused: ???
Dei giochi in esame, solo SC3 fa uso di HDR nativamente.
Poi FC ha un HDR tramite patch, la Cryteck deve ancora far uscire una patch apposta per la nuova ati, eppur anche qui la ati va meglio.
andreamarra
08-10-2005, 13:34
si ma sai qual'e' il problema, una 7800gt o x1800xl, cioè schede di fascia alta per due motivinon convengono. perchè con gli stessi soldi preferisco prendermi UNA XBOX360
http://img178.imageshack.us/img178/6879/martellateneimaroni1ui0px7wq.gif
andreamarra
08-10-2005, 13:37
Qui c'è una questione interessante, sollevata da Tom's..
http://www.tomshw.it/news.php?newsid=4923
più che interessante, è una questione assolutamente nulla.
Nel senso che la mancanza di texture fetch non serve prioprio a nulla :)
andreamarra
08-10-2005, 13:47
in ogni caso: per NV40 giustamente si era detto che l'architettura era nuova e i driver quindi acerbi.
Credo che anche per R520 si possa dire lo stesso, no?
Probabile che con driver nuovi e con ottimizzazioni al memory controller (che funziona via driver) la scheda possa fare molto di più.
Porca zozza ragaa... ho gia visto in uno shop che vendono la X1800Xt da 512Mega a760 euro e quella da 256 a 660 euro. :eek: :eek: Se fosse veramnete cosi per mè ati puo' anche tenersela e giocarci a domino.
ThePunisher
08-10-2005, 13:55
a parte splinter cell (dove la ati nuova fa paura), quali altri giochi supportano HDR e la ati va male nei test :confused: ???
Dei giochi in esame, solo SC3 fa uso di HDR nativamente.
Poi FC ha un HDR tramite patch, la Cryteck deve ancora far uscire una patch apposta per la nuova ati, eppur anche qui la ati va meglio.
Mi sa che hai le idee poco chiare...
DoD: Source e Serious Sam 2 supportano l'HDR nativamente (attraverso PS 3.0 chiaramente) e lo sfruttano al massimo. SC3 supporta l'HDR ma usa il motore di Unreal 2 che nativamente non lo supportava, infatti se ci hai giocato (e hai una scheda NVIDIA) avrai notato che l'HDR non si nota più di tanto.
Tra l'altro bastava leggere la rece, diceva chiaramente tutte queste cose... hai guardato solo le figure? :asd:
Free Gordon
08-10-2005, 14:00
Ho postato il link prima.. 6575, Link (http://www.tomshw.it/forum/showthread.php?t=7582&page=1&pp=15), ma non e' il risultato in se per se, quanto una piccola dimostrazione della vera competitivita' di tale scheda.. >QUI (http://img133.imageshack.us/my.php?image=65757ta.jpg)< (si puo' notare come abbia selezionato gli SM2.0/b in luogo dei 3.0, questo per il semplice fatto che il punteggio sale e la qualita' migliora!! credo che l'ottimizzazione del 3DM2005, in tal senso, non sia eccezionale.. :) )
La scheda era raffreddata ad aria con lo zalman FV700Cu e la CPU era un 3000 Venice a 2,67 Ghz, con uno zalman CNPS7700.
Per 280€ di scheda, non e' malaccio direi.
In termini di meri risultati, in laboratorio ho fatto (sempre ad aria) quasi 9700 Pt con una GTX (usando un x2 3800@2,7).
No, mi chiedevo più che altro con quel risultato come hai fatto a superare delle 850.. :stordita:
Le avevano downcloccate? :D
leoneazzurro
08-10-2005, 14:02
più che interessante, è una questione assolutamente nulla.
Nel senso che la mancanza di texture fetch non serve prioprio a nulla :)
Per il momento sembrerebbe così, perchè l'impementazione attuale di Nvidia non è prestazionalmente il massimo, e perchè ATI non lo supporta, per cui difficilmente gli sviluppatori attualmente si sentono motivati ad adottare questa soluzione. Certo, sempre meglio avere una feature in più che in meno, a parità di prezzi.
Da qullo che ho letto in rete, invece, con le schede WGF 2.0 ( o DX 10 che dir si voglia) si potrebbe assistere ad un uso più diffuso del vertex texturing.
A me invece piacerebbe sapere se HDR+AA+filtro HQ siano realmente utilizzabili su queste schede ( x1800) o se il calo prestazionale ne pregiudica l'utilizzo oltre una certa risoluzione (e sperando che tale risoluzione non sia 640x480).
A me, ad esempio, non interessa il gioco in alte risoluzioni, ma avere HDR e AA almeno 4x a 1024x768 interesserebbe moltissimo.
Free Gordon
08-10-2005, 14:08
Anche x' so che x xbox360 devi pagare un abbonamento mensile e la cosa mi lascia molto perplesso. Cioè... poi sono tanti altri motivi... patch.... settaggi della config del gioco... ts... internet. tutto questo in un click.
L'abbonamento silver non costa nulla, mentre il gold, che ti permette di giocare tutti i giorni, 24/24, costa 49 euro all'anno.. :rolleyes:
Non mi pare una gran spesa..
Più che altro bisognerà vedere come saranno ottimizzati i futuri giochi online per 360.. e poi devi considerare che il valore aggiunto dell'online XboxLive è la voice chat SEMPRE supportata. ;)
Logico che se devi giocare un fps online e vieni dal pc, preferirai usare mouse + tastiera.
Se invece, ad esempio, ti piacciono i giochi di guida arcade.. ti consiglio di provare l'esperienza online di PGR2: eccezionale! ;)
L'abbonamento silver non costa nulla, mentre il gold, che ti permette di giocare tutti i giorni, 24/24, costa 49 euro all'anno.. :rolleyes:
Non mi pare una gran spesa..
Più che altro bisognerà vedere come saranno ottimizzati i futuri giochi online per 360.. e poi devi considerare che il valore aggiunto dell'online XboxLive è la voice chat SEMPRE supportata. ;)
Logico che se devi giocare un fps online e vieni dal pc, preferirai usare mouse + tastiera.
Se invece, ad esempio, ti piacciono i giochi di guida arcade.. ti consiglio di provare l'esperienza online di PGR2: eccezionale! ;)
e ma è ovvio. giochi di guida su console è meglio. No io mi riferivo a giochi fps "seri" quake Cs cod ecc... In ogni caso non in ogni cosa ci sono pro e contro.
Cmq dopo tutte le console ceh avuto e che dalla psx sono passato al pc ,saltando ps2 xbox e in parte gc (l'ho preso per giocare al remake di resident evil zelda e pikmin poi dato via) ora riprendero' con xbox360 tanto per pasare dei momenti in single e rilasarmi un po' dopo delle partite in clanwar
A me invece piacerebbe sapere se HDR+AA+filtro HQ siano realmente utilizzabili su queste schede ( x1800) o se il calo prestazionale ne pregiudica l'utilizzo oltre una certa risoluzione (e sperando che tale risoluzione non sia 640x480).
A me, ad esempio, non interessa il gioco in alte risoluzioni, ma avere HDR e AA almeno 4x a 1024x768 interesserebbe moltissimo.
E infatti speriamo che Raffaele nei suoi test ci tolga il dubbio :)
Altri siti che hanno fatto uscire le recensioni francamente il dubbio non me l'hanno tolto :)
A parte qualche screen con HDR e AA o solo HDR non ho trovato i sani, vecchi, crudi numeri.
P.S. A quanto pare (letto in giro) per utilizzare Far Cry con HDR e AA ci sarà da aspettare la patch 1.4, qualcuno che sa può confermare?
Athlon 64 3000+
08-10-2005, 14:38
Se vi interessa in germania sono gia in listino presso alcuni negozi le X1800XL e X1800XT ma non credo che siano già disponibili:
http://www.geizhals.at/eu/?cat=gra16_256&sort=p&bpmax=&asuch=X1800&filter=+Angebote+anzeigen+
yossarian
08-10-2005, 14:38
Per il momento sembrerebbe così, perchè l'impementazione attuale di Nvidia non è prestazionalmente il massimo, e perchè ATI non lo supporta, per cui difficilmente gli sviluppatori attualmente si sentono motivati ad adottare questa soluzione. Certo, sempre meglio avere una feature in più che in meno, a parità di prezzi.
Da qullo che ho letto in rete, invece, con le schede WGF 2.0 ( o DX 10 che dir si voglia) si potrebbe assistere ad un uso più diffuso del vertex texturing.
il vertex texturing può farsi anche abilitando la scrittura dei dati contenuti nel texture buffer all'interno del vertex buffer; si tratta di un procedimento molto più veloce, in quanto le vsu hanno accesso diretto ai dati elaborati dalle tmu, anzichè ricorrere all'utilizzo di texture fetch eseguito dalle tmu localizzate nel motore geometrico. Con i chip wgf2.0 la tecnica di vertex testuring sarà essenzialemente questa. Le mini-tmu delle vsu introducono solo una inutile ridondanza di unità e sono in grado di eseguire un nuimero limitatissimo di operazioni
A me invece piacerebbe sapere se HDR+AA+filtro HQ siano realmente utilizzabili su queste schede ( x1800) o se il calo prestazionale ne pregiudica l'utilizzo oltre una certa risoluzione (e sperando che tale risoluzione non sia 640x480).
A me, ad esempio, non interessa il gioco in alte risoluzioni, ma avere HDR e AA almeno 4x a 1024x768 interesserebbe moltissimo.
questa è una curiosità che potrai toglierti non appena ci sarranno titoli che utlizzeranno HDR e MSAA facendo blending in fp per entrambi
leoneazzurro
08-10-2005, 14:38
E infatti speriamo che Raffaele nei suoi test ci tolga il dubbio :)
Altri siti che hanno fatto uscire le recensioni francamente il dubbio non me l'hanno tolto :)
A parte qualche screen con HDR e AA o solo HDR non ho trovato i sani, vecchi, crudi numeri.
P.S. A quanto pare (letto in giro) per utilizzare Far Cry con HDR e AA ci sarà da aspettare la patch 1.4, qualcuno che sa può confermare?
Difatti. C'è da dire anche che il supporto per HDR tra i giochi odierni non è proprio diffusissimo, però sembra che il trend stia prendendo piede.
Il fatto che HDR e AA siano poi utilizzabili o meno congiuntamente dal punto di vista prestazionale ha poi anche forti implicazioni commerciali.
leoneazzurro
08-10-2005, 14:43
il vertex texturing può farsi anche abilitando la scrittura dei dati contenuti nel texture buffer all'interno del vertex buffer; si tratta di un procedimento molto più veloce, in quanto le vsu hanno accesso diretto ai dati elaborati dalle tmu, anzichè ricorrere all'utilizzo di texture fetch eseguito dalle tmu localizzate nel motore geometrico. Con i chip wgf2.0 la tecnica di vertex testuring sarà essenzialemente questa. Le mini-tmu delle vsu introducono solo una inutile ridondanza di unità e sono in grado di eseguire un nuimero limitatissimo di operazioni
Eppure avevo letto che questo procedimento era più lento? :confused:
Con le architetture WGF 2.0 ovviamente non ha molto senso parlare di unità vertex e pixel, quindi il modello cambia parecchio.
questa è una curiosità che potrai toglierti non appena ci sarranno titoli che utlizzeranno HDR e MSAA facendo blending in fp per entrambi
Ecco! Magari con la prossima espansione di B&W 2 ;)
PS: Fek, A proposito, il lancio non era per oggi?
E infatti speriamo che Raffaele nei suoi test ci tolga il dubbio :)
Altri siti che hanno fatto uscire le recensioni francamente il dubbio non me l'hanno tolto :)
A parte qualche screen con HDR e AA o solo HDR non ho trovato i sani, vecchi, crudi numeri.
P.S. A quanto pare (letto in giro) per utilizzare Far Cry con HDR e AA ci sarà da aspettare la patch 1.4, qualcuno che sa può confermare?
Ogni vostro dubbio troverà risposta :)
Abbiamo diverse cosette che non ho visto pubblicate da nessuna altra parte ;)
Vedrete che la recensione pagherà l'attesa.
No, mi chiedevo più che altro con quel risultato come hai fatto a superare delle 850.. :stordita:
Le avevano downcloccate? :D
Ci sono i valori di clk di tutte le schede in classifica.. ed 80-90 pagine di forum da leggerte se vuoi saperne di piu'.. comuqnue sono tutte overclk.
Puoi entrare anche tu e fare di meglio se vuoi.
_________________________________
A me invece piacerebbe sapere se HDR+AA+filtro HQ siano realmente utilizzabili su queste schede ( x1800) o se il calo prestazionale ne pregiudica l'utilizzo oltre una certa risoluzione (e sperando che tale risoluzione non sia 640x480).
A me, ad esempio, non interessa il gioco in alte risoluzioni, ma avere HDR e AA almeno 4x a 1024x768 interesserebbe moltissimo.
Beh, salendo con la risoluzione, il filtro AA perde gran parte della propria importanza, non trovi??
_______________
Porca zozza ragaa... ho gia visto in uno shop che vendono la X1800Xt da 512Mega a760 euro e quella da 256 a 660 euro. :eek: :eek: Se fosse veramnete cosi per mè ati puo' anche tenersela e giocarci a domino.
Fesso chi le compra, non chi le vende a quel prezzo. :)
davestas
08-10-2005, 16:02
concordo . sarà una buona macchina da gioco aspettando le dx10. :D
io oramai ho perso da tempo giochi in single player. Dedicandomi ai multiplyer ed entrando in un clan. Resto dell'idea che per quanto riguarda il multiplyer, il pc resta il migliore. per i single player l'xbox360. Non ho citato xbox e ps2 x' è già da anni che sono rimaste indietro come grafica.
Anche x' so che x xbox360 devi pagare un abbonamento mensile e la cosa mi lascia molto perplesso. Cioè... poi sono tanti altri motivi... patch.... settaggi della config del gioco... ts... internet. tutto questo in un click.
Xbox360 lo prendero' anche io di certo per smanettarci dentro :Prrr:
Infatti io penso di prendermi una X800GTO2@X850XTPE e la xbox360 ad Aprile,purtroppo non si sa a default questa scheda come va visto che non ci sono bench...spero in Corsini o Vifani...
leoneazzurro
08-10-2005, 16:24
Beh, salendo con la risoluzione, il filtro AA perde gran parte della propria importanza, non trovi??
Non molto, dato che per salire in risoluzione debbo avere magari un monitor pompatissimo. Per le mie esigenze personali sarebbe meglio poter lavorare a 1024x768 con AA 4x-6x che a 1600x1200 senza.
Infatti io penso di prendermi una X800GTO2@X850XTPE e la xbox360 ad Aprile,purtroppo non si sa a default questa scheda come va visto che non ci sono bench...spero in Corsini o Vifani...
maahh...lascia perdere , aspetta ancora un annetto , cosa vuoi che sia e cosi sei sicuro che ti compri una bella vga fiammante:D.
davestas
08-10-2005, 16:50
:D :D :muro: :muro:
mi sono scocciato di aspettare... :ciapet:
:D :D :muro: :muro:
mi sono scocciato di aspettare... :ciapet:
...noo NOOOO :eek: !!! non ci posso credere :D
yossarian
08-10-2005, 17:04
Ecco! Magari con la prossima espansione di B&W 2 ;)
PS: Fek, A proposito, il lancio non era per oggi?
forse si; è da ieri che latita sui forum :D
forse si; è da ieri che latita sui forum :D
finalmente lavora, è sempre a spammare :sofico: :p
Non molto, dato che per salire in risoluzione debbo avere magari un monitor pompatissimo. Per le mie esigenze personali sarebbe meglio poter lavorare a 1024x768 con AA 4x-6x che a 1600x1200 senza.
Non trovi che a 1280 nell'azione frenetica di un FSP, ad esempio, sia gia' molto difficile sentirne la mancanza?? sinceramente credo che, in tali giochi, sarebbe da preferire la velocita' al filtro AA, anche perche' i giochi che andranno in HDR, non sfodereranno certo 200 FPS.
Poi se ci sono entrambi con velocita' superiore agli 80-100 frame per secondo, tanto di guadagnato. :)
yossarian
08-10-2005, 17:13
Non trovi che a 1280 nell'azione frenetica di un FSP, ad esempio, sia gia' molto difficile sentirne la mancanza?? sinceramente credo che, in tali giochi, sarebbe da preferire la velocita' al filtro AA, anche perche' i giochi che andranno in HDR, non sfodereranno certo 200 FPS.
Poi se ci sono entrambi con velocita' superiore agli 80-100 frame per secondo, tanto di guadagnato. :)
ma perchè, in un fps frenetico, in cui non si notano (a tuo dire) differenze su AA e AF, si sente la mancanza dell'HDR (non parlo di effetti di blooming, ma di vero e proprio HDR)?
Jaguar64bit
08-10-2005, 17:32
Ogni vostro dubbio troverà risposta :)
Abbiamo diverse cosette che non ho visto pubblicate da nessuna altra parte ;)
Vedrete che la recensione pagherà l'attesa.
Non vedo l'ora di leggere la tua/vostra rece. ;)
ma perchè, in un fps frenetico, in cui non si notano (a tuo dire) differenze su AA e AF, si sente la mancanza dell'HDR (non parlo di effetti di blooming, ma di vero e proprio HDR)?
Ovviamente e' soggettiva la cosa, (non ho parlato di AF), ma la scalinatura creata da una risoluzione come la 1280, e' talmente minima da non influire poi cosi' tanto in un gioco nel quale difficilmente ci si sofferma a guardare ed analizzare i dettagli.
Per quanto riguarda l'HDR, posso dirti che mi sono rigiocato tutto FarCry, dopo averlo gia' finito, solo per gustarmelo in HDR. Non e' un filtro atto a migliorare il dettaglio, serve a migliorare il'impatto visivo ed il "realismo" della scena. In FarCry mi piace molto come e' stato implementato.
ma perchè, in un fps frenetico, in cui non si notano (a tuo dire) differenze su AA e AF, si sente la mancanza dell'HDR (non parlo di effetti di blooming, ma di vero e proprio HDR)?
Attualmente con l'attivazione dell'HDR l'AA resta disabilitato anche forzandolo. Questo perchè le attuali schede non hanno la potenza necessaria.
yossarian
08-10-2005, 17:48
Ovviamente e' soggettiva la cosa, (non ho parlato di AF), ma la scalinatura creata da una risoluzione come la 1280, e' talmente minima da non influire poi cosi' tanto in un gioco nel quale difficilmente ci si sofferma a guardare ed analizzare i dettagli.
Per quanto riguarda l'HDR, posso dirti che mi sono rigiocato tutto FarCry, dopo averlo gia' finito, solo per gustarmelo in HDR. Non e' un filtro atto a migliorare il dettaglio, serve a migliorare il'impatto visivo ed il "realismo" della scena. In FarCry mi piace molto come e' stato implementato.
HDR non è altro che la acrittura in fp nel frame buffer e serve solo a migliorare la precisione con cui una scena viene rappresentata; forse tu ti riferisci a effetti di blooming che fanno parte del procedimento di creazione di un'immagine fp, ma possono essere anche rappresentati a parti, indipendentemente dall'HDR e su chip che non supportano il blending a fp16 (quindi anche sul R3x0/R4x0). Tra le altre cose, un'immagine a fp16 nel frame buffer, è trasformata in una di tipo INT a 8 bit all'interno del monitor; a meno che non si disponga di un display compatibile con HDR (al momento so di monitor che utilizzano la notazione 10 bit per canale INT ma non di monitor che utilizzano fp16 per canale.
Per quanto riguarda l'AA, in teoria, non serve solo per rimuovere le scalettature, ma anche per rimuovere altre imperfezioni di visualizzazione, introdotte dalla digitalizzazione di grandezze analogiche, inevitabile nella genesi di un'immagine 3D (di cui le scalettature, che pure sono visibili anche a 1600x1200, sono solo il fenomeno più evidente)
yossarian
08-10-2005, 17:50
Attualmente con l'attivazione dell'HDR l'AA resta disabilitato anche forzandolo. Questo perchè le attuali schede non hanno la potenza necessaria.
non è mancanza di potenza ma carenza di circuiteria. Su G70 ROP's e pixel pipeline non sono indipendenti (per le operazioni in fp), su R520 si.
Vorrei intervenire relativamente al discorso dell'AA, HDR e anisotropico. E' vero che probabilmente nella frenesia del gioco molte finezze grafiche passano in secondo piano, ma non bisogna dimenticare che l'obiettivo finale della computer grafica è il raggiungimento del fotorealismo e ogni tecnica che consente di fare un piccolo passo in avanti in questa direzione è sempre bene accetta. Anche le texture in alta risoluzione non si notano più di tanto mentre si è intenti a scappare a destra e a sinistra in UT2004, ma ciò non significa che siano inutili o da disprezzare.
A mio modo di vedere l'evoluzione della grafica passa inevitabilmente per un affinamento di tutte queste tecniche e la loro fruibilità reale all'interno dei videogames è fondamentale. Giocare a 120 fps senza filtri nè HDR in Far Cry è una cosa bella, ma giocarlo a 80 fps con HDR + AA lo è sicuramente di più anche perché non sempre si è nella frenesia ed esistono momenti di calma anche negli shooter 3D in cui fa piacere vedere determinate finezze grafiche: l'appagamento generale aumenta ;)
Insomma è giusto prendere in considerazione tali funzionalità senza sacrificare la giocabilità, ma una volta raggiunta la soglia della "fruibilità" di questi effetti grafici, la loro presenza deve essere vista positivamente.
Aggiungo che un elemento molto interessante, al di là del fotorealismo, è anche la maggiore creatività che consentono di ottenere tecniche come l'FP blending. L'HDR è solo una delle implementazioni, probabilmente quella più interessante ai fini dell'aumento del realismo, ma sicuramente ci sono applicazioni del FP blending molto interessanti anche a livello artistico.
yossarian
08-10-2005, 18:14
Vorrei intervenire relativamente al discorso dell'AA, HDR e anisotropico. E' vero che probabilmente nella frenesia del gioco molte finezze grafiche passano in secondo piano, ma non bisogna dimenticare che l'obiettivo finale della computer grafica è il raggiungimento del fotorealismo e ogni tecnica che consente di fare un piccolo passo in avanti in questa direzione è sempre bene accetta. Anche le texture in alta risoluzione non si notano più di tanto mentre si è intenti a scappare a destra e a sinistra in UT2004, ma ciò non significa che siano inutili o da disprezzare.
A mio modo di vedere l'evoluzione della grafica passa inevitabilmente per un affinamento di tutte queste tecniche e la loro fruibilità reale all'interno dei videogames è fondamentale. Giocare a 120 fps senza filtri nè HDR in Far Cry è una cosa bella, ma giocarlo a 80 fps con HDR + AA lo è sicuramente di più anche perché non sempre si è nella frenesia ed esistono momenti di calma anche negli shooter 3D in cui fa piacere vedere determinate finezze grafiche: l'appagamento generale aumenta ;)
Insomma è giusto prendere in considerazione tali funzionalità senza sacrificare la giocabilità, ma una volta raggiunta la soglia della "fruibilità" di questi effetti grafici, la loro presenza deve essere vista positivamente.
Aggiungo che un elemento molto interessante, al di là del fotorealismo, è anche la maggiore creatività che consentono di ottenere tecniche come l'FP blending. L'HDR è solo una delle implementazioni, probabilmente quella più interessante ai fini dell'aumento del realismo, ma sicuramente ci sono applicazioni del FP blending molto interessanti anche a livello artistico.
perfettamente d'accordo su tutto.
andreamarra
08-10-2005, 18:18
Mi sa che hai le idee poco chiare...
DoD: Source e Serious Sam 2 supportano l'HDR nativamente (attraverso PS 3.0 chiaramente) e lo sfruttano al massimo. SC3 supporta l'HDR ma usa il motore di Unreal 2 che nativamente non lo supportava, infatti se ci hai giocato (e hai una scheda NVIDIA) avrai notato che l'HDR non si nota più di tanto.
Tra l'altro bastava leggere la rece, diceva chiaramente tutte queste cose... hai guardato solo le figure? :asd:
infatti non ho letto nulla, solo le figure :sofico:
è che a memoria ricordavo che l'HDR non c'era in quei giochi.
Cmq tanto per cambiare, c'è un'altra rece in cui la ati incredibilmente nei giochi con HDR va come un razzo distanziando e spesso di brutto la nvidia.
Ad esempio, in COD2 la situazione è ribaltata alla grandissima, in SS2 demo la bilancia pende dalla parte di ati, e il livello Lost Coast (anche se non lo prenderi in considerazione essendo fatto per ati, come d3 per nvidia) con HDR da risultati assolutamente fantastici per ati che distanzia nvidia.
è di driverheaven, non so assolutamente se sia o meno affidabile e o di parte!
link http://www.driverheaven.net/reviews/r520reviewxvxv/index.htm
In più ho notato delle strane discrepanze in alcuni valori (soprattutto con lo SLI), quindi è una recensione da prendere moooolto con le pinze.
andreamarra
08-10-2005, 18:21
Vorrei intervenire relativamente al discorso dell'AA, HDR e anisotropico. E' vero che probabilmente nella frenesia del gioco molte finezze grafiche passano in secondo piano, ma non bisogna dimenticare che l'obiettivo finale della computer grafica è il raggiungimento del fotorealismo e ogni tecnica che consente di fare un piccolo passo in avanti in questa direzione è sempre bene accetta. Anche le texture in alta risoluzione non si notano più di tanto mentre si è intenti a scappare a destra e a sinistra in UT2004, ma ciò non significa che siano inutili o da disprezzare.
A mio modo di vedere l'evoluzione della grafica passa inevitabilmente per un affinamento di tutte queste tecniche e la loro fruibilità reale all'interno dei videogames è fondamentale. Giocare a 120 fps senza filtri nè HDR in Far Cry è una cosa bella, ma giocarlo a 80 fps con HDR + AA lo è sicuramente di più anche perché non sempre si è nella frenesia ed esistono momenti di calma anche negli shooter 3D in cui fa piacere vedere determinate finezze grafiche: l'appagamento generale aumenta ;)
Insomma è giusto prendere in considerazione tali funzionalità senza sacrificare la giocabilità, ma una volta raggiunta la soglia della "fruibilità" di questi effetti grafici, la loro presenza deve essere vista positivamente.
Aggiungo che un elemento molto interessante, al di là del fotorealismo, è anche la maggiore creatività che consentono di ottenere tecniche come l'FP blending. L'HDR è solo una delle implementazioni, probabilmente quella più interessante ai fini dell'aumento del realismo, ma sicuramente ci sono applicazioni del FP blending molto interessanti anche a livello artistico.
concordo su tutto :)
p.s. sulla parte in grassetto... è una anticipazione "nascosta" o hai sparato numeri a caso :D???
Vorrei intervenire relativamente al discorso dell'AA, HDR e anisotropico. E' vero che probabilmente nella frenesia del gioco molte finezze grafiche passano in secondo piano, ma non bisogna dimenticare che l'obiettivo finale della computer grafica è il raggiungimento del fotorealismo e ogni tecnica che consente di fare un piccolo passo in avanti in questa direzione è sempre bene accetta. Anche le texture in alta risoluzione non si notano più di tanto mentre si è intenti a scappare a destra e a sinistra in UT2004, ma ciò non significa che siano inutili o da disprezzare.
A mio modo di vedere l'evoluzione della grafica passa inevitabilmente per un affinamento di tutte queste tecniche e la loro fruibilità reale all'interno dei videogames è fondamentale. Giocare a 120 fps senza filtri nè HDR in Far Cry è una cosa bella, ma giocarlo a 80 fps con HDR + AA lo è sicuramente di più anche perché non sempre si è nella frenesia ed esistono momenti di calma anche negli shooter 3D in cui fa piacere vedere determinate finezze grafiche: l'appagamento generale aumenta ;)
Insomma è giusto prendere in considerazione tali funzionalità senza sacrificare la giocabilità, ma una volta raggiunta la soglia della "fruibilità" di questi effetti grafici, la loro presenza deve essere vista positivamente.
Aggiungo che un elemento molto interessante, al di là del fotorealismo, è anche la maggiore creatività che consentono di ottenere tecniche come l'FP blending. L'HDR è solo una delle implementazioni, probabilmente quella più interessante ai fini dell'aumento del realismo, ma sicuramente ci sono applicazioni del FP blending molto interessanti anche a livello artistico.
Sono perfettamente d'accordo, ho solo detto che il filtro AA, a certe risuluzioni non e' cosi' indispensabile, nel senso che, tra le "rinunce" e' la meno sofferta.
C'e' da dire pero', che per ora non si gioca a FarCry a risoluzioni elevare a 120FPS con HDR attivo.. Pertanto ben vengano tutti questi effetti (io FarCry me lo giocai a 800*600 con la mia GT al tempo, per poterlo giocare in HDR come si deve, questo significa che apprezzo molto le innovazioni, soprattutto se mirate al realismo), ma solo quando non compromettono la giocabilita', che deve restare il fine ultimo di un gioco, (vedi riddik).
Per yossarian: No, parlavo di HDR.
yossarian
08-10-2005, 18:30
Per yossarian: No, parlavo di HDR.
allora vale quanto ho detto sopra a proposito dei monitor. L'unico effetto realmente evidente dell'uso di HDR con monitor a 8 bit per canale è il blooming. I miglioramenti qualitativi sono meno evidenti di quelli ottenibili con AA e AF. Almeno allo stato attuale.. E il blooming può ottenersi senza fare blending a fp16 nel frame buffer
concordo su tutto :)
p.s. sulla parte in grassetto... è una anticipazione "nascosta" o hai sparato numeri a caso :D???
Mi aspettavo una domanda di questo tipo :D
Sono numeri sparati a caso ;)
allora vale quanto ho detto sopra a proposito dei monitor. L'unico effetto realmente evidente dell'uso di HDR con monitor a 8 bit per canale è il blooming. I miglioramenti qualitativi sono meno evidenti di quelli ottenibili con AA e AF. Almeno allo stato attuale.. E il blooming può ottenersi senza fare blending a fp16 nel frame buffer
Diciamo che l'utilizzo dinamico delle luci in FarCry e' molto buono, si ha la sensazione di essere abbagliati dalla luce quando ci si trova di fronte una sporgente luminosa intensa (quale puo' essere il sole soventemente) e pian piano "l'occhio virtuale" si riadatta alla normalita'.
Pe quanto riguarda i monitor.. beh.. e' questione di tempo.. Pensi che gli Olead vadano bene??
andreamarra
08-10-2005, 18:43
Mi aspettavo una domanda di questo tipo :D
Sono numeri sparati a caso ;)
:D
yossarian
08-10-2005, 18:56
Diciamo che l'utilizzo dinamico delle luci in FarCry e' molto buono, si ha la sensazione di essere abbagliati dalla luce quando ci si trova di fronte una sporgente luminosa intensa (quale puo' essere il sole soventemente) e pian piano "l'occhio virtuale" si riadatta alla normalita'.
Pe quanto riguarda i monitor.. beh.. e' questione di tempo.. Pensi che gli Olead vadano bene??
su questo siamo d'accordo; però quel tipo di gestione delle luci si può ottenere con un semplice blooming (per questo dicevo che è l'effetto più evidente); l'HDR e, ancora di più, la possibilità di avere blending fp16 nel frame buffer è ben altro e ha a che fare con la precisione di dettagli con cui è rappresentata l'immagine. Il problema è che, se un'immagine a fp16 è rappresentata su un monitor a 8 bit interi per canale, si è comunque soggetti ad operazioni di arrotondamento che hanno effetti decisamente negativi sulla rappresentazione dell'immagine stessa.
Per questo ritengo che l'hdr, come qualunque altro miglioramento alla qualità d'immagine, è qualcosa di utile e di gradito, però non è il caso di enfatizzarlo troppo; non per il momento. Attualmente è qualcosa di più utile a chi programma giochi che non per chi i giochi li utilizza.
Gli Olead, se non ricordo male, utilizzano un formato a 10 bit per canale e, alcuni modelli, un formato a 8 bit scelti su 16 in modalità random (qualcosa di simile al TAA di ATi). Questo tipo di notazioni sono sicuramente migliori (la 8 bit random è anche superiore alla 10 bit), però non siamo ancora al livello di 16 bit in floating point. Ci vorrà ancora del tempo
su questo siamo d'accordo; però quel tipo di gestione delle luci si può ottenere con un semplice blooming (per questo dicevo che è l'effetto più evidente); l'HDR e, ancora di più, la possibilità di avere blending fp16 nel frame buffer è ben altro e ha a che fare con la precisione di dettagli con cui è rappresentata l'immagine. Il problema è che, se un'immagine a fp16 è rappresentata su un monitor a 8 bit interi per canale, si è comunque soggetti ad operazioni di arrotondamento che hanno effetti decisamente negativi sulla rappresentazione dell'immagine stessa.
Per questo ritengo che l'hdr, come qualunque altro miglioramento alla qualità d'immagine, è qualcosa di utile e di gradito, però non è il caso di enfatizzarlo troppo; non per il momento. Attualmente è qualcosa di più utile a chi programma giochi che non per chi i giochi li utilizza.
Cosasuccederebbe se levassimo l'hdr da FarCry e lasciassimo il blooming??
Otterremmo lost cost??
Gli Olead, se non ricordo male, utilizzano un formato a 10 bit per canale e, alcuni modelli, un formato a 8 bit scelti su 16 in modalità random (qualcosa di simile al TAA di ATi). Questo tipo di notazioni sono sicuramente migliori (la 8 bit random è anche superiore alla 10 bit), però non siamo ancora al livello di 16 bit in floating point. Ci vorrà ancora del tempo
Sarebbero comunque un passo avanti percio'. Comunque sì, gli Olead utilizzano un formato a 10 bit per la maggior parte, ma (anche se lo seguo poco) non mi pare sia una regola/standard.
Che altre soluzioni ci sono all'orizzonte in merito??
yossarian
08-10-2005, 19:17
Cosasuccederebbe se levassimo l'hdr da FarCry e lasciassimo il blooming??
Otterremmo lost cost??
qui credo che la persona più indicata a risponderti sia fek; non conosco il tipo di implementazione dell'hdr (o qualunque cosa esso sia) di lost coast.
Sarebbero comunque un passo avanti percio'. Comunque sì, gli Olead utilizzano un formato a 10 bit per la maggior parte, ma (anche se lo seguo poco) non mi pare sia una regola/standard.
Che altre soluzioni ci sono all'orizzonte in merito??
all'orizzonte, al momento ci sono i 10 bit e gli 8 bit randomly chosed (la seconda soluzione è più efficace perchè sfrutta i "difetti" dell'occhio umano, al pari del TAA di ATi, riuscendo, in parte, a simulare una rappresentazione a 16 bit per canale).
Qualche produttore sta già lavorando a monitor che supportino hdr (sunnybrook se non ricordo male); però non so a che punto stiano atualmente con lo sviluppo di questi dispositivi.
Domanda: ufficialmente in Italia quando saranno disponibili?
e ovviamente i prezzi dei modelli precedenti subiranno un calo, nooooooooooooo? :D
Mi domando anch'io quando vedremo la commercializzazione in volumi dei monitor per PC Oled. Per ora se non erro ci sono solo le mega TV da 42" e passa di Samsung che usano questa tecnologia.
Credo, e spero, che entro la prima metà del prossimo anno saranno una realtà. Per altro, se non ricordo male, rispetto agli LCD hanno tra gli altri il vantaggio di scalare a risoluzioni varie come i CRT (quindi un 17" Oled può raggiungere 1600x1200 mentre un LCD è bloccato a 1280x1024).
leoneazzurro
08-10-2005, 21:23
Non trovi che a 1280 nell'azione frenetica di un FSP, ad esempio, sia gia' molto difficile sentirne la mancanza?? sinceramente credo che, in tali giochi, sarebbe da preferire la velocita' al filtro AA, anche perche' i giochi che andranno in HDR, non sfodereranno certo 200 FPS.
Poi se ci sono entrambi con velocita' superiore agli 80-100 frame per secondo, tanto di guadagnato. :)
No, perchè gli FPS non li calcolo neppure ;)
A me piacciono gli RTS e gli RPG, ma in genere le novità grafiche vengono sempre uori prima sugli FPS (vedi HL2, Far Cry, ecc).
E comunque io la differenza tra 1024x768 + AA 4x e il 1280x1024 la vedo eccome :)
leoneazzurro
08-10-2005, 21:28
infatti non ho letto nulla, solo le figure :sofico:
è che a memoria ricordavo che l'HDR non c'era in quei giochi.
Cmq tanto per cambiare, c'è un'altra rece in cui la ati incredibilmente nei giochi con HDR va come un razzo distanziando e spesso di brutto la nvidia.
Ad esempio, in COD2 la situazione è ribaltata alla grandissima, in SS2 demo la bilancia pende dalla parte di ati, e il livello Lost Coast (anche se non lo prenderi in considerazione essendo fatto per ati, come d3 per nvidia) con HDR da risultati assolutamente fantastici per ati che distanzia nvidia.
è di driverheaven, non so assolutamente se sia o meno affidabile e o di parte!
link http://www.driverheaven.net/reviews/r520reviewxvxv/index.htm
In più ho notato delle strane discrepanze in alcuni valori (soprattutto con lo SLI), quindi è una recensione da prendere moooolto con le pinze.
Ehmm... driverheaven...
No, perchè gli FPS non li calcolo neppure ;)
A me piacciono gli RTS e gli RPG, ma in genere le novità grafiche vengono sempre uori prima sugli FPS (vedi HL2, Far Cry, ecc).
E comunque io la differenza tra 1024x768 + AA 4x e il 1280x1024 la vedo eccome :)
Ma in un FPS con un minimo stralcio di trama si nota eccome la grafica. In Half Life 2, Doom 3 e Far Cry mica si deve sparare continuamente ogni nano secondo. C'è l'elemento esplorazione, poco o tanta che sia, in cui si può ammirare il paesaggio. Gli FPS, secondo me, hanno sempre fatto dell'Engine un elemento di vanto e di attrazzione e questo credo sia innegabile.
Prova ne è che quando si parla di God of War ed UT2007 sino ad ora si è parlato più dell'UE3 che dell'effettiva giocabilità che introdurranno.
andreamarra
08-10-2005, 21:32
Ehmm... driverheaven...
è un sito fanATIco :D??
leoneazzurro
08-10-2005, 21:33
Ma in un FPS con un minimo stralcio di trama si nota eccome la grafica. In Half Life 2, Doom 3 e Far Cry mica si deve sparare contimuante ogni nano secondo. C'è l'elemento esplorazione, poco o tanta che sia, in cui si può ammirare il paesaggio. Gli FPS, secondo me, hanno sempre fatto dell'Engine un elemento di vanto e di attrazzione e questo credo sia innegabile.
Prova ne è che quando si parla di God of War ed UT2007 sino ad ora si è parlato più dell'UE3 che dell'effettiva giocabilità che introdurranno e quando si parla di Id Software.
No, io intendevo solo che non sono un giocatore di fps, e che quindi di HL2, Doom3, ecc. ho appunto solo ammirato la grafica.
leoneazzurro
08-10-2005, 21:33
è un sito fanATIco :D??
Tu lo dici ;)
No, io intendevo solo che non sono un giocatore di fps, e che quindi di HL2, Doom3, ecc. ho appunto solo ammirato la grafica.
Doom 3 devo ammettere di averlo rigiocando una seconda volta, tempo fa, solo per ammirare nuovamente la grafica. :p
andreamarra
08-10-2005, 21:35
Tu lo dici ;)
lo acceniamo :D? Flame :D?
No a parte gli scherzi, non sono informato su siti di parte amd/intel ati/nvidia... infatti per evitare problemi qualunque sito riporto metto la dicitura "non so se è affidabile o di parte".
andreamarra
08-10-2005, 21:38
cmq, io che alla fine qualunque cosa esca rimango sempre con la 9700Pro (la geppo2MX che la precedeva... alla fine si è dovuta arrendere) :sofico:
mi interessa a momenti più la guerra strategica tra nvidia e ati e vedere come si scornano in maniera clamorosa :D!
Già non vedo l'ora di vedere le prossime mosse di nvidia e di ati... :D!
leoneazzurro
08-10-2005, 21:43
lo acceniamo :D? Flame :D?
No a parte gli scherzi, non sono informato su siti di parte amd/intel ati/nvidia... infatti per evitare problemi qualunque sito riporto metto la dicitura "non so se è affidabile o di parte".
Infatti. Uno dei migliori siti di sempre sulla tecnologia grafica è Beyond3D, dove tra l'altro postano sul forum anche numerosi redattori di altri siti Hardware (dì che ce stai pure te, Raffaè :D ) e ci sono tantissimi articoli tecnici che descrivono architetture delle GPU e tecniche di rappresentazione grafica (mi ci sono fato una cultura :D Io nasco come ingegnere Elettrico). E poi ci sono sempre HWupgrade, E ottimi siti come Anandtech e Xbitlabs, che nonostante ogni tanto qualche abbaglietto lo prendano anche loro sono sempre solidi riferimenti con le loro recensioni.
non è mancanza di potenza ma carenza di circuiteria. Su G70 ROP's e pixel pipeline non sono indipendenti (per le operazioni in fp), su R520 si.
ops... mi sono pronuciato male io. si infatti quello che spero è che nella prossima generazione possano supportare tale abbinamento. Anche perchè otterrebbero un ottimo bust prestazionale in hdr anche senza aa
Cosasuccederebbe se levassimo l'hdr da FarCry e lasciassimo il blooming??
Otterremmo lost cost??
Vogliamo sfatare il mito secondo cui l'HDR di Lost Coast sia falso o un artificio? E' HDR A TUTTI GLI EFFETTI. E' semplicemente implementato in maniera differente rispetto a quello di Far Cry e Splinter Cell Chaos Theory.
andreamarra
09-10-2005, 02:09
Vogliamo sfatare il mito secondo cui l'HDR di Lost Coast sia falso o un artificio? E' HDR A TUTTI GLI EFFETTI. E' semplicemente implementato in maniera differente rispetto a quello di Far Cry e Splinter Cell Chaos Theory.
:D il fatto è che tra HDR e bloom qua dentro ci siamo mandati il cervello in pappa un pò tutti :sofico
p.s. ma a voi di HWUpgrade hanno dato la possibilità di provare e fare test con Lost Coast? Alcune rece in rete lo riportano come bench.
Free Gordon
09-10-2005, 02:22
Ci sono i valori di clk di tutte le schede in classifica.. ed 80-90 pagine di forum da leggerte se vuoi saperne di piu'.. comuqnue sono tutte overclk.
Puoi entrare anche tu e fare di meglio se vuoi.
Ehm.... 6500 li faccio a DEFAULT con la 850, in OC ne faccio 1000 in più, guarda la sign.
Mi domando anch'io quando vedremo la commercializzazione in volumi dei monitor per PC Oled. Per ora se non erro ci sono solo le mega TV da 42" e passa di Samsung che usano questa tecnologia.
Credo, e spero, che entro la prima metà del prossimo anno saranno una realtà. Per altro, se non ricordo male, rispetto agli LCD hanno tra gli altri il vantaggio di scalare a risoluzioni varie come i CRT (quindi un 17" Oled può raggiungere 1600x1200 mentre un LCD è bloccato a 1280x1024).
Non e' vero, anzi, e' vero in parte, :) ci sono anche dei monitor (da un bel pezzetto), anche se per ora praticamente introvabili ed a prezzi proibitivi.
Ma in un FPS con un minimo stralcio di trama si nota eccome la grafica. In Half Life 2, Doom 3 e Far Cry mica si deve sparare continuamente ogni nano secondo. C'è l'elemento esplorazione, poco o tanta che sia, in cui si può ammirare il paesaggio. Gli FPS, secondo me, hanno sempre fatto dell'Engine un elemento di vanto e di attrazzione e questo credo sia innegabile.
Prova ne è che quando si parla di God of War ed UT2007 sino ad ora si è parlato più dell'UE3 che dell'effettiva giocabilità che introdurranno.
Infatti e' il motivo per il quale ho iniziato a giocare FarCry, mi e' piaciuta troppo la grafica, per ora e' quello che trovo piu' coinvolgente (anche Doom non scherza). Lo tenevo a 1280 con un AA leggero, ma ti assicuro che quando ci ho giocaro in HDR, sara' stato per la novita', ma ero cosi' preso da questo che non facevo per nulla caso alla mancanza di AA. Tanto, anche se avessi potuto utilizzarlo, stando alle potenze attuali delle VPU, lo avrei dovuto comunque disattivare.
Le prossime generazioni avranno potenza a sufficienza per entrambi e qualcosa mi dice, che anche la prossima gen Nvidia potra' utilizzarli insieme.
Ora come ora chiederli entramibi mi sembra un po' come comprare una scheda video da 50€ con 256Mb. (stando alle richieste dell'implementazione stile FarCry, se poi altri siano o meno piu' leggeri e' un altro conto, come lo hanno fatto anche su ATI, probabilemnte nella medesima modalita' si potra' attivare l'AA su Nvidia, se non sbaglio lost coast lo consente).
No, perchè gli FPS non li calcolo neppure ;)
A me piacciono gli RTS e gli RPG, ma in genere le novità grafiche vengono sempre uori prima sugli FPS (vedi HL2, Far Cry, ecc).
E comunque io la differenza tra 1024x768 + AA 4x e il 1280x1024 la vedo eccome :)
Direi che dipenda anche molto dalla qualita' del monitor, dalla dimensione e dalla tipologia (e soprattutto dai gusti). :)
Ehm.... 6500 li faccio a DEFAULT con la 850, in OC ne faccio 1000 in più, guarda la sign.
Quel forum e' pubblico, puoi postare i tuoi risultati. :)
Comunque una GT normale, in genere ne fa 1600-1700 in meno, dunque il punteggio che ho ottenuto e' comunque notevole. (considerando che mi e' costata quasi la meta' della tua..) e sta di fatto davanti a 8 X8x0XT (comprese le PE) su 10 (13 contanto anche le XL di pari categoria).
P.S. Con una ultra "test board" marcata direttamente Nvidia che "benchava" senza alcun overvolt i 500/1300 (e oltre), sono riuscito ad ottenere risultati impressionanti, purtroppo l'ho dovuta riconsegnare prima di certificarli.
Leggento QUESTO (http://www.xbitlabs.com/articles/video/display/radeon-x1800_23.html) articolo, si nota come i recensori accusino piu' volte i driver ATI, quali colpevoli delle scarse prestazioni nei giochi OGL. Questo e' pero' comprensibile, perche', effettivamente in tutti i titoli OGL Nvidia primeggia e non di poco. In DoomIII ed altri, possiamo dire che sia merito di feature piu' congeniali alle shcede americane, in altri, questo non e' vero (o almeno non mi risulta). E' anche vero pero', che in alcuni titoli non OGL, le Nvidia sfoderano comunque prestazioni migliori. Quale e' la verita'??
A proposito di Doom, del quale abbiamo parlato piu' volte qui, ripensandoci mi viene in mente che, piu' di un sito, ha pubblicato le immagini che dimostrano come la qualita' dell'immagine stessa (solo in Doom) sia peggiorata assieme all'aumento delle prestazioni ottenuto con i driver ATI.
Forse e' vero che qualche problemino in OGL lo abbiano ancora.
Evviva la confusione.
Free Gordon
09-10-2005, 14:37
Quel forum e' pubblico, puoi postare i tuoi risultati. :)
Comunque una GT normale, in genere ne fa 1600-1700 in meno, dunque il punteggio che ho ottenuto e' comunque notevole. (considerando che mi e' costata quasi la meta' della tua..) e sta di fatto davanti a 8 X8x0XT (comprese le PE) su 10 (13 contanto anche le XL di pari categoria).
Pagata circa 350 euro nuova, ad HK. :D
Probabilmente l'hai pagata di più tu..
I risultati li posto già sul database di hwupgrade (ma solo per informazione), basta e avanza. :D
ps.
Mi risulta ancora difficile capire come una 850xt o pe (ma anche una pro) non riesca a fare almeno 6500pt al 2005.. :mbe: cmq ti credo sulla parola. ;)
Pagata circa 350 euro nuova, ad HK. :D
Probabilmente l'hai pagata di più tu..
ps.
Mi risulta ancora difficile capire come una 850xt o pe (ma anche una pro) non riesca a fare almeno 6500pt al 2005.. :mbe: cmq ti credo sulla parola. ;)
Tramite internet?? se ti si rompe?? comunque non fa testo, lì una 6800GT la trovi nell'ovetto Kinder!! :p
Comunque la pagai bene pure io appunto attorno ai 280€.. Quel prezzo, purtroppo non e' la regola pero' per quelle schede ATI, non lo e' ancora oggi.
Comuqnue non e' strano non fare 6500 con tale scheda, tu hai delle Ram a 600Mhz ed un A64 3700, probabilmente overcloccato. Sul link alla recensione che ho "ripostaro" poco fa, vedi che con un A64 4000 non arriva nemmeno a 6400. Dipene anche molto dalla competenza di chi fa i test, in ogni caso.
Gli unici due con ATI che mi sono arrivati avanti, hanno ottenuto 6841 e 6974, non male, ma non hanno ragiunto una percentuale d'incremento nemmeno simile a quella raggiungibile con una 6800GT. Certo se costassero veramente la cifra che hai speso tu.. beh, il discorso cambierebbe (anche se non troppo,dato che, rispetto all'attuale gen Nvidia, mancano ancora parecchie "finezze", si dovrebbe scegliere tra perdere qualche FPS in qualche gioco o perdere alcune feature in altri).
I risultati li posto già sul database di hwupgrade (ma solo per informazione), basta e avanza. :D
Mi dai il link diretto?? Grazie (quanto so' pigro :D!!) :)
Free Gordon
10-10-2005, 00:21
a ) le ram contano meno nel punteggio totale del 2005, perlomeno su Ati (la banda è già abbastanza alta).
Conta molto di più la frequenza del core. La frequenza a default della PE è di 540/590. ;)
Con questi setting e il sandiego settato a 300x9=2700mhz (un classico :D ) faccio 6530 punti a default.
Per questo mi sembrava strano che nessuno ti superasse (IN OC OLTRETUTTO) con una 850.. :mbe:
Tra 6400 e 6500 c'è ben poca differenza eh.. :p
b ) Il mio punteggio in OC è di 7500 e passa al 2005, 1000 punti in più del tuo (sempre in OC), con la vga a 618/639.
Le 850 non sono avvicinabili dalle 6800 nel 2005...questo mi pare un fatto assodato... :stordita:
Il link del database di hwupgrade è questo: http://database.hwupgrade.it/index.php
;)
Free Gordon
10-10-2005, 00:31
Inoltre, una 850xt non costa più molto.. 335 euro, in Italia, della Sapphire..
http://www.atm.it/home.aspx?FID=13&PID=5133
;)
a ) le ram contano meno nel punteggio totale del 2005, perlomeno su Ati (la banda è già abbastanza alta).
Conta molto di più la frequenza del core. La frequenza a default della PE è di 540/590. ;)
Con questi setting e il sandiego settato a 300x9=2700mhz (un classico :D ) faccio 6530 punti a default.
Per questo mi sembrava strano che nessuno ti superasse (IN OC OLTRETUTTO) con una 850.. :mbe:
Tra 6400 e 6500 c'è ben poca differenza eh.. :p
b ) Il mio punteggio in OC è di 7500 e passa al 2005, 1000 punti in più del tuo (sempre in OC), con la vga a 618/639.
Le 850 non sono avvicinabili dalle 6800 nel 2005...questo mi pare un fatto assodato... :stordita:
Il link del database di hwupgrade è questo: http://database.hwupgrade.it/index.php
;)
A parte che questo comincia ad essere un po' OT, passi giusto perche' si puo' parlare della validita' di tali schede in vista della nuova serie.. Comunque non intendevo le ram della VGA, bensì quelle del computer, hai delle 4800, dunque a 600Mhz. :) Si racimolano molti punti ottimizzando proprio frequenze e timing della ram stessa.
In ogni caso non ritengo che la XT (specialmente la PE) sia una scheda da OC, i margini d'incremento in percentuale, in genere (come nel tuo caso) sono bassi, dato che e' OC di serie ed e' anche discretamente delicata.
Inoltre, non tutti l'hanno pagata poco come te, diciamo che sei un fortunato, considerando anche il fatto che il 3dm, sia notoriamente di parte ATI (e dunque la realta' nei giochi e' ben differente), direi che 6575 punti con una scheda di pari livello di una X800XL, siano piu' che soddisfacenti. :) Almeno per me lo sono (partendo da 4900 ad occhio e' croce e' il 32%, non il 15,spicci% ottenibile in media con una PE).
Comunque 7500 punti con una Ultra ben riuscita, non sono poi cosi' inavvicinabili, te lo dico perche' ci sono quasi arrivato con la scheda della quale ti ho parlato (piu' o meno 7400). :)
Grazie per il link, gli daro' un occhiata. :)
Inoltre, una 850xt non costa più molto.. 335 euro, in Italia, della Sapphire..
http://www.atm.it/home.aspx?FID=13&PID=5133
;)
Viste le vendite e visto che:
GeForce 6800Ultra 256Mb PciExp MSI 2xDVI/Tv-Out € 279,00 € 334,80
GeForce 7800GT 256Mb PciExp Asus DVI/Tv-Out € 339,00 € 406,80
questi sono i prezzi di un negozio al pubblico, direi: "ti credo, se non le liquidano in questo mese-mese e mezzo, gli rimarranno sul groppone per sempre".
Con la stessa cifra ci compro una 6800Ultra, che, anche se in alcuni casi e' piu' lenta (ed in altri piu' veloce), e' indubbiamente piu' avanti e con 70 euro in piu' ci prendi una 7800GT.. Fai tu.. Considera che i miei fornitori (ai quali interessa solo il commercio), non prendono piu' le top ATI da molti e molti mesi, solo su richiesta. (nota: unica ATI non di bassissima gamma fuori dal coro e' stata la XL,ottimo rapporto prezzo prestazioni e che ho ed hanno venduto moltissimo, prima del calo del prezzo della 6800GT).
Per farti capire cosa intendo..
http://www.atm.it/home.aspx?FID=13&PID=1139 Credo evitino volentieri di ritrovarsi certe rimanenze a prezzi improponibili per il futuro. :)
Ho dato un'occhiata piu' approfondita a quel sito, o hai preso l'unico prezzo buono o hai trovato l'unico sbagliato!! vedi questa
http://www.atm.it/home.aspx?FID=13&PID=5453
appena 107€ piu' di quanto la si possa trovare altrove!!
MSI K8N Neo4 Diamond SLI sk.939 nForce4 SLI (Sound, G-LAN, FW, SATA RAID) € 135,00 € 162,00 !!!!!!!! Questi sono matti!! :doh:
Si dice che con alcuni riti voodoo l'R580 supportera' anche le DX11 e pixel shader 5 6 e 7 ( :p ).
La versione CrossFire potra' essere affiancata ad una 3dfx voodoo2 (da qui i riti) e nelle notti di luna piena si comportera' come DX11, ma nei giorni dispari retrocedera' a DX7.
Se le affianchi una 7800 dovresti riuscire a giocare DX9 nei giorni pari, DX10 quasi sempre e DX11 con la luna piena. Ti conviene munirti di un ottimo programma per controllare le fasi lunari.
Direi che e' tutto.
nooo e ora che ho venduto la v2 come posso fare?
ThePunisher
10-10-2005, 09:54
Firingsquad has a performance preview of the http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/ Radeon X1800XT and the X1800XL, both 512MB parts. While they give Nvidia's 7800 series a run for their money, the fact that they will generally cost more and that X1800x parts are as rare as chicken teeth makes it a lost battle for ATI as it stands now.
Ottima Preview e ottima battuta :asd:! :D
Mi sa che hai le idee poco chiare...
DoD: Source e Serious Sam 2 supportano l'HDR nativamente (attraverso PS 3.0 chiaramente) e lo sfruttano al massimo. SC3 supporta l'HDR ma usa il motore di Unreal 2 che nativamente non lo supportava, infatti se ci hai giocato (e hai una scheda NVIDIA) avrai notato che l'HDR non si nota più di tanto.
Tra l'altro bastava leggere la rece, diceva chiaramente tutte queste cose... hai guardato solo le figure? :asd:
non lo fanno con ps3, chiaramente, visto che dalla recensione di anand su dod:s si dice che non ci sono differenze di immagine tra giocarlo con nvidia o ati.
ThePunisher
10-10-2005, 09:59
nooo e ora che ho venduto la v2 come posso fare?
Ti presto la mia! :p
http://m4tribes.m4d.it/puni/39.jpg
:D
ma perchè, in un fps frenetico, in cui non si notano (a tuo dire) differenze su AA e AF, si sente la mancanza dell'HDR (non parlo di effetti di blooming, ma di vero e proprio HDR)?
in un fps frenetico, magari online, é la prima cosa che viene tolta. Anzi, se qualcuno riesce tende a togliere anche texture e tutto per vedere meglio :asd:
l' hdr per un gioco online (dod:s ne é una delle prime prove, essendo un gioco giocato competitivamente) potrebbe essere anche un motivo di svantaggio, considerando che ci sono schede (quindi giocatori) che non ne soffrirebbero, passando da zone buie in zone di luce
yossarian
10-10-2005, 11:05
[QUOTE=street]in un fps frenetico, magari online, é la prima cosa che viene tolta. Anzi, se qualcuno riesce tende a togliere anche texture e tutto per vedere meglio :asd:[QUOTE]
C.V.D.
:D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.