View Full Version : nVidia GeForce 6800 - Thread Ufficiale
Originariamente inviato da dario fgx
magari ne aveta gia parlato...ma...chi è che comprerà 500€ di scheda se ne DEVE spendere altri 150 x 480w di ali?.....PAZZESCO 480 BEI WATTAZZI...miiiiiiiinccchiaaaaaaaaa!!!!!
va che anke un 450 penso vada + che bene...in ogni caso se uno proprio nn vuole un enermax&co se la cava con molto meno..
ShadowThrone
15-04-2004, 14:34
Originariamente inviato da johnson
Ma come mai tutti continuano a menarla sul consumo, quando la 6800 consuma solo 20w in piu di una 9800xt? I grafici li avete visti? Li potete vedere su un reply qui http://forum.hwupgrade.it/showthread.php?s=&threadid=663352&perpage=20&pagenumber=29
mha... io tutto 'sto casino sul consumo non lo capisco.
al limite, si prende un ali da 400 watt da 20 euro, si modda e si dedica alla scheda!!!!
Originariamente inviato da fabiannit
Per colpa della Telecom mi sono perso il lancio della NV40 :cry: Ero due giorni senza linea per problemi tecnici blablabla .....:mad: :D
E cmq devo dire che sta NV40 me la aspettavo migliore
Io sono sempre stato assolutamente contrario al progetto NV3x perche non ho mai ritenuto nessuno di questi chip concorrenziali ma sull'NV40 non vedo cosa ci sia di deludente. E' un mostro sotto tutti i punti di vista, sia di potenza che di qualita' visto che il passo sia in AF sia in AA e' stato indubbiamente grande. ;)
I frames sono tantissimi.. con i giochi futuri come D3 e HL2 potra solo dimostrare quanto spinge questa scheda. E' ovvio che se R420 la superera' saremo nuovamente da capo con la situazione simile a quella precendente ma sicuramente questo non si puo' equiparare nemmeno lontanamente all'NV30.
fabiannit
15-04-2004, 14:37
Originariamente inviato da Dark Schneider
Se guardi nel post iniziale ti spaventi per quanti articoli ci sono.......è pure molto ampi!!:D
:old: :D
Gliel'ho già detto questo :O :D
Norbrek™
15-04-2004, 14:37
Originariamente inviato da Simon82
Io sono sempre stato assolutamente contrario al progetto NV3x perche non ho mai ritenuto nessuno di questi chip concorrenziali ma sull'NV40 non vedo cosa ci sia di deludente. E' un mostro sotto tutti i punti di vista, sia di potenza che di qualita' visto che il passo sia in AF sia in AA e' stato indubbiamente grande. ;)
Sarà pur stato grande, ma ancora inferiore a quello ati di generazine precedente, dato che l'8x di nvidia è una presa per i fondelli....e del trilineare con la qualità del bilineare ne vogliamo parlare?:rolleyes:
ShadowThrone
15-04-2004, 14:38
Originariamente inviato da Simon82
Io sono sempre stato assolutamente contrario al progetto NV3x perche non ho mai ritenuto nessuno di questi chip concorrenziali ma sull'NV40 non vedo cosa ci sia di deludente. E' un mostro sotto tutti i punti di vista, sia di potenza che di qualita' visto che il passo sia in AF sia in AA e' stato indubbiamente grande. ;)
I frames sono tantissimi.. con i giochi futuri come D3 e HL2 potra solo dimostrare quanto spinge questa scheda. E' ovvio che se R420 la superera' saremo nuovamente da capo con la situazione simile a quella precendente ma sicuramente questo non si puo' equiparare nemmeno lontanamente all'NV30.
basta vedere i bench dove un p4 3,2 è il collo di bottiglia.. ;)
cmq mi piace 'sta scheda e sbavo per i ps 3.0 di far cry :D
e sono ansioso di vedere il mostro di ati...
Dark Schneider
15-04-2004, 14:39
Originariamente inviato da dario fgx
magari ne aveta gia parlato...ma...chi è che comprerà 500€ di scheda se ne DEVE spendere altri 150 x 480w di ali?.....PAZZESCO 480 BEI WATTAZZI...miiiiiiiinccchiaaaaaaaaa!!!!!
In realtà penso un 400-420 watt dovrebbe andare anche bene. Però se uno ad esempio tiene la cpu OC, ha tipo 2-3 hd, e tante periferiche,ecc. allora si ci vole un ali bello potente.
Vifani ha provato la scheda pure su un 350 Watt mi pare non si marca anche se a sistema pulito: vga, cpu, ram e HD e funzionava bene.
Naturalmente se ci mettiamo chessò un masterizzatore, un dvd, 2 hd, scheda audio non integrata e periferiche usb..beh poi non basta più.
Ma penso un 420 watt buono ce la possa fare.
Originariamente inviato da Dark Schneider
Se guardi nel post iniziale ti spaventi per quanti articoli ci sono.......è pure molto ampi!!:D
Grazie, l'avevo letto, però mi sono sfuggiti i link...corro ;)
shinji_85
15-04-2004, 14:43
Originariamente inviato da goldorak
Ma stai scherzando vero ?
L'R300 fa il rendering in fp24, non vedo per quale motivo masochistico l'R420 userebbe il rendering fp16.
Oggi non conta piu' far 100-200 fps quanto la qualita' d'immagine quindi se ati con l'r420 fara' meno fps del nv40 ma con un rendering a fp24 a me sta bene.
E' fuori dal mondo comprare delle schede da 500€ per vederle fare il rendering a fp16 :mad:
Sono d'accordo... Se dovessi spendere 500€ (o anche 400€) fra 2 mesi la qualità dell'immagine DOVREBBE essere decisamente migliore...
Speriamo implementino 'sto fp32... Con dei nuovi driver e senza ridurre di troppo gli fps... Lo spero...
P.S.: Evviva la concorrenza!!! Spero che con l'uscita delle nuove ati si abbassino un po' i prezzi... Non vorrei che una 6800 liscia costasse + di 400€.
dario fgx
15-04-2004, 14:48
x dark schneider:
cosa ti avevo detto io (se ricordi) sul sistema necessario a ste bestie?....queste sono parole di hwupgrade:"Nonostante il nostro sistema di test ci abbia portato ad ottenere risultati in più di una occasione CPU limited" bisogna necessariamente tenerne conto.....questi nuovi mostri(e parlo di nv40 ed r420 tutti e due) ti daranno 250 fps quando ti guardi l'acqua in far cry e ti godi i riflessi...ma se hai le ombre su very high e ti scontri con + di 3-4 nemici avrai sempre 20fps x via di una cpu che non ce la fa (almeno questa è la mia esp personale....non avro' un mostro di procio..ma i suoi 3200 mhz la dicono lunga )...se poi gichi ad ut2k4 con 32 nemici(anche meno)...mi sa che pure li 6 cpu limted! senza contare che ci vogliono 480w( x risp a qualcuno solo lo 0,1% degli utenti sanno moddare un ali) per farla funzionare sta vga...il requisito è ridicolo!cmq tutto sto discorso nulla vuole togliere elle straordinarie caratteristiche di questo nuovo prodotto che fa il culo alla grandissima a una 9800xt e 5950ultra messe insieme() solo vi voglio mettre in guardia se non avete 4ghz di potenza dovrete sempre togliere i bot x giocare a battlefield!
luca.coggiola
15-04-2004, 14:48
Cavoli sono tornato qualche giorno fa da Ginevra :mad: , se sapevo che all'Hotel President Wilson presentavano la 6800 ultra con relativi video & co., mi sarei fermato volentieri per dare una bella lustratina alle pupille:p .
Naturalmente visto che c'ero avrei ucciso tutti i presentatori mi sarei appropriato di un centinaio di 6800 u (sempre se ce n'erano) e poi le avrei regalate tutte ai fortunati ragazzi della sazione schede video di hwupgrade!;) :D
Magari dite voi giusto?:p
Pero'non e' stato possibile aihme':(
:D
Sapete per caso dirmi dove presenteranno ufficialmente l'R420?
Sapete una capatina quasi quasi se non e' troppo distante!;)
-=Krynn=-
15-04-2004, 14:48
MI aspettavopo qualcosa di meglio.
Sulla forza bruta non c'è che dire, tanto di cappello.
Ma la qualità visiva è la stessa, se non inferiore, di una 9800pro.
Così non va bene.
Se solo Ati avesse migliorato anche di un 10% quella qualità, allora sarebbero dolori per la 6800ultra, visto che a me personalmente piace di + fare 60 fps con una qualità eccelletne, che 100 con una qualità scarsa.....
Dark Schneider
15-04-2004, 14:51
Originariamente inviato da Orphen
Grazie, l'avevo letto, però mi sono sfuggiti i link...corro ;)
Ti dico una cosa...io fino ad ora ne avrò letti 3-4!! C'è ne sono parecchi che ancora non leggo come si deve o che al massimo ho visto così veloce di sfuggita. Il materiale disponibile è mostruosamente vasto. :)
Oltre i 10000 al 3dmark03...effettivamente mi ha colpito...:eek:
Però prima di leggermi 100 pagine di recensioni aspetterò comunque le schede ati :D
Chiedo anch'io, queste quando saranno presentate? si sa qualcosa?
Dark Schneider
15-04-2004, 14:53
Originariamente inviato da dario fgx
x dark schneider:
cosa ti avevo detto io (se ricordi) sul sistema necessario a ste bestie?....queste sono parole di hwupgrade:"Nonostante il nostro sistema di test ci abbia portato ad ottenere risultati in più di una occasione CPU limited" bisogna necessariamente tenerne conto.....questi nuovi mostri(e parlo di nv40 ed r420 tutti e due) ti daranno 250 fps quando ti guardi l'acqua in far cry e ti godi i riflessi...ma se hai le ombre su very high e ti scontri con + di 3-4 nemici avrai sempre 20fps x via di una cpu che non ce la fa (almeno questa è la mia esp personale....non avro' un mostro di procio..ma i suoi 3200 mhz la dicono lunga )...se poi gichi ad ut2k4 con 32 nemici(anche meno)...mi sa che pure li 6 cpu limted! senza contare che ci vogliono 480w( x risp a qualcuno solo lo 0,1% degli utenti sanno moddare un ali) per farla funzionare sta vga...il requisito è ridicolo!cmq tutto sto discorso nulla vuole togliere elle straordinarie caratteristiche di questo nuovo prodotto che fa il culo alla grandissima a una 9800xt e 5950ultra messe insieme() solo vi voglio mettre in guardia se non avete 4ghz di potenza dovrete sempre togliere i bot x giocare a battlefield!
Dario ma lo so che queste gpu non sono sfruttate al max. Come dissi allora...cmq con l'attuale hardware si comporta in maniera più che egregia.
Originariamente inviato da -=Krynn=-
MI aspettavopo qualcosa di meglio.
Sulla forza bruta non c'è che dire, tanto di cappello.
Ma la qualità visiva è la stessa, se non inferiore, di una 9800pro.
Così non va bene.
Se solo Ati avesse migliorato anche di un 10% quella qualità, allora sarebbero dolori per la 6800ultra, visto che a me personalmente piace di + fare 60 fps con una qualità eccelletne, che 100 con una qualità scarsa.....
Direi che non si puo' pretendere tanto.. gia un salto di potenza cosi' mostruoso e' un grande upgrade.. sicuramente si sono impuntati di piu' su questo cercando di rimanere sulla qualita' degli "standard" attuali. Intanto penso che la possibilita' di avere i VS/PS3.0 sia di lunga piu' remunerativa che avere un buon AF.. appena comincieranno alcuni giochi a sfruttare sta cosa ne vedremo delle belle..
ShadowThrone
15-04-2004, 14:54
Originariamente inviato da Orphen
Oltre i 10000 al 3dmark03...effettivamente mi ha colpito...:eek:
Però prima di leggermi 100 pagine di recensioni aspetterò comunque le schede ati :D
Chiedo anch'io, queste quando saranno presentate? si sa qualcosa?
29 aprile...
e cmq, sto fatto del cpu limited m'ha già fatto riflettere.
vorrei vedere cosa riesce a fare con un 64bit 959 e mem in dual.
JENA PLISSKEN
15-04-2004, 14:56
Originariamente inviato da Simon82
Direi che non si puo' pretendere tanto.. gia un salto di potenza cosi' mostruoso e' un grande upgrade.. sicuramente si sono impuntati di piu' su questo cercando di rimanere sulla qualita' degli "standard" attuali. Intanto penso che la possibilita' di avere i VS/PS3.0 sia di lunga piu' remunerativa che avere un buon AF.. appena comincieranno alcuni giochi a sfruttare sta cosa ne vedremo delle belle..
Preferirei avere entrambe le cose;) Filtri + PS3.0
-=Krynn=-
15-04-2004, 14:57
Originariamente inviato da Simon82
Direi che non si puo' pretendere tanto.. gia un salto di potenza cosi' mostruoso e' un grande upgrade.. sicuramente si sono impuntati di piu' su questo cercando di rimanere sulla qualita' degli "standard" attuali. Intanto penso che la possibilita' di avere i VS/PS3.0 sia di lunga piu' remunerativa che avere un buon AF.. appena comincieranno alcuni giochi a sfruttare sta cosa ne vedremo delle belle..
Guarda che i giochi che sfrutteranno i ps&vs 3.0 li vedremo tra qualche anno. Solo ora stanno cominciando ad apparire quelli basati sui 2.0....
Originariamente inviato da ShadowThrone
29 aprile...
e cmq, sto fatto del cpu limited m'ha già fatto riflettere.
vorrei vedere cosa riesce a fare con un 64bit 959 e mem in dual.
Bene bene : sfregolemani: :D
-=Krynn=-
15-04-2004, 14:58
Tengo comunque a precisare che non giudico sta scheda un aborto (per non dire peggio), anzi, probabilmente mi accatterà la versione liscia, anche se mi spaice avere solo 12 pipe (oppure aspetto un po' e prendo la ultra appena cala leggermente di prezzo)
ShadowThrone
15-04-2004, 14:58
Originariamente inviato da Orphen
Bene bene : sfregolemani: :D
a me va a finire che me le tagliano!!!!!! :D
Originariamente inviato da -=Krynn=-
Guarda che i giochi che sfrutteranno i ps&vs 3.0 li vedremo tra qualche anno. Solo ora stanno cominciando ad apparire quelli basati sui 2.0....
Ovvio.. ma essere i primi a portare grosse innovazioni tecnologiche come si e' visto molte volte, porta sempre fortuna.. ;)
Per quanto riguarda la situazione di Nvidia, io da quando lessi che alcuni ingegneri Nvidia non erano per niente preoccupati alla presentazione della ATI 9700 Pro (avevo letto che c'erano anche loro) per poi vedere quanto si sono arrampicati sugli specchi lucidi con l'NV30 e un po' con tutta la serie nv3x a parte gli ultimi disperati tentativi, sono stato sempre e fermamente pro ATI, riconoscendo che sono stati avanti per tutto questo tempo. Ora invece mi rendo conto che Nvidia e' sicuramente tornata agguerrita e sono convinto che la lotta con R420 (soprattutto se come si dice le pipeline di quest'ultima saranno 12/16) sara' un bello scontro. Chi vincera sara' il tempo a dirlo e gia capiremo qualcosa tra due settimane alla presentazione e quando vedremo le prime review che SICURAMENTE prenderanno a paragone tutte le schede odierne piu ovviamente la 6800 Ultra in possesso dei recensori.. ci sara' da leggere molto mi sa. ;)
dario fgx
15-04-2004, 15:09
Originariamente inviato da Dark Schneider
Dario ma lo so che queste gpu non sono sfruttate al max. Come dissi allora...cmq con l'attuale hardware si comporta in maniera più che egregia.
sarà ma io finchè non cambio procio aggiungo un'altro mezzo gb di ram.....tanto x dire devo fare almeno 30sec al superpi...la vga nn la cambio...anche se ora mi sento fotterre!!!!!!!!!!!!!!!!!!!tanto!!!!!!!!!!!!!!!!!!!!!!!!!!!!
9800rulez!
Originariamente inviato da dario fgx
sarà ma io finchè non cambio procio aggiungo un'altro mezzo gb di ram.....tanto x dire devo fare almeno 30sec al superpi...la vga nn la cambio...anche se ora mi sento fotterre!!!!!!!!!!!!!!!!!!!tanto!!!!!!!!!!!!!!!!!!!!!!!!!!!!
9800rulez!
nn è che aggiungendo ram fai meno sec in superPI;)
Dark Schneider
15-04-2004, 15:16
Originariamente inviato da Simon82
Se non ho letto male Gainward fara' uscire una versione 6800 liscia a 16 pipeline.. ;)
Io sapevo della Gigabyte...anche se sinceramente non riesco ancora a capire se era un errore o meno. Sta cosa delle 12 o 16 Pipeline della liscia è davvero confusa.
Cmq anche Gainward?
Originariamente inviato da Dark Schneider
Io sapevo della Gigabyte...anche se sinceramente non riesco ancora a capire se era un errore o meno. Sta cosa delle 12 o 16 Pipeline della liscia è davvero confusa.
Cmq anche Gainward?
nn sapevo che da azienza ad azienza potessero cambiare anke questo ripo di caratteristiche per la stessa scheda...pensavo che come si è sempre fatto cambiassero solo le frequenze :what:
Dark Schneider
15-04-2004, 15:21
Originariamente inviato da ATi7500
vedi, come detto nella recensione d corsini&vifani, credo ke l'obiettivo d nvidia era fornire il miglior supporto possibile ai programmatori presenti e futuri..per far questo ovviamente s è dovuta concentrare sulle prestazioni MOSTRUOSE ke alla fine la skeda offre..in qst modo garantirà un margine molto grande per la vita reale della skeda...ovviamente senza contare il suo rifacimento NV45
ATi a mio avviso fa del suo punto d forza la qualità visiva...cerca sempre "compromessi" ke alla fin fine soddisfano molto l'utente finale (tra cui me, a me piace molto d più qst filosofia ke vedo più vicina al mondo reale)
ragà ...questione d punti d vista...c'è a ki piace l'innovazione a 360° e a ki piace quella "mirata" ;)
saranno entrambe ottime piattaforme R420 e NV40 alla fine
de gustibus non disputandum est ;)
bYeZ!
Quoto in TOTO!!
:sofico:
Raga vi consiglio questa rece http://www.xbitlabs.com/articles/video/display/nv40.html e' veramente ben fatta e la base di test e' un'Athlon 64 3400+.. ;)
ciccio88
15-04-2004, 15:30
IMHO vedendo dalla recensione di hwupgrade e confrontando le immagine con i filtri applicati mi sembra ke cmq ati è superiore sia con l'AA 4x ke con l'AF 8x [come qualità]
poi x le prestazioni nn c'è nemmeno confronto
se gli shader della nuova ati saranno all'altezza della 6800, nn ho dubbi di quello ke ci sarà nel mio case
http://www.xbitlabs.com/articles/video/display/nv40_29.html
Prima HL2 e poi DOOM3 in test.. :eek:
ShadowThrone
15-04-2004, 15:37
dalla rece ho visto dei problemini con far cry e c&c zero hour
Fire Fox II
15-04-2004, 15:37
Raga, ma ci sono bench delle 6800 liscie?
Thanks :)
Anonized
15-04-2004, 15:38
Originariamente inviato da Simon82
http://www.xbitlabs.com/articles/video/display/nv40_29.html
Prima HL2 e poi DOOM3 in test.. :eek:
non vedo nessun hl2 o doom
Originariamente inviato da Anonized
non vedo nessun hl2 o doom
Non possono scrivere hl2 e doom3 ma se leggi bene la pagina a cui ti rimanda (a meta' pagina) quel "next generation game" dovrebbe corrispondere a HL2 il primo e D3 il secondo.. la pagina dopo ci sono invece i test con la demo di Stalker credo. ;)
Originariamente inviato da ShadowThrone
dalla rece ho visto dei problemini con far cry e c&c zero hour
Probabilmente problemi con i driver visto che l'acqua in Far Cry non viene visualizzata per niente bene. ;)
E' impressionante la potenza di pixel shading che ha questa scheda cmq. :eek:
dario fgx
15-04-2004, 15:42
Originariamente inviato da kikbond
nn è che aggiungendo ram fai meno sec in superPI;)
effettivamente si capisce poco e niente di quel che ho scritto.....mi riferivo alla potenza della cpu!
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/lockon_1600_candy.gif
LockOn e' veramente fuori dal mondo.. :sofico:
Originariamente inviato da Fire Fox II
Raga, ma ci sono bench delle 6800 liscie?
Thanks :)
Infatti ma le 6800 lisce???? Che fine hanno fatto?Nessuno sa niente:confused: :cry:
Thunder82
15-04-2004, 15:46
Originariamente inviato da Simon82
Non possono scrivere hl2 e doom3 ma se leggi bene la pagina a cui ti rimanda (a meta' pagina) quel "next generation game" dovrebbe corrispondere a HL2 il primo e D3 il secondo.. la pagina dopo ci sono invece i test con la demo di Stalker credo. ;)
Questo è SOLO hl2:
http://www.xbitlabs.com/articles/video/display/nv40_29.html
Questo è SOLO stalker:
http://www.xbitlabs.com/articles/video/display/nv40_30.html
non c'è doom3 ;)
Thunder82
15-04-2004, 15:47
Originariamente inviato da Simon82
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/lockon_1600_candy.gif
LockOn e' veramente fuori dal mondo.. :sofico:
A 1024 senza filtri non è tanto meglio! :eek: :D
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/lockon_1024_pure.gif
Anonized
15-04-2004, 15:49
posibile che si tratti di doom III??
riporto il grafico
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/dx1sixth_1024_pure.gif
a parte la velocità folle, il gioco non doveva essere "bloccato" a 60 frame?
Originariamente inviato da Thunder82
Questo è SOLO hl2:
http://www.xbitlabs.com/articles/video/display/nv40_29.html
Questo è SOLO stalker:
http://www.xbitlabs.com/articles/video/display/nv40_30.html
non c'è doom3 ;)
Opss.. sorry.. mi sono sbagliato.. comunque 2 su 3 li ho azzeccati.. :sofico::mc::D
ShadowThrone
15-04-2004, 15:52
Originariamente inviato da Simon82
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/lockon_1600_candy.gif
LockOn e' veramente fuori dal mondo.. :sofico:
ci vuole nv70 per vederlo a 50 fps... :asd:
cmq da quello che vedo, se così sar. stalker sarà leggerissimo!!!
fa 100 fps con una 9800xt aa4x e af 16x :eek:
Originariamente inviato da Thunder82
A 1024 senza filtri non è tanto meglio! :eek: :D
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/lockon_1024_pure.gif
Eppure piu che un mare e un po' di paesaggio non ha.. dove vanno a finire i frames? :eek::D:sofico::D
Originariamente inviato da ShadowThrone
ci vuole nv70 per vederlo a 50 fps... :asd:
Gia.. altro che 3Dmark che gia sta' tirando le cuoie.. :D
ShadowThrone
15-04-2004, 15:55
Originariamente inviato da Simon82
Gia.. altro che 3Dmark che gia sta' tirando le cuoie.. :D
ma che tristezza... il 3dmark 2003 in bundle...
"hey come ti va doom 3?
"scatticchia.. però faccio mille mila punti al 3d mark 2003" :asd:
Originariamente inviato da ShadowThrone
ma che tristezza... il 3dmark 2003 in bundle...
"hey come ti va doom 3?
"scatticchia.. però faccio mille mila punti al 3d mark 2003" :asd:
"..ah si, che gioco e'?"
".. non so bene.. devo configurare bene il joystick perche' non e' tarato e va tutto da solo in giro per i livelli.. " :O
:sofico::sofico::D:D:D:D
ShadowThrone
15-04-2004, 15:58
Originariamente inviato da Simon82
"..ah si, che gioco e'?"
".. non so bene.. devo configurare bene il joystick perche' non e' tarato e va tutto da solo in giro per i livelli.. " :O
:sofico::sofico::D:D:D:D
:rotfl:
mio cuggino gioca ad hl2 con aa4x af 16x su un pentium 2!!!!!!!!
...
[burlone mode off]
Originariamente inviato da ShadowThrone
:rotfl:
mio cuggino gioca ad hl2 con aa4x af 16x su un pentium 2!!!!!!!!
...
[burlone mode off]
Mi cugggino invece gioca a Doom3 sul Game Gear.. ha rinominato Doom3.exe in Doom3.txt e ce la fatto stare su un dischetto da 3.5".. poi l'ha infilato nella fessura delle cartuccie della console e quando ha acceso e' partito il logo in 3d di ID.. e poi e' partito il gioco.. e si vede benissimo che usa lo stencil shadow della cpu Z80 della console.. :O
:sofico: ^ ennesimapotenza
:rotfl:
Si ma in Lock on credo che il problema sia Nella Cpu/Sistema più che nella Vga....
Da sempre i simulatori di volo vogliono Cpu ram in quantità e potenza esagerate.
Non è proprio il test adatto alle sk video.
Un pò come Comanche benchmark.....è sempre stato limitato dalla Cpu più che dalla sk video.
Un test attendibile sarebbe DoomIII per le OpenGL e HL2 o Stalker per le Directx9.
Ma se non escono mai...:rolleyes:
Thunder82
15-04-2004, 16:04
Originariamente inviato da ShadowThrone
ci vuole nv70 per vederlo a 50 fps... :asd:
cmq da quello che vedo, se così sar. stalker sarà leggerissimo!!!
fa 100 fps con una 9800xt aa4x e af 16x :eek:
La "demo" di stalker è una beta in cui mancano un'infinità di effetti grafici ;)
Thunder82
15-04-2004, 16:05
Originariamente inviato da R@nda
Si ma in Lock on credo che il problema sia Nella Cpu/Sistema più che nella Vga....
Da sempre i simulatori di volo vogliono Cpu ram in quantità e potenza esagerate.
Non è proprio il test adatto alle sk video.
Un pò come Comanche benchmark.....è sempre stato limitato dalla Cpu più che dalla sk video.
Un test attendibile sarebbe DoomIII per le OpenGL e HL2 o Stalker per le Directx9.
Ma se non escono mai...:rolleyes:
No no, lock on è proprio pesante per la vga, te lo assicuro!:)
Originariamente inviato da R@nda
Si ma in Lock on credo che il problema sia Nella Cpu/Sistema più che nella Vga....
Da sempre i simulatori di volo vogliono Cpu ram in quantità e potenza esagerate.
Non è proprio il test adatto alle sk video.
Un pò come Comanche benchmark.....è sempre stato limitato dalla Cpu più che dalla sk video.
Un test attendibile sarebbe DoomIII per le OpenGL e HL2 o Stalker per le Directx9.
Ma se non escono mai...:rolleyes:
Non dire cosi... ci potrai sempre giocare a 100 anni mentre mangierai il brodino... :O
"Nonno, nonnooooo.. e' uscito Doom3!!!!"
"Daavvveeroooo'... BIP..BIP..BIIIIIIIIIIIIIP... "
:sofico::rotfl::sofico:
Dark Schneider
15-04-2004, 16:11
Originariamente inviato da Simon82
Io sono sempre stato assolutamente contrario al progetto NV3x perche non ho mai ritenuto nessuno di questi chip concorrenziali ma sull'NV40 non vedo cosa ci sia di deludente. E' un mostro sotto tutti i punti di vista, sia di potenza che di qualita' visto che il passo sia in AF sia in AA e' stato indubbiamente grande. ;)
I frames sono tantissimi.. con i giochi futuri come D3 e HL2 potra solo dimostrare quanto spinge questa scheda. E' ovvio che se R420 la superera' saremo nuovamente da capo con la situazione simile a quella precendente ma sicuramente questo non si puo' equiparare nemmeno lontanamente all'NV30.
Esattamente. Cioè se magari R420 si rivelerà un po' più prestante di NV40, cmq non toglierà il fatto che NV40 sia un chip video vincente. La cosa importante è che un chip video che ha cambiato totalmente rotta rispetto a NV30...che già solo con i suoi 6 mesi di ritardo non aveva fatto presupporre a nulla di buono. Quindi l'obbiettivo principale è stato raggiunto. Poi se va poco più o poco meno rispetto al concorrente per me non ha granchè importanza. L'archtettura NV3x in determinate condizione andava in crisi. NV40 no...è questo è già un successo. Non m'importa se poi non si rivelarà il più veloce, basta che non mi dà quella sensazione che dava NV3x...ossia che anche se le prestazioni ci sono alla fin fine, la sensazione "qlc è andato storto", perchè in alcune condizione crolla.
-=Krynn=-
15-04-2004, 16:11
a quel punto se non muori di vecchiaia ci pensa D3 a scavarti la fossa:sofico: :sofico:
Bho...io Lock On non ce l'ho....mi fido di quello che dici.
Eppure anche se è bello graficamente non ci vedo sta magnificenza che manda in crisi una Vga del genere (anche quelle attuali a dire la verità)....non è che i piedi degli sviluppatori hanno fatto la loro buona parte?:D
Dark Schneider
15-04-2004, 16:20
Originariamente inviato da dario fgx
sarà ma io finchè non cambio procio aggiungo un'altro mezzo gb di ram.....tanto x dire devo fare almeno 30sec al superpi...la vga nn la cambio...anche se ora mi sento fotterre!!!!!!!!!!!!!!!!!!!tanto!!!!!!!!!!!!!!!!!!!!!!!!!!!!
9800rulez!
Fai bene!! Aumentare la ram è un ottima idea.;)
Cacchio alla fine anche Nvidia ha deciso di togliere le pipelines alla liscia. Non ho letto tutto il thread se no muoio, la Ultra ha frequenze di 400mhz per il core e la ram non ricordo, la liscia? Cmq il salto c'è stato, è indubbio, ma io credo che ora il problema venga dalle cpu e dai vari bus :)
Thunder82
15-04-2004, 16:28
Originariamente inviato da R@nda
Bho...io Lock On non ce l'ho....mi fido di quello che dici.
Eppure anche se è bello graficamente non ci vedo sta magnificenza che manda in crisi una Vga del genere (anche quelle attuali a dire la verità)....non è che i piedi degli sviluppatori hanno fatto la loro buona parte?:D
Non penso. :)
Quando cominci a mettere le riflessioni in pixel shader degli aerei, rifrazione del vetro all'interno degli abitacoli, heat haze in pixel shader per l'aria scaldata dai motori, effetti di scia, effetti atmosferici e texture in alta risoluzione è un bel mattoncino :D
Dark Schneider
15-04-2004, 16:28
Originariamente inviato da Thunder82
Questo è SOLO hl2:
http://www.xbitlabs.com/articles/video/display/nv40_29.html
Questo è SOLO stalker:
http://www.xbitlabs.com/articles/video/display/nv40_30.html
non c'è doom3 ;)
Uhm molto interessante, unica cosa:uff però volevo vedere HL2 con i filtri anche.
Thunder82
15-04-2004, 16:29
Originariamente inviato da Dark Schneider
Esattamente. Cioè se magari R420 si rivelerà un po' più prestante di NV40, cmq non toglierà il fatto che NV40 sia un chip video vincente. La cosa importante è che un chip video che ha cambiato totalmente rotta rispetto a NV30...che già solo con i suoi 6 mesi di ritardo non aveva fatto presupporre a nulla di buono. Quindi l'obbiettivo principale è stato raggiunto. Poi se va poco più o poco meno rispetto al concorrente per me non ha granchè importanza. L'archtettura NV3x in determinate condizione andava in crisi. NV40 no...è questo è già un successo. Non m'importa se poi non si rivelarà il più veloce, basta che non mi dà quella sensazione che dava NV3x...ossia che anche se le prestazioni ci sono alla fin fine, la sensazione "qlc è andato storto", perchè in alcune condizione crolla.
Quindi te dici che se anche R420 risulterà migliore di NV40, tu prenderai NV40?
Norbrek™
15-04-2004, 16:43
Originariamente inviato da Thunder82
Quindi te dici che se anche R420 risulterà migliore di NV40, tu prenderai NV40?
Bhè alla fine se i chip saranno alla pari uno prende quello che gli sta più simpatico, nel suo caso prenderebbe nv40, io per esempio prenderei r420, sempre premettendo che le prestazioni siano allineate, poi ovvio che se uno dei due è molto sotto allora la scelta intelligente ricadrebbe sull'altro.....
Originariamente inviato da Norbrek™
Bhè alla fine se i chip saranno alla pari uno prende quello che gli sta più simpatico, nel suo caso prenderebbe nv40, io per esempio prenderei r420, sempre premettendo che le prestazioni siano allineate, poi ovvio che se uno dei due è molto sotto allora la scelta intelligente ricadrebbe sull'altro.....
Anche io stavolta farò così.....ma dopo un bel pò che le due sk di punta saranno sul mercato (anche perchè vorrei le versioni Pcix)in modo da vedere come vanno con dei driver ottimizati.
Scusate raga ho letto adesso le ultime 20 pagine ed ero rimasto alla polemica sugli fp. Adesso leggo che il problema sarebbe di Far Cry, gioco bellisssimo ma ottimizzato da cani, visto anche che fanno uscire patch che aumentano problemi anzichè risolverli....cmq, volevo solo dire che sono disgustato dal vedere che metà di questo topic è stato usato per infangare questa nuova scheda Nvidia con piccoli pretesti che, si sapeva, non dipendevano dalla scheda.
Invece di essere contenti perchè quest'anno si prospetta una bella battaglia tra Nvidia e Ati e noi utenti avremo maggiori possibilità di scelta con schede che pochi o nessuno poteva immaginare essere cosi' potenti (sì, mi riferisco anche ad Ati che, nonostante non si sappia ancora nulla, sono sicuro tirerà fuori un grande mostriciattolo, forse anche superiore ad Nvidia!) molti qui sembra si aggrappino a tutto! pur di attaccare questa scheda che è a dir poco grandiosa, considerando da dove arrivava Nvidia.
P.S. Ecco cosa scrive Andrea Bai sulle news di oggi:
"...Nvidia è riuscita ad estrarre dal cilindro un prodotto di altissimo livello, caratterizzato da interessantissime prestazioni sia dal punto di vista strettamente "velocistico" ma anche e soprattutto per quanto concerne la qualità visiva.
Se la qualità fosse rimasta a livello o appena migliore del Nv38 avrebbe scritto questo?
:rolleyes:
ShadowThrone
15-04-2004, 16:54
Originariamente inviato da Thunder82
La "demo" di stalker è una beta in cui mancano un'infinità di effetti grafici ;)
ah ecco...
Dark Schneider
15-04-2004, 16:55
Originariamente inviato da Thunder82
Quindi te dici che se anche R420 risulterà migliore di NV40, tu prenderai NV40?
Dico che se risulterà un po' più veloce R420, non mi farò condizionare da qlc fps in più o in meno nello scegliere. Alla fine secondo me come prestazioni saranno lì. NV40 può essere anche un po' meno performante, l'importante è che l'architettura sia solida, cosa che di NV3x non si poteva dire.
Alla fine sai ci può stare che 6800 Ultra vada un po' meno della X800 XT, perchè alla fine bene o male come caratteristiche ci siamo..16 Pipeline,ecc. Ati può però sfruttare la tecnologia Low-K a suo vantaggio e alzare le frequenze per così dire "abbiamo il chip più veloce". Ma anche se avverrà ciò....NV40 sarà cmq da considerare come un chip video vincente e riuscito. Insomma non siamo più di fronte ad un chip video che ricalca NV3x!! Penso che saranno sullo stesso livello le due GPU. :)
Sono più in direzione NV40 lo dico tranquillamente, ma non tanto per questione di prestazioni nei giochi(per questo anche se va un po' meno mi va bene), ma per altri motivi che ho detto diverse volte nel topic dei rumors. :)
Riguardo le prestazioni ludice: se uno prende NV40 o R420..ha cmq fatto una scelta azzeccata. :)
Norbrek™
15-04-2004, 16:56
Originariamente inviato da Koji
Scusate raga ho letto adesso le ultime 20 pagine ed ero rimasto alla polemica sugli fp. Adesso leggo che il problema sarebbe di Far Cry, gioco bellisssimo ma ottimizzato da cani, visto anche che fanno uscire patch che aumentano problemi anzichè risolverli....cmq, volevo solo dire che sono disgustato dal vedere che metà di questo topic è stato usato per infangare questa nuova scheda Nvidia con piccoli pretesti che, si sapeva, non dipendevano dalla scheda.
Invece di essere contenti perchè quest'anno si prospetta una bella battaglia tra Nvidia e Ati e noi utenti avremo maggiori possibilità di scelta con schede che pochi o nessuno poteva immaginare essere cosi' potenti (sì, mi riferisco anche ad Ati che, nonostante non si sappia ancora nulla, sono sicuro tirerà fuori un grande mostriciattolo, forse anche superiore ad Nvidia!) molti qui sembra si aggrappino a tutto! pur di attaccare questa scheda che è a dir poco grandiosa, considerando da dove arrivava Nvidia.
P.S. Ecco cosa scrive Andrea Bai sulle news di oggi:
"...Nvidia è riuscita ad estrarre dal cilindro un prodotto di altissimo livello, caratterizzato da interessantissime prestazioni sia dal punto di vista strettamente "velocistico" ma anche e soprattutto per quanto concerne la qualità visiva.
Se la qualità fosse rimasta a livello o appena migliore del Nv38 avrebbe scritto questo?
:rolleyes:
Sono d'accordo in parte con te, perchè io sono dotato di un cervellino e le immagini le giudico guardando con i miei occhi, non in base a quello che dice andrea bai, per me può dire anche che sia fotorealistico, ma se io guardandole vedo delle palesi differenze credo ai miei occhi non a quello scritto dagli altri....che poi il problema sia legato a farcry ormai questo l'abbiamo capito, ma indipendentemente dalla fonte del problema dire che le immagini siano di qualità non sta nè in cielo nè in terra, per esempio il trilineare che è uguale ad un bilineare........aspettiamo driver migliori per giudicare.....per ora possiamo solo attenerci alle immagini che girano su internet e non sono di qualità....
Thunder82
15-04-2004, 17:00
Originariamente inviato da Norbrek™
Sono d'accordo in parte con te, perchè io sono dotato di un cervellino e le immagini le giudico guardando con i miei occhi, non in base a quello che dice andrea bai, per me può dire anche che sia fotorealistico, ma se io guardandole vedo delle palesi differenze credo ai miei occhi non a quello scritto dagli altri....che poi il problema sia legato a farcry ormai questo l'abbiamo capito, ma indipendentemente dalla fonte del problema dire che le immagini siano di qualità non sta nè in cielo nè in terra, per esempio il trilineare che è uguale ad un bilineare........aspettiamo driver migliori per giudicare.....per ora possiamo solo attenerci alle immagini che girano su internet e non sono di qualità....
quoto.
Norbrek™
15-04-2004, 17:01
Originariamente inviato da Thunder82
quoto.
;)
Originariamente inviato da Norbrek™
Sono d'accordo in parte con te, perchè io sono dotato di un cervellino e le immagini le giudico guardando con i miei occhi, non in base a quello che dice andrea bai, per me può dire anche che sia fotorealistico, ma se io guardandole vedo delle palesi differenze credo ai miei occhi non a quello scritto dagli altri....che poi il problema sia legato a farcry ormai questo l'abbiamo capito, ma indipendentemente dalla fonte del problema dire che le immagini siano di qualità non sta nè in cielo nè in terra, per esempio il trilineare che è uguale ad un bilineare........aspettiamo driver migliori per giudicare.....per ora possiamo solo attenerci alle immagini che girano su internet e non sono di qualità....
quoto
thegladiator
15-04-2004, 17:08
Originariamente inviato da Norbrek™
Sono d'accordo in parte con te, perchè io sono dotato di un cervellino e le immagini le giudico guardando con i miei occhi, non in base a quello che dice andrea bai, per me può dire anche che sia fotorealistico, ma se io guardandole vedo delle palesi differenze credo ai miei occhi non a quello scritto dagli altri....che poi il problema sia legato a farcry ormai questo l'abbiamo capito, ma indipendentemente dalla fonte del problema dire che le immagini siano di qualità non sta nè in cielo nè in terra, per esempio il trilineare che è uguale ad un bilineare........aspettiamo driver migliori per giudicare.....per ora possiamo solo attenerci alle immagini che girano su internet e non sono di qualità....
Quoto!!! :O
fabiannit
15-04-2004, 17:12
Originariamente inviato da Norbrek™
;)
:spam: :D :D
fabiannit
15-04-2004, 17:13
Raga, voi avete visto lo screen del risultato di 14000 nel 3dmark 2003??
io sono rimasto cosi:
:sbavvv:
thegladiator
15-04-2004, 17:16
Originariamente inviato da Legolas84
Dai non diciamop boiate..... L'AA è migliorato....
L'AF è come quello di ATi.... non è il meglio ma non fa nemmeno schifo.....
Allora, l'AA è MIGLIORATO, è vero, ma NON E' ALLO STESSO LIVELLO DI QUELLO ATI!! PUNTO E BASTA!! Guardate gli ingradimenti nella rece di Corsini, non c'è il "gamma correction" e SI VEDE!! La tecnica di calcolo è la medesima o molto simile ma questo ultimo particolare si nota, eccome se si nota! Quindi l'AA4x di Nvidia NON è ancora qualitativamente pari all'AA4x di Ati, anche se ci va vicino!! :rolleyes:
Per quanto riguarda l'AF il mancato utilizzo del trilinear fa sì che, come faceva notare qualcuno, ingame in un fps cammini e vedi la linea di demarcazione, dove finisce il filtro, che ti segue!! :muro:
No comment sul risultato del bench di Farcry!! :mad:
Manco avrebbero dovuto pubblicarlo!! Già in questo gioco la differenza con la 9800XT non era abissale, dopo aver visto la qualità del rendering con cui hanno eseguito il bench, beh, mi viene da ridere a pensare al drop di fps che si avrà quando la qualità sarà (?) di pari livello.... :rolleyes:
Vedremo..... ;)
thegladiator
15-04-2004, 17:16
Originariamente inviato da Legolas84
Dai non diciamop boiate..... L'AA è migliorato....
L'AF è come quello di ATi.... non è il meglio ma non fa nemmeno schifo.....
Allora, l'AA è MIGLIORATO, è vero, ma NON E' ALLO STESSO LIVELLO DI QUELLO ATI!! PUNTO E BASTA!! Guardate gli ingradimenti nella rece di Corsini, non c'è il "gamma correction" e SI VEDE!! La tecnica di calcolo è la medesima o molto simile ma questo ultimo particolare si nota, eccome se si nota! Quindi l'AA4x di Nvidia NON è ancora qualitativamente pari all'AA4x di Ati, anche se ci va vicino!! :rolleyes:
Per quanto riguarda l'AF il mancato utilizzo del trilinear fa sì che, come faceva notare qualcuno, ingame in un fps cammini e vedi la linea di demarcazione, dove finisce il filtro, che ti segue!! :muro:
No comment sul risultato del bench di Farcry!! :mad:
Manco avrebbero dovuto pubblicarlo!! Già in questo gioco la differenza con la 9800XT non era abissale, dopo aver visto la qualità del rendering con cui hanno eseguito il bench, beh, mi viene da ridere a pensare il drop di fps che si avrà quando la qualità sarà (?) di pari livello.... :rolleyes:
Vedremo..... ;)
Anonized
15-04-2004, 17:20
Originariamente inviato da thegladiator
Allora, l'AA è MIGLIORATO, è vero, ma NON E' ALLO STESSO LIVELLO DI QUELLO ATI!! PUNTO E BASTA!! Guardate gli ingradimenti nella rece di Corsini, non c'è il "gamma correction" e SI VEDE!! La tecnica di calcolo è la medesima o molto simile ma questo ultimo particolare si nota, eccome se si nota! Quindi l'AA4x di Nvidia NON è ancora qualitativamente pari all'AA4x di Ati, anche se ci va vicino!! :rolleyes:
Per quanto riguarda l'AF il mancato utilizzo del trilinear fa sì che, come faceva notare qualcuno, ingame in un fps cammini e vedi la linea di demarcazione, dove finisce il filtro, che ti segue!! :muro:
No comment sul risultato del bench di Farcry!! :mad:
Manco avrebbero dovuto pubblicarlo!! Già in questo gioco la differenza con la 9800XT non era abissale, dopo aver visto la qualità del rendering con cui hanno eseguito il bench, beh, mi viene da ridere a pensare il drop di fps che si avrà quando la qualità sarà (?) di pari livello.... :rolleyes:
Vedremo..... ;)
sono d'accordo con te ma stà un pò calmo...
;)
Originariamente inviato da Norbrek™
Sono d'accordo in parte con te, perchè io sono dotato di un cervellino e le immagini le giudico guardando con i miei occhi, non in base a quello che dice andrea bai, per me può dire anche che sia fotorealistico, ma se io guardandole vedo delle palesi differenze credo ai miei occhi non a quello scritto dagli altri....che poi il problema sia legato a farcry ormai questo l'abbiamo capito, ma indipendentemente dalla fonte del problema dire che le immagini siano di qualità non sta nè in cielo nè in terra, per esempio il trilineare che è uguale ad un bilineare........aspettiamo driver migliori per giudicare.....per ora possiamo solo attenerci alle immagini che girano su internet e non sono di qualità....
Innanzitutto io mi fido di chi ha potuto vedere coi propri occhi la scheda al lavoro, mentre vado più cauto su un'immagine riportata sul web. Lo stesso è valso per i primissimi bench sull'nv40 falsati, o le immagini di farcry in fp16. E poi il raffronto è con la precedente generazione di Nvidia, ci ha visto Nv40 all'opera credo abbia notato grossi miglioramente anche nella qualità.
Poi magari cmq la qualità sarà inferiore ad una Ati....brava Ati. ;)
Io invece sono molto soddisfatto,la qualità è buona la velocità pure.
Se la controparte Ati mostrerà una qualità superiore ma frame più bassi sceglierò l'Nv40
Se le prestazioni saranno uguali per le due schede e la qualità
leggermente superiore per le Ati....sceglierò ancora l'Nv40.
Se le schede Ati si dimostreranno di buon grado superiori alla soluzione Nv40 in ogni campo prenderò l'Ati.
Insomma lo dico apertamente una Ati nel mio case è l'ultima soluzione....proprio nel caso in cui si riveli un mostro.
Altrimenti non ne varrebbe la pena.
Originariamente inviato da R@nda
Io invece sono molto soddisfatto,la qualità è buona la velocità pure.
Se la controparte Ati mostrerà una qualità superiore ma frame più bassi sceglierò l'Nv40
Se le prestazioni saranno uguali per le due schede e la qualità
leggermente superiore per le Ati....sceglierò ancora l'Nv40.
Se le schede Ati si dimostreranno di buon grado superiori alla soluzione Nv40 in ogni campo prenderò l'Ati.
Insomma lo dico apertamente una Ati nel mio case è l'ultima soluzione....proprio nel caso in cui si riveli un mostro.
Altrimenti non ne varrebbe la pena.
Come mai tutta questa avversione per ATI?
Sembra quasi che tu ne abbia paura.
E non tirare fuori le cavolate dei driver che non vanno ecc...
Norbrek™
15-04-2004, 17:40
Originariamente inviato da R@nda
Io invece sono molto soddisfatto,la qualità è buona la velocità pure.
Se la controparte Ati mostrerà una qualità superiore ma frame più bassi sceglierò l'Nv40
Se le prestazioni saranno uguali per le due schede e la qualità
leggermente superiore per le Ati....sceglierò ancora l'Nv40.
Se le schede Ati si dimostreranno di buon grado superiori alla soluzione Nv40 in ogni campo prenderò l'Ati.
Insomma lo dico apertamente una Ati nel mio case è l'ultima soluzione....proprio nel caso in cui si riveli un mostro.
Altrimenti non ne varrebbe la pena.
Io invece l'esatto contrario, non mi frega una fa 200fps e l'altra 150, mi interessa che la qualità sia il massimo ottenibile...
poichè se gioco non devo rimanre stupito dal numerino che mostra fraps, ma dalla qualità dell'immagine...
Originariamente inviato da Norbrek™
Io invece l'esatto contrario, non mi frega una fa 200fps e l'altra 150, mi interessa che la qualità sia il massimo ottenibile...
si...se fanno rispettivamente 200 e 150fps nn te potrebbe fregare niente...
se ne fanno 60 e 50 in doom3 si però...;)
zanarduz
15-04-2004, 17:42
Originariamente inviato da R@nda
Io invece sono molto soddisfatto,la qualità è buona la velocità pure.
Se la controparte Ati mostrerà una qualità superiore ma frame più bassi sceglierò l'Nv40
Se le prestazioni saranno uguali per le due schede e la qualità
leggermente superiore per le Ati....sceglierò ancora l'Nv40.
Se le schede Ati si dimostreranno di buon grado superiori alla soluzione Nv40 in ogni campo prenderò l'Ati.
Insomma lo dico apertamente una Ati nel mio case è l'ultima soluzione....proprio nel caso in cui si riveli un mostro.
Altrimenti non ne varrebbe la pena.
Quoto invertendo tutto! :)
Il mondo è bello perché è vario ;)
Bye,
zan.
Un'altra cosa......
Una casa che per far ben figurare i nuovi prodotti interviene sui driver per rendere i vecchi meno performanti,merita solo disprezzo.
Sia per questo,sia per le continue balle che ha tirato fuori da quando è uscito l'NV3X.
Originariamente inviato da R@nda
Insomma lo dico apertamente una Ati nel mio case è l'ultima soluzione....proprio nel caso in cui si riveli un mostro.
Altrimenti non ne varrebbe la pena.
... perché mai?! :confused:
...se la r420 sarà deludente io non avrò remore a scegliere Nvidia e viceversa...
Lord style
15-04-2004, 17:42
http://news.hwupgrade.it/immagini/15-04-2004_nvmodels.jpg
A quanto pare avevo ragione ;) , le mie ipotesi erono fondate e sono state confermate.
La 6800 liscia ha 12 pipelines ;) e ha anche 128MB di memoria in meno: ecco perchè ha solo un molex di alimentazione. Di fatto è stata castrata rispetto alla versione Ultra.
Ora chi diceva che "le specifiche date dal sito xxx pur con un giorno in anticipo alla presentazione ufficiale, possono considerarsi ufficiali" deve cospargersi il capo di cenere e meditare.
C'è chi riusciva dalla foto a misurare visivamente l'area del chip e a trovarla uguale all'area della 6800Ultra. :rolleyes:
C'è chi diceva che la tensione maggiore sul chip andava a richiedere l'uso di un secondo molex :rolleyes:
Dark Schneider
15-04-2004, 17:45
Originariamente inviato da Lord style
http://news.hwupgrade.it/immagini/15-04-2004_nvmodels.jpg
A quanto pare avevo ragione ;) , le mie ipotesi erono fondate e sono state confermate.
La 6800 liscia ha 12 pipelines ;) e ha anche 128MB di memoria in meno: ecco perchè ha solo un molex di alimentazione. Di fatto è stata castrata rispetto alla versione Ultra.
Ora chi diceva che "le specifiche date dal sito xxx pur con un giorno in anticipo alla presentazione ufficiale, possono considerarsi ufficiali" deve cospargersi il capo di cenere e meditare.
C'è chi riusciva dalla foto a misurare visivamente l'area del chip e a trovarla uguale all'area della 6800Ultra. :rolleyes:
C'è chi diceva che la tensione maggiore sul chip andava a richiedere l'uso di un secondo molex :rolleyes:
Ecco perchè la liscia non costerà tanto. Addirittura 128 Mb di DDR1. Probabilmente cmq uscirà anche una versione da 256 MB.
Originariamente inviato da kikbond
si...se fanno rispettivamente 200 e 150fps nn te potrebbe fregare niente...
se ne fanno 60 e 50 in doom3 si però...;)
Esatto a me interessa la riserva di potenza che ha una scheda....poichè la qualità dell'Nv40 è assolutamente buona,non mi cambia niente sapere che l'AA 4x di Ati è leggermente migliore
dell'AA 4x di Nvidia.
Perchè se la qualità è già buona è meglio avere 20 fps in + che in meno.
Sembra che state parlando di un aborto di scheda da come parlate....ma vi ripigliate un secondo o no?
thegladiator
15-04-2004, 17:49
Originariamente inviato da Norbrek™
Io invece l'esatto contrario, non mi frega una fa 200fps e l'altra 150, mi interessa che la qualità sia il massimo ottenibile...
poichè se gioco non devo rimanre stupito dal numerino che mostra fraps, ma dalla qualità dell'immagine...
Quoto, straquoto, e ancora ri-stra-quoto!!!!!!! :D
La gente non capisce che cio che DEVE STUPIRE E' LA QUALITA' GRAFICA!!!
NON GLI FPS!!!!!! :muro:
PS: parto dal presupposto che una "base" di fps sufficienti ci siano!! ;)
Originariamente inviato da Raven
... perché mai?! :confused:
...se la r420 sarà deludente io non avrò remore a scegliere Nvidia e viceversa...
io scelgo Ati solo se sarà superiore in ogni cosa.
Ho le mie ragioni....che sono mie.
Originariamente inviato da R@nda
io scelgo Ati solo se sarà superiore in ogni cosa.
Ho le mie ragioni....che sono mie.
:mc:
nn mi è mai interessato il produttore di una sk.video....
se nv40 sarà + veloce dell'r420 allora sceglierò nvidia...a parità di prestazioni prenderò cmq nvidia...
se l'r420 andrà meglio dell'nv40 semplicemente sceglierò il primo...nn mi sembra tanto difficile no???
per quanto riguarda la qualità..beh..nn riesco a notare le minuscole differenze che voi notate quindi IMHO a meno che la qualità sia davvero così diversa tra le schede nn mi porrò il problema...
nn depongo nè a favore di ati nè di nvidia...ora come ora vedendo quello che sono 9700/9800 avrei cambiato la mia 4200 per una di queste due....
Norbrek™
15-04-2004, 17:52
Originariamente inviato da Lord style
http://news.hwupgrade.it/immagini/15-04-2004_nvmodels.jpg
A quanto pare avevo ragione ;) , le mie ipotesi erono fondate e sono state confermate.
La 6800 liscia ha 12 pipelines ;) e ha anche 128MB di memoria in meno: ecco perchè ha solo un molex di alimentazione. Di fatto è stata castrata rispetto alla versione Ultra.
Ora chi diceva che "le specifiche date dal sito xxx pur con un giorno in anticipo alla presentazione ufficiale, possono considerarsi ufficiali" deve cospargersi il capo di cenere e meditare.
C'è chi riusciva dalla foto a misurare visivamente l'area del chip e a trovarla uguale all'area della 6800Ultra. :rolleyes:
C'è chi diceva che la tensione maggiore sul chip andava a richiedere l'uso di un secondo molex :rolleyes:
Alcune marche venderanno la 6800liscia con la vpu della ultra e 128mb di ram....
I due molex servono solo per evitare interferenze caricando meno i due stadi di alimentazione....
Lord style
15-04-2004, 17:53
Originariamente inviato da Dark Schneider
Ecco perchè la liscia non costerà tanto. Addirittura 128 Mb di DDR1. Probabilmente cmq uscirà anche una versione da 256 MB.
Confermo, vale i 300$ che costa. Forse costa anche troppo. :)
Comunque c'è da farti i complimenti: sia tu che Raven in quell'occasione prendeste per fondata la mia ipotesi, e con umiltà rimandaste il dibattito ad info ufficiali.
Altri, come ben ricordi, consideravano ufficiali notizie che non lo erano affatto, nonostante pubblicate da siti autorevoli. Ed erano convinti della loro ipotesi, al punto tale di considerarle delle tesi. :O
Originariamente inviato da rob-roy
:mc:
Ma per favore....evidente che tu di schede ne monti si e no una quando cambi la tua per comprare quella nuova.
Senza sapere come stanno le cose.....altro che leggende.
Norbrek™
15-04-2004, 17:55
Originariamente inviato da R@nda
Sembra che state parlando di un aborto di scheda da come parlate....ma vi ripigliate un secondo o no?
Non c'è niente da ripigliarsi io giudico gli screen che ci sono ora e la qualità non mi paice affatto, se domani usciranno screen veramente di qualità perchè i driver saranno migliorati allora sarò pronto a dire che nv40 è una scheda fantastica, ma ora come ora l'unica cosa che posso dire è si le prestazioni sono ottime ma la qualità non mi convince....
Originariamente inviato da R@nda
io scelgo Ati solo se sarà superiore in ogni cosa.
Ho le mie ragioni....che sono mie.
ok... non era certo mia intenzione farti cambiare idea... ;) Ognuno è libero di pensarla come vuole...
ps: BBBBOOOOOOONI!
Norbrek™
15-04-2004, 17:56
Originariamente inviato da R@nda
Ma per favore....evidente che tu di schede ne monti si e no una quando cambi la tua per comprare quella nuova.
Senza sapere come stanno le cose.....altro che leggende.
Dai non roviniamo l'atmosfera;)
Originariamente inviato da Raven
ok... non era certo mia intenzione farti cambiare idea... ;) Ognuno è libero di pensarla come vuole...
ps: BBBBOOOOOOONI!
Ah io sto bbono.....ma non mi piacciono i commenti ottusi.
Con Norbrek almeno si ragiona....e ci si diverte
;)
Originariamente inviato da R@nda
Ma per favore....evidente che tu di schede ne monti si e no una quando cambi la tua per comprare quella nuova.
Senza sapere come stanno le cose.....altro che leggende.
Ma scusa.
Ti ho chiesto perchè non compreresti una ATI e non hai risposto.
O meglio,hai detto che "hai i tuoi motivi",non sò,sembra che nvidia sia come una fede.
E non continuare con la storiella che tu monti schede per lavoro,vista la poca obbiettività,mi sà che non sai neanche di cosa parli.
Poi accusi mè di non sapere le cose!
Ho avuto quasi tutte le nvidia fino alla TI4600,dopo alla cavolata NV30 ho preferito cambiare.
Norbrek™
15-04-2004, 17:57
Originariamente inviato da R@nda
Con Norbrek almeno si ragiona....e ci si diverte
;)
:cincin: :mano: :ubriachi: :sofico:
Dark Schneider
15-04-2004, 17:58
Originariamente inviato da rob-roy
Un'altra cosa......
Una casa che per far ben figurare i nuovi prodotti interviene sui driver per rendere i vecchi meno performanti,merita solo disprezzo.
Sia per questo,sia per le continue balle che ha tirato fuori da quando è uscito l'NV3X.
Il bello è che dici ciò senza considerare il fatto che in passato anche altri produttori "truccavano", nVidia non è stata mica l'unica. Tutti hanno "barato", a volte lo fa uno a volte lo fa un altro. Con la sola differenza che una volta la gente giocava di più e guardava meno ai bench. Adesso c'è gente che si mette a parlare ancora di ste cose...
Siccome di questo ridicolo discorso (quello dei "trucchi") ormai se ne hanno le scatole piene... non mi rimetto a riparlarne ancora. Non mi importa nemmeno più ripotare vecchi esempi...anche di anni e anni fa.
Siccome questo è il topic ufficiale della GeForce 6800....si parla della GeForce 6800.......non di argomenti stupidini e ridicoli. Quindi tornare IN topic PER FAVORE. :) Per i "trucchetti" chi è interessato a discuterne per la 100esima volta può aprire un topic apposito. :)
P.s. non è na cosa contro di te...è più che altro un discorso generale per far in modo che la discussione non cambi i binari. ;)
Bye
OverClocK79®
15-04-2004, 17:59
Originariamente inviato da Lord style
C'è chi riusciva dalla foto a misurare visivamente l'area del chip e a trovarla uguale all'area della 6800Ultra. :rolleyes:
bhe si è uguale IMHO solo castrate da BIOS o tramite qlk resistenza credo
di certo nn si mettono a fare 2 chip con 2 processi produttivi diversi sempre IMHO
BYEZZZZZZZZZZZZZZ
Dark Schneider
15-04-2004, 18:00
Originariamente inviato da OverClocK79®
bhe si è uguale IMHO solo castrate da BIOS o tramite qlk resistenza credo
di certo nn si mettono a fare 2 chip con 2 processi produttivi diversi sempre IMHO
BYEZZZZZZZZZZZZZZ
Può anche essere.
Ma non rispondo perchè si sfocia sempre nelle solite cose stradette...e non mi va.
La storiella del lavoro... ma se lo faccio per lavoro non è colpa mia:D
Ma sai quanta a quante gente devo risolvere i problemi più disparati?
Non ti preoccupare che se dico qualcosa lo faccio perchè sò cosa dico...altrimenti sto zitto....non sono uno stupido.
Non è fede per Nvidia ma figurati.....
Ho già detto....se l'Ati si domostrerà superiore in ogni cosa prenderò l'Ati.
Altrimenti nisba.
Dark Schneider
15-04-2004, 18:08
Ragà per aiutarvi nel capirvi tra voi voglio quotare di nuovo un intervento di ATi7500 che ritengo veritiero e giusto.
Originariamente inviato da ATi7500
vedi, come detto nella recensione d corsini&vifani, credo ke l'obiettivo d nvidia era fornire il miglior supporto possibile ai programmatori presenti e futuri..per far questo ovviamente s è dovuta concentrare sulle prestazioni MOSTRUOSE ke alla fine la skeda offre..in qst modo garantirà un margine molto grande per la vita reale della skeda...ovviamente senza contare il suo rifacimento NV45
ATi a mio avviso fa del suo punto d forza la qualità visiva...cerca sempre "compromessi" ke alla fin fine soddisfano molto l'utente finale (tra cui me, a me piace molto d più qst filosofia ke vedo più vicina al mondo reale)
ragà ...questione d punti d vista...c'è a ki piace l'innovazione a 360° e a ki piace quella "mirata" ;)
saranno entrambe ottime piattaforme R420 e NV40 alla fine
de gustibus non disputandum est ;)
bYeZ!
Lord style
15-04-2004, 18:09
Originariamente inviato da OverClocK79®
bhe si è uguale IMHO solo castrate da BIOS o tramite qlk resistenza credo
di certo nn si mettono a fare 2 chip con 2 processi produttivi diversi sempre IMHO
BYEZZZZZZZZZZZZZZ
Può anche essere, certo.
Di fatto quelle pipeline non funzioneranno e quindi non assorbiranno corrente. Di fatto è come se non ci fossero.
Quello che bisogna capire è che è sbagliato ragionare in questo modo: "sembrano uguali, da ciò segue, che saranno uguali". Questo modo di ragionare è stato brutalmente smentito. :)
Dark Schneider
15-04-2004, 18:12
Io personalmente come detto nell'altra pagina sono più verso la 6800, perchè ho altre motivazioni oltre che a quelle ludiche che mi fanno propendere verso la Gpu nVidia. Se NV40 va un po' meno non fa niente. :)
Dark Schneider
15-04-2004, 18:16
Originariamente inviato da Lord style
Può anche essere, certo.
Di fatto quelle pipeline non funzioneranno e quindi non assorbiranno corrente. Di fatto è come se non ci fossero.
Quello che bisogna capire è che è sbagliato ragionare in questo modo: "sembrano uguali, da ciò segue, che saranno uguali". Questo modo di ragionare è stato brutalmente smentito. :)
Diciamo che è in passato non si era mai fatto ciò. E' magari è questo che ha fatto pensare che non sarebbe stato diverso nemmeno questa volta.
E' anche vero che nVidia solo quest'anno ha aumentato le Pipeline. E' da fine 1999 con la GeForce 256 che le Pipeline erano quattro.
Confermo, la qualità grafica deve essere assolutamente PERFETTA:sofico:
se non fosse così le schede video a cosa servono?allora possiamo tornare a giocare a pac-man?:D
Per quanto ne so gli occhi riescono a catturare una 30 di immagini al secondo...di conseguenza penso benissimo che 60 o 70 max sono già assai:sofico: ...e poi se i monitor non superano i 100hz a che paletta servono 200fps???:D
ovviamente intendo tutto settato al max:D
Dark Schneider
15-04-2004, 18:38
GeForce 6800 Ultra anche da PNY
Anche PNY annuncia la propria soluzione basata su NV40. Si tratta della nuova scheda video Verto 6800 Ultra, dotata di 256MB di memoria DDR3 con interfaccia a 256-bit; come tutte le soluzioni basate su questa nuova GPU, la scheda supporta la programmazione Pixel e Vertex Shader 3.0. La scheda supporta inoltre funzionalità VIVO (Video-In Video-Out)
http://news.hwupgrade.it/immagini/15-04-2004_vertonv40.jpg
La scheda Verto 6800 Ultra sarà commercializzata in basse quantità a partire dal mese di maggio per poi raggiungere nel successivo mese di giugno le consegne in volumi. Il prezzo di vendita, IVA inclusa, dovrebbe aggirarsi attorno ai 549 Euro.
549 euro la 6800 Ultra della PNY e con le funzioni VIVo.
Sinceramente pensavo di più...pensavo roba di 600 euro e più.
Magari la POV riesce a piazzarla a 500 inzialmente.
halduemilauno
15-04-2004, 18:38
ciao.
collegandomi alla news apparsa su questo sito. quelle viste finora sono presample. qullo definitivo sempre parlando di sample è questo.
http://news.hwupgrade.it/immagini/15-04-2004_vertonv40.jpg
Originariamente inviato da R@nda
Io invece sono molto soddisfatto,la qualità è buona la velocità pure.
Se la controparte Ati mostrerà una qualità superiore ma frame più bassi sceglierò l'Nv40
Se le prestazioni saranno uguali per le due schede e la qualità
leggermente superiore per le Ati....sceglierò ancora l'Nv40.
Se le schede Ati si dimostreranno di buon grado superiori alla soluzione Nv40 in ogni campo prenderò l'Ati.
Insomma lo dico apertamente una Ati nel mio case è l'ultima soluzione....proprio nel caso in cui si riveli un mostro.
Altrimenti non ne varrebbe la pena.
Di che marca è la mortadella, io ne vado matto potrei averne 100 grammi devo fare merendina pomeridiana
:D :D :D :D
Lord style
15-04-2004, 18:48
Originariamente inviato da Dark Schneider
Io personalmente come detto nell'altra pagina sono più verso la 6800, perchè ho altre motivazioni oltre che a quelle ludiche che mi fanno propendere verso la Gpu nVidia. Se NV40 va un po' meno non fa niente. :)
L'amaro in bocca rimane però. :O
Una liscia che ha solo frequanze più basse rispetto ad una ultra era un sogno per molti, me compreso. :O
La scheda gista è la versione Ultra al prezzo più basso possibile: anche con clock delle memorie più basso rispetto allo standard e nussun fronzolo in bundle.
Vedremo P.O.V. e XFX cosa metteranno in commercio.
La 6800 liscia non mi convince molto: per avere una qualità buona negli shader devi andare a FP32: se già una ultra avrà difficoltà ad elaborarli ad elevato frame rate (Fek l'ha anticipato), figuriamoci una 6800liscia. :(
Questo è il motivo per il quale non considero attualmente appetibile una 6800 liscia.
io invece aspetto un mesetto e poi mi prendo una 9700pro di qualcuno che la cambia per sta 6800 :D
150€ e via
TheDarkAngel
15-04-2004, 18:52
Originariamente inviato da checo
io invece aspetto un mesetto e poi mi prendo una 9700pro di qualcuno che la cambia per sta 6800 :D
150€ e via
una 9800liscia non ti potrebbe interessare?
Fire Fox II
15-04-2004, 18:52
Mah...
Qui tutti parlano del prossimo acquisto che sarà X800 XT o 6800 ultra, e vi "scannate" su quella che avrà la miglior resa grafica, fps etc...
Beati voi che non avete problema di soldi :cry:
La mia scelta invece dovrà ricadere su quella che avrà il miglior rapporto prezzo/prestazioni fra le due schede liscie di fascia alta... :)
Quindi X800pro o POV 6800...
Spero tanto che una delle due avrà le 4 pipe abilitabili... :oink:
Byez :)
Originariamente inviato da TheDarkAngel
una 9800liscia non ti potrebbe interessare?
certo dipende dal prezzo però :D
Originariamente inviato da IS_Fox_
Di che marca è la mortadella, io ne vado matto potrei averne 100 grammi devo fare merendina pomeridiana
:D :D :D :D
Ormai è ora di cena:O
Semmai una bella pastasciuttona:D
Oltre al discorso qualità/prestazioni....non dimentichiamo anche il prezzo.....non è che devo dissanguarmi,tra le due conterà molto anche questo.
TheDarkAngel
15-04-2004, 18:53
Originariamente inviato da checo
certo dipende dal prezzo però :D
pochino più dei 150€ e sarà tua :D
Dark Schneider
15-04-2004, 18:55
Originariamente inviato da Lord style
L'amaro in bocca rimane però. :O
Una liscia che ha solo frequanze più basse rispetto ad una ultra era un sogno per molti, me compreso. :O
La scheda gista è la versione Ultra al prezzo più basso possibile: anche con clock delle memorie più basso rispetto allo standard e nussun fronzolo in bundle.
Vedremo P.O.V. e XFX cosa metteranno in commercio.
La 6800 liscia non mi convince molto: per avere una qualità buona negli shader devi andare a FP32: se già una ultra avrà difficoltà ad elaborarli (Fek l'ha anticipato), figuriamoci una 6800liscia. :(
Questo è il motivo per il quale non considero attualmente appetibile una 6800 liscia.
Lord penso che le difficoltà si avranno bene o male quando si useranno gli shader 3.0......da come s'è potuto vedere dai primi test l'fp32 abbinato con gli shader 2.0 le prestazioni sono ok, il calo c'è ma è poco, pare rulla bene insomma.
La 6800 liscia non è male...però si anche a me ha lasciato l'amaro in bocca il fatto che sia castrata. Penso che cmq costerà poco...più di 300 euro no...se è la versione da 128 MB con DDR1 non può superare un simile prezzo. Personalmente a chi non può spendere molto e stava pensando a 9800 pro o 5900 XT...consiglio di fare un piccolo sforzo e prendersi la 6800 liscia che cmq con le sue 12 Pipeline sarà un prodotto cmq superiore alle attuali schede di fascia alta.
Originariamente inviato da TheDarkAngel
pochino più dei 150€ e sarà tua :D
151? :D
cmq non ho fretta di sicuro la mia prossima scheda non sarà un nv40 , ne tantomeno una r420.
Originariamente inviato da thegladiator
Per quanto riguarda l'AF il mancato utilizzo del trilinear fa sì che, come faceva notare qualcuno, ingame in un fps cammini e vedi la linea di demarcazione, dove finisce il filtro, che ti segue!! :muro:
Si vede che non leggi bene le recensioni oppure ne leggi poche.;)
Dal pannello dei driver si possono selezionare varie combinazioni: avere un aniso di tipo adaptive come quello ATi o a 360° come quello della serie FX; e si può far lavorare l'aniso sia con il bilinear che con il trilinear. :)
TheDarkAngel
15-04-2004, 18:57
Originariamente inviato da Dark Schneider
La 6800 liscia non è male...però si anche a me ha lasciato l'amaro in bocca il fatto che sia castrata. Penso che cmq costerà poco...più di 300 euro no...se è la versione da 128 MB con DDR1 non può superare un simile prezzo. Personalmente a chi non può spendere molto e stava pensando a 9800 pro o 5900 XT...consiglio di fare un piccolo sforzo e prendersi la 6800 liscia che cmq con le sue 12 Pipeline sarà un prodotto cmq superiore alle attuali schede di fascia alta.
superiore si ma varrà il prezzo a cui la venderanno?
anche se per logica sarà venduta a 399$.....
le attuali schede video di fascia alta saranno vendute sul mercatino a ben sotto la metà dei 399$
dico 399$ perchè questo è il costo che danno ultimamente alle soluzioni sotto le varie ultra o xt....
TheDarkAngel
15-04-2004, 18:58
Originariamente inviato da checo
151? :D
cmq non ho fretta di sicuro la mia prossima scheda non sarà un nv40 , ne tantomeno una r420.
non ti preoccupare nemmeno io :D
aspetto r420... gli do tempo di essere sugli scaffali e poi la venderò pure la 9800 :D
riguardo la 6800 liscia che mi sembra più alla mia portata si sono già effettuati dei test?
E quanto costerà inizialmente???
Gustavo Dandolo
15-04-2004, 19:08
Nelle pagine precedenti ho letto commenti faziosi, commenti più dettati dalla simpatia verso una marca che da dati alla mano.
Ecco i miei dati, sperando che verranno presi come partenza per una discussione basata sull'oggettività:
Prestazioni: ancora non si conoscono le reali potenzialità di questa scheda, sembrano molto elevate per lo standard attuale, ma francamente sono fruibili soltanto da chi utilizza alte risoluzioni e filtri a manetta, con un fattore AA massimo di 4x, perchè cercare di utilizzare valori più alti significa rendere un titolo ingiocabile. Sempre riguardo i driver c'è un grande margine di miglioramento auspicabile vista la nuova architettura.
Driver: non voletemene ma c'è una situazione diametralmente opposta alle soluzioni della casa canadese; sviluppati in maniera migliore, maggior supporto a sistemi operativi alternativi a quello di Microsoft; ma son sempre stati oggetto di critiche per i vari cheat che hanno avuto come obiettivo primario ingannare i benchmark. A chi invece non interessa fare loop di 3DGiuseppe, ma giocare troverà ottimo supporto.
Da qualche mese invece i driver migliori son realizzati da ATi, che a cadenza mensile ne rilascia di nuovi.
Qualità video: se dovesse rimanere questa, ovvero che i nuovi driver non dovessero migliorare le cose, è palesemente inferiore alle contropartite presentate negli ultimi anni da ATi. Questo non significa affatto che è pessima, anzi è migliorata rispetto alla precedente generazione.
Funzionalità multimediali: ha un ritardo tecnologico rispetto alle altre (ATi, Matrox in primis), come funzionalità vere e proprie, acquisizione video, montaggi e come qualità nell'uscita tv. Oggettivamente la qualità delle due citate prima son una spanna avanti. Questa nuova generazione non implementa più chipset di terze parti per gestire questo (per me) importante aspetto, ma relega le operazioni alla gpu. Sempre alla gpu relega l'accelerazione e la decodifica. Dalla preview di Tom's si è visto, che invece di diminuire la percentuale di utilizzo della cpu durante l'accelerazione, è aumentata; la risposta ufficiale di nVIDIA è stata che i driver non erano ancora maturi (in effetti i ForceWare rel. 60 sono da considerarsi delle beta).
Dark Schneider
15-04-2004, 19:10
Originariamente inviato da checo
io invece aspetto un mesetto e poi mi prendo una 9700pro di qualcuno che la cambia per sta 6800 :D
150€ e via
Beh anche la 9800 liscia non è male e poi la porti a Pro.;)
Dark Schneider
15-04-2004, 19:18
Originariamente inviato da TheDarkAngel
superiore si ma varrà il prezzo a cui la venderanno?
anche se per logica sarà venduta a 399$.....
le attuali schede video di fascia alta saranno vendute sul mercatino a ben sotto la metà dei 399$
dico 399$ perchè questo è il costo che danno ultimamente alle soluzioni sotto le varie ultra o xt....
Beh oddio io dico che le lisce...quelle da 128 MB DDR1 non costeranno sopra a 300 euro. Modelli da 256 MB,ecc. penso di più.
Ma non possono piazzare una scheda da 128 MB DDR1 (quantitativo che oggi montano anche schede da 60 euro per dire) ad un prezzo eccessivo. Sopra 300 euro io personalmente lo riterrei una ladrata bella e buona. Per quanto nuova possa essere la nuova GPU ha pur sempre 128 MB di DDR1.
Se il prezzo quindi è buono e non esagerato penso che una scheda con 12 Pipeline a chi non vuole spendere tanto convieni più di 9800 e 5900xt.
Gustavo Dandolo
15-04-2004, 19:20
Originariamente inviato da Dark Schneider
Per quanto nuova possa essere la nuova GPU ha pur sempre 128 MB di DDR1.
Embè? vuoi dire che ci sarà a breve qualche titolo che utilizzerà un quantitativo maggiore?
Gustavo.....alla faccia dell'oggettività,che poi sarebbe obiettività.
Concordo solo sul fatto che i driver 60.xx sono beta,e che la qualità può migliorare ancora grazie ai driver...ma che se rimane così all'80% sarà leggermente inferiore alla soluzione Ati,pur rimanendo buona.
Il resto preferisco non commentarlo......anche perchè è presto per tirare le somme su qualsiasi cosa.
Tranne appunto che i driver sono beta.
KenMasters
15-04-2004, 19:24
Originariamente inviato da Dark Schneider
Beh oddio io dico che le lisce...quelle da 128 MB DDR1 non costeranno sopra a 300 euro. Modelli da 256 MB,ecc. penso di più.
Ma non possono piazzare una scheda da 128 MB DDR1 (quantitativo che oggi montano anche schede da 60 euro per dire) ad un prezzo eccessivo. Sopra 300 euro io personalmente lo riterrei una ladrata bella e buona. Per quanto nuova possa essere la nuova GPU ha pur sempre 128 MB di DDR1.
Se il prezzo quindi è buono e non esagerato penso che una scheda con 12 Pipeline a chi non vuole spendere tanto convieni più di 9800 e 5900xt.
guarda che sul prezzo di una scheda video influisce al 90% il chip che monta e non le mem. Considera poi che le schede di fascia alta montano mem molto più veloci (e quindi piu costose) di quelle di fascia bassa ;)
TheDarkAngel
15-04-2004, 19:26
Originariamente inviato da Dark Schneider
Beh anche la 9800 liscia non è male e poi la porti a Pro.;)
questa fa i 430/440mhz ad aria ^^
Dark Schneider
15-04-2004, 19:27
Originariamente inviato da Gustavo Dandolo
Nelle pagine precedenti ho letto commenti faziosi, commenti più dettati dalla simpatia verso una marca che da dati alla mano.
Ecco i miei dati, sperando che verranno presi come partenza per una discussione basata sull'oggettività:
Prestazioni: ancora non si conoscono le reali potenzialità di questa scheda, sembrano molto elevate per lo standard attuale, ma francamente sono fruibili soltanto da chi utilizza alte risoluzioni e filtri a manetta, con un fattore AA massimo di 4x, perchè cercare di utilizzare valori più alti significa rendere un titolo ingiocabile. Sempre riguardo i driver c'è un grande margine di miglioramento auspicabile vista la nuova architettura.
Driver: non voletemene ma c'è una situazione diametralmente opposta alle soluzioni della casa canadese; sviluppati in maniera migliore, maggior supporto a sistemi operativi alternativi a quello di Microsoft; ma son sempre stati oggetto di critiche per i vari cheat che hanno avuto come obiettivo primario ingannare i benchmark. A chi invece non interessa fare loop di 3DGiuseppe, ma giocare troverà ottimo supporto.
Da qualche mese invece i driver migliori son realizzati da ATi, che a cadenza mensile ne rilascia di nuovi.
Qualità video: se dovesse rimanere questa, ovvero che i nuovi driver non dovessero migliorare le cose, è palesemente inferiore alle contropartite presentate negli ultimi anni da ATi. Questo non significa affatto che è pessima, anzi è migliorata rispetto alla precedente generazione.
Funzionalità multimediali: ha un ritardo tecnologico rispetto alle altre (ATi, Matrox in primis), come funzionalità vere e proprie, acquisizione video, montaggi e come qualità nell'uscita tv. Oggettivamente la qualità delle due citate prima son una spanna avanti. Questa nuova generazione non implementa più chipset di terze parti per gestire questo (per me) importante aspetto, ma relega le operazioni alla gpu. Sempre alla gpu relega l'accelerazione e la decodifica. Dalla preview di Tom's si è visto, che invece di diminuire la percentuale di utilizzo della cpu durante l'accelerazione, è aumentata; la risposta ufficiale di nVIDIA è stata che i driver non erano ancora maturi (in effetti i ForceWare rel. 60 sono da considerarsi delle beta).
In certe cose sono daccordo...in altre no. Tanto per fare un esempio le funzionalità multimediali: Matrox ok vabbè la conosciamo(e la conosco bene). Però non è vero che le nVidia hanno un uscita tv non buona. Le ultime nVidia non sono male. E' per di più penso che la funzionalità di accellerazione e decodifica ( che a me interessa) è vero che sia una questione di drivers se non funziona bene allo stato attuale. Non l'avrebbero introdotta sennò questa novità. Probabilmente per quando usciranno i primi WHQL già avranno risolto.
Insomma non sono sorpreso se ora come ora la scheda non renda al meglio....parlo in qls ambito. Siamo agli inizi.
TheDarkAngel
15-04-2004, 19:28
Originariamente inviato da Dark Schneider
Beh oddio io dico che le lisce...quelle da 128 MB DDR1 non costeranno sopra a 300 euro. Modelli da 256 MB,ecc. penso di più.
Ma non possono piazzare una scheda da 128 MB DDR1 (quantitativo che oggi montano anche schede da 60 euro per dire) ad un prezzo eccessivo. Sopra 300 euro io personalmente lo riterrei una ladrata bella e buona. Per quanto nuova possa essere la nuova GPU ha pur sempre 128 MB di DDR1.
Se il prezzo quindi è buono e non esagerato penso che una scheda con 12 Pipeline a chi non vuole spendere tanto convieni più di 9800 e 5900xt.
sappiamo che sia nvidia che ati butteranno fuori le prime 3 schede video a 499 399 e 299....
quindi qualcosa lì ci va... se nvidia ha in progetto solo la liscia con ddr1... mi dispiace ma inzialmente la venderà sicuro come l'oro a 399...
la politica dei prezzi all'inizio è sempre standarizzata da un bel pò schede video...
http://www.gzeasy.com/itnewsdetail.asp?nID=14997
Dark Schneider
15-04-2004, 19:29
Originariamente inviato da KenMasters
guarda che sul prezzo di una scheda video influisce al 90% il chip che monta e non le mem. Considera poi che le schede di fascia alta montano mem molto più veloci (e quindi piu costose) di quelle di fascia bassa ;)
No incidono le memorie eccome se incidono. E' le DDR1 a qls ns...ormai non sono più costose. NV30 Ultra per dire s'è messo KO da sola quando se ne uscì con le DDRII che erano costose assai...ed il prezzo non poteva essere ribassato manco se a dirlo fosse stata nVidia.
Per di più conta anche il "quantitativo".
Originariamente inviato da Dark Schneider
Beh oddio io dico che le lisce...quelle da 128 MB DDR1 non costeranno sopra a 300 euro. Modelli da 256 MB,ecc. penso di più.
Ma non possono piazzare una scheda da 128 MB DDR1 (quantitativo che oggi montano anche schede da 60 euro per dire) ad un prezzo eccessivo. Sopra 300 euro io personalmente lo riterrei una ladrata bella e buona. Per quanto nuova possa essere la nuova GPU ha pur sempre 128 MB di DDR1.
Se il prezzo quindi è buono e non esagerato penso che una scheda con 12 Pipeline a chi non vuole spendere tanto convieni più di 9800 e 5900xt.
con la 6800 liscia si quadagnerà in prestazioni rispetto alla 9800xt??
=>TaroKSoft<=
15-04-2004, 19:30
Originariamente inviato da TheDarkAngel
questa fa i 430/440mhz ad aria ^^
anche la mia! :D Senza v-mod ne cazzate varie... :cool:
Credo ci farò un pensierino anch'io sul cambiarla quando arriveranno le schede di nuova generazione!!! :)
Amu_rg550
15-04-2004, 19:31
Originariamente inviato da Dark Schneider
Beh oddio io dico che le lisce...quelle da 128 MB DDR1 non costeranno sopra a 300 euro. Modelli da 256 MB,ecc. penso di più.
Ma non possono piazzare una scheda da 128 MB DDR1 (quantitativo che oggi montano anche schede da 60 euro per dire) ad un prezzo eccessivo. Sopra 300 euro io personalmente lo riterrei una ladrata bella e buona. Per quanto nuova possa essere la nuova GPU ha pur sempre 128 MB di DDR1.
Se il prezzo quindi è buono e non esagerato penso che una scheda con 12 Pipeline a chi non vuole spendere tanto convieni più di 9800 e 5900xt.
sono d'accordo, ma vorrei vedere un pò di bench sulla liscia.
se ti può interessare qui (http://news.hwupgrade.it/12233.html) andrea bai parla di 550€ circa x la 6800ultra e 350€ x la liscia.
Dark Schneider
15-04-2004, 19:32
Originariamente inviato da Amu_rg550
sono d'accordo, ma vorrei vedere un pò di bench sulla liscia.
se ti può interessare qui (http://news.hwupgrade.it/12233.html) andrea bai parla di 550€ circa x la 6800ultra e 350€ x la liscia.
Si ma penso che a 350 mettano versioni da 256 MB alla fine.
Cioè ripeto per me se piazzano una 128 MB a 350 è una ladrata.
Gatz1980
15-04-2004, 19:33
Originariamente inviato da MaBru
Dal pannello dei driver si possono selezionare varie combinazioni: avere un aniso di tipo adaptive come quello ATi o a 360° come quello della serie FX; e si può far lavorare l'aniso sia con il bilinear che con il trilinear. :)
A me invece non risulta che si possa scegliere, ma magari sono io a non trovarlo, magari potresti postare qualche link?
Inoltre anche il trilinear sembra pesantemente ottimizzato, tanto da sembrare maggiormente un bilinear, a discapito della qualità.
dai un'occhiata qui.
GeForce FX5xxx 8X Trilinear Anisotropic Filtering
http://www.beyond3d.com/previews/nvidia/nv40/iq/af_con_qual_s0.jpg
GeForce FX6xxx 16X Trilinear Anisotropic Filtering
http://www.beyond3d.com/previews/nvidia/nv40/iq/16x_app.jpg
C'è una bella differenza...
KenMasters
15-04-2004, 19:33
Originariamente inviato da Dark Schneider
No incidono le memorie eccome se incidono. E' le DDR1 a qls ns...ormai non sono più costose. NV30 Ultra per dire s'è messo KO da sola quando se ne uscì con le DDRII che erano costose assai...ed il prezzo non poteva essere ribassato manco se a dirlo fosse stata nVidia.
Per di più conta anche il "quantitativo".
OT: cmq volevo ringraziarti per il pvt di ieri, ma l'ho letto solo nella tarda serata ,quando quel tipo aveva gia concluso l'affare. Ma non importa perche ho deciso di prendere una ati. byez
TheDarkAngel
15-04-2004, 19:33
Originariamente inviato da =>TaroKSoft<=
anche la mia! :D Senza v-mod ne cazzate varie... :cool:
Credo ci farò un pensierino anch'io sul cambiarla quando arriveranno le schede di nuova generazione!!! :)
aspetta.. la vmod è necessaria per far girare BENE una scheda video :D
Dark Schneider
15-04-2004, 19:36
Originariamente inviato da TheDarkAngel
sappiamo che sia nvidia che ati butteranno fuori le prime 3 schede video a 499 399 e 299....
quindi qualcosa lì ci va... se nvidia ha in progetto solo la liscia con ddr1... mi dispiace ma inzialmente la venderà sicuro come l'oro a 399...
la politica dei prezzi all'inizio è sempre standarizzata da un bel pò schede video...
Io penso che lì in mezzo ci metterà una versione da 256 MB.
Guarda mi sembra strano che se fine ad un mese fa questi produttori ci hanno "deliziato" con schede anche inutili in tutte le versioni possibili e adesso di colpo decidono di alleggerire il mercato con meno versioni.
Ovviamente il "deliziato" in senso umoristico. :D
Dark Schneider
15-04-2004, 19:38
Originariamente inviato da KenMasters
OT: cmq volevo ringraziarti per il pvt di ieri, ma l'ho letto solo nella tarda serata ,quando quel tipo aveva gia concluso l'affare. Ma non importa perche ho deciso di prendere una ati. byez
Di niente!! Se hai deciso per un Ati ok. :) Sennò mi dispiaceva...perchè quando te l'ho mandato il tizio non aveva concluso ancora.
Se vuoi un mio parere prenditi un ottima 9800 usata!! :)
Thunder82
15-04-2004, 19:38
Originariamente inviato da Dark Schneider
Lord penso che le difficoltà si avranno bene o male quando si useranno gli shader 3.0......da come s'è potuto vedere dai primi test l'fp32 abbinato con gli shader 2.0 le prestazioni sono ok, il calo c'è ma è poco, pare rulla bene insomma.
Io finora non ho visto rece che comparano la velocità in fp16 e quella in fp32 (a parte un accenno che diceva che in fp16 faceva 45fps in un bench e in fp32 ne faceva 35).
Hai un link con una comparativa fp16/fp32? :)
Cmq imho nVidia dovrebbe dare la possibilità all'utente nel pannello di controllo di scegliere se usare fp16 o fp32, in modo che uno coscienziosamente scelga la velocità o la qualità, e NON lanciare un gioco senza sapere se ti andrà in fp16 o fp32 perchè tanto lo decidono i driver.
-* Pisquano *-
15-04-2004, 19:39
Ragazzi non riesco a stare più dietro a questo forum cavoli, sono uscito 5 ore e ci sono 25 pagine in più aiuto, dovrei stare solo sul forum a leggere.
Secondo me sta scheda è bellissima....
Se la Radeon lo sara di più meglio.....
Tanto se scelgo ATi o Nvidia loro non mi regalano niente..
Dark Schneider
15-04-2004, 19:40
Originariamente inviato da TheDarkAngel
questa fa i 430/440mhz ad aria ^^
Infatti è una bella scheda...ho sempre preferito schede uguali al top ma con frequenze inferiori..che quelle identiche e super tirate e che costavano un botto di più senza motivo. :)
Thunder82
15-04-2004, 19:41
Originariamente inviato da Dark Schneider
Io penso che lì in mezzo ci metterà una versione da 256 MB.
Guarda mi sembra strano che se fine ad un mese fa questi produttori ci hanno "deliziato" con schede anche inutili in tutte le versioni possibili e adesso di colpo decidono di alleggerire il mercato con meno versioni.
Ovviamente il "deliziato" in senso umoristico. :D
Fanno così perchè prima tutti si comprano il mostro da 600€, perchè c'è solo quello, e dopo un paio di mesi ti fanno uscire la versione "ti4200" che costa meno, così intanto i polli hanno già speso i 600€ per il modello top. Se ci pensi è successo così con la 4200 (uscita 2 mesi dopo la 4600/4400) e con la 5900XT. E anche con la GF3 Ti200 che è uscita un bel po' di tempo dopo la GF3
Gatz1980
15-04-2004, 19:41
Originariamente inviato da Dark Schneider
Io penso che lì in mezzo ci metterà una versione da 256 MB.
Guarda mi sembra strano che se fine ad un mese fa questi produttori ci hanno "deliziato" con schede anche inutili in tutte le versioni possibili e adesso di colpo decidono di alleggerire il mercato con meno versioni.
Ovviamente il "deliziato" in senso umoristico. :D
Inoltre siamo solo all'inizio, se per caso ATI dovesse introdurre sul mercato soluzioni più performanti, allora nVidia sarà sempre in tempo ad aggiungere una versione XT con frequenze inferiori e prezzo aggressivo ;)
Dark Schneider
15-04-2004, 19:44
Originariamente inviato da Thunder82
Io finora non ho visto rece che comparano la velocità in fp16 e quella in fp32 (a parte un accenno che diceva che in fp16 faceva 45fps in un bench e in fp32 ne faceva 35).
Hai un link con una comparativa fp16/fp32? :)
Cmq imho nVidia dovrebbe dare la possibilità all'utente nel pannello di controllo di scegliere se usare fp16 o fp32, in modo che uno coscienziosamente scelga la velocità o la qualità, e NON lanciare un gioco senza sapere se ti andrà in fp16 o fp32 perchè tanto lo decidono i driver.
Naturalmente quando mi riferivo ai primi test...mi riferivo a quei test che sono apparsi in rete che abbiamo visto!! :)
Il pannello di controllo che fa scegliere sarebbe una buona cosa...magari più in là implementano!! :)
Amu_rg550
15-04-2004, 19:44
Originariamente inviato da Dark Schneider
Si ma penso che a 350 mettano versioni da 256 MB alla fine.
Cioè ripeto per me se piazzano una 128 MB a 350 è una ladrata.
ma parli x deduzione o per news da nvidia? :wtf: (sicuramente mi son perso qualcosa io).
256mb sulla liscia sarebbero già meglio, ed è possibile dato che ormai fanno tutte le schede in vari modelli.
ma penso che il prezzo sia riferito alla versione da 128. una versione a 256 al max uscirà in un secondo tempo semmai. a meno che nn mi sia perso qualcosa ovvio.
Dark Schneider
15-04-2004, 19:45
Originariamente inviato da Haku
con la 6800 liscia si quadagnerà in prestazioni rispetto alla 9800xt??
Beh si..tecnologicamente è più complessa ed ha 4 Pipeline in più. :)
Thunder82
15-04-2004, 19:45
Originariamente inviato da Dark Schneider
Naturalmente quando mi riferivo ai primi test...mi riferivo a quei test che sono apparsi in rete che abbiamo visto!! :)
Quali?
:confused: :)
Io non ho mai visto comparative fp16/fp32 in termini velocistici. :)
TheDarkAngel
15-04-2004, 19:46
Originariamente inviato da Thunder82
Fanno così perchè prima tutti si comprano il mostro da 600€, perchè c'è solo quello, e dopo un paio di mesi ti fanno uscire la versione "ti4200" che costa meno, così intanto i polli hanno già speso i 600€ per il modello top. Se ci pensi è successo così con la 4200 (uscita 2 mesi dopo la 4600/4400) e con la 5900XT. E anche con la GF3 Ti200 che è uscita un bel po' di tempo dopo la GF3
emh... la Ti200 è la geffo3 ^^
la Ti500 se non ricordo male è uscita dopo come risposta alla 8500 di ati...
Dark Schneider
15-04-2004, 19:47
Originariamente inviato da Amu_rg550
ma parli x deduzione o per news da nvidia? :wtf: (sicuramente mi son perso qualcosa io).
256mb sulla liscia sarebbero già meglio, ed è possibile dato che ormai fanno tutte le schede in vari modelli.
ma penso che il prezzo sia riferito alla versione da 128. una versione a 256 al max uscirà in un secondo tempo semmai. a meno che nn mi sia perso qualcosa ovvio.
Naturalmente per deduzioni!! :p
Provo ad ipotizzare...e a commentare delle eventuali casi.
Ripeto se a 350 c'è la 128 MB è un prezzo ladro IMHO.
Thunder82
15-04-2004, 19:47
Originariamente inviato da TheDarkAngel
emh... la Ti200 è la geffo3 ^^
la Ti500 se non ricordo male è uscita dopo come risposta alla 8500 di ati...
No. La geffo3 è uscita a primavera 2001 ed era 200/460.
A fine 2001 sono uscite la Ti500 (240/500) e la Ti200 (175/400)
TheDarkAngel
15-04-2004, 19:48
Originariamente inviato da Dark Schneider
Io penso che lì in mezzo ci metterà una versione da 256 MB.
Guarda mi sembra strano che se fine ad un mese fa questi produttori ci hanno "deliziato" con schede anche inutili in tutte le versioni possibili e adesso di colpo decidono di alleggerire il mercato con meno versioni.
Ovviamente il "deliziato" in senso umoristico. :D
ma in genere le versioni con più mb sono uscite come contorno..
non so... comunque 256mb per 12pipe e 399€... emh... mi sembra un mezzo furto...
TheDarkAngel
15-04-2004, 19:49
Originariamente inviato da Thunder82
No. La geffo3 è uscita a primavera 2001 ed era 200/460.
A fine 2001 sono uscite la Ti500 (240/500) e la Ti200 (175/400)
non me lo ricordavo ^^
Originariamente inviato da Gatz1980
A me invece non risulta che si possa scegliere, ma magari sono io a non trovarlo, magari potresti postare qualche link?
Inoltre anche il trilinear sembra pesantemente ottimizzato, tanto da sembrare maggiormente un bilinear, a discapito della qualità.
dai un'occhiata qui.
CUT
C'è una bella differenza...
NVIDIA's new driver defaults to the same adaptive anisotropic filtering and trilinear filtering optimizations they are currently using in the 50 series drivers, but users are now able to disable these features. Trilinear filtering optimizations can be turned off (doing full trilinear all the time), and a new "High Quality" rendering mode turns off adaptive anisotropic filtering. What this means is that if someone wants (or needs) to have accurate trilinear and anisotropic filtering they can
Link http://www.anandtech.com/video/showdoc.html?i=2023&p=8
Se siete curiosi di vedere come saranno le schede ;) :
link (http://www.vr-zone.com/?i=681&s=3)
A meta' pagina si nota la Personal Cinema della Leadtek (funzioni di video-editing avanzate, sintonizzatore tv, etc)
KenMasters
15-04-2004, 19:51
Ragazzi non so se gia esiste questa possibilità, ma dato che l'argomento nvidia 6800 fa parlare davvero un casino, si potrebbe incontrarsi tutti su ircnet e potremmo discuterne tutti li su una chat conversando in tempo reale. Sul forum invece potremmo postare solo le informazioni di rilievo, in modo tale che chi lo legge abbia subito sciolti i suoi dubbi. Credo che un po tutti sappiate usare il mirc.. Che ne pensate?
goldorak
15-04-2004, 19:51
Originariamente inviato da TheDarkAngel
emh... la Ti200 è la geffo3 ^^
No, la Ti 200 era una versione depotenziata della geffo 3.
Dark Schneider
15-04-2004, 19:53
Originariamente inviato da Thunder82
Quali?
:confused: :)
Io non ho mai visto comparative fp16/fp32 in termini velocistici. :)
Mi pare che c'erano un paio...entrambi su shademark (si scrive così)? Una mi sa che era fp32 della 6800 vs fp24 della 9800xt. Un altro mi pare non vorrei sbagliarmi ma era di fp32 e fp16 della 6800 e forse anche la 9800 era in comparazione.
I link...adesso non ricordo, ma dovrebbe stare in uno degli articoli apparsi ieri. I link li ho messi nel primo post, magari prova a spulciare un po'!! :)
Vado a mangiare!! :)
Dark Schneider
15-04-2004, 19:54
Originariamente inviato da goldorak
No, la Ti 200 era una versione depotenziata della geffo 3.
E' una versione della GF3 con frequenze inferiori. Ma pur sempre una GF3...non castrata!! :)
Gatz1980
15-04-2004, 20:04
Originariamente inviato da MaBru
NVIDIA's new driver defaults to the same adaptive anisotropic filtering and trilinear filtering optimizations they are currently using in the 50 series drivers, but users are now able to disable these features. Trilinear filtering optimizations can be turned off (doing full trilinear all the time), and a new "High Quality" rendering mode turns off adaptive anisotropic filtering. What this means is that if someone wants (or needs) to have accurate trilinear and anisotropic filtering they can
Link http://www.anandtech.com/video/showdoc.html?i=2023&p=8
Quella frase è fuorviante, se guardi più in basso, anche nella modalità "High Quality" l'anisotropico è simile a quello di ATI, inoltre lo stesso articolo, successivamente, dice:
Unfortunately, it seems like NVIDIA will be switching to a method of calculating anisotropic filtering based on a weighted Manhattan distance calculation. We appreciated the fact that NVIDIA's previous implementation of anisotropic filtering employed a Euclidean distance calculation which is less sensitive to the orientation of a surface than a weighted Manhattan calculation.
Thunder82
15-04-2004, 20:05
Originariamente inviato da Dark Schneider
Mi pare che c'erano un paio...entrambi su shademark (si scrive così)? Una mi sa che era fp32 della 6800 vs fp24 della 9800xt. Un altro mi pare non vorrei sbagliarmi ma era di fp32 e fp16 della 6800 e forse anche la 9800 era in comparazione.
I link...adesso non ricordo, ma dovrebbe stare in uno degli articoli apparsi ieri. I link li ho messi nel primo post, magari prova a spulciare un po'!! :)
Vado a mangiare!! :)
Sì, uno era con Rightmark fp32 (6800U) vs. ATI
L'altro era shadermark, sempre 6800U in una modalità sola (non si sa se fp32 o fp16) vs. ATI.
Cioè è sempre stato fatto un confronto 6800U vs. 9800XT ma non è MAI stato fatto un confronto fra fp16/fp32 della 6800U. Come mai? :)
Sawato Onizuka
15-04-2004, 20:09
59 pagine in meno di 3 giorni :eek:
seee ero rimasto alla 38° ... nn ho voglia di continuare :cry:
ehm :mc:
voglio la X800 Pro :D :p
goldorak
15-04-2004, 20:12
Originariamente inviato da Dark Schneider
E' una versione della GF3 con frequenze inferiori. Ma pur sempre una GF3...non castrata!! :)
E' per questo che ho usato "depotenziata" e non "castrata". :)
Cmq avrei dovuto specificare che era depotenziata rispetto alla frequenza delle ram/gpu.
Non sono stato abbastanza preciso.
Originariamente inviato da ballero
Se siete curiosi di vedere come saranno le schede ;) :
link (http://www.vr-zone.com/?i=681&s=3)
A meta' pagina si nota la Personal Cinema della Leadtek (funzioni di video-editing avanzate, sintonizzatore tv, etc)
:sbav:
Me ne basterebbe una sola di quelle!Non è giusto,loro ne hanno così tante....
Thunder il confronto era in 32fp c'era anche scritto.
Gustavo Dandolo
15-04-2004, 20:48
http://www.gzeasy.com/newsphoto/y2k4/04/15/asus1.jpg
http://www.gzeasy.com/newsphoto/y2k4/04/15/asus2.jpg
Bellissima :oink:
Non mi piace però la soluzione vga+dvi.
Gustavo Dandolo
15-04-2004, 20:50
Originariamente inviato da R@nda
Gustavo.....alla faccia dell'oggettività,che poi sarebbe obiettività.
Concordo solo sul fatto che i driver 60.xx sono beta,e che la qualità può migliorare ancora grazie ai driver...ma che se rimane così all'80% sarà leggermente inferiore alla soluzione Ati,pur rimanendo buona.
Il resto preferisco non commentarlo......anche perchè è presto per tirare le somme su qualsiasi cosa.
Tranne appunto che i driver sono beta.
Che vuoi dire scusa, che non son stato obiettivo?
Gustavo Dandolo
15-04-2004, 20:53
Originariamente inviato da Dark Schneider
In certe cose sono daccordo...in altre no. Tanto per fare un esempio le funzionalità multimediali: Matrox ok vabbè la conosciamo(e la conosco bene). Però non è vero che le nVidia hanno un uscita tv non buona. Le ultime nVidia non sono male.
In cosa non sei d'accordo? riguardo l'uscita tv posso affermarlo con assoluta certezza avendo schede di tutte le marche, anche la soluzione di VIA (ultime Epia) è buona, ma non per questo si può dire che è paragonabile a quella di ATi.
E' per di più penso che la funzionalità di accellerazione e decodifica ( che a me interessa) è vero che sia una questione di drivers se non funziona bene allo stato attuale. Non l'avrebbero introdotta sennò questa novità. Probabilmente per quando usciranno i primi WHQL già avranno risolto.
Insomma non sono sorpreso se ora come ora la scheda non renda al meglio....parlo in qls ambito. Siamo agli inizi.
Hai ripetuto quello che ho scritto ;)
Thunder82
15-04-2004, 20:54
Originariamente inviato da R@nda
:sbav:
Me ne basterebbe una sola di quelle!Non è giusto,loro ne hanno così tante....
Thunder il confronto era in 32fp c'era anche scritto.
non hai capito il ragionamento mio :D
Io volevo un bench (chessò shadermark) con SOLO la 6800U testata sia in fp16 che in fp32, per vedere quanto perde.
predator frag
15-04-2004, 20:55
e mica fa paura sta sk... cavolo questa asus mi ricorda moltissimo le hercules... giustp pcb blu, led blue e se ci fate caso asus ha usato un pezzo del dissi in rame... guardate sotto il filo che alimenta la ventola....cmq COMPLIMENTI a NVIDIA....
Thunder82
15-04-2004, 20:59
Sparkle 6800U
http://www.hardware4you.sm/nucleus/media/1/small/20040415-sparkle682.jpg
Thunder82
15-04-2004, 21:02
La VERA Nalu al Geforce party
http://legitreviews.com/reviews/nv40/images/nalu.jpg
:oink:
Thunder82
15-04-2004, 21:05
Questo è interessante, in AM3 overclockando la 6800U si guadagna un'enormità
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/aquamark_1280_candy.gif
predator frag
15-04-2004, 21:06
Originariamente inviato da Thunder82
Sparkle 6800U
http://www.hardware4you.sm/nucleus/media/1/small/20040415-sparkle682.jpg
però un pò bruttina la sparkle... nettamente meglio l'ASUS
predator frag
15-04-2004, 21:19
Originariamente inviato da Thunder82
Questo è interessante, in AM3 overclockando la 6800U si guadagna un'enormità
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/aquamark_1280_candy.gif
hai visto l'overclock... soli 35 mhz per il core e soli 50 per le ram,con un incremento di quasi il 50 % ovvero 12 fps...
Originariamente inviato da predator frag
hai visto l'overclock... soli 35 mhz per il core e soli 50 per le ram,con un incremento di quasi il 50 % ovvero 12 fps...
questo vuol dire che hanno fatto uno sbaglio a mettere una frequenza così bassa per il core...la ram bene o male ha un'ottima frequenza...
goldorak
15-04-2004, 21:25
Originariamente inviato da kikbond
questo vuol dire che hanno fatto uno sbaglio a mettere una frequenza così bassa per il core...la ram bene o male ha un'ottima frequenza...
Perche' sbaglio ?
Sicuramente sanno benessimo come scalano le prestazioni in funzione della frequenza del core.
Si propettano delle versioni ultra-ultra piu' in la'.
E' la stessa tecnica che ha adoperato la ati con la 9800 9800pro 9800xt.
predator frag
15-04-2004, 21:27
infatti è vero.. almeno un 450 mhz di core andare una bomba( anche se adesso è un missile)cmq l'unica cosa che mi dispiace sono le 12 pipes della liscia.. preferivo una liscia a 16 piper con core a 300 mhz e ram a 750/800mhz...anche se forse con 16 pipes costava di più di adesso,350 euro...
Originariamente inviato da goldorak
Perche' sbaglio ?
Sicuramente sanno benessimo come scalano le prestazioni in funzione della frequenza del core.
Si propettano delle versioni ultra-ultra piu' in la'.
E' la stessa tecnica che ha adoperato la ati con la 9800 9800pro 9800xt.
mah..sinceramente commercializzare una nuova scheda solo per qualke manciata di mhz in + mi sembra una preso in giro...
per la storia delle 9800xt e delle pro penso che una persona minimamente informata avrebbe comprato una 9800pro e l'avrebbe
[email protected] questa sugli scaffali....
poi uno dice:però anke l'xt di overclocka..e allora io dico quei 100euro di differenza valevano la differenza di prestazioni??
predator frag
15-04-2004, 21:30
dimenticavo,forse l'hanno messa a 400mhz per in futuro quanto esce la versione PCI EX... faranno una versione con core ad almeno 500 mhx di xore e le ram a 1200 mhz... come 5900 e5950...
goldorak
15-04-2004, 21:31
Originariamente inviato da kikbond
mah..sinceramente commercializzare una nuova scheda solo per qualke manciata di mhz in + mi sembra una preso in giro...
per la storia delle 9800xt e delle pro penso che una persona minimamente informata avrebbe comprato una 9800pro e l'avrebbe
[email protected] questa sugli scaffali....
poi uno dice:però anke l'xt di overclocka..e allora io dico quei 100euro di differenza valevano la differenza di prestazioni??
Trascuri il fatto, che ci sono persone che hanno comprato direttamente la xt (o perche' hanno soldi a palate, o perche' non si fidano di fare l'overclock della 9800pro), e quindi il tuo ragionamente non sta molto in piedi.
Sicuramente se la nvidia tira fuori una ultra-ultra ci saranno persone disposte a comprarla.
Se reggesse i 500mhz la scheda sarebbe già a 500mhz. Ok sviare l'attenzione ma portarla da 475mhz a 400mhz per problemi di artefatti (così si dice) non lascia ben sperare. Nella rece sul sito si sono raggiunti i 435mhz, quindi è presumibile che all'uscita si possano avere anche frequenze superiore, ma 500mhz ora come ora li vedo francamente irraggiungibili.
Originariamente inviato da goldorak
Trascuri il fatto, che ci sono persone che hanno comprato direttamente la xt (o perche' hanno soldi a palate, o perche' non si fidano di fare l'overclock della 9800pro), e quindi il tuo ragionamente non sta molto in piedi.
Sicuramente se la nvidia tira fuori una ultra-ultra ci saranno persone disposte a comprarla.
perkè qua ci sono persone malate dalla sindrome del pc..
:D
ma tutte le altre persone al di fuori del forum ti assicuro che nn sanno manco che esiste la 9800xt...
Half Life 2 supporterà i PS 3.0 (tratto da HalfLIfe2.net ):
link (http://www.halflife2.net/forums/showthread.php?t=1298&page=31&pp=15)
-----Domanda-----
From: Michael [mailto:***********]
Sent: Tuesday, April 13, 2004 8:37 AM
To: Rick Ellis
Subject: ps 3.0?
Hi rick,
Thank you for answering my last question. I was wondering if Halflife2
is going to be supporting PS3.0? Or if that is something you plan to
release in a patch once more people have hardware capible of it.
Also any chance we'll be seeing a Halflife2 benchmark utility soon?
Thanks
Michael
----Risposta-------
Subject: RE: ps 3.0?
Date: Tue, 13 Apr 2004 09:09:53 -0700
From: "Rick Ellis" <
[email protected]> Add to Address Book
To: "Michael" <*******************>
Ps3.0 is on the list to get added, although I can't commit to a
timeframe for it yet (most hardware can't support it anyway). As for
the benchmark, check with Doug Lombardi after E3 for more details.
Rick
Valve
predator frag
15-04-2004, 21:38
ma non ora... ho detto che l'hanno messa a 400mhz (diciamo poco rispetto ai 475 della5950) perchè in futuro uscendo la versione pci ex..la faranno a 500 mhz con un bel incremento di prestazioni e diciamo stabile grazie a maggior corrente che da il pci ex....
almeno credo...
goldorak
15-04-2004, 21:40
Originariamente inviato da kikbond
perkè qua ci sono persone malate dalla sindrome del pc..
:D
ma tutte le altre persone al di fuori del forum ti assicuro che nn sanno manco che esiste la 9800xt...
Sicuro, ma le schede high-end sono al 99,99% comprate da malati di hardware. :)
=>TaroKSoft<=
15-04-2004, 21:40
http://www.vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8316.JPG
:sbavvv: :ave: :ave: :ave:
goldorak
15-04-2004, 21:41
Originariamente inviato da ballero
[----Risposta-------
Subject: RE: ps 3.0?
Date: Tue, 13 Apr 2004 09:09:53 -0700
From: "Rick Ellis" <
[email protected]> Add to Address Book
To: "Michael" <*******************>
Ps3.0 is on the list to get added, although I can't commit to a
timeframe for it yet (most hardware can't support it anyway). As for
the benchmark, check with Doug Lombardi after E3 for more details.
Rick
Valve
Ma :rotfl: altro che settembre 2004, si prospetta settembre 2005 :sofico:
Romanino
15-04-2004, 21:43
ciao raga sono completamente nuovo di questo forum mi sono iscritto solo oggi ma sono vari giorni ke leggo i vostri post in generale... vorrei farvi na domanda anke se nn kredo sia molto in tema visto il nome del 3ad... si ha qualche notizia della r420? immagini ? prestazioni? qualsiasi cosa? ... tutto quà... in caso che abbia scritto male il nome...( r420 ) scusatemi ma sono ignorante :muro: ...oppure se neanke esiste e nn so si sà kuando esce e vi starete chiedendo : ma questo è scemo? la risposta l'avete già... YEAH! thx a tutti anticipatamente kualsiasi sia la risposta :D
Sinceramente mi aspettavo molto meglio dai mostri sacri delle schede "diverse dalla reference". Capisco Pny che se non ricordo male oltre che le Quadro costruisce anche le reference e ci sta che siano identiche. Ma Gainward che la pittura di rosso (come al solito) e che ci cambia solo l'adesivo sul dissipatore... boh.
Asus ha almeno messo la lucetta. Quella di Sparkle è imho inguardabile ma almeno ha cambiato il dissipatore...
Speriamo che facciano qualche versione carina anche da vedere :)
sanitarium
15-04-2004, 21:44
Originariamente inviato da Romanino
ciao raga sono completamente nuovo di questo forum mi sono iscritto solo oggi ma sono vari giorni ke leggo i vostri post in generale... vorrei farvi na domanda anke se nn kredo sia molto in tema visto il nome del 3ad... si ha qualche notizia della r420? immagini ? prestazioni? qualsiasi cosa? ... tutto quà... in caso che abbia scritto male il nome...( r420 ) scusatemi ma sono ignorante :muro: ...oppure se neanke esiste e nn so si sà kuando esce e vi starete chiedendo : ma questo è scemo? la risposta l'avete già... YEAH! thx a tutti anticipatamente kualsiasi sia la risposta :D
Tutto quello che si sa di R420 (molto poco, in realtà :D ) è qui: http://forum.hwupgrade.it/showthread.php?s=&threadid=648697
;)
Originariamente inviato da R@nda
Ormai è ora di cena:O
Semmai una bella pastasciuttona:D
Oltre al discorso qualità/prestazioni....non dimentichiamo anche il prezzo.....non è che devo dissanguarmi,tra le due conterà molto anche questo.
devo quotarti per forza tra poco mi attende un bel piatto di pasta al forno:D
si è vero il prezzo inciderà mooolto. fino ad ora non l'ho neppure considerato.:cool:
Originariamente inviato da Romanino
ciao raga sono completamente nuovo di questo forum mi sono iscritto solo oggi ma sono vari giorni ke leggo i vostri post in generale... vorrei farvi na domanda anke se nn kredo sia molto in tema visto il nome del 3ad... si ha qualche notizia della r420? immagini ? prestazioni? qualsiasi cosa?
Poche notizie certe, nessun dato numerico.
... tutto quà... in caso che abbia scritto male il nome...( r420 ) scusatemi ma sono ignorante :muro: ...oppure se neanke esiste e nn so si sà kuando esce e vi starete chiedendo : ma questo è scemo? la risposta l'avete già... YEAH! thx a tutti anticipatamente kualsiasi sia la risposta :D
Ma questo è scemo? :)
Sto scherzando.
predator frag
15-04-2004, 21:48
infatti la gainward è veramente brutta...adesso quella più bella è l'asus... bellissima...
predator frag
15-04-2004, 21:51
Originariamente inviato da Gustavo Dandolo
http://www.gzeasy.com/newsphoto/y2k4/04/15/asus1.jpg
http://www.gzeasy.com/newsphoto/y2k4/04/15/asus2.jpg
Bellissima :oink:
Non mi piace però la soluzione vga+dvi.
dopo da notare ,l'asus ha anche un dissipatore migliore confronto alla gainward...ha molte più alette sul dissi....
Ragazzi qualcuno ha una foto della MSI ? che per quanto riguarda il sistema di raffreddamento dovrebbe essere la migliore adottando la MSI Copper ULTRA Cooling Technology che sulla carta dovrebbe produrre 26db in game :cool:
dario fgx
15-04-2004, 22:05
massiccia sta vga!
Sono abbastanza "sconvolto" negativamente da questa pagina....
Qualcuno mi da la sua impressione???
http://www.tomshw.it/graphic.php?guide=20040414&page=feforce_6800-46
Originariamente inviato da david-1
Sono abbastanza "sconvolto" negativamente da questa pagina....
Qualcuno mi da la sua impressione???
http://www.tomshw.it/graphic.php?guide=20040414&page=feforce_6800-46
Ehm...torna indietro di qualche decina di pagine:asd:
Romanino
15-04-2004, 22:08
Originariamente inviato da DjLode
Poche notizie certe, nessun dato numerico.
Ma questo è scemo? :)
Sto scherzando.
Mamma dice che lo stupido è chi lo stupido fa..... ghaghagh scherzo =) :D ;) grazie un botto per la risposta uomo dall'avatar con max paine ( scrivo kosì perkè nn rikordo come te kiami e nn ho voglia di spingere " indietro " e riskrivere tutto quanto asdasdsad ) !!
io voglio vedere quake 3 a 5000 fps looooool:sofico: :sofico:
Gustavo Dandolo
15-04-2004, 22:21
Originariamente inviato da Thunder82
Questo è interessante, in AM3 overclockando la 6800U si guadagna un'enormità
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/aquamark_1280_candy.gif
Thunder82 e tutti gli altri che avete commentato in codesto modo: ma scherzate o dite sul serio?
come fate a non capire che è stato un errore nel trascrivere i dati per il grafico? :rolleyes:
bombardax
15-04-2004, 22:25
Originariamente inviato da david-1
Sono abbastanza "sconvolto" negativamente da questa pagina....
Qualcuno mi da la sua impressione???
http://www.tomshw.it/graphic.php?guide=20040414&page=feforce_6800-46
:asd: :asd:
Gustavo Dandolo
15-04-2004, 22:27
Originariamente inviato da bombardax
:asd: :asd:
Che starebbe a significare questo commento?
Gustavo Dandolo
15-04-2004, 22:32
Originariamente inviato da predator frag
dopo da notare ,l'asus ha anche un dissipatore migliore confronto alla gainward...ha molte più alette sul dissi....
Non puoi ad occhio avere idee molto chiare sull'efficacia del dissipatore.
http://www.hwupgrade.it/articoli/1004/scheda_1.jpg
la reference di nVIDIA poi non mi sembra che abbia meno alette ;)
a me nn sembra così bella l'asus..sinceramente mi ricordo di aver visto di molto meglio anke se adesso nn mi viene nulla in mente di particolare...forse era una triplex...boh..
Originariamente inviato da R@nda
Ehm...torna indietro di qualche decina di pagine:asd:
mi spieghi meglio? :)
Originariamente inviato da bombardax
:asd: :asd:
vedi sopra....
:)
Originariamente inviato da david-1
mi spieghi meglio? :)
In breve FarCry è programmato per Nv3x e Ati...non riconosce la 6800 e quindi non lavora in fp32...come potrebbe/dovrebbe,oppure canna qualcosa nel rendering.
Adesso bisognerà vedere se lo sistemeranno via driver o se uscirà una nuova patch per il gioco.
Anche perchè in tutte le demo e foto che ho visto...perfino nel video dell'Unreal 3 engine il rendering viene fatto correttamente.
Lo spero per Nvidia anche.....
ragazzi! aspettate il r420!!!!!
Originariamente inviato da umile
ragazzi! aspettate il r420!!!!!
Ma questo è ovvio;)
Originariamente inviato da umile
ragazzi! aspettate il r420!!!!!
:wtf:
Originariamente inviato da kikbond
:wtf:
sai il perchè di quella frase? perchè sembra che questo nv40 sia una cosa allucinante! nn sò se mi spiego! ok ha prestazioni doppie rispetto alla vecchia generazione ( ci mancava altro ) ma nn vi siete posti il motivo per cui ati zitta zitta nn dice nulla? secondo me ha un mostro tipo r300 pronti a far rabbrividire tutti,,
halduemilauno
15-04-2004, 23:48
Originariamente inviato da umile
sai il perchè di quella frase? perchè sembra che questo nv40 sia una cosa allucinante! nn sò se mi spiego! ok ha prestazioni doppie rispetto alla vecchia generazione ( ci mancava altro ) ma nn vi siete posti il motivo per cui ati zitta zitta nn dice nulla? secondo me ha un mostro tipo r300 pronti a far rabbrividire tutti,,
esatto zitta zitta ha deciso di anticipare la X800XT. perchè?... forse tutta colpa di questa.
http://www.hothardware.com/reviews/images/nv40_debut/card_front.jpg
e pare che per la X800XT i bene informati dicono che la 6800Ultra(quella di serie)sarà a 475/1200 ( come accadde per la 5600 ultra presentata a 350/700 e poi prodotta e venduta a 400/800)e i primi 60.XX ufficiali.
ciao.
;)
Inizia la sfida:boxe:
chi vincerà?:winner:
chi perderà?:tapiro:
lo sapremo dopo la pubblicità!
:D
=>TaroKSoft<=
15-04-2004, 23:52
Originariamente inviato da umile
sai il perchè di quella frase? perchè sembra che questo nv40 sia una cosa allucinante! nn sò se mi spiego! ok ha prestazioni doppie rispetto alla vecchia generazione ( ci mancava altro ) ma nn vi siete posti il motivo per cui ati zitta zitta nn dice nulla? secondo me ha un mostro tipo r300 pronti a far rabbrividire tutti,,
Io credo che R420 sarà più veloce di NV40 sopratutto grazie alla frequenza del core notevolmente + alta grazie al low-k, 400MHz nv40 e sui 600MHz R420... Sempre supponendo che R420 sia 16x1... (:sperem: )
Ma non trovate strano che nVidia abbia clockato solo a 400 MHz la 6800 ultra?!? :wtf: x me a clock più alti scaldava troppo con 222 milioni di transistor...
Originariamente inviato da halduemilauno
esatto zitta zitta ha deciso di anticipare la X800XT. perchè?... forse tutta colpa di questa.
Prima di trarre conclusioni io aspetterei che vengano presentate, queste schede ati... ;)
Gustavo Dandolo
15-04-2004, 23:53
Originariamente inviato da halduemilauno
esatto zitta zitta ha deciso di anticipare la X800XT. perchè?
fonte?
sanitarium
15-04-2004, 23:56
Originariamente inviato da Gustavo Dandolo
fonte?
Una delle tante che spargono rumors a destra e a manca... :asd:
halduemilauno
16-04-2004, 00:04
Originariamente inviato da Raven
Prima di trarre conclusioni io aspetterei che vengano presentate, queste schede ati... ;)
certo. non a caso ho detto "forse" e "pare".
cmq da quando esistono le versioni XT in casa ati queste sono uscite sempre un sei mesi dopo le pro. vedere le 9600xt e 9800xt. perchè in questo caso solo un mese dopo?
ciao.
:) :)
Azz.... Avete già scritto 60 pagine
Il primo commento non può che essere positivo, guardando le prestazioni della scheda,
però, a mio parere, hanno fatto un chip troppo complesso, infatti la frequenza del core è "appena" 400 Mz e già così ci vogliono 2 molex e un alimentatore di 480 watt.
Originariamente inviato da sanitarium
Una delle tante che spargono rumors a destra e a manca... :asd:
http://10.128.254.22/hardware.multiplayer.itt/immagini/news/8/15978/img1.jpg
mt_iceman
16-04-2004, 01:14
ma quando verrà messa in commercio la ultra? qualcuno ha delle date ufficiali?
mt_iceman
16-04-2004, 01:19
ragazzi ma l'avete vista la pixel view????:eek: :eek:
Originariamente inviato da halduemilauno
certo. non a caso ho detto "forse" e "pare".
cmq da quando esistono le versioni XT in casa ati queste sono uscite sempre un sei mesi dopo le pro. vedere le 9600xt e 9800xt. perchè in questo caso solo un mese dopo?
ciao.
:) :)
Quoto. Questo per me è un segno, questa volta Ati e Nvidia sono davvero vicine, sennò Ati non si spicciava a gettare in mischia la XT dopo appena un mese della Pro.
Questa volta le architetture sono simili, le prestazioni pure, forse solo con la X800XT Ati la spunterà.
;)
Gustavo Dandolo
16-04-2004, 01:20
Originariamente inviato da mt_iceman
ragazzi ma l'avete vista la pixel view????:eek: :eek:
link?
mt_iceman
16-04-2004, 01:23
scusate ancora: cmq il fatto che quasi nessuno abbia stravolto la reference board (di solito asus e chaintech lo fanno sempre) è un buon segno
mt_iceman
16-04-2004, 01:25
Originariamente inviato da Gustavo Dandolo
link?
eccolo (http://www.vr-zone.com/?i=681&s=3)
mt_iceman
16-04-2004, 01:27
scusa ho sbagliato il link. ecco la scheda
http://www.vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8332.JPG
Thunder82
16-04-2004, 01:31
Originariamente inviato da Gustavo Dandolo
Thunder82 e tutti gli altri che avete commentato in codesto modo: ma scherzate o dite sul serio?
come fate a non capire che è stato un errore nel trascrivere i dati per il grafico? :rolleyes:
Anche questi sono errori nel trascrivere i dati?
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/aquamark_1024_candy.gif
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/aquamark_1280_candy.gif
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/aquamark_1600_candy.gif
Gustavo Dandolo
16-04-2004, 01:33
http://www.vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8328.JPG
http://www.vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8329.JPG
Leadtek WinFast A400 Ultra TDH.. che prodotto ambiguo, monta anche due schede di rete (credo da un gigabit) e ingresso cavo tv.
Ma che ci fanno schede di rete lì? :confused:
Thunder82
16-04-2004, 01:35
Originariamente inviato da Gustavo Dandolo
http://www.vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8328.JPG
http://www.vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8329.JPG
Leadtek WinFast A400 Ultra TDH.. che prodotto ambiguo, monta anche due schede di rete (credo da un gigabit) e ingresso cavo tv.
Ma che ci fanno schede di rete lì? :confused:
Che brutta!
Ma a che servono 2 schede di rete? Mah... chissà quanto costa poi...
E poi l'altro non penso sia un ingresso tv, manca il voluminoso Tuner, probabilmente è un terzo connettore di rete in formato BNC
http://www.xbitlabs.com/images/video/nv40/synth_gif/2001_sprites.gif
http://www.xbitlabs.com/images/video/nv40/synth_gif/2001_embm.gif
E' molto lenta nei Point Sprites e nell'Environmental Bump Mapping, spero per lei che sia solo un problema di driver...
Gustavo Dandolo
16-04-2004, 01:38
Originariamente inviato da Thunder82
Anche questi sono errori nel trascrivere i dati?
Dai ma come puoi pensare che 50mhz su un totale di 1150 per le ram (e ancor meno sulla gpu) sortiscano questi effetti? e poi solo con Aquamark?!
specialmente guarda a che risoluzione e con che filtri sono applicati!
non vedo l'ora di prendere la asus 6800ultra:sbav:
se l'r420 (come credo io) sarà molto simile e drivato dal progetto r300 ma con prestazioni 3 volte superiori credo che nvidia sia comunque tornata in corsa, solo se farà qualcosa di veramente rivoluzionario da lasciare a bocca aperta potrei dire il contrario.
credo che a prescindere dai 10/20fps in più o meno che potrà fare nv40 rispetto a r420, penso che le due avrano architetture senza punti deboli nelle dx9 ecco perchè credo che nvidia finalmente sia tornata in corsa.
Se r420 va a 100mhz in più e fa 20 fps in più la cosa poco importa alla fine, perchè nv40 ha unìarchitettura decisamente convincente finalmente per queste api, non esiste più un divario tecnlogico così ampio, ora im ho solo le frequenze posso fare l'effettiva differenza che sempre im ho è del tutto relativa perchè stiamo parlando di due architetture che finalmente posso far girare shader 2.0 a palla.
Inoltre il Video processing engine con code, encode di flussi video mpg 1/2/4 WM9 e tv tuner integrato gli danno quel qualcosa in più.
Per me nVidia ha passato l'esame, ha fatto quello che tutti si aspettavano senza deludere le aspettative.
Thunder82
16-04-2004, 01:40
Originariamente inviato da Gustavo Dandolo
Dai ma come puoi pensare che 50mhz su un totale di 1150 per le ram (e ancor meno sulla gpu) sortiscano questi effetti? e poi solo con Aquamark?!
specialmente guarda a che risoluzione e con che filtri sono applicati!
Boh, potrebbe anche essere che hanno ragione loro, è un po' dura sbagliare per 3 volte in 3 grafici. E penso che i test li abbiano ripetuti più volte se c'era un guadagno del genere, per vedere se fosse reale. Non dimenticare che 35MHz per la GPU a 16 pipeline sono un'enormità.
Thunder82
16-04-2004, 01:41
Originariamente inviato da dwfgerw
Inoltre il Video processing engine con code, encode di flussi video mpg 1/2/4 WM9 e tv tuner integrato gli danno quel qualcosa in più.
Sarebbe interessante vedere un bench di un encode di un Divx fatto con NV40, per vedere se veramente aiuta negli fps.
ecco quanto dichiarato da ANDREA BAI in un commento news :
ATTENZIONE
UPDATE: La scheda mostrata nelle foto è un preproduction sample. Le schede commerciali saranno equipaggiate con dissipatore low-profile per permettere l'utilizzo del primo slot PCI
Buona giornata
Gustavo Dandolo
16-04-2004, 01:42
Originariamente inviato da Thunder82
Che brutta!
Ma a che servono 2 schede di rete? Mah... chissà quanto costa poi...
E poi l'altro non penso sia un ingresso tv, manca il voluminoso Tuner, probabilmente è un terzo connettore di rete in formato BNC
Guardando meglio in effetti è diverso dal connettore dell'antenna europeo.. e non avrebbe senso lì visto che quel sample è per il mercato americano che hanno un formato differente. Ma bnc mi sembra pazzesco, siamo nel 2004 non si utilizzano più da parecchi anni.
Gustavo Dandolo
16-04-2004, 01:44
Originariamente inviato da dwfgerw
Inoltre il Video processing engine con code, encode di flussi video mpg 1/2/4 WM9 e tv tuner integrato gli danno quel qualcosa in più.
ma dove lo hai letto scusa? o intendevi tv-out?
Originariamente inviato da Gustavo Dandolo
ma dove lo hai letto scusa? o intendevi tv-out?
Programmable Video Processor
L'architettura programmabile del chip NV40 ha permesso di integrare numerose funzionalità, come visto in dettaglio nelle pagine precedenti. Una delle più interessanti è il Programmable Video Processor. Con questa parte del chip, presente in tutte le GPU della famiglia NV4x, nVidia fornisce un più efficace supporto a tutte le funzionalità video.
Perché integrare un processore video programmabile all'interno della GPU? Le motivazioni sono varie ma principalmente legate alla notevole potenza di calcolo che la GPU rende disponibile. A questo è necessario aggiungere le potenzialità, in termini di bandwidth in upstream e in downstream, proprie della nuova interfaccia PCI Express 16x, indispensabili in caso di flussi video HDTV.
Le caratteristiche tecniche del Programmable Video Processor di NVIDIA possono essere raccolte in 3 principali gruppi:
High Quality Video: la qualità della riproduzione video viene aumentata grazie al supporto a motion adaptive De-interlacing, high quality scaling e filtering, video de-blocking, TV encoder integrato;
Pieno supporto HDTV, con output nei formati 720p, 1080i, 480p e CGMS;
Supporto per funzionalità Personal Video Recording: funzionalità di encoding e decoding MPEG 1, 2 e 4, oltra a decode con accelerazione per Windows Media Video 9.
Il supporto a encoding e decoding MPEG, e al decoding WMV9, sono funzionalità estremamente interessanti che permettono di liberare il processore di sistema da buona parte delle operazioni richieste. Le funzionalità video avanzate, inoltre, permettono una migliore gestione delle risoluzioni video, senza necessità di conversioni da analogico a digitale e viceversa, per quegli ambiti di riproduzione nei quali si è costretti a forzare particolari rapporti di visualizzazione. Si pensi, ad esempio, ai flat panel oppure ai videoproiettori, dispositivi per i quali il flusso video dev'essere rielaborato e riadattato in funzione delle caratteristiche del pannello o del proiettore: operare queste funzioni all'interno della GPU permette, almeno sulla carta, di limitare al massimo il degrado qualitativo dell'immagine.
La notevole complessità del programmable video processor è evidenziata dallo schema di funzionamento, qui sopra riportato
Nello schema sopra evidenziato è mostrato una tipica operazione di decoding MPEG-2 svolta con NV40. La maggior parte delle operazioni viene eseguita all'interno del chip video, con solo il 5% dei calcoli di competenza del processore e il restante 95% svolto dal programmable video processor.
Le potenzialità di un processore video programmabile integrato all'interno della GPU sono estremamente elevate, al punto che attualmente pare difficile riuscire a quantificarle con precisione. La possibilità di utilizzare la GPU in modo sempre più attivo anche nell'elaborazione di flussi video apre scenari sempre più complessi, nei quali le funzioni di programmabilità del VP permetteranno non solo di liberare il processore di sistema per altre operazioni, ma di eseguire contemporaneamente molti più compiti di elaborazione video di quanto si possa ottenere, in questo momento, con la più potente cpu desktop in commercio.
NVIDIA ha sottolineato più volte che il VP verrà integrato all'interno di tutte le soluzioni video NV4x, con livelli prestazionali differenti a seconda della frequenza di clock della GPU. Sarà indubbiamente molto interessante vedere le funzionalità della VP abbinate ad un chip NV4x per soluzioni notebook, per il quale non sarà necessario attendere molti mesi.
Thunder82
16-04-2004, 01:50
Originariamente inviato da dwfgerw
Programmable Video Processor
L'architettura programmabile del chip NV40 ha permesso di integrare numerose funzionalità, come visto in dettaglio nelle pagine precedenti. Una delle più interessanti è il Programmable Video Processor. Con questa parte del chip, presente in tutte le GPU della famiglia NV4x, nVidia fornisce un più efficace supporto a tutte le funzionalità video.
Perché integrare un processore video programmabile all'interno della GPU? Le motivazioni sono varie ma principalmente legate alla notevole potenza di calcolo che la GPU rende disponibile. A questo è necessario aggiungere le potenzialità, in termini di bandwidth in upstream e in downstream, proprie della nuova interfaccia PCI Express 16x, indispensabili in caso di flussi video HDTV.
Le caratteristiche tecniche del Programmable Video Processor di NVIDIA possono essere raccolte in 3 principali gruppi:
High Quality Video: la qualità della riproduzione video viene aumentata grazie al supporto a motion adaptive De-interlacing, high quality scaling e filtering, video de-blocking, TV encoder integrato;
Pieno supporto HDTV, con output nei formati 720p, 1080i, 480p e CGMS;
Supporto per funzionalità Personal Video Recording: funzionalità di encoding e decoding MPEG 1, 2 e 4, oltra a decode con accelerazione per Windows Media Video 9.
Il supporto a encoding e decoding MPEG, e al decoding WMV9, sono funzionalità estremamente interessanti che permettono di liberare il processore di sistema da buona parte delle operazioni richieste. Le funzionalità video avanzate, inoltre, permettono una migliore gestione delle risoluzioni video, senza necessità di conversioni da analogico a digitale e viceversa, per quegli ambiti di riproduzione nei quali si è costretti a forzare particolari rapporti di visualizzazione. Si pensi, ad esempio, ai flat panel oppure ai videoproiettori, dispositivi per i quali il flusso video dev'essere rielaborato e riadattato in funzione delle caratteristiche del pannello o del proiettore: operare queste funzioni all'interno della GPU permette, almeno sulla carta, di limitare al massimo il degrado qualitativo dell'immagine.
La notevole complessità del programmable video processor è evidenziata dallo schema di funzionamento, qui sopra riportato
Nello schema sopra evidenziato è mostrato una tipica operazione di decoding MPEG-2 svolta con NV40. La maggior parte delle operazioni viene eseguita all'interno del chip video, con solo il 5% dei calcoli di competenza del processore e il restante 95% svolto dal programmable video processor.
Le potenzialità di un processore video programmabile integrato all'interno della GPU sono estremamente elevate, al punto che attualmente pare difficile riuscire a quantificarle con precisione. La possibilità di utilizzare la GPU in modo sempre più attivo anche nell'elaborazione di flussi video apre scenari sempre più complessi, nei quali le funzioni di programmabilità del VP permetteranno non solo di liberare il processore di sistema per altre operazioni, ma di eseguire contemporaneamente molti più compiti di elaborazione video di quanto si possa ottenere, in questo momento, con la più potente cpu desktop in commercio.
NVIDIA ha sottolineato più volte che il VP verrà integrato all'interno di tutte le soluzioni video NV4x, con livelli prestazionali differenti a seconda della frequenza di clock della GPU. Sarà indubbiamente molto interessante vedere le funzionalità della VP abbinate ad un chip NV4x per soluzioni notebook, per il quale non sarà necessario attendere molti mesi.
Però non c'è il tv tuner integrato.
halduemilauno
16-04-2004, 07:50
ciao.
alcune dichiarazioni sulla 6800ultra.
“Si tratta del maggior incremento di prestazioni intergenerazionale mai fatto registrare da una nuova GPU”, ha dichiarato Jen-Hsun Huang, presidente e CEO di NVIDIA. “Oltre al notevole aumento di potenza pura, i modelli 6800 si distinguono per due importanti scelte strategiche. La prima è stata il salto di qualità alla programmabilità permesso dalla sola GPU del settore dotata di Shader Model 3.0. La seconda è stato quella di estendere l'ambito operativo delle GPU al mercato dell'elettronica per consumatori grazie a un processore video potente e pienamente programmabile, capace di leggere molteplici formati video e di offrire un'elaborazione dell'immagine a livello ‘prosumer’.”
“Dal momento che lo sviluppo di DOOM 3 volge ormai al termine, abbiamo cominciato a occuparci dello sviluppo di tecnologie di rendering di nuova generazione. L'NV40 è in assoluto la mia piattaforma preferita. D'altronde, supporto di programmi frammento di estrema lunghezza, fusione e filtratura in virgola mobile generalizzate e prestazioni di assoluto rilievo sono davvero argomenti molto convincenti”, ha dichiarato John Carmack, presidente e direttore tecnico di id Software.
L'innovativa architettura grafica 3D delle GPU GeForce 6800 introduce numerose nuove tecnologie chiave che innalzeranno la qualità dell'immagine e le prestazioni dei giochi 3D, fra cui:
• Prestazioni grafiche di una rapidità sbalorditiva: grazie alla nuova e rivoluzionaria architettura superscalare a 16 percorsi e alla memoria GDDR3 più rapida del mondo, le GPU GeForce 6800 offrono una quantità sbalorditiva di potenza grafica. Le prestazioni di gioco sono davvero incredibili: si tratta infatti di una potenza otto volte superiore per gli ombreggiatori in virgola mobile, quattro volte superiore per l'elaborazione delle ombre e doppia per l'elaborazione dei vertici rispetto alla pluripremiata architettura GeForce FX della precedente generazione.
• Rivoluzionaria nuova serie di funzionalità: realizzata con il pieno supporto di Microsoft® DirectX® 9.0 Shader Model 3.0, GeForce 6 Series è stata creata per offrire titoli di nuova generazione, compatibili con DirectX 9 e ultra-realistici. Le GPU GeForce 6800 forniscono agli sviluppatori una programmabilità illimitata, la precisione degli ombreggiatori a 32 bit, la mappatura dei dislocamenti, l'istanziazione della geometria e altre funzionalità esclusive della famiglia GeForce 6 Series. In più, questa nuova GPU offre il pieno supporto in virgola mobile dell'intera pipeline, quindi GeForce 6800 è in grado di migliorare nettamente la qualità delle immagini in movimento con filtratura in virgola mobile. La nuova funzionalità con antialiasing a griglia ruotata rimuove i bordi frastagliati per una qualità delle immagini davvero incredibile e la nuova modalità di filtratura anisotropa 16x aggiunge nitidezza alle texture.
“NVIDIA GeForce 6 Series rappresenta un enorme passo avanti nella grafica per PC, portando le prestazioni di rendering per Microsoft DirectX 9 di nuova generazione a vertici assoluti pur continuando a innovare anche il rendering in virgola mobile ad alta definizione e a dimostrare la stabilità per cui NVIDIA va giustamente famosa”, ha dichiarato Tim Sweeney, fondatore di EPIC Games. “Come prima GPU a supportare il nuovo modello di programmazione Pixel Shader 3.0, GeForce 6 Series abilita i giochi a utilizzare approcci di rendering assolutamente inediti e ad ottenere maggiori prestazioni per pixel per luci, ombre ed effetti speciali rispetto a ciò che era possibile in precedenza.”
• Il primo processore video on-chip del settore: Le GPU GeForce 6800 hanno un motore di elaborazione video programmabile che offre una riproduzione video ad alta definizione davvero sbalorditiva. Grazie al supporto per la codifica e la decodifica MPEG, oltre al supporto per Windows Media Video 9 (WMV9), GeForce 6800 offre un'esperienza video davvero sbalorditiva quando viene utilizzata con il sistema operativo Microsoft® Windows® Media Centre Edition. GeForce 6800 abilita anche la riproduzione video di alta qualità per finestre di qualsiasi dimensione e ha un encoder TV integrato per la riproduzione TV diretta.
“Adobe è davvero entusiasta delle funzionalità video programmabili delle nuove GPU NVIDIA. Numerosi clienti di Adobe After Effects hanno già iniziato a sfruttare la potenza delle GPU NVIDIA per creare animazioni 3D sofisticate già a partire dallo scorso anno. I nostri prossimo prodotti sfrutteranno ancora più estesamente i vantaggi offerti dalle nuove funzionalità svelate da queste GPU”, ha dichiarato David Trescot, direttore senior, prodotti video digitali di Adobe.
La Unified Driver Architecture (UDA) e il software NVIDIA® ForceWare™ consentono alla GPU GeForce 6800 di offrire le tradizionali doti di compatibilità e affidabilità dei prodotti NVIDIA. Oltre a ciò NVIDIA ForceWare offre funzionalità software leader del settore quali i profili per giochi personalizzati, l'uscita HDTV, l'overclocking, il supporto multi-display e molto altro ancora.
Le prime GPU basate su NVIDIA GeForce 6 Series, i modelli GeForce 6800 Ultra e GeForce 6800, sono fabbricate usando la tecnologia di processo a 0,13 micron e alto volume di IBM e sono attualmente in corso di spedizione ai principali partner produttori di schede aggiuntive, OEM, costruttori di sistemi e sviluppatori di giochi.
La distribuzione delle prime schede grafiche basate sulla GPU GeForce 6800 dovrebbe iniziare nei prossimi quarantacinque giorni.
;)
Originariamente inviato da halduemilauno
cmq da quando esistono le versioni XT in casa ati queste sono uscite sempre un sei mesi dopo le pro. vedere le 9600xt e 9800xt. perchè in questo caso solo un mese dopo?
ciao.
:) :)
Su questo non c'è dubbio... evidentemente ati non vuole essere da meno coi "numeri" (16<-->16 insomma!) ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.