View Full Version : nVidia GeForce 6800 - Thread Ufficiale
Anonized
16-04-2004, 08:50
dite che se la accoppiassi al mio 2400+ le prestazioni ne risentirebbero pesantemente?
ShadowThrone
16-04-2004, 08:56
Originariamente inviato da Anonized
dite che se la accoppiassi al mio 2400+ le prestazioni ne risentirebbero pesantemente?
se un p4 3.2 è un collo di bottiglia....
64 bit sono la soluzione!!!!!!
Originariamente inviato da Anonized
dite che se la accoppiassi al mio 2400+ le prestazioni ne risentirebbero pesantemente?
Non esiste il processore che non riesce a frenarla;)
Mi sto ponendo il tuo stesso problema anch'io che ho un P42800:)
bombardax
16-04-2004, 09:19
Originariamente inviato da ShadowThrone
se un p4 3.2 è un collo di bottiglia....
64 bit sono la soluzione!!!!!!
mi sa che allora più del 50% del mio sistema sarà cambiato:
Scheda madre per socket 939
Procio e dissy nuovo
scheda video pci express (???forse)
nuova ram
totale: 1000-1200€:muro: :muro:
sanitarium
16-04-2004, 09:22
Originariamente inviato da danige
http://10.128.254.22/hardware.multiplayer.itt/immagini/news/8/15978/img1.jpg
A parte il fatto che l'immagine non si vede, la domanda è: quella che volevi postare è la roadmap UFFICIALE fornita da ATi o è stata realizzata in base ai rumors che girano?
Considerando che di R420 non si sa nulla di certo e che, per quanto ne so io, ATi non ha rilasciato dichiarazioni ufficiali, penso che la risposta sia scontata.
Io ho un P4
[email protected] Ghz (bus 240mhz)....
Credo proprio che la versione liscia (ati/nvidia) con 12 pipes sia il giusto compromesso per un pc come il mio... :)
Io ho un P4
[email protected] Ghz, punterei cmq al top di gamma così da riempire di AA le alte risoluzioni :)
Leadtek WinFast A400 Ultra TDH.. che prodotto ambiguo, monta anche due schede di rete (credo da un gigabit) e ingresso cavo tv.
E' una Quadro quella:)
Dal momento che lo sviluppo di DOOM 3 volge ormai al termine, abbiamo cominciato a occuparci dello sviluppo di tecnologie di rendering di nuova generazione. L'NV40 è in assoluto la mia piattaforma preferita. D'altronde, supporto di programmi frammento di estrema lunghezza, fusione e filtratura in virgola mobile generalizzate e prestazioni di assoluto rilievo sono davvero argomenti molto convincenti”, ha dichiarato John Carmack, presidente e direttore tecnico di id Software.
:nono: :rotfl:
A Carmack....ma la devi troppo smettere!Lo dici ad ogni generazione!
Originariamente inviato da R@nda
:nono: :rotfl:
A Carmack....ma la devi troppo smettere!Lo dici ad ogni generazione!
In effetti la credibilità di quest'uomo non è il suo punto forte! :D
... provate a sostituire il termine "nv40" con, rispettivamente, geforce3, ati8500, nv30, ati9700.... ed avrete le dichiarazioni di Carmack degli ultimi 3 anni! :p
:sofico:
sanitarium
16-04-2004, 09:51
Originariamente inviato da R@nda
:nono: :rotfl:
A Carmack....ma la devi troppo smettere!Lo dici ad ogni generazione!
Spero non ci sia gente che gli dà ancora retta! :sofico:
Originariamente inviato da ShadowThrone
se un p4 3.2 è un collo di bottiglia....
64 bit sono la soluzione!!!!!!
Mottivo in più per aspettare a prendere una delle nuove schede (oltre il prezzo ;) ).
Conviene aspettare che ci sia un supporto decente per il pci-exp, che i prescott siano un po' più maturi (o gli amd64), che escano driver decenti, etc etc.
Io non penso proprio che prima della fine dell'anno/prossimo anno mi lancerò nella spesa. Preferisco upgradare tutto insieme che pezzetto alla volta, altrimenti mi trascino dietro sempre qualche "vecchio" componente :rolleyes: .
E poi io punto ad un bel prommy :D :D :D (si si....quando sarò ricco...:mc: :mc: :cry: )
Originariamente inviato da Gustavo Dandolo
Leadtek WinFast A400 Ultra TDH.. che prodotto ambiguo, monta anche due schede di rete (credo da un gigabit) e ingresso cavo tv.
Ma che ci fanno schede di rete lì? :confused:
è una quadro, e quelle non sono 2 schede di rete, ma il gen-lock e frame-lock
Originariamente inviato da Thunder82
Sarebbe interessante vedere un bench di un encode di un Divx fatto con NV40, per vedere se veramente aiuta negli fps.
Non servirebbe a niente perché nei forceware 60.72 non c'è ancora il supporto al video processor.
Originariamente inviato da Raven
In effetti la credibilità di quest'uomo non è il suo punto forte! :D
... provate a sostituire il termine "nv40" con, rispettivamente, geforce3, ati8500, nv30, ati9700.... ed avrete le dichiarazioni di Carmack degli ultimi 3 anni! :p
:sofico:
Concordo.. :sofico:
Originariamente inviato da R@nda
:nono: :rotfl:
A Carmack....ma la devi troppo smettere!Lo dici ad ogni generazione!
E' veramente il piu' pagliaccio dei pagliacci dell'universo!!! :rolleyes:
Fa a gara con Gabe Newell per farsi odiare al punto che se lo vedo in strada gli spacco un GeForce3 in testa visto che doveva essere la piattaforma di riferimento di Doom3. :rotfl:
Anonized
16-04-2004, 10:23
Originariamente inviato da Simon82
E' veramente il piu' pagliaccio dei pagliacci dell'universo!!! :rolleyes:
Fa a gara con Gabe Newell per farsi odiare al punto che se lo vedo in strada gli spacco un GeForce3 in testa visto che doveva essere la piattaforma di riferimento di Doom3. :rotfl:
no no gliela facciamo mangiare!
Originariamente inviato da halduemilauno
certo. non a caso ho detto "forse" e "pare".
cmq da quando esistono le versioni XT in casa ati queste sono uscite sempre un sei mesi dopo le pro. vedere le 9600xt e 9800xt. perchè in questo caso solo un mese dopo?
ciao.
:) :)
C'è anche da dire che prima non c'erano reali concorrenti per doverle tirare fuori. Insomma la 9600 Pro era più veloce della 5600 Ultra così come la 9800 Pro era cmq veloce quanto una 5900 Ultra. Mettici pure che partendo da un processo produttivo di 0.15 per affinare la produzione ci voleva tempo e passare dai 320mhz della 9700 ai 412 della 9800 XT non è stato così semplice. A quanto pare invece il low-k permette di alzare all'inverosimile le frequenze ed ecco spuntare da subito un 600mhz (quasi sicuramente frequenza finale con overdrive attivato) della XT, da subito. Niente affinamento della produzione. Magari potevano mettere la Pro subito a quella frequenza, ma così facendo si trovavano con un bel buco tra la liscia e la Pro (4 pipe e tanti mhz in più). Dopo tutto sono nomi e cmq li giri si dovranno confrontare i top di gamma :) Che si chiamino Ultra, XT o Pro.
[QUOTE]si tratta infatti di una potenza otto volte superiore per gli ombreggiatori in virgola mobile, quattro volte superiore per l'elaborazione delle ombre e doppia per l'elaborazione dei vertici rispetto alla pluripremiata architettura GeForce FX della precedente generazione.
:gluglu: :gluglu: :asd: :asd: :asd: :fiufiu: :fiufiu:
http://www.vr-zone.com/eventpics/Apr04/14/NVIDIA/IMG_8290.JPG
Ma che bella schedina la Albatron!
Non vedo l'ora che arrivi Natale!:D
thegladiator
16-04-2004, 11:38
Originariamente inviato da MaBru
Si vede che non leggi bene le recensioni oppure ne leggi poche.;)
Dal pannello dei driver si possono selezionare varie combinazioni: avere un aniso di tipo adaptive come quello ATi o a 360° come quello della serie FX; e si può far lavorare l'aniso sia con il bilinear che con il trilinear. :)
Di recensioni ne ho lette abbastanza, peccato che i bench siano stati fatti con il bilineare!! :rolleyes:
halduemilauno
16-04-2004, 12:06
Originariamente inviato da DjLode
C'è anche da dire che prima non c'erano reali concorrenti per doverle tirare fuori. Insomma la 9600 Pro era più veloce della 5600 Ultra così come la 9800 Pro era cmq veloce quanto una 5900 Ultra. Mettici pure che partendo da un processo produttivo di 0.15 per affinare la produzione ci voleva tempo e passare dai 320mhz della 9700 ai 412 della 9800 XT non è stato così semplice. A quanto pare invece il low-k permette di alzare all'inverosimile le frequenze ed ecco spuntare da subito un 600mhz (quasi sicuramente frequenza finale con overdrive attivato) della XT, da subito. Niente affinamento della produzione. Magari potevano mettere la Pro subito a quella frequenza, ma così facendo si trovavano con un bel buco tra la liscia e la Pro (4 pipe e tanti mhz in più). Dopo tutto sono nomi e cmq li giri si dovranno confrontare i top di gamma :) Che si chiamino Ultra, XT o Pro.
appunto è quello che dico io. se prima non c'erano concorrenti ritenuti validi e si aspettava sei mesi per far uscire la versione XT invece se ora e in fretta e furia fanno uscire la X800XT vuol dire che concorrenti validi ci sono.
ciao.
:) :)
Jedi_Master
16-04-2004, 12:07
Originariamente inviato da Simon82
Fa a gara con Gabe Newell per farsi odiare al punto che se lo vedo in strada gli spacco un GeForce3 in testa visto che doveva essere la piattaforma di riferimento di Doom3. :rotfl:
Tra i due effettivamente e' un bel match.
Dovremmo girare con 2 geffo 3 in tasca, non si sa'
mai che li incontriamo tutti e due!!!!
:sofico:
sanitarium
16-04-2004, 12:25
Commento di Corsini a proposito della roadmap di R420: http://forum.hwupgrade.it/showthread.php?s=&postid=4160353#post4160353
Quindi non è ancora detto nulla... ;)
Gatz1980
16-04-2004, 12:38
Originariamente inviato da sanitarium
Commento di Corsini a proposito della roadmap di R420: http://forum.hwupgrade.it/showthread.php?s=&postid=4160353#post4160353
Quindi non è ancora detto nulla... ;)
Secondo me è uno scherzo :asd:
halduemilauno
16-04-2004, 12:47
Originariamente inviato da sanitarium
Commento di Corsini a proposito della roadmap di R420: http://forum.hwupgrade.it/showthread.php?s=&postid=4160353#post4160353
Quindi non è ancora detto nulla... ;)
a quindi oltre che meglio può anche esser peggio. aspettiamo.
;)
Legolas84
16-04-2004, 12:51
Imho sarà una grande scheda R420.... Le due case saranno alla pari.... e magari nVidia sarà più all'avanguardia come tecnologie e ATi un pò più veloce.
Non mi baso su nulla per dirlo.... solo su quella che è la mia sensazione :)
Due grandi schede entrambe....
sanitarium
16-04-2004, 12:53
Originariamente inviato da halduemilauno
a quindi oltre che meglio può anche esser peggio. aspettiamo.
;)
A me interessa soltanto l'aver avuto la conferma che la roadmap NON è questa, così forse fino al 4 maggio ce la piantiamo di "dare per scontate" le caratteristiche e le date di R420 facendo riferimento a quella tabella. ;)
Se poi le cose stanno messe meglio o peggio sarà il (prossimo) futuro a dircelo.
C'è l'utente enrico che già vanta nella sua sign la 6800ultra!!! :eek: :eek:
Come è possibile?
lunaticgate
16-04-2004, 13:01
Originariamente inviato da david-1
C'è l'utente enrico che già vanta nella sua sign la 6800ultra!!! :eek: :eek:
Come è possibile?
http://forum.hwupgrade.it/showthread.php?s=&postid=4161638#post4161638
:confused:
Originariamente inviato da david-1
C'è l'utente enrico che già vanta nella sua sign la 6800ultra!!! :eek: :eek:
Come è possibile?
2 possibilità:
ha un sample nvidia
oppure è un lollone :D
... beh... se vuoi io nella mia ci metto la scritta X800XT così "pareggiamo"... :D
JENA PLISSKEN
16-04-2004, 13:11
Io ho già una XXXPORNdivxXX XT:O :O :O
...chinatevi dinanzi allo mio strapotere:O :O
ShadowThrone
16-04-2004, 13:11
Originariamente inviato da lunaticgate
http://forum.hwupgrade.it/showthread.php?s=&postid=4161638#post4161638
:confused:
ma hai letto il 3d?
chiede che vga nvidia comprare prima della 6800...
JENA PLISSKEN
16-04-2004, 13:13
Originariamente inviato da bombardax
mi sa che allora più del 50% del mio sistema sarà cambiato:
Scheda madre per socket 939
Procio e dissy nuovo
scheda video pci express (???forse)
nuova ram
totale: 1000-1200€:muro: :muro:
OK...saremo in 2 a dare via il CUL@:sofico: :sofico: :sofico: ---->:cry: :cry: :cry:
Carmack....spero si faccia pagare sempre d + ogni volta che proferisce verbo...:D :D :D
lunaticgate
16-04-2004, 13:21
Originariamente inviato da ShadowThrone
ma hai letto il 3d?
chiede che vga nvidia comprare prima della 6800...
Si ma tu hai visto la sign?
:eek:
ShadowThrone
16-04-2004, 13:26
Originariamente inviato da lunaticgate
Si ma tu hai visto la sign?
:eek:
si, ma 1 che dice "ho la 4200, cosa compro prima che la 6800 arrivi a costare poco?"
se ha già la 6800.. cosa compra a fare una vga per sostituire la 4200 prima di comprare la 6800???
me sembra la storia di quello che aveva il cuggino alla valve!!! :asd:
ShadowThrone
16-04-2004, 13:27
Originariamente inviato da JENA PLISSKEN
OK...saremo in 2 a dare via il CUL@:sofico: :sofico: :sofico: ---->:cry: :cry: :cry:
Carmack....spero si faccia pagare sempre d + ogni volta che proferisce verbo...:D :D :D
e che problema c'è?
io l'investimento lo rifaccio dopo ottobre.... prima però mi partono 600 euro per il monitor...
:eek:
:cry:
La 6800 liscia quanto potrà costare?
sarà + veloce di una 9800pro?
Originariamente inviato da Murphy
sarà + veloce di una 9800pro?
Ebbè...se non lo fasso sarebe davvero da piangere....ma li hai visti i bench?
Originariamente inviato da Orphen
Ebbè...se non lo fasso sarebe davvero da piangere....ma li hai visti i bench?
Ho visto quelli della ultra non quelli della liscia!
La liscia ha 12 pipe contro 16 della ultra(Almeno in alcuni siti ho letto questo)! In termini di prestazioni vorrei vedere a quanto corrispondono!
Hai qualche link a test sulla liscia?
JENA PLISSKEN
16-04-2004, 14:13
Originariamente inviato da ShadowThrone
e che problema c'è?
io l'investimento lo rifaccio dopo ottobre.... prima però mi partono 600 euro per il monitor...
:eek:
:cry:
Io prima di Natale nn apro il portafoglio...me lo sono imposto...lo DEVO fare...già ho speso un pozzo x modding etc:cry:
Cmq sono curioso di vedere in Canada che sccede...ho la sensazione che la scheda sarà + intereessante di questa...mah...sperem:rolleyes:
JENA PLISSKEN
16-04-2004, 14:15
Qualcuno ha immagini della Leadtek??:confused:
Originariamente inviato da R@nda
Ma che bella schedina la Albatron!
Non vedo l'ora che arrivi Natale!:D
Per Natale forse ci sara' gia Nv45;) :sofico:
Originariamente inviato da ballero
Per Natale forse ci sara' gia Nv45;) :sofico:
Esatto....su Pcix,con il mio Amd 939 sotto l'albero:D
Originariamente inviato da JENA PLISSKEN
Io prima di Natale nn apro il portafoglio...me lo sono imposto...lo DEVO fare...già ho speso un pozzo x modding etc:cry:
Cmq sono curioso di vedere in Canada che sccede...ho la sensazione che la scheda sarà + intereessante di questa...mah...sperem:rolleyes:
direi guardando la tua sign che nn ne hai assolutamente bisogno di aprire il portafoglio;)
JENA PLISSKEN
16-04-2004, 15:16
Originariamente inviato da R@nda
Esatto....su Pcix,con il mio Amd 939 sotto l'albero:D
E se l R423 sarà superiore?? Che fai te la compri lo stesso?? Io aspetto e poi scelgo:oink: A DIC prevedo un calamento di braghe esagerato:cry:
JENA PLISSKEN
16-04-2004, 15:17
Originariamente inviato da kikbond
direi guardando la tua sign che nn ne hai assolutamente bisogno di aprire il portafoglio;)
In effetti NN mi serve nulla...tieni presente che sto così da Feb\Mar 2k3:oink: :oink: :oink: :oink: :oink:
Originariamente inviato da JENA PLISSKEN
E se l R423 sarà superiore?? Che fai te la compri lo stesso?? Io aspetto e poi scelgo:oink: A DIC prevedo un calamento di braghe esagerato:cry:
No no calma....io devo comprarmi una sk video Pcix da mettere sul 939....presumo per Natale o fine anno.
Non ho detto quale però....sarà quella che per allora andrà meglio.
Originariamente inviato da JENA PLISSKEN
In effetti NN mi serve nulla...tieni presente che sto così da Feb\Mar 2k3:oink: :oink: :oink: :oink: :oink:
ank'io voglio una 9700/9800
:cry:
Anonized
16-04-2004, 15:57
forse le avete già postate....
http://www.ixbt.com/short/2k4-04/tb02.jpg
Aopen
http://www.ixbt.com/short/2k4-04/tb06.jpg
Chaintech
http://www.ixbt.com/short/2k4-04/tb08.jpg
Gainward
http://www.ixbt.com/short/2k4-04/tb09.jpg
http://www.ixbt.com/short/2k4-04/tb10.jpg
Gigabyte
http://www.ixbt.com/short/2k4-04/tb11.jpg
Leadtek (notate le connessioni!)
http://www.ixbt.com/short/2k4-04/tb12.jpg
http://www.ixbt.com/short/2k4-04/tb13.jpg
Prolink
http://www.ixbt.com/short/2k4-04/tb14.jpg
Xfx
http://www.ixbt.com/short/2k4-04/tb15.jpg
Anonized
16-04-2004, 16:00
ma la Gainward che connessioni ha?!
Originariamente inviato da Anonized
forse le avete già postate....
http://www.ixbt.com/short/2k4-04/tb02.jpg
Aopen
http://www.ixbt.com/short/2k4-04/tb06.jpg
Chaintech
http://www.ixbt.com/short/2k4-04/tb08.jpg
Gainward
http://www.ixbt.com/short/2k4-04/tb09.jpg
http://www.ixbt.com/short/2k4-04/tb10.jpg
Gigabyte
http://www.ixbt.com/short/2k4-04/tb11.jpg
Leadtek (notate le connessioni!)
http://www.ixbt.com/short/2k4-04/tb12.jpg
http://www.ixbt.com/short/2k4-04/tb13.jpg
Prolink
http://www.ixbt.com/short/2k4-04/tb14.jpg
Xfx
http://www.ixbt.com/short/2k4-04/tb15.jpg
ottimo...nn si vede na mazza
;)
Nino Grasso
16-04-2004, 16:05
EVVAAAI!!!!!!!! :sofico: :sofico: ho letto tutti i post di tutto il 3d... prima di questa ottava fatica erculea (l'aver letto tutto) non avevo intenzione di scrivere per non ripetermi con quanto altri avessero potuto dire in precedenza... allora a tutte le frasi che sto per dire metteteci un bel "secondo me" e qualche volta un "a mio avviso"... mi sembra che sia indubbio constatare il notevole passo avanti compiuto + che altro dagli ingegnieri nVidia a livello prima di tutto di architettura, ma anche come qualità video... alla fine forse tecnicamente abbiamo una qualità leggermente (e ribadisco "leggermente", almeno rispetto alla passata generazione) inferiore ad ATi, ma quanti di voi in un concitato inseguimento a UT2004 si mette a guardare se il passaggio da un livello di AF all'altro è netto oppure è fatto con il trilinear? stesso discorso vale per l'aa... la differenza è minima e soprattutto non è detto che nVidia è sempre peggio di ATi a parità di samples, ma dipende dalla situazione e dall'angolatura... nVidia ha il rotated grid posto in maniera leggermente diversa rispetto ad ATi facendo prevalere la resa spesso del colore + forte fra i vertici da "ripassare", questo comporta che in oggetti sottili la resa di ATi è di gran lunga superiore, ma stando attenti si nota che ad alcune angolazioni (e non poche direi) nVidia è + omogenea... certo il discorso poi verte sempre sulla solita questione: quanti di voi realmente notano GIOCANDO (e non guardando i paesaggi :D ) se il filtro è davvero ma davvero perfetto o no? Le differenze sono poche ma ovviamente ci sono, l'ago della bilancia propende leggermente verso ATi, ma queste 6800 qualitativamente parlando non sono assolutamente un abominio... almeno rispetto alla passata generazione! Per quanto riguarda i FP16 e 32, la situazione mi sembra molto chiara, o forse ho frainteso io... nel passaggio fra FP16 e FP32 (visto in una tabella su questo 3d) non si ha quasi alcuna perdita di prestazioni (procedural ecc ecc mi pare si trattasse: da 137,qualcosa a 137,qualcosa meno :D ), mentre nello specular (mi sa che solo in unreal engine 3.0 ho visto qualcosa del genere) si perdeva circa un buon 15% se non +... questo ovviamente non dice niente, ma fa ben presagire anche sotto l'ombra dei test effettuati in Shadermark 2.0 in cui l'autore del Bench ha sottolineato che i test venivano svolti con le rispettive massime qualità delle schede in questione... quindi FP32 per 6800u e FP24 per ATi, e mi pare che la 6800u si sia comportata in maniera egregia nonostante usasse shader virtualmente di qualità superiore... cmq mi stupisco di alcuni di voi che voglio mazzulare questa scheda che mi sa tanto di R300 di qualche anno fa... cioè dite che la qualità è una m...a... ma avete visto Far Cry in PS3.0?? Cioè capisco che è solo un gioco ma il distacco mi sembra molto netto e per chi ricerca la qualità massima mi sa che dovrebbe ricercare + che altro roba di questo genere piuttosto che un filtro anisotropico (tra l'altro osannato dalla maggior parte dei siti, alcuni ammettevano che il filtro nVidia fosse superiore rispetto a quello ATi sul campo) per moltissimi aspetti di invisibile differenza fra le varie proposte o un aa 4x che se ingrandito di 4x si fa un po' fatica a mostrare differenze... tra l'altro dobbiamo pure notare l'umiltà con cui nVidia (che non dimentichiamoci è ancora sul mercato desktop conta parecchio di + di ATi) è tornata sui propri passi utilizzando tecnologie che ricordano quelle utilizzate precedentemente da ATi, che se in un primo momento possono far storcere il naso, riflettendoci rappresentano solo la consapevolezza di aver sbagliato, una cosa non da poco...
mi sa che non siamo + a nv30 che aveva un aa quasi peggio della mia ti4200!!! :D :muro:
cmq alla fine tutto questo ambaradan per dire cosa??? Niente... o per lo meno niente fino al rilascio dell'NDA dell'R420!!! Fino ad adesso è un'ottima proposta (mi sembra palese che in Far Cry c'è qualcosa che non va)...
Ne resterà soltanto uno!!:D :D :D
p.s.: nVidia non ha ancora mai rilasciato quale sarà l'effettiva frequenza del Core nè della 6800u che della 6800, del resto nemmeno di ATi sappiamo molto anche se forse correrà subito ai ripari con la versione magna-cum-pumpa del suo R420... se posso dire la mia ATi si spaventa un po' da questo NV40 se compie un passo del genere, ma dal canto suo nVidia non è poi così sicura che ci sia una grande supremazia sul diretto concorrente :rolleyes:
Jedi_Master
16-04-2004, 16:19
Originariamente inviato da kikbond
ottimo...nn si vede na mazza
;)
gia!!!!!
:)
x lestat.me
ma quanto cacchio scrivi???
:D
Nino Grasso
16-04-2004, 16:21
aUHAUHahuhuaahuhauahu aoh dopo 66 pagine di post ci sono parecchie cose da scrivere!!
Originariamente inviato da david-1
C'è l'utente enrico che già vanta nella sua sign la 6800ultra!!! :eek: :eek:
Come è possibile?
Se è per questo so di un'altro utente del forum che ha già ordinato una R420 della Abit. :asd: ;)
Originariamente inviato da Koji
Se è per questo so di un'altro utente del forum che ha già ordinato una R420 della Abit. :asd: ;)
:what:
Anonized
16-04-2004, 16:32
Originariamente inviato da kikbond
ottimo...nn si vede na mazza
;)
ma io vedo!!! vi dò il link
http://www.digit-life.com/news.html?103981
Originariamente inviato da Anonized
ma io vedo!!! vi dò il link
http://www.digit-life.com/news.html?103981
belle chaintek e prolink...sbaglio o il modello della prolink nn è nuovo??mi sembra di averla già vista.....
Anonized
16-04-2004, 16:39
a mi me gusta la asus
Athlon 64 3000+
16-04-2004, 16:44
a me piace quella della XFX.
Originariamente inviato da kikbond
:what:
Che c'è? :confused:
Originariamente inviato da Koji
Che c'è? :confused:
:what: si riferiva al tipo che diceva di aver prenotato una scheda r420
halduemilauno
16-04-2004, 17:11
Originariamente inviato da Lestat.me
EVVAAAI!!!!!!!! :sofico: :sofico: ho letto tutti i post di tutto il 3d... prima di questa ottava fatica erculea (l'aver letto tutto) non avevo intenzione di scrivere per non ripetermi con quanto altri avessero potuto dire in precedenza... allora a tutte le frasi che sto per dire metteteci un bel "secondo me" e qualche volta un "a mio avviso"... mi sembra che sia indubbio constatare il notevole passo avanti compiuto + che altro dagli ingegnieri nVidia a livello prima di tutto di architettura, ma anche come qualità video... alla fine forse tecnicamente abbiamo una qualità leggermente (e ribadisco "leggermente", almeno rispetto alla passata generazione) inferiore ad ATi, ma quanti di voi in un concitato inseguimento a UT2004 si mette a guardare se il passaggio da un livello di AF all'altro è netto oppure è fatto con il trilinear? stesso discorso vale per l'aa... la differenza è minima e soprattutto non è detto che nVidia è sempre peggio di ATi a parità di samples, ma dipende dalla situazione e dall'angolatura... nVidia ha il rotated grid posto in maniera leggermente diversa rispetto ad ATi facendo prevalere la resa spesso del colore + forte fra i vertici da "ripassare", questo comporta che in oggetti sottili la resa di ATi è di gran lunga superiore, ma stando attenti si nota che ad alcune angolazioni (e non poche direi) nVidia è + omogenea... certo il discorso poi verte sempre sulla solita questione: quanti di voi realmente notano GIOCANDO (e non guardando i paesaggi :D ) se il filtro è davvero ma davvero perfetto o no? Le differenze sono poche ma ovviamente ci sono, l'ago della bilancia propende leggermente verso ATi, ma queste 6800 qualitativamente parlando non sono assolutamente un abominio... almeno rispetto alla passata generazione! Per quanto riguarda i FP16 e 32, la situazione mi sembra molto chiara, o forse ho frainteso io... nel passaggio fra FP16 e FP32 (visto in una tabella su questo 3d) non si ha quasi alcuna perdita di prestazioni (procedural ecc ecc mi pare si trattasse: da 137,qualcosa a 137,qualcosa meno :D ), mentre nello specular (mi sa che solo in unreal engine 3.0 ho visto qualcosa del genere) si perdeva circa un buon 15% se non +... questo ovviamente non dice niente, ma fa ben presagire anche sotto l'ombra dei test effettuati in Shadermark 2.0 in cui l'autore del Bench ha sottolineato che i test venivano svolti con le rispettive massime qualità delle schede in questione... quindi FP32 per 6800u e FP24 per ATi, e mi pare che la 6800u si sia comportata in maniera egregia nonostante usasse shader virtualmente di qualità superiore... cmq mi stupisco di alcuni di voi che voglio mazzulare questa scheda che mi sa tanto di R300 di qualche anno fa... cioè dite che la qualità è una m...a... ma avete visto Far Cry in PS3.0?? Cioè capisco che è solo un gioco ma il distacco mi sembra molto netto e per chi ricerca la qualità massima mi sa che dovrebbe ricercare + che altro roba di questo genere piuttosto che un filtro anisotropico (tra l'altro osannato dalla maggior parte dei siti, alcuni ammettevano che il filtro nVidia fosse superiore rispetto a quello ATi sul campo) per moltissimi aspetti di invisibile differenza fra le varie proposte o un aa 4x che se ingrandito di 4x si fa un po' fatica a mostrare differenze... tra l'altro dobbiamo pure notare l'umiltà con cui nVidia (che non dimentichiamoci è ancora sul mercato desktop conta parecchio di + di ATi) è tornata sui propri passi utilizzando tecnologie che ricordano quelle utilizzate precedentemente da ATi, che se in un primo momento possono far storcere il naso, riflettendoci rappresentano solo la consapevolezza di aver sbagliato, una cosa non da poco...
mi sa che non siamo + a nv30 che aveva un aa quasi peggio della mia ti4200!!! :D :muro:
cmq alla fine tutto questo ambaradan per dire cosa??? Niente... o per lo meno niente fino al rilascio dell'NDA dell'R420!!! Fino ad adesso è un'ottima proposta (mi sembra palese che in Far Cry c'è qualcosa che non va)...
Ne resterà soltanto uno!!:D :D :D
p.s.: nVidia non ha ancora mai rilasciato quale sarà l'effettiva frequenza del Core nè della 6800u che della 6800, del resto nemmeno di ATi sappiamo molto anche se forse correrà subito ai ripari con la versione magna-cum-pumpa del suo R420... se posso dire la mia ATi si spaventa un po' da questo NV40 se compie un passo del genere, ma dal canto suo nVidia non è poi così sicura che ci sia una grande supremazia sul diretto concorrente :rolleyes:
sono d'accordo.
ciao.
;)
ShadowThrone
16-04-2004, 17:18
a me piace molto la asus...
sono ansioso di vedere come si comporteranno i produttori :
qualità della scheda, rifiniture, clock etc. etc.
Originariamente inviato da kikbond
:what: si riferiva al tipo che diceva di aver prenotato una scheda r420
Beh non so, avrà fatto una sorta di pre-ordine. ;)
Originariamente inviato da ShadowThrone
a me piace molto la asus...
sono ansioso di vedere come si comporteranno i produttori :
qualità della scheda, rifiniture, clock etc. etc.
Io invece sarei ansioso di vedere le liscie, quando si saprà qualcosa di più (bench, specifiche, prezzi)?
e ancora la MSI non si vede :cry:
Originariamente inviato da R@nda
No no calma....io devo comprarmi una sk video Pcix da mettere sul 939....presumo per Natale o fine anno.
Cosa ti cambia in sei giorni? :rotfl: :cry:
Nino Grasso
16-04-2004, 18:17
cmq avete sentito carmack? ha detto che è in procinto di sviluppare un nuovo engine supportante in pieno i nuovi pixel e vertex shader 3.0...
mi sa tanto che quando ha visto l'unreal engine 3.0 l'hanno dovuto risvegliare a suon di calci nelle O.O ... ovviamente dopo aver fatto sta seguenza di espressioni :eek: :sbavvv: :cry: :muro:
e tim sweeney :fuck:
:asd: :asd: :asd:
predator frag
16-04-2004, 18:54
infatti manca solo la MSI...come mai....cmq non credo che le altre siano versioni ufficiali...specialmente per i dissi..fino adesso l'unica che un dissi diverso le la sparkle ,che però non piace tantissimo...
bombardax
16-04-2004, 18:58
Originariamente inviato da predator frag
infatti manca solo la MSI...come mai....cmq non credo che le altre siano versioni ufficiali...specialmente per i dissi..fino adesso l'unica che un dissi diverso le la sparkle ,che però non piace tantissimo...
Albatron e Asus mi piacciono molto....
poi, come sempre, Asus darà un bundle maggiore (ed un prezzo maggiore...)
predator frag
16-04-2004, 19:09
è naturale...il prezzo dipende dal dissi che si usa e dal BUNDLE...asus sarà la più costosa insieme alla gainward...
Originariamente inviato da danige
e ancora la MSI non si vede :cry:
Sì ma mi dici in Italia dove le trovi le MSI? Della 5900XT ad esempio ho trovato tutte le marche tranne quella di MSI. :(
-=Krynn=-
16-04-2004, 19:28
Originariamente inviato da Lestat.me
cmq avete sentito carmack? ha detto che è in procinto di sviluppare un nuovo engine supportante in pieno i nuovi pixel e vertex shader 3.0...
mi sa tanto che quando ha visto l'unreal engine 3.0 l'hanno dovuto risvegliare a suon di calci nelle O.O ... ovviamente dopo aver fatto sta seguenza di espressioni :eek: :sbavvv: :cry: :muro:
e tim sweeney :fuck:
:asd: :asd: :asd:
Intanto ha già cominciato a sparare la minchiata che Doom 3 gira in modo perfetto su Nv40...come se non avesse dovuto girare prima su geffo3, poi 8500, geffo 4, 9700 ecc....
Nino Grasso
16-04-2004, 19:44
cmq stronzate a parte che ultimamente stanno sempre diventando + frequenti... carmack è un dio... sto rigiocando ai vecchi doom... e ASSURDO!!! quando spari la fiammata illumina gli ambienti circostanti!!! Cioè a giochi tipo Half Life e non solo ancora ste robe non succedevano!!! Oppure cose assurde del tipo che se un nemico colpiva un altro suo "collega" questi si riversava contro di lui fino ad ammazzarlo!!! cioè forse sembrano minkiate ma io quando le ho viste sono rimasto allibito!!! e cmq gran parte del gameplay dei giorni nostri è ancora rimasto invariato (in senso molto lato) dai primi DooM... cioè Carmack è un po' sboroooooone e un po' va dove tira il vento... ma resta pur sempre una leggenda!!! :D :D
Potete vedere tutta la presentazione (1h16m) dell'NV40 al seguente indirizzo.
mms://wm.on24.com/media/news/corporatevideo/events/6094/1_wmmulti.asf
E' un filmato in streaming ma io l'ho scaricato usando flashget (sono 150mb).
A proposito di MSI:
MSI ha annunciato la produzione di una scheda grafica basata GeForce NX6800 Ultra con sistema di raffreddamento estremamente silenzioso ed efficace realizzato in rame e rumorosità inferiore a 26 dB.
Le schede MSI vendute ad 550€ per la versione 6800 Ultra circa 350€ per la GeForce6800 (non Ultra).
Da H4U.
http://www.msicomputer.com/pressrelease/images_6800/pic1.jpg
Anonized
16-04-2004, 20:00
Originariamente inviato da MaBru
Potete vedere tutta la presentazione (1h16m) dell'NV40 al seguente indirizzo.
mms://wm.on24.com/media/news/corporatevideo/events/6094/1_wmmulti.asf
E' un filmato in streaming ma io l'ho scaricato usando flashget (sono 150mb).
risoluzione?
Anonized
16-04-2004, 20:04
lo sto scaricando...che c'è si preciso ? si vede bene?
Originariamente inviato da Anonized
risoluzione?
240*180
Anonized
16-04-2004, 20:51
visto! molto bello c'è proprio tutto...ovviamente l'ho visto "a pezzi" dura troppo!
predator frag
16-04-2004, 20:58
secondo voi in che cosa consiste il sistema di raffredamento della MSI...tutto in rame e solo 26 db di rumore...chissà come sarà...!!!!
Originariamente inviato da MaBru
Potete vedere tutta la presentazione (1h16m) dell'NV40 al seguente indirizzo.
mms://wm.on24.com/media/news/corporatevideo/events/6094/1_wmmulti.asf
E' un filmato in streaming ma io l'ho scaricato usando flashget (sono 150mb).
Mi dice che non trova niente.. :(
Romanino
16-04-2004, 21:51
io ho visto tutta la presentazione ( :O )... e non so se sia un prob del mio pc ( nn credo proprio visto che è un filmato... )...ma nel filmato della presentazione di everquest II e quello basato su u2003 nel filmato se ci fate caso scatta spesso e volentieri...ed ha problemi di aggiornamento...e poi quando l'ometto entra nell'acqua di everquest se ci fate caso la scia dell'acqua nn combacia col passaggio del personaggio ma viene visualizzata solo dopo qualche secondo e infatti subito dopo la prima volta si nota che passano in visuale in 1^ persona... che sia per camuffare la " scia " e nn far vedere che in realtà quest'ultima suca o forse per vedere il paesaggio nn sò... ma a me sta nv40 fà n'effetto strano... nn dico altro sennò gli n'vidisti se la prendono a male:rolleyes: ... ati powa 4evahhhh :sborone: :asd: :D
Io provo a scaricarlo con flashget, ma mi dice invalid input...
Come si scarica sto coso??
Romanino
16-04-2004, 22:08
io ho copiato e incollato direttamente l'url : mms://wm.on24.com/media/news/corporatevideo/events/6094/1_wmmulti.asf sono andato al link e mi ha aperto direttamente wmp ed è iniziato... ( ho wmp 9.0 ita e dsl 640 )
Si, così funziona, ma io volevo salvarlo perchè in internet sto col portatile, e volevo vederlo sul fisso.
COme si salva?
Originariamente inviato da xpiuma
Si, così funziona, ma io volevo salvarlo perchè in internet sto col portatile, e volevo vederlo sul fisso.
COme si salva?
Con flashget vai in edit, incolla l'URL e scaricalo normalmente.
Io ho fatto così e funziona.
-* Pisquano *-
16-04-2004, 22:37
Allora, si è capito la storia del FP 32, questa scheda è la bomba che sembra... :confused: inoltre con l' eventuale FP32 si è visto se le prestazioni calano...
Ho appena finito di rivedere il pezzo sull'Unreal Engine 3.
Confermo la prima impressione. Scatta.
Originariamente inviato da Koji
A proposito di MSI:
MSI ha annunciato la produzione di una scheda grafica basata GeForce NX6800 Ultra con sistema di raffreddamento estremamente silenzioso ed efficace realizzato in rame e rumorosità inferiore a 26 dB.
Le schede MSI vendute ad 550€ per la versione 6800 Ultra circa 350€ per la GeForce6800 (non Ultra).
Da H4U.
http://www.msicomputer.com/pressrelease/images_6800/pic1.jpg
Ottimo!!!
Sono indeciso tra MSI e Asus.
Peccato che le BFG non si vendano anche in Europa.
Originariamente inviato da ballero
Ottimo!!!
Sono indeciso tra MSI e Asus.
Peccato che le BFG non si vendano anche in Europa.
S' però non capisco perchè non lo facciano vedere questo sistema di raffredamento...mi sembra di rivedere la pubblicità sui giornali della MSI 5800 Ultra...si vedeva solo la scheda nuda, perchè era imbarazzante mostrarla con il phon incorporato! :rolleyes:
PhoEniX-VooDoo
16-04-2004, 23:00
aaaaahh! ammazza che botta, finalmente!
Mi sono letto 68pagine, mannaggia a me e alla passione per le schede video :muro: :muro: :D
A questo punto, se mi è conesso (hai voglia, dopo sta faticaccia!!) vorrei dire la mia!
Sinceramente la scheda non mi ha sorpreso, anzi...quello che mi avrebbe sorpreso è un flop (o un mezzo flop) tipo NV30. Dark Sch (non mi ricordo piu :p ) ha praticamente urlato al miracolo in diversi reply per via del architettura azzeccata, ma io dico: con tutto quel astrocapitale che si ritrovano, con tutto il tempo che hanno avuto e con tutto il popò di ingenieri e programmatori che dispongono, alla nVidia se non facevano una scheda decente tanto valeva che chidevano baracca e baracchini!!! O no? Eh daii!
AA: sinceramente mi aspettavo almeno un 6X applicabile...ma va bene lo stesso
AF: apparte l'aver adottato lo stesso sistema Ati...il trilinear filter do stà belli?
Lasciamo perdere la questione FP16/32...
Vabbhe per il resto vorrei dire che sono d'accordo con tutto quanto scritto dagli utenti Thunder82 e Royal
ora aspettiamo tranquillamente le X800...
saluti!
Romanino
16-04-2004, 23:06
Originariamente inviato da PhoEniX-VooDoo
aaaaahh! ammazza che botta, finalmente!
Mi sono letto 68pagine, mannaggia a me e alla passione per le schede video :muro: :muro: :D
A questo punto, se mi è conesso (hai voglia, dopo sta faticaccia!!) vorrei dire la mia!
Sinceramente la scheda non mi ha sorpreso, anzi...quello che mi avrebbe sorpreso è un flop (o un mezzo flop) tipo NV30. Dark Sch (non mi ricordo piu :p ) ha praticamente urlato al miracolo in diversi reply per via del architettura azzeccata, ma io dico: con tutto quel astrocapitale che si ritrovano, con tutto il tempo che hanno avuto e con tutto il popò di ingenieri e programmatori che dispongono, alla nVidia se non facevano una scheda decente tanto valeva che chidevano baracca e baracchini!!! O no? Eh daii!
AA: sinceramente mi aspettavo almeno un 6X applicabile...ma va bene lo stesso
AF: apparte l'aver adottato lo stesso sistema Ati...il trilinear filter do stà belli?
Lasciamo perdere la questione FP16/32...
Vabbhe per il resto vorrei dire che sono d'accordo con tutto quanto scritto dagli utenti Thunder82 e Royal
ora aspettiamo tranquillamente le X800...
saluti!
quoto pienamente :D ...e aggiungerei anche un bel :tapiro: alla nvidia... :rolleyes: . nn stò + in vena per sta ati... la vogliooo
:cry: :D
Norbrek™
16-04-2004, 23:10
Originariamente inviato da Romanino
quoto pienamente :D ...e aggiungerei anche un bel :tapiro: alla nvidia... :rolleyes: . nn stò + in vena per sta ati... la vogliooo
:cry: :D
Vabbè gente, un po' di obbiettività, io sono pro ati da come avrete capito benissimo dai miei messaggi, ma non per questo giudico nvidia con dei driver assolutamente non definitivi, per quanto riguarda la questione fp16/fp32 dobbiamo ancora vedere come girerà per esempio farcry in fp32, quindi perchè giudicare? Io stesso che sono fortemente pro ati:sofico: mi limiterò a giudicare una volta recensita con driver decenti....
Jaguar64bit
16-04-2004, 23:13
Ottima gpu questa 6800Ultra , il supporto ai Ps 3.0 l'AA migliorato colma le lacune in questi campi della serie Fx , i bench sono buoni su qualche gioco mi aspettavo qualcosa di piu' , ma c'e' da dire che le recensioni sono state fatte con esemplari di pre sample , in definitiva Nvidia si e' riscattata , speriamo in prezzi non troppo alti.
=>TaroKSoft<=
16-04-2004, 23:18
Originariamente inviato da Romanino
quoto pienamente :D ...e aggiungerei anche un bel :tapiro: alla nvidia... :rolleyes: . nn stò + in vena per sta ati... la vogliooo
:cry: :D
Per favore, non credo che nVidia si sia meritata il :tapiro: dato che i primi bench sono andati molto bene e si è lasciata indietro diversi problemi dell'architettura nv3x... certo non si può pretendere tutto subito! Qualche problema di incompatibilità poteva sorgere, ed è ovvio, non potete pretendere 0 problemi al primo set di drivers per una scheda video con architettura completamente nuova... :rolleyes:
ps edita quella foto in sign, è di dimensioni spropositate!!! :sofico:
PhoEniX-VooDoo
16-04-2004, 23:23
io ho avuto una 3dfx V3 2K, poi una GF2MX, poi una Radeon 32 DDR, poi una GF3 Ti200, poi una GF4 Ti4200 e adesso una 9800Pro. Compro il meglio, non mi interessa quale multinazionale ciucciasoldi l'abbia prodotto...ma non esito a dire come la penso.
Se le X800 non saranno al altezza (dubito però ;) ) non avero problemi a prendere una bella 6800Ultra.
ma intanto guardate dove mi è caduto l'occhio...
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/nv38lomac.png
GeForce FX 5950 Ultra
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/nv40lomac.png
GeForce 6800 Ultra
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/atilomac.png
RADEON 9800 XT
nella recensione ne parlano come "ualità migliore e peggiore" ...a me sembra anche qui un caso di FP16...o no?
Norbrek™
16-04-2004, 23:25
Originariamente inviato da PhoEniX-VooDoo
io ho avuto una 3dfx V3 2K, poi una GF2MX, poi una Radeon 32 DDR, poi una GF3 Ti200, poi una GF4 Ti4200 e adesso una 9800Pro. Compro il meglio, non mi interessa quale multinazionale ciucciasoldi l'abbia prodotto...ma non esito a dire come la penso.
Se le X800 non saranno al altezza (dubito però ;) ) non avero problemi a prendere una bella 6800Ultra.
ma intanto guardate dove mi è caduto l'occhio...
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/nv38lomac.png
GeForce FX 5950 Ultra
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/nv40lomac.png
GeForce 6800 Ultra
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/atilomac.png
RADEON 9800 XT
nella recensione ne parlano come "ualità migliore e peggiore" ...a me sembra anche qui un caso di FP16...o no?
Si allora non è un problema di farcry è proprio un vizio di ste schede...
Gustavo Dandolo
16-04-2004, 23:33
Originariamente inviato da checo
è una quadro, e quelle non sono 2 schede di rete, ma il gen-lock e frame-lock
Mi daresti maggiori informazioni? grazie :)
sanitarium
16-04-2004, 23:40
Originariamente inviato da PhoEniX-VooDoo
io ho avuto una 3dfx V3 2K, poi una GF2MX, poi una Radeon 32 DDR, poi una GF3 Ti200, poi una GF4 Ti4200 e adesso una 9800Pro. Compro il meglio, non mi interessa quale multinazionale ciucciasoldi l'abbia prodotto...ma non esito a dire come la penso.
Se le X800 non saranno al altezza (dubito però ;) ) non avero problemi a prendere una bella 6800Ultra.
ma intanto guardate dove mi è caduto l'occhio...
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/nv38lomac.png
GeForce FX 5950 Ultra
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/nv40lomac.png
GeForce 6800 Ultra
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/atilomac.png
RADEON 9800 XT
nella recensione ne parlano come "ualità migliore e peggiore" ...a me sembra anche qui un caso di FP16...o no?
E con questo siamo a 2, insieme a Far cry. Boh, aspettiamo e vediamo come si evolve la situazione dei driver...
Ottima scheda, il boost prestazionale c è, ora vediamo Ati cosa fa anche se la vedo dura...
E cmq c è da considerare che in questi ultimi 2 anni nvidia si è concentrata molto sui chipset x Amd con i risultati che tutti conosciamo (nforce), ora che si è rimessa a testa bassa sulle schede video ha sfornato un prodotto di ottima qualità.
Gatz1980
16-04-2004, 23:50
Originariamente inviato da PhoEniX-VooDoo
io ho avuto una 3dfx V3 2K, poi una GF2MX, poi una Radeon 32 DDR, poi una GF3 Ti200, poi una GF4 Ti4200 e adesso una 9800Pro. Compro il meglio, non mi interessa quale multinazionale ciucciasoldi l'abbia prodotto...ma non esito a dire come la penso.
Se le X800 non saranno al altezza (dubito però ;) ) non avero problemi a prendere una bella 6800Ultra.
ma intanto guardate dove mi è caduto l'occhio...
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/nv38lomac.png
GeForce FX 5950 Ultra
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/nv40lomac.png
GeForce 6800 Ultra
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/atilomac.png
RADEON 9800 XT
nella recensione ne parlano come "ualità migliore e peggiore" ...a me sembra anche qui un caso di FP16...o no?
Non so se qui si tratti di fp16, i colori mi sembrano giusti, chissà da cosa dipende quello strano difetto, addirittura presente in entrambe le GeForce. Probabilmente un difetto dei driver, siccome per entrambe hanno usato i 60.72.
Gustavo Dandolo
16-04-2004, 23:53
Originariamente inviato da Gatz1980
Non so se qui si tratti di fp16, i colori mi sembrano giusti, chissà da cosa dipende quello strano difetto, addirittura presente in entrambe le GeForce. Probabilmente un difetto dei driver, siccome per entrambe hanno usato i 60.72.
I miei dubbi sui driver li ho espressi in un lungo post molte pagine fa.
Thunder82
17-04-2004, 00:11
Originariamente inviato da PhoEniX-VooDoo
io ho avuto una 3dfx V3 2K, poi una GF2MX, poi una Radeon 32 DDR, poi una GF3 Ti200, poi una GF4 Ti4200 e adesso una 9800Pro. Compro il meglio, non mi interessa quale multinazionale ciucciasoldi l'abbia prodotto...ma non esito a dire come la penso.
Se le X800 non saranno al altezza (dubito però ;) ) non avero problemi a prendere una bella 6800Ultra.
ma intanto guardate dove mi è caduto l'occhio...
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/nv38lomac.png
GeForce FX 5950 Ultra
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/nv40lomac.png
GeForce 6800 Ultra
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/atilomac.png
RADEON 9800 XT
nella recensione ne parlano come "ualità migliore e peggiore" ...a me sembra anche qui un caso di FP16...o no?
Potrebbe essere dovuto alla mancanza del trilinear... sembra che sia fatto tutto in puro bilinear, si vede nettissimo il bordo delle mipmap.
Infatti la presenza del bilinear si nota soprattutto su colori tendenti al monocromatico e a toni scuri ;)
Phantom II
17-04-2004, 00:32
Sono assolutamente ignorante in materia, mi direste dove quelle tre immagini differiscono tra loro? A me paiono uguali :confused:
Thunder82
17-04-2004, 00:36
Originariamente inviato da Phantom II
Sono assolutamente ignorante in materia, mi direste dove quelle tre immagini differiscono tra loro? A me paiono uguali :confused:
Guarda gli alettoni dell'aereo
Thunder82
17-04-2004, 00:37
Temperature
http://www.hardware4you.sm/nucleus/media/1/20040416-temp.jpg
In estate è lecito aspettarsi 80° sulla GPU
sanitarium
17-04-2004, 00:37
Originariamente inviato da Phantom II
Sono assolutamente ignorante in materia, mi direste dove quelle tre immagini differiscono tra loro? A me paiono uguali :confused:
Guarda le 2 "alette" dell'aereo (non so qual è il termine tecnico): l'immagine ottenuta con la 9800XT mostra un colore uniforme, mentre le immagini riferite alle 2 geforce hanno una qualità decisamente scadente...
Thunder82
17-04-2004, 00:41
Originariamente inviato da sanitarium
Guarda le 2 "alette" dell'aereo (non so qual è il termine tecnico): l'immagine ottenuta con la 9800XT mostra un colore uniforme, mentre le immagini riferite alle 2 geforce hanno una qualità decisamente scadente...
Ciao Sani! :D
Gli alettoni si chiamano impennaggio, ho fatto l'esame proprio oggi sulla fluidodinamica e i profili alari! :D
Phantom II
17-04-2004, 00:43
Grazie ragazzi, adesso ho capito.
Tanto per curiosità, quegli screen devono essere stati presi da Lock On immagino, sapete mica a quanti fps gira sulle tre schede in esame?
Thunder82
17-04-2004, 00:58
Originariamente inviato da Phantom II
Grazie ragazzi, adesso ho capito.
Tanto per curiosità, quegli screen devono essere stati presi da Lock On immagino, sapete mica a quanti fps gira sulle tre schede in esame?
L'ho postato qualche pagina fa, cmq a 1024x768 senza filtri
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/lockon_1024_pure.gif
Veramente pochi fps
sanitarium
17-04-2004, 00:58
Originariamente inviato da Thunder82
Ciao Sani! :D
Gli alettoni si chiamano impennaggio, ho fatto l'esame proprio oggi sulla fluidodinamica e i profili alari! :D
Ciao Thundy! :D
Grazie della correzione, lo dico sempre che su questo forum non si finisce mai di imparare! ;)
Andato bene l'esame?
Io non vedo differenze sinceramente...
Ciaozzz
Jaguar64bit
17-04-2004, 01:03
Originariamente inviato da Thunder82
L'ho postato qualche pagina fa, cmq a 1024x768 senza filtri
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/lockon_1024_pure.gif
Veramente pochi fps
La 6800Ultra e' cpu limited , servirebbe una cpu a 4 giga per sfruttarla.
Jaguar64bit
17-04-2004, 01:04
Originariamente inviato da Thunder82
Temperature
http://www.hardware4you.sm/nucleus/media/1/20040416-temp.jpg
In estate è lecito aspettarsi 80° sulla GPU
Scalda troppo decisamente.
Gustavo Dandolo
17-04-2004, 01:05
Originariamente inviato da Jaguar64bit
La 6800Ultra e' cpu limited , servirebbe una cpu a 4 giga per sfruttarla.
Come fai a dirlo?
Thunder82
17-04-2004, 01:07
Originariamente inviato da Jaguar64bit
La 6800Ultra e' cpu limited , servirebbe una cpu a 4 giga per sfruttarla.
Lock on è proprio pesante per la vga ;)
Thunder82
17-04-2004, 01:08
Originariamente inviato da sanitarium
Ciao Thundy! :D
Grazie della correzione, lo dico sempre che su questo forum non si finisce mai di imparare! ;)
Andato bene l'esame?
Spero sia andato bene, anche se sicuramente la mia nuova calcolatrice HP 49g+ con la secure digital da 64MB (file di testo rulez) mi ha dato una mano! :sofico:
Jaguar64bit
17-04-2004, 01:08
Originariamente inviato da Gustavo Dandolo
Come fai a dirlo?
Non sono io a dirlo , lo sanno tutti , per tirare una gpu da 222 milioni di transistor le cpu tipo p4 3giga non bastano , chiedi ad altri.
Jaguar64bit
17-04-2004, 01:09
Originariamente inviato da Thunder82
Lock on è proprio pesante per la vga ;)
Piu' che pesante e' programmato con i piedi ;)
Thunder82
17-04-2004, 01:10
Originariamente inviato da Jaguar64bit
Piu' che pesante e' programmato con i piedi ;)
Non direi ;)
Ci sono veramente una marea di effetti, e se li calcola tutti la vga.
sanitarium
17-04-2004, 01:11
Originariamente inviato da CYRANO
Io non vedo differenze sinceramente...
Ciaozzz
Ingrandimento del 215%:
NVidia
http://supraptor.altervista.org/immagini/forum/6800.jpg
ATi
http://supraptor.altervista.org/immagini/forum/9800.jpg
Non noti nessuna differenza qualitativa fra le 2 aree evidenziate in rosso?
sanitarium
17-04-2004, 01:12
Originariamente inviato da Thunder82
Spero sia andato bene, anche se sicuramente la mia nuova calcolatrice HP 49g+ con la secure digital da 64MB (file di testo rulez) mi ha dato una mano! :sofico:
La tecnologia al servizio dell'uomo! :sofico:
Jaguar64bit
17-04-2004, 01:13
Originariamente inviato da Thunder82
Non direi ;)
Ci sono veramente una marea di effetti, e se li calcola tutti la vga.
Non giustificano le misere 27 frame su di una vga come la 6800U , fossi i programmatori mi vergognrei.
Originariamente inviato da sanitarium
Ingrandimento del 215%:
NVidia
http://supraptor.altervista.org/immagini/forum/6800.jpg
ATi
http://supraptor.altervista.org/immagini/forum/9800.jpg
Non noti nessuna differenza qualitativa fra le 2 aree evidenziate in rosso?
Tirando la luminosità del monitor al 95% ( dopo 5 sec mi esplodono gli occhi ) si vede la differenza.
Ma a luminosità normale io le vedo entrambe scure e praticamente uguali.
Ciaozzz
Thunder82
17-04-2004, 01:14
Originariamente inviato da Jaguar64bit
Non giustificano le misere 27 frame su di una vga come la 6800U , fossi i programmatori mi vergognrei.
L'hai visto girare? Ti assicuro che coi dettagli al massimo è uno spettacolo e i 27fps sono giustificati. :)
sanitarium
17-04-2004, 01:15
Originariamente inviato da CYRANO
Tirando la luminosità del monitor al 95% ( dopo 5 sec mi esplodono gli occhi ) si vede la differenza.
Ma a luminosità normale io le vedo entrambe scure e praticamente uguali.
Ciaozzz
Non è che tieni il monitor troppo scuro? :D
Io ho la luminosità al 50%, e la differenza tra le 2 foto la noto, e neanche poco...
Jaguar64bit
17-04-2004, 01:18
Originariamente inviato da Thunder82
L'hai visto girare? Ti assicuro che coi dettagli al massimo è uno spettacolo e i 27fps sono giustificati. :)
I dettagli fanno paura , ma converrai che 27 fps su di una 6800U non fanno esaltare , a mio parere ....poi con l'AA quante fps fa' , 10 ?
Originariamente inviato da sanitarium
Non è che tieni il monitor troppo scuro? :D
Io ho la luminosità al 50%, e la differenza tra le 2 foto la noto, e neanche poco...
Anche io lo tengo sul 50%... sarà un po' scuretto..ma a me va bene così :D
Ciaozzz
Thunder82
17-04-2004, 01:21
Con 27fps ci giochi abbastanza bene a un simulatore.
Dimmi se non ne vale la pena :)
http://www.wargamer.com/articles/lockon_screenshots/lomac_04.jpg
E questo è solo un assaggio della sua grafica, non è stato utilizzato l'heat haze, con il quale vedi l'aria calda dietro ai motori traslucida e che fa l'effetto "miraggio", bellissimo (p.s. sulla ti4200 tutto al max girava a 5 fps quando accendevi i postbruciatori e in altri casi di intenso pixel shading)
Questi i fps coi filtri:
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/lockon_1024_candy.gif
Originariamente inviato da CYRANO
Anche io lo tengo sul 50%... sarà un po' scuretto..ma a me va bene così :D
Ciaozzz
t consiglio una visita oculistica...
nn skerzo, è impossibile ke per vedere le differenze t serva alzare la luminosità a tal punto da sentirti gli okki esplodere...
d'altronde...il tuo numero d post su qst forum toglie qualsiasi dubbio sul tempo ke passi davanti a un pc :D
bYeZ!
Originariamente inviato da Thunder82
Questi i fps coi filtri:
http://www.xbitlabs.com/images/video/nv40/nv40_games_gif/lockon_1024_candy.gif
hmmm direi decisamente affamato d cpu qst gioco...
d'altronde cm tt i simulatori :)
bYeZ!
Thunder82
17-04-2004, 01:26
Originariamente inviato da ATi7500
hmmm direi decisamente affamato d cpu qst gioco...
d'altronde cm tt i simulatori :)
bYeZ!
no no, vuole la vga potente :)
Originariamente inviato da Thunder82
no no, vuole la vga potente :)
negli altri test quel piccolo overclock faceva miracoli
qui no...
bYeZ!
Originariamente inviato da Koji
S' però non capisco perchè non lo facciano vedere questo sistema di raffredamento...mi sembra di rivedere la pubblicità sui giornali della MSI 5800 Ultra...si vedeva solo la scheda nuda, perchè era imbarazzante mostrarla con il phon incorporato! :rolleyes:
Se MSI utilizzasse lo stesso sistema di raffreddamento delle 5900Ultra sarebbe una gran cosa visto che è veramente silenziosissimo (ed anche molto carino a vedersi) ed anche il software a corredo dovrebbe essere come al solito notevole per ora di certo cè solo UT2004
Thunder82
17-04-2004, 01:30
Originariamente inviato da ATi7500
negli altri test quel piccolo overclock faceva miracoli
qui no...
bYeZ!
Ma attivando i filtri perde più del 20% (da 27 a 20 fps), sintomo di vga-dipendenza :)
Originariamente inviato da Thunder82
http://www.wargamer.com/articles/lockon_screenshots/lomac_04.jpg
Minchia , ingrandendo del 1000% si vede una coppia che tromb@ in un boschetto laggiù!
:D
Ciaozzz
Originariamente inviato da ATi7500
t consiglio una visita oculistica...
nn skerzo, è impossibile ke per vedere le differenze t serva alzare la luminosità a tal punto da sentirti gli okki esplodere...
d'altronde...il tuo numero d post su qst forum toglie qualsiasi dubbio sul tempo ke passi davanti a un pc :D
bYeZ!
:D
oh oh oh
Ciaozzz
Thunder82
17-04-2004, 01:33
Originariamente inviato da CYRANO
Minchia , ingrandendo del 1000% si vede una coppia che tromb@ in un boschetto laggiù!
:D
Ciaozzz
Dove dove, in che punto? :oink:
Gustavo Dandolo
17-04-2004, 01:37
Originariamente inviato da Jaguar64bit
Non sono io a dirlo , lo sanno tutti , per tirare una gpu da 222 milioni di transistor le cpu tipo p4 3giga non bastano , chiedi ad altri.
Io chiedo a te, perchè sei tu che l'hai detto. I calcoli son affidati alla gpu e non alla cpu in quel caso, si nota chiaramente dal frame rate confrontato con le altre schede video top d nVIDIA e ATi.
Originariamente inviato da Jaguar64bit
Piu' che pesante e' programmato con i piedi ;)
E tu che ne sai? Quando si è carichi di effetti, di texture pesanti, con tutti quei calcoli da fare sulle superfici le prestazioni crollano. Un gioco programmato male è per esempio Halo, non questo.
Originariamente inviato da Jaguar64bit
Non giustificano le misere 27 frame su di una vga come la 6800U , fossi i programmatori mi vergognrei.
Si come no, io mi vergognerei a scrivere queste cose. Mica è uno sparatutto. E ad ogni modo aspettiamo la soluzione di ATi per vedere quanti fps riesce a sprigionare ;)
Gustavo Dandolo
17-04-2004, 01:38
Originariamente inviato da ATi7500
negli altri test quel piccolo overclock faceva miracoli
qui no...
Aridaje :D
Originariamente inviato da Thunder82
Dove dove, in che punto? :oink:
No dai.. era per complimentarmi per la grafica...
Marò non gioco ad un simulatore da... oddio... anni... non mi ricordo manco il titolo...ufff... era di una software huose specializzata.. si pilotavano vari aerei partendo da una base navale...
vabbeh... comunque... preferisco quelli arcade ;)
Ciaozzz
Gustavo Dandolo
17-04-2004, 01:39
Originariamente inviato da Thunder82
Ma attivando i filtri perde più del 20% (da 27 a 20 fps), sintomo di vga-dipendenza :)
Thunder mi spieghi per benino cosa intendi? il discorso sembra interessante :)
Thunder82
17-04-2004, 01:55
Originariamente inviato da Gustavo Dandolo
Thunder mi spieghi per benino cosa intendi? il discorso sembra interessante :)
Se sei cpu-limited, vuol dire che la tua GPU è in grado di produrre, chessò, 60fps, ma la cpu non ce la fa a passargli i dati con quella velocità, e riesce a garantirgli dati solo per, diciamo, 40fps. Ecco, allora la scheda andrà a 40fps per colpa della cpu lenta, anche se teoricamente riuscirebbe a tirare fuori più fps.
Attiva ora i filtri. I filtri provocano un decadimento di prestazioni. Diciamo che coi filtri quella scheda, invece di tirare fuori 60 fps, ne tira fuori solo 45. ok, la cpu è la stessa di prima, che riesce a sfornare solo dati per garantire un max di 40fps alla scheda, ed ecco che la scheda (anche se sarebbe in grado di darti 45fps) ti da solo 40fps, cioè te NON VEDI DIFFERENZA in fps fra filtri OFF e filtri ON, perchè la cpu limita la scheda. Questo è un tipico caso di CPU-LIMITED.
Fai ora il ragionamento opposto: hai una cpu velocissima, che ti garantisce di mandare dati alla scheda a una velocità tale da potergli fare elaborare teoricamente 80fps. La scheda però, poverina, è quella di prima che senza filtri fa 60fps, ed ecco allora che te vedrai 60fps anche se la cpu te ne potrebbe offrire 80. Attiva ora i filtri, la scheda ti potrebbe dare 45fps e la cpu 80. Ok, te vedrai 45fps. Quindi passando da filtri off a filtri on hai visto un calo di prestazioni. Questo perchè la scheda non è limitata dalla CPU. Questo è il caso di vga-limited, cioè il tuo sistema, che potrebbe dare molto, è limitato nelle prestazioni dalla vga.
Tipici esempi di cpu-limited sono i duron 1000 con una 9800xt ad esempio.
Tipici esempi di vga-limited sono i pc da "supermercato", quelli col P4 3.4GHz e la geforce FX 5200 :Puke:
Spero di essere stato chiaro :)
JENA PLISSKEN
17-04-2004, 02:04
CMq la diff delle 23 imm con le code deglia erei hanno una diff abissale...che porcheria:rolleyes: ...cmq sembra + un problema dei driver;)
Thunder82
17-04-2004, 02:05
Originariamente inviato da JENA PLISSKEN
CMq la diff delle 23 imm con le code deglia erei hanno una diff abissale...che porcheria:rolleyes: ...cmq sembra + un problema dei driver;)
Mah, quel problema ce l'ha anche la 5950 che ha driver ben maturi ormai...
Originariamente inviato da Romanino
io ho copiato e incollato direttamente l'url : mms://wm.on24.com/media/news/corporatevideo/events/6094/1_wmmulti.asf sono andato al link e mi ha aperto direttamente wmp ed è iniziato... ( ho wmp 9.0 ita e dsl 640 )
edita la sign please non siamo al circo
:rolleyes:
Originariamente inviato da Gustavo Dandolo
Mi daresti maggiori informazioni? grazie :)
non sono in gradi di darti informazioni precise di sicuro è come ti ho detto sull utilizzo di gen-lock e frame-lock prova a fare una ricerca, a me sinceramente on interessa e non mi sono mai documentato
;)
JENA PLISSKEN
17-04-2004, 02:11
Originariamente inviato da Thunder82
Mah, quel problema ce l'ha anche la 5950 che ha driver ben maturi ormai...
Sull' altro thread R@nda a detto che inFC è tutto perfetto, sono gli shots che nn rendono le vere immagini...mah...gli dovrei credere??:confused: :confused:
Thunder82
17-04-2004, 02:13
Originariamente inviato da JENA PLISSKEN
Sull' altro thread R@nda a detto che inFC è tutto perfetto, sono gli shots che nn rendono le vere immagini...mah...gli dovrei credere??:confused: :confused:
Effetti post-framebuffer? Non credo...
Thunder82
17-04-2004, 02:14
Filtro anisotropico
http://www.tech-report.com/reviews/2004q2/geforce-6800ultra/index.x?pg=19
JENA PLISSKEN
17-04-2004, 02:15
Originariamente inviato da Thunder82
Effetti post-framebuffer? Non credo...
MAH...lui dice di NN vedere quei difetti grafici...insomma chi è che spara balle??:confused:
Originariamente inviato da Thunder82
no no, vuole la vga potente :)
anchge , ma anche la cpu dato che la stessa scheda overcloccata o liscia fa gli stessi fos quando in tutti gli altri bench ha dei bei guadagni
Originariamente inviato da Gustavo Dandolo
Si come no, io mi vergognerei a scrivere queste cose. Mica è uno sparatutto. E ad ogni modo aspettiamo la soluzione di ATi per vedere quanti fps riesce a sprigionare ;)
io dico 30-35 al massimo, e mi pare troppo poco
JENA PLISSKEN
17-04-2004, 02:17
Originariamente inviato da checo
anchge , ma anche la cpu dato che la stessa scheda overcloccata o liscia fa gli stessi fos quando in tutti gli altri bench ha dei bei guadagni
Mi pare chiaro;)
Thunder82
17-04-2004, 02:18
Originariamente inviato da JENA PLISSKEN
MAH...lui dice di NN vedere quei difetti grafici...insomma chi è che spara balle??:confused:
Bisognerebbe chiedere a fek o yossarian o cmq qualcuno che se ne intende se alcuni effetti vengono applicati dopo il framebuffer. E' l'unico modo per saperlo mi sa :)
Originariamente inviato da Thunder82
Effetti post-framebuffer? Non credo...
sembra qualcosa del genere
PhoEniX-VooDoo
17-04-2004, 02:22
Originariamente inviato da Thunder82
Filtro anisotropico
http://www.tech-report.com/reviews/2004q2/geforce-6800ultra/index.x?pg=19
figo, danno un tocco di colore in piu al gioco! :sofico: :sofico:
ma che roba è? ...bug?
PhoEniX-VooDoo
17-04-2004, 02:22
<error>
Originariamente inviato da JENA PLISSKEN
Mi pare chiaro;)
ad altri no ditemi quello che volete ma lock-on non va bene per giudicare una sk video come la 6800
Originariamente inviato da PhoEniX-VooDoo
figo, danno un tocco di colore in piu al gioco! :sofico: :sofico:
ma che roba è? ...bug?
no, sono le transizioni delle mipmap enfatizzate con colori falsati ;)
bYeZ!
Originariamente inviato da Thunder82
Filtro anisotropico
http://www.tech-report.com/reviews/2004q2/geforce-6800ultra/index.x?pg=19
mmmm in opengl sembra identico a quello ATi...
bYeZ!
Thunder82
17-04-2004, 02:36
Originariamente inviato da ATi7500
mmmm in opengl sembra identico a quello ATi...
bYeZ!
sì ma con le "trilinear optimizations" che sono nei driver (terza immagine) sembra un bilinear :)
Thunder82
17-04-2004, 02:41
Ho creato una gif, prendendo le immagini del 3dmark della rece di hwupgrade con AA4x, che dimostra come l'AA4x di ati sia ancora superiore a quello di nVidia, a causa della correzione gamma che nVidia non ha implementato:
http://web.tiscali.it/thunder82/antialiasing.gif
Si vede anche qualche sfocatura sulle texture (guardate la roccia in primo piano ad esempio) per la 6800...
Originariamente inviato da Thunder82
sì ma con le "trilinear optimizations" che sono nei driver (terza immagine) sembra un bilinear :)
BRilinear ;)
e cmq nn sembrava inferiore come qualità anke su High Quality a qll d ati?
bYeZ!
ma....
esiste da molto www.nvidia.it ?????
:eek:
bYeZ!
Jaguar64bit
17-04-2004, 02:55
Originariamente inviato da Gustavo Dandolo
Io chiedo a te, perchè sei tu che l'hai detto. I calcoli son affidati alla gpu e non alla cpu in quel caso, si nota chiaramente dal frame rate confrontato con le altre schede video top d nVIDIA e ATi.
E tu che ne sai? Quando si è carichi di effetti, di texture pesanti, con tutti quei calcoli da fare sulle superfici le prestazioni crollano. Un gioco programmato male è per esempio Halo, non questo.
Si come no, io mi vergognerei a scrivere queste cose. Mica è uno sparatutto. E ad ogni modo aspettiamo la soluzione di ATi per vedere quanti fps riesce a sprigionare ;)
Una gpu deve essere spinta al massimo delle proprie performance dalla cpu , non e' una cosa a se stante , se installi una 6800Ultra su di un pc con P3 500 pensi che faccia le stesse frame ? per spingere al limite una 6800Ultra a mio parere ci vuole una cpu da 4 giga.
continuo a pensare che quel gioco e' pesante in maniera ingiustificata , e trovo penoso che giri a 27 misere fps su di una 6800U , il fatto che sia programmato con i piedi lo si deduce vedendo che tra una 9800Xt e una 6800U ci sono 5 fps di differenza.
Sai che per avere una fluidita' degna un gioco deve giare a 42 fps ? dopo le 42 fps l'occhio non nota differenze abissali.
Ps : mi auguro che tu non sia il solito clone , vergognati tu per il tono che hai tenuto.
Thunder82
17-04-2004, 02:59
Si vede la gif che ho uppato? :confused:
Jaguar64bit
17-04-2004, 03:03
Originariamente inviato da Thunder82
Si vede la gif che ho uppato? :confused:
Quale ? lo shot dell'aereo ?
Thunder82
17-04-2004, 03:04
No, quella alla fine della pagina precedente, ho fatto una gif con le differenze dell'AA ma probabilmente lo spazio web tiscali fa cag@re :muro:
Jaguar64bit
17-04-2004, 03:09
Originariamente inviato da Thunder82
No, quella alla fine della pagina precedente, ho fatto una gif con le differenze dell'AA ma probabilmente lo spazio web tiscali fa cag@re :muro:
Vai qui
http://www.tombraiders.it/public/
Thunder82
17-04-2004, 03:11
Originariamente inviato da Jaguar64bit
Vai qui
http://www.tombraiders.it/public/
Lo so ma il file è troppo grosso (700KB) e mi da "tempo per lo script esaurito" :cry:
Originariamente inviato da ATi7500
ma....
esiste da molto www.nvidia.it ?????
:eek:
bYeZ!
da anni.
Sei rimasto sorpreso?:eek: :)
goldorak
17-04-2004, 06:39
Originariamente inviato da Jaguar64bit
continuo a pensare che quel gioco e' pesante in maniera ingiustificata , e trovo penoso che giri a 27 misere fps su di una 6800U , il fatto che sia programmato con i piedi lo si deduce vedendo che tra una 9800Xt e una 6800U ci sono 5 fps di differenza.
Questa e' la prova lampante che lock-on dipende quasi totalmente dalla cpu, non e' in se una limitazione.
Anonized
17-04-2004, 09:41
probabilmente Shuttle rilascerà un ali a 350 watt o + per XPC...e così la monterò anch'io! :cool: (se ci sta) :D
JENA PLISSKEN
17-04-2004, 10:24
Originariamente inviato da Jaguar64bit
Una gpu deve essere spinta al massimo delle proprie performance dalla cpu , non e' una cosa a se stante , se installi una 6800Ultra su di un pc con P3 500 pensi che faccia le stesse frame ? per spingere al limite una 6800Ultra a mio parere ci vuole una cpu da 4 giga.
continuo a pensare che quel gioco e' pesante in maniera ingiustificata , e trovo penoso che giri a 27 misere fps su di una 6800U , il fatto che sia programmato con i piedi lo si deduce vedendo che tra una 9800Xt e una 6800U ci sono 5 fps di differenza.
Sai che per avere una fluidita' degna un gioco deve giare a 42 fps ? dopo le 42 fps l'occhio non nota differenze abissali.
Ps : mi auguro che tu non sia il solito clone , vergognati tu per il tono che hai tenuto.
Concordo...;)
OverClocK79®
17-04-2004, 10:29
....e sottoscrivo ;)
BYEZZZZZZZZZZZZ
Premesso che penso anche io che Lock ON su Una CPU + potente darebbe risultati ben superiori,sia sulla generazione attuale che quella nuova.
Non avrei nessun motivo di dire balle sulla questione delle immagini di FarCry.....però io non ho detto che l'effetto (le non sfumature negli shot) in game non ci sono.
Ho detto solo che gli shot scattati da dentro il gioco sono diversi
dall'effettiva qualità del gioco in movimento.
Le foto vengono più scure e mancano dei riflessi.
Mentre invece l'effetto (chiamiamolo fp16?) c'è anche in game.....molto meno accentuato ma c'è.
Adesso anche lock On....spero che sia una magagna dei drivers....ma se ci fate caso questo difetto viene fuori quando si utilizzano Vertex e Shader sulle superfici......le 5950 e la 6800 calcolano in FP16 perchè i giochi attuali sono programmati per girare così sulle Nv30......mentre sulle Ati vanno sempre in FP24....e quei bit in più eliminano il difetto rendendo il colore omegeneo.
Insomma è come guardare una foto del desktop a 16bit e poi a 32bit....stessa cosa,l'effetto/difetto è quello.
Se è un problema di drivers verrà risolto...se è un problema dei giochi attuali o esce una patch,o li vedremo sempre così.
Quel che è certo è che se programmata in FP16 la scheda mostrerà sempre quelle bande sui colori da sfumare quando si usano VS&PS......e quindi bisogna anche vedere se la scheda regge in prestazioni lavorando nei giochi sempre in FP32.
Spero per Nvidia....
(Aggiungo pure....chiamali fessi in ATi che hanno deciso di usare la FP in 24bit;) .......)
PSYCOMANTIS
17-04-2004, 11:17
Il processore nella fase di rendering si occupa del calcolo delle coordinate geometriche (oltre che delle logiche di gioco) mentre la scheda video si occupa delle restanti fasi.
Per essere limitata dalla cpu la scheda video deve riuscire a gestire le fasi di rendering piu' velocemente di quanto faccia il processore a calcolare le coordinate geometriche. Di solito questo avviene alle basse risoluzioni, in presenza di pochi effetti grafici oppure quando la quantita' di vertici da calcolare e' enorme. Aumentando la risoluzione e gli effetti grafici il carico di lavoro per la scheda video aumenta in modo significativo mentre per il processore non cambia visto che le coordinate geometriche rimangono le stesse anche al variare della risoluzione.
Quello che determina se il gioco sara' piu' o meno cpu limited e' la quantita' di coordinate geometriche da gestire e questo valore e' determinato in fase di programmazione. Quindi quando si dice che per sfruttare la 6800u ci vuole un procio a 64 bit si dice una verita' soltanto a meta', infatti se e' vero che un processore a 64 bit riece a tenere a "Bada" una quantita' esagerata di coordinate e' anche vero che NV40 non e' in grado di renderizzarle tutte ad un frame rates decente usando il massimo del suo potenziale.
Esempio:
Se Far Cry avesse bump mapping ovunque, se le texture usassero il multitexturing (come in Halo) se l'acqua fosse in pixel shader, e se venissero renderizzati con gli effetti anche i poligoni a 2km di distanza, credete davvero che Nv40 sarebbe in grado di mantenere il gioco ad un frame rates decente? Io penso di no, e in questo caso sarebbe stato Nv40 a non stare dietro ad un p4 3.2. che come sappiamo invece ce la fa benissimo*.
Quindi come vedete tutto e' relativo non esiste una configurazione ottimale ma tutto dipende dalle scelte effettuate in fase di programmazione.
* Per verificare ho impostato Far Cry ad una risoluzione di 640x480 con i dettagli al minimo in modo da alleggerire la sezione video, bene in queste condizion i frames non sono mai scesi sotto il valore di 60 e questo significa che il mio procio e' in grado di gestire quei frames anche con AA4x aniso a16x, bump mapping, Multitexturing ecc. ecc. se solo esistesse una scheda in grado di farlo.
Nella presentazione dell'NV40 è stato detto che lo sviluppo dell'NV40 è durato 2 anni, ha impegnato un centinaio di ingegneri ed è costato 400 milioni di dollari. Poi nell'ultimo anno nVidia ha investito qualcosa come un miliardo di dollari solo nel R&D.
Interessante, vero? :)
NV40 sinceramente mi ha sorpreso positivamente, mi ha lasciato un pò di stucco invece Lock-on, e anche io concordo sul fatto che sia cpu-limited, mi sembra impossibile che anche una scheda cosi nuova non riesca a girare un gioco programmato quando c'erano le 9800xt...
Anonized
17-04-2004, 11:55
da 3dItalia:
Le capacità delle GeForce 6 non ancora sfruttabili
Uno dei punti di forza della nuova linea di GPU GeForce 6 che nVIDIA ha da poco presentato risiede nel supporto alle specifiche dei Pixel/Vertex Shaders 3.0. Ma il rovescio della medaglia sta nel fatto che queste funzionalità non possono essere ancora utilizzate perché non supportate dalle attuali librerie grafiche!
Microsoft, infatti, aveva inizialmente previsto, nel 2002 di inserire nelle sue DirectX 9.0 il General Shader Model 3.0, voce sotto cui erano raccolte le specifiche per i Pixel Shader 3.0 ed i Vertex Shader 3.0: rispetto alle specifiche della versione 2.0, il GSM 3.0 permette ai programmatori di utilizzare programmi con un numero di istruzioni ben maggiore così da permettere effetti grafici molto più complessi sulle GPU di ultima generazione. Ma in seguito Microsoft fece un passo indietro e decise di eliminare la versione 3.0 integrando l'attuale 2.0.
nVIDIA ha, perciò, dichiarato che per sfruttare appieno le capacità delle sue ultime GPU serviranno le DirectX 9.0c, la nuova release delle API di Microsoft che attualmente è distribuita in versione beta agli sviluppatori di giochi ed applicazioni grafiche.
fenicered
17-04-2004, 12:01
Nvidia ha puntualizzato che per poter sfruttare i P/V S 3.0 bisognerà attendere le Dx9.0c
mi chiedevo a quando la presentazione delle prime schede compatibili con le dx10, perchè mi sembra di ricordare il loro arrivo a fine 4Q2004 ,
le ultime roadmap che ho visionato sia di Ati e Nvidia si fermano al 3Q2003, qualcuno è in grado di aggiornarmi a riguardo.
Originariamente inviato da Anonized
da 3dItalia:
Le capacità delle GeForce 6 non ancora sfruttabili
Uno dei punti di forza della nuova linea di GPU GeForce 6 che nVIDIA ha da poco presentato risiede nel supporto alle specifiche dei Pixel/Vertex Shaders 3.0. Ma il rovescio della medaglia sta nel fatto che queste funzionalità non possono essere ancora utilizzate perché non supportate dalle attuali librerie grafiche!
Microsoft, infatti, aveva inizialmente previsto, nel 2002 di inserire nelle sue DirectX 9.0 il General Shader Model 3.0, voce sotto cui erano raccolte le specifiche per i Pixel Shader 3.0 ed i Vertex Shader 3.0: rispetto alle specifiche della versione 2.0, il GSM 3.0 permette ai programmatori di utilizzare programmi con un numero di istruzioni ben maggiore così da permettere effetti grafici molto più complessi sulle GPU di ultima generazione. Ma in seguito Microsoft fece un passo indietro e decise di eliminare la versione 3.0 integrando l'attuale 2.0.
nVIDIA ha, perciò, dichiarato che per sfruttare appieno le capacità delle sue ultime GPU serviranno le DirectX 9.0c, la nuova release delle API di Microsoft che attualmente è distribuita in versione beta agli sviluppatori di giochi ed applicazioni grafiche.
Come già detto da fek questa è una mezza fregnaccia, nel senso che con le DX9b si può già usare lo Shader Model 3.0, basta scrivere gli shader in assembler.
Quello che le DX9c introdurranno è il supporto allo SM 3.0 via HLSL (più altri profili intermedi per l'R420).;)
Originariamente inviato da MaBru
Come già detto da fek questa è una mezza fregnaccia, nel senso che con le DX9b si può già usare lo Shader Model 3.0, basta scrivere gli shader in assembler.
Quello che le DX9c introdurranno è il supporto allo SM 3.0 via HLSL (più altri profili intermedi per l'R420).;)
Esatto.
Tra l'altro puoi prgrammare in tutte le versioni di shader che vuoi
ma se lo fai sempre in FP16 avrai quel difetto nei colori sfumati.....per quanto lieve in game c'è.
(sempre che sia un difetto da FP16......anche se non vedo che altro possa essere)
Su gfzone.it hanno messo una comparativa sul PS2.0 e PS3.0 con Farcry....
allora non bisogna proprio aspettare le directx9.0c per vederli implementati se il gioco li supporta..... altrimenti queste foto come le hanno fatte ?
PS2.0
http://www.pcper.com/images/reviews//FarCry_before3_small.jpg
PS3.0
http://www.pcper.com/images/reviews//FarCrafter3_small.jpg
Sawato Onizuka
17-04-2004, 13:01
:mc:
scusate raga nn so se l'avete già postato e notato cmq causa tempo nn posso leggere tutto ...
ho trovato una 6800 proabilmente Ultra con sezione di alimentazione Potenziata e 1 solo molex
http://www.vr-zone.com/?i=681&s=2 (la Aopen! :oink: )
nn vedo sul pcb una zona "morta" per implementare il 2° molex, quindi o è la liscia o un modello BEN rivisto :sofico:
Mah...a me sinceramente la prima figura mi sembra tratta da un gioco dx7,non vedo dove sia il pixel shader 2.0:confused:
goldorak
17-04-2004, 13:04
Originariamente inviato da pippop
Mah...a me sinceramente la prima figura mi sembra tratta da un gioco dx7,non vedo dove sia il pixel shader 2.0:confused:
E' in ps2.0 pero' calcolata alla maniera di nvidia in mixed mode fp16/fp32 oppure solo in fp16.
Ovvio che sfigura rispetto al ps2.0 della ati che viene calcolata in fp24.
JENA PLISSKEN
17-04-2004, 13:05
La parete sulla dx è fantastica...:rolleyes:
JENA PLISSKEN
17-04-2004, 13:10
Originariamente inviato da Sawato Onizuka
:mc:
scusate raga nn so se l'avete già postato e notato cmq causa tempo nn posso leggere tutto ...
ho trovato una 6800 proabilmente Ultra con sezione di alimentazione Potenziata e 1 solo molex
http://www.vr-zone.com/?i=681&s=2 (la Aopen! :oink: )
nn vedo sul pcb una zona "morta" per implementare il 2° molex, quindi o è la liscia o un modello BEN rivisto :sofico:
Pare di si...mitica la LEADTEK:eek: :eek:
Originariamente inviato da goldorak
E' in ps2.0 pero' calcolata alla maniera di nvidia in mixed mode fp16/fp32 oppure solo in fp16.
Ovvio che sfigura rispetto al ps2.0 della ati che viene calcolata in fp24.
E' già stato postato....cmq sfigura pure con i Ps2.0 della mia 5900XT...tanto per dire la fedeltà di quegli shot in ps 2.0.
Anonized
17-04-2004, 13:16
Originariamente inviato da Sawato Onizuka
:mc:
scusate raga nn so se l'avete già postato e notato cmq causa tempo nn posso leggere tutto ...
ho trovato una 6800 proabilmente Ultra con sezione di alimentazione Potenziata e 1 solo molex
http://www.vr-zone.com/?i=681&s=2 (la Aopen! :oink: )
nn vedo sul pcb una zona "morta" per implementare il 2° molex, quindi o è la liscia o un modello BEN rivisto :sofico:
vero vero! a meno che l'altro connettore non sia sotto la scheda...
PhoEniX-VooDoo
17-04-2004, 13:19
le due immagini sono state già postate...faccio davvero fatica a credere che la prima sia in PS2.0...
cmq edita e metti i link perke il furbone che le ha fatte, le ha salvati in BMP :mc: :rolleyes:
JENA PLISSKEN
17-04-2004, 13:20
AZZ...è un problema driver...ma...con gli effetti potrebbe andare + lenta??
http://www.xbitlabs.com/images/video/nv40/GameProblems/farcry_nv40.jpg
ShadowThrone
17-04-2004, 13:28
Originariamente inviato da JENA PLISSKEN
AZZ...è un problema driver...ma...con gli effetti potrebbe andare + lenta??
ma che è? una 5900xt con acqua e dettagli ambiente su low? :eek:
Jaguar64bit
17-04-2004, 13:34
Lo scoprite adesso ? gia sulla rece di tom'shardware lo si era visto.
ShadowThrone
17-04-2004, 13:36
Originariamente inviato da Jaguar64bit
Lo scoprite adesso ? gia sulla rece di tom'shardware lo si era visto.
io lo sapevo :asd:
Jaguar64bit
17-04-2004, 13:37
Originariamente inviato da JENA PLISSKEN
Concordo...;)
Originariamente inviato da OverClocK79®
....e sottoscrivo ;)
BYEZZZZZZZZZZZZ
Grazie raga
;) ;)
Jaguar64bit
17-04-2004, 13:40
Originariamente inviato da ShadowThrone
io lo sapevo :asd:
Non penso che visualizzando gli shaders di Farcry in maniera corretta la 6800U perda fps , o almeno me lo auguro , cmq appena escono i 60.72 WHQL mi pare che il problema venga risolto da quello che ho letto , certo che scoccia vedere una vga Ps 3.0 compliant mostrare una grafica di quel tipo.....spero che Nvidia si dia una mossa a sistemare il tutto.
cmq nvidia ha sempre avuto una qualità di immagine inferiore ad Ati. certo che sto screen è veramente brutto :(
Originariamente inviato da Blade^R
Su gfzone.it hanno messo una comparativa sul PS2.0 e PS3.0 con Farcry....
allora non bisogna proprio aspettare le directx9.0c per vederli implementati se il gioco li supporta..... altrimenti queste foto come le hanno fatte ?
No, bisogna aspettare le 9.0c.
E' solo che gli sviluppatori, come la Crytek, gia' dispongono delle 9.0c.
probabilmente l'aggiornamento per noi uscira' per la fine di maggio, quando le schede saranno nei negozi (con i nuovi FW 61.xx)
JENA PLISSKEN
17-04-2004, 14:06
Originariamente inviato da Jaguar64bit
Non penso che visualizzando gli shaders di Farcry in maniera corretta la 6800U perda fps , o almeno me lo auguro , cmq appena escono i 60.72 WHQL mi pare che il problema venga risolto da quello che ho letto , certo che scoccia vedere una vga Ps 3.0 compliant mostrare una grafica di quel tipo.....spero che Nvidia si dia una mossa a sistemare il tutto.
Spero x loro;) ...qui nn credo sia una questione di shot post-framebuffer;)
NN lo so xchè ma sinc io mi aspetto molto da ATI...mah...:eek:
ati ci arriva.. 2° me :)
cmq sono molto deluso..vedere in ke condizioni sono stati fatti i test di far cry.. a vederlo cosi mi piange il cuore..
shambler1
17-04-2004, 16:15
CI sono bench della 6800 liscia?
shinji_85
17-04-2004, 16:22
Originariamente inviato da R@nda
E' già stato postato....cmq sfigura pure con i Ps2.0 della mia 5900XT...tanto per dire la fedeltà di quegli shot in ps 2.0.
volevo dire una cosa riguardo ai tanto visti shot di farcry (ps 2.0 prima e ps 3.0 poi) e sostenere R@nda (se ho capito bene)...
io ho una 9800 (come da sign) e ancora non ho provato 'sto gioco sul mio pc, ma l'ho visto da un mio amico che ha una 5900xt...
avendo visto la differenza tra i 2 shot posso dire che SICURAMENTE il gioco non si vede male come nel primo (ps 2.0) sulla scheda del mio amico...
Certo non si vede nemmeno come il secondo...
ma l'avete visto il primo shot??!
Cmq io mi auguro che entrambe le schede (r420 e nv40) "riescano" bene (+ prestazioni e + qualità x tutti :D ) cosi' la concorrenza forse farà abbassare un pochino i prezzi :sofico:
Originariamente inviato da Blade^R
Su gfzone.it hanno messo una comparativa sul PS2.0 e PS3.0 con Farcry....
allora non bisogna proprio aspettare le directx9.0c per vederli implementati se il gioco li supporta..... altrimenti queste foto come le hanno fatte ?
PS2.0
http://www.pcper.com/images/reviews//FarCry_before3_small.jpg
PS3.0
http://www.pcper.com/images/reviews//FarCrafter3_small.jpg
e quello sarebbe il PS 2.0 ? a me sembra il motore di Hal Life (il primo) notare le texture parete a destra.
Norbrek™
17-04-2004, 16:29
Originariamente inviato da pandyno
e quello sarebbe il PS 2.0 ? a me sembra il motore di Hal Life (il primo) notare le texture parete a destra.
Si infatti, se dovevano fare un fake potevano studiarlo meglio!:sofico:
Thunder82
17-04-2004, 16:32
Originariamente inviato da pandyno
e quello sarebbe il PS 2.0 ? a me sembra il motore di Hal Life (il primo) notare le texture parete a destra.
Infatti, nello shot "ps 2.0" le texture sono penose, e per di più manca completamente il bump mapping. :)
Thunder82
17-04-2004, 16:33
Qualcuno sa in che livello è fatto quello shot che provo a farne uno nello stesso posto con la Radeon in ps2.0? :)
Norbrek™
17-04-2004, 16:35
Tu fallo al livello massimo, è così che dovrebbe essere anche se in quello screen non è così!
JENA PLISSKEN
17-04-2004, 16:35
Originariamente inviato da pandyno
e quello sarebbe il PS 2.0 ? a me sembra il motore di Hal Life (il primo) notare le texture parete a destra.
Come ho già detto;)
JENA PLISSKEN
17-04-2004, 16:36
Originariamente inviato da Norbrek™
Tu fallo al livello massimo, è così che dovrebbe essere anche se in quello screen non è così!
:rotfl: :rotfl: :rotfl: in quale puntoi del gioco...nnn a che difficoltà:D
Thunder82
17-04-2004, 16:39
A occhio direi che è il livello "catacombe", ma potrei sbagliare, l'ho finito da un paio di settimane ormai Far Cry
Norbrek™
17-04-2004, 16:53
Originariamente inviato da JENA PLISSKEN
:rotfl: :rotfl: :rotfl: in quale puntoi del gioco...nnn a che difficoltà:D
Difficoltà? No io avevo capito a che livello di dettaglio, cmq è un po' difficile stabilire in che livello è stato fatto lo screen...
Nessuno che potrebbe fare quello screen con una nv3x??
L'R3xx adesso l'abbiamo, ma vorrei vedere il confronto...
JENA PLISSKEN
17-04-2004, 17:06
Originariamente inviato da Norbrek™
Difficoltà? No io avevo capito a che livello di dettaglio, cmq è un po' difficile stabilire in che livello è stato fatto lo screen...
OK
Thunder82
17-04-2004, 17:22
Altra immagina sulla fantomatica differenza ps2.0-ps3.0 :rolleyes:
PS 2.0
http://www.pcper.com/images/reviews//farcry_before_bud2.jpg
PS3.0
http://www.pcper.com/images/reviews//farcry_after_bud2.jpg
Veramente non ho parole per quelli del marketing, anzi si ne ho una : BUFFONI!!!!!
Secondo voi la prima è un'img in ps2.0? Ma che mi facciano il piacere và... :rolleyes:
edit: ho letto adesso che la prima immagine, come quella della scala, è in PS1.x...
Non penso proprio che quella piscina e quella statua si vedano così di schifo nemmeno con i ps 1.x...
E cmq che senso ha fare un paragone ps1.x-ps3.0? :rolleyes:
http://www.pcper.com/comments.php?nid=145
redbaron
17-04-2004, 17:48
Originariamente inviato da Thunder82
Altra immagina sulla fantomatica differenza ps2.0-ps3.0 :rolleyes:
PS 2.0
http://www.pcper.com/images/reviews//farcry_before_bud2.jpg
PS3.0
http://www.pcper.com/images/reviews//farcry_after_bud2.jpg
Veramente non ho parole per quelli del marketing, anzi si ne ho una : BUFFONI!!!!!
Secondo voi la prima è un'img in ps2.0? Ma che mi facciano il piacere và... :rolleyes:
edit: ho letto adesso che la prima immagine, come quella della scala, è in PS1.x...
Non penso proprio che quella piscina e quella statua si vedano così di schifo nemmeno con i ps 1.x...
E cmq che senso ha fare un paragone ps1.x-ps3.0? :rolleyes:
http://www.pcper.com/comments.php?nid=145
Mi sono visto tutta l'ora e mezza di filmato della presentazione della 6800. Quella che mostri tu, viene ESPLICITAMENTE detto nella presentazione, e' la differenza tra una scena senza ps e una con ps (non viene specificato se 1 2 o 3 ) ;)
Vediamo di non stravolgere anche quello che non e' stato detto. ;)
Thunder82
17-04-2004, 17:55
Originariamente inviato da redbaron
Mi sono visto tutta l'ora e mezza di filmato della presentazione della 6800. Quella che mostri tu, viene ESPLICITAMENTE detto nella presentazione, e' la differenza tra una scena senza ps e una con ps (non viene specificato se 1 2 o 3 ) ;)
Vediamo di non stravolgere anche quello che non e' stato detto. ;)
L'hai letto l'edit che ho scritto?
Cmq:
The before-and-after images are from the CryEngine. Developer Crytek uses Shader Model 3.0 techniques (vs. 1.x shaders) to add more depth and realism to the scenes. Notice the more realistic look and feel when SM 3.0 is applied to the bricks and stones that make up the staircase. In the scene featuring the Buddha, the full image comes to life with the use of SM 3.0, with the technique applied to multiple objects.
Viene chiaramente detto che la prima immagine è in ps1.x
redbaron
17-04-2004, 18:28
Originariamente inviato da Thunder82
L'hai letto l'edit che ho scritto?
Cmq:
The before-and-after images are from the CryEngine. Developer Crytek uses Shader Model 3.0 techniques (vs. 1.x shaders) to add more depth and realism to the scenes. Notice the more realistic look and feel when SM 3.0 is applied to the bricks and stones that make up the staircase. In the scene featuring the Buddha, the full image comes to life with the use of SM 3.0, with the technique applied to multiple objects.
Viene chiaramente detto che la prima immagine è in ps1.x
Non mi riferivo a te, dico solo che mi sono visto tutto il filmato e al momento di presentare le due immagini del budda, viene detto che la differenza sta nell'uso dei ps. Se ne deduce che nella prima immagine non vengano utilizzati.
Sawato Onizuka
17-04-2004, 19:17
http://english.aopen.com.tw//Products/images/VGA/images/GeForce%206800Ultra-460.jpg
ragazzi questa è la Aopen 6800 U
quindi l'immagine postata su vr-zone dell'a-open è una LISCIA !!!
Originariamente inviato da redbaron
Mi sono visto tutta l'ora e mezza di filmato della presentazione della 6800. Quella che mostri tu, viene ESPLICITAMENTE detto nella presentazione, e' la differenza tra una scena senza ps e una con ps (non viene specificato se 1 2 o 3 ) ;)
Vediamo di non stravolgere anche quello che non e' stato detto. ;)
dai la prima è senza pixel s.!! si vede troppo che nn vengono usati!
TheDarkAngel
17-04-2004, 19:43
Originariamente inviato da umile
dai la prima è senza pixel s.!! si vede troppo che nn vengono usati!
anche perchè fa troppo schifo..
non ho mai visto un tale obrobrio per far cry...
usando ovviamente i ps2.0
Originariamente inviato da Anonized
:confused: e allora mi kiedo perchè consigliano un ali a 480 watt!!!
come dicevo prima, ad esempio il mio XPC shuttle fa girare tranquillamente un 3 ghz, radeon 9800 XT 256 mb , 1 gb ram HD e lettore DVD, il tutto con un ali da 200 watt!
spero (ma dubito ) che sarà possibile far girare questa scheda
Beh sul mio xpc ho messo un xp3200 e una 9800xt con lettore cd e hard disk e nessun problema.
Secondo me la 6800 liscia girerà senza problemi (vedendo i consumi che non sono d molto diversi dalla 9800xt.
La 6800ultra forse farà fatica a causa dei 2 molex ma nulla è possibile! Al max si può ripiegare sulla x800xt con 1 solo molex...
:D
Anonized
17-04-2004, 20:09
Originariamente inviato da Sawato Onizuka
http://english.aopen.com.tw//Products/images/VGA/images/GeForce%206800Ultra-460.jpg
ragazzi questa è la Aopen 6800 U
quindi l'immagine postata su vr-zone dell'a-open è una LISCIA !!!
mooolto bella ! questa Geffo mi piace molto esteticamente
Dark Schneider
17-04-2004, 21:03
Ragà manco per un giorno e mezzo e si arriva quasi a pagina 80.
Visto che 40 pagine nn posso leggermele......ci sono novità? :)
E' ancora di più...novità che devo inserire nel primo post?
Wizard77
17-04-2004, 21:06
Originariamente inviato da Thunder82
Altra immagina sulla fantomatica differenza ps2.0-ps3.0 :rolleyes:
PS 2.0
http://www.pcper.com/images/reviews//farcry_before_bud2.jpg
PS3.0
http://www.pcper.com/images/reviews//farcry_after_bud2.jpg
Veramente non ho parole per quelli del marketing, anzi si ne ho una : BUFFONI!!!!!
Secondo voi la prima è un'img in ps2.0? Ma che mi facciano il piacere và... :rolleyes:
edit: ho letto adesso che la prima immagine, come quella della scala, è in PS1.x...
Non penso proprio che quella piscina e quella statua si vedano così di schifo nemmeno con i ps 1.x...
E cmq che senso ha fare un paragone ps1.x-ps3.0? :rolleyes:
http://www.pcper.com/comments.php?nid=145
questi sono solo 2 screen con diverso settaggio di dettagli, il primo tutti settaggi a basso e il secondo a alti, secondo me
altro che PS2 ePS3
:rolleyes: :rolleyes:
Gustavo Dandolo
17-04-2004, 21:07
Originariamente inviato da Dark Schneider
Ragà manco per un giorno e mezzo e si arriva quasi a pagina 80.
Visto che 40 pagine nn posso leggermele......ci sono novità? :)
E' ancora di più...novità che devo inserire nel primo post?
Che il difetto non lo faceva solo con Far Cry :rolleyes: :D
Dark Schneider
17-04-2004, 21:54
Originariamente inviato da Gustavo Dandolo
Che il difetto non lo faceva solo con Far Cry :rolleyes: :D
Sinceramente mi meraviglierei se allo stato attuale dei drivers l'unico problema sarebbe stato con Far Cry. Se sarebbe stato con un solo gioco i drivers erano quasi perfetti.
Invece sappiamo tutti(e non c'è reply che tenga) che di solito quando si lancia una nuova scheda video, sopratutto di nuova generazione ci vuole un buon rodaggio!!;)
Cmq ragà per novità mi riferisco chessò a prezzi, nuovi articoli da mettere nel primo post,ecc.
Degli attuali problemi grafici sinceramente mi frega ben poco!!;)
Dark Schneider
17-04-2004, 21:59
Originariamente inviato da LCol84
Beh sul mio xpc ho messo un xp3200 e una 9800xt con lettore cd e hard disk e nessun problema.
Secondo me la 6800 liscia girerà senza problemi (vedendo i consumi che non sono d molto diversi dalla 9800xt.
La 6800ultra forse farà fatica a causa dei 2 molex ma nulla è possibile! Al max si può ripiegare sulla x800xt con 1 solo molex...
:D
Cmq pare che la 6800 Ultra consumi meno di una 9800xt in idle e 6 watt in più sottosforzo di una 5950 Ultra. Io sinceramente tutta sta preoccupazione non ce l'ho!! :) Penso che un buon 420 Watt...tipo Chieftech e si va tranquilli anche con parecchia roba collegata.
Gustavo Dandolo
17-04-2004, 22:13
Originariamente inviato da Dark Schneider
Cmq pare che la 6800 Ultra consumi meno di una 9800xt in idle e 6 watt in più sottosforzo di una 5950 Ultra. Io sinceramente tutta sta preoccupazione non ce l'ho!! :) Penso che un buon 420 Watt...tipo Chieftech e si va tranquilli anche con parecchia roba collegata.
http://www.tomshw.it/guides/graphic/20040414/images/power1.gif
http://www.tomshw.it/guides/graphic/20040414/images/power2.gif
http://www.tomshw.it/guides/graphic/20040414/images/power3.gif
guarda si è persa la testa altro che non ci son preoccupazioni..
Originariamente inviato da Dark Schneider
Cmq pare che la 6800 Ultra consumi meno di una 9800xt in idle e 6 watt in più sottosforzo di una 5950 Ultra. Io sinceramente tutta sta preoccupazione non ce l'ho!! :) Penso che un buon 420 Watt...tipo Chieftech e si va tranquilli anche con parecchia roba collegata.
mi sa tanto che non basteranno i 420w del chieftec. Già la 5950 frusta l'ali quando va in 3d........
Dark Schneider
17-04-2004, 22:25
Originariamente inviato da Gustavo Dandolo
http://www.tomshw.it/guides/graphic/20040414/images/power1.gif
http://www.tomshw.it/guides/graphic/20040414/images/power2.gif
http://www.tomshw.it/guides/graphic/20040414/images/power3.gif
guarda si è persa la testa altro che non ci son preoccupazioni..
Non mi preoccupo!! ;)
Dark Schneider
17-04-2004, 22:26
Originariamente inviato da rera
mi sa tanto che non basteranno i 420w del chieftec. Già la 5950 frusta l'ali quando va in 3d........
Naaa chiedi a Blade ad esempio che ce l'ha alle frequenze della 5950 Ultra ed oltre e col chieftech va tranquillissimo!! ;)
ora esco
a domaniiiiiiii:)
non consuma poi all'inverosimile, non mi allerto per niente, il mio 520w penso che basti:D
Originariamente inviato da Anonized
mooolto bella ! questa Geffo mi piace molto esteticamente
Be' quella mi sembra la reference ...;)
il mio ha la testa sott'acqua (c'è anche da considerare il prescott, ma col barton era uguale)...comunque può darsi che le schede definitive consumino di meno, almeno spero.
dario fgx
17-04-2004, 22:41
Originariamente inviato da Wizard77
questi sono solo 2 screen con diverso settaggio di dettagli, il primo tutti settaggi a basso e il secondo a alti, secondo me
altro che PS2 ePS3
:rolleyes: :rolleyes:
ma no quelli sono veramente ps2....si gli effetti sono gli stessi che ho con la mia rivam64 in far cry!
dario fgx
17-04-2004, 22:43
Originariamente inviato da rera
mi sa tanto che non basteranno i 420w del chieftec. Già la 5950 frusta l'ali quando va in 3d........
bha io ho un buon chieftec ed ho clokkato la radeon anche a freq maggiri della xt e mai un prob...ho pure il procio con molto ov e na valanga di ventolozze...
shambler1
17-04-2004, 23:11
Ci sono bench della 6800 liscia?
Originariamente inviato da shambler1
Ci sono bench della 6800 liscia?
per ora no
;)
Gustavo Dandolo
17-04-2004, 23:29
Originariamente inviato da shambler1
Ci sono bench della 6800 liscia?
Se hai davvero fretta posso farteli con Gimp :D
shinji_85
18-04-2004, 00:00
Originariamente inviato da Dark Schneider
Cmq pare che la 6800 Ultra consumi meno di una 9800xt in idle e 6 watt in più sottosforzo di una 5950 Ultra. Io sinceramente tutta sta preoccupazione non ce l'ho!! :) Penso che un buon 420 Watt...tipo Chieftech e si va tranquilli anche con parecchia roba collegata.
Infatti... non credo proprio che bisognera' avere per forza un ali che eroghi 480W e non uno di meno...
swarzy85
18-04-2004, 00:36
Io conosco cose che non potete nemmeno immaginare:cool:
guardare la sign :sofico:
P.S. ovviamente scherzo....per qualsiasi cosa il responsabile è Raffaele :D:D:D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.