View Full Version : nVidia GeForce 6800 - Thread Ufficiale
massimomarc
14-04-2004, 16:14
Originariamente inviato da mt_iceman
ma sinceramente non credo sia una regola!
cosa vuol dire non sia una regola ? :confused:
Anonized
14-04-2004, 16:14
il sito nvidia è bloccato....comunque a me blocca il fatto dell'alimentazione necessaria...come farò mai a metterla in un barebone da 250 watt ????! :muro: :cry:
allora quando arrivano i bench?? Sono in trepidazione!!!!:sbav:
Raga ma io ho letto intanto che il prezzo della 6800 sarà 299 dollari quindi 299€ e la ultra 399!!
Mi sa che è solo per incentivare la voglia di acquistare per poi aumentare!!!:(
ma 25 pag di 3d in mezza giornata sono un record???:)
mt_iceman
14-04-2004, 16:16
Originariamente inviato da goldorak
Ok, questo l'ho capito, ma non tutti dispongono di un case server dove mettere un doppio alimentatore.
Oppure potevano usare la soluzione della 3dfx con un alimentatore esterno, sarebbe stato piu' pratico. :sofico:
prima ho sbagliato a quotare.
sono daccordo. ripeto: speriamo sia solo un discorso di prevenzione data da nvidia, altrimenti siamo messi male...
Thunder82
14-04-2004, 16:16
Originariamente inviato da dwfgerw
non ti viene in mente che possa essere un problema di driver ancora embrionali ?
Sta andando probabilmente con i ps2.0 in fp16... come la 5950U. Si vede dalle scarse sfumature dei colori. Mentre la 9800XT usava i fp24
Resta da vedere come saranno le prestazioni quando utilizzerà i fp32, sicuramente andrà peggio.
Originariamente inviato da Dindi
allora quando arrivano i bench?? Sono in trepidazione!!!!:sbav:
Raga ma io ho letto intanto che il prezzo della 6800 sarà 299 dollari quindi 299€ e la ultra 399!!
Mi sa che è solo per incentivare la voglia di acquistare per poi aumentare!!!:(
400dollari vuol dire che da noi costarà almeno 500euro..
Originariamente inviato da Anonized
...come farò mai a metterla in un barebone da 250 watt ????! :muro: :cry:
:rotfl: :rotfl: :rotfl: :rotfl:
Dumah Brazorf
14-04-2004, 16:20
Originariamente inviato da dwfgerw
questa volta mi sento di dire dopo molti anni che nvidia ha fatto il balzo prestazionale più grande della sua storia.
Se mi consentite il paragone confrontandola con la generazione FX NV40 è "l'R300 di nVidia". ;)
Ciao.
Originariamente inviato da kikbond
400dollari vuol dire che da noi costarà almeno 500euro..
a perte il prezzo secondo me sono fusi....come si può pensare che uno a casa disponga di una centrale atomica per far funziare la scheda??? :rolleyes: :muro: :muro:
Originariamente inviato da kikbond
400dollari vuol dire che da noi costarà almeno 500euro..
Scusa ma l'euro non vale poco più del dollaro? quindi se costa 399 dollari in euro dovrebbe essere 398 o poco meno!
Jedi_Master
14-04-2004, 16:21
Originariamente inviato da kikbond
400dollari vuol dire che da noi costarà almeno 500euro..
E che ti aspettavi?
A meno che Ati non gli tiri un'altra volta una mazzata
i prezzi saranno + o - quelli!
Athlon 64 3000+
14-04-2004, 16:21
L'architettura dell'NV40 è veramente eccezzionale,ma non mi piace il fatto che abbia dei consumi esagerati(addirittura 110W).Ci mancherebbe che non mi bastasse il mio Enermax da 460W preso un mese fà.Se L'R420 riuscira ad avere delle ottime prestazioni paragonabili all'NV40 ma consumerà molti meno Watt mi sa che prenderò il chip Ati.
dopo aver letto la rece di corsini.. posso fare i complimenti a nvidia x il riscatto..
cmq ki gioca a 1024x768 non ha bisogno di una 6800 ultra..
se avete notato.. la 9800 xt a questa res fa ankora la sua porca figura.. sia standard ..sia filtri ON
lo stacco si fa sentire a 1600x1200 AA 4x AF 8x.. li sono c@zzi.. il doppio dei frames non sono cazz@te..
cmq penso ke la gente con 9800 pro & co. puo aspettare tranquilla r500 &nv50..questa generazione puo passare..almeno io la penso cosi..
sinceramente aspettavo quake cosa d+..tipo 100 frames a halo & far cry x dire una..
Thunder82
14-04-2004, 16:22
Originariamente inviato da Francvs
a perte il prezzo secondo me sono fusi....come si può pensare che uno a casa disponga di una centrale atomica per far funziare la scheda??? :rolleyes: :muro: :muro:
Vuoi le prestazioni? Non ci sono santi, la scheda deve consumare...
Cmq vedendo le img di tomshardware di far cry si capisce che la 6800 (almeno in far cry) opera in fp16, quindi le prestazioni che tira fuori sono in fp16. Sarei curioso di vedere come va in fp32, perchè sinceramente le img in fp16 mi fanno abbastanza schifo...
Originariamente inviato da -* Pisquano *-
m andate a cagare scemi...:Prrr:
Datti una regolata...
Thunder82
14-04-2004, 16:24
http://www.tombraiders.it/public/fd.JPG
Far Cry, un semplice esempio... si vede che è fp16 sulla 6800
Originariamente inviato da Anonized
il sito nvidia è bloccato....comunque a me blocca il fatto dell'alimentazione necessaria...come farò mai a metterla in un barebone da 250 watt ????! :muro: :cry:
semplice prendi un derivato a 8 o 12 pipes.
non potete pretendere di mettere un mostro simile dentro a quei fornetti:rolleyes:
http://www.beyond3d.com/previews/nvidia/nv40/chart/ps14.gif
http://www.beyond3d.com/previews/nvidia/nv40/chart/ps20.gif
Originariamente inviato da royal
dopo aver letto la rece di corsini.. posso fare i complimenti a nvidia x il riscatto..
cmq ki gioca a 1024x768 non ha bisogno di una 6800 ultra..
se avete notato.. la 9800 xt a questa res fa ankora la sua porca figura.. sia standard ..sia filtri ON
lo stacco si fa sentire a 1600x1200 AA 4x AF 8x.. li sono c@zzi.. il doppio dei frames non sono cazz@te..
cmq penso ke la gente con 9800 pro & co. puo aspettare tranquilla r500 &nv50..questa generazione puo passare..almeno io la penso cosi..
Quello che dici è anche giusto. inoltre voglio vedere chi gioca a 1600*1200. Ci volgiono anche dei monitor che supportano tale risoluzione, e cioè da alcuni 17' all'insu!
^Christof^
14-04-2004, 16:25
io l'aspettavo proprio ! me la comrpo al volo :p spero però che mi basti il 450 cavolo ho 3 hd in raid 2 mast e il procio che sukkiano!!
Phantom II
14-04-2004, 16:28
Originariamente inviato da Thunder82
Vuoi le prestazioni? Non ci sono santi, la scheda deve consumare...
Progresso dovrebbe significare anche contenimento o addirittura diminuzione dei consumi a parità di prestazioni e non viaggio il doppio consumo il doppio.
Jedi_Master
14-04-2004, 16:29
Originariamente inviato da ^Christof^
io l'aspettavo proprio ! me la comrpo al volo :p spero però che mi basti il 450 cavolo ho 3 hd in raid 2 mast e il procio che sukkiano!!
Aspetta almeno di vedere cosa fa' la concorrenza no?
goldorak
14-04-2004, 16:30
Originariamente inviato da Dindi
Scusa ma l'euro non vale poco più del dollaro? quindi se costa 399 dollari in euro dovrebbe essere 398 o poco meno!
A parte che in europa si fa 1$=1€, ci devi aggiungere svariate tasse il che incide minimo 100€ sul prezzo consigliato di nvidia.
Da noi minimo minimo la vediamo a 500€ per la versione base. :cry:
Dark Schneider
14-04-2004, 16:30
Ho appena finito di leggere la recensione.
Madò..giuro che lo rileggero un po' meglio. Perchè ci vuole tempo davvero.
Sono cmq commosso dalla bontà della scheda. :cry:
Finalmente una gran bella scheda. Tutte le scelte nVidia sull'architettura della GPU le condivido.
Peccato solo che hanno usato un P4 3 Ghz....secondo me era meglio usare un Athlon 64 3400+!!:D
Cmq si nota nei giochi più recenti che anche con i sistemi attuali la differenza è NETTA. Con quelli meno recenti che son cpu limited poi...lì minore. Ma dei titoli vecch chi se ne frega.
Avete visto Far Cry?
Siamo ancora allo stato embrionale con i drivers. Sta scheda ha grossi margini di miglioramento sia a livello qualitivativo e sia a livello di prestazioni.
Non sono minimamente deluso. :)
L'unica cosa è l'alimentatore...cavolo esoso.
E' mi spiace per la liscia che sarà a 12 Pipeline invece che 16.
Cmq non so che dire..ce ne sarebbero tante di cose...ma boh..ehhe...cmq adesso mi scarico il video di Nalu, la Sirena di cui mi son innamorato!! :flower: :smack:
Dark Schneider
14-04-2004, 16:31
Originariamente inviato da goldorak
A parte che in europa si fa 1$=1€, ci devi aggiungere svariate tasse il che incide minimo 100€ sul prezzo consigliato di nvidia.
Da noi minimo minimo la vediamo a 500€ per la versione base. :cry:
Non direi: la liscia molto meno. Ma scherzi? Le lisce non son mai costate 500 euro. Sono le Ultra che sono dai 500 in su.
Le lisce sempre 380-400 massimo.
Poi le versioni da 128 MB ancora meno.
Thunder82
14-04-2004, 16:32
Originariamente inviato da Dark Schneider
Avete visto Far Cry?
I bench di far cry sono in fp16...
secondo quanto dice FEK su nvitalia, sembra che anche la prossima generazione ati e nvidia utilizzerà sempre pressochè fp16
Dark Schneider
14-04-2004, 16:33
Originariamente inviato da Thunder82
I bench di far cry sono in fp16...
Mi sembra ovvio che non sarebbe stato usato i fp32!!
Totalmente soddisfatto dalla scheda!!:)
goldorak
14-04-2004, 16:34
Originariamente inviato da Phantom II
Progresso dovrebbe significare anche contenimento o addirittura diminuzione dei consumi a parità di prestazioni e non viaggio il doppio consumo il doppio.
Quoto in pieno.
Pero' prima di criticare nvidia vediamo come saranno le soluzione ati dal punto di vista sia prestazionale che dei consumi.
Quello che non mi e' chiaro e perche' la ati riesce ad ottimizzare i consumi mentre nvidia no. :confused:
mt_iceman
14-04-2004, 16:34
Originariamente inviato da Phantom II
Progresso dovrebbe significare anche contenimento o addirittura diminuzione dei consumi a parità di prestazioni e non viaggio il doppio consumo il doppio.
infatti. e questa pecca potrebbe mandare a fanculo un'architettura così buona e complicare commercialmente i piani di nvidia, almeno per ciò che riguarda i modelli agp8x. e poi non è affatto scontato che uno che compra sta scheda debba sputtanare altri soldi per un'altro ali. io ho l'enermax che già è un bel pezzo di ali e l'altro non saprei dove metterlo. se in più conti il p43.0 800, un lettore e un masterizzatore dvd, i due hd e 4 ventole , e meglio che mi spari.
questo sarà anche il prezzo per avere il meglio, ma così è sproporzionato e se credono che tutti abbiano ste possibilità, hanno fatto male i loro calcoli.
mi potete dire dove è il sito del bench di far cry?
Dark Schneider
14-04-2004, 16:35
Originariamente inviato da dwfgerw
secondo quanto dice FEK su nvitalia, sembra che anche la prossima generazione ati e nvidia utilizzerà sempre pressochè fp16
Ehi ma te riesci ad enrare sul sito nvidia? Io solo alla Home..poi crasha tutto..mi sa che c'è troppo traffico. :(
Voglio Nalu:cry:
Thunder82
14-04-2004, 16:35
Originariamente inviato da dwfgerw
secondo quanto dice FEK su nvitalia, sembra che anche la prossima generazione ati e nvidia utilizzerà sempre pressochè fp16
noooo, fa schifo il fp16 :Puke:
http://www.tombraiders.it/public/fd.JPG
:muro:
IIPyrosII
14-04-2004, 16:36
Ma teoricamente, la versione Ultra non doveva avere frequenze 1200/475 ??? nel test sono 1100/400 >.<
Gustavo Dandolo
14-04-2004, 16:36
Originariamente inviato da goldorak
Quoto in pieno.
Pero' prima di criticare nvidia vediamo come saranno le soluzione ati dal punto di vista sia prestazionale che dei consumi.
Quello che non mi e' chiaro e perche' la ati riesce ad ottimizzare i consumi mentre nvidia no. :confused:
In che senso? ad ogni modo sto leggendo questa ottima recensione su Tom's italiano, ti consiglio di farlo: http://www.tomshw.it/graphic.php?guide=20040414&page=feforce_6800-19
goldorak
14-04-2004, 16:37
Originariamente inviato da dwfgerw
secondo quanto dice FEK su nvitalia, sembra che anche la prossima generazione ati e nvidia utilizzerà sempre pressochè fp16
Cioe' fammi capire, si regredisce piutosto che andare avanti ?
Che senso ha usare l'fp16 ?
Non da' una qualita' d'immagine inferiore rispetto al fp24, fp32 ?
Oppure dobbiamo sacrificare la qualita' d'immagine per aumentare gli fps ?
Mi pareva che questa fase storica dello sviluppo delle schede video fosse stata superata.
Dark Schneider
14-04-2004, 16:37
Originariamente inviato da Athlon 64 3000+
L'architettura dell'NV40 è veramente eccezzionale,ma non mi piace il fatto che abbia dei consumi esagerati(addirittura 110W).Ci mancherebbe che non mi bastasse il mio Enermax da 460W preso un mese fà.Se L'R420 riuscira ad avere delle ottime prestazioni paragonabili all'NV40 ma consumerà molti meno Watt mi sa che prenderò il chip Ati.
Si praticamente l'unico punto debole è la richiesta di potenza in termini di watt.
Gustavo Dandolo
14-04-2004, 16:40
Originariamente inviato da IIPyrosII
Ma teoricamente, la versione Ultra non doveva avere frequenze 1200/475 ??? nel test sono 1100/400 >.<
No erano dei rumours, la versione definitiva sarà questa. Sicuramente però nel giro di pochissimo tempo verranno rilasciate versioni overcloccate.. il tempo di affinare la produzione, un pò come era avvenuto in passato.
Certo che proprio non me le aspettavo queste frequenze. Quando ho visto i bench e a quale frequenza venivano fatti girare ho gridato al miracolo.. ma con i consumi non ci siamo proprio.
goldorak
14-04-2004, 16:40
Originariamente inviato da Gustavo Dandolo
In che senso? ad ogni modo sto leggendo questa ottima recensione su Tom's italiano, ti consiglio di farlo: http://www.tomshw.it/graphic.php?guide=20040414&page=feforce_6800-19
Mi sembra chiaro.
L'nv40 e' una potenza pero' pecca dal punto di vista dei consumi. Pero' voglio capire se sara' una caratteristica di questa generazione di schede video oppure se la ati riuscira' a presentare una soluzione che va tanto quanto l'nv40 ma consuma decisamente meno, in qual caso imputerei una colpa alla nvidia per non avere ottimizzato il progetto nv40.
Avete visto il test sui consumi di Tom's?
Nel 2d la 6800U consuma meno della 9800xt (lol):cool:
mt_iceman
14-04-2004, 16:43
e sottolineo "minimo 480w". credo che il 95 % degli utenti di questo forum non superi i 430. veramente una brutta questione..:(
Originariamente inviato da Athlon 64 3000+
L'architettura dell'NV40 è veramente eccezzionale,ma non mi piace il fatto che abbia dei consumi esagerati(addirittura 110W).Ci mancherebbe che non mi bastasse il mio Enermax da 460W preso un mese fà.Se L'R420 riuscira ad avere delle ottime prestazioni paragonabili all'NV40 ma consumerà molti meno Watt mi sa che prenderò il chip Ati.
quoto in pienissimo....non è possibile avere a casa una centrale nucleare per far funzionare il pc....eddai....ora stanno davvero esagerando....per non parlare poi della versione liscia azzopata a 12 pipe.....sicuramente un affare....:rolleyes:
mt_iceman
14-04-2004, 16:46
la cosa strana è che nessuno aveva accennato a sta storia, ma solo che fosse un problema dei sample. speriamo che ati riesca a fare meglio sotto questo punto di vista.
conan_75
14-04-2004, 16:46
Dai test si vede che la 6800Ultra consuma meno della 9800XT...strabiliante!
Originariamente inviato da Hanamichi
http://www.nvidia.com/object/nzone_gf6_video_democollage.html
da rimanere senza fiato!:eek:
impressinante, bellissimo:sbavvv: :sbavvv: :sbavvv:
Dumah Brazorf
14-04-2004, 16:49
Beh la gpu sembra scalare bene, Vifani sembra averla clockata agilmente a 450MHz ottendendo un boost prestazionale non indifferente nei bench che ci hanno mostrato. Peccato per le GDDR che sembrano inchiodate a 1100MHz.
Sembra...
Adesso voglio vedere Ati.
Che bello stavolta posso sceglere tranquillamente e vedere come si evolve la cosa.
Il mio PC è a posto farò il rinnovo totale quando lo standard sarà in Pcix.
Sono curioso di vedere come andranno entrambe e i consumi quando finalmente arrivano le versioni Pcix....queste in Agp dureranno pochi mesi.
ragazzi ma della 6800 liscia si sa che fine ha fatto: prestazioni, prezzo, richiesta energetica, ecc..?
Apparte il valore delle pipeline e la velicità della ram non si sa altro?:confused:
Gatz1980
14-04-2004, 16:58
guardate qui:
http://news.hwupgrade.it/12228.html
Versione liscia con 16 pipes? Non male...
Jedi_Master
14-04-2004, 17:01
Originariamente inviato da R@nda
Sono curioso di vedere come andranno entrambe e i consumi quando finalmente arrivano le versioni Pcix....queste in Agp dureranno pochi mesi.
Non credo che dureranno pochi mesi.
Solo un balengo butterebbe quasi tutto un buon pc di
adesso per correre dietro al pci-express, che poi non
e' ancora detto che sia questa gran cosa!
L'agp vedra' almeno il 2005.
Dumah Brazorf
14-04-2004, 17:04
Originariamente inviato da [JaMM]
non riesco a vederlo...
Neanch'io sento solo "Bring Me To Life" in sottofondo ma schermo nero...
Che codec usa che provo a scaricarlo manualmente?
Ciao.
JENA PLISSKEN
14-04-2004, 17:04
BENE....una bella sorpresa dopo le vacanze...che dire, grazie NV:rolleyes: ....io chiedevo ad ATI un AF a schermo intero come l' NV3x ed alla fine NN me lo ritrovo neanche sull' NV 40.....:mad: :mad: ....ma andate a xxx@#@
Sinc spero in qualcosa di + innovativo conl' R420...magari la possibilità di utilizzare tranqui il superfiltro AA6x....nn vedo l' ora di conoscere la nuova GPU ATI....se poi se ne escono con un AF a schermo intero....mejo:oink:
Ciao
Gustavo Dandolo
14-04-2004, 17:05
Originariamente inviato da conan_75
Dai test si vede che la 6800Ultra consuma meno della 9800XT...strabiliante!
eh si hai proprio ragione, bravo!
http://www.tomshw.it/guides/graphic/20040414/images/power3.gif
Originariamente inviato da Dumah Brazorf
Neanch'io sento solo "Bring Me To Life" in sottofondo ma schermo nero...
Che codec usa che provo a scaricarlo manualmente?
Ciao.
eppure ho tutti i codec installati... o almeno credo che nel KLite codec pack ci siano tutti
JENA PLISSKEN
14-04-2004, 17:07
Originariamente inviato da Gustavo Dandolo
eh si hai proprio ragione, bravo!
http://www.tomshw.it/guides/graphic/20040414/images/power3.gif
Ringraziando DIO avevo capito l' andazzo e mi sono premunito con la mia centrale termoelettrica:D :D
Originariamente inviato da Gatz1980
guardate qui:
http://news.hwupgrade.it/12228.html
Versione liscia con 16 pipes? Non male...
allora anche la liscia ha 16 pipeline, credevo 12!
:eek:
E riguardo al prezzo e all'ali? Il costo ho visto che si aggira sui 299$: qua quanto?E l'alimentatore basterà un normale 400W?
Dumah Brazorf
14-04-2004, 17:08
Io MediaPlayer 9 è Explorer strapatchato... boh...
Gustavo Dandolo
14-04-2004, 17:09
Originariamente inviato da Gatz1980
guardate qui:
http://news.hwupgrade.it/12228.html
Versione liscia con 16 pipes? Non male...
Ecco quello che leggo invece su Tom's italiano:
http://www.tomshw.it/graphic.php?guide=20040414&page=feforce_6800-06
Oltre alla GeForce 6800 Ultra, NVIDIA offre il modello GeForce 6800, che è praticamente identico all'Ultra ma con solo 12 pixel pipeline, un solo connettore Molex e un dissipatore a singolo slot
Prezzi:
* 6800 Ultra, $499 (circa 410 euro), 16 pipe, due connettori Molex , due slot, 400/550
* 6800, $299 (circa 250 euro), 12 pipe, un connettore Molex, uno slot, TBD
qual'è la verità?
si ma avete letto? dei tre cavi che escono dall'alimentatore, la nvidia raccomanda che 2 vadano direttamente sulla scheda senza che vengano aggiunte altre periferiche allo stesso cavo di alimentazione. Quindi tutto il resto deve attaccarsi ad un solo cavo di alimentazione?
Mi sembra una richiesta un po' troppo esagerata!!!
Originariamente inviato da Jedi_Master
Non credo che dureranno pochi mesi.
Solo un balengo butterebbe quasi tutto un buon pc di
adesso per correre dietro al pci-express, che poi non
e' ancora detto che sia questa gran cosa!
L'agp vedra' almeno il 2005.
Guarda che non me lo sono inventato io che ste schede avranno un ciclo di vita corto.
Rimarrano in commercio ugualmente le schede Agp per un bel pò tempo...ovviamente.
Lo standard per la fine di quest'anno passerà al Pcix ed io sto aspettando proprio questo passaggio per riafrmi il PC.
Lo avevo già in programma
:)
Wow, ho finito adesso di leggere!!!! :coffee:
Che dire, le promesse sono state mantenute appieno questa volta, Nv40 non ha niente a che vedere con Nv30, è un progetto tutto nuovo che sembra dare finalmente risultati grandiosi!!!
Il consumo? Eh sì, quello è l'unico punto debole sembra, ma secondo me quando andranno sugli scaffali i vari partner metteranno delle specifiche inferiori (450W :D )....cmq chi può permettersi una scheda del genere può anche prendersi un'ali adeguato.
Invece adesso sarei molto curioso di vedere le specifiche e i consumi della 6800 liscia, insieme a qualche bench comparativo, speriamo entro qualche giorno di vederle, così ognuno si farà i propri conti!!!
Bentornata Nvidia!!!!! :)
Gustavo Dandolo
14-04-2004, 17:12
Originariamente inviato da JENA PLISSKEN
Ringraziando DIO avevo capito l' andazzo e mi sono premunito con la mia centrale termoelettrica:D :D
Lol! ad ogni modo fra cpu, e schede video si sta davvero diventando ridicoli.. io sono per i bassi consumi e difatti tutto quello che è stato presentato nell'ultimo anno (con le uniche due eccezioni Banias e piattaforme Eden) credo che non vedranno mai il mio case.
Ma dico è possibile che tutti se ne freghino così tanto? impallidisco se penso che questa scheda video assorbe quanto tutto un pc multimediale di pochi anni fa.
ahhhhhhhhhhh!Non ci capisco più niente!:muro:
La 6800 liscia quante pipe ha 16 o 12?:confused: E l'alimentatore:basterà un 400W?
Originariamente inviato da Haku
ahhhhhhhhhhh!Non ci capisco più niente!:muro:
La 6800 liscia quante pipe ha 16 o 12?:confused: E l'alimentatore:basterà un 400W?
abbi un po' di pazienza!!! dai tempo max 12 ore e vedrai che si farà chiarezza!!!:D
PSYCOMANTIS
14-04-2004, 17:17
Originariamente inviato da Gustavo Dandolo
eh si hai proprio ragione, bravo!
http://www.tomshw.it/guides/graphic/20040414/images/power3.gif
Allarme rientrato!!! il mio chieftec da 420 tiene gia' a bada una valanga di roba figuriamoci se gli fanno qualcosa una ventina di watts in piu'.....o almeno spero.
Anche riguardo le prestazioni della liscia bisognerà aspettare?
O c'è già qualcosa?
Gatz1980
14-04-2004, 17:17
Originariamente inviato da Haku
ahhhhhhhhhhh!Non ci capisco più niente!:muro:
La 6800 liscia quante pipe ha 16 o 12?:confused: E l'alimentatore:basterà un 400W?
Magari ai produttori è lasciata la libertà di decidere quale core usare, forse è un modo per diversificare maggiormente l'offerta.
goldorak
14-04-2004, 17:18
Originariamente inviato da Gustavo Dandolo
Lol! ad ogni modo fra cpu, e schede video si sta davvero diventando ridicoli.. io sono per i bassi consumi e difatti tutto quello che è stato presentato nell'ultimo anno (con le uniche due eccezioni Banias e piattaforme Eden) credo che non vedranno mai il mio case.
Ma dico è possibile che tutti se ne freghino così tanto? impallidisco se penso che questa scheda video assorbe quanto tutto un pc multimediale di pochi anni fa.
Non e' che se ne freghino.
Almeno la intel ha deciso che la prossima generazione di cpu sara' unificata (desktop e mobile) il che implichera' una cpu con consumi ridotti a livello desktop.
Certo bisognera' aspettare il successore del prescott ma meglio tardi che mai.
Spero solo che anche nvidia e ati vadano nella stessa direzione di ottime prestazioni con consumi ridotti.
Gustavo Dandolo
14-04-2004, 17:18
Originariamente inviato da Dindi
si ma avete letto? dei tre cavi che escono dall'alimentatore, la nvidia raccomanda che 2 vadano direttamente sulla scheda senza che vengano aggiunte altre periferiche allo stesso cavo di alimentazione. Quindi tutto il resto deve attaccarsi ad un solo cavo di alimentazione?
Mi sembra una richiesta un po' troppo esagerata!!!
Certo che è assurdo, ma stanne certo che funziona ugualmente, anche se colleghi altre periferiche. Poi però non si capisce da dove derivano alcuni problemi :rolleyes: :D
Ad ogni modo gli alimentatori di qualità hanno sempre avuto più sezioni, il mio enermax mi sembra che abbia quattro.
3 messaggi contemporaneamente nello stesso minuto (17.17)!!! Questa è la prima volta che vedo una roba del genere!!!!!:D
Originariamente inviato da Gustavo Dandolo
Lol! ad ogni modo fra cpu, e schede video si sta davvero diventando ridicoli.. io sono per i bassi consumi e difatti tutto quello che è stato presentato nell'ultimo anno (con le uniche due eccezioni Banias e piattaforme Eden) credo che non vedranno mai il mio case.
Ma dico è possibile che tutti se ne freghino così tanto? impallidisco se penso che questa scheda video assorbe quanto tutto un pc multimediale di pochi anni fa.
per funzionare a dovere 222 milioni di transistor hanno pur bisogno di energia e purtroppo producono molto calore... :(
thegladiator
14-04-2004, 17:21
Scusate.................................dopo tutti gli screen postati (superlativi quelli di Tom) ancora non vedete la differenza in qualità grafica tra gli screen della 6800 in FP16 e quelli in FP24 della 9800???? :rolleyes:
Chi aveva ragione un po' di pagine di post fa??? :mc:
Originariamente inviato da thegladiator
Scusate.................................dopo tutti gli screen postati (superlativi quelli di Tom) ancora non vedete la differenza in qualità grafica tra gli screen della 6800 in FP16 e quelli in FP24 della 9800????
Chi aveva ragione un po' di pagine di post fa??? :mc:
potrebbe trattarsi di un difetto di gioventù dei drivers secondo molti
Originariamente inviato da thegladiator
Scusate.................................dopo tutti gli screen postati (superlativi quelli di Tom) ancora non vedete la differenza in qualità grafica tra gli screen della 6800 in FP16 e quelli in FP24 della 9800????
Chi aveva ragione un po' di pagine di post fa??? :mc:
hai ragione! sinceramente ci sono rimansto un pochino deluso nel vedere che comunque la 9800 aveva una qualità immagine migliore anche se magari la nvidia farà dei driver migliori per questa neo scheda!
Questa la mia paura per l'NV40, cioè che ati nel suo r400 migliori ancora queste caratteristiche oltre che a potenziare la scheda. Quindi bisognerà vedere che cosa presenterà la ati e si vedrà se stavolta il primo premio va ad nvidia o rimane alla ati
Gustavo Dandolo
14-04-2004, 17:26
Originariamente inviato da goldorak
Non e' che se ne freghino.
Almeno la intel ha deciso che la prossima generazione di cpu sara' unificata (desktop e mobile) il che implichera' una cpu con consumi ridotti a livello desktop.
Certo bisognera' aspettare il successore del prescott ma meglio tardi che mai.
Spero solo che anche nvidia e ati vadano nella stessa direzione di ottime prestazioni con consumi ridotti.
Hai citato proprio l'esempio sbagliato.. l'iNTEL che con il suo processore e il suo standard "innovativi" (leggasi Netburst e BTX) non ha fatto altro che innalzare ancor di più questa pazza corsa!
Adesso sai perchè lo hanno capito? perchè anche i loro colletti bianchi leggono i forum tecnici in tutto il mondo, che scriviamo NOI comuni mortali, e si son resi conto di quante lamentele hanno ricevuto quegli immondi prodotti, e di quanto siano bramati sistemi basati su Pentium-M.
Anche i due maggiori produttori di schede video se ne fregano, e sai perchè? perchè il mercato richiede prestazioni sempre maggiori e non innovazione. Io per esempio trovo assurdo che le componenti video per notebook che son ricavate a pien mani dalle soluzioni desktop abbiano prestazioni abbastanza simili ma con un consumo non paragonabile (tranne per la 9700 mobile che fa discorso a se, in quanto è più una 9600XT).
JENA PLISSKEN
14-04-2004, 17:27
Originariamente inviato da Gustavo Dandolo
Lol! ad ogni modo fra cpu, e schede video si sta davvero diventando ridicoli.. io sono per i bassi consumi e difatti tutto quello che è stato presentato nell'ultimo anno (con le uniche due eccezioni Banias e piattaforme Eden) credo che non vedranno mai il mio case.
Ma dico è possibile che tutti se ne freghino così tanto? impallidisco se penso che questa scheda video assorbe quanto tutto un pc multimediale di pochi anni fa.
Ma com' era la storia??...con lo 0,13 si consuma di meno, scaldano di meno:sofico: :sofico: :sofico: ....l' unico vero motivo = si clokkano d +:D :D :D ...che paraculi:rolleyes:
Psycomantis...spendi 600€ x una scheda che dopo 4 o 5 mesi dovrai regalare e nn ti cambi un ali che alla fine ti dura una vita?? mah...io ho smesso di cercare di capirvi:sofico: :sofico: :sofico: :sofico:
Originariamente inviato da thegladiator
Scusate.................................dopo tutti gli screen postati (superlativi quelli di Tom) ancora non vedete la differenza in qualità grafica tra gli screen della 6800 in FP16 e quelli in FP24 della 9800???? :rolleyes:
Chi aveva ragione un po' di pagine di post fa??? :mc:
Ma per favore Farcry è un gioco.....
E avevo già detto che c'erano differenze.....e sincermente sono convinto che solo da uno shot puoi accorgerti di una differenza del genere.
In più in Farcry c'è il supporto agli shader 3.0 e bisogna vedere che succederà con gli altri driver.
Aggiungo pure che l'effetto bagnatopipì che fanno le ati con i ps 2.0 in farcry proprio non è la qualità superiore che intendo io per la grafica.
Da qui a dire che la qualità Ati è superiore nei giochi ce ne passa.
Ma finchè si pensa più a fare commenti a cazzo e provocatori come ho sentito e sento non si va da nessuna parte.
Davvero leggo certe cose che sembrano scritte apposta per far incazzare le persone....secondo me vi divertite....
thegladiator
14-04-2004, 17:32
Per carità, io sono sicuro che Nvidia risolverà il problema (ci mancherebbe)........anche se bisognerà vedere con che impatto sulle prestazioni, perchè un impatto CI SARA' SICURAMENTE e non penso così marginale: passare da FP16 a FP24/32 non è cosa da poco!!
Il mio post, comunque, più che evidenziare il deficit qualitativo della 6800, voleva richiamare l'attenzione dei "signori" sopracitati (che ora tacciono... :p ) che di fronte alle mie osservazioni circa la migliore ed evidente superiorità, in termini di qualità, della 9800 hanno risposto come se stessi vaneggiando... :cool:
PSYCOMANTIS
14-04-2004, 17:38
Originariamente inviato da JENA PLISSKEN
Ma com' era la storia??...con lo 0,13 si consuma di meno, scaldano di meno:sofico: :sofico: :sofico: ....l' unico vero motivo = si clokkano d +:D :D :D ...che paraculi:rolleyes:
Psycomantis...spendi 600€ x una scheda che dopo 4 o 5 mesi dovrai regalare e nn ti cambi un ali che alla fine ti dura una vita?? mah...io ho smesso di cercare di capirvi:sofico: :sofico: :sofico: :sofico:
Un ali buono da 500 watts costa almeno un centozzo......buttale via!
thegladiator
14-04-2004, 17:39
Originariamente inviato da R@nda
Ma per favore Farcry è un gioco.....
E avevo già detto che c'erano differenze.....e sincermente sono convinto che solo da uno shot puoi accorgerti di una differenza del genere.
In più in Farcry c'è il supporto agli shader 3.0 e bisogna vedere che succederà con gli altri driver.
Aggiungo pure che l'effetto bagnatopipì che fanno le ati con i ps 2.0 in farcry proprio non è la qualità superiore che intendo io per la grafica.
Da qui a dire che la qualità Ati è superiore nei giochi ce ne passa.
Ma finchè si pensa più a fare commenti a cazzo e provocatori come ho sentito e sento non si va da nessuna parte.
Davvero leggo certe cose che sembrano scritte apposta per far incazzare le persone....secondo me vi divertite....
Ah, ma allora ci sei...........al di là del fatto che il tono dei miei post era ironico e tranquillo..........mi sa che i commenti "a cazzo" li stai facendo tu negando una evidente differenza nella qualità. Se poi l'effetto "bagnato" non ti piace sono "azzi" tuoi, rimane il fatto che la qualità E' INFERIORE!!
E in ultimo, che caz@o vuol dire Farcry è un gioco??? :rolleyes:
E in quale ambito dovremmo confrontare la qualità di 'sti mostri se non.........NEI giochi?????????? :muro: Nelle tech-demo??? Nel 3dmerd??? :muro:
Dumah Brazorf
14-04-2004, 17:40
Povero Volari... :asd:
No scusa The gladiator.
va bene tutto....ma inquadrando il particolare te ne accrogi...prendendo uno shot più grande la differenza quasi sparisce.
Mentre giochi proprio non ci fai caso.
Poi se le cose con i driver miglioreranno si vedrà...adesso è presto per dirlo.
Ed è anche presto dire che impatto avranno i 32bit sul scheda....
E intendevo Farcry è un gioco nel senso che è 1 gioco solo su tutti quelli che ci sono in giro....e l'alba dei giochi dx9 è appena cominciata.
http://mbnet.fi/elixir/NV40/10817474486qLMOmeutS_5_1_l.jpg
Ragazzi c'e' da dire una cosa però....
the inquirer ci ha azzeccato su tutto!
oltre un mese fa scrisse anche delle indiscrezioni riguardanti un video processor engine integrato in grado di fare code ed encode di flussi video mpg 1/2/4 e wmv9 e c'ha preso pure su questo, oltre che le pipes e transistor:eek:
PSYCOMANTIS
14-04-2004, 17:45
http://shop.essedi.it/mainscheda.htm?&APP=W3E&CK=1259446&ART=41674&LST=_QO_
Ragazzi ditemi che esistono alimentatori da 500 watts piu' economici di questo! :cry:
Ma anche se gli attacchi un ali dedicato,come fai a far si che si accenda con la mobo? lo lasci sempre acceso? lo spegni tu ogni volta che spegni il pc?
Per far si che si accenda è sufficiente cortocircuitare un cavo,ma ogni volta che accendi il pc ti toca accendere prima l'ali dedicato....che palle....:muro:
Ameno che non attacchi un SCR al cavetto cortocircuitato e fai l'innesco con la 12volt della mobo.....minchia sono un genio....:sofico:
thegladiator
14-04-2004, 17:50
Originariamente inviato da R@nda
No scusa The gladiator.
va bene tutto....ma inquadrando il particolare te ne accrogi...prendendo uno shot più grande la differenza quasi sparisce.
Mentre giochi proprio non ci fai caso.
Poi se le cose con i driver miglioreranno si vedrà...adesso è presto per dirlo.
Ed è anche presto dire che impatto avranno i 32bit sul scheda....
E intendevo Farcry è un gioco nel senso che è 1 gioco solo su tutti quelli che ci sono in giro....e l'alba dei giochi dx9 è appena cominciata.
Sì.......ho capito che non ci fai caso........come non fai caso a texture high, piuttosto che ultra-high o altri particolari poco evidenti. Su questo ti do ragione, non v'è dubbio....
Io stavo solo ribadendo che è innegabile dire che la 9800, SE ANDIAMO A GUARDARE IL PARTICOLARE OVVIAMENTE, risulta fornire una qualità superiore.......
Ormai la differenza di qualità tra una scheda e l'altra è fatta di "particolari", come l'AA di ATI che continua ad essere superiore o l'AF di NV3x che, essendo "full", veniva applicato anche sulle superfici oblique. Ora, dimmi tu, se all'interno di una scena di Farcry, in game, tu saresti in grado di distinguere se l'AF non è applicato a tutte le superfici oblique.............o ci fai caso "per caso" o non te ne accorgerai mai......il discorso FP16 o 24/32 penso sia simile......... ;)
Bè, la scheda finalmente è uscita, Dark Schneider smetterà di dannarsi e noi invece iniziamo a farlo commentando i risultati.
La scheda va bene, nettamente meglio sia della 5950 che della 9800XT, e questo c'era da aspettarselo: brava nVidia!
Delle nuove funzionalità per la decodifica video tutti urlano al miracolo, ma dall'articolo apparso su Tom's si vede che il carico sul processore durante questi lavori è addirittura maggiore utilizzando la 6800 rispetto alle "vecchie"... WOW :rolleyes:
Speriamo in versioni aggiornate dei driver...
Per quanto riguarda il consumo questa scheda fa urlare tutti ai 480W dichiarati da nVidia per farla funzionare, ma sempre su Tom's si vede che consuma circa 20W in più di una 9800XT, chi abbia già tale scheda non dovrebbe preoccuparsi quindi per il suo alimentatore, a meno che non sia allo stremo.
P.S. Ho comprato ieri un Enermax 475W... Cavolo, per 5W non potrò usare la 6800!! :muro:
guardate questa (http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MTg)
Shadermark 2.0
6800 ultra in fp32 e Ati in fp24
JENA PLISSKEN
14-04-2004, 17:57
1) certo io nn mi cambio scheda...che poi dovrei RI-cambiarmi dopo poco tempo x forza...solo x giocare a FAR CRY...se quello è il max...mi tengo la mia:D
2) Aspettiamo l' R420
3) la storia del "" NN CI FAI CASO MENTRE GIOCHI"" è una gran c@
[email protected] fine all' AF nn fullscreen ci fai caso eccome anche in mezzo ad UT 2k4...sempre se si è appassionati e competenti...altrimenti chissene...diciamo che è u' ottima trovata, ma sinc speravo in qualcosa in + in tutti i campi NN in qualcosa in - nell' AF;)
4) Psycomantis...cerca di prenderti...quando sarà...un ANTEC o la max un Enermax\TT\Chieftec;)
Originariamente inviato da thegladiator
Sì.......ho capito che non ci fai caso........come non fai caso a texture high, piuttosto che ultra-high o altri particolari poco evidenti. Su questo ti do ragione, non v'è dubbio....
Io stavo solo ribadendo che è innegabile dire che la 9800, SE ANDIAMO A GUARDARE IL PARTICOLARE OVVIAMENTE, risulta fornire una qualità superiore.......
Ormai la differenza di qualità tra una scheda e l'altra è fatta di "particolari", come l'AA di ATI che continua ad essere superiore o l'AF di NV3x che, essendo "full", veniva applicato anche sulle superfici oblique. Ora, dimmi tu, se all'interno di una scena di Farcry, in game, tu saresti in grado di distinguere se l'AF non è applicato a tutte le superfici oblique.............o ci fai caso "per caso" o non te ne accorgerai mai......il discorso FP16 o 24/32 penso sia simile......... ;)
Esatto....ma si va anche a un punto in cui la complessità del chip diventa tale da mettere in imbarazzo chi i giochi li deve sviluppare....adesso la strada è aperta e si vedrà che cosa ne verrà fuori.
Bisogna vedere Ati come sarà.....e poi chiaramente entrambe le schede avranno i loro pro e contro...come sempre.
Poi quando sarà sceglierò con comodo quella che andrà meglio.
Cmq non sono stato io a negare la differenza in quegli shot.:D
Dark Schneider
14-04-2004, 18:02
Originariamente inviato da xpiuma
Bè, la scheda finalmente è uscita, Dark Schneider smetterà di dannarsi e noi invece iniziamo a farlo commentando i risultati.
La scheda va bene, nettamente meglio sia della 5950 che della 9800XT, e questo c'era da aspettarselo: brava nVidia!
Delle nuove funzionalità per la decodifica video tutti urlano al miracolo, ma dall'articolo apparso su Tom's si vede che il carico sul processore durante questi lavori è addirittura maggiore utilizzando la 6800 rispetto alle "vecchie"... WOW :rolleyes:
Speriamo in versioni aggiornate dei driver...
Per quanto riguarda il consumo questa scheda fa urlare tutti ai 480W dichiarati da nVidia per farla funzionare, ma sempre su Tom's si vede che consuma circa 20W in più di una 9800XT, chi abbia già tale scheda non dovrebbe preoccuparsi quindi per il suo alimentatore, a meno che non sia allo stremo.
P.S. Ho comprato ieri un Enermax 475W... Cavolo, per 5W non potrò usare la 6800!! :muro:
Ragà ancora non riparto..ma tra poco vado.
Cmq Vifani ha detto che ha provato la scheda su un 350 Watt è funziona tranquillamente. :)
Ma cmq alla fine non penso che ci vogliano i 480 Watt.
Si cmq bravo xpiuma sono TOTALMENTE soddisfatto di quello che la scheda è: attualmente è Dio sceso in terra. :D
Cmq staremo a veere Ati che non sarà da meno. :)
Originariamente inviato da xpiuma
P.S. Ho comprato ieri un Enermax 475W... Cavolo, per 5W non potrò usare la 6800!! :muro:
Cambialo!!!! :D
Comunque c'è da dire che questa scheda soddisfa pienamente le aspettative!!! Ovviamente è ancora una scheda da sviluppare e quindi credo che il pieno della sua potenza lo si potrà vedere quando usciranno driver che sfrutteranno al massimo le capacità di sta' scheda così come quando usciranno giochi che sfruttano tutte le sue caratteristiche.
Che ne dite della mia recensione eh??? Sono un pezzo avanti!!!!:D Scherzo!
Per quanto riguarda la qualità leggete qui: c'è tutto e si vede la differenza...
LINK (http://www.tomshw.it/graphic.php?guide=20040414&page=feforce_6800-46)
-* Pisquano *-
14-04-2004, 18:03
Guardate questo...
http://www.tomshw.it/graphic.php?guide=20040414&page=feforce_6800-02
Ora anche il NV40 usa 1 pipe per texture...;)
Originariamente inviato da R@nda
Ma guarda quasiasi cosa intendesse se prendi le due sk di punta di casa Ati e Nvidia differenze ce ne sono ben poche.....
Ma il bello è che i driver fallati di casa Ati sono una leggenda....mentre la qualità superiore no?
Tanto leggenda per leggenda....ma come cavolo si ragiona io non lo so davvero.
E ancora mi stupisco che mi incavolo pure per queste cose...quando dovrei lasciar perdere per principio....
ma lol
Torniamo al NV40 che è meglio va...
si, la stessa differenza tra una vernice classica e una metallizzata.
caspita ma li noti i tre screen di far cry dove ad esempio la 5950u non riproduceva l'effetto bagnato a terra? e la 6800 riproduceva a 16 bit?
ma a che giochi a pacman che non noti le differenze?
:D :D
Gustavo Dandolo
14-04-2004, 18:12
Originariamente inviato da Dark Schneider
Cmq Vifani ha detto che ha provato la scheda su un 350 Watt è funziona tranquillamente. :)
Perchè non leggevi tutto invece di fermarti alla prima riga? ha detto che quel 350w che ha utilizzato (e non ha specificato ne marca ne modello) alimentava solo lo stretto necessario (mobo-cpu-ram-video-1hd) e quindi non vuol dire nulla, dato che io come penso tutti qui disponiamo di molti dischi rigidi, periferiche ottiche in primis, oltre che le varie schede di espansioni e materiale da modding (anche il vario ventolame assorbe).
Ma cmq alla fine non penso che ci vogliano i 480 Watt.
Con che sistema? Con quale alimentatore di 480W nominali?
Leggi sopra. E' una frase senza senso questa.
Dark Schneider
14-04-2004, 18:13
Originariamente inviato da Gustavo Dandolo
Perchè non leggevi tutto invece di fermarti alla prima riga? ha detto che quel 350w che ha utilizzato (e non ha specificato ne marca ne modello) alimentava solo lo stretto necessario (mobo-cpu-ram-video-1hd) e quindi non vuol dire nulla, dato che io come penso tutti qui disponiamo di molti dischi rigidi, periferiche ottiche in primis, oltre che le varie schede di espansioni e materiale da modding (anche il vario ventolame assorbe).
Con che sistema? Con quale alimentatore di 480W nominali?
Leggi sopra. E' una frase senza senso questa.
Per il semplice motivo che NON ho tempo e sto per ripartire. Andate nel blog.
Un buon 420 watt in abbinamento con altre periferische...andrà benone.
a stasera.
JENA PLISSKEN
14-04-2004, 18:13
Originariamente inviato da Gustavo Dandolo
Perchè non leggevi tutto invece di fermarti alla prima riga? ha detto che quel 350w che ha utilizzato (e non ha specificato ne marca ne modello) alimentava solo lo stretto necessario (mobo-cpu-ram-video-1hd) e quindi non vuol dire nulla, dato che io come penso tutti qui disponiamo di molti dischi rigidi, periferiche ottiche in primis, oltre che le varie schede di espansioni e materiale da modding (anche il vario ventolame assorbe).
Con che sistema? Con quale alimentatore di 480W nominali?
Leggi sopra. E' una frase senza senso questa.
X nn parlare di chi come me ha tutto FULL OC;)
dato che la ultra è nettamente fuori dalla mia portata volevo sapere quanto bisognava aspettare per sapere qualcosa di più dettagliato sulla liscia?
Gustavo Dandolo
14-04-2004, 18:16
Originariamente inviato da JENA PLISSKEN
X nn parlare di chi come me ha tutto FULL OC;)
Infatti.
Ad ogni modo riguardo la qualità, ci sono alcune cose che adesso a mente serena ed esaurita la foga e l'euforia iniziale mi fanno riflettere:
http://www.tomshw.it/guides/graphic/20040414/images/farcry-scene1.png
è scandalosa, da davvero, ci sono cubetti, altro che maggiore precisione di calcolo :(
Thunder82
14-04-2004, 18:18
Ma come fate a dire che fra fp16 e fp24 non c'è differenza? :eek:
Altro che particolare, è tutto a "bande" di colore, a cubettoni, come un divx col bitrate troppo basso!
Cioè, ditemi se queste sono cose trascurabili!
http://www.tombraiders.it/public/fd.JPG
http://www.tombraiders.it/public/farcry-scene1.JPG
La differenza è evidente!
Con questo non voglio dire che la 6800 faccia schifo, sia chiaro, anzi è una scheda che mi prenderei all'istante, ma i bench imho non sono veritieri. Una scheda di quella potenza, progettata per offrire il massimo della qualità, DEVE operare in fp32, non in quel mixed mode degli screen.
Gustavo Dandolo
14-04-2004, 18:19
Volevo chiedere una cosa a chi è più esperto di me: ma con dei cheat che abbassano la qualità d'immagine, schede video come questa (o come le varie 5950 e 9800), riescono a far salire di molto i fps? :confused:
Vorrei una risposta però sensata, senza flame o altro :)
Thunder82
14-04-2004, 18:21
Originariamente inviato da Gustavo Dandolo
Volevo chiedere una cosa a chi è più esperto di me: ma con dei cheat che abbassano la qualità d'immagine, schede video come questa (o come le varie 5950 e 9800), riescono a far salire di molto i fps? :confused:
Vorrei una risposta però sensata, senza flame o altro :)
Adesso non so la differenza prestazionale della 6800 fra fp16 e fp32 (può darsi anche che non perda niente, anche se dubito), però la serie FX guadagnava MOLTO col mixed mode.
goldorak
14-04-2004, 18:24
Originariamente inviato da Gustavo Dandolo
Volevo chiedere una cosa a chi è più esperto di me: ma con dei cheat che abbassano la qualità d'immagine, schede video come questa (o come le varie 5950 e 9800), riescono a far salire di molto i fps? :confused:
Vorrei una risposta però sensata, senza flame o altro :)
Non sono un esperto neanch'io, pero' penso che se si abassa la qualita' del rendering ovviamente dovresti fare piu' fps.
Ma a che pro ?
Visto che stiamo andando verso il fotorealismo nei giochi, meglio un rendering di qualita' con fps nella media che il contrario sempre IMHO.
halduemilauno
14-04-2004, 18:24
Originariamente inviato da Vifani
L'aggiornamento della configurazione per i test è una cosa che io e Paolo stiamo discutendo. Volerla fare per NV40 sarebbe stato impossibile per evidenti problemi di tempo. Vi assicuro che abbiamo lavorato giorno e notte e le ultime modifiche all'articolo sono state fatte 10 minuti prima della pubblicazione.
Per chi lo voleva sapere, il risultato del 3D Mark 2003 è 11476
Wings Of Fury - 247.3
Battle Of Proxycon - 94.9
Troll's Lair - 78.6
Mother Nature - 63.6
Una curiosità. Ho provato a far funzionare il sistema anche con un alimentatore da 350 W. Risultato? Funziona benissimo. Tuttavia vi ricordo che il sistema di test è pulito: niente audio, LAN o cose simili abilitate, niente floppy, lettore CD/DVD e masterizzatore. Solo scheda madre, CPU, RAM, VGA e HD.
Ovviamente se mettete lettore DVD, masterizzatore CD/DVD, magari due HD, con scheda audio e qualche periferica USB... beh le cose cambiano ;)
molti hanno sollevato il problema ali.quindi mi pareva giusto proporre tutto questo anche qui.
ciao.
;)
Questione alimentatore... ho paura che Gustavo abbia ragione... a prescindere dal fatto che io non ho intenzione di spendere un pozzo di soldi per 6800ultra/x800XT bensì mi rivolgerò al settore "liscio" (12 pipes?!), attualmente ho un chieftech 420Watt che alimenta:
- P4
[email protected] Ghz (e già qua...)
- 2hd Maxtor 7200giri
- 1 masterizzatore
- 2 dvd
- 3 ventole extra
- 4 moduli di ram
- floppy
- 2 schede PCI
... IMHO credo che una 6800ultra potrebbe essere troppo per la mia bestiola ( e di spendere altri 100€ o più non ne hop la minima intenzione...)
-* Pisquano *-
14-04-2004, 18:30
Cmq se leggete bene le recensioni dicono che il FP32 è per la6800, mentre anti si trova in crisi, perchè è rimasta o cosi sembra sul fp24...
JENA PLISSKEN
14-04-2004, 18:30
Originariamente inviato da Thunder82
Ma come fate a dire che fra fp16 e fp24 non c'è differenza? :eek:
Altro che particolare, è tutto a "bande" di colore, a cubettoni, come un divx col bitrate troppo basso!
Cioè, ditemi se queste sono cose trascurabili!
http://www.tombraiders.it/public/fd.JPG
http://www.tombraiders.it/public/farcry-scene1.JPG
La differenza è evidente!
Con questo non voglio dire che la 6800 faccia schifo, sia chiaro, anzi è una scheda che mi prenderei all'istante, ma i bench imho non sono veritieri. Una scheda di quella potenza, progettata per offrire il massimo della qualità, DEVE operare in fp32, non in quel mixed mode degli screen.
MEGLIO la RAD...cmq questa scheda NN è e nn credo sarà una svolta epocale come lo è stata a suo tempo la mia 9700....aspetto ATI con ansia...magari ci strabilierà...o magari ci deluderà ...spero la prima;)
-* Pisquano *-
14-04-2004, 18:32
Io credo di farcela ho un 550 Watt
2 Hd
7 ventole
floppy
dvd
cd
lcd temperature
una scheda pci
Jedi_Master
14-04-2004, 18:34
Originariamente inviato da Gustavo Dandolo
Volevo chiedere una cosa a chi è più esperto di me: ma con dei cheat che abbassano la qualità d'immagine, schede video come questa (o come le varie 5950 e 9800), riescono a far salire di molto i fps? :confused:
Vorrei una risposta però sensata, senza flame o altro :)
Non e' facile ipotizzare un valore.
Peccato pero' che quando si parla di Nvidia ci debba
sempre essere qualche dubbio sulla su 'lealta'.....
peccato.
Originariamente inviato da Gustavo Dandolo
Infatti.
Ad ogni modo riguardo la qualità, ci sono alcune cose che adesso a mente serena ed esaurita la foga e l'euforia iniziale mi fanno riflettere:
http://www.tomshw.it/guides/graphic/20040414/images/farcry-scene1.png
è scandalosa, da davvero, ci sono cubetti, altro che maggiore precisione di calcolo :(
Cavolo questa immagine è da brivido......aspettiamo la concorrenza....:(
bella scheda , cmq
vediamo se mi date il vostro parere su una cosa
io sto per comprare per via di rogne agli occhi un lcd 17 pollici (1280x1024)
rinpiango pero che non sia disponibile la risoluzione 1600x1200
e anche prendendo un lcd 21 22 pollici è inutile dato che adesso è inadatto per giocare
cavolo mi da fastidio non avere tale risoluzione (dover aspettare lcd 21 pollici ottimi per giocare)
giocando a 1280 x1024 magari aggiungendo uno "step" di anisotropico e aa tipo aa 8x l effetto è simile al 1600x1200? con meno aa?
ora gioco magari unreal 2003-4 a 1600x1200 aa 2x aniso 4x poi se a 1280x1024 mettero aa 6 x (o 8) e aniso di piu notero grosse differenze di "qualita"??
Thunder82
14-04-2004, 18:55
Con la 6800U non hai AA superiori al 4x (a meno di non voler vedere la moviola con l'8x)
Cmq a 1280x1024 su un lcd 17" ti basta anche un AA2x.
Wizard77
14-04-2004, 19:00
seee!! ieri sera quando ho smesso di postare c'erano 4 pagine, adesso ce ne sono 31, ma quanto postate ragazzi :) :p
palanzana
14-04-2004, 19:07
:sbavvv:
ShadowThrone
14-04-2004, 19:28
ho visto i bench e letto la rece di hwupgrade.... bella bestia di scheda!
ma vediamo ati che combina..... ;)
Norbrek™
14-04-2004, 19:30
http://www.tomshw.it/guides/graphic/20040414/images/farcry-scene1.png
http://www.tombraiders.it/public/fd.JPG
http://norbrek.altervista.org/shader.jpg
Raga io sono d'accordo con tutti quelli che sono rimasti delusi dalla qualità dell'immagine offerta da questa scheda!!!
Si presuppone che se io cambi scheda per una generazione successiva, debba trovare una qualità uguale o superiore, chi me lo fa fare di passare a nv40 e scendere a fp16.....sinceramente per quelli che dicono che queste differenze non si vedono non riesco a capire se lo dicano apposta o se si vogliano autoconvincere del contrario, la qualità dell'immagine è nettamente inferiore, e questo per quanto mi riguarda basta e avanza per farmi giudicare negativamente questa scheda....
P.S. per chi dice che può essere una questione di driver, centra ben poco, l'architettura lavora in fp16 o fp32 visto che fp32 è troppo pesante scala tutti i giochi in fp16, a questo punto continuo a preferire le ati che lavorano in fp24, e se ai tempi del 3dmerd2001 questo non si notava, da farcry in poi si noterà sempre di più nei giochi di nuova generazione, e se permettete se devo spendere 500€ voglio che lgi effetti si vedano come i programmatori li avevano immaginati anzichè smorzati dalla vga!
KenMasters
14-04-2004, 19:38
hanno implementato gli stessi metodi di Fsaa e AF di ATI, che ridicoli
http://www.xbitlabs.com/articles/video/display/nv40.html
Roba da matti.
A sto punto visto queste immagini non posso che dire che nvidia mi fa veramente pena.
ridicoli :cry:
Legolas84
14-04-2004, 19:41
Se la vora davvero in FP 16 in tutti i giochi e in FP 32 perde troppo allora non è all'altezza.... meglio ATi in FP24!
Se poi invece dimostrerà di stare davanti ad ATi in FP 32 allora tanto di capello a nVidia
Norbrek™
14-04-2004, 19:42
Originariamente inviato da IS_Fox_
Roba da matti.
A sto punto visto queste immagini non posso che dire che nvidia mi fa veramente pena.
ridicoli :cry:
A me non fa proprio pena, ma sono alquanto deluso, ok il framerate è eccezionale ma la qualità lascia ancora a desiderare, a questo punto potevano mettere al minimo il dettagglio mipmap che facevano ancora più fps se questo è il loro unico obbiettivo...
Norbrek™
14-04-2004, 19:43
Originariamente inviato da Legolas84
Se poi invece dimostrerà di stare davanti ad ATi in FP 32 allora tanto di capello a nVidia
Se fosse così tanto di cappello sicuramente ad nvidia, si vedrà, ma per quanto riguarda i dati che abbiamo in possesso ora, mi sento di dire che preferisco meno fps ma in fp24!
Originariamente inviato da PSYCOMANTIS
http://shop.essedi.it/mainscheda.htm?&APP=W3E&CK=1259446&ART=41674&LST=_QO_
Ragazzi ditemi che esistono alimentatori da 500 watts piu' economici di questo! :cry:
Mai risparmiare per un ali.;)
Dumah Brazorf
14-04-2004, 19:48
Originariamente inviato da KenMasters
hanno implementato gli stessi metodi di Fsaa e AF di ATI, che ridicoli
Macchè ridicoli, che dovevano fare, stare a guardare? :confused:
Se il concorrente sforna una soluzione migliore per lo meno prendi spunto da essa, se non riesci a migliorarla usala pari pari, magari pagando delle royalties. E' così che si è evoluto il mondo dei pc. :)
Ciao.
goldorak
14-04-2004, 19:53
Originariamente inviato da Norbrek™
Se fosse così tanto di cappello sicuramente ad nvidia, si vedrà, ma per quanto riguarda i dati che abbiamo in possesso ora, mi sento di dire che preferisco meno fps ma in fp24!
Come non quotarti :mano:.
Mi sembra di essere tornato ai tempi delle lotte 16bit/32bit di colore nei giochi tra 3dfx e ati.
Originariamente inviato da Legolas84
Se la vora davvero in FP 16 in tutti i giochi e in FP 32 perde troppo allora non è all'altezza.... meglio ATi in FP24!
Se poi invece dimostrerà di stare davanti ad ATi in FP 32 allora tanto di capello a nVidia
Non credo che Ati implementi il fp32 nemmeno sull'R420.
Originariamente inviato da Dumah Brazorf
Macchè ridicoli, che dovevano fare, stare a guardare? :confused:
Se il concorrente sforna una soluzione migliore per lo meno prendi spunto da essa, se non riesci a migliorarla usala pari pari, magari pagando delle royalties. E' così che si è evoluto il mondo dei pc. :)
Ciao.
sono pienamente d'accordo . e cmq da quello che ho letto ha "copiato" semplicemente il filtro anisotropico , il filtro AA è sempre secondo filosofia nVidia. solo che a differenza dalla 59xx è stato migliorato praticamente ai livelli del FSAA4x di ATi , anche il 4x di nVidia.
Legolas84
14-04-2004, 19:57
Infatti la lotta per me è FP 32 (nvidia) Vs FP 24 (Ati).
Se nvidia perde troppo in questa modalità prendo ATi....
ecco come andrà nv40 rispetto alla generazione attuale con i giochi dx9.
leggete attentamente questo
http://www.xbitlabs.com/articles/video/display/nv40_29.html
Originariamente inviato da Legolas84
Infatti la lotta per me è FP 32 (nvidia) Vs FP 24 (Ati).
Se nvidia perde troppo in questa modalità prendo ATi....
fek ha detto più volte che sia per ati che per nvidia si utilizzerà sempre l'fp16 nella prossima generazione di giochi.
l'fp32 solo con nv50 e r500
Norbrek™
14-04-2004, 20:01
Quoto, sarei un po' superficiale a guardare gli fps e guidicare una scheda ottima, ok 200fps in call of duty, ma questo di certo non mi fa apprezzare la scheda, la persona attenta invece dovrebbe andare a vedersi le differenze qualitative piuttosto che gasarsi per i numeroni di fraps, allora se sono i numeroni quelli che vogliamo tanto vale mettere al minimo il dettaglio mipmap...
Originariamente inviato da dwfgerw
ecco come andrà nv40 rispetto alla generazione attuale con i giochi dx9.
leggete attentamente questo
http://www.xbitlabs.com/articles/video/display/nv40_29.html
Che gioco usano?
Norbrek™
14-04-2004, 20:02
Originariamente inviato da dwfgerw
fek ha detto più volte che sia per ati che per nvidia si utilizzerà sempre l'fp16 nella prossima generazione di giochi.
l'fp32 solo con nv50 e r500
ATI lavora e lavorerà sempre con r420 in fp24 dato che è l'unica che supporta, è nvidia a lavorare in fp16 perchè il 32 è troppo pesante!, ati non può lavorare in fp16 neanche volendo! E' appunto per questo che le differenze sono tanto visibili in farcry, da una parte abbiamo una scheda che lavora in fp16 e dall'altra una che lavora in fp24 dato che è l'unica precisione supportata!
Il fatto è che la differenza tra fp16 e fp24 è evidente a occhio nudo...
Tra fp24 e fp32 invece le diff. sono davvero minimali... se ati ha deciso di rimanere su fp24 spero che lo abiia fatto per ottenere il miglior rapporto qualità/velocità
goldorak
14-04-2004, 20:05
Originariamente inviato da dwfgerw
fek ha detto più volte che sia per ati che per nvidia si utilizzerà sempre l'fp16 nella prossima generazione di giochi.
l'fp32 solo con nv50 e r500
Ma stai scherzando vero ?
L'R300 fa il rendering in fp24, non vedo per quale motivo masochistico l'R420 userebbe il rendering fp16.
Oggi non conta piu' far 100-200 fps quanto la qualita' d'immagine quindi se ati con l'r420 fara' meno fps del nv40 ma con un rendering a fp24 a me sta bene.
E' fuori dal mondo comprare delle schede da 500€ per vederle fare il rendering a fp16 :mad:
Snake007
14-04-2004, 20:05
io ho un enermax da 350W. Purtroppo non me ne intendo molto, lo'ho pagato la bellezza di 90€!
Mi basta per farlo andare, avendo poi un thermaltake xaser3, con ventole e neon!:p
Secondo voi non converrà prendere la 9800xt quando scende di prezzo!?:confused:
Questa l'avevate vista?
Saluti
Angelo
Originariamente inviato da Norbrek™
ATI lavora e lavorerà sempre con r420 in fp24 dato che è l'unica che supporta, è nvidia a lavorare in fp16 perchè il 32 è troppo pesante!, ati non può lavorare in fp16 neanche volendo! E' appunto per questo che le differenze sono tanto visibili in farcry, da una parte abbiamo una scheda che lavora in fp16 e dall'altra una che lavora in fp24 dato che è l'unica precisione supportata!
nvidia ha utilizzato fp16/32 perchè questo è stato stabilito fin dall'inizio con le dx9, infatti per essere totalmente conformi agli shader 3.0 serve fp32.
Originariamente inviato da Norbrek™
ATI lavora e lavorerà sempre con r420 in fp24 dato che è l'unica che supporta, è nvidia a lavorare in fp16 perchè il 32 è troppo pesante!, ati non può lavorare in fp16 neanche volendo! E' appunto per questo che le differenze sono tanto visibili in farcry, da una parte abbiamo una scheda che lavora in fp16 e dall'altra una che lavora in fp24 dato che è l'unica precisione supportata!
E soprattutto è supportata dal gioco, oltre che essere richiesta dalle DX9 già dalla prima versione...
Norbrek™
14-04-2004, 20:10
Originariamente inviato da goldorak
Ma stai scherzando vero ?
L'R300 fa il rendering in fp24, non vedo per quale motivo masochistico l'R420 userebbe il rendering fp16.
Oggi non conta piu' far 100-200 fps quanto la qualita' d'immagine quindi se ati con l'r420 fara' meno fps del nv40 ma con un rendering a fp24 a me sta bene.
E' fuori dal mondo comprare delle schede da 500€ per vederle fare il rendering a fp16 :mad:
Quoto, non siamo mica più ai tempi in cui i giochi sulla vodoo andavano da dio e su tutte le altre si doveva scende a compromessi, oggi non mi interessa niente fare 200fps o 100fps io voglio la massima qualità ottenibile, dato che quello a cui si punta è avvicinarsi il più possibile al fotorealismo non fare il framerate più alto!
Norbrek™
14-04-2004, 20:12
Originariamente inviato da dwfgerw
nvidia ha utilizzato fp16/32 perchè questo è stato stabilito fin dall'inizio con le dx9, infatti per essere totalmente conformi agli shader 3.0 serve fp32.
Esatto, ma dato che gli shader 3.0 in questa generazione sono improponibili, data la elevata pesantezza dell'fp32 in pratica vederemo tutti i giochi girare in fp16, a questo punto melgio rinunciare agli shader3.0 tanto inutilizzati e avere un sensibile distacco qualitativo unsando l'fp24!
Originariamente inviato da MaBru
Che gioco usano?
Credo sia Stalker
E credo anche che in Fp32 la scheda rulla ugualmente......
Per essere full PS 3.0 la scheda deve lavorare a 32bit di precisione obbligatoriamente.
Credo che nei Ps 2.0 a 32bit di precisione la scheda macinerà comunque un bel pò di frame.
Secondo me è Farcry che non va in 32bit di precisone perchè programmato specificatamente per le sk NV3X.
Adesso la patch per il supporto agli shader 3.0 per Farcry l'hanno fatta....ma è evidente che qualcosa non funziona....perchè quelle foto sono in Fp16bit e non 32...altrimenti l'immagine sarebbe omogenea.
Bisognerà attendere i nuovi driver per vedere come va in FarCry....oppure una Ptch per il gioco.
Per me la state facendo grossa....troppo,come al solito quando si parla di Nvidia.
Sopratutto voglio vedere come si comporterà Ati nelle prestazioni....poi bisognerà tirare le somme e scegliere.
Un pò presto per criticare troppo comunque.
Originariamente inviato da dwfgerw
ecco come andrà nv40 rispetto alla generazione attuale con i giochi dx9.
leggete attentamente questo
http://www.xbitlabs.com/articles/video/display/nv40_29.html
ma quella che chiamano ultra 435/1150 è la ultra e qull'altra è la liscia?
Norbrek™
14-04-2004, 20:16
Originariamente inviato da R@nda
Credo sia Stalker
E credo anche che in Fp32 la scheda rulla ugualmente......
Per essere full PS 3.0 la scheda deve lavorare a 32bit di precisione obbligatoriamente.
Credo che nei Ps 2.0 a 32bit di precisione la scheda macinerà comunque un bel pò di frame.
Secondo me è Farcry che non va in 32bit di precisone perchè programmato specificatamente per le sk NV3X.
Adesso la patch per il supporto agli shader 3.0 per Farcry l'hanno fatta....ma è evidente che qualcosa non funziona....perchè quelle foto sono in Fp16bit e non 32...altrimenti l'immagine sarebbe omogenea.
Bisognerà attendere i nuovi driver per vedere come va in FarCry....oppure una Ptch per il gioco.
Per me la state facendo grossa....troppo,come al solito quando si parla di Nvidia.
Sopratutto voglio vedere come si comporterà Ati nelle prestazioni....poi bisognerà tirare le somme e scegliere.
Un pò presto per criticare troppo comunque.
Ok se risolvendo e abilitando l'fp32 per nvidia si manteranno prestazioni ottimali bene venga, ma per ora non sappiamo come si comporti questa scheda con la pesante precisione a 32bit!
Anonized
14-04-2004, 20:16
http://hardware.multiplayer.it/immagini/news/1/15981/img1.jpg
Originariamente inviato da Anonized
http://hardware.multiplayer.it/immagini/news/1/15981/img1.jpg
Questa e' single slot!!!!!
Norbrek™
14-04-2004, 20:20
Raga ma tutto ad un tratto sto slot è diventato così importante, non l'ha mai usato nessuno e adesso diventa importante perchè non lo occupa più? Tanto è improponibile inserire una scheda nello slot a fianco!
Sawato Onizuka
14-04-2004, 20:23
:muro: :muro: :muro:
oggi pomeriggio tutti contenti poi appena abbiam letto la rece di Tomshw tutti pronti a spalare @@@@@ addosso :)
be' dopo quegli shot con programmi NON ottimizzati (va là credete che i ForceWare nn siano solo ottimizzati-taroccati? cambiate pianeta! e lo dice uno che prima con la raddy 8500 e neutral ct giocava a 1024x768 dettagli medi a TUTTO [senza filtri ovvio] ) ci vuole la gif appropriata :ahahah: :Puke: :hic: :nonsifa:
aspetto un X800 Pro anche se a 12 pipe e 12x1 ma con Low-K :D
P.S. sapete vero che i programmatori dei catalyst 1 volta ogni 2 settimane o 1 volta al mese (dipende la loro disponibilità) si aprono al pubblico in una chat open? (sponsor rage3d)
inutile aggiungere altro ... (sarebbe solo l'inizio)
BENVENUTA FIGLIA DELLA 5800
il *800 porta sempre sfiga ad nvidia :D
del mio NV35 son contento imho :)
Dumah Brazorf
14-04-2004, 20:23
Originariamente inviato da Haku
ma quella che chiamano ultra 435/1150 è la ultra e qull'altra è la liscia?
E' semplicemente la stessa scheda overclockata, come hanno fatto i nostri di hwupgrade alla fine della recensione.
La scatola della Inno3D sembra un fustino di detersivo!!!!!! :sofico:
Quindi TUTTI i bench sono stati fatti con fp16 bit?
Ciao.
Originariamente inviato da Norbrek™
Ok se risolvendo e abilitando l'fp32 per nvidia si manteranno prestazioni ottimali bene venga, ma per ora non sappiamo come si comporti questa scheda con la pesante precisione a 32bit!
Ah guarda sicuramente attenderò che ci sia chiarezza completa da entrambe le parti Ati e Nvidia prima di fare conclusioni e scegliere il prossimo acquisto.
Sono tante le cose da tenere in considerazione:
Prezzo
Qualità di immagine
Prestazioni
Drivers
Gabole varie nei test
Precisione di calcolo 16/32 bit nei giochi di adesso e futuri
avessero già presentato l'Ati potremmo fare dei paragoni....ma così siamo al buio....
Lord style
14-04-2004, 20:38
Sono appena tornato da lavoro e trovo:
-32 pagine di thread da leggere. :D
-Decine di recensioni da leggere. :D
Da una prima analisi noto che:
-La 6800ultra ha stravinto nei benchmark in prestazioni, ma utilizza anche l'FP16 nella renderizzazione degli shader. Questo significa che i benchmark non essendo fatti nelle medesime condizioni il risultato è falsato a vantaggio di nVidia.
-I FP16 sono nettamente peggiori, qualitativamente parlando, rispetto ai FP24 di ATi. L' FP16 non è proponibile come soluzione per una scheda da 400$. Non è proponibile in nessuna circostanza.
Alla luce di questa situazione, se nVidia non mi permetterà di decidere autonomamente che precisione di calcolo deve utilizzare la 6800Ultra nella renderizzazione degli shader i miei soldi non li vedrà mai. Non posso spendere 400$ e ritrovarmi "quando meno me lo aspetto" un'immagine renderizzata a FP16 che rispetto a una FP24 è nettamente peggiore. Se nVidia pensa di vendermi una scheda di 400$ che vince nei benchmark, ma perde nella qualità vuol dire che in questi due anni di leadership ATi non ha capito una mazza.
Se la 6800ultra è troppo lenta quando lavora a FP32 rispetto alla concorrenza che lavora con FP24, come sembra, a mio avviso la nVidia ha perso ancora la battaglia con ATi, alla grande.
Io non sono un fan ATi o nVidia, sono un utente che ha deciso di spendere BENE 400 dei suoi sudati €uro e di prendere una valida scheda video da sostituire alla splendida GF4 Ti4200.
Thunder82
14-04-2004, 20:39
Originariamente inviato da MaBru
Che gioco usano?
Half life 2
E questo è Stalker:
http://www.xbitlabs.com/articles/video/display/nv40_30.html
ShadowThrone
14-04-2004, 20:44
Originariamente inviato da Thunder82
Half life 2
E questo è Stalker:
http://www.xbitlabs.com/articles/video/display/nv40_30.html
non mi apre il link...
Thunder82
14-04-2004, 20:48
Originariamente inviato da ShadowThrone
non mi apre il link...
E' intasato :D
Cmq ecco la perdita di fps in fp32... da 49fps i fp16 a 36,9fps in fp32...
http://www.hardware.fr/medias/photos_news/00/07/IMG0007676.gif
Lord style
14-04-2004, 20:49
Originariamente inviato da Thunder82
E' intasato :D
Cmq ecco la perdita di fps in fp32... da 49fps i fp16 a 36,9fps in fp32...
http://www.hardware.fr/medias/photos_news/00/07/IMG0007676.gif
Qui non sono dello stesso parere.
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MTg
ShadowThrone
14-04-2004, 20:49
Originariamente inviato da Thunder82
E' intasato :D
Cmq ecco la perdita di fps in fp32... da 49fps i fp16 a 36,9fps in fp32...
cut
grazie!!!!
Thunder82
14-04-2004, 20:50
Guardate il punteggio di z fill mostruoso, il z fill si usa per calcolare le stencil shadow (tipo doom3). In caso di z fill NV40 è come se avesse 32 pipeline, cioè un fillrate max di 12800MTexel
http://www.hardware.fr/medias/photos_news/00/07/IMG0007678.gif
Norbrek™
14-04-2004, 20:52
Originariamente inviato da Thunder82
E' intasato :D
Cmq ecco la perdita di fps in fp32... da 49fps i fp16 a 36,9fps in fp32...
http://www.hardware.fr/medias/photos_news/00/07/IMG0007676.gif
Sinceramente mi sembrano un po' strani, preferisco aspettare di vedere girare farcry in fp32 con un buon framerate, a quel punto dirò questa scheda è ottima, fino a quel punto rimarrò scettico!
Originariamente inviato da Norbrek™
Sinceramente mi sembrano un po' strani, preferisco aspettare di vedere girare farcry in fp32 con un buon framerate, a quel punto dirò questa scheda è ottima, fino a quel punto rimarrò scettico!
Stavo per postare la stessa cosa.....ci vorrebbe un gioco.
Thunder82
14-04-2004, 20:55
Originariamente inviato da R@nda
Stavo per postare la stessa cosa.....ci vorrebbe un gioco.
Infatti, l'ideale sarebbe vedere Far Cry in fp16 e fp32 e vedere la differenza di fps
Thunder82
14-04-2004, 20:57
http://www.hardware.fr/medias/photos_news/00/07/IMG0007622.gif
I watt della sola VGA in 3D
Il mio Enermax EG465P è al sicuro!:yeah:
e le memorie, te le sei scordate???
Ma secondo te calcolano il consumo di una VGa in 3D senza le ram?
E son curioso di sapere come fanno.....
Wizard77
14-04-2004, 21:18
Ho letto la recensione della sk...
...mmm... ...le prestazioni fanno paura e spavento, ma per la qualità pensavo meglio.
Cmq è una sk della madonna, vedremo quando sarà nei negozi con i driver ottimizzati.
Adesso aspetto la risposta di ATI, vediamo cosa sfornarà per cercare di "battere" quelle prestazioni :) :)
In mezzo a tutte queste rece, bench, numeri, fps e chi più ne ha più ne metta, nessuno ha scaricato e visto il video dell'Unreal Engine 3?
Vi ricordate che chi lo aveva visto al GDC diceva che ogni tanto scattava di brutto?
Bene, non sparava minchiate come qualcuno qui sul forum asseriva. ;)
thunder82, dove hai preso il grafico del consumo?
edit come non detto, ho trovato:)
Originariamente inviato da MaBru
In mezzo a tutte queste rece, bench, numeri, fps e chi più ne ha più ne metta, nessuno ha scaricato e visto il video dell'Unreal Engine 3?
Vi ricordate che chi lo aveva visto al GDC diceva che ogni tanto scattava di brutto?
Bene, non sparava minchiate come qualcuno qui sul forum asseriva. ;)
Sapessi dove scaricarlo!
:D
__M@ster__
14-04-2004, 21:29
ohhhhh.....finalmente tornato......e ho letto da poco la recensione..
che dire sta 6800ultra fa veramente paura.è..(...TERRA CHE TREMA...)...le prestazioni in rispetto alle "vechie" 9800xt e company sn veramente incredibili...a volte pure il doppio...secondo me hanno fatto d'avvero un gran salto di potenza.....che dire contentissimo:cool: :) :D
se r420 sarà ancora meglio (la vedo dura) sarà...:eek: :eek: :eek:
Riguardo ai grafici con il confronto con le beta o leaked di Doom 3 & HL 2 tra NV40 e NV38, direi che oltre a testimoniare senz'altro la "potenza" di NV40, ancora di più provano effettivamente quanto poco riuscita fosse la serie NV3x (nell'ambito di quelle nuove features che invece ne avrebbero dovuto essere il terreno di battaglia preferito). Con buona pace di chi per mesi ha fatto un po' finta di non vedere (nessun riferimento in particolare)!
Se nVidia adesso ha prodotto qualcosa di veramente massiccio, è probabilmente anche per la spinta a ricercare un "riscatto", in un certo senso.
Ma questa volta sembra davvero che nVidia abbia tirato fuori qualcosa di veramente valido sotto praticamente ogni aspetto. Intendo dire che, indipendentemente da quelle che saranno le prestazioni della "risposta" di ATI (che dovremmo augurarci altrettanto interessanti, se possibile, perchè la concorrenza continui a manifestare i suoi benefici effetti), difficilmente si potrà dire che questa è una scheda poco riuscita.
Mi restano delle perplessità per l'ormai consolidato trend dell'elettronica sempre più affamata di watt (non solo in ambito schede video, e quindi non è affatto una critica rivolta ad nVidia in particolare), ma sembra che ci sia poco da fare... oltre a mettersi su almeno un paio di PC; uno da "battaglia" e uno da relax!
quotato
Thunder01
14-04-2004, 21:54
scusate la domanda sicuramente ignorante, ma cosa sono gli FP16 oppure FP24?
è un parametro di qualità dell'immagine vero?
Originariamente inviato da R@nda
Sapessi dove scaricarlo!
:D
http://www.jamesbambury.pwp.blueyonder.co.uk/unreal3_0002.wmv
http://sanbjoe.home.online.no/nv40/unreal3_0002.wmv
:cool:
PSYCOMANTIS
14-04-2004, 21:57
Originariamente inviato da Thunder82
http://www.hardware.fr/medias/photos_news/00/07/IMG0007622.gif
I watt della sola VGA in 3D
Raga secondo me un buon 420 watts basta e avanza. Considerando che la scheda consuma 110 watts e un p4 3,2 ne dovrebbe consumare un altro centinaio, ne rimangono sempre 200-210 per hard disk, ventole scheda madre dissi e dvd.
Mi sbilancio! Secondo me bastano 400 watts!!
Originariamente inviato da MaBru
http://www.jamesbambury.pwp.blueyonder.co.uk/unreal3_0002.wmv
http://sanbjoe.home.online.no/nv40/unreal3_0002.wmv
:cool:
Bella!
:)
L'unica cosa che mi è poco chiara della Rece di HU è presente nelle conclusione ed è questo : ...."anche se i titoli futuri facenti uso massiccio di superfici curve potrebbero penalizzare sia il GeForce 6800 Ultra che il Radeon 9800 XT, privilegiando l'algoritmo di NV38."
:wtf:
Qualcuno mi può chiarire queta frase in modo tecnico e semplice;)
Dark Schneider
14-04-2004, 22:00
Ragazzi rieccomi!! Finalmente dopo un paio di ore di viaggio stressante son arrivato e adesso leggo e rispondo ad un po' di pareri e commenti e...leggo le altre recensioni.
OH MY GOD:eek: :eek:
A volte scatta?!?!?Ma dico!?!?
Tu guardi se scatta in quel contesto?.....Io invece mi chiedo come sia possibile fare girare in temporeale quel popò di roba grafica.
Assolutamente stupefacente....da non credere.
(Ogni tanto qualche scattino lo fa.....ma OMG,svengo...:eek: )
Raga, secondo me questa NV40 sarà anche un ottimo elettrostimolatore pirillare! I consumi di WATT sono spaventosi e se continuiamo così i PC diventeranno del polmoni radioelettricoattivi, malefici! Tra un ò inizieranno a fare i cabinet con anima in piombo in un getto di c.a.. Naturalmente precompressi!! Sticazzzzzzi.
cmq discorsi a parte, Nvidia mi ha stupito con questo mostro che darà non pochi grattacapi ad ATI.
enrico
P.S. Se non posso permettermi una NV40 vera credete che ne possa trovare una gonfiabile? Almeno la userei come materassino per la testa al mare!! AAAaagahagahagg
Ho rivisto il filmato dell'Unreal 3 Engine.
Sono sconvolto,scusate se mi ripeto.....è il sogno di un videogiocatore di vecchia data che si sta realizzando,il fotorealismo si avvicina....a prescindre dalla sk grafica.
Guardate i filmati,veramente!:eek:
R@nda mi daresti un link per vedere questo video dell'unreal 3 engine
ShadowThrone
14-04-2004, 22:16
immagini impressionanti...
Dark Schneider
14-04-2004, 22:19
Originariamente inviato da Wizard77
Ho letto la recensione della sk...
...mmm... ...le prestazioni fanno paura e spavento, ma per la qualità pensavo meglio.
Cmq è una sk della madonna, vedremo quando sarà nei negozi con i driver ottimizzati.
Adesso aspetto la risposta di ATI, vediamo cosa sfornarà per cercare di "battere" quelle prestazioni :) :)
La qualità ci sarà quando ci saranno drivers più maturi. Ragà questi sono solo dei drivers preliminari. Per di più voglio ricordare che la scheda testata è una pre-enginering!! ;)
Originariamente inviato da MaBru
http://www.jamesbambury.pwp.blueyonder.co.uk/unreal3_0002.wmv
http://sanbjoe.home.online.no/nv40/unreal3_0002.wmv
:cool:
Ma li ha appena postati Mabru
Grazie eh?
E' davvero stupendo....se penso che nel 2005/2006 (data per cui è previsto l'Unreal Engine3) ci giocheremo mi commuovo.
E' vero ragazzi...è vero:cry:
:sofico:
Norbrek™
14-04-2004, 22:21
Ma che player devo usare? Non vanno con WMP e winamp....
dei bellissimi bundle composti da Psu >480W e Geffo 6800:D
Aggiornate il codec DivX...oppure mediaplayer9 per vedere il filmato.
Ah...Dark metti il link del filmato in prima pagina se puoi....merita,merita davvero.
Norbrek™
14-04-2004, 22:31
Originariamente inviato da R@nda
Aggiornate il codec DivX...oppure mediaplayer9 per vedere il filmato.
Ah...Dark metti il link del filmato in prima pagina se puoi....merita,merita davvero.
Non va, ho l'ultima versione del codec, ho provato con WMP9 Winamp e divx player non va cone nessuno!
Secondo me sti file sono danneggiati!
Eh bho:(
Io ho MP9 e DivX codec aggiornato all'ultima versione,non ho installato altro.
ShadowThrone
14-04-2004, 22:34
vai su microsoft e scaricati il codec pack per windows media player
il filmato è WMV.. ha poco a che fare col divx.
Originariamente inviato da Dark Schneider
Ragazzi rieccomi!! Finalmente dopo un paio di ore di viaggio stressante son arrivato e adesso leggo e rispondo ad un po' di pareri e commenti e...leggo le altre recensioni.
Ben arrivato quà siamo gia tutti...:hic: ....;)
Visto che questa notte molti non dormiranno pensando al loro Ali e all'ENEL:rolleyes: ...sarebbe utile se aggiornassi la prima pagina di questo 3D con un chiarimento sugli Ali...facendo riflettere che non contano i Watt dichiarati ma le caratteristiche efettive;) ..infatti un "comune" Ali da 500W( da circa 75€) eroga a 5V e 12V rispettivamente 30 Ampere e 16A...mentre un "comune" Ali da 400W ( da circa 36€) eroga a 5V e 12V rispettivamente 30 Ampere e 15A... :eek: come potete vedere le caratteristiche sono pressochè simili!!!:) ;) ....infine un alimentatore da 350W di "marca" tipo Enermax eroga a 5V e 12V rispettivamente 32 Ampere e 17A... :eek:;)
Hanamichi
14-04-2004, 22:38
Originariamente inviato da Daytona
L'unica cosa che mi è poco chiara della Rece di HU è presente nelle conclusione ed è questo : ...."anche se i titoli futuri facenti uso massiccio di superfici curve potrebbero penalizzare sia il GeForce 6800 Ultra che il Radeon 9800 XT, privilegiando l'algoritmo di NV38."
:wtf:
Qualcuno mi può chiarire queta frase in modo tecnico e semplice;)
te lo spiego io...
le schede video di Ati hanno un filtro anisotropico per così dire "furbo"... visto che l'anisotropico di ati funzionava solamente su angolature di 0° 45° e 90°, nvidia ha deciso con NV40 di prendere la stessa strada di Ati e implimentare anch'egli nella NV40 il cosidetto filtro "furbo"
saranno svantaggiate da NV38 perchè quest'ultimo chip utilizza il filtro anisotropico a tutto schermo, e quindi con i giochi futuri la resa video FINALE sarà migliore di quelle altre schede video...
tutto qui...
AH OVVIAMENTE la scelta del filtro furbo è stato dovuto al fatto che fino ad oggi sono pochissimi i giochi che hanno tante superfici curve....
OK OK ADESSO OSANNATEMI ANCHE !:cool: :D
Anonized
14-04-2004, 22:38
L'Unreal Engine 3 sembra spaventoso...speriamo bene!
Originariamente inviato da Hanamichi
te lo spiego io...
le schede video di Ati hanno un filtro anisotropico per così dire "furbo"... visto che l'anisotropico di ati funzionava solamente su angolature di 0° 45° e 90°, nvidia ha deciso con NV40 di prendere la stessa strada di Ati e implimentare anch'egli nella NV40 il cosidetto filtro "furbo"
saranno svantaggiate da NV38 perchè quest'ultimo chip utilizza il filtro anisotropico a tutto schermo, e quindi con i giochi futuri la resa video FINALE sarà migliore di quelle altre schede video...
tutto qui...
AH OVVIAMENTE la scelta del filtro furbo è stato dovuto al fatto che fino ad oggi sono pochissimi i giochi che hanno tante superfici curve....
OK OK ADESSO OSANNATEMI ANCHE !:cool: :D
a parte che tutto ciò lo sappiamo tutti dammi un altro valido motivo per osannarti??
:D
Ragazzi ma vi rendete conto???35 pag in un giorno..:eek:
Anonized
14-04-2004, 22:39
x Enrico...
hai già aggiornato la tua sign???! :D
Non so se possiedi tali componenti (tranne la geffo), ma sarebbe veramente super...
Athlon Fx53, 2Gb DDR400, Nvidia 6800Ultra, 400GB SATA RAID, Pioneer A07LX, LCD 24" & Wacom Cintiq 18SX:sofico:
Hanamichi
14-04-2004, 22:40
Originariamente inviato da kikbond
a parte che tutto ciò lo sappiamo tutti dammi un altro valido motivo per osannarti??
:D
guarda che non l'ho spiegato a voi...
ma a lui che non aveva capito il senso della frase!:cry:
Ho visto i video dell'NV40 con l'Unreal 3 Engine e mi son fatto la m*rda nelle mutande.
Risultato incredibile che rasenta il fotorealismo.
Non ho capito perchè i personaggi alla fine del video non li hanno introdotti nell'ambiente poligonale! Forse sarebbe diventato troppo pesante da calcolare in real time? Mah?!?!
Hanamichi
14-04-2004, 22:40
Originariamente inviato da kikbond
Ragazzi ma vi rendete conto???35 pag in un giorno..:eek:
con ati 40 in un giorno :D
Originariamente inviato da Hanamichi
guarda che non l'ho spiegato a voi...
ma a lui che non aveva capito il senso della frase!:cry:
va beh nn piangere...forse stavolta sei stato davvero utile a qualkuno
:D
Originariamente inviato da kikbond
Ragazzi ma vi rendete conto???35 pag in un giorno..:eek:
vedremo d superarlo quando esce la rv420:D
Hanamichi
14-04-2004, 22:41
Originariamente inviato da enrico
Ho visto i video dell'NV40 con l'Unreal 3 Engine e mi son fatto la m*rda nelle mutande.
Risultato incredibile che rasenta il fotorealismo.
Non ho capito perchè i personaggi alla fine del video non li hanno introdotti nell'ambiente poligonale! Forse sarebbe diventato troppo pesante da calcolare in real time? Mah?!?!
ahahaha... e tu con una scheda video di questa generazione vorresti far girare un motore destinato ad uscire nel 2006? :D
yossarian
14-04-2004, 22:41
prime impressioni; premetto che non ho letto le recensioni ma dato solo un'occhiata a qualche figura (disinteressandomi quasi del tutto ai risultati dei bench);
il chip è quasi come speravo che fosse; il quasi è dovuto al fatto che, pare, sia rimasta la non totale indipendenza di calcolo tra unità FP32 primaria e operazioni di texture fetch. Questo, in molti casi, riduce la quantità di operazioni possibili per ciclo di clock. Il problema è molto meno marcato riapetto all'NV3x, perchè in questo caso si parla di un'architettura a 16 pipeline di rendering, contro le 4 dell'NV3x e, inoltre, alcune operazioni sulle texture sono permesse anche all'interno delle unità VS (per lo più operazioni di tipo elementari, senza l'applicazione di filtri "complessi", molto probabilmente utili per il displacement mapping).
Le unità VS sono analoghe a quelle viste per l'R3x0, con un'unità vettoriale in parallelo ad una scalare FP32; solo che, in questo caso, sono 6 anzichè 4. Quindi, sembrerebbe, niente array di unità di calcolo scalari.
Invece è interessante la configurazione delle alu, composte non da unità full vect vere e proprie, ma ciascuna da 4 unità scalari FP32 raggruppate a formare una pseudo unità vettoriale. Il vantaggio di questa architettura è nel tipo di dati che è in grado di processare. Un'architettura tipo quella dell'R3x0, con 3 unità FP24 raggruppate a formare un'unità vect reale + un'unità FP24 scalare per il canale alfa, permetteva di processare dati relativi a pixel diversi, solo in caso i dati erano in forma 3+1, 2+1, 1+1; nel caso si aveva una configurazione 2+2 erano necessari due cicli di clock. Con l'architettura dell'NV40 (che si può riassumere con una 1+1+1+1 contro la 3+1 dell'R3x0), è possibile processare due pixel anche in caso i dati siano in configurazione 2+2.
Infine, stando ai risultati dello shadermark, pare proprio che i problemi nella gestione dei PS2.0, in particolare in full precision, siano uno sbiadito ricordo.
Per chi si domandasse il motivo della ricerca del parallelismo più elevato possibile, faccio notare (dalla rece di B3D, mi pare) i dati relativi all'applicazione di più texture; con 4 texture, il fillrate scende a poco più di 1/4 di quello iniziale; solo che avendo 16 pipeline si mantiene ancora a livelli accettabili (grosso modo sui valori di single texturing di un R300).
ciao
p.s. complimenti a Corsini e Vifani per essere riusciti ad organizzare in così poco tempo un'ottima recensione.
Hanamichi
14-04-2004, 22:42
Originariamente inviato da kikbond
va beh nn piangere...forse stavolta sei stato davvero utile a qualkuno
:D
io sono sempre utileeeeeee!:cry:
Dark Schneider
14-04-2004, 22:42
Originariamente inviato da thegladiator
Per carità, io sono sicuro che Nvidia risolverà il problema (ci mancherebbe)........anche se bisognerà vedere con che impatto sulle prestazioni, perchè un impatto CI SARA' SICURAMENTE e non penso così marginale: passare da FP16 a FP24/32 non è cosa da poco!!
Il mio post, comunque, più che evidenziare il deficit qualitativo della 6800, voleva richiamare l'attenzione dei "signori" sopracitati (che ora tacciono... :p ) che di fronte alle mie osservazioni circa la migliore ed evidente superiorità, in termini di qualità, della 9800 hanno risposto come se stessi vaneggiando... :cool:
Mi sa che non hai capito: le schede testate intanto sono delle pre-enginering e per di più i drivers sono preliminari e acerbi. Non è che risolvere questo problemino che è data dalla patch di Far Cry (risolvibile con un fix o una release di drivers) sarà una cosa che inciderà sulle prestazioni una volta risolta.Guarda che gli attuali drivers fanno tutto tranne che rendere al meglio la scheda sia in ambito prestazionale e sia qualitativo. Insomma dai non c0è da preoccuparsi. ;)
Hanamichi
14-04-2004, 22:43
Originariamente inviato da yossarian
prime impressioni; premetto che non ho letto le recensioni ma dato solo un'occhiata a qualche figura (disinteressandomi quasi del tutto ai risultati dei bench);
il chip è quasi come speravo che fosse; il quasi è dovuto al fatto che, pare, sia rimasta la non totale indipendenza di calcolo tra unità FP32 primaria e operazioni di texture fetch. Questo, in molti casi, riduce la quantità di operazioni possibili per ciclo di clock. Il problema è molto meno marcato riapetto all'NV3x, perchè in questo caso si parla di un'architettura a 16 pipeline di rendering, contro le 4 dell'NV3x e, inoltre, alcune operazioni sulle texture sono permesse anche all'interno delle unità VS (per lo più operazioni di tipo elementari, senza l'applicazione di filtri "complessi", molto probabilmente utili per il displacement mapping).
Le unità VS sono analoghe a quelle viste per l'R3x0, con un'unità vettoriale in parallelo ad una scalare FP32; solo che, in questo caso, sono 6 anzichè 4. Quindi, sembrerebbe, niente array di unità di calcolo scalari.
Invece è interessante la configurazione delle alu, composte non da unità full vect vere e proprie, ma ciascuna da 4 unità scalari FP32 raggruppate a formare una pseudo unità vettoriale. Il vantaggio di questa architettura è nel tipo di dati che è in grado di processare. Un'architettura tipo quella dell'R3x0, con 3 unità FP24 raggruppate a formare un'unità vect reale + un'unità FP24 scalare per il canale alfa, permetteva di processare dati relativi a pixel diversi, solo in caso i dati erano in forma 3+1, 2+1, 1+1; nel caso si aveva una configurazione 2+2 erano necessari due cicli di clock. Con l'architettura dell'NV40 (che si può riassumere con una 1+1+1+1 contro la 3+1 dell'R3x0), è possibile processare due pixel anche in caso i dati siano in configurazione 2+2.
Infine, stando ai risultati dello shadermark, pare proprio che i problemi nella gestione dei PS2.0, in particolare in full precision, siano uno sbiadito ricordo.
Per chi si domandasse il motivo della ricerca del parallelismo più elevato possibile, faccio notare (dalla rece di B3D, mi pare) i dati relativi all'applicazione di più texture; con 4 texture, il fillrate scende a poco più di 1/4 di quello iniziale; solo che avendo 16 pipeline si mantiene ancora a livelli accettabili (grosso modo sui valori di single texturing di un R300).
ciao
p.s. complimenti a Corsini e Vifani per essere riusciti ad organizzare in così poco tempo un'ottima recensione.
HEISTEIN? :eek:
Originariamente inviato da Anonized
x Enrico...
hai già aggiornato la tua sign???! :D
Non so se possiedi tali componenti (tranne la geffo), ma sarebbe veramente super...
Athlon Fx53, 2Gb DDR400, Nvidia 6800Ultra, 400GB SATA RAID, Pioneer A07LX, LCD 24" & Wacom Cintiq 18SX:sofico:
Dici ke potremo permetterci il lusso d una nv40\rv240 con i nostri SilentX 250W???
:D
P.s->controlla il topic dei XPC;)
Hanamichi
14-04-2004, 22:44
Originariamente inviato da emax81
Dici ke potremo permetterci il lusso d una nv40\rv240 con i nostri SilentX 250W???
:D
P.s->controlla il topic dei XPC;)
si vede che ha i soldi >D
Considerando i parecchi giochi cpu limited ai 1600x1200, io direi che piu' di un upgrade dell'ali sia necessario l'upgrade del monitor :)
Originariamente inviato da Hanamichi
si vede che ha i soldi >D
volevo solo sapere se ho qualche possibilità d far funzionare le schede d nuova generazione con un 250w:D
Hanamichi
14-04-2004, 22:47
Originariamente inviato da ballero
Considerando i parecchi giochi cpu limited ai 1600x1200, io direi che piu' di un upgrade dell'ali sia necessario l'upgrade del monitor :)
upgrade del monitor? stai scherzando? :D
ho capito che è cpu limited ma non converrebbe sfruttarla appieno cambiando cpu?
Hanamichi
14-04-2004, 22:48
Originariamente inviato da emax81
volevo solo sapere se ho qualche possibilità d far funzionare le schede d nuova generazione con un 250w:D
assolutamente no...
io solo con una 9700pro ho mandato in crisi la mia 300w :D
Dark Schneider
14-04-2004, 22:49
Ragà ma voi sul sito nVidia riuscite a scaricare i video? :(
A me crasha sempre...mi sa che è intasatissimo!!:(
Originariamente inviato da Dark Schneider
Ragà ma voi sul sito nVidia riuscite a scaricare i video? :(
A me crasha sempre...mi sa che è intasatissimo!!:(
Idem....intasatissimo
Hanamichi
14-04-2004, 22:50
Originariamente inviato da Dark Schneider
Ragà ma voi sul sito nVidia riuscite a scaricare i video? :(
A me crasha sempre...mi sa che è intasatissimo!!:(
io oggi sono riuscito a gustarmi il video con tutte le tech demo di nvidia...
e ti posso garantire che vedere i capelli della sirena è un esperienza unica!:)
Hanamichi
14-04-2004, 22:51
Originariamente inviato da Hanamichi
te lo spiego io...
le schede video di Ati hanno un filtro anisotropico per così dire "furbo"... visto che l'anisotropico di ati funzionava solamente su angolature di 0° 45° e 90°, nvidia ha deciso con NV40 di prendere la stessa strada di Ati e implimentare anch'egli nella NV40 il cosidetto filtro "furbo"
saranno svantaggiate da NV38 perchè quest'ultimo chip utilizza il filtro anisotropico a tutto schermo, e quindi con i giochi futuri la resa video FINALE sarà migliore di quelle altre schede video...
tutto qui...
AH OVVIAMENTE la scelta del filtro furbo è stato dovuto al fatto che fino ad oggi sono pochissimi i giochi che hanno tante superfici curve....
OK OK ADESSO OSANNATEMI ANCHE !:cool: :D
+ guardo questa spiegazione e + penso che ho un talento innato :D
=>TaroKSoft<=
14-04-2004, 22:52
Originariamente inviato da Norbrek™
Non va, ho l'ultima versione del codec, ho provato con WMP9 Winamp e divx player non va cone nessuno!
Secondo me sti file sono danneggiati!
con winamp 5 me lo legge tranquillo... ;)
Comunque è stata confermato che la versione liscia della 6800 sarà 12x1 come diceva hal?!?
Dark allora credi di prendere la liscia?!? anche se è "solo"(si fa x dire...:D) 12 x1?!?
Comunque sono rimasto piacevolmente soddisfatto dalle prestazioni della ultra... davverò una generazione avanti nelle alte risoluzioni coi filtri attivi... che dire... bella li!!! ;)
bYeZZZZZ
Hanamichi
14-04-2004, 22:53
Originariamente inviato da =>TaroKSoft<=
con winamp 5 me lo legge tranquillo... ;)
Comunque è stata confermato che la versione liscia della 6800 sarà 12x1 come diceva hal?!?
Dark allora credi di prendere la liscia?!? anche se è "solo"(si fa x dire...:D) 12 x1?!?
Comunque sono rimasto piacevolmente soddisfatto dalle prestazioni della ultra... davverò una generazione avanti nelle alte risoluzioni coi filtri attivi... che dire... bella li!!! ;)
bYeZZZZZ
e pensa che è anche cpu limited :eek:
yossarian
14-04-2004, 22:54
Originariamente inviato da Hanamichi
+ guardo questa spiegazione e + penso che ho un talento innato :D
drogato :D
palanzana
14-04-2004, 22:55
secondo voi sono attemdibili come risultati quelli dell acquamark?
Norbrek™
14-04-2004, 22:56
Originariamente inviato da =>TaroKSoft<=
con winamp 5 me lo legge tranquillo... ;)
bYeZZZZZ
Raga a me non va, ho scaricato pure sto codec wmv, mi sa che è danneggiato prorpio alla fonte, perchè l'ho riscaricato più volte e continua a non partire:(
Thunder82
14-04-2004, 22:57
Originariamente inviato da Hanamichi
HEISTEIN? :eek:
Ehi talento innato, si scrive EINSTEIN! :D
Ma un P42800c Bus 800 HT basta per una 6800:confused:
Dark Schneider
14-04-2004, 22:57
Originariamente inviato da R@nda
Idem....intasatissimo
UFFA!! :(
Ma dai è assurdo che ancora non riesco a vedere nulla. :cry:
Hanamichi
14-04-2004, 22:57
Originariamente inviato da yossarian
drogato :D
non sono drogato... sono solo appassionato :D
Originariamente inviato da Hanamichi
assolutamente no...
io solo con una 9700pro ho mandato in crisi la mia 300w :D
http://www.shuttle.com/share/Simages/productimages/pc40.jpg
An amazing 250W ultra-silent PSU with High efficiency and high reliability.
The Smart Fan & Silent Fan Control, better airflow with new layout design make SilentX cooler than others. Aluminum case design is easy to get rid of power supply heat. Worldwide safety and EMI/RFI approved, Quality Assurance is no doubt.
Dimension: 82mm(w) x 43mm(H) x 190mm(L)
Safety (meet): UL 1950, cUL, CB, TUV: EN60950 CE, CB, CCC
RFI/EMI (meet): FCC Class B, CISPR22 Class B, BSMI, CCC
Detail (http://www.shuttle.com/share/product_data/spec/PC40_spec.pdf)
Leggendo sui vari forum esteri nn c sono problemi ad alimentarci soluzioni 9800PRO AIW e FX5900XT,,,vedremo x queste nuove svga :D
Hanamichi
14-04-2004, 22:58
Originariamente inviato da Thunder82
Ehi talento innato, si scrive EINSTEIN! :D
e vabbeeeee...
per un h...
:D:angel::incazzed::fuck:
Hanamichi
14-04-2004, 22:59
Originariamente inviato da emax81
http://www.shuttle.com/share/Simages/productimages/pc40.jpg
An amazing 250W ultra-silent PSU with High efficiency and high reliability.
The Smart Fan & Silent Fan Control, better airflow with new layout design make SilentX cooler than others. Aluminum case design is easy to get rid of power supply heat. Worldwide safety and EMI/RFI approved, Quality Assurance is no doubt.
Dimension: 82mm(w) x 43mm(H) x 190mm(L)
Safety (meet): UL 1950, cUL, CB, TUV: EN60950 CE, CB, CCC
RFI/EMI (meet): FCC Class B, CISPR22 Class B, BSMI, CCC
Detail (http://www.shuttle.com/share/product_data/spec/PC40_spec.pdf)
Leggendo sui vari forum esteri nn c sono problemi ad alimentarci soluzioni 9800PRO AIW e FX5900XT,,,vedremo x queste nuove svga :D
si ma se hai visto sulla tabella dei watt di cui ha bisogno secondo me il pc ti esplode :D
Thunder82
14-04-2004, 23:00
Originariamente inviato da emax81
http://www.shuttle.com/share/Simages/productimages/pc40.jpg
An amazing 250W ultra-silent PSU with High efficiency and high reliability.
The Smart Fan & Silent Fan Control, better airflow with new layout design make SilentX cooler than others. Aluminum case design is easy to get rid of power supply heat. Worldwide safety and EMI/RFI approved, Quality Assurance is no doubt.
Dimension: 82mm(w) x 43mm(H) x 190mm(L)
Safety (meet): UL 1950, cUL, CB, TUV: EN60950 CE, CB, CCC
RFI/EMI (meet): FCC Class B, CISPR22 Class B, BSMI, CCC
Detail (http://www.shuttle.com/share/product_data/spec/PC40_spec.pdf)
Leggendo sui vari forum esteri nn c sono problemi ad alimentarci soluzioni 9800PRO AIW e FX5900XT,,,vedremo x queste nuove svga :D
Scordatelo, solo la 6800ultra vuole più di 110W, ti resta poco più di mezzo ali per tutto il resto (senza considerare che il rendimento dell'ali non sarà MAI il 100%)
Hanamichi
14-04-2004, 23:00
una cosa sul motore di epic...
ok... avrà una grafica mozzafiato, pixel shader, vertex shader ect...
ma secondo me la foglia del fotorealismo si raggiungerà solamente quando questi cazzo di modelli 3d non avranno la testa squadrata!:mad:
Athlon 64 3000+
14-04-2004, 23:01
Speriamo solo che riescano ad implementare bene Il FP32 perchè L'FP16 qualitativamente è penoso.
Hanamichi
14-04-2004, 23:01
e poi vorresti mettere la 6800 sul tuo pc da 1.8ghz? :eek:
ma dammela a me scusa :D
Thunder82
14-04-2004, 23:02
Originariamente inviato da Hanamichi
e poi vorresti mettere la 6800 sul tuo pc da 1.8ghz? :eek:
ma dammela a me scusa :D
Infatti! Sarebbe cpu limited anche con una 9800 liscia!
Hanamichi
14-04-2004, 23:02
Originariamente inviato da Athlon 64 3000+
Speriamo solo che riescano ad implementare bene Il FP32 perchè L'FP16 qualitativamente è penoso.
beh dai... ok la qualità dell'fp16 non sarà il max ma non è penoso...
cmq i FP 32 sono obbligatori nei pixel shader 3.0... quindi sicuro ce l'ha ;)
Norbrek™
14-04-2004, 23:02
Originariamente inviato da Hanamichi
beh dai... ok la qualità dell'fp16 non sarà il max ma non è penoso...
Invece è proprio penoso:sofico:
Hanamichi
14-04-2004, 23:02
Originariamente inviato da Thunder82
Infatti! Sarebbe cpu limited anche con una 9800 liscia!
tse... sta cpu limited su un 3.2ghz :D:eek:
Dark Schneider
14-04-2004, 23:03
Originariamente inviato da KenMasters
hanno implementato gli stessi metodi di Fsaa e AF di ATI, che ridicoli
http://www.xbitlabs.com/articles/video/display/nv40.html
Scusa? Ken questa volta mi spiace diritelo ma devo ridere di fronte a questa tua uscita.:asd:
C'erano cose ben più importanti da correggere e da potenziare. I filtri: 1 quello Ati non era male.......e l'FSAA è migliorato!!
C'era un intera architettura da cambiare totalmente...adesso stiamo a vedere i filtri...che cmq 1 è migliorato (FSAA) e l'altro è cmq non male.
Ma dove sta..tutta sta ridicolezza?
E' una scheda dalla potenza immane.
Hanamichi
14-04-2004, 23:03
Originariamente inviato da Norbrek™
Invece è proprio penoso:sofico:
ok come volete voi... è penoso :D
Originariamente inviato da Hanamichi
e poi vorresti mettere la 6800 sul tuo pc da 1.8ghz? :eek:
ma dammela a me scusa :D
parli con me???guarda ke il p4 1.8 sta sul serverino,,,sul cubetto c arriverà un a64 3200+ o un p4 3.0C:D
Hanamichi
14-04-2004, 23:04
Originariamente inviato da Dark Schneider
Scusa? Ken questa volta mi spiace diritelo ma devo ridere di fronte a questa tua uscita.:asd:
infatti scusa... se la soluzione che ha scelto ati è la migliore... perchè nvidia non dovrebbe usarla?
perchè sennò diventa copiona? :D
Hanamichi
14-04-2004, 23:04
Originariamente inviato da emax81
parli con me???guarda ke il p4 1.8 sta sul serverino,,,sul cubetto c arriverà un a64 3200+ o un p4 3.0C:D
ah... allora è tutto un altro discorso...
io ti consiglierei l'athlon 64
Athlon 64 3000+
14-04-2004, 23:07
Dalle foto che ho visto(parlo di Far Cry)si vede lontano un chilomentro che la 9800XT dato che lavora in FP24 ha una qualità migliore della 6800 Ultra che lavora in FP16 e a me questo non piace dato che mi sono ben abituato alla qualita' d'immagine della mia Radeon 9700Pro.Spero solo che riescano ad attivare la modalità FP32 perchè se no prendo L'R420.
Originariamente inviato da Hanamichi
ah... allora è tutto un altro discorso...
io ti consiglierei l'athlon 64
infatti,,,dovrei aspettare un bel a64 socket 939 On nvidia nForce3 250GB:sofico:
è un pò difficile ospitare agp , ho solo 2 pci a disposizione
http://akiba.ascii24.com/akiba/news/2003/01/15/images/images706499.jpg
http://www.clubic.com/photo/00056714.jpg
:D
susate l OT:(
Dark Schneider
14-04-2004, 23:08
Originariamente inviato da ballero
guardate questa (http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MTg)
Shadermark 2.0
6800 ultra in fp32 e Ati in fp24
Ammazza allora non va male con fp32!! ;)
Hanamichi
14-04-2004, 23:08
Originariamente inviato da Athlon 64 3000+
Dalle foto che ho visto(parlo di Far Cry)si vede lontano un chilomentro che la 9800XT dato che lavora in FP24 ha una qualità migliore della 6800 Ultra che lavora in FP16 e a me questo non piace dato che mi sono ben abituato alla qualita' d'immagine della mia Radeon 9700Pro.Spero solo che riescano ad attivare la modalità FP32 perchè se no prendo L'R420.
ooo lo vuoi capì che i fp32 sono obbligatori nei pixel shader 3.0? :D
beh ovviamente a meno che Nvidia non castri la scheda
Hanamichi
14-04-2004, 23:09
Originariamente inviato da emax81
infatti,,,dovrei aspettare un bel a64 socket 939 On nvidia nForce3 250GB:sofico:
è un pò difficile ospitare una svga agp qua dentro
:D
penso proprio sarà difficile
:O :D
Originariamente inviato da Hanamichi
te lo spiego io...
le schede video di Ati hanno un filtro anisotropico per così dire "furbo"... visto che l'anisotropico di ati funzionava solamente su angolature di 0° 45° e 90°, nvidia ha deciso con NV40 di prendere la stessa strada di Ati e implimentare anch'egli nella NV40 il cosidetto filtro "furbo"
saranno svantaggiate da NV38 perchè quest'ultimo chip utilizza il filtro anisotropico a tutto schermo, e quindi con i giochi futuri la resa video FINALE sarà migliore di quelle altre schede video...
tutto qui...
AH OVVIAMENTE la scelta del filtro furbo è stato dovuto al fatto che fino ad oggi sono pochissimi i giochi che hanno tante superfici curve....
OK OK ADESSO OSANNATEMI ANCHE !:cool: :D
Ti Stò osannando!!!!!!!:D....quello che hai scritto lo avevo capito anche io....solo non pensavo si riferisse a quella frase....
;)
E comunque l'FP16 non è penosa.
E' Norbek che è pignolo:D
Basta guardare uno shot qualsiasi a dimensione normale....non si nota nulla,solo una luminosità nei riflessi meno marcata.
Cmq...sta scheda andrà come si vede in qualsiasi modo 16 o 32 con i Ps 2.0 le performance non saranno un problema di sicuro.
Mentre invece i Ps 3.0 sono alla prima implementazione....quindo le performance in fp32....ma anche in fp16 saranno quelle che saranno.
Vedremo poi con i driver ben maturi che succederà.
Hanamichi
14-04-2004, 23:11
Originariamente inviato da Daytona
Ti Stò osannando!!!!!!!:D....quello che hai scritto lo avevo capito anche io....solo non pensavo si riferisse a quella frase....
;)
doh... pensavo non lo sapessi :D
ok allora ho solo sprecato fiato :asd:
Norbrek™
14-04-2004, 23:12
Originariamente inviato da R@nda
E comunque l'FP16 non è penosa.
E' Norbek che è pignolo:D
Basta guardare uno shot qualsiasi a dimensione normale....non si nota nulla,solo una luminosità nei riflessi meno marcata.
Cmq...sta scheda andrà come si vede in qualsiasi modo 16 o 32 con i Ps 2.0 le performance non saranno un problema di sicuro.
Mentre invece i Ps 3.0 sono alla prima implementazione....quindo le performance in fp32....ma anche in fp16 saranno quelle che saranno.
Vedremo poi con i driver ben maturi che succederà.
Bhè io la differenza la vedo marcata:sofico:
E poi non è questione di essere pignoli, se mi costa 500€ non ci voglio giocare in fp16:D Aspettiamo di vedere come gira in fp32!
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.