View Full Version : Altra GeForce FX raffreddata a liquido!
http://www.bit-tech.net/feature/23/
Commenti "a caldo"? :D;)
Personalmente il tipo ne parla come se fosse una questione di orgoglio personale.. mah.. ;)
LuPellox85
08-04-2003, 16:17
ma i bench??
Originally posted by "marco46"
Non funziona
A me funge.. :confused:;)
Originally posted by "LuPellox85"
ma i bench??
Boh!! :D
Dice solo che l'hanno tirata a 550-1100 a 30 gradi di temperatura contro i 500-1000 a 60 gradi dell'originale. ;)
LuPellox85
08-04-2003, 16:20
Originally posted by "Simon82"
Boh!! :D
Dice solo che l'hanno tirata a 550-1100 a 30 gradi di temperatura contro i 500-1000 a 60 gradi dell'originale. ;)
si sono d'accordo, ma volevo sapere se a 550/1100 riusciva ad essere competitiva ad alte risoluzione e con filtri attivati con la 9800 :)
Originally posted by "LuPellox85"
si sono d'accordo, ma volevo sapere se a 550/1100 riusciva ad essere competitiva ad alte risoluzione e con filtri attivati con la 9800 :)
Al di la dei Mhz, io credo che al momento ATI sia una spanna avanti a nVidia. La FX Ultra è di poco più veloce di una 9700 pro senza AA attivato, ma con tutta l'effettistica a palla la 9700 pro distrugge la FX, oltre ad avere una qualità di immagine nettamente superiore.
Se poi mettiamo che la FX Ultra occupa tre slot, fa un casino immondo e costa 600 €.... :rolleyes:
Diciamolo, nVidia ha toppato alla grande. Non me ne compiaccio, mi dispiace davvero, anche perchè mi aspettavo di vedere un po' di tecnologia 3dfx implementata in questa nuova scheda.
Originally posted by "dataman"
Al di la dei Mhz, io credo che al momento ATI sia una spanna avanti a nVidia. La FX Ultra è di poco più veloce di una 9700 pro senza AA attivato, ma con tutta l'effettistica a palla la 9700 pro distrugge la FX, oltre ad avere una qualità di immagine nettamente superiore.
Se poi mettiamo che la FX Ultra occupa tre slot, fa un casino immondo e costa 600 €.... :rolleyes:
Diciamolo, nVidia ha toppato alla grande. Non me ne compiaccio, mi dispiace davvero, anche perchè mi aspettavo di vedere un po' di tecnologia 3dfx implementata in questa nuova scheda.
dicaimo pure che ste cose saranno state dette 1000000 volte, non che sia falso, ma ormai non occorre ripeter sta filastrocca ogni volta che si parla di fx.
ho visto uno che la ripeteva anche su una news del 746fx pensa te! :D
Wolv3rine
08-04-2003, 21:53
Originally posted by "dataman"
Diciamolo, nVidia ha toppato alla grande. Non me ne compiaccio, mi dispiace davvero, anche perchè mi aspettavo di vedere un po' di tecnologia 3dfx implementata in questa nuova scheda.
la qualita' video della 3dfx è scomparsa con lei e i suoi ingegneri
Nvidia ha solo preso il nome :P, ma no le tecnologie :P
Non mi piace niente i WB per le memorie, si vede che sono stati realizzati più per l'estetica che per le performance :(
VAbbè, cmq solo esteticamente è bello :D..... chissà come dentro i WB...... :rolleyes:
Dumah Brazorf
08-04-2003, 23:39
Notare come col raffreddamento a liquido occupi un solo slot.
Ho idea che saranno in tanti a passare al liquido dopo aver comprato questa scheda video.
Ciao.
JENA PLISSKEN
09-04-2003, 02:33
Beh..così è bella e silenziosa :pig: :pig:....ma quanto verrebbe in €?? 800???????????????????????? :muro: :muro: :muro:
OverClocK79®
09-04-2003, 03:01
al di la del risultato pe ril silenzio complimenti per la fattura e per il lavoro :)
BYEZZZZZZZZZZZZ
Phantom II
09-04-2003, 08:10
Sono allibito, tra un pò dovremo portare il pc dall'idraulico per farlo riparare e non da un tecnico informatico :D
Originally posted by "dataman"
Al di la dei Mhz, io credo che al momento ATI sia una spanna avanti a nVidia. La FX Ultra è di poco più veloce di una 9700 pro senza AA attivato, ma con tutta l'effettistica a palla la 9700 pro distrugge la FX, oltre ad avere una qualità di immagine nettamente superiore.
La fx e' piu' veloce senza filtri, coi filtri se la batte in alcuni applicativi e le prende in altri. Ad esempio in UT2003 con AA4x e AF8 quality il radeon la spunta, non in Quake3... con antialiasing in code creatures e glexcess la spunta l'fx, invece in serious sam 2 con AA la spunta il radeon... ti posso assicurare che il tuo giudizio e' un pelino semplicistico.
Ti posso dire ad esempio che perfino in giochi con lo stesso engine la FX ancora non si comporta "coerentemente", segno che manca ancora molta ottimizzazione : in Quake3 e' un missile con e senza filtri, in Return to Castle Wolvenstein invece ha un calo prestazionale impressionante.
Riguardo la qualita' dell'immagine, e' vero solo per l'antialiasing, in quanto l'implementazione Ati e' semplicemente deliziosa.
Se poi mettiamo che la FX Ultra occupa tre slot, fa un casino immondo e costa 600 €.... :rolleyes:
Occupa due slot nelle versioni con FX FLOW, occupa uno slot la versione Leadtek che oltretutto fa 40 decibel e non 67, e riguardo il prezzo e' decisamente eccessivo come dici tu, ma varia da modello a modello :
Asus la vende a 520-540 euro
Terratec a 620 con in bundle splinter cell, gun metal e warcraft 3 (valore 100 euro se sommati)
Gainward a quasi 700 (ma dentro c'hanno messo le cose piu' assurde, dalle schede audio alle schede firewire... ma che ci fa la gente???)
Insomma, riassumendo, costa parecchio piu' del radeon9700pro ma non riesce a staccarlo prestazionalmente, di conseguenza per ora solo un appassionato di Nvidia potrebbe comprarla. Se con le release future (e gia' coi 43.45 qualcosa s'e' visto) Nvidia riuscisse a tirare fuori prestazioni ed a ridurre il prezzo della scheda, ed altri produttori in linea con Leadtek presentassero soluzioni meno "ingombranti" e meno "rumorose", potrebbe anche avere il suo momento.
Sempre che non venga schiacciata dal NV35 ovviamente, ma credo di essere l'unico a NON credere che Nvidia possa proporla sugli scaffali prima di settembre... sbagliero'...
Originally posted by "Phantom II"
Sono allibito, tra un pò dovremo portare il pc dall'idraulico per farlo riparare e non da un tecnico informatico :D
Io sono nemico dell'acqua nei pc, infatti nella mia precedente reply mi sono scordato di sottolineare quanto quella sia una situazione si ingegnosa... ma decisamente "di nicchia" e che non cancella magicamente il problema intrinseco della FX Ultra, ovvero il clock spinto all'inverosimile per stare al passo della concorrenza.
Ati ha proprio messo le castagne sul fuoco a Nvidia stavolta :)
JENA PLISSKEN
09-04-2003, 13:13
Originally posted by "CS25"
.
Ati ha proprio messo le castagne sul fuoco a Nvidia stavolta :)
Già :rolleyes: :rolleyes:
Originally posted by "dataman"
Al di la dei Mhz, io credo che al momento ATI sia una spanna avanti a nVidia. La FX Ultra è di poco più veloce di una 9700 pro senza AA attivato, ma con tutta l'effettistica a palla la 9700 pro distrugge la FX, oltre ad avere una qualità di immagine nettamente superiore.
Se poi mettiamo che la FX Ultra occupa tre slot, fa un casino immondo e costa 600 €.... :rolleyes:
Diciamolo, nVidia ha toppato alla grande. Non me ne compiaccio, mi dispiace davvero, anche perchè mi aspettavo di vedere un po' di tecnologia 3dfx implementata in questa nuova scheda.
ciao a tutti :) ....non sono daccordo :rolleyes: ....ieri sera finalmente sono riuscito a vedere e testare su un barton 3000 una fx ultra e una 9700pro sulla stesso picci di un amico che ieri pomeriggio gli e' arrivata....
la prima cosa che ho provato e' stato UT e quake3...la fx m'e' sembrata superiore, + fluida della 9700pro senza filtri attivati e anche attivandoli leggermente le schede si equivalgono....poi ho messo le opzioni a palla e in effetti la 9700pro risulta essere migliore di un 10/15%
inoltre come qualita' di immagine a me er' sembrato che le due schede siano entrambe ottime ed uguali....
secondo me NVIDIA ha toppato solo per l'ingombro e per il rumore ed il prezzo (detto niente!!!)....pero' una una fx con il liquid coler, driver + maturi, prezzi accessibili non avra' nulla da invidiare alla 9700pro ;) ....si parla come se fosse un cesso di scheda :rolleyes: ...io ho visto una scheda con una qualita' costruttiva mai vista che sicuramente dovra' crescere come chip grafico e driver..... senz'altro nei prossimi tempi NVIDIA ritornera' a farsi invidiare.... :D :D
il mio e' solo un parere...non linciatemi... :D :D
ciaouzzz
Originally posted by "nanix78"
ciao a tutti :) ....non sono daccordo :rolleyes: ....ieri sera finalmente sono riuscito a vedere e testare su un barton 3000 una fx ultra e una 9700pro sulla stesso picci di un amico che ieri pomeriggio gli e' arrivata....
la prima cosa che ho provato e' stato UT e quake3...la fx m'e' sembrata superiore, + fluida della 9700pro senza filtri attivati e anche attivandoli leggermente le schede si equivalgono....poi ho messo le opzioni a palla e in effetti la 9700pro risulta essere migliore di un 10/15%
inoltre come qualita' di immagine a me er' sembrato che le due schede siano entrambe ottime ed uguali....
secondo me NVIDIA ha toppato solo per l'ingombro e per il rumore ed il prezzo (detto niente!!!)....pero' una una fx con il liquid coler, driver + maturi, prezzi accessibili non avra' nulla da invidiare alla 9700pro ;) ....si parla come se fosse un cesso di scheda :rolleyes: ...io ho visto una scheda con una qualita' costruttiva mai vista che sicuramente dovra' crescere come chip grafico e driver..... senz'altro nei prossimi tempi NVIDIA ritornera' a farsi invidiare.... :D :D
il mio e' solo un parere...non linciatemi... :D :D
ciaouzzz
Si ma la maggio parte della gente si riferisce alle inovazioni tecnologiche, è sempre una 4 pip x2 solmanete overcloccata abbestia (consumi spaventosi) e con le DDR2 che non sono altro delle DDR overclockate :D
In poche parole l'innovazione più grande nella g fx è il processo produttivo a 0.13 :(
Originally posted by "REPSOL"
Si ma la maggio parte della gente si riferisce alle inovazioni tecnologiche, è sempre una 4 pip x2 solmanete overcloccata abbestia (consumi spaventosi) e con le DDR2 che non sono altro delle DDR overclockate :D
In poche parole l'innovazione più grande nella g fx è il processo produttivo a 0.13 :(
si questo si ;) ...hai ragione ;) :D ...appunto ho ragione nel dire che questa scheda anche se per certe cose ha deluso, proprio per questo in futuro avra' una lunga serie di innovazioni ....e' vero che non e' un granche rispetto a dei concorrenti usciti 6 mesi prima....pero' non mi pare un cesso di scheda ;) ...pare che tecnologicamente parlando sia molto piu' complessa della 9700 ed e' un chip grafico ricostriuto da capo da nvidia...ma vedrai che questi errori che a mio parere sono normali serviranno a nvidia per andare avanti e far rivalere il suo nome come una volta...
be' io la penso cosi'...nulla da togliere all'ATI che non vedo l'ora esca la 9800pro per andarla a comprare...!!! :D :D :D
In poche parole l'innovazione più grande nella g fx è il processo produttivo a 0.13
non m'e' sembrata una grossa innovazione passare a 0.13micron :rolleyes: :D ....non doveva scaldare meno? :D :D :D
cmq con il liquid cooler la fx guadagna qualche punto in +...non c'e' + l'ingombro, non c'e' piu' il rumore.....rimane il prezzo alto e prestazioni simili alla 9700pro....superiore senza filtri, inferiore con i filtri...
a proposito :rolleyes: ....ieri al mark2003 abbiam fatto 4900 punti circa :eek: :) ....non mi pare un punteggio malefico... :D :D :D
Guardate che non volevo mica demolire nVidia. Questo solo per chiarezza.
E' che mi lascia un po' perplesso il fatto di vedere un mostro a 0.13 micron, 500/1000 Mhz da 550/600 € che sostanzialmente le prende sode da una scheda più vecchia di 4/6 mesi che costa 200 € in meno e che fra poco uscirà in versione potenziata (la 9800).
Mi sembra che nVidia non stia navigando per nulla bene
:(
A me dispiace, perchè al di là dei gusti e dei soliti discorsi sulla concorrenza che fa bene all'utente finale, ho sempre considerato nVidia un costruttore affidabile, specie sui driver. Ora però mi pare di vedere una netta flessione nella capacità competitiva di nVidia, sia sul segmento di fascia top, ma soprattutto nella fascia media (ovvero colà dove si fanno i veri soldi). A parte la 4200 che cosa ha da proporre nVidia ? :eek:
ATI ha invece la 9000, 9000 pro, 9100, 9500 e 9500 pro.
Fate un po' il conto.
Star trek
09-04-2003, 23:11
Ma vi rendete conto che ormai l'hardware è tirati all'osso....per non parlare dell'affidabilità.
Originally posted by "REPSOL"
Si ma la maggio parte della gente si riferisce alle inovazioni tecnologiche, è sempre una 4 pip x2 solmanete overcloccata abbestia (consumi spaventosi) e con le DDR2 che non sono altro delle DDR overclockate :D
In poche parole l'innovazione più grande nella g fx è il processo produttivo a 0.13 :(
questa è solo una questione di ignoranza quando la gente vuole giudicare in base a bench di quake3 (che sfrutta il vecchissimo T&L solo via driver e quindi nemmeno nativamente dal programma) ed in base ad alcuni dati dichiarati... come il tipo di ram, ecc....
le innovazioni nel NV30 ci sono ma non potete pretenderle di vederle senza software... parliamo di circuiti... e se in quei circuiti nemmeno la corrente ci passa (per dirlo proprio brutalmente) che cavolo volete vedere? buttate un gioco vecchissimo che gira in DOS e pretendete con quello di giudicare la bontà del NV35 e del R300... è la medesima cosa...
informatevi un po prima di fare la figura degli ignoranti pretendendo di giudicare in questo modo o almeno state zitti piuttosto che fare dichiarazioni come quella sopra... le nuove istruzioni ed in generale l'evoluzione portata da nVidia agli shader nel NV30 hanno portato una flessibilità notevole agli sviluppatori (motivo per qui J.Carmack tempo fa ha dichiarato di usare una NV30 nella sua postazione principale e di aver già raggiunto i limiti del R300 mentre appunto NV30 offriva maggiori possibilità) e con software adeguato sarebbe ben evidente la differenza tra R300 e NV30 con un rapporto che arriva ad essere di 1:7 in favore del NV30 e mi riferisco a passate nell'elaborazione di shader... con corrispondente drastico calo di performance sul R300.
inoltre è proprio per l'architettura evoluta del NV30 che sono attesi nuovi driver che miglioreranno di molto le cose... anche per il software vecchio che attualmente viene appesantito da 'strutture' di cui non fabbisogna.
P.S.
poi non dimentichiamo che ci sono stati problemi con SMTC che non è stata in grado di utilizzare alcune tecnologie per NV30.
Originally posted by "DoomIII"
questa è solo una questione di ignoranza quando la gente vuole giudicare in base a bench di quake3 (che sfrutta il vecchissimo T&L solo via driver e quindi nemmeno nativamente dal programma) ed in base ad alcuni dati dichiarati... come il tipo di ram, ecc....
le innovazioni nel NV30 ci sono ma non potete pretenderle di vederle senza software... parliamo di circuiti... e se in quei circuiti nemmeno la corrente ci passa (per dirlo proprio brutalmente) che cavolo volete vedere? buttate un gioco vecchissimo che gira in DOS e pretendete con quello di giudicare la bontà del NV35 e del R300... è la medesima cosa...
informatevi un po prima di fare la figura degli ignoranti pretendendo di giudicare in questo modo o almeno state zitti piuttosto che fare dichiarazioni come quella sopra... le nuove istruzioni ed in generale l'evoluzione portata da nVidia agli shader nel NV30 hanno portato una flessibilità notevole agli sviluppatori (motivo per qui J.Carmack tempo fa ha dichiarato di usare una NV30 nella sua postazione principale e di aver già raggiunto i limiti del R300 mentre appunto NV30 offriva maggiori possibilità) e con software adeguato sarebbe ben evidente la differenza tra R300 e NV30 con un rapporto che arriva ad essere di 1:7 in favore del NV30 e mi riferisco a passate nell'elaborazione di shader... con corrispondente drastico calo di performance sul R300.
inoltre è proprio per l'architettura evoluta del NV30 che sono attesi nuovi driver che miglioreranno di molto le cose... anche per il software vecchio che attualmente viene appesantito da 'strutture' di cui non fabbisogna.
P.S.
poi non dimentichiamo che ci sono stati problemi con SMTC che non è stata in grado di utilizzare alcune tecnologie per NV30.
A parte il fatto che io non ho offeso nessuno...... ma a parte qusto ci deve sempre essere uno che lancia la prima pietra......
Io non ho nemmeno parlato di Q3 e nessuno qui, quindi se non tela cavi molto a leggere, prova a rileggere tutto il 3d 3-4 volte e poi scrivi :rolleyes:. L'unico gioco che è stato tirato in ballo per ora è ut2003 e anche li la tua cara nv30 le prende come un bambino con fsaa attivato e anisotropico dalla 9700pro.
Se non ti lasciavi prendere per forza dalla foga di difendere nvidia ti accorgevi che io parlavo di innovazioni sfruttabili senza milioni di features da sfruttare attraverso del software apposito.
La nvidia sono anni e ani che cerca di implementare innovazioni software in modo che le software house ottimizzano i loro prodotti per la nvidia e la ati......e mi sa che tutto l'impegno l'ha messo li,( per non parlare che con tutte queste segate varie, la geffo 4 è a malapena compatibile dx8 :rolleyes:) invece già da molto tempo ati ha capito che non bisogna puntare su delle cazzate tipo il truform e varie, ma bisogna puntare sull'elaborazione, sulle unità di cacolo, solo con quelle si vince nel campo prestazionale.
Se non hai ancora capito io parlo di pipeline, ecc e a quanto pare in qeusto campo la geffo fx sembra una geffo 4 overclockata.
La cazzata più grande della nvidia è stata non implementare 8 pipeline, ma probabilmente prima è partita con l'idea di metterne 4 e poi per non fare una brutta figura (vedi il ritardo di mesi e mesi sul rilascio della scheda) ha implementato 1 text unit per pipeline, in modo da essere superiore in ambito di multi texturing (superiore visto l'elevato clock).
Altra mega bischerata la nvidia l'ha fatta facendo miliardi di pubblicità su quella favolosa DDR2 che non è altro che una ddr1 oc, niente di più, se aveva 256bit di bus, la vedevi volare quella scheda.
Secondo me nvidia non l'ha fatto apposta, semplicemente al'inizio del progetto nv30 non si poteva imaginare che la ati ti tirase fuori una scheda 8 pip x1 più un bus a 256, e mettere il tutto dentro una scheda a 0.15micron, viste poi le specifiche, per non fare una figuraccia ha ritardato il rilascio e ottimizzato.
Altra nota riguardo a Q3, sempre meglio basarsi su un gioco che ci posso giocare ora, che su illazzioni dette da un programmatore PRO NVIDIA come JJ Carmak :D
Anche perchè non si sa nemmeno più quando uscirà Doom 3, è probabile che quando esce la gefo fx e rad 9700 non siano in grado di far giocare il gioco fluidamente alle max risoluzioni.
Io sinceramente quando compro una scheda,ci gioco appena la monto nel pc, non dopo 3-4 mesi che c el'ho montata........ :rolleyes: ma se te ora ti compri la geffo FX e ci inizi a giocare fra qualche mese, buon per te.
Una volta questi discorsi si facevano per la 8500 ora si fanno per la geffo fx.... che tristezza..... :(
Ciaoz
Originally posted by "REPSOL"
...
...La nvidia sono anni e ani che cerca di implementare innovazioni software in modo che le software house ottimizzano i loro prodotti per la nvidia e la ati......e mi sa che tutto l'impegno l'ha messo li,( per non parlare che con tutte queste segate varie, la geffo 4 è a malapena compatibile dx8 :rolleyes:)
scusa ma questa è troppo grossa... nVidia ha contribuito enormemente alle DX8 visto che la caratteristica principale delle DX8 sono gli shader e questi sono stati dati da nVidia a M$ in licenza all'epoca della Gef3.
E tu mi dici che la Gef4 è a malapena compatibile con DX8??? ma che cavolo stai dicendo?
Originally posted by "REPSOL"
invece già da molto tempo ati ha capito che non bisogna puntare su delle cazzate tipo il truform e varie, ma bisogna puntare sull'elaborazione, sulle unità di cacolo, solo con quelle si vince nel campo prestazionale.
Se non hai ancora capito io parlo di pipeline, ecc e a quanto pare in qeusto campo la geffo fx sembra una geffo 4 overclockata.
La cazzata più grande della nvidia è stata non implementare 8 pipeline, ma probabilmente prima è partita con l'idea di metterne 4 e poi per non fare una brutta figura (vedi il ritardo di mesi e mesi sul rilascio della scheda) ha implementato 1 text unit per pipeline, in modo da essere superiore in ambito di multi texturing (superiore visto l'elevato clock).
...
...
ho capito benissimo che parli di quel tipo di pipeline... ma non è corretto valutare esclusivamente questi elementi come novità architetturali.
Oltretutto non sei bene informato... cmq...
Quando dici che la FX ti sembra una Gef4 overclokkata dovresti dire:
la parte mantenuta per compatibilità e cioè il core NV15 su FX mi sembra sia quello del Gef4 overclokkato...
E' MANTENUTO PER COMPATIBILITA' ED IO SPERO NVIDIA NON SIA TANTO CRETINA DI INVESTIRE SOLDI PER MIGLIORARE L'EFFICENZA DI CIRCUITI VECCHI.
per il trueform guarda che è stato proposto proprio da Ati... e per l'elaborazione non ci siamo proprio.. Ati ha fatto ottime ottimizzazioni... ma se guardiamo gli shader è invece li che nVidia ha fatto quello che dici tu e difatti può ottenere un rapporto di 1:7 laddove Ati necessità di 7 passate su nVidia ne basta 1 e la differenza prestazionale è allucinante...
The advanced architecture of NV30 not only improves program performance and decreases the required bandwidth, but also helps programmers to improve working efficiency.
ovviamente si parla di shader e non di fixed-function... e le fixed-function già dalla Gef3 sono mantenute SOLO per compatibilità con il passato...
facciamo conto che si cambi sitema e si passi a nuove CPU non più compatibili con x86... per evitare di tagliare il software si pensa ovviamente alla compatibilità che viene data in hardware... quindi abbiamo nuove CPU che chiamiamo xx7 che includono anche il core x86 per poter eseguire codice vecchie in modo da dare retrocompatibilità.
a questo punto non è che mi interessi tanto delle prestazioni di una parte del core che esiste solo per darmi come sfizio la compatibilità con il passato... se compero questa CPU mi aspetto di avere software nuovo consapevole di poter cmq far girare sofware vecchio.
dal lato GPU è la stessa cosa... shader e T&L(fixed function) non sono compatibili, nel NV20 è stato messo NV15 per compatibilità... adesso che siamo al NV30 si valuta questo chip e si pretende di giudicarlo valutando come gira il software che funziona solo per compatibilità... si giudica la sua architettura valutando quali innovazioni sono state fatte per la compatibilità... io preferisco valutare la parte shader...
se poi vogliamo fare un discorso commerciale su quanto sia conveniente acquistare queste schede ecc... ho già detto come la penso... e la penso esattamente come quando è uscita la Gef3 e ai miei amici consigliavo la Gef2... visto che chi ha acquistato la Gef3 si è visto girare il software sulla Gef2 inclusa per compatibilità nella Gef3 stessa.(certo ottimizzazioni varie, antialiasing migliorato, frequenze maggiori ecc... davano maggiori performance... ma era meglio restare in attesa della Gef4 o di nuovi modelli più convenienti di Gef3)
Originally posted by "DoomIII"
scusa ma questa è troppo grossa... nVidia ha contribuito enormemente alle DX8 visto che la caratteristica principale delle DX8 sono gli shader e questi sono stati dati da nVidia a M$ in licenza all'epoca della Gef3.
E tu mi dici che la Gef4 è a malapena compatibile con DX8??? ma che cavolo stai dicendo?
ho capito benissimo che parli di quel tipo di pipeline... ma non è corretto valutare esclusivamente questi elementi come novità architetturali.
Oltretutto non sei bene informato... cmq...
Quando dici che la FX ti sembra una Gef4 overclokkata dovresti dire:
la parte mantenuta per compatibilità e cioè il core NV15 su FX mi sembra sia quello del Gef4 overclokkato...
E' MANTENUTO PER COMPATIBILITA' ED IO SPERO NVIDIA NON SIA TANTO CRETINA DI INVESTIRE SOLDI PER MIGLIORARE L'EFFICENZA DI CIRCUITI VECCHI.
per il trueform guarda che è stato proposto proprio da Ati... e per l'elaborazione non ci siamo proprio.. Ati ha fatto ottime ottimizzazioni... ma se guardiamo gli shader è invece li che nVidia ha fatto quello che dici tu e difatti può ottenere un rapporto di 1:7 laddove Ati necessità di 7 passate su nVidia ne basta 1 e la differenza prestazionale è allucinante...
The advanced architecture of NV30 not only improves program performance and decreases the required bandwidth, but also helps programmers to improve working efficiency.
ovviamente si parla di shader e non di fixed-function... e le fixed-function già dalla Gef3 sono mantenute SOLO per compatibilità con il passato...
facciamo conto che si cambi sitema e si passi a nuove CPU non più compatibili con x86... per evitare di tagliare il software si pensa ovviamente alla compatibilità che viene data in hardware... quindi abbiamo nuove CPU che chiamiamo xx7 che includono anche il core x86 per poter eseguire codice vecchie in modo da dare retrocompatibilità.
a questo punto non è che mi interessi tanto delle prestazioni di una parte del core che esiste solo per darmi come sfizio la compatibilità con il passato... se compero questa CPU mi aspetto di avere software nuovo consapevole di poter cmq far girare sofware vecchio.
dal lato GPU è la stessa cosa... shader e T&L(fixed function) non sono compatibili, nel NV20 è stato messo NV15 per compatibilità... adesso che siamo al NV30 si valuta questo chip e si pretende di giudicarlo valutando come gira il software che funziona solo per compatibilità... si giudica la sua architettura valutando quali innovazioni sono state fatte per la compatibilità... io preferisco valutare la parte shader...
se poi vogliamo fare un discorso commerciale su quanto sia conveniente acquistare queste schede ecc... ho già detto come la penso... e la penso esattamente come quando è uscita la Gef3 e ai miei amici consigliavo la Gef2... visto che chi ha acquistato la Gef3 si è visto girare il software sulla Gef2 inclusa per compatibilità nella Gef3 stessa.(certo ottimizzazioni varie, antialiasing migliorato, frequenze maggiori ecc... davano maggiori performance... ma era meglio restare in attesa della Gef4 o di nuovi modelli più convenienti di Gef3)
Si certo, ... ma cmq non capisco il perchè di questo accanimento da parte di nvidia su questo motore shader, ha fatto una buona cosa, ma cmq il motore pixel shader ottimizarlo è una cosa opzionale, io invece avrei puntato più sulle pipeline che sono il motore centrale della GPU, senza quello hai voglia di implementare di tutto di più, gli shaders li tirerà a bacchetta, ma poi quando si trova a muovere 2-3 milioni di poligoni con relative texture va lenta (esempio).
Ora ti chiedo solo una cosa, il motore shader lavora apparte, oppure dipende dalle pipeline? La seconda vero? Se è la seconda, mi sembra che la nvidia si sia autocreata dei colli di bottiglia dovunque, prima con il bus delle memorie, e poi con le pipeline, e sinceramente pensavo che la nvidia non cascasse in questi problemi, visto tutti gli anni di esperienza.
Secondo me il loro unico problema è stato sottovalutare la ati.
Ciaoz
Originally posted by "REPSOL"
Si certo, ... ma cmq non capisco il perchè di questo accanimento da parte di nvidia su questo motore shader, ha fatto una buona cosa, ma cmq il motore pixel shader ottimizarlo è una cosa opzionale, io invece avrei puntato più sulle pipeline che sono il motore centrale della GPU, senza quello hai voglia di implementare di tutto di più, gli shaders li tirerà a bacchetta, ma poi quando si trova a muovere 2-3 milioni di poligoni con relative texture va lenta (esempio).
Ora ti chiedo solo una cosa, il motore shader lavora apparte, oppure dipende dalle pipeline? La seconda vero? Se è la seconda, mi sembra che la nvidia si sia autocreata dei colli di bottiglia dovunque, prima con il bus delle memorie, e poi con le pipeline, e sinceramente pensavo che la nvidia non cascasse in questi problemi, visto tutti gli anni di esperienza.
hmm... nVidia ha fatto molte ottimizzazioni negli shader che rispetto alla concorrenza (Ati) raggiunge un rapporto di 1:7 a suo favore... cioè una passata per nVidia fabbisogna di 7 su Ati per ottenere lo stesso risultato... intesa come cicli di istruzini nello shader... questo su Ati genera un calo di performance notevole come si buon immaginare dal rapporto stesso 1:7... software che sfrutti così gli shader non c'è... tornando a quello che dici tu le pipeline fixed function (vecchio T&L) non è compatibile con gli shader e gli shader non dipendono assolutamente da quelle pipeline... purtroppo con il software attuale, che non è basato sugli shader ma sulle vecchie fixed-function, gli shader non sono sfruttati e non è possibile quindi vedere i progressi nVidia in tal senso.
cmq pipeline è un termine generico... presupponendo tu ti sia allacciato al mio discorso sulle pipeline delle fixed function ho risposto come sopra... cioè le ottimizzazioni sulle FF non servono a niente per gli shader poichè se un software è shader-oriented non utilizza quelle vecchie pipeline e fisicamente la corrente non passa in quei circuiti obsoleti.
Ciauz :)
Originally posted by "REPSOL"
Secondo me il loro unico problema è stato sottovalutare la ati.
Ciaoz
bè, anche... ma il mercato è così... nessuno nega che Ati abbia fatto delle ottime scelte di mercato proponendo un ottimo prodotto... nVidia correndo avanti a incontrato molte difficoltà(con TMSC ed il processo produttivo .13 ad esempio).
Originally posted by "DoomIII"
hmm... nVidia ha fatto molte ottimizzazioni negli shader che rispetto alla concorrenza (Ati) raggiunge un rapporto di 1:7 a suo favore... cioè una passata per nVidia fabbisogna di 7 su Ati per ottenere lo stesso risultato... intesa come cicli di istruzini nello shader... questo su Ati genera un calo di performance notevole come si buon immaginare dal rapporto stesso 1:7... software che sfrutti così gli shader non c'è... tornando a quello che dici tu le pipeline fixed function (vecchio T&L) non è compatibile con gli shader e gli shader non dipendono assolutamente da quelle pipeline... purtroppo con il software attuale, che non è basato sugli shader ma sulle vecchie fixed-function, gli shader non sono sfruttati e non è possibile quindi vedere i progressi nVidia in tal senso.
cmq pipeline è un termine generico... presupponendo tu ti sia allacciato al mio discorso sulle pipeline delle fixed function ho risposto come sopra... cioè le ottimizzazioni sulle FF non servono a niente per gli shader poichè se un software è shader-oriented non utilizza quelle vecchie pipeline e fisicamente la corrente non passa in quei circuiti obsoleti.
Ciauz :)
bè, anche... ma il mercato è così... nessuno nega che Ati abbia fatto delle ottime scelte di mercato proponendo un ottimo prodotto... nVidia correndo avanti a incontrato molte difficoltà(con TMSC ed il processo produttivo .13 ad esempio).
Cmq doom, nnon è che voglio screditare nvidia, ma anche la dfx facendo così è fallita perdendo la battaglia con la nvidia.
LuPellox85
10-04-2003, 22:51
Originally posted by "REPSOL"
Cmq doom, nnon è che voglio screditare nvidia, ma anche la dfx facendo così è fallita perdendo la battaglia con la nvidia.
si ma 3dfx faceva solo schede video, nVidia no, anzi, nel settore schede madri và molto bene ;)
Originally posted by "LuPellox85"
si ma 3dfx faceva solo schede video, nVidia no, anzi, nel settore schede madri và molto bene ;)
Si.. cmq non ho detto che la nvidia fallisce, ma potrebbe prendere un brutto colpo che per risprendersi da questo magari ci vuole 1 annetto o 1 annetto e mezzo, è probabile che se prende un colpo troppo brutto non venga nemmeno rilasciato l'nv35, che come da scuola nvidia dovrebbe essere una versione OC (più oc di così si muore) della nv30..... però no si sa mai, io mi auguro che non accada mai, perchè si sa appena una delle due perde i colpi la concorrente mette i prezzi altissimi, vedi radeon 9800 a 480 euro eforse più :(
E poi sinceramente te pensi che vendendo qualche milione di chip nforce2 riesca a mantenerci i costi per lo sviluppo di un chip nforce3 e per un nv35 o 40?.... io penso proprio di no :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.