View Full Version : nVidia GeForce FX: i primi benchmark
Redazione di Hardware Upg
06-01-2003, 09:19
Link alla notizia: http://news.hwupgrade.it/8978.html
Pubblicati on line i primi benchmark preliminari di una scheda video basata sulla nuova GPU nVidia: l'attesa per l'entrata in commercio continua a crescere
Click sul link per visualizzare la notizia.
Schummacherr
06-01-2003, 09:22
L'avevo già letta questa news o sbaglio?
cmq un po deludente nel 4° game di 3dmark per il resto sembra andare..mah..per dire va bene qcn di noi dovrebbe averla in mano...
Alevalent
06-01-2003, 09:41
Sembrerebbero abbastanza inconcludenti come test... quake3 e' vecchiotto... e il 3d mark... vive in un mondo suo... Almeno si inizia a vedere qualcosa :D
Mah, qui c'è un articolo che parla di trasformare una Radeon 9500 in una Radeon 9700!
http://www.xbitlabs.com/news/story.html?id=1041719082
Schummacherr
06-01-2003, 10:07
Originally posted by "Muppolo"
http://www.xbitlabs.com/news/story.html?id=1041719082
Azz :eek: funziona...
Secondo me sono Fake, nVidia ha mandato le skede prima a sto sito ke a Tom's e Anand?
Schummacherr
06-01-2003, 10:19
Beh probabile ke siano fakes..però intanto ci son sti numeri e se fossero veri dovrebbero testarli con qcs credo..
Schummacherr
06-01-2003, 10:47
Originally posted by "cercaleo"
Parrebbe non solo funzionare, ma nei bench la 9500 "base", pompata a dovere, supera addirittura la 9700 pro... e con 150 dollari di diffeenza!
già.. :cool:
chissà che fluctus nn ci faccia un pensierino... :)
sarei ben felice di prendere una scheda così, magari con un sovrapprezzo di 25-30€ rispetto al prezzo delle 9500...
da notare che quì in italia la differenza nn si limita a 150 dollari, ma è abbastanza + ampia!
blubrando
06-01-2003, 11:31
Originally posted by "davidon"
chissà che fluctus nn ci faccia un pensierino... :)
sarei ben felice di prendere una scheda così, magari con un sovrapprezzo di 25-30€ rispetto al prezzo delle 9500...
da notare che quì in italia la differenza nn si limita a 150 dollari, ma è abbastanza + ampia!
come al solito direi.....,ma forse con l'euro più forte.....il divario sarà minore,tanto per far pagare di più non ci metto nulla a inventarsi spese aggiuntive
lucasantu
06-01-2003, 12:25
aspettiamo che esca 3dmark2003 e vedremo i bench ...
sperando che esca in fretta
Jaguar64bit
06-01-2003, 12:28
Penso che il 3dMark2003 stia x uscire....
si 3dmark acquistato da nvidia....:P
Chissà che farà + punti ora :DDD
Schummacherr
06-01-2003, 12:36
Originally posted by "spk"
si 3dmark acquistato da nvidia....:P
Chissà che farà + punti ora :DDD
:D:D proprio adesso ke ho preso una 8500! :D
Tasslehoff
06-01-2003, 13:02
Originally posted by "Schummacherr"
:D:D proprio adesso ke ho preso una 8500! :DGuarda, te lo dico con tutto il cuore, hai fatto veramente un grande acquisto, altro che 9700 e FX :)
Schummacherr
06-01-2003, 13:06
Originally posted by "Tasslehoff"
Guarda, te lo dico con tutto il cuore, hai fatto veramente un grande acquisto, altro che 9700 e FX :)
il problema è ke (ancora quando non lo sapevo) ho preso una Mb Gigabyte 7VTXe..dikiarata incompatibile con la 8500..e adesso mi tokkerà venderla e tenermi la mia A7V266..
questa scheda ha gli stessi agganci per il dissy della Geffo4 ? dite che riesco ad usare il watercube LT anche su di lei?
LOL! Raddy 8500 Retail pagata 100€ rulezz :)
Meditiamo...
OSMIUM_modified
06-01-2003, 13:53
Qualcuno sa se lo scherzetto 9500@9700 funge anche con le schede All In Wonder? Così a mio fratello in America gli chiedo di comprare la 9500 AiW invece della 9700 Pro sempre AiW. Fatemi sapere anche in questo thread:
http://forum.hwupgrade.it/viewtopic.php?p=4132449#4132449
Grazie a tutti.
3dmark2003 uscirà solo quando nVidia lo vorrà, e cioè al rilascio dei Detonator per le DX9 e alle prime schede GeForceFx disponibili per i test
La solita storia quindi, un benchmark fatto su misura compilato ad arte
Chi ha provato la modifica ha rotto la scheda bruciando la GPU con il saldatore. C'è bisogno di un saldatore PROFESSIONALE poiche' il rischio è veramente altissimo.
Finalmente la piu' bella scheda del mondo sara' presto nelle nostre mani..
(e che ATI ritorni al secondo posto: e' il suo destino))
maiale rosa
06-01-2003, 15:23
ahahha...........ragazzi non ci crederete ma anche io ho testato una gf fx ce l'ho a casa me l'ha mandata il signor nvidia di persona perchè ci incontriamo sempre dal macellaio e siamo diventati amici..........
io faccio 2046584578948972 al 3dmark2003......ahahhahahha
nightmare82
06-01-2003, 15:56
divertente davvero...cabarettista eh???....
OSMIUM_modified
06-01-2003, 15:59
Desy tu che ne sai?
matteo1986
06-01-2003, 16:21
su questo sito sono apparsi altri bench, anche se devo dire mi sembrano eccessivi :eek: :eek: :eek:
http://www.computer-trend.biz/tests/xNews.php?act=shownews&id=6
http://www.computer-trend.biz/gfx/tests/nv30/bench1.jpg
Schummacherr
06-01-2003, 16:22
SE questa roba è vera c'è da aver paura.... :eek: :eek:
ma dubito lo sia...... :rolleyes: :rolleyes:
Minchia, io stesso parteggio + per ATI che x Nvidia, soprattutto x via del miglior rapporto prezzi/prestazioni, ma se questi bench sono veritieri, devo dire che sta scheda rulla di brutto, ma proprio di brutto!!! :eek: :eek:
Questa scossa alla NV da parte della 9700 quindi è stata salutare....x noi, che possiamo semplicemente upgradare solo gpu e nn + cpu, tanto rulla da sola! :sofico:
Byez! :)
Originally posted by "matteo1986"
su questo sito sono apparsi altri bench, anche se devo dire mi sembrano eccessivi :eek: :eek: :eek:
http://www.computer-trend.biz/tests/xNews.php?act=shownews&id=6
Ho visto questo sito, e pure la scheda...ma occupa due porte pci?
Che dissy che hanno messo...:D
Ciao!
Schummacherr
06-01-2003, 17:33
Speriamo sia tutto vero....e la 9700cala...... :D
Originally posted by "Schummacherr"
Speriamo sia tutto vero....e la 9700cala...... :D
Già, la mia prossima s.v. fra un anno, magari allo stesso prezzo della 8500, quando la presi... 6 mesi fa a 123€!:D
Ciao!:)
Schummacherr
06-01-2003, 17:37
Originally posted by "rsuter"
Già, la mia prossima s.v. fra un anno, magari allo stesso prezzo della 8500, quando la presi... 6 mesi fa a 123€!:D
Ciao!:)
io l'ho presa usata a 100 :rolleyes:
cmq il prossimo anno desidereremo altro... :cool: è impossibile stargli dietro senza i $... :o :)
NvidiaMen
06-01-2003, 18:01
Aggiorniamo i benchmark!!! ANDATE TUTTI SU www.3ditalia.com
VEDETE QUANTO FA' MALE LA FX ALLA POVERETTA 9700!!!
Compreso col vecchio 3dmark2001....
Schummacherr
06-01-2003, 18:12
C'è anke da dir eke un pc come quello su cui l'hanno provato la maggioranza degli utenti nn se lo può permettere :rolleyes:
cmq...se tutto questo è vero..ancora una volta Nvidia ha dato la sua zampata :)
bucowskyfromL.A
06-01-2003, 18:18
Quando si saprà come trasformare una radeon 9000 in una 9700 qualcuno posta un link? (;
Schummacherr
06-01-2003, 18:20
Originally posted by "bucowskyfromL.A"
Quando si saprà come trasformare una radeon 9000 in una 9700 qualcuno posta un link? (;
o anke una 8500 in 9700 :D:D
Originally posted by "NvidiaMen"
Aggiorniamo i benchmark!!! ANDATE TUTTI SU www.3ditalia.com
VEDETE QUANTO FA' MALE LA FX ALLA POVERETTA 9700!!!
Compreso col vecchio 3dmark2001....
Già... e se il prezzo sarà quello che ho visto in giro: QUANTO FA MALE LA FX AL PORTAFOGLIO, RISPETTO ALLA 9700!!!
:D
TopoMorto
06-01-2003, 18:41
Visti i numeri mi sa che nVidia prenderà subito un'altra bastonata dal R350.Non penso che una scheda video da 0.6kg avrà molto futuro.
halduemilauno
06-01-2003, 18:50
Originally posted by "TopoMorto"
Visti i numeri mi sa che nVidia prenderà subito un'altra bastonata dal R350.Non penso che una scheda video da 0.6kg avrà molto futuro.
da quando la bontà di una scheda la si misura dal peso?
:D :D
per la serie quando non si sa cosa dire.
:D :D
Originally posted by "Schummacherr"
io l'ho presa usata a 100 :rolleyes:
cmq il prossimo anno desidereremo altro... :cool: è impossibile stargli dietro senza i $... :o :)
Beh, fu un'occasione irripetibile, ci furono una 30ina di persone di questo forum che la comprarono in un attimo, insieme a me da un noto negozio online a quel prezzo, è stato un vero affare, poi BBA! :sofico:
Logico che ora, dopo 6 mesi costi un pò meno....;)
Ciao!:)
NvidiaMen
06-01-2003, 19:14
La RV350 non sarà un'evoluzione della RV300, ma solo un suo overclock (si rivisiteranno i micron....)!!! Solo per il successivo chip (RV400) Ati implementerà il supporto a DX9+ già previsto dalla FX!!!
Scommettiamo che i nuovi Games che usciranno sapranno già sfruttare le DX9+ (le SDK sono già state consegnate da qualche tempo agli sviluppatori!).
Domanda!
Conviene acquistare adesso una scheda video se già si è possessori di schede video abbastanza performanti (geforce4 o 8500) o è meglio buttare i soldi per una 9700 (compliant "solamente" DX9) o una FX (prezzo da paura e totalmente insfruttata oggi)?
Sappiate che software in grado di sfruttare tali schede saranno disponibili non prima di 4-5 mesi.
Occhio!!!
Originally posted by "NvidiaMen"
La RV350 non sarà un'evoluzione della RV300, ma solo un suo overclock (si rivisiteranno i micron....)!!! Solo per il successivo chip (RV400) Ati implementerà il supporto a DX9+ già previsto dalla FX!!!
Ma...scusa...la 9700 è stata proprio la prima, insieme alla 9500 ad implementare pieno supporto alle dx9.0!;)
Infatti son stati rilasciati apposta da mamma ATI i cata 3.0 con supporto alle dx9 appena uscite!:p
Ma che sono i dx9+? :confused:
Ciao!:)
TopoMorto
06-01-2003, 19:18
Originally posted by "halduemilauno"
da quando la bontà di una scheda la si misura dal peso?
:D :D
per la serie quando non si sa cosa dire.
:D :D
Non hai tutti i torti ma visto che certa gente utilizza 3dMark2001 per misurare la "bontà" di una scheda. :rolleyes:
Schummacherr
06-01-2003, 19:20
Originally posted by "rsuter"
Beh, fu un'occasione irripetibile, ci furono una 30ina di persone di questo forum che la comprarono in un attimo, insieme a me da un noto negozio online a quel prezzo, è stato un vero affare, poi BBA! :sofico:
Logico che ora, dopo 6 mesi costi un pò meno....;)
Ciao!:)
la faccina sarcastica era sulla probabile mia fregatura :D
8500 flashata con bios della retail e dissipatori sulle ram mi sembr apoco x 100€ ma avevo bisogno di una sk video :D
marziodivx
06-01-2003, 19:38
ahahahahahhaa.... lo sapevo ke con la metà di chip 128 ripsetto ai 256 della 9700pro avrebbe fatto un buco nell'acqua.
notate kome nei gioki pesanti ke sfruttano a piena potenza le dx8.1, il divario so assotiglia di poko...fino ad arrivare ad un vantaggio x la 9700.
appena uscirà il futuremark,ne vedremo delle belle,Marty!!!
E' bello vedere quanta gente incoerente esista. Quando il 3dmark favorisce Nvidia, e' madonion (ora futuremark) che e' di parte, e' un bench stupido, non c'entra niente coi giochi. Se il 3dmark favorisce una scheda Ati, allora Nvidia ha fatto un buco nell'acqua... a me viene proprio da ridere a leggere certi commenti.
P.S. Io ho un radeon9700pro.
Schummacherr
06-01-2003, 19:48
Originally posted by "CS25"
E' bello vedere quanta gente incoerente esista. Quando il 3dmark favorisce Nvidia, e' madonion (ora futuremark) che e' di parte, e' un bench stupido, non c'entra niente coi giochi. Se il 3dmark favorisce una scheda Ati, allora Nvidia ha fatto un buco nell'acqua... a me viene proprio da ridere a leggere certi commenti.
P.S. Io ho un radeon9700pro.
quoto :rolleyes:
marziodivx
06-01-2003, 19:51
l'unika kosa su kui l'Nvidia è stata kompletamente stupida..è aver messo 128 al posto dei 256bit di casa ATI. alzando il prezzo!!! (posso capire x la DDRII)
kome i televisori sony... li paghi l'ira di Dio e non valgono niente in konfronto ad altri (notare il panasonic TX-32PH40D progressive scan).
(IH)Patriota
06-01-2003, 20:44
Azz non ho ancora visto in giro un gioco Dx 9.0 e gia' si parla di Dx 9.0+ ?? ottimo , la cosa pero' parecchio divertente è che se sotto a 9700 ed FX non si mettono almeno 2.5/3.0 Ghz di processore la spesa per queste Gpu è praticamente inutile.
Tasslehoff
06-01-2003, 22:21
Originally posted by "ballero"
Finalmente la piu' bella scheda del mondo sara' presto nelle nostre mani..
(e che ATI ritorni al secondo posto: e' il suo destino))Mamma mia ecco qui i soliti troll che si riscaldano, non oso pensare al macello che ci sarà quando sta Fx uscirà.
Lo so che tanto succederà lo stesso, però come tanti altri utenti affezionati a questo sito e soprattutto a questo forum vi prego, non date retta a questi troll... :( :rolleyes: :(
Originally posted by "Tasslehoff"
Mamma mia ecco qui i soliti troll che si riscaldano, non oso pensare al macello che ci sarà quando sta Fx uscirà.
Lo so che tanto succederà lo stesso, però come tanti altri utenti affezionati a questo sito e soprattutto a questo forum vi prego, non date retta a questi troll... :( :rolleyes: :(
Non preoccuparti... basta bannarli! ;) :D
:p
NvidiaMen
06-01-2003, 22:48
Eccovi un sunto dei 3 chip + veloci al mondo!
GeForce4Ti4600 GeForceFX Radeon9700
Chip tech 256bit 256 bit 256 bit
Process .15 micron .15 micron .15 micron
Transistor 63M 125M 107M
MemoryBus 128Bit DDR 128Bit DDR2 256 Bit
MemoryBand 10.4Gb/s 16Gb/s 19.8Gb/s
PixelFillrate 1.24Gp/s 4Gp/s 2.6Gp/s
AA FillRate 4,8Billion 16Billion 15,6Billion
Max FSAA 4x 8x 6x
Triangle Max 69M 350M 325M
GPU Clock 300Mhz 500Mhz 325Mhz
Memory BGA 2,8ns 2.0ns 2,9ns
Vertex Shader 2 ----> FPArray !! 4
Pixel Pipelines 4 8 8
Texture Unit 4 ----> 16 !! 8
Vertex Versione 1.1 ----> 2.0+ !! 2.0
Direct x 8.1 ----> 9.0+ !! 9.0
Pixel version 1.3 ----> 2.0+ !! 2.0
MemoriaOttimiz. LMA II LMA II OptColComp HyperZ III
Bit Channel 8 10 10
TvEncoderOnChip NO SI SI
Vediamo ora la differenza tra le direct x:
PIXEL SHADER
DX8 DX8.1 DX9 DX9.0+
Pixel shader 1.1 1.4 2.0 2.0+
Num.Istruz.Texture 4 6 16 16
Num.Istruz.Colore 4 8 32 --->1024!!
Max Tem Storage 8 8 64 --->1024
Tipo di dati colore Interi Interi Virg.Mob.Virg.Mob.
Precisione dati 32Bit 48Bit 128bit 128Bit
Predizione istruzioni No No 12 ---> 64
Texture illimitate No No No SI
Swizzling No No No SI
Istruzioni Avanzate No No No SI
Masch.ScritturaCondiz No No No SI
ControlloVirgDinamico No No No SI
VERTEX SHADER
Vertex Shader 1.1 1.1 2.0 2.0+
Istruzioni Massime 128 128 1024 -->65536!!
IstruzioniStatiche 128 128 256 256
Numero di Costanti 96 96 256 256
Registri Temporanei 12 12 12 16
Loop massimi 0 0 4 --->256
MaschScritturaCond No NO NO SI
Chiamata e ritorno No NO NO SI
ControlloVirgStatico No NO NO SI
ControlloVirgDinamoco No NO NO SI
Si conclude che con la GeforceFX Si è raggiunta la qualità fotografica grazie al numero di colori e al numero di istruzioni sul colore che è in grado di supportare in tempo reale!
Ciao a tutti!
NvidiaMen
06-01-2003, 22:52
Per chi ne volesse saper di + (testo in inglese) ma ne vale la pena...
http://www6.tomshardware.com/graphic/20021118/index.html
"Mamma mia ecco qui i soliti troll che si riscaldano, non oso pensare al macello che ci sarà quando sta Fx uscirà.
Lo so che tanto succederà lo stesso, però come tanti altri utenti affezionati a questo sito e soprattutto a questo forum vi prego, non date retta a questi troll... "
"troll" lo vai a dire a tua madre (se non vuoi essere offeso, non offendere)
Ehi Raven, dimmi una cosa: ma lo spazio disponibile sotto la notizia, e' per discutere della notizia o per discutere di quello che si vuole?
Perche' la notizia e' sui primi bech della Fx e qui c'è gente che interviene per parlare della 8500 o di come si overclocca la 9500..(e poi danno del troll agli altri..)
Impara a fare il moderatore, va'..
Feldmaresciallo
07-01-2003, 00:06
E poi e' come la TV di Biscardi... la ggGGGGente vuole il SAAAAAAAANKUE!!!
Basta con sti flame.
Lallous.
Nandozzi
07-01-2003, 00:17
Ragazzi io continuo a dire che non ha senso voler difendere questa o quella marca... I bench vanno presi per quello che sono e non si possono fare sempre delle congetture, altrimenti sarebbe stupido lamentarsi quando non ci sono... (mi ricordo ancora quando qualche mese fa c'erano persone che dicevano: " Sì, ma senza bench, queste affermazioni non valgono...".)
Ognuno compra quello che riesce ad acquistare con le proprie finanze... Io personalmente preferisco aspettare qualche mese e veder calare di molto il prezzo perchè penso che sia inutile spendere 500-600 € per una GPU che si incomincerà a sfruttare un po' solo dopo oltre 5 mesi !!! Poi ognuno è libero di fare quello che vuole con i propri soldi...
sti bench per ora non mi sembrano così esaltanti, comunque aspettiamo di vedere bench più seri magari con directx 9 :)
....e aggiungerei anche con driver più maturi ;)
cdimauro
07-01-2003, 06:17
Nei test nVidia ha obbligato ad utilizzare l'AntiAliasing a 2X anziché a 4X: evidentemente teme il confronto con l'R300, che disponendo di una maggior banda è in grado di far registrare prestazioni superiori...
Poi 2 precisazioni per nVidiaMen:
1) Con tutte le schede DirectX 9 disponibili, stai tranquillo che i programmatori non penseranno minimamente di sfruttare le caratteristiche aggiuntive delle 9+ dell'NV30: è lo standard che si segue sempre, non le implementazioni proprietarie che girano su poche schede. Infatti le differenze fra DX9 e 9+ sono abbastanza marcate per cui non è pensabile di realizzare shader che sfruttino bene entrambe le architetture: o si ottimizza per una o per l'altra. E siccome la prima è e sarà la più diffusa, fai un po' tu i conti... Poi chissà quando arriveranno le prime applicazioni DX9: già adesso quelle che sfruttano le 8/8.1 si possono contare sulle dita di una mano...
2) La parola "fotorealismo" lasciala stare visto non sai nemmeno cosa ci sta dietro. Per quanto riguarda la computer grafica, riuscire a elaborare un modello d'illuminazione reale è ancora lontani parecchi anni, data l'ENORME complessità. Prova a farti un giretto e a vedere il tempo che viene impiegato da certi software professionali per renderizzare un solo fotogramma col modello "radiosity", e poi ne riparliamo... Tra l'altro, è da vedere quante luci riesce a gestire in hardware quella scheda: i modelli professionali più "abbordabili" arrivano anche a 32 luci, mentre schede con l'NV30 e l'R300 sono ancora "ferme" ad 8, se non ricordo male...
3) Con quasi 200Mhz di differenza di clock fra le 2 GPU (325Mhz contro 500Mhz), non c'è di che rallegrarsi per nVidia...
NvidiaMen
07-01-2003, 09:10
Ringrazio tanto cdimauro per la lezione sulla computer grafica.
Volevo solo ricordare che lavoro nella grafica da diversi anni e penso di conoscere programmi come 3dsmax5, lightwave e cinema4d discretamente bene. Non ho solo sentito parlare del radiosity e delle implementazioni sulla rifrazione della luce a seconda delle informazioni sul materiale assegnato alle texture anche perchè la rifrazione l'ho dovuta studiare (tra l'altro molto bene in Fisica 2 e 3 all'università).
Rispondo solamente con 2 cose:
1) Non serve avere infinite luci (già 8 sono più che sufficenti per approssimare un modello reale). Per modelli all'esterno ad esempio l'unica fonte di luce è il sole. Solo per particolari modelli (ad esempio l'interno di un auditorium nel quale vi possano essere molte fonti di luce) servono più punti d'illuminazione. La soluzione al problema del fotorealismo sino ad oggi si è risolta solo attraverso tecniche di sovrapposizioni di più fonti d'illuminazione messe ad hoc per rendere "reale" la scena. Ecco perchè 8 luci non sembrano mai bastare. Nvidia e Ati cercano di aggirare l'ostacolo attraverso l'uso dei vertex e dei pixel shader che permettono di evitare questi artifici dando la possibilità al singolo pixel di portare dietro di sè delle informazioni. Queste informazioni, dall'implementazione directX 8.1, son divenute "programmabili" e permettono ai programmatori di inserire qualunque formula fisica sulla rifrazione e sulla attenuazione della luce. Si capisce che: maggiore è il numero di istruzioni, più alta è la precisione (in bit) come numero dei colori, e più alta sarà la resa.
2) Non vuol dire nulla che lo standard è directX 9. Dove c'è scritto? Se dei programmatori vogliono implementare delle funzionalità nuove nei loro applicativi basta che nel sistema dell'utente finale vi siano le librerie grafiche e i driver grafici richiesti (in questo caso 9.0+) e queste verranno utilizzate. E un pò quello che è successo sino ad ora. Per le schede che non sono "compliant" all'ultima versione di DirectX nei driver si realizzano delle chiamate in software X86 che vengono elaborate dal processore centrale riducendo le prestazioni generali. Ti sei mai chiesto perchè escono i driver Dx9 per geforce4, 8500 e per tutte le schede che hanno in hardware il solo supporto per Dx 8.1? Appunto per questo, per relegare al processore centrale quello che loro non fanno. La Xabre fà la stessa cosa anche per i vertex shader 8.1!
Spero di esser stato chiaro. Un saluto a tutto il forum.
Per chi diffidasse che 8 luci "ben programmate" non siano sufficenti a descrivere bene un modello in TEMPO REALE date un'occhiata al programma di render Mad F/X che si stà sviluppando per Directx 8.1 (versione 1.0), 9.0 (versione 2.0) e 9.0+ (versione beta) che sfrutta TOTALMENTE E A FONDO le istruzioni programmabili offerte da ATI e Nvidia. Il collegamento è:
http://www.mad-fx.com/
Ancora ciao.
Notare nei benchmark la differenza di velocità tra questo applicativo e il mio vecchio 3dsmax5!
http://www.mad-fx.com/products/madfx1/benchmarks.html
sanitarium
07-01-2003, 09:12
Originally posted by "cdimauro"
Nei test nVidia ha obbligato ad utilizzare l'AntiAliasing a 2X anziché a 4X: evidentemente teme il confronto con l'R300, che disponendo di una maggior banda è in grado di far registrare prestazioni superiori...
In effetti questa cosa ha colpito un po’ anche me, mi aspettavo che i bench facessero vedere come con AA a 4X (se non addirittura superiore) la FX possa essere decisamente superiore alla 9700pro… E invece per ora gli unici test visti sono con AA 2X, che personalmente non apprezzo molto…
NvidiaMen
07-01-2003, 10:36
Cg tra i migliori tool di sviluppo del 2002
NVidia con un comunicato oggi ha annunciato che l'autorevole Game Developer Magazine ha attribuito al compilatore Cg di nVidia (C for Graphic) un posto importante tra i tools di sviluppo per i programmatori di giochi nel 2002, assegnandogli il riconoscimento “2002 Frontline Award”, molto ambito nello specifico settore:
SANTA CLARA, CA— JANUARY 6, 2003—NVIDIA Corporation (Nasdaq: NVDA), the worldwide leader in visual processing solutions, today announced that Cg, the high-level shading language and compiler technology introduced by the Company earlier this year, has been named one of the top programming tools of the year by Game Developer magazine. Cg took top honors in the coveted “Frontline” awards, which recognize the very best products and tools in the world of game development as selected by the game development community.
E' interessante come nVidia sottolinei nuovamente lo stretto legame tecnico e strategico che sussiste tra il Cg e la nuova famiglia di schede video che sta per arrivare sul mercato, con in testa il GeForce FX:
A critical companion to NVIDIA’s recently announced GeForce™ FX GPU family, Cg is a C-like high level graphics programming language that, when combined with a modern GPU such as NVIDIA’s GeForce FX, allows 3D content developers to create cinematic-caliber, real-time worlds and characters. The combination of a simple-to-use programming language and the cinematic computing platform will allow developers to create real-time graphics content that is similar to film quality rendering.
LordBerisha
07-01-2003, 12:46
Alla fine il discorso emerso dai vari skannamenti mi sembra abbastanza chiaro.
Nvidia si presenta sul mercato in ritardo con il suo ultimo chip rispetto alla concorrente ATI.
La Ge Force Fx non è rivoluzionaria tanto per la banda di memoria o la velocità, ma per funzioni di rendering real-time nuove che NON VERRANNO ANCORA SFRUTTATE per parecchio tempo.
Non ha molto senso fare un confronto in termini di prestazioni per le due schede, piuttosto ATI vince per il rapporto qualità-prezzo. Nvidia si presenta con un'architettura rivoluzionaria commercializzata malissimo e da il tempo ad ATI di preparare nuove evoluzioni per quando queste architetture diventeranno lo standard.
Conclusioni:
Non me ne frega niente della battaglia ATI-Vvidia, ma con la GeForce FX siamo di fronte ad innovazioni che ci porteranno (in uno o due anni) ad una vera evoluzione della grafica real-time 3D,sicuramente grazie al contributo delle future soluzioni di ATI.
Ma vi rendete conto a cosa si arriverà tra 3-4 anni!!!
Già! alla PS3 DVD blueray GPU cinematografica a 249 euro!!! :D ;)
E (per par condicio) alla Y-box anche più performante ma alla stessa cifra! :D ;)
cdimauro
07-01-2003, 13:54
Originally posted by "NvidiaMen"
Ringrazio tanto cdimauro per la lezione sulla computer grafica.
Non c'è di che... ;)
Volevo solo ricordare che lavoro nella grafica da diversi anni e penso di conoscere programmi come 3dsmax5, lightwave e cinema4d discretamente bene. Non ho solo sentito parlare del radiosity e delle implementazioni sulla rifrazione della luce a seconda delle informazioni sul materiale assegnato alle texture anche perchè la rifrazione l'ho dovuta studiare (tra l'altro molto bene in Fisica 2 e 3 all'università).
Allora dovresti sapere che non basta tenere in considerazione soltanto la rifrazione per avere un buon modello della luce. Ecco perché si è passati dal raytracing al radiosity come modello (e tra l'altro il numero di riflessioni dei raggi di luce nel raytracing non è certamente infinito, ma limitato da programma, anche se comunque un fattore 5-7 permette di ottenere degli ottimi risultati qualitativi). E dovresti sapere che per ogni scena è necessario precalcolare (col radiosity) prima anche diverse centinaia di equazioni differenziali prima di procedere al calcolo vero e proprio. Un raggio di luce non cambia solo e semplicemente direzione quando passa attraverso una materiale... :rolleyes:
Rispondo solamente con 2 cose:
1) Non serve avere infinite luci (già 8 sono più che sufficenti per approssimare un modello reale).
Se ne bastassero realmente 8 non esisterebbero schede grafiche a 32 e più luci, non ti pare? O pensi che i costruttori abbiano silicio, tempo e soldi da buttare? E il radiosity allora che motivo avrebbe d'esistere e soprattutto d'essere implementato? Per la pura e semplice mania di perfezione di qualche programmatore o grafico?
Per modelli all'esterno ad esempio l'unica fonte di luce è il sole. Solo per particolari modelli (ad esempio l'interno di un auditorium nel quale vi possano essere molte fonti di luce) servono più punti d'illuminazione.
Hai detto niente: questo è anche uno dei motivi per cui in tanti giochi all'interno le luci presenti sono sempre poche...
La soluzione al problema del fotorealismo sino ad oggi si è risolta solo attraverso tecniche di sovrapposizioni di più fonti d'illuminazione messe ad hoc per rendere "reale" la scena. Ecco perchè 8 luci non sembrano mai bastare.
Insomma bastano o non bastano 8 luci?
Nvidia e Ati cercano di aggirare l'ostacolo attraverso l'uso dei vertex e dei pixel shader che permettono di evitare questi artifici dando la possibilità al singolo pixel di portare dietro di sè delle informazioni. Queste informazioni, dall'implementazione directX 8.1, son divenute "programmabili" e permettono ai programmatori di inserire qualunque formula fisica sulla rifrazione e sulla attenuazione della luce. Si capisce che: maggiore è il numero di istruzioni, più alta è la precisione (in bit) come numero dei colori, e più alta sarà la resa.
E tu pensi che questo sia sufficiente per arrivare al fotorealismo? Se i singoli pixel dovessero veramente portarsi dietro TUTTE le informazioni relative all'attraversamento delle varie superfici da parte dei "raggi" di luce (se mi consenti la semplificazione), non basterebbe certo tutta la potenza di calcolo dell'intero pianeta per effettuare tutti questi calcoli in tempo reale (stiamo comunque parlando di schede grafiche che dovrebbero far girare dei giochi con tutto ciò che gli sta dietro, ti ricordo...)
La verità è sempre la stessa: se vogliamo ritrovare la "dolcezza", la "morbidezza" della luce reale nella computer grafica bisogna per forza di cose passare a modelli superiori, con costi ENORMI in termini computazionali. E' per questo che quando vedo tanti film riesco quasi sempre a distinguere le immagini 3D dal resto della scena reale...
2) Non vuol dire nulla che lo standard è directX 9. Dove c'è scritto?
Nella documentazione Microsoft... ;)
Se dei programmatori vogliono implementare delle funzionalità nuove nei loro applicativi basta che nel sistema dell'utente finale vi siano le librerie grafiche e i driver grafici richiesti (in questo caso 9.0+) e queste verranno utilizzate. E un pò quello che è successo sino ad ora. Per le schede che non sono "compliant" all'ultima versione di DirectX nei driver si realizzano delle chiamate in software X86 che vengono elaborate dal processore centrale riducendo le prestazioni generali.
Leggi: rendendo quindi inutilizzabile un'applicazione... :rolleyes:
Ti sei mai chiesto perchè escono i driver Dx9 per geforce4, 8500 e per tutte le schede che hanno in hardware il solo supporto per Dx 8.1? Appunto per questo, per relegare al processore centrale quello che loro non fanno. La Xabre fà la stessa cosa anche per i vertex shader 8.1!
Spero di esser stato chiaro. Un saluto a tutto il forum.
Sei stato chiarissimo. Quindi tu pensi che basterebbe che i programmatori sviluppassero i giochi/applicazioni per le DX9+ e poi il resto lo farebbe la CPU? Ma hai idea di quanto diverse sono le DX9 dalle 9+? Pensi che uno shader pensato per sfruttare appositamente per le DX9+ possa girare "abbastanza bene" anche su hardware che sia soltanto DX9 compliant, appoggiandosi alla CPU? Evidentemente non conosci molto bene le differenze fra le due architetture e le ricadute che possono presentarsi nell'ipotesi che hai enunciato...
Pensi che realizzare uno shader che sfrutti a fondo le istruzioni condizionali e di subroutine delle DX9+, ad esempio, non comporti la realizzazione di un programma diverso rispetto alle DX9? Per emularne l'esecuzione la velocità dell'applicazione sicuramente ne risentirebbe così tanto da renderla inutilizzabile.
Sei convinto che i programmatori (di giochi, in particolare) scriveranno software per DX9+ pensando che al resto ci penserà la CPU? Il decadimento delle prestazioni sarebbe tale da costringere gli utenti possessori di soluzioni non DX9+ a non comprare il prodotto, e non penso che una software house con gente di buon senso possa permettersi di perdere consistenti fette di mercato per accontentare una (attualmente inesistente) schiera di fanatici ricconi (con quello che costeranno le soluzioni NV30...).
Per chi diffidasse che 8 luci "ben programmate" non siano sufficenti a descrivere bene un modello in TEMPO REALE date un'occhiata al programma di render Mad F/X che si stà sviluppando per Directx 8.1 (versione 1.0), 9.0 (versione 2.0) e 9.0+ (versione beta) che sfrutta TOTALMENTE E A FONDO le istruzioni programmabili offerte da ATI e Nvidia. Il collegamento è:
http://www.mad-fx.com/
Ancora ciao.
Notare nei benchmark la differenza di velocità tra questo applicativo e il mio vecchio 3dsmax5!
http://www.mad-fx.com/products/madfx1/benchmarks.html
Gli darò un'occhiata non appena arrivera la versione per DX9+. Nel frattempo consentimi di rimanere particolarmente scettico sul concetto di "fotorealismo" applicato alla compute grafica realizzata con le GPU presenti sui nostri PC, come ho già spiegato.
Quanto al C.G., sei convinto che basti un linguaggio ad alto livello come questo per permettere di scrivere codice che sfrutti decentemente l'NV30 e giri ugualmente bene anche sulle altre architetture? Purtroppo non si possono avere capre e cavoli. Se un linguaggio offre costrutti ad alto livello che ben si prestano per essere utilizzati dall'NV30, sulle altre architetture lo stesso programma non girerà bene. Viceversa, se un linguaggio è troppo generico, i programmi andranno bene sulla maggior parte delle architetture, ma non sfrutteranno a fondo le caratteristiche peculari di ognuna.
Il problema dell'ottimizzazione per una specifica architettura del codice generato da un compilatore è abbastanza complesso di per sé, e richiede tra l'altro potenza di calcolo esponenziale (il problema generale è NP-completo). Questo è uno dei motivi per cui Intel, ad esempio, ha investito NOTEVOLI risorse nella realizzazione di compilatori che permettano di ottenere un buon codice per il Pentium 4 e l'SSE-2. Ma riuscire a "vettorizzare" il codice partendo dal codice sorgente non è affatto semplice, e ancora di più ottimizzarlo per l'SSE-2.
Pertanto se pensi che basti un linguaggio come il CG per garantire ad un'applicazione di poter girare bene su qualunque piattaforma e sfruttare al meglio l'NV30, sei completamente fuori strada. Anzi: il codice scritto col CG sarà sicuramente più lento e meno ottimizzato, richiedendo pertando sistemi molto "pompati", semmai avremo l'occasione di vederne delle applicazioni pratiche in tempi brevi, visto che già le applicazioni DX8, come ho già detto, sono abbastanza rare...
Saluti
Cdmauro, sei in grado di farmi un driver OpenGL per la mia Ati 9700 che quellooriginale fa schifo? TI preeeego. Non vedi come va male in UT2003 e in Q3?
cdimauro
07-01-2003, 14:12
Mi spiace, per il momento non ho tempo. Ma se vuoi posso darti delle dritte e un po' di documentazione così il driver te lo scrivi tu... :D
..mmmm siamo un po' [OT]
Per ritornare sulla notizia credo che un 29% di incremento a quake e SOLO 13% ad UT non me li sarei mai aspettati da una scheda che uscirà presumibilmente ben 4 e mezzo mesi dopo la concorrente.
Yuritech85
07-01-2003, 14:47
CDIMAURO sei un grande...:):):):):)
Credo che i bench siano ancora troppo pochi (e soprattutto incompleti - vedi AA 2X) per giudicare il nascituro FX.
Sulla base di questa news non posso che concordare con Alvatar0: 9700 mi sembra essere più duro da "sconfiggere" di quanto previsto... e per giunta già da ben 3/4 mesi sul mercato... Per quanto riguarda la qualità dell'immagine (leggi il tanto agoniato "fotorealismo"), vale come sopra: aspettiamo di vederla all'opera...
Speriamo di non rimanere delusi. Ne risentirebbe la concorrenza...
Buon anno a tutti!
Ciao
NvidiaMen
07-01-2003, 15:40
Questa mia risposta non vuole essere una ripresa di posizione altrimenti creeremo uno schema a tread senza fine e non farebbero male a buttarci a pedate fuori dal forum.
Voglio solo approfittarne per precisare alcuni concetti che forse la mia dialettica o il modo in cui scrivo non mi han permesso di rendere al meglio.
1) Il numero di equazioni differenziali (problemi di Cauchy compresi) risolvibili a livello matematico sono solo una dozzina. Forse le centinaia alle quali ti riferisci non sono altro che una serie ordinata in un array da calcolarsi in tempo reale ogni qualvolta si modificano le coordinate nello Z-Buffer. Un raggio di luce incidente con un materiale, inoltre, cambia oltre che la direzione anche la sua intensità ed è proprio di questa attenuazione che l'algoritmo radiosity tiene conto per successive approssimazioni. Nella sua ultima versione, implementata nel 3dsMax5 si è velocizzato il risultato interpolando i risultati iniziali con quelli finali così da avere già nei primi minuti risultati coerenti a quello effettivo.
2) Per supportare più di 8 luci è necessario un supporto nativo da parte del sistema operativo. La serie win9x fino WinMe era limitata a 8 fonti luminose ecco perchè gli sviluppatori di giochi non hanno mai avuto la possibilità di andare oltre tale limite (idem per i produttori di hardware destinato a videogames o schede video da esse derivate che tutti definiscono professionali di segmento basso). Win2000/XP sono limitati a 32 luci ecco perchè schede di fascia alta sono limitate a tale valore.
3)Ricordarsi che stiamo parlando del segmento PC e quindi il fotorealismo risente dei sistemi operativi adottati (capacità di multiprocessing parallelo non paragonabili ai sistemi dedicati) e non solo dal fatto che ci siano o meno più di 8 luci!
4) Ripeto 8 luci son più che sufficenti per parlare di fotorealismo in un gioco. D'altronde e di questa fascia di mercato che stiamo parlando. Il riferimento è arrivare ad un dettaglio paragonabile a quello del film Toy Story o Final Fantasy e non certo di confondere ciò che è vero da ciò che è virtuale. Ti posso garantire che la Geforce FX a questo livello di dettaglio in real-time ci arriva.
4) Nella documentazione Microsoft c'era scritto anke che lo standard sei mesi fà doveva essere DX8. Poi dopo due mesi apparvero misteriosamente, sotto pressione di Nvidia e ATI, le 8.1.....
5) Non ho mai detto che una CPU, per di più Risc forzata a X86 (come P4 e Athlon), possa svolgere come una GPU le chiamate delle librerie grafiche.
6) Una delle peculiarità delle DX9+ ripetto alle 9.0 è quella di utilizzare dei Vertex Shader non più come numero limitato ad interi ma come FP Array.
Questo Floating Point Array, seguendo la stessa filosofia di flessibilità di base degli Shaders, è in grado di sostituire (oppure "emulare") completamente le funzioni di una serie di engine specifici, utilizzando un numero elevato di registri "tuttofare" estremamente potenti, grazie all'introduzione di un set di istruzioni molto completo, del formato e del calcolo nativo in Floating Point, che garantiscono potenza e precisione, e strutturati in modo da essere soprattutto flessibili" nel modo e nel tipo di dati che di volta in volta vengono caricati per essere processati, in grado quindi di caricare ogni tipo di dati che vengono processati dalla GPU. Ciò consente a questi registri di lavorare partendo da una base di partenza e di calcolo molto elevata, offrendo al programmatore molta libertà e fantasia nel modo in cui possono essere utilizzati. Ma non è finita. L'altra grande novità è che l'FP ARRAY è in grado di processare più di un tipo di calcolo contemporaneamente grazie all'indifferenziazione e alla indicizzazione dei registri che vengono ingaggiati e utilizzati solo nel numero che occorre, ovvero, permette di utilizzare solo i registri effettivamente necessari lasciando contemporaneamente gli altri liberi e pronti per altri calcoli sui vertici nel medesimo ciclo di clock, anche se completamente diversi tra loro. Questa grande flessibilità di utilizzo, si traduce in un potenziale di efficienza enorme, e avvicina concettualmente questi "super registri" ad una sorta di "virtual machine" autonome e interne allo stesso processore di calcolo.
Naturalmente se una scheda grafica non dovesse supportare tali funzionalità coloro che sono addetti alla scrittura dei drivers non sarebbero talmente pazzi da emulare via software una cosa del genere, ma si limiterebbero a "saltare" l'operazione fornendo, come output di uscita, il risultato dell'operazione semplificata supportata con evidente decadimento della resa grafica.
7) Ricordi quando uscì la 3DFX? Si diceva la stessa cosa... Poi le applicazioni Glide si moltiplicarono a vista d'occhio tant'è che quando qualcuno di noi gioca ad un emulatore in molte occasioni deve usare wrapper per utilizzare chiamate Glide come chiamate OpenGL o Directx! Considera poi che il consorzio di sviluppo CG fà capo direttamente a Nvidia quindi credo che se non al 100% almeno per un buon 80% le sue schede verranno sfruttate a dovere.
Concludo col dire che il tempo sarà giudice di quanto dibattuto. Spero quantoprima di poter vedere quanto Nvidia e ATI stanno cercando di fare: rendere più credibile ciò che oggi sembra virtuale.
Un saluto.
NvidiaMen...
già solo il tuo nome ti tradisce...tu riuscirai solo e sempre a difendere nVidia e a benedirla. Quindi sei estremamente di parte, non sei assolutamente oggettivo! Leggere i tuoi post è come leggere un giornale di destra o di sinistra.
X- Cdimauro
Come non hai tempo? ma se passi le giornate qua sopra.
LOL :D
NvidiaMen
07-01-2003, 16:47
Il nome non deve mai ingannare. Ci credi se ti dico che nel computer di mio padre ho messo una Ati 7500 mentre in quello mio ho una Radeon 8500DV 64MB modificata 250/250? In un alro computer che uso per la grafica ho una Elsa Synergy III QuadroMX. Come vedi non sono di parte e non lo sono stato neanche quando ho comprato la 3dfx e vedevo la TNT Nvidia rubare la sua tecnologia. Perchè il mio nome allora? Era un periodo di monocrazia nel quale 3dfx era stata acquisita da Nvidia e ATI non prometteva nulla di buono oltre che a chipset integrati.
Spero che questa nuova battaglia ATI-Nvidia possa venire incontro a noi che in fondo siamo coloro che forniamo loro i mezzi per andare avanti: soldi naturalmente e passione compresa!
Ciao Wonder da NvidiaMen non di parte.
cdimauro
08-01-2003, 07:22
Originally posted by "NvidiaMen"
Questa mia risposta non vuole essere una ripresa di posizione altrimenti creeremo uno schema a tread senza fine e non farebbero male a buttarci a pedate fuori dal forum.
Sì, ma ha anche tu hai scritto una mappazza enorme: come faccio a risponderti con poche righe? ;)
1) Il numero di equazioni differenziali (problemi di Cauchy compresi) risolvibili a livello matematico sono solo una dozzina. Forse le centinaia alle quali ti riferisci non sono altro che una serie ordinata in un array da calcolarsi in tempo reale ogni qualvolta si modificano le coordinate nello Z-Buffer.
Sì, questo è uno dei metodi più veloci... I primi utilizzavano un'equazione per ogni coppia di "patch"...
Un raggio di luce incidente con un materiale, inoltre, cambia oltre che la direzione anche la sua intensità ed è proprio di questa attenuazione che l'algoritmo radiosity tiene conto per successive approssimazioni.
Non è solo quello:
a) Un punto di luce diffonde "infiniti" raggi di cui si dovrebbe tener conto e può farlo anche in maniera non uniforme.
b) Per ogni punto, bisogna considerare la somma delle energie entranti ed uscenti
c) Soltanto negli specchi perfetti la luce cambia semplicemente di direzione: nelle altre superfici bisogna sempre considerare oltre al vettore riflessione, anche quello di rifrazione e quelli generati dalle ombre (per cui potenzialmente i calcoli possono aumentare a dismisura).
d) Il modello di base del radiosity tratta solamente della riflessione diffusia, mentre quelli più complessi aggiungo anche il calcolo della riflessione speculare.
Mmh... Forse ci stiamo addentrando in troppi dettagli tecnici... ;)
Nella sua ultima versione, implementata nel 3dsMax5 si è velocizzato il risultato interpolando i risultati iniziali con quelli finali così da avere già nei primi minuti risultati coerenti a quello effettivo.
Non conosco il tipo di implementazione, per cui non so fino a quanto si possa spingere il realismo delle immagini generate da 3dsMax5...
3)Ricordarsi che stiamo parlando del segmento PC e quindi il fotorealismo risente dei sistemi operativi adottati (capacità di multiprocessing parallelo non paragonabili ai sistemi dedicati) e non solo dal fatto che ci siano o meno più di 8 luci!
In questo caso, allora, non possiamo dire che il fotorealismo risenta dei limiti del s.o, ma tutto dipende dalla risorse hardware messe a disposizione dei PC...
4) Ripeto 8 luci son più che sufficenti per parlare di fotorealismo in un gioco. D'altronde e di questa fascia di mercato che stiamo parlando. Il riferimento è arrivare ad un dettaglio paragonabile a quello del film Toy Story o Final Fantasy e non certo di confondere ciò che è vero da ciò che è virtuale. Ti posso garantire che la Geforce FX a questo livello di dettaglio in real-time ci arriva.
Per favore, non parliamo di fotorealismo in un gioco: per me questa parola assume il significato classico anche in questo contesto, e un gioco o anche un film come Toy Stoy o Final Fantasy restano ben al di là del fotorealismo. Quando parlo di fotorealismo parlo di un modello che simula la luce reale. Se parlo di un gioco non mi sento assolutamente legittimato ad usare questo termine...
Possiamo parlare di quanto i giochi diventino ogni giorno più "realistici", ma evitiamo la parola "fotorealismo"...
Sono d'accordo con te quando dici ancora oggi non si può parlare di distinguere il reale dal virtuale, ma quanto al resto non credo che serva una GeForceFX. Quando uscì la GF3 nVidia fece vedere che era in grado di generare in tempo reale le immagini di Toy Story. Per la GF4 fece lo stesso con Final Fantasy...
4) Nella documentazione Microsoft c'era scritto anke che lo standard sei mesi fà doveva essere DX8. Poi dopo due mesi apparvero misteriosamente, sotto pressione di Nvidia e ATI, le 8.1.....
E questo che vuol dire, scusa? Si sa che gli standard vengono sempre aggiornati... Per ora lo standard di fatto sono le DX9: le 9+ sono appannaggio esclusivo dell'NV30 e non si sa le future 9.1 incorporeranno tutte queste caratteristiche. E appunto perché le 9.1 sono ancora molto lontane, non si possono neppure prendere in considerazione...
5) Non ho mai detto che una CPU, per di più Risc forzata a X86 (come P4 e Athlon), possa svolgere come una GPU le chiamate delle librerie grafiche.
Sì, ma come si fa eseguire le istruzioni di uno shader complesso che la GPU deve elaborare? Qualcuno questi benedetti calcoli dovrà pur farli, e non vedo alternative alla CPU. Qui non si possono, ad esempio, disattivare certi effetti perché la GPU non è in grado di supportarli in hardware: il codice va eseguito per intero, altrimenti non si possono vedere i risultati finali...
6) Una delle peculiarità delle DX9+ ripetto alle 9.0 è quella di utilizzare dei Vertex Shader non più come numero limitato ad interi ma come FP Array. [...]
Naturalmente se una scheda grafica non dovesse supportare tali funzionalità coloro che sono addetti alla scrittura dei drivers non sarebbero talmente pazzi da emulare via software una cosa del genere, ma si limiterebbero a "saltare" l'operazione fornendo, come output di uscita, il risultato dell'operazione semplificata supportata con evidente decadimento della resa grafica.
Vedi sopra: non sempre questo è possibile. Non si può sempre pensare di sostituire delle istruzioni FP con le relative intere (ad esempio): quando si elaborano certi shader complessi non puoi "saltare" o approssimare le operazioni a piacimento: le istruzioni vanno eseguite per intero altrimenti fuori non otterrai neanche lontamente il risultato che speravi. Puoi decidere di non usare il filtro anisotropico perché la scheda non lo supporta, e allora ti accontenti del trilineare o del bilineare. Ma non puoi fare a meno di emulare per intero le istruzioni degli shader...
Quanto alla flessibilità dell'unità vettoriale dell'NV30, nulla da dire. Le altre GPU hanno un mix di registri FP ed interi per cui sono più limitate. Ma è anche vero che spesso non è necessario utilizzare per forza registri FP: se il sorgente CG è scritto bene e il programmatore ha specificato chiaramente il tipo di una variabile, sarà il compilatore ad assegnargli un registro intero o FP. Nel caso dell'NV30 avrà ampia libertà, ok. Ma questo non vuol dire che i registri FP sono indispensabili: si usano quando e se realmente servono...
7) Ricordi quando uscì la 3DFX? Si diceva la stessa cosa... Poi le applicazioni Glide si moltiplicarono a vista d'occhio tant'è che quando qualcuno di noi gioca ad un emulatore in molte occasioni deve usare wrapper per utilizzare chiamate Glide come chiamate OpenGL o Directx!
Certo, ma all'epoca era le API migliori in assoluto. Le OpenGL dovevano ancora affermarsi e le DirectX delle vere e propri ciofeche, per cui è ovvio che si siano diffuse: facili da programmare ed estremamente veloci. Cosa può desiderare di più un programmatore? :D
Considera poi che il consorzio di sviluppo CG fà capo direttamente a Nvidia quindi credo che se non al 100% almeno per un buon 80% le sue schede verranno sfruttate a dovere.
Non credo. Ci sono TROPPE differenze con le altre architetture. Te lo ripeto: come programmatore non pensare di scrivere due codici completamente diversi per entrambe. Per cui sceglierei quella standard. Se poi la software house fosse interessata a perdere tempo e soldi anche per le versioni "custom", non ci sarebbe alcun problema nel rilascere apposite versioni. Ma oggi si corre dietro i soldi e si vogliono ottenere dei risultati nel più breve tempo possibile. Le conseguenze le puoi facilmente immaginare...
E' finito il monopolio di nVidia: ci sono TROPPI concorrenti che vendono soluzioni standard e non si possono mettere da parte: il mercato è già stato invaso dalle soluzioni standard e quelle custom sono ancora lontante (e costose)...
Concludo col dire che il tempo sarà giudice di quanto dibattuto. Spero quantoprima di poter vedere quanto Nvidia e ATI stanno cercando di fare: rendere più credibile ciò che oggi sembra virtuale.
Un saluto.
Sicuramente.
Saluti anche a te
Cavolo, Nvidiamen e Cdmauro, siete veraemnte forti. Non è che una sera vi trovate e mi scrivete un driver OpenGL per la mia 9700 che quello originale fa schifo?
VI preeeego. Non vedete come va male in UT2003 e in Q3?
NvidiaMen
08-01-2003, 09:25
Prima che questo articolo e relative nostre osservazioni si perdano x sempre nei meandri del cestino del server di HwUpgrade vorrei solo approfittarne per salutare Cdimauro e tutto il forum. Mancherò qualke settimana, ma spero presto di avere un nuovo dibattito su argomentazioni concorrenti.
Concludo con una parolaccia:
<<Fotorealismo!!!>>
A presto.
NvidiaMen
NvidiaMen
08-01-2003, 09:33
La parolaccia non è uscita (come un fesso la avevo messa tra i segni di diseguaglianza). In ogni caso è:
FOTOREALISMO!!!
Ciao
cdimauro
08-01-2003, 12:45
E' un piacere discutere con persone con un background culturale non indifferente: spero presto di poter continuare a scambiare quattro chiacchiere con te... :)
cdimauro
08-01-2003, 13:08
Originally posted by "steel64"
X- Cdimauro
Come non hai tempo? ma se passi le giornate qua sopra.
LOL :D
Ehm... Beccato! ;) Vabbé... Diciamo che nei momenti di pausa in ufficio, come adesso, fra una forchettata di pasta al forno e l'altra mi diletto a scrivere qualcosa... :D
cdimauro
08-01-2003, 13:16
Azz. Il mio ultimo messaggione è strapieno di errori!!! :( Scusate, ma sono venti giorni che il mio provider non funziona e non posso sfruttare la flat per scrivere comandamente i messaggi... :cry:
cdimauro
08-01-2003, 13:19
Originally posted by "Wonder"
Cavolo, Nvidiamen e Cdmauro, siete veraemnte forti. Non è che una sera vi trovate e mi scrivete un driver OpenGL per la mia 9700 che quello originale fa schifo?
VI preeeego. Non vedete come va male in UT2003 e in Q3?
Beato tu che puoi goderti una simile scheda video: io ho ancora una Voodoo3 3000... :(
Ma tanto non posso pensare di cambiarla se non ho neppure 5 minuti di tempo per provare qualche gioco... :cry:
(IH)Patriota
08-01-2003, 21:01
Complimenti ad entrambi leggervi e' stato un piacere altro che OT , quasi una lezione ;)
Ciauz
Patri
sanitarium
09-01-2003, 09:04
Originally posted by "(IH)Patriota"
Complimenti ad entrambi leggervi e' stato un piacere altro che OT , quasi una lezione ;)
Ciauz
Patri
Già, anche io la penso allo stesso modo, anche se alcune cose non mi sono chiarissime... :p
cdimauro
09-01-2003, 12:30
In effetti gli argomenti trattati sono estremamente tecnici... :rolleyes: Comunque se vuoi posso provare a chiarirti qualcosa. Chiedi pure...
sanitarium
09-01-2003, 12:41
Originally posted by "cdimauro"
In effetti gli argomenti trattati sono estremamente tecnici... :rolleyes: Comunque se vuoi posso provare a chiarirti qualcosa. Chiedi pure...
Ti ringrazio per la disponibilità, ma le cose di cui parlavate sono, appunto, estremamente tecniche, e io non sono ferratissimo in questo campo... Seguo il mondo delle schede video in modo molto amatoriale, e non conosco questo mondo a livello professionale, ma da fruitore di videogiochi! Fino a che si parla di luci in una scena e delle ombre, riflessioni ecc. da esse generate ci sono, ma quando si parla di equazioni differenziali, problemi di Cauchy & co. si va fuori della mia portata! Ciò non toglie che leggere i messaggi di 2 persone esperte come voi è estremamente interessante... :)
cdimauro
09-01-2003, 13:22
Eh beh! In effetti se i dubbi che hai sono relativi a queste cose, allora mi sa che non basterebbero certo dei messaggi per colmare queste lacune. :( Sono cose che, in genere, si studiano all'università... :p
sanitarium
09-01-2003, 13:24
Originally posted by "cdimauro"
Eh beh! In effetti se i dubbi che hai sono relativi a queste cose, allora mi sa che non basterebbero certo dei messaggi per colmare queste lacune. :( Sono cose che, in genere, si studiano all'università... :p
Beh, io faccio il web-designer; volevo fare ingegneria informatica, ma poi ho seguito la strada del web!
cdimauro
10-01-2003, 06:46
Alla fine uno si deve comunque confrontare col problema del lavoro: se hai trovato questa strada, falla diventare meglio che puoi il tuo biglietto da visita per sfondare. Tanto, che uno abbia studiato o meno, deve pensare sempre di portare il pane a casa... :)
sanitarium
10-01-2003, 08:36
Originally posted by "cdimauro"
Alla fine uno si deve comunque confrontare col problema del lavoro: se hai trovato questa strada, falla diventare meglio che puoi il tuo biglietto da visita per sfondare. Tanto, che uno abbia studiato o meno, deve pensare sempre di portare il pane a casa... :)
Hai perfettamente ragione, è esattamente come la penso io. Dopo il linguistico, ho fatto un corso per diventare web designer dove ho imparato i fondamentali, alcuni trucchi e via dicendo... Ritengo di essere stato abbastanza coraggioso nella scelta, visto che TUTTI quelli che conosco hanno intrapreso il corso di studi universitario, ma molti con pochissima ispirazione (leggi: ripiego). Io avrei potuto fare la stessa cosa, scegliendo quella che fino a 3 anni fa credevo fosse la mia vocazione (ingegneria informatica), ma rendendomi conto di non avere più quell'entusiasmo necessario ad intraprendere un corso di studi di questo tipo, ho deciso di prendere un'altra strada. Adesso lavoro in uno studio web da circa 7 mesi, come inizio non mi lamento, continuo ad esercitarmi a casa per non rimanere mai indietro con le nuove versioni dei programmi, e fra qualche anno magari aprirò uno studio grafico mio, chissà! :)
cdimauro
10-01-2003, 13:05
Buona fortuna! :)
sanitarium
10-01-2003, 13:49
Originally posted by "cdimauro"
Buona fortuna! :)
Grazie! :D
Scusate mi potete dare il link del sito dove si spiega come trasformare un radeon 9500 base in una Radeon 9700?? Grazie
http://forum.hwupgrade.it/viewtopic.php?t=396130
PS: sei hai preso una 9500 liscia in questi giorni, credo proprio non sia di quelle modificabili (pcb rosso con memorie a L attorno alla GPU...)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.