View Full Version : NVIDIA su ATI: non c'è nulla di realmente nuovo
Redazione di Hardware Upg
26-05-2004, 08:13
Link alla notizia: http://news.hwupgrade.it/12494.html
La pubblicazione di un documento interno di NVIDIA contenente informazioni e commenti sui prodotti concorrenti sta scatenando polemiche, ma non propone nulla di realmente diverso rispetto a quanto già noto
Click sul link per visualizzare la notizia.
Questi documenti sono divertentissimi da leggere :D
ahha sono si davvero belli...discutibili ma non falsi...(non voglio creare flame..)
TyGerONE
26-05-2004, 08:26
il gruppo vendite redige con frequenza mensile slide di confronto con i prodotti della concorrenza. Non ci vedo nulla di male, anzi !!
barabba73
26-05-2004, 08:36
forse l'unica cosa di male che c'è è averli diffusi!
il confine con la diffamazione non è lontanissimo...anche se le cose riportate sono vere..
per me nVidia che critica i driver di ATi , l'overclock di ATi , le innovazioni di ATi....
beh pare tutta una barzelletta quando lei stessa :
1-manipola i driver
2-quando l'anno scorso ha fatto uscire una scheda video assurda come la 5800ultra(assurda in quanto straoverclockata)
3-quando lei stessa nn ha fatto altro da due anni a questa parte di tirare fuori zuppe riscaldate...vedi NV20->NV25/NV28 e
NV30->Nv35/NV38....
anche io mi sono scocciato di tutto questo panorama senza innovazioni , anche l'ultima generazione di NV40 e R420 nn ne presenta di fondamentali in confronto alle precedenti schede....però prima di parlare nVidia dovrebbe farsi un esame di coscienza....
la questione dell'overclock della X800XT....sono una manciata di Mhz e visto che imho nn portano nemmeno a quel 3% di perstazioni in più lo ritengo una disattenzione di ATi di distrubuire sample di prova prob nati con diversi clock sin dalla fabbrica in quanto...prove.
Quindi , scusa nVidia, hai ragione , gli overclock di fabbrica li sai fare solo te!! credo proprio che se ATi avesse voluto fare una mossa del genere si sarebbe anche sforzata di alzare maggiormente le frequenze.....
Fatality
26-05-2004, 08:48
ma sono ridicoli... vengono loro a parlare di driver non chiari, features parzialmente supportate quando arrivano da una generazione di schede in cui si sono macchiati delle peggio vergogne sia a livello di driver che di features... RIDICOLI
In effetti leggendo molte delle affermazioni di nvidia viene da dire "senti da che pulpito viene la predica"!
Cmq alla fine le uniche cose "vere" che ci sono in quelle slide sono:
- che R420 è un miglioramento di R360 => ovvio, r360 era ottimo, anche nvidia avrebbe fatto così se avesse avuto un'architettura precedente decente! E poi la minestra riscaldata di ati va come quella di nvidia... meglio di così!
- che r420 non supporta SM 3.0 => non è vero che ati non sapeva come implementarli, avrà deciso così per altri motivi! E poi è ancora tutto da dimostrare che verranno utilizzati in tempi brevi...
Insomma proprio una sfacciata propaganda interna :rolleyes:
Bho...è uno di quei documenti volti a rafforzare la coesione interna dell'azienda.....
regenesi
26-05-2004, 09:06
Mi sa che tra poco usciranno slide simili da parte di ATI, si profila all'orizzonte un DeathMatch tra Ati e Nvidia e credo sarà un bello spettacolo.... :)
Byezzz
Dark Schneider
26-05-2004, 09:13
Scusate ragà ma ve li ricordate le slide Ati di alcuni mesi fa destinate al Pr Ati in una presentazione della scheda? Erano simili a queste "noi abbiamo questo....loro non possono farlo" "noi abbiamo questa cosa qui...loro no" oltre che a delle battutine sul concorrente e prodotti del concorrente. E' naturalmente nVidia fa uguale cosa credevate?
Ma non vedo cosa ci sia di strano: dappertutto è così. Mica solo Ati e nVidia.
Per seccio: tieni conto che quelle slide che circolano(e tieni conto che anche Ati fa slide di questo genere) non sono destinate a te. Ma appunto per l'interno. Non devi scandalizzarti se adesso queste son spuntate fuori e son circolate on line quando NON dovevano circolare on line. Di queste slide di nvidia, ati, matrox, 3dfx,ecc. ci son sempre state e sempre ci saranno.
E' non dimenticatevi che i produttori pensano solo ed esclusivamente al lucro! ;)
Bye
magic carpet
26-05-2004, 09:24
ma nvidia non ha ancora capito che se vuole vendere una scheda deve realizzare una scheda "umana" che occupi un solo slot, che non bruci la mb per le risorse di alimentazione e che non rompa le palle nel dover liberare due molex direttamente dall'alimentatore (da min 400W) senza poter neanche usare degli adattatori!!!
Armageddon84
26-05-2004, 09:32
Sull'alimentazione delle nuove schede nvidia mi pare fosse già chiarito...non servono grandi quantità come si credeva prima
è naturale trovare documenti del genere all'interno di un azienda in riferimento alla concorrenza
ati e nvidia non sono due gruppi di ricerca al fine della ricerca stessa...ma sono due aziende
MiKeLezZ
26-05-2004, 09:34
Mi raccomando crediamoci tutti che siano uscite "CASUALMENTE"...
Si chiama marketing pure questo.. Ovviamente alla nvidia non possono screditare la ati in modo diretto così utilizzano questi mezzucci per girare attorno al problema..
Dreadnought
26-05-2004, 10:08
Secondo me NVIDIA staarosikà... sisi! :D
Beh, vedere che la tua scheda-mostro nuova di pacca, con architettura rivoluzionaria, che brucia 350w e occupa due slot non è così superiore alla scheda della concorrenza, che è solo un'evoluzione di un chip datato, che sta in uno slot e va bene con un ali da 350 non deve essere così bello
Guarda che questi documenti "interni" sono la norma in qualsiasi azienda, non li fa' solo nvidia.
L'unica cosa che fa "rosicare" i dirigenti di un'azienda sono i confronti tra i fatturati e gli utili.
E non so' proprio se e' nvidia a rosicare.
ciao
Dreadnought
26-05-2004, 10:45
dici?
mi sa che non sei aggiornato :)
nvidia negli ultimi 3 anni non ha fatto altro che perdere soldi, quote di mercato e valore delle azioni (chipset a parte), mentre ATI da quando è rimasta sola con nvidia non ha fatto altro che prendere quote di mercato e migliorare le sue finanze, e le azioni confemano, visto che sono al 210% rispetto a 3 anni fa
marcopasin
26-05-2004, 10:45
Io vedo tutto questo come una mossa di marketing di nvidia.
Uno pensa di aver trovato in internet materiale quasi "top secret" destinato solo a dipendenti nvidia e così se lo legge tutto sopratutto per curiosità: ecco che migliaia di persone hanno letto una serie di commenti negativi su ATI (e quindi di riflesso positivi per nvidia) che a nvidia rendono più di una campagna pubblicitaria milionaria.
Certo c'è chi nn ci casca e dice "senti da che pulpito vengono questi commenti!", ma io penso che quando uno deve sborsare tra i 300 e i 600 euro per una scheda video decente, alcuni di quei commenti negativi se li ricorda e il solo fatto di aver messo la pulce all'orecchio di migliaia di clienti ATI valga più di una campagna pubblicitaria.
Bella mossa nvidia! Ti sei fatta pubblicità a mio parere efficace a costo zero!
X chi lavora nel marketing: meditate.
non hanno tutti i torti, la stessa minestra di due anni fa....
Infatti!
In quei cartelli c'è solo la verita'.
Nvidia anni fa, con la solita scusa del documento interno, aveva messo in rete uno sputt*namento totale dell'architettura delle Kyro2. E' stata poi costretta a fare marcia indietro ma intanto l' immagine pubblica della concorrente era già stata ben ben attaccata.
Il lupo perde il pelo ma non il vizio :mad:
che esistano questi documenti più che normale è anche giustissimo, che escano dall'azienda è inammissibile. Ho è stato fatto apposta oppure il management di nvidia ha mostrato una grossa mancanza di professionalità!
halduemilauno
26-05-2004, 11:10
Originariamente inviato da Dreadnought
dici?
mi sa che non sei aggiornato :)
nvidia negli ultimi 3 anni non ha fatto altro che perdere soldi, quote di mercato e valore delle azioni (chipset a parte), mentre ATI da quando è rimasta sola con nvidia non ha fatto altro che prendere quote di mercato e migliorare le sue finanze, e le azioni confemano, visto che sono al 210% rispetto a 3 anni fa
mi sa che tu sei un pò disinformato.
Originariamente inviato da Dark Schneider
Per seccio: tieni conto che quelle slide che circolano(e tieni conto che anche Ati fa slide di questo genere) non sono destinate a te. Ma appunto per l'interno. Non devi scandalizzarti se adesso queste son spuntate fuori e son circolate on line quando NON dovevano circolare on line. Di queste slide di nvidia, ati, matrox, 3dfx,ecc. ci son sempre state e sempre ci saranno.
E' non dimenticatevi che i produttori pensano solo ed esclusivamente al lucro! ;)
Bye
completamente d'accordo.....! però insomma stiamo discutendo su scelte della stessa nVidia , se voleva ste slide nn venivano fuori insomma credo che l'esame di coscienza cmq nVidia se lo deve cmq fare, visto che nn ha combinato tanto di meglio.... certo anche ATi le ha fatte , ma se nn ricordo male avevano anche qualche ragione , tipo che la loro scheda video nn aveva bisogno di enormi dissipatori rumorosi e soprattutto nn ciucciava una vagonata di WATT (se nn ricordo male era all'uscita della 9800pro dopo l'esordio della 5800ultra).....un conto è sparare a vuoto....(come ha fatto nVidia in quest'occasione IMHO ) un conto è screditare l'azienda rivale....come fanno sempre tutti , ma basta appunto saperlo fare.
Fan-of-fanZ
26-05-2004, 11:27
Se questi sono i commenti interni di nVidia, m'immagino come devono essere quelli di Matrox ("Ma a che serve giocare in un PC!!!!"). :p
per non parlare di 3dfx (RIP) :old:
zerothehero
26-05-2004, 11:37
Non mi piacciono queste cose..tra l'altro se questo documento era soltanto ad uso interno avrebbero fatto bene a valutare con onestà l'offerta dei loro competitor e non fare queste sparate...mah...è valutando con onestà il "nemico" e non sottovalutandolo che si riesce a superarlo...
zerothehero
26-05-2004, 11:43
quel will the real xt platinum please stand up mi ricorda una canzone di eminem...
Dreadnought
26-05-2004, 11:46
@ halduemilauno
buy www.nasdaq.com
charts, revenue e stock report.
noterai anche che ATI ha volimi doppi rispetto a nvidia in quanto a ricavi e guadagni. Cose che Nvidia si sogna, perchè è la tipica azienda di marketeers e avvocati, con poco know how e poca capacità di reinvestire. Gli unici profitti che trae sono quelli che si crea immanicandosi violando la concorrenza, le leggi e stringendo accordi esclusivi a chi vende le sue schede.
Tanto per ogni problema ci sono gli avvocati e le banche dietro.
Originariamente inviato da ballero
Infatti!
In quei cartelli c'è solo la verita'.
Si ma analiaziamola cosi':
Ati non ha implementato gli sm 3.0 perche' non verranno sfruttati fino alla prossima generazione di schede, si intravede ora l'utilizzo dei 2.0....e anche con i 2.0 dicevano che l'avrebbero utilizzati in poco tempo!!!
Tanto per tirare una frecciatina...ma i 2.0+ di Nvidia??? non li potevano sfruttare??? :D
Per le schede con clock differente bisogna vedere l'ordine delle schede....se l'ultima spedita ha un clock maggiore hanno fatto meglio di Nvidia con la 5800 che l'hanno dovuta dowclockare prima dell'uscita causa problemi di instabilita'!!
Per i driver bisogna avere riscontri....e come si dice: "Il bue dice cornuto all'asino" !!!!
magari sono anke vere ste slide, ovvio fino a un certo punto, xkè se le analizziamo solo alcune hanno un VELO di verità, cmq a mio giudizio e RIPETO a mio giudizio, nVIDIA sta ancora ROSICANDOOOOOOOOOOOOOOOOO il rametto x il FLOPPOOOOONNNNNEEEEEEEEEEEEE fatto contro il grande R300, ke quando uscì fece fare a nVIDIA un FIGURONE di M******A assurdo, quindi spende tutto il tempo ke ha a fare ste slide invece di concentrarsi sui prodotti e su nuove architetture!!!!!
cmq sono ridicoli daiiiiiiiii!!!!!!!!!
eheheh ke divertimento:D :sofico: :cool:
Originariamente inviato da dwfgerw
non hanno tutti i torti, la stessa minestra di due anni fa....
io la penso così squadra che vince nn si cambia. a rigor di logica R300 mette ancora paura a nVidia perchè è un progetto vincente di ben due anni fa..perchè quindi cambiarlo?
eppure...agli stessi tempi anche nVidia ha fatto queste cose...!
perchè andare a spendere 500€ su una 4600 quando c'era la Ti500 ??? certo prestazioni in più....ma il progetto di base eppure era sempre NV20...
idem poi per NV30-35-38.....
io sono principalemente DELUSO da tutto il panorama delle schede video , perchè condivido l'idea di nVidia che cmq innovazioni praticamente meno che ZERO....però la penso così anche nVidia nn si salva dalla legge delle zuppe riscaldate...anzi ha preso spunti adirittura nell'architettura proprio da ATi ..(vedi il numero di pipelines, e l'algoritmo di filtri anisotropico).....
Originariamente inviato da seccio
completamente d'accordo.....! però insomma stiamo discutendo su scelte della stessa nVidia , se voleva ste slide nn venivano fuori insomma credo che l'esame di coscienza cmq nVidia se lo deve cmq fare, visto che nn ha combinato tanto di meglio.... certo anche ATi le ha fatte , ma se nn ricordo male avevano anche qualche ragione , tipo che la loro scheda video nn aveva bisogno di enormi dissipatori rumorosi e soprattutto nn ciucciava una vagonata di WATT (se nn ricordo male era all'uscita della 9800pro dopo l'esordio della 5800ultra).....un conto è sparare a vuoto....(come ha fatto nVidia in quest'occasione IMHO ) un conto è screditare l'azienda rivale....come fanno sempre tutti , ma basta appunto saperlo fare.
e cmq(mi riquoto per aggiungere una cosa)......
http://www.elitebastards.com/hanners/nvx800slides/3.jpg
questa nn è proprio una slide da far vedere all'interno dell'azienda.....ci riguarda molto più da vicino di quello che può sembrare.....ed è strano che nVidia dica queste cose quando è stata lei ultimamente a far pagare cari i prodotti per zero innovazioni.....
Dreadnought
26-05-2004, 12:06
Ma poi la X800:
- va di più
- ha meno problemi di alimentazione
- ha meno problemi di raffreddamento
- ha qualità grafica migliore di nvidia
- ha il temporal antialiasing che è uno spettacolo
nVidia in + ha solo gli shaders 3.0 che non userà mai nessuno da qua fino al 2006, e in ogni caso gli shaders 2.0+ di ATI sono già abbastanza per avere grafica spettacolo.
...è ancora necessario aggiungere altro?
Cmq la cosa che mi ha lasciato piu' scioccato e' la parte che riguarda alle differenze di clock delle schede pre produzione!! Nvidia parla di poca chiarezza sul clock....lei.....lei che ha fregato "MILIONI" di persone con le Geforce FX con bus a 64bit....cosa mai "SCRITTA" sulle schede Nvidia (se no nsi vede io sono stato uno di questi....maledetta 5600/64bit....che sola di scheda).
Dark Schneider
26-05-2004, 12:19
Originariamente inviato da MiKeLezZ
Mi raccomando crediamoci tutti che siano uscite "CASUALMENTE"...
Si chiama marketing pure questo.. Ovviamente alla nvidia non possono screditare la ati in modo diretto così utilizzano questi mezzucci per girare attorno al problema..
Sono i medesimi mezzucci usati da Ati quando le slide di qlc mese fa sono state"accidentalmente" publicate sul sito Ati e "rubate"....e dopo il furto "rimosse" dal sito. :D
Ma anche così non mi sento di dire male ad Ati e nVidia. Cioè è così che vanno le cose. Pompi i tuoi punti di forza della tua scheda e sputtani il concorrente premendo sulle mancanza. Ragà è il solito discorso "io ce l'ho più lungo e duro e tu no...pappapero". :sofico: Loro devono vendere il prodotto e fanno di tutto per publicizzare e mettere in buona luce il loro prodotto. Niente di anomalo. :)
Dark Schneider
26-05-2004, 12:23
Originariamente inviato da seccio
completamente d'accordo.....! però insomma stiamo discutendo su scelte della stessa nVidia , se voleva ste slide nn venivano fuori insomma credo che l'esame di coscienza cmq nVidia se lo deve cmq fare, visto che nn ha combinato tanto di meglio.... certo anche ATi le ha fatte , ma se nn ricordo male avevano anche qualche ragione , tipo che la loro scheda video nn aveva bisogno di enormi dissipatori rumorosi e soprattutto nn ciucciava una vagonata di WATT (se nn ricordo male era all'uscita della 9800pro dopo l'esordio della 5800ultra).....un conto è sparare a vuoto....(come ha fatto nVidia in quest'occasione IMHO ) un conto è screditare l'azienda rivale....come fanno sempre tutti , ma basta appunto saperlo fare.
Ma se per questo allora dovrebbero farseli tutte due. E' sinceramente personalmente metto entrambi sul medesimo piano anche in questo. Non più uno dell'altro.
Originariamente inviato da seccio
io la penso così squadra che vince nn si cambia. a rigor di logica R300 mette ancora paura a nVidia perchè è un progetto vincente di ben due anni fa..perchè quindi cambiarlo?
perche' non essendo in un regime di monopolio l'offerta di Ati deve rimanere al passo con l'offerta dell'avversario.
Dark Schneider
26-05-2004, 12:29
Originariamente inviato da Kaiman
Cmq la cosa che mi ha lasciato piu' scioccato e' la parte che riguarda alle differenze di clock delle schede pre produzione!! Nvidia parla di poca chiarezza sul clock....lei.....lei che ha fregato "MILIONI" di persone con le Geforce FX con bus a 64bit....cosa mai "SCRITTA" sulle schede Nvidia (se no nsi vede io sono stato uno di questi....maledetta 5600/64bit....che sola di scheda).
La scritta a 64 bit era una cosa che dovevano mettere gli altri produttori. Tipo ci sono le 5200 che lo riportano..altre no. Anche le frequenze..nVidia fa il reference board con frequenze chiare...poi i produttori-distributori quando immettono la scheda sul mercato fanno quello che pare a loro. Per dirti so che c'è Abit 5200 64 bit a 333 Mhz di ram(da 6 ns)....quella del mio coinquilino le ha 266 Mhz e memorie lentissime da 7.5 ns. E' una questione di produttori-distributori. Purtroppo ci son quelli che fregano.
X dreadnought
ormai ho smesso da tempo di fare tifo da stadio,posto solo per amore della verità. Stai prendendo uno grossa cantonata sulla finanza. Rileggi i dati sul sito che tu stesso citi. Le cose stanno esattamente al contrario di come dici tu. Nvidia ha maggiori ricavi e utili di ATI che è tornata all'utile operativo solamente nell'ultimo anno.
io ripeto:
non hanno tutti i torti, la stessa minestra di due anni fa....
Non c'e' molto da stupirsi ... in fondo nelle interviste ufficiali si rinfacciano queste stesse cose no ? Quindi private o meno, mossa pubblicitaria 'occulta' o meno, queste slide sono robbba di normale routine ^_^
>Ma poi la X800:
>- va di più
Boh dipende quale gioco prendi in considerazione, in alcuni va meglio nv40 in altre r420 ... non c'e' un vincitore assoluto =)
>- ha meno problemi di alimentazione
E' stato dimostrato che non c'e' tutta questa differenza (20 watt mi pare).
>- ha meno problemi di raffreddamento
Non so chi aveva la x800pro qui nelle news ... cmq aveva detto che mettendo il dito sul dissi si rischiava l'ustione ...
>- ha qualità grafica migliore di nvidia
E qua forse ci siamo. Pero' e' anche vero che ultimamente ci sono state polemiche sul filtro trilinear (se non erro) in cui si dice che ATI bara ...
- ha il temporal antialiasing che è uno spettacolo
Chissa' quando lo vedro' ^^;
>nVidia in + ha solo gli shaders 3.0 che non userà mai nessuno da qua fino al 2006
Concordo, ma meglio avere una cosa che 'duri' nel tempo piuttosto che non averla proprio, no =) ?
>...è ancora necessario aggiungere altro?
Si, ho una 9800pro ma la prossima dovrebbe essere una 6800gt ;)
Predator85
26-05-2004, 13:01
è una trovata pubblicitaria non indifferente...pubblicità su internet gratuita!Cmq per chi dice che è la stessa minestra di 2 anni fa rimescolata secondo me nvidia non è che ha tirato fuori una gpu da un giorno all'altro!pensate che le cose che di buono c'erano su nv35 non le abbiano riutilizzate per questo nv40?stessa cosa per ati solo che da loro c'erano più cose che andavano bene e hanno cambiato relativamente poco.
DioBrando
26-05-2004, 13:21
Originariamente inviato da dwfgerw
io ripeto:
non hanno tutti i torti, la stessa minestra di due anni fa....
sì ma è un'ottima minestra.
Non capisco perchè accusare ATi di aver "semplicemente" ( la faccio facile) ottimizzato un'architettura che di per sè aveva dato bei risultati.
Non è colpa di ATI se Nvidia ha dovuto ristudiare il progetto dall'inizio per presentare un prodotto all'altezza.
Questi documenti sanno + da training autogeno dell'azienda nei confronti dei dipendenti "siamo i + forti siamo i + bravi ----> lavorate sodo per mantenere il primato"
Però c'è modo e modo di dirlo; e il renderli pubblici non credo sia stata una mossa casuale IMHO
Luc][ino
26-05-2004, 13:22
Ma non vi fa pena un'azienda che per tentare di recuperare il gap accumulato in tutti i sensi, e di conseguenza anche nelle vendite, con ATI invece di presentare i pregi del proprio lavoro pensi a buttare fango sul progetto concorrente???
NVIDIA dite quello che volete ma mi ricorda molto Microsoft con le loro odiose politiche...
detto questo se poi le schede di nuova generazione NVIDIA sono davvero superiori a quelle ATI (non penso e non spero :D ) vorrà dire che quando cambierò la mia 9800PRO prenderò una scheda dell'antipatica NVIDIA :D
malahead
26-05-2004, 13:24
ormai il mercato hardware è così ampio che il 70% degli utonti sono moooooooolto ignoranti ed acquistano solo per il valore pubblicitario dei prodotti...ed infatti ci ritroviamo con tecnologie trite e ritrite con qualche ritocco sulle sigle, perchè i grandi numeri fanno sempre scena...
Originariamente inviato da DioBrando
sì ma è un'ottima minestra.
Io direi che lo era ... un'ottima minestra. Lo era.
Sai cosa me lo fa credere?
Il fatto che per essere competitivi con una scheda da 400mhz siano stati costretti a cloccare al limite X800 introducendo ottimizzazioni su ottimizzazioni nei filtri.
^TiGeRShArK^
26-05-2004, 14:10
Originariamente inviato da Helstar
>Ma poi la X800:
>- va di più
Boh dipende quale gioco prendi in considerazione, in alcuni va meglio nv40 in altre r420 ... non c'e' un vincitore assoluto =)
In farcry, ke è l'unico gioco attuale ad usare "pesantemente" gli shader, quindi l'unico rappresentativo dei gioki futuri, una 6800 ultra sta dietro ad una semplice x800 pro, a meno di non abbassare drasticamente la qualità.... x gli altri gioki siamo là, c'è ki vince in uno, ki vince in un'altro, x l'open gl è meglio nvidia (ma voglio ricordare ke ati sta riscrivendo da zero i propri driver opengl)
>- ha meno problemi di alimentazione
E' stato dimostrato che non c'e' tutta questa differenza (20 watt mi pare).
la x800 xt consuma addirittura MENO della 9800 xt, e considera ke 20w sembrano una cifra piccola, ma se guardi l'incremento relativo di accorgi ke è ben superiore.... inoltre volgio ricordare ke ai tempi della 9700 pro erano i tifosi nvidia a criticare ati perchè aveva introdotto una skeda con UN molex e poi si sono ritrovati prima con l'aspirapolvere nv30 e ora col doppio molex di nv40..... decisamente masokisti direi...
>- ha meno problemi di raffreddamento
Non so chi aveva la x800pro qui nelle news ... cmq aveva detto che mettendo il dito sul dissi si rischiava l'ustione ...
vedi sopra... se una skeda dissipa meno watt, allora necessariamente riscalda di meno.... si può al massimo dire ke il dissipatore della x8oo sia meno efficiente, ma a questo punto, se tanto mi da tanto, sarà anche più silenzioso.... sono scelte progettuali diverse...
>- ha qualità grafica migliore di nvidia
E qua forse ci siamo. Pero' e' anche vero che ultimamente ci sono state polemiche sul filtro trilinear (se non erro) in cui si dice che ATI bara ...
Immensa castroneria. è stato smentito ufficialmente da ati (organizzando tra l'altro anche una sessione in chat con dei programmatori ati) dicendo ke il presunto cheating è in realtà un algoritmo ke mira ad aumentare le prestazioni senza pregiudicarne la qualità ... cosa del tutto vera dato ke quest'algoritmo era presente fin dalle 9600 .... e nessuno ha mai sollevato il minimo dubbio sulla qualità di questo sistema di filtraggio.
- ha il temporal antialiasing che è uno spettacolo
Chissa' quando lo vedro' ^^;
è già utilizzabile ad oggi anche con tutte le r300 operando un tweaking sul registro ... e guarda caso ATI introduce features nuove anke nelle skede video di vekkia generazione ... cosa ke nvidia non ha mai fatto.
cmq a partire dai prossimi driver dovrebbe poter essere utilizzato in maniera normale.
>nVidia in + ha solo gli shaders 3.0 che non userà mai nessuno da qua fino al 2006
Concordo, ma meglio avere una cosa che 'duri' nel tempo piuttosto che non averla proprio, no =) ?
appunto. E viste le prestazioni delle skede video nvidia in farcry non penso proprio ke dureranno nel tempo (a meno ke non inizino a mandare a putt... la qualità dell'immagine)
>...è ancora necessario aggiungere altro?
Si, ho una 9800pro ma la prossima dovrebbe essere una 6800gt ;)
contento tu.... a quanto la vendi la 9800 pro? ;)
Originariamente inviato da ballero
Io direi che lo era ... un'ottima minestra. Lo era.
Sai cosa me lo fa credere?
Il fatto che per essere competitivi con una scheda da 400mhz siano stati costretti a cloccare al limite X800 introducendo ottimizzazioni su ottimizzazioni nei filtri.
ottimizzazioni sui filtri??? qualcosa che rende all'occhio la stessa cosa ma che fa andare di più la scheda ti sembra un male??
tirata al limite l'X800?? hanno fatto già prove in overclock? sicuro che sia al massimo e che nn sale nemmeno più di 10mhz? hanno già fatto un confronto efficienza? sicuri che per essere sopra servivano quei mhz in più?? queste sono considerazioni da fare con schede già sul mercato , nn adesso , che ci sono solo sample in giro per il mondo. almeno imho.
Originariamente inviato da dwfgerw
io ripeto:
non hanno tutti i torti, la stessa minestra di due anni fa....
nn sai dire altro?? :confused:
Originariamente inviato da Dark Schneider
Ma se per questo allora dovrebbero farseli tutte due. E' sinceramente personalmente metto entrambi sul medesimo piano anche in questo. Non più uno dell'altro.
Questo si , ma vedo più clamorose quelle di nVidia ora come ora....credo che sbagli di più l'azienda che tira fuori ste slide pur essendo nel torto ....piuttosto quella che lo fa quand'è nella ragione.....
^TiGeRShArK^
26-05-2004, 14:16
Originariamente inviato da ballero
Io direi che lo era ... un'ottima minestra. Lo era.
Sai cosa me lo fa credere?
Il fatto che per essere competitivi con una scheda da 400mhz siano stati costretti a cloccare al limite X800 introducendo ottimizzazioni su ottimizzazioni nei filtri.
a me sembra più ridicolo ke nvidia x essere competitiva abbia bisogno di 65 miliioni di transistor in più dissipando 20W-25W in più rispetto alla rivale ke consuma addirittura MENO delle skede di vekkia generazione.
Per quanto riguarda i filtri .... secondo te nv40 ke sistema di filtraggio usa??? nel caso non lo sapessi ti informo ke ha SPUDORATAMENTE copiato il sistema di anti-aliasing e di AF filtering di ati.
ATI ovviamente non è stata a guardare e ha introdotto un notevole miglioramento portando anke a queste nuove skede il sistema di filtraggio adattativo del trilineare ke era stato sperimentato con successo nella serie 9600, SENZA ke nessuno sollevasse il benchè minimo dubbio sulla qualità (cosa d'altronde impossibile dato ke le due implementazioni danno risultati assolutamente identici...)
E con tutto ciò ancora nvidia sta PESANTEMENTE dietro ad ATI nei gioki ke contano di + (farcry) ke sono rappresentativi di quelli futuri (kome oramai ho ripetuto decine di volte, ma c'è ancora gente ke fa orecchie da mercante....)
Per il fatto che ati sta riscrivendo il driver open-gl da zero....speriamo solo che nn sono come i primi catalyst! Ci hanno messo un anno per andare al 100% sul 90% dei giochi!(chiaro che ora sono attimi driver cmq,ma acnhe xke sono anni che li creano ;))!
Per il resto:come han detto quesi tutti,e solo markting tutto cio(anche ati l'ha fatto come ha detto qlcn qualche post sopra nel suo sito)...si sta solo continuando a postare dei mess da stadio infantili! MAmma che p@lle :rolleyes: !
bye
Originariamente inviato da ballero
perche' non essendo in un regime di monopolio l'offerta di Ati deve rimanere al passo con l'offerta dell'avversario.
mi pare che l'offerta di ATi sia al passo e anche leggermente davanti a quella di nVidia.....nn è che ATi deve stare al passo , casomai l'inverso....
un progetto di due anni fa che ancora regge ! beh mica male (nonostante la noia del panorama video)..eppure quando c'è stato da stare al passo con il mercato ATi mai si è tirata indietro , sin dall'R200.....che poi nn ha retto con le GF4Ti....ok.....ma dopo ATi si è rimboccata le maniche e ha tirato fuori un popò di chip come l'R300.....che con i giusti potenziamenti tiene testa persino ai nuovi chip nVidia.....
Originariamente inviato da ^TiGeRShArK^
nel caso non lo sapessi ti informo ke ha SPUDORATAMENTE copiato il sistema di AF filtering di ati.
Questa chi te l'ha detta claudio bisio?!?:confused:
Ma perfavore.....nvidia ha un Af superiore e un AA inferiore,che puo copiare il secondo ok,ma per il primo!
E come se te a scuola in un compito fai un compito meglio di un tuo amico e poi lo scambi....:muro: !!
Ps. E cmq nvidia usa l'algortimo di 3dfx....anche se ancora nn ha capito bene come funziona:mc:
Originariamente inviato da seccio
un progetto di due anni fa che ancora regge ! beh mica male (nonostante la noia del panorama video)..eppure quando c'è stato da stare al passo con il mercato ATi mai si è tirata indietro , sin dall'R200.....che poi nn ha retto con le GF4Ti....ok.....ma dopo ATi si è rimboccata le maniche e ha tirato fuori un popò di chip come l'R300.....che con i giusti potenziamenti tiene testa persino ai nuovi chip nVidia.....
l'unica cosa giusta e questa....ati ha fatto un gran lavoro con r300,e che piaccia o no ad nvidia campa ancora con quella(vedi 9800pro e xt e r420)!
Poi che nvidia spari qualche ca@@ata tra i suoi dipendenti e la "metta" in giro per farsi pubblicita ci sta,come gia detto l'ha gia fatto anche ati,cosi come llo fanno tutte le aziende,dalla fabbrica di 10 operai alle multinazionali piu grosse :muro: !
bye
Originariamente inviato da seccio
Questo si , ma vedo più clamorose quelle di nVidia ora come ora....credo che sbagli di più l'azienda che tira fuori ste slide pur essendo nel torto ....piuttosto quella che lo fa quand'è nella ragione.....
Cio che dici e giusto.....ma nvidia ha un motivo valido cmq per farlo:secondo te quanti siamo a conoscere realmente le vere capacita delle innovazioni informatiche che escono ogni mese?!? Secondo me neanche il 10% (vedi i p4 che costavano di piu ma vendevano di piu xke cera scritto 3GHZ) degli italiani(ossia solo quelli che frequentano forum et similar) ed e cosi per ogni paese! E vuoi mettere vendere il tuo prodotto al 10% degli utenti o al 90%?!? Questo 90% nn guarda bench etc(nn sa manco cosa sono),e si fida dei numeri e di cio che dice un produttore ;)! Ci ricava quindi parecchio di piu credo,ed xcio solo la classica mossa commerciale!
Theradin
26-05-2004, 14:29
questo tifo da stadio a volte mi lascia stupefatto ....Ati e Nvidia sono due grandi aziende che entrambe mirano al profitto , voglio vendere i loro prodotti e che non fanno altro che tirarsi adosso a vicenda .... entrambe non regalano niente a nessuno e ne tanto meno agli utenti ....c'è poi da considerare che noi " esperti " (che seguiamo l'ambiente insomma ) siamo cmq una minoranza e che alla maggior parte della gente non importa la "condotta morale" delle due aziende , quindi , IMHO , visto che a sapere di queste slide siamo relativamente in pochi alla fine per Nvidia non è stata una mossa che gli si è ritorta contro , boh io la vedo così:)
ciauz
Cmq la "minestra riscaldata" dell'ati supporta il "3DC", cosa chiesta a gran voce da tutti i gruppi di programmazione piu' famosi e sembra che sia molto piu' utile delgli Shader3.0!! Come mai sulla slider non l'hanno scritto?? "Loro hanno il 3dc e noi ci attacchiamo"!!! Anche perche' a parere di molti solo l'unreal engine supportera' per primo gli shader 3.0, ma richiede una scheda grafica da 1gb di ram, quantita' di ram inutile se si dispone delle 3dc!!!
majin boo
26-05-2004, 14:31
Originariamente inviato da seccio
io sono principalemente DELUSO da tutto il panorama delle schede video , perchè condivido l'idea di nVidia che cmq innovazioni praticamente meno che ZERO....
perchè scusa, un quasi raddoppiamento delle prestazioni da r360 a r420 e da nv3X a nv40 ti pare poco come innovazione?oltretutto con pochi o nessun gioco in grado di sfruttare al max. queste potenzialità?ma che cosa pretendi?una scheda che ti faccia gli ologrammi?
;)
p.s. "x800 is just a 9800 in steroids":D troppo divertente!e questa la chiamate verità?? (ovvio, senza nulla togliere a quella bellissima scheda che è la 6800)
Originariamente inviato da signo3d
Questa chi te l'ha detta claudio bisio?!?:confused:
Ma perfavore.....nvidia ha un Af superiore e un AA inferiore,che puo copiare il secondo ok,ma per il primo!
E come se te a scuola in un compito fai un compito meglio di un tuo amico e poi lo scambi....:muro: !!
Ps. E cmq nvidia usa l'algortimo di 3dfx....anche se ancora nn ha capito bene come funziona:mc:
bisio?? no no ...leggi qua:
Rispetto alle schede NV3x, questo nuovo processore grafico è in grado di applicare un filtro anisotropico a sedici sample, esattamente come le schede basate su R3x0 e RV3x0.
http://www.hwupgrade.it/articoli/1004/15.html
nn è nemmeno molto lontano cmq lo dice chiaramento.
DioBrando
26-05-2004, 14:41
Originariamente inviato da ballero
Io direi che lo era ... un'ottima minestra. Lo era.
Sai cosa me lo fa credere?
Il fatto che per essere competitivi con una scheda da 400mhz siano stati costretti a cloccare al limite X800 introducendo ottimizzazioni su ottimizzazioni nei filtri.
le prestazioni e le recensioni indicano un sostanziale equilibrio fra le schede ATI che sn avvantaggiate nell'uso dei filtri e quelle Nvidia superiori nella gestione dell'OpenGL
quindi perchè "era"?
e cmq io sinceramente preferisco vedere ottimizzati gli algoritmi che vedere la frequenza alzarsi come facevano le 5900XT o le Ultra per poter stare al passo con la concorrenza
Originariamente inviato da majin boo
perchè scusa, un quasi raddoppiamento delle prestazioni da r360 a r420 e da nv3X a nv40 ti pare poco come innovazione?oltretutto con pochi o nessun gioco in grado di sfruttare al max. queste potenzialità?ma che cosa pretendi?una scheda che ti faccia gli ologrammi?
;)
p.s. "x800 is just a 9800 in steroids":D troppo divertente!e questa la chiamate verità?? (ovvio, senza nulla togliere a quella bellissima scheda che è la 6800)
stai scherzando spero?? nn riesco a capire come potete dire che queste schede sono innovative.
Nessun algoritmo migliorato , nessuna nuova funzione fondamentale, nessun miglioramento sui filtraggi e sulla loro efficienza.
ste schede hanno qualche features in più e qualche cavallo in più (pipelines)..questa io nn la chiamo innovazione....
tanto per farti un paragone io considero innovativo e rivoluzionario l'R300 in confronto all'R200!
Originariamente inviato da Kaiman
Come mai sulla slider non l'hanno scritto?? "Loro hanno il 3dc e noi ci attacchiamo"!!!
Il 3dc e' solo una miglioria ad un sistema di compressione, il DXT5, gia' esistente da tempo.
Originariamente inviato da seccio
bisio?? no no ...leggi qua:
Rispetto alle schede NV3x, questo nuovo processore grafico è in grado di applicare un filtro anisotropico a sedici sample, esattamente come le schede basate su R3x0 e RV3x0.
http://www.hwupgrade.it/articoli/1004/15.html
nn è nemmeno molto lontano cmq lo dice chiaramento.
Be ma dice come lo applica....nn il risultato finale(ossia all'occhio),me lo sono letto cmq e dice poi che il trilineare e migliore quello di ati(visivamente quidni),ma nn mi sembra dica che l'af(successore del trilineare) sia migliore lo stesso in qualita!
Quello che volevo intendere cmq e fino alle scorse generazioni una tra le poche cosa chiare tra nvidia a ati era che la prima applicava un miglior af,mentre la secondo un notevolemte migliore AA
Per majin boo
Guarda che un raddoppio di prestazioni nn significa innovazione :O !!! E come truccare una macchina per dire,e questo che vuole dire seccio(credo :p)!
Vabbe,ora vado a studiare:muro:
^TiGeRShArK^
26-05-2004, 15:05
"Unfortunately, it seems like NVIDIA will be switching to a method of calculating anisotropic filtering based on a weighted Manhattan distance calculation. We appreciated the fact that NVIDIA's previous implementation of anisotropic filtering employed a Euclidean distance calculation which is less sensitive to the orientation of a surface than a weighted Manhattan calculation."
"The advantage is that NVIDIA now has a lower impact when enabling anisotropic filtering, and we will also be doing a more apples to apples comparison when it comes to anisotropic filtering (ATI also makes use of a weighted Manhattan scheme for distance calculations)"
FONTE: ANANDTECH
non mi risulta ke il signor bisio lavori lì....
e cmq prima di sparare caxxate INFORMATI!!!
c'è gente ke ne sa + di te, ma non va in giro a chiedere agli altri se hanno seguito un corso serale allo zelig x sparare certe minxiate!!!!
Nino Grasso
26-05-2004, 15:10
qualsiasi cosa faccia nVidia per molti in questo forum è merda, qualsiasi cosa faccia ATi è oro... ma dai... il temporal AA non volevano fosse scoperto che funzionasse con le R3x0... l'hanno scoperto e ora ATi: "noi ci impegniamo anche per un profitto delle scorse generazioni di GPU" e voi tutti abbindolati sotto le loro parole... ATi non voleva che fosse scoperto il raggiro (solo di questo mi viene da pensare) dell'af (falsando tutti i bench fin'ora apparsi) utilizzando stavolta le scuse che utilizzavo io con mia mamma quando avevo 6 anni che facevo qualche cazzata: "me lo sono dimenticato, puffunghè"... dai ragazzi... non voglio cmq dire che da parte sua nVidia è na santa... anche nVidia si comporta come me quando avevo 6 anni dicendo al pubblico: "è stata colpa sua" indicando i difettucci delle nuove R420.. solo che qua dentro si danno solo le colpe a nVidia, e quelle di ATi vengono tracciate come caratteristiche positive... maddai!
Poi io tutta sta gran differenza fra NV40 e R420 non la vedo... se proprio voglio indicare dove ci sta la differenza è nell'OpenGL, in cui si vede un reale gap prestazionale a favore di nVidia, ma ATi sta ricompilando il codice quindi si spera che venga migliorato...
^TiGeRShArK^
26-05-2004, 15:10
EDIT
majin boo
26-05-2004, 15:11
Originariamente inviato da seccio
ste schede hanno qualche features in più e qualche cavallo in più (pipelines)..questa io nn la chiamo innovazione....
tanto per farti un paragone io considero innovativo e rivoluzionario l'R300 in confronto all'R200!
Originariamente inviato da signo3d
Guarda che un raddoppio di prestazioni nn significa innovazione :O !!! E come truccare una macchina per dire,e questo che vuole dire seccio(credo :p)!
Vabbe,ora vado a studiare:muro:
be, in parte sono d'accordo con voi e ho usato un termine sbagliato parlando di innovazione. quel che voglio dire, come seccio aveva sottolineato, è che si tratta in ogni caso di derivazioni da ottime architetture (specialmente ati). bisogna considerare che attualmente forse non c'è questa necessità di profonde innovazioni a livello rendering, filtri etc..soprattutto considerando che una "vecchia" 9800xt ne ha da vendere per tutto il mercato gaming disponibile e probabilmente per il prossimo futuro.
imho ati e nvidia hanno già fatto un bel passo raddoppiando le prestazioni
ciao!
Oh e calmi =) Zelig e' leggermente OT ;P
>In farcry, ke è l'unico gioco attuale [...]
Beh ... recentemente ho letto questo, e tu ? :)
"Far Cry has turned out to be the game of the moment, satisfying both the pixel whores and those who actually enjoy playing games rather than just staring at the eye candy. The good news is that details of the forthcoming v1.2 patch have now been announced, and it should satisfy both of the groups I just mentioned, seeing as it contains not only a whole host of bugs and gameplay fixes, but also 3.0 shader model support and the addition of virtual displacement mapping."
>la x800 xt consuma addirittura MENO della 9800 xt,
[cut]
>col doppio molex di nv40..... decisamente masokisti
Il problema maggiore sai qual'e' ? Che si parla sempre per partito preso ^^; ! La GT ha bisogno di un molex. A me basta sapere questo ;) Non cambia nulla dalla 9800pro giusto (sempre un molex e') ?
Come ? 20Watt in piu' (forse sulla ultra... sulla GT saranno meno) ? Beh ok c'ho l'Enermax 460W, finalmente lo spremo un po' LOL !
>vedi sopra... se una skeda dissipa meno watt, allora
[cut]
più silenzioso.... sono scelte progettuali diverse...
Qui ti sei un po' contraddetto, visto che sul campo si e' dimostrato che la X800 riscalda molto, adesso punti sul sistema dissipante inadeguato. Sono cmq entrambi molto silenziosi m'e' sembrato di capire (a parte all'accensione del computer).
Vabbe' fa nulla. Non sto polemizzando ci tengo a precisare ^_^;
>Immensa castroneria. è stato smentito ufficialmente da ati
Ah beh se lo negano loro ... allora siamo tutti tranquilli =)
Dai, tu postresti confermare una magagna che ti si ritorce contro ?
E' stato (purtroppo) dimostrato che un fondo di verita' su questa storia c'e' eccome. Se poi tu, sempre per partito preso, vuoi difendere ATI a ogni costo, beh non saro' certo io a contraddirti ;)
Tanto nella realta' non cambiera' nulla se mi riesci a convincere di aver ragione o viceversa eheh
>è già utilizzabile ad oggi anche con tutte le r300
[cut]
>essere utilizzato in maniera normale.
E qua onestamente la risposta 'maligna' e' semplice, e l'hanno gia' data sopra (siccome e' stato scoperto questo tweak, adesso lo metteranno nei driver e si faranno belli "hey noi pensiamo anche alle schede precedenti !" ^_^
Ma non vogliamo pensare male vero ? (In effetti in questo caso nemmeno io...).
Cmq ok, appena escono i Catalyst nuovi col supporto lo vedro' anche io 'sto filtro (ho la 9800 pro ricordi ? eheh)
>contento tu.... a quanto la vendi la 9800 pro?
Gia' e' prenotata per 270 euro qua nel mio paesino ;)
Quasi quanto l'ho acquistata ... eheh.
So' furbo eh ?
leoneazzurro
26-05-2004, 15:33
Originariamente inviato da Kaiman
Cmq la "minestra riscaldata" dell'ati supporta il "3DC", cosa chiesta a gran voce da tutti i gruppi di programmazione piu' famosi e sembra che sia molto piu' utile delgli Shader3.0!! Come mai sulla slider non l'hanno scritto?? "Loro hanno il 3dc e noi ci attacchiamo"!!! Anche perche' a parere di molti solo l'unreal engine supportera' per primo gli shader 3.0, ma richiede una scheda grafica da 1gb di ram, quantita' di ram inutile se si dispone delle 3dc!!!
Questo perchè con gli Shader 3.0 non hanno bisogno del 3dc. Quello che si fa col 3dc(normal map)+shader 2.0 si fa con gli shader 3.0.
Comunque basta con questo tifo da stadio che sinceramente ha un pò stufato. "ATI va meglio", "ATI non è innovativa" o viceversa li abbiamo sentiti fin troppo. Entrambe sono ottime schede con i loro punti di forza e le loro debolezze, entrambe fanno girare più che decentemente anche i giochi più "duri" a meno di non andare a usare settaggi di 1600x1200 con AA 4x e AF 8x (e voglio vedere quanti hanno in casa un buon monitor 21" in grado di garantire una buona resa a queste risoluzioni). Insomma, dateci un taglio, che ognuno si compra la scheda che gli piace di più.
^TiGeRShArK^
26-05-2004, 15:35
allo stato attuale a parità di qualità non c'è paragone come prestazioni tra x800 e nv40... in futuro vedremo, ma x ora ci si basa su quello ke si ha a disposizione...
x quanto riguarda il calore non vedo dove sta la contraddizione ... se una skeda dissipa di + semplicemente riscalda di + .... altrimenti dove vanno a finire i watt dissipati? ;)
ottimizzazione del trilineare... se ne è discusso già tanto sul forum e mi pare ke alla fine era venuto a galla una cosa sicura: ke non si tratta assolutamente di un cheating ... e cmq io non sto a sentire ati, sto a leggere TUTTI i siti di recensioni ke non hanno MAI riportato una perdita della qualità nel AF dalle 9600 fino ad oggi.....
x il temporal mi pare ke non ci sia niente da dire .... i possessori di r300 e r420 lo potranno usare i possessori di nv30,nv35 e nv40 no.....
P.S. Ma 6 un ladro!!! vendere a 270€ una 9800 pro!!! ;)
^TiGeRShArK^
26-05-2004, 15:40
mi sa ke ti stai confondendo un pò leoneazzurro.....
3dc != normal map....
il 3dc è un meccanismo di compressione (lossless se non sbaglio) delle normal map.
prima delle 3dc c'erano due possibilità x l'utiizzo delle normal map: usarle non compresse (con un notevole spreco di spazio in memoria) o utilizzarle compresse con tecniche tradizionali con una perdità di qualità abissale.
Si parlava x l'uso dell'unreal engine 3 di fino ad 1 gb di memoria per la skeda video.... se ciò fosse vero sarebbero sufficienti delle skede ke supportino le 3dc con una memoria di 256mb data LA COMPRESSIONE 4:1.
leoneazzurro
26-05-2004, 15:46
Non mi sto confondendo, ho detto (normal map) perche' l'effetto finale e' quello di poterle usare in pratica, mentre fino ad oggi lo si era evitato a causa del degrado di prestazioni che con i metodi tradizionali di compressioni, come hai detto tu, affliggono questa tecnica.
^TiGeRShArK^
26-05-2004, 15:58
si ma le skede nvidia non potranno utilizzarle perchè non supportano alkun algoritmo di compressione comparabile alle 3dc... invece ati, senza alcun bisogno di supportare gli shader 3 le potrà utilizzare....
leoneazzurro
26-05-2004, 16:09
La Nvidia con gli shader 3.0 non ha alcun bisogno di utilizzare normal map per ottenere gli stessi effetti e ritengo (ma un programmatore 3D ne saprà più di me) con meno utilizzo di risorse. Concordo che si dovranno usare due path differenti (uno per 2.0 + uno per 3.0), ma ciò non toglie che i programmatori dovranno comunque dire alle schede nel path 2.0 di utilizzare le normal map, inserirle nei loro giochi, ecc. Non è che sui giochi esistenti che non le prevedevano fin dall'inizio d'un tratto appariranno le normal map, piuttosto in quelli futuri potranno essere inserite. Visto che comunque non credo che gli sviluppatori non scriveranno path 3.0 nei loro giochi futuri, non credo ci siano sostanziali vantaggi dall'una o dall'altra parte.
Originariamente inviato da Dark Schneider
Scusate ragà ma ve li ricordate le slide Ati di alcuni mesi fa destinate al Pr Ati in una presentazione della scheda? Erano simili a queste "noi abbiamo questo....loro non possono farlo" "noi abbiamo questa cosa qui...loro no" oltre che a delle battutine sul concorrente e prodotti del concorrente. E' naturalmente nVidia fa uguale cosa credevate?
Se stai parlando del pdf di Richard Huddy intitolato "Save the nanosecond" è meglio che te lo vai a rileggere.
Ovviamente alla nvidia non possono screditare la ati in modo diretto così utilizzano questi mezzucci per girare attorno al problema..
Se non è un modo diretto questo...
^TiGeRShArK^
26-05-2004, 18:50
a quanto ne so io nvidia se vuole ottenere la stessa qualità delle normal map DEVE utilizzare le normal map, non c'è shader 2.0 o 3.0 ke tenga....
le normal map non sono altro delle mappe ke contengono le informazioni delle differenze tra un modello ad alta risoluzione della scena e il modello renderizzato nel gioco a bassa risoluzione. x questo ritengo ke non ci sia nessuna tecnica capace di emulare l'uso delle normal map....
cmq x maggoir sicurezza invokiamo il sommo:
FEEEKKKK!!!!! ABBIAMO BISOGNO DI TE!!!! ;)
leoneazzurro
26-05-2004, 19:21
No, le normal map sono appunto delle "mappe" che contengono le informazioni sulle altezze delle varie parti della texture rispetto al piano di riferimento (normal in questo caso sta per perpendicolare) e quindi servono per creare delle texture con effetto di "profondità" come ad esempio le scaglie sul dorso di rettili, superfici rugose, ecc. Con gli shader 3.0 si può programmare senza troppi problemi (a quanto ho letto su alcuni siti) l'environmental bump mapping a livello di pixel (che è una tecnica che ottiene lo stesso scopo).
cdimauro
26-05-2004, 22:18
Se non erro 3Dc permette di ottenere un rapporto di compressione di 8:1. Comunque non credo che sia lossless, perché il fattore di compressione è troppo elevato...
^TiGeRShArK^
26-05-2004, 22:37
e perchè ke ho detto io leoneazzurro riguardo alle normal map?:confused:
non sono altro ke le informazioni riguardanti le differenze tra un modello ad elevata risoluzione ed uno a bassa risoluzione...
l'unica cosa ke tu hai specificato è ke queste informazioni non sono altro ke le normali ... ma mi pareva superfluo visto ke lo dice il nome stesso....
ma mi spieghi su quali dati applichi l'environmental bump mapping???
finchè hai questi dati dalle normal map mi pare giusto ke tu lo puoi applicare, ma senza questi dati cosa fai???
l'unica soluzione sarebbe creare un algoritmo ke "mimi" i dettagli delle texture .... ma a quanto ne so gli unici algoritmi ke fanno qualcosa di simile sono quelli x le texture procedurali .... in pratica creano una texture, ke può essere marmo, legno, & co. tramite delle formule matematiche.
Però questa tecnica già non va bene per tutti i tipi di texture (se non sbaglio non è applicabile ai muri di mattoni ad esempio), ed inoltre non penso si possa applicare in maniera tanto immediata per la creazione di "normal map procedurali"....
cmq ancora sono in attesa dell'opinione di .... FEEEKKKKK!!!!!
^TiGeRShArK^
26-05-2004, 22:45
"In order to facilitate a high level of continuity, 3Dc divides textures into four by four blocks of vector 4 data with 8 bits per component (512bit blocks). For normal map compression, we throw out the z component which can be calculated from the x and y components of the vector (all normal vectors in a normal map are unit vectors and fit the form x^2 + y^2 + z^2 = 1). After throwing out the unused 16 bits from each normal vector, we then calculate the minimum and maximum x and minimum and maximum y for the entire 4x4 block. These four values are stored, and each x or y value is stored as a 3 bit value selecting any of 8 equally spaced steps between the minimum and maximum x or y values (inclusive). The resulting compressed data is 4 vectors * 4 vectors * 2 components * 3 bits + 32 bits (128 bits) large, giving a 4:1 compression ratio for normal maps with no discontinuities."
stando a quanto dice anandtech la compressione 3dc è lossy con ratio 4:1, mi ero confuso col fatto che la compressione è costante, cioè agisce sempre con ratio 4:1, ke non a niente a che vedere con la compressione lossless :p
leoneazzurro
26-05-2004, 23:01
[QUOTE]Originariamente inviato da ^TiGeRShArK^
e perchè ke ho detto io leoneazzurro riguardo alle normal map?:confused:
non sono altro ke le informazioni riguardanti le differenze tra un modello ad elevata risoluzione ed uno a bassa risoluzione.
No, non c'entra la risoluzione, c'entra la rappresentazione "3D" delle texture. Invece di avere delle texture "piatte" hai dei modelli "tridimensionali" delle texture stesse, a prescindere dalla risoluzione.
Di questo sono sicuro.
In pratica le due tecniche (se ho capito bene) differiscono perchè la normal map viene prima "applicata" alla texture che successivamente viene "spalmata" sui poligoni. Invece i PS 3.0 possono operare la cosa in un solo "passaggio".
;a non sono un programmatore 3D, quindi potrei stare dicendo (per quest'ultima parte) una corbelleria.
cdimauro
27-05-2004, 06:58
Ricordavo che fosse 8:1 e non 4:1. Comunque, con questi rapporti di compressione, non poteva che essere lossy... ;)
^TiGeRShArK^
27-05-2004, 11:26
miii leoneazzurro!!!
mi spieghi ki ha parlato di risoluzione di texture???
io ti parlavo di risoluzione del MODELLO!!!
secondo te come fai a ricavare la normal map se non fai la differenza tra un modello di un personaggio con un milione di poligone e lo stesso modello con 10000 poligoni??? le differenze saranno semplicemente date dal fatto ke il modello a bassa risoluzione ha pochi dettagli, mentre quello ad alta risoluzione ha un numero elevato di dettagli.... quindi facendo questa benedetta differenza si ottengono tutti i dettagli ke sono presenti nel primo modello ma non nel secondo....
Spero di essermi spiegato finalmente....
cmq a quanto ne so io non sono necessari gli shader 3 per farlo, dovrebbero bastare gli shader 2.0+ di ati, e infatti, il demo ruby è fatto proprio sfruttando le normal map e questi shader 2.....
leoneazzurro
27-05-2004, 12:44
Si, evidentemente non ci eravamo capiti.
Comunque quello che volevo dire io è che tu puoi fare quello che fa Ati con gli shader 2.0+normal map lo puoi fare con nVIDIA e gli shader 3.0 applicando l'effetto profondità a livello di pixel shader anzichè a livello di texture.
Cmq vorrei far notare...:D che anche in questa generazione di schede Nvidia aveva una revisioen piu' performante degli shader: i 2.0+ :D che a detta di nvidia erano anni luce piu' performanti delgli shader 2.0 semplici....ma nessuno li ha mai usati!!! E la storia si ripete!! ;)
Perchè i giochi attuali non usano shaders più lunghi di una 40ina di righe di codice, cosa affrontabile anche con le versioni normali dei PS 2.0 senza più.
Ovviamente si possono scrivere anche shaders corti che mandano in crisi sia NV3x che R3x0 ma questo è un altro discorso (mi riferisco a quanto detto da fek tempo fa).
leoneazzurro
27-05-2004, 16:01
Più che discorso di performances, i 2.0+ avevano semplicemente più features rispetto ai 2.0 normali (numero di istruzioni maggiore, ecc.)
Quindi non hai letto quello che ho detto :)
leoneazzurro
27-05-2004, 16:27
Si, ho letto, ma precisavo solo che 2.0+ non indica una versione ad alta velocità dei 2.0, bensì una versione con le stesse feature, ma estese (e che in certi casi può essere più veloce del 2.0 normale, ma in generale non è detto). :) E' più o meno quel che hai detto tu, ma un pò più in dettaglio. :)
PS: (Per chi non lo avesse capito i PS-VS 3.0 invece hanno più features dei PS-VS 2.0-2.0+)
Ah, ok. Ora ho capito cosa intendevi :)
Originariamente inviato da leoneazzurro
Questo perchè con gli Shader 3.0 non hanno bisogno del 3dc. Quello che si fa col 3dc(normal map)+shader 2.0 si fa con gli shader 3.0.
Hmmm no. Il 3dc e' un metodo di compressione delle normal map (non solo in realta', e' un metodo di compressione di qualunque matrice di coppie di valori reali). Si puo' ottenere un risultato simile, ma leggermente peggiore, usando la compressione DXT5. Il risultato poi puo' essere usato sia con ps2.0 sia ps3.0.
Il 3dc e' solo un aiuto che viene dato dalla GPU, in realta' non e' qualcosa che non puo' essere fatto altrimenti, non e' una totale innovazione.
Originariamente inviato da leoneazzurro
La Nvidia con gli shader 3.0 non ha alcun bisogno di utilizzare normal map per ottenere gli stessi effetti e ritengo (ma un programmatore 3D ne saprà più di me) con meno utilizzo di risorse. Concordo che si dovranno usare due path differenti (uno per 2.0 + uno per 3.0),
Piano... le normal map si usano sia con ps2.0 sia con ps3.0, e' un modo di codificare le caratteristiche luminose si una superficie. Poi si possono elaborare questi dati con uno o l'altro modello di shader, ma questi dati in ingresso servono comunque.
Non posso scrivendo un ps3.0 far finta di avere una normal map che non ho.
Originariamente inviato da ^TiGeRShArK^
FEEEKKKK!!!!! ABBIAMO BISOGNO DI TE!!!! ;)
Arrivo arrivo :D
Originariamente inviato da leoneazzurro
No, le normal map sono appunto delle "mappe" che contengono le informazioni sulle altezze delle varie parti della texture rispetto al piano di riferimento (normal in questo caso sta per perpendicolare) e quindi servono per creare delle texture con effetto di "profondità" come ad esempio le scaglie sul dorso di rettili, superfici rugose, ecc. Con gli shader 3.0 si può programmare senza troppi problemi (a quanto ho letto su alcuni siti) l'environmental bump mapping a livello di pixel (che è una tecnica che ottiene lo stesso scopo).
Quella e' un height map ;)
Una normal map memorizza per ogni texel un vettore normale alla superficie. La sensazione di rugosita' e' data dal fatto che questa normale non e' esattamente quella del triangolo sul quale il pixel si appoggia, ma varia ad una frequenza piu' alta.
Originariamente inviato da cdimauro
Ricordavo che fosse 8:1 e non 4:1. Comunque, con questi rapporti di compressione, non poteva che essere lossy... ;)
4:1 non lossy.
Originariamente inviato da leoneazzurro
Si, evidentemente non ci eravamo capiti.
Comunque quello che volevo dire io è che tu puoi fare quello che fa Ati con gli shader 2.0+normal map lo puoi fare con nVIDIA e gli shader 3.0 applicando l'effetto profondità a livello di pixel shader anzichè a livello di texture.
E da dove prendi i dati che descrivono la "profondita'" del modello? ;)
Originariamente inviato da fek
4:1 non lossy.
Correzione. 4:1 lossy.
leoneazzurro
27-05-2004, 20:59
OK, mi cospargo il capo di cenere. Sigh.
cdimauro
28-05-2004, 06:29
No: abbiamo semplicemente imparato qualcosa di nuovo. :)
Originariamente inviato da ^TiGeRShArK^
"Unfortunately, it seems like NVIDIA will be switching to a method of calculating anisotropic filtering based on a weighted Manhattan distance calculation. We appreciated the fact that NVIDIA's previous implementation of anisotropic filtering employed a Euclidean distance calculation which is less sensitive to the orientation of a surface than a weighted Manhattan calculation."
"The advantage is that NVIDIA now has a lower impact when enabling anisotropic filtering, and we will also be doing a more apples to apples comparison when it comes to anisotropic filtering (ATI also makes use of a weighted Manhattan scheme for distance calculations)"
FONTE: ANANDTECH
non mi risulta ke il signor bisio lavori lì....
e cmq prima di sparare caxxate INFORMATI!!!
c'è gente ke ne sa + di te, ma non va in giro a chiedere agli altri se hanno seguito un corso serale allo zelig x sparare certe minxiate!!!!
Be sinceramnete visto che ho da studiare come un assassino nn mi va di perder tempo venendo a sparare ca@@ate qui sul forum :rolleyes: ....e cmq che ce gente che ne sa piu di me d'accordissimo(tipo per quanto riguarda l'ultimo argomento diciamo che ne ho capito pochino :muro: ) e quindi nn mi esprimo su cio che nn so,ma solo su cio su cui sono sicuro o quasi(te invece sembri di saper tutto,be buon per te,ma t ricordo che socrate diceva "So di nn sapere" !! ;)
E cmq ciccio (e 100) nn mi sembra di aver mai detto che nvidia va piu veloce di qua o di la con l'Af, ma che con questo filtro on si nota una migliore qualita(nel campo riguardante l'af) mentre ati si avvantaggia nella qualita e nella velocita con l'AA. Frase che esclude categoricamente il fatto che possa tifare per una o per l'altra sponda. Mentre te invece con questa frase lasci intendere benissimo di che tifoseria sei Originariamente inviato da ^TiGeRShArK^
allo stato attuale a parità di qualità non c'è paragone come prestazioni tra x800 e nv40...
Ah,e poi sicneramente,anche se potessi avere sbagliato,apparte la battuta nn t ho detto nient'altro(e nn come te che dici che sparo ca@@ate)! e cmq per tornare al discorso di prima a quello che so e che ho letto nvida ha copiato il metodo di applicazione del filtro per guadagnare in velocita,nn per la qualita! Sul fatto come dicevi che l'ha copiato spudoratamente,se t riferisci appunto nel modo di applicazione delle ultime gpu d'accordo,ma dalla tua prima affermazione sembra che nvida ha sempre copiato tutti i filtri da ati,e qui scusa ma mi vien da ridere:D !!
bye
Per l'ultima considerazione ho riletto il tuo post,e si capisce invece che parli SOLO di nv40 Originariamente inviato da ^TiGeRShArK^
Per quanto riguarda i filtri .... secondo te nv40 ke sistema di filtraggio usa??? nel caso non lo sapessi ti informo ke ha SPUDORATAMENTE copiato il sistema di anti-aliasing e di AF filtering di ati. percio scusa ma su questa cosa nn posso fare altro che ammettere il mea culpa! :O
Rimane il fatto pero che se una persona completamebte fuori in conoscenze su sto argomento si legge il tuo reply,deduce che che tutto il metodo di applicazione di nvidia e una fotocopia di quello di ati.....il punto e che t esprimi un po troppo di parte.....se tornassi un po obiettivo magari si risucirebbe a parlare un po piu normalmente(visto che nei 3 anni e mezzo che son qui e che bazzico nel forum di schede video(oltre che per mie esperienze personali) di cose ne ho imparate,e di discussione su sti argomenti se ne son fatti senza mai trovare uno che mi contraddicesse,nn xke sono un sapientone,ma xke se parlo nn lo faccio per perder ne tempo ne fiato ;) )
bye
sanitarium
28-05-2004, 23:34
Originariamente inviato da ballero
Io direi che lo era ... un'ottima minestra. Lo era.
Sai cosa me lo fa credere?
Il fatto che per essere competitivi con una scheda da 400mhz siano stati costretti a cloccare al limite X800 introducendo ottimizzazioni su ottimizzazioni nei filtri.
Premesso che reputo NV40 una buona soluzione (anche se non mi va giù il fatto che ancora non sia stata chiarita la situazione FP16-32), a leggere certe cose mi sorge spontanea una domanda: se è vero che NV40 è così innovativo e tecnicamente superiore rispetto ad R420:
1- come mai di default ha il filtro anisotropico "brilineare" abilitato, anziché il trilineare (oltretutto abilitabile solo nelle opzioni avanzate, poco visibili all'utente non molto esperto)?
2- che motivo aveva NVidia di ricorrere ad un'anisotropia adattiva ripresa pari pari da R300 (e schede ATi precedenti) al posto di quella integrale che ha sempre usato fino alla serie 5X00?
Se NV40 è tanto migliore di R420, non dovrebbe avere bisogno di questi espedienti... Giusto?
In soldoni, si parla tanto dell'innovazione portata da NVidia con questo NV40, e si critica tanto ATi per le sue minestre riscaldate, quando a ben guardare:
1- il filtro anisotropico adattivo di NV40 è stato copiato palesemente da ATi;
2- l'AA di NV40 non ha la correzione gamma perché ciò toglierebbe comunque altre risorse alla scheda (ATi continua ad implementarla, ma questo non importa, no?).
Anche queste appena elencate a casa mia si chiamano "ottimizzazioni su ottimizzazioni nei filtri", ma sembrano non essere notate.
E francamente a parte la trovata degli shader 3.0 (della quale ancora sono tutti da vedere i vantaggi nel prossimo futuro) non vedo nulla che faccia gridare alla netta superiorità tecnologica di NV40 su R420, così come ovviamente non vedo il contrario.
Non so, illuminatemi voi, magari c'è qualcosa che mi sfugge.
P.S.: ATi rincorre la 6800ultra clockando al limite (?) la X800XT... Bene, prendiamo per buona questa ipotesi. Ora, per essere equi, che dire della spedizione delle 6800 Ultra Extreme ai vari recensori effettuata all'ultimo momento in fretta e furia? Questo non si chiama rincorrere? :)
Originariamente inviato da sanitarium
Premesso che reputo NV40 una buona soluzione (anche se non mi va giù il fatto che ancora non sia stata chiarita la situazione FP16-32), a leggere certe cose mi sorge spontanea una domanda: se è vero che NV40 è così innovativo e tecnicamente superiore rispetto ad R420:
1- come mai di default ha il filtro anisotropico "brilineare" abilitato, anziché il trilineare (oltretutto abilitabile solo nelle opzioni avanzate, poco visibili all'utente non molto esperto)?
2- che motivo aveva NVidia di ricorrere ad un'anisotropia adattiva ripresa pari pari da R300 (e schede ATi precedenti) al posto di quella integrale che ha sempre usato fino alla serie 5X00?
Se NV40 è tanto migliore di R420, non dovrebbe avere bisogno di questi espedienti... Giusto?
Soprattutto quando il filtro anisotropico precedente andava "forse" meglio di queste per nvidia(chiaramemte il forse è ironico xke e cmq una nuova applicazione che doveva cmq essere implementata,ma se forse continuavano a migliorare quello era meglio per ora....anche xke da come ho letto in giro nn e che lo abbia copiato tanto bene dalla ati :mc: )!
bye
dragunov
30-05-2004, 20:52
che cavolata, cmq almeno le schede ati si trovano in commercio!
andreamarra
30-05-2004, 23:37
Non capisco perchè a volte vi scannate su argomenti così "frivoli". Capisco la passione, però...
Bisogna essere obiettivi e valutare i pregi e i difetti delle due marche attualmente. Non vi rendete conto cha volte per tifoseria riuscite a dire cose che non sono assolutamente vere? Ipotizzando cose che non sono fattibili?
Io sono ancora molto indeciso tra le due schede. Potrei anche saltare generazione. E se non lo faccio e per riprendere dal mercatino i soldi della ia gloriosa ercolina.
Attualmente si sono più incognite, a mio giudizio, sulla NV40. Perchè la R420 ha molti punti di contatto con la R360.
Li ho già elencati in altri 3d, li riporto qua. Così capirete perchè non ha senso scannarsi adesso, senza avere dei test affidabili che arriveranno solo dopo l'estate. A me se la scheda x fa 3.000.000.000 fps tutto a palla a Quake non interessa. Il banco di prova deve ancora uscire, Forse l'unico è Far Cry.
-fp16: sicuramente il fp16 in Far Cry con banding è un problema degli shader del gioco, come ha detto fek.
E se non fosse così? Io la mano sul fuoco non ce la metterei.
-fp32: sia avranno delle perdite di prestazioni rispetto al più conservativo fp24 di ati?
-ps3.0: siamo sicuri che quando usciranno titoli full shader 3.0 con fp32 (obbligatoria) le prestazioni saranno migliori di un ps2.0B+fp24 di ati? Anche perchè mi sembra di aver capito che i ps3.0 servono ad avere maggiore velocità di render poichè si saltano certe istruzioni superflue. Ma il branching (che è la vera novità dei ps3.0) è una features che attualmente è sconsigliata dalla nvidia stessa ("come la peste")
-potenza di render: ognuno può dire quello che gli pare, ma da una attenta disanima dei test si evince chiaramente che in moltissimi applicativi (soprattutto quelli più recenti...) la NV40 va anche meglio della R420 a 1024*768 senza filtri. Aumentando risoluzione e filtri si vede chiaramente di come la NV40 perda colpi rispetto alla più granitica R420. E questa cosa, in ottica futura, non è una cosa da sottovalutare poichè certi giochi richiederanno a minori risoluzioni e filtri medi potenza di calcolo maggiore. In più la R420 da quello che ho capito è estremamente CPU limited. In ottica futura non può che essere decisiva.
-driver: naturale che la NV40 ha dei driver acerbi essendo una architettura nuova. Ma siamo sicuri al 100% che i programmatori riescano ad avere un incremento sostanziale? Non vorrei che si ripetesse la storia della NV3X con gli acquirenti speranzosi di driver rivoluzionari.
Poi c'è anche da considerare il 3DC che io credo che sia la "vera" rivoluzione. Tutte le varie features di NV40 non aumentano il lato qualitativo, ma quello velocistico (PS3.0, Ultra Shadows II), mentre il 3DC (se sfruttato ampiamente e non solo in alcuni giochi, altra grossa incognita) da un impatto visivo notevole senza perdite velocistiche.
Ecco perchè prima d dare più di un milione via io aspetterei.
andreamarra
31-05-2004, 13:06
.
Originariamente inviato da andreamarra
Attualmente si sono più incognite, a mio giudizio, sulla NV40. Perchè la R420 ha molti punti di contatto con la R360.
Tutto giustissimo imho,ma vorrei piu che altro quotare questa tua affermazione;) . Questa e l'unica cosa che per ora e sicura al 101%
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.