PDA

View Full Version : NV35 = NV30 riveduta?


STICK
30-03-2003, 22:28
su pcoverclock.it e' apparsa questa notizia:

"Su The Inquirer è stato pubblicato un articolo riguardante il NV35. Le notizie non sono ufficiali, quindi non si sà ancora se sono esatte.
Nell'articolo si dice che il NV35 non sarà altro che una versione del NV30 riveduta. Si dice che ci sono già esemplari di NV35 attualmente in fase di test le cui prestazioni sono superiori del 50% rispetto a quelle del GeForce FX. Le memorie torneranno a essere DDR, 128Mb a 400Mhz con bus a 256bit, perchè le DDR 2 sono costose e difficilmente reperibili."
http://www.theinquirer.net/?article=8587

Se fosse tutto vero,forse la FX la saluteremo presto per vedere al suo posto la FX2.

Hanamichi
30-03-2003, 22:30
Originally posted by "STICK"

su pcoverclock.it e' apparsa questa notizia:

"Su The Inquirer è stato pubblicato un articolo riguardante il NV35. Le notizie non sono ufficiali, quindi non si sà ancora se sono esatte.
Nell'articolo si dice che il NV35 non sarà altro che una versione del NV30 riveduta. Si dice che ci sono già esemplari di NV35 attualmente in fase di test le cui prestazioni sono superiori del 50% rispetto a quelle del GeForce FX. Le memorie torneranno a essere DDR, 128Mb a 400Mhz con bus a 256bit, perchè le DDR 2 sono costose e difficilmente reperibili."
http://www.theinquirer.net/?article=8587

Se fosse tutto vero,forse la FX la saluteremo presto per vedere al suo posto la FX2.

scusate ma io non capisco a cosa servono ste DDR2? solo per aumentare la frequenza delle ram? :eek:

uraganello
30-03-2003, 22:41
Certo però se rivisitando solo lo stesso chip si ottengono prestazioni superiori del 50%....significa che sto NV30 è veramente na ciofeca!
Mi sembra impossibile comunque, le DDR 2 saranno più costose e introvabili, ma per quanto sia sono più veloci!

Ora questi che dicono? mettono la ram più lenta, ritoccano un pò il chip e lo mandano il 50% più veloce?!?! E magari non ci vuole neanche la ventolina, anzi la turbina......bah!

STICK
30-03-2003, 22:46
il progetto NV35 poi era in previsione di essere lanciato nella fine del 2003 ma a quanto pare e' stato anticipato con grande corsa da parte di nVidia,da come si evince dallo stralcio di intervista su nvitalia:

Secondo alcune dichiarazioni rilasciate in una intervista telefonica a penstarsys.com da Mike Hara, VP of Investor Relations and Communications di nVidia, sarebbe confermata l'uscita del chip NV35, anticipata per il prossimo quadrimestr:

NVIDIA has also shown off working silicon of the NV-35 chip, and it appears to be significantly more powerful than the NV-30. Even though the NV-30 was delayed, the other projects continued on schedule, and the NV-35 was part of that schedule. Perhaps the NV-35 was originally positioned for a Fall 2003 release, but due to pressure from ATI as well as the disappointing launch of the NV-30, we can probably expect the NV-35 to be introduced within the next four months. While Mike couldn't verify this, he did mention that this 2nd quarter was going to be VERY interesting. [/size]

basta che sia veramente almeno il 50% superiore alla NV30 e senza quel super dissi da due slot!

X Hanamichi:
Le DDR2 dicono che non servano a gran che,solo che costano un botto......per adesso tutta scena!

Rusticola
31-03-2003, 06:57
NVidia con NV35 non può sbagliare altrimenti è definitivamente OUT.

Simon82
31-03-2003, 07:36
Credo che come di consueto Nvidia stia cercando di riprendersi partendo dall'Hype.... come ben sappiamo l'hype inutile e' il miglior modo per perdere clienti se il progetto e' un fallimento! ;)
Con l'NV30 Nvidia aveva annunciato miracoli, qualita' spaventosa (puntare tutto sulla qualita' e' il classico modo per dire: "in termini di prestazioni piu' di questo non sappiamo fare") cose da paura... l'NV35 DEVE per forza essere un buon progetto altrimenti mi sa tanto che Nvidia avra' speso tanti soldi per niente.. magari non fallira', ma di certo non se la prendera' con comodita' come ha gia fatto in questi mesi. ;)

neliam
31-03-2003, 08:17
A quanto pare si conferma l'ipotesi (ora certezza) che l'nv30 è solo un prototipo!!



<<Neliam>>

Simon82
31-03-2003, 09:53
Originally posted by "neliam"

A quanto pare si conferma l'ipotesi (ora certezza) che l'nv30 è solo un prototipo!!



<<Neliam>>
Su un prototipo non ci si fanno press release e review..;)

Legolas84
31-03-2003, 11:29
Spero che nvidia centri il suo obbiettivo questa volta......

Mi ricordo quando vidi le prime immagini del GeForce4..... spero che la FX2 sappia fare altrettanto bene... altro che FX :rolleyes:

Simon82
31-03-2003, 11:36
Originally posted by "Legolas84"

Spero che nvidia centri il suo obbiettivo questa volta......

Mi ricordo quando vidi le prime immagini del GeForce4..... spero che la FX2 sappia fare altrettanto bene... altro che FX :rolleyes:

Se di Genova... pure io.. :cool:;)

checo
31-03-2003, 11:38
Originally posted by "Legolas84"

Spero che nvidia centri il suo obbiettivo questa volta......

Mi ricordo quando vidi le prime immagini del GeForce4..... spero che la FX2 sappia fare altrettanto bene... altro che FX :rolleyes:

si, ma prima del geforce4 c'era il geforce 3 che era ed è na signora scheda.

prima di nv35 c'è nv30 che è un buon chip, ma troppo pieno di difetti.

Legolas84
31-03-2003, 11:50
Originally posted by "checo"



si, ma prima del geforce4 c'era il geforce 3 che era ed è na signora scheda.

prima di nv35 c'è nv30 che è un buon chip, ma troppo pieno di difetti.

All'uscita del geforce3 non ero così partecipe nel campo delle schede video... dopo il fallimento di 3dfx cambiai la voodoo3 con una GeForce2 GTS perchè non trovavo voodoo5 :muro: :muro: e avevo paura per i driver.... sai comprare da una ditta fallita non è bene....

Poi quando presentarono il GeForce4 quelle immagini mi convinsero che dovevo comprarlo e pensionare la GTS... (Venduta!!!! la Voodoo3 è solo in prestito ;) )

Legolas84
31-03-2003, 11:52
Originally posted by "Simon82"



Se di Genova... pure io.. :cool:;)

Genova Genova o Provincia? :)

yossarian
31-03-2003, 12:15
L'NV35 non è una revisione dell'NV30. Già il fatto che abbia il bus a 256 bit ne fa un chip diverso (forse quelli di nVIDIA si sono finalmente accorti che con il bus a 128 non si andava più da nessuna parte, neanche overclockando al massimo le ram). Si è tornati, per certi versi, al progetto originario (ram a 400 Mhz come la FX5800 liscia che è il vero NV30 di cui la Ultra rappresenta solo la versione "extreme overclocking") con il raddoppio del bus (e, spero per loro, del numero delle pipelines). In quanto alle prestazioni, gli unici test visti finora sono quelli fatti con Quake3, in cui l'NV35 è stato confrontato con l'NV30 (entrambi con frequenze 250/250); in quel test (senza senso) l'NV35 ha mostrato prestazioni poco più che doppie rispetto all'NV30 (ma a 1600x1200, 32 bit e filtri attivi, l'unica cosa che conta è la bandwidth che per l'NV35 è esattamente doppia rispetto a quella dell'NV30; a parità di condizioni esiste analogo divario anche tra R300 e NV30). Se le frequenze finali di funzionamento dell'NV35 dovessero rispecchiare le voci che attualmente circolano (con ram tra i 350 e i 400 Mhz) allora, con bus a 256 bit la bandwidth potrebbe essere compresa tra i 22,4 e i 25,6 Gb, con incrementi dal 40% al 60% rispetto all'NV30 (16 Gb); di conseguenza, presunte prestazioni, superiori del 50% rispetto all'NV30, ottenute alla massima risoluzione, con filtri attivi e con impostazioni di tipo "quality", sarebbero una diretta conseguenza della sola differenza di bandwidth tra i due chip. Certo è che nVIDIA sembra, per fortuna, aver fatto tesoro defli errori commessi nella progettazione dell'NV30 (che resta comunque un buon chip nonostante alcuni limiti strutturali)

Simon82
31-03-2003, 12:25
Originally posted by "Legolas84"



Genova Genova o Provincia? :)
Provincia.... :cool:

W la Liguria..........se ci fosse un po' piu' di patat.. opss...:D:D:D:D:D

yossarian
31-03-2003, 12:25
Originally posted by "checo"



si, ma prima del geforce4 c'era il geforce 3 che era ed è na signora scheda.

prima di nv35 c'è nv30 che è un buon chip, ma troppo pieno di difetti.

C'è una grande differenza tra la situazione di allora e l'attuale. L'NV20 è stato per nVIDIA quello che l'R300 è adesso per ATI; un chip ottimo sotto tutti i punti di vista; prestazioni, qualità e, soprattutto, possibilità di sviluppo. Tanto che dopo l'NV20 arrivò l'NV25 che non era altro che un'evoluzione dell'NV20, di cui aveva mantenuto, però l'architettura di base. Con l'NV30, invece, si è portato avanti un progetto per tanti versi ambizioso, ma viziato da difetti strutturali tali da costringere nVIDIA ad una revisione dell'architettura. Ora con l'NV35 sembra aver intrapreso la strada giusta, però ha perso la posizione di vantaggio che aveva ottenuta proprio grazie all'NV20.

Simon82
31-03-2003, 12:34
Originally posted by "yossarian"



C'è una grande differenza tra la situazione di allora e l'attuale. L'NV20 è stato per nVIDIA quello che l'R300 è adesso per ATI; un chip ottimo sotto tutti i punti di vista; prestazioni, qualità e, soprattutto, possibilità di sviluppo. Tanto che dopo l'NV20 arrivò l'NV25 che non era altro che un'evoluzione dell'NV20, di cui aveva mantenuto, però l'architettura di base. Con l'NV30, invece, si è portato avanti un progetto per tanti versi ambizioso, ma viziato da difetti strutturali tali da costringere nVIDIA ad una revisione dell'architettura. Ora con l'NV35 sembra aver intrapreso la strada giusta, però ha perso la posizione di vantaggio che aveva ottenuta proprio grazie all'NV20.
Quello che pero' mi chiedo e' il perche' allora far uscire in piccole dosi e recensioni il modello Ultra. Non ci sono ingegneri e tecnici di marketing che dicano: "..lasciamo perdere i test sulle persone, perche' sappiamo gia' che se solo 1a persona vedra' come vorremmo vendere sta scheda e con che raffreddamento, ci perdiamo la faccia inesorabilmente..". Invece di sbattersi tanto per difendere un flop del genere, avrei prefeito che fin da subito avessero rivisto l'NV30 posticipando ormai quello a cui tutti ci eravamo abituati.. ;)

yossarian
31-03-2003, 13:08
Originally posted by "Simon82"


Quello che pero' mi chiedo e' il perche' allora far uscire in piccole dosi e recensioni il modello Ultra. Non ci sono ingegneri e tecnici di marketing che dicano: "..lasciamo perdere i test sulle persone, perche' sappiamo gia' che se solo 1a persona vedra' come vorremmo vendere sta scheda e con che raffreddamento, ci perdiamo la faccia inesorabilmente..". Invece di sbattersi tanto per difendere un flop del genere, avrei prefeito che fin da subito avessero rivisto l'NV30 posticipando ormai quello a cui tutti ci eravamo abituati.. ;)

Hai ragione. Infatti io non ho mai attaccato l'NV30 come progetto. La cosa più intelligente da fare era quella di far uscire la versione liscia dell'NV30 a ottobre (quando era già bella e pronta), dicendo "signori, non è il chip più veloce in assoluto ma presenta delle interessanti innovazioni sotto il profilo della qualità d'immagine, della programmabilità, ecc". Avrebbero rispettato i tempi di uscita, si sarebbe trattato di un prodotto contemporaneo all'R300 e, comunque, molto più veloce di una GF4 e avrabbero evitato la figuraccia fatta per il sistema di raffreddamento utilizzato per la Ultra e per il notevole ritardo accumulato. Poi si sarebbero potuti mettere a lavorare serenamente sull'NV35. Il maggior danno all'NV30 e, di conseguenza, a sé stessa, lo ha fatto proprio nVIDIA, perdendo in credibilità e immagine.
Se avessero gestito la cosa diversamente, l'NV30 non sarebbe stato un flop e non avrebbe necessitato di una così strenua difesa.
Passando dalle specifiche DX8 alle DX9, si è compiuto un salto generazionale notevole, di cui non ci si è ancora resi conto poichè non sono ancora usciti titoli DX9, né tantomeno, demo che le sfruttino a fondo. Per farti un esempio, i PS 1.4 prevedono l'applicazione di 6 textures per pixel per single pass; ciò significa che una GF2 avrà bisogno di 3 cicli di rendering contro i 2 di una Radeon 256, di una GF3 o di una GF4 (che supportano i PS1.3), mentre le 8500 e le 9100 sono in grado di renderizzare in una sola passata. Le DX9 prevedono l'applicazione di "fino a 16 textures per pixel per single pass"; questo vuol dire 8 passate per una GF2, 6 per un Radeon256, 4 per una GF3 e una GF4, 3 per un R200 e una sola per un chip tipo R300 o NV30. Immagina la quantità di dati che, in tale situazione, viene elaborata e trasferita tra VPU e ram video. Facendo pochi calcoli ci si rende conto che il modello strutturale a cui eravamo abituati fino all'introduzione delle DX9 non può essere più efficace.
In una situazione del genere è possibile commettere errori di valutazione come quell commessI da nVIDIA nel progettare l'NV30. Era già successo in passato, nel transito tra DX6 e DX7, quando il salto è stato molto meno traumatico; allora società importanti come Matrox o la stessa ATI non si resero conto immediatamente di quale piega stessa prendendo l'evoluzione tecnologica, tanto che la prima è rimasta ferma per lungo tempo alla struttura della G400 (a suo tempo innovativa e rivoluzionaria, forse anche troppo in anticipo sui tempi) e la seconda tentò l'esperimento Rage Fury Maxx, pensando di poter supplire con la forza bruta di 2 processori a delle carenze tecnologiche evidenti rispetto alla concorrenza. I risultati sono stati diversi: Matrox si è creata una sua nicchia, ritirandosi dalla competizione relativa alle prestazioni (solo ultimamente, con la Parhelia che, secondo me, è un buon chip, ha abbandonato l'architettura G400 per introdurre qualcosa di veramente nuovo), ATI, invece, ha reagito bene, prima con il Radeon256 (anche quello forse troppo in anticipo sui tempi) e poi con l'R200.
C'è da augurarsi che anche nVIDIA, al pari di ATI, preso atto degli errori commessi, si dia da fare nella direzione della ricerca delle innovazioni tecnologiche, abbandonando la strada della sola rincorsa alle frequenze elevate (che ormai è un vicolo cieco). Tutto sommato sembra che con l'NV35 si stiano muovendo nella giusta direzione

halduemilauno
31-03-2003, 13:13
Originally posted by "yossarian"



Hai ragione. Infatti io non ho mai attaccato l'NV30 come progetto. La cosa più intelligente da fare era quella di far uscire la versione liscia dell'NV30 a ottobre (quando era già bella e pronta), dicendo "signori, non è il chip più veloce in assoluto ma presenta delle interessanti innovazioni sotto il profilo della qualità d'immagine, della programmabilità, ecc". Avrebbero rispettato i tempi di uscita, si sarebbe trattato di un prodotto contemporaneo all'R300 e, comunque, molto più veloce di una GF4 e avrabbero evitato la figuraccia fatta per il sistema di raffreddamento utilizzato per la Ultra e per il notevole ritardo accumulato. Poi si sarebbero potuti mettere a lavorare serenamente sull'NV35. Il maggior danno all'NV30 e, di conseguenza, a sé stessa, lo ha fatto proprio nVIDIA, perdendo in credibilità e immagine.
Se avessero gestito la cosa diversamente, l'NV30 non sarebbe stato un flop e non avrebbe necessitato di una così strenua difesa.
Passando dalle specifiche DX8 alle DX9, si è compiuto un salto generazionale notevole, di cui non ci si è ancora resi conto poichè non sono ancora usciti titoli DX9, né tantomeno, demo che le sfruttino a fondo. Per farti un esempio, i PS 1.4 prevedono l'applicazione di 6 textures per pixel per single pass; ciò significa che una GF2 avrà bisogno di 3 cicli di rendering contro i 2 di una Radeon 256, di una GF3 o di una GF4 (che supportano i PS1.3), mentre le 8500 e le 9100 sono in grado di renderizzare in una sola passata. Le DX9 prevedono l'applicazione di "fino a 16 textures per pixel per single pass"; questo vuol dire 8 passate per una GF2, 6 per un Radeon256, 4 per una GF3 e una GF4, 3 per un R200 e una sola per un chip tipo R300 o NV30. Immagina la quantità di dati che, in tale situazione, viene elaborata e trasferita tra VPU e ram video. Facendo pochi calcoli ci si rende conto che il modello strutturale a cui eravamo abituati fino all'introduzione delle DX9 non può essere più efficace.
In una situazione del genere è possibile commettere errori di valutazione come quell commessI da nVIDIA nel progettare l'NV30. Era già successo in passato, nel transito tra DX6 e DX7, quando il salto è stato molto meno traumatico; allora società importanti come Matrox o la stessa ATI non si resero conto immediatamente di quale piega stessa prendendo l'evoluzione tecnologica, tanto che la prima è rimasta ferma per lungo tempo alla struttura della G400 (a suo tempo innovativa e rivoluzionaria, forse anche troppo in anticipo sui tempi) e la seconda tentò l'esperimento Rage Fury Maxx, pensando di poter supplire con la forza bruta di 2 processori a delle carenze tecnologiche evidenti rispetto alla concorrenza. I risultati sono stati diversi: Matrox si è creata una sua nicchia, ritirandosi dalla competizione relativa alle prestazioni (solo ultimamente, con la Parhelia che, secondo me, è un buon chip, ha abbandonato l'architettura G400 per introdurre qualcosa di veramente nuovo), ATI, invece, ha reagito bene, prima con il Radeon256 (anche quello forse troppo in anticipo sui tempi) e poi con l'R200.
C'è da augurarsi che anche nVIDIA, al pari di ATI, preso atto degli errori commessi, si dia da fare nella direzione della ricerca delle innovazioni tecnologiche, abbandonando la strada della sola rincorsa alle frequenze elevate (che ormai è un vicolo cieco). Tutto sommato sembra che con l'NV35 si stiano muovendo nella giusta direzione

sono daccordo.
ciao.
;)

Simon82
31-03-2003, 14:04
Originally posted by "yossarian"



Hai ragione. Infatti io non ho mai attaccato l'NV30 come progetto. La cosa più intelligente da fare era quella di far uscire la versione liscia dell'NV30 a ottobre (quando era già bella e pronta), dicendo "signori, non è il chip più veloce in assoluto ma presenta delle interessanti innovazioni sotto il profilo della qualità d'immagine, della programmabilità, ecc". Avrebbero rispettato i tempi di uscita, si sarebbe trattato di un prodotto contemporaneo all'R300 e, comunque, molto più veloce di una GF4 e avrabbero evitato la figuraccia fatta per il sistema di raffreddamento utilizzato per la Ultra e per il notevole ritardo accumulato. Poi si sarebbero potuti mettere a lavorare serenamente sull'NV35. Il maggior danno all'NV30 e, di conseguenza, a sé stessa, lo ha fatto proprio nVIDIA, perdendo in credibilità e immagine.
Se avessero gestito la cosa diversamente, l'NV30 non sarebbe stato un flop e non avrebbe necessitato di una così strenua difesa.
Passando dalle specifiche DX8 alle DX9, si è compiuto un salto generazionale notevole, di cui non ci si è ancora resi conto poichè non sono ancora usciti titoli DX9, né tantomeno, demo che le sfruttino a fondo. Per farti un esempio, i PS 1.4 prevedono l'applicazione di 6 textures per pixel per single pass; ciò significa che una GF2 avrà bisogno di 3 cicli di rendering contro i 2 di una Radeon 256, di una GF3 o di una GF4 (che supportano i PS1.3), mentre le 8500 e le 9100 sono in grado di renderizzare in una sola passata. Le DX9 prevedono l'applicazione di "fino a 16 textures per pixel per single pass"; questo vuol dire 8 passate per una GF2, 6 per un Radeon256, 4 per una GF3 e una GF4, 3 per un R200 e una sola per un chip tipo R300 o NV30. Immagina la quantità di dati che, in tale situazione, viene elaborata e trasferita tra VPU e ram video. Facendo pochi calcoli ci si rende conto che il modello strutturale a cui eravamo abituati fino all'introduzione delle DX9 non può essere più efficace.
In una situazione del genere è possibile commettere errori di valutazione come quell commessI da nVIDIA nel progettare l'NV30. Era già successo in passato, nel transito tra DX6 e DX7, quando il salto è stato molto meno traumatico; allora società importanti come Matrox o la stessa ATI non si resero conto immediatamente di quale piega stessa prendendo l'evoluzione tecnologica, tanto che la prima è rimasta ferma per lungo tempo alla struttura della G400 (a suo tempo innovativa e rivoluzionaria, forse anche troppo in anticipo sui tempi) e la seconda tentò l'esperimento Rage Fury Maxx, pensando di poter supplire con la forza bruta di 2 processori a delle carenze tecnologiche evidenti rispetto alla concorrenza. I risultati sono stati diversi: Matrox si è creata una sua nicchia, ritirandosi dalla competizione relativa alle prestazioni (solo ultimamente, con la Parhelia che, secondo me, è un buon chip, ha abbandonato l'architettura G400 per introdurre qualcosa di veramente nuovo), ATI, invece, ha reagito bene, prima con il Radeon256 (anche quello forse troppo in anticipo sui tempi) e poi con l'R200.
C'è da augurarsi che anche nVIDIA, al pari di ATI, preso atto degli errori commessi, si dia da fare nella direzione della ricerca delle innovazioni tecnologiche, abbandonando la strada della sola rincorsa alle frequenze elevate (che ormai è un vicolo cieco). Tutto sommato sembra che con l'NV35 si stiano muovendo nella giusta direzione

Spero per Nvidia.. comunque sono d'accordo con te! ;)

Puccio84
31-03-2003, 15:07
Ragazzi secondo me non conviene mai prendere le schede video "rivoluzionarie"(tnt,geforce1, 3, fx) ma le loro evoluzioni(tnt2, geforce 2, 4...), in quanto esse sono utilizzabili subito, hanno subito un supporto driver soddisfacente, le schede "rivoluzionarie" presentano spesso problemi di giovinezza che ti fanno rodere il fegato quando vedi che 400 € nn ti fanno giocare al tuo game preferito...
nn so se mi sono spiegato :mc:

Milion
31-03-2003, 15:34
Originally posted by "yossarian"



Hai ragione. Infatti io non ho mai attaccato l'NV30 come progetto. La cosa più intelligente da fare era quella di far uscire la versione liscia dell'NV30 a ottobre (quando era già bella e pronta), dicendo "signori, non è il chip più veloce in assoluto ma presenta delle interessanti innovazioni sotto il profilo della qualità d'immagine, della programmabilità, ecc". Avrebbero rispettato i tempi di uscita, si sarebbe trattato di un prodotto

...



O al limite, se proprio non volevano rinunciare alla palma di chip più veloce del mercato, dovevano saltare a piedi pari questa generazione :)
A mio avviso gli errori commessi da nvidia non si sono limitati solo alla progettazione, bensi anche all'approccio al mercato (marketing).
Ok che del senno di poi ne sono piene le fosse, ma se l'arroganza non avesse avuto la meglio in questa vicenda (imho ovviamente) o avrebbero potuto far uscire il chip con le sue caratteristiche originarie come da te detto, ma dovendo in questo modo ammettere la "sconfitta", oppure avrebbero dovuto sin da subito accantonare nv30 e passare al successivo investendo nel ritardo che comunque hanno avuto per tirare fuori qualcosa di veramente vincente...o comunque in linea almeno con la concorrenza sia in termini di prestazione che di qualità.
Invece hanno proprio peccato di arroganza temo, anche nell'approccio con i propri clienti: il livello medio di informazione è ben diverso da quello che c'era ai tempi del tnt e uno degli errori più grandi che hanno fatto è, secondo me, non tenere conto di questo :)
Il mercato non è più così bhheeeeeeello come a quei tempi :)

Milio

yossarian
31-03-2003, 17:54
Originally posted by "Milion"



O al limite, se proprio non volevano rinunciare alla palma di chip più veloce del mercato, dovevano saltare a piedi pari questa generazione :)
A mio avviso gli errori commessi da nvidia non si sono limitati solo alla progettazione, bensi anche all'approccio al mercato (marketing).
Ok che del senno di poi ne sono piene le fosse, ma se l'arroganza non avesse avuto la meglio in questa vicenda (imho ovviamente) o avrebbero potuto far uscire il chip con le sue caratteristiche originarie come da te detto, ma dovendo in questo modo ammettere la "sconfitta", oppure avrebbero dovuto sin da subito accantonare nv30 e passare al successivo investendo nel ritardo che comunque hanno avuto per tirare fuori qualcosa di veramente vincente...o comunque in linea almeno con la concorrenza sia in termini di prestazione che di qualità.
Invece hanno proprio peccato di arroganza temo, anche nell'approccio con i propri clienti: il livello medio di informazione è ben diverso da quello che c'era ai tempi del tnt e uno degli errori più grandi che hanno fatto è, secondo me, non tenere conto di questo :)
Il mercato non è più così bhheeeeeeello come a quei tempi :)

Milio

Purtroppo è vero che il non avere la palma di chip più veloce equivale ad una sconfitta. E' una mentalità sbagliata, che ha portato alla bocciatura di progetti validi come la VooDoo5 e, in parte, la G400 e la Radeon256. Quando si ha a che fare con prodotti le cui prestzioni sono ad altissimo livello, si dovrebbe cercare di andare oltre qualche fps in più (giocare a Q3 a 350 oppure a 280 fps non cambia di certo la vita). In questo hanno colpa i prduttori di HW in primo luogo, che hanno "forzato" il mercato in quel senso (nVIDIA e 3dfx davanti a tutti) e chi si basa sugli fps per orientare i propri acquisti. D'altro canto questa continua rincorsa alle prestazioni è servita per avere i "mostri" che ci sono attualmente in circolazione. Adesso però è arrivato il momento in cui è necessaria una pausa di riflessione e un cambio di rotta. La FX ha delle qualità che, a causa dei ripetuti tentativi di nVIDIA di riprendersi lo scettro delle prestazioni, sono stati completamente trascurate se non addirittura penalizzate (v. drivers che abbassano il numero di colori da 32 a 16 bit - attenzione non parlo dell'FP64 o FP128, ma proprio del numero di bit utilizzato per rappresentare ciascuno dei 3 colori RGB che per l'NV30 arriva a 32 bit, mentre per l'R300 si ferma a 24, pur avendo entrambe precisione FP128).
Abbandonare il progetto NV30, dopo averci investito tempo e denaro non era opportuno, soprattutto dopo il grande battage pubblicitario che aveva suscitato grande attesa tra gli appassionati. Sarebbe stato saggio, però, una volta resisi conto dei limiti fisici del chip, di abbandonare i tentativi di riottenere la leadership prestazionale con l'NV30 e di concentrarsi su un nuovo progetto che andasse oltre i limiti riscontrati. In parole povere, ormai l'NV30 era pronto ed era il caso di farlo uscire comunque (anche perchè retsa comunque un buon chip, molto veloce e con una, almeno teorica, ottima qualità d'immagine che, purtroppo, proprio per colpa dei tentativi fatti da nVIDIA, ancora non si è vista). Alimite avrebbero potuto presentarlo come un'anteprima del chip rivoluzionario promesso (che sarebbe potuto diventare l'NV35), facendo, in qualche maniers, l'opposto di quanto fatto da ATI che ha presentato prima la 9700 e poi la sua versione con bus dimezzato (la 9500, appunto). Forse in tal modo sarebbero riusciti ad evitare una serie di brutte figure che non si addicono ad una società leader nel proprio settore (se le può permettere Microsoft perchè è in regime di quasi monopolio) e sarebbero riusciti a sottrarre ad ATI alcune quote del mercato DX9 (se avessero fatto uscire la versione liscia a ottobre). Invece hanno fatto la cosa peggiore: il progetto iniziale prevedeva struttura 4x2, bus a 128 bit e ram DDR. Quando ci si è resi conto che le DDR non fornivano una banda sufficiente ad un chip a 0,13 che poteva raggiungere frequenze di 400 e oltre Mhz (primo errore di valutazione che ha fatto perdere del tempo, anche se non tantissimo), si è deciso di passare alle DDR2 (e cominciarono a circolare le prime voci di ram DDR2 abbinate all'NV30). In un secondo tempo si sono resi conto (stavolta dopo aver visto i primi risultati dell'R300) che la bandwidth fornita dalle DDR2, clockate a 400 Mhz, non solo non era sufficiente a pareggiare la banda ottenuta con il bus a 256 ma era fortemente penalizzante ad alta risoluzione e con impostazioni "quality". Il passo successivo è stato l'overclock e, consequenzialmente l'overvolt, fino al punto in cui sono riusciti a tirare chip e ram (da qui la quasi nulla overclockabilità delle FX5800 Ultra).
In realtà anche ATI, nelle fasi iniziali del progetto R300, aveva pensato di adottare il bus a 128, però con 8 pipelines. Ci si è accorti immediatamente che la bamdwidth era troppo penalizzante (con 8 pipe lo è ancora di più che con 4, soprattutto in previsione dell'impiego delle specifiche DX9) e si è passati subito al bus a 256, anche se si è portato avanti anche il progetto con bus a 128 (che era stato accantonato e poi ripreso - l'R350 con DDR2 e bus a 128, se uscirà, cosa che per me non ha senso, rappresenta in realtà l'evoluzione del progetto iniziale). P.s. l'R300 supporta le DD2, anche se non gli sono mai state abbinate.

Per quanto riguarda le linee di produzione che verranno mantenute, potete farvi un'idea andando a vedere quali sono le schede ATI attualmente in produzione (tra cui figurano già anche le 9800pro, le 9600 e le 9200, di cui è stata solo posticipata la produzione "in volumi"). In sintesi:
bus 256 - 8x1 DX9 0,15 micron 9800pro - 9700pro - 9800 - FireGL X1
bus 128 - 8x1 DX9 0,15 micron 9800pro (DDR2) - 9500 pro - FireGL Z1
bus 128 - 4x1 DX8.1 0,15 micron 9200pro - 9200 - 9000 pro
bus 256 (?) 4x1 DX9 0,13 micron 9600pro - 9600 (la serie 9600, in realtà, è niente di più di un esperimento in vista del prossimo progetto, cioè l'R400, che sarà a 0,13 e avrà DDR2 con bus a 256 bit (le pipelines potrebbero non essere 8x2 ;) )

Milion
31-03-2003, 22:12
L'analisi è chiara ed effettivamente capisco le ragioni per cui secondo te sarebbe stato opportuno non abbandonare nv30. Condivido in questo caso la tua opinione riguardo alle mosse sbagliate fatte da nvidia che hanno sputtanato un chip che tutto sommato non sarebbe stato male.
Dico tutto sommato perchè questa qualità di immagine a cui hai accennato non si è ancora vista. Anzi a quanto sembra, e sempre se non è un problema legato ai drivers e ai tentativi di spremere performance da tutte le parti, sembrano peggiori rispetto persino al gf4 :)
Tuttavia, proprio giudicando l'atteggiamento di nvidia e i tentativi di convincere che la palma del "chip più veloce" ce l'hanno ancora loro, rimango dell'opinione che avrebbero avuto meno danni considerando nv30 solo come un prototipo da non commercializzare in volumi.
Una azienda che sin dal tnt ha puntato tutto sulla velocità non può fare marcia indietro mandando all'aria anni e anni di strategie aggressive, specie se questa corsa esasperata alla performance è stata proprio lei ad inaugurarla, usando il "va più forte di una soluzione voodoo2 sli" che è diventata il sinonimo di prodotto d'elite (anche se oggi sempre più gente si rende conto della idiozia intrinseca in questo assunto :))
Io penso che la scelta di far uscire comunque questo chip sia stata determinata soltanto dal tentativo di non far scappare i produttori di schede video che spingevano per un chip in grado di tenere il passo con r300...ed in questa ottica oggi sappiamo che non sarà nv30 che riuscirà in questo scopo :) Perciò tanto valeva non metterlo in produzione affatto...almeno sarebbero state soltanto illazioni quelle che criticavano nvidia :)

Insomma in definitiva nvidia si è messa nell'angolo da sola: da una parte un marketing che ha sempre cercato di convincere che "più veloce è meglio in ogni caso", e tale cosa non gli permetteva di far uscire un chip più lento del concorrente a pena di gravi perdite di immagine. Dall'altra la necessità comunque di tirare fuori un chip per non perdere i contratti con i costruttori; da qui la necessità di tirare fuori qualcosa ad ogni costo anche se questo qualcosa ha di fatto causato gravi perdite di immagine :)

Milio

DoomIII
31-03-2003, 22:29
be per essere onesti ci sarebbe da dire che siamo molto indietro come software... e sembrerebbe che sulle nuove schede il software vecchio giri meglio nel gioiello di casa Ati... per quanto riguarda software nuovo mi risulta, anche se non sono differenze enormi, che NV30 sia superiore.

Le fixed-function, il vecchio T&L di programmazione DX7 sono state dal NV20 in poi incluse per compatibilità poichè appunto altrimenti il software non sarebbe compatibile... e dalle DX8 si poteva programmare in 2 modi.. o continuando ad utilizzare le fixed-function o programmando i pixel/vertex shader... questo ha portato gli sviluppatori a vantare giochi sviluppati in DX8 quando in realtà venivano utilizzate le fixed-function e quindi di DX8(pixel&vertex shader) non c'era niente.
In pratica chi aveva una gef2 giocava... chi aveva una gef3 giocava con il software che 'girava' sul NV15 incluso per compatibilità. Certo ci sono ottimizzazione sull'antialiasing, frequenze più elevate ecc... ma tutti i circuiti di pixel/vertex shader non venivano toccati... la situazione poi è cambiata di poco con pixel/vertex shader che sono stati utilizzati in seguito da pochi titoli e solo marginalmente... poichè di vero software GPU oriented e pesantemente basato sui vertex/pixel shader c'è solo DoomIII che è ancora in arrivo... titolo che infatti su schede senza una vera GPU sarà solo guardabile ingiocabilmente mentre per gli altri titoli al massimo c'era qualche differenza qua e la, qualche effetto disattivato ecc....

Le innovazioni portate nelle DX9 e le capacità date dai nuovi chip sono potentissime ed importanti... ma a livello software si è ben lontani dallo sfruttarle. Inoltre all'epoca dell'uscita della Gef3 c'è stata una bella innovazione, ma all'epoca dissi in diversi posti che la Gef3 portava un innovazione per lo più inutilizzabile a causa dei limiti architetturali... limiti che sono stati appianati nella Gef4 che sarebbe una Gef3 sfruttabile appieno... in tal senso adesso la situazione è simile... delle nuove innovazioni su r300 o NV30 c'è solo la marginale possibilità di sfruttare qualcosa... d'altro canto hanno il pregio di portare queste novità... imporre lo standard e dare la possibilità agli sviluppatori di appoggiarvisi per le realizzazioni.

yossarian
01-04-2003, 01:53
Originally posted by "Milion"

L'analisi è chiara ed effettivamente capisco le ragioni per cui secondo te sarebbe stato opportuno non abbandonare nv30. Condivido in questo caso la tua opinione riguardo alle mosse sbagliate fatte da nvidia che hanno sputtanato un chip che tutto sommato non sarebbe stato male.
Dico tutto sommato perchè questa qualità di immagine a cui hai accennato non si è ancora vista. Anzi a quanto sembra, e sempre se non è un problema legato ai drivers e ai tentativi di spremere performance da tutte le parti, sembrano peggiori rispetto persino al gf4 :)

Milio

La FX ha un'ottima qualità d'immagine, come dimostrano i demo "Ogre" e "Dawn". Il fatto è che gli attuali drivers (bada bene, non il SW) non le rendono giustizia, privilegiando le prestazioni. L'NV30, per come è strutturato (4x2, con frequenze di funzionamento molto elevate), rende al meglio in determinate condizioni d'impiego che corrispondono ad una situazione di carico di lavoro intermedio. Mi spiego: rispetto all'R300, nell'effettuare il multitexturing, processa 2 textures per volta, contro 1 del chip ATI e, inoltre, lo fa ad una velocità che è circa il 50% superiore (500 contro 325 Mhz); però è in grado di operare solo su 4 pixels per volta contro gli 8 dell'R300. Questo vuol dire che, per processare 8 pixels, la FX è costretta a fare un'operazione 4+4. Immaginiamo di dover applicare 4 textures ad ogni pixel. Ogni TMU dell'R300 opera su un pixel, applicando una texture che viene stivata in un buffer all'interno del chip, quindi passa adoperare sulla seconda, poi sulla terza e, infine sulla quarta. Al termine dell'elaborazione, ogni TMU ha applicato 4 textures sul proprio pixel di competenza, processandone in totale 8 (totale 32 textures applicate). Le 2 TMU dell'NV30 applicano, ovviamente 2 textures in contemporanea su uno stesso pixel. L'elaborazione dell'NV30 richiede la metà dei passaggi dell'R300 (2 contro4), però sono stati processati solo 4 pixels (16 textures applicate). A questo punto, per entrambi i chip, le textures vengono inviate al frame buffer della ram video. Per arrivare a processari 4 pixels (e raggiungere l'R300, l'NV30 deve ripetere di nuovo il ciclo descritto. Il problema è nel calcolo dei tempi impiegati a compiere l'elaborazione interna al chip e di quelli necessari al trasferimento dei dati al frame buffer. Ovviamente l'elaborazione interna al chip è molto più rapida (tanto che si dice che vengono applicate 4 textures per single pass, ossia per ciclo di rendering; in realtà vediamo che le textures non vengono applicate contemporaneamente, altrimenti ogni pipeline dovrebbe avere, in questo caso, 4 TMU). Da questa diversa impostazione viene fuori che l'NV30 si avvantaggia, ovviamente quando si devono applicare 2 sole textures (che è in grado di applicare simultaneamente), oppure 4 o, al massimo 6; cioè in tutte quelle situazioni in cui la doppia TMU e la maggior frequenza di funzionamento compensano il fatto di dover effettuare di fatto due cicli per pareggiare il numero di pixels elaborati dall'R300 in una sola volta. All'aumentare della complessità dei calcoli aumenta la quantità di dati che transita attraverso il bus VPU-ram video; in questa situazione viene fuori il collo di bottiglia derivante da un bus di soli 16 Gb contro i 20 dell'R300 e, inoltre, l'elevata frequenza di funzionamento del chip, lungi dall'essere di aiuto, tende a squilibrare ulteriormente la situazione (si crea quello che in termini stradali si potrebbe definire un ingorgo). Ancora più svantaggiosa sarebbe stata la situazione se, al bus a 128, avessero unito un'architettura 8x1, come quella dell'R300 (si sarebbe raddoppiata la quantità di dati forzata a passare nel canale VPU-ram). Si vede così che, all'aumentare del numero n delle textures applicate (già per valori maggiori di 6 o 8), la capacità d'elaborazione dell'NV30 diminuisce in maniera molto più marcata di quanto non faccia quella dell'R300 e riesce a mantenere un margine di vantaggio, sempre più esiguo al crescere di n, solo grazie alla maggior frequenza di funzionamento. Si dà il caso che, demo tipo quelle viste per l'NV30, che utilizzano, per renderizzare i personaggi, un gran numero di poligoni, proprio nel rendring di scene con elevato numero di poligoni, sono caratterizzate dall'utilizzo di multitexturing a non più di 6 textures (4 nella maggior parte dei casi) per pixel, utilizzando effetti DX9 veri per scene meno complesse. Questo per rendere fluida l'elaborazione. L'effetto complessivo è comunque eccellente e rende l'idea delle potenzialità dell'NV30 in termini di qualità d'immagine. Purtroppo nei giochi o nei bench, non è possibile adattare il SW in modo da esaltare le caratteristiche dell'HW e questo ha spinto nVIDIA a "ottimizzare" i drivers per questa o quella applicazione, in linea di massima facendo in modo di alleggerire l'elaborazione a scapito della qualità d'immagine. L'NV30, a causa del bus a 128 bit e della scelta fatta di rappresentare i colori e il canale alfa a 32 bit (anzichè a 24 come prescrivevano le specifiche DX9) ha reso l'NV30 un chip difficile da gestire, per cui si devono trovare le giuste alchimie tra HW e SW per poter coniugare prestazioni e qualità. Diciamo che ha un range di utilizzo ottimale ristretto rispetto all'R300 (se mi passate un paragone velico, l'R300 è come Alinghi, che riesce ad andare forte in tutte le condizioni, l'NV30 è come New Zealand che, solo con le giuste condizioni di vento e di mare è più veloce dell'avversaria)

yossarian
01-04-2003, 02:43
Originally posted by "Milion"

Tuttavia, proprio giudicando l'atteggiamento di nvidia e i tentativi di convincere che la palma del "chip più veloce" ce l'hanno ancora loro, rimango dell'opinione che avrebbero avuto meno danni considerando nv30 solo come un prototipo da non commercializzare in volumi.
Una azienda che sin dal tnt ha puntato tutto sulla velocità non può fare marcia indietro mandando all'aria anni e anni di strategie aggressive, specie se questa corsa esasperata alla performance è stata proprio lei ad inaugurarla, usando il "va più forte di una soluzione voodoo2 sli" che è diventata il sinonimo di prodotto d'elite (anche se oggi sempre più gente si rende conto della idiozia intrinseca in questo assunto :))
Io penso che la scelta di far uscire comunque questo chip sia stata determinata soltanto dal tentativo di non far scappare i produttori di schede video che spingevano per un chip in grado di tenere il passo con r300...ed in questa ottica oggi sappiamo che non sarà nv30 che riuscirà in questo scopo :) Perciò tanto valeva non metterlo in produzione affatto...almeno sarebbero state soltanto illazioni quelle che criticavano nvidia :)

Insomma in definitiva nvidia si è messa nell'angolo da sola: da una parte un marketing che ha sempre cercato di convincere che "più veloce è meglio in ogni caso", e tale cosa non gli permetteva di far uscire un chip più lento del concorrente a pena di gravi perdite di immagine. Dall'altra la necessità comunque di tirare fuori un chip per non perdere i contratti con i costruttori; da qui la necessità di tirare fuori qualcosa ad ogni costo anche se questo qualcosa ha di fatto causato gravi perdite di immagine :)

Milio

In realtà la prima mossa vincente di ATI è stata quella di cominciare a vendere chip a terzi. In tal modo non solo ha potuto competere con nVIDIA sul terreno delle prestazioni (cosa che aveva iniziato a fare già con l'R100 opposto all'NV15), ma ha iniziato a portare dalla sua parte società partner di nVIDIA, erodendo a quest'ultima quote di mercato non solo tramite la competizione diretta.
La seconda mossa vincente è stata quella di iniziare a produrre chip ottimi anche sotto il profilo prestazionale (la qualità era già ad alti livelli, senza tener conto che, in passato, ATI aveva puntato tutto sulla multimedialità e, sotto questo aspetto, la 8500 DV è ancora insuperata). Però questo non era sufficiente, perchè, comunque, nVIDIA, continuava a non perdere colpi, nonostante i duri attacchi delle rivali.
La terza mossa vincente (quella che l'ha posta in una posizione di vantaggio) non è stata fatta da ATI, ma è stato l'autogoal di nVIDIA nella gestione dell'affare NV30.
Come hai detto, giustamente, una delle paure di nVIDIA è stata quella di perdere altri partners importanti (Creative e MSI in primo luogo, che già sembrano nutrire diversi dubbi). Inoltre si sono trovati con le spalle al muro, poichè il chip era stato annunciato da tempo, troppo pubblicizzato, con fughe di notizie da tutte le parti. La stessa nVIDIA è stata costretta a diffondere le specifiche (anche se abbiamo visto che è stata piuttosto ambigua nel farlo) e i primi bench (in cui l'FX veniva confrontato con la TI4600) per creare un clima di attesa e frenare, in qualche modo, non tanto le vendite quanto l'aumento di popolarità che ATI stava avendo, soprattutto tra gli addetti ai lavori (ebbene si, non è dei consumatori che ci si preoccupa più di tanto, perchè in realtà gli acquisti sono pilotati dal mercato; a dimostrazioni di ciò è che, persino tra i patiti delle prestazioni estreme, tipo i recordmen di 3DMark, schede da 500 € rappresentano una goccia nel mare - il 2% degli utenti registrati su Futuremark ha una 9700)). Un aumento della popolarità di ATI avrebbe determinato uno spostamento del mercato verso il marchio canadese e, l'assenza di nuove uscite nVIDIA per oltre un anno, sarebbe stata interpretata dagli addetti ai lavori come un'inequivocabile segno di crisi. Facendola uscire, invece, se da un lato ha perso, in parte la credibilità e la faccia, anche agli occhi di molti di quelli che la sostenevano a spada tratta, dall'altra ha mandato un segnale chiaro ai propri partners: "non siamo finiti, abbiamo solo sbagliato, in parte, un progetto ma ne è pronto subito un altro". Hai sicuramente seguito le recenti vicende di MSI; sembrava quasi sul punto di salire sul treno di ATI, ma nel momento in cui sembrava che stesse per abbandonare nVIDIA, quest'ultima ha iniziato a commercializzare, in piccole quantità, per il momento la FX5800 Ultra e così, anche MSI, ha messo la sua bella scheda in catalogo. Diverso sarebbe stato se nVIDIA avesse avuto daopporre all'attuale strapotere di ATI solo un prodotto uscito oltre un anno fa (per quanto ancora validissimo); il suo potere contrattuale nel confronti dei partners sarebbe diminuito notevolmente.
Il vero autogoal nVIDIA lo ha fatto in sede di lancio pubblicitario; se, una volta resosi conto dello stato delle cose, avesse iniziato ad impostare una campagna basata non più sulle prestazioni ma su altre caratteristiche, avrebbe ottenuto un elevato riscontro. E' vero infatti che 3dfx è stata condannata, tra l'altro, per non essere più riuscita a produrre i chip più veloci, ma è anche vero che la situazione era notevolmente diversa: all'uscita della VooDoo5 3dfx si trovava già costretta ad inseguire nVIDIA, mentre in questo caso era nVIDIA a fare la lepre e, dalla sua posizione di vantaggio, aveva buone possibilità di influenzare le scelte di mercato.

Milion
01-04-2003, 13:18
yoss mi devo prendere un giorno di ferie per leggerti tutto...e io che pensavo di essere logorroioco :p

A parte gli scherzi, non mi è chiaro come la descrizione che hai reso dei processi di rendering del chip sia associabile ad una qualità superiore rispetto a r300 o anche al gf4 (limitatamente agli affetti che può supportare ovviamente).
Per spiegarmi meglio, io non dubito che la fx possa restituire una qualità buona, e alla luce della tua spiegazioni mi sta bene che possa restituirla anche a velocità apprezzabili sotto certe condizioni, ma rimane a mio parere comunque il dubbio dei filtri. L'antialiasing in particolare non ho idea se risenta di una implementazione fatta male nei drivers, ma l'algoritmo utilizzato appare drasticamente inferiore in termini di efficienza rispetto a quello che si può vedere anche con gf4. A questo mi riferivo parlando di qualità dell'immagine, anche in considerazione del fatto che ritengo la brillantezza dei colori, la saturazione e quant'altro ormai a livelli più che ragionevoli anche nei prodotti nvidia.
Magari tu ti stai riferendo a qualche tipo di effetto (la famosa e tanto polemizzata qualità cinematografica?) che la geforce fx supporta e le concorrenti no magari, ma a proposito di questo non sono informato che questa scheda possa fare molto di più di quello che le dx9 offrono. E non è una affermazione retorica, anzi ho sempre pensato che ogre a dawn potessero essere dei demo che anche r300 sarebbe in grado di far girare più che dignitosamente sia in termini di velocità che di qualità complessiva :)


Riguardo all'analisi di mercato sono sostanzialmente d'accordo con te, anche se io sono molto più critico relativamente alle scelte di marketing che nvidia ha sempre fatto...non sono in concomitanza con il lancio di nv30.
La differenza a mio parere è che se fino al gf4 il 70% era fumo e il 30% era arrosto (in un mercato in cui, a parte intel e nvidia, gli altri si attestano sul 50 e 50, a mio parere :)) con nv30 hanno toccato limiti di fumosità prossimi al 90%.
E questo ha reso evidente molto più che la precedente situazione di quanto nvidia abbia sempre puntato sull'hype piuttosto che sulla concretezza.
La situazione di 3dfx è un chiaro esempio di come questo hype abbia confuso la situazione di mercato. Lasciando da parte gli "errori" che 3dfx ha commesso, grande parte della battaglia l'ha persa proprio sul maketing...soccombendo all'aggressività di quello nvidia che si preoccupava di decantare prestazioni elevatissime e senza preoccuparsi tanto di inquinare le acque in modo che i potenziali acquirenti fossero ben confusi di quello che sarebbe stato il mercato videoludico di li a poco (antialiasing, t&l, effetti cinematografici, ecc).
Ovviamente atteggiamenti così aggressivi hanno il rovescio della medaglia: la clientela ti rimane affezionata fino a che sei più forte di tutti, quando perdi questa caratteristica però ti abbandonano in fretta.
Questo è quello che sta succedendo...ed unitamente alle mosse di ati da te giustamente descritte ecco che si aprono scenari di mercato interessanti, in cui contano si i produttori i quali però sono pesantemente condizionati dagli umori degli utenti finali, resi palesi dai canali di reperimento di informazioni che hanno trovato in internet e nel suo boom il veicolo perfetto.
In questo secondo me il mercato è ben differente rispetto a quando le politiche aggressive di nvidia potevano avere un senso :)

Milio

yossarian
01-04-2003, 14:01
Cerco di risponderti brevemente.
Circa la qualità non intendevo sostenere che quella dell'FX sia superiore o inferiore a quella della 9700. Semplicemente, accennando ai processi di rendering intendevo dire che i drivers messi in circolazione da nVIDIA per incrementare le prestazioni, hanno impostazioni che vanno a scapito della qualità. Questo si verifica per la FX (e non è riscontrabile sugli altri prodotti nVIDIA) perchè agisce su alcuni parametri propri dell'NV30, come ad esempio i colori a 32 bit; immagina di aggiungere una riga di programma che forzi a 16 bit i colori se questi sono rappresentati a 32 bit (e solo in quel caso). Questo comando avrebbe effetto solo sulla FX poichè nessun altro chip utilizza 32 bit per singolo colore e altrettanti per il canale alfa. Conclusione: tutto invariato per gli altri, raddoppio di prestazioni per l'FX. Con le demo di Dawn e Ogre non ha avuto bisogno di ricorrere a questo trucco perchè tali SW sono ottimizzati in modo da girare fluidamente con l'NV30, mantenendo alte le impostazioni qualitative.
Anch'io sono sicuro che sull'R300 girerebbero fluidamente e con ottima qualità. Quello che intendevo sottolineare è che l'R300 non ha bisogno di questo tipo di impostazioni perchè presenta un'architettura che non solo ha meno limiti, ma ha anche, ancora, buoni margini di sviluppo (l'R350 è un esempio in tal senso).
Per quanto riguarda l'AA non ci sono stati progressi tra GF4 e FX. Sull'aniso, la mia idea è che, con le impostazioni "quality" l'R300 sia superiore per derminati angoli di visualizzazione (0°, 45°, 90°), e sia al livello di quello dell'NV30 negli altri. Il problema può essere rappresentato dalle transizioni tra un angolo e l'altro. In questo l'NV30 è migliore perchè l'aniso si comporta omogeneamente per tutte le angolazioni. Questo potrebbe (non abbiamo al momento le prove) rappresentare un vantaggio quando inizieranno ad uscire titoli che faranno uso massiccio di superfici curve (dove le transizioni sono obbligate e spesso anche brusche).

Sul marketing, concordo con te sulla politica aggressiva di nVIDIA, i cui effetti più sensibili sono stati la drastica riduzione dei competitori ad alti livelli, nell'arco di 5 anni, da alcune decine a, sostanzialmente, due (Matrox è un caso a parte e S3 e SIS stanno faticosamente tentando di riemergere). Questo non è un bene per il mercato perchè un duopolio non è altro che un monopolio temporaneo di uno dei 2 contendenti (non c'è mai vera competizione, almeno sulle prestazioni) e rischia di diventare un monopolio a tutti gli effetti in caso di defaillance di uno dei due. Purtroppo sappiamo che il marketing non fa che alimentare speranze, promettendo chimere (già all'uscita del G400 si parlava di fotorealismo, adesso ne stiamo ancora discutendo). La situazione del mercata SW è abbastanza stagnante a causa del fatto che la stragrande maggioranza dei possibili acquirenti non è dotata di macchine in grado di rendere al meglio gli effetti possibili con l'introduzione delle API più recenti (diventa una scelta obbligata quella di adoperare motori grafici non troppo avanzati, caricando il tutto con uno sproposito di poligoni per aumentare la qualità d'immagine; questo permette a tutti di far girare un determinato gioco, semplicemente regolando le impostazioni di base); questo condiziona anche la ditte produttrici di HW. Inoltre, stavolta voglio spezzare una lancia a favore di nVIDIA; c'è da dire che nVIDIA, insieme ad S3, già ad inizio '98 era stata promotrice di una battaglia per ottenere di poter integrare su un chip grafico tutto ciò che era necessario per portare a termine le elaborazioni delle immagini (senza l'ausilio della CPU), realizzando qualcosa di simile a quello che si vede nelle consolle. Ad opporsi furono Intel e AMD. Se fossero riusciti a vincere quella battaglia, già da tempo avremmo avuto l'utilizzo completo di PS e VS anche su schede video di fascia bassa, mentre invece, ancora adesso, si ha bisogno dell'ausilio della CPU per elaborare immagini 3D (ad esempio le unità VS sono ancora usate col contagocce, mentre si comincia a vedere qualcosa per i PS).
Concludo (purtroppo mi sono dilungato anche stavolta) con una considerazione sulla struttura dell'NV30 e su quella dell'R300. nVIDIA ha scommesso su un'architettura nuova, con un'unica matrice in grado di elaborare PS e VS, mentre ATI ha optato per un'architettura più tradizionale. Il tempo e le future evoluzioni (e soprattutto Microsoft) ci diranno se ha avuto ragione l'una o l'altra. Allo stato attuale, frequenze a parte, l'R300 appare più "potente"; si continua a parlare di struttura 8x1 e 4x2, ma non dimentichiamo che l'R300, in realtà, di pipelines (linee di lavoro, catene di montaggio o chiamatele come volete) ne ha 12 di cui 8 si occupano dei PS e 4 dei VS. Questo, quando finalmente uscirà (se uscirà) del SW che utilizzerà in maniera ampia i VS, sarà un ulteriore vantaggio nei casi di elaborazioni complesse.

Simon82
01-04-2003, 14:12
Riassuntino? :D:D:D:D

Legolas84
01-04-2003, 14:56
Per rispondere a chi tirava fuori 3dfx....

3dfx Faceva schede sia veloci che con buona qualità... vedi voodoo3 che aveva un sacco di difetti (16 bit, Texture 256x256, 16mb di ram ecc...) però era più performante di una TNT2 (32 mb di ram 32bit che facevano più schifo dei 16 di 3dfx....... :rolleyes: )

Con la voodoo 5 è vero, insguiva la GeForce2 GTS, che però aveva una qualità da far venire male (io L'ho avuta) e un Anti Aliasing da far ridere.
Solo che nvidia lodava le sue prestazioni migliori (E ti credo con un AA e una qualità così....) e così 3dfx ha chiuso i battenti!

Poi avete tuttiragione che 3dfx ha fatto degli errori (Vedi voodoo 3 2000 e Voodoo4PCI che vorrei sapere a chi è venuta in mente!!!! :rolleyes: )però ha anche fatto la voodoo2, 3000, 5, e 6000. E infine, qualquno conosceva le specifiche del Rampage? ;)

Scusate l'OT... :)

yossarian
01-04-2003, 15:00
Originally posted by "Legolas84"

Per rispondere a chi tirava fuori 3dfx....

3dfx Faceva schede sia veloci che con buona qualità... vedi voodoo3 che aveva un sacco di difetti (16 bit, Texture 256x256, 16mb di ram ecc...) però era più performante di una TNT2 (32 mb di ram 32bit che facevano più schifo dei 16 di 3dfx....... :rolleyes: )

Con la voodoo 5 è vero, insguiva la GeForce2 GTS, che però aveva una qualità da far venire male (io L'ho avuta) e un Anti Aliasing da far ridere.
Solo che nvidia lodava le sue prestazioni migliori (E ti credo con un AA e una qualità così....) e così 3dfx ha chiuso i battenti!

Poi avete tuttiragione che 3dfx ha fatto degli errori (Vedi voodoo 3 2000 e Voodoo4PCI che vorrei sapere a chi è venuta in mente!!!! :rolleyes: )però ha anche fatto la voodoo2, 3000, 5, e 6000. E infine, qualquno conosceva le specifiche del Rampage? ;)

Scusate l'OT... :)

Se ti riferisci a me, quando ho detto che 3dfx si trovava ad inseguire nVIDIA, mi riferivo esclusivamente alla posizione sul mercato, non alla qualità dei prodotti (la frase era inserita in un contesto in cui si parlava di mercato). E' innegabile che se nel '98 il 70% (circa) aveva schede Matrox o S3 o ATI e la metà di questi montava acceleratori VooDoo2, appena un anno dopo un buon 50% aveva su scheda nVIDIA.

Legolas84
01-04-2003, 15:17
Originally posted by "yossarian"



Se ti riferisci a me, quando ho detto che 3dfx si trovava ad inseguire nVIDIA, mi riferivo esclusivamente alla posizione sul mercato, non alla qualità dei prodotti (la frase era inserita in un contesto in cui si parlava di mercato). E' innegabile che se nel '98 il 70% (circa) aveva schede Matrox o S3 o ATI e la metà di questi montava acceleratori VooDoo2, appena un anno dopo un buon 50% aveva su scheda nVIDIA.

E questo spesso succede non per la bontà del prodotto, ma per l'ignoranza (intesa nel senso buono e non offensivo :) ) dei consumatori e delle aziende che pomapano i propri prodotti e sostanzialmente vendono fumo.... vedi GeForce FX....

Sell
01-04-2003, 15:27
SE e dico SE ! nvidia sbaglia un altro colpo,x me sarebbe meglio ke kiude battenti. :mad:

Milion
01-04-2003, 15:55
La mia era solo una battuta yoss; in realtà, come ho già avuto modo di dirti, apprezzo molto il modo che hai di spiegare cose molto complicate con parole chiare e comprensibili. Gli argomenti stessi non si prestano alla brevità :)

Il riferimento ad r300 non voleva essere un confronto "meglio questo o quello", ma sentendoti parlare di ottima qualità ho inteso fare un paragone con qualcosa di conosciuto per capire se questa qualità avrà effettivamente qualcosa di più di altri prodotti presenti sul mercato oppure se è in un'altra salsa quello che è già presente in r300 (visto che è l'unico chip dx9 disponibile). La mia impressione, lo ripeto, è che in fine della fiera la qualità complessiva di nv30 sarà sicuramente buona, ma niente di così miracoloso come hanno tentato di farci credere.

Se poi nv35 parte da dove è arrivato nv30 penso che sia ne più ne meno che quello che nvidia avrebbe dovuto fare fin dall'inizio, anche se tenteranno di propinarci la storia di un'altro miracolo :p

Milio

yossarian
01-04-2003, 15:58
Originally posted by "Legolas84"



E questo spesso succede non per la bontà del prodotto, ma per l'ignoranza (intesa nel senso buono e non offensivo :) ) dei consumatori e delle aziende che pomapano i propri prodotti e sostanzialmente vendono fumo.... vedi GeForce FX....

Il fatto è che. spesso per negligenza propria o per disinformazione, gli utenti finali non hanno accesso a fonti di informazioni quali quelle a cui faceva riferimento Milion, ossia i vari forum o i siti specializzati in HW, di cui pochissimi conoscono l'esistenza. Perciò si finisce con il farsi influenzare dalla pubblicità, dai consigli dell'amico "esperto", del negoziante "di fiducia". Non tenendo conto che, a volte, l'amico può non essere così esperto e il negoziante così competente o informato. Perciò sono dell'idea che l'FX flow sia una pessima pubblicità per nVIDIA, molto di più del mettere sul mercato un chip che non sia il più veloce. Il motivo è presto spiegato; che l'NV30 non è il chip più veloce, che ha dei problemi di architettura che lo limitano in maniera drastica, che è stato overclockato al punto da non poterlo spingere oltre, lo sanno gli addetti ai lavori e i maniaci di HW (schede video in particolare); prova a metterti, però, nei panni di chi acquista la versione Ultra, essendo all'oscuro di tutto questo. Non saprà cosa vuol dire overclock, però il rumore lo sente bene (e parlo di gente che non ha l'abitudine di mettere 7 ventole nel case, che non sa neppure cosa sia un cristal orb, che pensa che Termaltake faccia impianti di condizionamento, ammesso che ne abbia mai sentito parlare, ecc. ecc. ; e vi assicuro che questa è la stragrande maggioranza degli utenti).

Chiudo con una battuta (per carità non vi inca@@ate :D )

L'FX non è solo fumo: prova a farlo funzionare senza aspirapolvere

:D

Milion
01-04-2003, 15:59
Originally posted by "Legolas84"



E questo spesso succede non per la bontà del prodotto, ma per l'ignoranza (intesa nel senso buono e non offensivo :) ) dei consumatori e delle aziende che pomapano i propri prodotti e sostanzialmente vendono fumo.... vedi GeForce FX....

Io sono di questo parere sin dai primi segni di cedimento di 3dfx, ma non possiamo negare anche il peso delle scelte sbagliate che hanno compiuto.
Nvidia assorbirà il colpo nv30 perchè ha enormi risorse finanziarie (uno potrebbe pure dire che qualunque prodotto medio venduto a prezzi di prodotti ottimi realizza lauti guadagni ;) ) e se 3dfx non avesse sperperato le sue risorse nel tentativo di affermare glide come piattaforma proprietaria probabilmente avrebbe assorbito anche lei il colpo voodoo5.

Milio

Milion
01-04-2003, 16:03
Originally posted by "yossarian"




L'FX non è solo fumo: prova a farlo funzionare senza aspirapolvere

:D

Ha fatto la battuuuuutaaaa ha fatto! :D

Milio

P.s. Milion è solo frutto della perdita della password originaria del forum e del fatto che le richieste di aiuto ai moderatori per rientrare in possesso del nick originario non hanno avuto alcuna risposta :)
So Milio senza enne :)

Milio

yossarian
01-04-2003, 16:03
Originally posted by "Milion"

La mia era solo una battuta yoss; in realtà, come ho già avuto modo di dirti, apprezzo molto il modo che hai di spiegare cose molto complicate con parole chiare e comprensibili. Gli argomenti stessi non si prestano alla brevità :)

Il riferimento ad r300 non voleva essere un confronto "meglio questo o quello", ma sentendoti parlare di ottima qualità ho inteso fare un paragone con qualcosa di conosciuto per capire se questa qualità avrà effettivamente qualcosa di più di altri prodotti presenti sul mercato oppure se è in un'altra salsa quello che è già presente in r300 (visto che è l'unico chip dx9 disponibile). La mia impressione, lo ripeto, è che in fine della fiera la qualità complessiva di nv30 sarà sicuramente buona, ma niente di così miracoloso come hanno tentato di farci credere.

Se poi nv35 parte da dove è arrivato nv30 penso che sia ne più ne meno che quello che nvidia avrebbe dovuto fare fin dall'inizio, anche se tenteranno di propinarci la storia di un'altro miracolo :p

Milio

Certo, tieni conto anche di un'altra cosa molto importante. All'interno dei chip i colori cengono elaborati a 32, 24, 16 bit (e ciò permette di avere un maggiore o minore numero di sfumature), quello che viene visualizzato sul monitor è sempre, al massimo, 32 bit per pixel (ossia 8 bit per colore e 8 per il canale alfa, che diventa 10 bit per colore per R300 e Prhelia con 2 soli bit per il canale alfa). Questo riduce in maniera considerevole l'impatto visivo dovuto ad un'elaborazione interna più complessa. Per questo motivo le differenze non risultano troppo evidenti (altrimenti tra un'elaborazione a 16 ed una a 24 bit ci sarebbe un abisso).

p.s. non ti preoccupare, non me la sono assolutamente presa ;)

Ciao Milio

STICK
01-04-2003, 21:12
che risposte! :eek:

complimenti per questa discussione! :) :) Mai mi sarei sognato di assitere ad uno scambio di post cosi interessante in una discussione da me iniziata!
Dalle vostre considerazioni sono uscite belle (e corpose) discussioni e per di piu' da quello che vedo senza flame inutili,visto l'argomento in questione.
In piu' e' stata fatta chiarezza su certe situazioni di mercato dove se non ci stiamo attenti finiamo con l'essere penalizzati noi fruitori:i forum servono pure a questo! ;) E qui su hwupgrade alla fine si puo' contare sull'aiuto di persone preparate da come si vede!
Continuate cosi!

Qui ci vuole il "premio moderatore" per migliore discussione :D :D :D
Senza nulla togliere alle altre,ovviamente! ;)

byezzzzzzzz!

DjLode
01-04-2003, 21:27
Sì in effetti vedere post così lunghi (che putroppo non ho letto per mancanza di tempo) e dopo due pagine neanche una donnina con in mano la FX che si asciuga i capelli... bhè credo sia record :)

yossarian
01-04-2003, 21:39
Originally posted by "STICK"

che risposte! :eek:


Qui ci vuole il "premio moderatore" per migliore discussione :D :D :D
Senza nulla togliere alle altre,ovviamente! ;)

byezzzzzzzz!

Raven, dove sei?


:D

spk
01-04-2003, 21:49
Originally posted by "STICK"

che risposte! :eek:

complimenti per questa discussione! :) :) Mai mi sarei sognato di assitere ad uno scambio di post cosi interessante in una discussione da me iniziata!
Dalle vostre considerazioni sono uscite belle (e corpose) discussioni e per di piu' da quello che vedo senza flame inutili,visto l'argomento in questione.
In piu' e' stata fatta chiarezza su certe situazioni di mercato dove se non ci stiamo attenti finiamo con l'essere penalizzati noi fruitori:i forum servono pure a questo! ;) E qui su hwupgrade alla fine si puo' contare sull'aiuto di persone preparate da come si vede!
Continuate cosi!

Qui ci vuole il "premio moderatore" per migliore discussione :D :D :D
Senza nulla togliere alle altre,ovviamente! ;)

byezzzzzzzz!


D'accordissimo! :)
Raga quando si parla di discussioni costruttive, ci si riferisce a questo :) (non che dobbiamo assere tutti esperti come loro, ma lo spirito è quello) :D


<<Cerco di risponderti brevemente>>

:eek: :eek: :eek: :eek: :eek:



:sofico:

DjLode
01-04-2003, 22:29
Brevemente.
Non sono d'accordo su una cosa, sul fatto che (mi pare yoss) si sia detto che l'NV35 dai pochi dati che si hanno sia un chip del tutto nuovo rispetto all'Nv30. Io credo che sia un evoluzione nel senso di rifinitura di un progetto iniziale e quindi un miglioramento, non un chip totalmente nuovo. La differenza è sottile e forse è un modo di cercare il pelo nell'uovo, ma da questo punto di vista allora anche il Gf4 è un chip totalmente nuovo rispetto al Gf3. Il primo ha infatti due motori di vertex rispetto al secondo. Ora, la differenza può essere piccola ma riporta ad una progettazione globale (non totale) del chip visto che non sono modulari e non si può prendere un pezzo e "attaccarlo" al chip precedente inventandone uno nuovo. Oltretutto anche il motore di AA è cambiato rendendo disponibile il 4xS che sul Gf3 non c'era (era attivabile via software ma funzionava in maniera diversa) e il Quincunx era molto meno sfocato. Ho letto sui white paper Nvidia che ora c'è anche la possbilità di applicare un anisotropico a 2x per riportare a corretta sfocatura l'immagine direttamente dal motore Intellisample (se non erro si chiama così quello di AA), senza ricorrere al filtro anisotropic attivabile anche senza AA.
Detto questo l'Nv35 è in tutto e per tutto uno sviluppo e quindi una rivisitazione dell'NV30 non perchè è un NV30 in tutto e per tutto con bus a 256bit (che NV30 non supporta e quindi non è stato "attivato" ma inserito di nuovo come giustamente è stato detto) ma perchè parte da un progetto (NV30) e cerca di correggere gli errori e quindi porta ad un miglioramento. Oltretutto questo si vede dal fatto che i transistor in più sono molto pochi (circa l'8%) e non c'è una radicale rivoluzione del chip nella sua totalità.
Detto questo vorrei far notare che in tante parti e su tanti forum si parla di fallimento totale del chip Nv30. Partendo dal presupposto che come è stato detto oggi come oggi proporre un chip "veloce come" è una sconfitta, non lo giudico un fallimento totale, solo va preso in una determinata maniera. Come? Ve lo spiego :) Il tutto sempre IMHO.
Intanto parto dal presupposto che dai test in rete si vede che l'FX migliora con ogni release dei driver in quanto a velocità i suoi punti deboli saltano fuori nell'uso di AA, anche se da alcune parti non so come risulta molto più veloce della 9700 in ogni risoluzione (vedi Pc Professionale). Prendendo con le pinze i test dove dimostra o tutto o niente (cioè o dove è sempre più lenta o dove è sempre più veloce) si può affermare che si sia tornati a Settembre 2002, nel pieno del confronto 8500 vs Gf3. La prima era un'ottima scheda, castrata da driver orrendi e che ogni tanto batteva la Gf3, ogni tanto le prendeva sonoramente (e lasciamo perdere l'AA, non voglio fare un discorso più veloce quindi migliore ma un discorso più ampio). Per quanto tempo Ati e le sue schede si sono tirate dietro l'eredità di quel confronto? E cioè GF3 sempre e cmq più veloce della 8500 e Ati che fa i driver penosi (a detta di alcuni ancora ora). Credo che ci si trovi ancora in questo caso, dove la Fx "è sempre più lenta" anche se non lo è sempre. E infatti se vedete in giro (anche su altri forum) tutti ad insultare il phon e ad elogiare la 9700 (giustamente). Integro il tutto dicendo che se mi conoscete e avete sleggiucchiato qualcuno dei miei interventi, dubito fortemente di aver preso sempre le difese di una casa piuttosto che di un'altra, quindi cercate di capire il discorso che ho fatto, se vedo qualche intervento tipo "la gf3 vinceva di qua" "la 8500 vinceva di là" "la fx è più veloce la 9700 di più", semplicemente mi avrete fatto perdere del tempo nel leggervi e avrete perso tempo nel leggermi.
Concludo (sempre brevemente) portando il discorso sul fatto "Fx = cesso". Tutto sempre IMHO. La vera Fx è la liscia, frequenze di 400/400 per ram e cpu. L'altra è una versione Ultra che doveva uscire prima di Nv35 (o contemporaneamente per la fascia medio bassa del mercato) e quindi le frequenze erano state studiate tenendo conto dell'affinamento del processo di produzione. Dopo tutto guardate anche le cpu, appena uscite scaldano e non si overclockano, poi di colpo salgono che è un piacere. Quindi la Ultra si porta a dietro un peso (il phon) che è diventanto al tempo stesso segno che la distingue e palla al piede. Non l'ho mai provata di persona ma dagli mp3 in rete sembra che faccia rumore come una Delta o giù di lì. Ho visto gente con una Delta@12v criticarla. Insomma non mi sembra il caso. Così come gente ha detto che il rumore è molto personale come idea, il mio pc ad esempio per me è normale per i miei e i miei amici è un trattore. Lasciando perdere questa digressione, NV30 non è un prototipo (come si legge da qualche parte) o un chip che non doveva uscire, così come l'NV35 non è stato anticipato. Secondo me il tutto era previsto per quei tempi, solo che c'è stato un problema. TSMC che non riusciva a produrre chip in quantità e a prezzi accessibili, da qui l'accordo con IBM (che sicuramente produrrà chip in volumi quasi da subito) per i progetti futuri. Ormai l'Nv30 è stato compromesso ma non da scelte sbagliate (o almeno non principalmente) ma da incidenti di percorso che l'hanno fatto ritardare fino ai giorni nostri (e ancora latita). Se fosse uscito quando doveva uscire (data di presentazione + 2/3mesi) sarebbe uscito circa quando la 9700 e ora avrebbe mesi di sviluppo alle spalle e parecchi problemi di meno. Considerate che avere qualche sample fuori che gira su software magari anche futuro e avere un parco schede di milioni di esemplari, testati anche dagli utenti finali è diverso. Ovviamente il tutto è a favore del secondo caso. Quindi direi che i problemi principali non sono imputabili all'architettura anche perchè "se la gioca" a livello di prestazioni, ma da ritardi dovuti a terzi e da Ati. Cosa c'entra? Ha tirato fuori un chip che probabilmente nessuno, neanche il suo più grande estimatore si immaginava, chip non certo perfetto ma talmente buono da reggere il confronto con un altro uscito mesi dopo (ma cmq ripeto pronto ai "suoi tempi") ma che sarebbe risultato pari anche se fosse uscito ad Ottobre 2002. E' un bel vantaggio per Ati e un gran problema per Nvidia. Direi che a parte qualcuno che ancora non se n'è accorto, la situazione si è invertita. Prima R100 e R200 erano visti con diffidenza e si tiravano dietro le varie nomee di cui ho parlato prima. Ora è Nvidia che deve dimostrare qualcosa. Detto questo dubito fortemente che la partita sia chiusa, non perchè non ho voglia di arrendermi da fan estimatore di Nvidia (cosa che non sono ma che non vorrei sembrare dopo questo piccolo post), ma perchè so (e sappiamo) che popò di aziende ci sono in ballo. Nvidia e Ati :)
Spero che nessuno sia svenuto a leggere il mio breve post, che non ho riletto e quindi spero risulti in italiano :)

yossarian
02-04-2003, 02:14
Ciao Dj, ti rispondo, spero brevemente :rolleyes:
Nel passaggio tra GF3 e GF4, a parte l'utilizzo della modalità 4xS dell'AA, l'unica vera modifica strutturale è consistita nell'aggiunta di una seconda unità VS che ha sostituito la vecchia unità TL che nel GF3 era ancora operante (in alternativa al motore VS) per questione di compatibilità con i giochi che utilizzavano la modalità TL statica (molto pochi per la verità). Tale modifica non ha costretto a variazioni tecniche particolari, poichè faceva parte di un progetto organico: L'NV20 nasceva già con determinate possibilità di sviluppo che prevedevano anche l'utilizzo di una seconda unità VS (prima dell'NV25 è infatti uscito l'X-Box, il cui X-Chip, una via di mezzo tra GF3 e GF4 e comunque derivato dal progetto NV20, ha due unità VS). Questo è il motivo per cui considero l'NV25 una semplice evoluzione ell'NV20 e non un nuovo chip (come è per l'R350 e l'R300, d'altra parte).
Diverso, non tanto dal punto di vista del numero dei transistor quanto da quello della filosofia che lo ha ispirato, è il caso dell'NV30 e dell'NV35. Come hai giustamente detto, il vero NV30 è la versione liscia e io sono d'accordo con te nel non considerarlo assolutamente un cesso. Il fatto è che, al di là dei bench (PC professionale è un'ottima rivista, ma poco obiettiva quando c'è di mezzo nVIDIA), la FX presenta dei limiti nell'architettura, il più evidente dei quali, la limitata bandwidth, si è tentato di aggirare aumentando la frequenza della ram. Nei piani di nVIDIA, la ultra non sarebbe neppure dovuta esistere e si sarebbe passati direttamente dall'NV30 all'NV35. Delle difficoltà di TSMC a produrre chip a 0,13 micron in volumi si sapeva da tempo, come si sapeva che tali difficoltà non sarebbero state superate a breve (se non a costo di riorganizzare completamente le linee di produzione). Se c'era reale volontà di commercializzare subito in volumi il chip, nVIDIA si sarebbe dovuta muovere prima e cercare un nuovo partner (come ha fatto per l'NV35). L'addossare la colpa interamente al passaggio a 0,13 micron è stata una mossa solo in parte riuscita.
Come dicevo prima, l'NV30 nasce con limiti architetturali evidenti; per brevità ne elenco solo qualcuno:
1) la bandwidth - era già un limite ai tempi della GF2; si è tentato di superarlo con l'introduzione di tecniche per la rimozione dei poligoni nascosti; si è tentato di aumentare la banda aumentando la frequenza, ma anche qui si è giunti ad un punto morto (per avere la stessa bandwidth della 9700pro, mantenendo un bus a 128 bit, bisognerebbe avere ram da 1,6 ns!); tieni conto che la versione liscia della FX ha una bandwidth di 12,8 Gb, che,se confrontati con i 10,4 della TI4600, non danno l'idea di un grande passo in avanti.
2) la struttura a 4 pipelines; diventa un limite all'aumentare della complessità dei calcoli, perchè permettendo di lavorare solo su 4 pixels per volta, costringe ad accessi troppo frequenti al frame buffer; di contro un numero maggiore di pipelines comporta un maggior trasferimento di dati e richiede una più ampia bandwidth (è un po' il cane che si morde la coda). A parità di frequenze di funzionamento un'architettura 8x1 sarà sempre più veloce di una 4x2, poichè gli accessi al buffer interno del chip, per realizzare il multitexturing, sono molto più veloci degli accessi alla ram video (e la FX dovrà accedere alla ram video sempre il doppio delle volte rispetto all'R300). Da qui la necessità di far lavorare il chip a frequenze più alte.
3) la scelta di un'unica "matrice" che elabora VS e PS in luogo di unità separate, valida sotto l'aspetto teorico ma che avrebbe necessitato di più pipelines per avere una vera efficienza pratica paragonabile a quella dell'R300. Sintetizzando brutalmente, il processo di elaborazione di una scena 3D passa per tre fasi principali: a) calcolo dei vertici; b)rimozione dei poligoni nascosti; c) rendring (applicazione delle textures). Questem operazioni che per un singolo frame avvengono in sequenza, sono, in realtà contemporanee, poichè mentre si sta renderizzando una scena è già iniziato il calcolo della posizione dei vertici della successiva. Ciò comporta, in una struttura ad array, lo storno di parte delle risorse (intese come pipelines) dal processo di rendering. Non è quindi corretto immaginare che le 4x2 pipelines dell'NV30 processino 8 vertici per volta e, successivamente, 4 pixels per volta (contro i 4 vertici e gli 8 pixels effettivi dell'R300). Questa è l'altra ragione che ha spinto nVIDIA a overclockare il core dell'FX5800.
Questo spiega l'overclock spinto operato su chip e ram dell'NV30, che ha prodotto la versione Ultra.
L'NV35 nasce già con una filosofia diversa (bus a 256 e ram DDR, probabilmente intorno a 350 Mhz o poco più = basta rincorsa alle frequenze per aumentare la bandwidth). In questo non è assolutamente un'evoluzione dell'NV30 ma una sua rivisitazione (con correzione di qualche errore). Che poi l'NV30 introduca una serie di innovazioni che saranno riprese sull'NV35 (e probabilmente anche su altri chip di produttori diversi) è praticamente certo e, in questo senso, l'NV35 si può considerare evoluzione dell'NV30 (come è sempre successo in passato, anche per chip non troppo fortunati, come il Savage 3D con cui è stata introdotta la S3TC, o non sfruttati a dovere, come il Radeon 256 su cui sono stati implementati, per la prima volta, processi quali il Morphing e la Keyframe Interpolation, pur non disponendo di una vera unità TL programmabile, che sono stati alla base dell'unità VS dell'NV20).

Insomma, spero di aver chiarito il mio punto di vista e il motivo per cui considero NV30 e NV35 chip diversi (pur avendo molto in comune).

Ciao :)

yossarian
02-04-2003, 02:16
vi prego non trascinatemi più in queste discussioni, altrimenti qualcuno potrebbe pensare che io sia logorroico

:D

Simon82
02-04-2003, 06:36
Speriamo cmq che ditte come Nvidia dopo batoste prese come l'NV30 che e' il puro esempio che la rincorsa alla palma d'oro per chip con frequenze piu' elevate, non serve assolutamente a niente, si sforzino un pochetto per tirare fuori qualcosa di realmente innovativo. Se ci fate caso quasi c'erano piu' innovazioni tecnologiche anni fa'. Il Kyro2 ne e' il fulgido esempio: ho sempre detto che se studiassero un'architettura basata sul salvataggio della banda come quella del Kyro2 con un motore potente come quello dell'R300 a quest'ora non ci sarebbero piu' problemi di Anti aliasing. Ma ve lo immaginate?

Anche se so che la complessita' del Kyro2 non permetteva integrazioni con engine altrettanto complessi quali il T&L fisso, figurati quello programmabile, penso che ditte che investono centinaia di milioni di dollari in progetti fallimentari o poco meno come l'NV30, potrebbero mettersi a studiare qualcosa di innovativo che a prescindere dalle Directx usate, riesca ad offrire al cliente finale un prodotto che realmente appaga nonostante i soldi spesi. ;)

Milion
02-04-2003, 09:33
Anche io mi baso su parametri diversi da quelli di yoss e molto più vicini a quelli di dj per giudicare la novità di un prodotto (i miei sono anche molto meno tecnici ed invece rivolti alla effettiva resa finale) e per questo anche secondo me il chip nv35 lo considero soltanto un affinamento di nv30.
Anzi sono più estremo :)...nv35 è il chip che sarebbe dovuto essere nv30, il risultato cioè di una strategia esente dagli errori che ha invece evidenziato.
Dj io non giudico un pessimo chip nv30 se considerato in assoluto. Ma è mia opinione che la percezione relativamente alla sua qualità peggiori pesantemente una volta inserito nel contesto di mercato in cui nvidia ha tentato di collocarlo ed in cui essa stessa si colloca dai tempi del tnt.
Per essere chiari, se nvidia fosse ferrari che vuole vincere a tutti i costi il gp (perchè la sua strategia è stata questa sempre fin dai tempi del tnt) non può tirare fuori una macchina a reazione che però va come una aspirata perchè i condotti del carburante sono sottodimensionati, difendendosi però in questo dicendo "ah beh...però una macchina a reazione non l'ha mai fatta nessuno".
O al limite lo fai consapevole che una tecnologia nuova (che tra l'altro non è così dissimile da quella del concorrente e quindi non è la novità in assoluto il problema ma la novità relativamente a quella sola casa costruttrice (leggasi _errori_)) sarà vincente una volta affinata e non certo al suo esordio, rinunciando così alla palma della più veloce. Cosa questa assolutamente non avvenuta.
Ecco perchè secondo me nv30 è un chip tutto sommato pessimo: preso in un immaginario mercato senza confronti e senza storia del costruttore sarebbe una piccola magia (nella sua versione liscia...in questo credo siamo tutti concordi :)), ma la realtà è che non siamo in un mercato senza concorrenza di confronto o senza storia del produttore.
Riguardo alle tempistiche di presentazione e uscita dj sono invece ormai assolutamente convinto, ovviamente sempre a livello di opinione personale, che la storia dei problemi ti TSMC nel passaggio a 0,13 sia soltanto frutto di informazioni distorte che abbiamo avuto e su cui abbiamo ricamato. Gli unici problemi che aveva la fabbrica erano quelli di poter ottenere dei wafer con una resa sufficientemente buona da poter spingere la frequenza dei chip fino a 500 per _pure esigenze di marketing_ e per niente altro. Sono sicuro che di versione liscie TSMC ne avrebbe potuti produrre in quantità sin dall'autunno dello scorso anno. E' risaputo che l'affinamento produttivo è questione di tempo e di sperimentazione del processo: una catena appena convertita non darà mai una resa tale per cui i chip possano essere pompati come è stato con nv30...anzi come hanno preteso che fosse per nv30 per presentare una versione ultra a tutti i costi. Questo è il motivo per cui non riescono a produrla in volumi secondo me, perchè la tecnologia 0,13 in 120 milioni di transistori a questo livello di processo produttivo non è in grado di fornire percentuali di chip a 500 mhz accettabili dai wafer che usano. Ecco allora l'esigenza di aspettare per avere dei sample che, ovecloccati e resi stabili dal phon, potessero non sfigurare sotto il profilo delle prestazioni (perchè, ripeto, nvidia solo su quello ha costruito la sua fortuna e venendo meno quello non sa su cosa fare leva...non ha altri elementi di fidelizzazione della sua clientela)
Ovviamente non ho dati che confermino questa mia tesi, che si basa solo su riflessioni e opinioni :)

Milio

Legolas84
02-04-2003, 10:42
Originally posted by "Milion"



Io sono di questo parere sin dai primi segni di cedimento di 3dfx, ma non possiamo negare anche il peso delle scelte sbagliate che hanno compiuto.
Nvidia assorbirà il colpo nv30 perchè ha enormi risorse finanziarie (uno potrebbe pure dire che qualunque prodotto medio venduto a prezzi di prodotti ottimi realizza lauti guadagni ;) ) e se 3dfx non avesse sperperato le sue risorse nel tentativo di affermare glide come piattaforma proprietaria probabilmente avrebbe assorbito anche lei il colpo voodoo5.

Milio

Su questo siamo tutti daccordo, ha fatto i suoi errori però e anche grazie a concorrenza "scorretta" e ignoranza che è fallita, imho nvidia non è mai stata veramente avanti a 3dfx....

Milion
02-04-2003, 11:31
Originally posted by "Legolas84"



Su questo siamo tutti daccordo, ha fatto i suoi errori però e anche grazie a concorrenza "scorretta" e ignoranza che è fallita, imho nvidia non è mai stata veramente avanti a 3dfx....

Sono assolutamente d'accordo. Ma siamo una strettissima minoranza a pensarla così :)

Milio

STICK
02-04-2003, 12:34
Ragazzi,ammettiamo che verso Settembre siano disponibili per la vendita le schede grafiche basate sull'NV35,a quel punto tutte quelle basate sull'NV30 (quindi dalla 5200 alla 5800 ultra) che fine faranno?In particolare le due 5800 (liscia e ultra) continueranno a campare o saranno pensionate dalla stessa nVidia per prematura "anzianita' di servizio" (e magari destinate al mercato dei collezionisti)?
E i prezzi?

C'e' molta confusione e disorientamento in questo momento;forse l'unica cosa da fare e' quella di non correre a fare acquisti azzardati ma aspettare prudenti l'evoluzione rapida che si sta avendo ora.

Ciao ;)

Simon82
02-04-2003, 12:42
Originally posted by "STICK"

Ragazzi,ammettiamo che verso Settembre siano disponibili per la vendita le schede grafiche basate sull'NV35,a quel punto tutte quelle basate sull'NV30 (quindi dalla 5200 alla 5800 ultra) che fine faranno?In particolare le due 5800 (liscia e ultra) continueranno a campare o saranno pensionate dalla stessa nVidia per prematura "anzianita' di servizio" (e magari destinate al mercato dei collezionisti)?
E i prezzi?

C'e' molta confusione e disorientamento in questo momento;forse l'unica cosa da fare e' quella di non correre a fare acquisti azzardati ma aspettare prudenti l'evoluzione rapida che si sta avendo ora.

Ciao ;)
Imho l'NV30 in versione Ultra rimarra' una scheda venduta ben poco.. come ai tempi lo fu la Savage2000. Verra' supportata dai driver ma non verra' ottimizzata a fondo e verra' dimenticata con l'avvento dell'NV35 sempre che abbia un avvento.. ;)
Nvidia stoppera' la creazione di chip NV30 e questa scheda sparira' per sempre.

Legolas84
02-04-2003, 12:46
Originally posted by "Milion"



Sono assolutamente d'accordo. Ma siamo una strettissima minoranza a pensarla così :)

Milio

Si vede che le persone ben informate erano poche.... ;)

DjLode
02-04-2003, 13:41
Riguardo alle mie puntualizzazioni sul fatto "Fx = cesso" non voleva essere un modo per controbattere quello che avevano detto i partecipanti alla discussione, ma un modo di raccogliere in un post tutto quanto si era sentito dire sull'Fx in forum, newsgroup e altri posti. Chiarito questo.
Sul fatto del dare tutta la colpa a TSMC siamo d'accordo. Le verità sono altre (o posso essere altre visto che cmq ci basiamo su notizie che appaiono in rete ma cmq già filtrate da qualcuno) ma quello che volevo dire io è che tutto sommato, anche considerando le forzature tecnologiche, il chip se fosse uscito quando doveva uscire, non sarebbe stato quel flop che tutti dicono. Riguardo al fatto della produzione in volumi di chip o produzione in volumi di chip che reggono i 500mhz, la storia può sembrare diversa da come l'abbia detta io. Ma sono d'accordo. Ovviamente se si punta su un modello che non si riesce a produrre per problemi vari non si può neanche buttare fuori il suo modelli inferiore (di solito si buttano fuori modelli al top, poi via via si scende nella scala). Sinceramente se le cose sono andate così non lo so, ma se così fosse è un'altra zappata sui piedi che Nvidia si è tirata. Insomma butta fuori una scheda, non è il top ma almeno hai qualcosa sul mercato. Rimane il fatto che le Ultra saranno appannaggio di pochi e che non ho ancora vista una recensione (ma posso anche essermela persa) che confronti le alternative non "pompate" dei due chip. Insomma, come si comporta la 5800 rispetto alla 9700 normale? E rispetto alla Pro? Direi che il punto di discussione è tutt'altro che banale. Ad esempio io ora come ora (anche se non ho intenzione di cambiare, aspetterò alla fine dell'anno quando si parlerà dei nuovi progetti per decidere) non ho 580€ per una Fx Ultra come non ho 400 e rotti € per una Pro. Una 9700 liscia a circa 300€ rappresenta un ottimo prezzo, ma come si comporta in overclock? (ovviamente la comprerei per overclockarla, ci mancherebbe altro). E il confronto 5800 liscia contro 9700 Pro se a tanti può fare storcere il naso, se si considera il prezzo siamo sulla stessa fascia.
Detto questo se fosse possibile (cosa che non è) mi piacerebbe veramente vedere una Fx con bus a 256bit, tanto per vedere se le prestazioni aumentano (e quindi se l'NV35 che ci spacciano per un nuovo chip niente altro è che un NV30 con le briglie sciolte e qualche altro miglioramento) o se proprio l'NV30 arriva lì e non va oltre. E' una curiosità che nessuno potrà togliermi così come il dubbio di fondo.
Sinceramente non so che fine faranno le 5800 all'introduzione del successore. Potrebbero essere tolte dal mercato o finire al posto delle MX (ovviamente le Ultra saranno le prime a sparire).
Una cosa mi da veramente fastidio però che quando esce qualcosa, si comincino a buttare fuori notizie sul suo seguito. Sinceramente le notizie sull'NV35 potrebbero far guadagnare tempo, come toglierlo tutto di un botto (quanti avranno detto "no basta, non mi fido più?". Sinceramente tanti quanti avranno detto "ok, aspetto". E cmq la si guardi non è una gran cosa). Ma non voglio fare previsioni, non sono un mago e mai lo sarò.

yossarian
02-04-2003, 13:57
Sull'ultimo punto posso tentare di darti una risposta. A parte il confronto farsa fatto con Quake3 a1600x1200 32 bit AA 4x aniso 8X, tra NV30 e NV35 alla stessa frequenza (250/250), si è letto in giro che il prossimo chip nVIDIA dovrebbe avere prestazioni che, in alcuni casi (condizioni di impiego estreme), dovrebbe avere prestazioni superiori del 40-50% rispetto all'FX5800 Ultra. Considerando l'utilizzo di ram DDR1 e, quindi, ipotizzando una frequenza di funzionamento di circa 350 Mhz per le ram, la bandwidth ottenuta è esattamente il 40% superiore a quella dell'NV30, e diventa del 50% superiore con frequenza di 375 Mhz. Se, quindi, NV35 è solo un'evoluzione dell'NV30, di cui mantiene la stessa architettura delle pipelines, in condizioni d'impiego in cui la bandwidth è l'unico elemento determinante, un aumento prestazionale del 40-50% sarebbe perfettamente in linea con l'aumento della bandwidth (quindi, in effetti, potresti vedere una FX con bus a 256 bit). C'è solo da vedere se rimarrà inalterata l'architettura 4x2, oppure nVIDIA deciderà di adottare una più efficiente 8x1.

Ciao