View Full Version : NV4x: grosse aspettative da parte del CEO di nVidia
Redazione di Hardware Upg
05-03-2004, 09:48
Link alla notizia: http://news.hwupgrade.it/11950.html
Jen-Hsun Huang, CEO di nVidia, ha rilasciato alcune entusiastiche dichiarazioni sulla prossima generazione di chip video di fascia alta
Click sul link per visualizzare la notizia.
halduemilauno
05-03-2004, 09:57
vedremo.
:)
blubrando
05-03-2004, 10:11
forse non ho capito bene: la potenza del chip è diretta funzione della cpu di sistema?
L'ideale sarebbe che a questo giro nVidia superasse ATI (però non di molto... a scanso di equivoci ho una 9500Pro e ne vado fierissimo!) così in tal modo ATI non si cullerebbe sugli allori così meritatmente guadagnati e sarebbe stimolata a fare ancora meglio.
Spero solo che tra le due società non si crei un cartello (per la serie "i più forti siamo noi e decidiamo noi a che velocità devono progredire i chip grafici"). Ma questo non è un mondo perfetto... anzi.
jcvandamme
05-03-2004, 10:18
BEH SE NV40 e solo 2 volte piu veloce allora la vedo dura per Nvidia... Ati all'IDF aveva detto che R420 sarebbe stato dalle 2 alle 3 volte piu veloce sui giochi Direct X 9.
Alberello69
05-03-2004, 10:19
spero che questo non avvenga!...anche perchè tra le due società c'è una grossa differenza quanto a fette di mercato!
voi che pensate?
Originariamente inviato da blubrando
forse non ho capito bene: la potenza del chip è diretta funzione della cpu di sistema?
Mi sembra che quando si dice "...un quantitativo sempre maggiore di operazioni può essere portata dalla cpu di sistema alla GPU..." si parli della possibilità di trasferire parte dell'elaborazione oggi a carico della cpu verso la gpu, quasi fosse una sorta di coprocessore. Immagino anche che si tratti comunque di elaborazioni esclusivamente di funzioni grafiche...
Aspetto di essere smentito...
Alberello69
05-03-2004, 10:26
Originariamente inviato da jcvandamme
BEH SE NV40 e solo 2 volte piu veloce allora la vedo dura per Nvidia... Ati all'IDF aveva detto che R420 sarebbe stato dalle 2 alle 3 volte piu veloce sui giochi Direct X 9.
vedi che c'è scritto ''almeno 2 volte''
....e poi si riferisce alla serie NV4x.... e non a NV40 che sarà la prima scheda successiva alla 5950...non vi illudete perchè l'incremento rispetto a quest'ultima sarà max del 30-40%
Fullerene
05-03-2004, 10:27
Quindi finalmente potremo giocare fluidamente a 1200fps a Quake 3?
il conte
05-03-2004, 10:38
+ programmabile
+ veloce
+ economico (per loro)
Praticamente "+" ovunque: queste sono dichiarazioni che mettono in luce chiaramente le capacità di un prodotto... Faceva prima a dire: "Pensate ad un qualsiasi aspetto del chip: bene, lo abbiamo migliorato!" Grazie al tubero, se nVidia mica S3 (con tutto il rispetto per la gloriosa virge).
Mmhhhh...
halduemilauno
05-03-2004, 10:38
Originariamente inviato da jcvandamme
BEH SE NV40 e solo 2 volte piu veloce allora la vedo dura per Nvidia... Ati all'IDF aveva detto che R420 sarebbe stato dalle 2 alle 3 volte piu veloce sui giochi Direct X 9.
ho detto vedremo. quindi aspettiamo.
:) :)
letto pvt.
ciao.
;)
Alberello69
05-03-2004, 10:39
lol
Lord Archimonde
05-03-2004, 10:49
Se queste sono le prestazioni mi sto leccando i baffi per
come crolleranno i prezzi delle schede video attuali...
ormai faccio l'upgrade con la generazione precedente
tanto giochi che sfruttino l'hardware a pieno arrivano anni dopo
Originariamente inviato da lucio68
Mi sembra che quando si dice "...un quantitativo sempre maggiore di operazioni può essere portata dalla cpu di sistema alla GPU..." si parli della possibilità di trasferire parte dell'elaborazione oggi a carico della cpu verso la gpu, quasi fosse una sorta di coprocessore. Immagino anche che si tratti comunque di elaborazioni esclusivamente di funzioni grafiche...
Aspetto di essere smentito...
Su questo tipo di GPU puoi calcolare quasi qualunque cosa, soprattutto algoritmi prettamente vettoriali.
Ad esempio e' gia' possibile calcolare la fisica dei corpi sulla GPU, oppure fare moltiplicazioni fra enormi matrici. Il problema al momento e' trasferire i dati calcolati alla CPU, problema che sara' risolto con PCI-E.
In realtà sulle ultime GPU è possibile eseguire anche algoritmi che non sono collegati alla grafica.
Se ne hai il tempo fai un salto qui http://www.gpgpu.org. Si tratta comunque di elaborazioni strettamente matematiche (per lo più operanti su vettori e matrici) visto che il set di istruzioni eseguibili dalle GPU è pesantemente orientato a questo tipo di calcolo.
Nei giochi si potrebbero sfruttare queste potenzialità per alleggerire la CPU dall'esecuzione di calcoli legati alla fisica (credo che già ci siano dei titoli che lo fanno ma non ricordo quali :-( )
Lord Archimonde
05-03-2004, 11:12
Ciao fek,
in parte hai gia' risposto
ma leggevo poco tempo fa di un progetto
per sfruttare la potenza di calcolo delle moderne gpu
anche in situazioni "normali" e non solo ne 3D
secondo te e' una strada perseguibilie?
ma il tuo intervento è sicuramente il più autorevole
Grazie per le delucidazioni, ma mi resta un dubbio legato al trasferimento dati. Mi sembra che la pci-e abbia un transfer rate di 4Gb/s. Coinvolgere la gpu in calcoli i cui risultati devono poi essere trasferiti indietro alla cpu via ram non rallenta comunque la resa del sistema? La cosa si potrebbe ovviare con algoritmi di gestione ottimizzati, in modo analogo a quanto succede per i sistemi operativi multiutente, ma l'utilizzo di queste features in windows che risultati darebbe oggi?
Il problema del bus ABP é la asincronicitá della banda passante: molto alta da GPU a MEM e bassa viceversa. PCI-E promette di essere parallela ma nn credo che cambierá molto :( Staremo a vedere se le prossime dx fanno qualche vantaggio reale o cosí via tutti a cambiare PC di nuovo :(
Sto per dire un'ovvietà... ma è naturale che attendere i risultati di un'elaborazione passata ad un 'coprocessore' implichi un ritardo, ma qui il discorso si fa complesso perchè dipende da cosa dò da calcolare alla GPU e se sono così bravo da ingegnerizzare l'engine (scusate l'allitterazione) in modo che nel frattempo esegua altri calcoli. PEr quanto rigurada l'uso in windows attualmente non so darti una risposta precisa
frankc83
05-03-2004, 11:30
secondo me il pci-express all'inizio nn sara poi cosi tanto veloce del agp 8x cmq staremo a vedere io intanto mi tengo la mia radeon9600pro 256mb @ 9600xt ke va davvero benissimo
Sono della stessa ideo di xray, sarebbe ora che nVidia, risorgesse e la Ati scendesse così rifanno una scheda come la Raddy9500 e io da buon possessore di Raddy 9500Pro@9700Pro, posso cambiare la mia scheda con un prodotto economico e qualitativamente superiore ;)
la 9500pro non diventa 9700pro.
la 9500 "liscia" da 128 diventa 9700pro.
cmq ci siamo stufati di sentire parole e parole...la mia sarà più veloce...la mia farà meno rumore...la mia sarà più lunga...la mia brilla al buio...la mia ti fa il caffè...la mia ti fa anche da scheda audio...
BASTA!!!
vogliamo schede che vanno bene e che costano poco.
Quando escono fatemelo sapere...fino ad allora non sparate ca**ate che tanto non possiamo verificare. Se proprio volete dateci dei dati tecnici e stop.
fino ad allora continuerò a tenere la mia 9500 d seconda mano, pagata una nullità e softmoddata come diceva Spyto.
TyGerONE
05-03-2004, 12:30
Quando mai si è mai visto un gioco che sfruttasse le librerei programmabili delle varie GPU Nvidia/Ati ? Praticamente mai. E non ne vedremo mai, visto che i giochi che escono seguono gli stadard DX9.x (o peggiori) e sono validi per tutte le schede video sul mercato. Pertanto l'affermazione del CEO di Nvidia secondo cui sarà facile "attendersi velocità di almeno 2 volte superiori a quelle delle precedenti generazioni di chip video nVidia. Questi risultati possono essere ottenuti grazie alla natura programmabile del chip.... " non è realistica. Macinerà sicuramente pià FPS, ma nulla più.
Ovviamente lo stesso discorso vale anche per ATI R4XX
Originariamente inviato da Nikles
la 9500pro non diventa 9700pro.
la 9500 "liscia" da 128 diventa 9700pro.
....
Ho tagliato corto, volevo dire 9500Pro overcloccata a livelli di una 9700Pro, ovvero segnano gli stessi punteggi. Il bello di questa scheda e che se ho bisogno di potenza per un gioco particolare la OC e gioco tranquillamente ;)
Queste sono le schede che mi piaciono pagata 200€ a marzo e oggi va più di una 9600XT ;)
Alberello69
05-03-2004, 12:42
Originariamente inviato da TyGerONE
Quando mai si è mai visto un gioco che sfruttasse le librerei programmabili delle varie GPU Nvidia/Ati ? Praticamente mai. E non ne vedremo mai, visto che i giochi che escono seguono gli stadard DX9.x (o peggiori) e sono validi per tutte le schede video sul mercato. Pertanto l'affermazione del CEO di Nvidia secondo cui sarà facile "attendersi velocità di almeno 2 volte superiori a quelle delle precedenti generazioni di chip video nVidia. Questi risultati possono essere ottenuti grazie alla natura programmabile del chip.... " non è realistica. Macinerà sicuramente pià FPS, ma nulla più.
Ovviamente lo stesso discorso vale anche per ATI R4XX
hai perfettamente ragione...il raddoppio ci sarà sicuramente a livello teorico e con i vari techdemo che usciranno...magari facessero giochi come ''Ogre''
:muro:
In giro si sente dire che la nuova soluzione nvidia è molto più veloce della controparte Ati.....ma credo che bisogna aspettare i prodotti finali per sapere la verità anche perchè la velocità non è tutto......
Ex Tenebrae
05-03-2004, 13:36
Tenete presente che si tratta "solo" di una conferenza per gli investitori: "Marketing BS at its highest" :)
:D :D
Per me il raddoppio ATI l'ha fatto davvero (non hanno mai raccontato balle e poi erano troppo più avanti non dovendo perdere tempo a rappezzare il vecchio progetto e potendosi così concentrare fin da prima sul nuovo), mentre nvidia inizia già a ridimensionarsi.
In my opinion ATI è avanti anche come date di rilascio ma stà aspettando la prossima mossa da parte di nvidia per dargli una ulteriore batosta. Poi è tipico di ATI lavorare sodo senza far circolare troppe voci per poi dimostrare con i fatti (e non a parole) la validità dei propri prodotti.
(non dimentichiamo che la 8500 ha raddoppiato la 7500 e che la 9700 ha raddoppiato la 8500) e tutto questo senza ricorrere ad ottimizzazioni, accordi, trucchi e chissà quant'altro :)
halduemilauno
05-03-2004, 13:46
Originariamente inviato da pg08x
:D :D
Per me il raddoppio ATI l'ha fatto davvero (non hanno mai raccontato balle e poi erano troppo più avanti non dovendo perdere tempo a rappezzare il vecchio progetto e potendosi così concentrare fin da prima sul nuovo), mentre nvidia inizia già a ridimensionarsi.
In my opinion ATI è avanti anche come date di rilascio ma stà aspettando la prossima mossa da parte di nvidia per dargli una ulteriore batosta.
(non dimentichiamo che la 8500 ha raddoppiato la 7500 e che la 9700 ha raddoppiato la 8500) e tutto questo senza ricorrere ad ottimizzazioni, accordi, trucchi e chissà quant'altro :)
solo una cosa ma chi ti ha detto che nVidia per l'NV40 ha rappezzato un vecchio progetto e invece non è ex-novo?
sulle altre tue farneticazioni non entro nel merito.
Originariamente inviato da halduemilauno
solo una cosa ma chi ti ha detto che nVidia per l'NV40 ha rappezzato un vecchio progetto e invece non è ex-novo?
sulle altre tue farneticazioni non entro nel merito.
Non è la prima volta che leggo i tuoi post ed è tipico che tu quando non riesci a capire una frase sensata la etichetti subito come farneticazione.
Ovviamente mi riferivo al tempo perso a rappezzare il progetto della geforce 5800 per mettere in piedi le 5900.
Tempo che ATI ha potuto fin da subito dedicare a qualcosa di nuovo.
Hai capito asesso ?
halduemilauno
05-03-2004, 14:03
Originariamente inviato da pg08x
Non è la prima volta che leggo i tuoi post ed è tipico che tu quando non riesci a capire una frase sensata la etichetti subito come farneticazione.
Ovviamente mi riferivo al tempo perso a rappezzare il progetto della geforce 5800 per mettere in piedi le 5900.
Tempo che ATI ha potuto fin da subito dedicare a qualcosa di nuovo.
Hai capito asesso ?
perchè questa tu come la definisci.
Originariamente inviato da pg08x
:D :D
In my opinion ATI è avanti anche come date di rilascio ma stà aspettando la prossima mossa da parte di nvidia per dargli una ulteriore batosta.
a ovviamente come se non si potesse da una parte rappezzare la 5800 con la 5900 e contemporaneamente dedicarsi al nuovo chip per l'appunto l'NV40.
Dark Schneider
05-03-2004, 14:05
Originariamente inviato da pg08x
Non è la prima volta che leggo i tuoi post ed è tipico che tu quando non riesci a capire una frase sensata la etichetti subito come farneticazione.
Ovviamente mi riferivo al tempo perso a rappezzare il progetto della geforce 5800 per mettere in piedi le 5900.
Tempo che ATI ha potuto fin da subito dedicare a qualcosa di nuovo.
Hai capito asesso ?
Cmq sbagli nel pensare che nVidia abbia solo un team di sviluppo. Mentre sta lavorando all'imminente NV40...c'è un altro Team che già ha gettato basi ed idee sulla progettazione di NV50.
Quando stavano lavorando a NV30...c'era già un altro Team che lavorava a NV40. Davvero credi che dopo l'immisione di un chip video...appena dopo un produttore inizia a lavorare ad un altro con architettura e finirlo in un anno? Assolutamente no. Per questo non c'è una perdita di tempo da parte da nVidia.
Per di più voglio ricordarti che Ati stava lavorando dai tempi dell'R300 all'R400....la scheda che doveva uscire adesso. Per vari motivi ha dovuto rinviare questo progetto rinominandolo R500....e ripiegare su una GPU con meno pretese: R420.
Originariamente inviato da Dark Schneider
Cmq sbagli nel pensare che nVidia abbia solo un team di sviluppo. ..... Per questo non c'è una perdita di tempo da parte da nVidia.
Spiacente ma non consideri un fattore molto importante,
se assegni più risorse a rappezzare un progetto vecchio te ne rimangono meno da dedicare a quello nuovo, gli ingegneri e progettisti capaci non crescono mica in cima agli alberi :D
Mah a me sinceramente il discorso di pg08x sembrava abbastanza chiaro.
Secondo me intendeva che c'è la POSSIBILITA' che un certo numero di risorse umane siano state convogliate nel rappezzamento ed allontanate temporaneamente dal progetto NV40, o se questo non è avvenuto, i partecipanti al progetto NV40 sarebbero stati comunque sotto una maggiore pressione, a causa dell'NV30, cosa che sarebbe avvenuta in una misura sicuramente ridotta, se il progetto NV30 fosse andato meglio.
Ogni tanto mi sembra che si faccia apposta a fare gli gnorri (non so come si scrive :D ) o a fraintendere.
Grazie Modhi, hai interpretato e chiarito perfettamente i miei pensieri.
halduemilauno
05-03-2004, 14:27
Originariamente inviato da Modhi
Mah a me sinceramente il discorso di pg08x sembrava abbastanza chiaro.
Secondo me intendeva che c'è la POSSIBILITA' che un certo numero di risorse umane siano state convogliate nel rappezzamento ed allontanate temporaneamente dal progetto NV40, o se questo non è avvenuto, i partecipanti al progetto NV40 sarebbero stati comunque sotto una maggiore pressione, a causa dell'NV30, cosa che sarebbe avvenuta in una misura sicuramente ridotta, se il progetto NV30 fosse andato meglio.
Ogni tanto mi sembra che si faccia apposta a fare gli gnorri (non so come si scrive :D ) o a fraintendere.
appunto la POSSIBILITA' non la certezza che chiaramente traspariva nelle parole di pg08x.
secondo me mi sembra che si faccia apposta a fare un'altra cosa.
ciao.
;)
Dark Schneider
05-03-2004, 14:51
Originariamente inviato da pg08x
Spiacente ma non consideri un fattore molto importante,
se assegni più risorse a rappezzare un progetto vecchio te ne rimangono meno da dedicare a quello nuovo, gli ingegneri e progettisti capaci non crescono mica in cima agli alberi :D
Sbagli se pensi che nVidia ha poche risorse. Ma credi realmente che chi stava progettando NV40 si è messo a rappezzare per il progetto precedente? No. Chi stava progettando Nv40...ha continuato a progettare NV40. Altri ingegneri magari ad aiutare i progettisti di NV30.
Nel versante Ati magari si può verificare quello che dici tu: lavoravano a R400, quando si son accorti che non era possibile progettarlo in tempo hanno ripiegato su R420.
Ma anche in questo caso io ti dico che il Team che stava lavorando ad R400...non ha abbandonato questo progetto per R420...ma stanno lavorando ancora a R400 che sarà il prossimo R500.
Originariamente inviato da Lord Archimonde
secondo te e' una strada perseguibilie?
Assolutamente si'. In futuro la GPU non sara' piu' una scheda grafica, ma un generico coprocessore vettoriale.
Originariamente inviato da lucio68
Grazie per le delucidazioni, ma mi resta un dubbio legato al trasferimento dati. Mi sembra che la pci-e abbia un transfer rate di 4Gb/s. Coinvolgere la gpu in calcoli i cui risultati devono poi essere trasferiti indietro alla cpu via ram non rallenta comunque la resa del sistema? La cosa si potrebbe ovviare con algoritmi di gestione ottimizzati, in modo analogo a quanto succede per i sistemi operativi multiutente, ma l'utilizzo di queste features in windows che risultati darebbe oggi?
In windows nell'uso comune per lavoro? Ovviamente nessuna differerenza :)
Se intendi in windows come sistema operativo sul quale eseguire i giochi, fara' molta differenza fra un paio d'anni.
La risposta alla tua domanda precedente e' un po' piu' complicata e si avvicina a "dipende".
Dipende da molti fattori se e' meglio eseguire un determinato calcolo sulla CPU o sulla GPU; al momento il problema non si pone perche' e' troppo lento trasferire indietro i risultati, ma quando questo trasferimento sara' veloce (con PCI-E), eseguire calcoli sulla GPU sara' un'opzione sempre piu' vantaggiosa.
Ti faccio un esempio: se ho un gioco che carica molto la CPU (vuoi con calcoli di IA magari) e la GPU e' relativamente scarica, e' una buona idea portare ad esempio la fisica sulla GPU, per alleggerire la CPU ed incrementare il framerate, oppure riservare ancora piu' risorse ad un IA piu' sofisticata.
Se la CPU e' scarica e la GPU e' molto carica magari dovendo processare scene complesse, e' vero il contrario, conviene portare qualche calcola dalla GPU alla CPU.
E' tutta una questione di bilanciamento: l'ideale e' che CPU e GPU siano caricate allo stesso modo e PCI-E facilitera' il raggiungimento di questa situazione ideale.
Ovviamente la banda da GPU a CPU (e la latenza che ne deriva) e' un parametro che influenza la decisione di spostare un calcola dalla CPU alla GPU.
Originariamente inviato da xray
Sto per dire un'ovvietà... ma è naturale che attendere i risultati di un'elaborazione passata ad un 'coprocessore' implichi un ritardo, ma qui il discorso si fa complesso perchè dipende da cosa dò da calcolare alla GPU e se sono così bravo da ingegnerizzare l'engine (scusate l'allitterazione) in modo che nel frattempo esegua altri calcoli. PEr quanto rigurada l'uso in windows attualmente non so darti una risposta precisa
Invece non hai detto per nulla una cosa ovvia. Molti problemi di "prestazioni" di alcuni giochi sono imputabili proprio alla sincronizzazione fra CPU e GPU. Se una delle due e sbilanciata rispetto all'altra, ad esempio la GPU e' sovraccarica, ci troveremo la CPU che si siede ad aspettare che la GPU finisca i suoi calcoli invece di fare qualcosa di utile. E' un problema per nulla banale da risolvere.
Originariamente inviato da TyGerONE
Pertanto l'affermazione del CEO di Nvidia secondo cui sarà facile "attendersi velocità di almeno 2 volte superiori a quelle delle precedenti generazioni di chip video nVidia. Questi risultati possono essere ottenuti grazie alla natura programmabile del chip.... " non è realistica. Macinerà sicuramente pià FPS, ma nulla più.
No, hai interpretato male le sue parole. Quando parla di "programmabilita'" non si riferisce a fantomatiche librerie di programmazione, ma al grado di programmabilita' intrinseca della GPU, si sta riferendo a vertex e pixel shader e dice una cosa verissima.
La si puo' rileggere in questo modo: quando gli sviluppatori sfrutteranno maggiormente la programmabilita' della GPU, ovvero scriveranno piu' vertex e pixel shader usando versioni piu' aggiornate (2.0 e 3.0), allora le prestazioni ne guadagneranno piu' del semplice aumento di forza bruta dovuto all'aumento del fillrate, ad esempio.
E' un ragionamento perfettamente condivisibile.
Originariamente inviato da Dark Schneider
Cmq sbagli nel pensare che nVidia abbia solo un team di sviluppo. Mentre sta lavorando all'imminente NV40...c'è un altro Team che già ha gettato basi ed idee sulla progettazione di NV50.
Quando stavano lavorando a NV30...c'era già un altro Team che lavorava a NV40. Davvero credi che dopo l'immisione di un chip video...appena dopo un produttore inizia a lavorare ad un altro con architettura e finirlo in un anno? Assolutamente no. Per questo non c'è una perdita di tempo da parte da nVidia.
Esatto. Sia ATI sia NVIDIA hanno due team di sviluppo perfettamente autonomi che lavorano su due progetti in contemporanea. Ora sta uscendo l'NV40 e l'NV50 e' in progetto ad esempio.
Ovviamente fra i due gruppi c'e' scambio di informazioni, quindi eventuali errori durante la progettazione dell'NV30, possono essere comunicati al team che progetta l'NV40, e cosi' via.
Originariamente inviato da Dark Schneider
...Chi stava progettando Nv40...ha continuato a progettare NV40. Altri ingegneri magari ad aiutare i progettisti di NV30.
E siamo punto a capo... altri ingegneri ad aiutare i progettisti di nv30... altri ingegneri che avrebbero potuto benissimo aiutare i progettisti di nv40 dove nvida stà per giocarsi il proprio futuro.
Nel versante Ati magari si può verificare quello che dici tu: lavoravano a R400, quando si son accorti che non era possibile
Quella del ridimensionamento mi sa tanto di informazione tendenziosa.
Originariamente inviato da pg08x
E siamo punto a capo... altri ingegneri ad aiutare i progettisti di nv30... altri ingegneri che avrebbero potuto benissimo aiutare i progettisti di nv40 dove nvida stà per giocarsi il proprio futuro.
No, sono due team completamente separati ;)
halduemilauno
05-03-2004, 15:08
Originariamente inviato da fek
Esatto. Sia ATI sia NVIDIA hanno due team di sviluppo perfettamente autonomi che lavorano su due progetti in contemporanea. Ora sta uscendo l'NV40 e l'NV50 e' in progetto ad esempio.
Ovviamente fra i due gruppi c'e' scambio di informazioni, quindi eventuali errori durante la progettazione dell'NV30, possono essere comunicati al team che progetta l'NV40, e cosi' via.
quello che dicevo anch'io.
scusa una cosa Fek non è che niente niente sai dirci qualcosa in più?
grazie Fek ciao.
:) :)
Originariamente inviato da halduemilauno
quello che dicevo anch'io.
scusa una cosa Fek non è che niente niente sai dirci qualcosa in più?
grazie Fek ciao.
:) :)
No, mi spiace :)
Ho un meeting con un ingegnere NVIDIA la settimana prossima e "dovremmo" ricevere dei prototipi dell'NV40 a breve.
Commento ai commenti: Certo che una volta ci si scannava su queste discussioni in modo più vistoso, ora ragazzi invece siete molto sottili e perfidi :)
Commento alla news: ma avete letto a modo? No, come al solito:Jen-Hsun Huang ha affermato di attendersi velocità di almeno 2 volte superiori
Cioè lui personalmente, cioè da CEO che non ne capisce una mazza di ingegneristica dell'hardware, si attende (cioè spera vivamente) che vada 2 volte più veloce, ma non è assolutamernte certo che sia così.
halduemilauno
05-03-2004, 15:12
Originariamente inviato da fek
No, mi spiace :)
Ho un meeting con un ingegnere NVIDIA la settimana prossima e "dovremmo" ricevere dei prototipi dell'NV40 a breve.
quindi al massimo fra una settimana ci dici tutto. bene. se hai un NDA contattami pure in privato.
ciao.
;)
halduemilauno
05-03-2004, 15:15
Originariamente inviato da Wonder
Commento ai commenti: Certo che una volta ci si scannava su queste discussioni in modo più vistoso, ora ragazzi invece siete molto sottili e perfidi :)
Commento alla news: ma avete letto a modo? No, come al solito:
Cioè lui personalmente, cioè da CEO che non ne capisce una mazza di ingegneristica dell'hardware, si attende (cioè spera vivamente) che vada 2 volte più veloce, ma non è assolutamernte certo che sia così.
il fondatore di nVidia non ne capisce una mazza di hardware.
questa è fantastica. anzi Wonder.
:gluglu: :gluglu: :gluglu: :gluglu: :gluglu: :gluglu: :gluglu:
Un enorme grazie a fek che con la sua competenza riesce a far sembrare semplici cose che non lo sono.
Riguardo ai team di sviluppo, considerando che il ciclo di produzione di una nuova tecnologia, dalla progettazione alla produzione della versione frinale, impiega un non inferiore ai due anni, ed è quindi naturale che mentre un team lavora a un progetto un altro (o più di uno) porti avanti altri progetti. E' naturale anche che vi sia interscambio di informazioni tra i team e credo che spesso versioni potenziate o migliorate dello stesso chip siano il frutto delle esperienze dei diversi team e non solo la conquista del team che cura la vita del chip dopo la sua uscita sul mercato.
Credo che le roadmap siano create sulla base di effettive pianificazioni in seguito a studi di fattibilità su progetti già esistenti e magari su pre-samples già prodotti.
Un'azienda come Nvidia o Ati non distraggono ingegneri da un progetto per rattoppare eventuali errori causando ritardi sull'uscita delle nuove soluzioni che possono essere estremamente pericolosi, ma utilizzano le risorse creando sinergie tra i vari team che permettono di portare avanti gli sviluppi in parallelo, imparando sempre dall'esperienza passata....
Ciao
halduemilauno
05-03-2004, 15:26
Originariamente inviato da lucio68
Un enorme grazie a fek che con la sua competenza riesce a far sembrare semplici cose che non lo sono.
Riguardo ai team di sviluppo, considerando che il ciclo di produzione di una nuova tecnologia, dalla progettazione alla produzione della versione frinale, impiega un non inferiore ai due anni, ed è quindi naturale che mentre un team lavora a un progetto un altro (o più di uno) porti avanti altri progetti. E' naturale anche che vi sia interscambio di informazioni tra i team e credo che spesso versioni potenziate o migliorate dello stesso chip siano il frutto delle esperienze dei diversi team e non solo la conquista del team che cura la vita del chip dopo la sua uscita sul mercato.
Credo che le roadmap siano create sulla base di effettive pianificazioni in seguito a studi di fattibilità su progetti già esistenti e magari su pre-samples già prodotti.
Un'azienda come Nvidia o Ati non distraggono ingegneri da un progetto per rattoppare eventuali errori causando ritardi sull'uscita delle nuove soluzioni che possono essere estremamente pericolosi, ma utilizzano le risorse creando sinergie tra i vari team che permettono di portare avanti gli sviluppi in parallelo, imparando sempre dall'esperienza passata....
Ciao
mi associo ai ringraziamenti e concordo su tutto quanto detto.
ciao.
:) :)
Originariamente inviato da lucio68
Un enorme grazie a fek che con la sua competenza riesce a far sembrare semplici cose che non lo sono.
Non dire cosi' che sono timido
:O
Originariamente inviato da fek
No, sono due team completamente separati ;)
Ti sei mai trovato a dover decidere quante risorse assegnare ad un progetto ?
PS: Vedo che sei sepre più di parte...
Originariamente inviato da pg08x
Ti sei mai trovato a dover decidere quante risorse assegnare ad un progetto ?
PS: Vedo che sei sepre più di parte...
(Figurati che io sono quasi pagato da ATI ;))
Non e' questione di essere di parte, ma ti ha spiegato lucio come stanno le cose e non c'e' molto da aggiungere. E' assolutamente follia pensare che un'azienda che progetta gpu sottragga ingegneri ad un team di sviluppo per rattoppare falle di un altro progeto. Ma pensa che sono anche fisicamente separati! Se non ricordo male, nvidia ha un team in canada e l'altro a Los Angels.
C'e' scambio di informazioni, ovvio, magari qualcuno puo' essere trasferito da una parte all'altra, ma sicuramente non c'e' un massiccio trasferimento come pensi tu, non certo tale da pregiudicare il progetto.
Originariamente inviato da pg08x
Ti sei mai trovato a dover decidere quante risorse assegnare ad un progetto ?
So che non lo chiedi a me, ma ho esperienze di questo genere. Ho lavorato come team leader e project manager per una software house e mi sono trovato a dover gestire più di un progetto contemporaneamente. Spesso capita che, soprattutto le persone più capaci, collaborino quasi come risorse di staff a più di un progetto, mentre si occupano di sviluppare le parti più delicate di un'applicazione.
E' un classico per chi ha le p... darsi da fare su più fronti contemporaneamente
leoneazzurro
05-03-2004, 15:36
Io ne sto seguendo 3 in questo momento (più un casino di altre cose da fare) :)
NO caro mio, ho detto ingegneristica dell'hardware, non di hardware e basta. Tu semplifichi troppo. E' come se Agnelli avesse sapesse progettare un motore di una Ferrari...il paragone regge e non mi puoi dar torto.
Originariamente inviato da lucio68
So che non lo chiedi a me, ma ho esperienze di questo genere. Ho lavorato come team leader e project manager per una software house e mi sono trovato a dover gestire più di un progetto contemporaneamente. Spesso capita che, soprattutto le persone più capaci, collaborino quasi come risorse di staff a più di un progetto, mentre si occupano di sviluppare le parti più delicate di un'applicazione.
E' un classico per chi ha le p... darsi da fare su più fronti contemporaneamente
Benissimo
Finalmente lo ammetti !
Le risorse migliori vanno a dare una mano dove c'è più bisogno !
E' dov'è che nvidia ha avuto più bisogno ?
Nel rappezzare nv30
PS: tu hai lavorato come... io stò lavorando come e non ho ulteriore tempo da perdere !
Originariamente inviato da pg08x
Benissimo
Finalmente lo ammetti !
Le risorse migliori vanno a dare una mano dove c'è più bisogno !
E' dov'è che nvidia ha avuto più bisogno ?
Nel rappezzare nv30
PS: tu hai lavorato come... io stò lavorando come e non ho ulteriore tempo da perdere !
:boh:
Originariamente inviato da pg08x
E' dov'è che nvidia ha avuto più bisogno ?
Nel rappezzare nv30
Guarda che ha detto l'esatto contrario ;)
halduemilauno
05-03-2004, 17:04
Originariamente inviato da Wonder
NO caro mio, ho detto ingegneristica dell'hardware, non di hardware e basta. Tu semplifichi troppo. E' come se Agnelli avesse sapesse progettare un motore di una Ferrari...il paragone regge e non mi puoi dar torto.
veramente sei tu che per portare acqua al tuo mulino semplifichi.
di agnelli non so ma nemmeno tu sai di Huang perchè Huang ha due lauree in ingegneria e prima di fondare nVidia era progettista cpu presso amd. quindi come fai a dire...
ciao.
;)
pg08x ma lavori mica alla ATi? ;)
halduemilauno
05-03-2004, 17:08
Originariamente inviato da pg08x
PS: tu hai lavorato come... io stò lavorando come e non ho ulteriore tempo da perdere !
ecco bravo non e non farci perdere tempo.
Volevo solo puntualizzare che tutti qui credono che andrà il doppio invece è semplicemente il CEO di nVidia che si aspetta che vada il doppio, cosa molto differente. Vedremo, appunto, come hai detto tu
:muro:
halduemilauno
05-03-2004, 17:42
Originariamente inviato da Wonder
Scusami tanto Halduemilaeuno, tu sei il padrone del forum, commenti tutti e critichi tutti. Volevo solo puntuaqlizzare che tutti qui credono che andrà il doppio invece è semplicemente il CEO di nVidia che si aspetta che vada il doppio, cosa molto differente.
Punto e basta e non farci perdere tempo tu!
ma il punto è un'altro io non sono affatto sicuro che sia cosi. io a differenza di molti di voi aspetto di vedere i bench.
ma se tu te ne esci con uno sfondone simile(che tra altro non centra niente con la bontà vera o presunta della scheda in oggetto)cioè che il fondatore di nVidia sia un'incompetente in hardware perdonami se intervengo un'attimino.
poi il senso della sua frase è un'altro lui dice che sarebbe molto deluso se non andasse al doppio della precedente. e tu non cogli il senso esatto della sua frase?
sono sbalordito.
un saluto.
Guarda stavo correggendo il mio post precedente perchè ero stato troppo duro, ma tu mi stavi già rispondendo. Vabbe, pace e bene.
CHe lauree ha il CEO di nVidia?
Secondoi te un CEO ha il tempo di approfondire i progetti dei suoi dipendenti a quei livelli?
halduemilauno
05-03-2004, 17:57
Originariamente inviato da Wonder
Guarda stavo correggendo il mio post precedente perchè ero stato troppo duro, ma tu mi stavi già rispondendo. Vabbe, pace e bene.
CHe lauree ha il CEO di nVidia?
Secondoi te un CEO ha il tempo di approfondire i progetti dei suoi dipendenti a quei livelli?
ma questo è un'altro discorso non avere tempo è una cosa dargli dell'incompetente è un'altra. e cmq per quel che so lui segue di persona a grandi linee.
pace e bene anche a te.
http://www.nvidia.it/docs/CP/4415/Jen-Hsun_Huang.pdf
:O
"E chi se ne frega?"
Mi rispondo da solo così evito bordate di fischi.
Volevo però dire che capisco il tifo, ma capisco meno perché quando si parla di Ati e Nvidia, oppure di Intel e Amd, c'è sempre qualcuno che si offende o si spazientisce quando le sue tesi vengono smentite o anche solo non condivise da altri frequentatori.
In questo thread sono emerse notizie e informazioni molto interessanti, per chi si interessa all'argomento, e sarebbe pensabile che chi frequenta questo forum sia interessato.
Comunque, interessati o no, si scambiano opinioni che possono anche essere ininfluenti e solo un modo per scambiare quattro chiacchiere tra amici.
Credo che nessuno abbia la sfera di cristallo, ma questo non vuol dire che non si debbano commentare anche solo i rumors che escono su qualcosa di tanto atteso come le nuove schede di Nvidia e Ati.
E in più è un'ottima opportunità di imparare qualcosa...
Con amicizia
...ho seri dubbi che la prossima generazione di schede video superi del 30% la velocità di quella precedente...sarà pero' un interessante guerra di filtri...speriamo che ati non si sia montata la testa e che nvidia sia più onesta a livello di driver e di rumorosità :p ...spero infine nel rientro di un terzo concorrente...cosa pero' che dubito altamente...peccato...una volari o una nuova kyro3 avrebbe sicuramente fatto bene ma qui i due leader non lasciano tanto spazio ad ulteriori contendenti :)
nonikname
05-03-2004, 19:50
E' di poche ore la novità-rumors che tutta la famiglia NV4X avrà la possibilità di codificare-decodificare in HW Mpeg 1-2-4 , funzione prima devoluta a software e molto CPU-dipendente ora sarà svolta dall'NV40 : non è chiaro in che misura questa soluzione possa surclassare un P4 con HT ma il tutto suona molto promettente.......
yossarian
05-03-2004, 20:12
Originariamente inviato da fek
Assolutamente si'. In futuro la GPU non sara' piu' una scheda grafica, ma un generico coprocessore vettoriale.
destinati a diventare, in seguito, coprocessori superscalari
ciao fek ;)
Alberello69
05-03-2004, 21:16
Originariamente inviato da nonikname
E' di poche ore la novità-rumors che tutta la famiglia NV4X avrà la possibilità di codificare-decodificare in HW Mpeg 1-2-4 , funzione prima devoluta a software e molto CPU-dipendente ora sarà svolta dall'NV40 : non è chiaro in che misura questa soluzione possa surclassare un P4 con HT ma il tutto suona molto promettente.......
:eek::eek: :eek: :eek: :eek:
Se non ricordo male tempo fa era uscita una qualche scheda con un qualche chip che faceva qualcosa del genere, il tutto però è infossato nei meandri della mia (poca) memoria. Se ricordo bene, non vedo cosa ci voglia a piantare il suddetto chip (o meglio le funzioni che racchiude) dentro una gpu video. Utile per certi usi, questo c'è da ammettere.
blubrando
05-03-2004, 23:09
forse il rage theatre della ati?
Non mi pare faccia codifica mpeg 4, mpg1 e 2 sicuro.
dragunov
06-03-2004, 15:16
per xgi s3 addio!!!
Originariamente inviato da halduemilauno
ecco bravo non e non farci perdere tempo.
Mi ricollego dopo un giorno al forum e vedo che continui a non capire quello che scrivo, guarda che ero io a non aver tempo da perdere...
tu hai continuato imperterrito con le tue farneticazioni (come le chiami tu)
... non insistiamo con i post polemici!
Dark Schneider
06-03-2004, 20:32
Originariamente inviato da lucio68
Un enorme grazie a fek che con la sua competenza riesce a far sembrare semplici cose che non lo sono.
Riguardo ai team di sviluppo, considerando che il ciclo di produzione di una nuova tecnologia, dalla progettazione alla produzione della versione frinale, impiega un non inferiore ai due anni, ed è quindi naturale che mentre un team lavora a un progetto un altro (o più di uno) porti avanti altri progetti. E' naturale anche che vi sia interscambio di informazioni tra i team e credo che spesso versioni potenziate o migliorate dello stesso chip siano il frutto delle esperienze dei diversi team e non solo la conquista del team che cura la vita del chip dopo la sua uscita sul mercato.
Credo che le roadmap siano create sulla base di effettive pianificazioni in seguito a studi di fattibilità su progetti già esistenti e magari su pre-samples già prodotti.
Un'azienda come Nvidia o Ati non distraggono ingegneri da un progetto per rattoppare eventuali errori causando ritardi sull'uscita delle nuove soluzioni che possono essere estremamente pericolosi, ma utilizzano le risorse creando sinergie tra i vari team che permettono di portare avanti gli sviluppi in parallelo, imparando sempre dall'esperienza passata....
Ciao
Esattamente!! L'ho detto nei post precedenti e lo ripeto sottoscrivendo questo post!! :)
Dark Schneider
06-03-2004, 20:43
Originariamente inviato da fek
Esatto. Sia ATI sia NVIDIA hanno due team di sviluppo perfettamente autonomi che lavorano su due progetti in contemporanea. Ora sta uscendo l'NV40 e l'NV50 e' in progetto ad esempio.
Ovviamente fra i due gruppi c'e' scambio di informazioni, quindi eventuali errori durante la progettazione dell'NV30, possono essere comunicati al team che progetta l'NV40, e cosi' via.
Grazie Fek per l'intervento per aver voluto confermare e descrivere un po' come funziona così che magari un po' tutti si fanno un idea!! :)
Dark Schneider
06-03-2004, 20:54
Originariamente inviato da fek
No, mi spiace :)
Ho un meeting con un ingegnere NVIDIA la settimana prossima e "dovremmo" ricevere dei prototipi dell'NV40 a breve.
Che invidia!!:)
Io invece penso che fek tenda a lasciarsi troppo "abbagliare" da tutto quello che i suoi "amici" di nvidia raccontano a lui. Come si è ad esempio lasciato abbagliare in passato con la vicenda del CG (ormai inutile).
Per quanto riguarda le schede sono altresì convinto che se uno di questi produttori può essere stato in grado di raddoppiare (perchè ne ha avuto tutto il tempo e le risorse) questo è senza alcun dubbio ATI.
Non credo infine che il flop dell'nv30 non abbia influenzato in alcun modo i progetti successivi, come qualcuno si ostina caparbiamente a sostenere.
Dark Schneider
06-03-2004, 21:51
Originariamente inviato da pg08x
Io invece penso che fek tenda a lasciarsi troppo "abbagliare" da tutto quello che i suoi "amici" di nvidia raccontano a lui. Come si è ad esempio lasciato abbagliare in passato con la vicenda del CG (ormai inutile).
Per quanto riguarda le schede sono altresì convinto che se uno di questi produttori può essere stato in grado di raddoppiare (perchè ne ha avuto tutto il tempo e le risorse) questo è senza alcun dubbio ATI.
Non credo infine che il flop dell'nv30 non abbia influenzato in alcun modo i progetti successivi, come qualcuno si ostina caparbiamente a sostenere.
Non credo proprio che Fek si faccia "abbagliare". Ha semplicemente descritto il modo in cui funziona il tutto: pura verità.
Originariamente inviato da pg08x
...
Non credo infine che il flop dell'nv30 non abbia influenzato in alcun modo i progetti successivi, come qualcuno si ostina caparbiamente a sostenere.
Sono assolutamente d'accordo sul fatto che il flop dell'nv30 abbia influenzato i progetti di nvidia, e questo secondo me in due modi diversi ma coseguenti.
In primo luogo ha dovuto certamente lavorare sodo per "rattoppare" il progetto per non perdere la faccia, oltre a quote di mercato che sarebbero state ancora maggiori, con conseguenti ripercussioni sui progetti successivi (nv40, nv50). Dall'altra parte il lavoro su nv30 ha consentito sicuramente la sperimentazione di soluzioni che, laddove siano risultate vincenti, penso siano state sviluppate ulteriormente nei nuovi progetti.
Cose allo studio per nv40 sono state inserite nel progetto nv30 e viceversa.
Per questo non credo molto nella distrazione di ingegneri da un progetto per dirottarli su un altro, quanto piuttosto nello sviluppo di singole parti che potessero integrarsi in entrambe le linee di sviluppo.
Ciao
cdimauro
07-03-2004, 08:59
La penso allo stesso modo: a mio avviso l'NV40 segnerà il riscatto di nVidia, che ha lavorato parecchio per rifarsi dell'umiliazione subita.
Spero, però, che entrambe le soluzioni saranno allineate a livello prestazionale, così da ottenere una concorrenza bilanciata dall'unica variabile rimasta in gioco: il prezzo. A tutto vantaggio degli utenti finali...
blubrando
07-03-2004, 09:06
la mia di speranza invece è che sta scheda non occupi ancora più spazio
halduemilauno
07-03-2004, 09:13
Originariamente inviato da pg08x
Io invece penso che fek tenda a lasciarsi troppo "abbagliare" da tutto quello che i suoi "amici" di nvidia raccontano a lui. Come si è ad esempio lasciato abbagliare in passato con la vicenda del CG (ormai inutile).
Per quanto riguarda le schede sono altresì convinto che se uno di questi produttori può essere stato in grado di raddoppiare (perchè ne ha avuto tutto il tempo e le risorse) questo è senza alcun dubbio ATI.
Non credo infine che il flop dell'nv30 non abbia influenzato in alcun modo i progetti successivi, come qualcuno si ostina caparbiamente a sostenere.
la prima affermazione lasciamo a Fek l'onere di rispondere.
la seconda gia ho detto. ribadisco aspettiamo a dare giudizzi.
la terza certo che ha influenzato. se no come si rimedia agli errori?
Originariamente inviato da lucio68
Sono assolutamente d'accordo sul fatto che il flop dell'nv30 abbia influenzato i progetti di nvidia, e questo secondo me in due modi diversi ma coseguenti.
In primo luogo ha dovuto certamente lavorare sodo per "rattoppare" il progetto per non perdere la faccia, oltre a quote di mercato che sarebbero state ancora maggiori, con conseguenti ripercussioni sui progetti successivi (nv40, nv50). Dall'altra parte il lavoro su nv30 ha consentito sicuramente la sperimentazione di soluzioni che, laddove siano risultate vincenti, penso siano state sviluppate ulteriormente nei nuovi progetti.
Cose allo studio per nv40 sono state inserite nel progetto nv30 e viceversa.
Per questo non credo molto nella distrazione di ingegneri da un progetto per dirottarli su un altro, quanto piuttosto nello sviluppo di singole parti che potessero integrarsi in entrambe le linee di sviluppo.
Ciao
Mi sembra ragionevole cercare di compromettere il meno possibile i progetti futuri, progetti che dovranno garantire la continuità all'azienda.
Quanto di buono in nv30 ha potuto sicuramente contribuire ulteriormente allo sviluppo del nuovo progetto con un effetto di moltiplicatore quanto di meno buono avrà costretto gli ingegneri ad una revisione più radicale e quindi a maggior lavoro ed utilizzo di risorse rispetto alle parti meglio riuscite
Riguardo allo sviluppo di singole parti che potessero integrarsi in entrambe le linee di sviluppo considera che non stiamo parlando di software, non si tratta di classi comuni a più progetti ed il passaggio non è così semplice in quanto nv40 è stato pensato per un livello di integrazione ancora più spinta, già nv30 scaldava molto così ed essendo un progetto a più lunga scadenza queste "parti" avrebbero potuto benissimo non essere ancora pronte.
Considera inoltre che se nvidia avesse dedicato un numero non adeguato di risorse a "rattoppare" nv30 la perdita di quote di mercato sarebbe stata ancora più marcata con conseguenze disastrose (gli introiti su nv30 - nv35 servono anche per finanziare il progetto di nv40).
In questo ATI è stata senza dubbio avvantaggiata, ha dedicato poche risorse al passaggio da r300 a r350 e si è finanziata con la vendita superiore alle aspettative di tali ottime schede
cdimauro
08-03-2004, 06:17
Non sono d'accordo: non credere che sviluppare un chip "nuovo" voglia dire buttare via tutto il resto. Ormai per le architetture hardware sono presenti tantissimi tool di sviluppo che facilitano la realizzazione delle singole parti, e non è inusuale riutilizzare quanto già fatto, in toto oppure apportando qualche modifica. Anzi, è una strada che viene ovviamente presa, perché permette di ridurre costi e tempi di sviluppo. Ad esempio, alla nVidia non è che riprogetteranno da capo la sezione FMAC/MUL/FADD. ;)
Oltre a ciò i team di sviluppo spesso si confrontano, specialmente nel caso in cui sorgano dei dubbi o si presentino dei problemi, e questo non vuol dire togliere risorse a uno dei team: è una cosa naturale, perché dalle idee/problemi di un progetto l'altro ne può trarre giovamento.
Non vedo quindi il perché di tutto quest'accanimento contro le politiche di nVidia: il fatto che abbia fallito un progetto non vuol dire che si debba trascinare questa macchia per tutta la vita e soprattutto non vuol dire che le future innovazioni verranno influenzate da ciò. Al contrario, come ho detto, le "legnate" servono a non commettere più gli stessi errori. ;)
Sono convinto che NV40 sarà un'eccellente prodotto, estremamente competitivo, e che rimetterà in equilibro il mercato, a tutto vantaggio di noi consumatori. Almeno spero: il portafoglio piange al sol veder i prezzi... :rolleyes:
Originariamente inviato da cdimauro
Non sono d'accordo: non credere che sviluppare un chip "nuovo" voglia dire buttare via tutto il resto. Ormai per le architetture hardware sono presenti tantissimi tool di sviluppo che facilitano la realizzazione delle singole parti, e non è inusuale riutilizzare quanto già fatto, in toto oppure apportando qualche modifica. Anzi, è una strada che viene ovviamente presa, perché permette di ridurre costi e tempi di sviluppo.
Proprio per questo motivo partire da una base con alcune parti carenti implica necessariamente un aggravio di costi ed un utilizzo maggiore di risorse volte appunto a risolvere tali carenze.
E' un dato di fatto che lo scambio di informazioni (ed il software, senza scendere in polemiche) abbia permesso un certo miglioramento rispetto ai primi modelli di geforce fx 5800.
Nonostante ed al tempo stesso proprio per questo hanno evidentemente lavorato molte più persone per il passaggio da nv30 a nv35 rispetto alle risorse impegnate da ATI per il passaggio dalla prima 9700pro per giungere alla 9800xt.
Un aggravio di costi non necessario ad ATI fatto che ha costituito un vantaggio per la casa Canadese... non è tutto...
Seguendo il tuo ragionamento, considerando che la 9700pro era già pronta, senza evidenti difetti molto prima della controparte di nvidia si evince che la 9700pro ha rappresentato una solida base ed un notevole vantaggio per lo sviluppo di r420.
Questo non implica che nv40 sia una ciofeca... ma se non dovesse andare almeno il doppio come si augura il ceo nvidia non la vedo molto bene.
Originariamente inviato da pg08x
...
Seguendo il tuo ragionamento, considerando che la 9700pro era già pronta, senza evidenti difetti molto prima della controparte di nvidia si evince che la 9700pro ha rappresentato una solida base ed un notevole vantaggio per lo sviluppo di r420.
Questo non implica che nv40 sia una ciofeca... ma se non dovesse andare almeno il doppio come si augura il ceo nvidia non la vedo molto bene.
Sono assolutamente d'accordo con questa tesi.
Certo è che se la r420 dovesse risultare più performante della nv40 in maniera sensibile, Nvidia si giocherebbe molta della credibilità già minata dai problemi legati a nv30.
Seguendo questo ragionamento fino in fondo mi nasce anche un'altra riflessione.
I costi di progettazione (ma forse sarebbe meglio dire gli investimenti) per Ati potrebbero essere stati inferiori rispetto a quelli di Nvidia, dato che la base di partenza per r420 era sicuramente più solida rispetto alla concorrenza. Questo si potrebbe tradurre in un prezzo un pochino inferiore del nuovo mostro Ati rispetto a quello di Nvidia. Inoltre per la casa americana ci sono anche i bridge in mezzo e questi non verranno dati gratuitamente (potrebbero essere "gratis" per gli acquirenti, ma di certo c'è un costo di produzione e uno di progettazione).
I possibili scenari sono due, secondo me:
1) La R420 potrebbe costare un po' meno della Nv40
2) Prezzi allineati ma margine inferiore di Nvidia, e per Ati + ricavi = maggiori investimenti => Ulteriore consolidamento.
Resta solo da attendere l'uscita e vedere la bontà del lavoro fatto e la grandezza delle cifre al pubblico
Dark Schneider
08-03-2004, 20:11
Per pg08x: invece il discorso è un po' diverso.
Più che altro è che nVidia al 100% farà bene con NV40. Perchè? Perchè ha fatto un mezzo passo falso con la serie NV3x e quindi qls cosa immetta sul mercato sicuro andrà bene......E' Ati adesso che invece sarà nell'occhio della critica dopo il successo del progetto R3xx se l'R420 sarà al di sotto delle aspettative. nVidia qls cosa tirerà fuori migliorerà. Ati invece non è che deve migliorare..deve stupire e quindi soggetta a maggiori critiche. Gli occhi sono puntati maggiormente su Ati che su nVidia non credere. E' Ati che deve stare più attenta a fare bella figura. Ne sa qualcosa proprio nVidia e sarà la stessa cosa per Ati.
Cmq voglio ricordare una cosa: NV30, la GPU che si sta criticando è ancora tra le più veloci del mercato nei tempi attuali. Le prestazioni della 5800 Ultra sono bene o male come quelli di una 5900 liscia attualmente...il che non mi sembra affatto male come velocità pura.
Il NV30 è stato criticato non per le prestazioni che erano simili alla concorrenza, ma per il fatto che essendo uscito in ritardo ci si aspettava prestazioni superiori e non simili alla concorrenza che aveva immesso il proprio prodotto mesi prima...e per il costo...quando è uscita la concorrenza costava meno.
Ma sulla velocità del NV30 c'è ben poco da criticare.
Detto questo...stacco ed esco.
bye
:)
cdimauro
08-03-2004, 22:06
Probabilmente Ati avrà riutilizzato molte più parti del progetto R300 per il futuro R420, e quindi risparmiato, ma credo che lo stesso abbia fatto nVidia con l'NV40. Ripeto: molta circuiteria viene riutilizzata o leggermente riadattata.
A mio avviso l'NV40 rappresenta una riorganizzazione dell'architettura NV30 per eliminare i suoi colli di bottiglia. L'aumento delle pipeline né è una chiara indicazione, e non che ci voglia molto a pensare di mettere assieme diversi circuiti similari per realizzare quanto detto. Ad esempio, se ho già pronta la circuiteria di una singola pipe di un pixel shader, non ci vorrà molto a metterne assieme due.
E' un esempio banale (le cose non vanno esattamente così), ma serve a rendere bene l'idea.
yossarian
09-03-2004, 01:13
Originariamente inviato da cdimauro
L'aumento delle pipeline né è una chiara indicazione, e non che ci voglia molto a pensare di mettere assieme diversi circuiti similari per realizzare quanto detto. Ad esempio, se ho già pronta la circuiteria di una singola pipe di un pixel shader, non ci vorrà molto a metterne assieme due.
E' un esempio banale (le cose non vanno esattamente così), ma serve a rendere bene l'idea.
anche se è solo un esempio piuttosto banale, mi auguro che non abbiano pensato a fare qualcosa del genere
:D
cdimauro
09-03-2004, 06:31
Considerate le pipeline presenti nell'NV3x, spero proprio di no... :)
Originariamente inviato da Dark Schneider
Ma sulla velocità del NV30 c'è ben poco da criticare.
Dimentichi che l'attuale velocità è il frutto di un overclock molto spinto con conseguenti problemi di rumorosità (da cui le critiche)
E' stata poi raggiunta anche con interventi sul software (quindi non da subito)
Se non ci fosse stata la 9700 cui confrontarsi nvidia avrebbe immesso sul mercato una scheda meno rumorosa.
Concordo sul fatto che la gente si aspetta molto da Ati. :)
Originariamente inviato da yossarian
destinati a diventare, in seguito, coprocessori superscalari
ciao fek ;)
Ciao yoss :D
Originariamente inviato da pg08x
Io invece penso che fek tenda a lasciarsi troppo "abbagliare" da tutto quello che i suoi "amici" di nvidia raccontano a lui. Come si è ad esempio lasciato abbagliare in passato con la vicenda del CG (ormai inutile).
Forse non ero stato molto chiaro quando ho detto che ho piu' amici in ATI che in NVIDIA, se si parla di amicizie, ma questo non mi impedisce di essere il piu' possibile obiettivo.
Riguardo al Cg, meglio non riprendere quella storia perche' ho impiegato 5 pagine per spiegarti che non e' un linguaggio ma un toolset :D
Ancor piu' dopo aver detto chiaramente che personalmente non lo avrei supportato.
Non credo infine che il flop dell'nv30 non abbia influenzato in alcun modo i progetti successivi, come qualcuno si ostina caparbiamente a sostenere.
Il flop dell'nv30, perche' di flop si tratta almeno dal punto di vista hw, ha certamente influenzato il progetto nv40. In meglio. Perche' come ti abbiamo spiegato ampiamente esiste uno scambio di informazioni fra i due gruppi di progetto, ma i due gruppi di progetto sono perfettamente indipendenti e pensare che ci siano stati larghi travasi di ingegneri da un progetto all'altro vuole semplicemente dire non avere la piu' pallida idea di come si gestisca il progetto di una GPU al giorno d'oggi.
NVIDIA non lavora come pensi tu. ATI non lavora come pensi tu.
Detto questo, cerca di non fare troppe assunzioni su come si formano i miei giudizi in merito a questo discorso, perche' sono sbagliate ;)
Originariamente inviato da Dark Schneider
Ma sulla velocità del NV30 c'è ben poco da criticare.
Hmmm... Se non si usano certi accorgimenti nello scrivere i pixel shader, l'NV30 e' piuttosto lento. L'NV35 e' decisamente migliore.
A mio avviso l'NV30 non e' uscito affatto bene.
Dark Schneider
09-03-2004, 14:36
Originariamente inviato da fek
Hmmm... Se non si usano certi accorgimenti nello scrivere i pixel shader, l'NV30 e' piuttosto lento. L'NV35 e' decisamente migliore.
A mio avviso l'NV30 non e' uscito affatto bene.
Si si lo so..infatti per questo dicevo "attualmente". Dico "attualmente" perchè cmq ora come ora non c'è nulla che realmente sfrutta le ultime tecnologie e quindi resta il fatto che cmq risulta ancora una soluzione video molto veloce e non messa in crisi da nessun titolo. Tutto qui! ;)
Dark Schneider
09-03-2004, 14:41
Originariamente inviato da pg08x
Dimentichi che l'attuale velocità è il frutto di un overclock molto spinto con conseguenti problemi di rumorosità (da cui le critiche)
E' stata poi raggiunta anche con interventi sul software (quindi non da subito)
Se non ci fosse stata la 9700 cui confrontarsi nvidia avrebbe immesso sul mercato una scheda meno rumorosa.
Concordo sul fatto che la gente si aspetta molto da Ati. :)
Si la rumorosità era un altro problema dell'FX Flow del NV30 progettato male per la fretta, perchè hanno dovuto spingere le frequenze. Infatti la revisione, la "reincarnazione" dell'FX Flow presente sulla 5950 Ultra è molto efficente e rumore bassissimo.
Originariamente inviato da Dark Schneider
Si si lo so..infatti per questo dicevo "attualmente". Dico "attualmente" perchè cmq ora come ora non c'è nulla che realmente sfrutta le ultime tecnologie e quindi resta il fatto che cmq risulta ancora una soluzione video molto veloce e non messa in crisi da nessun titolo. Tutto qui! ;)
Beh si', con i titoli in circolazione non ha problemi :)
Colpa mia che prendo come metro di paragone quello che sto facendo adesso e proprio stamattina l'NV35 mi si e' seduto di fronte ad un po' di atmospheric scattering, alzando bandiera bianca. Ora torno a convincerlo che ce la puo' fare :D
Sinceramente in questo momento credo che le potrone dei pezzi grossi di Ati e Nvidia siano piuttosto roventi...
Nvidia, dopo il flop di nv30 non può più permettersi di sbagliare, e le dichiarazioni sono state piuttosto prudenti: dai rumours usciti sulle specifiche sembrerebbe che nv40 debba andare parecchio di più del doppio della nv35, ma l'esperienza insegna, e forse non si vogliono sbilanciare più di tanto...
Sono d'accordo quando si dice che Ati, da parte sua, rischia molto per via delle aspettative che la r420 suscita nel pubblico. Dopo la rivoluzione quasi epocale portata dalla 9700 tutti si aspettano qualcosa di analogo dalla nuova nata.
Credo infine che Nvidia, comunque, si sia parata il c... anche grazie al bridge. Mi spiego... se all'inizio le prestazioni velocistiche della nv40 fossero inferiori alle attese si potrebbe scaricare parte della colpa sulla mancata ottimizzazione dei drivers del bridge, prendendo un po' di tempo per sistemare le cose. Involontariamente Ati, che sembrava in vantaggio di almeno un mese rispetto a Nvidia, sta dando una mano alla concorrenza posticipando l'uscita della nuova nata (a meno di problemi incontrati...)
Ciao
yossarian
09-03-2004, 16:07
Originariamente inviato da fek
Beh si', con i titoli in circolazione non ha problemi :)
Colpa mia che prendo come metro di paragone quello che sto facendo adesso e proprio stamattina l'NV35 mi si e' seduto di fronte ad un po' di atmospheric scattering, alzando bandiera bianca. Ora torno a convincerlo che ce la puo' fare :D
non prenderti colpe che non hai :D
NV30 era stato presentato come un chip DX9 e, invece, si tratta di un chip più orientato verso le DX8, come dimostra il fatto che ha solo 4 unità di calcolo FP contro le 8 FX e le unità FP non risultano neppure indipendenti dalle operazioni sulle texture; questo significa che, mediamente, anche se lo riassumo in maniera un po' semplicistica, quando c'è da eseguire calcoli matematici e operazioni su texture, solo 2 unità delle 4 presentano lavorano sulle math ops e solo 4 delle 8 texture unit sono realmente impegnate nell'esecuzione di operazioni, riducedo drasticamente il potenziale dell'NV30 (in queste condizioni arriva a sole 6 operazioni per ciclo di clock che scendono, addirittura, a 4, quando si hanno in input solo operazioni in FP). La stessa cosa non accade in caso di operazioni in virgola fissa poichè le due unità FX presenti su ogni pipeline sono indipendenti dalle texture ops.
Su NV35 si è, in parte, risolto il problema, sostituendo una delle unità di calcolo FX con una FP su ogni pipeline. Considerato che le nuove unità di calcolo FP sono indipendenti dalle texture ops, questo ha permesso di avere, in caso di calcoli FP, 4 operazioni in più per ciclo di clock rispetto all'NV30; di fatto la capacità di calcolo dei PS è stata raddoppiata, rispetto a NV30, quando si effettuano solo calcoli in FP, mentre è stata addirittura triplicata, quando si eseguono calcoli in FP e texture ops (6 dell'NV35 contro 2 dell'NV30).
Resta il limite imposto dalla scarsa ampiezza dei registri interni che non ha permesso di variare la logica di funzionamento delle unità FP principali e non permette di sfruttare al meglio il vantaggio che sarebbe derivato dall'utilizzo di pipeline molto lunghe e ad elementi di calcolo "distribuiti" (possibilità di elaborare più pixel in contemporanea per ogni pipeline).
Questo senza voler entrare nel dettaglio in merito ad altri limiti della serie NV3x (mancato supporto a qualche feature DX9, utilizzo della modalità MSOG per l'AA e, nel caso specifico dell'NV30, limitata ampiezza del bus chip-ram video).
Anche R3x0, d'altra parte, ha qualcosa da migliorare; si tratta di magagne meno vistose e appariscenti ma, comunque, presenti.
Il minor numero di transistor utilizzato per i circuiti che gestiscono AF e LoD ha imposto l'utilizzo di una codifica a minor numero di bit (uno in meno) rispetto a NV3x; questo ha comportato la scelta obbligata di sole 4 direzioni (quelle ad angoli multipli di 90°) in cui applicare il filtro anisotropico secondo le specifiche richieste dall'applicazione (i chip NV, invece, lo fanno sugli angoli multipli di 45°, ossia lungo 8 direzioni, il che garantisce una migliore resa lungo le pareti inclinate) e problemi a gestire il LoD con quelle applicazioni (come UT2003) che, in alcuni casi, non scelgono come livello base il valore 0.
Per entrambe le famiglie di chip, invece, ci sono problemi seri, dal punto di vista prestazionale, legati alla potenza di calcolo, sia in caso di shader particolarmente lunghi, sia in casi di applicazione di più texel per pixel. In quest'utlimo caso, tralasciando il caso banale del 3DMark (che applica, in multitexturing, solo 2 texel per pixel), si può vedere che applicando, ad esempio, 7/8 texture per per single pass, il pixel fillrate scende a valori pari a circa 1/6 o 1/7 di quello che si ha in single texturing.
Per superare questo problema le strade percorribili sono diverse: aumento del numero di TMU per pipeline (2 non sono comunque sufficienti); utilizzo di pipeline più lunghe, tipo NV3x, ma con un quantitativo sufficiente di spazio nei registri interni, per allocare i risultati delle elaborazioni parziali di più pixel in contemporanea; utilizzo di architetture ad elevato parallelismo.
Si tratta di tre soluzioni non mutuamente escludentisi.
halduemilauno
09-03-2004, 16:12
Originariamente inviato da yossarian
non prenderti colpe che non hai :D
NV30 era stato presentato come un chip DX9 e, invece, si tratta di un chip più orientato verso le DX8, come dimostra il fatto che ha solo 4 unità di calcolo FP contro le 8 FX e le unità FP non risultano neppure indipendenti dalle operazioni sulle texture; questo significa che, mediamente, anche se lo riassumo in maniera un po' semplicistica, quando c'è da eseguire calcoli matematici e operazioni su texture, solo 2 unità delle 4 presentano lavorano sulle math ops e solo 4 delle 8 texture unit sono realmente impegnate nell'esecuzione di operazioni, riducedo drasticamente il potenziale dell'NV30 (in queste condizioni arriva a sole 6 operazioni per ciclo di clock che scendono, addirittura, a 4, quando si hanno in input solo operazioni in FP). La stessa cosa non accade in caso di operazioni in virgola fissa poichè le due unità FX presenti su ogni pipeline sono indipendenti dalle texture ops.
Su NV35 si è, in parte, risolto il problema, sostituendo una delle unità di calcolo FX con una FP su ogni pipeline. Considerato che le nuove unità di calcolo FP sono indipendenti dalle texture ops, questo ha permesso di avere, in caso di calcoli FP, 4 operazioni in più per ciclo di clock rispetto all'NV30; di fatto la capacità di calcolo dei PS è stata raddoppiata, rispetto a NV30, quando si effettuano solo calcoli in FP, mentre è stata addirittura triplicata, quando si eseguono calcoli in FP e texture ops (6 dell'NV35 contro 2 dell'NV30).
Resta il limite imposto dalla scarsa ampiezza dei registri interni che non ha permesso di variare la logica di funzionamento delle unità FP principali e non permette di sfruttare al meglio il vantaggio che sarebbe derivato dall'utilizzo di pipeline molto lunghe e ad elementi di calcolo "distribuiti" (possibilità di elaborare più pixel in contemporanea per ogni pipeline).
Questo senza voler entrare nel dettaglio in merito ad altri limiti della serie NV3x (mancato supporto a qualche feature DX9, utilizzo della modalità MSOG per l'AA e, nel caso specifico dell'NV30, limitata ampiezza del bus chip-ram video).
Anche R3x0, d'altra parte, ha qualcosa da migliorare; si tratta di magagne meno vistose e appariscenti ma, comunque, presenti.
Il minor numero di transistor utilizzato per i circuiti che gestiscono AF e LoD ha imposto l'utilizzo di una codifica a minor numero di bit (uno in meno) rispetto a NV3x; questo ha comportato la scelta obbligata di sole 4 direzioni (quelle ad angoli multipli di 90°) in cui applicare il filtro anisotropico secondo le specifiche richieste dall'applicazione (i chip NV, invece, lo fanno sugli angoli multipli di 45°, ossia lungo 8 direzioni, il che garantisce una migliore resa lungo le pareti inclinate) e problemi a gestire il LoD con quelle applicazioni (come UT2003) che, in alcuni casi, non scelgono come livello base il valore 0.
Per entrambe le famiglie di chip, invece, ci sono problemi seri, dal punto di vista prestazionale, legati alla potenza di calcolo, sia in caso di shader particolarmente lunghi, sia in casi di applicazione di più texel per pixel. In quest'utlimo caso, tralasciando il caso banale del 3DMark (che applica, in multitexturing, solo 2 texel per pixel), si può vedere che applicando, ad esempio, 7/8 texture per per single pass, il pixel fillrate scende a valori pari a circa 1/6 o 1/7 di quello che si ha in single texturing.
Per superare questo problema le strade percorribili sono diverse: aumento del numero di TMU per pipeline (2 non sono comunque sufficienti); utilizzo di pipeline più lunghe, tipo NV3x, ma con un quantitativo sufficiente di spazio nei registri interni, per allocare i risultati delle elaborazioni parziali di più pixel in contemporanea; utilizzo di architetture ad elevato parallelismo.
Si tratta di tre soluzioni non mutuamente escludentisi.
"anche se lo riassumo in maniera un po' semplicistica,"
"Questo senza voler entrare nel dettaglio in merito"
ah meno male.
ciao Yoss grazie.
:D :D
halduemilauno
09-03-2004, 16:18
Originariamente inviato da yossarian
Per superare questo problema le strade percorribili sono diverse: aumento del numero di TMU per pipeline (2 non sono comunque sufficienti); utilizzo di pipeline più lunghe, tipo NV3x, ma con un quantitativo sufficiente di spazio nei registri interni, per allocare i risultati delle elaborazioni parziali di più pixel in contemporanea; utilizzo di architetture ad elevato parallelismo.
Si tratta di tre soluzioni non mutuamente escludentisi.
quindi tu pensi che nVidia ha pensato o abbia pensato a tutte queste soluzioni?
credi che la nuova architettura a 16x1/2(ammesso che sia vera)possa risolvere? e quanto?
e in ultimo tu al loro posto cosa avresti fatto?
ciao Yoss scusa l'angoscia creata.
:) :)
anche se lo riassumo in maniera un po' semplicistica...
Ammetto senza vergogna che ho dovuto leggere il post un psio di volte e non sono sicuro di aver capito bene tutto, ma non importa.
Per noi poveri mortali poco addentro a questioni tanto complicate, la sostanza è che i tempi non sono maturi per il fotorealismo in tempo reale a prezzi umani...
Ma allora, a parte le prestazioni velocistiche pure, quali potrebbero essere le migliorie percepibili a livello di qualità di immagine di Nv40 e R420?
Grazie
Ma allora, a parte le prestazioni velocistiche pure, quali potrebbero essere le migliorie percepibili a livello di qualità di immagine di Nv40 e R420?
Far girare DoomIII con settaggi al max in maniera fluida in qualsasi situazione.
Presumo...
yossarian
09-03-2004, 18:12
Originariamente inviato da halduemilauno
quindi tu pensi che nVidia ha pensato o abbia pensato a tutte queste soluzioni?
credi che la nuova architettura a 16x1/2(ammesso che sia vera)possa risolvere? e quanto?
e in ultimo tu al loro posto cosa avresti fatto?
ciao Yoss scusa l'angoscia creata.
:) :)
sicuramente ha pensato (come pure ATi) a risolvere almeno parte dei problemi che affliggono l'attuale generazione; sinceramente non so a quali soluzioni abbia pensato. La serie Nv3x ha fatto pensare all'adozione di recirculating pipeline che, se implementate correttamente, hanno il vantaggio di poter far entrare più pixel all'interno della stessa pipeline (anche se, poi, ne viene scritto sempre uno per passata, però si ha il vantaggio, una volta scritto il primo, di poter velocizzare le elaborazioni dei successivi). Per la serie NV4x, invece, si parla di architettura 16x1; se effettivamente così fosse, si potrebbe pensare ad un'architettura ad elevato parallelismo (che però, dal numero di transistor, farebbe escludere l'uilizzo di pipeline troppo lunghe, anche se non c'è la certezza di ciò). Questo se effettivamente si trattasse di una 16x1 effettiva. Potrebbe, altresì essere un'architettura "ibrida", tipo NV34, che si comporta in alcuni casi (single texturing) da 16x1 (o 12x1) e in multi da 8x2 (o 6x2). Sicuramente hanno lavorato sul FSAA. Spero che abbiano modificato la logica di funzionamento della singola pipeline, cosa che potrebbe essere probabile se fossero vere le voci di capacità di elaborazione dei PS2.0 da 5 a 7 volte maggiore di quella dell'NV35; questo lo renderebbe, grosso modo, due volte, due volte e mezzo più veloce dell'R3x0, a parità di clock; il che farebbe concludere che le logica sia più simile a quella dell'R3x0 che a quella dell'NV3x, con un numero doppio di pipeline; questo nell'ipotesi più semplicistica. Ce ne sono altre, più complesse, che, allo stato attuale, non vale la pena di approfondire, perchè siamo nel campo delle speculazioni basate sul "sentito dire".
Credo ci sia da attendere i primi test e fare le valutazioni solo a posteriori; tutto il resto sono solo ipotesi.
ciao hal
yossarian
09-03-2004, 18:25
Originariamente inviato da lucio68
anche se lo riassumo in maniera un po' semplicistica...
Ammetto senza vergogna che ho dovuto leggere il post un psio di volte e non sono sicuro di aver capito bene tutto, ma non importa.
Per noi poveri mortali poco addentro a questioni tanto complicate, la sostanza è che i tempi non sono maturi per il fotorealismo in tempo reale a prezzi umani...
Ma allora, a parte le prestazioni velocistiche pure, quali potrebbero essere le migliorie percepibili a livello di qualità di immagine di Nv40 e R420?
Grazie
a livello di qualità di immagine si vedranno reali miglioramenti qualitativi qualora i due chip siano in grado di elaborare effetti DX9 senza eccessivi rallentamenti. Gli effetti utilizzabili con questa generazioni di chip è molto limitata e va dosata col contagocce; il mio amico fek è sicuramente più qualificato di me per rispondere ad una domanda che concerne il cosa si può fare con le DX9 (e le leoro estensioni).
Comunque si è lontani dall'auspicato fotorealismo; se pensi che, ad esempio, nell'utilizzo dei filtri (AF e FSAA), rispetto alla generazione precedente si è guadagnato molto in prestazioni non solo per l'aumentata capacità d'elaborazione dei chip, ma, soprattutto per la diminuita qualità dei filtri adottati su NV3x e R3x0 (il FSAA MS è meno buono, qualitativamente, rispetto al SS e l'anisotropic, in modalità quality, vede l'utilizzo del trilinear solo nel primo, massimo nei primi due layer, anzichè, come dovrebbe essere, su tutti quelli richiesti), questo dovrebbe darti un'idea dei compromessi a cui si è dovuti giungere per ottenere determinate prestazioni.
halduemilauno
09-03-2004, 18:43
Originariamente inviato da yossarian
sicuramente ha pensato (come pure ATi) a risolvere almeno parte dei problemi che affliggono l'attuale generazione; sinceramente non so a quali soluzioni abbia pensato. La serie Nv3x ha fatto pensare all'adozione di recirculating pipeline che, se implementate correttamente, hanno il vantaggio di poter far entrare più pixel all'interno della stessa pipeline (anche se, poi, ne viene scritto sempre uno per passata, però si ha il vantaggio, una volta scritto il primo, di poter velocizzare le elaborazioni dei successivi). Per la serie NV4x, invece, si parla di architettura 16x1; se effettivamente così fosse, si potrebbe pensare ad un'architettura ad elevato parallelismo (che però, dal numero di transistor, farebbe escludere l'uilizzo di pipeline troppo lunghe, anche se non c'è la certezza di ciò). Questo se effettivamente si trattasse di una 16x1 effettiva. Potrebbe, altresì essere un'architettura "ibrida", tipo NV34, che si comporta in alcuni casi (single texturing) da 16x1 (o 12x1) e in multi da 8x2 (o 6x2). Sicuramente hanno lavorato sul FSAA. Spero che abbiano modificato la logica di funzionamento della singola pipeline, cosa che potrebbe essere probabile se fossero vere le voci di capacità di elaborazione dei PS2.0 da 5 a 7 volte maggiore di quella dell'NV35; questo lo renderebbe, grosso modo, due volte, due volte e mezzo più veloce dell'R3x0, a parità di clock; il che farebbe concludere che le logica sia più simile a quella dell'R3x0 che a quella dell'NV3x, con un numero doppio di pipeline; questo nell'ipotesi più semplicistica. Ce ne sono altre, più complesse, che, allo stato attuale, non vale la pena di approfondire, perchè siamo nel campo delle speculazioni basate sul "sentito dire".
Credo ci sia da attendere i primi test e fare le valutazioni solo a posteriori; tutto il resto sono solo ipotesi.
ciao hal
ciao Yossi.
"questo lo renderebbe, grosso modo, due volte, due volte e mezzo più veloce dell'R3x0, a parità di clock"
e quindi con un clock superiore...aspettiamo e sapremo.
sei troppo forte grazie.
:) :)
Originariamente inviato da halduemilauno
"anche se lo riassumo in maniera un po' semplicistica,"
"Questo senza voler entrare nel dettaglio in merito"
ah meno male.
ciao Yoss grazie.
:D :D
Quello e' un mostro :D
Pero' e' interessantissimo perche' quello che spiega me lo ritrovo nei documenti che danno dritte sull'ottimizzazione ma non spiegano i motivi. A spiegarmi i motivi ci pensa lui qui :p
Originariamente inviato da yossarian
a livello di qualità di immagine si vedranno reali miglioramenti qualitativi qualora i due chip siano in grado di elaborare effetti DX9 senza eccessivi rallentamenti. Gli effetti utilizzabili con questa generazioni di chip è molto limitata e va dosata col contagocce; il mio amico fek è sicuramente più qualificato di me per rispondere ad una domanda che concerne il cosa si può fare con le DX9 (e le leoro estensioni).
I problemi principali dal punto di vista software dell'attuale generazione sono:
- potenza di calcolo, non ce n'e' abbastanza per applicare lunghi pixel shader su tutti gli oggetti, ad esempio, se ho un pixel shader complesso per l'acqua, uno per il terreno e uno per fare atmospheric scattering, viaggio a 30fps su un NV35 senza ne' gioco ne' il resto degli oggetti... la GPU sta sudando
- i floating point render target non supportano le operazioni di blending, in altre parole se decido di disegnare la scena e scrivere i colori come valori a virgola mobile invece che fissi, non posso domandare alla GPU di fare "un'altra passata" sulla stessa scena, ad esempio aggiungendo una luce... questo limita parecchio l'uso dei fp render target e dell'illuminazione ad alto range dinamico che aggiunge molto al realismo di una scena
Il primo problema dovrebbe risolversi con la prossima generazione. Il secondo e' stato sicuramente risolto con la prossima generazione...
Entro un mese dovrei ricevere uno dei primi prototipi dell'NV40 per sviluppatori al mondo... non sto piu' nella pelle :D
Scusa yossarian se ho abbreviato, spero non avrai a male...
Comunque grazie, finalmente comincio a capirci qualcosa anch'io, che lavorando su mainframe prima e as400 poi, ho sempre dovuto costruire le schermate su terminali (o su emulatori) a caratteri...
Siete dei mostri ;)
yossarian
09-03-2004, 21:49
Originariamente inviato da fek
Quello e' un mostro :D
Pero' e' interessantissimo perche' quello che spiega me lo ritrovo nei documenti che danno dritte sull'ottimizzazione ma non spiegano i motivi. A spiegarmi i motivi ci pensa lui qui :p
così, però, mi fai arrossire; anch'io ho molto da imparare dala tua frequentazione: devo colmare tutte le mie lacune in fatto di SW (e sono tante) e, devo dire che, certe cose, spiegate da te, risultano molto semplici e di facile comprensione.
E poi non è un segreto che sono affascinato dal tuo lavoro.
;)
yossarian
09-03-2004, 21:51
Originariamente inviato da lucio68
Scusa yossarian se ho abbreviato, spero non avrai a male...
nessun problema, figurati
:)
cdimauro
10-03-2004, 07:02
Originariamente inviato da lucio68
Per noi poveri mortali poco addentro a questioni tanto complicate, la sostanza è che i tempi non sono maturi per il fotorealismo in tempo reale a prezzi umani...
"tempo reale" e "fotorealismo" sono due termini che non si possono mettere assieme, e non sarà possibile farlo per PARECCHIO tempo. Il problema è che rappresentare la luce con un modello 3D richiede una potenza di calcolo semplicemente MOSTRUOSA.
Lasciamo perdere: accontentiamoci dei modelli semplificati, che comunque presentano una discreta resa... ;)
Originariamente inviato da cdimauro
"tempo reale" e "fotorealismo" sono due termini che non si possono mettere assieme, e non sarà possibile farlo per PARECCHIO tempo. Il problema è che rappresentare la luce con un modello 3D richiede una potenza di calcolo semplicemente MOSTRUOSA.
Lasciamo perdere: accontentiamoci dei modelli semplificati, che comunque presentano una discreta resa... ;)
5 anni per il primo chip in grado di risolvere un sistema di radiosity in tempo reale e fare raycasting :)
Chi scommette con me?
yossarian
10-03-2004, 13:51
Originariamente inviato da halduemilauno
ciao Yossi.
"questo lo renderebbe, grosso modo, due volte, due volte e mezzo più veloce dell'R3x0, a parità di clock"
e quindi con un clock superiore...aspettiamo e sapremo.
:) :)
si; ovviamente mi riferisco alla velocità di elaborazione dei PS2.0 che, in alcuni casi (quando se ne fa un uso non trascurabile), può avvicinarsi, nel caso il sistema non presenti altri colli di bottiglia, alle prestazioni reali (tradotte in fps). Questo, ovviamente, prendendo per buoni i rumors e le specifiche che sono circolate in rete negli ultimi tempi.
Per una reale valutazione oggettiva dovremo aspettare l'uscita dei nuovi chip e i primi riscontri prestazionali.
ciao
Alberello69
10-03-2004, 14:24
Originariamente inviato da fek
5 anni per il primo chip in grado di risolvere un sistema di radiosity in tempo reale e fare raycasting :)
Chi scommette con me?
pochi!:O
Alberello69
10-03-2004, 16:40
quanto ci vuole oggi per fare un raytracing di una immagine a 1280x1024....
naturalmente giusto per avere un valore indicativo...
non lavoro con la grafica 3d:p
cdimauro
11-03-2004, 05:44
Originariamente inviato da fek
5 anni per il primo chip in grado di risolvere un sistema di radiosity in tempo reale e fare raycasting :)
Chi scommette con me?
Io. Però ti costruisco una scena piena di vetri e cristalli messi uno di fronte all'altro, con una luce in mezzo, e mi deve garantire di effettuare il rendering in tempo reale... Ovviamente dal fatto che gli specchi siano disposti uno di fronte all'altro mi aspetto una realistica resa dell'effetto di riflessione "infinita" dell'immagine, con tanto di effetti di luce riprodotti correttamente... :D
cdimauro
11-03-2004, 05:46
x Yossorian: Raid li ammazza stecchiti, ma a te basta scrivere qualcosa sulle GPU per ottenere gli stessi risultati... :D
Originariamente inviato da cdimauro
Io. Però ti costruisco una scena piena di vetri e cristalli messi uno di fronte all'altro, con una luce in mezzo, e mi deve garantire di effettuare il rendering in tempo reale... Ovviamente dal fatto che gli specchi siano disposti uno di fronte all'altro mi aspetto una realistica resa dell'effetto di riflessione "infinita" dell'immagine, con tanto di effetti di luce riprodotti correttamente... :D
... certo che ti sei limitato! :O
:sofico: :p
yossarian
11-03-2004, 12:04
Originariamente inviato da cdimauro
x Yossorian: Raid li ammazza stecchiti, ma a te basta scrivere qualcosa sulle GPU per ottenere gli stessi risultati... :D
:D
Dark Schneider
11-03-2004, 16:06
Originariamente inviato da fek
I problemi principali dal punto di vista software dell'attuale generazione sono:
- potenza di calcolo, non ce n'e' abbastanza per applicare lunghi pixel shader su tutti gli oggetti, ad esempio, se ho un pixel shader complesso per l'acqua, uno per il terreno e uno per fare atmospheric scattering, viaggio a 30fps su un NV35 senza ne' gioco ne' il resto degli oggetti... la GPU sta sudando
- i floating point render target non supportano le operazioni di blending, in altre parole se decido di disegnare la scena e scrivere i colori come valori a virgola mobile invece che fissi, non posso domandare alla GPU di fare "un'altra passata" sulla stessa scena, ad esempio aggiungendo una luce... questo limita parecchio l'uso dei fp render target e dell'illuminazione ad alto range dinamico che aggiunge molto al realismo di una scena
Il primo problema dovrebbe risolversi con la prossima generazione. Il secondo e' stato sicuramente risolto con la prossima generazione...
Entro un mese dovrei ricevere uno dei primi prototipi dell'NV40 per sviluppatori al mondo... non sto piu' nella pelle :D
Oddio l'ultima affermazione...e noi sbaviamo...
:sofico:
cdimauro
12-03-2004, 06:31
Io sbavo soltanto perché m'interessa sapere com'è fatta l'architettura dell'NV40, perché per il resto non gioco (non ho tempo. Figurati che la mia 9600Pro la uso soltanto per il desktop!!! :D)
x Raven: sono il solito bastian contrario... ;)
nonikname
22-03-2004, 06:35
Bene , ho l'onore di postare le specifiche dell' NV40 rev A2 (quindi con il clock del core e delle memorie di un buon 10-20% più basso):
Source: beyond3d (http://www.beyond3d.com/forum/viewtopic.php?t=10946)
Traduzione:
Le specifiche non sono una novità , sono state speculate da un po di tempo , però ora sono appena state confermate. La scheda che stava facendo funzionare quei giochi era un NV40 (era una revisione A2) Velocità del core 475mhz e 256Mb di memoria(GDDR3) a 1.2Ghz. La scheda è 16x1 poichè il fillrate lo dimostra. Con 3dmark2001 fornisce il risultato di 7010 Mpixels/s per il single texturing e di 7234 Mpixels/s per il multi texturing (impressionanti non credete?). Le performance dei PixelShaders aumentano di brutto , da 2.5 volte a 5 volte più veloce. L' AA usato nelle immagini è RGMSAA a 4x, il massimo AF (su questi driver 56,55) era 8x ma penso che li vedremo a 16x. Nella maggior parte dei giochi le prestazioni erano 2.5x a 3x più veloci di una FX5950 usando l'alta risoluzione e l'aa così come l' AF con una migliore qualità d'immagine......
Che si può dire? è un miglioramento che và oltre le aspettative. Per ora ci sono un po di problemi, principalmente texture corrotte, ma non nei giochi esaminati , sono al 100% sicuro che , al lancio dell'NV40 , i driver avranno molto più feature. Un altra cosa che posso sostenere che effettivamente niente offusca la qualità degli Screenshot fatti , quindi in primo luogo penso che :
1) se non zumate l'immagine sembra maledettamente ben fatta.
2) Questi non sono driver finali quindi i livelli di AF o di aa saranno aumentati.
3) non sto dicendo sono migliore di ATI o qualcosa di simile, io dico solo che la qualità è migliore di qualunque altra scheda di Nvidia.
e sotto l'aspetto della velocità, bisogna ricordarsi che revisione A2 non è la revisione finale, La VPU in commercio "potrebbe" essere un po più veloce. Credo che sia tutto... almeno tutto quello che possa dire ora, ci sarebbe qualcos'altro , ma rischio troppo ed ho una promessa, forse dirò qualcosa successivamente (in questo mese), ma ho detto tutto sapessi, che sperassi che lo gradiste ed ancora scusaste il mio inglese difettoso(qui non riesco a tradurre ).
Halo ( no AA, 8x AF ) 1600x1200 51.1fps
Far Cry ( no AA, no AF ) 1600x1200 53.4fps
UT2004 ( 4xAA, 4xAF ) 1600x1200 71.9fps - 1280x960 82.9fps ( both botmach )
Star Wars Kotor ( 4xAA, 8xAF ) 1600x1200 49.3fps
3dmark2001 more than 36K
3dmark2003 didn't run, give him an error of non detectable device....
I risultati dei 2 3Dmark sono riportati più avanti nel forum cosi come il sistema su cui girava la scheda e cioè :
Athlon 64 3200+, 1GB Ram Pc-4000, HDD 160gb Sata, Gigabyte GA-K8VT800 (VIA KT880).
:eek: :eek: :eek: :eek: :eek: :eek:
Paoletta Corsini
22-03-2004, 06:51
Originariamente inviato da nonikname
Bene , ho l'onore
fake.
nonikname
22-03-2004, 06:56
http://www.guru3d.com/newsitem.php?id=1261
Fake di un Moderatore di beyond3d ......:rolleyes:
Nvidia ha anche annunciato il lancio : Link sito Nvidia (http://www.nvidia.com/object/nzone_geforcelanparty_home)
nonikname
22-03-2004, 07:08
Per la cronaca : la macchina sulla quale è stata provata l'NV40 fa parte di una Lan di 60 Pc con tutte nV40 , e Vegetto-ex ( il moderatore che ha scritto quel post) ha curato l'istallazione dei giochi sulla lan , a San Francisco dove verrà presentata la scheda il 13 aprile.......
http://www.nvidia.com/docs/IO/11998/logo.jpg
blubrando
22-03-2004, 07:34
grande nonik!!!;)
Alberello69
22-03-2004, 09:23
solo 7010 punti a 3dMark03 ????
:confused: :confused: :confused: :confused: :confused:
halduemilauno
22-03-2004, 09:37
Originariamente inviato da Alberello69
solo 7010 punti a 3dMark03 ????
:confused: :confused: :confused: :confused: :confused:
dove lo hai letto?
:confused:
Alberello69
22-03-2004, 09:38
scusate stavo ancora dormendo!!!!:sofico: :sofico: :sofico: :oink: :oink: :oink:
nonikname
22-03-2004, 11:08
Originariamente inviato da Alberello69
solo 7010 punti a 3dMark03 ????
:confused: :confused: :confused: :confused: :confused:
Guarda che nel post c'è scritto :"Con 3dmark2001 fornisce il risultato di 7010 Mpixels/s per il single texturing e di 7234 Mpixels/s per il multi texturing "
http://www.hwupgrade.it/articoli/988/3dmark_1.gif
A livello di paragone ho postato il grafico del multi texturing & singletexturing delle schede attuali ,
mentre l'nv40 in
Multitexturing ==7234 Mpixels/s
Single texturing =7010 Mpixels/s
(impressive!!!)
nonikname
22-03-2004, 12:26
L'ulima novità , piuttosto negativa :
sembra che per l'NV40 , sia necessaria la doppia alimentazione (come per il Volari V8duo ) , forse solo per questa revisione di core A2 , invece la versione PCI-E ha bisogno di un solo molex , dato che la porta fornisce i 75w in più di cui la scheda ha bisogno ... :gluglu:
Invece sembra che la Geforce 5750 ultra (aka geffo 5700 ultra con GDDR3) non ha bisogno di alimentazione aggiuntiva , per via del basso consumo delle GDDR3..... :gluglu:
NV 40 in tutto il suo splendore
http://file.bodnara.co.kr/webedit/hardward/1079923527-NV40_1.jpg
nonikname
22-03-2004, 12:50
http://www.hardwaretidende.dk/hard/artikelimages/09022004-1-4+.jpg
NV40 (475 MHz VPU, 1200 MHz ram, Athlon 64 3200+):
HALO (1600x1200, no FSAA + 8x ANI)
NV40: 51 FPS 8xANI
NV38: 25 FPS 8xANI
R360: 27 FPS 8xANI
link: http://www.nvnews.net/#1079758469
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.