View Full Version : NVIDIA GeForce Go 6800: Shaders 3.0 anche per notebook
Redazione di Hardware Upg
09-11-2004, 10:39
Link all'Articolo: http://www.hwupgrade.it/articoli/1113/index.html
L'architettura di NV40 è stata portata finalmente anche su piattaforma mobile. NVIDIA annuncia una soluzione con 12 pipeline di rendering e tecnologia PCI Express, destinata, almeno per ora, ai sistemi desktop replacement ad elevate prestazioni
Click sul link per visualizzare l'articolo.
halduemilauno
09-11-2004, 10:54
mi pare ottimo.
;)
eh beh nvidia vuole tornare alla ribalta su tutti i fronti con la serie 6xxx... e imho ci sta riuscendo!
halduemilauno
09-11-2004, 11:01
Originariamente inviato da dvd100
eh beh nvidia vuole tornare alla ribalta su tutti i fronti con la serie 6xxx... e imho ci sta riuscendo!
e pensare che è prevista una versione 420/1200. valori superiori alle desktop(nVidia)attuali.
si anche per me.
;)
TyGerONE
09-11-2004, 11:04
starà morendo di InVidia .....
il conte
09-11-2004, 11:29
funziona? Sapevo che c'erano grossi problemi... Meglio per nVidia. NV40 è un ottimo chip, anche se vado avanti tranquillo con la mia 9800Se@Pro.
credo ci sia un errore nella tabella delle specifiche, da quel che ho letto su altri siti la 6800go ha 6 unità vertex e non 5, inoltre la 6800 ha 5 unità vertex e non 6 quindi presumo abbiate invertito i numeri.
Avantasia
09-11-2004, 11:41
una versione 420/1200 non potrebbe creare problemi di riscaldamento? sono curioso di vedere quale sistema di raffreddamento utilizzeranno...
dariocescon
09-11-2004, 11:46
Se mi permettete la scietticità...per un pochino lascerei agli altri i notebook con nVidia. Aspetterei di vedere cosa dicono, vorrei vedere le temperature raggiunte dal chip (non vorrei giocare solamente d'inverno all'aperto e all'ombra quando la temperatura è 5 gradi). Sapete com'è... vi fidereste voi di una cosa nuovissima?... Personalmente io no (Prendo come esempio i famigerati PRIMI Prescott).
Ciauzzz!
Originariamente inviato da dariocescon
Se mi permettete la scietticità...per un pochino lascerei agli altri i notebook con nVidia. Aspetterei di vedere cosa dicono, vorrei vedere le temperature raggiunte dal chip (non vorrei giocare solamente d'inverno all'aperto e all'ombra quando la temperatura è 5 gradi). Sapete com'è... vi fidereste voi di una cosa nuovissima?... Personalmente io no (Prendo come esempio i famigerati PRIMI Prescott).
Ciauzzz!
guarda che tra le tante funzioni che ha questo chip c'è anche quello del risparmio energetico dove probabilmente verrà settata nell'uso normale una velocità molto bassa di ram e chip.
Inoltre le DDR3 ti assicuro che scaldano veramente poco, pensa che c'è addirittura chi le lascia senza dissipatori su alcune schede settate a 1000 mhz figurati se vengono come in questo caso settate a 600mhz.
Il chip scalda in effetti abbastanza ma comunque molto meno delle precedenti generazioni FX e sicuramente meno di quel fornetto di 9800 montato sui portatili.
Originariamente inviato da TyGerONE
starà morendo di InVidia .....
Mica tanto. Guarda http://www.anandtech.com/video/showdoc.aspx?i=2268
Symonjfox
09-11-2004, 13:04
Sarebbe grandioso se commercializzassero queste bellezze anche per i desktop (tipo barebone o HTPC).
Ho letto che dovrebbero essere nei moduli MXM, quindi un portatile con questi moduli, sarà aggiornabile più avanti.
Secondo voi esisteranno degli adattatori MXM -> PCI Express (visto che MXM è un riadattamento del Pci express)? Sarebbe una cosa molto interessante ed intelligente (dai, stiamo mettendo i centrini sui desktop, perchè non metterci una bella Geffo GO).
Cmq una cosa non mi è chiara: il 3:2 Pulldown è una tecnica che si usa nel formato NTSC (America e Jappone), perchè soffermarsi tanto su questa caratteristica che a noi non serve?
Sarebbe stato più interessante spiegare meglio come deinterlaccia la scheda (per esempio la mia Radeon 8500 lo fa molto bene utilizzando sia il metodo Bob che quello Weave quando serve).
Gil Estel
09-11-2004, 13:52
beh io sono passato dalla mia gloriosa 4200 ad una ati per la qualità dei prodotti ati in confronto con la serie 5 di nvidia... però bisogna dare atto che si sono dati da fare sfornando una serie 6 di tutto rispetto... bella la concorrenza... migliora i prodotti e abbassa (o quasi :P) i prezzi...
actarus_77
09-11-2004, 14:04
Originariamente inviato da MaBru
Mica tanto. Guarda http://www.anandtech.com/video/showdoc.aspx?i=2268
Lo stesso sito però riporta nella pagina 14 "Final words" quanto segue:
"Things could get very interesting with NVIDIA's higher performance configuration of the GeForce 6800 Go running at 450/600, instead of the 300/300 configuration we tested here today. At 450/600, the performance advantage could definitely shift to NVIDIA in the areas where things are already close and ATI's performance gap could also be eaten into"
Perciò la 6800 Go è stata testata nella versione 300/300 (core/memoria) con memorie DDR 1. Si sa quanto incida parecchio l'aumento della velocità della memoria sulle prestazioni. Per cui 450 di core e soprattutto 600 di DDR 3 possono addirittura ribaltare la situazione testata da anandtech.
Comunque mi sembra esagerato pensare che ATI stia morendo di iNvidia...
:)
Originariamente inviato da MaBru
Mica tanto. Guarda http://www.anandtech.com/video/showdoc.aspx?i=2268 effettivamente se le schede che verranno commercializzate saranno esttamente quelle pare proprio che ATI non voglia farsi superare in ambito mobile.
Sono curioso di sapere che moduli MXM monteranno, visto che di questi moduli dovrebbero produrne 3 tipi a seconda del settore performances/dissipazione della scheda. Invece il modulo AXIOM è unico o ne sono previsti diversi anche in tal caso?
Originariamente inviato da actarus_77
Lo stesso sito però riporta nella pagina 14 "Final words" quanto segue:
"Things could get very interesting with NVIDIA's higher performance configuration of the GeForce 6800 Go running at 450/600, instead of the 300/300 configuration we tested here today. At 450/600, the performance advantage could definitely shift to NVIDIA in the areas where things are already close and ATI's performance gap could also be eaten into"
Perciò la 6800 Go è stata testata nella versione 300/300 (core/memoria) con memorie DDR 1. Si sa quanto incida parecchio l'aumento della velocità della memoria sulle prestazioni. Per cui 450 di core e soprattutto 600 di DDR 3 possono addirittura ribaltare la situazione testata da anandtech.
Comunque mi sembra esagerato pensare che ATI stia morendo di iNvidia...
:) Se non sbaglio la versione 300/300(x2) è quella presa in considerazione in questo articolo di hwupgrade, mentre la 420/600(x2) è un modello successivo. Penso comunque che una roadmap di ATI sia simile. Per quanto riguarda GDDR1 e GDDR3 non saprei.
GRANDISSIMO!!!
Anche i notebook potranno avere i PS3!!!!!!!!!!!!!!!!!!!!!!!
Ma baff............... :rolleyes: :rolleyes: :rolleyes: :rolleyes:
halduemilauno
09-11-2004, 15:24
Originariamente inviato da Aryan
GRANDISSIMO!!!
Anche i notebook potranno avere i PS3!!!!!!!!!!!!!!!!!!!!!!!
esatto. mi fa piacere che anche tu hai notato questa grande importante innovazione.
;)
Come sappiamo, oltre al tradizionale decoding engine MPEG-2, i nuovi processori video appartnenenti alla serie GeForce 6 sono equipaggiati con un progessore video programmabile (già annunciato con il lancio di NV40) e un Motion Estimation Engine: il processore video programmabile è in grado di adattarsi a nuovi algoritmi video, permettendo quindi una buona longevità de prodotto nel tempo, mentre il Motion Estimation Engine esegue le complesse operazioni gestite dai video encoder che registrano frammenti video in tempo reale per evitare decadimenti prestazionali del sistema. Queste le caratteristiche di PureVideo:
-Advanced motion adaptive de-interlacing: converte segnali video interlacciati in segnali adatti per schermi di tipo progessivo come LCD e VGA, evitando problemi di decadimento qualitativo
-3:2 pull-down correction: elimina i campi fittizi creati durante la conversione film-tovideo permettendo una migliore resa qualitativa
-3:2 pull-down edit detection and correction: utilizza il meccanismo di motion detection per identificare la cadenza di movimento di oggetti presenti nella scena e permette una riproduzione scevra da problemi di sfarfallio
-Color space conversion with extended color support: migliore gestione delle conversioni di colore quando non viene utilizzato il circuito di overlay.
-Gamma correction: ottimizzazione del valore gamma relativo a specifici tipi di schermi
-Procamp function: gestione dei comandi color, tinti, brightness e contrast
-High-quality VMR scaling: permette di ridimensionare video per la riproduzione in finestre o full-screen, permettendo una visione scevra dai tipici problemi che sorgono qualora si decida di visualizzare un video a bassa risoluzione in modalità full-screnn su display ad alta risoluzione
-Noise reduction: riduce il rumore di fondo del video analogico tipicamente presente in trasmissioni televisive o in segnali provenienti da videocassette.
lascierei perdere la parte dedicata all'encoding....che potrebbe spingere un acquirente ad acquistare questo prodotto sperando magari di dimezzare i tempi d'encoding...purtroppo e' noto che LA ARCHITETTURA DELLA 6800 ABBIA UN BUG A LIVELLO HW NELLA GESTIONE DELL'ENCODING CHE NON SOLO FA SI CHE I TEMPI NON SI DIMEZZINO MA CHE ADDIRITTURA RADDOPPINO PORTANDO LA CPU A PICCHI D'UTILIZZO DEL 100% CON NUMEROSI STALLI RISCONTRATI (addirittura su sistemi con cpu poco potenti la 6800 desktop manda in stallo completo la macchina sopratutto su pc amd based non avendo hypertrading infatti il carico sulla cpu diventa insostenibile facendola stallare....).....a questo punto prenderei con le molle tali caratteristiche almeno che non abbiano revisionato il core (mi pare difficile e esoso in termini economici anche se potrebbe essere visto l'introduzione delle funzionalita' di risparmio energetico....che pero' potrebbero benissimo essere implementate su un chip esterno dedicato alla regolazione di voltaggi e frequenze in tempo reale un po' come vguru che e' esterno alla gpu stessa su vga abit).....resta il fatto che sbandierano tale caratteristica anche sulle scatole...e spesso i miei clienti me le rompono ...le scatole...proprio perche' non funzionante ...anzi....nvidia promise a suo tempo nuove revision driver che avrebbero dovuto risolvere il problema....che ad oggi rimane invariato....da qui se ne deduce e non lo dico io...ma siti autorevoli e un'intervista al team nvidia finita con un "no comment about" ...che nv40 ha un bug hw di notevoli proporzioni....e purtroppo non e' risolvibile facilmente....visto che a differenza di ATi che ha sempre lasciato a chip esterni le funzioni encoding e decoding (vedi rage theater e sue evoluzioni) ...tali funzioni sono assolte dalla gpu stessa con l'utilizzo degli shader...(dovrebbero) ...anche se ATi sta seguendo la stessa strada anche se non in toto vista l'ormai elevata programmabilita' delle gpu (ormai vpu vere e proprie) e la loro potenza...abbandonando progressivamente il rage theater anche sulle vga di fascia media...naturalmente l'idea di sfruttare la gpu nell'encoding e' vincente...se ben implementata sicuramente rendera' non vincolante la potenza della cpu...e sarebbe un notevole vantaggio per AMD stessa che si trova in software sse2 dipendenti (sappiamo che queste simd sono mhz dipendenti quindi intel eccelle) un minimo in difficolta' anche se il suo controller integrato riduce a pochi punti percentuali tali differenze....anzi su un articolo veniva evidenziato il fatto che passando da un software d'encoding avi ad un altro spesso s'invertiva il vantaggio...
cmq....pagare una feature che non esiste all'atto pratico e vederla pure pubblicizzata e' un'indignazione per l'utente...e sapere di avere un qualcosa di "non funzionante" lo e' ancora peggio....dovrebbero invece ammettere il loro "sbaglio" e di contro abbassare i prezzi delle loro vga...visto che un bug hw e' una cosa seria.....e non si sa se potrebbe comprometterne e in che modo altre funzionalita' 3d in un futuro prossimo ove magari il software 3d o games vari richiederanno particolari "accessi"....in fondo sono proprio gli shader ad assolvere le caratteristiche d'encoding...quindi perche' non vanno a dovere??
che NVidia dia una risposta e alla svelta mi sembra il minimo invece di "aggirare e raggirare" i suoi clienti :O
halduemilauno
09-11-2004, 15:45
Originariamente inviato da TripleX
Come sappiamo, oltre al tradizionale decoding engine MPEG-2, i nuovi processori video appartnenenti alla serie GeForce 6 sono equipaggiati con un progessore video programmabile (già annunciato con il lancio di NV40) e un Motion Estimation Engine: il processore video programmabile è in grado di adattarsi a nuovi algoritmi video, permettendo quindi una buona longevità de prodotto nel tempo, mentre il Motion Estimation Engine esegue le complesse operazioni gestite dai video encoder che registrano frammenti video in tempo reale per evitare decadimenti prestazionali del sistema. Queste le caratteristiche di PureVideo:
-Advanced motion adaptive de-interlacing: converte segnali video interlacciati in segnali adatti per schermi di tipo progessivo come LCD e VGA, evitando problemi di decadimento qualitativo
-3:2 pull-down correction: elimina i campi fittizi creati durante la conversione film-tovideo permettendo una migliore resa qualitativa
-3:2 pull-down edit detection and correction: utilizza il meccanismo di motion detection per identificare la cadenza di movimento di oggetti presenti nella scena e permette una riproduzione scevra da problemi di sfarfallio
-Color space conversion with extended color support: migliore gestione delle conversioni di colore quando non viene utilizzato il circuito di overlay.
-Gamma correction: ottimizzazione del valore gamma relativo a specifici tipi di schermi
-Procamp function: gestione dei comandi color, tinti, brightness e contrast
-High-quality VMR scaling: permette di ridimensionare video per la riproduzione in finestre o full-screen, permettendo una visione scevra dai tipici problemi che sorgono qualora si decida di visualizzare un video a bassa risoluzione in modalità full-screnn su display ad alta risoluzione
-Noise reduction: riduce il rumore di fondo del video analogico tipicamente presente in trasmissioni televisive o in segnali provenienti da videocassette.
lascierei perdere la parte dedicata all'encoding....che potrebbe spingere un acquirente ad acquistare questo prodotto sperando magari di dimezzare i tempi d'encoding...purtroppo e' noto che LA ARCHITETTURA DELLA 6800 ABBIA UN BUG A LIVELLO HW NELLA GESTIONE DELL'ENCODING CHE NON SOLO FA SI CHE I TEMPI NON SI DIMEZZINO MA CHE ADDIRITTURA RADDOPPINO PORTANDO LA CPU A PICCHI D'UTILIZZO DEL 100% CON NUMEROSI STALLI RISCONTRATI (addirittura su sistemi con cpu poco potenti la 6800 desktop manda in stallo completo la macchina sopratutto su pc amd based non avendo hypertrading infatti il carico sulla cpu diventa insostenibile facendola stallare....).....a questo punto prenderei con le molle tali caratteristiche almeno che non abbiano revisionato il core (mi pare difficile e esoso in termini economici anche se potrebbe essere visto l'introduzione delle funzionalita' di risparmio energetico....che pero' potrebbero benissimo essere implementate su un chip esterno dedicato alla regolazione di voltaggi e frequenze in tempo reale un po' come vguru che e' esterno alla gpu stessa su vga abit).....resta il fatto che sbandierano tale caratteristica anche sulle scatole...e spesso i miei clienti me le rompono ...le scatole...proprio perche' non funzionante ...anzi....nvidia promise a suo tempo nuove revision driver che avrebbero dovuto risolvere il problema....che ad oggi rimane invariato....da qui se ne deduce e non lo dico io...ma siti autorevoli e un'intervista al team nvidia finita con un "no comment about" ...che nv40 ha un bug hw di notevoli proporzioni....e purtroppo non e' risolvibile facilmente....visto che a differenza di ATi che ha sempre lasciato a chip esterni le funzioni encoding e decoding (vedi rage theater e sue evoluzioni) ...tali funzioni sono assolte dalla gpu stessa con l'utilizzo degli shader...(dovrebbero) ...anche se ATi sta seguendo la stessa strada anche se non in toto vista l'ormai elevata programmabilita' delle gpu (ormai vpu vere e proprie) e la loro potenza...abbandonando progressivamente il rage theater anche sulle vga di fascia media...naturalmente l'idea di sfruttare la gpu nell'encoding e' vincente...se ben implementata sicuramente rendera' non vincolante la potenza della cpu...e sarebbe un notevole vantaggio per AMD stessa che si trova in software sse2 dipendenti (sappiamo che queste simd sono mhz dipendenti quindi intel eccelle) un minimo in difficolta' anche se il suo controller integrato riduce a pochi punti percentuali tali differenze....anzi su un articolo veniva evidenziato il fatto che passando da un software d'encoding avi ad un altro spesso s'invertiva il vantaggio...
cmq....pagare una feature che non esiste all'atto pratico e vederla pure pubblicizzata e' un'indignazione per l'utente...e sapere di avere un qualcosa di "non funzionante" lo e' ancora peggio....dovrebbero invece ammettere il loro "sbaglio" e di contro abbassare i prezzi delle loro vga...visto che un bug hw e' una cosa seria.....e non si sa se potrebbe comprometterne e in che modo altre funzionalita' 3d in un futuro prossimo ove magari il software 3d o games vari richiederanno particolari "accessi"....in fondo sono proprio gli shader ad assolvere le caratteristiche d'encoding...quindi perche' non vanno a dovere??
che NVidia dia una risposta e alla svelta mi sembra il minimo invece di "aggirare e raggirare" i suoi clienti :O
:mc:
se questo e' arrapicarsi sugli specchi....penso ti piaccia stare a 90 gradi...:D evidentemente!!
pagare feature reclamizzate come niracoli del progresso e non poterne usufruire...se a te sta bene...io non mettero' una vga nvidia nel mio case mai piu'....dopo aver visto di cosa son capaci pur di stare al passo delle performnce di ATi.....non vorrei vedere un giorno con driver "normali" una vga pagate fior di euro andare come una gf5200....tante cose sono poco chiare....oggi una 5900xt ha prestazioni di tutto rispetto anche nei giochi ps2.0 intensive....quando prima crollava inesorabilmente....le cose sono 3
1)nvidia ha portato a lourde la serie nv30/35
2)nvidia ha inserito codice ad ok nei driver per l'uso di "funzioni" proprietarie....o un piu' verosimile compilatore real-time che trasformi l'uso di ps2.0 e vs2.0 in funzioni proprietarie piu' digeribili a discapito della qualita' (non lo sapremo mai perche' una volta nata una nuova gpu si tende a non esaminare piu' i progressi con i driver delle gpu precedenti....e chissa' come mai le prestazioni sono aumentate proprio dopo l'uscita di nv40....come dire...spostiamo l'attenzione sulla nuova linea e ottimizziamo ad ok la precedente:muro: )
3)nvidia non sapeva di aver un architettura miracolosa e se ne accorta solo dopo l'intro di nv40 :oink:
a voi sta bene...a me no....io prediligo la trasparenza....poco m'imorta se doom3 e in genere l'opengl va meglio su nvidia di pochi fps....preferisco avere una vga che in directx vada bene...visto che "purtroppo" il futuro sono queste api....
anzi a dire il vero non preferisco ne' una ne' l'altra per il supporto ai games....per quello uso l'xbox molto piu' realiable....il pc lo uso per lavoro e mai lo insozzerei con simili "fardelli" da 4gb e piu' per poi ritrovarmi alla disinstallazione 10000 chiavi di registre e mondizza varie....
mai spenderei 600euro per farmi 2 partite a quei pochi titoli che il pc ha "da giocare"....con tutto che le vendo e mi costano un bel po' meno ste schedine...tanto per rendere l'idea sul mio FX53 uso e usero' per sempre (almeno che non si bruci prima) la mia fida 9800pro@xt....@ solo perche' amo tale pratica non certo per necessita'....visto che mi serve avere solo un desktop 2d riposante e nitido e in DVI ancora non ce n'e' per Nvidia a paragone anche se il gap a livello 2d l'ha recuperato grazie all'adozione(era ora) di filtri passa basso classe 5....adottati da ATi da una vita...(la sezione tvout di nvidia e' penosa)...e un'uscita tv degna di essere chiamata tale....
il resto e' fumo negli occhi....
halduemilauno
09-11-2004, 16:19
Originariamente inviato da TripleX
se questo e' arrapicarsi sugli specchi....penso ti piaccia stare a 90 gradi...:D evidentemente!!
pagare feature reclamizzate come niracoli del progresso e non poterne usufruire...se a te sta bene...io non mettero' una vga nvidia nel mio case mai piu'....dopo aver visto di cosa son capaci pur di stare al passo delle performnce di ATi.....non vorrei vedere un giorno con driver "normali" una vga pagate fior di euro andare come una gf5200....tante cose sono poco chiare....oggi una 5900xt ha prestazioni di tutto rispetto anche nei giochi ps2.0 intensive....quando prima crollava inesorabilmente....le cose sono 3
1)nvidia ha portato a lourde la serie nv30/35
2)nvidia ha inserito codice ad ok nei driver per l'uso di "funzioni" proprietarie....o un piu' verosimile compilatore real-time che trasformi l'uso di ps2.0 e vs2.0 in funzioni proprietarie piu' digeribili a discapito della qualita' (non lo sapremo mai perche' una volta nata una nuova gpu si tende a non esaminare piu' i progressi con i driver delle gpu precedenti....e chissa' come mai le prestazioni sono aumentate proprio dopo l'uscita di nv40....come dire...spostiamo l'attenzione sulla nuova linea e ottimizziamo ad ok la precedente:muro: )
3)nvidia non sapeva di aver un architettura miracolosa e se ne accorta solo dopo l'intro di nv40 :oink:
a voi sta bene...a me no....io prediligo la trasparenza....poco m'imorta se doom3 e in genere l'opengl va meglio su nvidia di pochi fps....preferisco avere una vga che in directx vada bene...visto che "purtroppo" il futuro sono queste api....
anzi a dire il vero non preferisco ne' una ne' l'altra per il supporto ai games....per quello uso l'xbox molto piu' realiable....il pc lo uso per lavoro e mai lo insozzerei con simili "fardelli" da 4gb e piu' per poi ritrovarmi alla disinstallazione 10000 chiavi di registre e mondizza varie....
mai spenderei 600euro per farmi 2 partite a quei pochi titoli che il pc ha "da giocare"....con tutto che le vendo e mi costano un bel po' meno ste schedine...tanto per rendere l'idea sul mio FX53 uso e usero' per sempre (almeno che non si bruci prima) la mia fida 9800pro@xt....@ solo perche' amo tale pratica non certo per necessita'....visto che mi serve avere solo un desktop 2d riposante e nitido e in DVI ancora non ce n'e' per Nvidia a paragone anche se il gap a livello 2d l'ha recuperato grazie all'adozione(era ora) di filtri passa basso classe 5....adottati da ATi da una vita...(la sezione tvout di nvidia e' penosa)...e un'uscita tv degna di essere chiamata tale....
il resto e' fumo negli occhi....
stai fuori come un balcone. e non da ora.
Originariamente inviato da Aryan
GRANDISSIMO!!!
Anche i notebook potranno avere i PS3!!!!!!!!!!!!!!!!!!!!!!!
Ma baff............... :rolleyes: :rolleyes: :rolleyes: :rolleyes:
e si'...proprio vitale avere il supporto ps3.0 ....ancora oggi i titoli full dx9 si contano su una mano figuriamoci quando vedremo il supporto totale del soft al dx9c....il salto sara' univoco...come lo e' sempre stato da dx9 a dx10....e cmq nvidia sara' tagliata fuori cosi come Ati indifferentemente da ps e vs 3.0.....date un occhio alle feature che dovranno supportare le future vga dx10...altro che solo vs e ps 3.0....:oink: :rolleyes:
abbiamo anche visto col 3dmark2005 "quanto consitente" sia il guadagno in termini prestazionali....l'unica cosa in piu' degna di nota e' il supporto alle shadow maps....pur non offrendo cio' che dovrebbe in termini di risparmio computazionale per lo meno offre una qualita' maggiore delle ombre che finalmente non soffrono piu' di effetto aliasing....per il resto....tutto grasso che cola
ops
ho visto ora la replica di qualcuno....ops e' nella lista nera....peccato
ottima cosa questa funzione (altro che encoding hw:oink: )....vbulettin rulez;)
ps
che bello replicare senza apporre neanche un minimo di giustificazione tecnica....
quando "qualcuno" a caso avra' la possibilita' di provare la funzione encoding hw di nvidia....si mettera' sul balcone anche lui a 90 gradi....che bello non sapere neanche di cosa si sta parlando e offendere.....bah da noi si dice
"anche i pulici hannu a tussi...." :p
.....................................................
CHI PENSA DI MIGLIORARE I TEMPI D'ENCODING USANDO NV40 STIA ALLA LARGA SE VUOLE COMPRARE TALE GIOIELLO PER USARE QUESTA SUA "INNOVATIVA" FEATURE.....SE LA SI VUOLE PER GIOCARE....BEH ALLORA 100 SANTI...
"BE AWARE FROM....INCHIAPPETAMENT At 90 GRADES"
hal 2001 ne sa qualcosa;)
closed
questo sta fuori anche lui :D
If you look at the Xbitlabs article, you'll see that the 6800 finally has the video processor enabled with the 65.76 drivers. But there was a discussion over at Anandtech forums that some of the 6800's video processor was working correctly as the CPU utilization was still too high. That leads me to believe that Hexus may be correct that there is some kind of a design flaw with the early samples of the 6800s. I have yet to check mine and I'll report back on my findings.
if you read the blurb on nvidia.com for the 6800 series, it says the video processor is programmable, so the support could be actually added to the drivers, it's not a hardware fault most likely. So if you want working hardware encode/decode, start emailing or phoning nvidia asking for them to implement the feature. If they don't know it's important to their customers, they'll keep telling the driver teams to work on other driver areas. I'd like this encode feature enabled especially myself.
http://www.techreport.com/onearticle.x/7535
THE 6800'S VIDEO PROCESSOR IS BROKEN
We're a little slow on the uptake around here when it comes to some news stories. For instance, various pockets of the web have been abuzz about some video acceleration deficiencies of the NV40 GPU powering all GeForce 6800-series graphics cards for a few weeks now. This morning, we received mail for TR reader Henrik S. asking this:
ed ecco i test di conferma....notare 100% cpu utilization su 6800 series e il corretto funzionamento sulla nuova 6600 di contro...
credere ancora a babbo natale deve essere bello caro hal??
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD04NTMmdXJsX3BhZ2U9MTM=
It appears to be working correctly with NV43 with average CPU utilisation during playback less than 40%. The GPU is assisting the CPU in decoding the HDTV source video (in this case 1080p HDTV video) and the CPU is free to do other tasks at the same time.
It's clearly broken in NV40 and NV45, even on the 65.76 driver, with even NV35 offering more assistance than either of those parts.
:mc: :mc: :mc: :mc:
:sofico: :sofico::rolleyes:
actarus_77
09-11-2004, 17:03
Ma che tu sai, anche le varie GeForce mx440 e FX5xxx hanno problemi per quanto riguarda l'encoding?
Te lo chiedo perchè un mio amico ha un proc AMD 2500+ Barton e una scheda GeForce o mx440 o fx5200 non mi ricordo quale delle due, e il suo computer quando va con l'encoding si pianta... (o forse il lavoro di encoding lo fa tutto la scheda di acquisizione con programma Pinnacle che ha acquistato in un secondo momento?)
(scusa l'ignoranza, se ho detto qualche castroneria, illuminami)
:(
no stiamo parlando di encoding hw a livello di gpu...cioe' tramite la vga si dovrebbe alleggerire e velocizzare il carico sulla cpu...le vga precedenti alla serie nv40 non ne sono affette ...almeno quelle da te elencate proprio perche' non hanno comunque tale supporto di suo;)
leoneazzurro
09-11-2004, 17:37
L'articolo di Xbitlabs diceva esattamente il contrario.. ossia che con i ForceWare 65.76 l'encoding funzionava anche con le 6800. Ossia qui:
http://www.xbitlabs.com/articles/video/display/geforce6600gt-theory_6.html
L'articolo è di due giorni più recente di quello di Hexus.
Adesso è interessante vedere il problema dove sia esattamente.
Se quelli Hexus non sono riusciti a far funzionare l'accelerazione o se quelli di XBitlabs fumano oppio pesante (può sempre essere, ma in genere son seri)
Symonjfox
09-11-2004, 18:12
Ma l'accelerazione hardware la fa il computer in automatico (quando viene lanciata un codec) oppure il codec deve essere scritto in modo da sfruttare la codifica hw?
Inoltre, quali codec funzionano (Divx, Xvid, 3ivx, ecc.)?
leoneazzurro
10-11-2004, 09:22
Dovrebbero essere il sw che richiede ai drivers di effettuare la decodifica. Il codec in sè stesso non dovrebbe cambiare.
Triplex e halduemilauno: dateci un taglio ;)
Originariamente inviato da TripleX
intensive....quando prima crollava inesorabilmente....le cose sono 3
[snip]
Hai dimenticato di citare la quarta possibilita', che poi e' cio' che e' accaduto.
Esattamente come ATI, NVIDIA ha introdotto una sorta di "compilatore" interno dei driver che riordina le istruzioni degli shader in un formato piu' digeribile all'architettura, preservando il significato matematico delle istruzioni (leggi: senza perdita di qualita'). Non c'e' bisogno di essere dei guru, questa tecnica e' abbondantemente descritta in giro per la rete in svariati forme (puoi controllare 3DCenter.de, che propone spesso ottimi articoli sull'argomento).
Questa e' ormai prassi standard sia per ATI sia per NVIDIA, ed e' una soluzione molto elegante per risparmiare transistor all'interno dei chip.
Col miglioramento di questo compilatore interno, versione dopo versione, si ha un conseguente miglioramento delle prestazioni complessiva, cosa ottima per l'utente che trova il proprio investimento rivalutato dopo mesi dall'acquisto.
il resto e' fumo negli occhi....
Non e' detto che le soluzioni per le tue esigenze siano valide anche per chi ha esigenze diverse.
Originariamente inviato da TripleX
e si'...proprio vitale avere il supporto ps3.0 ....ancora oggi i titoli full dx9 si contano su una mano figuriamoci quando vedremo il supporto totale del soft al dx9c....il salto sara' univoco...come lo e' sempre stato da dx9 a dx10....e cmq nvidia sara' tagliata fuori cosi come Ati indifferentemente da ps e vs 3.0.....date un occhio alle feature che dovranno supportare le future vga dx10...altro che solo vs e ps 3.0....:oink: :rolleyes:
Questo e' un argomento capzioso, perche' le WGF (DX10) saranno disponibili a meta' del 2006, fra quasi due anni, quando le GPU di fascia alta di oggi saranno comunque entry level, supporto agli SM3.0 o meno, e quando usciranno i primi giochi WGF le attuali GPU saranno fuori dal mercato.
Al contrario, usciranno i primi giochi che faranno uso abbastanza massiccio delle ottimizzazioni possibili con l'uso dell'SM3.0 che, pur non offrendo nulla di drammatico, garantisce almeno un po' di "spazio vitale" in ambito prestazionale per le GPU odierne.
Inoltre, quando l'HDR sara' un'opzione standard, le GPU ATI odierne saranno tagliate fuori. Va detto che l'NV40 fara' comunque fatica a gestire una tale feature, ma non gli sara' preclusa.
Qui a qualcuno sfugge che non sono tanto i ps 3.0 a rendere innovativo il tipo di prodotto, quanto pensare che si hanno prestazioni superiori SUI PORTATILI alle schede grafiche di precedente generazione su desktop...
"tutto qua". Basta seghe mentali...
Andreakk73
06-12-2004, 03:26
Non capisco tutto questo scetticismo nei confronti di nVIDIA,L'NV40 mi sembra un'ottimo chipset.Poi riguardo al calore non siamo certo noi a dover insegnare ad nVidia come lavorare in questa direzione,tanto è vero che la normale gira a 300mhz e quella per desk.rep. a 450. Poi le DDR2 lo sapete certo meglio di me sono sicuramente meno avide di corrente.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.