|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#21 |
|
Bannato
Iscritto dal: Sep 2003
Città: Reggio C. - Messina
Messaggi: 2367
|
beato te
se questo e' arrapicarsi sugli specchi....penso ti piaccia stare a 90 gradi...
pagare feature reclamizzate come niracoli del progresso e non poterne usufruire...se a te sta bene...io non mettero' una vga nvidia nel mio case mai piu'....dopo aver visto di cosa son capaci pur di stare al passo delle performnce di ATi.....non vorrei vedere un giorno con driver "normali" una vga pagate fior di euro andare come una gf5200....tante cose sono poco chiare....oggi una 5900xt ha prestazioni di tutto rispetto anche nei giochi ps2.0 intensive....quando prima crollava inesorabilmente....le cose sono 3 1)nvidia ha portato a lourde la serie nv30/35 2)nvidia ha inserito codice ad ok nei driver per l'uso di "funzioni" proprietarie....o un piu' verosimile compilatore real-time che trasformi l'uso di ps2.0 e vs2.0 in funzioni proprietarie piu' digeribili a discapito della qualita' (non lo sapremo mai perche' una volta nata una nuova gpu si tende a non esaminare piu' i progressi con i driver delle gpu precedenti....e chissa' come mai le prestazioni sono aumentate proprio dopo l'uscita di nv40....come dire...spostiamo l'attenzione sulla nuova linea e ottimizziamo ad ok la precedente 3)nvidia non sapeva di aver un architettura miracolosa e se ne accorta solo dopo l'intro di nv40 a voi sta bene...a me no....io prediligo la trasparenza....poco m'imorta se doom3 e in genere l'opengl va meglio su nvidia di pochi fps....preferisco avere una vga che in directx vada bene...visto che "purtroppo" il futuro sono queste api.... anzi a dire il vero non preferisco ne' una ne' l'altra per il supporto ai games....per quello uso l'xbox molto piu' realiable....il pc lo uso per lavoro e mai lo insozzerei con simili "fardelli" da 4gb e piu' per poi ritrovarmi alla disinstallazione 10000 chiavi di registre e mondizza varie.... mai spenderei 600euro per farmi 2 partite a quei pochi titoli che il pc ha "da giocare"....con tutto che le vendo e mi costano un bel po' meno ste schedine...tanto per rendere l'idea sul mio FX53 uso e usero' per sempre (almeno che non si bruci prima) la mia fida 9800pro@xt....@ solo perche' amo tale pratica non certo per necessita'....visto che mi serve avere solo un desktop 2d riposante e nitido e in DVI ancora non ce n'e' per Nvidia a paragone anche se il gap a livello 2d l'ha recuperato grazie all'adozione(era ora) di filtri passa basso classe 5....adottati da ATi da una vita...(la sezione tvout di nvidia e' penosa)...e un'uscita tv degna di essere chiamata tale.... il resto e' fumo negli occhi.... |
|
|
|
|
|
#22 | |
|
Senior Member
Iscritto dal: Feb 2002
Città: Discovery
Messaggi: 34710
|
Re: beato te
Quote:
stai fuori come un balcone. e non da ora.
__________________
Good afternoon, gentlemen, I'm a H.A.L. computer. |
|
|
|
|
|
|
#23 | |
|
Bannato
Iscritto dal: Sep 2003
Città: Reggio C. - Messina
Messaggi: 2367
|
Quote:
e si'...proprio vitale avere il supporto ps3.0 ....ancora oggi i titoli full dx9 si contano su una mano figuriamoci quando vedremo il supporto totale del soft al dx9c....il salto sara' univoco...come lo e' sempre stato da dx9 a dx10....e cmq nvidia sara' tagliata fuori cosi come Ati indifferentemente da ps e vs 3.0.....date un occhio alle feature che dovranno supportare le future vga dx10...altro che solo vs e ps 3.0.... abbiamo anche visto col 3dmark2005 "quanto consitente" sia il guadagno in termini prestazionali....l'unica cosa in piu' degna di nota e' il supporto alle shadow maps....pur non offrendo cio' che dovrebbe in termini di risparmio computazionale per lo meno offre una qualita' maggiore delle ombre che finalmente non soffrono piu' di effetto aliasing....per il resto....tutto grasso che cola ops ho visto ora la replica di qualcuno....ops e' nella lista nera....peccato ottima cosa questa funzione (altro che encoding hw ps che bello replicare senza apporre neanche un minimo di giustificazione tecnica.... quando "qualcuno" a caso avra' la possibilita' di provare la funzione encoding hw di nvidia....si mettera' sul balcone anche lui a 90 gradi....che bello non sapere neanche di cosa si sta parlando e offendere.....bah da noi si dice "anche i pulici hannu a tussi...." ..................................................... CHI PENSA DI MIGLIORARE I TEMPI D'ENCODING USANDO NV40 STIA ALLA LARGA SE VUOLE COMPRARE TALE GIOIELLO PER USARE QUESTA SUA "INNOVATIVA" FEATURE.....SE LA SI VUOLE PER GIOCARE....BEH ALLORA 100 SANTI... "BE AWARE FROM....INCHIAPPETAMENT At 90 GRADES" hal 2001 ne sa qualcosa closed Ultima modifica di TripleX : 09-11-2004 alle 16:30. |
|
|
|
|
|
|
#24 |
|
Bannato
Iscritto dal: Sep 2003
Città: Reggio C. - Messina
Messaggi: 2367
|
questo sta fuori anche lui
If you look at the Xbitlabs article, you'll see that the 6800 finally has the video processor enabled with the 65.76 drivers. But there was a discussion over at Anandtech forums that some of the 6800's video processor was working correctly as the CPU utilization was still too high. That leads me to believe that Hexus may be correct that there is some kind of a design flaw with the early samples of the 6800s. I have yet to check mine and I'll report back on my findings. if you read the blurb on nvidia.com for the 6800 series, it says the video processor is programmable, so the support could be actually added to the drivers, it's not a hardware fault most likely. So if you want working hardware encode/decode, start emailing or phoning nvidia asking for them to implement the feature. If they don't know it's important to their customers, they'll keep telling the driver teams to work on other driver areas. I'd like this encode feature enabled especially myself. http://www.techreport.com/onearticle.x/7535 THE 6800'S VIDEO PROCESSOR IS BROKEN We're a little slow on the uptake around here when it comes to some news stories. For instance, various pockets of the web have been abuzz about some video acceleration deficiencies of the NV40 GPU powering all GeForce 6800-series graphics cards for a few weeks now. This morning, we received mail for TR reader Henrik S. asking this: ed ecco i test di conferma....notare 100% cpu utilization su 6800 series e il corretto funzionamento sulla nuova 6600 di contro... credere ancora a babbo natale deve essere bello caro hal?? http://www.hexus.net/content/reviews...JsX3BhZ2U9MTM= It appears to be working correctly with NV43 with average CPU utilisation during playback less than 40%. The GPU is assisting the CPU in decoding the HDTV source video (in this case 1080p HDTV video) and the CPU is free to do other tasks at the same time. It's clearly broken in NV40 and NV45, even on the 65.76 driver, with even NV35 offering more assistance than either of those parts. Ultima modifica di TripleX : 09-11-2004 alle 16:41. |
|
|
|
|
|
#25 |
|
Senior Member
Iscritto dal: Jul 2004
Città: Ciriè (TO)
Messaggi: 724
|
A tripleX
Ma che tu sai, anche le varie GeForce mx440 e FX5xxx hanno problemi per quanto riguarda l'encoding?
Te lo chiedo perchè un mio amico ha un proc AMD 2500+ Barton e una scheda GeForce o mx440 o fx5200 non mi ricordo quale delle due, e il suo computer quando va con l'encoding si pianta... (o forse il lavoro di encoding lo fa tutto la scheda di acquisizione con programma Pinnacle che ha acquistato in un secondo momento?) (scusa l'ignoranza, se ho detto qualche castroneria, illuminami) |
|
|
|
|
|
#26 |
|
Bannato
Iscritto dal: Sep 2003
Città: Reggio C. - Messina
Messaggi: 2367
|
no stiamo parlando di encoding hw a livello di gpu...cioe' tramite la vga si dovrebbe alleggerire e velocizzare il carico sulla cpu...le vga precedenti alla serie nv40 non ne sono affette ...almeno quelle da te elencate proprio perche' non hanno comunque tale supporto di suo
|
|
|
|
|
|
#27 |
|
Senior Member
Iscritto dal: Jan 2003
Messaggi: 10395
|
L'articolo di Xbitlabs diceva esattamente il contrario.. ossia che con i ForceWare 65.76 l'encoding funzionava anche con le 6800. Ossia qui:
http://www.xbitlabs.com/articles/vid...-theory_6.html L'articolo è di due giorni più recente di quello di Hexus. Adesso è interessante vedere il problema dove sia esattamente. Se quelli Hexus non sono riusciti a far funzionare l'accelerazione o se quelli di XBitlabs fumano oppio pesante (può sempre essere, ma in genere son seri)
__________________
PC Specialist Recoil 17 - 13900HX - 32 GB DDR5 5200 - Geforce RTX 4080 Mobile 12Gb 175W - 1 SSD Corsair Core XT MP600 2 TB NVMe - 1SSD Solidigm P41+ 2TB NVMe |
|
|
|
|
|
#28 |
|
Senior Member
Iscritto dal: Apr 2004
Città: Prov. Brescia
Messaggi: 1828
|
Ma l'accelerazione hardware la fa il computer in automatico (quando viene lanciata un codec) oppure il codec deve essere scritto in modo da sfruttare la codifica hw?
Inoltre, quali codec funzionano (Divx, Xvid, 3ivx, ecc.)?
__________________
Codice:
SYMONJFOX: Good music since 1999 - Ho fatto affari con: barto2, infrty, ]Rik`[, lepne, Toki84, uniqueusername PC1: Ryzen 5600g, 32GB DDR4 3200, 4 SSD, ecc. |
|
|
|
|
|
#29 |
|
Senior Member
Iscritto dal: Jan 2003
Messaggi: 10395
|
Dovrebbero essere il sw che richiede ai drivers di effettuare la decodifica. Il codec in sè stesso non dovrebbe cambiare.
__________________
PC Specialist Recoil 17 - 13900HX - 32 GB DDR5 5200 - Geforce RTX 4080 Mobile 12Gb 175W - 1 SSD Corsair Core XT MP600 2 TB NVMe - 1SSD Solidigm P41+ 2TB NVMe |
|
|
|
|
|
#30 |
|
Senior Member
Iscritto dal: Apr 2000
Città: Vicino a Montecatini(Pistoia) Moto:Kawasaki Ninja ZX-9R Scudetti: 29
Messaggi: 53971
|
Triplex e halduemilauno: dateci un taglio
|
|
|
|
|
|
#31 | ||
|
Senior Member
Iscritto dal: Oct 2002
Città: San Jose, California
Messaggi: 11794
|
Re: beato te
Quote:
Esattamente come ATI, NVIDIA ha introdotto una sorta di "compilatore" interno dei driver che riordina le istruzioni degli shader in un formato piu' digeribile all'architettura, preservando il significato matematico delle istruzioni (leggi: senza perdita di qualita'). Non c'e' bisogno di essere dei guru, questa tecnica e' abbondantemente descritta in giro per la rete in svariati forme (puoi controllare 3DCenter.de, che propone spesso ottimi articoli sull'argomento). Questa e' ormai prassi standard sia per ATI sia per NVIDIA, ed e' una soluzione molto elegante per risparmiare transistor all'interno dei chip. Col miglioramento di questo compilatore interno, versione dopo versione, si ha un conseguente miglioramento delle prestazioni complessiva, cosa ottima per l'utente che trova il proprio investimento rivalutato dopo mesi dall'acquisto. Quote:
__________________
"We in the game industry are lucky enough to be able to create our visions" @ NVIDIA |
||
|
|
|
|
|
#32 | |
|
Senior Member
Iscritto dal: Oct 2002
Città: San Jose, California
Messaggi: 11794
|
Quote:
Al contrario, usciranno i primi giochi che faranno uso abbastanza massiccio delle ottimizzazioni possibili con l'uso dell'SM3.0 che, pur non offrendo nulla di drammatico, garantisce almeno un po' di "spazio vitale" in ambito prestazionale per le GPU odierne. Inoltre, quando l'HDR sara' un'opzione standard, le GPU ATI odierne saranno tagliate fuori. Va detto che l'NV40 fara' comunque fatica a gestire una tale feature, ma non gli sara' preclusa.
__________________
"We in the game industry are lucky enough to be able to create our visions" @ NVIDIA |
|
|
|
|
|
|
#33 |
|
Senior Member
Iscritto dal: May 2001
Messaggi: 12859
|
Qui a qualcuno sfugge che non sono tanto i ps 3.0 a rendere innovativo il tipo di prodotto, quanto pensare che si hanno prestazioni superiori SUI PORTATILI alle schede grafiche di precedente generazione su desktop...
"tutto qua". Basta seghe mentali... |
|
|
|
|
|
#34 |
|
Member
Iscritto dal: Oct 2003
Città: Roma
Messaggi: 240
|
Non capisco tutto questo scetticismo nei confronti di nVIDIA,L'NV40 mi sembra un'ottimo chipset.Poi riguardo al calore non siamo certo noi a dover insegnare ad nVidia come lavorare in questa direzione,tanto è vero che la normale gira a 300mhz e quella per desk.rep. a 450. Poi le DDR2 lo sapete certo meglio di me sono sicuramente meno avide di corrente.
|
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 19:40.



















