View Full Version : In commercio le prime schede Radeon X1600XT
Redazione di Hardware Upg
18-11-2005, 07:14
Link alla notizia: http://www.hwupgrade.it/news/skvideo/15818.html
Nonostante il debutto ufficiale sia previsto per la fine di Novembre, i primi sample di schede Radeon X1600XT soo stati messi in commercio nel mercato giapponese
Click sul link per visualizzare la notizia.
NvidiaMen
18-11-2005, 07:38
Un'ottima scheda, superiore in tutto e per tutto alla 6800gs nonostante i "soli" 128bit di memory bus, soprattutto se riuscirà a mantenersi sotto i 200 euro come anticipato in questa news...
Superiore mica tanto, dai primi bench che hanno fatto non sembrava un gran che come prestazioni.
Spetta... definiamo "non sembrava un gran chè come prestazioni"...
Non mi era sembrata così scadente dai...
Cmq non capisco questa inversione di tendenza con un ritorno a 128bit :S
YaYappyDoa
18-11-2005, 08:12
Stando a questa recensione:
http://www.driverheaven.net/reviews/X16_GS/
la X1600XT si fa abbastanza male scontrandosi con la 6800GS. Un prezzo adeguato alle prestazioni potrebbe favorirne la diffusione.
Non mi sembra totalemente scadente la X1600XT, ma da un chip di ultimissima generazione con 12 pipe e cloccato alla bellezza di 590 MHz mi aspettavo di più. La memoria a 128 bit non dovrebbe essere un gran problema.
Un'ottima scheda, superiore in tutto e per tutto alla 6800gs nonostante i "soli" 128bit di memory bus, soprattutto se riuscirà a mantenersi sotto i 200 euro come anticipato in questa news... In tutto e per tutto? Ma dove lo hai letto, su Topolino?Tecnologicamente forse sarà superiore (appartiene alla nuova generazione di schede ATI mentre la 6800GS a quella precedente di nVidia), ma certamente non in termini prestazionali, visto che pur se c'è una generazione che le divide, le prestazioni sono praticamente identiche e anzi, la 6800GS in vari test è anche superiore (pure in HL2:LC che dovrebbe essere ATI-oriented)
halduemilauno
18-11-2005, 08:44
Un'ottima scheda, superiore in tutto e per tutto alla 6800gs nonostante i "soli" 128bit di memory bus, soprattutto se riuscirà a mantenersi sotto i 200 euro come anticipato in questa news...
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
http://www.theinquirer.net/?article=27653
;)
ve beh che cattivi...ci si può anche sbagliare ;)
comunque se abbassano i prezzi di questa VGA NVidia potrebbe abbassare ancora i prezzi delle GS il che è tutto dire...gran scheda e tutto sommata è ancora attuale perché ha pieno supporto per li SM3 :O
capitan_crasy
18-11-2005, 08:56
Un'ottima scheda, superiore in tutto e per tutto alla 6800gs nonostante i "soli" 128bit di memory bus, soprattutto se riuscirà a mantenersi sotto i 200 euro come anticipato in questa news...
"Ma cosa mi dici mai!!!" :p
http://www.xbitlabs.com/articles/video/display/geforce-6800gs_11.html
Come puoi vedere La 6800GS è superiore alla 1600XT anche in Half-Life 2...
Peccato per ATI, un altra occasione persa nella fascia Mainstream. :(
Edit:
Mi viene un dubbio:
Non sarai un provocatore di Flame? :sofico:
RedDrake
18-11-2005, 09:01
al di la di quale scheda sia più veloce,
la cosa positiva è che sulla fascia dei 200-250
euro cominciano ad esserci schede molto valide
In effetti i bench parlano chiaro!
Sicuramente guardando anche i prezzi conviene una X800GTO!
Sto pensando di prendere quella in effetti... solo sono perplesso sul vertex e pixel shader ancora alla ver 2.0b
dite che sarà una differenza che si farà sentire parecchio nel giro di poco?
al di la di quale scheda sia più veloce,
la cosa positiva è che sulla fascia dei 200-250
euro cominciano ad esserci schede molto valide
Basta che le fanno anche AGP, sennò per cambiare scheda video devo cambiare tutto il PC e a quel punto anche se lei costa poco mi costa un patrimonio tutto il resto.
ma alla fine avere un bus a 256bit favorisce solo alle risoluzioni più alte o sempre?
perchè se è così chi è interessato a giocare al max a 1024x768 apprezzerà maggiormente una potenza di calcolo superiore che permetterà una longevità maggiore della scheda...
Si, avere più bandwidth di memoria favorisce l'utilizzo di alte risoluzioni con filtri, per questo secondo me non è un gran problema avere il bus a 128 bit (se la scheda costa poco), in quanto giocare a 1024 o anche 1280 senza filtri sarà possibile per un bel po' di tempo se la GPU è potente come mi sembra essere quella delll'X1600.
In effetti i bench parlano chiaro!
Sicuramente guardando anche i prezzi conviene una X800GTO!
Sto pensando di prendere quella in effetti... solo sono perplesso sul vertex e pixel shader ancora alla ver 2.0b
dite che sarà una differenza che si farà sentire parecchio nel giro di poco?
Personalmente credo di no visto che, correggetemi se sbaglio, l'unica funzionalità aggiuntiva del SM 3 è il vertex texturing che, al momento, sembra poco utilizzato.
Lo SM 3 permette, a sentire gli sviluppatori, un incremento di prestazioni, ma da un punto di vista grafico gli effetti ottenibili sono gli stessi del SM 2.
E' sicuramente più marcato l'incremento di prestazioni dovuto al tipo di scheda (GPU, clock, ecc.) che quello relativo al SM supportato.
Beh direi che era inevitabile, l'anno scorso era la 6600GT, oggi le X1600XT/6800GS: l'anno prossimo ce ne saranno altre due che faranno dimenticare queste ultime
halduemilauno
18-11-2005, 09:23
In effetti i bench parlano chiaro!
Sicuramente guardando anche i prezzi conviene una X800GTO!
Sto pensando di prendere quella in effetti... solo sono perplesso sul vertex e pixel shader ancora alla ver 2.0b
dite che sarà una differenza che si farà sentire parecchio nel giro di poco?
http://hardware.multiplayer.it/articoli.php3?id=12441
;)
Comunque guardando alcuni bench i risultati della x1600xt mi sembrano ecessivamente scarsi rispetto alle potenzialità teoriche, forse c'è bisogno di nuovi driver!
aceto876
18-11-2005, 09:40
Direi che la scarsezza delle prestazioni della x1600xt stanno tutte nella scelta incomprensibile di mettere solo 4 TMU. Sta scheda ha una grandissima potenza nel fare shaders con 12 pipeline e solo 4 TMU limitano troppo il fill rate. E mi sa che nessun driver può colmare una lacuna del genere. Infatti stanno già preparando una nuova scheda di fascia media. Che abbia almeno 8 TMU?
Luca77Pd
18-11-2005, 09:43
Mah... non credo proprio sia un problema di driver...
ATI stavolta ho paura abbia fatto flop...
ATI stessa si è accorta che la scheda non da quello che si aspettava,infatti stà notevolmente abbassando i prezzi di riferimento ancora prima di farla uscire...portandola in una fascia leggermente inferiore.
halduemilauno
18-11-2005, 09:44
Direi che la scarsezza delle prestazioni della x1600xt stanno tutte nella scelta incomprensibile di mettere solo 4 TMU. Sta scheda ha una grandissima potenza nel fare shaders con 12 pipeline e solo 4 TMU limitano troppo il fill rate. E mi sa che nessun driver può colmare una lacuna del genere. Infatti stanno già preparando una nuova scheda di fascia media. Che abbia almeno 8 TMU?
si infatti. e se aggiungiamo il fatto che si è deciso ad abbassare i prezzi prima della loro commercializzazione la dice lunga su quanto credito esse godano.
;)
anche secondo me....cavolo la X1600XT occata a 658-1594 rimane sotto cmq alla 6800GS a default (425.-1000)
mi sembra strano
RedDrake
18-11-2005, 09:46
x Lelevt
a chi lo dici,
comunque forse per me è ora di cambiare scheda madre,
avendo ancora una delle primisssime nforce2 della asus A7N8X deluxe
che fa egregiamente il suo lavoro da ormai quasi quattro anni (a natale).
Tra un mesetto o due vendo scheda madre processore e scheda video
e mi aggiorno il desktop...
scheda cestinare subito....
4ROPS 4 TMU e 128bit di bus.....la 6800GS la sfonda
Ma è mai possibile un po' di onestà intellettuale nel giudicare una scheda video, mannaggia la miseria...
Più in generale sembra quasi che certuni siano stipendiati da Ati, Nvidia, Intel, Nvidia, o chi altro, solo per sostenere certe posizioni rispetto ad altre..
Se anche noi poveracci (rispetto alle "major" hardware e software) invece che puntare di volta in volta alla soluzione più CONVENIENTE, ci trasformiamo in guelfi e ghibellini (Atisti contro Nvidisti), il mercato farà un boccone di noi!!!
Secondo me era chiaro prevedere che sarebbe stata cmq superiore la 6800.
D'altronde la 6800 è di fascia più alta
La 1600 invece di fascia più bassa.
Essendo di nuova generazione però dovrebbe supportare cose nuove (non me ne intendo), altrimenti non ha senso introdurre una generazione nuova.
Ragazzi è come la 4200 Ti era superiore alla 5600-5700? No?
Però credo che la generazione diciamo "5000" avrà avuto altre novità, o implementazoni nuove (che ne so...filtri o roba del genere) rispetto alle "4000", no?
Secondo me le cose sono 2:
O l'ATI ha tirato fuori una generazione nuova senza implementare niente di nuovo (a parte il discorso della velocità fino a se stessa);
Se così fosse, allora Nvidia ha fatto bene a creare una 6800 di fascia più economica, ma pur sempre molto veloce.
O l' Nvidia è in ritardo con la generazione nuova è per contrastare le nuove schede ATI ha deciso di tirare fuori la 6800 GS...e secondo me questa non è proprio una bella cosa, anche perchè ho sentito gente lamentarsi di aver comprato una 6800 ad un prezzo più alto e poi di aver visto questa soluzione (non fa piacere).
Secondo me, poi non sono un tecnico e non conosco bene tutte le caratteristiche delle due schede, è prematuro immettere nel mercato una nuova generazione...perchè non si dovrebbe cambiare troppo velocemente generazione...andrebbe fatto solo se c'è realmente un passo in avanti non in prestazioni, ma, soprattutto, in implementazioni che supportano cose nuove....
Poi questa è una mia opinione ed è discutibile...
zanardi84
18-11-2005, 10:15
Beh direi che era inevitabile, l'anno scorso era la 6600GT, oggi le X1600XT/6800GS: l'anno prossimo ce ne saranno altre due che faranno dimenticare queste ultime
Già!
Per ora, visti i primi bench, possiamo dire che questa X1600XT sia l'anti 6600GT.
Infatti, se avesse un bus da 256 e non di soli 128 bit, sarebbe nettamente avanti ad altri modelli della concorrenza. Evidentemente questo bus è il collo di bottiglia del derivato di r520. Metti l'efficienza delle pippe che vuoi, metti l'efficienza degli scambi ram-vpu, metti il clock maggiore, ma alla fine 128 sono e 128 rimangono. è un limite invalicabile.
Kristall85
18-11-2005, 10:43
..Raga svegliatevi!!! Fino a 2 giorni fa sta skeda era 1 bidone e adesso...
X favore nn prendete sul serio questa skeda, date retta a me!
Ciao a Tutti ;)
capitan_crasy
18-11-2005, 10:51
:eek: 6800GS versione AGP 8X???? :eek:
Notizia da TheInquire, da prendere con le molle...
Clicca qui... (http://www.theinquirer.net/?article=27760)
NvidiaMen
18-11-2005, 10:52
Stando a questa recensione:
http://www.driverheaven.net/reviews/X16_GS/
la X1600XT si fa abbastanza male scontrandosi con la 6800GS. Un prezzo adeguato alle prestazioni potrebbe favorirne la diffusione.
Non è che quando parlo sono in stato confusionale :mbe: , se le affermo le cose vuol dire che le ho lette (http://next.videogame.it/html/articolo.php?id=5208&pagina=3&fotomostrate=21)... :read:
nella recensione di driverheaven sembra che ATI abbia "toppato" come dite voi, ma dove ho letto io la x1600xt nelle prove si è comportata benissimo :winner: in confronto alla :old: obsoleta 6800...
forse sarà un problema di drivers, forse di marketing... :mc:
Non è che quando parlo sono in stato confusionale :mbe: , se le affermo le cose vuol dire che le ho lette (http://next.videogame.it/html/articolo.php?id=5208&pagina=3&fotomostrate=21)... :read:
nella recensione di driverheaven sembra che ATI abbia "toppato" come dite voi, ma dove ho letto io la x1600xt nelle prove si è comportata benissimo :winner: in confronto alla :old: obsoleta 6800...
forse sarà un problema di drivers, forse di marketing... :mc:
appunto hai detto bene 6800...non 6800gs.....e poi la fonte che citi non è di sicuro tra le più "blasonate"......
resta il fatto che da questa scheda (x1600xt) tutti si aspettavano molto di più, ed alcune scelte tecniche restano incomprensibili...vedi 128bit e 4TMU....giudizio: DELUDENTE
c'è scritto 6800 non 6800GS
MiKeLezZ
18-11-2005, 11:54
Secondo me era chiaro prevedere che sarebbe stata cmq superiore la 6800.
D'altronde la 6800 è di fascia più alta
La 1600 invece di fascia più bassa.
Non è vero.
Erano entrambe della stessa fascia.
Ora ATI, se la mette a 199$, la pone in una fascia LEGGERMENTE minore.
Ma ci scommetto quello che vuoi che pure nvidia la posizionerà a 199$.
Con queste differenze:
nvdia ci guadagnerà da questo (la 6800GS è una versione low cost della 6800GT)
ati ci perderà (tutti gli investimenti spesi dovrà riprenderli "al prossimo giro", e questa va quasi al costo)
YaYappyDoa
18-11-2005, 11:59
Non dimentichiamo che il prezzo delle schede video non ha a che fare con il costo di produzione, che varia poco tra low e hi-end (tranne per le dotazioni di memoria). Il prezzo proposto viene da un'analisi che cerca di individuare quanto un consumatore sarebbe disposto a pagare per quella scheda. Ecco perchè si possono avere ampi ritocchi sul prezzo di un prodotto fino ad una certa distanza temporale dalla sua immissione sul mercato. In questo caso, la scheda prima ventilata sui 250 dollari viene effettivamente commercializzata a 200 o meno, visto che la concorrenza offre ad un prezzo similare un prodotto superiore. 50 dollaroni in meno su 250 sono uno sconto del 20% sull prezzo preventivato in prima istanza!
cmq anche le 6800gs si trovano a 199$ guardate qui (http://www.newegg.com/Product/Product.asp?Item=14-130-258) mi sa che Ati deve tagliare il prezzo delle x1600xt di altri 50$.... ;)
In ogni caso il prezzo di questa scheda non potra' mai essere troppo basso considerato che usa dei moduli di meoria da oltre 1300Mhz, solo il 1800XT e il 7800GTX 512 ne usano di piu' veloci e costosi.
Dark Schneider
18-11-2005, 13:04
Non è che quando parlo sono in stato confusionale :mbe: , se le affermo le cose vuol dire che le ho lette (http://next.videogame.it/html/articolo.php?id=5208&pagina=3&fotomostrate=21)... :read:
nella recensione di driverheaven sembra che ATI abbia "toppato" come dite voi, ma dove ho letto io la x1600xt nelle prove si è comportata benissimo :winner: in confronto alla :old: obsoleta 6800...
forse sarà un problema di drivers, forse di marketing... :mc:
A parte che non è un problema di drivers, ma ha proprio delle pesanti limitazioni come caratteristiche hardware.
Ma poi mi spieghi cosa hanno di obsolete le 6800? :confused: Il supporto è avanzatissimo.
Einhander
18-11-2005, 13:29
Mah...Questa scheda nn mi pare cmq un granche'..
Ed obiettivamente e' vero che la 6800GS,praticamente la sfonda su tutti i fronti e,come anche nel caso della x1800xt,mi pare sempre piu' evidente come questa generazione sia di passaggio,soprattutto per ati..
L'unica cosa positiva,a parte le novita' a livello di architettura e supporto esclusivo di alcune featurses(vedi HDR e antialiasing contemporaneamente),e' che,si presume,per la prossima generazione ati sia un po' piu' avanti,come lo era l'anno scorso nVidia con l'immissione sul mercato delle 6800 Ultra che supportavano i SM 3,mentre quest'anno,beh le cose nn sono proprio a favore dell'azienda canadese,sebbene un anno fa alla fine c'erano cmq le x85XT\Xt PE che rullavano di brutto e detenevano il primato velocistico..Mi pare la stesa cosa fatta da Nvidia quest'anno solo senza i ritardi che,purtroppo,caratterizzano la produzione canadese...
E poi se mai sara' possibile provarla c'e' sempre la soluzione crossfire che,credo,se la fanno uscire cosi' tardi sara' almeno piu' ottimizzata con le nuove schede rispetto alle soluzioni con X800\X850 e che quindi rullera' di brutto-mi chiedo se le soluzioni di ati nella serie x1800XL\XT si comportino come quelle nvidia(cioe' un aumento delle prestazioni quantificabile nel 30-45%)oppure data la nuava architettura possano godere di un boost prestazionale superiore...
Mah..Per il momento il mio giudizio sulle soluzioni di fascia medio\alta rimane estremamente negativo nei confronti di ati,nn ci siamo proprio,sebbene Nvidia nn abbia innalzato di un mmillimetro il livello di innovazione con la serie 7800..e questo la dice lunga sugli effetti che si hanno quando un'azienda come queste due gode per una generazione di un dominio marcato rispetto la concorrente-ovviamente parlo a livello di innovazione-
Vedremo...intanto boccio la x1600xt-almeno a giudicare da le recensioni di altri siti,che,cmq,nn sono poche...-
BYE
Einhander
18-11-2005, 13:33
P.s.:La mia 9800 pro piange..
Sente la mancanza di un degno successore..Speriamo nel r580..Sigh..
YaYappyDoa
18-11-2005, 13:38
@ jp77
Corbezzoli! A quel prezzo (199$) quella 6800GS è la scheda con il miglior rapporto prestazioni/costo, ed è pure prodotta da EVGA mica bau bau micio micio!! :)
NvidiaMen
18-11-2005, 18:13
A parte che non è un problema di drivers, ma ha proprio delle pesanti limitazioni come caratteristiche hardware.
Ma poi mi spieghi cosa hanno di obsolete le 6800? :confused: Il supporto è avanzatissimo.
Rispetto a molti di questo forum credo di avere dei diversi metri di giudizio nel considerare innovativa una scheda video rispetto ad un'altra :sob: ... molti fanno del fill rate il metro di confronto assoluto, come se una scheda grafica debba offrire solo quello...:nonsifa: (per chi ha queste smanie credo che sia meglio puntare all'acquisto di una scheda di fascia alta tipo x1800xl o 7800gt dopo qualche mese dal loro debutto per non buttar via troppi soldi...).
A pensarla in questo modo fortunatamente non sono solo io, già nell'articolo del Corsini e di Fanizzi sui Radeon serie X1000 viene specificato:
"... Le prestazioni velocistiche con giochi 3D, infatti, hanno raggiunto livelli così elevati da risultare spesso di non più così prioritaria importanza: il supporto a funzionalità video avanzate, inoltre, sta diventando una caratteristica sempre più richiesta da parte degli utenti, grazie alla progressiva diffusione di filmati e display in alta definizione...."
Ribadisco il fatto che la tecnologia nVidia con la 6800 (ed ahimè anche con la 7800 di conseguenza) sia uno step indietro per funzioni che a me sembrano molto interessanti almeno per l'utilizzo che faccio io del PC (non mi chiudo in casa a giocare solamente, ma ci lavoro anche...). Sarà perchè mi ritrovo a lavorare con un display LCD 24 pollici sempre alla risoluzione di 1920X1200 a Photoshop in cui conta molto la qualità dell'immagine, sarà perchè lavoro spesso con i video ad altissima risoluzione attraverso Premiere, sarà perchè oltre a voler vedere i giochi andar più veloci pretendo che la qualità non sia da meno....
In ogni caso riporto qualche "cosetta" (sempre annunciata nell'articolo predetto) che ATI ha implementato attraverso la tecnologia AVIVO e che stranamente molti snobbano: :what:
VANTAGGI CON SOFTWARE VIDEO
Il PCI express ha soppiantato l'AGP proprio per permettere alle GPU delle schede video di sostituire la CPU nella fase di encoding video e nVidia non ha mai pensato a sfruttare questa interfaccia da questo punto di vista...
1) cattura: gain control automatico; filtro 3D combo; conversione da analogico a digitale a 12bit di precisione; de-noise hardware, per rimuovere il rumore di fondo delle immagini acquisite; funzionalità di demodulazione digitale con cancellazione multi-path.
2) codifica: encoding con supporto hardware; supporto al transcode attraverso la VPU, per i formati H.264, VC-1, WMV9, WMV9 PCM, MPEG-2, MPEG-4 e DivX.
3) decodifica: decodifica con supporto della VPU per i formati H.264, VC-1, WMV9, MPEG-2 e MPEG-4.
4) post process: de-interlacing vector adaptive; video scaling avanzato.
Vi rendete conto che grazie al supporto alla codifica e decodifica H.264 (alias mpeg4 che pian piano soppianterà l'mpeg2) via hardware, implementato all'interno delle GPU della serie R520 non saremo più dipendenti dal processore nelle operazioni video? :sofico: Per fare un parallelismo con nVidia (così naturalmente come per la serie X800 precedente di ATI) sarà un pò come giocare a Doom3 via software rispetto a farlo via hw.... :muro: Non solo questo, le nuove GPU ATI supporteranno la fase di transcode, cioè la ricodifica di un flusso video ad un differente bitrate rispetto a quello di partenza, o verso un differente formato che per chi usa Premiere o codifica video DivX non sarà costretto a tenere acceso il PC per 4 ore e passa :ronf:, ma sicuramente molto meno. Questo genere di operazioni richiede moltissima potenza di elaborazione se eseguita a livello di processore; con le nuove architetture ATI, e un adeguato supporto dal lato driver, buona parte delle operazioni saranno delegate alla GPU. :eek:
VANTAGGI CON QUALITA' IMMAGINE: GIOCHI
La nuova famiglia ATI non solo supporta l'HDR come nVidia, ma implementa il supporto all'anti aliasing congiuntamente con l'HDR; garantendo una qualità d'immagine superiore al solo uso dello stesso HDR, il quale fornendo un maggior contrasto rende più evidenti i difetti propri dell'aliasing negli oggetti 3D generati nella scena. :Prrr:
Inoltre al pari della 7800 (ma non della 6800!!!) viene implementato Adaptive Anti Aliasing, che migliora la qualità d'immagine con quelle scene nei quali alcuni oggetti, come i contorni delle piante o le inferriate, non sono composti da triangoli ma da semplici pixel su texture trasparenti.
Quel qualcosa in meno in termini di prestazione che mostrano i bench non sono solo da attribuire alle sole 4tmu (grazie all'efficenza dell'architettura ATI tale gap con una tecnologia ad 8tmu non appare poi tanto evidente poichè le prestazioni dovrebbero dimezzarsi cosa che effettivamente non avviene :nonsifa: ...), ma anche a tecnologie per il miglioramento dell'immagine come: l'algoritmo Area-Anistropic (filtro anisotropo) che al prezzo di una piccola perdita di performance (nell'ordine del 5-8% a seconda dell'applicazione nel nostro hands-on), garantisce una migliore chiarezza delle texture sulle superfici orientate verso l'osservatore, eliminando praticamente gli ultimi residui di dipendenza angolare dei vecchi algoritmi.
VANTAGGI CON QUALITA' IMMAGINE: TRATTAMENTO FOTO
Con Photoshop si avranno colori più nitidi poichè la serie X1x00 presenta linee di output a 10 bit per componente...
Grazie ad AVIVO infatti nella visualizzazione su schermo si hanno 10-bit di precisione, con gamma e color correction, scaling, compressione e dithering; oltre ad altre funzionalità avanzate per la connessione alle periferiche di output.
:D :D :D
In ogni caso se a voi piace la 6800GS perchè và meglio in termini di fps fate come volete, ma non mi dite che a livello tecnologico siamo allo stesso livello...
Eccolo un tecnico...è quello che mi riferivo prima... dicendo che tra una generazione ed un'altra non ci deve essere l'aumento delle prestazioni come priorità assoluta (non necessariamente aumentano tanto e su modelli diversi restano uguali), ma quel qualcosa in più che mi dice che c'è stato un salto in qualità...
Dark Schneider
18-11-2005, 18:31
Veramente il tuo discorso ha ben poco senso.
Ma che significa. La 6800GS anche supporta ad esempio il PureVideo.
Poi scusa ma ti rendi conto che il tuo discorso non regge? Dici che una 6800(e 7800) è obsoleta perchè non supporta l'AA con l'HDR? :confused:
Scusa ma allora le Radeon X800 cosa sono? Delle schede della preistoria visto che non supportano nemmeno lo SM 3.0? La verità è che nVidia per ben 1 anno e mezzo è stata avanti ad Ati a livello tenologico. Oggi con la serie X1000, Ati ha colmato il gap ed ha leggermente superato il concorrente a livello di tecnologia.
Ma da qui a dire che le 6800 sono "obsolete" ce ne passa....
@NvidiaMen
Ma le accelerazioni con premiere e simili, sono gia presenti nei software o nei driver, saranno disponibili entro qualche mese o ci vorrà di più ? chiedo perchè tra poco aggiorno il sistema e come scheda video ero interessato ad una x1300 o x1600 proprio per quelle caratteristiche AVIVO (dei giochi non mi interessa + di tanto, giusto una partitella ogni tanto a qualche FPS).
NvidiaMen
18-11-2005, 18:46
Veramente il tuo discorso ha ben poco senso.
Ma che significa. La 6800GS anche supporta ad esempio il PureVideo.
PureVideo? A confronto con AVIVO? Dai...non scherziamo... La tecnologia nVidia accelera solo la sola riproduzione Mpeg2 e wmv, in codifica o ricodifica non fa assolutamente nulla e poi da un punto di vista qualitativo siamo sempre fermi a 8 bit...
Poi scusa ma ti rendi conto che il tuo discorso non regge? Dici che una 6800(e 7800) è obsoleta perchè non supporta l'AA con l'HDR? :confused:
Se leggi bene :read: ho scritto che:
....la nuova famiglia ATI non solo supporta l'HDR come nVidia, ma implementa il supporto all'anti aliasing congiuntamente con l'HDR; garantendo una qualità d'immagine superiore al solo uso dello stesso HDR, il quale fornendo un maggior contrasto rende più evidenti i difetti propri dell'aliasing negli oggetti 3D generati nella scena.
Scusa ma allora le Radeon X800 cosa sono? Delle schede della preistoria visto che non supportano nemmeno lo SM 3.0? La verità è che nVidia per ben 1 anno e mezzo è stata avanti ad Ati a livello tenologico. Oggi con la serie X1000, Ati ha colmato il gap ed ha leggermente superato il concorrente a livello di tecnologia.
Non credo nel mio intervento di aver parlato bene della serie X800 che ho sempre reputato una generazione persa e non consiglio a nessuno per via del mancato suppoto al Model shader 3.0... :old:
Ma da qui a dire che le 6800 sono "obsolete" ce ne passa....
Secondo me rimangono obsolete per le motivazioni menzionate, poi se tu non fai uso di queste innovazioni è un altro discorso...
NvidiaMen
18-11-2005, 18:53
@NvidiaMen
Ma le accelerazioni con premiere e simili, sono gia presenti nei software o nei driver, saranno disponibili entro qualche mese o ci vorrà di più ? chiedo perchè tra poco aggiorno il sistema e come scheda video ero interessato ad una x1300 o x1600 proprio per quelle caratteristiche AVIVO (dei giochi non mi interessa + di tanto, giusto una partitella ogni tanto a qualche FPS).
Purtroppo ancora no... :cry: da indiscrezioni si parla di un loro supporto a livello drivers verso la fine dell'anno (forse con i Catalyst 5.13...). Naturalmente per Premiere occorreranno dei plugins LSX riscritti in grado di far computare la GPU al posto della CPU... ;)
Se leggi bene :read: ho scritto che:
....la nuova famiglia ATI non solo supporta l'HDR come nVidia, ma implementa il supporto all'anti aliasing congiuntamente con l'HDR; garantendo una qualità d'immagine superiore al solo uso dello stesso HDR, il quale fornendo un maggior contrasto rende più evidenti i difetti propri dell'aliasing negli oggetti 3D generati nella scena.
Il rendering HDR non cambia il contrasto delle immagini rispetto ad un rendering LDR, ma ne modifica semplicemente il range dinamico e la precisione, eliminando difetti come il banding. La necessita' di antialiasing e' indipendente dall'usare un renderer HDR o meno.
Secondo me rimangono obsolete per le motivazioni menzionate, poi se tu non fai uso di queste innovazioni è un altro discorso...
Per diversi aspetti l'architettura NV40 (G70) offre un supporto anche se di poco piu' completo alle DX9 rispetto all'architettura dell'R520, quindi non la definirei certo obsoleta, tutt'altro.
@NvidiaMen
scusa se insisto, ma questi plugin dovranno essere specifici per ati (o per invidia) oppure si appoggeranno a librerie/compilatori intermedie?
NvidiaMen
18-11-2005, 19:15
Il rendering HDR non cambia il contrasto delle immagini rispetto ad un rendering LDR, ma ne modifica semplicemente il range dinamico e la precisione, eliminando difetti come il banding. La necessita' di antialiasing e' indipendente dall'usare un renderer HDR o meno.
In una scena 3D di elevatissima importanza nell'ottenimento di una visualizzazione realistica è la corretta riproduzione dell'illuminazione.
Questo è tanto più difficile quanto si alternano parti della scena con forte illuminazione, con altre in ombra.
In passato è sempre stato molto difficile riuscire a riprodurre al meglio l'illuminazione di una scena che prevedesse un "forte contrasto" tra parti molto illuminate e parti molto scure. I per-pixel frame buffer standard a 32bit, infatti, permettono di utilizzare solo 255 valori per indicare i differenti livelli d'illuminazione di un oggetto, troppo pochi per poter rappresentare correttamente la dinamica di una scena con forti alternanze di luci e ombre.
L'occhio umano riesce a percepire un dynamic range, tra oggetti illuminati e non, pari a circa 14dB, con andamento logaritmico. Questo vuol dire che vengono meglio definiti i particolari scuri più che quelli illuminati, visti più indistintamente come luce e quindi tendenti al bianco.
Il dynamic range standard di un frame buffer a 32bit per pixel è pari a circa 2,4dB, quindi insufficiente per la percezione dell'occhio umano a distinguere i dettagli. Ll'HDR permette di renderizzare scene così complesse ottenendo una superiore gamma dinamica. Questa tecnica utilizza 3 differenti fasi per ottenere il rendering della scena: light transport, tone mapping e color and gamma correction.
Di conseguenza è proprio la caratteristica di ampliamento gamma che determina come rovescio della medaglia un maggior contrasto...
Per diversi aspetti l'architettura NV40 (G70) offre un supporto anche se di poco piu' completo alle DX9 rispetto all'architettura dell'R520, quindi non la definirei certo obsoleta, tutt'altro.
Se rileggi il mio confronto è fatto con la precedente generazione... ovvero con la famiglia 6800 che reputo obsoleta... logico che con la 7800 (almeno da un punto di vista di supporto alle API grafiche, ma non assolutamente video) le differenze siano meno marcate...
NvidiaMen
18-11-2005, 19:24
@NvidiaMen
scusa se insisto, ma questi plugin dovranno essere specifici per ati (o per invidia) oppure si appoggeranno a librerie/compilatori intermedie?
Dato che allo stato attuale un supporto standard attraverso directX alle GPU non esiste da un punto di vista di compressione video :( , i plugin dovranno essere scritti appoggiandosi ai drivers software del produttore i quali richiameranno le principali funzioni di encoding hw. Sarà un pò come avviene con i software CAD/CAM nei quali occorrono plugin e drivers appositi per lo sfruttamento avanzato delle funzioni OGL nei software 3d professionali.
In una scena 3D di elevatissima importanza ...
Lo so :)
Di conseguenza è proprio la caratteristica di ampliamento gamma che determina come rovescio della medaglia un maggior contrasto...
No. Determina solo maggiore precisione e minore propensione al banding. Il contrasto dipende dalle scelte artistiche invece.
Si puo' fare HDR anche con precisione a 32 bit e ottenere un'immagine virtualmente identica in termini di contrasto della stessa immagine calcolata a 128bit per colore in floating point.
Esempio banale:
- fissando la massima luminanza al valore K
- effettuando tutti i calcoli a i8 con il valore diviso per K
- effettuando tutti i calcoli a fp16(32) con il valore diviso per K (per semplicita', non cambierebbe nulla non dividendo)
- usando come tonemapping finale una semplice funzione lineare (sarebbe indifferente per la questione usare una qualunque altra funzione)
Le due immagini sarebbero perfettamente equivalenti in termini di contrasto e di rapporti di luminanza, ma sarebbero molto differenti in termini di precisione. La prima immagine presenterebbe un fortissmo banding, piu' pronunciato all'aumentare di K.
Dunque, HDR o LDR sono perfettamente equivalenti in termini di contrasto, la differenza e' solo in termini di precisione nella rappresentazione del colore.
Infine, gli algoritmi di light transport, tone mapping e gamma correction possono essere scritti in maniera perfettamente analoga in un renderer LDR: l'unica differenza e' di nuovo la precisione nella rappresentazione del colore.
Se rileggi il mio confronto è fatto con la precedente generazione... ovvero con la famiglia 6800 che reputo obsoleta... logico che con la 7800 (almeno da un punto di vista di supporto alle API grafiche, ma non assolutamente video) le differenze siano meno marcate...
Avevo gia' letto bene e la tua affermazione continua ad essere scorretta, perche' come il G70, anche l'NV40 ha un supporto piu' completo dell'R520 alle DX9, quindi non certo un'architettura obsoleta.
NvidiaMen
18-11-2005, 20:16
No. Determina solo maggiore precisione e minore propensione al banding. Il contrasto dipende dalle scelte artistiche invece.
Si puo' fare HDR anche con precisione a 32 bit e ottenere un'immagine virtualmente identica in termini di contrasto della stessa immagine calcolata a 128bit per colore in floating point.
Esempio banale:
- fissando la massima luminanza al valore K
- effettuando tutti i calcoli a i8 con il valore diviso per K
- effettuando tutti i calcoli a fp16(32) con il valore diviso per K (per semplicita', non cambierebbe nulla non dividendo)
- usando come tonemapping finale una semplice funzione lineare (sarebbe indifferente per la questione usare una qualunque altra funzione)
Le due immagini sarebbero perfettamente equivalenti in termini di contrasto e di rapporti di luminanza, ma sarebbero molto differenti in termini di precisione. La prima immagine presenterebbe un fortissmo banding, piu' pronunciato all'aumentare di K.
Dunque, HDR o LDR sono perfettamente equivalenti in termini di contrasto, la differenza e' solo in termini di precisione nella rappresentazione del colore.
Infine, gli algoritmi di light transport, tone mapping e gamma correction possono essere scritti in maniera perfettamente analoga in un renderer LDR: l'unica differenza e' di nuovo la precisione nella rappresentazione del colore.
Da una vecchia discusione su cybergrain (http://www.cybergrain.com/tech/hdr/) che spiegava l'introduzione dell'HDR nel panorama digitale riporto le seguenti parole:
....El Greco used saturated colors of opposing hues to increase the apparent dynamic range of the scene. He also painted black or white lines around the edges of contours. Our eyes determine "contrast locally", so "increasing the contrast" at local edges "increases the overall perceived contrast" of the scene.
(Generally, "dynamic range" refers to the measured ratio between high and low extremes in a set of values. The word "contrast" is often used interchangeably with dynamic range. I prefer to use "contrast" to refer to the perceived contrast of a scene, which may be different from the measured dynamic range. El Greco's edge contours increase perceived contrast but don't change the dynamic range of canvas).
come tiene a sottolineare il recensore dell'articolo da un punto di vista tecnico la parola contrasto rispetto a quella che si riferisce all'aumento della gamma dinamica sono diverse, ma a livello pratico chi visiona una scena attraverso questa tecnica non fà altro che vedere aumentato il contrasto... e lui lo tiene a sottolineare attraverso il dipinto di El Greco!
Ti assicuro che non si tratta di un'opinione, ma di una conseguenza figlia del fatto di disporre a 32bit di un limitato range di variazione....
Avevo gia' letto bene e la tua affermazione continua ad essere scorretta, perche' come il G70, anche l'NV40 ha un supporto piu' completo dell'R520 alle DX9, quindi non certo un'architettura obsoleta.
Secondo me una scheda che non sfrutta il canale PCI express in scrittura a 16x per la fase encoding video hw è obsoleta perchè non è al passo con l'evoluzione e le potenzialità offerte dal nuovo bus...
Il fatto che nVidia possa avere un supporto più ampio a certe funzionalità DX9 può passare così come ATI ha comunque dalla sua il nuovo filtro Area-Anistropic...
come tiene a sottolineare il recensore dell'articolo da un punto di vista tecnico la parola contrasto rispetto a quella che si riferisce all'aumento della gamma dinamica sono diverse, ma a livello pratico chi visiona una scena attraverso questa tecnica non fà altro che vedere aumentato il contrasto... e lui lo tiene a sottolineare attraverso il dipinto di El Greco!
Ti assicuro che non si tratta di un'opinione, ma di una conseguenza figlia del fatto di disporre a 32bit di un limitato range di variazione....
Non si tratta di un'opinione si tratta proprio di un errore.
Ripeto, a livello di contrasto non c'e' alcuna differenza, prova a fare su carta il calcolo che ho indicato nel post precedente e te ne accorgerai. E' solo una questione di precisione.
Ho scritto per Black&White 2 un renderer full HDR (con supporto fp16) e un renderer LDR con tonemapping logaritmico e autoesposizione (simile per certi versi a quello di HL2 ma con alcune differenze) e il risultato finale era perfettamente identico a livello di contrasto e saturazione, ma la versione LDR presentava in alcune situazione per forza di cose vistosi effetti di banding dovuti alla limitata precisione (8 bit per canale).
A livello matematico i8 e fp16/32 sono solo diverse rappresentazioni con diversa precisione dello stesso concetto (intensita' di ogni componente che determina la luminanza del colore) quindi non c'e' da stupirsi che il contrasto sia perfettamente identico.
Secondo me una scheda che non sfrutta il canale PCI express in scrittura a 16x per la fase encoding video hw è obsoleta perchè non è al passo con l'evoluzione e le potenzialità offerte dal nuovo bus...
Il fatto che nVidia possa avere un supporto più ampio a certe funzionalità DX9 può passare così come ATI ha comunque dalla sua il nuovo filtro Area-Anistropic...
Non e' una questione di opinioni neppure qui: un'architettura che ha per alcuni aspetti un supporto alle dx9 impareggiato non puo' essere definita obsoleta.
Puoi dire che non e' adatta alle tue esigenze e su questo non c'e' da discutere, ma non che sia obsoleta perche' non lo e'.
A proposito di encoding...
Premetto che non ne so molto...ma mi piacerebbe avere una scheda di acquisizione video...esistono che sfruttano il pci-express in commercio?
A cosa ti riferisci quando parli che le nvidia non supportano tale cosa?
grazie
certo che NvidiaMen e' un nick strano per uno che difende in questo modo un X1600...
mi sembri uno di quelli che a suo tempo difendevano il parehelia dicendo che era una scheda seria solo dopo che si era scoperto che aveva prestazioni 3D scadenti
leoneazzurro
18-11-2005, 22:30
PureVideo? A confronto con AVIVO? Dai...non scherziamo... La tecnologia nVidia accelera solo la sola riproduzione Mpeg2 e wmv, in codifica o ricodifica non fa assolutamente nulla e poi da un punto di vista qualitativo siamo sempre fermi a 8 bit...
E' solo una questione di supporto dei drivers e dei codec. Il video processor dellle schede serie 6 e 7 è capacissimo di fare tutte le cose che elenchi. Ma ancora non c'è supporto nei drivers e nei codec (senza contare che deploro la scelta di far pagare a parte il decoder Purevideo).
Per il momento anche la tecnologia Avivo esiste solo sulla carta, tra l'altro...
PS: se non hai un monitor con 10 bit per canale, poco te ne fai di avere un output a 10 bit.
NvidiaMen
18-11-2005, 23:02
Non si tratta di un'opinione si tratta proprio di un errore.
Ripeto, a livello di contrasto non c'e' alcuna differenza, prova a fare su carta il calcolo che ho indicato nel post precedente e te ne accorgerai. E' solo una questione di precisione.
Ho scritto per Black&White 2 un renderer full HDR (con supporto fp16) e un renderer LDR con tonemapping logaritmico e autoesposizione (simile per certi versi a quello di HL2 ma con alcune differenze) e il risultato finale era perfettamente identico a livello di contrasto e saturazione, ma la versione LDR presentava in alcune situazione per forza di cose vistosi effetti di banding dovuti alla limitata precisione (8 bit per canale).
A livello matematico i8 e fp16/32 sono solo diverse rappresentazioni con diversa precisione dello stesso concetto (intensita' di ogni componente che determina la luminanza del colore) quindi non c'e' da stupirsi che il contrasto sia perfettamente identico.
Mi dispiace dover controbbattere ancora, ma assicuro che sarà il mio ultimo intervento in merito... Indipendentemente dal calcolo matematico, (ne ho sempre fatti di molti ed inutili all'università...), voglio mettere sul piatto 2 questioni sul discorso che fai tu riguardo alla inesistente differenza nel contrasto da te osservata e computata:
1) la differenza di contrasto non la si può fare tra due immagini digitali a differente precisione i8 e fp16/32, mi sembra un pò scontata la cosa soprattutto se ci si riferisce a modelli tridimensionali autoricostruiti nei quali è demandata (come dicevi te prima) alla vena artistica il peso del contrasto della scena. Il discorso và fatto sul fotorealismo e quindi sulla rappresentazione il più fedele possibile delle immagini ad un modello reale e non costruito tridimensionalmente. Il fatto che i 32bit abbiano un range limitato di colori rispetto a quel che l'uomo può apprezzare credo non sia opinabile, tra 2,4 e 14db ne passa..., quindi è rispetto alla rappresentazione reale che occorre riferirsi e l'HDR accentua le tonalità e su questo non ci piove. Che poi rispetto ad un'immagine digitale priva di questa feature non venga notato rimando al secondo punto, ma comunque limita "positivamente" come dici te il fastidioso difetto di banding.
2) Per notare l'incremento di contrasto ad esempio utilizzando un plugin HDR di photoshop, (che non menziono per non far pubblicità) occorre confrontare un'immagine digitale trattata con l'incremento dinamico di range rispetto all'originale con un monitor LCD di buon livello. Come tu mi insegni già in uno spazio a 24-bit di RGB, con 8-bits allocati per ognuno dei tre colori primari una rappresentazione più precisa non sarrebbe notata e soprattutto non verrebbe riprodotta dagli attuali monitor CRT in particolare se sia il monitor che il software sono conformi all'sRGB standard, CCIR-709 e gamma 2.2. Lo svantaggio di queste limitazioni e di non permettere la rappresentazione dei colori al di là dei limiti dell'sRGB, mi riferisco in particolare ai valori che sono troppo chiari e troppo scuri, poichè il range dinamico utilizzato è solo di circa 90:1, circa 2 ordini di grandezza. Dal contrasto, l'occhio umano può leggere e percepire un dettaglio nelle scene fotorealistiche di 4-5 ordini di grandezza maggiori, inoltre l'sRGB non riesce a coprire circa metà dei colori percepibili dall'occhio umano perdendo molte tonalità di blu-verde e viola. Oggi la tecnologia dei display si stà evolvendo rapidamente. Gli schermi piatti LCD stanno sostituendo i monitor CRT garantendo la rappresentazione dotate di una gamma dinamica maggiore che sottolinerà ancor di più certe differenze che oggi sembrano inesistenti.
Non e' una questione di opinioni neppure qui: un'architettura che ha per alcuni aspetti un supporto alle dx9 impareggiato non puo' essere definita obsoleta.
Puoi dire che non e' adatta alle tue esigenze e su questo non c'e' da discutere, ma non che sia obsoleta perche' non lo e'.
Vorrei fare un parallelismo per rendere l'idea su cosa intenda io per obsoleto. Acquistando, ad es., un'autovettura dieci anni fà, e andandola ad acquistare adesso mi aspetto che le cose siano cambiate naturalmente. Tuttavia se la nuova mi garantisce un motore più prestazionale del precedente, ma ad esempio non ha l'aria condizionata inizio col dire, nonostante il motore sia più performante, che da quel punto di vista (mancanza di condizionatore) l'autovettura è obsoleta.
Approfitto continuando col parallelismo nel rispondere anche a Spoiker...
A proposito di encoding...
Premetto che non ne so molto...ma mi piacerebbe avere una scheda di acquisizione video...esistono che sfruttano il pci-express in commercio?
A cosa ti riferisci quando parli che le nvidia non supportano tale cosa?
grazie
Il non sfruttare da parte di nVidia la velocità di scrittura del PCI Express avente il pregio di essere sincrona a quella di lettura e pari a 16x rispetto a quella asincrona dell'AGP 8x in lettura e solo 1x in scrittura per trarne dei benefici per l'encoding via GPU mi pare una scelta molto discutibile, ma rispetto anche la tua opinione poichè stiamo sempre parlando di schede "gaming oriented"... Tuttavia avere una funzione appannaggio di schede professionali in una scheda "home" credo non possa dispiacere a nessuno...
E' comunque stato un enorme piacere poter discutere con te... :) :) :)
capitan_crasy
18-11-2005, 23:06
X NvidiaMen:
ce una considerazione da fare nel tuo ragionamento:
è vero che AVIVO può essere superiore al PURE Video di Nvidia ma la serie X1600 è una scheda per giocare e quindi quello che conta sono i risultati nei giochi. Il tuo discorso può essere più indicato per la serie X1300 dove il 3D in quella fascia è poco considerato. Nessuno spende 250/200 solo per le prestazioni 2d su una scheda nata per giocare...
NvidiaMen
18-11-2005, 23:11
certo che NvidiaMen e' un nick strano per uno che difende in questo modo un X1600...
mi sembri uno di quelli che a suo tempo difendevano il parehelia dicendo che era una scheda seria solo dopo che si era scoperto che aveva prestazioni 3D scadenti
Indipendentemente dal mio nick (a titolo informativo ho sempre acquistato schede video della casa di Santa Clara....) è giusto sottolineare anche i meriti della concorrenza. Se poi per 4tmu in meno si considera una scheda grafica di 199 dollari e piena di nuova tecnologia un "flop" credo che si esca dalla obiettività tecnica e ci si sposti a discorsi quasi di bar... :muro:
NvidiaMen
18-11-2005, 23:19
X NvidiaMen:
ce una considerazione da fare nel tuo ragionamento:
è vero che AVIVO può essere superiore al PURE Video di Nvidia ma la serie X1600 è una scheda per giocare e quindi quello che conta sono i risultati nei giochi. Il tuo discorso può essere più indicato per la serie X1300 dove il 3D in quella fascia è poco considerato. Nessuno spende 250/200 solo per le prestazioni 2d su una scheda nata per giocare...
Come in tutte le cose dipendenti da GPU e memoria al salire della frequenza i risultati migliorano e questo vale anche per l'encoding che in una X1300 sarà meno rapido rispetto ad una X1600 e così via fino alla X1800XT... quindi spendi qualcosa in più ma comprimi in minor tempo...
Nessuno ci vieta di comprarci per giocare una 6800gs, se vogliamo prestazione pura, ma ricordo come si è aperta la discussione che dava alla X1600 una descrizione ad un prodotto di soli 199 euro di scheda "inadeguata" quando nei negozi a 100 euro ti danno ancora la 9600xt....
E' giusto dare dellle opinioni diverse, ma esagerare mai...
Ma questa riman pur sempre una mia opinione...
leoneazzurro
18-11-2005, 23:35
Come in tutte le cose dipendenti da GPU e memoria al salire della frequenza i risultati migliorano e questo vale anche per l'encoding che in una X1300 sarà meno rapido rispetto ad una X1600 e così via fino alla X1800XT... .
Non necessariamente: a parte il fatto che il clock di X1300, X1600 e X1800 è abbastanza simile (con svantaggio della X1800 XL rispetto ad una X1600 XT), il processore video è poco condizionato dalla presenza di un maggior numero di unità PS/blending, perchè se pure venissero utilizzate, lo sarebbero per effetti di post processing in riproduzione(e persino le 4 unità PS del 1300 sarebbero sovrabbondanti al riguardo). Teniamo anche conto che sia la banda passante della memoria che quella del bus PCI-Express sono sovrabbondanti sia per la riproduzione HD che per l'encoding...
In parole povere, se il core AVIVO delle tre schede è identico, non ci sarà in pratica alcuna differenza dal riprodurre o codificare su di una 1300 o una 1800.
MiKeLezZ
19-11-2005, 00:43
è giusto sottolineare anche i meriti della concorrenza.Indubbiamente.
Se poi per 4tmu in meno si considera una scheda grafica di 199 dollari e piena di nuova tecnologia un "flop" credo che si esca dalla obiettività tecnica e ci si sposti a discorsi quasi di bar... :muro:
Il fatto sia un flop è da ricercarsi in altre cose, scarsa disponibilità, poca pubblicità, diffidenza del mercato, prezzo elevato, prestazioni insufficienti, supporto avivo solo sulla carta, ecc.
Non banalizziamo! :)
Inoltre, si fa presto a parlare di "AVIVO", quando per ora non c'è nulla di concreto.
Inoltre, gli attuali LCD hanno tutti solo 6 bit di colore, solo ora c'è la migrazione a 8. Solo i modelli professionali, di ampia diagonale (potrei citare Lacie o Eizo) hanno un 10 bit (in realtà è un 8 bit to 10 bit).
Quindi il fatto ci sia la possibilità di usare un 10 bit non è poi così determinante. Possibilità... Per ora.. anche qui il solito discorso.
Inoltre tutte le varie decodifiche HW che hai citato sono tranquillamente riproducibili dall'architettura nvidia (pure il blasonato h.264). Ma, anche qua, S.Tommaso... Finora non ho visto nulla da ATI (da nvidia qualcosina s'è visto, ma nel chipset, non ancora nella VGA).
HDR+AA è ridicolo anche solo nominarlo. Se tanto è impossibile già giocare senza, chi mai vorrebbe attivarle?
Qua stiamo parlando di x1600xt, non di 1800xt, cerchiamo di CONTESTUALIZZARE.
Probabilmente ci son tante altre cose da dire ma l'ora è tarda
YaYappyDoa
19-11-2005, 02:20
Stando alla prova qui riportata:
http://www.anandtech.com/video/showdoc.aspx?i=2551&p=1
una importante funzione 2D, il deinterlacing, risulta qualitativamente carente sulle schede munite di chip ATI serie X1300-1600-1800 quando messo a confronto con la soluzione Nvidia 7800GTX. Sarà demerito dei driver o dell'hardware? Chi lo sa... Il test è effettuato sulla X1600XT ed è valido anche per le X1300 o X1800 in quanto munite dei medesimi circuiti per il trattamento video 2D. Non ho ancora letto una comparativa "su strada" di tutte le feature 2D messe a disposizione dalle due tecnologie, nessuno ha un link da proporre?
Mi dispiace dover controbbattere ancora, ma assicuro che sarà il mio ultimo intervento in merito... Indipendentemente dal calcolo matematico, (ne ho sempre fatti di molti ed inutili all'università...), voglio mettere sul piatto 2 questioni sul discorso che fai tu riguardo alla inesistente differenza nel contrasto da te osservata e computata:
No, la questione matematica e' l'unica che conta il resto sono solo impressioni :)
Io non so quali altri algoritmi applichi il filtro photoshop che hai citato, che cambiano il contrasto dell'immagine, ma questi filtri sono egualmente applicabili a meno di una differenza di precisione a immagini LDR.
Questa e' matematica, non un'opinione, puoi ripetere il calcolo all'infinito e sara' sempre il medesimo e mostrera' le stesse proprieta' delle due tecniche, mentre l'impressione visivia puo' ovviamente cambiare.
La differenza di contrasto, quindi, fra un rendering i8 e fp16/32 a meno delle differenze a bassa frequenza introdotte dal cambiamento di precisione non esistono. Infatti parlo di immagini virtualmente identiche.
In altre parole, un valore di luminanza puo' essere rappresentato allo stesso modo in i8 e fp16/32 (sempre a meno delle differenze di precisione).
Quindi, come ho detto, l'unica cosa che cambia nel rendering in tempo reale (cio' di cui ci stiamo occupando) sono eventuali effetti di banding, non il contrasto dell'immagine, quindi non c'e' piu' o meno necessita' di MSAA. E' necessario allo stesso modo. Ovvero il punto della questione.
Quello che accade con filtri di photoshop non e' inerente alla questione.
Vorrei fare un parallelismo per rendere l'idea su cosa intenda io per obsoleto. Acquistando, ad es., un'autovettura dieci anni fà, e andandola ad acquistare adesso mi aspetto che le cose siano cambiate naturalmente. Tuttavia se la nuova mi garantisce un motore più prestazionale del precedente, ma ad esempio non ha l'aria condizionata inizio col dire, nonostante il motore sia più performante, che da quel punto di vista (mancanza di condizionatore) l'autovettura è obsoleta.
In questo caso la macchina comprata 10 anni fa ha anche piu' accessori di quelle nuove, quindi non si puo' certo definire obsoleta.
E' solo non adatta alle tue esigenze, magari, ma le tue esigenze non sono parametri oggettivi di valutazione validi per tutti.
Tuttavia avere una funzione appannaggio di schede professionali in una scheda "home" credo non possa dispiacere a nessuno...
Sarebbe come dire che avere le ali per una macchina non dispiacerebbe a nessuno. Ma le ali sono fatte per volare, le macchine per camminare sulla strada. E allora le schede professionali sono fatte per fare grafica professionale, quelle home per giocare, se NVIDIA fa risparmiare 50 euro per una feature che non serve al 99% dell'utenza, e' una scelta perfettamente condivisibile. Chi ha bisogno di maggiore velocita' in scrittura da CPU a memoria video o viceversa per scopi profesionali si orienterera' verso le Quadro.
MiKeLezZ
19-11-2005, 10:22
Stando alla prova qui riportata:
http://www.anandtech.com/video/showdoc.aspx?i=2551&p=1
una importante funzione 2D, il deinterlacing, risulta qualitativamente carente sulle schede munite di chip ATI serie X1300-1600-1800 quando messo a confronto con la soluzione Nvidia 7800GTX. Sarà demerito dei driver o dell'hardware? Chi lo sa... Il test è effettuato sulla X1600XT ed è valido anche per le X1300 o X1800 in quanto munite dei medesimi circuiti per il trattamento video 2D. Non ho ancora letto una comparativa "su strada" di tutte le feature 2D messe a disposizione dalle due tecnologie, nessuno ha un link da proporre?
Bell'articolo.. me l'ero perso...
Risultati davvero inaspettati, e il purevideo è davvero spettacolare...
http://www.anandtech.com/video/showdoc.aspx?i=2305&p=7
http://www.anandtech.com/video/showdoc.aspx?i=2305&p=8
http://www.anandtech.com/video/showdoc.aspx?i=2551&p=6
YaYappyDoa
19-11-2005, 11:34
Leggendo i "vecchi" test ai link riportati da Mikelezz le schede della generazione attuale sembrano ricalcare, per quel che riguarda il rispettivo comportamento di alcune funzioni di trattamento video 2D, le orme di quelle di "generazione" precedente. Interessante poter valutare l'impatto del mancato supporto hardware delle 6800GT/Ultra alla decodifica WMV9, che è invece presente sulle 6600-6800 agevolando le cpu meno potenti. Infatti il carico sulla cpu durante la visione a schermo intero con chip NV43-41 (6600-6800) è inferiore di più del 50% di quello necessario per la visione di video WMV9 con NV40/45 (6800GT-Ultra AGP/PCIe). O, che è lo stesso, il carico che sostiene la cpu per decodificare WMV9 full screen con 6800GT/Ultra è più del 100% superiore di quello che sosterrebbe con 6600/6800. :) Personalmente, la cosa non mi da pensiero sia perchè non visiono video WMV9 e forse anche perchè la cpu del pc "multimediale" è un A64 Venice a 2.9 GHz. ;)
jappilas
19-11-2005, 12:07
stavo leggendo l' articolo su anandtech quando ho visto una cosa che mi ha lasciato alquanto perplesso...
come strumento per misurare la qualità video usano un DVD apposta, e fin qui va bene
ma per "decodificarlo" (sic) prendono in considerazione prima l' intervideo WinDVD (che mi risultava usare dei codec software che non trarrebbero vantaggio di funzioni per le quali magari bisogna passare attraverso il driver grafico ), per poi ripiegare sul purevideo dvd player guarda caso di nvidia... :rolleyes:
quando nel testo si menziona che la scheda ati ha la stessa qualità con l' uno e con l' altro player, mi suona un campanello...
MiKeLezZ
19-11-2005, 12:22
stavo leggendo l' articolo su anandtech quando ho visto una cosa che mi ha lasciato alquanto perplesso...
come strumento per misurare la qualità video usano un DVD apposta, e fin qui va bene
ma per "decodificarlo" (sic) prendono in considerazione prima l' intervideo WinDVD (che mi risultava usare dei codec software che non trarrebbero vantaggio di funzioni per le quali magari bisogna passare attraverso il driver grafico ), per poi ripiegare sul purevideo dvd player guarda caso di nvidia... :rolleyes:
quando nel testo si menziona che la scheda ati ha la stessa qualità con l' uno e con l' altro player, mi suona un campanello...
Spiegati meglio, senza tirare il sasso e ritrarre la mano.
Lì mi sembra tutto scritto piuttosto chiaramente: hanno cercato di minimizzare le differenze HW/SW, e poichè fra un programma e l'altro non han notato differenze, hanno scelto di usare purevideo dvd player, in modo che fosse lo stesso per entrambi e eventuali differenze fossero solo da ricercarsi nella VGA, e non nella diversa ottimizzazione dei programmi.
La differenza rispetto alle "vecchie ATI", è comunque presente (basti vedere il vecchio articolo, e le abissali differenze), segno che le sbandierate ottimizzazioni funzionano. Non al pari di quelle nvidia, ma funzionano.
jappilas
19-11-2005, 13:03
Spiegati meglio, senza tirare il sasso e ritrarre la mano.
Lì mi sembra tutto scritto piuttosto chiaramente: hanno cercato di minimizzare le differenze HW/SW, e poichè fra un programma e l'altro non han notato differenze, hanno scelto di usare purevideo dvd player, in modo che fosse lo stesso per entrambi e eventuali differenze fossero solo da ricercarsi nella VGA, e non nella diversa ottimizzazione dei programmi.
La differenza rispetto alle "vecchie ATI", è comunque presente (basti vedere il vecchio articolo, e le abissali differenze), segno che le sbandierate ottimizzazioni funzionano. Non al pari di quelle nvidia, ma funzionano.
spiego meglio (non l' ho scritto subito perchè stavo ancora leggendo il resto della prova) perchè quello a cui accennavo prima mi ha lasciato perplesso
premetto che la mia conoscenza della pipeline grafica per quanto concerne video e overlay, e dell' interazione dell' HW con il driver, non sarà perfetta... anche perchè l' unica volta che ho messo le mani nel sorgente di un codec era FFMPEG, quindi una libreria che effettua operazioni puramente in SW, senza sfruttare accelerazioni o assistenze HW per il miglioramento di qualità (il codec riempie pixel per pixel una immagine in un buffer e la passa alle sdl per disegnarla a schermo )
ora, ricordavo l' intervideo windvd fare una cosa simile (passando magari per directdraw), usare codec interamente SW con al più un' opzione per accelerare la motion compensation : un SW fatto per essere usato da tutti quei pc capaci di sostenere mpeg2 (quindi dal pentium2 in su, quindi non recentissimi) deve adeguarsi al minimo comune denominatore dal punto di vista del supporto che ci si può aspettare dalle comopnenti specialistiche (chip grafico nella fattispecie)
inoltre, decodificare mpeg1-2-4 interamente in HW, dovrebbe richiedere praticamente un decoder scritto dal (o in collaborazione con il) produttore della scheda grafica, perchè penso che come non sono uguali gli accorgimenti delle due Case per implementare le unità pixel shader, non saranno uguali i comandi da inviare all' HW per ottenere di farle funzionare come video engines programmabili
invece il fatto che il purevideo dvd sia un SW di nvidia mi porta a pensare, che, s' interfacci ottimamente con le schede nvidia attivandone il PV sulle superfici video (che su una scheda del genere non saranno più meri overlay), ma che possa non fare altrettanto con l' avivo della concorrente (a meno che i comandi da inviare all' HW per attivare una certa funzione siano gli stessi, cosa di cui dubito)
come nVdvd che usavo quando avevo la Ti4200... quando sono passato alla 9600pro, ho dovuto lasciarlo perdere (non che fosse una gran perdita)
poi posso essere in errore, però vorrei che mi si spiegasse nei dettagli (sono pronto a formule e codice) come funziona la pipeline video su una scheda con shader model 3 .. fek? :)
leoneazzurro
19-11-2005, 13:44
spiego meglio (non l' ho scritto subito perchè stavo ancora leggendo il resto della prova) perchè quello a cui accennavo prima mi ha lasciato perplesso
premetto che la mia conoscenza della pipeline grafica per quanto concerne video e overlay, e dell' interazione dell' HW con il driver, non sarà perfetta... anche perchè l' unica volta che ho messo le mani nel sorgente di un codec era FFMPEG, quindi una libreria che effettua operazioni puramente in SW, senza sfruttare accelerazioni o assistenze HW per il miglioramento di qualità (il codec riempie pixel per pixel una immagine in un buffer e la passa alle sdl per disegnarla a schermo )
ora, ricordavo l' intervideo windvd fare una cosa simile (passando magari per directdraw), usare codec interamente SW con al più un' opzione per accelerare la motion compensation : un SW fatto per essere usato da tutti quei pc capaci di sostenere mpeg2 (quindi dal pentium2 in su, quindi non recentissimi) deve adeguarsi al minimo comune denominatore dal punto di vista del supporto che ci si può aspettare dalle comopnenti specialistiche (chip grafico nella fattispecie)
inoltre, decodificare mpeg1-2-4 interamente in HW, dovrebbe richiedere praticamente un decoder scritto dal (o in collaborazione con il) produttore della scheda grafica, perchè penso che come non sono uguali gli accorgimenti delle due Case per implementare le unità pixel shader, non saranno uguali i comandi da inviare all' HW per ottenere di farle funzionare come video engines programmabili
invece il fatto che il purevideo dvd sia un SW di nvidia mi porta a pensare, che, s' interfacci ottimamente con le schede nvidia attivandone il PV sulle superfici video (che su una scheda del genere non saranno più meri overlay), ma che possa non fare altrettanto con l' avivo della concorrente (a meno che i comandi da inviare all' HW per attivare una certa funzione siano gli stessi, cosa di cui dubito)
come nVdvd che usavo quando avevo la Ti4200... quando sono passato alla 9600pro, ho dovuto lasciarlo perdere (non che fosse una gran perdita)
poi posso essere in errore, però vorrei che mi si spiegasse nei dettagli (sono pronto a formule e codice) come funziona la pipeline video su una scheda con shader model 3 .. fek? :)
Se non erro nell'articolo era scritto che avevano testato anche con un altro SW (Intervideo) ma che la qualità di immagine era la medesima.. ad ogni modo sono sicuro che si tratti solo di supporto SW non maturo.. basta vedere quanto tempo ci ha messo Nvidia per tirare fuori il suo decoder...
jappilas
19-11-2005, 14:06
Se non erro nell'articolo era scritto che avevano testato anche con un altro SW (Intervideo) ma che la qualità di immagine era la medesima..
sarebbe interessante sapere perchè, con intervideo la qualità è la medesima...
è la scheda ad avere qualche difetto o a seguire un algoritmo di processing / filtering che non consente una qualità superiore?
o dipende dal windvd? potrebbe essere che questo adotti una pipeline di rendering (è sempre rendering anche sui frame video) a livello SW senza sfruttare le peculiari capacità dell' una o dell' altra scheda e quindi ottenendo lo stesso risultato con una e con l' altra?
leoneazzurro
19-11-2005, 14:12
sarebbe interessante sapere perchè, con intervideo la qualità è la medesima...
è la scheda ad avere qualche difetto o a seguire un algoritmo di processing / filtering che non consente una qualità superiore?
o dipende dal windvd? potrebbe essere che questo adotti una pipeline di rendering (è sempre rendering anche sui frame video) a livello SW senza sfruttare le peculiari capacità dell' una o dell' altra scheda e quindi ottenendo lo stesso risultato con una e con l' altra?
No, intendo la medesima ottenibile con altri programmi. IMHO il fatto è che il driver o il supporto delle applicazioni semplicemente non sono maturi, per cui alcune funzionalità della tecnologia AVIVO semplicemente non funzionano come dovrebbero. Toccherà aspettare, del resto queste schede sono uscite da un mese circa, ATI pare essersi focalizzata per ora soprattutto sulle prestazioni gaming.
poi posso essere in errore, però vorrei che mi si spiegasse nei dettagli (sono pronto a formule e codice) come funziona la pipeline video su una scheda con shader model 3 .. fek? :)
Purtroppo non so aituarti perche' non ho mai programmato nessuna API con suppoerto hardware per codifica decodifica video. Ho visto da qualche parte delle slide un tempo, ma ricordo poco o nulla. Se sei molto interessato magari ti metto in contatto con Mark di NVIDIA e puoi domandare direttamente a lui: e' molto disponibile, potrebbe indirzzarti verso le informazioni che ti servono.
jappilas
19-11-2005, 14:27
ok, è un problema di driver ... allora vuol dire che:
su una X1600 qualunque overlay video (compresi quelli legacy) sarà automagicamente arricchito nella gamma dinamica
si permette di inviare alla scheda un video, o come "texture animata" o come raw stream che verrà decompresso in locale dalla gpu: posto che questo secondo caso implica di bypassare la decodifica via SW normalmente affidata al codec,
per farlo esiste una API standard che svincoli dal driver ? o ci si interfaccia direttamente col quest' ultimo?
jappilas
19-11-2005, 14:56
Purtroppo non so aituarti
no problem, ;)
perche' non ho mai programmato nessuna API con suppoerto hardware per codifica decodifica video.
in pratica neppure io, attualmente mi tocca integrare un blocco di video supply in questa piattaforma (http://www.infomus.dist.unige.it/eywindex.html) , e visto che il processing (3d a parte) è tutto fatto via SW, per quanto in realtime, FFMPEG andava bene ...
alla fine si tratta di fare correttamente inizializzazioni e chiamate alla libreria, tenedo conto delle idiosincrasie del codice (ad es ad ogni stream è associato un AVcontext, ma l' inizializzazione del codeccontext dentro libavcodec non è thread safe...).. ops ehm, ot... :p
quindi non preoccuparti, chiedevo come funziona l' ambaradan, in primis per mia cultura personale... :)
Ho visto da qualche parte delle slide un tempo, ma ricordo poco o nulla. Se sei molto interessato magari ti metto in contatto con Mark di NVIDIA e puoi domandare direttamente a lui: e' molto disponibile, potrebbe indirzzarti verso le informazioni che ti servono.
certo che ... informazioni di prima mano... :sbav: quasi quasi ...
(però non vorrei farti far brutta figura con i tuoi contatti... :stordita: )
leoneazzurro
19-11-2005, 15:47
ok, è un problema di driver ... allora vuol dire che:
su una X1600 qualunque overlay video (compresi quelli legacy) sarà automagicamente arricchito nella gamma dinamica
si permette di inviare alla scheda un video, o come "texture animata" o come raw stream che verrà decompresso in locale dalla gpu: posto che questo secondo caso implica di bypassare la decodifica via SW normalmente affidata al codec,
per farlo esiste una API standard che svincoli dal driver ? o ci si interfaccia direttamente col quest' ultimo?
Buona domanda: da quel poco che so, credo ci si interfacci direttamente col driver. Altrimenti (parlo del caso di Nvidia) non ci sarebbe bisogno del decoder Purevideo dedicato... ma può anche darsi (speriamo) che ATI prenda una strada diversa (e che quindi la competizione costringa Nvidia a dare il decoder "aggratis" :D
capitan_crasy
19-11-2005, 16:24
scusate:
per ottenere il Pure video bisogna scaricare il codec NVIDIA PureVideo Decoder Kit dal sito Nvidia...
Nei requisiti di sistema parla di Software compatibile con DirectShow per la riproduzione di file MPEG-2. A quando ne so il codec Pure Video funziona SOLO con Windows Media Player 10, infatti è l'unico programma in qui durante l'esecuzione del DVD video fa apparire l'icona di settaggio del codec. Con altri lettori (powew DVD e WinDVD) questo non accade.
Ora si parla di un programma dvd player di Nvidia che sul sito ufficiale non ho trovato.
Un altra cosa:
Una volta installato il codec del purevideo è apparso, nel mio computer una specie di Mediacenter Nvidia dal nome "nStantMedia"...
La cosa strana è che il programma non è presente nel enù "tutti i programmi" e la sua scoperta è stata fortuita, spulciando per caso nella cartella "Programmi"... :boh:
leoneazzurro
19-11-2005, 18:50
scusate:
per ottenere il Pure video bisogna scaricare il codec NVIDIA PureVideo Decoder Kit dal sito Nvidia...
Nei requisiti di sistema parla di Software compatibile con DirectShow per la riproduzione di file MPEG-2. A quando ne so il codec Pure Video funziona SOLO con Windows Media Player 10, infatti è l'unico programma in qui durante l'esecuzione del DVD video fa apparire l'icona di settaggio del codec. Con altri lettori (powew DVD e WinDVD) questo non accade.
Ora si parla di un programma dvd player di Nvidia che sul sito ufficiale non ho trovato.
Un altra cosa:
Una volta installato il codec del purevideo è apparso, nel mio computer una specie di Mediacenter Nvidia dal nome "nStantMedia"...
La cosa strana è che il programma non è presente nel enù "tutti i programmi" e la sua scoperta è stata fortuita, spulciando per caso nella cartella "Programmi"... :boh:
Non vorrei sbagliarmi, ma mi sembra che anche l'ultima release di WinDVD permetta di utilizzare il codec Purevideo..
capitan_crasy
19-11-2005, 22:54
ho provato il WinDVD Platinum 7 Release 5 trial 14 giorni, ma l'icona del codec del Pure Video non si vede. Inoltre la qualità di visione usando Windows Media Player è di un altro pianeta...
leoneazzurro
20-11-2005, 13:39
ho provato il WinDVD Platinum 7 Release 5 trial 14 giorni, ma l'icona del codec del Pure Video non si vede. Inoltre la qualità di visione usando Windows Media Player è di un altro pianeta...
Allora, ho scaricato la trial version di Purevideo e ho fatto prove con WinDVD 5 (full), Real player e WMP 10 , e con tutti e tre si abilita il codec Purevideo (l'icona appare in basso a destra). Non ho notato differenze di sorta tra la qualità delle immagini con le stesse impostazioni, ma non ho mezzi scientifici per poterle evidenziare.
Poi provo con VLC e Nero Showtime.
YaYappyDoa
21-11-2005, 09:11
Vorrei chiedere a Fek ( o a chi sa! ) a cosa è dovuto l'effetto moirè ( per chi non sa cosa sia: http://www.mathematik.com/Moire/ ) che noto, ad esempio in Half Life 2, sulle pareti esterne di capannoni in "lamiera ondulata" o le facciate di costruzioni "a costine". L'effetto varia molto secondo l'angolo di osservazione e infastidisce abbastanza. E' da ritenersi normale, come interazione tra la griglia del monitor crt/pixel o è un difetto dei driver/scheda video?
Inoltre noto che alcuni effetti, come gli aloni di luce all'uscita di una galleria, nelle sfumature presentano più o meno evidenti salti tra le gradazioni di grigio (o altro colore), come se fossero calcolati a 16 bit o meno o mancassero di dithering adeguato. Sebbene circa l'origine di questi due "effetti o difetti" abbia qualche idea non sono sicuro che sia corretta...
La scheda video utilizzata è la 6800 Ultra, AA 4x AF 8x qualità massima, ultimi driver ufficiali.
Vorrei chiedere a Fek ( o a chi sa! ) a cosa è dovuto l'effetto moirè ( per chi non sa cosa sia: http://www.mathematik.com/Moire/ ) che noto, ad esempio in Half Life 2, sulle pareti esterne di capannoni in "lamiera ondulata" o le facciate di costruzioni "a costine". L'effetto varia molto secondo l'angolo di osservazione e infastidisce abbastanza. E' da ritenersi normale, come interazione tra la griglia del monitor crt/pixel o è un difetto dei driver/scheda video?
E' una cosa normale :)
Inoltre noto che alcuni effetti, come gli aloni di luce all'uscita di una galleria, nelle sfumature presentano più o meno evidenti salti tra le gradazioni di grigio (o altro colore), come se fossero calcolati a 16 bit o meno o mancassero di dithering adeguato. Sebbene circa l'origine di questi due "effetti o difetti" abbia qualche idea non sono sicuro che sia corretta...
La scheda video utilizzata è la 6800 Ultra, AA 4x AF 8x qualità massima, ultimi driver ufficiali.
In questo caso la texture a' a bassa risoluzione.
capitan_crasy
21-11-2005, 09:54
Allora, ho scaricato la trial version di Purevideo e ho fatto prove con WinDVD 5 (full), Real player e WMP 10 , e con tutti e tre si abilita il codec Purevideo (l'icona appare in basso a destra). Non ho notato differenze di sorta tra la qualità delle immagini con le stesse impostazioni, ma non ho mezzi scientifici per poterle evidenziare.
Poi provo con VLC e Nero Showtime.
Ho aggiornato il Codec del Pure video con l'ultima versione...
Per quando riguarda il WinDVD niente da fare (forse ci vuole una versione non trial), ma ora funziona sul player di JetAudio! :D
Proverò sul Power DVD 5 che di quelli nè ho una caterba... :fagiano:
YaYappyDoa
21-11-2005, 10:12
@ Fek
Grazie dei chiarimenti!
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.