Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Sony Alpha 7 V, anteprima e novità della nuova 30fps, che tende la mano anche ai creator
Sony Alpha 7 V, anteprima e novità della nuova 30fps, che tende la mano anche ai creator
Dopo oltre 4 anni si rinnova la serie Sony Alpha 7 con la quinta generazione, che porta in dote veramente tante novità a partire dai 30fps e dal nuovo sensore partially stacked da 33Mpixel. L'abbiamo provata per un breve periodo, ecco come è andata dopo averla messa alle strette.
realme GT 8 Pro Dream Edition: prestazioni da flagship e anima racing da F1
realme GT 8 Pro Dream Edition: prestazioni da flagship e anima racing da F1
realme e Aston Martin Aramco F1 Team si sono (ri)unite dando alla vita un flagship con chip Snapdragon 8 Elite Gen 5 e design esclusivo ispirato alle monoposto di Formula 1. La Dream Edition introduce la nuova colorazione Lime Essence abbinata al tradizionale Aston Martin Racing Green, decorazioni intercambiabili personalizzate e una confezione a tema F1, intorno a uno smartphone dall'ottima dotazione tecnica con batteria da 7000mAh ricaricabile a 120W e isola fotografica intercambiabile
OVHcloud Summit 2025: le novità del cloud europeo tra sovranità, IA e quantum
OVHcloud Summit 2025: le novità del cloud europeo tra sovranità, IA e quantum
Abbiamo partecipato all'OVHcloud Summit 2025, conferenza annuale in cui l'azienda francese presenta le sue ultime novità. Abbiamo parlato di cloud pubblico e privato, d'intelligenza artificiale, di computer quantistici e di sovranità. Che forse, però, dovremmo chiamare solo "sicurezza"
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 18-11-2005, 14:38   #41
YaYappyDoa
Registered User
 
Iscritto dal: Feb 2002
Messaggi: 338
@ jp77

Corbezzoli! A quel prezzo (199$) quella 6800GS è la scheda con il miglior rapporto prestazioni/costo, ed è pure prodotta da EVGA mica bau bau micio micio!!
YaYappyDoa è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 19:13   #42
NvidiaMen
Bannato
 
L'Avatar di NvidiaMen
 
Iscritto dal: Dec 2001
Città: Palmi
Messaggi: 3241
Quote:
Originariamente inviato da Dark Schneider
A parte che non è un problema di drivers, ma ha proprio delle pesanti limitazioni come caratteristiche hardware.
Ma poi mi spieghi cosa hanno di obsolete le 6800? Il supporto è avanzatissimo.
Rispetto a molti di questo forum credo di avere dei diversi metri di giudizio nel considerare innovativa una scheda video rispetto ad un'altra ... molti fanno del fill rate il metro di confronto assoluto, come se una scheda grafica debba offrire solo quello... (per chi ha queste smanie credo che sia meglio puntare all'acquisto di una scheda di fascia alta tipo x1800xl o 7800gt dopo qualche mese dal loro debutto per non buttar via troppi soldi...).
A pensarla in questo modo fortunatamente non sono solo io, già nell'articolo del Corsini e di Fanizzi sui Radeon serie X1000 viene specificato:

"... Le prestazioni velocistiche con giochi 3D, infatti, hanno raggiunto livelli così elevati da risultare spesso di non più così prioritaria importanza: il supporto a funzionalità video avanzate, inoltre, sta diventando una caratteristica sempre più richiesta da parte degli utenti, grazie alla progressiva diffusione di filmati e display in alta definizione...."

Ribadisco il fatto che la tecnologia nVidia con la 6800 (ed ahimè anche con la 7800 di conseguenza) sia uno step indietro per funzioni che a me sembrano molto interessanti almeno per l'utilizzo che faccio io del PC (non mi chiudo in casa a giocare solamente, ma ci lavoro anche...). Sarà perchè mi ritrovo a lavorare con un display LCD 24 pollici sempre alla risoluzione di 1920X1200 a Photoshop in cui conta molto la qualità dell'immagine, sarà perchè lavoro spesso con i video ad altissima risoluzione attraverso Premiere, sarà perchè oltre a voler vedere i giochi andar più veloci pretendo che la qualità non sia da meno....
In ogni caso riporto qualche "cosetta" (sempre annunciata nell'articolo predetto) che ATI ha implementato attraverso la tecnologia AVIVO e che stranamente molti snobbano:

VANTAGGI CON SOFTWARE VIDEO
Il PCI express ha soppiantato l'AGP proprio per permettere alle GPU delle schede video di sostituire la CPU nella fase di encoding video e nVidia non ha mai pensato a sfruttare questa interfaccia da questo punto di vista...
1) cattura: gain control automatico; filtro 3D combo; conversione da analogico a digitale a 12bit di precisione; de-noise hardware, per rimuovere il rumore di fondo delle immagini acquisite; funzionalità di demodulazione digitale con cancellazione multi-path.
2) codifica: encoding con supporto hardware; supporto al transcode attraverso la VPU, per i formati H.264, VC-1, WMV9, WMV9 PCM, MPEG-2, MPEG-4 e DivX.
3) decodifica: decodifica con supporto della VPU per i formati H.264, VC-1, WMV9, MPEG-2 e MPEG-4.
4) post process: de-interlacing vector adaptive; video scaling avanzato.


Vi rendete conto che grazie al supporto alla codifica e decodifica H.264 (alias mpeg4 che pian piano soppianterà l'mpeg2) via hardware, implementato all'interno delle GPU della serie R520 non saremo più dipendenti dal processore nelle operazioni video? Per fare un parallelismo con nVidia (così naturalmente come per la serie X800 precedente di ATI) sarà un pò come giocare a Doom3 via software rispetto a farlo via hw.... Non solo questo, le nuove GPU ATI supporteranno la fase di transcode, cioè la ricodifica di un flusso video ad un differente bitrate rispetto a quello di partenza, o verso un differente formato che per chi usa Premiere o codifica video DivX non sarà costretto a tenere acceso il PC per 4 ore e passa , ma sicuramente molto meno. Questo genere di operazioni richiede moltissima potenza di elaborazione se eseguita a livello di processore; con le nuove architetture ATI, e un adeguato supporto dal lato driver, buona parte delle operazioni saranno delegate alla GPU.

VANTAGGI CON QUALITA' IMMAGINE: GIOCHI
La nuova famiglia ATI non solo supporta l'HDR come nVidia, ma implementa il supporto all'anti aliasing congiuntamente con l'HDR; garantendo una qualità d'immagine superiore al solo uso dello stesso HDR, il quale fornendo un maggior contrasto rende più evidenti i difetti propri dell'aliasing negli oggetti 3D generati nella scena.
Inoltre al pari della 7800 (ma non della 6800!!!) viene implementato Adaptive Anti Aliasing, che migliora la qualità d'immagine con quelle scene nei quali alcuni oggetti, come i contorni delle piante o le inferriate, non sono composti da triangoli ma da semplici pixel su texture trasparenti.
Quel qualcosa in meno in termini di prestazione che mostrano i bench non sono solo da attribuire alle sole 4tmu (grazie all'efficenza dell'architettura ATI tale gap con una tecnologia ad 8tmu non appare poi tanto evidente poichè le prestazioni dovrebbero dimezzarsi cosa che effettivamente non avviene ...), ma anche a tecnologie per il miglioramento dell'immagine come: l'algoritmo Area-Anistropic (filtro anisotropo) che al prezzo di una piccola perdita di performance (nell'ordine del 5-8% a seconda dell'applicazione nel nostro hands-on), garantisce una migliore chiarezza delle texture sulle superfici orientate verso l'osservatore, eliminando praticamente gli ultimi residui di dipendenza angolare dei vecchi algoritmi.

VANTAGGI CON QUALITA' IMMAGINE: TRATTAMENTO FOTO
Con Photoshop si avranno colori più nitidi poichè la serie X1x00 presenta linee di output a 10 bit per componente...
Grazie ad AVIVO infatti nella visualizzazione su schermo si hanno 10-bit di precisione, con gamma e color correction, scaling, compressione e dithering; oltre ad altre funzionalità avanzate per la connessione alle periferiche di output.


In ogni caso se a voi piace la 6800GS perchè và meglio in termini di fps fate come volete, ma non mi dite che a livello tecnologico siamo allo stesso livello...

Ultima modifica di NvidiaMen : 18-11-2005 alle 19:26.
NvidiaMen è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 19:26   #43
Spoiker
Senior Member
 
Iscritto dal: Mar 2005
Città: Sconosciuta
Messaggi: 2562
Eccolo un tecnico...è quello che mi riferivo prima... dicendo che tra una generazione ed un'altra non ci deve essere l'aumento delle prestazioni come priorità assoluta (non necessariamente aumentano tanto e su modelli diversi restano uguali), ma quel qualcosa in più che mi dice che c'è stato un salto in qualità...
Spoiker è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 19:31   #44
Dark Schneider
Senior Member
 
L'Avatar di Dark Schneider
 
Iscritto dal: Jun 2001
Città: Magmoor Caverns
Messaggi: 29135
Veramente il tuo discorso ha ben poco senso.
Ma che significa. La 6800GS anche supporta ad esempio il PureVideo.
Poi scusa ma ti rendi conto che il tuo discorso non regge? Dici che una 6800(e 7800) è obsoleta perchè non supporta l'AA con l'HDR?

Scusa ma allora le Radeon X800 cosa sono? Delle schede della preistoria visto che non supportano nemmeno lo SM 3.0? La verità è che nVidia per ben 1 anno e mezzo è stata avanti ad Ati a livello tenologico. Oggi con la serie X1000, Ati ha colmato il gap ed ha leggermente superato il concorrente a livello di tecnologia.
Ma da qui a dire che le 6800 sono "obsolete" ce ne passa....
__________________
Ho concluso con:Taxon, IamRoland
Dark Schneider è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 19:41   #45
rakatan
Member
 
Iscritto dal: Oct 2005
Messaggi: 43
@NvidiaMen

Ma le accelerazioni con premiere e simili, sono gia presenti nei software o nei driver, saranno disponibili entro qualche mese o ci vorrà di più ? chiedo perchè tra poco aggiorno il sistema e come scheda video ero interessato ad una x1300 o x1600 proprio per quelle caratteristiche AVIVO (dei giochi non mi interessa + di tanto, giusto una partitella ogni tanto a qualche FPS).
rakatan è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 19:46   #46
NvidiaMen
Bannato
 
L'Avatar di NvidiaMen
 
Iscritto dal: Dec 2001
Città: Palmi
Messaggi: 3241
Quote:
Originariamente inviato da Dark Schneider
Veramente il tuo discorso ha ben poco senso.
Ma che significa. La 6800GS anche supporta ad esempio il PureVideo.
PureVideo? A confronto con AVIVO? Dai...non scherziamo... La tecnologia nVidia accelera solo la sola riproduzione Mpeg2 e wmv, in codifica o ricodifica non fa assolutamente nulla e poi da un punto di vista qualitativo siamo sempre fermi a 8 bit...

Quote:
Originariamente inviato da Dark Schneider
Poi scusa ma ti rendi conto che il tuo discorso non regge? Dici che una 6800(e 7800) è obsoleta perchè non supporta l'AA con l'HDR?
Se leggi bene ho scritto che:
....la nuova famiglia ATI non solo supporta l'HDR come nVidia, ma implementa il supporto all'anti aliasing congiuntamente con l'HDR; garantendo una qualità d'immagine superiore al solo uso dello stesso HDR, il quale fornendo un maggior contrasto rende più evidenti i difetti propri dell'aliasing negli oggetti 3D generati nella scena.

Quote:
Originariamente inviato da Dark Schneider
Scusa ma allora le Radeon X800 cosa sono? Delle schede della preistoria visto che non supportano nemmeno lo SM 3.0? La verità è che nVidia per ben 1 anno e mezzo è stata avanti ad Ati a livello tenologico. Oggi con la serie X1000, Ati ha colmato il gap ed ha leggermente superato il concorrente a livello di tecnologia.
Non credo nel mio intervento di aver parlato bene della serie X800 che ho sempre reputato una generazione persa e non consiglio a nessuno per via del mancato suppoto al Model shader 3.0...

Quote:
Originariamente inviato da Dark Schneider
Ma da qui a dire che le 6800 sono "obsolete" ce ne passa....
Secondo me rimangono obsolete per le motivazioni menzionate, poi se tu non fai uso di queste innovazioni è un altro discorso...

Ultima modifica di NvidiaMen : 18-11-2005 alle 19:55.
NvidiaMen è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 19:53   #47
NvidiaMen
Bannato
 
L'Avatar di NvidiaMen
 
Iscritto dal: Dec 2001
Città: Palmi
Messaggi: 3241
Quote:
Originariamente inviato da rakatan
@NvidiaMen

Ma le accelerazioni con premiere e simili, sono gia presenti nei software o nei driver, saranno disponibili entro qualche mese o ci vorrà di più ? chiedo perchè tra poco aggiorno il sistema e come scheda video ero interessato ad una x1300 o x1600 proprio per quelle caratteristiche AVIVO (dei giochi non mi interessa + di tanto, giusto una partitella ogni tanto a qualche FPS).
Purtroppo ancora no... da indiscrezioni si parla di un loro supporto a livello drivers verso la fine dell'anno (forse con i Catalyst 5.13...). Naturalmente per Premiere occorreranno dei plugins LSX riscritti in grado di far computare la GPU al posto della CPU...
NvidiaMen è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 19:59   #48
fek
Senior Member
 
L'Avatar di fek
 
Iscritto dal: Oct 2002
Città: San Jose, California
Messaggi: 11794
Quote:
Originariamente inviato da NvidiaMen
Se leggi bene ho scritto che:
....la nuova famiglia ATI non solo supporta l'HDR come nVidia, ma implementa il supporto all'anti aliasing congiuntamente con l'HDR; garantendo una qualità d'immagine superiore al solo uso dello stesso HDR, il quale fornendo un maggior contrasto rende più evidenti i difetti propri dell'aliasing negli oggetti 3D generati nella scena.
Il rendering HDR non cambia il contrasto delle immagini rispetto ad un rendering LDR, ma ne modifica semplicemente il range dinamico e la precisione, eliminando difetti come il banding. La necessita' di antialiasing e' indipendente dall'usare un renderer HDR o meno.

Quote:
Originariamente inviato da NvidiaMen
Secondo me rimangono obsolete per le motivazioni menzionate, poi se tu non fai uso di queste innovazioni è un altro discorso...
Per diversi aspetti l'architettura NV40 (G70) offre un supporto anche se di poco piu' completo alle DX9 rispetto all'architettura dell'R520, quindi non la definirei certo obsoleta, tutt'altro.

Ultima modifica di fek : 18-11-2005 alle 20:01.
fek è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 20:08   #49
rakatan
Member
 
Iscritto dal: Oct 2005
Messaggi: 43
@NvidiaMen

scusa se insisto, ma questi plugin dovranno essere specifici per ati (o per invidia) oppure si appoggeranno a librerie/compilatori intermedie?
rakatan è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 20:15   #50
NvidiaMen
Bannato
 
L'Avatar di NvidiaMen
 
Iscritto dal: Dec 2001
Città: Palmi
Messaggi: 3241
Quote:
Originariamente inviato da fek
Il rendering HDR non cambia il contrasto delle immagini rispetto ad un rendering LDR, ma ne modifica semplicemente il range dinamico e la precisione, eliminando difetti come il banding. La necessita' di antialiasing e' indipendente dall'usare un renderer HDR o meno.
In una scena 3D di elevatissima importanza nell'ottenimento di una visualizzazione realistica è la corretta riproduzione dell'illuminazione.
Questo è tanto più difficile quanto si alternano parti della scena con forte illuminazione, con altre in ombra.
In passato è sempre stato molto difficile riuscire a riprodurre al meglio l'illuminazione di una scena che prevedesse un "forte contrasto" tra parti molto illuminate e parti molto scure. I per-pixel frame buffer standard a 32bit, infatti, permettono di utilizzare solo 255 valori per indicare i differenti livelli d'illuminazione di un oggetto, troppo pochi per poter rappresentare correttamente la dinamica di una scena con forti alternanze di luci e ombre.
L'occhio umano riesce a percepire un dynamic range, tra oggetti illuminati e non, pari a circa 14dB, con andamento logaritmico. Questo vuol dire che vengono meglio definiti i particolari scuri più che quelli illuminati, visti più indistintamente come luce e quindi tendenti al bianco.
Il dynamic range standard di un frame buffer a 32bit per pixel è pari a circa 2,4dB, quindi insufficiente per la percezione dell'occhio umano a distinguere i dettagli. Ll'HDR permette di renderizzare scene così complesse ottenendo una superiore gamma dinamica. Questa tecnica utilizza 3 differenti fasi per ottenere il rendering della scena: light transport, tone mapping e color and gamma correction.
Di conseguenza è proprio la caratteristica di ampliamento gamma che determina come rovescio della medaglia un maggior contrasto...

Quote:
Originariamente inviato da fek
Per diversi aspetti l'architettura NV40 (G70) offre un supporto anche se di poco piu' completo alle DX9 rispetto all'architettura dell'R520, quindi non la definirei certo obsoleta, tutt'altro.
Se rileggi il mio confronto è fatto con la precedente generazione... ovvero con la famiglia 6800 che reputo obsoleta... logico che con la 7800 (almeno da un punto di vista di supporto alle API grafiche, ma non assolutamente video) le differenze siano meno marcate...
NvidiaMen è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 20:24   #51
NvidiaMen
Bannato
 
L'Avatar di NvidiaMen
 
Iscritto dal: Dec 2001
Città: Palmi
Messaggi: 3241
Quote:
Originariamente inviato da rakatan
@NvidiaMen

scusa se insisto, ma questi plugin dovranno essere specifici per ati (o per invidia) oppure si appoggeranno a librerie/compilatori intermedie?
Dato che allo stato attuale un supporto standard attraverso directX alle GPU non esiste da un punto di vista di compressione video , i plugin dovranno essere scritti appoggiandosi ai drivers software del produttore i quali richiameranno le principali funzioni di encoding hw. Sarà un pò come avviene con i software CAD/CAM nei quali occorrono plugin e drivers appositi per lo sfruttamento avanzato delle funzioni OGL nei software 3d professionali.
NvidiaMen è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 20:43   #52
fek
Senior Member
 
L'Avatar di fek
 
Iscritto dal: Oct 2002
Città: San Jose, California
Messaggi: 11794
Quote:
Originariamente inviato da NvidiaMen
In una scena 3D di elevatissima importanza ...
Lo so

Quote:
Di conseguenza è proprio la caratteristica di ampliamento gamma che determina come rovescio della medaglia un maggior contrasto...
No. Determina solo maggiore precisione e minore propensione al banding. Il contrasto dipende dalle scelte artistiche invece.

Si puo' fare HDR anche con precisione a 32 bit e ottenere un'immagine virtualmente identica in termini di contrasto della stessa immagine calcolata a 128bit per colore in floating point.

Esempio banale:

- fissando la massima luminanza al valore K
- effettuando tutti i calcoli a i8 con il valore diviso per K
- effettuando tutti i calcoli a fp16(32) con il valore diviso per K (per semplicita', non cambierebbe nulla non dividendo)
- usando come tonemapping finale una semplice funzione lineare (sarebbe indifferente per la questione usare una qualunque altra funzione)

Le due immagini sarebbero perfettamente equivalenti in termini di contrasto e di rapporti di luminanza, ma sarebbero molto differenti in termini di precisione. La prima immagine presenterebbe un fortissmo banding, piu' pronunciato all'aumentare di K.

Dunque, HDR o LDR sono perfettamente equivalenti in termini di contrasto, la differenza e' solo in termini di precisione nella rappresentazione del colore.

Infine, gli algoritmi di light transport, tone mapping e gamma correction possono essere scritti in maniera perfettamente analoga in un renderer LDR: l'unica differenza e' di nuovo la precisione nella rappresentazione del colore.

Quote:
Se rileggi il mio confronto è fatto con la precedente generazione... ovvero con la famiglia 6800 che reputo obsoleta... logico che con la 7800 (almeno da un punto di vista di supporto alle API grafiche, ma non assolutamente video) le differenze siano meno marcate...
Avevo gia' letto bene e la tua affermazione continua ad essere scorretta, perche' come il G70, anche l'NV40 ha un supporto piu' completo dell'R520 alle DX9, quindi non certo un'architettura obsoleta.

Ultima modifica di fek : 18-11-2005 alle 20:45.
fek è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 21:16   #53
NvidiaMen
Bannato
 
L'Avatar di NvidiaMen
 
Iscritto dal: Dec 2001
Città: Palmi
Messaggi: 3241
Quote:
Originariamente inviato da fek
No. Determina solo maggiore precisione e minore propensione al banding. Il contrasto dipende dalle scelte artistiche invece.

Si puo' fare HDR anche con precisione a 32 bit e ottenere un'immagine virtualmente identica in termini di contrasto della stessa immagine calcolata a 128bit per colore in floating point.

Esempio banale:

- fissando la massima luminanza al valore K
- effettuando tutti i calcoli a i8 con il valore diviso per K
- effettuando tutti i calcoli a fp16(32) con il valore diviso per K (per semplicita', non cambierebbe nulla non dividendo)
- usando come tonemapping finale una semplice funzione lineare (sarebbe indifferente per la questione usare una qualunque altra funzione)

Le due immagini sarebbero perfettamente equivalenti in termini di contrasto e di rapporti di luminanza, ma sarebbero molto differenti in termini di precisione. La prima immagine presenterebbe un fortissmo banding, piu' pronunciato all'aumentare di K.

Dunque, HDR o LDR sono perfettamente equivalenti in termini di contrasto, la differenza e' solo in termini di precisione nella rappresentazione del colore.

Infine, gli algoritmi di light transport, tone mapping e gamma correction possono essere scritti in maniera perfettamente analoga in un renderer LDR: l'unica differenza e' di nuovo la precisione nella rappresentazione del colore.
Da una vecchia discusione su cybergrain che spiegava l'introduzione dell'HDR nel panorama digitale riporto le seguenti parole:
....El Greco used saturated colors of opposing hues to increase the apparent dynamic range of the scene. He also painted black or white lines around the edges of contours. Our eyes determine "contrast locally", so "increasing the contrast" at local edges "increases the overall perceived contrast" of the scene.
(Generally, "dynamic range" refers to the measured ratio between high and low extremes in a set of values. The word "contrast" is often used interchangeably with dynamic range. I prefer to use "contrast" to refer to the perceived contrast of a scene, which may be different from the measured dynamic range. El Greco's edge contours increase perceived contrast but don't change the dynamic range of canvas).

come tiene a sottolineare il recensore dell'articolo da un punto di vista tecnico la parola contrasto rispetto a quella che si riferisce all'aumento della gamma dinamica sono diverse, ma a livello pratico chi visiona una scena attraverso questa tecnica non fà altro che vedere aumentato il contrasto... e lui lo tiene a sottolineare attraverso il dipinto di El Greco!
Ti assicuro che non si tratta di un'opinione, ma di una conseguenza figlia del fatto di disporre a 32bit di un limitato range di variazione....

Quote:
Originariamente inviato da fek
Avevo gia' letto bene e la tua affermazione continua ad essere scorretta, perche' come il G70, anche l'NV40 ha un supporto piu' completo dell'R520 alle DX9, quindi non certo un'architettura obsoleta.
Secondo me una scheda che non sfrutta il canale PCI express in scrittura a 16x per la fase encoding video hw è obsoleta perchè non è al passo con l'evoluzione e le potenzialità offerte dal nuovo bus...
Il fatto che nVidia possa avere un supporto più ampio a certe funzionalità DX9 può passare così come ATI ha comunque dalla sua il nuovo filtro Area-Anistropic...
NvidiaMen è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 21:24   #54
fek
Senior Member
 
L'Avatar di fek
 
Iscritto dal: Oct 2002
Città: San Jose, California
Messaggi: 11794
Quote:
Originariamente inviato da NvidiaMen
come tiene a sottolineare il recensore dell'articolo da un punto di vista tecnico la parola contrasto rispetto a quella che si riferisce all'aumento della gamma dinamica sono diverse, ma a livello pratico chi visiona una scena attraverso questa tecnica non fà altro che vedere aumentato il contrasto... e lui lo tiene a sottolineare attraverso il dipinto di El Greco!
Ti assicuro che non si tratta di un'opinione, ma di una conseguenza figlia del fatto di disporre a 32bit di un limitato range di variazione....
Non si tratta di un'opinione si tratta proprio di un errore.

Ripeto, a livello di contrasto non c'e' alcuna differenza, prova a fare su carta il calcolo che ho indicato nel post precedente e te ne accorgerai. E' solo una questione di precisione.

Ho scritto per Black&White 2 un renderer full HDR (con supporto fp16) e un renderer LDR con tonemapping logaritmico e autoesposizione (simile per certi versi a quello di HL2 ma con alcune differenze) e il risultato finale era perfettamente identico a livello di contrasto e saturazione, ma la versione LDR presentava in alcune situazione per forza di cose vistosi effetti di banding dovuti alla limitata precisione (8 bit per canale).

A livello matematico i8 e fp16/32 sono solo diverse rappresentazioni con diversa precisione dello stesso concetto (intensita' di ogni componente che determina la luminanza del colore) quindi non c'e' da stupirsi che il contrasto sia perfettamente identico.


Quote:
Secondo me una scheda che non sfrutta il canale PCI express in scrittura a 16x per la fase encoding video hw è obsoleta perchè non è al passo con l'evoluzione e le potenzialità offerte dal nuovo bus...
Il fatto che nVidia possa avere un supporto più ampio a certe funzionalità DX9 può passare così come ATI ha comunque dalla sua il nuovo filtro Area-Anistropic...
Non e' una questione di opinioni neppure qui: un'architettura che ha per alcuni aspetti un supporto alle dx9 impareggiato non puo' essere definita obsoleta.

Puoi dire che non e' adatta alle tue esigenze e su questo non c'e' da discutere, ma non che sia obsoleta perche' non lo e'.
fek è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 21:49   #55
Spoiker
Senior Member
 
Iscritto dal: Mar 2005
Città: Sconosciuta
Messaggi: 2562
A proposito di encoding...
Premetto che non ne so molto...ma mi piacerebbe avere una scheda di acquisizione video...esistono che sfruttano il pci-express in commercio?

A cosa ti riferisci quando parli che le nvidia non supportano tale cosa?

grazie
Spoiker è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 23:11   #56
dm69
Senior Member
 
Iscritto dal: Dec 2001
Messaggi: 428
certo che NvidiaMen e' un nick strano per uno che difende in questo modo un X1600...

mi sembri uno di quelli che a suo tempo difendevano il parehelia dicendo che era una scheda seria solo dopo che si era scoperto che aveva prestazioni 3D scadenti


dm69 è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2005, 23:30   #57
leoneazzurro
Senior Member
 
Iscritto dal: Jan 2003
Messaggi: 10395
Quote:
Originariamente inviato da NvidiaMen
PureVideo? A confronto con AVIVO? Dai...non scherziamo... La tecnologia nVidia accelera solo la sola riproduzione Mpeg2 e wmv, in codifica o ricodifica non fa assolutamente nulla e poi da un punto di vista qualitativo siamo sempre fermi a 8 bit...
E' solo una questione di supporto dei drivers e dei codec. Il video processor dellle schede serie 6 e 7 è capacissimo di fare tutte le cose che elenchi. Ma ancora non c'è supporto nei drivers e nei codec (senza contare che deploro la scelta di far pagare a parte il decoder Purevideo).
Per il momento anche la tecnologia Avivo esiste solo sulla carta, tra l'altro...

PS: se non hai un monitor con 10 bit per canale, poco te ne fai di avere un output a 10 bit.
__________________
PC Specialist Recoil 17 - 13900HX - 32 GB DDR5 5200 - Geforce RTX 4080 Mobile 12Gb 175W - 1 SSD Corsair Core XT MP600 2 TB NVMe - 1SSD Solidigm P41+ 2TB NVMe
leoneazzurro è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2005, 00:02   #58
NvidiaMen
Bannato
 
L'Avatar di NvidiaMen
 
Iscritto dal: Dec 2001
Città: Palmi
Messaggi: 3241
Quote:
Originariamente inviato da fek
Non si tratta di un'opinione si tratta proprio di un errore.

Ripeto, a livello di contrasto non c'e' alcuna differenza, prova a fare su carta il calcolo che ho indicato nel post precedente e te ne accorgerai. E' solo una questione di precisione.

Ho scritto per Black&White 2 un renderer full HDR (con supporto fp16) e un renderer LDR con tonemapping logaritmico e autoesposizione (simile per certi versi a quello di HL2 ma con alcune differenze) e il risultato finale era perfettamente identico a livello di contrasto e saturazione, ma la versione LDR presentava in alcune situazione per forza di cose vistosi effetti di banding dovuti alla limitata precisione (8 bit per canale).

A livello matematico i8 e fp16/32 sono solo diverse rappresentazioni con diversa precisione dello stesso concetto (intensita' di ogni componente che determina la luminanza del colore) quindi non c'e' da stupirsi che il contrasto sia perfettamente identico.
Mi dispiace dover controbbattere ancora, ma assicuro che sarà il mio ultimo intervento in merito... Indipendentemente dal calcolo matematico, (ne ho sempre fatti di molti ed inutili all'università...), voglio mettere sul piatto 2 questioni sul discorso che fai tu riguardo alla inesistente differenza nel contrasto da te osservata e computata:
1) la differenza di contrasto non la si può fare tra due immagini digitali a differente precisione i8 e fp16/32, mi sembra un pò scontata la cosa soprattutto se ci si riferisce a modelli tridimensionali autoricostruiti nei quali è demandata (come dicevi te prima) alla vena artistica il peso del contrasto della scena. Il discorso và fatto sul fotorealismo e quindi sulla rappresentazione il più fedele possibile delle immagini ad un modello reale e non costruito tridimensionalmente. Il fatto che i 32bit abbiano un range limitato di colori rispetto a quel che l'uomo può apprezzare credo non sia opinabile, tra 2,4 e 14db ne passa..., quindi è rispetto alla rappresentazione reale che occorre riferirsi e l'HDR accentua le tonalità e su questo non ci piove. Che poi rispetto ad un'immagine digitale priva di questa feature non venga notato rimando al secondo punto, ma comunque limita "positivamente" come dici te il fastidioso difetto di banding.
2) Per notare l'incremento di contrasto ad esempio utilizzando un plugin HDR di photoshop, (che non menziono per non far pubblicità) occorre confrontare un'immagine digitale trattata con l'incremento dinamico di range rispetto all'originale con un monitor LCD di buon livello. Come tu mi insegni già in uno spazio a 24-bit di RGB, con 8-bits allocati per ognuno dei tre colori primari una rappresentazione più precisa non sarrebbe notata e soprattutto non verrebbe riprodotta dagli attuali monitor CRT in particolare se sia il monitor che il software sono conformi all'sRGB standard, CCIR-709 e gamma 2.2. Lo svantaggio di queste limitazioni e di non permettere la rappresentazione dei colori al di là dei limiti dell'sRGB, mi riferisco in particolare ai valori che sono troppo chiari e troppo scuri, poichè il range dinamico utilizzato è solo di circa 90:1, circa 2 ordini di grandezza. Dal contrasto, l'occhio umano può leggere e percepire un dettaglio nelle scene fotorealistiche di 4-5 ordini di grandezza maggiori, inoltre l'sRGB non riesce a coprire circa metà dei colori percepibili dall'occhio umano perdendo molte tonalità di blu-verde e viola. Oggi la tecnologia dei display si stà evolvendo rapidamente. Gli schermi piatti LCD stanno sostituendo i monitor CRT garantendo la rappresentazione dotate di una gamma dinamica maggiore che sottolinerà ancor di più certe differenze che oggi sembrano inesistenti.

Quote:
Originariamente inviato da fek
Non e' una questione di opinioni neppure qui: un'architettura che ha per alcuni aspetti un supporto alle dx9 impareggiato non puo' essere definita obsoleta.
Puoi dire che non e' adatta alle tue esigenze e su questo non c'e' da discutere, ma non che sia obsoleta perche' non lo e'.
Vorrei fare un parallelismo per rendere l'idea su cosa intenda io per obsoleto. Acquistando, ad es., un'autovettura dieci anni fà, e andandola ad acquistare adesso mi aspetto che le cose siano cambiate naturalmente. Tuttavia se la nuova mi garantisce un motore più prestazionale del precedente, ma ad esempio non ha l'aria condizionata inizio col dire, nonostante il motore sia più performante, che da quel punto di vista (mancanza di condizionatore) l'autovettura è obsoleta.
Approfitto continuando col parallelismo nel rispondere anche a Spoiker...

Quote:
Originariamente inviato da spoiker
A proposito di encoding...
Premetto che non ne so molto...ma mi piacerebbe avere una scheda di acquisizione video...esistono che sfruttano il pci-express in commercio?

A cosa ti riferisci quando parli che le nvidia non supportano tale cosa?

grazie
Il non sfruttare da parte di nVidia la velocità di scrittura del PCI Express avente il pregio di essere sincrona a quella di lettura e pari a 16x rispetto a quella asincrona dell'AGP 8x in lettura e solo 1x in scrittura per trarne dei benefici per l'encoding via GPU mi pare una scelta molto discutibile, ma rispetto anche la tua opinione poichè stiamo sempre parlando di schede "gaming oriented"... Tuttavia avere una funzione appannaggio di schede professionali in una scheda "home" credo non possa dispiacere a nessuno...

E' comunque stato un enorme piacere poter discutere con te...
NvidiaMen è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2005, 00:06   #59
capitan_crasy
Senior Member
 
L'Avatar di capitan_crasy
 
Iscritto dal: Nov 2003
Messaggi: 24170
X NvidiaMen:
ce una considerazione da fare nel tuo ragionamento:
è vero che AVIVO può essere superiore al PURE Video di Nvidia ma la serie X1600 è una scheda per giocare e quindi quello che conta sono i risultati nei giochi. Il tuo discorso può essere più indicato per la serie X1300 dove il 3D in quella fascia è poco considerato. Nessuno spende 250/200 solo per le prestazioni 2d su una scheda nata per giocare...
__________________
AMD Ryzen 9600x|Thermalright Peerless Assassin 120 Mini W|MSI MAG B850M MORTAR WIFI|2x16GB ORICO Raceline Champion 6000MHz CL30|1 M.2 NVMe SK hynix Platinum P41 1TB (OS Win11)|1 M.2 NVMe Lexar EQ790 2TB (Games)|1 M.2 NVMe Silicon Power A60 2TB (Varie)|PowerColor【RX 9060 XT Hellhound Spectral White】16GB|MSI Optix MAG241C [144Hz] + AOC G2260VWQ6 [Freesync Ready]|Enermax Revolution D.F. 650W 80+ gold|Case Antec CX700|Fans By Noctua e Thermalright
capitan_crasy è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2005, 00:11   #60
NvidiaMen
Bannato
 
L'Avatar di NvidiaMen
 
Iscritto dal: Dec 2001
Città: Palmi
Messaggi: 3241
Quote:
Originariamente inviato da dm69
certo che NvidiaMen e' un nick strano per uno che difende in questo modo un X1600...

mi sembri uno di quelli che a suo tempo difendevano il parehelia dicendo che era una scheda seria solo dopo che si era scoperto che aveva prestazioni 3D scadenti

Indipendentemente dal mio nick (a titolo informativo ho sempre acquistato schede video della casa di Santa Clara....) è giusto sottolineare anche i meriti della concorrenza. Se poi per 4tmu in meno si considera una scheda grafica di 199 dollari e piena di nuova tecnologia un "flop" credo che si esca dalla obiettività tecnica e ci si sposti a discorsi quasi di bar...
NvidiaMen è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Sony Alpha 7 V, anteprima e novità della nuova 30fps, che tende la mano anche ai creator Sony Alpha 7 V, anteprima e novità della ...
realme GT 8 Pro Dream Edition: prestazioni da flagship e anima racing da F1 realme GT 8 Pro Dream Edition: prestazioni da fl...
OVHcloud Summit 2025: le novità del cloud europeo tra sovranità, IA e quantum OVHcloud Summit 2025: le novità del cloud...
Un mostro da MSI: QD-OLED WQHD a 500 Hz con AI Care e DisplayPort 2.1a Un mostro da MSI: QD-OLED WQHD a 500 Hz con AI C...
DJI Neo 2 in prova: il drone da 160 grammi guadagna il gimbal e molto altro DJI Neo 2 in prova: il drone da 160 grammi guada...
Il veicolo riutilizzabile ESA Space Ride...
Un Mousepad per mirare meglio: uno youtu...
Tokyo Electron sotto accusa: Taiwan cont...
L'ESA sta cercando alternative all'utili...
iliad TOP 250 PLUS e TOP 300 PLUS: valan...
FRITZ! a Sicurezza 2025: connessioni WiF...
I 18enni di oggi non fanno più la...
Super offerte Apple: iPhone 16e a 529€ e...
Torres EVT arriva in Italia con listino ...
Microsoft Flight Simulator 2024 provato ...
Offerte Amazon ancora attive: Kindle, Fi...
Caldaie a gas, colpo di scena: l'UE valu...
Altro che 'scandalo De Martino', in Core...
Meta leggerà i tuoi messaggi dal ...
OpenAI entra in Thrive Holdings: nasce u...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 17:51.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1