View Full Version : Accelerazione High Definition in hardware per R520
Redazione di Hardware Upg
27-05-2005, 10:46
Link alla notizia: http://www.hwupgrade.it/news/skvideo/14703.html
Al Computex di Taipei ATI mostrerà un sistema di accelerazione hardware per filmati in high definition, implementato nella propria futura architettura R520
Click sul link per visualizzare la notizia.
Logico68
27-05-2005, 10:57
bhé... a dire il vero ho sempre avuto la sensazione che ATi avrebbe realizzato un prodotto di fascia alta migliore della concorrenza... inizio ad esserne sempre più certo...
Sig. Stroboscopico
27-05-2005, 10:57
Sarebbero comode se le attivassero anche in compressione come fanno le AIW e le Vivo penso.
Altro dubbio... installando i codec vari, tipo i h.264, mp2, ecc... come si fa a essere sicuri che sia la scheda video a processare e non il processore?
Ciao e grazie!
In parole povere riusciremo a vedere i film sul pc senza stressare troppo il processore?
chi perfavore mi puo' spiegare questa frase?
"La tecnologia di compressione H.264 permette di utilizzare video con risoluzioni high definition, 1280x720 oppure 1920x1080, in abbinamento ad un bit rate variabile tra gli 8 e i 10 Mbit al secondo. Senza questo tipo di tecnologia i valori di Mbit secondo salirebbero tra i 15 e i 20."
Non capisco dove il bit rate possa variare, 8-10 Mbit dove vengono intesi?
e i 15-20?
Grazie!
Basta guardare la cpu con e senza la scheda, l'utilizzo si dovrebbe abbassare di un pò (non so quantificare quanto, ma dai rapporti di compressione il lavoro dovrebbe essere la metà. Ammetto però di non capirci molto di video e bitrate, quindi forse non è vero :)).
heavymetalforever
27-05-2005, 11:07
Penso che trattandosi di compressione intende che il video compresso con quel formato ha un bitrate decisamente inferiore perchè compresso, circa la metà.
Prendi un .Wav il bitrate è 1520Kbps
Prendi un Mp3 il bitrate è da 64 a 320 kbps.
Quindi
15-20 vuol dire quello nn compresso (come l'avi non compresso per intenderci)
10 vuol dire quello compresso (come il divx per intenderci).
Ciauz,
Bye
"Senza questo tipo di tecnologia i valori di Mbit secondo salirebbero tra i 15 e i 20" non è la prima volta che sento questi concetti ma mi son sempre sembrati erronei. Su wmvhd.com si possono vedere vari sample di .wmv a 1920x1080 che non superano i 10Mb/s e sono di ottima qulità. Idem se fossero .avi con codec divx o xvid. Ognuno può far la prova da sè. Vero è che H.264 è + efficiente e potrebbe portare il bitrate necessario verso i 6-7 Mb/s.
avvelenato
27-05-2005, 11:21
Commento # 5 di: heavymetalforever pubblicato il 27 Maggio 2005, 12:07
Per Zerk
Penso che trattandosi di compressione intende che il video compresso con quel formato ha un bitrate decisamente inferiore perchè compresso, circa la metà.
Prendi un .Wav il bitrate è 1520Kbps
Prendi un Mp3 il bitrate è da 64 a 320 kbps.
Quindi
15-20 vuol dire quello nn compresso (come l'avi non compresso per intenderci)
10 vuol dire quello compresso (come il divx per intenderci).
Ciauz,
Bye
secondo me no, secondo me si fa un confronto tra la precedente soluzione già supportata in hw, ovvero mpeg2.
non compresso, un filmato da 1920x1080x24bitsx25fps=1244160000 bps= circa 1244 Mb/s! :D
Pinco Pallino #1
27-05-2005, 11:36
Sono un po' perplesso... :mbe:
Monitor e televisori LCD a breve potranno visualizzare più del 90% dello spazio colore NTSC e si adottano codec con rapporto di compressione ancora più spinto.
Non dimentichiamo che si tratta di compressioni "con perdita" che vanno a segare via tutto ciò che "normalmente" lo spettatore non può percepire o le periferiche non possono riprodurre.
Che senso ha allargare il tubo e allo stesso tempo diminuire il flusso dell'acqua?
Andiamo verso un video con risoluzione superiore ma una frazione dei colori che si possono visualizzare?
:wtf:
eta_beta
27-05-2005, 11:46
mpeg2 15-20
mpeg4 8-10
dire non compresso significa
HDTV 148,31MB/s
TV 31,6 MB/s
un ora di TV 111,0 GB :)
X Pinco Pallino #1
la cosa + brutta non è la compressione MPEG 1- 2- 4 -7 etc
ma la compressione da 4:4:4 a 4:2:0 o 4:1:1 o ancora peggiori
samslaves
27-05-2005, 11:46
Scusate ma Final Cut Studio non fa gia' la stessa cosa?
samslaves
27-05-2005, 11:48
Mi rispondo da solo: SI.
In parole povere riusciremo a vedere i film sul pc senza stressare troppo il processore?
chi perfavore mi puo' spiegare questa frase?
"La tecnologia di compressione H.264 permette di utilizzare video con risoluzioni high definition, 1280x720 oppure 1920x1080, in abbinamento ad un bit rate variabile tra gli 8 e i 10 Mbit al secondo. Senza questo tipo di tecnologia i valori di Mbit secondo salirebbero tra i 15 e i 20."
Non capisco dove il bit rate possa variare, 8-10 Mbit dove vengono intesi?
e i 15-20?
Grazie!
Il bitrate dipende tipicamente dal tipo di filmato che si deve comprimere. Se contiene molte scene con rapidi cambi di inquadratura, ad esempio e se il codec non prevede il bitrate variabile, vedrai delle imprecisioni a video perche' diminuisce la coerenza fra un frame e l'altro e aumenta la quantita' di dati richiesta per rappresentare l'informazione. Se il codec e' a bit rate variabile (mi sembra di ricordare che H.264 sia anche a bit rate variabile), vedrai solo un aumento della banda richiesta per la trasmissione del video.
Si parla di Mbit al secondo nella news. Un'ADSL standard in Italia oggi ha picchi di 4 Mbit/sec, quindi e' ancora relativamente lontana dal poter trasferire filmati in HD anche compressi in H.264.
Non dimentichiamo che si tratta di compressioni "con perdita" che vanno a segare via tutto ciò che "normalmente" lo spettatore non può percepire o le periferiche non possono riprodurre.
Beh, tutte le compressioni audio video di una certa consistenza sono con perdita. Si basano di solito su considerazioni psicometriche: perche' trasferire informazioni che un utente normale non sarebbe in grado di percepire e apprezzare? Senza queste considerazioni sarebbe quasi impossibile comprimere il video di modo da poterlo trasmettere con le tecnologie di trasmissione di oggi.
Piu' miglioreranno le linee trasmissive, piu' i codec tenderanno a diminuire l'incidenza della parte lossy del loro algoritmo.
qui c'è chi sbandiera per certo il fatto che l'ATI uscirà con un prodotto migliore della concorrenza.....
qualcuno mi spiegherebbe il perchè visto che la Nvisia non si è fatta sfuggire il minimo dato sulle proprie schede? perchè queste certezze? su quali basi?
grazie
Sulle basi che ATi è sempre stata avanti almeno nel 2D rispetto a nVidia e nn è appunto una cosa nuova.
R300 già integrava il FullStream, tecnologia che usava i Pixel Shader per la decodifica video, nVidia c'è arrivata da poco con le 6600GT con Pure Video (mi pare si chiami così) che forse è più avanzato proprio per il fatto che più recente.
Se dico castronerie fatemelo presente :p
JohnPetrucci
27-05-2005, 13:53
bhé... a dire il vero ho sempre avuto la sensazione che ATi avrebbe realizzato un prodotto di fascia alta migliore della concorrenza... inizio ad esserne sempre più certo...
IMHO è prematuro dare giudizi simili, pur riconoscendo che in termini di riproduzione video Ati è da anni la vincitrice.
dotlinux
27-05-2005, 13:53
Si sapeva da tempo questa cosa e anche Nvidia avrà le stesse funzionalità.
D'altronde le hanno le prossime console che guardacaso utilizzano chip ati/nvidia.
L'esempio del tubo dell'acqua nn calza xchè è un liquido e quindi nn comprimibile. Immgina invece il tuobo del gas! Allargano il tubo del gas e nello stesso tempo aumentano la pressione con cui passa. All'uscita avrai maggior gas! :D
E' una soluzione decisamente interessante ma mi chiedevo una cosa. Non va a toccare un segmento che invece e' proprio delle televisioni? Non sono formati 16:9 laddove sui normalissimi PC vige il 4:3? :confused: Sembrano risoluzioni da schermo wide. :confused:
Se qualcuno mi illumina ne sarei grato.
Crisidelm
27-05-2005, 16:14
Ho registrato l'altra sera, sul canale tedesco FTA via satellite ProSiebenHD, i rigori della finale di CL in formato 1080i: alla fine ne è uscito un file Mpeg2 di circa 820Mb
E' una soluzione decisamente interessante ma mi chiedevo una cosa. Non va a toccare un segmento che invece e' proprio delle televisioni? Non sono formati 16:9 laddove sui normalissimi PC vige il 4:3? :confused: Sembrano risoluzioni da schermo wide. :confused:
Se qualcuno mi illumina ne sarei grato.
Stanno uscendo i primi monitor LCD widescreen per PC. Ce n'e' uno nell'area testing. Quanto e' bello :D
HO CAPITO DEVO BUTTARE LA MIA X850XT COMPRATA DA 2 SETTIMANE
matboscolo
27-05-2005, 19:23
Stanno uscendo i primi monitor LCD widescreen per PC. Ce n'e' uno nell'area testing. Quanto e' bello :D
Sono usciti da un pezzo, ne ho uno della samsung da circa 2 anni :)
Forse sto vaneggiando, comunque se Ati fa una roba del genere sicuramente con G70 o al max la scheda successiva anche nVidia si adeguerà --> il formato si diffonde di più --> anche le gpu integrate di Intel supporteranno il codec in maniera hardware. Comunque probabilmente sto sparando cagate.
matboscolo
27-05-2005, 19:28
Prendi un .Wav il bitrate è 1520Kbps
44100 x 16 x 2 = 1411200 (bit al secondo)
1411200 / 1024 = 1378 Kbps
magilvia
27-05-2005, 20:03
Sono un po' perplesso...
Monitor e televisori LCD a breve potranno visualizzare più del 90% dello spazio colore NTSC e si adottano codec con rapporto di compressione ancora più spinto.
Non dimentichiamo che si tratta di compressioni "con perdita" che vanno a segare via tutto ciò che "normalmente" lo spettatore non può percepire o le periferiche non possono riprodurre.
Che senso ha allargare il tubo e allo stesso tempo diminuire il flusso dell'acqua?
Andiamo verso un video con risoluzione superiore ma una frazione dei colori che si possono visualizzare?
No aspetta, I codec avanzati come divx, wmv e xvid sono si lossy ma hanno una capacità di compressione molto migliore del vecchio e obsoleto MPEG2. Cioè puoi ottenere file grandi 1/3 con la stessa qualità di un MPEG2. Nel nostro caso se dimezziamo la disponibilità di bit per qusti codec abbiamo comunque un vantaggio sul vecchio MPEG2.
In più c'è da dire che H.264 pur essendo ancora nuovo è già migliore dei codec che ho citato, quindi alla fine vedi si guadagna e anche tanto.
Sono usciti da un pezzo, ne ho uno della samsung da circa 2 anni :)
Dammi subito il link ad un buon modello :)
Forse sto vaneggiando, comunque se Ati fa una roba del genere sicuramente con G70 o al max la scheda successiva anche nVidia si adeguerà --> il formato si diffonde di più --> anche le gpu integrate di Intel supporteranno il codec in maniera hardware. Comunque probabilmente sto sparando cagate.
Mi e' piaciuto in particolar modo, questo ragionamento :sofico:
Basato su sillogismi ipotetici deduttivi. :sofico:
Con conclusione finale che in Intelligenza Artificiale si chiama "stato incerto".
Fantastico. Dovresti dedicarti alla programmazione. ;)
Beh ma io mi dedico ai film di Steven Seagal, non è la stessa cosa?
Stanno uscendo i primi monitor LCD widescreen per PC. Ce n'e' uno nell'area testing. Quanto e' bello :D
Attualmente gli LCD non mi danno nessuna gratificazione rispetto ad un buon tubo CRT Diamondtron ;) E se continuano di sto passo penso che non me ne daranno mai.
matboscolo
27-05-2005, 21:38
Dammi subito il link ad un buon modello :)
Quelli di adesso non li conosco. Io ho un samsung 172w ma adesso sicuramente è superato in prestazioni. Cmq sono soddisfatto, dei crt non ne potevo più, io non faccio grafica col pc, quindi non mi serve la perfezione nella resa cromatica. Quand'è uscito il mio monitor avevo letto le prove in più di una rivista ed hanno sempre parlato bene, purtroppo non so dirti cosa offra oggi il mercato, non sono aggiornato :)
Pinco Pallino #1
28-05-2005, 10:53
Il più popolare attualmente è di sicuro il 24'' Dell 2405FPW:
http://www.prad.de/guide/screen1726.html
http://accessories.us.dell.com/sna/images/products/large/dp_t6133.jpg
^TiGeRShArK^
28-05-2005, 12:31
Mi rispondo da solo: SI.
guarda io final cut studio non lo conosco proprio x niente...... sarà bellissimo, potentissimo, il migliore al mondo x fare montaggio video, e fin qua lo potrei anke accettare....
ma ke mi vieni a dire ke usa una skeda video NON progettata appositamente x la decodifica H.264 per scaricare il lavoro dal processore.... mi pare una kazzata bella e buona!
*sasha ITALIA*
28-05-2005, 12:47
Apple Cinemastudio 23"
http://images.apple.com/displays/gallery/images/front20050427.jpg
1900x1200 .... mi sa che diverrà la mia futura HDTV
Sarà, ma io mi tengo il mio Thomson flat screen, col DVD e l' home theater 5.1 Harman Kardon, alla faccia di tutti quelli che si vedono i film su squallidi monitor da pc.
Ciao :)
sblantipodi
28-05-2005, 19:07
Sarà, ma io mi tengo il mio Thomson flat screen, col DVD e l' home theater 5.1 Harman Kardon, alla faccia di tutti quelli che si vedono i film su squallidi monitor da pc.
Ciao :)
sai c'e' gente che non usa il monitor PC per guardare i film ;)
sai c'e' gente che non usa il monitor PC per guardare i film ;)
Esatto....mediacenter non vi dice nulla??? Un pc con media center attaccato ad un lcd da 42" tramite dvi sarebbe perfetto. :sisi:
CONFITEOR
29-05-2005, 11:28
Sono un po' perplesso... :mbe:
Monitor e televisori LCD a breve potranno visualizzare più del 90% dello spazio colore NTSC e si adottano codec con rapporto di compressione ancora più spinto.
Non dimentichiamo che si tratta di compressioni "con perdita" che vanno a segare via tutto ciò che "normalmente" lo spettatore non può percepire o le periferiche non possono riprodurre.
Che senso ha allargare il tubo e allo stesso tempo diminuire il flusso dell'acqua?
Andiamo verso un video con risoluzione superiore ma una frazione dei colori che si possono visualizzare?
:wtf:
Quando si paragonano i bitrate, si intende alla stessa qualità percepita, l'h264 è semplicemente più efficente dell'mpeg2,
ciò si paga con un grande aumento delle risorse necessaria a comprimerlo e decomprimerlo,
probabilmente un h264 anche solo a 720x576 non viene riprodotto bene nemmeno da un 3000, ci vorrebbe un dual core.
e del resto gli accelleratori erano necessari anche per l'mpeg2 su processori inferiori al 700,
per questo fu creato l'avi, per avere video riproducibili su cpu lente senza accelleratore grafico,
i vecchi codecs avi-indeo, a 15 fps e senza b-frames, comprimevano però meno dell'mpg
ShinjiIkari
29-05-2005, 12:52
H.264 è il futuro dei codec di compressione video, altamente efficiente, altamente esoso come hardware per la riproduzione. Per esperienza posso dirvi che sul mio G4 1.42GHz, un trailer in h.264 a 852x362, quindi già piu alta dei dvd (720x576, però quelli sono 4:3 con le bande nere quindi l'area visibile è 720x306 nel formato 2,35:1 tipico dei film), la riproduzione era perfetta, mentre quello in HD a 1280x544 scattava sulle scene piu complesse e ricche di dettagli. Il minimo è un G4 1.67ghz o G5 1.6GHz o P4 2-2.4GHz circa (non ho mai provato su pc) per sfruttare l'HD. Non vi dico neanche cosa ci vuole per il 1080i (1920x1200). Può sembrare una cosa fattibile visto quanto sono potenti i processori attuali e visto che siamo ancora a livello di esperimento di questa nuova tecnlogia, però se ci pensate un attimo, vedere i film con la cpu al 100% di utilizzo non è una bella cosa, le ventole galoppano, la corrente scorre come un fiume, su un portatile la batteria dura sì e no 1 ora in condizioni del genere. La mossa di ATI era obbligata, spero arrivino presto queste schede video, e soprattutto che tale funzionalità sia integrata anche nei modelli di fascia bassa di prossima generazione.
C'è da dire comunque che per queste cose ATI è stata sempre avanti a Nvidia, se pensate al supporto IDCT per la decodifica MPEG2, è stato integrato già nelle ATI Rage II, robetta del 96-97 e infatti i dvd si vedevano fluidi anche su un p2 233. Nvidia per dare il pieno supporto a MPEG2 ha aspettato la geforce4. Sono passati un bel po' di anni e nel frattempo l'unico modo per vedere i dvd su cpu minori di 7-800MHz era avere una scheda ATi.
CONFITEOR
29-05-2005, 13:07
H.264 è il futuro dei codec di compressione video, altamente efficiente, altamente esoso come hardware per la riproduzione. Per esperienza posso dirvi che sul mio G4 1.42GHz, un trailer in h.264 a 852x362, quindi già piu alta dei dvd (720x576, però quelli sono 4:3 con le bande nere quindi l'area visibile è 720x306 nel formato 2,35:1 tipico dei film), la riproduzione era perfetta, ....
2 cose, ovviamente intendevo una risoluzione 720x576 nativa 4:3, cioè con tutto lo schermo occupato,
poi bisogna vedere come sono stati codificati gli h264 che hai visto, esistono anche codifiche "leggere" che non utilizzano cioè tutte le features di questo nuovo codec, e che sono perciò più facilmente riproducibili.
ShinjiIkari
29-05-2005, 13:20
Potete provarli anche voi i trailer che ho provato io: www.apple.com/trailers
Fatemi sapere se qualcuno riesce a riprodurre fluidamente quelli a 1080i :D
Esatto....mediacenter non vi dice nulla??? Un pc con media center attaccato ad un lcd da 42" tramite dvi sarebbe perfetto
Contento tu: io continuerò a preferire un sistema dedicato all'home theater, invece del pc; e poi media center quanto avrà venduto?
E poi pensa te che bello mentre ti vedi un film, ti si impalla winzozz con un bel BSOD :)
magilvia
30-05-2005, 21:06
Fatemi sapere se qualcuno riesce a riprodurre fluidamente quelli a 1080i
Azz ho guardato solo the Island ma nel momento in cui il tipo casca in acqua per un'istante il processore schizza al 100% e scatta, nel resto del filmato si attesta sul 30%. Ma lol non basta manco un A64 3000+ ????
CONFITEOR
30-05-2005, 21:48
Azz ho guardato solo the Island ma nel momento in cui il tipo casca in acqua per un'istante il processore schizza al 100% e scatta, nel resto del filmato si attesta sul 30%. Ma lol non basta manco un A64 3000+ ????
In effetti non c'è alcuna differenza sostanziale fra divx e h264, il divx è mpeg4.2, e l'h264 è mpeg4.10, sono cioè lo stesso progetto rispettivamente a uno stadio iniziale e allo stadio completo.
L'mpeg4 non fu implementato completamente fin dall'inizio proprio per l'esosità delle risorse hw che richiedeva.
Crisidelm
31-05-2005, 10:08
Contento tu: io continuerò a preferire un sistema dedicato all'home theater, invece del pc; e poi media center quanto avrà venduto?
E poi pensa te che bello mentre ti vedi un film, ti si impalla winzozz con un bel BSOD :)
Non occorre mica per forza Windows MC: con WindowsXp non mi è mai capitato che s'impallasse guardando 1080i (ma Mpeg2). E neanche i DVD speciali che sfruttano i codec WMV9 per l'HD. La cpu è un P4 3.0GHz "C".
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.