Accelerazione hardware di AV1 su Windows 10: requisiti hardware e software

Accelerazione hardware di AV1 su Windows 10: requisiti hardware e software

Microsoft ha ricapitolato i requisiti per supportare l'accelerazione hardware per la decodifica di contenuti in formato AV1 su Windows 10. Il codec è nato per garantire contenuti ad alta qualità e risoluzione con un minore impatto su bandwidth e risorse di calcolo rispetto ad H.264 e VP9.

di pubblicata il , alle 09:31 nel canale Sistemi Operativi
MicrosoftWindows
 
42 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
michel9411 Ottobre 2020, 11:46 #11
Ho letto da qualche parte che questo formato di compressione è molto esoso di potenza computazionale per la decodifica e che a parte le royalties per adoperare l’h.265, rispetto a quest’ultimo non è che ci siano grandi miglioramenti, anzi richiede potenze hardware molto superiori.
Allora mi chiedo perché di tutto ciò?
Forse hanno creato VP1 per non pagare i diritti di h.265?
Io ho provato a guardare e un film in 4K sud un pc con i3-6100T dopo aver acquistato il codec h.265 per Windows 10.
Si, sono riuscito a vederlo ma l’esperienza d’uso con il lettore di Windows è stata pessima, il sistema sembrava arrancare e prossimo all’esplosione.
Chissà con questo VP1 che potenza mi servirà?
Si è sempre detto Negli anni passati che tutta la potenza del PC Serve per far girare Windows e u suoi componenti. 😂
the_joe11 Ottobre 2020, 11:56 #12
Originariamente inviato da: michel94
Ho letto da qualche parte che questo formato di compressione è molto esoso di potenza computazionale per la decodifica e che a parte le royalties per adoperare l’h.265, rispetto a quest’ultimo non è che ci siano grandi miglioramenti, anzi richiede potenze hardware molto superiori.
Allora mi chiedo perché di tutto ciò?
Forse hanno creato VP1 per non pagare i diritti di h.265?
Io ho provato a guardare e un film in 4K sud un pc con i3-6100T dopo aver acquistato il codec h.265 per Windows 10.
Si, sono riuscito a vederlo ma l’esperienza d’uso con il lettore di Windows è stata pessima, il sistema sembrava arrancare e prossimo all’esplosione.
Chissà con questo VP1 che potenza mi servirà?
Si è sempre detto Negli anni passati che tutta la potenza del PC Serve per far girare Windows e u suoi componenti. 😂


Sei così di natura???

Un codec molto pesante in termini di richieste di potenza computazionale secondo te fa parte o è colpa di Windows???

Forse è meglio che parli di cucito o ricamo.
coschizza11 Ottobre 2020, 12:23 #13
Originariamente inviato da: nickname88
Anzichè andare verso un miglioramente si va indietro
Con il miglioramento delle connessioni si dovrebbe andare via via verso compressioni sempre più leggeri e bitrates maggiori.

E invece non solo si comprime ancora di più come se fossimo ancora col 56K, ma addirittura si esegue un controsenso, formato più compresso ma la ricerca di una risoluzione più elevata

Se lo scopo della compressione è ridurre la quantità di dati cosa serve alzare la risoluzione ? A sto punto meglio una risoluzione minore ed una minore compressione.


Per me maggiore è la compressione da parità di qualità e meglio è
386DX4011 Ottobre 2020, 12:40 #14
Mah. Curioso che venga paragonato all' H264. Comunque sembra il solito circolo perpetuo per cui il nuovo "sembra indispensabile" per il futuro sebbene alcune riflessioni nascano spontanee. Il web per come e' diventato richiede "già" risorse estremamente elevate anche solo per leggere venti righe di testo con tutta la pesantezza che le pagine si devono portare dietro oltre a pubblicità varie, video ads che partono in automatico, risorse di calcolo richieste in background anche solo per tenere la pagina aperta etc..
Il problema della banda come gia' detto sopra c'era sicuramente ai tempi dei modem analogici su linea fissa, ma oggigiorno (sebbene le tariffe degli operatori lasciano molto a discutere) pensavo che gia' con le precedenti architetture delle gpu (se non con le potenze forse non egualmente esponenziali delle cpu) fosse possibile adattarne le unità interne a nuovi formati senza necessitare come "requisito" una nuova serie di gpu.
Certo che se le risoluzioni continuano ad aumentare senza un reale motivo raddoppiandosi senza un reale beneficio se poi alla fine gli schermi di casa o di pc sono per lo piu' gli stessi negli ultimi anni, dubito molti abbiano schermi 4K come se piovessero sulle masse.. Ma poi per cosa? Se la qualità di un video in streaming in FullHD (1080p) fa pena in confronto ad un supporto blu-ray alla stessa risoluzione preferirei avere meno pixel da gestire e piu' dettaglio cosa che da sempre si vede in fotografia laddove fotocamere reflex di fascia altissima hanno 20 megapixel e cellulari con sensori da punta di spillo ne hanno 100.
Poi ovvio ben vengano nuove logiche che permettano compressioni incredibili mantenendo (presumibilmente..) qualita'; quando venni a sapere della differenza tra il wav e l'mp3 negli anni 90 rimasi sbalordito sebbene le risorse di calcolo cosi' come per l' MPEG2 furono non certo "leggere". Ma preoccupa di piu' il facile ricambio che l'hardware oggigiorno ha, basti vedere i telefoni già obsoleti al lancio quasi.
coschizza11 Ottobre 2020, 12:45 #15
Originariamente inviato da: 386DX40
Mah. Curioso che venga paragonato all' H264. Comunque sembra il solito circolo perpetuo per cui il nuovo "sembra indispensabile" per il futuro sebbene alcune riflessioni nascano spontanee. Il web per come e' diventato richiede "già" risorse estremamente elevate anche solo per leggere venti righe di testo con tutta la pesantezza che le pagine si devono portare dietro oltre a pubblicità varie, video ads che partono in automatico, risorse di calcolo richieste in background anche solo per tenere la pagina aperta etc..
Il problema della banda come gia' detto sopra c'era sicuramente ai tempi dei modem analogici su linea fissa, ma oggigiorno (sebbene le tariffe degli operatori lasciano molto a discutere) pensavo che gia' con le precedenti architetture delle gpu (se non con le potenze forse non egualmente esponenziali delle cpu) fosse possibile adattarne le unità interne a nuovi formati senza necessitare come "requisito" una nuova serie di gpu.
Certo che se le risoluzioni continuano ad aumentare senza un reale motivo raddoppiandosi senza un reale beneficio se poi alla fine gli schermi di casa o di pc sono per lo piu' gli stessi negli ultimi anni, dubito molti abbiano schermi 4K come se piovessero sulle masse.. Ma poi per cosa? Se la qualità di un video in streaming in FullHD (1080p) fa pena in confronto ad un supporto blu-ray alla stessa risoluzione preferirei avere meno pixel da gestire e piu' dettaglio cosa che da sempre si vede in fotografia laddove fotocamere reflex di fascia altissima hanno 20 megapixel e cellulari con sensori da punta di spillo ne hanno 100.


Adattare le unità interne di una gpu per decodificare un nuovo formato vuol dire consumare 100w per fare quello che si fa con unità specifiche in 1w, quindi ormai sono anni che non si fa più perché è la cosa meno efficiente che esiste in informatica.
I cellulari con 100 megapixel usano più pixel per generare un solo sub pixel quindi non è riferito alla risoluzione dell’immagine finale.
386DX4011 Ottobre 2020, 12:53 #16
Originariamente inviato da: coschizza
Adattare le unità interne di una gpu per decodificare un nuovo formato vuol dire consumare 100w per fare quello che si fa con unità specifiche in 1w, quindi ormai sono anni che non si fa più perché è la cosa meno efficiente che esiste in informatica.
I cellulari con 100 megapixel usano più pixel per generare un solo sub pixel quindi non è riferito alla risoluzione dell’immagine finale.

Ma intanto le schede video sono già fatte per consumare nel loro range di consumo da (es.) 20W (immagino realisticamente avendo anche varie GUI da accelerare) a (es.) 300W, poco importa se alla fine deve "faticare" di piu', ammettendo siano nelle condizioni di farlo tecnicamente per lunghi periodi di tempo come appunto vedere che so' ore di conferenze in 4K in streaming, semmai imho importa non dover spendere che so' 500 euro per comprare una nuova scheda video. Basti pensare a quanti ora stanno vendendo schede video di fascia alta perche' surclassate gia' dopo poco tempo.
Intanto gia' oggigiorno i requisiti hardware per un pc di fascia alta in termini di consumo sono tutto fuorchè ragionevoli.. alimentatori da 1000W che manco un frigorifero o un fornetto, dissipatori che nemmeno un monocilindro da 650cc di un vecchio motociclo aveva.. boh..

Sulle fotocamere alla fine quel che viene venduto e che si ottiene e' la risoluzione finale. Se viene venduta ed effettivamente pesa 100 megapixel, certo viene l'ovvio dubbio e risposta suddetta di come mai le reflex abbiano un quinto di quella risoluzione per foto n volte migliori, ma cio' non toglie che chi le compra crede che i 100 megapixel ("reali" in termini di file/num.pixel finale) siano necessari a foto migliori.
coschizza11 Ottobre 2020, 12:56 #17
Originariamente inviato da: 386DX40
Ma intanto le schede video sono già fatte per consumare nel loro range di consumo da (es.) 20W a (es.) 300W, poco importa se alla fine deve "faticare" di piu', ammettendo siano nelle condizioni di farlo tecnicamente per lunghi periodi di tempo come appunto vedere che so' ore di conferenze in 4K in streaming, semmai imho importa non dover spendere che so' 500 euro per comprare una nuova scheda video. Basti pensare a quanti ora stanno vendendo schede video di fascia alta perche' surclassate gia' dopo poco tempo.
Intanto gia' oggigiorno i requisiti hardware per un pc di fascia alta in termini di consumo sono tutto fuorchè ragionevoli.. alimentatori da 1000W che manco un frigorifero o un fornetto, dissipatori che nemmeno un monocilindro da 650cc di un vecchio motociclo aveva.. boh..

Sulle fotocamere alla fine quel che viene venduto e che si ottiene e' la risoluzione finale. Se viene venduta ed effettivamente pesa 100 megapixel, certo viene l'ovvio dubbio di come mai le reflex abbiano un quinto di quella risoluzione ma cio' non toglie che chi le compra crede che i 100 megapixel (reali in termini di file finale) siano necessari a foto migliori.


Nessuno vuole guardare un film con il pc a palla che consuma 200w e le ventole rumorose se posso vedere la stessa cosa ci un chip dedicato che consuma 2w è raffreddato in passivo. Ha o smesso di fare queste cose per questo motivo
I cellulari con 100 megapixel non sono reali sono usati per scalare L immagine raggruppando più pixel in 1. Non esistono cellulari che salvano immagini in quella risoluzione non serve e sarebbe un controsenso
the_joe11 Ottobre 2020, 12:57 #18
Originariamente inviato da: coschizza
I cellulari con 100 megapixel usano più pixel per generare un solo sub pixel quindi non è riferito alla risoluzione dell’immagine finale.


E ad oggi non è stato dimostrato che 100MP ridotti a 25 siano meglio di 25 sfruttati appieno.

A parte che è possibile scattare foto da 100MP con risoluzione da 100MP.

Il risultato è dato dalla qualità dell'intelligenza artificiale che interpreta le fotografie, di certo non è intrinseca nei 100MP di un sensore formato unghia del mignolo.
386DX4011 Ottobre 2020, 13:03 #19
Originariamente inviato da: coschizza
Nessuno vuole guardare un film con il pc a palla che consuma 200w e le ventole rumorose se posso vedere la stessa cosa ci un chip dedicato che consuma 2w è raffreddato in passivo. Ha o smesso di fare queste cose per questo motivo


Mi chiedo se allora non sia piu' "conveniente" comprare un lettore dedicato da casa, il supporto fisico del film e avere uno strumento "teoricamente" piu' durevole che non usare risorse di calcolo stratosferiche per risultati che imho lasciano sempre un po' a discutere.
Di recente avendo aggiornato (per cosi' dire sempre un PC vecchio e') la mia configurazione principale, posso valutare lo streaming in HD (720p) via GPU su un monitor da 15" ("768p".. beh quasi che i DVD in MPEG2 a 720x576 pur con upscaling "fotonico" delle gpu "moderne" si vedono meglio.. anzi anche senza il quasi.

Ma anche sul consumo qualcuno potrebbe cominciare a chiedersi se tanto calore da dissipare sia "concettualmente" ragionevole se poi devo "sperare" che tutte le ventole rimangano spente se no il computer prende il volo... forse che avrebbe piu' senso una curva di potenza/consumi piu' terrena invece di dover giocare o ascoltare musica con le cuffie causa effetto aereoplano?
coschizza11 Ottobre 2020, 13:03 #20
Originariamente inviato da: the_joe
A parte che è possibile scattare foto da 100MP con risoluzione da 100MP.


Su quali cellulari? Non ho mai letto una recensione che diceva che si poteva fare

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^