Accelerazione hardware di AV1 su Windows 10: requisiti hardware e software

Microsoft ha ricapitolato i requisiti per supportare l'accelerazione hardware per la decodifica di contenuti in formato AV1 su Windows 10. Il codec è nato per garantire contenuti ad alta qualità e risoluzione con un minore impatto su bandwidth e risorse di calcolo rispetto ad H.264 e VP9.
di Manolo De Agostini pubblicata il 11 Ottobre 2020, alle 09:31 nel canale Sistemi OperativiMicrosoftWindows
42 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoAllora mi chiedo perché di tutto ciò?
Forse hanno creato VP1 per non pagare i diritti di h.265?
Io ho provato a guardare e un film in 4K sud un pc con i3-6100T dopo aver acquistato il codec h.265 per Windows 10.
Si, sono riuscito a vederlo ma l’esperienza d’uso con il lettore di Windows è stata pessima, il sistema sembrava arrancare e prossimo all’esplosione.
Chissà con questo VP1 che potenza mi servirà?
Si è sempre detto Negli anni passati che tutta la potenza del PC Serve per far girare Windows e u suoi componenti. 😂
Allora mi chiedo perché di tutto ciò?
Forse hanno creato VP1 per non pagare i diritti di h.265?
Io ho provato a guardare e un film in 4K sud un pc con i3-6100T dopo aver acquistato il codec h.265 per Windows 10.
Si, sono riuscito a vederlo ma l’esperienza d’uso con il lettore di Windows è stata pessima, il sistema sembrava arrancare e prossimo all’esplosione.
Chissà con questo VP1 che potenza mi servirà?
Si è sempre detto Negli anni passati che tutta la potenza del PC Serve per far girare Windows e u suoi componenti. 😂
Sei così di natura???
Un codec molto pesante in termini di richieste di potenza computazionale secondo te fa parte o è colpa di Windows???
Forse è meglio che parli di cucito o ricamo.
Con il miglioramento delle connessioni si dovrebbe andare via via verso compressioni sempre più leggeri e bitrates maggiori.
E invece non solo si comprime ancora di più come se fossimo ancora col 56K, ma addirittura si esegue un controsenso, formato più compresso ma la ricerca di una risoluzione più elevata
Se lo scopo della compressione è ridurre la quantità di dati cosa serve alzare la risoluzione ? A sto punto meglio una risoluzione minore ed una minore compressione.
Per me maggiore è la compressione da parità di qualità e meglio è
Il problema della banda come gia' detto sopra c'era sicuramente ai tempi dei modem analogici su linea fissa, ma oggigiorno (sebbene le tariffe degli operatori lasciano molto a discutere) pensavo che gia' con le precedenti architetture delle gpu (se non con le potenze forse non egualmente esponenziali delle cpu) fosse possibile adattarne le unità interne a nuovi formati senza necessitare come "requisito" una nuova serie di gpu.
Certo che se le risoluzioni continuano ad aumentare senza un reale motivo raddoppiandosi senza un reale beneficio se poi alla fine gli schermi di casa o di pc sono per lo piu' gli stessi negli ultimi anni, dubito molti abbiano schermi 4K come se piovessero sulle masse.. Ma poi per cosa? Se la qualità di un video in streaming in FullHD (1080p) fa pena in confronto ad un supporto blu-ray alla stessa risoluzione preferirei avere meno pixel da gestire e piu' dettaglio cosa che da sempre si vede in fotografia laddove fotocamere reflex di fascia altissima hanno 20 megapixel e cellulari con sensori da punta di spillo ne hanno 100.
Poi ovvio ben vengano nuove logiche che permettano compressioni incredibili mantenendo (presumibilmente..) qualita'; quando venni a sapere della differenza tra il wav e l'mp3 negli anni 90 rimasi sbalordito sebbene le risorse di calcolo cosi' come per l' MPEG2 furono non certo "leggere". Ma preoccupa di piu' il facile ricambio che l'hardware oggigiorno ha, basti vedere i telefoni già obsoleti al lancio quasi.
Il problema della banda come gia' detto sopra c'era sicuramente ai tempi dei modem analogici su linea fissa, ma oggigiorno (sebbene le tariffe degli operatori lasciano molto a discutere) pensavo che gia' con le precedenti architetture delle gpu (se non con le potenze forse non egualmente esponenziali delle cpu) fosse possibile adattarne le unità interne a nuovi formati senza necessitare come "requisito" una nuova serie di gpu.
Certo che se le risoluzioni continuano ad aumentare senza un reale motivo raddoppiandosi senza un reale beneficio se poi alla fine gli schermi di casa o di pc sono per lo piu' gli stessi negli ultimi anni, dubito molti abbiano schermi 4K come se piovessero sulle masse.. Ma poi per cosa? Se la qualità di un video in streaming in FullHD (1080p) fa pena in confronto ad un supporto blu-ray alla stessa risoluzione preferirei avere meno pixel da gestire e piu' dettaglio cosa che da sempre si vede in fotografia laddove fotocamere reflex di fascia altissima hanno 20 megapixel e cellulari con sensori da punta di spillo ne hanno 100.
Adattare le unità interne di una gpu per decodificare un nuovo formato vuol dire consumare 100w per fare quello che si fa con unità specifiche in 1w, quindi ormai sono anni che non si fa più perché è la cosa meno efficiente che esiste in informatica.
I cellulari con 100 megapixel usano più pixel per generare un solo sub pixel quindi non è riferito alla risoluzione dell’immagine finale.
I cellulari con 100 megapixel usano più pixel per generare un solo sub pixel quindi non è riferito alla risoluzione dell’immagine finale.
Ma intanto le schede video sono già fatte per consumare nel loro range di consumo da (es.) 20W (immagino realisticamente avendo anche varie GUI da accelerare) a (es.) 300W, poco importa se alla fine deve "faticare" di piu', ammettendo siano nelle condizioni di farlo tecnicamente per lunghi periodi di tempo come appunto vedere che so' ore di conferenze in 4K in streaming, semmai imho importa non dover spendere che so' 500 euro per comprare una nuova scheda video. Basti pensare a quanti ora stanno vendendo schede video di fascia alta perche' surclassate gia' dopo poco tempo.
Intanto gia' oggigiorno i requisiti hardware per un pc di fascia alta in termini di consumo sono tutto fuorchè ragionevoli.. alimentatori da 1000W che manco un frigorifero o un fornetto, dissipatori che nemmeno un monocilindro da 650cc di un vecchio motociclo aveva.. boh..
Sulle fotocamere alla fine quel che viene venduto e che si ottiene e' la risoluzione finale. Se viene venduta ed effettivamente pesa 100 megapixel, certo viene l'ovvio dubbio e risposta suddetta di come mai le reflex abbiano un quinto di quella risoluzione per foto n volte migliori, ma cio' non toglie che chi le compra crede che i 100 megapixel ("reali" in termini di file/num.pixel finale) siano necessari a foto migliori.
Intanto gia' oggigiorno i requisiti hardware per un pc di fascia alta in termini di consumo sono tutto fuorchè ragionevoli.. alimentatori da 1000W che manco un frigorifero o un fornetto, dissipatori che nemmeno un monocilindro da 650cc di un vecchio motociclo aveva.. boh..
Sulle fotocamere alla fine quel che viene venduto e che si ottiene e' la risoluzione finale. Se viene venduta ed effettivamente pesa 100 megapixel, certo viene l'ovvio dubbio di come mai le reflex abbiano un quinto di quella risoluzione ma cio' non toglie che chi le compra crede che i 100 megapixel (reali in termini di file finale) siano necessari a foto migliori.
Nessuno vuole guardare un film con il pc a palla che consuma 200w e le ventole rumorose se posso vedere la stessa cosa ci un chip dedicato che consuma 2w è raffreddato in passivo. Ha o smesso di fare queste cose per questo motivo
I cellulari con 100 megapixel non sono reali sono usati per scalare L immagine raggruppando più pixel in 1. Non esistono cellulari che salvano immagini in quella risoluzione non serve e sarebbe un controsenso
E ad oggi non è stato dimostrato che 100MP ridotti a 25 siano meglio di 25 sfruttati appieno.
A parte che è possibile scattare foto da 100MP con risoluzione da 100MP.
Il risultato è dato dalla qualità dell'intelligenza artificiale che interpreta le fotografie, di certo non è intrinseca nei 100MP di un sensore formato unghia del mignolo.
Mi chiedo se allora non sia piu' "conveniente" comprare un lettore dedicato da casa, il supporto fisico del film e avere uno strumento "teoricamente" piu' durevole che non usare risorse di calcolo stratosferiche per risultati che imho lasciano sempre un po' a discutere.
Di recente avendo aggiornato (per cosi' dire sempre un PC vecchio e') la mia configurazione principale, posso valutare lo streaming in HD (720p) via GPU su un monitor da 15" ("768p"
Ma anche sul consumo qualcuno potrebbe cominciare a chiedersi se tanto calore da dissipare sia "concettualmente" ragionevole se poi devo "sperare" che tutte le ventole rimangano spente se no il computer prende il volo... forse che avrebbe piu' senso una curva di potenza/consumi piu' terrena invece di dover giocare o ascoltare musica con le cuffie causa effetto aereoplano?
Su quali cellulari? Non ho mai letto una recensione che diceva che si poteva fare
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".