PDA

View Full Version : Accelerazione hardware di AV1 su Windows 10: requisiti hardware e software


Redazione di Hardware Upg
11-10-2020, 08:31
Link alla notizia: https://www.hwupgrade.it/news/sistemi-operativi/accelerazione-hardware-di-av1-su-windows-10-requisiti-hardware-e-software_92661.html

Microsoft ha ricapitolato i requisiti per supportare l'accelerazione hardware per la decodifica di contenuti in formato AV1 su Windows 10. Il codec è nato per garantire contenuti ad alta qualità e risoluzione con un minore impatto su bandwidth e risorse di calcolo rispetto ad H.264 e VP9.

Click sul link per visualizzare la notizia.

Paganetor
11-10-2020, 08:59
ma è così tanto esigente in termini di risorse hardware o semplicemente non hanno ancora sviluppato architetture pensate per gestire questa codifica al meglio?

Perché se come minimo devi avere processori di ultimissima generazione (alcuni annunciati in attesa di lancio) o schede video di fascia medio-alta, allora mi sa che sarà una strada molto lunga da percorrere (sperando che questo nuovo standard venga implementato da tutti e che in futuro ci saranno chip semplici e poco costosi dedicati solo a quello, da inserire nelle chiavette di Amazon, Google, Roku ecc.)

sbaffo
11-10-2020, 09:10
l'articolo lo paragona ad H264 e VP9, ma rispetto ad H265-HVEC che ormai è lo standard tv come si pone?
E c'era proprio bisogno dell'ennesimo standard? 20% rispetto a vp9 non mi sembra una rivoluzione...

Se uno non ha l'accelerazione hw dei nuovi proci, che ad oggi nessuno ha, che requisiti hw ci vogliono per decodificarlo via software? dual core/quad core/ ghz?

massi47911
11-10-2020, 09:34
ma è così tanto esigente in termini di risorse hardware o semplicemente non hanno ancora sviluppato architetture pensate per gestire questa codifica al meglio?

Perché se come minimo devi avere processori di ultimissima generazione (alcuni annunciati in attesa di lancio) o schede video di fascia medio-alta, allora mi sa che sarà una strada molto lunga da percorrere (sperando che questo nuovo standard venga implementato da tutti e che in futuro ci saranno chip semplici e poco costosi dedicati solo a quello, da inserire nelle chiavette di Amazon, Google, Roku ecc.)

Non hai letto correttamente l’articolo. C’è scritto chiaramente che per avere l’accelerazione hardware devi avere una delle architetture citate (ovvero, le ultime). Ciò non significa che potrai usare dispositivi più datati, semplicemente farà tutto il software (quindi, con meno efficienza). Un po’ come un video Hevc, lo vedi tranquillamente con un pc (esempio) ivy bridge ma senza accelerazione hw.

nickname88
11-10-2020, 09:37
Anzichè andare verso un miglioramente si va indietro :rolleyes:
Con il miglioramento delle connessioni si dovrebbe andare via via verso compressioni sempre più leggeri e bitrates maggiori.

E invece non solo si comprime ancora di più come se fossimo ancora col 56K, ma addirittura si esegue un controsenso, formato più compresso ma la ricerca di una risoluzione più elevata :rolleyes:

Se lo scopo della compressione è ridurre la quantità di dati cosa serve alzare la risoluzione ? A sto punto meglio una risoluzione minore ed una minore compressione.

X360X
11-10-2020, 09:40
ma è così tanto esigente in termini di risorse hardware o semplicemente non hanno ancora sviluppato architetture pensate per gestire questa codifica al meglio?

Perché se come minimo devi avere processori di ultimissima generazione (alcuni annunciati in attesa di lancio) o schede video di fascia medio-alta, allora mi sa che sarà una strada molto lunga da percorrere (sperando che questo nuovo standard venga implementato da tutti e che in futuro ci saranno chip semplici e poco costosi dedicati solo a quello, da inserire nelle chiavette di Amazon, Google, Roku ecc.)

scusa ma parliamo di implementazione hardware, se è stata fatta ultimamente chiaro che è sugli ultimi hardware.
quindi sarà anche su quelli scarsi (esempio h265 andava sui lentissimi Atom in hardware, poi andava anche su vecchi i3 in tranquillità ma in quel caso di forza bruta)

Ginopilot
11-10-2020, 09:43
Anzichè andare verso un miglioramente si va indietro :rolleyes:
Con il miglioramento delle connessioni si dovrebbe andare via via verso compressioni sempre più leggeri e bitrates maggiori.

E invece non solo si comprime ancora di più come se fossimo ancora col 56K, ma addirittura si esegue un controsenso, formato più compresso ma la ricerca di una risoluzione più elevata :rolleyes:

Se lo scopo della compressione è ridurre la quantità di dati cosa serve alzare la risoluzione ? A sto punto meglio una risoluzione minore ed una minore compressione.

Perche' si punta a mantenere la qualita' inalterata con bitrate inferiori. Il discorso risoluzione poi e' ormai al capolinea. Mi auguro che 8k e superiori non prendano piede, almeno in questa vita. Totalmente inutili risoluzioni sopra i 4k, almeno per lo streaming.

Italia 1
11-10-2020, 09:57
"impatto minore in termini di bandwidth e risorse di calcolo.".

Alla faccia... E le cpu Amd non andrebbero bene ?

X360X
11-10-2020, 10:04
"impatto minore in termini di bandwidth e risorse di calcolo.".

Alla faccia... E le cpu Amd non andrebbero bene ?

Se e quando usciranno APU sicuramente si, ad oggi non è stata annunciata alcuna APU basata su Ryzen 5000 (gli Intel invece hanno la VGA integrata)

Paganetor
11-10-2020, 10:11
ok, capito il discorso dell'accelerazione hardware :D

@nickname88: credo sia un modo per mantenere inalterata la qualità diminuendo la banda occupata o, meglio ancora, alzare la qualità a parità di banda.

Poi sono d'accordo sul discorso del non cercare la compressione a tutti i costi (compressione non loseless, ricordiamocelo). Quindi ben venga un passo avanti in questo senso, ma se pensiamo che lo standard del DVD (1995, 25 anni fa) prevedeva per video SD una banda fino a 30 megabit e un massimo di 7 giga di dati. I bluray viaggiano fino a 54 megabit e offrono fino a 100 giga di contenuti in full HD. Quando guardo un film in streaming in HD alla fine di 2 ore di trasmissione risultano scaricati magari 5 o 6 giga di dati... ok la compressione, ok l'ottimizzazione, ma evidentemente qualcosa ce lo perdiamo per strada.

Chiaro che se pensiamo di scaricare 50 giga di film in 2 ore per avere una qualità esagerata il rischio è di intasare internet :D

lkn3
11-10-2020, 10:25
l'articolo lo paragona ad H264 e VP9, ma rispetto ad H265-HVEC che ormai è lo standard tv come si pone?
E c'era proprio bisogno dell'ennesimo standard? 20% rispetto a vp9 non mi sembra una rivoluzione...

Se uno non ha l'accelerazione hw dei nuovi proci, che ad oggi nessuno ha, che requisiti hw ci vogliono per decodificarlo via software? dual core/quad core/ ghz?

5. Compression Efficiency: AV1 vs. HEVC vs. VP9

We have made comparisons among the reference implementations using these coding standards. The reference implementation using AV1 is Libaom, while Libvpx for VP9, and x265 for HEVC. The test environment is AWCY, a public test set that contains more than 30 test video files from 360p to 1080p fixed to QP 60 frames. Under such test environment, the conclusion is: Libaom has about 30% increase in compress efficiency over Libvpx, and 27% increase over x265.

michel94
11-10-2020, 10:46
Ho letto da qualche parte che questo formato di compressione è molto esoso di potenza computazionale per la decodifica e che a parte le royalties per adoperare l’h.265, rispetto a quest’ultimo non è che ci siano grandi miglioramenti, anzi richiede potenze hardware molto superiori.
Allora mi chiedo perché di tutto ciò?
Forse hanno creato VP1 per non pagare i diritti di h.265?
Io ho provato a guardare e un film in 4K sud un pc con i3-6100T dopo aver acquistato il codec h.265 per Windows 10.
Si, sono riuscito a vederlo ma l’esperienza d’uso con il lettore di Windows è stata pessima, il sistema sembrava arrancare e prossimo all’esplosione.
Chissà con questo VP1 che potenza mi servirà?
Si è sempre detto Negli anni passati che tutta la potenza del PC Serve per far girare Windows e u suoi componenti. 😂

the_joe
11-10-2020, 10:56
Ho letto da qualche parte che questo formato di compressione è molto esoso di potenza computazionale per la decodifica e che a parte le royalties per adoperare l’h.265, rispetto a quest’ultimo non è che ci siano grandi miglioramenti, anzi richiede potenze hardware molto superiori.
Allora mi chiedo perché di tutto ciò?
Forse hanno creato VP1 per non pagare i diritti di h.265?
Io ho provato a guardare e un film in 4K sud un pc con i3-6100T dopo aver acquistato il codec h.265 per Windows 10.
Si, sono riuscito a vederlo ma l’esperienza d’uso con il lettore di Windows è stata pessima, il sistema sembrava arrancare e prossimo all’esplosione.
Chissà con questo VP1 che potenza mi servirà?
Si è sempre detto Negli anni passati che tutta la potenza del PC Serve per far girare Windows e u suoi componenti. 😂

Sei così di natura???

Un codec molto pesante in termini di richieste di potenza computazionale secondo te fa parte o è colpa di Windows???

Forse è meglio che parli di cucito o ricamo.

coschizza
11-10-2020, 11:23
Anzichè andare verso un miglioramente si va indietro :rolleyes:
Con il miglioramento delle connessioni si dovrebbe andare via via verso compressioni sempre più leggeri e bitrates maggiori.

E invece non solo si comprime ancora di più come se fossimo ancora col 56K, ma addirittura si esegue un controsenso, formato più compresso ma la ricerca di una risoluzione più elevata :rolleyes:

Se lo scopo della compressione è ridurre la quantità di dati cosa serve alzare la risoluzione ? A sto punto meglio una risoluzione minore ed una minore compressione.

Per me maggiore è la compressione da parità di qualità e meglio è

386DX40
11-10-2020, 11:40
Mah. Curioso che venga paragonato all' H264. Comunque sembra il solito circolo perpetuo per cui il nuovo "sembra indispensabile" per il futuro sebbene alcune riflessioni nascano spontanee. Il web per come e' diventato richiede "già" risorse estremamente elevate anche solo per leggere venti righe di testo con tutta la pesantezza che le pagine si devono portare dietro oltre a pubblicità varie, video ads che partono in automatico, risorse di calcolo richieste in background anche solo per tenere la pagina aperta etc..
Il problema della banda come gia' detto sopra c'era sicuramente ai tempi dei modem analogici su linea fissa, ma oggigiorno (sebbene le tariffe degli operatori lasciano molto a discutere) pensavo che gia' con le precedenti architetture delle gpu (se non con le potenze forse non egualmente esponenziali delle cpu) fosse possibile adattarne le unità interne a nuovi formati senza necessitare come "requisito" una nuova serie di gpu.
Certo che se le risoluzioni continuano ad aumentare senza un reale motivo raddoppiandosi senza un reale beneficio se poi alla fine gli schermi di casa o di pc sono per lo piu' gli stessi negli ultimi anni, dubito molti abbiano schermi 4K come se piovessero sulle masse.. Ma poi per cosa? Se la qualità di un video in streaming in FullHD (1080p) fa pena in confronto ad un supporto blu-ray alla stessa risoluzione preferirei avere meno pixel da gestire e piu' dettaglio cosa che da sempre si vede in fotografia laddove fotocamere reflex di fascia altissima hanno 20 megapixel e cellulari con sensori da punta di spillo ne hanno 100.
Poi ovvio ben vengano nuove logiche che permettano compressioni incredibili mantenendo (presumibilmente..) qualita'; quando venni a sapere della differenza tra il wav e l'mp3 negli anni 90 rimasi sbalordito sebbene le risorse di calcolo cosi' come per l' MPEG2 furono non certo "leggere". Ma preoccupa di piu' il facile ricambio che l'hardware oggigiorno ha, basti vedere i telefoni già obsoleti al lancio quasi.

coschizza
11-10-2020, 11:45
Mah. Curioso che venga paragonato all' H264. Comunque sembra il solito circolo perpetuo per cui il nuovo "sembra indispensabile" per il futuro sebbene alcune riflessioni nascano spontanee. Il web per come e' diventato richiede "già" risorse estremamente elevate anche solo per leggere venti righe di testo con tutta la pesantezza che le pagine si devono portare dietro oltre a pubblicità varie, video ads che partono in automatico, risorse di calcolo richieste in background anche solo per tenere la pagina aperta etc..
Il problema della banda come gia' detto sopra c'era sicuramente ai tempi dei modem analogici su linea fissa, ma oggigiorno (sebbene le tariffe degli operatori lasciano molto a discutere) pensavo che gia' con le precedenti architetture delle gpu (se non con le potenze forse non egualmente esponenziali delle cpu) fosse possibile adattarne le unità interne a nuovi formati senza necessitare come "requisito" una nuova serie di gpu.
Certo che se le risoluzioni continuano ad aumentare senza un reale motivo raddoppiandosi senza un reale beneficio se poi alla fine gli schermi di casa o di pc sono per lo piu' gli stessi negli ultimi anni, dubito molti abbiano schermi 4K come se piovessero sulle masse.. Ma poi per cosa? Se la qualità di un video in streaming in FullHD (1080p) fa pena in confronto ad un supporto blu-ray alla stessa risoluzione preferirei avere meno pixel da gestire e piu' dettaglio cosa che da sempre si vede in fotografia laddove fotocamere reflex di fascia altissima hanno 20 megapixel e cellulari con sensori da punta di spillo ne hanno 100.

Adattare le unità interne di una gpu per decodificare un nuovo formato vuol dire consumare 100w per fare quello che si fa con unità specifiche in 1w, quindi ormai sono anni che non si fa più perché è la cosa meno efficiente che esiste in informatica.
I cellulari con 100 megapixel usano più pixel per generare un solo sub pixel quindi non è riferito alla risoluzione dell’immagine finale.

386DX40
11-10-2020, 11:53
Adattare le unità interne di una gpu per decodificare un nuovo formato vuol dire consumare 100w per fare quello che si fa con unità specifiche in 1w, quindi ormai sono anni che non si fa più perché è la cosa meno efficiente che esiste in informatica.
I cellulari con 100 megapixel usano più pixel per generare un solo sub pixel quindi non è riferito alla risoluzione dell’immagine finale.
Ma intanto le schede video sono già fatte per consumare nel loro range di consumo da (es.) 20W (immagino realisticamente avendo anche varie GUI da accelerare) a (es.) 300W, poco importa se alla fine deve "faticare" di piu', ammettendo siano nelle condizioni di farlo tecnicamente per lunghi periodi di tempo come appunto vedere che so' ore di conferenze in 4K in streaming, semmai imho importa non dover spendere che so' 500 euro per comprare una nuova scheda video. Basti pensare a quanti ora stanno vendendo schede video di fascia alta perche' surclassate gia' dopo poco tempo.
Intanto gia' oggigiorno i requisiti hardware per un pc di fascia alta in termini di consumo sono tutto fuorchè ragionevoli.. alimentatori da 1000W che manco un frigorifero o un fornetto, dissipatori che nemmeno un monocilindro da 650cc di un vecchio motociclo aveva.. boh..

Sulle fotocamere alla fine quel che viene venduto e che si ottiene e' la risoluzione finale. Se viene venduta ed effettivamente pesa 100 megapixel, certo viene l'ovvio dubbio e risposta suddetta di come mai le reflex abbiano un quinto di quella risoluzione per foto n volte migliori, ma cio' non toglie che chi le compra crede che i 100 megapixel ("reali" in termini di file/num.pixel finale) siano necessari a foto migliori.

coschizza
11-10-2020, 11:56
Ma intanto le schede video sono già fatte per consumare nel loro range di consumo da (es.) 20W a (es.) 300W, poco importa se alla fine deve "faticare" di piu', ammettendo siano nelle condizioni di farlo tecnicamente per lunghi periodi di tempo come appunto vedere che so' ore di conferenze in 4K in streaming, semmai imho importa non dover spendere che so' 500 euro per comprare una nuova scheda video. Basti pensare a quanti ora stanno vendendo schede video di fascia alta perche' surclassate gia' dopo poco tempo.
Intanto gia' oggigiorno i requisiti hardware per un pc di fascia alta in termini di consumo sono tutto fuorchè ragionevoli.. alimentatori da 1000W che manco un frigorifero o un fornetto, dissipatori che nemmeno un monocilindro da 650cc di un vecchio motociclo aveva.. boh..

Sulle fotocamere alla fine quel che viene venduto e che si ottiene e' la risoluzione finale. Se viene venduta ed effettivamente pesa 100 megapixel, certo viene l'ovvio dubbio di come mai le reflex abbiano un quinto di quella risoluzione ma cio' non toglie che chi le compra crede che i 100 megapixel (reali in termini di file finale) siano necessari a foto migliori.

Nessuno vuole guardare un film con il pc a palla che consuma 200w e le ventole rumorose se posso vedere la stessa cosa ci un chip dedicato che consuma 2w è raffreddato in passivo. Ha o smesso di fare queste cose per questo motivo
I cellulari con 100 megapixel non sono reali sono usati per scalare L immagine raggruppando più pixel in 1. Non esistono cellulari che salvano immagini in quella risoluzione non serve e sarebbe un controsenso

the_joe
11-10-2020, 11:57
I cellulari con 100 megapixel usano più pixel per generare un solo sub pixel quindi non è riferito alla risoluzione dell’immagine finale.

E ad oggi non è stato dimostrato che 100MP ridotti a 25 siano meglio di 25 sfruttati appieno.

A parte che è possibile scattare foto da 100MP con risoluzione da 100MP.

Il risultato è dato dalla qualità dell'intelligenza artificiale che interpreta le fotografie, di certo non è intrinseca nei 100MP di un sensore formato unghia del mignolo.

386DX40
11-10-2020, 12:03
Nessuno vuole guardare un film con il pc a palla che consuma 200w e le ventole rumorose se posso vedere la stessa cosa ci un chip dedicato che consuma 2w è raffreddato in passivo. Ha o smesso di fare queste cose per questo motivo

Mi chiedo se allora non sia piu' "conveniente" comprare un lettore dedicato da casa, il supporto fisico del film e avere uno strumento "teoricamente" piu' durevole che non usare risorse di calcolo stratosferiche per risultati che imho lasciano sempre un po' a discutere.
Di recente avendo aggiornato (per cosi' dire sempre un PC vecchio e') la mia configurazione principale, posso valutare lo streaming in HD (720p) via GPU su un monitor da 15" ("768p").. beh quasi che i DVD in MPEG2 a 720x576 pur con upscaling "fotonico" delle gpu "moderne" si vedono meglio.. anzi anche senza il quasi.

Ma anche sul consumo qualcuno potrebbe cominciare a chiedersi se tanto calore da dissipare sia "concettualmente" ragionevole se poi devo "sperare" che tutte le ventole rimangano spente se no il computer prende il volo... forse che avrebbe piu' senso una curva di potenza/consumi piu' terrena invece di dover giocare o ascoltare musica con le cuffie causa effetto aereoplano? ;) :p

coschizza
11-10-2020, 12:03
A parte che è possibile scattare foto da 100MP con risoluzione da 100MP.

Su quali cellulari? Non ho mai letto una recensione che diceva che si poteva fare

noppy1
11-10-2020, 13:29
il AV1 punta a essere migliore del VP9 e a non sfigurare cobtro HEVC ma non è nato per surclassare l'HEVC ma solo per non pagare la sua tassa , mentre con l'H264 pagavi per utilizzarlo con l'HEVC paghi sia la licenza di utilizzo sia un tot a trasmissione di contenuto, ovviamente nessuno è felice di questa scelta sopratutto chi vive di abbonamenti e non pubblicità per questo cercano un codec liero pari a HEVC

Min01987
11-10-2020, 13:30
Peccato che perda in maniera netta nel confronto con Hevc , e se i nuovi codec in uscita H266 e Mpeg 5 mantengono quanto promesso, AV1 rimane come VP9 relegato al web, mentre per tutto il resto come anche le tv e le trasmissioni via cavo/satellite/DVB-Tx si andrà con HEVC e futuri come accade oggi.

Grizlod®
11-10-2020, 13:51
Provato questa demo (full screen):
https://bitmovin.com/demos/av1
Col mio R3 3100, ho solo un core (quasi sempre) @ 4.0 GHz, temp max 35 C°

Non mi sembra così esoso per i processori attuali (almeno su PC desktop).

homero
11-10-2020, 14:39
Mi viene da ridere quando leggo queste informazioni... ma come fanno a supportare solo hardware di ultima generazione? Tra l’altro così diverso?

coschizza
11-10-2020, 15:12
Mi viene da ridere quando leggo queste informazioni... ma come fanno a supportare solo hardware di ultima generazione? Tra l’altro così diverso?

è semplice solo questo hardware ha il chip dedicato interno quindi loro citano questo. Tutto il resto va di codeck software

coschizza
11-10-2020, 15:13
Provato questa demo (full screen):
https://bitmovin.com/demos/av1
Col mio R3 3100, ho solo un core (quasi sempre) @ 4.0 GHz, temp max 35 C°

Non mi sembra così esoso per i processori attuali (almeno su PC desktop).
quel video è 1080p 3Mbps è normale che anche un hardware di 10 anni fa lo posso decodificare

Grizlod®
11-10-2020, 16:53
Ho provato sul tubo in 4k è simile la richiesta hardware, solo in 8k tutti 4 i core vanno a 4.0 GHz ...

386DX40
11-10-2020, 17:04
Ho provato su una config vecchia dual core (sse4.1) a 3,3ghz senza accelerazione vdpau possibile (linux) nel browser, il 1080p@1Mbit lavora in media con il 50% di utilizzo per ciascun core. il 3Mbit invece attorno al 65/70%.
Non proprio leggero ma pensavo peggio sebbene la qualità della codifica sembra valida. Sarei curioso di vedere lo stesso test offline con un player che usa certamente l'accelerazione nativa della gpu (vecchiotta) e se in qualche modo comunque vi affida parte della decodifica a prescindere che manca questa suddetta unità dedicata.
Ai tempi dell' MPEG2 molti chip grafici di allora pur non potendosi permettere una unità che si prendesse carico totalmente della complessa decodifica del flusso per gli allora standard, avevano comunque parziali accelerazioni dei vari step richiesti al processo di decodifica con risultati comunque utili alla potenza "relativa" di allora delle cpu.
Esempio l'uso del Motion Compensation non era certo sufficiente ma di gran lunga necessario e nemmeno spesso utilizzato da tutti i chip grafici della seconda metà degli anni 90.

Tedturb0
11-10-2020, 18:41
ottimo per stoccare film HD/FullHD, peccato che a) nn si trovi niente di gia pronto e che b) il risultato sara presumibilmente inferiore ad H266, che sara' con tutta probabilita' piu supportato e piu hw-friendly.

Opteranium
11-10-2020, 19:19
Anzichè andare verso un miglioramente si va indietro :rolleyes:
Con il miglioramento delle connessioni si dovrebbe andare via via verso compressioni sempre più leggeri e bitrates maggiori.
certo, certo, vallo a dire a netflix e compagnia

rockroll
11-10-2020, 19:26
Ho provato su una config vecchia dual core (sse4.1) a 3,3ghz senza accelerazione vdpau possibile (linux) nel browser, il 1080p@1Mbit lavora in media con il 50% di utilizzo per ciascun core. il 3Mbit invece attorno al 65/70%.
Non proprio leggero ma pensavo peggio sebbene la qualità della codifica sembra valida. Sarei curioso di vedere lo stesso test offline con un player che usa certamente l'accelerazione nativa della gpu (vecchiotta) e se in qualche modo comunque vi affida parte della decodifica a prescindere che manca questa suddetta unità dedicata.
Ai tempi dell' MPEG2 molti chip grafici di allora pur non potendosi permettere una unità che si prendesse carico totalmente della complessa decodifica del flusso per gli allora standard, avevano comunque parziali accelerazioni dei vari step richiesti al processo di decodifica con risultati comunque utili alla potenza "relativa" di allora delle cpu.
Esempio l'uso del Motion Compensation non era certo sufficiente ma di gran lunga necessario e nemmeno spesso utilizzato da tutti i chip grafici della seconda metà degli anni 90.

Daccordissimo con te.

Ho provato con questo PC
https://www.amazon.it/gp/product/B07DGH85QK/ref=ox_sc_saved_image_3?smid=A32J7KLR587M0J&psc=1

Entry Level AMD Trinity decennale refurbished, 90 € su Amazon, oltretutto dato in pasto a mio nipote cinquenne...

In full HD va da Dio, non potrei chiedere di meglio, con temperatura e livello CPU allineati ai tuoi /manco parte la ventola.

Con prova in 4 K ovviamente fa struttering (1 secondo di interruzione ogni 10 circa), la visione non cambia avendo un monitor 1920x1080, ma i due cores viaggiano quasi a tappo a 3.6 GHz; immagino che con un briciolo di potenza in più andrebbe liscio.

Ora mi chiedo: a cosa servono i 4k e meno che mai gli assurdi 8K se non a consumare preziose risorse mie e della comunità, a fronte di un vantaggio esiguo appena percettibile in condizioni ideali?

386DX40
11-10-2020, 19:44
Servirebbero "in teoria" se a fronte di un aumento della risoluzione sorgente ci fosse un dettaglio nuovo per "ogni nuovo pixel aggiunto" quando invece a volte si vede molto rumore. E oltre a questo se i monitor o le TV avessero queste risoluzioni comuni. Ma la realtà imho e' differente, le TV immagino per lo piu' saranno ancora HD o FullHD per cui al limite si beneficierebbe di un downscaling che va beh meglio che niente..
Ma la cosa piu' assurda e' che schermi da nemmeno 6 pollici di smartphone abbiano risoluzioni maggiori di TV da 50 pollici e quasi sembra tutto orientato ai primi piu' che ai secondi. Ma poi la questione principale e' la sorgente.. spesso supporti a 1080p non sono tutti uguali e con qualità talvolta inferiori ad altri a 720p.. come dicevo ci sono DVD a 576p che risultano (in percezione e tralasciando l'upscaling) "migliori" di molti video streaming in 720p ad es. per la compressione/codec.
Ho solo pannelli 720p come massima risoluzione pur appassionato di cinema ma su supporti fisici originali niente streaming e tutte ste soluzioni premium / abbonamenti vari etc che mi legherebbero a costosi abbonamenti internet fisici viste le richieste di banda.
E in ogni caso ad ogni nuovo formato introdotto molti film vecchi non verranno mai passati, per cui cosa serve avere pochi titoli in 8K se alla fine si trovano i soliti pochi film moderni vari di cui se ne salva imho uno su cento.

omerook
12-10-2020, 08:29
abbiamo cpu millemila core a millemila ghz e poi dobbiamo avere un codec hardware per vedere un video? nu me quadra!

386DX40
12-10-2020, 09:43
La mia impressione e' che le cpu per quanto potenti non abbiano avuto la stessa scalabilità negli ultimi decenni che le gpu hanno dimostrato ma nel contempo avere gpu che consumano 300 watts (per es.) e' una contraddizione concettuale se quella "versatilità" era un punto chiavo di questo componente.
Una volta negli anni novanta ricordavo il flusso MPEG2 che era estremamente pesante per le cpu di allora e nessun processore nemmeno di fascia alta (Pentium II nemmeno figuriamoci il Pentium o il Pentium MMX e i suoi concorrenti) poteva permettersi di decodificare un DVD compresso con quel formato. Il Pentium II a frequenze alte (>350Mhz es.) riusciva tramite alcuni player sw e magari qualche tweak per saltare qualche step o sfruttare lo sfruttabile (MMX ad es.. 3DNow! per i K6-2) ma alla fine per vedere un DVD l'occupazione della cpu era capace ad essere anche al 90% di utilizzo, praticamente l'o.s. inutilizzabile.
Allora vennero in aiuto le schede decodificatrici che fin da anni prima cercavano di emergere nel multimedia come le varie Sigma Designs e Creative ma anche molte altre simili schede PCI che toglievano alla cpu tutto l'onere della decodifica. Schede eccezionali per l'epoca, ma avevano grossi limiti sul come poi passare il segnal video in output al monitor.. o in uscita (analogica) sovrapposta a quella delle schede principali o tramite cavi interni o in alcuni casi tramite il lento bus PCI stesso. Nessuna di queste soluzioni alla fine era ottimale e per questo i chip grafici di allora cominciarono a prendersene carico un pezzo alla volta e alla fine relegando quelle schede nel dimenticatoio (tranne me forse, le ho sempre apprezzate anche quando "inutili").

Perche' questa premessa.. le "gpu" e cpu di allora che lavorassero al 10% o al 90% consumavano piu' o meno uguale.. che so' da 10W per le schede PCI add-on, 15W per le schede video, 30W per le cpu. A che serve oggigiorno avere GPU che possono fare "tutto" (da qui mi aspettavo che anche una gpu vecchia potesse prendersi carico di un nuovo formato per la loro architettura diversa dal passato) ma che preferibilmente non devono perche' se no consumano 300W e si accendono le "turbine" varie di raffreddamento. Allora hanno quasi piu' senso le schede low-end ammesso esistano ancora perche' mi sembra oggigiorno il concetto di low-end sembra esagerando equivalere a "inutilizzabili per i giochi ma il desktop funziona".

topolinik
12-10-2020, 13:47
Sarei curioso di vedere lo stesso test offline con un player che usa certamente l'accelerazione nativa della gpu (vecchiotta) e se in qualche modo comunque vi affida parte della decodifica a prescindere che manca questa suddetta unità dedicata.
Su una distribuzione linux ti basta compilare un mpv recente linkato alla libreria dav1d (anch'essa in build recente) e vedrai che va.

386DX40
12-10-2020, 13:51
Su una distribuzione linux ti basta compilare un mpv recente linkato alla libreria dav1d (anch'essa in build recente) e vedrai che va.

Interessante, ma la libreria utilizza qualche parte dell'hardware delle gpu moderne o e' solo tutto sulle spalle della cpu e solo le funzioni basilari della gpu (come avviene nel browser per i video in streaming su linux)?

topolinik
12-10-2020, 13:51
abbiamo cpu millemila core a millemila ghz e poi dobbiamo avere un codec hardware per vedere un video? nu me quadra!
Il codec hardware serve a non far bollire i nostri preziosi smartphone e tablet, visto che l'utilizzo della cpu tende a salire (e lo farà sempre di più coi codec a venire). A MS interessa che nessuno debba lamentarsi dell'uso di Win10 sui vari dispositivi portatili.
Per ciò che riguarda il desktop, ogni cpu degli ultimi 5 anni può farcela, la decodifica è via software ma col player adatto ce la fanno di sicuro, lì il consumo è un problema minore.

topolinik
12-10-2020, 13:53
Interessante, ma la libreria utilizza qualche parte dell'hardware delle gpu moderne o e' solo tutto sulle spalle della cpu e solo le funzioni basilari della gpu (come avviene nel browser per i video in streaming su linux)?
Niente GPU, dav1d è ottimizzata per la decodifica sw sfruttando solo le istruzioni della CPU (SSEx, AVX/AVX2 o NEON nel caso di ARM).

386DX40
12-10-2020, 14:01
Niente GPU, dav1d è ottimizzata per la decodifica sw sfruttando solo le istruzioni della CPU (SSEx, AVX/AVX2 o NEON nel caso di ARM).

Come immaginavo. Ma e' curioso che non possa utilizzare alcuna parte delle unità anche solo parzialmente delle gpu moderne. Il fatto che esse non debbano esser utilizzate per evitare consumi alti rimanda appunto al discorso che facevo sopra sulla stranezza "concettuale" di avere gpu che come le stufette elettriche e' "meglio non usarle" perche' consumano 2000 watts e puo' saltare il contatore.. tanto vale manco averle. :stordita:
Forse che si e' delegato "un po' troppo" alle gpu e abbandonato la possibilità di avere schede add-on dedicate? Tornerei volentieri a frammentare un po' l'offerta sfruttando anche altri slot PCI-EX. ;)

topolinik
12-10-2020, 14:20
Come immaginavo. Ma e' curioso che non possa utilizzare alcuna parte delle unità anche solo parzialmente delle gpu moderne.
Non è detto che una simile libreria non sia in sviluppo, anche se tendo a scartare questa ipotesi, perché quella si che sarebbe frammentata. Quanta parte può essere delegata all'hw? quanta al sw? e su una diversa gpu cosa succede? supporta più funzioni? meno?
E poi: a quanti serve una libreria di decodifica così? a una sparuta minoranza con una cpu insufficiente e una gpu altrettanto insufficiente (che non vede l'ora di aggiornarla per giocare meglio), cioè a poche persone e per breve periodo. Ergo: le soluzioni solo-sw o solo-hw hanno più senso.


Forse che si e' delegato "un po' troppo" alle gpu e abbandonato la possibilità di avere schede add-on dedicate? Tornerei volentieri a frammentare un po' l'offerta sfruttando anche altri slot PCI-EX. ;)
Che romanticone sei, ti ricordi i tempi in cui negli slot vuoti si aggiuneva la scheda di rete? o il modem? o le porte seriali aggiuntive?
Se cerchi in rete, quelle schede esistono ancora MA ne trovi pochissime, perché?
Perché 1: la gran parte degli utenti ha di serie ciò che la scheda offre (leggasi la decodifica in sw grazie alla cpu) e se non ce l'hanno, entro breve aggiorneranno il sistema e l'avranno; e 2: perché è un ramo dell'elettronica poco redditizio: una volta realizzato il chip della decodifica hardware, considerando il suo costo irrisorio sarebbe molto più costoso aggiungergli il pcb intorno. Il tutto per tipo 5/6 euro totali.

Grizlod®
12-10-2020, 14:39
Considerato che i chip HW dovranno metterli nei set top box per i vari netflix, infinity ecc, tanto vale produrli su schedine PCI_Ex 1X, imho.
Non tutti sentiranno l'esigenza di passare alle nuove nVidia/AMD.

Ma forse x86 è un "mondo" troppo differente..

386DX40
12-10-2020, 14:55
Non è detto che una simile libreria non sia in sviluppo, anche se tendo a scartare questa ipotesi, perché quella si che sarebbe frammentata. Quanta parte può essere delegata all'hw? quanta al sw? e su una diversa gpu cosa succede? supporta più funzioni? meno?
E poi: a quanti serve una libreria di decodifica così? a una sparuta minoranza con una cpu insufficiente e una gpu altrettanto insufficiente (che non vede l'ora di aggiornarla per giocare meglio), cioè a poche persone e per breve periodo. Ergo: le soluzioni solo-sw o solo-hw hanno più senso.

Beh proprio per trovare la giusta via di mezzo e scaricare la gpu da tutto il lavoro che magari non potrebbe fare senza un consumo eccessivo (discutibile) di energia e allo stesso tempo aiutare la cpu come appunto le vecchie schede video facevano con una parziale accelerazione dell'MPEG2 negli anni 90.


Che romanticone sei, ti ricordi i tempi in cui negli slot vuoti si aggiuneva la scheda di rete? o il modem? o le porte seriali aggiuntive?
Se cerchi in rete, quelle schede esistono ancora MA ne trovi pochissime, perché?
Perché 1: la gran parte degli utenti ha di serie ciò che la scheda offre (leggasi la decodifica in sw grazie alla cpu) e se non ce l'hanno, entro breve aggiorneranno il sistema e l'avranno; e 2: perché è un ramo dell'elettronica poco redditizio: una volta realizzato il chip della decodifica hardware, considerando il suo costo irrisorio sarebbe molto più costoso aggiungergli il pcb intorno. Il tutto per tipo 5/6 euro totali.
L'espandibilita' dei computer e' una delle poche cose rimaste a loro favore. Tutta questa convergenza verso uniche unità di calcolo che fanno gia' tutto per arrivare agli estremi come i SOC degli smartphone ove la loro longevità e' ipoteticamente presumibile immaginarla in qualche roadmap e non esistono o.s. alternativi, periferiche con driver aggiornabili, ram aggiuntiva etc.. a me onestamente non interessa granchè.
Preferivo i vecchi tempi dove schede madri avevano anche 6 slot PCI oltre all' AGP e magari una espandibilità di cpu su Socket che attraversavano addirittura tre famiglie differenti di architetture fino anche a raddoppiare o piu' la frequenza iniziale o la quantità di cache o architetture interne completamente diverse e piu' prestanti, pur mantenendo la stessa mainboard e chipset.