PDA

View Full Version : SVT-AV1, il nuovo codec video realizzato da Intel e Netflix


Redazione di Hardware Upg
09-04-2019, 10:21
Link alla notizia: https://edge9.hwupgrade.it/news/cloud/svt-av1-il-nuovo-codec-video-realizzato-da-intel-e-netflix_81758.html

Dal palco del NAB Intel e Netflix annunciano il nuovo codec software SVT-AV1 destinato alle applicazioni di Live Streaming e Video on Demand. È più veloce ed efficiente di quelli attuali e supporta stream 4K@60FPS, anche in HDR.

Click sul link per visualizzare la notizia.

coschizza
09-04-2019, 10:50
non serve uno xeon per usarlo basta avere una cpu uguale o maggiore della "5th Generation Intel® Core"

MonkeyMan
09-04-2019, 10:51
Non mi è chiara una cosa: è un codec pensato per lo streaming ma serve un xeon.
Spero solo in codifica e che poi si possa decodificare con qualsiasi hardware, se no che senso ha?

coschizza
09-04-2019, 10:52
Non mi è chiara una cosa: è un codec pensato per lo streaming ma serve un xeon.
Spero solo in codifica e che poi si possa decodificare con qualsiasi hardware, se no che senso ha?

ovvio che è cosi, non è che devi installare uno xeon sul tuo cellulare per vedere i video
Il sito www.phoronix.com ha già fatto vari test del codec

Bradiper
09-04-2019, 11:08
Penso intendano che se vuoi comprimere un qualsiasi video di un farmato x... In questo nuovo formato ti serva uno xeon... Poi per vederlo basteranno i classici lettori a patto di aver aggiornato i codec.

coschizza
09-04-2019, 11:10
Penso intendano che se vuoi comprimere un qualsiasi video di un farmato x... In questo nuovo formato ti serva uno xeon... Poi per vederlo basteranno i classici lettori a patto di aver aggiornato i codec.

no, si intente che per vederlo in tempo reale ti serve uno xeon per comprimerlo ti basta una qualsiasi cpu anche amd ovviamente, il fatto che netflix abbia deciso di passare a questo codec la dice lunga sulla qualità del prodotto.

Bradiper
09-04-2019, 11:32
Però come dici tu non ha senso... Allora sulla tv o sul pc per vedere un filmato in questo formato dovrò avere uno xeon?

LukeIlBello
09-04-2019, 11:34
Però come dici tu non ha senso... Allora sulla tv o sul pc per vedere un filmato in questo formato dovrò avere uno xeon?

magari usare CUDA piuttosto che uno xeon sarebbe anche meglio :asd:

al135
09-04-2019, 11:36
ma a cosa serve Il 4 kappa se è uguale al fullacccadddiiiii??!?!111!!! nn srveee e nn vedete la differenzzzzaaa !!!111 :asd:
scusate , ormai va di moda.

coschizza
09-04-2019, 11:38
magari usare CUDA piuttosto che uno xeon sarebbe anche meglio :asd:

magari è piu efficiente usare la cpu, usare i cuda è inferiore come approccio infatti sulle gpu non usi cuda ma le unita a calcolo fisso che è una cosa completamente diversa ed a oggi non esistono schede video compatibili con il codec AV1.

LukeIlBello
09-04-2019, 11:43
magari è piu efficiente usare la cpu, usare i cuda è inferiore come approccio infatti sulle gpu non usi cuda ma le unita a calcolo fisso che è una cosa completamente diversa ed a oggi non esistono schede video compatibili con il codec AV1.
ad oggi, ma non domani :read:
a meno che te per decodare i filmati in h264 te usi la cpu :asd:
non dico che non si possa fare, ma consumi molta piu corrente e non usi un componente DEDICATO per gestire i flussi video, con ben 10k cores e oltre

coschizza
09-04-2019, 11:48
ad oggi, ma non domani :read:
a meno che te per decodare i filmati in h264 te usi la cpu :asd:
non dico che non si possa fare, ma consumi molta piu corrente e non usi un componente DEDICATO per gestire i flussi video, con ben 10k cores e oltre

ovvio che uso la cpu per decodare i filmati da la migliore qualita di qulsiasi gpu esistente, la gpu si usa per fare filmati in tempo reale con qualita inferiore pero . E io codifico video quasi h24 per lavoro quindi ne so abbastanza.
la gpu la usi nel mercato consumer perché ti serve fare l'operazione velocemente ma è una cosa ben diversa.

Bradiper
09-04-2019, 12:00
Credo che parli di encoding di una fonte 4k in tempo reale... Tipo trasmettere una partita in 4k in diretta... La fonte 4k va compressa in tempo reale in questo formato (forse per questo serve uno xeon) e trasmessa in streaming.. Senza perdere qualità ma utizzando poca banda
.
Poi vabbè posso sbagliarmi,ma spero che net tra un po' di tempo ci possa dare il 4k con la stessa fluidità di oggi.

LukeIlBello
09-04-2019, 12:50
ovvio che uso la cpu per decodare i filmati da la migliore qualita di qulsiasi gpu esistente, la gpu si usa per fare filmati in tempo reale con qualita inferiore pero . E io codifico video quasi h24 per lavoro quindi ne so abbastanza.
la gpu la usi nel mercato consumer perché ti serve fare l'operazione velocemente ma è una cosa ben diversa.

si ma consumi molta più energia.. la qualità è migliore ma a che prezzo? :fagiano:

demon77
09-04-2019, 13:14
Chiedo delucidazioni:

Punto uno: è "pensato per gli xeon".. ma per la codifica dei filmati non è mille volte più efficiente e prestante usare una GPU??

Punto due: per quale ragione serve uno xeon così incazzato? I filmati vengono codificati in real time?? :confused:
Non vengono codificati e salvati già pronti sui server di netflix?? Io davo per scontato fosse così.

demon77
09-04-2019, 13:18
ovvio che uso la cpu per decodare i filmati da la migliore qualita di qulsiasi gpu esistente, la gpu si usa per fare filmati in tempo reale con qualita inferiore pero .

Ecco.. e io mi chiedo il perchè di sta cosa.

Dico, passi la storia del realtime, ma per CODIFICARE e anche decodificare un filmato per quale arcana ragione la CPU lo fa bene e la GPU invece lo fa con qualità peggiore? :confused:

Bradiper
09-04-2019, 13:32
Ti è mai capitato magari anni fa di riappare un dvd e poi fare l encode in dvix? Era lento... E non potevi vederlo perché la codifica era più lenta della riproduzione... Ora immagina un filmato in 4k e di vederlo mentre lo codifica nesso stesso momento, ecco perché ci vuole uno xeon incazzato.

LukeIlBello
09-04-2019, 13:36
Ecco.. e io mi chiedo il perchè di sta cosa.

Dico, passi la storia del realtime, ma per CODIFICARE e anche decodificare un filmato per quale arcana ragione la CPU lo fa bene e la GPU invece lo fa con qualità peggiore? :confused:

domanda giusta in effetti, perchè è verissimo che il decoding dei flussi tramite CPU sia qualitativamente superiore a CUDA, però è anche vero che se su CUDA uso nv_enc (x265) con profilo "low" (quindi qualità max), la differenza di qualità col rendering CPU è davvero piccola :O
ma se considero l'efficienza di una GPU non c'è storia :read:

LukeIlBello
09-04-2019, 13:37
Ti è mai capitato magari anni fa di riappare un dvd e poi fare l encode in dvix? Era lento... E non potevi vederlo perché la codifica era più lenta della riproduzione... Ora immagina un filmato in 4k e di vederlo mentre lo codifica nesso stesso momento, ecco perché ci vuole uno xeon incazzato.

pure tu decodi con la CPU? :asd:
ma che è una moda dell'estate

coschizza
09-04-2019, 13:42
Ecco.. e io mi chiedo il perchè di sta cosa.

Dico, passi la storia del realtime, ma per CODIFICARE e anche decodificare un filmato per quale arcana ragione la CPU lo fa bene e la GPU invece lo fa con qualità peggiore? :confused:

perche le gpu usano unita create a posta ma di natura fisse mentre i software si evolvono in continuazione e quindi si evolve anche il flusso creato. Tutti i programmi di codifica professionali usano solo e soltanto la cpu infatti e parlo roba che costa come un automobile non dei software che puoi scaricare a casa per farti un filmato o ripparti un dvd.
Da sempre i software sono migliori come qualità e versatilità rispetto alle gpu, lo troverai scritto in qualsiasi report o comparativa professionale in rete.

coschizza
09-04-2019, 13:43
pure tu decodi con la CPU? :asd:
ma che è una moda dell'estate

si fa da sempre io non conosco nessuno che usi la gpu sei la prima persona che me lo fa notare.

LukeIlBello
09-04-2019, 13:48
si fa da sempre io non conosco nessuno che usi la gpu sei la prima persona che me lo fa notare.

mah... che ti devo dire.. la cpu usa 4-8 cores al 60-70%, consumando bei watt...
la gpu ha bisogno di molta meno potenza, ergo è piu economica..
per me è piu che naturale decodare colla GPU, tant'è che su FF ho installato
h264ify proprio per scaricare la cpu da tale compito :stordita:

coschizza
09-04-2019, 13:52
mah... che ti devo dire.. la cpu usa 4-8 cores al 60-70%, consumando bei watt...
la gpu ha bisogno di molta meno potenza, ergo è piu economica..
per me è piu che naturale decodare colla GPU, tant'è che su FF ho installato
h264ify proprio per scaricare la cpu da tale compito :stordita:

certo che puoi farlo non ho detto che non si puo fare ma lo si fa per certi scopi non per archiviare video ad alta qualita in quel caso solo software.
Oppure pensi che netflix che genera la piu elevata benda del pianeta voglia passare al software intel perchè cosi aumenta la sua inefficienza e i costi?
Per te sara naturale usare la gpu perché non hai necessita particolari quindi ti basta quello che fa e quindi è giusto che la usi ma io non userei la gpu neppure se me la regalassero perchè punto sulla qualita del file generato finale che è il mio scopo principale.

demon77
09-04-2019, 13:58
perche le gpu usano unita create a posta ma di natura fisse mentre i software si evolvono in continuazione e quindi si evolve anche il flusso creato. Tutti i programmi di codifica professionali usano solo e soltanto la cpu infatti e parlo roba che costa come un automobile non dei software che puoi scaricare a casa per farti un filmato o ripparti un dvd.
Da sempre i software sono migliori come qualità e versatilità rispetto alle gpu, lo troverai scritto in qualsiasi report o comparativa professionale in rete.

mmmmm... non sono convinto..
Il software si evolve OK. Ma il software che si evolve si evolve su CPU come si evolve su GPU.
E l'hardwaare resta sempre lo stesso sia sulla GPU che sulla CPU.
La gpu è strutturata in modo tale da eseguire determinate fuunzioni matematiche in modo super performante, la CPU è strutturata per essere meno performante ma in grado di eseguire con buone prestazioni un numero molto maggiore di funzioni matematiche.

Il punto però è che una funzione matematica quella è e quella resta.. non è che se lo fa una CPU al posto di una GPU allora il risultato è diverso. :confused:

ninja750
09-04-2019, 14:01
Però come dici tu non ha senso... Allora sulla tv o sul pc per vedere un filmato in questo formato dovrò avere uno xeon?

basta una RTX con physics

coschizza
09-04-2019, 14:04
mmmmm... non sono convinto..
Il software si evolve OK. Ma il software che si evolve si evolve su CPU come si evolve su GPU.
E l'hardwaare resta sempre lo stesso sia sulla GPU che sulla CPU.
La gpu è strutturata in modo tale da eseguire determinate fuunzioni matematiche in modo super performante, la CPU è strutturata per essere meno performante ma in grado di eseguire con buone prestazioni un numero molto maggiore di funzioni matematiche.

Il punto però è che una funzione matematica quella è e quella resta.. non è che se lo fa una CPU al posto di una GPU allora il risultato è diverso. :confused:

no l'hardware della gpu non si evolve resta sempre uguale è un unita di calcolo fissa non modificabile infatti se guardi fra le generazioni ogni scheda supporta una versione di decodifica hardware fissa non alterabile e modificabile.

Oggi per esempio nessuna gpu puo decodificare i video av1 mentre sulle cpu lo fai dal software intel come da articolo. E sulle gpu odierne nessuno potrà mai aggiungere tale funzione perché è in hardware.

Certo la "funzione matematica" è quella ma sulla gpu per rendere il tutto piu veloce creano delle approssimazioni che rendono i calcoli più snelli e li perdi qualita.

Ma ti ricordo che anche le cpu hanno hardware fisso di codifica e decodifica video come le gpu quindi non cambia nulla in quel caso specifico. Quindi se devi decodificare un film che usi la cpu o la gpu il consumo e sempre lo teso cioè molto basso.

demon77
09-04-2019, 14:19
no l'hardware della gpu non si evolve resta sempre uguale è un unita di calcolo fissa non modificabile infatti se guardi fra le generazioni ogni scheda supporta una versione di decodifica hardware fissa non alterabile e modificabile.

Oggi per esempio nessuna gpu puo decodificare i video av1 mentre sulle cpu lo fai dal software intel come da articolo. E sulle gpu odierne nessuno potrà mai aggiungere tale funzione perché è in hardware.

Certo la "funzione matematica" è quella ma sulla gpu per rendere il tutto piu veloce creano delle approssimazioni che rendono i calcoli più snelli e li perdi qualita.

Così mi quadra già di più.. ero però convinto che la caratteristica peculiare delle moderne GPU fosse quella appunto di essere molto più versatili rispetto alla vecchia concezione di GPU dedita solo a determinate specifiche funzioni.

LukeIlBello
09-04-2019, 14:19
mmmmm... non sono convinto..
Il software si evolve OK. Ma il software che si evolve si evolve su CPU come si evolve su GPU.
E l'hardwaare resta sempre lo stesso sia sulla GPU che sulla CPU.
La gpu è strutturata in modo tale da eseguire determinate fuunzioni matematiche in modo super performante, la CPU è strutturata per essere meno performante ma in grado di eseguire con buone prestazioni un numero molto maggiore di funzioni matematiche.

Il punto però è che una funzione matematica quella è e quella resta.. non è che se lo fa una CPU al posto di una GPU allora il risultato è diverso. :confused:

quello che dice coschizza però è vero.. l'ho visto coi miei occhi.. :fagiano:

LukeIlBello
09-04-2019, 14:20
certo che puoi farlo non ho detto che non si puo fare ma lo si fa per certi scopi non per archiviare video ad alta qualita in quel caso solo software.
Oppure pensi che netflix che genera la piu elevata benda del pianeta voglia passare al software intel perchè cosi aumenta la sua inefficienza e i costi?
Per te sara naturale usare la gpu perché non hai necessita particolari quindi ti basta quello che fa e quindi è giusto che la usi ma io non userei la gpu neppure se me la regalassero perchè punto sulla qualita del file generato finale che è il mio scopo principale.

ma con nv_enc e profilo LOW siamo li, non c'è sta gran differenza come su h264 .. (anche io per lavoro tratto i flussi, sicuramente non al tuo livello)

LukeIlBello
09-04-2019, 14:22
Quindi se devi decodificare un film che usi la cpu o la gpu il consumo e sempre lo teso cioè molto basso.

questo non è vero :read:
se encodo h265 in full-hd la cpu schizza (60-80%).. altro che "molto basso"

edit: ah no avevo letto ENCODING... sul decoding la differenza c'è anche se inferiore (mi pare siamo sul 10% di occupazione di tutti i cores)

coschizza
09-04-2019, 14:28
Così mi quadra già di più.. ero però convinto che la caratteristica peculiare delle moderne GPU fosse quella appunto di essere molto più versatili rispetto alla vecchia concezione di GPU dedita solo a determinate specifiche funzioni.

invece è proprio cosi per aumentare l'efficienza si creano unita dedicate e come tali sono limitate. Ma non è un male per l'uso generico anzi, solo non le devi usare come fossero la soluzione a tutto. Questo vale per tutto non solo le gpu anche nelle cpu ci sono le stesse unita fisse e sono identiche nei pregi e difetti alle soluzioni della contropate.

Come esempio ti cito Intel Quick Sync fa le stesse cose che fanno le gpu ne più ne meno ma ha gli stessi limiti, quindi quando ti serve usi la cpu intesa come unita x86 per elaborare in maniera completa quello che ti serve.

demon77
09-04-2019, 14:41
invece è proprio cosi per aumentare l'efficienza si creano unita dedicate e come tali sono limitate. Ma non è un male per l'uso generico anzi, solo non le devi usare come fossero la soluzione a tutto. Questo vale per tutto non solo le gpu anche nelle cpu ci sono le stesse unita fisse e sono identiche nei pregi e difetti alle soluzioni della contropate.

Come esempio ti cito Intel Quick Sync fa le stesse cose che fanno le gpu ne più ne meno ma ha gli stessi limiti, quindi quando ti serve usi la cpu intesa come unita x86 per elaborare in maniera completa quello che ti serve.

Capito.
E penso che quello che hai spiegato sia anche l'effettiva realtà delle cose perchè altrimenti oggi come oggi tutti i migliori software di codifica o elborazione video userebbero in modo esclusivo la GPU per tutto, cosa che invece non avviene.

Nui_Mg
09-04-2019, 17:34
Come esempio ti cito Intel Quick Sync fa le stesse cose che fanno le gpu ne più ne meno ma ha gli stessi limiti, quindi quando ti serve usi la cpu intesa come unita x86 per elaborare in maniera completa quello che ti serve.
Diciamo che finora nessuna implementazione nvidia/amd batte quicksync (sempre avendo un supporto nativo da parte del player) in quanto a sgravare la cpu.

Detto questo, nella decodifica software av1 si sono fatti dei passi avanti con il decoder lib-dav1d (che va abbastanza bene anche su cpu con scarse AVX2), ma c'è ancora tanto lavoro da fare.
Da vedere poi cosa succederà con certi patent "forse" troll (Sisvel Technology) che pare attendano solo la larga adozione di av1 per rompere le balls.