Encoding video: lo SpursEngine batte una CPU Intel Quad Core

Corel ha voluto dare prova della potenza del chip SpursEngine di Toshiba mettendolo alla prova contro una CPU Intel Quad Core nella compressione di un video
di Fabio Gozzo pubblicata il 10 Giugno 2008, alle 11:41 nel canale ProcessoriToshibaIntel
44 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoColpa, scuste se lo dico, del vizio di sottolineare parti della news, in questo caso, sbagliate!
Non si parla di decodifica ma di CODIFICA!
Immaginatelo dentro una scheda dedicata tipo le Matrox RT (Real Time) per vidieo 1080p, si parla di video 1920x1200px compresso non interlacciato (flusso immenso di dati). Oppure dentro ad apparecchi professionali per editing.
Come notizia è estremamente rilevante, perchè tutti considerano come quando, quanto e dove si vede un film, NESSUNO considera lo sforzo in fase di produzione. Ci sono macchine che hanno potenze nemmeno paragonabili ad un comune PC, nemmeno alle workstation.
Con questa potenza (ed in 10-20W!) significa che sarà possibile fare editing in RT di flussi 1080p con macchinari che costeranno e consumeranno meno.
Comunque questo finirà nel mercato consumer, quindi dentro apparecchietti per aiutare il PC/Mac a codificare il video.
Notizia di ieri (oltre all'iPhone 3G) che Apple sfrutterà OpenCL per l'elaborazione dati/video: CUDA per gli utenti PC.
http://www.apple.com/macosx/snowleopard/
Colpa, scuste se lo dico, del vizio di sottolineare parti della news, in questo caso, sbagliate!
Non si parla di decodifica ma di CODIFICA!
Immaginatelo dentro una scheda dedicata tipo le Matrox RT (Real Time) per vidieo 1080p, si parla di video 1920x1200px compresso non interlacciato (flusso immenso di dati). Oppure dentro ad apparecchi professionali per editing.
Come notizia è estremamente rilevante, perchè tutti considerano come quando, quanto e dove si vede un film, NESSUNO considera lo sforzo in fase di produzione. Ci sono macchine che hanno potenze nemmeno paragonabili ad un comune PC, nemmeno alle workstation.
Con questa potenza (ed in 10-20W!) significa che sarà possibile fare editing in RT di flussi 1080p con macchinari che costeranno e consumeranno meno.
Comunque questo finirà nel mercato consumer, quindi dentro apparecchietti per aiutare il PC/Mac a codificare il video.
Notizia di ieri (oltre all'iPhone 3G) che Apple sfrutterà OpenCL per l'elaborazione dati/video: CUDA per gli utenti PC.
http://www.apple.com/macosx/snowleopard/
Si però bisogna pure dire che si parla nello specifico di downscaling da 1080 a 480, un'operazione non molto pesante.
A questo punto prova a mettere a confronto cell con una GPU che oggi si trova su una buona scheda video e prova a frgli fare una codifica seria.. tipo conversione in divx di un formato 1080p.
Vedrai che non ci sarà nessun "apparecchietto".. la scheda video già presente si smazzerà il lavoro!
E' per questo che seguo CUDA con tanto interesse!
sbagliato. se provi a cercare qua e là in rete troverai che la ps3 è stata la prima a montare il cell, perché è nato per la ps3, poi l'hanno montato su server blade e poi non so dove. cmq, progettato da sony, ibm e toshiba prima per la ps3, poi è andato a finire da altre parti. credo di aver ragione, però, felice di essere smentito (le date, guardate le date)
Quoto, ma diresti lo stesso per un Intel quad core downcloccato che consuma 20W?
è stato studiato per quello
in altre notizie, una ferrari 360 spider batte un hummer h2 in autostrada. ed uno hummer h2 batter una ferrari 360 spider sullo sterrato
A questo punto prova a mettere a confronto cell con una GPU che oggi si trova su una buona scheda video e prova a frgli fare una codifica seria.. tipo conversione in divx di un formato 1080p.
Vedrai che non ci sarà nessun "apparecchietto".. la scheda video già presente si smazzerà il lavoro!
E' per questo che seguo CUDA con tanto interesse!
Il rovescio della medaglia per le GPU è che sono meno flessibili, e che per poter far girare un algoritmo di codifica video (o audio) con efficienza devono rinunciare ad alcune caratteristiche dell'algoritmo.
edit: ne discutevano su beyond3d.
http://forum.beyond3d.com/showthrea...BAC#post1166651
Cell di sicuro ha meno limitazioni su questo. Bisogna vedere come si evolveranno le cose in futuro.
nVidia sta facendo tanto rumore sul GPGPU in questo periodo. Le potenzialità sono impressionanti sia per le schede nVidia che le ATI, ma non è tutto rose e fiori
p.s. se vedete barrette sulla velocità di questa GPU o quella CPU nella codifica video/audio, ricordate che bisogna fare il confronto a parità di qualità, perché è facile far codificare gli mp3 sulla GPU... se si rinuncia al modello psicoacustico!
http://www.hydrogenaudio.org/forums...showtopic=63366
Non conosco molto lo standard H.264, però il suo predecessore H.263+ sì. Le GPU sono processori concepiti per elaborare rapidamente algoritmi che siano altamente parallelizzabili. Nel video non è che tutto l'algoritmo di codifica debba per forza essere di questo tipo: ci sono alcuni step (zig-zag scanning, Variable Length Coding in particolare) che sono tutt'altro che parallelizzabili, e sui quali quindi una GPU mostrerebbe tutti i suoi limiti rispetto ad un processore general-purpose che se la caverebbe probabilmente molto meglio.
Il Core 2 Quad è una CPU nata per eseguire algoritmi seriali, con qualche aggiunta (istruzioni SIMD, multi-core) per gli algoritmi paralleli. Il Cell (e i suoi derivati) è nato per eseguire algoritmi paralleli, con i dovuti accorgimenti architetturali per renderlo decente anche con algoritmi seriali. Direi che il gap tutto sommato limitato ("solo" metà tempo rispetto al quad-core Intel), come detto anche da altri, è tutt'altro che una brutta notizia per Intel.
Ciao,
Filippo
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".