Adobe e NVIDIA dimostrano l'accelerazione hardware per Flash Player

In occasione del GTC le due aziende danno dimostrazione di una versione di Flash Player in grado di supportare l'accelerazione hardware per la decodifica di video HD su piattaforma Flash
di Andrea Bai pubblicata il 02 Ottobre 2009, alle 08:40 nel canale MultimediaNVIDIAAdobe
42 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info1 lascheda video più potente sul mercato (certo non dx11 ma fatto sta)
2 PhisiX (teconologia morta e sepolata, eppure al momento c'è e funziona e il risultato non è male)
3 3D vision (tecnologia morta e sepolta, eppure al momento c'è e funziona, anche se devo ammettere a me un uso intensivo fa sbarellare il cervello)
4 CUDA e GPU computing ad alto livello (altra tecnologia morta eppure c'è e funziona e fior di società ci stanno investendo fior di soldi)
5 giochi "The Way It's Mean to Be Played" ottimizzati per nVidia
6 presto flash con accellerzaione GPU (forse anche ati... ma diciamocelo questa novità porta acqua al mulino ION e non alle 295 o alle 5870)
7 a breve (3 mesi... che quando si parla di un ritardo di nVidia o intel sono un eternità, quando invece si parla di soluzioni AMD/ATI sono una sciocchezza) una nuova architettura e nuove schede.
eh si che azienda farlocca... non son capaci a far schede grafiche e investono soldi su tecnologie morte e sepolte, sarà per questo che hanno una quota di mercato del 65% e SENZA VENDERE SCHEDE IN PERDITA...
so solo che già stanno arrivando le schede di fascia media - QUELLE CON CUI SI FA IL MERCATO, milioni di acquirenti, nn le poche migliaia delle top !
http://translate.google.com/transla...history_state0=
e intanto nvidia sta a fare proclami, profezie e promesse (imho per la disperazione sui suoi ritardi), e ripeto, senza dare un MINIMO bench della potenza promessa da g300 --sulla carta--.
..... perchè ?
Theora? Così a parità di qualità ci vuole il doppio di bitrate
questo vale solo se usi le migliori impostazioni di H.264. ma siti come youtube non le usano di certo (come da questo test).
e comunque HTML5 non ti obbliga di certo ad usare Theora.
é il so che mette a disposizione i decoder. tramite wmp su windows, ffmpeg su Linux e
quicktime su Os X.
io sinceramente non vedo il problema.
La soluzione perdente è chiaro quale sia (HTML5 per ribadire l'ovvio).
vallo a dire ai milioni che hanno uno smartphone senza WinMo!
senza contare Linux dove Moonlight é uno scherzo della natura, ma tanto mi dirai che Linux non conta niente...
eh gia. visto che IE fa pena con javascript allora usiamo tutti silverlight!!!
questa situazione non mi pare affatto casuale...
é per questo che Google e Mozzilla stanno lavorando alacremente in compilatori jit per javascript. é solo questione di tempo.
se inetroperabilitá é roba vecchia, allora evviva la roba vecchia!
Edit: giusto per commentare la notizia altrimenti é brutto...
accelerazione flash é benvenuta, ma spero sia attivata su tutte le versioni di flash, non solo quella windows!
molte librerie di decoder, sfruttamo giá adesso l'accelerazione hw (e sono enormemente piú efficenti anche senza).
sarebbe il caso di sfruttarle, attraverso html5, al piú presto.
Se ho una bestia di scheda e voglio fermare VERAMENTE il concorrente, nn mi metto a fare prediche e presentazioni farlocche e inconsistenti, MA MOSTRO DEI GRAFICI ! fatti, numeri, come li volete chiamare.
è effettivamente preoccupante questo silenzio.... troppo
Qua oltre alle specifiche nn si va....
1 lascheda video più potente sul mercato (certo non dx11 ma fatto sta)
In attesa che la Nvidia abbassi il prezzo avrà pure la scheda più veloce del mercato, ma rispetto alla concorrenza sia come prestazioni, che come consumi, che come tecnologia solo un fanboy prenderebbe quella scheda rispetto a una alternativa crossfire.
2 PhisiX (teconologia morta e sepolata, eppure al momento c'è e funziona e il risultato non è male)
A parte quella minoranza di giochi su cui esiste accelerazione hardware physx è usato per lo di più via software, non che questo sia un male in quanto è tecnologia e comunque tecnologia nvidia.
3 3D vision (tecnologia morta e sepolta, eppure al momento c'è e funziona, anche se devo ammettere a me un uso intensivo fa sbarellare il cervello)
Stiamo parlando di numeri cosi bassi che alla fine parlare di 3d vision e come parlare di quella tecnologia multimonitor ati. Pubblicità.
4 CUDA e GPU computing ad alto livello (altra tecnologia morta eppure c'è e funziona e fior di società ci stanno investendo fior di soldi)
Fuori dall'ambito accademico e di ricerca mi sembra che non siano cosi tante quello che utilizzino cuda, mi sembra che stiano tutti aspettando OpenCL.
Io ho schede nvidia e oltre al demo di badadoom per pochi minuti cuda per me non è mai esistito.
Il GPU computing è una ottima applicazione con tanti risvolti nel mondo consumer, ma il futuro è OpenCL oppure Direct computing non CUDA.
5 giochi "The Way It's Mean to Be Played" ottimizzati per nVidia
Ok, anche se devo dire che finché la nvidia paga per migliorare i giochi sulle proprie schede ok, ma se lo fa anche per impedire che funzionino bene sulle ati è una vittoria di Pirro.
Visto che i costi ricadono sul utente finale un conto e avere un gioco migliore, un conto è avere un gioco uguale che sembra migliore per uno sgambetto alla concorrenza.
Buon punto visto che volente o nolente il flash per un paio di anni ci farà ancora compagnia, però vorrei un data.
7 a breve (3 mesi... che quando si parla di un ritardo di nVidia o intel sono un eternità, quando invece si parla di soluzioni AMD/ATI sono una sciocchezza) una nuova architettura e nuove schede
3 mesi mi sembrano molto ottimistici, probabilmente 5-6
eh si che azienda farlocca... non son capaci a far schede grafiche e investono soldi su tecnologie morte e sepolte, sarà per questo che hanno una quota di mercato del 65% e SENZA VENDERE SCHEDE IN PERDITA...
Il motivo per questi commenti è che la nvidia non ha quasi messo nulla in campo. Solo tanto marketing io Physx non ho mai attivato, Cuda quasi mai usato, 3d vision bah etc etc.
Comunque se hai dubbi sui codec Safari e google chrome includono H264.
http://x264dev.multimedia.cx/?p=102
Qualità scadente, ratecontrol ancora migliorabile (anche se magari con la 1.1 ci hanno messo una pezza), una buona implementazione dell'H264 gli dà tranquillamente la paga (youtube ad esempio usa x264 per l'encoding e la qualità è ottima senza richiedere bitrate eccessivi).
Gmail non è che debba fare niente di complesso, finché si tratta di presentare qualche dato, mettere menù animati o altro javascript è più che sufficiente.
Che poi sono il 99.9% degli ambiti, ok, ma avere un plugin per poter avere del codice più facile da scrivere e più efficiente (ok, flash non è comunque un buon esempio) sarà sempre un'alternativa presente.
Come no?
Su Mac Os Silverlight è supportato eccome (Safari e Firefox), per ora mancano ancora i dispositivi mobili ma come flash è piano piano apparso pure lì credo che con Silverlight succederà lo stesso.
Ora dell'uscita dell'HTML 5 mi sa che sia Flash che Silverlight saranno disponibili per le maggiori piattaforme/browser.
Il fatto è che HTML5 ancora non esiste, quando esisterà sono sicuro anch'io che verrà adottato ma ho i miei dubbi che andrà a sostituire flash e silverlight, almeno dove questi ultimi sono usati in modo intelligente.
Poi se spariscono tutti i cacchio di banner in flash io sarei il primo a rallegrarmene eh ^^ (e lì infatti non credo ci sia nemmeno bisogno di usare flash)
Che test stupido.
Viene fatto ridimensionare il video a youtube (tra uno spline36 e un bilineare c'è una bella differenza, il confronto con input diversi non ha senso).
Youtube encoda a bitrate costante (e sicuramente con settaggi che favoriscono la rapidità di encoding), di theora non si danno né settaggi né niente.
Se mi permetti di fare un encoding con 2 passaggi e con tutto il tempo che vuoi grazie tante che viene fuori meglio anche con un codec nettamente inferiore.
quicktime su Os X.
io sinceramente non vedo il problema.
Che non tutti gli utenti li hanno, mi pare semplice.
Con flash o silverlight hai la certezza al 100%.
senza contare Linux dove Moonlight é uno scherzo della natura, ma tanto mi dirai che Linux non conta niente...
Veramente neanche WinMo supporta silverlight, e nessuno smartphone attualmente mi pare supporti HTML5.
Quindi?
Linux conta per l'1%, poco, e mi risulta che Moonlight faccia comunque un discreto lavoro (no, di installare una distro a caso per provare non ho voglia).
questa situazione non mi pare affatto casuale...
E quindi?
Quando c'era solo flash era adobe a dare le mazzetta a Microsoft?
E insieme non fanno nemmeno il 50% del mercato dei browser...
..... perchè ?
beh in effetti il fatto che non ci sia nessun bench pre-relase da parte di nvidia è una cosa sospetta, io cmq aspetterei l'uscita delle schede per parlare che tanto ad essere fanboy di una azienda screditando la concorrente non ci si guadagna niente(non sto dicendo che sei un fanboy, parlo in generale)
@Ratatosk
Si è tutto in teoria molto bello nel mondo AMD/ATI, ma il fatto è che con concretizzano con qualcosa di nuovo, voglio dire l'equivalente HW di una killer-app (come si chiama?)... se non capiscono che l'HW serve a far girare il SW (e non solo ad essere venduto e far soldi) se continuano a non intraprendere rapporti di coperazione con i produttori di software per me non vanno lontano...su questo devono imparare da nvdia e da intel(vedi apple per esempio)
figurati
ho tutto l'interesse ad avere una concorrenza valida per i nostri soldi, di cui sono effettivamente fanboy. Se una delle due "cade", per noi son dolori.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".