Intel Labs: Wolfenstein in ray-tracing via cloud computing
Vediamo alcuni dei molti i progetti di ricerca ai quali gli Intel Labs lavorano tutti i giorni. Il denominatore comune: pensare a migliorare le esperienze quotidiane delle persone
di Andrea Bai pubblicata il 13 Settembre 2010, alle 15:59 nel canale SistemiIntel
L'Intel Developer Forum Fall 2010 prenderà ufficialmente il via nella giornata odierna con il keynote inaugurale di Paul Otellini, presidente e CEO dell'azienda di Santa Clara. Nel corso della giornata di ieri, tuttavia, Intel ha organizzato un incontro preliminare riservato alla stampa incentrato sulle attività di ricerca che si svolgono all'interno degli Intel Labs.
Genevieve Bell, Intel Fellow and Director of Intel’s Interaction and Experience Research, e Horst Haussecker Director, Experience Technology Lab Interactions & Experiences Research Intel Labs, hanno illustrato l'approccio che viene seguito nelle attività di ricerca per migliorare le tecnologie esistenti e creare nuove tecnologie che arricchiranno la nostra vita in futuro. Viene in particolare sottolineata l'importanza, al fine di creare le cosiddette "technology experience" di domani, di capire ciò che le persone amano nella propria vita quotidiana e, partendo da qui, focalizzarsi su quelle tecnologie che possono migliorare la loro vita e su tecnologie capaci di portare nuove esperienze d'uso nella vita degli utenti. Vediamo di seguito alcuni dei progetti ai quali gli Intel Labs stanno lavorando, progetti che in un domani non troppo lontano potrebbero entrare a far parte della nostra vita di tutti i giorni.
Gli Intel Labs di Seattle stanno lavorando ad OASIS, il cui nome sta per "Object-Aware Situated Interactive System. Si tratta di un progetto che dimostra come sia possibile utilizzare tecnologie di micro-proiezione, videocamere 3D e algoritmi di computer vision per realizzare un sistema in grado di riconoscere e tracciare oggetti reali di qualunque tipo e azioni compiute dall'uomo. La dimostrazione cui abbiamo assistito è ambientata all'interno di una cucina: si tratta di una dimostrazione pratica di come il riconoscimento di oggetti reali e l'interazione basata su gesture possono essere utilizzate in un normale ambiente domestico e a tal proposito è interessante osservare come la dimostrazione tenuta da Intel rappresenti solamente uno dei tanti modelli d'uso che è possibile adottare con una tecnologia di questo tipo. Come detto in precedenza, gli Intel Labs hanno impiegato un proiettore, una videocamera 3D e un PC: il team di ricerca sostiene che sarà presto possibile racchiudere tutto ciò in un dispositivo delle dimensioni di un telefono cellulare, non appena i chip e i SoC destinati alla mobilità metteranno a disposizione maggiori potenze di calcolo, minori consumi e nuove funzionalità.
Un secondo interessante progetto portato avanti presso gli Intel Labs di Santa Clara è invece focalizzato sulla Mobile Augmented Reality, pedissequamente traducibile come "realtà aumentata in movimento". Il team di ricerca ha realizzato un Mobile Augmented Reality World Browser, che viene impiegato su di un dispositivo basato su piattaforma Atom. Con queste tecnologie l'utente semplicemente scattando una fotografia del luogo in cui si trova può accedere in maniera pressoché istantanea ad un vasto numero di informazioni correlate presenti sul web. Il sistema sviluppato dagli Intel Labs è in grado di identificare il luogo basandosi sui dati ricavati analizzando la fotografia e combinandoli con quelli rilevati da una serie di sensori eventualmente presenti sul dispositivo.
Infine, sempre presso gli Intel Labs di Santa Clara, un gruppo di ricerca sta lavorando ad una tecnologia che potrebbe cambiare il futuro dell'esperienza videoludica in mobilità, basandosi su tecnologie di ray-tracing e facendo leva sulle potenzialita della computazione cloud. Abbiamo avuto l'occasione di visionare una dimostrazione di Wolfenstein: Ray Traced, dove un array di macchine basate sulla nuova architettura MIC (Many Integrated Core) conosciuta con il nome in codice di Knight's Ferry effettua il rendering in ray tracing delle scene 3D e le trasmette in streaming ad un normale sistema notebook, dove l'utente può giocare.
13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoah ok certo... perchè crysis non gira manco così
A sto punto basta un semplice netbook con ARM montato per giocare: brava Intel, così si che si vende!
A sto punto basta un semplice netbook con ARM montato per giocare: brava Intel, così si che si vende!
Te lo spiego io... così possono anche noleggiare i giochi a chi ha PC di merda. Più soldi per loro. Easy.
sembra di vedere la grafica del sega saturn
ah oooooooooooook ci stanno i riflessi realtime e le ombre...apprezzo lo sforzo di calcolo che è di sicuro alto so bene cosa vuol dire raytracing realtime a livello di peso...
ma la resa finale di ciò che mostrano nel demo...fa schifo... preferisco il prerenderizzato classico
ok che è sperimentale...ma cioè... io mi sarei vergognato proprio di mostrare al MONDO quei risultati
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".