Intel Labs: Wolfenstein in ray-tracing via cloud computing
Vediamo alcuni dei molti i progetti di ricerca ai quali gli Intel Labs lavorano tutti i giorni. Il denominatore comune: pensare a migliorare le esperienze quotidiane delle persone
di Andrea Bai pubblicata il 13 Settembre 2010, alle 15:59 nel canale SistemiIntel
L'Intel Developer Forum Fall 2010 prenderà ufficialmente il via nella giornata odierna con il keynote inaugurale di Paul Otellini, presidente e CEO dell'azienda di Santa Clara. Nel corso della giornata di ieri, tuttavia, Intel ha organizzato un incontro preliminare riservato alla stampa incentrato sulle attività di ricerca che si svolgono all'interno degli Intel Labs.
Genevieve Bell, Intel Fellow and Director of Intel’s Interaction and Experience Research, e Horst Haussecker Director, Experience Technology Lab Interactions & Experiences Research Intel Labs, hanno illustrato l'approccio che viene seguito nelle attività di ricerca per migliorare le tecnologie esistenti e creare nuove tecnologie che arricchiranno la nostra vita in futuro. Viene in particolare sottolineata l'importanza, al fine di creare le cosiddette "technology experience" di domani, di capire ciò che le persone amano nella propria vita quotidiana e, partendo da qui, focalizzarsi su quelle tecnologie che possono migliorare la loro vita e su tecnologie capaci di portare nuove esperienze d'uso nella vita degli utenti. Vediamo di seguito alcuni dei progetti ai quali gli Intel Labs stanno lavorando, progetti che in un domani non troppo lontano potrebbero entrare a far parte della nostra vita di tutti i giorni.
Gli Intel Labs di Seattle stanno lavorando ad OASIS, il cui nome sta per "Object-Aware Situated Interactive System. Si tratta di un progetto che dimostra come sia possibile utilizzare tecnologie di micro-proiezione, videocamere 3D e algoritmi di computer vision per realizzare un sistema in grado di riconoscere e tracciare oggetti reali di qualunque tipo e azioni compiute dall'uomo. La dimostrazione cui abbiamo assistito è ambientata all'interno di una cucina: si tratta di una dimostrazione pratica di come il riconoscimento di oggetti reali e l'interazione basata su gesture possono essere utilizzate in un normale ambiente domestico e a tal proposito è interessante osservare come la dimostrazione tenuta da Intel rappresenti solamente uno dei tanti modelli d'uso che è possibile adottare con una tecnologia di questo tipo. Come detto in precedenza, gli Intel Labs hanno impiegato un proiettore, una videocamera 3D e un PC: il team di ricerca sostiene che sarà presto possibile racchiudere tutto ciò in un dispositivo delle dimensioni di un telefono cellulare, non appena i chip e i SoC destinati alla mobilità metteranno a disposizione maggiori potenze di calcolo, minori consumi e nuove funzionalità.
Un secondo interessante progetto portato avanti presso gli Intel Labs di Santa Clara è invece focalizzato sulla Mobile Augmented Reality, pedissequamente traducibile come "realtà aumentata in movimento". Il team di ricerca ha realizzato un Mobile Augmented Reality World Browser, che viene impiegato su di un dispositivo basato su piattaforma Atom. Con queste tecnologie l'utente semplicemente scattando una fotografia del luogo in cui si trova può accedere in maniera pressoché istantanea ad un vasto numero di informazioni correlate presenti sul web. Il sistema sviluppato dagli Intel Labs è in grado di identificare il luogo basandosi sui dati ricavati analizzando la fotografia e combinandoli con quelli rilevati da una serie di sensori eventualmente presenti sul dispositivo.
Infine, sempre presso gli Intel Labs di Santa Clara, un gruppo di ricerca sta lavorando ad una tecnologia che potrebbe cambiare il futuro dell'esperienza videoludica in mobilità, basandosi su tecnologie di ray-tracing e facendo leva sulle potenzialita della computazione cloud. Abbiamo avuto l'occasione di visionare una dimostrazione di Wolfenstein: Ray Traced, dove un array di macchine basate sulla nuova architettura MIC (Many Integrated Core) conosciuta con il nome in codice di Knight's Ferry effettua il rendering in ray tracing delle scene 3D e le trasmette in streaming ad un normale sistema notebook, dove l'utente può giocare.










Due mesi di Battlefield 6: dalla campagna al battle royale, è l'FPS che stavamo aspettando
Antigravity A1: drone futuristico per riprese a 360° in 8K con qualche lacuna da colmare
Sony Alpha 7 V, anteprima e novità della nuova 30fps, che tende la mano anche ai creator
Starlink Mobile: SpaceX potrebbe lanciare un vero operatore telefonico nel prossimo futuro
Volkswagen trasforma lo stabilimento di Dresda: diventerà un polo di ricerca ultra tecnologico
Meta AI più reattivo e imparziale: Zuckerberg sigla accordi con grandi editori internazionali
In Cina la prima GPU discreta al mondo che supporta nativamente Windows on Arm
Vertiv CoolCenter, il sistema di raffreddamento a immersione per HPC e data center
Konecta entra nel Kraken BPO Partner Program per accelerare la trasformazione delle utility
Un dialogo con l'AI sposta voti meglio della propaganda elettorale
iPhone 17 al minimo storico: oggi il 256 GB scende a 899€ su Amazon ed è già tra i più venduti
Gli utenti italiani scelgono ChatGPT: è il servizio IA più utilizzato per distacco
Anche Xiaomi avrà il suo trifold: ecco quando arriverà e come potrebbe chiamarsi
È Natale in casa Tesla: arriva la Model 3 Standard, sconto speciale a 35.000 euro
Shai-Hulud diventa più cattivo: elimina file se non trova niente da rubare
Aereo ultraleggero si schianta in atterraggio: nel motore un pezzo stampato in 3D
Windows 11 ha una nuova schermata Esegui, ed è bellissima: quella vecchia aveva 30 anni









13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoah ok certo... perchè crysis non gira manco così
A sto punto basta un semplice netbook con ARM montato per giocare: brava Intel, così si che si vende!
A sto punto basta un semplice netbook con ARM montato per giocare: brava Intel, così si che si vende!
Te lo spiego io... così possono anche noleggiare i giochi a chi ha PC di merda. Più soldi per loro. Easy.
sembra di vedere la grafica del sega saturn
ah oooooooooooook ci stanno i riflessi realtime e le ombre...apprezzo lo sforzo di calcolo che è di sicuro alto so bene cosa vuol dire raytracing realtime a livello di peso...
ma la resa finale di ciò che mostrano nel demo...fa schifo... preferisco il prerenderizzato classico
ok che è sperimentale...ma cioè... io mi sarei vergognato proprio di mostrare al MONDO quei risultati
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".