Entra

View Full Version : Ancora Raytracing per le soluzioni video Intel


Redazione di Hardware Upg
28-07-2009, 10:05
Link alla notizia: http://www.hwupgrade.it/news/skvideo/ancora-raytracing-per-le-soluzioni-video-intel_29724.html

Intel continua le sperimentazioni con le tecniche di Raytracing, nell'ottica di sfruttare al meglio anche le proprie GPU della serie Larrabee

Click sul link per visualizzare la notizia.

NIB90
28-07-2009, 10:17
quindi ci vorrà anche un monitor apposito oltre alle future gpu intel...da quel che ne so il raytracing necessita di un'elevatissima potenza di calcolo...a questo punto mi sorge un dubbio: che si staranno inventando alla intel per creare gpu del genere? e sopratutto in quanti saranno disposti a produrre monitor del genere, o intel si vuole cimentare anche nella costruzione di monitor? finalmente si otterrà una visione stereoscopica anche senza l'utilizzo di occhiali speciali

Tidus.hw
28-07-2009, 10:26
il monitor non c'entra nulla col raytracing.. serve solo se vuoi avere la visione stereoscopica :)

NIB90
28-07-2009, 10:28
il monitor non c'entra nulla col raytracing.. serve solo se vuoi avere la visione stereoscopica :)

io parlavo dei due elementi abbinati visto che nel video li prsentano assieme:D

coschizza
28-07-2009, 10:34
Tutto sto smadonnamento Intel quando c'è chi già può farlo (vedi PS3 su youtube), e quando uscirà AMD e NVIDIA non staranno di certo a guardare, anche perchè fino ad ora si è vista una pseudo demo che va a 3 fps...

la ps3 fa cosa?

cioè tu vedi un filmato su internet e autometicamente la ps3 renderizza in raytreccing?

anceh il mio pc di 6 anni fa lo fa ma poi bisogna vedere cosa questo significa.

volendo dirla tutta la potenza dichiarata dall'hardware intel è di 10x superiore a quello disponibile nel cell della ps3 , quindi se dici che hai visto una demo a 3fps ora immagian cosa fai con l'hardware di una console di ormai 3 anni

NIB90
28-07-2009, 10:36
Tutto sto smadonnamento Intel quando c'è chi già può farlo (vedi PS3 su youtube), e quando uscirà AMD e NVIDIA non staranno di certo a guardare, anche perchè fino ad ora si è vista una pseudo demo che va a 3 fps...

su ps3 si potrà fare con gli occhialetti speciali o "ad occhio nudo"?
tra l'altro qui si parla anche di monitor che oltre a non necessitare di occhialetti, a seconda dell'angolazione della testa cambia il punto di vista da cui segui l'azione....tipo quando negli fps sei vicino ad un muro e sposti la testa per cercare di vedere se c'è qualcuno dietro il muro stesso, solo che qui funziona davvero :sofico:

freeeak
28-07-2009, 10:39
ma se non riescono ancora a fare un sk grafica competitiva con quellle ati e nvidia e parlano di raytracing che ha bisogno di ancora piu potenza...a me sembra che si affidino un po troppo al loro buon nome in ambito cpu per vendere ste ca......

NIB90
28-07-2009, 10:42
ma se non riescono ancora a fare un sk grafica competitiva con quellle ati e nvidia e parlano di raytracing che ha bisogno di ancora piu potenza...a me sembra che si affidino un po troppo al loro buon nome in ambito cpu per vendere ste ca......

quoto...da quel che si legge poi non sono neanche vere e proprie schede video visto che operano nativamente in x86...

coschizza
28-07-2009, 10:43
ma se non riescono ancora a fare un sk grafica competitiva con quellle ati e nvidia e parlano di raytracing che ha bisogno di ancora piu potenza...a me sembra che si affidino un po troppo al loro buon nome in ambito cpu per vendere ste ca......

come fai a dirlo, non ci hanno mai provato quindi come fai sapere che non possono farlo?

se poi consideri che hanno piu soldi piu personale e sono gli unici a avere le fabbriche direi che possono farlo senza problemi. la fortuna dei concorrenti è che fino ad ora non era il core business dell'intel il mercato dellr gpu discrete e quindi non si sono mai applicati.

elevul
28-07-2009, 10:44
Non vedo l'ora.
Ho visto alcune demo di raytracing, e sono rimasto sbalordito dalla qualità.
Se davvero Larabee sarà in grado di renderizzare scene complesse in raytracing senza problemi allora tanto di cappello. Finalmente una nuova era della grafica inizierà.

coschizza
28-07-2009, 10:46
quoto...da quel che si legge poi non sono neanche vere e proprie schede video visto che operano nativamente in x86...

il fatto che sono x86 è un vantaggio non un difetto. Gli altri non lo possono usare perche non hanno la licenza e qundi si sono dovuti inventare nuovi linguaggi e ognuno il suo diverso rendendo il tutto piu complicato per loro e per chi poi ci sviluppa sopra.

NIB90
28-07-2009, 10:47
come fai a dirlo, non ci hanno mai provato quindi come fai sapere che non possono farlo?

se poi consideri che hanno piu soldi piu personale e sono gli unici a avere le fabbriche direi che possono farlo senza problemi. la fortuna dei concorrenti è che fino ad ora non era il core business dell'intel il mercato dellr gpu discrete e quindi non si sono mai applicati.

gpu discrete? io direi più che altro gpu di fascia "abbastanza bassa" :ciapet: anche se non fosse così mi riesce difficile pensare che riescano a sviluppare di botto gpu con prestazioni con i controcacchi in così poco tempo

NIB90
28-07-2009, 10:51
il fatto che sono x86 è un vantaggio non un difetto. Gli altri non lo possono usare perche non hanno la licenza e qundi si sono dovuti inventare nuovi linguaggi e ognuno il suo diverso rendendo il tutto piu complicato per loro e per chi poi ci sviluppa sopra.

premetto che sono abbastanza scarso in queste cose... ma ciò non vorrebbe dire che tutto ciò che è stato programmato per codici diversi dal x86 debba essere riscritto per poterlo utilizzare su tali gpu?

coschizza
28-07-2009, 10:52
gpu discrete? io direi più che altro gpu di fascia "abbastanza bassa" :ciapet: anche se non fosse così mi riesce difficile pensare che riescano a sviluppare di botto gpu con prestazioni con i controcacchi in così poco tempo

l'intel detiene il 50% dell'intero mercato delle schede video e questo proprio grazie alle gpu di fascia bassa

inoltre fare un gpu è un lavoro che puo fare chiunque avendo le risorse e l'intel le ha. Se quello ceh dici fosse vero come ha fatto la microsoft a farsi fare in casa una gpu pe la xbox 360 che all'epoca erra avveniristica? ci ha lavorato un team di un centinaio di persone quindi se lo hanno fatto looro ceh non sono produttori di hardware l'intel che ha risorse illimitate non ha nessun problema.

la questione è sempre quella citata all'inizio, prima l'intel non aveva interesse a entrare in queto mercato ora con la concorrenza dell gpu nell'ambito del gpu computing le cose cambieranno come è normale che sia

coschizza
28-07-2009, 10:58
premetto che sono abbastanza scarso in queste cose... ma ciò non vorrebbe dire che tutto ciò che è stato programmato per codici diversi dal x86 debba essere riscritto per poterlo utilizzare su tali gpu?

questo non è un problema perche quello che dici si è gia fatto innumerevoli volte negli ultimi anni nel passaggio dalle dx 5 alle 7 alle 8 alle 9 alle 10 alle 11 alle openg 1,2,3 ecc

come si è fatto prima si puo rifare all'infinito.

inoltre il nuovo hardware ha un set di driver completi , quindi se vuoi potrai scrivere nel linguaggio nativo x86 (che non è uguale a quello che usiamo sui pc) oppure userai i driver opengl oppure quello directx, insomma è il driver che fa tutto il lavoro e separa l'applicativo dall'hardware che ci sta sotto.

se hai un gioco directx9 a lui non interessa cosa ci sta sotto perche usa le chiamate directx per funzionare e visto che l'hardware ha il supporto per tutti i sistemi ora utilizzati non ci sono problemi.

ovviamente bisogna vedere quanto brava sarà l'intel a sviluppare i driver e a tenerli aggiornati, questo è ancora piu importante della mera parte hardware.

Ares17
28-07-2009, 10:59
come fai a dirlo, non ci hanno mai provato quindi come fai sapere che non possono farlo?

se poi consideri che hanno piu soldi piu personale e sono gli unici a avere le fabbriche direi che possono farlo senza problemi. la fortuna dei concorrenti è che fino ad ora non era il core business dell'intel il mercato dellr gpu discrete e quindi non si sono mai applicati.

I740 ti dice niente.
In passato intel ha gia provato ad entrare nel settore video e con scarsissimo successo.
Intel ha le risorse economiche, i mezzi e gli uomini, ma allora come mai anche costruendo video integrate nei chipset non riesce ad avere un sottosistema video all'altezza di quello di Ati e Nvidia di due generazioni precedenti.

NIB90
28-07-2009, 11:02
questo non è un problema perche quello che dici si è gia fatto innumerevoli volte negli ultimi anni nel passaggio dalle dx 5 alle 7 alle 8 alle 9 alle 10 alle 11 alle openg 1,2,3 ecc

come si è fatto prima si puo rifare all'infinito.

inoltre il nuovo hardware ha un set di driver completi , quindi se vuoi potrai scrivere nel linguaggio nativo x86 (che non è uguale a quello che usiamo sui pc) oppure userai i driver opengl oppure quello directx, insomma è il driver che fa tutto il lavoro e separa l'applicativo dall'hardware che ci sta sotto.

se hai un gioco directx9 a lui non interessa cosa ci sta sotto perche usa le chiamate directx per funzionare e visto che l'hardware ha il supporto per tutti i sistemi ora utilizzati non ci sono problemi.

ovviamente bisogna vedere quanto brava sarà l'intel a sviluppare i driver e a tenerli aggiornati, questo è ancora piu importante della mera parte hardware.

ok capito... grazie per la dritta:D

gabi.2437
28-07-2009, 11:09
Ma Larrabee è un processore cpu+gpu, come fa la parte gpu a essere più potente di una gpu discreta?

NIB90
28-07-2009, 11:18
Ti confondi con Clarkdale :>

Larrabee è un multi-core x86 (48 cores? 64 cores?) destinato ad utilizzi grafici.

non ho capito una cosa...questo larrabee è destinato agli sviluppatori o ai comuni mortali?

coschizza
28-07-2009, 11:36
Più che altro mi chiedo come possano ottenere prestazioni più che scarse con un approccio che di fatto è emulativo...

si ma non parlerei di mera emulazione altrimenti è ovvio che la potenza viene persa per emulare un set di comandi diversi. Qui si parla di un strato di software per convertire le chiamate in chiamate adatte all'hardware sottostante come fanno ati e nvidia oggi con i loro hardware.

se quello che dici fosse vero in senso generale allora nessuna glu potrebbe far girare giochi in opengl visto che l'hardware è nato come filosofia e specifiche per far girare software directx, invece sai che non è cosi perche è il driver che sa come corvertire le chiamate per rendere il tutto trasparente al software.

ma non si puo parlare di vera emulazione software, altrimenti una GPU directx 10.1 di oggi nel far girare un gioco direct 8 di 5 anni fa lo farebeb andare piu lentamente di una volta, cosa che ovviamente non è vera.

coschizza
28-07-2009, 11:41
Intel ha le risorse economiche, i mezzi e gli uomini, ma allora come mai anche costruendo video integrate nei chipset non riesce ad avere un sottosistema video all'altezza di quello di Ati e Nvidia di due generazioni precedenti.

perche come detto prima l'intel detiene il 50% dell'intero mercato delle schede video e quindi non ha nessun interesse a investire dei soldi avendo gia una fetta dominante sugli altri con un hardware che costa nulla da sviluppare da mantenere e da produrre.

NIB90
28-07-2009, 11:45
tornando al discorso larrabee + monitor speciale...larrabee secondo quello che dicono nel video dovrebbe essere in grado di renderizzare 8 diversi strati che uniti andranno a comporre l'immagine stereoscopica...sarebbe a dire che dovrebbero renderizzare 8 diversi strati con il raytracing...è una cosa a dir poco mostruosa sotto l'aspetto della potenza di calcolo necessaria!

NIB90
28-07-2009, 11:51
Il punto è: con quali tempi di elaborazione?

vero...si parla addirittura di REAL-TIME

Ares17
28-07-2009, 12:06
perche come detto prima l'intel detiene il 50% dell'intero mercato delle schede video e quindi non ha nessun interesse a investire dei soldi avendo gia una fetta dominante sugli altri con un hardware che costa nulla da sviluppare da mantenere e da produrre.

intel non ditiene per niente il 50% del mercato delle schede video, questa è una colossale bufale.
Al massimo il 70% delle soluzioni integrate che è cosa completamente diversa da quella che tu affermi, e tutto questo è destinato a finire, sopratutto da quando la commissione antitrust europea sta indagando sul comportamento illegale perpretato da Intel atta a danneggiare i propri concorrenti (vedi anche nvidia con ION)

cignox1
28-07-2009, 12:35
Beh, considerando che in passato hanno parlato di raggiungere i 2 teraflops, e che con 50 gigaflops si puo' ottenere gia' raytracing in realtime (ovviamente non paragonabile agli attuali giochi in quanto a qualita', ma abbastanza comunque da farci qualche giochetto), sembra che la possibilita' ci sia. Direi di piu': programmare RT sotto x86 e' molto piu' facile e probabilmente piu' performante che farlo via Cuda su GPU, perche' il tipo di lavoro e i pattern di utilizzo della memoria sono completamente diversi, e le GPU non sono ottimizzate a quello scopo.

Dal mio punto di vista i problemi per LRB sono due, uno tecnologico e uno commerciale.

Tecnologico: la potenza per RT potrebbe esserci vista la modularita'. Ma 32/64 core x86 + texture units temo possano consumare e riscaldare un casino.

Commerciale: a parte il prezzo, che immagino possa essere altino, quali saranno le prestazioni in OGL o DX? perche' anche qui il discorso e' lo stesso: x86 non e' ottimizzato per quello scopo, e 2 Teraflop potrebbero non competere cone i 2 Teraflop delle soluzioni Ati e nVidia di prossima generazione. Quindi sarebbe un prodotto di fascia media. Ma chi compra una bestia del genere se vuole un prodotto di fascia media?

Ovvio che in ogni caso, potrebbe essere una soluzione ESTREMAMENTE interessante per prodotti commerciali: convertire renderes come vRay o Mental Ray per funzionare su LRB dovrebbe essere un procedimento banale che potrebbe pero' far schizzare la produttivita' delle render farms e delle workstation...

Essendo appassionato al raytracing aspetto con ansia, chissa' che un giorno possa vedere il mio raytracer su una di queste schede...

coschizza
28-07-2009, 12:40
intel non ditiene per niente il 50% del mercato delle schede video, questa è una colossale bufale.
Al massimo il 70% delle soluzioni integrate che è cosa completamente diversa da quella che tu affermi, e tutto questo è destinato a finire, sopratutto da quando la commissione antitrust europea sta indagando sul comportamento illegale perpretato da Intel atta a danneggiare i propri concorrenti (vedi anche nvidia con ION)

hai ragione i dati ufficiali parlano di 49.7% ma speravo che non mi facessi la pulce per aver arrotondato il valore

il calcolo viene fatto sull'intero mercato quindi discrete + integrate e l'intel ha sempre asuto la maggioranza del mercato e piu di nvidia + ati messi assieme

JackZR
28-07-2009, 12:52
Secondo me questo Larrebee sarà un GigaFlop.
Per la grafica, almeno per com'è ora, le GPU sono molto più adatte e potenti, questa idea di voler usare una CPU multi-core come GPU non mi sembra molto valida, al massimo la si può usare per affiancare le schede video ma non per sostituirle, come una sorta di acceleratore grafico per GPU, e a parte il Raytracing per tutto il resto non credo funzionerà bene come le GPU. E poi c'è il fatto che bisognerà creare tutta una serie di nuovi standard che si adattino a queste CPU quando invece ce ne sono già di pronti per le comuni GPU, insomma un gran sbattimento per diverse società, senza poi sapere ancora quale sarà il risultato per l'utente finale (ergo le vendite).
Credo che Intel punti sul fatto che è una grossa azienda e che ha le mani in pasta un po' da tutte le parti e in più s'approfitta del fatto che è proprietaria delle licenze x86; cmq se sta cosa funzionerà non credo che nVidia e AMD le lasceranno molto spazio visto che hanno già più esperienza nel settore video; nel caso nVidia creerà schede video nuove magari con un sistema di GPU multi-core che affianca la GPU principale e AMD visto che dispone di licenze x86 si metterà a produrre schede video simili con CPU e GPU multi-core tutto su un unico PCB lasciando a piedi Intel.

Ares17
28-07-2009, 13:00
hai ragione i dati ufficiali parlano di 49.7% ma speravo che non mi facessi la pulce per aver arrotondato il valore

il calcolo viene fatto sull'intero mercato quindi discrete + integrate e l'intel ha sempre asuto la maggioranza del mercato e piu di nvidia + ati messi assieme

tu hai parlato di schede video (e non di soluzione video). Quindi hai detto una castroneria in quanto ad oggi intel non produce nessuna scheda video.
Detiene il 70% delle soluzioni video integrate solo perchè il chipset con video integrato viene venduto ad un prezzo pressocchè uguale alla controparte senza video, quindi da tali chipset non è che ricava grossi margini da poter investire in sviluppo.
Intel non può permettersi in nessun modo di aumentare il prezzo delle proprie soluzioni (fornetto e cessose) nemmeno di un centesimo altrimenti non ne venderebbe nessuna.
Cosa che non ti è ben chiara è quella che intel non è leader del mercato grafico, ma ne è schiava in quanto non riuscirebbe a vendere lo stesso numero di processori (vero mercato) ne di chipset se non avendo un ricavo pressoche che nullo dal valore aggiunto dato dalla grafica integrata.
A dimostrazione di ciò controlla se intel ha a disposizione una grafica integrata evoluta a listino, o solo caffettiere compatibili dx Diecimila e qualcosa (appena sufficenti a far girare aero di Vista)

Ares17
28-07-2009, 13:07
Secondo me questo Larrebee sarà un GigaFlop.
Per la grafica, almeno per com'è ora, le GPU sono molto più adatte e potenti, questa idea di voler usare una CPU multi-core come GPU non mi sembra molto valida, al massimo la si può usare per affiancare le schede video ma non per sostituirle, come una sorta di acceleratore grafico per GPU, e a parte il Raytracing per tutto il resto non credo funzionerà bene come le GPU. E poi c'è il fatto che bisognerà creare tutta una serie di nuovi standard che si adattino a queste CPU quando invece ce ne sono già di pronti per le comuni GPU, insomma un gran sbattimento per diverse società, senza poi sapere ancora quale sarà il risultato per l'utente finale (ergo le vendite).
Credo che Intel punti sul fatto che è una grossa azienda e che ha le mani in pasta un po' da tutte le parti e in più s'approfitta del fatto che è proprietaria delle licenze x86; cmq se sta cosa funzionerà non credo che nVidia e AMD le lasceranno molto spazio visto che hanno già più esperienza nel settore video; nel caso nVidia creerà schede video nuove magari con un sistema di GPU multi-core che affianca la GPU principale e AMD visto che dispone di licenze x86 si metterà a produrre schede video simili con CPU e GPU multi-core tutto su un unico PCB lasciando a piedi Intel.
A dire il vero di proclami del genere ne aveva gia fatti in passato (nessuno si ricorda la presentazione di ITANIUM) ma nessuno si è rivelato delle proporzioni ostentate.

pachugo
28-07-2009, 13:15
Di fatto per il momento è vaporware.

Personalmente non ritengo si tratti di vaporware, e non c'e' necessita' di andare negli States per vedere dei sample...
Credo, di base, che il principale malinteso che si riscontra nella maggior parte dei commenti, e' dato dal credere che Intel voglia entrare a gamba tesa nel mercato di CPU hi-end di nVidia e ATI.
Le scelte architetturali effettuate non possono che andare in direzione diversa e, videogiocatori a parte, potrebbe avere dei grossi vantaggi davvero per il calcolo "semi-generico". In sostanza essere utile a piu' persone rispetto alla nicchia degli hard-core gamers.
La mia perplessita' maggiore a riguardo di questa tecnologia, e' data dall'unico cambiamento che Microsoft ha apportato tra la RC e la RTM di Windows Seven, che riguarda appunto la cassazione delle API di remoting delle DirectX.
Che sia...

Cordialita'

freeeak
28-07-2009, 13:17
x coschizza
il problema non sono certo l'avere le fabbriche oppure no è quello ci fai con la fab, il problema è che ad intel mancano le menti, se nè stata ben lontana dal mercato video da sempre ed ha iniziato solo di recente a lavorarci su, sai quanto know-how gli manca, anche avessero le menti, e poi non penso ci siano tanti modi di fare la stessa cosa senza incorrere in problemi di brevetti con ati o nvidia (su quest'ultima cosa mi posso anche sbagliare).

g4be
28-07-2009, 13:24
sarebbe una gran bella rivoluzione... però mi sembra anche un po' uno "spreco", almeno per le applicazioni ludiche interattive, bene o male le tecniche di shading hanno fino a oggi ovviato e reso possibile una grafica molto realistica, diciamo "ingannando" l'occhio evitando una marea di calcoli ed equazioni differenziali.
La via del raytracing è più vicina al concetto originale di realtà virtuale... però ripeto, in ambito ludico non mi cambia poi molto avere un realismo prefettamente "matematico"

cignox1
28-07-2009, 13:43
La via del raytracing è più vicina al concetto originale di realtà virtuale... però ripeto, in ambito ludico non mi cambia poi molto avere un realismo prefettamente "matematico"


Ci sono tantissimi effetti che un raytracing implementa in maniera estremamente semplice, ma che i giochi moderni devono emulare con trucchi sempre piu' complessi. E visto che la grafica e' destinata a migliorare sempre, arrivera' un punto in cui le tecniche della rasterizzazione non saranno piu' tanto convenienti: gia' oggi implementare le ombre richiede una accurata scelta sia di algoritmo che di tuning dello stesso.
Secondo me il futuro passa necessariamente per il raytracing, anche se probabilmente accadra' come gli shader programmabili: inizialmente le GPU prevederanno un supporto limitato, che verra' usato per qualche effetto. Poi la transizione sara' completa, come oggi e' sparita del tutto la fixed function pipeline in favore degli shaders.
Quanto veloce sara' questa transizione dipendera' anche dal successo che riscontrera' LRB presso gli sviluppatori (no mercato = nessun interesse a fornire versioni specifiche per LRB).

Tuttavia c'e' un motivo per cui Intel, nVidia e AMD (con il suo falsamente raytraced Cinema 2.0) hanno tenuto a pubblicizzare i loro sforzi in questo campo. Neppure all'epoca degli shaders c'era tutto questo hype.
E visto che lo sviluppo per RT e' sia per quanto riguarda la programmazione che la realizzazione dei contents probabilmente piu' semplice (= piu' economica), anche le sw house potrebbero vedere con interesse questo sviluppo.

Per non parlare del cinema, che avrebbe non poco da guadagnare in dispositivi in grado di accellerare di 10 o 20 volte i loro calcoli, per lo meno in per le preview...

cignox1
28-07-2009, 13:46
un'ultima cosa: attualmente i motori grafici dei giochi effettuano spesso piu' di una passata di rendering per frame, a causa dei limiti delle GPU e delle tecniche di rasterizzazione. Con un raytracer classico questo non e' necessario.

coschizza
28-07-2009, 14:18
un'ultima cosa: attualmente i motori grafici dei giochi effettuano spesso piu' di una passata di rendering per frame, a causa dei limiti delle GPU e delle tecniche di rasterizzazione. Con un raytracer classico questo non e' necessario.

non è deltutto vero un raytracer classico non è addeguato a fare tutti gli effetti inoltre ha dei limiti strutturali, quindi la soluzione ideale è unire le 2 soluzioni perche altrimenti invece che migliorare ti troveresti a usare nuovi motori che a differenza di oggi hanno meno limiti in certi casi e piu in altri.

questo pero è ovvio perche esistono tante varianti degli stessi motori di rendering che sono studiati per adattarsi alle situazioni diverse e normalmente sono quelli che si usano in programmi di modellazione 3d e vengono usati in base alla scena che si deve e il tipo di risultato che si vuole ottenere, quello perfetto utilizzabile sempre non puo esistere se non con delle limitazioni in certi ambiti di utilizzo

pachugo
28-07-2009, 14:45
Le schede video si vendono notoriamente soprattutto per giocare.

Rimangono le low-end, su cui Intel vivacchia bene con quelle schifezze integrate che vende ed il mainstream, difficilmente copribile, come segmento di mercato, con un chip grosso come una padella come ad oggi è un sample di Larrabee.

Quindi per avere dei margini decenti quelle GPU le vendi solo in mercati high-end. Ora, tagliato fuori il mercato dei videogiocatori, se le scelte architetturali non saranno, come io penso, adeguate al compito, rimangono le workstation grafiche e "altro". Le workstation si appoggiano alle stesse librerie dei videogiocatori, quindi mi aspetto, e non c'è motivo di pensarla altrimenti, che le prestazioni siano in linea con quelle e quindi tagliamo fuori un altro mercato high-end.

Rimane "altro", che attualmente, ovviamente, gode della specifica di non esistenza, a parte qualche applicazione che attualmente trova beneficio in CPU multicore e che potrebbe forse utilizzare Larrabee come tale (forse).

Quindi a chi lo vendiamo questo Larrabee?

Ha detto correttamente: le "schede video". La situazione attuale difficilmente permette di classificare cosi' degli oggetti piu' propriamente detti GPGPU.
Intendevo dire, in buona sostanza, che questi oggetti sono adatti all'offloading di parecchi compiti oltre a quello di generare immagini splatter in un gioco. Un set di librerie piazzate nel posto giusto possono concorrere a parecchie attivita', dalla compressione dei files alla [de]cifratura, ma l'elenco sarebbe lungo.
Inoltre bisogna ricordare che, pur non essendo la loro attivita' principale, le aziende spesso "scommettono" su una tecnologia.
Cinque anni di lavoro su questa soluzione probabilmente qualche risultato l'hanno prodotto.
Senza contare che l'aver cassato DirectX 11 Remote la settimana prima di andare in RTM con 2008 R2, a me, ed ovviamente parlo solamente a livello personale, fa pensare che da qualche parte i calcoli li si debba pure fare, e se non in periferia...

p.s.
Pur concorrendo alla crescita del valore del brand, le schede video hi-end non rappresentano lo zoccolo duro del business, anche per chi fa quello di mestiere.

g4be
28-07-2009, 15:54
Ci sono tantissimi effetti che un raytracing implementa in maniera estremamente semplice, ma che i giochi moderni devono emulare con trucchi sempre piu' complessi. E visto che la grafica e' destinata a migliorare sempre, arrivera' un punto in cui le tecniche della rasterizzazione non saranno piu' tanto convenienti: gia' oggi implementare le ombre richiede una accurata scelta sia di algoritmo che di tuning dello stesso.
Secondo me il futuro passa necessariamente per il raytracing, anche se probabilmente accadra' come gli shader programmabili: inizialmente le GPU prevederanno un supporto limitato, che verra' usato per qualche effetto. Poi la transizione sara' completa, come oggi e' sparita del tutto la fixed function pipeline in favore degli shaders.
Quanto veloce sara' questa transizione dipendera' anche dal successo che riscontrera' LRB presso gli sviluppatori (no mercato = nessun interesse a fornire versioni specifiche per LRB).

Tuttavia c'e' un motivo per cui Intel, nVidia e AMD (con il suo falsamente raytraced Cinema 2.0) hanno tenuto a pubblicizzare i loro sforzi in questo campo. Neppure all'epoca degli shaders c'era tutto questo hype.
E visto che lo sviluppo per RT e' sia per quanto riguarda la programmazione che la realizzazione dei contents probabilmente piu' semplice (= piu' economica), anche le sw house potrebbero vedere con interesse questo sviluppo.

Per non parlare del cinema, che avrebbe non poco da guadagnare in dispositivi in grado di accellerare di 10 o 20 volte i loro calcoli, per lo meno in per le preview...

è indubbiamente logico che prima o poi ci sarà un salto qualitativo della grafica in tempo reale verso il realismo tipico del raytracing e le sue varianti utilizzate nel campo del 3D fotorealistico... alla fine due tecniche che mirano alla resa di un fotogramma "realistico" (seppur una in una frazione di secondo, e l'altra nel più breve tempo possibile per far si di non fossilizzarsi in tempi di rendering allucinanti) si vengano incontro spinte dall'aumento della capacità di calcolo offerta dalla tecnologia

Però si, al momento pare più hype che sostanza e che i tempi saranno ancora abbastanza lunghi

pachugo
28-07-2009, 15:57
Il GPGPU si fa sulle GPU, Larrabee architetturalmente somiglia più ad una CPU, che è giù GP per natura. Questo significa che hai già la programmabilità in x86, non hai bisogno di inventarti qualcosa.

p.s.
questo è senz'altro vero, ma si scontra con i 600mm^2 di Larrabee...

E' possibile che non ci fossimo capiti, ma l'osservazione e' quanto scritto nei miei post: la nuova architettura propone scenari diversi da quelli delle GPU dei vendor concorrenti, e fara' lavori differenti, anche se non e' ben definito quali siano.
D'altrode l'azienda si trova, paradossalmente, di fronte ad alcuni scenari in parte interessanti ed in parte spaventosi.
- La cavalcata verso la prestazione pura e' rallentata da AMD che non pare in grado di sostenerla adeguatamente.
- La virtualizzazione e' giunta ad un livello per cui su ogni singolo sistema (quad socket / otto core, 96 Gb) e' possibile raggiungere densita' che superano quanto richiesto dai clienti

Lo stream computing potrebbe essere un mercato su cui concentrarsi in attesa che si muovano quelli tradizionali.
Queste sono sempre considerazioni personali, chiaramente.

pachugo
28-07-2009, 17:32
Avevo capito cosa intendevi. Le mie considerazioni riguardavano il fatto che Larrabee per come ce lo hanno raccontato fino ad ora non è né carne né pesce, e si andrà a posizionare in un mercato che non esiste.

Questo è un vantaggio, in alcuni casi, per esempio Atom che per merito di ASUS ha creato un suo mercato che prima non esisteva, più difficile trovare collocazione ad un prodotto che invece nasce con costi produttivi imponenti (al contrario di Atom) ma senza che il lato software della questione sia preparato alla questione (sempre al contrario di Atom), trovando quindi solo svantaggi.

Un progetto del genere può avere successo solo se oltre ad aprire nuovi scenari, nel frattempo serve a qualcos'altro, e questo Larrabee non mi sembra affatto pronto per sostenere scontri su nessuno degli scenari di mercato attuali.

E' corretto. Tuttavia molti vendor si stanno muovendo in qualita' di partner al fine di proporre soluzioni che siano le prime in uno specifico mercato. L'esperienza di nVidia CUDA ha insegnato a tutti. In realta' nVidia e' andata oltre, ed ora si trova con ATI a dover convincere i partner a sviluppare un ecosistema di prodotti per sfruttare le proprie istruzioni, il che porta a dei prodotti francamente imbarazzanti (CUDA over OpenCL, OpenCL over CUDA).
Qui si tratta di adattare compiler esistenti o di fare thunking di binari che, pur semplici, magari esistono gia'.
In ogni caso sara' un bello spettacolo sul mercato e, per chi ha voglia di seguirlo siamo gia' alla pubblicita' prima dello spettacolo: nell'ultimo quarto di quest'anno scommetterei di poter vedere qualcosa, magari con qualche anticipazione alla terza di ottobre.

davyjones
28-07-2009, 18:36
Se vogliamo giochi che graficamente hanno l'impatto di Optimus Prime o Bumblebee negli ultimi film dei Transformers (Notare la resa di luci e colori nel metallo dei robots, la riflessione/rifrazione dei raggi luminosi e di quanto questi improbabili pupazzoni siano integrati all'interno della scena), beh credo che si dovrà obbligatoriamente migrare verso il raytracing real time negli anni a venire, posto che se l'industria decidesse e avesse le possibilità di fare questa scelta, i dubbi sollevati da altri in questa discussione riguardo ai difetti dei motori di rt dovranno essere (e sicuramente saranno) appianati.

Ora come ora nel cinema se lo possono permettere perché le scene sono prerenderizzate (ho sentito dire cha una render farm impiega diverse ore a renderizzare un singolo fotogramma con esigenze energetiche nell'ordine delle centinaia di kW:eek: ) e l'euqazione di raytracing immagino abbia una approssimazione tutto sommato irrisoria...

Per sfondare il "settore" real time dei videogiochi (quindi elaborare una scena in raytracing a framerate accettabili) servono potenze di calcolo elevate oltre ad architetture altamente compiacenti e richieste energetiche "da consumer"...

Ma se poi sia Larrabee la risposta (o la strada) giusta per raggiungere questo obiettivo, boh mi pare un po' presto per dirlo...ma credo sia ancora questione di qualche anno:cool: IMHO