|
|
|
![]() |
|
Strumenti |
![]() |
#21 |
Senior Member
Iscritto dal: May 2004
Messaggi: 7476
|
perche come detto prima l'intel detiene il 50% dell'intero mercato delle schede video e quindi non ha nessun interesse a investire dei soldi avendo gia una fetta dominante sugli altri con un hardware che costa nulla da sviluppare da mantenere e da produrre.
|
![]() |
![]() |
![]() |
#22 |
Registered User
Iscritto dal: Jun 2008
Città: Osilo (SS)
Messaggi: 153
|
tornando al discorso larrabee + monitor speciale...larrabee secondo quello che dicono nel video dovrebbe essere in grado di renderizzare 8 diversi strati che uniti andranno a comporre l'immagine stereoscopica...sarebbe a dire che dovrebbero renderizzare 8 diversi strati con il raytracing...è una cosa a dir poco mostruosa sotto l'aspetto della potenza di calcolo necessaria!
|
![]() |
![]() |
![]() |
#23 |
Registered User
Iscritto dal: Jun 2008
Città: Osilo (SS)
Messaggi: 153
|
|
![]() |
![]() |
![]() |
#24 | |
Bannato
Iscritto dal: Oct 2005
Città: In giro per il mondo
Messaggi: 5824
|
Quote:
Al massimo il 70% delle soluzioni integrate che è cosa completamente diversa da quella che tu affermi, e tutto questo è destinato a finire, sopratutto da quando la commissione antitrust europea sta indagando sul comportamento illegale perpretato da Intel atta a danneggiare i propri concorrenti (vedi anche nvidia con ION) |
|
![]() |
![]() |
![]() |
#25 |
Senior Member
Iscritto dal: May 2008
Messaggi: 2067
|
Beh, considerando che in passato hanno parlato di raggiungere i 2 teraflops, e che con 50 gigaflops si puo' ottenere gia' raytracing in realtime (ovviamente non paragonabile agli attuali giochi in quanto a qualita', ma abbastanza comunque da farci qualche giochetto), sembra che la possibilita' ci sia. Direi di piu': programmare RT sotto x86 e' molto piu' facile e probabilmente piu' performante che farlo via Cuda su GPU, perche' il tipo di lavoro e i pattern di utilizzo della memoria sono completamente diversi, e le GPU non sono ottimizzate a quello scopo.
Dal mio punto di vista i problemi per LRB sono due, uno tecnologico e uno commerciale. Tecnologico: la potenza per RT potrebbe esserci vista la modularita'. Ma 32/64 core x86 + texture units temo possano consumare e riscaldare un casino. Commerciale: a parte il prezzo, che immagino possa essere altino, quali saranno le prestazioni in OGL o DX? perche' anche qui il discorso e' lo stesso: x86 non e' ottimizzato per quello scopo, e 2 Teraflop potrebbero non competere cone i 2 Teraflop delle soluzioni Ati e nVidia di prossima generazione. Quindi sarebbe un prodotto di fascia media. Ma chi compra una bestia del genere se vuole un prodotto di fascia media? Ovvio che in ogni caso, potrebbe essere una soluzione ESTREMAMENTE interessante per prodotti commerciali: convertire renderes come vRay o Mental Ray per funzionare su LRB dovrebbe essere un procedimento banale che potrebbe pero' far schizzare la produttivita' delle render farms e delle workstation... Essendo appassionato al raytracing aspetto con ansia, chissa' che un giorno possa vedere il mio raytracer su una di queste schede... |
![]() |
![]() |
![]() |
#26 | |
Senior Member
Iscritto dal: May 2004
Messaggi: 7476
|
Quote:
il calcolo viene fatto sull'intero mercato quindi discrete + integrate e l'intel ha sempre asuto la maggioranza del mercato e piu di nvidia + ati messi assieme |
|
![]() |
![]() |
![]() |
#27 |
Senior Member
Iscritto dal: Feb 2009
Città: Forlì
Messaggi: 3688
|
Secondo me questo Larrebee sarà un GigaFlop.
Per la grafica, almeno per com'è ora, le GPU sono molto più adatte e potenti, questa idea di voler usare una CPU multi-core come GPU non mi sembra molto valida, al massimo la si può usare per affiancare le schede video ma non per sostituirle, come una sorta di acceleratore grafico per GPU, e a parte il Raytracing per tutto il resto non credo funzionerà bene come le GPU. E poi c'è il fatto che bisognerà creare tutta una serie di nuovi standard che si adattino a queste CPU quando invece ce ne sono già di pronti per le comuni GPU, insomma un gran sbattimento per diverse società, senza poi sapere ancora quale sarà il risultato per l'utente finale (ergo le vendite). Credo che Intel punti sul fatto che è una grossa azienda e che ha le mani in pasta un po' da tutte le parti e in più s'approfitta del fatto che è proprietaria delle licenze x86; cmq se sta cosa funzionerà non credo che nVidia e AMD le lasceranno molto spazio visto che hanno già più esperienza nel settore video; nel caso nVidia creerà schede video nuove magari con un sistema di GPU multi-core che affianca la GPU principale e AMD visto che dispone di licenze x86 si metterà a produrre schede video simili con CPU e GPU multi-core tutto su un unico PCB lasciando a piedi Intel.
__________________
In My Humble Opinion
Tutto quello che scrivo è IMHO! |
![]() |
![]() |
![]() |
#28 | |
Bannato
Iscritto dal: Oct 2005
Città: In giro per il mondo
Messaggi: 5824
|
Quote:
Detiene il 70% delle soluzioni video integrate solo perchè il chipset con video integrato viene venduto ad un prezzo pressocchè uguale alla controparte senza video, quindi da tali chipset non è che ricava grossi margini da poter investire in sviluppo. Intel non può permettersi in nessun modo di aumentare il prezzo delle proprie soluzioni (fornetto e cessose) nemmeno di un centesimo altrimenti non ne venderebbe nessuna. Cosa che non ti è ben chiara è quella che intel non è leader del mercato grafico, ma ne è schiava in quanto non riuscirebbe a vendere lo stesso numero di processori (vero mercato) ne di chipset se non avendo un ricavo pressoche che nullo dal valore aggiunto dato dalla grafica integrata. A dimostrazione di ciò controlla se intel ha a disposizione una grafica integrata evoluta a listino, o solo caffettiere compatibili dx Diecimila e qualcosa (appena sufficenti a far girare aero di Vista) |
|
![]() |
![]() |
![]() |
#29 | |
Bannato
Iscritto dal: Oct 2005
Città: In giro per il mondo
Messaggi: 5824
|
Quote:
|
|
![]() |
![]() |
![]() |
#30 |
Junior Member
Iscritto dal: Jul 2002
Messaggi: 29
|
Personalmente non ritengo si tratti di vaporware, e non c'e' necessita' di andare negli States per vedere dei sample...
Credo, di base, che il principale malinteso che si riscontra nella maggior parte dei commenti, e' dato dal credere che Intel voglia entrare a gamba tesa nel mercato di CPU hi-end di nVidia e ATI. Le scelte architetturali effettuate non possono che andare in direzione diversa e, videogiocatori a parte, potrebbe avere dei grossi vantaggi davvero per il calcolo "semi-generico". In sostanza essere utile a piu' persone rispetto alla nicchia degli hard-core gamers. La mia perplessita' maggiore a riguardo di questa tecnologia, e' data dall'unico cambiamento che Microsoft ha apportato tra la RC e la RTM di Windows Seven, che riguarda appunto la cassazione delle API di remoting delle DirectX. Che sia... Cordialita' |
![]() |
![]() |
![]() |
#31 |
Senior Member
Iscritto dal: Feb 2005
Messaggi: 675
|
x coschizza
il problema non sono certo l'avere le fabbriche oppure no è quello ci fai con la fab, il problema è che ad intel mancano le menti, se nè stata ben lontana dal mercato video da sempre ed ha iniziato solo di recente a lavorarci su, sai quanto know-how gli manca, anche avessero le menti, e poi non penso ci siano tanti modi di fare la stessa cosa senza incorrere in problemi di brevetti con ati o nvidia (su quest'ultima cosa mi posso anche sbagliare). |
![]() |
![]() |
![]() |
#32 |
Senior Member
Iscritto dal: Dec 2008
Messaggi: 312
|
sarebbe una gran bella rivoluzione... però mi sembra anche un po' uno "spreco", almeno per le applicazioni ludiche interattive, bene o male le tecniche di shading hanno fino a oggi ovviato e reso possibile una grafica molto realistica, diciamo "ingannando" l'occhio evitando una marea di calcoli ed equazioni differenziali.
La via del raytracing è più vicina al concetto originale di realtà virtuale... però ripeto, in ambito ludico non mi cambia poi molto avere un realismo prefettamente "matematico"
__________________
athlon x2 6000+ 3,2ghz, nvidia 9600gt 512Mb, 4Gb ddr2 hyperx cl4 |
![]() |
![]() |
![]() |
#33 | |
Senior Member
Iscritto dal: May 2008
Messaggi: 2067
|
Quote:
Secondo me il futuro passa necessariamente per il raytracing, anche se probabilmente accadra' come gli shader programmabili: inizialmente le GPU prevederanno un supporto limitato, che verra' usato per qualche effetto. Poi la transizione sara' completa, come oggi e' sparita del tutto la fixed function pipeline in favore degli shaders. Quanto veloce sara' questa transizione dipendera' anche dal successo che riscontrera' LRB presso gli sviluppatori (no mercato = nessun interesse a fornire versioni specifiche per LRB). Tuttavia c'e' un motivo per cui Intel, nVidia e AMD (con il suo falsamente raytraced Cinema 2.0) hanno tenuto a pubblicizzare i loro sforzi in questo campo. Neppure all'epoca degli shaders c'era tutto questo hype. E visto che lo sviluppo per RT e' sia per quanto riguarda la programmazione che la realizzazione dei contents probabilmente piu' semplice (= piu' economica), anche le sw house potrebbero vedere con interesse questo sviluppo. Per non parlare del cinema, che avrebbe non poco da guadagnare in dispositivi in grado di accellerare di 10 o 20 volte i loro calcoli, per lo meno in per le preview... |
|
![]() |
![]() |
![]() |
#34 |
Senior Member
Iscritto dal: May 2008
Messaggi: 2067
|
un'ultima cosa: attualmente i motori grafici dei giochi effettuano spesso piu' di una passata di rendering per frame, a causa dei limiti delle GPU e delle tecniche di rasterizzazione. Con un raytracer classico questo non e' necessario.
|
![]() |
![]() |
![]() |
#35 | |
Senior Member
Iscritto dal: May 2004
Messaggi: 7476
|
Quote:
questo pero è ovvio perche esistono tante varianti degli stessi motori di rendering che sono studiati per adattarsi alle situazioni diverse e normalmente sono quelli che si usano in programmi di modellazione 3d e vengono usati in base alla scena che si deve e il tipo di risultato che si vuole ottenere, quello perfetto utilizzabile sempre non puo esistere se non con delle limitazioni in certi ambiti di utilizzo Ultima modifica di coschizza : 28-07-2009 alle 14:21. |
|
![]() |
![]() |
![]() |
#36 | |
Junior Member
Iscritto dal: Jul 2002
Messaggi: 29
|
Quote:
Intendevo dire, in buona sostanza, che questi oggetti sono adatti all'offloading di parecchi compiti oltre a quello di generare immagini splatter in un gioco. Un set di librerie piazzate nel posto giusto possono concorrere a parecchie attivita', dalla compressione dei files alla [de]cifratura, ma l'elenco sarebbe lungo. Inoltre bisogna ricordare che, pur non essendo la loro attivita' principale, le aziende spesso "scommettono" su una tecnologia. Cinque anni di lavoro su questa soluzione probabilmente qualche risultato l'hanno prodotto. Senza contare che l'aver cassato DirectX 11 Remote la settimana prima di andare in RTM con 2008 R2, a me, ed ovviamente parlo solamente a livello personale, fa pensare che da qualche parte i calcoli li si debba pure fare, e se non in periferia... p.s. Pur concorrendo alla crescita del valore del brand, le schede video hi-end non rappresentano lo zoccolo duro del business, anche per chi fa quello di mestiere. |
|
![]() |
![]() |
![]() |
#37 | |
Senior Member
Iscritto dal: Dec 2008
Messaggi: 312
|
Quote:
Però si, al momento pare più hype che sostanza e che i tempi saranno ancora abbastanza lunghi
__________________
athlon x2 6000+ 3,2ghz, nvidia 9600gt 512Mb, 4Gb ddr2 hyperx cl4 |
|
![]() |
![]() |
![]() |
#38 | |
Junior Member
Iscritto dal: Jul 2002
Messaggi: 29
|
Quote:
D'altrode l'azienda si trova, paradossalmente, di fronte ad alcuni scenari in parte interessanti ed in parte spaventosi. - La cavalcata verso la prestazione pura e' rallentata da AMD che non pare in grado di sostenerla adeguatamente. - La virtualizzazione e' giunta ad un livello per cui su ogni singolo sistema (quad socket / otto core, 96 Gb) e' possibile raggiungere densita' che superano quanto richiesto dai clienti Lo stream computing potrebbe essere un mercato su cui concentrarsi in attesa che si muovano quelli tradizionali. Queste sono sempre considerazioni personali, chiaramente. |
|
![]() |
![]() |
![]() |
#39 | |
Junior Member
Iscritto dal: Jul 2002
Messaggi: 29
|
Quote:
Qui si tratta di adattare compiler esistenti o di fare thunking di binari che, pur semplici, magari esistono gia'. In ogni caso sara' un bello spettacolo sul mercato e, per chi ha voglia di seguirlo siamo gia' alla pubblicita' prima dello spettacolo: nell'ultimo quarto di quest'anno scommetterei di poter vedere qualcosa, magari con qualche anticipazione alla terza di ottobre. |
|
![]() |
![]() |
![]() |
#40 |
Senior Member
Iscritto dal: May 2008
Messaggi: 383
|
Se vogliamo giochi che graficamente hanno l'impatto di Optimus Prime o Bumblebee negli ultimi film dei Transformers (Notare la resa di luci e colori nel metallo dei robots, la riflessione/rifrazione dei raggi luminosi e di quanto questi improbabili pupazzoni siano integrati all'interno della scena), beh credo che si dovrà obbligatoriamente migrare verso il raytracing real time negli anni a venire, posto che se l'industria decidesse e avesse le possibilità di fare questa scelta, i dubbi sollevati da altri in questa discussione riguardo ai difetti dei motori di rt dovranno essere (e sicuramente saranno) appianati.
Ora come ora nel cinema se lo possono permettere perché le scene sono prerenderizzate (ho sentito dire cha una render farm impiega diverse ore a renderizzare un singolo fotogramma con esigenze energetiche nell'ordine delle centinaia di kW ![]() Per sfondare il "settore" real time dei videogiochi (quindi elaborare una scena in raytracing a framerate accettabili) servono potenze di calcolo elevate oltre ad architetture altamente compiacenti e richieste energetiche "da consumer"... Ma se poi sia Larrabee la risposta (o la strada) giusta per raggiungere questo obiettivo, boh mi pare un po' presto per dirlo...ma credo sia ancora questione di qualche anno ![]() |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 06:55.