Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
Pensato per il professionista sempre in movimento, HP Elitebook Ultra G1i 14 abbina una piattaforma Intel Core Ultra 7 ad una costruzione robusta, riuscendo a mantenere un peso contenuto e una facile trasportabilità. Ottime prestazioni per gli ambiti di produttività personale con un'autonomia lontano dalla presa di corrente che permette di lavorare per tutta la giornata
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Il REDMAGIC Astra Gaming Tablet rappresenta una rivoluzione nel gaming portatile, combinando un display OLED da 9,06 pollici a 165Hz con il potente Snapdragon 8 Elite e un innovativo sistema di raffreddamento Liquid Metal 2.0 in un form factor compatto da 370 grammi. Si posiziona come il tablet gaming più completo della categoria, offrendo un'esperienza di gioco senza compromessi in mobilità.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 28-07-2009, 11:41   #21
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 7476
Quote:
Originariamente inviato da Ares17 Guarda i messaggi
Intel ha le risorse economiche, i mezzi e gli uomini, ma allora come mai anche costruendo video integrate nei chipset non riesce ad avere un sottosistema video all'altezza di quello di Ati e Nvidia di due generazioni precedenti.
perche come detto prima l'intel detiene il 50% dell'intero mercato delle schede video e quindi non ha nessun interesse a investire dei soldi avendo gia una fetta dominante sugli altri con un hardware che costa nulla da sviluppare da mantenere e da produrre.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 11:45   #22
NIB90
Registered User
 
Iscritto dal: Jun 2008
Città: Osilo (SS)
Messaggi: 153
tornando al discorso larrabee + monitor speciale...larrabee secondo quello che dicono nel video dovrebbe essere in grado di renderizzare 8 diversi strati che uniti andranno a comporre l'immagine stereoscopica...sarebbe a dire che dovrebbero renderizzare 8 diversi strati con il raytracing...è una cosa a dir poco mostruosa sotto l'aspetto della potenza di calcolo necessaria!
NIB90 è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 11:51   #23
NIB90
Registered User
 
Iscritto dal: Jun 2008
Città: Osilo (SS)
Messaggi: 153
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Il punto è: con quali tempi di elaborazione?
vero...si parla addirittura di REAL-TIME
NIB90 è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 12:06   #24
Ares17
Bannato
 
Iscritto dal: Oct 2005
Città: In giro per il mondo
Messaggi: 5824
Quote:
Originariamente inviato da coschizza Guarda i messaggi
perche come detto prima l'intel detiene il 50% dell'intero mercato delle schede video e quindi non ha nessun interesse a investire dei soldi avendo gia una fetta dominante sugli altri con un hardware che costa nulla da sviluppare da mantenere e da produrre.
intel non ditiene per niente il 50% del mercato delle schede video, questa è una colossale bufale.
Al massimo il 70% delle soluzioni integrate che è cosa completamente diversa da quella che tu affermi, e tutto questo è destinato a finire, sopratutto da quando la commissione antitrust europea sta indagando sul comportamento illegale perpretato da Intel atta a danneggiare i propri concorrenti (vedi anche nvidia con ION)
Ares17 è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 12:35   #25
cignox1
Senior Member
 
Iscritto dal: May 2008
Messaggi: 2067
Beh, considerando che in passato hanno parlato di raggiungere i 2 teraflops, e che con 50 gigaflops si puo' ottenere gia' raytracing in realtime (ovviamente non paragonabile agli attuali giochi in quanto a qualita', ma abbastanza comunque da farci qualche giochetto), sembra che la possibilita' ci sia. Direi di piu': programmare RT sotto x86 e' molto piu' facile e probabilmente piu' performante che farlo via Cuda su GPU, perche' il tipo di lavoro e i pattern di utilizzo della memoria sono completamente diversi, e le GPU non sono ottimizzate a quello scopo.

Dal mio punto di vista i problemi per LRB sono due, uno tecnologico e uno commerciale.

Tecnologico: la potenza per RT potrebbe esserci vista la modularita'. Ma 32/64 core x86 + texture units temo possano consumare e riscaldare un casino.

Commerciale: a parte il prezzo, che immagino possa essere altino, quali saranno le prestazioni in OGL o DX? perche' anche qui il discorso e' lo stesso: x86 non e' ottimizzato per quello scopo, e 2 Teraflop potrebbero non competere cone i 2 Teraflop delle soluzioni Ati e nVidia di prossima generazione. Quindi sarebbe un prodotto di fascia media. Ma chi compra una bestia del genere se vuole un prodotto di fascia media?

Ovvio che in ogni caso, potrebbe essere una soluzione ESTREMAMENTE interessante per prodotti commerciali: convertire renderes come vRay o Mental Ray per funzionare su LRB dovrebbe essere un procedimento banale che potrebbe pero' far schizzare la produttivita' delle render farms e delle workstation...

Essendo appassionato al raytracing aspetto con ansia, chissa' che un giorno possa vedere il mio raytracer su una di queste schede...
cignox1 è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 12:40   #26
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 7476
Quote:
Originariamente inviato da Ares17 Guarda i messaggi
intel non ditiene per niente il 50% del mercato delle schede video, questa è una colossale bufale.
Al massimo il 70% delle soluzioni integrate che è cosa completamente diversa da quella che tu affermi, e tutto questo è destinato a finire, sopratutto da quando la commissione antitrust europea sta indagando sul comportamento illegale perpretato da Intel atta a danneggiare i propri concorrenti (vedi anche nvidia con ION)
hai ragione i dati ufficiali parlano di 49.7% ma speravo che non mi facessi la pulce per aver arrotondato il valore

il calcolo viene fatto sull'intero mercato quindi discrete + integrate e l'intel ha sempre asuto la maggioranza del mercato e piu di nvidia + ati messi assieme
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 12:52   #27
JackZR
Senior Member
 
L'Avatar di JackZR
 
Iscritto dal: Feb 2009
Città: Forlì
Messaggi: 3688
Secondo me questo Larrebee sarà un GigaFlop.
Per la grafica, almeno per com'è ora, le GPU sono molto più adatte e potenti, questa idea di voler usare una CPU multi-core come GPU non mi sembra molto valida, al massimo la si può usare per affiancare le schede video ma non per sostituirle, come una sorta di acceleratore grafico per GPU, e a parte il Raytracing per tutto il resto non credo funzionerà bene come le GPU. E poi c'è il fatto che bisognerà creare tutta una serie di nuovi standard che si adattino a queste CPU quando invece ce ne sono già di pronti per le comuni GPU, insomma un gran sbattimento per diverse società, senza poi sapere ancora quale sarà il risultato per l'utente finale (ergo le vendite).
Credo che Intel punti sul fatto che è una grossa azienda e che ha le mani in pasta un po' da tutte le parti e in più s'approfitta del fatto che è proprietaria delle licenze x86; cmq se sta cosa funzionerà non credo che nVidia e AMD le lasceranno molto spazio visto che hanno già più esperienza nel settore video; nel caso nVidia creerà schede video nuove magari con un sistema di GPU multi-core che affianca la GPU principale e AMD visto che dispone di licenze x86 si metterà a produrre schede video simili con CPU e GPU multi-core tutto su un unico PCB lasciando a piedi Intel.
__________________
In My Humble Opinion
Tutto quello che scrivo è IMHO!
JackZR è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 13:00   #28
Ares17
Bannato
 
Iscritto dal: Oct 2005
Città: In giro per il mondo
Messaggi: 5824
Quote:
Originariamente inviato da coschizza Guarda i messaggi
hai ragione i dati ufficiali parlano di 49.7% ma speravo che non mi facessi la pulce per aver arrotondato il valore

il calcolo viene fatto sull'intero mercato quindi discrete + integrate e l'intel ha sempre asuto la maggioranza del mercato e piu di nvidia + ati messi assieme
tu hai parlato di schede video (e non di soluzione video). Quindi hai detto una castroneria in quanto ad oggi intel non produce nessuna scheda video.
Detiene il 70% delle soluzioni video integrate solo perchè il chipset con video integrato viene venduto ad un prezzo pressocchè uguale alla controparte senza video, quindi da tali chipset non è che ricava grossi margini da poter investire in sviluppo.
Intel non può permettersi in nessun modo di aumentare il prezzo delle proprie soluzioni (fornetto e cessose) nemmeno di un centesimo altrimenti non ne venderebbe nessuna.
Cosa che non ti è ben chiara è quella che intel non è leader del mercato grafico, ma ne è schiava in quanto non riuscirebbe a vendere lo stesso numero di processori (vero mercato) ne di chipset se non avendo un ricavo pressoche che nullo dal valore aggiunto dato dalla grafica integrata.
A dimostrazione di ciò controlla se intel ha a disposizione una grafica integrata evoluta a listino, o solo caffettiere compatibili dx Diecimila e qualcosa (appena sufficenti a far girare aero di Vista)
Ares17 è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 13:07   #29
Ares17
Bannato
 
Iscritto dal: Oct 2005
Città: In giro per il mondo
Messaggi: 5824
Quote:
Originariamente inviato da JackZR Guarda i messaggi
Secondo me questo Larrebee sarà un GigaFlop.
Per la grafica, almeno per com'è ora, le GPU sono molto più adatte e potenti, questa idea di voler usare una CPU multi-core come GPU non mi sembra molto valida, al massimo la si può usare per affiancare le schede video ma non per sostituirle, come una sorta di acceleratore grafico per GPU, e a parte il Raytracing per tutto il resto non credo funzionerà bene come le GPU. E poi c'è il fatto che bisognerà creare tutta una serie di nuovi standard che si adattino a queste CPU quando invece ce ne sono già di pronti per le comuni GPU, insomma un gran sbattimento per diverse società, senza poi sapere ancora quale sarà il risultato per l'utente finale (ergo le vendite).
Credo che Intel punti sul fatto che è una grossa azienda e che ha le mani in pasta un po' da tutte le parti e in più s'approfitta del fatto che è proprietaria delle licenze x86; cmq se sta cosa funzionerà non credo che nVidia e AMD le lasceranno molto spazio visto che hanno già più esperienza nel settore video; nel caso nVidia creerà schede video nuove magari con un sistema di GPU multi-core che affianca la GPU principale e AMD visto che dispone di licenze x86 si metterà a produrre schede video simili con CPU e GPU multi-core tutto su un unico PCB lasciando a piedi Intel.
A dire il vero di proclami del genere ne aveva gia fatti in passato (nessuno si ricorda la presentazione di ITANIUM) ma nessuno si è rivelato delle proporzioni ostentate.
Ares17 è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 13:15   #30
pachugo
Junior Member
 
Iscritto dal: Jul 2002
Messaggi: 29
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Di fatto per il momento è vaporware.
Personalmente non ritengo si tratti di vaporware, e non c'e' necessita' di andare negli States per vedere dei sample...
Credo, di base, che il principale malinteso che si riscontra nella maggior parte dei commenti, e' dato dal credere che Intel voglia entrare a gamba tesa nel mercato di CPU hi-end di nVidia e ATI.
Le scelte architetturali effettuate non possono che andare in direzione diversa e, videogiocatori a parte, potrebbe avere dei grossi vantaggi davvero per il calcolo "semi-generico". In sostanza essere utile a piu' persone rispetto alla nicchia degli hard-core gamers.
La mia perplessita' maggiore a riguardo di questa tecnologia, e' data dall'unico cambiamento che Microsoft ha apportato tra la RC e la RTM di Windows Seven, che riguarda appunto la cassazione delle API di remoting delle DirectX.
Che sia...

Cordialita'
pachugo è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 13:17   #31
freeeak
Senior Member
 
Iscritto dal: Feb 2005
Messaggi: 675
x coschizza
il problema non sono certo l'avere le fabbriche oppure no è quello ci fai con la fab, il problema è che ad intel mancano le menti, se nè stata ben lontana dal mercato video da sempre ed ha iniziato solo di recente a lavorarci su, sai quanto know-how gli manca, anche avessero le menti, e poi non penso ci siano tanti modi di fare la stessa cosa senza incorrere in problemi di brevetti con ati o nvidia (su quest'ultima cosa mi posso anche sbagliare).
freeeak è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 13:24   #32
g4be
Senior Member
 
L'Avatar di g4be
 
Iscritto dal: Dec 2008
Messaggi: 312
sarebbe una gran bella rivoluzione... però mi sembra anche un po' uno "spreco", almeno per le applicazioni ludiche interattive, bene o male le tecniche di shading hanno fino a oggi ovviato e reso possibile una grafica molto realistica, diciamo "ingannando" l'occhio evitando una marea di calcoli ed equazioni differenziali.
La via del raytracing è più vicina al concetto originale di realtà virtuale... però ripeto, in ambito ludico non mi cambia poi molto avere un realismo prefettamente "matematico"
__________________
athlon x2 6000+ 3,2ghz, nvidia 9600gt 512Mb, 4Gb ddr2 hyperx cl4
g4be è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 13:43   #33
cignox1
Senior Member
 
Iscritto dal: May 2008
Messaggi: 2067
Quote:
La via del raytracing è più vicina al concetto originale di realtà virtuale... però ripeto, in ambito ludico non mi cambia poi molto avere un realismo prefettamente "matematico"
Ci sono tantissimi effetti che un raytracing implementa in maniera estremamente semplice, ma che i giochi moderni devono emulare con trucchi sempre piu' complessi. E visto che la grafica e' destinata a migliorare sempre, arrivera' un punto in cui le tecniche della rasterizzazione non saranno piu' tanto convenienti: gia' oggi implementare le ombre richiede una accurata scelta sia di algoritmo che di tuning dello stesso.
Secondo me il futuro passa necessariamente per il raytracing, anche se probabilmente accadra' come gli shader programmabili: inizialmente le GPU prevederanno un supporto limitato, che verra' usato per qualche effetto. Poi la transizione sara' completa, come oggi e' sparita del tutto la fixed function pipeline in favore degli shaders.
Quanto veloce sara' questa transizione dipendera' anche dal successo che riscontrera' LRB presso gli sviluppatori (no mercato = nessun interesse a fornire versioni specifiche per LRB).

Tuttavia c'e' un motivo per cui Intel, nVidia e AMD (con il suo falsamente raytraced Cinema 2.0) hanno tenuto a pubblicizzare i loro sforzi in questo campo. Neppure all'epoca degli shaders c'era tutto questo hype.
E visto che lo sviluppo per RT e' sia per quanto riguarda la programmazione che la realizzazione dei contents probabilmente piu' semplice (= piu' economica), anche le sw house potrebbero vedere con interesse questo sviluppo.

Per non parlare del cinema, che avrebbe non poco da guadagnare in dispositivi in grado di accellerare di 10 o 20 volte i loro calcoli, per lo meno in per le preview...
cignox1 è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 13:46   #34
cignox1
Senior Member
 
Iscritto dal: May 2008
Messaggi: 2067
un'ultima cosa: attualmente i motori grafici dei giochi effettuano spesso piu' di una passata di rendering per frame, a causa dei limiti delle GPU e delle tecniche di rasterizzazione. Con un raytracer classico questo non e' necessario.
cignox1 è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 14:18   #35
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 7476
Quote:
Originariamente inviato da cignox1 Guarda i messaggi
un'ultima cosa: attualmente i motori grafici dei giochi effettuano spesso piu' di una passata di rendering per frame, a causa dei limiti delle GPU e delle tecniche di rasterizzazione. Con un raytracer classico questo non e' necessario.
non è deltutto vero un raytracer classico non è addeguato a fare tutti gli effetti inoltre ha dei limiti strutturali, quindi la soluzione ideale è unire le 2 soluzioni perche altrimenti invece che migliorare ti troveresti a usare nuovi motori che a differenza di oggi hanno meno limiti in certi casi e piu in altri.

questo pero è ovvio perche esistono tante varianti degli stessi motori di rendering che sono studiati per adattarsi alle situazioni diverse e normalmente sono quelli che si usano in programmi di modellazione 3d e vengono usati in base alla scena che si deve e il tipo di risultato che si vuole ottenere, quello perfetto utilizzabile sempre non puo esistere se non con delle limitazioni in certi ambiti di utilizzo

Ultima modifica di coschizza : 28-07-2009 alle 14:21.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 14:45   #36
pachugo
Junior Member
 
Iscritto dal: Jul 2002
Messaggi: 29
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Le schede video si vendono notoriamente soprattutto per giocare.

Rimangono le low-end, su cui Intel vivacchia bene con quelle schifezze integrate che vende ed il mainstream, difficilmente copribile, come segmento di mercato, con un chip grosso come una padella come ad oggi è un sample di Larrabee.

Quindi per avere dei margini decenti quelle GPU le vendi solo in mercati high-end. Ora, tagliato fuori il mercato dei videogiocatori, se le scelte architetturali non saranno, come io penso, adeguate al compito, rimangono le workstation grafiche e "altro". Le workstation si appoggiano alle stesse librerie dei videogiocatori, quindi mi aspetto, e non c'è motivo di pensarla altrimenti, che le prestazioni siano in linea con quelle e quindi tagliamo fuori un altro mercato high-end.

Rimane "altro", che attualmente, ovviamente, gode della specifica di non esistenza, a parte qualche applicazione che attualmente trova beneficio in CPU multicore e che potrebbe forse utilizzare Larrabee come tale (forse).

Quindi a chi lo vendiamo questo Larrabee?
Ha detto correttamente: le "schede video". La situazione attuale difficilmente permette di classificare cosi' degli oggetti piu' propriamente detti GPGPU.
Intendevo dire, in buona sostanza, che questi oggetti sono adatti all'offloading di parecchi compiti oltre a quello di generare immagini splatter in un gioco. Un set di librerie piazzate nel posto giusto possono concorrere a parecchie attivita', dalla compressione dei files alla [de]cifratura, ma l'elenco sarebbe lungo.
Inoltre bisogna ricordare che, pur non essendo la loro attivita' principale, le aziende spesso "scommettono" su una tecnologia.
Cinque anni di lavoro su questa soluzione probabilmente qualche risultato l'hanno prodotto.
Senza contare che l'aver cassato DirectX 11 Remote la settimana prima di andare in RTM con 2008 R2, a me, ed ovviamente parlo solamente a livello personale, fa pensare che da qualche parte i calcoli li si debba pure fare, e se non in periferia...

p.s.
Pur concorrendo alla crescita del valore del brand, le schede video hi-end non rappresentano lo zoccolo duro del business, anche per chi fa quello di mestiere.
pachugo è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 15:54   #37
g4be
Senior Member
 
L'Avatar di g4be
 
Iscritto dal: Dec 2008
Messaggi: 312
Quote:
Originariamente inviato da cignox1 Guarda i messaggi
Ci sono tantissimi effetti che un raytracing implementa in maniera estremamente semplice, ma che i giochi moderni devono emulare con trucchi sempre piu' complessi. E visto che la grafica e' destinata a migliorare sempre, arrivera' un punto in cui le tecniche della rasterizzazione non saranno piu' tanto convenienti: gia' oggi implementare le ombre richiede una accurata scelta sia di algoritmo che di tuning dello stesso.
Secondo me il futuro passa necessariamente per il raytracing, anche se probabilmente accadra' come gli shader programmabili: inizialmente le GPU prevederanno un supporto limitato, che verra' usato per qualche effetto. Poi la transizione sara' completa, come oggi e' sparita del tutto la fixed function pipeline in favore degli shaders.
Quanto veloce sara' questa transizione dipendera' anche dal successo che riscontrera' LRB presso gli sviluppatori (no mercato = nessun interesse a fornire versioni specifiche per LRB).

Tuttavia c'e' un motivo per cui Intel, nVidia e AMD (con il suo falsamente raytraced Cinema 2.0) hanno tenuto a pubblicizzare i loro sforzi in questo campo. Neppure all'epoca degli shaders c'era tutto questo hype.
E visto che lo sviluppo per RT e' sia per quanto riguarda la programmazione che la realizzazione dei contents probabilmente piu' semplice (= piu' economica), anche le sw house potrebbero vedere con interesse questo sviluppo.

Per non parlare del cinema, che avrebbe non poco da guadagnare in dispositivi in grado di accellerare di 10 o 20 volte i loro calcoli, per lo meno in per le preview...
è indubbiamente logico che prima o poi ci sarà un salto qualitativo della grafica in tempo reale verso il realismo tipico del raytracing e le sue varianti utilizzate nel campo del 3D fotorealistico... alla fine due tecniche che mirano alla resa di un fotogramma "realistico" (seppur una in una frazione di secondo, e l'altra nel più breve tempo possibile per far si di non fossilizzarsi in tempi di rendering allucinanti) si vengano incontro spinte dall'aumento della capacità di calcolo offerta dalla tecnologia

Però si, al momento pare più hype che sostanza e che i tempi saranno ancora abbastanza lunghi
__________________
athlon x2 6000+ 3,2ghz, nvidia 9600gt 512Mb, 4Gb ddr2 hyperx cl4
g4be è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 15:57   #38
pachugo
Junior Member
 
Iscritto dal: Jul 2002
Messaggi: 29
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Il GPGPU si fa sulle GPU, Larrabee architetturalmente somiglia più ad una CPU, che è giù GP per natura. Questo significa che hai già la programmabilità in x86, non hai bisogno di inventarti qualcosa.

p.s.
questo è senz'altro vero, ma si scontra con i 600mm^2 di Larrabee...
E' possibile che non ci fossimo capiti, ma l'osservazione e' quanto scritto nei miei post: la nuova architettura propone scenari diversi da quelli delle GPU dei vendor concorrenti, e fara' lavori differenti, anche se non e' ben definito quali siano.
D'altrode l'azienda si trova, paradossalmente, di fronte ad alcuni scenari in parte interessanti ed in parte spaventosi.
- La cavalcata verso la prestazione pura e' rallentata da AMD che non pare in grado di sostenerla adeguatamente.
- La virtualizzazione e' giunta ad un livello per cui su ogni singolo sistema (quad socket / otto core, 96 Gb) e' possibile raggiungere densita' che superano quanto richiesto dai clienti

Lo stream computing potrebbe essere un mercato su cui concentrarsi in attesa che si muovano quelli tradizionali.
Queste sono sempre considerazioni personali, chiaramente.
pachugo è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 17:32   #39
pachugo
Junior Member
 
Iscritto dal: Jul 2002
Messaggi: 29
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Avevo capito cosa intendevi. Le mie considerazioni riguardavano il fatto che Larrabee per come ce lo hanno raccontato fino ad ora non è né carne né pesce, e si andrà a posizionare in un mercato che non esiste.

Questo è un vantaggio, in alcuni casi, per esempio Atom che per merito di ASUS ha creato un suo mercato che prima non esisteva, più difficile trovare collocazione ad un prodotto che invece nasce con costi produttivi imponenti (al contrario di Atom) ma senza che il lato software della questione sia preparato alla questione (sempre al contrario di Atom), trovando quindi solo svantaggi.

Un progetto del genere può avere successo solo se oltre ad aprire nuovi scenari, nel frattempo serve a qualcos'altro, e questo Larrabee non mi sembra affatto pronto per sostenere scontri su nessuno degli scenari di mercato attuali.
E' corretto. Tuttavia molti vendor si stanno muovendo in qualita' di partner al fine di proporre soluzioni che siano le prime in uno specifico mercato. L'esperienza di nVidia CUDA ha insegnato a tutti. In realta' nVidia e' andata oltre, ed ora si trova con ATI a dover convincere i partner a sviluppare un ecosistema di prodotti per sfruttare le proprie istruzioni, il che porta a dei prodotti francamente imbarazzanti (CUDA over OpenCL, OpenCL over CUDA).
Qui si tratta di adattare compiler esistenti o di fare thunking di binari che, pur semplici, magari esistono gia'.
In ogni caso sara' un bello spettacolo sul mercato e, per chi ha voglia di seguirlo siamo gia' alla pubblicita' prima dello spettacolo: nell'ultimo quarto di quest'anno scommetterei di poter vedere qualcosa, magari con qualche anticipazione alla terza di ottobre.
pachugo è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2009, 18:36   #40
davyjones
Senior Member
 
L'Avatar di davyjones
 
Iscritto dal: May 2008
Messaggi: 383
Se vogliamo giochi che graficamente hanno l'impatto di Optimus Prime o Bumblebee negli ultimi film dei Transformers (Notare la resa di luci e colori nel metallo dei robots, la riflessione/rifrazione dei raggi luminosi e di quanto questi improbabili pupazzoni siano integrati all'interno della scena), beh credo che si dovrà obbligatoriamente migrare verso il raytracing real time negli anni a venire, posto che se l'industria decidesse e avesse le possibilità di fare questa scelta, i dubbi sollevati da altri in questa discussione riguardo ai difetti dei motori di rt dovranno essere (e sicuramente saranno) appianati.

Ora come ora nel cinema se lo possono permettere perché le scene sono prerenderizzate (ho sentito dire cha una render farm impiega diverse ore a renderizzare un singolo fotogramma con esigenze energetiche nell'ordine delle centinaia di kW ) e l'euqazione di raytracing immagino abbia una approssimazione tutto sommato irrisoria...

Per sfondare il "settore" real time dei videogiochi (quindi elaborare una scena in raytracing a framerate accettabili) servono potenze di calcolo elevate oltre ad architetture altamente compiacenti e richieste energetiche "da consumer"...

Ma se poi sia Larrabee la risposta (o la strada) giusta per raggiungere questo obiettivo, boh mi pare un po' presto per dirlo...ma credo sia ancora questione di qualche anno IMHO
davyjones è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto HP Elitebook Ultra G1i 14 è il notebook c...
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Gigabyte Aero X16 Copilot+ PC: tanta potenza non solo per l'IA Gigabyte Aero X16 Copilot+ PC: tanta potenza non...
Dick Pic addio? L'AI di Flirtini insegna...
WhoFi: riconoscimento biometrico tramite...
Zero-day SharePoint: Microsoft punta il ...
Grab & Go, il nuovo Telepass per chi...
Primo chip quantistico con elettronica e...
Da Microsoft due nuovi Surface Laptop 5G...
Processore NVIDIA N1X slittato al 2026: ...
Tesla, nel secondo semestre più a...
One UI 8 Watch arriva su Galaxy Watch Ul...
Moon Studios scarica Xbox: No Rest for t...
L'idea di JPMorgan: prestiti e finanziam...
Candy Crush: non solo il gioco! Arriva a...
Ecco come siamo riusciti a raccogliere l...
Agentic AI Framework: l'IA basata su age...
Offerte Amazon pazze di luglio: portatil...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 06:55.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1