View Full Version : Raytracing in DX 11, potrebbe essere la salvezza del gaming PC
Recentemente avevo letto una rticolo dove il boss della EPIC spiegava chiaramente che non riuscivano più a tenere il passo con la scalabilità tra un PC di fascia alta ed uno di fascia media , il rapporto era pari da 1 a 100
quindi effettivamente una scalabilità cosi ampia è impossibile, ed infatti lui stesso proponeva il raytracing come salvezza (infatti epic fa parte del programma games for Windows e United for gaming PC)
ad ogni modo proprio oggi sono state annunciate le dx 11 con supporto ray tracing per fine anno.
ecco l'articolo (http://www.techarp.com/showarticle.aspx?artno=526&pgno=1)
ciò vuol dire che potremmo dire addio alle nostre GPU Nvidia ed Ati e cominciare a farpassare tutto il lavoro grafico attraverso la CPU, la sola funzione della GPU si limiterebbe a collegare il PC al monitor o TV che sia.
Cosa ne pensate?
Cosa ne pensate?
che oggi è il primo aprile :sofico: :sofico:
p.s.
hai la firma irregolare, l'immagine è troppo grossa, massimo 100X50 e 5Kb ;)
arxangel
01-04-2008, 10:06
Il primo pesce d'aprile :sofico: ,comunque potevi mettere un link anche fasullo,qualcuno ci sarebbe cascato
no vi giuro che non è un pesce d aprile, anzi sono stato il primo a dire che sti scherzi non vanno fatti nella sezione Vista (http://www.hwupgrade.it/forum/showthread.php?t=1713496)
L'intervista a Tim Sweeney di Epic è stata fatta qualche mese fa da toms hardware Inglese (http://www.tomshardware.com/2008/03/11/tim_sweeney_part_2_directx_10_is_the_last_relevant_graphics_api_/) ,
e per il raytracing gia c era qualcosa sottobanco, non so se avete seguito la storia Nvidia che voleva creare un unico processore.
TG Daily: In the first part of our interview you implied that software rendering might be coming back. Daniel Pohl, who rewrote Quake 3 and Quake 4 using ray-tracing [and is now working as Intel's research scientist] recently showed ray-tracing on a Sony UMPC, an ultraportable device equipped with a single-core processor. True, the resolution was much lower than on PCs of today, but it looked impressive. What are your thoughts on ray-tracing? How will 3D develop in the next months and years?
Sweeney: Ray-tracing is a cool direction for future rendering techniques. Also, there is rendering and there is the ray scheme of dividing the scene into micro-polygons and voxels. There are around five to ten different techniques and they are all very interesting for the next-generation of rendering.
Rendering can be done on the CPU. As soon as we have enough CPU cores and better vector support, these schemes might get more practical for games. And: As GPUs become more general, you will have the possibility of writing a rendering engine that runs directly on the GPU and bypasses DirectX as well as the graphics pipeline. For example, you can write a render in CUDA and run it on Nvidia hardware, bypassing all of their rasterization and everything else.
All a software renderer really does is input some scene data, your position of objects, texture maps and things like that - while the output is just a rectangular grid of pixels. You can use different techniques to generate this grid. You don't have to use the GPU rasterizer to achieve this goal.
TG Daily: What kind of advantage can be gained from avoiding the API? Most developers just utilize DirectX or OpenGL and that's about it. How does the Unreal Engine differ from the conventional approach?
Sweeney: There are significant advantages in doing it yourself, avoiding all the graphics API calling and overhead. With a direct approach, we can use techniques that require wider frame buffer, things that DirectX just doesn't support. At Epic, we're using the GPU for general computation with pixel shaders. There is a lot we can do there, just by bypassing the graphics pipeline completely.
poi proprio oggi ho letto la news del supporto raytracing per DX11 in pratica non abbandonado i raster (le nostre gpu) aggiungeranno questo supporto per un abbandono graduale.
In pratica la stessa cosa è successa per le schede audio con Vista
non so se ci avete fatto caso che non necesittiamo più di schede audio costose ma tutto il calcolo audio (con Vista) avviene da cpu e l uscita audio serve solo come output
franz899
01-04-2008, 10:52
Io avevo letto l'intervista a parlva di saltare direttamente le dx11 e dialogare direttamente con l'hardware. In ogni caso la cosa è fattibile, sopratutto pensando a come lavorerà la scheda video che sta sviluppando intel :)
Questa tecninca mi ricorda quella che usano gli inmniac sulla ps3, calcoli al cell, che è bravissimo in quello, e texture e altri aspetti grafici alla GPU, compiti che svolge decisamente meglio ;)
Io avevo letto l'intervista a parlva di saltare direttamente le dx11 e dialogare direttamente con l'hardware. In ogni caso la cosa è fattibile, sopratutto pensando a come lavorerà la scheda video che sta sviluppando intel :)
e infatti stai dicendo la stessa cosa,
solo che non ci sarebbe piu nessuna scheda video o meglio nessuna GPU per come l abbiamo noi oggi , il tutto avverrebbe tramite CPU pensa che saranno 8 e 16 core quindi hai voglia di calcolare, e questo porterebbe a mio avviso una decenza omogena per tutti senza piu avere problemi di scalabilità-
A questo punto mi chiedo
anzi che me lo chiedo a fare, dovremmo buttare tutto l hardware:doh:
PS non puoi mettere il Cell con quelli che saranno i core futuri (ed anche presenti) intel
Il cell costa 70 dollari , vedi tu!!!
C'è stato un interessante intervento di Fek tempo addietro riguardo le affermazioni di Tim Sweeney -circa la possibilità di reintrodurre il rendering software a carico delle cpu multi-core-, ora aimè non riesco a ritrovarlo, ma mi pare che il succo fosse:
Tim Sweeney ne ha sparata un'altra, quello che dice non è proponibile.
A seguito spiegava in "tecnichese" :D anche il perchè.
Se bazzica di qua magari può illuminarci meglio.
franz899
01-04-2008, 11:11
e infatti stai dicendo la stessa cosa,
solo che non ci sarebbe piu nessuna scheda video o meglio nessuna GPU per come l abbiamo noi oggi , il tutto avverrebbe tramite CPU pensa che saranno 8 e 16 core quindi hai voglia di calcolare, e questo porterebbe a mio avviso una decenza omogena per tutti senza piu avere problemi di scalabilità-
A questo punto mi chiedo
anzi che me lo chiedo a fare, dovremmo buttare tutto l hardware:doh:
PS non puoi mettere il Cell con quelli che saranno i core futuri (ed anche presenti) intel
Il cell costa 70 dollari , vedi tu!!!
x il cell:
Si che posso, costa poco e rende davvero tanto in quel tipo di elaborazioni, e sopratutto è disponibile oggi ;)
La scheda video di intel avra molti piu core, non 8 o 16, se sfrutteranno per bene questa tecnina ci ritroveremo nella stessa situazione di oggi o quasi.
Buttare l'hardware? Per quando quel processo sarà in grado di dare risultati il mio E6600 sarà strevecchio :)
Ma dico io... anni ed anni di schede video da spavento... in grado quasi di mandare 10 shuttle sui pianeti del sistema solare... e si parla di ritornare alla CPU che fa tutto da sola ?
Ma la capacità di calcolo per l' Unreal engine 3 dove la prendono quelli di Epic ???
Settiamo il rendering su software e giochiamo a 640x480 con i quadrettoni ???
Questo è un momento eccellente per l' hardware for gamers: con 140 € ti prendi un dual core con i contromaroni, con 70 € ti prendi 2 giga di ram di alto livello, con poco più o poco meno di 200 € ti prendi una scheda video in grado di far girare praticamente tutto ottimamente... cosa si vuole di più ???
Io abolirei i monitor da 1000 pollici e l' esigenza di giocare a oltre 1600x1200 !
La 360 ha dalla sua la forza di una risoluzione di 1280x960, imho più che sufficiente per vedere i giochi dettagliatamente.
Lo stesso si dovrebbe fare su PC, 1280x1024 al massimo, e se proprio vogliamo... 1600x1200 per i monitor fino a 22 pollici, poi basta; se vuoi vedere più in grande... vai al cinema !
spazzolone76
01-04-2008, 11:34
Ma dico io... anni ed anni di schede video da spavento... in grado quasi di mandare 10 shuttle sui pianeti del sistema solare... e si parla di ritornare alla CPU che fa tutto da sola ?
Ma la capacità di calcolo per l' Unreal engine 3 dove la prendono quelli di Epic ???
Settiamo il rendering su software e giochiamo a 640x480 con i quadrettoni ???
Questo è un momento eccellente per l' hardware for gamers: con 140 € ti prendi un dual core con i contromaroni, con 70 € ti prendi 2 giga di ram di alto livello, con poco più o poco meno di 200 € ti prendi una scheda video in grado di far girare praticamente tutto ottimamente... cosa si vuole di più ???
Io abolirei i monitor da 1000 pollici e l' esigenza di giocare a oltre 1600x1200 !
La 360 ha dalla sua la forza di una risoluzione di 1280x960, imho più che sufficiente per vedere i giochi dettagliatamente.
Lo stesso si dovrebbe fare su PC, 1280x1024 al massimo, e se proprio vogliamo... 1600x1200 per i monitor fino a 22 pollici, poi basta; se vuoi vedere più in grande... vai al cinema !
Xilema stai invecchiando :D
il progresso tecnologico avanza:
se una Cpu mi fa tutto e meglio e costa di meno perchè no?
piuttosto vorrei che si raggiungesse nuovamente la qualita visiva dei monitor crt anche a risoluzioni inferiori di quella nativa
Non ho capito se sia un pesce di aprile o meno ma comunque niente dx11. Già ora non ci sono giochi nativi in dx10 figuriamoci in dx11. E poi alla fine servirebbero solo ad aiutare nvidia ed ati a vendere più soldi perchè come per le dx10 i giochi saranno molto più pesanti pur non apportando miglioramenti apprezzabili.
Ma dico io... anni ed anni di schede video da spavento... in grado quasi di mandare 10 shuttle sui pianeti del sistema solare... e si parla di ritornare alla CPU che fa tutto da sola ?
Ma la capacità di calcolo per l' Unreal engine 3 dove la prendono quelli di Epic ???
Settiamo il rendering su software e giochiamo a 640x480 con i quadrettoni ???
Questo è un momento eccellente per l' hardware for gamers: con 140 € ti prendi un dual core con i contromaroni, con 70 € ti prendi 2 giga di ram di alto livello, con poco più o poco meno di 200 € ti prendi una scheda video in grado di far girare praticamente tutto ottimamente... cosa si vuole di più ???
Io abolirei i monitor da 1000 pollici e l' esigenza di giocare a oltre 1600x1200 !
La 360 ha dalla sua la forza di una risoluzione di 1280x960, imho più che sufficiente per vedere i giochi dettagliatamente.
Lo stesso si dovrebbe fare su PC, 1280x1024 al massimo, e se proprio vogliamo... 1600x1200 per i monitor fino a 22 pollici, poi basta; se vuoi vedere più in grande... vai al cinema !
tu hai pure ragione, però devi pensare che questi quando producono un titolo non possono renderlo compatibile e scalabile per una 8880 GTX add una 7200.
Il problema è proprio questo, non vedremo mai una GPU di fascia alta sfruttata al massimo col sistema attuale perchè nessun team si prende la resposabilità di sfruttare a fondo una sola tipologia di schede.
@joxer
guarda che se fosse vero aiuterebbe Nvidia ed Ati proprio a chiudere o produrre CPU
Il problema è proprio questo, non vedremo mai una GPU di fascia alta sfruttata al massimo col sistema attuale perchè nessun team si prende la resposabilità di sfruttare a fondo una sola tipologia di schede.
Appunto Ati una scheda e Nvidia ne propone un altra (due modelli in tutto) e si rimane fermi finchè non esce una nuova console. Toglierebbe tutti i problemi di upgrade del pc che ritornerebbe la macchina da gioco principale.
franz899
01-04-2008, 13:22
Ma dico io... anni ed anni di schede video da spavento... in grado quasi di mandare 10 shuttle sui pianeti del sistema solare... e si parla di ritornare alla CPU che fa tutto da sola ?
Ma la capacità di calcolo per l' Unreal engine 3 dove la prendono quelli di Epic ???
Settiamo il rendering su software e giochiamo a 640x480 con i quadrettoni ???
Questo è un momento eccellente per l' hardware for gamers: con 140 € ti prendi un dual core con i contromaroni, con 70 € ti prendi 2 giga di ram di alto livello, con poco più o poco meno di 200 € ti prendi una scheda video in grado di far girare praticamente tutto ottimamente... cosa si vuole di più ???
Io abolirei i monitor da 1000 pollici e l' esigenza di giocare a oltre 1600x1200 !
La 360 ha dalla sua la forza di una risoluzione di 1280x960, imho più che sufficiente per vedere i giochi dettagliatamente.
Lo stesso si dovrebbe fare su PC, 1280x1024 al massimo, e se proprio vogliamo... 1600x1200 per i monitor fino a 22 pollici, poi basta; se vuoi vedere più in grande... vai al cinema !
La 360 lavora in 2 modalita: 1280x720(720p) o 1920x1080(1080p) o 1:1 se connessa in vga. ma la risoluzione di partenza è 720p o inferiore per i giochi, per i gicohi xbla anche 1080p
no, i 1280x1024 come massimo proprio no, prova il 1680x1050 o cmq una risoluzione 16:10 e prova a tornare indietro ;)
La 360 lavora in 2 modalita: 1280x720(720p) o 1920x1080(1080p) o 1:1 se connessa in vga. ma la risoluzione di partenza è 720p o inferiore per i giochi, per i gicohi xbla anche 1080p
no, i 1280x1024 come massimo proprio no, prova il 1680x1050 o cmq una risoluzione 16:10 e prova a tornare indietro ;)
IMHO la risoluzione perfetta videoludica è
1280 x 720 ovvero
720 p
Xilema stai invecchiando :D
il progresso tecnologico avanza:
se una Cpu mi fa tutto e meglio e costa di meno perchè no?
piuttosto vorrei che si raggiungesse nuovamente la qualita visiva dei monitor crt anche a risoluzioni inferiori di quella nativa
Non avanza un piffero, e quelli della Epic lo sanno meglio di tutti: i giochi faticano a girare bene sfruttando CPU+GPU, non vedo come possano andare bene usando solo CPU: è pura fantascienza...
La 360 lavora in 2 modalita: 1280x720(720p) o 1920x1080(1080p) o 1:1 se connessa in vga. ma la risoluzione di partenza è 720p o inferiore per i giochi, per i gicohi xbla anche 1080p
no, i 1280x1024 come massimo proprio no, prova il 1680x1050 o cmq una risoluzione 16:10 e prova a tornare indietro ;)
Ho da poco un LCD 19 pollici: all' iniziio lo trovavo enorme, poi mi sono abituato lo reputo adeguato, ma più grande... no grazie.
Ho un amico che ha un 22 pollici, e quando mi ci siedo davanti m' infastidisce di brutto, non riesco neppure a farlo entrare nel campo visivo.
Inoltre odio con tutte le mie forse i monitor widescreen, con quella visuale schiacciata ed innaturale...
II ARROWS
01-04-2008, 14:20
Schiacciata?
Sì, se non gli dai una risoluzione adeguata...
Se gli metti 1280x1024(5:4) su un monitor in 16:9 allora hai raigone.
Altrimenti il campo visivo umano è molto più simile al 16:9 o 16:10 rispetto al 4:3.
Schiacciata?
Sì, se non gli dai una risoluzione adeguata...
Se gli metti 1280x1024(5:4) su un monitor in 16:9 allora hai raigone.
Altrimenti il campo visivo umano è molto più simile al 16:9 o 16:10 rispetto al 4:3.
E' innegabile che monitor e TV 16:9 o 16:10 schiaccino le immagini in modo non naturale.
Odio vedere un TG con la testa della presentatrice che sembra più un' anguria di pancia che una faccia.
I 16:9 o i 16:10 snaturano le proporzioni, e poco m' importa avere la vista di un insetto.
Aviatore_Gilles
01-04-2008, 15:03
Cosa ne pensate?
Che non sia la strada giusta...Le schede Video hanno raggiunto lo stato di eccellenza, fanno cose che erano inimmaginabili qualche anno fa.
A mio avviso buttare anni e anni di sviluppo è sbagliato.
Hanno ragione dicendo che è impossibile scalare e rendere giocabile un gioco su configurazioni di qualche anno fa, ma si potrebbe trovare un compromesso.
Prima di tutto ottimizzare un gioco per la fascia medio/alta, ottimizzare significa che se lo faccio girare su un pc medio al massimo dettaglio le prestazioni devono essere buone (30/40 fps).
Non devono sviluppare su piattaforme ultra, ok la grafica sarà pazzesca, ma sarebbe accessibile a pochi e taglierebbe fuori la maggior parte degli utenti.
Partendo da una base media, media+ , farebbero contenti gli amanti delle prestazioni e chi non ha un pc al passo con i tempi.
In seconda battuta si devono operare sacrifici, cioè tagliare fuori chi ha configurazioni troppo vecchie (alla fine una buona scheda video media è accessibile a molti).
Insomma i compromessi li devono trovare loro, ma spesso abusano di grafiche paurose, sviluppate su pc nasa, logico che poi faticano ad adattarlo a configurazioni meno potenti.
Aviatore_Gilles
01-04-2008, 15:04
e poi non hanno ancora sviluppato nulla in dx10, già si parla di 11? :D :D
Non avanza un piffero, e quelli della Epic lo sanno meglio di tutti: i giochi faticano a girare bene sfruttando CPU+GPU, non vedo come possano andare bene usando solo CPU: è pura fantascienza...
Io sono curioso di vedere come si comporterà un Nehalem abbinato a Larrabee.
Le caratteristiche delle cpu Nehalem comprenderanno:
-Multi-Threading Simultaneo (Simultaneous Multi-Threading, SMT) che permetterà di raddoppiare i thread per ciascun core;
-Supporto per tutte le istruzioni SSE4 implementate sulle CPU Penryn più sette Application Targeted Accelerators, che consentono di velocizzare specifiche applicazioni;
-Evoluzione di Intel Smart Cache con 8MB di cache L3;
-Gestione dinamica ed ottimizzata del risparmio energetico;
-Il controller di memoria integrato nel processore;
-Il bus d'interconnessione QuickPath Interconnect (che prende il posto del Front Side Bus utilizzato sino ad ora con i processori Intel);
-Architettura triple channel compatibile con moduli DDR3;
-La possibilità d'integrare un core grafico al suo interno.
Per me in futuro ci potrà stare tutto:
Le cpu successive a Nehalem sarà Sandy Bridge 8core 32nm ;)
IMHO la risoluzione perfetta videoludica è
1280 x 720 ovvero
720 p
Non per insisitere, ma hai sempre la firma irregolare ;)
Io sono curioso di vedere come si comporterà un Nehalem abbinato a Larrabee.
Le caratteristiche delle cpu Nehalem comprenderanno:
-Multi-Threading Simultaneo (Simultaneous Multi-Threading, SMT) che permetterà di raddoppiare i thread per ciascun core;
-Supporto per tutte le istruzioni SSE4 implementate sulle CPU Penryn più sette Application Targeted Accelerators, che consentono di velocizzare specifiche applicazioni;
-Evoluzione di Intel Smart Cache con 8MB di cache L3;
-Gestione dinamica ed ottimizzata del risparmio energetico;
-Il controller di memoria integrato nel processore;
-Il bus d'interconnessione QuickPath Interconnect (che prende il posto del Front Side Bus utilizzato sino ad ora con i processori Intel);
-Architettura triple channel compatibile con moduli DDR3;
-La possibilità d'integrare un core grafico al suo interno.
Per me in futuro ci potrà stare tutto:
Le cpu successive a Nehalem sarà Sandy Bridge 8core 32nm ;)
Non escludo che in futuro questo possa succedere, ma non credo che questo futuro sia fra 6 mesi, e neppure fra un anno o due anni.
Le DX10 sono fuori da oltre un anno e abbiamo visto quanti giochi full o "molto" DX10 ci sono: nessuno !
Sostanzialmente siamo ancora fermi alle DX9, e prima che i programmatori prendano in considerazione le 11 con tutte le loro proprietà imho ci vorranno come minimo 3-4 anni, giusto anche per sfruttare questa next generation di console prima di passare alla prossima.
Il discorso è fuorviante e prematuro: inutile parlare di Marte quando arriviamo a stento sulla Luna...
Non pensate alle dx11 come qualcosa di lontanissimo perchè non si sono ancora sfruttate le dx10. Andate a leggere l'intervista di tom's hw a epic, viene spiegato come le dx10 in realtà non portano così distanti rispetto alle dx9, differente era stato invece il passo da dx8 a 9. Raytracing sembra il futuro anche per epic. Per me non dicono assurdità. In ogni caso anche Sony voleva far fare tutto il lavoro a Cell, tralasciando la GPU, probabilmente questa idea è abbastanza diffusa nel settore
Non pensate alle dx11 come qualcosa di lontanissimo perchè non si sono ancora sfruttate le dx10. Andate a leggere l'intervista di tom's hw a epic, viene spiegato come le dx10 in realtà non portano così distanti rispetto alle dx9, differente era stato invece il passo da dx8 a 9. Raytracing sembra il futuro anche per epic. Per me non dicono assurdità. In ogni caso anche Sony voleva far fare tutto il lavoro a Cell, tralasciando la GPU, probabilmente questa idea è abbastanza diffusa nel settore
E sempre nella risposta data da Fek a riguardo a cui accenno in prima pagina, si faceva presente che Sony è stata costretta a dover aggiungere una sezione che gestisse la parte grafica proprio perchè il Cell era velocissimo in tutto, tranne che in quel campo.
Rilancio l'invito e spero che il buon Fek se passa di qua abbia tempo di rispiegarci perchè il rendering software a carico della CPU sia un'idea malsana :)
Intanto ho recuperato i suoi interventi circa la dichiarazione di Sweeney:
"Ma allora lo ha proprio detto :D
Mettiamola cosi', Sweeney e' un commerciale ormai, non prende un compilatore in mano da anni, altrimenti non parlerebbe di software renderer che possano uniformare la grafica in real-time su tutti i PC... a 3fps."
"Questa e' una contraddizione in termini. Se le CPU diventassero sempre piu' simili alle GPU, non sarebbero general purpose, sarebbero GPU, o meglio sarebbero vector processor massicciamente paralleli. Quello che le GPU fanno molto ma molto bene e' nascondere le latenze degli accessi alla memoria, eseguendo migliaia di "thread" di esecuzione in contemporanea, e per far questo devono non essere general purpose. Si deve garantire che ognuno di questi thread di esecuzione possa lavorare su un vettore di informazioni il piu' possibile indipendenteme dagli altri vettori di informazioni. In altre parole e' una architettura fortemente parallela, l'esatto contrario di una architettura general purpose fortemente seriale. Se perdi la parallelizzazione, perdi il vantaggio che si ha nel nascondere le latenze di accesso alla memoria, perdi il concetto stesso di GPU ed hai... una CPU classica. L'esempio del Cell e' un classico: una CPU con unita' vettoriali dedicate, un missile a fare tante cose, ma gli affiancano una GPU per fare grafica, perche' non e' altrettanto efficiente nel nascondere le latenze quando il working set e' ampio (fetch delle texture).
E non tutti i problemi sono parallelizzabili, per essere adatti all'architettura di una GPU: se per produrre nove bambini si possono usare nove mamme per nove mesi, producendo di media un bambino al mese a regime, per produrre un bambino solo ci vorranno sempre nove mesi perche' il processo non puo' essere parallelizzato. Nove mamme non fanno un bambino in un mese
Il discorso sulle API poi e' totalmente errato. E' vero il contrario: non solo non si stanno abbandonando DX e OGL, ma si sta passando ad un livello di astrazione superiore. Le GPU vengono sempre piu' astratte e virtualizzate, di modo che ci si possa concentrare sul velocizzare gli algoritmi ad alto livello, piuttosto che perdere tempo nello scrivere un poly filler come Sweeney vorrebbe.
Il discorso sulla corsa alla astrazione, contro la programmazione a basso livello e' cio' che ho sempre contestato a Sweeney quando gli ho parlato."
"Le CPU sono gia' anche piu' potenti delle GPU, ma non saranno mai altrettanto efficienti nel produrre grafica (vedi discorso sopra), senza diventare delle GPU a tutti gli effetti."
"Come ti ho scritto non e' una questione di potenza, ma una questione di efficienza nel fare certi compiti
Se le CPU fossero efficienti come delle GPU in questo particolare ambito, sarebbero delle GPU, e non sarebbero piu' efficienti nel fare tutto il resto. Se hai un algoritmo fortemente seriale, puoi ancora provare ad implementarlo su una GPU, ma una CPU e' ordini di grandezza piu' efficiente."
Chiedo venia a Fek e ai suoi interlocutori per aver estrapolato le sue risposte fuori dal contesto -fermo restando che il concetto da lui espresso non cambia di una virgola-: per chi volesse rimediare, qui la pagina da cui sono tratti gli interventi:
http://www.hwupgrade.it/forum/showthread.php?t=1700773&page=5
Vedo che nessuno sa una cosa :asd:
Per fare il rendering come lo vediamo da anni a sta parte una CPU non serve a niente (o almeno NON dovrebbe servire), perchè tutta l'illuminazione della scena (shading) è organizzata in modo tale che serva hardware dedicato (->GPU)
Per fare invece RAYTRACING è la GPU a non servire più, è del tutto inutile.
Ergo se il futuro sarà il raytracing (come è ovvio che sia, dato che la riproduzione del fenomeno fisico REALE è questa non l'altra, che è solo un'approssimazione grossolona) le GPU non serviranno a niente.
Intanto ho recuperato i suoi interventi circa la dichiarazione di Sweeney:
"Ma allora lo ha proprio detto :D
Mettiamola cosi', Sweeney e' un commerciale ormai, non prende un compilatore in mano da anni, altrimenti non parlerebbe di software renderer che possano uniformare la grafica in real-time su tutti i PC... a 3fps."
CUT
http://www.hwupgrade.it/forum/showthread.php?t=1700773&page=5
Queste cose le so' anche io, il ragionamento, che del resto condivido non fà una piega, penso solo che se sia Epic(http://www.tomshw.it/game.php?guide=200803141), sia Sony (magari questa troppo in anticipo) e ora queste dx11 che quando verranno probilmente implementeranno il Raytracing mi fanno pensare che qualcosa si stia muovendo in questo senso.
Ventresca
01-04-2008, 18:37
ma una volta le schede video non servivano per sgravare il lavoro compiuto dalla cpu (e quindi a mandare i giochi più fluidi nonostante i maggiori effetti applicati)?
goldorak
01-04-2008, 19:33
Recentemente avevo letto una rticolo dove il boss della EPIC spiegava chiaramente che non riuscivano più a tenere il passo con la scalabilità tra un PC di fascia alta ed uno di fascia media , il rapporto era pari da 1 a 100
quindi effettivamente una scalabilità cosi ampia è impossibile, ed infatti lui stesso proponeva il raytracing come salvezza (infatti epic fa parte del programma games for Windows e United for gaming PC)
ad ogni modo proprio oggi sono state annunciate le dx 11 con supporto ray tracing per fine anno.
ecco l'articolo (http://www.techarp.com/showarticle.aspx?artno=526&pgno=1)
ciò vuol dire che potremmo dire addio alle nostre GPU Nvidia ed Ati e cominciare a farpassare tutto il lavoro grafico attraverso la CPU, la sola funzione della GPU si limiterebbe a collegare il PC al monitor o TV che sia.
Cosa ne pensate?
Che sono assolutamente d'accordo con il discorso di Sweeney.
Al mondo ci sono piu' pc che console di svariate generazioni messe assieme, e tuttavia e' il mondo console che ha il dominio dei videogames almeno negli ultimi anni.
E perche' questo ?
Perche' ormai su pc e' diventato impossibile fare un engine che sia scalabile dalla fascia bassa a quella alta, dove ce' appunto una differenza di oltre 100x nelle prestazioni.
Se ricordate anni fa ai tempi delle primi voodoo la differenza prestazionale tra un pc top di gamma ed uno di fascia bassa era analoga ad un burrone, oggi invece ce' l'atlantico tra la top di gamma e la fascia bassa. Ed e' una situazione insostenibile per gli sviluppatori software, ecco perche' desertano in massa per il mondo console.
Non a caso i pochi che rimangono esclusivamente su pc sviluppano videogames che non hanno come target i maniaci dello sli/crossfire/quadsli/crossfirex.
Ritornare al puro rendering software non credo sia possibile, cercare una strada alternativa per cui viene ridotta di svariate ordine di grandezza la differenza prestazionale tra pc top di gamma e pc normali invece e' doverosa.
Che la strada sia quella del ray tracing abbandonando in parte o in toto la rasterizzazione boh chi puo' dirlo, ma una cosa e' certa non e' sostenibile un modello economico dove il software deve scalare di svariate ordini di grandezza per abbracciare la maggioranza del mercato.
A me non dispiacerebbe affatto una cpu che abbia la possibilita' di eseguire il ray tracing in tempo reale per i giochi.
In fondo a me non me ne frega niente se il calcolo finale lo fa la gpu o la cpu.
Mah, nel PC fascia bassa la VooDoo non c'era e quindi il gioco non partiva.
Ora almeno parte anche se va maluccio sulle integrate ATI/Nvidia.
I processori e la RAM sono ottimi anche su PC di basso costo (E2xx / 2 GB di RAM).
Ergo è un discorso che non sta in piedi IMHO quello di Sweeney.
goldorak
01-04-2008, 20:25
Mah, nel PC fascia bassa la VooDoo non c'era e quindi il gioco non partiva.
Ora almeno parte anche se va maluccio sulle integrate ATI/Nvidia.
I processori e la RAM sono ottimi anche su PC di basso costo (E2xx / 2 GB di RAM).
Ergo è un discorso che non sta in piedi IMHO quello di Sweeney.
La Voodoo non cera ma cera il software rendering, ma il punto del discorso e' che il delta prestazionale tra le due configurazioni non si misurava in 100x ma al massimo in 10x. Sweeney critica questo aspetto ed io sono d'accordo con lui.
La Voodoo non cera ma cera il software rendering, ma il punto del discorso e' che il delta prestazionale tra le due configurazioni non si misurava in 100x ma al massimo in 10x. Sweeney critica questo aspetto ed io sono d'accordo con lui.
10x che tornerebbe con il raytracing!
goldorak
01-04-2008, 21:56
10x che tornerebbe con il raytracing!
Beh se l'hardware per il raytracing fosse inserito in tutti i processori intel/amd il campo da gioco si livellerebbe parecchio non credi ? :p
Beh se l'hardware per il raytracing fosse inserito in tutti i processori intel/amd il campo da gioco si livellerebbe parecchio non credi ? :p
E infatti che male ci sarebbe? :mbe: Sarebbe ottimo.
Basta tenere le differenze con i soliti parametri: cache, bus, frequenza e soprattutto NUMERO DI CORE (che impatta considerevolmente sul RT) in modo da creare le dovute differenze per il mercato.
darkfear
01-04-2008, 22:26
E' innegabile che monitor e TV 16:9 o 16:10 schiaccino le immagini in modo non naturale.
ma assolutamente no.
Odio vedere un TG con la testa della presentatrice che sembra più un' anguria di pancia che una faccia.
I 16:9 o i 16:10 snaturano le proporzioni, e poco m' importa avere la vista di un insetto.
ma cosa c'entra...tu parli di adattare un segnale 4:3 ad un pannello 16:9...è OVVIO che risulta schiacciato...(esistono le funzioni di zoom, overscan e adattamento a 4:3 con le bande nere apposta sulle tv di oggi :rolleyes: proprio per le trasmissioni televisive...)
prova a vedere un segnale vero in 16:9 (e non un filmatino 4:3 con le bande nere, stretchato sul pannello con le bande nere che non vanno via :doh:)
cmq, personalmente sta cosa del raytracing
"me pare na strunzat"
cmq, personalmente sta cosa del raytracing
"me pare na strunzat"
http://www.pcper.com/article.php?aid=506&type=expert&pid=1
:read:
L'hai visto Q4 in Raytracing? No? Ricrediti :D
http://www.idfun.de/temp/q4rt/screenshots/index.html
darkfear
01-04-2008, 23:10
http://www.pcper.com/article.php?aid=506&type=expert&pid=1
:read:
L'hai visto Q4 in Raytracing? No? Ricrediti :D
http://www.idfun.de/temp/q4rt/screenshots/index.html
immagino che la fluidità sia il punto di forza :rolleyes:
e cmq Q4 fa cagare cmq, in qualsiasi rendering lo fai :asd:
sto gran guadagno non ce lo vedo. :|
cmq che io sappia il raytracing è fortemente limitato dal numero di ray necessari per determinate cose...che aumenta esponenzialmente al complicarsi della scena, risultando in un pesantezza infinita.
Dubito seriamente che sia possibile (nel prossimo futuro) renderizzare in ray tracing in tempo reale...
(quei cosi di Q4, come anche di Q3 Arenza non sono in raytracing puro...sarebbe impossibile, tral'altro non sono il massimo della fluidità.)
ripeto, mi sembra una cagata...finchè non vedo qualcosa di concreto non credo.
Quei "cosi" sono una tesi universitaria e il tizio è che ha fatti i "cosi" è stato assunto da Intel.....
Tutti i demo sono rigorosamente in tempo reale.....ed era il 2006, quindi figurati.
Ecco cosa dice Intel ORA (GDC 2008):
http://www.theinquirer.net/gb/inquirer/news/2008/02/21/intel-pushes-raytracing-again
YOU MAY RECOGNISE the name Daniel Pohl from his raytraced Quake games and various talks surrounding those efforts. At GDC, the talk was familiar once again, and more progress is being made toward that glorious raycast future.
For those not in the know, there are two methods of drawing a picture, the common one is called rasterisation, and it is what you see in about 99.9% of games out there. The less common one is called raytracing, and it is much more accurate, but also vastly more computationally intensive.
Pohl wrote a version of Quake 3, later 4 as well, that used a raytraced engine instead of a rasteriser. Both methods have advantages and disadvantages, but in a situation bound by computational resources, rasterisation wins at the cost of pixel perfect quality.
The nice thing about Raytracing is that is is pixel perfect, what you see is what you see, or something to that effect. The problem is that for every pixel, you must trace a ray from your eye to the first polygon on the screen. If that point can draw a line to the nearest light, it is lit, if not, it is shadowed.
In the case of reflective surfaces, it then casts another ray at the right angle and colours the pixel it came from the correct fashion. Multiple bounces can require multiple pixels, and if you think about it, a 1024 * 1024 screen takes over a million initial rays. This is not a trivial number, but you can do it, and you can do the multiple reflections in a sane way. This is not always the case with rasterisation.
There are also some interesting effects that are hard to do if you are not raytracing, shadows tend to be the big problem here. Most game engines cry if you try to make them cast shadows on a stairway, but with raytracing, it is no problem. Same with refraction in semi-transparent surfaces. With raytracing, you just cast another ray at the angle specified by the substance's index of refraction.
Other than that, you can do a lot of other fun tweaks. Collision detection is another one, since you are casting rays that intersect with surfaces, you can do collision detection for essentially free with the code you already have.
Camera portals are another similar hack, hard to do but easy with rays. With raytracing, when a ray hits a portal, you just add an offset to it. As Pohl puts it, three lines of code. If you need to do pixel perfect recursion, portals in portals in portals in .... where was I? Oh yeah, in portals and more portals, it is the "same three lines of code". They were demonstrating 140 deep portal recursion with perfect accuracy, try that in the game Portal and watch your CPU melt.
In the end, we are not there yet. With a 16 core system, you can match what a mid-range GPU does now in terms of pixel pushing, but beat it on quality and effects. This won't cut for games yet, but there is much work to be done in optimisation, and Larrabee will change the landscape.
darkfear
01-04-2008, 23:13
Quei "cosi" sono una tesi universitaria e il tizio è che ha fatti i "cosi" è stato assunto da Intel.....
e io sono interessatissimo a ciò.
certo.
darkfear
01-04-2008, 23:21
finchè non vedo qualcosa di concreto non credo.
This won't cut for games yet, but there is much work to be done in optimisation, and Larrabee will change the landscape.
tanto di cappello a Daniel Pohl per il suo lavoro e per la carriera, ma io sono un semplicissimo gamer e le cose preferisco vederle, non mi faccio le seghe con i dettagli "futuri".
Quando sarà tutto ottimizzato, quando l'intero mercato sarà pronto a questo cambio (il parziale abbandono delle GPU) quando tutti gli sviluppatori si adatteranno a questo e quando sarà possibile abbandonare le GPU e poter comunque avviare gli engine in rasterization (backward compatibility).
ALLORA si potrà "gustare" qualcosa.
imho, è un futuro abbastanza lontano, PER ORA mi sembra una fantasia e basta.
II ARROWS
02-04-2008, 00:20
Peccato che quando ci saranno 16 core, le GPU saranno ad un livello superiore, e probabilmente saranno sempre le GPU a fare raytracing...
GPU diverse da quelle di adesso, che faranno i compiti di domani.
Una GPU per videogiochi ha senso solo per la rasterizzazione, altrimenti diventa semplicemente una VPU (Visual Processing Unit).
La PS3 dovrebbe far capire come stanno le cose: RSX non è niente di che come GPU, quello che fa il lavoro è Cell, e può fare immensamente di più di quello che gli si fa fare ora.
Figata il raytracing , ne sento parlare dai tempi dell'amiga :asd:
c;,;a,z,;a
ragà io se ho ben capito l'obbiettivo finale dev'essere una scalabilità maggiore e lineare tra un PC di fascia alta ed uno di fascia media.
Per ora il rapporto è 1-100 quindi in toeria sarebbe come far girare il giochi di una x360 anche per Nintendo NES.
come si deve risolvere quindi questa situazione se non col raytracing?
Si ma le prestazioni?
Vedo molto difficile l'abbandono della strada attuale, però non è così impensabile, intel potrebbe spingere in tal senso, amd+ati seguire a ruota (sperando non fallisca nel frattempo) l'industria software idem (meno casini di driver e configurazioni driver tra 30 schede nvidia e 20 ati + vari processori), però appunto non capisco come dopo 10 anni in cui le gpu sono state fondamentali per migliorare le prestazioni grafiche ora si possa tornare indietro delegando quasi tutto alle cpu (ok che miglioreranno con i multicore, ma lo stesso faranno le schede video)
Appunto Ati una scheda e Nvidia ne propone un altra (due modelli in tutto) e si rimane fermi finchè non esce una nuova console. Toglierebbe tutti i problemi di upgrade del pc che ritornerebbe la macchina da gioco principale.
E gli ingegneri che sono pagati per far uscire una nuova vga ogni 15 giorni che fine fanno? :asd:
goldorak
02-04-2008, 09:55
Si ma le prestazioni?
Vedo molto difficile l'abbandono della strada attuale, però non è così impensabile, intel potrebbe spingere in tal senso, amd+ati seguire a ruota (sperando non fallisca nel frattempo) l'industria software idem (meno casini di driver e configurazioni driver tra 30 schede nvidia e 20 ati + vari processori), però appunto non capisco come dopo 10 anni in cui le gpu sono state fondamentali per migliorare le prestazioni grafiche ora si possa tornare indietro delegando quasi tutto alle cpu (ok che miglioreranno con i multicore, ma lo stesso faranno le schede video)
AMD/ATI hanno gia' il culo parato con l'architettura fusion, idem per Intel l'unica che rimane scoperta e' Nvidia. :asd:
Fare eseguire i calcoli alla cpu non e' un passo indietro, non capisco questa fissazione con avere schede separate.
Questo era ed e' un vantaggio finquando le prestazioni delle cpu non erano all'altezza ma ora stiamo entrando in una stagione in cui le cpu incominciano seppur lentamente ad avere la capacita' computazionale di gestire calcoli che in passato sarebbero dovuto essere scaricati su schede dedicate.
Guardate all'audio per esempio, i tempi dell'accellerazione audio e' finito, oggi con le cpu quadcore non ce' piu' nessuna differenza nel eseguire un motore audio completamente via software oppure delegare il calcolo ad una scheda audio.
Quello che e' successo con l'audio succedera' con la grafica e' poco ma sicuro.
L'unico dubbio e' se l'integrazione della grafica nei core cpu corrispondera' ad un cambio di paradigma nel senso che il raytracing soppiantera' completamente la rasterizzazione oppure si andra' verso un misto di raytracing e rasterizzazione.
E gli ingegneri che sono pagati per far uscire una nuova vga ogni 15 giorni che fine fanno? :asd:
Si riciclano in qualcos'altro.
Si ma le prestazioni?
Vedo molto difficile l'abbandono della strada attuale, però non è così impensabile, intel potrebbe spingere in tal senso, amd+ati seguire a ruota (sperando non fallisca nel frattempo) l'industria software idem (meno casini di driver e configurazioni driver tra 30 schede nvidia e 20 ati + vari processori), però appunto non capisco come dopo 10 anni in cui le gpu sono state fondamentali per migliorare le prestazioni grafiche ora si possa tornare indietro delegando quasi tutto alle cpu (ok che miglioreranno con i multicore, ma lo stesso faranno le schede video)
E gli ingegneri che sono pagati per far uscire una nuova vga ogni 15 giorni che fine fanno? :asd:
Tiè, fresco di OGGI :D
http://www.bit-tech.net/news/2008/04/02/gelsinger_kicks_off_idf_shanghai_with_larrabee/1
Pat Gelsinger has kicked off IDF Shanghai by revealing some new details on its Larrabee project.
Gelsigner claimed that “today’s graphics architectures are coming to an end – it’s no longer scalable for the needs of the future.
“The graphics pipeline is too inefficient for the next-generation workloads that will be created and used.”
He said that the industry needs a programmable, ubiquitous and unified architecture and he believes that Larrabee delivers on that front.
Gelsinger said that he’s seeing a trend emerging, where ray-tracing is moving from the high-end into the mainstream and he believes ray-tracing will make an appearance in mainstream graphics programs.
Larrabee uses a very short pipeline that delivers “teraFLOPS of performance on a single die.” It features over 100 new instructions and massive amounts of bandwidth—both to on-die cache and to local memory.
Gelsinger said in the 30 years he’s been in this industry, he’s never seen so much excitement around a project that Intel has worked on. “[There is] stunning excitement from ISVs for Larrabee,” he said.
It’s an exciting product for enthusiasts and hardcore gamers as well, as it could help to move the industry on step closer to photo realistic gaming. And later this year, we’re set to get closer to that mark with the release of FarCry 2 – Gelsinger showed some footage from the title, which is set to be released later this year. Quite simply, it looks amazing – the benchmark at the moment is of course Crysis and FarCry 2 has a good chance of breaking the boundaries set by Crytek.
Gelsinger also showed off Quake 4 RT again, and hailed ray tracing as a way for artists to focus on content creation again – once Larrabee arrives, Gelsinger believes that artists will no longer have to worry about limitations. That’s something we’ll have to wait and find out if it holds true, as ray tracing has had its sceptics in the industry. Of course, that’s not to say there aren’t uses – it’ll be an extra tool in the game developer’s armoury.
Salutiamo le GPU, hanno fatto il loro tempo :)
goldorak
02-04-2008, 10:26
Il futuro e' gia' qui. :p
Il futuro e' gia' qui. :p
Infatti vi ricordate che il Terascale di Intel funziona GIA ed è 30 volte performante una 8800? :D
E' questione di 1 o 2 generazione di schede video (G100) e poi le salutiamo con la manina :D
Se porterà a migliori prestazioni, ben venga, indipendentemente se esisteranno ancora o no le vga :)
Rimango dubbioso su un aspetto: ma i vecchi giochi come gireranno sui pc venturi? Il raytracing agisce a livello di hw/driver nel pc/os (indipendentemente dal modo con cui è scritto l'eseguibile) oppure riguarda semplicemente il metodo di programmazione dell'applicazione?
Insomma, mi voglio giocare crysis tra 2-3 anni: girerà in emulazione raytracing (gestisto dalla cpu/os), dovrà essere ricompilato ad hoc dagli sviluppatori, o cosa?
Se porterà a migliori prestazioni, ben venga, indipendentemente se esisteranno ancora o no le vga :)
Rimango dubbioso su un aspetto: ma i vecchi giochi come gireranno sui pc venturi? Il raytracing agisce a livello di hw/driver nel pc/os (indipendentemente dal modo con cui è scritto l'eseguibile) oppure riguarda semplicemente il metodo di programmazione dell'applicazione?
Insomma, mi voglio giocare crysis tra 2-3 anni: girerà in emulazione raytracing (gestisto dalla cpu/os), dovrà essere ricompilato ad hoc dagli sviluppatori, o cosa?
Le VGA (Video Graphic Adapter) ci saranno ancora ovviamente (altrimenti come fai ad usare un monitor? :p), quello che non ci sarà più sarà la GPU, meglio ancora la GPU intesa come "cuore" della grafica 3D.
Nulla però vieta di continuare a commercializzarle proprio per questioni di compatibilità col passato (cioè ora), ovvero per la rasterizzazione in hardware.
Il RT riguarda la programmazione del motore grafico ;)
arxangel
02-04-2008, 11:03
tanto di cappello a Daniel Pohl per il suo lavoro e per la carriera, ma io sono un semplicissimo gamer e le cose preferisco vederle, non mi faccio le seghe con i dettagli "futuri".
Quando sarà tutto ottimizzato, quando l'intero mercato sarà pronto a questo cambio (il parziale abbandono delle GPU) quando tutti gli sviluppatori si adatteranno a questo e quando sarà possibile abbandonare le GPU e poter comunque avviare gli engine in rasterization (backward compatibility).
ALLORA si potrà "gustare" qualcosa.
imho, è un futuro abbastanza lontano, PER ORA mi sembra una fantasia e basta.
Infatti,e poi fino a qualche mese fa si parlava di affidare agli shader della scheda video parte dei compiti del processore,come la gestione della fisica ad esempio,ora si sta dicendo l'esatto contrario,certo se le prestazioni saranno le stesse sarebbe un bel risparmio per i videogiocatori l"abolizione della scheda video"
Infatti,e poi fino a qualche mese fa si parlava di affidare agli shader della scheda video parte dei compiti del processore,come la gestione della fisica ad esempio,ora si sta dicendo l'esatto contrario,certo se le prestazioni saranno le stesse sarebbe un bel risparmio per i videogiocatori l"abolizione della scheda video"
Ma è ovvio, nel RT NON c'è shading intenso come lo si è inteso fino ad ora, pertanto avere 1000000000 unità di shading è del tutto inutile :p
Le VGA (Video Graphic Adapter) ci saranno ancora ovviamente (altrimenti come fai ad usare un monitor? :p), quello che non ci sarà più sarà la GPU, meglio ancora la GPU intesa come "cuore" della grafica 3D.
Nulla però vieta di continuare a commercializzarle proprio per questioni di compatibilità col passato (cioè ora), ovvero per la rasterizzazione in hardware.
Si userà la vga integrata nella scheda madre-cpu no? Cioè si potrà fare a meno della vga inserita nel pci-ex o connessione che sia...
Capisco che produttori sia hw (intel e amd, cioè il 99% dei costruttori cpu e un buon 60-70% gpu) che software (credo sarà più facile lavorare in un ambiente di questo tipo piuttosto che tenere in considerazione migliaia di combinazioni cpu-gpu-driver-os) spingeranno in tal senso, prima o poi, cmq il passaggio mi sembra davvero molto grande
arxangel
02-04-2008, 11:24
Ma è ovvio, nel RT NON c'è shading intenso come lo si è inteso fino ad ora, pertanto avere 1000000000 unità di shading è del tutto inutile :p
L'ho capito,ma dicevo la tendenza era quella di utilizzare la grande capacità di calcolo delle odierne GPU per sgravare in parte il processore,se ne era parlato riguardo la fisica ma non solo.Quindi sembrava che la GPU avrebbe aumentato i suoi compiti e la sua importanza,mentre queste ultime notizie la fanno diventare come il Panda,in via d'estinzione
goldorak
02-04-2008, 11:31
L'ho capito,ma dicevo la tendenza era quella di utilizzare la grande capacità di calcolo delle odierne GPU per sgravare in parte il processore,se ne era parlato riguardo la fisica ma non solo.Quindi sembrava che la GPU avrebbe aumentato i suoi compiti e la sua importanza,mentre queste ultime notizie la fanno diventare come il Panda,in via d'estinzione
Se il prezzo da pagare e' avere configurazioni sli/crossfire/quadsli/crossfire x per avere prestazioni top nei giochi e consumi alle stelle allora e' un bene che le schede grafiche diventino una specie in via di estinzione a favore di una architettura nuova che portera' si una rivoluzione nella qualita' grafica ingame.
L'ho capito,ma dicevo la tendenza era quella di utilizzare la grande capacità di calcolo delle odierne GPU per sgravare in parte il processore,se ne era parlato riguardo la fisica ma non solo.Quindi sembrava che la GPU avrebbe aumentato i suoi compiti e la sua importanza,mentre queste ultime notizie la fanno diventare come il Panda,in via d'estinzione
Il problema è che le attuali GPU sono nient'altro che un array di CPU con qualche cosuccia in meno rispetto ad una CPU "General Purpuse": quindi tra GPU e CPU alla Terascale di Intel, meglio la seconda.
Questa discussione comincia a diventare molto interessante :)
Riguardo Intel: nella Q4 del 2008 e nel 2009 dovrebbe uscire Nehalem cpu a 4core a 45nm, verso la fine del 2009 dovrebbe uscire Westmere cpu a 6core a 32nm e nel 2010 Sandy Bridge cpu 8core a 32nm e poi nel 2011 cpu 12core e 2012 cpu 16core.
Quindi il cambiamento si avrà dal 2012 ;)
Comunque già Nehalem porterà delle belle modifiche (riportate nel post#21) se poi abbinato a Larrabee.
Chi vuole approfondimenti LINK Thread ufficiale aspettando Nehalem: http://www.hwupgrade.it/forum/showthread.php?t=1645132
bluefrog
02-04-2008, 13:16
Speriamo solo che in tutto questo AMD riesca a tenere il passo!
darkfear
02-04-2008, 13:49
come si deve risolvere quindi questa situazione se non col raytracing?
risolvere una situazione già di suo pesantissimo con un sistema ancora + pesante?
Questo era ed e' un vantaggio finquando le prestazioni delle cpu non erano all'altezza ma ora stiamo entrando in una stagione in cui le cpu incominciano seppur lentamente ad avere la capacita' computazionale di gestire calcoli che in passato sarebbero dovuto essere scaricati su schede dedicate.
Guardate all'audio per esempio, i tempi dell'accellerazione audio e' finito, oggi con le cpu quadcore non ce' piu' nessuna differenza nel eseguire un motore audio completamente via software oppure delegare il calcolo ad una scheda audio.
Quello che e' successo con l'audio succedera' con la grafica e' poco ma sicuro.
tutto molto bello, ma le cpu sono quello che sono, non sono supercomputer e non hanno capacità di calcolo infinite, aggiungi aggiungi roba da calcolare alla cpu (oltre all'audio, alla fisica all'IA e millemila balle varie) e prima o poi anche quella arranca.
Imparassero a sfruttare l'hw piuttosto che "inventarsi" un altro metodo e sfruttare quello...essì, il raytracing...tutti belli felici...e processori da 450 euro a botta per gestire l'ultimo gioco necst generescion in ray tracing :rolleyes: ma voi pensate davvero di poter fottere il mercato e il giro di soldi in questo modo? io sono dubbioso...
L'unico dubbio e' se l'integrazione della grafica nei core cpu corrispondera' ad un cambio di paradigma nel senso che il raytracing soppiantera' completamente la rasterizzazione oppure si andra' verso un misto di raytracing e rasterizzazione.
e li finiamo per avere il doppio problema di rasterizzazione e raytracing...a meno che non si inventino qualcosa...
ray-tracing is moving from the high-end into the mainstream and he believes ray-tracing will make an appearance in mainstream graphics programs.
Larrabee uses a very short pipeline that delivers “teraFLOPS of performance on a single die.” It features over 100 new instructions and massive amounts of bandwidth—both to on-die cache and to local memory.
Gelsinger said in the 30 years he’s been in this industry, he’s never seen so much excitement around a project that Intel has worked on. “[There is] stunning excitement from ISVs for Larrabee,” he said.
It’s an exciting product for enthusiasts and hardcore gamers as well, as it could help to move the industry on step closer to photo realistic gaming. And later this year, we’re set to get closer to that mark with the release of FarCry 2 – Gelsinger showed some footage from the title, which is set to be released later this year. Quite simply, it looks amazing – the benchmark at the moment is of course Crysis and FarCry 2 has a good chance of breaking the boundaries set by Crytek.
Gelsinger also showed off Quake 4 RT again, and hailed ray tracing as a way for artists to focus on content creation again – once Larrabee arrives, Gelsinger believes that artists will no longer have to worry about limitations. That’s something we’ll have to wait and find out if it holds true, as ray tracing has had its sceptics in the industry. Of course, that’s not to say there aren’t uses – it’ll be an extra tool in the game developer’s armoury.[/i]
...
Salutiamo le GPU, hanno fatto il loro tempo :)
e questo ce lo assicura l'ennesimo articolo sul web inzuppato di marketing e soldi fino al gargarozzo?
Il 4D...il 120fps...ecc ecc...grande performance...FC2...bla bla.
E' questione di 1 o 2 generazione di schede video (G100) e poi le salutiamo con la manina :D
ci credo poco, troppi soldi in ballo.
Nulla però vieta di continuare a commercializzarle proprio per questioni di compatibilità col passato (cioè ora), ovvero per la rasterizzazione in hardware.
in pratica non cambia nulla.
Il RT riguarda la programmazione del motore grafico ;)
millemilamilioni di raggi sparati su ogni singola superficie, in grado di calcolare ombre, collisioni e illuminazione, rifrazioni e riflessi in generale...renderizzati in tempo reale, il tutto a 30 fps costanti sulle cpu tra un paio di anni...
:nono:
una rivoluzione nella qualita' grafica ingame.
SE ci sarà...a vedere gli attuali engine in RT (Quake 4) io non vedo miglioramenti evidenti.
la "rivoluzione" c'è già stata con crysis, peccato che crysis non giri su un c@zz@ e dubito che le cose cambieranno con un sistema ancora + tosto come il ray tracing...
poi tutto può essere.
quindi si torna indietro , tutto a carico della (delle a questo punto) cpu ?
Insomma sarebbe la disfatta di nvidia , ati e company, con la morta della 3dfx resa vana :D....
Io dico che non cambierà niente, a fronte di cpu (a parte che a quanto pare non sono dirette per il desktop) , avremo nuove gpu, nvidia e ati non staranno con le mani in mano.... sono proprio curioso di vedere come cambierà il panorama futuro :)
PS: io mi gioco il box su pci-external come futuro gaming su pc :O
riflettiamo un attimino la situazione dal un altro punto di Vista
da poco è nata la PC game alliance , con lo socpo di "salvare" il gaming per PC .
ecco chi ne fa parte per ora
http://i32.tinypic.com/rrnpj9.jpg
Activision , Microsoft, Epic
PC OEM Acer , Dell Alienware getaway
AMD Intel e Nvidia
ecco questo gia deve farci riflettere che nessuno dei presenti sarà tagliato fuori , quindi se vediamo insieme Intel e Nvidia ciò vuol dire che scordiamoci la singola CPU.
quindi che succede?^
Link (http://blogs.intel.com/technology/2008/02/pc_game_alliance_rallies_frien.php)
Link 2 (http://www.pcgamingalliance.org/)
goldorak
02-04-2008, 13:59
Siete gente di poca fede :p , leggete l'intervista a Carmack dove parla del futuro, tra cui il raytracing.
E molto illuminante.
fonte : http://www.pcper.com/article.php?aid=532
darkfear
02-04-2008, 13:59
riflettiamo un attimino la situazione dal un altro punto di Vista
da poco è nata la PC game alliance , con lo socpo di "salvare" il gaming per PC .
creando sistemi ultra potenti a "basso costo" (solo millemila milioni :))
che salvezza!
ecco questo gia deve farci riflettere che nessuno dei presenti sarà tagliato fuori , quindi se vediamo insieme Intel e Nvidia ciò vuol dire che scordiamoci la singola CPU.
quindi che succede?^
succede che sono major, vogliono solo fare soldi in un modo o nell'altro e se non sarà per le gpu sarà per le cpu.
finchè ci saranno quelli che corrono dietro alle 8800gtxzzfafaf...fanculo la salvezza, finchè fanno soldi va bene così...poi tirano fuori il raytracing e ti dicono che possiamo raggiungere nuove vette con "poco" ;)
trad:
aspetta un paio di anni e te lo mettiamo dietro in un modo diverso. :)
Visione pessimistica? sarà...
Siete gente di poca fede :p , leggete l'intervista a Carmack dove parla del futuro, tra cui il raytracing.
E molto illuminante.
fonte : http://www.pcper.com/article.php?aid=532
Ho letto un pò a capocchia, sarà illuminante ma non mi sembra che pure lui sia molto convinto del "only raytracing" come futuro fattibile... per il resto il "futuro" credo che carmack alluda spesso e volentieri alla strada che stà percorrendo...
goldorak
02-04-2008, 14:29
Ho letto un pò a capocchia, sarà illuminante ma non mi sembra che pure lui sia molto convinto del "only raytracing" come futuro fattibile... per il resto il "futuro" credo che carmack alluda spesso e volentieri alla strada che stà percorrendo...
In verita' dice che le strade da percorrere sono fondamentalmente due : o totalmente hardware come vuole Intel e quindi il costo computazionale di tale approccio dev'essere bilanciato da un hardware con le palle, oppure con un approccio piu' software basandosi su nuove strutture dati che e' la via preferita da Carmack. Ma ad ogni modo quello che dice e' che il futuro qualcunque sia la strada intrapresa e' nel raytracing.
Dice anche che le soluzioni sli/crossfire sono solo pezze (patch) all'impossibilita' di scalare in prestazioni come si faceva in passato.
Eh ma se lo dice Carmack non conta niente vero, e' risaputo che lui di hardware/software non se ne intende. :D
darkfear
02-04-2008, 14:47
Eh ma se lo dice Carmack non conta niente vero, e' risaputo che lui di hardware/software non se ne intende. :D
tra il dire e il fare (e il realizzare l'hw e il distribuire e il rincarare i prezzi e l'adattare e il patchare e sfruttare degnamente e il supportarlo per bene ecc ecc) c'è di mezzo un oceano di milioni e di prese per il culo da marketing,
goldorak
02-04-2008, 14:52
tra il dire e il fare (e il realizzare l'hw e il distribuire e il rincarare i prezzi e l'adattare e il patchare e sfruttare degnamente e il supportarlo per bene ecc ecc) c'è di mezzo un oceano di milioni e di prese per il culo da marketing,
D'accordo, pero' la Intel si sta muovendo con larrabee, Carmack si sta muovendo con il suo approccio software insomma non sono solo parole parole parole eh. :)
Il raytracing su pc per i giochi non e' questione del se ma del quando arrivera'.
Non ce' proprio niente di vaporware, la grandi manovvre sono iniziate.
Eh ma se lo dice Carmack non conta niente vero, e' risaputo che lui di hardware/software non se ne intende. :D
e quando mai avrei detto questo ? :confused:
Non parla di Api ibride ?
Ma poi scusa, allora ho capito male io questa parte o te ? :
The first point to analyze is on the discussion about ray tracing; John obviously feels that Intel's current stance on using the traditional ray tracing algorithms for gaming isn't likely to win out for the next-generation rendering technology. This obviously isn't great news for Intel since even though John isn't the only game programming genius around, his opinions seem to have more weight than just about anyone else in the industry. John more or less backs Dr. Kirk's view that rasterization has too many innate performance benefits to be taken over by ray tracing UNLESS Intel is successful in stretching the Larrabee architecture to incredible performance levels. John mentions Intel would need something to the effect of a 3-4x clock rate advantage on their design versus conventional GPU clock rates to achieve that goal - and while we can generalize and see that he means Intel would need 3-4x the general purpose computational power over competing products, that means a GPU speed of 3.0 GHz or higher when we use today's AMD and NVIDIA GPUs as a reference.
What John does see ray tracing useful for is a very specific data model he has created called "sparse voxel octrees" that allow him to store immense amounts of data in a fashion that is easily accessed using ray tracing methods. That doesn't mean that John sees direct rendering occurring using those rays, just that the theory and algorithms of ray tracing are useful for his specific purpose.
A me sembra che sia orientato più ad un utilizzo particolare del raytracing, non che punta su Ray tracing e intel invece no.... boh...
darkfear
02-04-2008, 14:57
D'accordo, pero' la Intel si sta muovendo con larrabee, Carmack si sta muovendo con il suo approccio software insomma non sono solo parole parole parole eh. :)
Il raytracing su pc per i giochi non e' questione del se ma del quando arrivera'.
Non ce' proprio niente di vaporware, la grandi manovvre sono iniziate.
eh...il punto è che c'è chi parla di un paio di anni :D
c'è chi parla di rivoluzione assoluta...ma PRIMA che ci sia un minimo barlume di rivoluzione...da quando il RT sarà disponibile (diciamo un 5-6 anni...e mi tengo stretto) andranno aggiunti i vari problemi di distribuzione di cui sopra ed il rodaggio...imho prima di molti anni non vedremo nulla di serio...o decente o perlomeno totalmente differente (a livello prestazionale) rispetto a ora...a prezzi decenti.
Mi sembra quantomeno fuori luogo cominciare già a tessere lodi ed elogiare i movimenti di major presunte "salvatrici" degli hardcore gamers.
Spero di sbagliarmi.
goldorak
02-04-2008, 15:00
e quando mai avrei detto questo ? :confused:
Tu non l'hai detto, e' solo una battuta a carattere generale.
Sai com'e' sentirsi dire sempre che Gabe e Carmack non ne capiscono di queste cose alla fine uno ci crede pure. :p
E poi non parla di API ibride ?
No, non parla solo di API ibride.
Tu non l'hai detto, e' solo una battuta a carattere generale.
Sai com'e' sentirsi dire sempre che Gabe e Carmack non ne capiscono di queste cose alla fine uno ci crede pure. :p
No, non parla solo di API ibride.
ma chi l'ha detto che non capiscono niente ? Scusa eh, non è per far polemica, ma posti il link di carmak, ti rispondiamo in due , nessuno dice questo e mi esci con questa battuta ? Capisci che ... non capisco :confused: ... vabbè :)
goldorak
02-04-2008, 15:04
Scusa ma
The first point to analyze is on the discussion about ray tracing; John obviously feels that Intel's current stance on using the traditional ray tracing algorithms for gaming isn't likely to win out for the next-generation rendering technology. This obviously isn't great news for Intel since even though John isn't the only game programming genius around, his opinions seem to have more weight than just about anyone else in the industry. John more or less backs Dr. Kirk's view that rasterization has too many innate performance benefits to be taken over by ray tracing UNLESS Intel is successful in stretching the Larrabee architecture to incredible performance levels. John mentions Intel would need something to the effect of a 3-4x clock rate advantage on their design versus conventional GPU clock rates to achieve that goal - and while we can generalize and see that he means Intel would need 3-4x the general purpose computational power over competing products, that means a GPU speed of 3.0 GHz or higher when we use today's AMD and NVIDIA GPUs as a reference.
What John does see ray tracing useful for is a very specific data model he has created called "sparse voxel octrees" that allow him to store immense amounts of data in a fashion that is easily accessed using ray tracing methods. That doesn't mean that John sees direct rendering occurring using those rays, just that the theory and algorithms of ray tracing are useful for his specific purpose.
Questo e' un riassunto dell'intervistatore, vai a leggere piu' in dettaglio l'intervento di Carmack. E poi guarda che io ho detto esattamente i punti salienti dell'intervista.
Quello che ho scritto io :
In verita' dice che le strade da percorrere sono fondamentalmente due : o totalmente hardware come vuole Intel e quindi il costo computazionale di tale approccio dev'essere bilanciato da un hardware con le palle,
oppure con un approccio piu' software basandosi su nuove strutture dati che e' la via preferita da Carmack.
Ma ad ogni modo quello che dice e' che il futuro qualcunque sia la strada intrapresa e' nel raytracing.
Dice anche che le soluzioni sli/crossfire sono solo pezze (patch) all'impossibilita' di scalare in prestazioni come si faceva in passato.
Eh ma se lo dice Carmack non conta niente vero, e' risaputo che lui di hardware/software non se ne intende.
Oggi 15:20
What John does see ray tracing useful for is a very specific data model he has created called "sparse voxel octrees" that allow him to store immense amounts of data in a fashion that is easily accessed using ray tracing methods. That doesn't mean that John sees direct rendering occurring using those rays, just that the theory and algorithms of ray tracing are useful for his specific purpose.
Interpreto diversamente questa frase, dall'usare teorie e algorimi del raytracing per determinati scopi sia diverso dal dire userà il raytracing per come lo conosciamo, tutto qua, gli davo un peso diverso :)
goldorak
02-04-2008, 15:13
Interpreto diversamente questa frase, dall'usare teorie e algorimi del raytracing per determinati scopi sia diverso dal dire userà il raytracing per come lo conosciamo, tutto qua, gli davo un peso diverso :)
Perdonami, ma i "specific purposes" a cui fa riferimento l'intervistatore e' appunto l'uso in tempo reale del ray tracing per i giochi.
Perdonami, ma i "specific purposes" a cui fa riferimento l'intervistatore e' appunto l'uso in tempo reale del ray tracing per i giochi.
ripeto.. ho letto a spizzichi e bocconi, non avevo voglia di leggere tutto, recupererò :D
resta il fatto che se si muove in quella direzione, vuol dire che qualcosa in pentola bolle .... :)
avevo fatto una proposta ad un Evangelist di Windows 7 , in pratica
la mia idea era
da windows per lanciando l interfaccia gaming mandava il sistema operativo vero e proprio in hybernate
e si riavviava un microkernel + internet+direct x
stop nient altro
secondo voi si guadagnerebbe qualcosa o sarebbe inutile risparmiare il carico del sistema operativo?
avevo fatto una proposta ad un Evangelist di Windows 7 , in pratica
la mia idea era
da windows per lanciando l interfaccia gaming mandava il sistema operativo vero e proprio in hybernate
e si riavviava un microkernel + internet+direct x
stop nient altro
secondo voi si guadagnerebbe qualcosa o sarebbe inutile risparmiare il carico del sistema operativo?
a parte che credo sia proprio un problema di architettura, ma se devi "disattivare" il s.o. per far andare unicamente il gioco, mi chiedo perchè sfasciarsi la testa visto che un sistema del genere già esiste... si chiama console. E non ditemi perchè manca il mouse :asd:
No, non credo che quello che proponi possa essere una soluzione all'ottimizzazione del gaming su pc....
goldorak
02-04-2008, 18:10
a parte che credo sia proprio un problema di architettura, ma se devi "disattivare" il s.o. per far andare unicamente il gioco, mi chiedo perchè sfasciarsi la testa visto che un sistema del genere già esiste... si chiama console. E non ditemi perchè manca il mouse :asd:
No, non credo che quello che proponi possa essere una soluzione all'ottimizzazione del gaming su pc....
Sono d'accordo con te.
Se uno e' preoccupato dal fatto che girano in background altri task oltre al gioco basta imporre la priorita' del gioco a 100%.
mi chiedo perchè sfasciarsi la testa visto che un sistema del genere già esiste... si chiama console.
Per lo stesso motivo per cui sulla PS3 metti Linux :D
goldorak
02-04-2008, 18:42
Per lo stesso motivo per cui sulla PS3 metti Linux :D
Eh eh ma e' una feature fondamentale della console non lo sapevi. :sofico:
a parte che credo sia proprio un problema di architettura, ma se devi "disattivare" il s.o. per far andare unicamente il gioco, mi chiedo perchè sfasciarsi la testa visto che un sistema del genere già esiste... si chiama console. E non ditemi perchè manca il mouse :asd:
No, non credo che quello che proponi possa essere una soluzione all'ottimizzazione del gaming su pc....
piu tardi voglio mostrarvi una cosa
ecco
Date un occhiata ad uno dei tanti forum che in giro ci sono di videogame
in questo post sono state raccolte le postazioni videoludiche di ogni utente
Link (http://www.nextrl.it/forum/index.php?showtopic=15337&hl=postazioni)
Guardate un po le pagine per favore
dopo un po comincerete a notare che la maggioranza ha piu di una console, creando disordine nella stanza , usando tutte le prese della TV e tuttavia forse quasi sicuramente nemmeno se le gode, quindi rispondendo a dani&l
le console non solo non soddisfano più l'utente visto che tende sempre a comprarne piu di una , e questo è un fenomeno degli ultimissimi tempi, ma le console sono morte
mi duole dirlo perchè io ho avuto ed in parte ho tutte le console esistite, e non ho mai visto che per giocare deve preistallare qualcosa, o che deve aspettare le patch a questo punto è chiaro che il futuro è il PC , solo che bisogna creare un assetto minimo abbastanza elevato
questa è la matassa da sbrogliare!!
darkfear
02-04-2008, 20:12
ecco
Date un occhiata ad uno dei tanti forum che in giro ci sono di videogame
in questo post sono state raccolte le postazioni videoludiche di ogni utente
Link (http://www.nextrl.it/forum/index.php?showtopic=15337&hl=postazioni)
Guardate un po le pagine per favore
dopo un po comincerete a notare che la maggioranza ha piu di una console, creando disordine nella stanza ,
e quindi? chissenefrega.
usando tutte le prese della TV e tuttavia forse quasi sicuramente nemmeno se le gode
dove l'hai presa st'affermazione? non ti offendere...ma è un immensa s... ;)
le console non solo non soddisfano più l'utente
falso
visto che tende sempre a comprarne piu di una
io ne ho una e così le altre 15 persone che conosco che hanno una sola 360 o una ps3, e giocano da matti, online od offline con una marea di giochi.
e questo è un fenomeno degli ultimissimi tempi
è un fenomeno che esiste dalla PS2, c'era chi comprava la Xbox e il GC, non è cambiato NULLA.
ma le console sono morte
cazzata.
mi duole dirlo perchè io ho avuto ed in parte ho tutte le console esistite, e non ho mai visto che per giocare deve preistallare qualcosa, o che deve aspettare le patch
mai installato nulla o dovuto installare patch obbligatiore.
a questo punto è chiaro che il futuro è il PC , solo che bisogna creare un assetto minimo abbastanza elevato
questa è la matassa da sbrogliare!!
bel futuro di merda.
no grazie, io passo, le fantasie le lascio a voi.
e quindi? chissenefrega.
dove l'hai presa st'affermazione? non ti offendere...ma è un immensa s... ;)
falso
io ne ho una e così le altre 15 persone che conosco che hanno una sola 360 o una ps3, e giocano da matti, online od offline con una marea di giochi.
è un fenomeno che esiste dalla PS2, c'era chi comprava la Xbox e il GC, non è cambiato NULLA.
cazzata.
mai installato nulla o dovuto installare patch obbligatiore.
bel futuro di merda.
no grazie, io passo, le fantasie le lascio a voi.
darkfear ti stai emozionando inutilmente
1) Ogni discorso è un osservazione e resta cmq un punto di vista
2) Tutti i nuovi giochi PS3 per evitare i lunghi e penosi caricamenti da blu ray eseguono una preistallazione , ed ho sentito gia molti utenti lamentarsi che l HD si riempie e poi che mazza di console è mai questa ???!!!
Che ti vuoi negare le patch in download? un qualcosa che ti ripara un bug non lo scarichi?
Poi che è sta storia che cambiano firmware etc etc?? ma quando mai le console ti creano problemi al firmware!!??!?!
Le console per come le intendo io sono morte col dreamcast e la PS2
Forse l'unica console ad essere appetibile oggi e l X360 tra qualità prezzo ma ho un PC abbastanza potente e non mi manca nessun titolo .
IL WIi?? (lo tengo ) è una sola!!
Oggi le console che fanno i numeri sono i portatili , e tra Nintendo DS e PSP puoi vedere concretamente chi ha visto l'attuale guerra videoludica.
Poi per quanto riguarda l utena multiconsole in quel topic non li ho incolonnati io ma sono un campione reale di persone che hanno postato la propria postazione e come puoi vedere nella maggior parte dei casi il risultato resta cio che prima ho espresso!!!!
darkfear
02-04-2008, 20:43
darkfear ti stai emozionando inutilmente
no, parlo così di mio, è proprio oggi che ho avuto una giornata di merda.
1) Ogni discorso è un osservazione e resta cmq un punto di vista
spacciare qualcosa di palesemente falso per oggettivo (le console sono morte) è e rimane una cazzata.
2) Tutti i nuovi giochi PS3 per evitare i lunghi e penosi caricamenti da blu ray eseguono una preistallazione , ed ho sentito gia molti utenti lamentarsi che l HD si riempie e poi che mazza di console è mai questa ???!!!
10-15 minuti di installazione...concordo che sono un immensa cagata, ma neanche la fine del mondo (oltre ad essere un problema circoscritto solo ad alcuni giochi) e cmq io ho una 360...
Che ti vuoi negare le patch in download? un qualcosa che ti ripara un bug non lo scarichi?
tu hai parlato di patch necessarie, le patch normali se vuoi puoi scaricarle + TARDI, e sono roba di 2 minuti (di orologio) per poi riprender a giocare.
Siamo nel 2008, i giochi sono DIVERSI da quelli di una volta, richiedono + risorse ed hanno cmq + bachi, mettetevelo in testa.
Poi che è sta storia che cambiano firmware etc etc?? ma quando mai le console ti creano problemi al firmware!!??!?!
non ne ho idea, non chiederlo a me...mai avuto problemi, ne coloro che conosco che hanno la ps3, sono problemi da forum.
Le console per come le intendo io sono morte col dreamcast e la PS2
morte morte no, sicuro qualcosa è morto dentro tutti noi (.cit)
Forse l'unica console ad essere appetibile oggi e l X360 tra qualità prezzo ma ho un PC abbastanza potente e non mi manca nessun titolo.
io ho la 360 e un pc che si tiene con lo scotch...ho la 360 e ne sono parecchio soddisfatto, sopratutto considerando ciò che ho lasciato dei pc...(l'argomento centrale di questo 3ad...le necessità hardware)
IL WIi?? (lo tengo ) è una sola!!
di solito non mi permetto ma...condivido, dopo averci giocato...
Oggi le console che fanno i numeri sono i portatili , e tra Nintendo DS e PSP puoi vedere concretamente chi ha visto l'attuale guerra videoludica.
qua non ti seguo +, interessa poco la "guerra" videoludica di mercato.
Poi per quanto riguarda l utena multiconsole in quel topic non li ho incolonnati io ma sono un campione reale di persone che hanno postato la propria postazione e come puoi vedere nella maggior parte dei casi il risultato resta cio che prima ho espresso!!!!
si, il punto è che il postulato: "ha tante console e non ci si diverte" è basato sul nulla + totale.
goldorak
02-04-2008, 20:46
darkfear calmati un po', e poi non e' che quotando ogni singola frase il tuo discorso diventa piu' rilevante.
E detto sinceramente, i tuoi interventi di questo passo sono illegibili.
darkfear
02-04-2008, 20:51
darkfear calmati un po', e poi non e' che quotando ogni singola frase il tuo discorso diventa piu' rilevante.
se ho da dire qualcosa riguardo ad un argomento sancito in una determinata frase del post, saranno anche fatti miei? :)
E detto sinceramente, i tuoi interventi di questo passo sono illegibili.
chi vuole leggere, legga.
no, parlo così di mio, è proprio oggi che ho avuto una giornata di merda.
spacciare qualcosa di palesemente falso per oggettivo (le console sono morte) è e rimane una cazzata.
10-15 minuti di installazione...concordo che sono un immensa cagata, ma neanche la fine del mondo (oltre ad essere un problema circoscritto solo ad alcuni giochi) e cmq io ho una 360...
tu hai parlato di patch necessarie, le patch normali se vuoi puoi scaricarle + TARDI, e sono roba di 2 minuti (di orologio) per poi riprender a giocare.
Siamo nel 2008, i giochi sono DIVERSI da quelli di una volta, richiedono + risorse ed hanno cmq + bachi, mettetevelo in testa.
non ne ho idea, non chiederlo a me...mai avuto problemi, ne coloro che conosco che hanno la ps3, sono problemi da forum.
morte morte no, sicuro qualcosa è morto dentro tutti noi (.cit)
io ho la 360 e un pc che si tiene con lo scotch...ho la 360 e ne sono parecchio soddisfatto, sopratutto considerando ciò che ho lasciato dei pc...(l'argomento centrale di questo 3ad...le necessità hardware)
di solito non mi permetto ma...condivido, dopo averci giocato...
qua non ti seguo +, interessa poco la "guerra" videoludica di mercato.
si, il punto è che il postulato: "ha tante console e non ci si diverte" è basato sul nulla + totale.
beh ti ripeto non ho comprsto la 360 proprio perchè ho un buon PC con la famosa 8800 gtxdsjfsofj
e quando sparo Gears of War a 1920 x 1200 con tutti i filitri al max ti assicuro che trema pure il pavimento , ma non è questo il punto.
tu dici che siamo nel futuro è qualcosa doveva cambiare giusto?
Ma il principio di una console è
METTI IL GIOCO DENTRO E PREMI START
non lo puoi negari , è stato per secoli cosi, ed è cosi che muore o rinascerà la console!
siamo ora nella via di mezzo
una console con un Hard disk
La rete
mouse e tastiera
addirittura il web
dimmi tu adesso
cosa ha piu di console?
se per console tu intendi un hardware standard su cui giocare posso comprenderti , ma non verirmi a dire che è metti dentro e premi start.
il SIgn Kojima ha detto che per Metal Gear non gli sarebbe bastato un blu ray con 50 gb.
vorrei rispondere in 1 persona a kojima chiedendogli
Mr. Kojima, quanto occupa metal gear senza le scene full motion video ?
come sono state compresse le scene fmv? ( se sono state compresse)
la risposta??
4 gb. il resto son tutti video che la gente vuole skippare con start!!!
per quel che riguarda il fatto di avere piu console e non divertirsi e una sintesi logica basata sul fatto che chi compra piu di una cosa non è pienamente soddisfatto dalla prima.
darkfear
02-04-2008, 22:35
METTI IL GIOCO DENTRO E PREMI START
non lo puoi negari , è stato per secoli cosi, ed è cosi che muore o rinascerà la console!
e guarda caso io come molti altri acquirenti facciamo ancora così. :)
senza Gears Of War che crasha ogni 2 x 3 o ha marginali miglioramenti a fronte di un attesa di tot anni, o a driver che all'improvviso fanno schermo blu o hw che non viene sfruttato dal sistema per ragioni ignote o a millemila protezioni invasive o prestazioni da pianto ma non è questo il punto.
Su una cosa sono d'accordo, per avere un futuro bisogna tornare al passato (in tutti i sensi, dedizione e sviluppo sui giochi e hardware)
il punto è QUANDO, sarà un'attesa MOLTO lunga.
una console con un Hard disk
La rete
mouse e tastiera
addirittura il web
dimmi tu adesso
cosa ha piu di console?
assolutamente niente, motivo per cui io possiedo una 360 core, senza hard disk e non gioco online.
La Ps3 funziona da Media Center, non da console ordinaria.
se per console tu intendi un hardware standard su cui giocare posso comprenderti , ma non verirmi a dire che è metti dentro e premi start.
incredibile ma vero, io faccio proprio così.
Strano, devo essere l'unico...probabilmente tutti gli altri tot milioni di acquirenti passano il tempo a scaricare aggiornamenti ogni 20 minuti di gioco, a installare robe per 72 ore o a vedere la propria console distrutta in millemila modi diversi dopo 1 giorno dall'acquisto, io no.
il SIgn Kojima ha detto che per Metal Gear non gli sarebbe bastato un blu ray con 50 gb.
tutte palle, marketing senza capo né coda, semplicemente da ignorare.
Mr. Kojima, quanto occupa metal gear senza le scene full motion video ?
come sono state compresse le scene fmv? ( se sono state compresse)
non ci sono FMV...sono tutti "filmati" fatti con il motore di gioco.
la risposta??
4 gb. il resto son tutti video che la gente vuole skippare con start!!!
se la gente skippa i filmati con start, non ha capito niente del senso dell'intera serie di MGS a partire dal primo.
per quel che riguarda il fatto di avere piu console e non divertirsi e una sintesi logica basata sul fatto che chi compra piu di una cosa non è pienamente soddisfatto dalla prima.
no, chi compra un'altra console la compra in base ai giochi (si, perchè si gioca) e all'esclusività dell'una e l'altra.
chi possiede una 360 non giocherà MGS4, FFXIII, KH3...Resistance 1-2 e altri.
chi possiede una ps3 non giocherà Mass Effect, GOW, Bioshock e altri a meno di avere un pc BEN carrozzato. (indi intorno ai 600 euro di spesa IN + a fronte di una spesa di 199 euro come alternativa)
[QUOTE]e guarda caso io come molti altri acquirenti facciamo ancora così. :)
senza Gears Of War che crasha ogni 2 x 3 o ha marginali miglioramenti a fronte di un attesa di tot anni, o a driver che all'improvviso fanno schermo blu o hw che non viene sfruttato dal sistema per ragioni ignote o a millemila protezioni invasive o prestazioni da pianto ma non è questo il punto.
Su una cosa sono d'accordo, per avere un futuro bisogna tornare al passato (in tutti i sensi, dedizione e sviluppo sui giochi e hardware)
il punto è QUANDO, sarà un'attesa MOLTO lunga.
probabilmente queste cose succedono a chi ha hardware incompatibile, driver non aggiornati e forse gioco pirata,
a me non e mai successo!!! e ti ho gia detto prima che la 360 resta per me la console piu appetibile ma ho gia il PC , e non tutti i titoli hanno una pubblicazione con un divario cosi ampio.
assolutamente niente, motivo per cui io possiedo una 360 core, senza hard disk e non gioco online.
La Ps3 funziona da Media Center, non da console ordinaria.
la ps3 da media center?? ma lo conosci il media center?
incredibile ma vero, io faccio proprio così.
Strano, devo essere l'unico...probabilmente tutti gli altri tot milioni di acquirenti passano il tempo a scaricare aggiornamenti ogni 20 minuti di gioco, a installare robe per 72 ore o a vedere la propria console distrutta in millemila modi diversi dopo 1 giorno dall'acquisto, io no.
hai la 360
tutte palle, marketing senza capo né coda, semplicemente da ignorare.
appunto, ma il 99% delle persone ci casca
non ci sono FMV...sono tutti "filmati" fatti con il motore di gioco.
anche se fatti col motore di gioco sono registrati in fmv senza risparmio, non li vedrai in real time altrimenti il gioco era 600k
se la gente skippa i filmati con start, non ha capito niente del senso dell'intera serie di MGS a partire dal primo.
Il primo (per psx) l ho giocato e finito 3 volte, il resto è stata fuffa (sempre parere personale) , poi per quanto riguarda skippare con start intendo tutti i titoli dove l impegno viene preso maggiormente per le scene d intramezzo che per il titolo stesso.
no, chi compra un'altra console la compra in base ai giochi (si, perchè si gioca) e all'esclusività dell'una e l'altra.
chi possiede una 360 non giocherà MGS4, FFXIII, KH3...Resistance 1-2 e altri.
chi possiede una ps3 non giocherà Mass Effect, GOW, Bioshock e altri a meno di avere un pc BEN carrozzato. (indi intorno ai 600 euro di spesa IN + a fronte di una spesa di 199 euro come alternativa
il 90% dei titoli e multiplataform, le esclusive sono poche e saranno sempre meno, io resto del parere "INSODDISFATTI"
Per lo stesso motivo per cui sulla PS3 metti Linux :D
Mica si mette linux per giocare ... linux è un plus, e alla fine imho non te ne fai niente, solo se uno non ha un pc.
ecco
Date un occhiata ad uno dei tanti forum che in giro ci sono di videogame
in questo post sono state raccolte le postazioni videoludiche di ogni utente
Link (http://www.nextrl.it/forum/index.php?showtopic=15337&hl=postazioni)
Guardate un po le pagine per favore
dopo un po comincerete a notare che la maggioranza ha piu di una console, creando disordine nella stanza , usando tutte le prese della TV e tuttavia forse quasi sicuramente nemmeno se le gode, quindi rispondendo a dani&l
le console non solo non soddisfano più l'utente visto che tende sempre a comprarne piu di una , e questo è un fenomeno degli ultimissimi tempi, ma le console sono morte
mi duole dirlo perchè io ho avuto ed in parte ho tutte le console esistite, e non ho mai visto che per giocare deve preistallare qualcosa, o che deve aspettare le patch a questo punto è chiaro che il futuro è il PC , solo che bisogna creare un assetto minimo abbastanza elevato
questa è la matassa da sbrogliare!!
Dovella, mi sa di arrampicata sugli specchi.
Dire che le console sono morte è essere fuori dal mondo, state facendo questo casino giusto perchè il mondo pc, sul lato gaming, ha bisogno di essere salvato. Carmack è stato chiaro sul futuro : configurazioni sli, schede accelleratrici di fisica, tutte "cazzate". Tutti gli sviluppatori (e lo stesso carmack afferma) preferiscono spostarsi sul più redditizio mondo console. Non vedere questo è solo il canto del cigno nel cercare di autoconvincersi che aver speso 300 euro per l'ultima scheda video sia valsa la pena. Porting che non si riescono più a fare bene (perchè di porting da console ormai vive il pc, e non ditemi di no, visto che tutte le software house dichiarano la console come piattaforma di sviluppo), configurazioni sempre più incasinate.
Le console non sono 100.000 , sono 3 di cui 2 simili (ps3 e x360), una che può benissimo convivere con tutto (il wii). Ciò non toglie che non esiste nessun "casino royal" ad avere più console, come nessun medico ti prescrive l'uso di più di una console.... e non è perchè uno è insoddisfatto a voler comprare "sempre più console".... solo l'ingordigia e la consapevolezza che quel pezzo di HW comprato per quelle esclusive (e si , sono solo le esclusive a fare pendere le scelte di una e l'altra) è un hw che comprato rimarrà quello fino alla fine. Io vivo bene solo con la x360, e per dirla tutta, se non fosse stato per il sempre più fiorente mondo console, avrei già abbandonato il gaming in generale da più di 2 anni ormai, visto che su pc mi ero stufato della situazione insostenibile.
L'arrivo di Apparecchi di rete, di Hard Disk, etc.. è solo la dimostrazione di come si prenda il meglio della tecnologia su pc e la si assembli per fare una macchina, che nasce e muore unicamente come macchina ludica.
I livelli raggiunti ora (risoluzioni HD, effetti stile dx9/10, 5.1 audio, Gaming online pesante, etc..) sono livelli alti per un mondo di solo gaming. Paragonare pc e console unicamente sotto l'aspetto ludico mi spiace ma il pc con queste generazioni prende solo sonore mazzate. I sistemi invece sono ottimi se messi in simbiosi.
A oggi il mio pc, condiviso in rete con la mia xbox , mi coprono a 360 gradi. Ho un'ottima stazione multimediale, un ottimo sistema di gaming, un'ottima piattaforma di sviluppo... e ... non ho nessun problema, ne di configurazione (il mio pc è "bombato" a sufficenza per farmi fare tutto tranne il gaming ai massimi livelli, per quello c'è la console) e ne di preoccupazione per il futuro, sempre appeso alla speranza di una soluzione "divina" :)
EDIT: guarda nel mio profilo : io ho anche una ps2, e un nintendo ds, e ti assicuro che NON è perchè sono insoddisfatto delle console che me ne sono comprate altre (x360 in questo caso)... chi ha orecchie per intendere intenda ;)
Mica si mette linux per giocare ... linux è un plus, e alla fine imho non te ne fai niente, solo se uno non ha un pc.
E chi parlava di giocare? :mbe: :confused:
Dire che le console sono morte è essere fuori dal mondo
Questo non è vero in quanto la console "classica" per giocare in effetti non c'è più: Sony stessa ha affermato che la PS3 evolverà sempre più verso un Media Center.....e ha ragione a fare così.
Lo dico da vecchio estimatore delle console (anni '80) che guardava molto male il PC agli inizi degli anni '90 ("Non è hardware dedicato" :asd: :D)
Altro parere sulle console e la loro morte, un tantino più importante di quello di un forumista:
http://www.pctuner.net/forum/blogs/sonicguru/105-le-console-saranno-morte-entro-dieci-anni.html
"Le console saranno morte nei prossimi cinque, massimo dieci anni".
Parola di Sandy Duncan, ex Vice Presidente XboX Europa, per quindici anni in Microsoft.
Sandy Duncan comunque non è l'unico a pensarla così: già a ottobre del 2007, Gerhard Florin, Executive Vice President and General Manager International Publishing di Electronic Arts aveva grossomodo espresso la stessa idea, con solo una lieve differenza nella valutazione temporale: quindici anni.
L'argomento è sostanzialmente il seguente: gli sviluppatori vogliono una sola piattaforma standard aperta e on line. Questo faciliterebbe di molto il lavoro di sviluppo rispetto all'attualità, eliminando di fatto i problemi, spesso enormi, di porting cross platform tra PC, Xbox 360, PS3 o Wii, a causa dell'incompatibilità tra architetture profondamente diverse. Si tratta appunto solo di attendere che i tempi e le tecnologie internet siano mature.
La considerazione di Florin è basata sul fatto che, entro i prossimi quindici anni, gli attuali set top box saranno abbastanza potenti per effettuare streaming di videogiochi on line, rendendo di fatto inutile per l'utente finale l'acquisto di una console dedicata al gioco. Del resto secondo Florin, all'utente finale non interessa su che piattaforma stia giocando e attualmente il successo dell'una o dell'altra dipende più che altro dal parco titoli disponibile.
Con un approccio del genere i titoli sarebbero finalmente universali, in quanto sviluppati in maniera indipendente e quindi accessibili a tutti, senza necessità di dover scegliere tra questa o quell'altra console.
La posizione di Duncan, attualmente dipendente di YoYo Games, un'azienda di giochi web appunto, è leggermente differente, ma comunque convergente. Duncan non pensa ai set top box in particolare, ma sostene semplicemente che nei prossimi cinque-dieci anni i giochi saranno "virtualizzati", trasformandosi in servizi web erogati dai provider.
L'idea di fondo quindi è la stessa: convergenza di sviluppo, spostamento su internet e conseguente inutilità di piattaforme dedicate.
La prospettiva sembra indubbiamente interessante e i vantaggi assolutamente maggiori degli svantaggi: se infatti la tecnologia da qui a cinque, dieci o quindici anni ci sarà veramente, pensiamo che i timori, palesati da alcuni commentatori, secondo cui gli utenti vorranno sempre scelta e qualità e che entrambe si conciliano male con il web e le connessioni, siano del tutto infondati.
In effetti anzi tale migrazione dei giochi sul web non farebbe che rispecchiare un trend già all'opera negli ultimi anni in tanti altri settori, come ad esempio la disponibilità on line di suite di strumenti da ufficio, o i vari servizi on line messi a disposizione un po da tutti, per finire con la futura (ma non troppo remota) disponibilità di interi Sistemi Operativi on line, per non parlare degli sviluppi legati a telefonia e televisione, per cui ci sembra del tutto naturale che, in futuro, i servizi saranno sempre più virtualizzati e la potenza di calcolo si sposti progressivamente sui server, trasformando gli attuali PC in terminali di fruizione dei vari servizi.
Signori miei, PC e Console sono roba vecchia, come la rasterizzazione :D
goldorak
03-04-2008, 09:31
[cut]
Signori miei, PC e Console sono roba vecchia, come la rasterizzazione :D
Vuoi vedere che il pc sopravvive in barba a tutti ?
Le console come le conosciamo spariscono a favore dei media center tutto fare (pvr, videogames, etc..) insomma l'hub del home entertainment piazzato in salotto, un elettrodomestico a tutti gli effetti mentre il pc rimane li solo soletto nello studio. :p
Una piattaforma aperta e moddabile. :p
Ps: oh ma sulla ps 4/5/6 ci potrai installare linux. :sofico:
......
In effetti anzi tale migrazione dei giochi sul web non farebbe che rispecchiare un trend già all'opera negli ultimi anni in tanti altri settori, come ad esempio la disponibilità on line di suite di strumenti da ufficio, o i vari servizi on line messi a disposizione un po da tutti, per finire con la futura (ma non troppo remota) disponibilità di interi Sistemi Operativi on line, per non parlare degli sviluppi legati a telefonia e televisione, per cui ci sembra del tutto naturale che, in futuro, i servizi saranno sempre più virtualizzati e la potenza di calcolo si sposti progressivamente sui server, trasformando gli attuali PC in terminali di fruizione dei vari servizi.[/i]
Signori miei, PC e Console sono roba vecchia, come la rasterizzazione :D
Più o meno quello su cui ho puntato 2 pagine fà :D
PS: io mi gioco il box su pci-external come futuro gaming su pc :O
Comunque futuro interessante... ma molto lontano, anche se di per se la mia console (x360) la vedo comunque morta tra cinque anni, come è mora la prima e come stà morendo (ma tira ancora ) la ps2. Hanno un normale ciclo di vita. Cosa ci riserverà il futuro non si sà, anche se il box multimediale con cui far viaggiare tutto è bene o male la stessa cosa che ho adesso... solo non standardizzata :D
A me che mi cambia se invece di avere un pc collegato in rete ad una xbox che uso per giocare o vedere filmati sharati su pc , avro un pc "terminale" collegato ad un box multimediale, se tanto alla fine giocherò sempre sul divano, sempre con un attrezzo comodo, sempre sulla mia tv 40'' ? niente che poi siano giochi virtuali , e quello che vuoi, l'importante è il fine, non il mezzo, e il mio fine è avere comodità , funzionalità, e ottimizzazione a portata di click :)
Aviatore_Gilles
03-04-2008, 10:17
E' un pò la storia del gaming pc che doveva morire, ma a conti fatti non è ancora successo e mai succederà credo. :D
Le console non moriranno tanto facilmente, rappresentano la maggior parte degli introiti per le SH, hanno un rapporto costo/potenza decisamente favorevole e diciamo che sono più "semplici" da programmare. ;)
Alla maggior parte delle persone interessa mettere il DVD nel lettore e giocare e questa è forse la maggior condizione di vantaggio di una console ;)
A dire il vero nessuno "programma le console".....si usa l'SDK :D
Aviatore_Gilles
03-04-2008, 10:21
ho usato l'apicetto appositamente :D
A dire il vero nessuno "programma le console".....si usa l'SDK :D
ma che vuol dire ? Non è la stessa cosa ? alla fine programmi per console... :confused:
Scrivi il codice in C++ , compili e lanci l'applicativo sul devkit .... se non è programmare quello :confused:
E' un pò la storia del gaming pc che doveva morire, ma a conti fatti non è ancora successo e mai succederà credo. :D
Le console non moriranno tanto facilmente, rappresentano la maggior parte degli introiti per le SH, hanno un rapporto costo/potenza decisamente favorevole e diciamo che sono più "semplici" da programmare. ;)
Alla maggior parte delle persone interessa mettere il DVD nel lettore e giocare e questa è forse la maggior condizione di vantaggio di una console ;)
comunque quello che prospetta lowerz nel suo post non è nient'altro che la fusione tra console e apparecchio multimediale, con il pc come interfaccia gestionale... :D
Non è la morte, è "l'ennesima rivoluzione" del mondo informatico. A dire il vero nell'ambiente di lavoro già da anni si parlava di Server centralizzati e pc come terminal, in pratica si riproponeva quello che era in voga forse più di 15 anni fa. Io in azienda ho ancora un sistema simile, un server e dei terminali (monitor + tastiera). Roba vetusta. Certo , a livello teorico, abbatteresti i costi, la necessità di sistemi operativi in più, visto che in quel caso è solo il S.O. del server a girare su tutti i terminali, sai che pacchia fare un aggiornamento ed in un colpo tutti aggiornati :D ... però non si vede ancora niente ... :(
Aviatore_Gilles
03-04-2008, 10:32
ma che vuol dire ? Non è la stessa cosa ? alla fine programmi per console... :confused:
Qua c'è un alto tasso di pignoleria, ho cercato di generalizzare il discorso ed essere più semplice e chiaro possibile.....e subito la gente a puntualizzare :O
Aviatore_Gilles
03-04-2008, 10:41
comunque quello che prospetta lowerz nel suo post non è nient'altro che la fusione tra console e apparecchio multimediale, con il pc come interfaccia gestionale... :D
Non è la morte, è "l'ennesima rivoluzione" del mondo informatico. A dire il vero nell'ambiente di lavoro già da anni si parlava di Server centralizzati e pc come terminal, in pratica si riproponeva quello che era in voga forse più di 15 anni fa. Io in azienda ho ancora un sistema simile, un server e dei terminali (monitor + tastiera). Roba vetusta. Certo , a livello teorico, abbatteresti i costi, la necessità di sistemi operativi in più, visto che in quel caso è solo il S.O. del server a girare su tutti i terminali, sai che pacchia fare un aggiornamento ed in un colpo tutti aggiornati :D ... però non si vede ancora niente ... :(
Un'evoluzione è logica, ma non direi una morte vera e propria, ma come dici tu, un'integrazione...La console che diventa stazione multimediale è già una piccola realtà, la situazione non può che evolversi, però a mio modo di vedere l'acquisto sarà sempre fortemente influenzato dal fatto di poter giocare, chiamarla morte è a mio avviso esagerato.
Warlock72
03-04-2008, 10:52
Che poi ha senso parlare di queste differenze quando in realtà le console di oggi son piccoli pc? Hanno hard disk, tastiere, unità ottiche, schede video di ultima generazione, l'online...
Che poi ha senso parlare di queste differenze quando in realtà le console di oggi son piccoli pc? Hanno hard disk, tastiere, unità ottiche, schede video di ultima generazione, l'online...
perchè le differenze sono enormi : una è un'architettura chiusa e destinata e ottimizzata ad un unico scopo, l'altra è un'architettura completamente diversa , destinato a molti più utilizzi. Non è l'abito che fa il monaco :D
goldorak
03-04-2008, 12:17
perchè le differenze sono enormi : una è un'architettura chiusa e destinata e ottimizzata ad un unico scopo, l'altra è un'architettura completamente diversa , destinato a molti più utilizzi. Non è l'abito che fa il monaco :D
Beh visto come vanno le cose nel mondo console, non parlerei piu' di ottimizzazione per una architettura visto che ormai e' il multy a farla da padrone.
Certo e' una situazione di gran lungo migliore di quella pc dove ci sono migliaia di possibili configurazioni, ma nel mondo console devi tenere conto di due architetture radicalemente diverse : xbox 360 e ps 3. :p
ma che vuol dire ? Non è la stessa cosa ? alla fine programmi per console... :confused:
Scrivi il codice in C++ , compili e lanci l'applicativo sul devkit .... se non è programmare quello :confused:
Ecco uno degli effetti dell'imbarbarimento informatico attuale :D
"Programmare X" significa scrivere codice per X nel suo linguaggio nativo :D
Ecco uno degli effetti dell'imbarbarimento informatico attuale :D
"Programmare X" significa scrivere codice per X nel suo linguaggio nativo :D
allora chi scrive codice in c , c++, vb, html, come si dice ?
Solo chi programma in assembler , programma ? :D
A me sembra il classico pelo nell'uovo :asd:
Tutto stò casino perchè preferivi che diceva "programmare PER console" :asd:
Sarà imbarbarimento informatico, ma non è attuale, la mia scuola è molto vecchia (quando andavo a scuola io i corsi erano quasi sperimentali in informatica)... eppure si diceva già cosi :rolleyes:
goldorak
03-04-2008, 12:32
Ecco uno degli effetti dell'imbarbarimento informatico attuale :D
"Programmare X" significa scrivere codice per X nel suo linguaggio nativo :D
Accidenti, pensavo che la scrittura diretta di codice macchina fosse stata eliminata gia' da qualche tempo. :p
Aviatore_Gilles
03-04-2008, 13:03
Ecco uno degli effetti dell'imbarbarimento informatico attuale :D
"Programmare X" significa scrivere codice per X nel suo linguaggio nativo :D
Si ma cappero, era solo un modo di dire per far capire il concetto...ma va che siete maledetti eh :D :D
Aviatore_Gilles
03-04-2008, 13:06
Che poi ha senso parlare di queste differenze quando in realtà le console di oggi son piccoli pc? Hanno hard disk, tastiere, unità ottiche, schede video di ultima generazione, l'online...
Ma rimane comunque una configurazione standard dal lancio fino al ritiro dal mercato, per quello che "creare giochi per una console" rimane più semplice rispetto ad un pc :D :D :D :D
Ma rimane comunque una configurazione standard dal lancio fino al ritiro dal mercato, per quello che "creare giochi per una console" rimane più semplice rispetto ad un pc :D :D :D :D
ma più che semplice, puoi , con il tempo, ottimizzare il tutto. Semplice non deve esserlo, o almeno, non riesci subito a sfruttarne le caratteristiche.... guarda solo come evolvono i risultati con lo stesso identico hw negli anni :)
Master Mystery
03-04-2008, 15:44
Ma io spero bene che sia il futuro, il ritornare alla sola cpu. Non solo ci sarà una diminuizione dei costi nel totale, ovviamente non è cosa certa ma comunque prevedibile se vediamo le schede audio, ma sarebbe molto più semplice applicare tecniche avanzate per risparmiare più corrente possibile in idle, meno consumi nel totale, meno calore da dissipare, meno dispendio di energie nella programmazione e, finalmente, molto più spazio nei dispositivi.. mai più schede video da 20 e passa cm., crescita esponenziale di sistemi barebone o portatili anche per il gaming, e se non subito tra qualche anno, anche perchè comunque non si punta alla sola cpu ma ad una architettura uguale su un pcb esterno a quanto ho capito, cioè Larrabee. ma l'importante è iniziare.
Aviatore_Gilles
03-04-2008, 15:51
ma più che semplice, puoi , con il tempo, ottimizzare il tutto. Semplice non deve esserlo, o almeno, non riesci subito a sfruttarne le caratteristiche.... guarda solo come evolvono i risultati con lo stesso identico hw negli anni :)
Beh naturalmente semplice, nel senso proprio del termine, non deve essere :D :D Però rispetto ad un pc ci sono sicuramente meno variabili e poi come dici giustamente tu, la base rimane quella, hai il tempo per scoprirla e sfruttarla a dovere. :)
A dire il vero nessuno "programma le console".....si usa l'SDK :D
a dire il vero tutti gli sdk ed il testing per qualsiasi console viene fatta sotto windows
a dire il vero tutti gli sdk ed il testing per qualsiasi console viene fatta sotto windows
non hai molto chiara l'idea di come funziona , vero ? :D
Il testing viene fatto su Devkit, ovvero "console" apposite collegate tramite cavo di rete, dove compili il sorgente e lo lanci eseguibile.
Su pc hai l'interfaccia del linguaggio di programmazione...
http://www.youtube.com/watch?v=hVrVBI9RaFY
http://media.teamxbox.com/games/ss/1141/1124729982.jpg
The_Crimson_King
03-04-2008, 18:16
Ma secondo voi, con queste DX 11, si riesce ad entrare a Gerusalemme o ti fermano alla dogana???:asd:
non hai molto chiara l'idea di come funziona , vero ? :D
Il testing viene fatto su Devkit, ovvero "console" apposite collegate tramite cavo di rete, dove compili il sorgente e lo lanci eseguibile.
Su pc hai l'interfaccia del linguaggio di programmazione...
http://www.youtube.com/watch?v=hVrVBI9RaFY
http://media.teamxbox.com/games/ss/1141/1124729982.jpg
Kevin Unagst
Il gioco su PC, quindi, si evolve in continuazione, permettendo di avere sempre, o quasi, il massimo della qualità tecnica a disposizione sia del programmatore che del giocatore; parallelamente anche Windows è in continua evoluzione, grazie ad aggiornamenti, patch e quant'altro.
Per rafforzare ulteriormente la tesi Kevin ha portato un semplice esempio: i giochi sviluppati per console, nello specifico Xbox 360, vengono progettati in origine sotto Windows.
Link (http://www.everyeye.it/pc/articolo.asp?id=7229)
Kevin Unagst
Link (http://www.everyeye.it/pc/articolo.asp?id=7229)
:confused: Si ma non capisco cosa vorresti dire ..... xbox 360 il devkit lo da guarda un pò la microsoft, se la stessa facesse funzionare il devkit sotto linux , programmare PER console da windows o da linux non cambierebbe niente, perchè il codice che scrivi funziona unicamente sul devkit..... :D
Vedo che usate il linguaggio appropriato ora :O
Bravi, promossi :O :D
:confused: Si ma non capisco cosa vorresti dire ..... xbox 360 il devkit lo da guarda un pò la microsoft, se la stessa facesse funzionare il devkit sotto linux , programmare PER console da windows o da linux non cambierebbe niente, perchè il codice che scrivi funziona unicamente sul devkit..... :D
da ciò che si legge non funziona unicamente sul devkit
darkfear
03-04-2008, 21:33
Ma secondo voi, con queste DX 11, si riesce ad entrare a Gerusalemme o ti fermano alla dogana???:asd:
:rotfl:
certo che sta discussione sta diventando surreale...fanboy de qua e de là...:asd:
da ciò che si legge non funziona unicamente sul devkit
:confused: :confused:
Ma cosa vorresti dire, che sei convinto che facciano andare i giochi anche su windows senza porting ? Cos'è la bufala del giorno, programmano per windows, fanno andare il titolo su console, e poi dopo 1 anno di finto porting mettono il gioco su Windows.... :asd:
Se è questo che intendi (perdonami ho capito cosi dai tuoi interventi) sei proprio fuori strada.... il codice che scrivono su windows gira unicamente su dev kit. Esistono situazione in cui creano una versione light dell'engine per farlo girare sotto windows, questo per permettere ai grafici di mappare e fare altre cose. Rallenta di molto la produzione perchè significa che i programmatori devono lavorare sia sull'engine su xbox, sia ad una versione light (senza il minimo effetto) per windows, creando poi i tools di sviluppo usati dagli altri. Ma non significa che il gioco poi giri sotto windows. :)
Summo l'intervento di Fek, chissà che porti luce, ah partendo dal presupposto di credere almeno alle sue parole, visto che programma PER console (lionheart -> fable 2), sarebbe interessante anche una sua idea su questa situazione in generale :)
EDIT: purtroppo per mancanza di mana non riesco ad evocare Fek... fa niente... meglio che finisce di lavorare su fable 2 :)
Ecco uno degli effetti dell'imbarbarimento informatico attuale :D
"Programmare X" significa scrivere codice per X nel suo linguaggio nativo :D
"Programmare X" significa scrivere codice per X che funzioni su X, non esiste un linguaggio nativo.
Per rafforzare ulteriormente la tesi Kevin ha portato un semplice esempio: i giochi sviluppati per console, nello specifico Xbox 360, vengono progettati in origine sotto Windows.
Davvero? :D
EDIT: purtroppo per mancanza di mana non riesco ad evocare Fek... fa niente... meglio che finisce di lavorare su fable 2 :)
Sono stato evocato! E lasciami almeno il tempo di prendere il caffe' a casa!
Sono stato evocato! E lasciami almeno il tempo di prendere il caffe' a casa!
:asd: ... sono sempre un putente maco !!!
"Programmare X" significa scrivere codice per X che funzioni su X, non esiste un linguaggio nativo.
E come la metti con "Programmare una macchina di Turing" o "Programmare una ROM"? :D
Sono due accezioni diverse dalla ormai comune accezione di "programmare", eppure sono più antiche e si usano tuttora :p
Il verbo programmare è passato da "Scrivere istruzioni eseguibili da una macchina (sottinteso nella lingua di una macchina, fosse anche "transistor in col gate floating" come nei BIOS :p)" a "scrivere codice compilabile//interpretabile ed POI eseguibile da una macchina" negli ultimi 40 anni.
E secondo me è un imbarbarimento :D
http://www.tomshw.it/news.php?newsid=13619
:O
I giorni delle schede video discrete, ovvero quelle dedicate, sono agli sgoccioli secondo un rappresentante di Intel che ha parlato all'Intel Developer Forum di Shanghai. Ron Fosner ha affermato che le CPU multi-core metteranno fine alla pazzia delle soluzioni multi-GPU e in futuro le persone "probabilmente non avranno bisogno di schede video discrete".
Secondo Fosner le CPU multi-core sono più che capaci di elaborare scene complesse, riservate attualmente alle schede di fascia alta. I processori offrirebbero più valore e sarebbe più economico passare da una soluzione single-core a una multi-core, anziché passare da una a più schede grafiche.
"Ciò che ha importanza è che oggi potete avere una scheda grafica nel sistema oppure anche una configurazione multi-GPU, ma non potete permettervi di inserire quattro o otto schede grafiche nel sistema", ha affermato Fosner.
Un altro vantaggio della programmazione di grafica e fisica attraverso la CPU è che le persone non avranno più bisogno di tenersi aggiornati cambiando continuamente scheda grafica. Fosner ha affermato che tutti sanno come programmare per una CPU, ma non tutti lo sanno fare per le diverse GPU sul mercato. Stuzzicato quindi sul futuro delle schede grafiche discrete, Fosner ha risposto che probabilmente in futuro non serviranno, spiegando che i computer negli anni 80 non integravano una scheda video e che le CPU erano abbastanza potenti da ricoprire quel ruolo. Ruolo che, secondo lui, torneranno a ricoprire.
Dichiarazioni che non pregiudicano comunque il progetto Larrabee, di cui abbiamo parlato in passato, spiegandovi quanto affermato da Intel.
"Larrabee prodotto con più core, che Intel presenterà come scheda video discreta nel 2009/2010. Intel sfiderà AMD e nVidia nel mercato delle schede grafiche con un approccio diverso da quello odierno, utilizzando core IA comuni. Come nelle schede video, ci saranno molti processori programmabili in un ambiente altamente parallelo. Più che definire Larrabee come una GPU, bisognerebbe inquadrarla quindi come una VPU, o vector processing unit.
Anche se Intel parlerà di Larrabee come una scheda video (che dovrebbe consumare meno di 140 watt), la vera potenza è data un motore in virgola mobile che, secondo Gelsinger, supererà ampiamente la potenza di un Teraflop. Questo permetterà alla scheda di sfidare le soluzioni nVidia Tesla e AMD Firestream, ma Intel crede di avere un asso nella manica: poiché ci sono core IA, la piattaforma potrà contare su qualsiasi sviluppatore che ha già scritto codice per i comuni microprocessori. Gli sviluppatori non dovranno così imparare CUDA o CTM come avviene per le soluzioni Tesla o Firestream. In teoria, Intel ha già centinaia di migliaia di sviluppatori che potrebbero scrivere codice per Larrabee. La sfida, tuttavia, rimane quella di educare la nuova generazione di sviluppatori ad avvantaggirsi di un ambiente con dozzine di core. Per concludere segnaliamo che il VP and Director Steve Smith ha dichiarato che il calcolo della fisica sarà uno dei punti chiave del progetto Larrabee. In termini di supporto, il prodotto sarà compatibile con gli standard OpenGL e DirectX".
E come la metti con "Programmare una macchina di Turing" o "Programmare una ROM"? :D
La metto che "programmare per una macchina" e' sempre significato scrivere codice che sara' eseguito da quella macchina. Il linguaggio nel quale il codice e' scritto e' del tutto indifferente, perche' tutti i linguaggi sono tradotti prima o poi in codice macchina. Anche l'assembly :)
La metto che "programmare per una macchina" e' sempre significato scrivere codice che sara' eseguito da quella macchina. Il linguaggio nel quale il codice e' scritto e' del tutto indifferente, perche' tutti i linguaggi sono tradotti prima o poi in codice macchina. Anche l'assembly :)
Ma infatti non ho mai scritto "PER" io :mbe:
Ma infatti non ho mai scritto "PER" io :mbe:
Anche togliendo il PER non cambia significato :)
"Programmare X" significa scrivere codice in qualunque linguaggio su qualunque piattaforma che alla fine della tool chain e' eseguito sulla macchina X.
cdimauro
04-04-2008, 11:32
A dire il vero nessuno "programma le console".....si usa l'SDK :D
L'SDK è soltanto uno strumento, così come il compilatore. ;)
Ecco uno degli effetti dell'imbarbarimento informatico attuale :D
"Programmare X" significa scrivere codice per X nel suo linguaggio nativo :D
Quindi, nel caso di CPU come PowerPC, ma sopratutto per x86, dovremmo programmare usando le microistruzioni RISC che vengono effettivamente eseguite dalle unità RISC-like (per il PowerPC è paradossale questa cosa, visto che... è un processore RISC :asd:)?
Se mi spieghi come fare, comincio subito a fare qualche esperimento "barbaro". :p
allora chi scrive codice in c , c++, vb, html, come si dice ?
Solo chi programma in assembler , programma ? :D
A me sembra il classico pelo nell'uovo :asd:
Tutto stò casino perchè preferivi che diceva "programmare PER console" :asd:
Sarà imbarbarimento informatico, ma non è attuale, la mia scuola è molto vecchia (quando andavo a scuola io i corsi erano quasi sperimentali in informatica)... eppure si diceva già cosi :rolleyes:
L'assembly (NON assembler! L'assembler è il compilatore; assembly è il linguaggio) sarebbe già un "di più": meglio il linguaggio macchina. :D
Anzi, meglio ancora il linguaggio machina delle unità micro-RISC che eseguono EFFETTIVAMENTE il codice. :asd:
Vedo che usate il linguaggio appropriato ora :O
Bravi, promossi :O :D
No no: bocciati senza appello. :asd:
cdimauro
04-04-2008, 11:32
E come la metti con "Programmare una macchina di Turing" o "Programmare una ROM"? :D
Sono due accezioni diverse dalla ormai comune accezione di "programmare", eppure sono più antiche e si usano tuttora :p
Il verbo programmare è passato da "Scrivere istruzioni eseguibili da una macchina (sottinteso nella lingua di una macchina, fosse anche "transistor in col gate floating" come nei BIOS :p)" a "scrivere codice compilabile//interpretabile ed POI eseguibile da una macchina" negli ultimi 40 anni.
E secondo me è un imbarbarimento :D
Secondo me sbagli completamente. Non sta scritto da nessuna parte che la macchina dev'essere programmata nel suo linguaggio "nativo".
In primis perché chiunque abbia un briciolo di conoscenza di architetture degli elaboratori dovrebbe sapere come funzionano processori come i PowerPC (mi riferisco a quelli di IBM in particolare, anche se il concetto non è applicabile a tutti) e x86, che sono dotate di unità "micro-RISC" che sono quelle deputate all'effettiva esecuzione del codice.
Gli opcode di queste architetture vengono infatti CONVERTITI internamente in "microistruzioni" ancora più semplici e date in pasto all'unità "micro-RISC" che poi le eseguità effettivamente.
Detto ciò, si capisce subitoc che quanto hai detto finora è una cosa del tutto irrealizzabile, visto che NON si può programmare in nessun modo l'unità micro-RISC, se non indirettamente tramite il passaggio di opcode nell'architettura "madre" (PPC, x86).
In secondo luogo ricordiamo che si è iniziato a parlare di "programmazione" quando ancora non esistevano macchine su cui lavorarci. :D
La programmazione è il processo che porta alla modellazione di una soluzione a un dato problema.
E non sta scritto da nessuna parte che lo si debba fare usando il linguaggio "nativo" della macchina target.
Quel che conta è il RISULTATO finale.
Tra l'altro con architetture come quelle PPC (NON per le versioni presenti su console come PS3 e XBox360, che sono "in order" e molto più semplici) e x86 oggi programmare in linguaggio macchina (perché è questo che chiedi: nemmeno dell'assembly dovresti accontentarti, visto che implica già di suo un processo di compilazione) non ha senso, data l'enorme complessità dell'architettura e le CENTINAIA e CENTINAIA di vincoli che un programmatore umano difficilmente riuscirà mai a padroneggiare per tirare fuori codice "ottimale" (lo metto tra virgolette perché sappiamo benissimo che, teoria della computabilità alla mano, in generale si tratta di un problema INDECIDIBILE).
La metto che "programmare per una macchina" e' sempre significato scrivere codice che sara' eseguito da quella macchina. Il linguaggio nel quale il codice e' scritto e' del tutto indifferente, perche' tutti i linguaggi sono tradotti prima o poi in codice macchina. Anche l'assembly :)
E a sua volta tradotti nel "linguaggio nativo" dell'architettura. :D
Ovviamente concordo in toto. :)
Ma infatti non ho mai scritto "PER" io :mbe:
Suvvia lowenz: non giochiamo con le parole. ;)
Il problema è che io per macchina non intendo un processore, ma una cosa moooooooooolto più generica (altimenti la chiamo calcolatore, non "macchina"), come può essere anche una EPROM!
Infatti si dice tranquillamente "programmare una EPROM", ma non esistono istruzioni di codice come le intendi tu per una EPROM perchè NON è un calcolatore, ma cmq una macchina.
In quel caso le "istruzioni" della programmazione sono i gate flottanti/non flottanti.
cdimauro
04-04-2008, 11:56
Ma nel nostro caso? Tu stesso hai parlato di "linguaggio nativo" e dopo aver letto "assembler" (peraltro sbagliato, visto che il linguaggio è l'assembly) hai detto che era appropriato... :O
Il contesto della discussione, insomma, mi sembra ben chiaro e definito. ;)
Il problema è che io per macchina non intendo un processore, ma una cosa moooooooooolto più generica (altimenti la chiamo calcolatore, non "macchina"), come può essere anche una EPROM!
Ma come dice giustamente Cesare il contesto e' ben definito, e in questo contesto "Programmare il 360 in C++" e' un'affermazione assolutamente corretta, al contrario di cio' che hai affermato.
In primis perché chiunque abbia un briciolo di conoscenza di architetture degli elaboratori dovrebbe sapere come funzionano processori come i PowerPC (mi riferisco a quelli di IBM in particolare, anche se il concetto non è applicabile a tutti) e x86, che sono dotate di unità "micro-RISC" che sono quelle deputate all'effettiva esecuzione del codice.
Gli opcode di queste architetture vengono infatti CONVERTITI internamente in "microistruzioni" ancora più semplici e date in pasto all'unità "micro-RISC" che poi le eseguità effettivamente.
Detto ciò, si capisce subitoc che quanto hai detto finora è una cosa del tutto irrealizzabile, visto che NON si può programmare in nessun modo l'unità micro-RISC, se non indirettamente tramite il passaggio di opcode nell'architettura "madre" (PPC, x86).
Se vuoi prova del fatto che so questo iniziamo un bel dibattito sull'UCD (che sta alla base del processo che hai accennato)? :D
Per i non addetti ai lavori ecco un piccolo riassunto: http://it.wikibooks.org/wiki/Architetture_dei_processori/Unit%C3%A0_di_decodifica
:p
In secondo luogo ricordiamo che si è iniziato a parlare di "programmazione" quando ancora non esistevano macchine su cui lavorarci. :D
La programmazione è il processo che porta alla modellazione di una soluzione a un dato problema.
Io questa la preferisco chiamare "progettazione e realizzazione del sistema hardware/software", programmazione è appunto una parola troppo generica PER ME :D
Ma nel nostro caso? Tu stesso hai parlato di "linguaggio nativo" e dopo aver letto "assembler" (peraltro sbagliato, visto che il linguaggio è l'assembly) hai detto che era appropriato... :O
Il contesto della discussione, insomma, mi sembra ben chiaro e definito. ;)
Il linguaggio "nativo" se noti era tra "" altrimenti non le mettevo :D
E dove mai IO ho parlato di assembler? :confused: (che è appunto un erroraccio, si dice assembly): l'hanno detto gli altri, ma visto che ero stato già sgridato per pignoleria non ho corretto :p
cdimauro
04-04-2008, 12:05
Se vuoi prova del fatto che so questo iniziamo un bel dibattito sull'UCD (che sta alla base del processo che hai accennato)? :D
Per i non addetti ai lavori ecco un piccolo riassunto: http://it.wikibooks.org/wiki/Architetture_dei_processori/Unit%C3%A0_di_decodifica
:p
La prova dovevi darla prima, lowenz: quando hai parlato di linguaggio "nativo". :O
Comunque se vuoi spostare la discussione su un altro fronte, per me non c'è problema: le architetture degli elaboratori sono cose a me particolarmente gradite. :D
Io questa la preferisco chiamare "progettazione e realizzazione del sistema hardware/software", programmazione è appunto una parola troppo generica PER ME :D
Coi per me non si va da nessuna parte lo sai. :)
Quando un informatico parla di programmazione, lo fa sapendo perfettamente cosa si intende con questa parola. ;)
cdimauro
04-04-2008, 12:07
Il linguaggio "nativo" se noti era tra "" altrimenti non le mettevo :D
OK :) Ma ciò non toglie che NON sia possibile utilizzarlo per lavorarci. ;)
E dove mai IO ho parlato di assembler? :confused: (che è appunto un erroraccio, si dice assembly).
L'hanno detto gli altri, ma visto che ero stato già sgridato per pignoleria non ho corretto :p
Poiché s'era tirato in ballo il linguaggio assembly, pensavo che con quella frase ti riferissi a esso (ricollegandoti al linguaggio "nativo"). Pardon :)
Io questa la preferisco chiamare "progettazione e realizzazione del sistema hardware/software", programmazione è appunto una parola troppo generica PER ME :D
Ma tu stai cercando di dimostrare un'affermazione dando un tuo personale significato al termine "Programmazione", significato che, per altro, e' scorretto come ti e' stato fatto notare.
Cambiando il significato dei termini puoi dimostrare qualunque cosa :)
Quando un informatico parla di programmazione, lo fa sapendo perfettamente cosa si intende con questa parola. ;)
Bah, "programmazione" è un termine che sia nel corso di ingegneria del software che in quello di sistemi di elaborazione è stato a dir poco bandito :D
Ho sentito la parola "programmazione" più per un PIC o di una scheda dedicata che per tutto il resto :asd:
cdimauro
04-04-2008, 12:12
Ma va benissimo. :)
L'importante è che nel contesto di cui si parlava prima assuma esattamente il significato che ho riportato. ;)
Ma tu stai cercando di dimostrare un'affermazione dando un tuo personale significato al termine "Programmazione", significato che, per altro, e' scorretto come ti e' stato fatto notare.
Cambiando il significato dei termini puoi dimostrare qualunque cosa :)
Ma non è personale e non è scorretto, il problema è che è un termine generico e che nello STESSO ambito informatico/elettronico vuol dire A e B.
Se io devo dire "realizzo una soluzione software per il problema X sulla macchina Y" allora io preferisco usare "Programmo PER Y".
Ma non è personale e non è scorretto, il problema è che è un termine generico e che nello STESSO ambito informatico/elettronico vuol dire A e B.
Permettimi, e' personale e del tutto scorretto. Ad esempio il mio titolo e' "Graphics Programmer" e decisamente non scrivo codice in linguaggio "nativo". Qualunque cosa significhi questo termine.
Esistono serie di libri "Game Programming Gems", "Graphics Programming", tutti scritti da gente che "programma" da decine di anni.
Donald Knuth ha scritto "The Art of Computer Programming" e gli esempi non sono in linguaggio macchina.
Dijkstra scriveva "Structured Programming" nel 1969 e non parlava di linguaggio macchina.
Ora, non vorrai dirmi che usiamo tutti da decine di anni il termine in maniera errata mentre tu sei l'unico che lo usa con l'accezione giusta vero? ;)
E' piu' probabile il contrario.
Se io devo dire "realizzo una soluzione software per il problema X sulla macchina Y" allora io preferisco usare "Programmo PER Y".
Che tu preferisca usare PER va benissimo, ma non esclude l'assoluta correttezza dell'affermare "Programmo il 360 in C++".
In conclusione, questa tua affermazione e' scorretta:
"Programmare X" significa scrivere codice per X nel suo linguaggio nativo
Vedo che usate il linguaggio appropriato ora :O
Bravi, promossi :O :D
Ahhhhhhhhh, ora ho capito cosa aveva capito Cesare :D
MA LOL, non intendevo che il linguaggio appropriato era l'assemblY, ma che parlavano correttamente in italiano :D
Permettimi, e' personale e del tutto scorretto. Ad esempio il mio titolo e' "Graphics Programmer" e decisamente non scrivo codice in linguaggio "nativo". Qualunque cosa significhi questo termine.
Esistono serie di libri "Game Programming Gems", "Graphics Programming", tutti scritti da gente che "programma" da decine di anni.
Donald Knuth ha scritto "The Art of Computer Programming" e gli esempi non sono in linguaggio macchina.
Dijkstra scriveva "Structured Programming" nel 1969 e non parlava di linguaggio macchina.
Ora, non vorrai dirmi che usiamo tutti da decine di anni il termine in maniera errata mentre tu sei l'unico che lo usa con l'accezione giusta vero? ;)
E' piu' probabile il contrario.
Che tu preferisca usare PER va benissimo, ma non esclude l'assoluta correttezza dell'affermare "Programmo il 360 in C++".
In conclusione, questa tua affermazione e' scorretta:
"Programmare X" significa scrivere codice per X nel suo linguaggio nativo
Ma gli esempi francamente che porti non vedo come possano negare quello che dico: io sostengo semplicemente che in italiano si dovrebbe parlare così:
*programmare PER UNA macchina -> scrivere codice che faccia eseguire alla macchina alias calcolatore in questo caso le operazioni volute
*programmare UNA macchina ovvero caratterizzarla nel suo funzionamento (vedi BIOS, EPROM, PIC, e mille altri esempi).
Ripeto che il linguaggio nativo sono anche i gate lasciati flottanti per una EPROM, così come gli interrupt per un PIC: anche questo è codice, non solo i linguaggi di programmazione comunemente intesi.
Ma gli esempi francamente che porti non vedo come possano negare quello che dico: io sostengo semplicemente che in italiano si dovrebbe parlare così:
*programmare PER UNA architettura/CALCOLATORE
*programmare UNA macchina ovvero caratterizzarla nel suo funzionamento (vedi BIOS, EPROM, PIC, e mille altri esempi).
Ripeto che il linguaggio nativo sono anche i gate lasciati flottanti per una EPROM, così come gli interrupt per un PIC.
Lowenz, tu hai fatto un'affermazione precisa, questa:
"Programmare X" significa scrivere codice per X nel suo linguaggio nativo
Tradotta in inglese sarebbe:
"Programming X".
Stai affermando che il libro di Knuth sarebbe dovuto intitolarsi "The Art of Programming For Computers" e non "The Art of Computer Programming"?
Mi sembra una tesi difficile da sostenere. Credo che tu stia piuttosto giocando con le parole per giustificare un'affermazione palesemente errata.
ho usato un summon potentissimo... oltre a FEK ho evocato cdimauro .... mitico !!!! :D
Comunque penso che si sia capito che il pelo nell'uovo era effettivamente un pelo fuori luogo.... pure io che sono della vecchia scuola (mi piace definirmi cosi, visto che quando andavo a scuola io i corsi informatici erano sperimentali :D) ho, anzi abbiamo, sempre usato dire programmo X come lo state definendo voi :)
Detto questo credo che abbiamo sforato il topic leggermente, nonostante certe nozioni mi hanno rinvigorito la memoria.... aimhè ormai sono ridotto a programmare in sql, vba, forms e menatazze varie :cry:
Lowenz, tu hai fatto un'affermazione precisa, questa:
"Programmare X" significa scrivere codice per X nel suo linguaggio nativo
Tradotta in inglese sarebbe:
"Programming X".
Stai affermando che il libro di Knuth sarebbe dovuto intitolarsi "The Art of Programming For Computers" e non "The Art of Computer Programming"?
Mi sembra una tesi difficile da sostenere. Credo che tu stia piuttosto giocando con le parole per giustificare un'affermazione palesemente errata.
1) L'inglese come sai dato che vivi in UK non funziona proprio come l'italiano dato che è una lingua molto più povera, in quanto in esso il contesto è essenziale, in italiano le sfumature invece si possono dare anche tramite la lingua stessa.
2) Sì, sostengo che si debba dire "Programmare PER un calcolatore" e non un "Programmare un calcolatore", il complemento oggetto trovo che non vada affatto bene, perchè la costruzione "Programmare X" cambia significato in base ad X (vedi per l'ennesima volta EPROM, ecc. :p) e quindi tanto vale metterci un "PER" in italiano.
http://it.wikipedia.org/wiki/Programma_(informatica)
Nell'informatica, un programma per calcolatore, o semplicemente programma, è la descrizione di un algoritmo in un linguaggio adatto a essere eseguito da un computer o da una macchina virtuale. È una sequenza logicamente ordinata di operazioni o comandi di istruzioni, un insieme di istruzioni che produce soluzioni per una data classe di problemi.
E non "di un calcolatore", che si dovrebbe dire se si usasse il complemento oggetto in "programmare un calcolatore" :D
fek
Visto che sei concretamente tecnico ..
tu personalmente come risolveresti la questione Gaming PC.
non per le vendite ma per dare un pò la possibilità a tutti di giocarci col PC.
1) L'inglese come sai dato che vivi in UK non funziona proprio come l'italiano dato che è una lingua molto più povera, in quanto in esso il contesto è essenziale, in italiano le sfumature invece si possono dare anche tramite la lingua stessa.
No, in questo caso la traduzione e' simmetrica:
Programmare un calcolatore - Computer Programming
Programmare per un calcolatore - Programming FOR a Computer
Stai sostenendo che Knuth ha sbagliato il titolo di uno dei libri cardine della programmazione.
2) Sì, sostengo che si debba dire "Programmare PER un calcolatore" e non un "Programmare un calcolatore", il complemento oggetto trovo che non vada affatto bene, perchè la costruzione "Programmare X" cambia significato in base ad X (vedi per l'ennesima volta EPROM, ecc. :p) e quindi tanto vale metterci un "PER" in italiano.
E sostieni una cosa sbagliata perche' fra "Programmare un calcolatore" e "Programmare PER un calcolatore" non c'e' alcuna differenza, come dimostrato. La tua accezione e' priva di significato.
http://it.wikipedia.org/wiki/Programma_(informatica)
Nell'informatica, un programma per calcolatore, o semplicemente programma, è la descrizione di un algoritmo in un linguaggio adatto a essere eseguito da un computer o da una macchina virtuale. È una sequenza logicamente ordinata di operazioni o comandi di istruzioni, un insieme di istruzioni che produce soluzioni per una data classe di problemi.
"O semplicemente programma" :)
Anche wikipedia descrive i due usi come equivalenti, quindi la tua affermazione e', un'altra volta, dimostrata falsa.
tu personalmente come risolveresti la questione Gaming PC.
non per le vendite ma per dare un pò la possibilità a tutti di giocarci col PC.
Trasformandoli in console, cosa evidentemente impossibile :)
Sviluppare per PC costa troppo date le innumerevoli combinazioni di hardware e non garantisce il ritorno dell'investimento, quindi non e' una strada a mio avviso economicamente percorribile per un titolo generico (quindi escludendo alcune notevoli eccezioni come WoW).
cdimauro
04-04-2008, 13:06
No, in questo caso la traduzione e' simmetrica:
Programmare un calcolatore - Computer Programming
Programmare per un calcolatore - Programming FOR a Computer
Stai sostenendo che Knuth ha sbagliato il titolo di uno dei libri cardine della programmazione.
E sostieni una cosa sbagliata perche' fra "Programmare un calcolatore" e "Programmare PER un calcolatore" non c'e' alcuna differenza, come dimostrato. La tua accezione e' priva di significato.
"O semplicemente programma" :)
Anche wikipedia descrive i due usi come equivalenti, quindi la tua affermazione e', un'altra volta, dimostrata falsa.
Concordo. lowenz, cavillare sull'argomento non credo sia molto costruttivo... :stordita:
Tra l'altro non hai ancora spiegato il nesso col "linguaggio nativo" di cui parlavi prima. Giusto per eliminare ogni ambiguità: a cosa ti riferivi precisamente con quella frase?
Ma infatti il problema grosso non è con la parola "calcolatore" dove infatti il contesto dà una mano, ma quando c'è "macchina" (sebbene io reputi che sia meglio usarlo anche per calcolatore).
"Programmare una macchina" non è equivalente a "programmare PER una macchina", tant'è vero che io posso "programmare una EPROM" (che è una macchina), e non "Programmare PER una EPROM".
Pertanto io sostengo che sia meglio usare PER cmq quando si parla di realizzare "codice che gira su una architettura" ("Io programmo PER un X86", non "Io programmo un X86") e lasciare la costruzione col complemento oggetto per identificare invece la strutturazione/configurazione/caratterizzazione di una macchina.
Concordo. lowenz, cavillare sull'argomento non credo sia molto costruttivo... :stordita:
Tra l'altro non hai ancora spiegato il nesso col "linguaggio nativo" di cui parlavi prima. Giusto per eliminare ogni ambiguità: a cosa ti riferivi precisamente con quella frase?
Il linguaggio "nativo" (con le virgolette) è anche la configurazione dei gate dei transistor in una EPROM, siete voi programmatori che tendete ad identificare codice/linguaggio con i vari linguaggi di programmazione :D
ma più che tecnica mi pare una diatriba sul linguaggio italiano.
Domanda :
a) Io programmo per una console
b) io programmo la console per una softwarehouse
c) io programmo per una console per una softwarehouse
qual'è la risposta semantica corretta ? :D
Trasformandoli in console, cosa evidentemente impossibile :)
Sviluppare per PC costa troppo date le innumerevoli combinazioni di hardware e non garantisce il ritorno dell'investimento, quindi non e' una strada a mio avviso economicamente percorribile per un titolo generico (quindi escludendo alcune notevoli eccezioni come WoW).
non potrebbe essere una soluzione un Box esterno for gaming da collegare a qualsiasi PC ??
cdimauro
04-04-2008, 13:11
Ma infatti il problema grosso non è con la parola "calcolatore" dove infatti il contesto dà una mano, ma quando c'è "macchina" (sebbene io reputi che sia meglio usarlo anche per calcolatore).
"Programmare una macchina" non è equivalente a "programmare PER una macchina", tant'è vero che io posso "programmare una EPROM" (che è una macchina), e non "Programmare PER una EPROM".
Pertanto io sostengo che sia meglio usare PER cmq quando si parla di realizzare "codice che gira su una architettura" ("Io programmo PER un X86", non "Io programmo un X86") e lasciare la costruzione col complemento oggetto per identificare invece la strutturazione/configurazione/caratterizzazione di una macchina.
E cambiare ciò che la letteratura riporta da decenni? :)
No, non mi pare il caso.
Piuttosto sappiamo tutti che esiste l'italiano "tecnico", per cui parole e frasi assumono significati diversi, a seconda del contesto.
Nel caso della "programmazione del computer", il significato è quello che Fran ha riportato, ed è altrettanto corretto di "programmare per il computer".
cdimauro
04-04-2008, 13:13
Il linguaggio "nativo" (con le virgolette) è anche la configurazione dei gate dei transistor in una EPROM, siete voi programmatori che tendete ad identificare codice/linguaggio con i vari linguaggi di programmazione :D
E mi pare normale: se è il contesto è quello, uso il termine corretto. ;)
ma più che tecnica mi pare una diatriba sul linguaggio italiano.
Domanda :
a) Io programmo per una console
b) io programmo la console per una softwarehouse
c) io programmo per una console per una softwarehouse
qual'è la risposta semantica corretta ? :D
Per me la c) semplicemente perchè è la più precisa: significa che stai scrivendo codice PER l'architettura della console, altrimenti con b) uno potrebbe anche capire che stai implementando l'ISA della console (se non vede "per una softwarehouse" :p) oppure la gestione degli interrupt.
"Programmare una macchina" non è equivalente a "programmare PER una macchina", tant'è vero che io posso "programmare una EPROM" (che è una macchina), e non "Programmare PER una EPROM".
Questa e' la tua opinione, la mia, quella di Knuth e Wikipedia sono diverse :D
Pertanto io sostengo che sia meglio usare PER cmq quando si parla di realizzare "codice che gira su una architettura" ("Io programmo PER un X86", non "Io programmo un X86") e lasciare la costruzione col complemento oggetto per identificare invece la strutturazione/configurazione/caratterizzazione di una macchina.
Io sostengo come Cesare che stai cavillando su un concetto davvero semplice, immediato e dimostrato al di la' di ogni ragionevole dubbio. Ulteriore discussione sull'argomento e' inutile.
non potrebbe essere una soluzione un Box esterno for gaming da collegare a qualsiasi PC ??
Quella e' una console, tanto vale avere una console sotto la TV :)
Io sono sostenitore dello strumento giusto per il proprio compito. Il PC e' stato adattato per essere una macchina da gioco, ha svolto ottimamente questo compito (io sono nato come game programmer su PC e ci ho rilasciato alcuni titoli), ma la sua architettura non e' ottimizzata per questo compito. Quindi preferisco programmare macchine (:D) specificatamente progettate per svolgere al meglio questo compito. Non mi sognerei di chiedere ad una console di fare fotoritocco in maniera efficiente ad esempio.
Quella e' una console, tanto vale avere una console sotto la TV :)
Io sono sostenitore dello strumento giusto per il proprio compito. Il PC e' stato adattato per essere una macchina da gioco, ha svolto ottimamente questo compito (io sono nato come game programmer su PC e ci ho rilasciato alcuni titoli), ma la sua architettura non e' ottimizzata per questo compito. Quindi preferisco programmare macchine (:D) specificatamente progettate per svolgere al meglio questo compito. Non mi sognerei di chiedere ad una console di fare fotoritocco in maniera efficiente ad esempio.
Detto questo il gaming per PC deve morire??
Detto questo il gaming per PC deve morire??
Non credo proprio, c'e' sicuramente spazio per tutta una nicchia di mercato come WoW (oddio, 10M di utenti non sono proprio una nicchia). Ma vedo il grosso della produzione ormai spostarsi giustamente su console: piu' semplice sviluppare, piu' semplice usufruire del prodotto, piu' varieta', piu' qualita'.
darkfear
04-04-2008, 13:34
non potrebbe essere una soluzione un Box esterno for gaming da collegare a qualsiasi PC ??
:mbe:
una console? :stordita:
Detto questo il gaming per PC deve morire??
io penso di no, ma non vedo davvero come "salvarlo", troppe incognite...
per "salvarlo" intendo il tornare a produrre titoli di un certo spessore
i vari Sims e mmorpg vari tireranno sempre fior di milioni, non ha senso abbandonarli.
Il problema comincerà a porsi quando i mmorpg su console diverranno una realtà affermata... (sempre che non muoiano/resuscitino prima :ciapet:)
Non credo proprio, c'e' sicuramente spazio per tutta una nicchia di mercato come WoW (oddio, 10M di utenti non sono proprio una nicchia). Ma vedo il grosso della produzione ormai spostarsi giustamente su console: piu' semplice sviluppare, piu' semplice usufruire del prodotto, piu' varieta', piu' qualita'.
beh il discorso non fa una piega, ma le console si.
Nel senso che tra le 3 nuove console
x360 , ps3 e Wii
non possiamo negare che l unica "vera" console è la x360
non mi spiego perchè i giochi su PS3 richiedono un set up stile PC (caricamenti del blu ray)
non mi spiego gli HD interni , i continui cambi di firmware
il concetto console metti il gioco è premi start sembra totalmente perso come qualche post fa ho detto.
Il Wii vive sulla scia del successo DS , e una console OLD dal nuovo PAd, ma sinceramente non mi entusiasma piu di tanto ormai, nonostante a questa console si sia unita una sorte di MAME legale.
concludo dicendo se è vero che il gaming PC non ha forse un futuro chiaro , le console oggi non hanno una direzione.
concludo dicendo se è vero che il gaming PC non ha forse un futuro chiaro , le console oggi non hanno una direzione.
Non sono assolutamente d'accordo, perche' le console hanno una direzione e ben definita: macchine multimediali in salotto che permettono di fruire di giochi, media, tv.
Inoltre, il fatto che uno paio di giochi decidano di sfruttare l'HD per velocizzare i caricamenti non nega assolutamente lo status di console alla PS3. La PS3 e' un'ottima console e una completa macchina multimediale.
Il Wii poi e' talmente semplice e "console" da aver fatto breccia in un target di popolazione totalmente alieno ai videogiochi.
Non sono assolutamente d'accordo, perche' le console hanno una direzione e ben definita: macchine multimediali in salotto che permettono di fruire di giochi, media, tv.
Inoltre, il fatto che uno paio di giochi decidano di sfruttare l'HD per velocizzare i caricamenti non nega assolutamente lo status di console alla PS3. La PS3 e' un'ottima console e una completa macchina multimediale.
Il Wii poi e' talmente semplice e "console" da aver fatto breccia in un target di popolazione totalmente alieno ai videogiochi.
mah questione forse di punti di Vista, nel salotto ci vedo meglio un Media Center concreto che possa scambiare informazioni col PC di casa.
La PS3 è un ottima macchina?? Se lo dici tu ci credo ,
ma non possiamo negare che il Wii sia stato trascinato totalmente dal successo DS.
(io ho un Wii ed ho anche il DS) ho avuto ogni console esistita a partire dal Intelevision compreso i portatili e comprese le console mai arrivate in Italia come il PC Engine.
E non so perchè tra tutte le generazioni di console quella attuale è l'unica che mi è piaciuta di meno,, sarà colpa mia.
mah questione forse di punti di Vista, nel salotto ci vedo meglio un Media Center concreto che possa scambiare informazioni col PC di casa.
La PS3 è un ottima macchina?? Se lo dici tu ci credo ,
ma non possiamo negare che il Wii sia stato trascinato totalmente dal successo DS.
Assolutamente questione di punti di vista. Tu preferisci il mediacenter, mentre a me piace avere il server centrale nascosto ed una console sotto la TV che consumi i media. Ma perche' sono maniaco :D
E' innegabile, pero', che come media player e macchina da gioco per le masse una console e' oggetto preferibile ad un "complicato" computer.
beh il discorso non fa una piega, ma le console si.
Nel senso che tra le 3 nuove console
x360 , ps3 e Wii
non possiamo negare che l unica "vera" console è la x360
non mi spiego perchè i giochi su PS3 richiedono un set up stile PC (caricamenti del blu ray)
non mi spiego gli HD interni , i continui cambi di firmware
il concetto console metti il gioco è premi start sembra totalmente perso come qualche post fa ho detto.
Il Wii vive sulla scia del successo DS , e una console OLD dal nuovo PAd, ma sinceramente non mi entusiasma piu di tanto ormai, nonostante a questa console si sia unita una sorte di MAME legale.
concludo dicendo se è vero che il gaming PC non ha forse un futuro chiaro , le console oggi non hanno una direzione.
Le console hanno preso una forte direzione invece. Non guardare il lato "hd, installa, firmware" e via discorrendo con l'occhio di quello che succede su pc. Ora su ps3 immagino sia come per x360 l'aggiornamento della dashboard. Qualsiasi utente è capace di farlo perchè... in realtà fa tutto da sola. Accendi la console, ti colleghi al live, ti dice lui se c'è un aggiornamento o no, 5 secondi e hai fatto tutto. Questo succede .... 2 volte l'anno per la 360. Il firmware etc.. credo siano più le personalizzazioni che ps3 dà che altro.
La realtà dei fatti è che la console nasce per abbracciare tutto l'aspetto "intrattenimento", dal gaming al multimedia . Stop, finisce li, e come strumento, l'avvento pesante dell'online, l'alta definizione, i costi ridotti, la semplicità di utilizzo, fanno si che diventa lo strumento ideale per questo intrattenimento.
Il gaming su pc è come giustamente fa notare fek, è sempre nato come un "plus" e tale rimarrà, i giochi non spariranno, ma sono e stanno sparendo le produzioni di massa su pc, relegando il pc ai famosi porting (guarda EA, Ubisoft) oppure i titoli di nicchia, o , e questo mi pare sempre di leggere tra le righe , uno spostamento sempre maggiore verso l'online gaming, per svariati motivi, tra cui le vendite certe (wow insegna, quando un gioco merita ma sopratutto non può essere piratato, ecco che saltano fuori 10M di abbonati).
Non c'è da "salvare", c'è da prendere atto che come hanno fatto notare vari "boss" del settore lo sviluppo su pc è diventato peggio di prima, più complicato, soluzioni come sli e multi GPU sono solo palliativi, STEAM , Digital Delivery, Online Gaming, Multi CPU, queste sono le soluzioni che vengono proposte.
Ah , notare che WoW richiede da un pIII 800, 512 mb di ram e scheda video da 32M , dalla geforce 2 in su..... insomma, non sempre l'ultimo ritrovato hw è quello a fare la differenza :D
mah questione forse di punti di Vista, nel salotto ci vedo meglio un Media Center concreto che possa scambiare informazioni col PC di casa.
La PS3 è un ottima macchina?? Se lo dici tu ci credo ,
ma non possiamo negare che il Wii sia stato trascinato totalmente dal successo DS.
(io ho un Wii ed ho anche il DS) ho avuto ogni console esistita a partire dal Intelevision compreso i portatili e comprese le console mai arrivate in Italia come il PC Engine.
E non so perchè tra tutte le generazioni di console quella attuale è l'unica che mi è piaciuta di meno,, sarà colpa mia.
Ma le console già scambiano informazioni con il pc... io ad esempio ho su pc un pò di serie tv in dvx e me le vedo con la x360, che mi visualizza via rete tutto quello che è condiviso, dalle immagini , musica ai video, il tutto gestito con un telecomando xbox sulla tv in salotto.
:confused:
Come prima ho detto forse la colpa è mia che non ho saputo apprezzare al meglio questa generazione di console.
dico anche la mia anche se probablmente ripeto cose gia state dette,ma solo una considerazione cosi'.
E' vero che il mondo del gaming su pc sta cercando delle soluzioni e degli adattamenti,nel sistema di vendita che prevede sempre di piu il digital delivery(ma non esclusivamente e non e' affatto un male questo,se si avra' anche un miglioramento per l'edizione scatolata per chi vuole avere il gioco da collezione,quindi solo piu scelta)e di trovare una soluzione alla moltitudine di hardware presente,e questa storia del raytracing qua,su cui dico solo ben venga,nel futuro stralontano se questo faciltera' alcune situazioni(anche se mi sembrano chiaccherate cosi' per il momento).
Pero' mi sembra che qua si apra l'ennesima parentesi confrontandolo con il mondo delle console,dicendo che sono lo strumento ideale per il gaming e che sostituiscono il pc su questo aspetto e su quest'ultimo ci sia l'apocalisse,di qualita' oltre che di quantita',e che vada "salvato",ecco io non sono molto d'accordo con questo e non per i mmorgpg che sono pressoche' un esclusiva per pc ma per il target secondo me ancora ben diffferenziato a cui mira il gioco per pc rispetto al gioco per console.
se prendiamo i generi che sono sempre stati prerogativa del pc,rts e fps quindi,a me sembra molto rosea la situazione,come lo era prima,come lo e' sempre stata,senza sovrapposizioni con il mondo console,quindi non capisco cosa ci sia da "salvare",e non vedo come non vedevo prima il gaming su pc un plus,una cosa da nicchissima o solo wow,ma vedo rts che hanno qualita'elevatissima senza un rispettivo concorrente nelle console,fps che nella loro natura di competitivita' online trovano il loro apice nella piattaforma pc,piu gli strategici "da meditazione"che sono e saranno sempre su pc.Insomma non vedo perche' contrapporre sempre console e pc,e io apprezzo come ho sempre apprezzato entrambi.
Non e' che con una console non si puo potenzialmente fare cosa si fa con un pc,ma non vengono usate se non da pochi queste possibilita' e a quel punto meglio il pc..se devo giocare ad una console ma che mi sembra un pc nascosto..ma senza avere tutto quel di piu che un pc ha in quell'ambito(mod,online,tastiera e mouse non da salotto) ,ma le realta' che sono sempre state solide in questo ultimo ci sono ancora,poi che il raytracing,le direct x 11 opoi 12 e poi 13 si evolvino peer adattarsi alle problematichee attuali e i programmatori facciano delle scelte e' una cosa che sa di gia sentito,e che sentiremo sempre.
Insomma bonariamente dico basta al "il pc muore e con la console sto in salotto comodo a giocare a tutto quello che voglio",perche' e' solo diverso,e io a company of heroes non mi va di giocarci in salotto,e gli fps online non li voglio giocare su un divano,e giochi di ruolo piu complicati(non per questo migliori ma con uno stile piu "neverwinteresco"o gli strategici in genere sono da pc ;)
Si vedra' quando saremo piu vicini alle directx11(...)ma non facciamo tragedie e mentre escono le nuove directx e il vicino di casa si e' comprato quattro schede grafiche per farsi anchee i toast in superhdr godiamoci lo splendido mondo del gioco per pc,e quando ci va piu immediatezza e abbiamo poco tempo,si accende una console,con i suoi splendidi giochi(quelle semplici eh..perche' se incomincia a non partirmi il gioco su console ma devo scaricare roba anche li..mi arrabbio eh:P )
Aggiungo una cosa,cosa dicono i boss del mercato,dopo aver sentito crhis taylor aver detto una delle cose piu false nel mondo dei videogame per pc,e dopo che la epic non si capisce fra smentite e affermazoni cosa vuol fare..prendo tutto con le pinze,e con un sorriso.
Eraser|85
04-04-2008, 19:42
qui si stava parlando di raytracing al posto del rasterization.. il solo pensiero mi fa sorridere.
Il raytracing, come segnalato in diversi articoli online, è ottimo per una (a mio avviso ristretta) casistica di problemi. L'indubbio vantaggio è sicuramente la qualità massima della simulazione visiva. Il rovescio della medaglia è dato da una pesantezza che in alcuni algoritmi rende l'utilizzo proibitivo anche in software dedicati come ad esempio C4D o Maya su macchine "consumer".
Come dicevo prima, comunque, un approccio raytraced in "tempo reale" può andare bene per una certa casistica di problemi di visualizzazione come ad esempio le riflessioni / rifrazioni oppure le ombre. Ciò, tuttavia, non risulta sempre vero, con il risultato di avere cicli troppo pesanti anche in questi problemi in determinati casi (riflessioni molto vicine al pdv della camera con una scena pesantemente illuminata e carica di dettagli visivi / effetti tanto per fare un esempio).
In altri casi, poi, è praticamente impossibile usare il raytracing in real time: un esempio veramente banale è dato dall'Ambient Occlusion. Provate un po' ad implementarlo tramite raytracing... In teoria, avendo un modello di Global Illumination perfettamente implementato, non ci sarebbe affatto bisogno dell'A.O. in quanto viene calcolato "in automatico" (è la definizione stessa di GI che permette ciò).
Ma già di per sè la G.I. in C4D o Maya è di una pesantezza inaudita su scene sufficientemente complesse.. figurarsi farlo in tempo reale..
Avete presente Crysis? Lì si implementa una (seppur grossissima) approssimazione raster dell'A.O.. si può disquisire sulla fluidità del gioco, ma figuratevi se ci si metteva a castare 10-20 raggi da ciascun "quanto" di superficie all'interno della scena... avremmo avuto 1FPH :)
Morale della favola è: il raytracing in real time è (per il momento) un pesce d'aprile e niente più.. fra qualche decina d'anni forse potremmo iniziare a parlarne seriamente..
goldorak
04-04-2008, 19:49
[...]
Morale della favola è: il raytracing in real time è (per il momento) un pesce d'aprile e niente più.. fra qualche decina d'anni forse potremmo iniziare a parlarne seriamente..
Eri consigliere di Gates quando disse che 640k erano piu' che sufficienti per i desktop ? :stordita:
Non ce' peggior cieco di chi non vuole vedere (e' proprio il caso di dirlo).
Morale della favola è: il raytracing in real time è (per il momento) un pesce d'aprile e niente più.. fra qualche decina d'anni forse potremmo iniziare a parlarne seriamente..
Ed ho fortissimi dubbi che anche fra qualche decina di anni sia utile fare raytracing. Vedo piuttosto simulazioni di GI in tempo reale che appoggiano rasterizzatori.
Questo e' un pesce d'Aprile grosso come una casa :)
goldorak
04-04-2008, 20:06
Ed ho fortissimi dubbi che anche fra qualche decina di anni sia utile fare raytracing. Vedo piuttosto simulazioni di GI in tempo reale che appoggiano rasterizzatori.
Questo e' un pesce d'Aprile grosso come una casa :)
Anche le mosse di Intel rientrano nel pesce d'aprile ? :p
cdimauro
04-04-2008, 20:17
Eri consigliere di Gates quando disse che 640k erano piu' che sufficienti per i desktop ? :stordita:
Leggenda metropolitana dura a morire: quella frase non è MAI stata pronunciata da Bill, ma da un ingegnere della IBM.
goldorak
04-04-2008, 20:31
Leggenda metropolitana dura a morire: quella frase non è MAI stata pronunciata da Bill, ma da un ingegnere della IBM.
Insomma il succo del discorso non cambia, voler fare previsioni a media lunga scandenza in informatica e' come giocare al lotto. :p
Nessuno dice che le schede video spariranno da qui a 2 anni, ma di sicuro ci sono nuove forze, nuovi player che stanno spingendo verso un paradigma completamente diverso da quello a cui siamo abituati. Non volerlo riconoscere e' avere le fette di prosciutto sugli occhi.
Anche le mosse di Intel rientrano nel pesce d'aprile ? :p
No, nel loro business plan ;)
qui si stava parlando di raytracing al posto del rasterization.. il solo pensiero mi fa sorridere.
Il raytracing, come segnalato in diversi articoli online, è ottimo per una (a mio avviso ristretta) casistica di problemi. L'indubbio vantaggio è sicuramente la qualità massima della simulazione visiva. Il rovescio della medaglia è dato da una pesantezza che in alcuni algoritmi rende l'utilizzo proibitivo anche in software dedicati come ad esempio C4D o Maya su macchine "consumer".
Come dicevo prima, comunque, un approccio raytraced in "tempo reale" può andare bene per una certa casistica di problemi di visualizzazione come ad esempio le riflessioni / rifrazioni oppure le ombre. Ciò, tuttavia, non risulta sempre vero, con il risultato di avere cicli troppo pesanti anche in questi problemi in determinati casi (riflessioni molto vicine al pdv della camera con una scena pesantemente illuminata e carica di dettagli visivi / effetti tanto per fare un esempio).
In altri casi, poi, è praticamente impossibile usare il raytracing in real time: un esempio veramente banale è dato dall'Ambient Occlusion. Provate un po' ad implementarlo tramite raytracing... In teoria, avendo un modello di Global Illumination perfettamente implementato, non ci sarebbe affatto bisogno dell'A.O. in quanto viene calcolato "in automatico" (è la definizione stessa di GI che permette ciò).
Ma già di per sè la G.I. in C4D o Maya è di una pesantezza inaudita su scene sufficientemente complesse.. figurarsi farlo in tempo reale..
Avete presente Crysis? Lì si implementa una (seppur grossissima) approssimazione raster dell'A.O.. si può disquisire sulla fluidità del gioco, ma figuratevi se ci si metteva a castare 10-20 raggi da ciascun "quanto" di superficie all'interno della scena... avremmo avuto 1FPH :)
Morale della favola è: il raytracing in real time è (per il momento) un pesce d'aprile e niente più.. fra qualche decina d'anni forse potremmo iniziare a parlarne seriamente..
In STALKER c'è la GI (r2_gi).....funziona da cani quando c'è un ambiente con finestre all'esterno (vedi Garbage), ma c'è :D
In STALKER c'è la GI (r2_gi).....funziona da cani quando c'è un ambiente con finestre all'esterno (vedi Garbage), ma c'è :D
Come dico sempre: non avete idea in quanti modi vi prendiamo in giro :D
Ed ho fortissimi dubbi che anche fra qualche decina di anni sia utile fare raytracing. Vedo piuttosto simulazioni di GI in tempo reale che appoggiano rasterizzatori.
Infatti sia Carmack che Kirk (http://www.pcper.com/article.php?aid=530) fanno notare l'importante fatto che anche nelle applicazioni professionali (cinema ad esempio) si ricorre a soluzioni ibride, e spesso il raytracing è usato solo dove strettamente necessario (superfici riflettenti ad esempio, vedi Cars o Transformers). Considerando che le tecniche usate in simili ambiti sono in anticipo di almeno 10-15 anni rispetto a quanto viene usato nelle applicazioni realtime (è sufficiente considerare i tempi di calcolo e la legge di Moore), l'era del raytracing realtime (ma forse è più corretto dire l'era del "light transport realtime" :stordita: ) è inevitabilmente lontana :D
Un punto di vista interessante è dato da questo articolo (http://www.beyond3d.com/content/articles/94/1) di Beyond3d, e ancora più dalla corrispondente discussione (http://forum.beyond3d.com/showthread.php?t=44850).
Personalmente mi intriga molto la soluzione esplorata da Carmarck per l'id engine 6, cioè gli "sparse voxel octree". Da quello che suggerisce il nome e la descrizione data, sembra un modo elegante per sfruttare i vantaggi del raytracing nella navigazione di una scena strutturata, offrendo una soluzione integrata ed efficiente per il rendering, accesso e compressione della geometria. Il problema maggiore è la gestione di elementi dinamici (e relativo aggiornamento della struttura), e Carmack ne è cosciente, ma resta un'idea molto originale e radicale :D
(a naso sembra una versione 3D di questo metodo (http://research.microsoft.com/~hoppe/#ratrees)... chissà che cosa nasconde nel cappello John :D)
Come dico sempre: non avete idea in quanti modi vi prendiamo in giro :D
Beh non mi pare del tutto fake dato che è un parametro imboscato (e che quindi nessuno vede) e puoi esplicitare il numero di fotoni :D
l'era del raytracing realtime (ma forse è più corretto dire l'era del "light transport realtime" :stordita: ) è inevitabilmente lontana :D
E cosa ne pensi di questo :D
http://it.youtube.com/watch?v=2qzpl3XE6zs
:D
Beh non mi pare del tutto fake dato che è un parametro imboscato (e che quindi nessuno vede) e puoi esplicitare il numero di fotoni :D
Tutto quello che vedi su schermo e' fake :)
Il modello di illuminazione locale nel 99.99% dei giochi neppure rispetta il principio di conservazione dell'energia.
Vuoi un'approssimazione molto diffusa di GI?
Eccola:
C = A;
Dove A e' un termine ambiente costante per tutta la scena. E' un'approssimazione dell'illuminazione indiretta :)
Tutto quello che vedi su schermo e' fake :)
Il modello di illuminazione locale nel 99.99% dei giochi neppure rispetta il principio di conservazione dell'energia.
Vuoi un'approssimazione molto diffusa di GI?
Eccola:
C = A;
Dove A e' un termine ambiente costante per tutta la scena. E' un'approssimazione dell'illuminazione indiretta :)
Interessante modo di interpretare "Global" :asd:
Interessante modo di interpretare "Global" :asd:
E' il modo canonico in letteratura. Il termine ambiente in un modello di illuminazione, che sia costante o meno, e' sempre definito come un'approssimazione di illuminazione globale :)
Eraser|85
05-04-2008, 21:37
Come dico sempre: non avete idea in quanti modi vi prendiamo in giro :D
asd basta vedere come è stato implementato l'ambient occlusion in crysis :D il fatto stesso che sia un algoritmo image based è tutto dire :D
asd basta vedere come è stato implementato l'ambient occlusion in crysis :D il fatto stesso che sia un algoritmo image based è tutto dire :D
L'SSAO e' un'ottima idea invece!
Sono un grande fan di tecniche image based.
http://img151.imageshack.us/img151/1166/snackcx3.gif (http://imageshack.us)
Mister Tarpone
06-04-2008, 06:38
http://img151.imageshack.us/img151/1166/snackcx3.gif (http://imageshack.us)
ma di che parlano?? http://img151.imageshack.us/img151/1166/snackcx3.gif (http://imageshack.us)
Come dico sempre: non avete idea in quanti modi vi prendiamo in giro :D
e non vi lamentate della pirateria poi :D :D
Ad ogni modo l'errore che si commette dal punto di vista tecnico è ..
perdere di vista forse l'obbiettivo videoludico.
Raytracing, raster, SLI , DX Open GL
ma i giochi dove sono??
clone su clone su clone , ce sempre meno da giocare la quantità non vuol dire qualità .
perdere di vista forse l'obbiettivo videoludico.
Raytracing, raster, SLI , DX Open GL
ma i giochi dove sono??
Sfondi una porta completamente aperta: da anni sostengo che sia a livello visivo sia a livello di gameplay, la tecnica e' uno dei fattori che conta meno.
Cambia veramente pochissimo nella resa grafica finale del gioco se usi SSAO o meno, ma cambia molto di piu' se hai un buon artista o no.
L'Occlusion di Crysis non fa gridare al miracolo ma è buono :O
Concordo col fatto che un motore grafico ottimo senza buoni level designer non serve a niente (vedi Turning Point).
Sfondi una porta completamente aperta: da anni sostengo che sia a livello visivo sia a livello di gameplay, la tecnica e' uno dei fattori che conta meno.
Cambia veramente pochissimo nella resa grafica finale del gioco se usi SSAO o meno, ma cambia molto di piu' se hai un buon artista o no.
non per essere patetico e magari ripetere le stesse cose ma,
a mio avviso la rovina del videogioco di per se è venuta proprio nell'era 3d.
Tu prendi Bubble Bobble, Rolling THunder, Shinobi i Plattaform che ci hanno fatto sognare, gli shot em up Verticali orizzontali ma che fine hanno fatto?
L'unico titolo moderno ad aver dato gloria al passato mi sembra New Super Mario per Nintendo DS.
Ciò non toglie che anche il 3d ci ha dato soddisfazioni come God Of War, Gears of War, Devil May cry 1-3 i vari Crash bandicot , ma arrivare al fotorealismo puntanto tutti gli sforzi sull hardware e motori grafici assurdi a mio personalissimo avvisto è inutile,
io sono a favore di un ritorno del 2d e sono convinto che molti limiti hardware si supererebbero senza problemi .
io sono a favore di un ritorno del 2d e sono convinto che molti limiti hardware si supererebbero senza problemi .
Beh oddio...a me il 2d piace da impazzire, però ci sono differenze abissali tra le meccaniche (di gioco, parlo di gameplay) tra un 3d e un 2d: ci sono generi in cui il 3d, grazie alla ri-creazione di un mondo, ha portato vantaggi abissali: prendi un tomb raider, un mario 64, un gta...in 2d sono impensabili (o quasi).
Per non parlare di fps, e sportivi.
10 anni fa (fai anche 12-15 :D) ero molto scettico sul 3d, ma oggi ha raggiunto una qualità inimmaginabile per l'epoca.
Ok i capolavori "artistici" a livello di design molto spesso si notano più in 2d o cell shading, però il 3d ha portato innegabili vantaggi a moltissimi generi, forse escluderei shoot'em up e picchiaduro (in cui il 3d non è stato sinonimo di rivoluzione)
Beh oddio...a me il 2d piace da impazzire, però ci sono differenze abissali tra le meccaniche (di gioco, parlo di gameplay) tra un 3d e un 2d: ci sono generi in cui il 3d, grazie alla ri-creazione di un mondo, ha portato vantaggi abissali: prendi un tomb raider, un mario 64, un gta...in 2d sono impensabili (o quasi).
Per non parlare di fps, e sportivi.
10 anni fa (fai anche 12-15 :D) ero molto scettico sul 3d, ma oggi ha raggiunto una qualità inimmaginabile per l'epoca.
Ok i capolavori "artistici" a livello di design molto spesso si notano più in 2d o cell shading, però il 3d ha portato innegabili vantaggi a moltissimi generi, forse escluderei shoot'em up e picchiaduro (in cui il 3d non è stato sinonimo di rivoluzione)
si ma il troppo strorpia, ma hai capito quanti FPS troviamo?? e quanti generi simili? ogni tecnica è concessa purchè ci sia qualcosa di nuovo da giocare
eppur vero che non ogni titolo dev essere un capolavoro ma qui di capolavori non ne vedo da un pezzo!
A me da l 'impressione che giocare oggi sia da professionisti e non da videogiocatori, guarda ad esempio l arsenale di Crysis
per non parlare di chilomentri di mappa 3d da imparare in ogni titolo peggio di quando vai in una nuova città.
IO amo il 3d , ma vorrei un ritorno del 2d magari abbinato al cell shading che a mio avviso è una tecnica spettacolare.
Non molto tempo fa avevo impotizzato alcune questioni per il games for Windows
in sintesi avrei voluto xna anche su Windows, non una semplice cartella coi videogiochi dal menu start ma un vero e proprio media center per videogames
Link alla discussione (http://channel9.msdn.com/ShowPost.aspx?PostID=391481)
scusate il mio inglese ma si capisce
si ma il troppo strorpia, ma hai capito quanti FPS troviamo?? e quanti generi simili? ogni tecnica è concessa purchè ci sia qualcosa di nuovo da giocare
ok ma pure negli anni 90-95 (quando il 3d era appena nato) quanti titoli in 2d uguali tra loro c'erano?
shoot'em up verticali/orizzontali, picchiaduro 1vs1 o a scorrimento, avventure grafiche, platform, etcetc...erano tutti uguali, così come oggi, dopo 10 anni di titoli in 3d, ritroviamo i soliti 3-4 generi inflazionatissimi.
eppur vero che non ogni titolo dev essere un capolavoro ma qui di capolavori non ne vedo da un pezzo!
secondo me invece ce ne sono stati, il problema è che oggi siamo troppo concentrati sull'aspetto grafico (numero poligoni, qualità texture, hdr, fisica etc) per poter apprezzare nella giusta maniera lo stile, le atmosfere, la giocabilità, il bilanciamento etc...
per non parlare di chilomentri di mappa 3d da imparare in ogni titolo peggio di quando vai in una nuova città.
beh il 3d avvicina al realismo, aggiungo una dimensione, ovvio sia più complesso (ricordo ancora le prime partite ai tomb raider/sm64, coi salti non ne imbroccavo uno :D)
IO amo il 3d , ma vorrei un ritorno del 2d magari abbinato al cell shading che a mio avviso è una tecnica spettacolare.
in sintesi avrei voluto xna anche su Windows, non una semplice cartella coi videogiochi dal menu start ma un vero e proprio media center per videogames
il cell shading è spettacolare, ma solo per alcuni generi di gioco...
Cmq secondo me in questi ultimi 1-2 anni c'è stata una riscoperta di giochi semplici/immediati/divertenti che hanno stile/qualità da vendere, soprattutto sulle console portatili, xna, psn e alcuni titoli free per pc, proprio perchè accanto alla nuova generazione di titoli che puntano tutto sull'impatto grafico e la simulazione della realtà, c'è un mercato che chiede altro, e a me non dispiace affatto (anzi, per fortuna esistono locoroco, patapon, little big planet e gli altri :D)
ok ma pure negli anni 90-95 (quando il 3d era appena nato) quanti titoli in 2d uguali tra loro c'erano?
shoot'em up verticali/orizzontali, picchiaduro 1vs1 o a scorrimento, avventure grafiche, platform, etcetc...erano tutti uguali, così come oggi, dopo 10 anni di titoli in 3d, ritroviamo i soliti 3-4 generi inflazionatissimi.
secondo me invece ce ne sono stati, il problema è che oggi siamo troppo concentrati sull'aspetto grafico (numero poligoni, qualità texture, hdr, fisica etc) per poter apprezzare nella giusta maniera lo stile, le atmosfere, la giocabilità, il bilanciamento etc...
beh il 3d avvicina al realismo, aggiungo una dimensione, ovvio sia più complesso (ricordo ancora le prime partite ai tomb raider/sm64, coi salti non ne imbroccavo uno :D)
il cell shading è spettacolare, ma solo per alcuni generi di gioco...
Cmq secondo me in questi ultimi 1-2 anni c'è stata una riscoperta di giochi semplici/immediati/divertenti che hanno stile/qualità da vendere, soprattutto sulle console portatili, xna, psn e alcuni titoli free per pc, proprio perchè accanto alla nuova generazione di titoli che puntano tutto sull'impatto grafico e la simulazione della realtà, c'è un mercato che chiede altro, e a me non dispiace affatto (anzi, per fortuna esistono locoroco, patapon, little big planet e gli altri :D)
Little big planet sono curiosissimo di verdelo,
concludendo la tesi della "semplicità" ha valore in quanto se cè una conole che ha venduto e vende sbaragliando tutti e tutto è il Nintendo DS
e questo potrebbe essere un segnale ed una direzione da intraprendere per ogni sistema e piattaforma.
Intel demos Far Cry 2 on Ray Tracing? :eek:
:read: LINK:http://forums.vr-zone.com/showthread.php?t=258681
At its IDF opening speech, Pat Gelsinger of Intel also a video of Far Cry 2 presented. The video demonstrates the difference between a movie scene in Africa and rendered a scene in the play.
The relatively short video for Far Cry 2, as you flash directly at the end of the article, or for registered users to download as appendix. It was in the context of a presentation by Pat Gelsinger demonstrated in the context of the film, which deals with Visual Computing.
The Visual Computing strategy by Intel provides that multi-threaded processors soon extent, raytracing in high quality and real time.
Intel demos Far Cry 2 on Ray Tracing? :eek:
:read: LINK:http://forums.vr-zone.com/showthread.php?t=258681
At its IDF opening speech, Pat Gelsinger of Intel also a video of Far Cry 2 presented. The video demonstrates the difference between a movie scene in Africa and rendered a scene in the play.
The relatively short video for Far Cry 2, as you flash directly at the end of the article, or for registered users to download as appendix. It was in the context of a presentation by Pat Gelsinger demonstrated in the context of the film, which deals with Visual Computing.
The Visual Computing strategy by Intel provides that multi-threaded processors soon extent, raytracing in high quality and real time.
l hanno finita con crysis e mo cominciano con far cry
l hanno finita con crysis e mo cominciano con far cry
Io non ho espresso nessun giudizio, ho riportato solo quello che ho trovato su internet: "demo di Far Cry 2 forse con implementato in parte il Ray Tracing", comunque se uno gira su internet trovi almeno diversi forum che parlano di DRX11 e Ray Tracing :)
Comunque se vuoi parlare di crysis ti posso dire che forse Crysis 2 sarà in Ray Tracing :D ;)
Un esempio di forum è questo cinese che ho dovuto tradurre con Google translate (quindi la traduzione non è perfetta) :D :)
DirectX released by the end of 11! Ah DX10 vanish very soon.
From some foreign news sites, Microsoft has officially began preparing for the next generation application program interface (Applic ATI on Programming Interface) DirectX 11, and most likely with the end of this year with Windows vista SP2 release.
According to reports, Microsoft's DirectX 11 is not dominated by Microsoft, but Intel, because of its will support Intel's Ray Tracing (ray tracing) technology, which makes 3-D graphics can be more real, more three-dimensional sense, and not one will be able to see seen in a plane show results.
Compared to the current grating (rasterizATIon) technology, ray tracing more attention from the 3-D visual change (mainly to the use of refraction) the effect of objects, rather than as rasterizATIon through geometrical theory of course, users need not worry about the use of the card can not be installed now DirectX11, because there will be two models DX11, can be said to be rasterizATIon model and Ray Tracing Model.
The most noteworthy is Ray Tracing (ray tracing) can only support X86 architecture, which is Intel and AMD processors such a structure, but due to Microsoft Intel will provide a lot of code, so the possibility of Intel again Xiaoaojianghu greater. course, AMD also said that the processor is no problem.
Currently, NVIDIA No incident express any opinion.
goldorak
06-04-2008, 12:30
non per essere patetico e magari ripetere le stesse cose ma,
a mio avviso la rovina del videogioco di per se è venuta proprio nell'era 3d.
Tu prendi Bubble Bobble, Rolling THunder, Shinobi i Plattaform che ci hanno fatto sognare, gli shot em up Verticali orizzontali ma che fine hanno fatto?
L'unico titolo moderno ad aver dato gloria al passato mi sembra New Super Mario per Nintendo DS.
Ciò non toglie che anche il 3d ci ha dato soddisfazioni come God Of War, Gears of War, Devil May cry 1-3 i vari Crash bandicot , ma arrivare al fotorealismo puntanto tutti gli sforzi sull hardware e motori grafici assurdi a mio personalissimo avvisto è inutile,
io sono a favore di un ritorno del 2d e sono convinto che molti limiti hardware si supererebbero senza problemi .
Ma per favore, cosa centrano i giochi per console nella sezione pc ?
Io mi ricordo come erano i giochi per console durante gli anni 80 e 90, tutti cloni. Il pc engine era sopranominata la console degli shoot'em up. Guarda la ludoteca e disperati. Le altre console non erano meglio. Certo di tanto in tanto appariva il capolavoro ma non facciamo dell'era 2d qualcosa che non e' mai stata.
Il 3d non ha rappresentato un calo di qualita' nella produzione videoludica.
Pensi che se oggi si ritornasse al 2d la qualita' aumenterebbe ? Illuso, guarda il Wii ed apri gli occhi. :cry: 2d o 3d e' irrilevante, chi determina il mercato oggigiorno e' il mercato casual/ mercato di massa che non fa certo della qualita' il suo metro di giudizio primario. Pensi che un capolavoro come Baldur's Gate potrebbe sfondare oggi ? O un deus ex ? :fagiano:
Ma per favore, cosa centrano i giochi per console nella sezione pc ?
Io mi ricordo come erano i giochi per console durante gli anni 80 e 90, tutti cloni. Il pc engine era sopranominata la console degli shoot'em up. Guarda la ludoteca e disperati. Le altre console non erano meglio. Certo di tanto in tanto appariva il capolavoro ma non facciamo dell'era 2d qualcosa che non e' mai stata.
Il 3d non ha rappresentato un calo di qualita' nella produzione videoludica.
Pensi che se oggi si ritornasse al 2d la qualita' aumenterebbe ? Illuso, guarda il Wii ed apri gli occhi. :cry: 2d o 3d e' irrilevante, chi determina il mercato oggigiorno e' il mercato casual/ mercato di massa che non fa certo della qualita' il suo metro di giudizio primario. Pensi che un capolavoro come Baldur's Gate potrebbe sfondare oggi ? O un deus ex ? :fagiano:
PC engine? c'era di tutto compresi gli shot em up , come Gates of Thunder, etc, considerando l'epoca in cui è uscita era l 8bit che faceva tremare i 16 bit. me lo sono goduto al max ed un esempio di titoli banali di gran giocabilità F1 Circus, e Final Match tennis per non parlare di PC KID etc.
IL Wii?? tengo pure quello, qualche mandorla nel confetto cè
Mario Galaxy ad esempio , ma è sempre 3d e anche se non ha tutta la tecnica moderna e l HD delle rivali è cmq un 3d
se poi vuoi un esempio di giocabilità guardati No More Heros.
a me non me ne frega che la piattaforma sia SOny nintendo Microsoft o che sia,
io voglio i giochi, e non è certo col raytrancing e 3 GPU in SLI che li possiamo ottenere.
Nuova promessa Nvidia (http://www.dailytech.com/NVIDIA+Promises+Powerful+Sub45+Processing+Platform+to+Counter+Intel/article11452.htm)
Ecco cosa ne pensa il CEO di Crytek Cevat Yerli:
Ray tracing, the latest the flavor of the month graphics buzzword, is not a serious option at this point in time according to an interview at PC Perspective with Crytek CEO Cevat Yerli.
PC Perspective: How much have you experimented with ray tracing in the past? Any interesting background on it?
Cevat Yerli, Crytek: In our company, most of our developers do have experience with ray tracing, more as background knowledge though. We have not investigated enough or made a decision about ray tracing being an option, part or key to our strategy, so at this stage it's not a serious option.
PCPER: How might other aspects of games change if ray tracing is adopted? Would texturing, data structure or other changes be required in a move away from rasterization?
Yerli: In general unless all surface detail is resolved at a polygon level some form of pixel shading including texturing will be required. Vertex and geometry shading would change. Some of the calculations made in the vertex shader would move to being calculated per ray intersection. Others, such as animation, would require something like a vertex shader, which would eliminate the per polygon performance benefits of the ray tracer for these objects. Modern games use extremely complex blends of physics, AI and logic to drive their animation systems so pre-baking the animations into per frame static geometry or using motion decomposition isn’t possible.
Fonte VoodooExtreme, che a sua volta riprende la notizia da Blue's News.
e si io la stavo leggendo qui (http://next.videogame.it/crysis/60769/)
Darkfury
20-04-2008, 23:45
Mah, ho visto scene renderizzate in raytracing in realtime già ai tempi del 486, allora sì che c'era soddisfazione a vedere l'hardware sfruttato fino all'ultimo.
Certo, eran semplici demo di concorsi tipo Assembly ma il punto è che giravano già una 15ina di anni fa.
Se volete qualche esempio andate qua http://www.scene.org/ e cercatevi l'archivio coi vari contest degli anni passati. Un bel pc con su il dos e buona visione. :cool:
Quindi perchè adesso gridano al miracolo? E' il minimo che con processori come quelli attuali rispetto al 486 mi aspetto risultati adeguati! Chiaro che un domani vedremo scene renderizzate che stenteremo a distinguere dalla realtà, ma è normale progresso tecnologico.
http://www.tomshw.it/graphic.php?guide=20080325&page=intel_ray_tracing-01
BOOOOOOOOOOM, intervistona in italiano con Intel (nella persona di Daniel Pohl) su RT.
Da leggere assolutamente, sono 5 pagine :)
http://www.tomshw.it/guides/hardware/graphic/20080325/images/intelrtinter_02.jpg
il grande vantaggio del ray tracking sembra essere la facilità di programmazione e la ottima scalabilità. Se saranno vere entrambe le cose allora penso sarà adottato facilemente
il grande vantaggio del ray tracking sembra essere la facilità di programmazione e la ottima scalabilità. Se saranno vere entrambe le cose allora penso sarà adottato facilemente
Non solo: finalmente COLLISIONI sensate!
In 10 anni il problema non è stato ancora risolto :asd:
arxangel
23-04-2008, 12:18
http://www.tomshw.it/graphic.php?guide=20080325&page=intel_ray_tracing-01
BOOOOOOOOOOM, intervistona in italiano con Intel (nella persona di Daniel Pohl) su RT.
Da leggere assolutamente, sono 5 pagine :)
http://www.tomshw.it/guides/hardware/graphic/20080325/images/intelrtinter_02.jpg
Tecnologia interessante sia sotto il profilo economico,si risparmieranno i soldi della scheda video anche se non sisa quanto costerà un processore a 16 core,sia dal punto di vista qualitativo.
Ma penso ci vorrà un nuovo sistema operativo,per avviare un cambiamento così radicale?E la retrocompatibilità?
Tecnologia interessante sia sotto il profilo economico,si risparmieranno i soldi della scheda video anche se non sisa quanto costerà un processore a 16 core,sia dal punto di vista qualitativo.
Ma penso ci vorrà un nuovo sistema operativo,per avviare un cambiamento così radicale?E la retrocompatibilità?
NO, nessun nuovo SO, ma così come le dx10 si deciderà di implementare il tutto SOLO nel nuovo SO :D
Per la retrocompatibilità ti tieni la vecchia VGA penso
arxangel
23-04-2008, 12:27
NO, nessun nuovo SO, ma così come le dx10 si deciderà di implementare il tutto SOLO nel nuovo SO :D
Per la retrocompatibilità ti tieni la vecchia VGA penso
Penso che ci vorrà un nuovo sistema operativo a prescindere purtroppo :muro: ,peccato per la retrocompatibilità,bisognerà tenersi il vecchio pc per giocare ai vecchi titoli,ma forse è ancora presto per parlarne.
Penso che ci vorrà un nuovo sistema operativo a prescindere purtroppo :muro: ,peccato per la retrocompatibilità,bisognerà tenersi il vecchio pc per giocare ai vecchi titoli,ma forse è ancora presto per parlarne.
In OpenGL proprio no :D
Se poi M$ fa ancora la strunzata di collegare le DX al OS (XP potrebbe benissimo avere le DX10, tant'è vero che Crysis in DX10 è stato sviluppato e presentato la prima volta sotto WinXP64 :asd: ) non è certo colpa del RT :p
Inoltre è anche possibile che le future schede video vengano usate per il RT (NVidia sta già procedendo in questa direzione, anzi, sono stati presentati progetti in questa direzione tramite CUDA: http://eric_rollins.home.mindspring.com/ray/cuda.html :D :D :D).
arxangel
28-04-2008, 12:37
Ognuno pensa di aver ragione e che sia l'altro a doversi arrendere
http://next.videogame.it/geforce-8800/61089/
Ognuno pensa di aver ragione e che sia l'altro a doversi arrendere
http://next.videogame.it/geforce-8800/61089/
Questa è una sparata colossale per il semplice fatto che laddove non serva parallelismo una CPU x86 è ancora più efficiente di processori vettoriali come una GPU.
Inoltre Intel i chip video li fa (e si spera miglioreranno), Nvidia invece non ha alcuna licenza per processori X86 :asd:
arxangel
28-04-2008, 12:52
Questa è una sparata colossale per il semplice fatto che laddove non serva parallelismo una CPU x86 è ancora più efficiente di processori vettoriali come una GPU.
Inoltre Intel i chip video li fa (e si spera miglioreranno), Nvidia invece non ha alcuna licenza per processori X86 :asd:
Ognuno tira acqua al suo mulino,e poi Nvidia ha sempre detto di voler utilizzare i suoi chip anche per la gestione della fisica e dell'IA
Ognuno tira acqua al suo mulino,e poi Nvidia ha sempre detto di voler utilizzare i suoi chip anche per la gestione della fisica e dell'IA
E anche per il RT, vedi pagina prima, almeno quelli futuri.
Per la fisica ha senso, per l'IA un po' di meno.
project00
29-04-2008, 15:44
http://www.tomshw.it/news.php?newsid=13879
Da questa notizia non sembra che un implementazione massiccia del rt sia cosi vicina :)
Master Mystery
29-04-2008, 17:15
http://www.tomshw.it/news.php?newsid=13879
Da questa notizia non sembra che un implementazione massiccia del rt sia cosi vicina :)
Tristissimo :(
Magari nel 2011, con le eventuali nuove console e nuove schede video si potrà parlare di RT, o per lo meno una implementazione massiccia.
Innominato
16-05-2008, 21:34
MA è finita così? up.
Infatti sia Carmack che Kirk (http://www.pcper.com/article.php?aid=530) fanno notare l'importante fatto che anche nelle applicazioni professionali (cinema ad esempio) si ricorre a soluzioni ibride, e spesso il raytracing è usato solo dove strettamente necessario (superfici riflettenti ad esempio, vedi Cars o Transformers). Considerando che le tecniche usate in simili ambiti sono in anticipo di almeno 10-15 anni rispetto a quanto viene usato nelle applicazioni realtime (è sufficiente considerare i tempi di calcolo e la legge di Moore), l'era del raytracing realtime (ma forse è più corretto dire l'era del "light transport realtime" :stordita: ) è inevitabilmente lontana :D
Un punto di vista interessante è dato da questo articolo (http://www.beyond3d.com/content/articles/94/1) di Beyond3d, e ancora più dalla corrispondente discussione (http://forum.beyond3d.com/showthread.php?t=44850).
:D)
E' possibile stimare la potenza di calcolo necessaria per renderizzare a 30 fps una scena complessa con l'RT? Sapete che mi piacciono i numeroni, così ho pensato a fare quattro conti un pò a caso :p
Il mio processore ha 4 Gigaflops (P4 3Ghz), e per renderizzare un'immagine con radiosity etc molto complessa con il motore più pesante (maxwell render) dovrebbe impiegare circa 24 ore.
(Tipo questa: http://www.architettorainero.com/bagno.jpg, presa dal forum di hwupgrade con un dual-xenox p4 a 3,2 ghz 13 ore di calcolo)
Per renderizzarla a 30fps, la potenza di calcolo dovrebbe essere di 11 exaflops. Al ritmo attuale una simile potenza su una gpu consumer la raggiungeremo nel 2029. :D
Credo che comunque buone approssimazioni di illuminazioni globali già nel 2015 potremmo averle.
Vi immaginate un videogioco del 2050 ultra-fotorealistico con percezioni sensoriali (tatto,olfatto,udito,vista) direttamente inviate alla corteccia celebrale... matrix incoming :asd:
arxangel
16-05-2008, 22:36
E' possibile stimare la potenza di calcolo necessaria per renderizzare a 30 fps una scena complessa con l'RT? Sapete che mi piacciono i numeroni, così ho pensato a fare quattro conti un pò a caso :p
Il mio processore ha 4 Gigaflops (P4 3Ghz), e per renderizzare un'immagine con radiosity etc molto complessa con il motore più pesante (maxwell render) dovrebbe impiegare circa 24 ore.
(Tipo questa: http://www.architettorainero.com/bagno.jpg, presa dal forum di hwupgrade con un dual-xenox p4 a 3,2 ghz 13 ore di calcolo)
Per renderizzarla a 30fps, la potenza di calcolo dovrebbe essere di 11 exaflops. Al ritmo attuale una simile potenza su una gpu consumer la raggiungeremo nel 2029. :D
Credo che comunque buone approssimazioni di illuminazioni globali già nel 2015 potremmo averle.
Vi immaginate un videogioco del 2050 ultra-fotorealistico con percezioni sensoriali (tatto,olfatto,udito,vista) direttamente inviate alla corteccia celebrale... matrix incoming :asd:
Penso che sia anche una questione di architetture oltre che di potenza bruta,se no avremmo oggi Vodoo a 4 ghz :sofico:
NVidia acquista RayScale, Ray Tracing nel mirino
NVidia, durante un meeting in quel di San Jose, ha comunicato l'acquisizione di RayScale, azienda impegnata nello sviluppo di applicazioni basate sulla tecnica di rendering Ray Tracing.
Questa operazione di mercato è sicuramente interessante, perché il Ray Tracing è notoriamente un cavallo di battaglia di Intel, che cerca di svilupparlo per renderlo fruibile sul mercato consumer per sostituire - o integrare - l'attuale rasterizzazione.
Nel momento in cui vi scriviamo, non sono ancora giunti commenti da nVidia sull'acquisizione e perciò non possiamo conoscere le strategie che seguiranno questa operazione.
È certo, comunque, che il Ray Tracing sta diventando una soluzione sempre più interessante - come ci confessa Intel in questo articolo - e dalle indubbie qualità. nVidia, acquistando RayScale, ci ha sicuramente visto giusto. Maggiori dettagli non appena disponibili.
A Nvidia non gli basta la fisica di Ageia, ora vuole anche il Ray Tracing.
Ora sono curioso di sapere cosa farà Intel.
In tutti i modi quella che sarà, la più svantaggiata rimarrà AMD/ATI :doh:
:p
Intel ha Havoc, Nvidia Ageia.
Intel ha Daniel Pohl, Nvidia RayScale.
Ciao ciao ATI :D
Se Intel oltre alle CPU farà VGA (come ha intenzione di fare) e Nvidia oltre alle VGA farà anche CPU, allora ci sarà un po' di concorrenza, se tale cosa non ci sarà, i costi dei computer lieviteranno e noi poveri compratori lo prenderemo nel :ciapet: :(
Se Intel oltre alle CPU farà VGA (come ha intenzione di fare) e Nvidia oltre alle VGA farà anche CPU, allora ci sarà un po' di concorrenza, se tale cosa non ci sarà, i costi dei computer lieviteranno e noi poveri compratori lo prenderemo nel :ciapet: :(
LINK NEWS su HW: http://www.hwupgrade.it/news/skvideo/anche-raytracing-per-le-future-gpu-nvidia_25415.html
Se Intel oltre alle CPU farà VGA (come ha intenzione di fare) e Nvidia oltre alle VGA farà anche CPU, allora ci sarà un po' di concorrenza, se tale cosa non ci sarà, i costi dei computer lieviteranno e noi poveri compratori lo prenderemo nel :ciapet: :(
Nvidia non può fare CPU x86, a meno che compri una società che ne detiene il COSTOSISSIMO brevetto (vale più quel brevetto di una società quasi :D).....ma a VIA sembra aver rinunciato, almeno per ora.
Ciao Lowenz :)
Marko91 sul Thread Aspettando R700 ha postato questa notizia:
AMD ha realizzato una nuova demo tecnologica per RV770 e R700, chiamata Cinema 2.0.
Sono realizzati in ray-tracing in tempo reale.
I video sono nella pagina che ho linkato!
Sono impressionanti e sono realtime! :eek: :eek:
Link notizia (con i video): http://translate.google.com/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F045%2FG004578%2F20080604037%2F&sl=ja&tl=en&hl=ja&ie=UTF-8
Link post Marko91: http://www.hwupgrade.it/forum/showpost.php?p=22747829&postcount=4905
Ora che anche AMD/ATI lavora su ray-tracing, possiamo dire vedremo sicuramente in futuro dei giochi fatti con questo motore grafico.
Ray Tracing will happen when Microsoft decides
Computex 08: The big daddy of gaming
Some very cool chaps opened our eyes on one particular subject. Many people have said that Intel is going to push Ray Tracing and that Larrabee will actually be a Ray Tracing chip; but in reality it looks that we will stick with Rasterising for a few years to come.
The answer why is incredibly simple.
It is Microsoft and its DirectX and Direct 3D who rule the gaming market, and it will be up to Microsoft to implement and boost the development of Ray Tracing renderer and API.
OpenGL is rather insignificant these days, as it is used in only a few games and survives only because of John Carmack and its engines.
Glide from 3DFX has been dead for more than eight years and DirectX or Direct 3.0 is the only API that survives and rules the gaming world.
DirectX of the future will get Ray Tracing support, but despites Intel's power, Microsoft will decide on this one.
The scary part might be a possible WinTel strategy / conspiracy, but Nvidia and ATI are sitting on the Board and they should decide whatever suits the companies.
We’ve heard that some sort of Ray Tracing might find its way to DirectX 11 but certainly not as dominant and the only way of Rendering.
If we have to pick the number we would say that Ray Tracing might be a dominant rendering method by at least 2011, and possibly even later.
Comunque da quello che ho detto sopra (qualche giorno fa) anche AMD/ATI ha le possibilità di sviluppare il motore Ray Tracing e quindi tutto sta nelle mani di Microsoft e forze delle DRX 11.
ALTRO (anche se un po' O.T.)
Anche ATI supporterà la fisica (LINK NOTIZIA (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7790&Itemid=1)), e quindi ci vorrà un pochino di tempo, ma sicuramente AMD e ATI torneranno competitivi.
Giallo USB 3.0: Intel ostacola i concorrenti (link articolo (http://www.tomshw.it/news.php?newsid=14302)).
Intel sta facendo di tutti che in futuro si utilizzi processori e vga (quando sarà prodotta) sua, Nvidia, Via, AMD/ATI non stanno a guardare, però facendo così si sta penalizzando parecchio l'utente (oltre a spendere parecchio, per l'utente medio fra poco gli ci vorrà la laurea per sapere quale pc comprare e non solo, visto che ad esempio l'USB è utilizzato da moltissimi apparecchi: mp3,cellulari, chiavette usb, apparecchi esterni usb, ecc..., e fare due formati per me sarebbe clamoroso e incomprensibile).
rmarango
09-06-2008, 18:08
Tutti gli sviluppatori (e lo stesso carmack afferma) preferiscono spostarsi sul più redditizio mondo console. Non vedere questo è solo il canto del cigno nel cercare di autoconvincersi che aver speso 300 euro per l'ultima scheda video sia valsa la pena. Porting che non si riescono più a fare bene (perchè di porting da console ormai vive il pc, e non ditemi di no, visto che tutte le software house dichiarano la console come piattaforma di sviluppo), configurazioni sempre più incasinate.
Le console non sono 100.000 , sono 3 di cui 2 simili (ps3 e x360), una che può benissimo convivere con tutto (il wii). Ciò non toglie che non esiste nessun "casino royal" ad avere più console, come nessun medico ti prescrive l'uso di più di una console.... e non è perchè uno è insoddisfatto a voler comprare "sempre più console".... solo l'ingordigia e la consapevolezza che quel pezzo di HW comprato per quelle esclusive (e si , sono solo le esclusive a fare pendere le scelte di una e l'altra) è un hw che comprato rimarrà quello fino alla fine. Io vivo bene solo con la x360, e per dirla tutta, se non fosse stato per il sempre più fiorente mondo console, avrei già abbandonato il gaming in generale da più di 2 anni ormai, visto che su pc mi ero stufato della situazione insostenibile.
L'arrivo di Apparecchi di rete, di Hard Disk, etc.. è solo la dimostrazione di come si prenda il meglio della tecnologia su pc e la si assembli per fare una macchina, che nasce e muore unicamente come macchina ludica.
I livelli raggiunti ora (risoluzioni HD, effetti stile dx9/10, 5.1 audio, Gaming online pesante, etc..) sono livelli alti per un mondo di solo gaming. Paragonare pc e console unicamente sotto l'aspetto ludico mi spiace ma il pc con queste generazioni prende solo sonore mazzate. I sistemi invece sono ottimi se messi in simbiosi.
A oggi il mio pc, condiviso in rete con la mia xbox , mi coprono a 360 gradi. Ho un'ottima stazione multimediale, un ottimo sistema di gaming, un'ottima piattaforma di sviluppo... e ... non ho nessun problema, ne di configurazione (il mio pc è "bombato" a sufficenza per farmi fare tutto tranne il gaming ai massimi livelli, per quello c'è la console) e ne di preoccupazione per il futuro, sempre appeso alla speranza di una soluzione "divina" :)
Ottimo intervento...non posso che condividere.
Mi dispiace molto per il p.c. gaming perche' arrivo anch'io da li' come la maggior parte di noi, ma chi e' causa del suo mal...
Bull's eye
09-06-2008, 23:00
Però se vi devo dire la verità io tutta sta moria del pc non la noto... tutti i migliori titoli alla fine sono multipiattaforma e non convertiti come molti sostengono:rolleyes: e poi alla fine io sto giocando da quasi 2 anni con un portatile con una 8600m a tutto e con la grafica al massimo(tranne i filtri di cui non faccio uso) ultimi esempi: mass effect e devil may cry 4.
Mi sembra pure normale che ormai non si sviluppano più software in esclusiva dato che i costi sono esorbitanti... fino a qualche anno fa era impensabile stanziare tanti soldi per un gioco... Se poi con le dx11 mi faranno risparmiare i soldi della vga(che dovranno essere investiti nel procio), o se come ho capito lo vorrano far calcolare sempre alla gpu(e che cambia dallo stato attuale?), non posso che esserne felice, significa che non è una piattaforma trascurata ed in via di estinsione.
rmarango
10-06-2008, 07:02
Però se vi devo dire la verità io tutta sta moria del pc non la noto... tutti i migliori titoli alla fine sono multipiattaforma e non convertiti come molti sostengono:rolleyes: e poi alla fine io sto giocando da quasi 2 anni con un portatile con una 8600m a tutto e con la grafica al massimo(tranne i filtri di cui non faccio uso) ultimi esempi: mass effect e devil may cry 4.
Mi sembra pure normale che ormai non si sviluppano più software in esclusiva dato che i costi sono esorbitanti... fino a qualche anno fa era impensabile stanziare tanti soldi per un gioco... Se poi con le dx11 mi faranno risparmiare i soldi della vga(che dovranno essere investiti nel procio), o se come ho capito lo vorrano far calcolare sempre alla gpu(e che cambia dallo stato attuale?), non posso che esserne felice, significa che non è una piattaforma trascurata ed in via di estinsione.
Mi ricordi Mr. Gabe Newell di Valve che sostiene che la crisi del p.c. gaming e' solo un problema di "percezione"...ma se non sviluppano software in esclusiva per il p.c. e' anche perche' non tutti acquistano regolarmente i titoli p.c. e tendono a "risparmiare" cercando sistemi "alternativi"...
Poi un'altro grosso problema secondo me e' che alcuni titoli non vengono sviluppati da subito per una piattaforma specifica , e devono essere "portati" successivamente con una conversione che non sempre riesce bene.
Vale per le conversioni da console a p.c. (che negli ultimi tempi sembra siano la stragrande maggioranza), sia per quelle da console a pc (vedi ET Quake Wars...).
Nel caso di DMC4 e Mass Effect e' andato tutto ottimamente (anche se sono passati mesi prima della loro uscita su p.c. e molti hanno ormai p.c. piu' che decenti) , ma in molti altri casi non e' andata cosi' bene perche' non hanno pensato all'ottimizzazione in primis che su console e' tenuta in grande considerazione per le sue peculiarita', ma su p.c. purtroppo no.
Ciao Lowenz :)
Marko91 sul Thread Aspettando R700 ha postato questa notizia:
Link notizia (con i video): http://translate.google.com/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F045%2FG004578%2F20080604037%2F&sl=ja&tl=en&hl=ja&ie=UTF-8
Link post Marko91: http://www.hwupgrade.it/forum/showpost.php?p=22747829&postcount=4905
Ora che anche AMD/ATI lavora su ray-tracing, possiamo dire vedremo sicuramente in futuro dei giochi fatti con questo motore grafico.
:sbav:
Ma siamo sicuri che sia vero? :D
Bull's eye
10-06-2008, 09:53
Mi ricordi Mr. Gabe Newell di Valve che sostiene che la crisi del p.c. gaming e' solo un problema di "percezione"...ma se non sviluppano software in esclusiva per il p.c. e' anche perche' non tutti acquistano regolarmente i titoli p.c. e tendono a "risparmiare" cercando sistemi "alternativi"...
Poi un'altro grosso problema secondo me e' che alcuni titoli non vengono sviluppati da subito per una piattaforma specifica , e devono essere "portati" successivamente con una conversione che non sempre riesce bene.
Vale per le conversioni da console a p.c. (che negli ultimi tempi sembra siano la stragrande maggioranza), sia per quelle da console a pc (vedi ET Quake Wars...).
Nel caso di DMC4 e Mass Effect e' andato tutto ottimamente (anche se sono passati mesi prima della loro uscita su p.c. e molti hanno ormai p.c. piu' che decenti) , ma in molti altri casi non e' andata cosi' bene perche' non hanno pensato all'ottimizzazione in primis che su console e' tenuta in grande considerazione per le sue peculiarita', ma su p.c. purtroppo no.
però l'ottimizzazione alla fine farla su pc è impossibile considerando che il parco hw è immenso mentre su consol è fisso... è come confrontare la stabilità di mac os(che viene sviluppato per poco hw) a quella di windows(per qualsiasi hw)
E' possibile stimare la potenza di calcolo necessaria per renderizzare a 30 fps una scena complessa con l'RT? Sapete che mi piacciono i numeroni, così ho pensato a fare quattro conti un pò a caso :p
Il mio processore ha 4 Gigaflops (P4 3Ghz), e per renderizzare un'immagine con radiosity etc molto complessa con il motore più pesante (maxwell render) dovrebbe impiegare circa 24 ore.
(Tipo questa: http://www.architettorainero.com/bagno.jpg, presa dal forum di hwupgrade con un dual-xenox p4 a 3,2 ghz 13 ore di calcolo)
Per renderizzarla a 30fps, la potenza di calcolo dovrebbe essere di 11 exaflops. Al ritmo attuale una simile potenza su una gpu consumer la raggiungeremo nel 2029. :D
Credo che comunque buone approssimazioni di illuminazioni globali già nel 2015 potremmo averle.
Vi immaginate un videogioco del 2050 ultra-fotorealistico con percezioni sensoriali (tatto,olfatto,udito,vista) direttamente inviate alla corteccia celebrale... matrix incoming :asd:
Io sono MOLTO piu' ottimista, per diverse ragioni:
-Il renderer che hai preso ad esempio e' particolare, non e' un semplice raytracer dotato di global illumination. Altri motori (come quello integrato di Lightwave o VRay) possono ottenere risultati molto simili in meno tempo. In aggiunta, esistono (e vengono tuttora studiate attivamente) nuove tecniche per l'accellerazine della global illumination.
-L'architettura di un motore off-line e di uno real time e' diversa. Si possono ottenere performance alcuni ordini di grandezza superiori rinunciando a un po' di qualita' e di flessibilita'. Gia' oggi e' possibile ottenere renders di qualita' quasi cinematografica in pochi minuti, utilizzando software fatto appositamente per questo scopo. E motori raytracing in tempo reale esistono (vedi Arauna).
-Le schede grafiche in uscita superano il teraflop. Questo significa che potenzialmente con i calcoli giusti possono essere 250 volte piu' veloci del tuo pentium, se si riuscisse a convertire l'architettura orientandola al raytracing. Per ottenere 30 frame al secondo basterebbe renderizzare scene che sul tuo pc impiegano 8 secondi circa (correggetemi sesbaglio i calcoli), e saresti sorpreso di sapere cosa si puo' fare in 8 secondi, se accetti compromessi sull qualita', come peraltro gia' avviene nei videogiochi....
-Mano a mano che le pretese in fatto di features e qualita' si fanno piu' esigenti, la differenza in termini di prestazioni tra un rendering tradizionale e uno raytracing diminuiscono sempre di piu', ed infatti molti effetti speciali (a parte Pixar che ovviamente sponsorizza il Renderman fatto da loro stessi) vengono oggi creati tramite raytracing (molto usato e' ad esempio mental ray). Gli stessi blu sky studios hanno usato un proprio raytracer per L'era glaciale e robots (e sfido a fare robots con Renderman e pretendere performance migliori). Prima o poi potrebbe diventare conveniente anche per chi realizza videogiochi chiedere massiccie funzionalita' di raytracing (tipo da estensioni OGL o una nuova versione di DirectX) e allora Ati e nVidia faranno a gara per chi produce la scheda che meglio risponde a queste nuove funzionalita'. E come per gli shader, che nella geforce erano una piccola aggiunta, e ora sono il principale strumento delle schede moderne, credo che anche il RT da una feature aggiuntiva diventera' la fonte primaria di rendering in pochi anni, fino a 'simulare' le vecchie tecniche usandio il raytracing, proprio come oggi l'illuminazione vecchio stile non esiste piu' nelle schede ma viene simulata tramite shader.
Questa e' la mia visione dei prossimi anni :-)
Allocchino
12-06-2008, 13:27
Come al solito questo forum è pieno di profeti... beati voi! :doh:
Questo è un po' :old:, io lo conoscevo da molto tempo ed infatti mi sa che non sfrutta più di un core... però se non si esagera con la risoluzione un po' va.
http://www.realstorm.com/
Ray Tracing, Intel converte ET: Quake Wars
È ancora difficile dire se il Ray Tracing soppianterà la rasterizzazione, o se sarà utilizzato solo per effetti complementari.
Intel, tuttavia, continua a sperimentare e dopo aver "convertito" Quake 3 e 4, l'azienda si è dedicata ad Enemy Territory: Quake Wars. Secondo i nostri colleghi di TG Daily, i risultati sono davvero eccellenti.
http://www.tomshw.it/articles/20080613/etqw_03_overview_b.jpg (http://www.tomshw.it/img_vedi.php?img=http://www.tomshw.it/articles/20080613/etqw_03_overview_c.jpg&nome=etqw_03_overview.jpg)
L'azienda ha mostrato ET: Quake Wars alla risoluzione 720p ( 1280x720), mai usata prima in precedenti dimostrazioni.
Il gioco ha totalizzato dai 14 ai 29 frame a seconda dello scenario, su un sistema a 16 core (4 socket, 4 core) Tigerton con processori con frequenza operativa di 2.93 GHz.
Il gioco girava su sistema operativo Linux a 64 bit. Intel ha dichiarato che il Ray Tracing supporta, al momento, Linux in versione 32 e 64 bit e Windows.
http://www.tomshw.it/articles/20080613/etqw_07_portal_b.jpg (http://www.tomshw.it/img_vedi.php?img=http://www.tomshw.it/articles/20080613/etqw_07_portal_c.jpg&nome=etqw_07_portal.jpg)
Il Ray Tracing ha mostrato tutta la sua maturità grazie all'integrazione di nuovi effetti, come l'ombra della nebbia sul pavimento o la rifrazione dell'acqua realizzata secondo i canoni della fisica.
Il pezzo forte della dimostrazione, secondo i colleghi, è stata la riproduzione di superfici in vetro. Il vetro, grazie al Ray Tracing, è in grado di riflettere anche le più piccole parti dell'ambiente, senza trucchi di sorta.
LINK FONTE (con altre foto): http://www.tgdaily.com/html_tmp/content-view-37925-113.html
Ray Tracing e schede video ATI :read: :eek:
Durante l'evento Cinema 2.0 indetto da AMD, i colleghi di TG Daily hanno avuto l'occasione di parlare con i rappresentanti dell'azienda JulesWorld, impegnata nello sviluppo degli effetti speciali per l'industria di Hollywood.
Per raggiungere il suo scopo l'azienda si avvale di componenti comuni, e tra le tecniche che sta sperimentando c'è il Ray Tracing, cavallo di battaglia di Intel e possibile futuro dei videogiochi e non solo.
JulesWorld ha iniziato a sperimentare l'uso esclusivo del Ray Tracing per la renderizzazione dei contenuti grafici con l'arrivo del chip ATI R600.
Jules Urbach, fondatore e amministratore delegato di JulesWorld, ha parlato di alcune tecnologie promettenti in sviluppo, che permetteranno di usare il Ray Tracing via GPU.
Le due tecnologie, OTOY e LightScape (quest'ultima permette di vedere 32 milioni di vettori a schermo), potrebbero essere le basi dei giochi e dei film del futuro.
L'azienda ha sviluppato un ray-tracer che usa elementi di API DirectX 9.
Urbach ha dichiarato che il ray-tracing in tempo reale è diventato realtà con la Radeon HD 2900 XT, che è stata usata per realizzare alcuni trailer del film Transformers.
Parlando di prestazioni, Urbach ha dichiarato che la Radeon ha renderizzato scene di Transformers in 20-30 frame al secondo in risoluzione 720p senza antialiansing.
Con una Radeon HD 3870, si sono raggiunti i 60 fps, con un calo di 20 fps con AA attivo.
La nuova 4870 raggiunge gli stessi risultati ma con la possibilità di mantenere i 60 fps anche con AA attivo (non serve che il ray-tracer superi i 60 fps).
A detta di Urbach, il ray-tracer è limitato solamente dalla memoria onboard.
La tecnologia di JulesWorld lavora anche su schede 8800 e superiori di nVidia, ma la mancanza di tassellation unit porta maggior carico sul ray-tracer.
Urbach si aspetta di vedere scene a risoluzione 1080p, 4K e superiori renderizzate in tempo reale e a differenza di quanto si potesse pensare, secondo il capo di JulesWorld, il fotorealismo potrebbe essere una realtà già entro l'anno. Insomma, con le schede video attuali si possono fare molte cose, un tempo impensabili: per i videogiochi e il cinema, il futuro è brillante.
Fonte: http://www.tomshw.it/news.php?newsid=14543
arxangel
27-06-2008, 16:09
Ray Tracing e schede video ATI :read: :eek:
Durante l'evento Cinema 2.0 indetto da AMD, i colleghi di TG Daily hanno avuto l'occasione di parlare con i rappresentanti dell'azienda JulesWorld, impegnata nello sviluppo degli effetti speciali per l'industria di Hollywood.
Per raggiungere il suo scopo l'azienda si avvale di componenti comuni, e tra le tecniche che sta sperimentando c'è il Ray Tracing, cavallo di battaglia di Intel e possibile futuro dei videogiochi e non solo.
JulesWorld ha iniziato a sperimentare l'uso esclusivo del Ray Tracing per la renderizzazione dei contenuti grafici con l'arrivo del chip ATI R600.
Jules Urbach, fondatore e amministratore delegato di JulesWorld, ha parlato di alcune tecnologie promettenti in sviluppo, che permetteranno di usare il Ray Tracing via GPU.
Le due tecnologie, OTOY e LightScape (quest'ultima permette di vedere 32 milioni di vettori a schermo), potrebbero essere le basi dei giochi e dei film del futuro.
L'azienda ha sviluppato un ray-tracer che usa elementi di API DirectX 9.
Urbach ha dichiarato che il ray-tracing in tempo reale è diventato realtà con la Radeon HD 2900 XT, che è stata usata per realizzare alcuni trailer del film Transformers.
Parlando di prestazioni, Urbach ha dichiarato che la Radeon ha renderizzato scene di Transformers in 20-30 frame al secondo in risoluzione 720p senza antialiansing.
Con una Radeon HD 3870, si sono raggiunti i 60 fps, con un calo di 20 fps con AA attivo.
La nuova 4870 raggiunge gli stessi risultati ma con la possibilità di mantenere i 60 fps anche con AA attivo (non serve che il ray-tracer superi i 60 fps).
A detta di Urbach, il ray-tracer è limitato solamente dalla memoria onboard.
La tecnologia di JulesWorld lavora anche su schede 8800 e superiori di nVidia, ma la mancanza di tassellation unit porta maggior carico sul ray-tracer.
Urbach si aspetta di vedere scene a risoluzione 1080p, 4K e superiori renderizzate in tempo reale e a differenza di quanto si potesse pensare, secondo il capo di JulesWorld, il fotorealismo potrebbe essere una realtà già entro l'anno. Insomma, con le schede video attuali si possono fare molte cose, un tempo impensabili: per i videogiochi e il cinema, il futuro è brillante.
Fonte: http://www.tomshw.it/news.php?newsid=14543
Il futuro è già arrivato,anche se saranno decisive le console per la messa in pratica di questo tipo di rendering,quindi prevedo un reale uso con l'uscita delle console di nuova generazione
Vladimiro Bentovich
27-06-2008, 16:46
Nella mia ignoranza sono andato su wikipedia per capire di cosa si parli.
L'articolo introduttivo dice:
In computer graphics, ray tracing is a technique for generating an image by tracing the path of light through pixels in an image plane. The technique is capable of producing a very high degree of photorealism; usually higher than that of typical scanline rendering methods, but at a greater computational cost. This makes ray tracing best suited for applications where the image can be rendered slowly ahead of time, such as in still images and film and television special effects, and more poorly suited for real-time applications like computer games where speed is critical. Ray tracing is capable of simulating a wide variety of optical effects, such as reflection and refraction, scattering, and chromatic aberration.
Non capisco come una tecnica famosa per la sua qualità a discapito delle prestazioni possa essere vista come il punti di svolta per rendere i giochi pc utilizzabili su sistemi meno potenti....
Quake 4 con 16 processori poi...è proprio l'esempio lampante di come sia assurdo pensare a qualcosa del genere attualmente,16 core sostituiti da una scheda video di fascia media...fate voi..
Se mai verrà veramente usato sarà comunque grazie al supporto delle gpu,e tramite cpu aprirà possibilità di esecuzione comunque mooolto limitate.
La vera soluzione è smettere di fornire computer con gpu integrata + ottimizzare realmente i giochi pc.
Bull's eye
27-06-2008, 17:37
secondo me si deve considerare che grazie al ray tracing + ati gpu a quanto leggo si riesce ad avere immagini fotorealistiche in 720p(1280x720?) già con una vga come la 3870 che ora si trova sotto i 100€... se si vorrebbe raggiungere quella qualità con un normale motore grafico... credo che dovremmo aspettare un bel pò, correggetemi se sbaglio
arxangel
27-06-2008, 18:15
Nella mia ignoranza sono andato su wikipedia per capire di cosa si parli.
L'articolo introduttivo dice:
In computer graphics, ray tracing is a technique for generating an image by tracing the path of light through pixels in an image plane. The technique is capable of producing a very high degree of photorealism; usually higher than that of typical scanline rendering methods, but at a greater computational cost. This makes ray tracing best suited for applications where the image can be rendered slowly ahead of time, such as in still images and film and television special effects, and more poorly suited for real-time applications like computer games where speed is critical. Ray tracing is capable of simulating a wide variety of optical effects, such as reflection and refraction, scattering, and chromatic aberration.
Non capisco come una tecnica famosa per la sua qualità a discapito delle prestazioni possa essere vista come il punti di svolta per rendere i giochi pc utilizzabili su sistemi meno potenti....
Quake 4 con 16 processori poi...è proprio l'esempio lampante di come sia assurdo pensare a qualcosa del genere attualmente,16 core sostituiti da una scheda video di fascia media...fate voi..
Se mai verrà veramente usato sarà comunque grazie al supporto delle gpu,e tramite cpu aprirà possibilità di esecuzione comunque mooolto limitate.
La vera soluzione è smettere di fornire computer con gpu integrata + ottimizzare realmente i giochi pc.
Ma risparmi sulla scheda video,e poi che ne sai quanto costerà una cpu a 16 core in futuro,se costasse 200 euro avresti già un bel risparmio,e poi sarebbe più facile ottimizzarlo dato che se ora devono pensare ai vari modelli di processori e schede video ed il loro rapporto fra loro,ora dovranno programmare tenendo conto solo della cpu a tutto vantaggio della semplificazione e dell ottimizzazione
Vladimiro Bentovich
27-06-2008, 18:32
Ma risparmi sulla scheda video,e poi che ne sai quanto costerà una cpu a 16 core in futuro,se costasse 200 euro avresti già un bel risparmio,e poi sarebbe più facile ottimizzarlo dato che se ora devono pensare ai vari modelli di processori e schede video ed il loro rapporto fra loro,ora dovranno programmare tenendo conto solo della cpu a tutto vantaggio della semplificazione e dell ottimizzazione
Perdonami ma non ti seguo.....quando una cpu a 16 core costerà 200E?
Mi sembrano previsioni che vanno un pò avanti negli anni e nella tecnlogia è sempre esagerato dato che si muove tutto molto più velocemente delle previsioni....
Ora pensano ai vari modelli di gpu (che alla fine si basano comunque su degli standard) dopo dovranno pensare ai vari modelli di cpu....
Sul serio dalle informazioni (poche) che ho adesso non vedo proprio il vantaggio.
Soluzione cpu+gpu hanno già più contesto secondo me.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.