PDA

View Full Version : Raytracing in DX 11, potrebbe essere la salvezza del gaming PC


Pagine : 1 [2]

arxangel
27-06-2008, 18:38
Perdonami ma non ti seguo.....quando una cpu a 16 core costerà 200E?
Mi sembrano previsioni che vanno un pò avanti negli anni e nella tecnlogia è sempre esagerato dato che si muove tutto molto più velocemente delle previsioni....
Ora pensano ai vari modelli di gpu (che alla fine si basano comunque su degli standard) dopo dovranno pensare ai vari modelli di cpu....
Sul serio dalle informazioni (poche) che ho adesso non vedo proprio il vantaggio.
Soluzione cpu+gpu hanno già più contesto secondo me.
Volevo dire proprio questo,è inutile fare ora giudizi di convenienza.
A parte che non è detto che la soluzione pura di Intel prevalga,mentre quelle ibride di ATI e Nvidia non siano più valide

Vladimiro Bentovich
27-06-2008, 18:47
Volevo dire proprio questo,è inutile fare ora giudizi di convenienza.
A parte che non è detto che la soluzione pura di Intel prevalga,mentre quelle ibride di ATI e Nvidia non siano più valide

Capisco,non resta che aspettare i primi risultati pratici...

Vash88
27-06-2008, 19:14
l'acquisizione di Intel della Offset Software, + il progetto Larrabee
Larrabee will differ from other GPUs currently on the market such as the GeForce 200 Series and the Radeon 4000 series in that it will use the standard x86 instruction set for its shader cores instead of a proprietary graphics-focused instruction set, and is thus expected to be more flexible. In addition to traditional 3D graphics for games, Larrabee is also being designed explicitly for general purpose GPU (GPGPU) or stream processing tasks: for example, to perform ray tracing or physics processing,[2] in real time for games or offline as a component of a supercomputer.[3]

è progettata per creare una piattaforma hw e software (dai compilatori al motore grafico) completamente Intel per i film e i giochi e tutte le applicazioni gpgpu del futuro, basata su istruzioni x86. Intel l'hanno prossimo entrerà di prepotenza nel mercato.

Donbabbeo
27-06-2008, 20:11
Volevo dire proprio questo,è inutile fare ora giudizi di convenienza.
A parte che non è detto che la soluzione pura di Intel prevalga,mentre quelle ibride di ATI e Nvidia non siano più valide

In teoria dovrebbero essere maggiormente avvantaggiate visto che una gpu è praticamente formata da un numero elevato di componenti che lavorano in parallelo e svolgono compiti elementari. Se fosse possibile utilizzare ognuno di questi con un motore raytracing sarebbe ottimo, invece di aspettare un numero sufficente di core delle cpu :D
In ogni caso oltre alla qualità video praticamente fotorealistica con il giusto numero di raggi, il raytracing ha dalla sua la scalabilità ottima, se faccio 20 fps con 2 core, farò 40 fps con 4.

cignox1
01-07-2008, 07:21
In teoria dovrebbero essere maggiormente avvantaggiate visto che una gpu è praticamente formata da un numero elevato di componenti che lavorano in parallelo e svolgono compiti elementari. Se fosse possibile utilizzare ognuno di questi con un motore raytracing sarebbe ottimo, invece di aspettare un numero sufficente di core delle cpu :D
In ogni caso oltre alla qualità video praticamente fotorealistica con il giusto numero di raggi, il raytracing ha dalla sua la scalabilità ottima, se faccio 20 fps con 2 core, farò 40 fps con 4.

Non dimentichiamoci altri due punti di forza del raytracing:
-e' molto piu' facile da programmare rispetto alle tecniche dei videogiochi attuali. Questo significa che i motori grafici potrebbero diventare piu' economici da realizzare, con tutto cio' che ne consegue.
-ha una natura modulare: i giochi di oggi hanno una qualita' grafica abbastanza fissa: tra due anni, con una scheda tre volte piu' veloce non potro' giocare a crysis pretendendo una qualita' maggiore, ne' posso prendere il vecchio quake e richiedere ombre in tempo reale e shader piu' sofisticati.
Al contrario, molti effetti nei raytracer vengono prodotti a partire dalle stesse primitive, i raggi. E' sufficente garantire che il numero dei raggi utilizzabili per le luci, i riflessi, la GI e le trasparenze sia specificabile dall'utente, e anche tra cinque anni io posso sfruttare la mia scheda video, semplicemente triplicando il numero di samples proprio perche' la differenza tra una generazione e l'altra sara' in gran parte dovuta al numero di raggi che e' in grado di gestire...

dani&l
01-07-2008, 07:47
Capisco,non resta che aspettare i primi risultati pratici...

concordo con la disamina di vladimiro, a conti fatti a me pare solamente una bella dimostrazione tecnica, ma che ai fini pratici è ancora inutile. Quando si avranno standar con pc a 16 core (!!!!!) chissà a che punto saremmo arrivati con il resto della tecnologia.

A me pare una soluzione ottima solo per crearsi bei film in cg... preelaborate

Marko91
06-07-2008, 16:39
Uppo il thread.
Volevo chiedere ai più esperti come potrebbe funzionrea effettivamente un engine basato al 100% sul raytracing e perchè è così poco fattibile secondo alcuni. Mi sembra di aver capito che in un engine raytraced l'unica cosa che conta è la quantità di raggi riflessa da un dato pixel. Quindi non texture e shader non sono più necessari. Mi chiedo però come è possibile avere superfici di una certa complessità con questo metodo. Ad esempio le superfici pelose.
Volevo anche chiedere se è giusto pensare che un engine raytraced scala lineramente all'aumentare della potenza di calcolo in virgola mobile. Se si ,perchè pensionare totalmente l'architettura delle GPU? Con la sua architettura ATI riesce ad ottenere 16,6 Gigaflops (in singola precisione) per mm^2 (lo shader core di RV770 occupa il 28% dell'area totale del chip).
Ricapitolando: Quali sono per la tecnologia attuale/ dei prossimi 2-3 anni i più grandi limiti a engine totalmente basati sul raytracing? Che potenza di calcolo sarebbe necessaria per poter renderizzare scene molto complesse con un engine raytraced ? Grazie per le risposte.

Edit:

Su Cinema 2.0 e il raytracing

"this is a really novel way of rendering graphics, we're not using any polygons [...] every single pixel you see in the scene has depth and is essentially renderable as voxels".

http://bp1.blogger.com/_ejVhPSXllX0/SG3zijQsHSI/AAAAAAAAEAQ/wYTt-Aam4HM/s1600-h/2585849022_3443db26d6_o.jpg
http://bp2.blogger.com/_ejVhPSXllX0/SG3zhgS5fsI/AAAAAAAAEAA/27yDPmhDRnI/s1600-h/2585016023_ef12de41c1_o.jpg
http://bp2.blogger.com/_ejVhPSXllX0/SG3ziSAaa8I/AAAAAAAAEAI/mlwokMKzJrE/s1600-h/2585848826_87f8f0154f_o.jpg

Tutto realtime su RV770, ed è in raytracing.

5 secondi di trasformer renderizzato su R600
http://uk.youtube.com/watch?v=Igmp41Du3cA (a 1:24)

Link con interessante discussione su questa demo:
http://ompf.org/forum/viewtopic.php?f=6&p=8265

Obi 2 Kenobi
06-07-2008, 22:01
scusatemi, sono una persona estremamente ignorante. Ho cercato di seguire il thread, ma ho capito veramente poco se non nulla.
Qualcuno mi spiega con parole più semplici possibili cosa sarebbe questo raytracing?

Vi ringrazio tantissimo :)

Obi 2 Kenobi
07-07-2008, 10:14
nessuno mi sa aiutare?

Donbabbeo
07-07-2008, 13:36
Uhm, non sono certamente la persona adatta a parlarti di questo sistema visto che non sono un grafico nè un esperto, ma proverò a fartelo capire...
(spero di non dire castronerie :D )

In natura, una sorgente di luce emette un raggio che viaggia fino a raggiungere una superficie che ne interrompe il tragitto. Una superficie può riflettere tutto o parte del raggio di luce, in una o più direzioni. Può anche assorbire parte del raggio, causando una perdita di intensità della luce riflessa/rifratta. Se la superficie ha proprietà di trasparenza o traslucenza, convoglierà una porzione di luce dentro se stessa, in una direzione diversa rispetto a quella causata dall'assorbimento di una parte (o tutto) lo spettro ottico (e possibilmente alterandone il colore). Sommando i valori di assorbimento, riflessione e rifrazione, si ottiene esattamente la potenza del raggio entrante. Una superficie non può, ad esempio, assorbire il 66% del raggio entrante, e rifletterne il 50%, dal momento che la somma darebbe 116%. Partendo da qui, i raggi riflessi e/o rifratti possono colpire altre superfici, dove verranno assorbiti, riflessi e rifratti (di nuovo). Alcuni di questi raggi, alla fine del viaggio, colpiscono il nostro occhio, permettendoci di vedere la scena e contribuendo al disegno dell'immagine finale.

L'idea di fondo del ray casting consiste nel far partire i raggi dall'occhio, uno per pixel, e trovare il più vicino oggetto che ne blocca il percorso (pensa ad un'immagine come ad una grata, in cui ogni quadrato corrisponde ad un pixel). L'oggetto colpito è quello che l'occhio vede attraverso quel pixel. Usando le proprietà del materiale e gli effetti della luce nella scena, questo algoritmo è in grado di determinare il colore dell'oggetto. Questa supposizione è fatta pensando che una superficie è visibile se il raggio la raggiunge senza essere bloccato o in ombra. Il colore della superficie viene calcolato usando i tradizionali shading model presenti in Computer grafica.
Quando un raggio colpisce una superficie, può generare fino a tre nuovi tipi di raggio: riflessione, rifrazione ed ombra. Un raggio riflesso continua nella direzione della riflessione a specchio su di una superficie lucida. A questo punto interagisce con altri oggetti della scena; il primo oggetto che colpisce sarà quello visto nel riflesso presente sull'oggetto originario. Il raggio rifratto viaggia attraverso il materiale trasparente in modo simile, con l'aggiunta che può entrare o uscire da un materiale. Per evitare di tracciare tutti i raggi presenti in una scena, un raggio ombra viene usato per testare se la superficie sia visibile ad una luce. Un raggio colpisce una superficie in un qualche punto. Se questo punto "vede" la luce, un raggio (dal punto di vista del computer un segmento) viene seguito fino alla sorgente, Se durante il tragitto si incontra un oggetto opaco, la superficie è in ombra, e quella sorgente non contribuisce al calcolo del colore. Questo nuovo livello di calcolo aggiunge più realismo alle immagini create attraverso il ray tracing.

Come già detto i vantaggi sono molti:
-qualità virtualmente sempre al passo con i tempi (un pò come se volessi giocare oggi a Wolfenstein 3d con la grafica di crysis: basterebbe aumentare il numero di raggi usati se fossero motori raytracing)
-scalabilità ottima (16 core vanno 16 volte più di 1 core)
-standardizzazione (dovrebbe diminuire il numero di periferiche su cui renderlo compatibile, non come ora che un motore ha 10.000 schede video su cui può girare)

Obi 2 Kenobi
07-07-2008, 20:15
ho capito qualcosa. Ma perchè allora questo raytracing non viene utilizzato? :? hmm...sono un po confuso a riguardo.

Cmq grazie della spiegazione :)

darkfear
07-07-2008, 21:58
ho capito qualcosa. Ma perchè allora questo raytracing non viene utilizzato? :? hmm...sono un po confuso a riguardo.

Cmq grazie della spiegazione :)

perché è incredibilmente pesante (essendo un motore pensato per il CG)

e richiede 16 core per fare a malapena 30 fps (dai 14 ai 29) a 1280x720 su una mappa vuota . :)
Ovviamente su versione "ibride" di ray tracing (adatte per il real time).


http://www.tomshw.it/articles/20080613/etqw_07_portal_c.jpg

il gioco nel dettaglio:
http://www.happypenguin.org/images/etqw.png
http://news.filefront.com/wp-content/uploads/2008/03/enemy_territory_quake_wars_02.jpg


16 core + 1280x720 + una ventina di fps scarsi + un gioco che graficamente imho è appena nella media.


Francamente mi riesce difficile dare fiducia ad una strada del genere...ma chissà...

giova22
07-07-2008, 22:15
il fatto dei 20 fps con 16 core è relativo. Non dimentichiamo che essendo una tecnologia "nuova" (nel senso che è da poco che si parla di raytrcking in tempo rreale su pc normali), non potrà che migliorare una volta applicata... Pensiamo a ottimizzazioni software ma anche hardware.

Secondo me è un ottima strada invece. Non dimentichiamo inoltre che la sua relativa facilità di programmazione rispetto alla rasterizzazione potrebbe convincere numerosi team di programamzione ad adottare questa tecnica... Non resta che aspettare... Certo che se dietro Intel spinge allora ci sono grandi possibilità di vederla nel giro di qualche anno

franz899
08-07-2008, 09:01
Francamente mi riesce difficile dare fiducia ad una strada del genere...ma chissà...

Il bello del RT è la sua crescita esponenziale delle prestazioni qumentando il numero di processori, e la perfezione nella realizzazione di superfici e riflessioni :)

Obi 2 Kenobi
08-07-2008, 11:37
praticamente un motore grafico che si adatta al tipo di pc che uno possiede? ho capito bene?:eek:

Donbabbeo
08-07-2008, 13:38
beh si, più aumentano il numero di raggi (ed il numero di riflessioni che ciascuno di essi può effettuare) più aumenta la qualità.

Come dicevano la semplicità di programmazione è elevata, ogni superficie viene riprodotta in base alle caratteristiche di riflessione, opacità e assorbimento, più un rendering per la texture in superficie. Non è richiesto alcun script per l'implementazione di superfici riflettenti o calcolo di ombre e simili.

Per le prestazioni: il tizio che ha riconvertito tutto il motore di Q4 in raytracing aveva buone prestazioni (leggete il suo articolo a riguardo, molto interessante).
Su un MID facevano girare Q4 a 60+ fps fissi (dicendo che se avessero implementato lo stesso motore su una PSP o DS avrebbero raggiunto tranquillamente i 300 fps).
Per di più anche AMD con le techdemo degli RV770 ha usato motori raytracing in Real time.

Immagino comunque che non sia tutto rose e fiori, i problemi ci sono sicuramente e credo che per un bel pò non lo vedremo se non in progetti amatoriali.

octopus
08-07-2008, 14:05
...
Su un MID facevano girare Q4 a 60+ fps fissi (dicendo che se avessero implementato lo stesso motore su una PSP o DS avrebbero raggiunto tranquillamente i 300 fps).
...

Cosa intendi per MID?
Cmq Q4 con rt su un ds non farà manco 0.3fps altro che 300 dai!

Bull's eye
08-07-2008, 15:05
Cosa intendi per MID?
Cmq Q4 con rt su un ds non farà manco 0.3fps altro che 300 dai!

un mid è un ultra mobile pc, cioè i mobile internet device, cmq http://www.idfun.de/temp/q4rt/... se fa tra i 25 i 45 su un mid... credi proprio che su una psp ne faccia molti di più

Obi 2 Kenobi
08-07-2008, 18:58
ma quindi cosa succederebbe esattamente se implementassero questo raytracing? Ho letto post precedenti di gente che diceva che ci sarebbero state meno spese per noi utenti e meno spese per gli sviluppatori. in che modo diminuirebbero le spese per noi utenti?

Donbabbeo
08-07-2008, 19:09
ok, mi sono sbagliato... non era un Mid, ma un UMPC della sony...

Tratto dall'articolo Intel e Ray Tracing, sguardo approfondito (http://www.tomshw.it/graphic.php?guide=20080325) di Tom's Hardware:

THG: Parliamo dei costi hardware. Hai parlato di reti con quattro sistemi quad-core. Al GDC avete mostrato Quake 4 RT su un dispositivo UMPC di Sony. Come siete stati in grado di scalare fino a un dispositivo di così poca potenza?
Daniel Pohl: Ho dimostrato ‘Ray Trace in Your Pocket' su un ultra-mobile PC di Sony, con CPU Core 2 da solo 1,2 GHz. Il ray tracing ha la proprietà di scalare linearmente in modo quasi perfetto. Se si abbassa il numero di pixels, i dati da renderizzare si riducono e, su dispositivi piccoli, il risultato è quasi perfetto. Questo UMPC, per esempio, ha un buon monitor da 4,5" LCD, con una risoluzione di 1024x600 pixels.
THG: Avete effettuato una dimostrazione di Quake IV RT all'IDF utilizzando un sistema con otto core. Quale tipo di prestazioni vi aspettate da un sistema UMPC, che ha una risoluzione significativamente più bassa rispetto a quella di cui è capace un sistema a otto core?
Daniel Pohl: Abbiamo ridotto la risoluzione per il dispositivo portatile. Se abbiamo un sistema che ci permette di renderizzare a 1280x720 a 30 frame al secondo, lo scaling lineare delle prestazioni dovrebbe permetterci di raggiungere i 360 fps su una Sony PSP. Se invece lavoriamo su un Nintendo DS, raggiungeremo circa 600 fps. Indiscutibilmente, non abbiamo bisogno nè di 300 fps nè di 600 fps, il nostro obiettivo realistico dovrebbe essere tra i 30 e i 60 fps.

Questo (http://it.youtube.com/watch?v=2qzpl3XE6zs) è Quake4 raytraced con un octacore.
Questo (http://www.youtube.com/watch?v=rLLs3I-gh3s) invece è la versione UMPC.

Obi 2 Kenobi
08-07-2008, 19:19
veramente interessante questo raytracing

darkfear
08-07-2008, 19:50
l'articolo parlava di un framerate che andava dai 14 a 29 fps su una mappa VUOTA senza alcun tipo di filtro (AA..AF) su di un gioco non particolarmente dettagliato di suo (a livello poligonale).

la maggioranza delle foto mostrano (indicatore FPS in alto) un framerate inferiore a 20...gli "ottimistici" 29 probabilmente si saranno avuti su inquadrature particolarmente leggere rispetto al resto...

In media se fanno 20 fps è già tanto.

1280x720 no AA no AF...mappa vuota, 16 core...Ripeto, per me resta una strada in salita...difficilmente percorribile in "breve" tempo.

sui 360 o 600 fps sulle console portatili, francamente ci credo molto poco...diciamo per niente.

Siamo appena ad uno sfruttamento ballerino di 2 core e nell'era dell' ottimizzazione scarsa...

Prima di vedere un gioco che andrà ad ALMENO 30 fps (che per molti non sono neanche sufficienti per la fluidità ottimale senza un utilizzo massiccio di motion blur sull'intera scena, oggetti compresi.) a 1280x1024 con un misero Anisotropico (NECESSARIO per non vedere un vomito colorato davanti a noi all'interno dell'ambiente 3d) pieno di personaggi e poligonalmente valido...passeranno ANNI...imho.

Si passa dal business del "+ potenza, + prestazioni" a "+ core, + raggi, + qualità, + prestazioni" ma alla fine quello che lo prende nel didietro è il consumatore.

Dalla corsa alla scheda alla corsa ai core il passo è breve ma dubito che i risultati cambieranno.

I risultati attuali sono tutto meno che soddisfacenti...interessano a poco i 20 fps di un "Fly-by" su mappe vuote di giochi graficamente non particolarmente interessanti.

Aumentano i poligoni, aumentano i materiali, aumenta il numero di personaggi, aumentano i raggi, le prestazioni crollano.

A parte le dichiarazioni di marketing (a quando i 20000 fps su un cellulare?) si dovrà aspettare molto + che le DX 11 prima di un applicazione seria e affermata...(sempre che ci si arrivi)

giova22
08-07-2008, 20:01
Occhio a non banalizzare.

Nel corto/medio periodo la rasterizzazione la farà ancora da padrona, e non ci sarà alcuno spazio per il raytracking nei comuni videogiochi.

Il fatto è che i core nelle CPU aumentano sempre, ma il loro sfruttamento assolutamente no... e qui entra in gioco il raytracking. è "molto" facile sfruttare un grande numero di core (virtualmente anche centinaia o migliaia di core a seconda dell'algoritmo usato). Ecco che quindi nel futuro potrebbe trovare spazi anche larghi.... E non mi stanco di ripetere che se Intel si mette a spingere parecchio su questa tecnologia allora le probabilità che sia un giorno sfruttata aumentano esponenzialmente....

Morale
- Intel che spinge
- Facilità di programmazione
- Facile sfruttamento di numerosi core
- Qualità grafica virtualmente reale

Non mi stupirei di vederlo davvero usato tra circa 4-6 anni

Obi 2 Kenobi
08-07-2008, 20:23
ma quindi cosa succederebbe esattamente se implementassero questo raytracing? Ho letto post precedenti di gente che diceva che ci sarebbero state meno spese per noi utenti e meno spese per gli sviluppatori. in che modo diminuirebbero le spese per noi utenti?

ehm...nessuno mi ha risposto. :help:

giova22
08-07-2008, 21:03
ehm...nessuno mi ha risposto. :help:

il discorso delle spese minori è relativo....

premetto che il discorso è ancora ipotetico, visto che di concreto (almeno come videogiochi non c' è nulla).

per risparmio si potrebbe ipotizzare che il raytracking sia implementato tutto sulla CPU e quindi la scheda video intesa come la intendiamo oggi non esisterebbe più, non sarebbe altr che un piccolo dispisitivo che visualizza ciò che crea la CPU

In realtà non si sa ancora se sarà usata questa tecnica, quindi si sa ancora meno se sarà fatto da CPU, GPU o nuove schede....

Il risparmio dal lato sviluppatori sarebbe che essendo più facile da implementare loro spenderebbero meno a fare un gioco (e a fare bet testing). In pratica i soldi risparmiati saranno reinvestiti in atre cose (non aspettarti videogiochi più economici :D )

darkfear
08-07-2008, 21:13
ci sarebbe da aspettarsi un incremento a livello dei contenuti...boh, aspettiamo.

Obi 2 Kenobi
08-07-2008, 21:43
il discorso delle spese minori è relativo....

premetto che il discorso è ancora ipotetico, visto che di concreto (almeno come videogiochi non c' è nulla).

per risparmio si potrebbe ipotizzare che il raytracking sia implementato tutto sulla CPU e quindi la scheda video intesa come la intendiamo oggi non esisterebbe più, non sarebbe altr che un piccolo dispisitivo che visualizza ciò che crea la CPU

In realtà non si sa ancora se sarà usata questa tecnica, quindi si sa ancora meno se sarà fatto da CPU, GPU o nuove schede....

Il risparmio dal lato sviluppatori sarebbe che essendo più facile da implementare loro spenderebbero meno a fare un gioco (e a fare bet testing). In pratica i soldi risparmiati saranno reinvestiti in atre cose (non aspettarti videogiochi più economici :D )

capisco, grazie della risposta.

AnonimoVeneziano
09-07-2008, 00:06
Beh, potrebbero creare delle schede video apposite con GPU basate su architettura x86 con più cores , ma più semplici (core specializzati per l'algoritmo di raytracing eliminando dal core tutto quello che non serve per il raytracing) .

In questo modo si potrebbe arrivare a GPU x86 con anche più di 16 cores, però tutto è moooolto teorico , non conoscendo nessuna informazione tecnica specifica posso fare solo supposizioni :P

Ciao

cignox1
09-07-2008, 06:55
Beh, potrebbero creare delle schede video apposite con GPU basate su architettura x86 con più cores , ma più semplici (core specializzati per l'algoritmo di raytracing eliminando dal core tutto quello che non serve per il raytracing) .

In questo modo si potrebbe arrivare a GPU x86 con anche più di 16 cores, però tutto è moooolto teorico , non conoscendo nessuna informazione tecnica specifica posso fare solo supposizioni :P

Ciao

Non e' teoria, e' realta': il progetto Larrabee con cui intel spera di poter rientrare con forza nel mondo delle schede grafiche di fascia alta, e' appunto questo: tanti core (mi pare fino a 24 se non ricordo male) basati su un set di struzioni x86.
Comunque, quando si parla di raytracing per videogiochi, sembra che tutti dimenticano sempre quanto lento sarebbe un qualsiasi gioco moderno eseguito totalmente in CPU. Se i giochi sono quello che sono e' grazie alle schede video 10 o 20 volte piu' veloci con questi calcoli.
Quindi, dimostrando di poter realizzare giochi in RT sfruttando 8 core (tra l'altro, basta un moderno quad core per eseguire semplici giochi RT), loro dicono: hey, datemi HW apposito con lo stesso boost delle schede video moderne e io vi faro' vedere giochi in RT.

IMHO, non vedremo mai giochi in RT commerciali su CPU. Ma se intel (e a quanto pare anche ATI) sono interessate a questa tecnologia, allora e' decisamente possibile che entro pochi anni le cose cambino...

Infine vorrei dire che uno dei grossi problemi dell'RT in real time non e' l'intersezione dei raggi con la scena (non e' difficile creare HW che calcoli le intersezioni rapidamente), ma la generazione del kd-tree (o qualsisasi altro schema spaziale si voglia usare). Tuttavia, poiche' i core delle CPU stanno aumentando, ma il loroutilizzo nei giochi non e' ottimale, questo potrebbe essere un nuovo modo per sfruttare i core liberi (soprattutto se e quando la fisica dovesse passare sulla GPU).

Donbabbeo
09-07-2008, 13:21
l'articolo parlava di un framerate che andava dai 14 a 29 fps su una mappa VUOTA senza alcun tipo di filtro (AA..AF) su di un gioco non particolarmente dettagliato di suo (a livello poligonale).

la maggioranza delle foto mostrano (indicatore FPS in alto) un framerate inferiore a 20...gli "ottimistici" 29 probabilmente si saranno avuti su inquadrature particolarmente leggere rispetto al resto...

In media se fanno 20 fps è già tanto.

1280x720 no AA no AF...mappa vuota, 16 core...Ripeto, per me resta una strada in salita...difficilmente percorribile in "breve" tempo.

sui 360 o 600 fps sulle console portatili, francamente ci credo molto poco...diciamo per niente.

Siamo appena ad uno sfruttamento ballerino di 2 core e nell'era dell' ottimizzazione scarsa...

Prima di vedere un gioco che andrà ad ALMENO 30 fps (che per molti non sono neanche sufficienti per la fluidità ottimale senza un utilizzo massiccio di motion blur sull'intera scena, oggetti compresi.) a 1280x1024 con un misero Anisotropico (NECESSARIO per non vedere un vomito colorato davanti a noi all'interno dell'ambiente 3d) pieno di personaggi e poligonalmente valido...passeranno ANNI...imho.

Si passa dal business del "+ potenza, + prestazioni" a "+ core, + raggi, + qualità, + prestazioni" ma alla fine quello che lo prende nel didietro è il consumatore.

Dalla corsa alla scheda alla corsa ai core il passo è breve ma dubito che i risultati cambieranno.

I risultati attuali sono tutto meno che soddisfacenti...interessano a poco i 20 fps di un "Fly-by" su mappe vuote di giochi graficamente non particolarmente interessanti.

Aumentano i poligoni, aumentano i materiali, aumenta il numero di personaggi, aumentano i raggi, le prestazioni crollano.

A parte le dichiarazioni di marketing (a quando i 20000 fps su un cellulare?) si dovrà aspettare molto + che le DX 11 prima di un applicazione seria e affermata...(sempre che ci si arrivi)

Aspetta, le foto e quello di cui stai parlando è Quake Wars, i video e l'articolo che ho postato io parlano di Quake 4.
Guardati i video, sull'UMPC non è esattamente il massimo, ma l'altro video è fatto su un octacore.

octopus
09-07-2008, 19:25
Aspetta, le foto e quello di cui stai parlando è Quake Wars, i video e l'articolo che ho postato io parlano di Quake 4.
Guardati i video, sull'UMPC non è esattamente il massimo, ma l'altro video è fatto su un octacore.

Ho visto il video che citi (in verità l'avevo visto in passato) , è sinceramente impressionate, ma ad occhio fa 10-15 fps (forse è il frame rate del video).
Credo che loro abbiano fatto la stima sul ds parlando della riduzione da 720p a 240p o quello che è. Mantenendo le prestazioni del sony però!

Ho programmato in passato sul GBA, il ds è più avanti , ma se vedo muovere qualcosa più di una teiera in un box in rt gestito dal ARM9E@66Mhz allora ti offro una cena :)

Ciao!

octopus
09-07-2008, 19:32
ma quindi cosa succederebbe esattamente se implementassero questo raytracing? Ho letto post precedenti di gente che diceva che ci sarebbero state meno spese per noi utenti e meno spese per gli sviluppatori. in che modo diminuirebbero le spese per noi utenti?

Credo che nell'immediato le riflessioni sarebbero calcolate al pixel anzichè usare delle fakissime (ma bellissime per ora) envoirment map.
Poi si passerebbe alla rifrazione quindi acqua e liquidi esagerati, ma anche vetrate.
Successivamente per il calcolo della riflessione della luce / ombre e calcolo della radiosità.

Per fortuna non conosco il futuro, ma l'ultima notizia sul progetto Larrabe parlava di 32 core P55c se non sbaglio.
Con quello si potrebbero usare con 'poco' lavoro gli algoritmi/plug sviluppati per i comuni sw di modellazione, ci sarebbe da integrare il tutto con dx in qualche modo però.
Non sono state sviluppate per girare su x86, non so che mole di lavoro comporterebbe ri-scrivere il render sw dx compatibile e prestante con un numero elevato di core x86.

Quindi qualcuno deve venire incontro a qualcunaltro, oppure qualcuno 'esce' un bel pò di soldoni.

Sinceramente tutto ciò mi fa solo piacere! :D

Donbabbeo
09-07-2008, 19:37
Beh si ovvio, loro han fatto il calcolo basandosi sulla scalabilità lineare del raytracing, oltre che nei core anche nella risoluzione...

Spero comunque prima o poi di vedere un motore raytracing che giri decentemente :sofico:

Pr|ckly
09-07-2008, 22:35
Occhio a non banalizzare.

Nel corto/medio periodo la rasterizzazione la farà ancora da padrona, e non ci sarà alcuno spazio per il raytracking nei comuni videogiochi.

Quoto.
Che senso ha il RT quando con l'uso che fanno oggi degli shader sono in grado di simulare perfettamente le riflessioni e i comportamenti della luce?

Qualcuno sa la differenza che passa tra questo RT e il radiosity?

franz899
10-07-2008, 09:18
Quoto.
Che senso ha il RT quando con l'uso che fanno oggi degli shader sono in grado di simulare perfettamente le riflessioni e i comportamenti della luce?

Qualcuno sa la differenza che passa tra questo RT e il radiosity?
Il senso c'è eccome, con il ray tracing riesci a creare delle geometrie perfette e reali :)

Donbabbeo
10-07-2008, 13:20
QUOTE=franz899;23251813]Il senso c'è eccome, con il ray tracing riesci a creare delle geometrie perfette e reali :)[/QUOTE]
...e semplificare notevolmente la progettazione stessa.

Il discorso che fate voi è un pò come quello che si faceva alla fine dell'800/primi 900: "Che senso ha usare un'automobile che va piano mentre possiamo usare dei cavalli che sono veloci?" :D

Kumalo
10-07-2008, 13:57
Ho letto un po' di cose qua e la e penso sinceramente e non so se e' stato gia' detto che il RT porterebbe alla piu' grande svolta del mercato dei PC penso da 30 anni a questa parte....


Cadrebbe il consorsio Microzozz....

Tanto sappiamo tutti che tira avanti solo ed esclusivamente per le DirectX, Linux e Mac sono anni luce avanti come velocia' e stabilita'.....

IMHO un domani poter scegliere per giocare un pc con Linux, un iMac o un pc con Mac, e il classico pc con Windows per me sara' la svolta....


Piu' innumerevoli altri fattori positivi che non passano inosservati....

- Minore consumo del pc
- Minore ingombro e possibilita' di comprare Mini o Micro anche per giocare
- Esasperata corsa all' ultima scheda video con conseguente valutazione 0 del vecchio (ora le DirectX escono ogni anno una scheda video DirectX9 di 2/3 anni fa e' da buttare o cmq regalare)


e via discorrendo.....

IMHO per quanto mi riguarda tornerei anche a 2 anni indietro con la grafica pur di avere tutto quello che ho scritto sopra....io di un gioco cerco piu' di tutto il coinvolgimento, gioco tutt'ora a Diablo II e a Mafia giochi tutt'altro che avanzati graficamente....

Byez

octopus
10-07-2008, 18:52
Cadrebbe il consorsio Microzozz....

Tanto sappiamo tutti che tira avanti solo ed esclusivamente per le DirectX, Linux e Mac sono anni luce avanti come velocia' e stabilita'.....

IMHO un domani poter scegliere per giocare un pc con Linux, un iMac o un pc con Mac, e il classico pc con Windows per me sara' la svolta....

Piu' innumerevoli altri fattori positivi che non passano inosservati....

- Minore consumo del pc
- Minore ingombro e possibilita' di comprare Mini o Micro anche per giocare
- Esasperata corsa all' ultima scheda video con conseguente valutazione 0 del vecchio (ora le DirectX escono ogni anno una scheda video DirectX9 di 2/3 anni fa e' da buttare o cmq regalare)
Byez

Credo che tu abbia una visione troppo ideologizzata della cosa.
Microsoft ha fatto nell'ultimo decennio un lavoro egregio con le DirectX.

Non so se hai mai programmato, ma quando c'era il dos era un delirio creare un applicazione ludica compatibile con la maggior parte dell'hardware a disposizione.

Questa nuova branca del rt in tempo reale non credo proprio abbia lo scopo di rendere un gioco giocabile su tutte le piattaforme basate su x86.
Anche e soprattutto perchè le directx non si occupano solo della grafica ma di altri aspetti importantissimi in un gioco.
Perchè poi basterebbe un minipc me lo devi spiegare... il giocatore vuole sempre qualcosa di migliore, quindi è richiesto un hw maggiore.

Un mercato informatico che tiene il prezzo causa mancata innovazione sarebbe un incubo... vorresti ancora pagare la ram 100.000 al mega come nel '95?

Ciao eh!

Pr|ckly
10-07-2008, 20:36
Il senso c'è eccome, con il ray tracing riesci a creare delle geometrie perfette e reali :)

Beh, se per avere delle geometrie perfette con calcoli reali ho bisogno di 16 core preferisco tenermi 2 core e una simulazione fatta come viene fatta oggi sfruttando gli shader con un risultato che per l'occhio umano è quasi perfetto.

octopus
10-07-2008, 21:09
Beh, se per avere delle geometrie perfette con calcoli reali ho bisogno di 16 core preferisco tenermi 2 core e una simulazione fatta come viene fatta oggi sfruttando gli shader con un risultato che per l'occhio umano è quasi perfetto.

Ma sì, per ora è tutto più che sopportabile.
Ai tempi della voodoo1 i 32bit di profondità sembravano semplicemente superflui, ora non si può prescindere da questa cosa.

Così sarà per questo, basta non aver fretta!

Obi 2 Kenobi
11-07-2008, 11:58
io aspetterò anche se sono veramente impaziente :asd:

Giakkes
11-07-2008, 21:30
DirectX 11 doesn't do ray tracing

Forget about it
We managed to confirm that DirectX 11, the dominant API in computer graphics won't support ray trace rendering.
Microsoft doesn’t want to go down that path simply as the developers are not ready to give up a years of rasterisation experience.
A lot of industry people have expected that Microsoft will pull in a favour for Intel and include ray tracing in DirectX 11 specification, but we can now clearly say that this won’t happen.
Larrabee, Intel’s mysterious discrete graphics project is supposed to be good with ray tracing but unless some developer does something in OpenGL there won’t be a 2009 chance for DirectX 11 based ray tracing game.
Nvidia and AMD(ATI) are continuing to make rasterisation chips and this looks to be the right way, at least for a few more years.

Visto che ho tirato fuori l'argomento DRX 11, eccovi altre News:

DirectX 11 is an evolution from DirectX 10

Presentation at Nvidia's Nvision
It looks that Nvidia is getting ready for DirectX 11. It plans to let Microsoft talk about DirectX 11 at its upcoming Nvision conference.
Microsoft has scheduled a presentation of Nvision conference called Introduction to DirectX 11 track and this presentation will take place on August 26 at 5PM.
Microsoft's representative will introduce the new DirectX 11 rendering pipeline that is being developed by Microsoft.
The technology builds on the existing DirectX 10 API set but also adds new features including tessellation, multithreaded rendering, compute Shaders, Shader Model 5, and more.
DirectX 11 is an evolution from DirectX 10 and 10.1 but it also brings a few new features.
We know that it will work on both Vista and Windows 7 whenever that comes out.

DirectX 11 belongs to Windows 7

Will work with Vista
As Windows 7, codenamed Vienna is an improved version of Vista, DirectX 11 will work on both systems.
It looks that DirectX 11 will launch before Windows 7 and we have high hopes of seeing DirectX 11 by the end of 2009.

DX11 is based on DirectX 10 but naturally it has more options including Tessellation, compute Shaders - something good for Cuda and GPGPU, CPU multithread support and some new texture compression.
Let’s not forget Shader model 5.0 but at this time we don’t know enough about it.
Tessellation might be the most important feature as some developers are getting excited about it.
Tessellation can subdivide objects and give them better level of details and more polygons but we don’t know what implementation Microsoft plans for DirectX 11.
The important thing is that despite being designed for Windows 7, DirectX 11 will certainly launch before the new OS and at the same time it should run well on Vista.

Kumalo
11-07-2008, 22:08
Credo che tu abbia una visione troppo ideologizzata della cosa.
Microsoft ha fatto nell'ultimo decennio un lavoro egregio con le DirectX.

Non so se hai mai programmato, ma quando c'era il dos era un delirio creare un applicazione ludica compatibile con la maggior parte dell'hardware a disposizione.

Questa nuova branca del rt in tempo reale non credo proprio abbia lo scopo di rendere un gioco giocabile su tutte le piattaforme basate su x86.
Anche e soprattutto perchè le directx non si occupano solo della grafica ma di altri aspetti importantissimi in un gioco.
Perchè poi basterebbe un minipc me lo devi spiegare... il giocatore vuole sempre qualcosa di migliore, quindi è richiesto un hw maggiore.

Un mercato informatico che tiene il prezzo causa mancata innovazione sarebbe un incubo... vorresti ancora pagare la ram 100.000 al mega come nel '95?

Ciao eh!

Asp posso rispettare la tua risposta ma non posso essere in accordo con te.... C'erano le meravigliose OpenGL open source e che rendevano milioni di volte quello che rendevano le DirectX, basta vedere Unreal Tournament lo giocavamo tutti in OpenGL, in 10 anni c'e stato un passo avanti per carita' ma non come tutti ci aspettavamo...diciamo che un passo avanti c'e' stato ma sopratutto per noi che ogni mese spendiamo una barca di soldi per schede video nuove DirectX 10....11.....12.....13 e alla fine guarda il passaggio dalle 9 alle 10 io tutto questo cambiamento non l'ho notato e la gente ancora dice che non ci sono giochi full DirectX10....ma come si annunciano gia' i 10.1 :D :D

I mini PC io li intendevo in questo modo, se questo RT fuziona davvero non ho piu' bisogno di un megacase per mettere una Scheda Video da 30cm che sforna 150W con i suoi 80° ;) mi basterebbe anche un mini o micro con un dissipatore bello con le palle e un procio con 8 core e addio tanti problemi no?

Poi non lo so sbaglio io ma io sono uno dei moltissimi che tiene windows solo per giocare....e poter finalmente liberarmi dal monopolio DirectX ==> Windows per me e' una grandissima notizia ;)

Poi rispetto quello che mi dici tutto ovviamente IMHO

cdimauro
12-07-2008, 07:26
In principio era il caos. Poi vennero le Glide che diventarono IL punto di riferimento.
OpenGL prese il posto delle Glide dopo il loro declino, e divenne il nuovo punto di riferimento sia come API (facilità di sviluppo) che per le prestazioni.
Da un po' di anni il punto di riferimento sono diventate le DirectX, perché non esiste un consorzio che impiega tempi biblici per approvare delle innovazioni, per cui mentre le DX col tempo sono maturate e migliorate, le OpenGL sono rimaste al palo, com'è giusto che sia.

Il cambiamento fra le DX9 e le 10 c'è stato, ed è stato profondo: se ne non te ne sei accorto poco importa. Se ne sono accorti benissimo i programmatori, e col tempo anche gli utenti (alcuni già conoscono la differenza).

Quando al "monopolio" (che non esiste, manuale di economia e definizione di monopolio alla mano) fra DX e Windows, te lo dovrai sorbire ancora per parecchio tempo, visto che il 95 e passa % di giochi (per PC) viene sviluppato per queste librerie, e le software house non sembrano avere intenzione di cambiare (se pensiamo che perfino Carmack, strenuo difensore delle OpenGL, è passato alla DX tessendone pure le lodi, il futuro delle OpenGL è segnato).

Per il resto, ben vengano le innovazioni dell'hardware, e delle DX11: sapremo sfruttarle per offrire agli utenti mondi virtuali sempre più belli.

giova22
12-07-2008, 10:00
In principio era il caos. Poi vennero le Glide che diventarono IL punto di riferimento.
OpenGL prese il posto delle Glide dopo il loro declino, e divenne il nuovo punto di riferimento sia come API (facilità di sviluppo) che per le prestazioni.
Da un po' di anni il punto di riferimento sono diventate le DirectX, perché non esiste un consorzio che impiega tempi biblici per approvare delle innovazioni, per cui mentre le DX col tempo sono maturate e migliorate, le OpenGL sono rimaste al palo, com'è giusto che sia.

Il cambiamento fra le DX9 e le 10 c'è stato, ed è stato profondo: se ne non te ne sei accorto poco importa. Se ne sono accorti benissimo i programmatori, e col tempo anche gli utenti (alcuni già conoscono la differenza).

Quando al "monopolio" (che non esiste, manuale di economia e definizione di monopolio alla mano) fra DX e Windows, te lo dovrai sorbire ancora per parecchio tempo, visto che il 95 e passa % di giochi (per PC) viene sviluppato per queste librerie, e le software house non sembrano avere intenzione di cambiare (se pensiamo che perfino Carmack, strenuo difensore delle OpenGL, è passato alla DX tessendone pure le lodi, il futuro delle OpenGL è segnato).

Per il resto, ben vengano le innovazioni dell'hardware, e delle DX11: sapremo sfruttarle per offrire agli utenti mondi virtuali sempre più belli.

Ciò che dici è vero, ma non dimenticare che in ambito professionale e scentifico le OpenGl vanno ancora per la maggiore....

Obi 2 Kenobi
12-07-2008, 11:29
ma cosa cambia tra opengl e directx?

goldorak
12-07-2008, 11:52
In principio era il caos. Poi vennero le Glide che diventarono IL punto di riferimento.
OpenGL prese il posto delle Glide dopo il loro declino, e divenne il nuovo punto di riferimento sia come API (facilità di sviluppo) che per le prestazioni.
Da un po' di anni il punto di riferimento sono diventate le DirectX, perché non esiste un consorzio che impiega tempi biblici per approvare delle innovazioni, per cui mentre le DX col tempo sono maturate e migliorate, le OpenGL sono rimaste al palo, com'è giusto che sia.

Il cambiamento fra le DX9 e le 10 c'è stato, ed è stato profondo: se ne non te ne sei accorto poco importa. Se ne sono accorti benissimo i programmatori, e col tempo anche gli utenti (alcuni già conoscono la differenza).

Quando al "monopolio" (che non esiste, manuale di economia e definizione di monopolio alla mano) fra DX e Windows, te lo dovrai sorbire ancora per parecchio tempo, visto che il 95 e passa % di giochi (per PC) viene sviluppato per queste librerie, e le software house non sembrano avere intenzione di cambiare (se pensiamo che perfino Carmack, strenuo difensore delle OpenGL, è passato alla DX tessendone pure le lodi, il futuro delle OpenGL è segnato).

Per il resto, ben vengano le innovazioni dell'hardware, e delle DX11: sapremo sfruttarle per offrire agli utenti mondi virtuali sempre più belli.


Scusa ma il futuro delle Opengl non e' segnato manco per il piffero.
A livello console per esempio le opengl sono usate nella ps 3 e il Wii.
Inoltre i futuri embeded devices avranno una versione semplificata delle opengl (nvidia era al lavoro su chip grafici di questo tipo per telefonini o altri devices mobili).
L'unico campo dove le dx le fanno da padrone sono in windows.
Seconda cosa alcuni publisher stanno incominciando a interessarsi al mercato apple, Ubisoft ad esempio. E secondo te cosa useranno per i giochi multipiattaforma dx o opengl ?
Terzo, cosi' come il software open source sta venendo alla ribalta sul desktop, i giochi mutipiattaforma (commerciali e non) useranno sempre dippiu' le opengl o comunque framework tipo le QT4 che consentono di non essere limitati ad un solo sistema operativo.
Infine il limite piu' grande delle dx e' che o una feature e' supportata direttamente dall'hardware o ti attacchi al tram.
Con le opengl ce' la possibilita' che una feature venga supporta direttamente dall'hardware ma se cosi' non fosse ce' sempre la possibilita' di passare tramite la cpu.
E questa e' una versatilita' non da poco.

;)

AnonimoVeneziano
12-07-2008, 11:54
Forse intendeva in ambito Windows

cdimauro
12-07-2008, 21:01
Ciò che dici è vero, ma non dimenticare che in ambito professionale e scentifico le OpenGl vanno ancora per la maggiore....
Mi riferivo in particolare ai giochi.
ma cosa cambia tra opengl e directx?
Tutto. :D
Forse intendeva in ambito Windows
Esattamente.
Scusa ma il futuro delle Opengl non e' segnato manco per il piffero.
Vedi sopra. Comunque risponderò ugualmente anche al resto.
A livello console per esempio le opengl sono usate nella ps 3 e il Wii.
Nella PS3 c'è una versione "embedded". Il Wii non mi risulta usi le OpenGL.

Poi hai "dimenticato" la X-Box 360, che fa uso delle DX. E che XNA permette uno sviluppo ancora più rapido.
Inoltre i futuri embeded devices avranno una versione semplificata delle opengl (nvidia era al lavoro su chip grafici di questo tipo per telefonini o altri devices mobili).
I device mobile con Windows CE supportano le DX.
L'unico campo dove le dx le fanno da padrone sono in windows.
Questo era scontato. Infatti era a quello che mi riferivo (più precisamente all'ambito PC).

Comunque le DX vanno di moda anche su Linux & affini: Wine e Cedega dovrebbero dirti qualcosa.
Seconda cosa alcuni publisher stanno incominciando a interessarsi al mercato apple, Ubisoft ad esempio. E secondo te cosa useranno per i giochi multipiattaforma dx o opengl ?
Intanto sviluppano per Windows, per cui generalmente scelgono le DX. Poi se c'è da fare un porting per Mac, lo si fa usando le OpenGL, ovviamente.

Comunque che vengano rilasciati giochi anche per Mac non è una novità, ma si tratta di briciole.
Terzo, cosi' come il software open source sta venendo alla ribalta sul desktop, i giochi mutipiattaforma (commerciali e non) useranno sempre dippiu' le opengl o comunque framework tipo le QT4 che consentono di non essere limitati ad un solo sistema operativo.
Pura utopia. Ripeto: gli sviluppatori, che tanto amavano le OpenGL, si sono buttati a pesce sulle DX, e questo ormai da ANNI.

Le QT lasciale perdere: basta guardare i recenti casini con FireFox 3, dove la versione migliore e più funzionante era... quella per Windows, proprio a causa di bug con le QT.

E questo non te lo dico io, ma alcuni miei colleghi linuxani incalliti che se ne lamentavano, sconsolati (di recente, comunque, hanno risolto).
Infine il limite piu' grande delle dx e' che o una feature e' supportata direttamente dall'hardware o ti attacchi al tram.
Con le opengl ce' la possibilita' che una feature venga supporta direttamente dall'hardware ma se cosi' non fosse ce' sempre la possibilita' di passare tramite la cpu.
E questa e' una versatilita' non da poco.

;)
E' stata questa presunta versalità che ha portato nel fosso le OpenGL.

MS l'ha capito, e infatti dalle DX 10 in poi TUTTE le schede grafiche dovranno esporre le STESSE funzionalità. L'unica variabile, insomma, saranno le prestazioni (e i bug dei driver. :asd: Ma questo è un altro discorso).

Chiedi a uno sviluppatore se preferisce lavorare con le varie NV_*, ATI_*, ecc. ecc. creando code path diversi per ogni tipo di architettura, visto che le case produttrice di GPU hanno creato estensioni apposite per esporre l'interfaccia di ben precise funzionalità, addirittura per le STESSE funzionalità, e vedi cosa ti risponde.

Le DX 10 sono nate proprio per evitare creare un'infinità di estensioni diverse: c'è UN SOLO MODELLO, a cui TUTTI i produttori DEVONO adeguarsi, e questo facilita ENORMEMENTE lo sviluppo.

Così è quasi come sviluppare su una console: c'è un solo codice (per la pipeline grafica), mentre in passato ce ne dovevano essere n, uno per ogni architettura o famiglia supportata.

Dimmi tu se da sviluppatore ti fa schifo questo modello. Io dico che stanno facendo i salti di gioia. E tra l'altro che ci fosse stabilità nelle API era una richiesta che avanzavano da EONI.

Ecco perché gli sviluppatori hanno pian piano abbandonato le OpenGL e sono passati alle DX: perché per le prime regna il caos sovrano fino a quando il comitato dello standard non si sveglia e si degna di mettere ordine creando finalmente delle API standard per delle carattristiche.
Nel frattempo MS ha rilasciato almeno un paio di versioni di DX venendo incontro alle istanze degli sviluppatori, che si ritrovano con strumenti sempre migliori e più produttivi.

Sviluppare codice COSTA, e il tempo non lo regalano al mercato. Oggi sviluppare un gioco in DX nemmeno la metà di fare altrettanto con le OpenGL: dimmi tu una software house cosa sceglierebbe a queste condizioni.

Siccome non sono stupide né tanto meno enti non a fini di lucro, si spiega perché più del 95% dei giochi è sviluppato per le DX ormai...

AnonimoVeneziano
12-07-2008, 21:24
Ah diavolo, adoro questo tuo modo di rispondere Cesare :asd:

cdimauro
12-07-2008, 21:33
Ah diavolo, adoro questo tuo modo di rispondere Cesare :asd:
Diavolo... è la parola giusta. :asd:

P.S. Scusate per gli orrori grammaticali, ma mi scoccia editare. :p

Trokji
12-07-2008, 21:48
Mi iscrivo.. vediamo come si evolveranno queste fantastiche tecnologie :O
Per adesso ho ancora una scheda dx9 però che ancora non fa da collo di bottiglia :cool:

Obi 2 Kenobi
13-07-2008, 10:22
cmq non mi avete spiegato le differenze tra opngl e directx :(

=davi=
13-07-2008, 10:51
scusa una cosa quindi vuol dire che in via teorica dalle dx10-11 in poi nn ci saranno piu problemi di compatibilità?..quindi -->maggiore ottimizzazione = minore richiesta HW o cmq sempre innovazione ma non come ora che tocca cambiare una scheda video ogni 6 mesi ( in teoria )..?..

altra domanda quindi il concetto di RT va a farsi benedire?..cioè cn la nuova caratteristica delle dx11 ovvero la standardizzazione del codice per i programmatori non sarà piu necessario andare con il RT?..

e poi ho un'osservazione

si dice anche qui che il "bello" del pc sia quello di evolversi proponendo soluzioni hw sempre piu potenti sempre piu nuove e mondi grafici sempre piu realistici e belli..ma è così bello trovare il proprio hw obsoleto dopo 6 mesi?..io sono a favore del pieno sfruttamento dell'hw..e i miei desideri come videogiocatore sono :

comprare un gioco che funzioni senza mille bug e problemi ( e qui dovrebbe venire incontro il discorso sulle dx10-11 e sul RT )
ottimizzazione
profondità dell'esperienza videoludica ( questo non è una questione tecnica però )

Poi altro problema è che per come è messo ora il mercato sei obbligato a metterti xp ( che va stra bene ) ma fra poco tempo win vista che non è proprio un bel OS..come consumatore non si ha scelta..se t piace giocare al pc devi cambiare una VGA ogni tot mesi e buttarti su windows..sono queste le cose che come consumatore non mi soddisfano per niente..

Auspico una maggiore standarizazione per il comparto vga quantomeno visto che mi si impone la scelta dell'OS..

goldorak
13-07-2008, 10:55
cmq non mi avete spiegato le differenze tra opngl e directx :(


Opengl sono delle librerie grafiche, le dx invece comprendono sia librerie grafiche, che gestione dell'audio, dell'input etc..
Ma se ci limitiamo solo alla parte grafica, opengl e dx si equivalgono.

cdimauro
13-07-2008, 13:33
scusa una cosa quindi vuol dire che in via teorica dalle dx10-11 in poi nn ci saranno piu problemi di compatibilità?..quindi -->maggiore ottimizzazione = minore richiesta HW o cmq sempre innovazione ma non come ora che tocca cambiare una scheda video ogni 6 mesi ( in teoria )..?..
Continuerai a farlo ancora se non vuoi rimanere indietro.
altra domanda quindi il concetto di RT va a farsi benedire?..cioè cn la nuova caratteristica delle dx11 ovvero la standardizzazione del codice per i programmatori non sarà piu necessario andare con il RT?..
La stabilità delle API c'è già a partire dalle DX 10.

Il RayTracing non verrà supportato al momento. In ogni caso i tempi non sono ancora maturi.
e poi ho un'osservazione

si dice anche qui che il "bello" del pc sia quello di evolversi proponendo soluzioni hw sempre piu potenti sempre piu nuove e mondi grafici sempre piu realistici e belli..ma è così bello trovare il proprio hw obsoleto dopo 6 mesi?
Non puoi fermare gli sviluppi della tecnologia.
..io sono a favore del pieno sfruttamento dell'hw..
Questo si verifica già da tempo.
e i miei desideri come videogiocatore sono :

comprare un gioco che funzioni senza mille bug e problemi ( e qui dovrebbe venire incontro il discorso sulle dx10-11 e sul RT )
I bug sono una componente intrinseca del software: dovrai farci l'abitudine.

Se sei capace di sviluppare applicazioni con la CERTEZZA che non vi siano bug, facciamo una società e ti assicuro che diventeremo stramiliardari.
ottimizzazione
Come dicevo, c'è già.
profondità dell'esperienza videoludica ( questo non è una questione tecnica però )
Dipende dal tipo di gioco, dall'hardware e dagli obiettivi del team di sviluppo.
Poi altro problema è che per come è messo ora il mercato sei obbligato a metterti xp ( che va stra bene ) ma fra poco tempo win vista che non è proprio un bel OS..
Vista è un s.o. semplicemente STUPENDO.

XP ha fatto il suo tempo e le DX sono state pensate per Vista.

Quindi se vuoi giocare ai nuovi giochi, dovrai necessariamente passare da Vista.
come consumatore non si ha scelta..se t piace giocare al pc devi cambiare una VGA ogni tot mesi e buttarti su windows..sono queste le cose che come consumatore non mi soddisfano per niente..
Una scelta ce l'hai: non giocare. Nessuno ti obbliga.
Auspico una maggiore standarizazione per il comparto vga quantomeno visto che mi si impone la scelta dell'OS..
Il s.o. non ti viene imposto: sei liberissimo di scegliere quello che più ti aggrada.

Quanto alla standardizzazione, le DX 10 risolvono proprio questo problema.

Obi 2 Kenobi
13-07-2008, 13:50
cmq sia, per chi volesse continuare a giocare coi vecchi giochi anche su vista, vi posto questo articolo di tgm:

http://tgmonline.futuregamer.it/news/luglio2008/20080711161247

Dato che ogni tanto il link fa le beffe, vi posto direttamente il link che cita la notizia:

www.gog.com

=davi=
13-07-2008, 14:17
mi sembra di capire che sei uno sviluppatore..e forse il mio post poteva sembrare frainteso..lungi da me il fermare la tecnologia..ma c'è un limite tra lo sviluppo tecnologico e il mero guadagno..:-)inoltre nn credo che si può sfruttare una scheda video qnd ogni 6 mesi ne esce una nuova..correggimi se sbaglio..inoltre..parlando di vista cosa ti fa dire che è stupendo..io ho solo sentito parlare da gente che ce l ha che ha un sacco di problemi..tant'evvero che microsoft ha annunciato per il 2009 windows 7..ora io non sono sviluppatore/programmatore per te forse vista è stupende per il fatto che ci lavori..ma io me ne distanzio il piu possibile perchè vorrebbe dire :

1 -dover cambiare il mio hw
2 -non mi garantisce la retrocombatibilità con i programmi che uso
3 -se hanno esteso il supporto a xp per un'altro po di anni ci sarà stato un motivo centinaia di milioni di utenti pensano che vista non è ancora un sistema maturo e oltre agli tutenti normali lo pensano anche molte aziende

poi vista non me lo impone nessuno..e tu mi dici .."non giocare"..certo nn si tratta certo di vita o di morte questo è sicuro..ma è il mercato dovrebbe darti delle alternative percorribili non dirti o quello o niente..perchè senno la tanto declamata libertà di pensiero e di mercato sopratutto va a farsi benedire..io ti dico solo che per quanto bello è windows..e mi piace xp da morire..mai un problema mai niente..perchè devo andare su vista..perchè lasciare un sistema stabile leggero per uno pesante dove ora come ora avrei solo grane?e questo cambio me lo si vuole imporre non ho scelte perchè non mi si da alternativa percorribile..
Altra cosa i bug so bene che sono una componente sw ma come mai..e ripeto come mai solo di recente qnd esce un gioco ( con tutti i ritardi del caso ) è il piu delle volte zeppo di bug?..ti ripeto non vogilo critare il lavoro delle persone..ma spesso fanno uscire giochi prima del tempo per fare del mero guadagno..e poi danno la colpa alla pirateria qnd le vendite vanno male..
Ti riassumo quello che forse pensa un utente medio..cmq ti ripeto io non sono d'accordo cn il tuo sostanziale "o cosi o niente"..perchè è un controsenso cn quello che affermi..non c'è progresso dicendo o questo o niente..o meglio c'è il progresso da una parte sola senza possibilità di intervenire..

Cmq su un punto siamo d'accordo -->dx10 maggiore standardizzazione anche se ora come ora..mi mette malissimo cambiare scheda video aggiungere ram etc..anche perchè giochi dx10 only non ne hanno ancora fatti o cmq sono pochi e fortunatamente nn quelli che mi interessano :-)

dovella
13-07-2008, 15:52
Diavolo... è la parola giusta. :asd:

P.S. Scusate per gli orrori grammaticali, ma mi scoccia editare. :p

una sola cosa hai tralasciato prima :D

per il MACinino

Cider

(anche per spore)

Cider (http://www.transgaming.com/products/cider/)is a sophisticated portability engine that allows Windows games to be run on Intel Macs without any modifications to the original game source code. Cider works by directly loading a Windows program into memory on an Intel-Mac and linking it to an optimized version of the Win32 APIs. Games are "wrapped" with the Cider engine and they simply run on the Mac. This means developers have only one code base to maintain while enjoying the flexibility of targeting multiple platforms and, therefore, multiple revenue streams. Cider powered games use the same copy protection, lobbies, game matching and connectivity as the original Windows game. All this means less effort and lower costs. Cider is targeted to game developers and publishers.


però poi questo si traduce (per Mac) in hardware molto piu grasso

per giocare a Spore loro hanno i requisiti di Crysis :D :D :D :D


Spore

Mac req.

* Mac OS X 10.5.3 Leopard
* CPU Intel Core Duo
* 1024 MB RAM
* ATI X1600 or NVidia 7300 GT with 128 MB Video RAM, or Intel Integrated GMA X3100

Not Work PowerPC (G3/G4/G5) (PowerMac). and Tiger

* ATI Radeon
o X1600, X1900, HD 2400, HD 2600
* NVIDIA GeForce
o 7300, 7600, 8600, 8800
* Intel Extreme Graphic
o GMA X3100

Windows Vista Req.

* CPU 2.0 GHz P4
* 768 MB RAM
* GPU 128 MB, support Pixel Shader 2.0

GPU

* Series ATI Radeon
o 9500, 9600, 9800
o X300, X600, X700, X800, X850
o X1300, X1600, X1800, X1900, X1950
o 2400, 2600, 2900,
o 3650, 3850, 3870
* Series NVIDIA GeForce
o FX 5900, FX 5950
o 6200, 6500, 6600, 6800,
o 7200, 7300, 7600, 7800, 7900, 7950
o 8400, 8500, 8600, 8800
* Intel Extreme Graphics
o GMA 950, GMA X3000, GMA X3100


Note

Min. Requirement MAc

CPU CORE DUO
1 GB RAM
And X3100

NO TIGER SUPPORT WHY??? (get a Leopard??? )

Min. Requirement Vista

Intel Pentium 4 2 ghz (year 2002)
Intel GMA 945
and 768 Mb Ram

Work perfect on Windows XP

now
who is fat??

http://i38.tinypic.com/350tdzq.png

cdimauro
13-07-2008, 16:28
mi sembra di capire che sei uno sviluppatore..
Sì, ma da un pezzo ho abbandonato il settore dei videogiochi, anche se tendo a mantenermi un po' informato.
e forse il mio post poteva sembrare frainteso..lungi da me il fermare la tecnologia..ma c'è un limite tra lo sviluppo tecnologico e il mero guadagno..:-)
Il limite lo forniranno la fisica e le tasche dei clienti, rispettivamente. ;)
inoltre nn credo che si può sfruttare una scheda video qnd ogni 6 mesi ne esce una nuova..correggimi se sbaglio..
Sì che si può, se fa parte del target di mercato previsto.
inoltre..parlando di vista cosa ti fa dire che è stupendo..io ho solo sentito parlare da gente che ce l ha che ha un sacco di problemi..tant'evvero che microsoft ha annunciato per il 2009 windows 7..ora io non sono sviluppatore/programmatore per te forse vista è stupende per il fatto che ci lavori..
Che ti posso dire: la mia esperienza è più che positiva, e ti assicuro che non sono l'unico.

Poi il fatto che sia stato annunciato Windows 7 (per il 2010 o 2011, non per il 2009) è cosa normale: c'è sempre un nuovo s.o. a cui lavorare.
ma io me ne distanzio il piu possibile perchè vorrebbe dire :

1 -dover cambiare il mio hw
Allora non cambiare s.o., se non hai abbastanza soldi per aggiornare l'hardware (anche se, comunque, ormai un aggiornamento costa una miseria).
2 -non mi garantisce la retrocombatibilità con i programmi che uso
Questo è colpa principalmente degli sviluppatori che NON seguono le linee guida di MS.

MS, anzi, ha fatto e sta facendo un ottimo lavoro per cercare di migliorare la compatibilità coi programmi scritti coi piedi.
3 -se hanno esteso il supporto a xp per un'altro po di anni ci sarà stato un motivo centinaia di milioni di utenti pensano che vista non è ancora un sistema maturo e oltre agli tutenti normali lo pensano anche molte aziende
Ci sono altrettanti milioni di utenti che sono soddisfatti di Vista.
poi vista non me lo impone nessuno..e tu mi dici .."non giocare"..certo nn si tratta certo di vita o di morte questo è sicuro..ma è il mercato dovrebbe darti delle alternative percorribili non dirti o quello o niente..perchè senno la tanto declamata libertà di pensiero e di mercato sopratutto va a farsi benedire..
Devi chiedere alla software house, allora.
io ti dico solo che per quanto bello è windows..e mi piace xp da morire..mai un problema mai niente..perchè devo andare su vista..perchè lasciare un sistema stabile leggero per uno pesante dove ora come ora avrei solo grane?
La mia opinione è diametralmente opposta alla tua.
e questo cambio me lo si vuole imporre non ho scelte perchè non mi si da alternativa percorribile..
Ma se vuoi giocare, e le software house sviluppano principalmente per Windows, non vedo alternative.

Parla con loro e fagli cambiare idea.

La "colpa" di MS è di offrire loro strumenti di sviluppo MOOOLTO più produttivi. E poiché il tempo è denaro, preferiscono Windows.
Altra cosa i bug so bene che sono una componente sw ma come mai..e ripeto come mai solo di recente qnd esce un gioco ( con tutti i ritardi del caso ) è il piu delle volte zeppo di bug?..ti ripeto non vogilo critare il lavoro delle persone..
Perché la complessità del software è aumentata notevolmente negli ultimi anni.

Crazy Kong è decisamente diverso da Mario Galaxy...
ma spesso fanno uscire giochi prima del tempo per fare del mero guadagno..
Purtroppo a volte capita, causa scadenze. Ma non è la norma.
e poi danno la colpa alla pirateria qnd le vendite vanno male..
Diciamo che è ANCHE colpa della pirateria, ma non bisogna guardare soltanto a questo, visto che la pirateria incide globalmente per il 30% circa (quindi ogni 3 copie, 2 sono originali e una è pirata).
Ti riassumo quello che forse pensa un utente medio..cmq ti ripeto io non sono d'accordo cn il tuo sostanziale "o cosi o niente"..perchè è un controsenso cn quello che affermi..non c'è progresso dicendo o questo o niente..o meglio c'è il progresso da una parte sola senza possibilità di intervenire..
Sono le software house ad avere deciso così.

Tu non puoi dire loro: "sviluppate per Linux", perché la quota di mercato di questo "s.o." è irrisoria.

Loro guardano ai guadagni, e questi glieli può fornire la piattaforma Windows.
Cmq su un punto siamo d'accordo -->dx10 maggiore standardizzazione anche se ora come ora..mi mette malissimo cambiare scheda video aggiungere ram etc..anche perchè giochi dx10 only non ne hanno ancora fatti o cmq sono pochi e fortunatamente nn quelli che mi interessano :-)
Allora aspetta: inutile cambiare soltanto per essere adeguati ai tempi.

Io ho ancora una Radeon 9600Pro, e me la tenga stretta. ;)
una sola cosa hai tralasciato prima :D

per il MACinino

Cider

(anche per spore)
Più che tralasciato, la sconoscevo del tutto. :D
però poi questo si traduce (per Mac) in hardware molto piu grasso

per giocare a Spore loro hanno i requisiti di Crysis :D :D :D :D
Mi pare normale, per quello che fa.

Anzi, va già benissimo se funziona. :p

dovella
13-07-2008, 16:48
cdimauro un ultima cosa :D

WIndows 7 non è postecipato ne anticipato,

per Vista la penso come te e se vieni nella sezione Vista di questo forum ti accorgerai che per il 70% la pensano come noii :D

e Windows 7 in pratica.......... non so come dirtelo

cmq

Forse non tutti lo sanno ma

WEX COSD (Common operating system development) IE fanno Windows.

COSD si occupa del kernel, filesystem, device drivers ecc, WEX fa tutto quello che e’ visibile, dalla taskbar allo start menu a explorer ecc ecc…

WEX e’ diviso in sette gruppi, uno di questi e’ Find & Organize, che controlla explorer, start menu, recycle bin, il property system, l’indexer, il query engine e tutto l’ambaradan che sta attorno.

Nel Wex team abbiamo un grande amico Italiano :D

La beta di Windows 7 sarà visibile ad Ottobre al PDC ed al Winhec poco dopo.

I tempi saranno rispettati al 100% anzi stanno pure in anticipo

hanno rimosso gran parte le piccole imperfezioni di Vista , un maggior affinamento del Kernel ed un megapacco di novità per noi,
si va in una direzione dove nessun altro OS prima ha osato ;D

non sono notizie spazzatura web etc. questa è la pura verità
e non vedo l ora di vedere il PDC


Un ultima cosa

Nessuno tra voi dovrà aggiungere un kb di RAM o altro per passare a Seven !!!
Se il vostro hardware attuale va bene per vista andrà perfettamente per Seven

Stop

=davi=
13-07-2008, 17:49
putroppo (in senso buono) hai ragione se si vuole giocare bisogna appoggiarsi a windows questo è sicuro però a volte sono perplesso..da queste novità a valanga che spesso non sono bene amalgamate.dal fatto che a volte sembra quasi che le novità te le devi beccare per forza pena dover cambiare hobbies o piattaforma..sulla questione meramente economica ti do ragione alla fin fine si va dove si fanno dei guadagni certamente..però apparte la difficoltà di programmazione senza dubbio diversa e notevolmente aumentata ci sono alcune falle ed errori ai quali si potrebbe rimediare prima dell'uscita di un titolo..e recentamente sono un pò deluso dalle ultime uscite..dove cambia solo la grafica lasciando inalterati i contenuti..in certi casi anche la qualità di programmazione si è abbassata (vedi ghotic 3 )...cmq io alla fin fine comprendo il tuo punto di vista tu ci sei passato ( lavorativamente parlando intendo ) e lo sai, magari leggendo queste righe capirai il mio dall'altra parte della barricata..cmq pensando all'aggiornamento in effetti non costa poi molto..però faccio x dire x cambiare scheda video dovrei cambiare alimentatore cmq aggiugnere ram..cioè viene una spesuccia discreta..cmq vedremo le necessità ora va bene così..

domanda:

Qnto detto su windows seven mi sorprende..quindi sembra quasi che vista sia una demo o una prova..rispetto alla vera novità di windows seven..dico sbagliato?..

cmq ci terrei ad essere più informato tecnicamente su vista potete consigliarmi un 3d sul forum o qualche sito?

dovella
13-07-2008, 19:52
putroppo (in senso buono) hai ragione se si vuole giocare bisogna appoggiarsi a windows questo è sicuro però a volte sono perplesso..da queste novità a valanga che spesso non sono bene amalgamate.dal fatto che a volte sembra quasi che le novità te le devi beccare per forza pena dover cambiare hobbies o piattaforma..sulla questione meramente economica ti do ragione alla fin fine si va dove si fanno dei guadagni certamente..però apparte la difficoltà di programmazione senza dubbio diversa e notevolmente aumentata ci sono alcune falle ed errori ai quali si potrebbe rimediare prima dell'uscita di un titolo..e recentamente sono un pò deluso dalle ultime uscite..dove cambia solo la grafica lasciando inalterati i contenuti..in certi casi anche la qualità di programmazione si è abbassata (vedi ghotic 3 )...cmq io alla fin fine comprendo il tuo punto di vista tu ci sei passato ( lavorativamente parlando intendo ) e lo sai, magari leggendo queste righe capirai il mio dall'altra parte della barricata..cmq pensando all'aggiornamento in effetti non costa poi molto..però faccio x dire x cambiare scheda video dovrei cambiare alimentatore cmq aggiugnere ram..cioè viene una spesuccia discreta..cmq vedremo le necessità ora va bene così..

domanda:

Qnto detto su windows seven mi sorprende..quindi sembra quasi che vista sia una demo o una prova..rispetto alla vera novità di windows seven..dico sbagliato?..

cmq ci terrei ad essere più informato tecnicamente su vista potete consigliarmi un 3d sul forum o qualche sito?


Vista è stato all inizio il Cristo di Seven
ovvero colui che va in sacrificio per..
però gia oggi Vista è un sistema operativo straordinario ,
la versione RTM è stata un passaggio fondamentale per godere dei privilegi di domani, ad esempio

a differenza di XP , Vista usa la gpu in user mode e non in kernel mode,
i driver non devono in nessun caso passare dal kernel portando istruzioni alla GPU, ma passano per un API e vanno direttamente nella GPU questo snellisce il kernel e la CPU però inizialmente i driver non esistevano manco da lontano e quello che tu vedevi era un emulazione del kernel ,
hanno fatto un macello inizialmente i vari Nvidia Ati etc, colpa di microsoft anche che non ha fornito in tempo il sistema e le specifiche per poterci lavorare e creare driver.
e per questo anche l audio andava a farsi friggere perchè emulando le istruzioni kernel intasandosi la gpu , la cpu andava in full e visto che l audio non è piu calcolato con Vista da una scheda audio ma dalla CPU , succedeva un macello.
Ora Vista è pronto seriamente al grande pubblico,
Senza sofferenze non si può avere un cambiamento.

It's time

cdimauro
13-07-2008, 21:05
cdimauro un ultima cosa :D

WIndows 7 non è postecipato ne anticipato,
Sì, lo so, e non ho detto diversamente. :cool:
per Vista la penso come te e se vieni nella sezione Vista di questo forum ti accorgerai che per il 70% la pensano come noii :D
Guarda, un amico mi ha passato il link a quella discussione qualche giorno fa, e dopo pochi messaggi ho preferito chiudere la pagina.

Troppi, troppi, davvero troppi troll che spalano letame incondizionatamente contro il "male assoluto" (non sto qui a dirti chi è :D).

Avrei dovuto prendere una settimana di ferie soltanto per rispondere per filo e per segno a tutti i messaggi di questi ciechi fanatici integralisti, ma preferisco spendere meglio il mio tempo. ;)
e Windows 7 in pratica.......... non so come dirtelo

cmq

Forse non tutti lo sanno ma

WEX COSD (Common operating system development) IE fanno Windows.

COSD si occupa del kernel, filesystem, device drivers ecc, WEX fa tutto quello che e’ visibile, dalla taskbar allo start menu a explorer ecc ecc…

WEX e’ diviso in sette gruppi, uno di questi e’ Find & Organize, che controlla explorer, start menu, recycle bin, il property system, l’indexer, il query engine e tutto l’ambaradan che sta attorno.

Nel Wex team abbiamo un grande amico Italiano :D

La beta di Windows 7 sarà visibile ad Ottobre al PDC ed al Winhec poco dopo.

I tempi saranno rispettati al 100% anzi stanno pure in anticipo

hanno rimosso gran parte le piccole imperfezioni di Vista , un maggior affinamento del Kernel ed un megapacco di novità per noi,
si va in una direzione dove nessun altro OS prima ha osato ;D

non sono notizie spazzatura web etc. questa è la pura verità
e non vedo l ora di vedere il PDC
Qualcosa di simile l'avevo letta anch'io, e non può che farmi piacere. :)
Un ultima cosa

Nessuno tra voi dovrà aggiungere un kb di RAM o altro per passare a Seven !!!
Se il vostro hardware attuale va bene per vista andrà perfettamente per Seven

Stop
Esattamente. Ma sta sicuro che troveranno miliardi di scuse per infangarlo. As usual...
putroppo (in senso buono) hai ragione se si vuole giocare bisogna appoggiarsi a windows questo è sicuro però a volte sono perplesso..da queste novità a valanga che spesso non sono bene amalgamate.dal fatto che a volte sembra quasi che le novità te le devi beccare per forza pena dover cambiare hobbies o piattaforma..
Il problema fondamentalmente è che, come avevo detto, non si può fermare il progresso.

Avanza l'hardware e pure il software. Prima o poi ci si deve aggiornare. ;)
sulla questione meramente economica ti do ragione alla fin fine si va dove si fanno dei guadagni certamente..però apparte la difficoltà di programmazione senza dubbio diversa e notevolmente aumentata ci sono alcune falle ed errori ai quali si potrebbe rimediare prima dell'uscita di un titolo..e recentamente sono un pò deluso dalle ultime uscite..dove cambia solo la grafica lasciando inalterati i contenuti..in certi casi anche la qualità di programmazione si è abbassata (vedi ghotic 3 )...
Questo lo rilevo anch'io, ma come ti dicevo è anche dovuto al fatto che i giochi di oggi sono molto, ma molto più complessi di quelli di ieri.
cmq io alla fin fine comprendo il tuo punto di vista tu ci sei passato ( lavorativamente parlando intendo ) e lo sai, magari leggendo queste righe capirai il mio dall'altra parte della barricata..cmq pensando all'aggiornamento in effetti non costa poi molto..però faccio x dire x cambiare scheda video dovrei cambiare alimentatore cmq aggiugnere ram..cioè viene una spesuccia discreta..cmq vedremo le necessità ora va bene così..
Ormai un computer di fascia bassa costa veramente pochissimo. Sono sicuro che troverai il modo di aggiornare senza spendere un capitale. :)
domanda:

Qnto detto su windows seven mi sorprende..quindi sembra quasi che vista sia una demo o una prova..rispetto alla vera novità di windows seven..dico sbagliato?..
No, perché Vista ha avuto una lunga gestazione proprio a causa degli enormi cambiamenti introdotti (che NON sono soltanto la nuova veste grafica, sebbene questa sia soltanto una banale applicazione dei radicali cambiamenti che ha avuto il sottosistema grafico).

Windows 7 è un miglioramento di Vista perché la base partenza è quella, ma senza questa base non ci sarebbe Windows 7. :p
cmq ci terrei ad essere più informato tecnicamente su vista potete consigliarmi un 3d sul forum o qualche sito?
Puoi andare qui nella sezione Windows.
Vista è stato all inizio il Cristo di Seven
ovvero colui che va in sacrificio per..
però gia oggi Vista è un sistema operativo straordinario ,
la versione RTM è stata un passaggio fondamentale per godere dei privilegi di domani, ad esempio
Diciamolo pure: il passaggio a Vista (da XP) è stato anche molto meno traumatico rispetto a quello a XP (da Win 98).

Vista già alla commercializzazione era decisamente più solido e stabile. Questo grazie anche al notevole lavoro di test che è stato fatto (e che ha contribuito in buona misura al suo ritardo).
a differenza di XP , Vista usa la gpu in user mode e non in kernel mode,
i driver non devono in nessun caso passare dal kernel portando istruzioni alla GPU, ma passano per un API e vanno direttamente nella GPU questo snellisce il kernel e la CPU però inizialmente i driver non esistevano manco da lontano e quello che tu vedevi era un emulazione del kernel ,
hanno fatto un macello inizialmente i vari Nvidia Ati etc, colpa di microsoft anche che non ha fornito in tempo il sistema e le specifiche per poterci lavorare e creare driver.
No, quelle esistevano da parecchio tempo.

Sono i produttori di hardware che hanno nicchiato, arrivando in estremo ritardo alla produzione di driver di qualità.
e per questo anche l audio andava a farsi friggere perchè emulando le istruzioni kernel intasandosi la gpu , la cpu andava in full e visto che l audio non è piu calcolato con Vista da una scheda audio ma dalla CPU , succedeva un macello.
Questo è oggettivamente un problema di Vista (anche se la soluzione attuale si comporta discretamente bene) che spero risolvano al più presto.
Ora Vista è pronto seriamente al grande pubblico,
Senza sofferenze non si può avere un cambiamento.

It's time
Concordo. :)

goldorak
13-07-2008, 21:15
Ci mancava solo l'evangelizzazione di Vista anche in questa sezione. :rolleyes:
Vista non e' pronto per il grande pubblico, se lo fosse la Microsoft non starebbe in fretta e in furia sviluppando Windows 7.
Lo sanno anche loro che Vista e' stato un flop sotto tutti i punti di vista, e prima che i vistaboys neghino l'evidenza sappiate che si tratta di dichiarazioni ufficiali Microsoft.
Secondo punto, tutte le migliori di Vista non servono ad un piffero se le applicazioni non ne traggono vantaggio.
Esempio lampante la versione a 64 bit che e' totalmente inutile in quanto il 99,999% del software odierno (non parlo di applicazioni sviluppate 10 anni fa, e neanche 2 anni fa) ma di applicazioni che escono in questi mesi e' ancora a 32 bit (e Vista e' uscito quasi 2 anni fa).
Quando vedro' 1 gioco, o un software applicativo "grande pubblico" a 64 bit mi ricredero' ma fino ad allora Vista e' solo uno specchieto per le allodole.
Anzi e' peggio, e' una piattaforma di advertising per i clienti inserzionisti di Microsoft.

dovella
13-07-2008, 21:28
Ci mancava solo l'evangelizzazione di Vista anche in questa sezione. :rolleyes:
Vista non e' pronto per il grande pubblico, se lo fosse la Microsoft non starebbe in fretta e in furia sviluppando Windows 7.
Lo sanno anche loro che Vista e' stato un flop sotto tutti i punti di vista, e prima che i vistaboys neghino l'evidenza sappiate che si tratta di dichiarazioni ufficiali Microsoft.
Secondo punto, tutte le migliori di Vista non servono ad un piffero se le applicazioni non ne traggono vantaggio.
Esempio lampante la versione a 64 bit che e' totalmente inutile in quanto il 99,999% del software odierno (non parlo di applicazioni sviluppate 10 anni fa, e neanche 2 anni fa) ma di applicazioni che escono in questi mesi e' ancora a 32 bit (e Vista e' uscito quasi 2 anni fa).
Quando vedro' 1 gioco, o un software applicativo "grande pubblico" a 64 bit mi ricredero' ma fino ad allora Vista e' solo uno specchieto per le allodole.
Anzi e' peggio, e' una piattaforma di advertising per i clienti inserzionisti di Microsoft.

non vorrei inquinare questo theard con Vista Evangelist etc.

Se hai problemi con Vista o vuoi ragionare seriamente su qualche punto viene nella sezione dedicata.
Attualmente tra i nuovi sistemi operativi (ed anche i vecchi)
Vista è il migiore.
Poi però devi cominciare a fare il discorso Genuine, hotfix e patch varie.
La blogosfera rema contro Vista la massimo della potenza approfittando del momento iniziale debole, ora non ci sono piu scuse
a breve partiranno degli spot SOLIDI per confermare la potenza del sistema,

Windows 7 non è programmato in fretta, hanno solo capito che un user comune quando ha per troppi anni un sistema con se difficilmente riesce poi ad andare avanti (vedi user XP )

Nel 2001 XP era penoso e chi passava da windows 98 ad XP subiva un trauma mortale,
driver s installavano dopo 40 50 minuti, trasferimento file impossibile
crash vari.
Vista è stato molto piu solido e meno traumatico dal day one.
Non sto qui a convicerti ma ti assicuro che tutto quello che dice la parte del web malata è solo una grossa ed esagerata schiera d incompetenti e sopratutto schierati contro Microsoft.

Vladimiro Bentovich
13-07-2008, 21:28
CPU CORE DUO
1 GB RAM
And X3100



A parte la piccola differenza ram cosa cambia?
La grafica integrata che passa da un modello all'altro?
Con entrambe si avranno prestazione ridicole.
Il processore?
I core duo sono i primi processori intel introdotti all'interno dei mac,ovvio che non avrebbe avuto senso mettere come requisito minimo P4 :asd:

dovella
13-07-2008, 21:50
A parte la piccola differenza ram cosa cambia?
La grafica integrata che passa da un modello all'altro?
Con entrambe si avranno prestazione ridicole.
Il processore?
I core duo sono i primi processori intel introdotti all'interno dei mac,ovvio che non avrebbe avuto senso mettere come requisito minimo P4 :asd:


vedi anche la frequenza del P IV
guarda l infinità di hardware compatibile CPU e GPU
guarda che un PC di 6-7 anni fa ci gioca tranquillamente
Xp e Vista
mica solo Vista?
Guarda che è AMD e Intel.
e poi 256 mb di ram in meno sono sempre 256 mb di ram in meno.

e non sarebbe niente se fosse nativo su OSX,

credo sia meglio chiudere qui la parentesi .

cdimauro
13-07-2008, 22:05
Ci mancava solo l'evangelizzazione di Vista anche in questa sezione. :rolleyes:
L'infaganmento, invece, è sempre ben accetto, vero? :rolleyes:
Vista non e' pronto per il grande pubblico, se lo fosse la Microsoft non starebbe in fretta e in furia sviluppando Windows 7.
Windows 7 era già in sviluppo da prima che Vista fosse commercializzato.

COME SEMPRE, dato che questa è la politica di MS e di qualunque serio produttore di software.
Lo sanno anche loro che Vista e' stato un flop sotto tutti i punti di vista, e prima che i vistaboys neghino l'evidenza sappiate che si tratta di dichiarazioni ufficiali Microsoft.
Se ti riferisci alle dichiarazioni di Ballmer le ho lette, facendo ovviamente a meno dei soliti commenti di siti spudoratamente schierati contro come Punto Informatico et similia, che le estrapolano e stavolgono all'inverosimile pur di dipingere il diavolo più brutto di come lo sia.
Secondo punto, tutte le migliori di Vista non servono ad un piffero se le applicazioni non ne traggono vantaggio.
Certo, e ovviamente è tutta colpa di MS, vero? Perché lei è l'unica produttrice di software al mondo... :rolleyes:
Esempio lampante la versione a 64 bit che e' totalmente inutile in quanto il 99,999% del software odierno (non parlo di applicazioni sviluppate 10 anni fa, e neanche 2 anni fa) ma di applicazioni che escono in questi mesi e' ancora a 32 bit (e Vista e' uscito quasi 2 anni fa).
Tutto il software .NET 2.0 è disponibile in versione 64 bit.
Quando vedro' 1 gioco, o un software applicativo "grande pubblico" a 64 bit mi ricredero' ma fino ad allora Vista e' solo uno specchieto per le allodole.
Far Cry, uscito ANNI FA, è stato il primo gioco a 64 bit ad arrivare poco dopo la commercializzazione di XP Pro x64.
Anzi e' peggio, e' una piattaforma di advertising per i clienti inserzionisti di Microsoft.
Quanto vi pagano a voi fanboy integralisti per spalare sempre merda su MS e sui suoi prodotti? :mc:

Vladimiro Bentovich
13-07-2008, 22:09
vedi anche la frequenza del P IV
guarda l infinità di hardware compatibile CPU e GPU
guarda che un PC di 6-7 anni fa ci gioca tranquillamente
Xp e Vista
mica solo Vista?
Guarda che è AMD e Intel.
e poi 256 mb di ram in meno sono sempre 256 mb di ram in meno.

e non sarebbe niente se fosse nativo su OSX,

credo sia meglio chiudere qui la parentesi .

Ripeto,il P4 non ha paragone data l'introduzione dei processori intel nei mac solo a partire da core due.
Se vuoi far finta di non capire continua pure :asd:
Idem,le infinità di schede grafiche non sono state adottate dalle apple quindi non esistono sui mac,che senso ha metterle tra i requisiti?
Guardati i requisiti di WOW.
Ti lamenti della disinformazione su vista,che in effetti esiste.
E poi fai lo stesso con la apple. :)

Obi 2 Kenobi
13-07-2008, 22:37
Vi posto i link di wikipedia su windows xp, xp 64bit, vista e windows 7:

http://it.wikipedia.org/wiki/Windows_XP

http://it.wikipedia.org/wiki/Windows_XP_Professional_x64_Edition

http://it.wikipedia.org/wiki/Windows_Vista

http://it.wikipedia.org/wiki/Windows_7

Fa ridere leggere alcune cose su windows xp e su xp a 64 bit, perchè vanno in contrasto su alcune critiche fatte a vista :asd:

cdimauro
13-07-2008, 22:42
Cosa vorresti puntualizzare? Se elenchi semplicemente dei link non ottieni nulla...

Obi 2 Kenobi
13-07-2008, 23:07
si scusami! c'è molta disinformazione per quanto riguarda i nuovi sistemi operativi. Ho voluto mettere quei link, semplicemente per far conoscere meglio i nuovi e i vecchi (anche se credo che per i vecchi non ce n'era bisogno) sistemi operativi.

Ciao :P

giova22
13-07-2008, 23:19
Io direi di tornare in tema. Ci sono altri posti per discutere di SO, e farlo nella maniera che ho letto :( (non tutti chiaramente).

Non sono programmatore di professione, ma bazzico intorno a C, Assembler, java e simili....Se c'è una cosa che ho notato però è che ultimamente si guarda parecchio la facilità di programmazione. Prendiamo per esempio il JAva o il .NET.

Dal punto di vista della velocità non sono dei fulmini (anche se nelle ultime versioni siamo quasi alla velocità di un classico c/C++ compilato normalmente), ma offrono una semplicità estrema di programmazione (non parliamo di python), e per questo hanno incontrato il favore di molte persone.

Io stesso dovevo fare tempo fa un programmino, e l'ho fatto in c# + .NET in quanto ho fatto molto prima che stare a scriverlo in C++ (era un programma per windows).

Quindi se davvero questo Ray-tracking sarà relativamente facile da programmare / implementare allora penso proprio che non faremo fatica a vederlo usato. Sempre IMHO non prima di 4-5 anni però

dovella
14-07-2008, 05:36
Ripeto,il P4 non ha paragone data l'introduzione dei processori intel nei mac solo a partire da core due.
Se vuoi far finta di non capire continua pure :asd:
Idem,le infinità di schede grafiche non sono state adottate dalle apple quindi non esistono sui mac,che senso ha metterle tra i requisiti?
Guardati i requisiti di WOW.
Ti lamenti della disinformazione su vista,che in effetti esiste.
E poi fai lo stesso con la apple. :)


Forse non capisci tu,
Nel mio mondo questo si chiama LIMITE!

chiuso OT. e PS. voglio cmq vedere come funziona questa EMULAZIONE.


Vi posto i link di wikipedia su windows xp, xp 64bit, vista e windows 7:

http://it.wikipedia.org/wiki/Windows_XP

http://it.wikipedia.org/wiki/Windows_XP_Professional_x64_Edition

http://it.wikipedia.org/wiki/Windows_Vista

http://it.wikipedia.org/wiki/Windows_7

Fa ridere leggere alcune cose su windows xp e su xp a 64 bit, perchè vanno in contrasto su alcune critiche fatte a vista :asd:


Mi piacerebbe sapere chi ha scritto su WIkipedia l'articolo per Win 7.

il 50% corrisponde al vero, l'altro 50% sono cagate.

goldorak
14-07-2008, 07:08
L'infaganmento, invece, è sempre ben accetto, vero? :rolleyes:


Criticare non vuol dire infangare. Guarda manca a farlo apposta oggi ce' un articolo interessante su arstechnica (che non si puo' proprio considerare un covo di fanboys in un senso o nell'altro) che ha per oggetto "come presentare Vista in una luce positiva". Non limitarti a leggere l'articolo, leggi anche le risposte nel thread corrispondente. E capirai perche' Vista e' stato un flop.


Windows 7 era già in sviluppo da prima che Vista fosse commercializzato.


Cosi' come Longhorn poi diventato Vista era in sviluppo da prima che venisse commercializzato XP. Niente di nuovo sotto il sole.
Quello che colpisce invece e' che la Microsoft in tutte le conferenze e dichiarazioni ufficiali dica di aspettare windows 7 come se Vista non esistesse.
E la stessa situazione del win me.
Un so di passaggio a cui non frega niente a nessuno e che la stessa Microsoft ammette fosse qualitativamente sotto tono, tanto per usare un eufemismo.


COME SEMPRE, dato che questa è la politica di MS e di qualunque serio produttore di software.


Assolutamente no.
La politica di Microsoft fino all'uscita di XP aveva un senso. Oggi invece no.
Devono ripensare seriamente cosa significa un so consumer e un so aziendale, ovviamente senza ricadere negli errori del passato.


Se ti riferisci alle dichiarazioni di Ballmer le ho lette, facendo ovviamente a meno dei soliti commenti di siti spudoratamente schierati contro come Punto Informatico et similia, che le estrapolano e stavolgono all'inverosimile pur di dipingere il diavolo più brutto di come lo sia.


Non solo su punto informatico suvvia, ci sono altri siti seri in cui si analizza proprio la strada futura che Microsoft intraprendera' per contrastare Google.
E quella strada passa per far diventare windows una piattaforma per l'advertising, in cui il concetto stesso di application platform passa in secondo piano.



Certo, e ovviamente è tutta colpa di MS, vero? Perché lei è l'unica produttrice di software al mondo... :rolleyes:


Beh visto che qui critichiamo l'ecosistema windows, si direi che e' colpa di Microsoft che non sa quello che vuole. Non riesce a conciliare due esigenze agli antipodi e questo le sta creando molti problemi, sia col grande pubblico che con le aziende.



Tutto il software .NET 2.0 è disponibile in versione 64 bit.


Mentre tutto il software applicativo e' a 32 bit.


Far Cry, uscito ANNI FA, è stato il primo gioco a 64 bit ad arrivare poco dopo la commercializzazione di XP Pro x64.


FC usci' a 32 bit e poi dopo anni per questioni di marketing fecero uscire una patch per abilitare i 64 bit. Un esperimento piu' unico che raro.



Quanto vi pagano a voi fanboy integralisti per spalare sempre merda su MS e sui suoi prodotti? :mc:

E quanto vi pagano a voi evanglizzatori della domenica per promuovere Svista ? :mc:

cdimauro
14-07-2008, 07:36
Criticare non vuol dire infangare. Guarda manca a farlo apposta oggi ce' un articolo interessante su arstechnica (che non si puo' proprio considerare un covo di fanboys in un senso o nell'altro) che ha per oggetto "come presentare Vista in una luce positiva". Non limitarti a leggere l'articolo, leggi anche le risposte nel thread corrispondente. E capirai perche' Vista e' stato un flop.
Nemmeno mi scomodo a leggerlo: non è la prima volta che Ars scrive articoli di questa pasta (vedi gli ultimi sull'invito al passaggio da Vista a OS X).

Hanno sempre avuto una predilezione per MacOS e, in misura minore, per i sistemi Unix-like.

Se poi t'interessano i commenti, vatti a leggere quelli dell'apposito thread con le statistiche di gradimento su Vista: valgono tanto quelli di Ars...
Cosi' come Longhorn poi diventato Vista era in sviluppo da prima che venisse commercializzato XP. Niente di nuovo sotto il sole.
Quello che colpisce invece e' che la Microsoft in tutte le conferenze e dichiarazioni ufficiali dica di aspettare windows 7 come se Vista non esistesse.
E la stessa situazione del win me.
Un so di passaggio a cui non frega niente a nessuno e che la stessa Microsoft ammette fosse qualitativamente sotto tono, tanto per usare un eufemismo.
Questo è frutto delle mistificazioni di cui parlavo prima, dove le dichiarazioni vengono prese, estrapolate e "condite" ad arte per costruire una realtà che non esiste.
Assolutamente no.
La politica di Microsoft fino all'uscita di XP aveva un senso. Oggi invece no.
Devono ripensare seriamente cosa significa un so consumer e un so aziendale, ovviamente senza ricadere negli errori del passato.
Quindi possono benissimo continuare su questa strada...
Non solo su punto informatico suvvia, ci sono altri siti seri in cui si analizza proprio la strada futura che Microsoft intraprendera' per contrastare Google.
E quella strada passa per far diventare windows una piattaforma per l'advertising, in cui il concetto stesso di application platform passa in secondo piano.
Il mercato cambia e giustamente MS diversifica la sua offerta.

Da anni si parla di un s.o. "made in Google", proprio per gli stessi motivi.
Beh visto che qui critichiamo l'ecosistema windows, si direi che e' colpa di Microsoft che non sa quello che vuole. Non riesce a conciliare due esigenze agli antipodi e questo le sta creando molti problemi, sia col grande pubblico che con le aziende.
Veramente MS da tempo offre strumenti per tirare fuori applicazioni a 64 bit.

Se poi alle software house scegliere "Compila per x64" e fornire quindi 2 versioni delle loro applicazioni scoccia (perché è sufficiente una banale ricompilazione), non può mica costringerle con la pistola a farlo...
Mentre tutto il software applicativo e' a 32 bit.
Falso. Altro esempio: Cinema4D è disponibile da tempo in formato x64. Idem per MySQL, POVRay, 7-Zip, ecc. ecc.

Tra l'altro esistono applicazioni realizzate interamente in .NET, e che quindi sono... software applicativo a tutti gli effetti.
FC usci' a 32 bit e poi dopo anni per questioni di marketing fecero uscire una patch per abilitare i 64 bit. Un esperimento piu' unico che raro.
Non è l'unico.
E quanto vi pagano a voi evanglizzatori della domenica per promuovere Svista ? :mc:
Per me, visto che sono un informatico, esiste il software: non faccio differenza fra open & closed, gratuito a pagamento.

Ogni software ha pregi e difetti, e in base al problema da risolvere scelgo quello "migliore".

Adesso mi spieghi il perché di questa tua frase di prima:

Anzi e' peggio, e' una piattaforma di advertising per i clienti inserzionisti di Microsoft.

Nel contesto della discussione, caro il mio "detrattore a priori".

Obi 2 Kenobi
14-07-2008, 07:49
Forse non capisci tu,
Nel mio mondo questo si chiama LIMITE!

chiuso OT. e PS. voglio cmq vedere come funziona questa EMULAZIONE.





Mi piacerebbe sapere chi ha scritto su WIkipedia l'articolo per Win 7.

il 50% corrisponde al vero, l'altro 50% sono cagate.

spiega, possibilmente con delle fonti (possibilmente in italiano), qual'è il 50% vero e qual'è il 50% falso. Così capisco anch'io ^^

grazie ^^

dovella
14-07-2008, 08:52
spiega, possibilmente con delle fonti (possibilmente in italiano), qual'è il 50% vero e qual'è il 50% falso. Così capisco anch'io ^^

grazie ^^

La fonte sono io e può bastare.

goldorak
14-07-2008, 09:01
La fonte sono io e può bastare.

Dillo chiaramente se lavori alla Microsoft e con quale titolo, cosi sapremo in che considerazione tenere le tue affermazioni.
Altrimenti le tue dichiarazioni valgono ne' piu' ne' meno quanto quelle scritte su wikipedia.

dovella
14-07-2008, 09:42
Dillo chiaramente se lavori alla Microsoft e con quale titolo, cosi sapremo in che considerazione tenere le tue affermazioni.
Altrimenti le tue dichiarazioni valgono ne' piu' ne' meno quanto quelle scritte su wikipedia.

NO

se rileggi bene quando ho parlato di Windows 7 capirai.
punto.

Obi 2 Kenobi
14-07-2008, 11:24
La fonte sono io e può bastare.

bhe sappi che non sei molto attendibile come fonte :asd:

cdimauro
14-07-2008, 13:06
spiega, possibilmente con delle fonti (possibilmente in italiano), qual'è il 50% vero e qual'è il 50% falso. Così capisco anch'io ^^

grazie ^^
Dillo chiaramente se lavori alla Microsoft e con quale titolo, cosi sapremo in che considerazione tenere le tue affermazioni.
Altrimenti le tue dichiarazioni valgono ne' piu' ne' meno quanto quelle scritte su wikipedia.
bhe sappi che non sei molto attendibile come fonte :asd:
Il problema, infatti, sta proprio nelle fonti. Wikipedia utilizza pesantemente il concetto di "verificabilità" per dare "consistenza" e "validità" alle informazioni che riporta, e per far questo è di fondamentale importanza che tali informazioni siano corredate riccamente di citazioni che siano immediatamente (o, comunque, molto facilmente e velocemente) raggiungibili e consultabili.

Questo principio è del tutto disatteso dalla paginetta su Windows 7, che riporta soltanto DUE citazioni, fra l'altro su informazioni di pubblico dominio da tempo e arcinote.

E tutto il resto? NESSUNA CITAZIONE. E senza citazioni, hanno valore pari a ZERO.

Per maggior informazioni: http://it.wikipedia.org/wiki/Wikipedia:Cinque_pilastri e, in particolare, http://it.wikipedia.org/wiki/Wikipedia:Fonti_attendibili

Buona lettura. :O

dovella
14-07-2008, 13:23
Il problema, infatti, sta proprio nelle fonti. Wikipedia utilizza pesantemente il concetto di "verificabilità" per dare "consistenza" e "validità" alle informazioni che riporta, e per far questo è di fondamentale importanza che tali informazioni siano corredate riccamente di citazioni che siano immediatamente (o, comunque, molto facilmente e velocemente) raggiungibili e consultabili.

Questo principio è del tutto disatteso dalla paginetta su Windows 7, che riporta soltanto DUE citazioni, fra l'altro su informazioni di pubblico dominio da tempo e arcinote.

E tutto il resto? NESSUNA CITAZIONE. E senza citazioni, hanno valore pari a ZERO.

Per maggior informazioni: http://it.wikipedia.org/wiki/Wikipedia:Cinque_pilastri e, in particolare, http://it.wikipedia.org/wiki/Wikipedia:Fonti_attendibili

Buona lettura. :O

:) ben detto friends!!!!!

Donbabbeo
14-07-2008, 13:52
A tutti: andate a parlare di windows, mac e compagnia bella in altri topic, visto che qua non c'entrano nulla, evitiamo di far chiudere sto topic...

Io direi di tornare in tema. Ci sono altri posti per discutere di SO, e farlo nella maniera che ho letto :( (non tutti chiaramente).

Non sono programmatore di professione, ma bazzico intorno a C, Assembler, java e simili....Se c'è una cosa che ho notato però è che ultimamente si guarda parecchio la facilità di programmazione. Prendiamo per esempio il JAva o il .NET.

Dal punto di vista della velocità non sono dei fulmini (anche se nelle ultime versioni siamo quasi alla velocità di un classico c/C++ compilato normalmente), ma offrono una semplicità estrema di programmazione (non parliamo di python), e per questo hanno incontrato il favore di molte persone.

Io stesso dovevo fare tempo fa un programmino, e l'ho fatto in c# + .NET in quanto ho fatto molto prima che stare a scriverlo in C++ (era un programma per windows).

Quindi se davvero questo Ray-tracking sarà relativamente facile da programmare / implementare allora penso proprio che non faremo fatica a vederlo usato. Sempre IMHO non prima di 4-5 anni però

Vero, non ci avevo affatto pensato al discorso diretto tra la semplicità e la diffusione :D

PS: ray-TRACING, non TRACKING :O

giova22
14-07-2008, 14:04
Vero, non ci avevo affatto pensato al discorso diretto tra la semplicità e la diffusione :D

PS: ray-TRACING, non TRACKING :O

Il fatto che una tecnologia sia più semplice da usare è indubbiamente un vantaggio enorme. Quelli che ti ho fatto sono solo piccoli esempi, ma anche nel mondo lavorativo (io ti posso parlare di quello informatico/elettronico) spesso e volentieri (non sempre ovvio), la soluzione più semplice (=> più veloce da fare) è spesso preferita a quella più performante/ottimale

cdimauro
14-07-2008, 14:07
Anche perché non sta scritto da nessuna parte che una soluzione debba essere PER FORZA anche performante. A meno che non sia definito chiaro e tondo nei REQUISITI del problema. :O :D

P.S. Vedi avatar. :cool:

cdimauro
14-07-2008, 14:45
Questa http://www.hwupgrade.it/news/software/la-fine-di-windows-xp-parola-a-microsoft_25973.html capita a fagiolo:

Dal video precedente, oltre ad alcune precisazioni, emergono anche alcuni interessanti particolari in merito all'adozione di Windows Vista da parte del pubblico. In estrema sintesi, Microsoft si dice soddisfatta dei risultati ottenuti e afferma, citando anche alcune indagini, che al momento l'utenza consumer chiede Windows Vista, quindi, è giunto il momento di lasciarsi alle spalle Windows XP.

Con buona pace di Punto Informatico, e dei vari troll che affermano il contrario (parlo in generale, ovviamente). ;)

goldorak
14-07-2008, 14:49
Questa http://www.hwupgrade.it/news/software/la-fine-di-windows-xp-parola-a-microsoft_25973.html capita a fagiolo:

Dal video precedente, oltre ad alcune precisazioni, emergono anche alcuni interessanti particolari in merito all'adozione di Windows Vista da parte del pubblico. In estrema sintesi, Microsoft si dice soddisfatta dei risultati ottenuti e afferma, citando anche alcune indagini, che al momento l'utenza consumer chiede Windows Vista, quindi, è giunto il momento di lasciarsi alle spalle Windows XP.

Con buona pace di Punto Informatico, e dei vari troll che affermano il contrario (parlo in generale, ovviamente). ;)


Cdimauro ti facevo piu' serio.
Lo sai vero che XP non e' piu' in vendita (ad eccezione di alcuni casi particolari) e' quindi normale che le vendite di Vista non possano che aumentare.
Considera' altresi' che un downgrade di Vista a XP viene considerato come una vendita di una licenza Vista e il cerchio si chiude.
Da qui a dire che la consumer statisfaction di Vista e' alle stelle ce ne corre di acqua sotto i ponti. ;)

cdimauro
14-07-2008, 14:55
Cdimauro ti facevo piu' serio.
Lo sai vero che XP non e' piu' in vendita (ad eccezione di alcuni casi particolari) e' quindi normale che le vendite di Vista non possano che aumentare.
Il blocco delle vendite di XP s'è verificato di recente, e il breve lasso di tempo non è tale da giustificare la vendita di più di cento milioni di licenze di Vista.
Considera' altresi' che un downgrade di Vista a XP viene considerato come una vendita di una licenza Vista e il cerchio si chiude.
Idem come sopra. Inoltre si verifica soltanto le licenze di Vista più costose che sono notoriamente le meno acquistate / diffuse.

Quindi sì, sono abbastanza serio. :O
Da qui a dire che la consumer statisfaction di Vista e' alle stelle ce ne corre di acqua sotto i ponti. ;)
Per quella c'è l'indagine di MS, e se poi ti facessi un giretto nella sezione Windows vedrai che l'utenza di questo forum, che è abbastanza tecnica e tutt'altro che generosa specialmente versoi prodotti MS, s'è espressa nettamente in favore del nuovo arrivato. :cool:

dovella
14-07-2008, 15:18
Cdimauro ti facevo piu' serio.
Lo sai vero che XP non e' piu' in vendita (ad eccezione di alcuni casi particolari) e' quindi normale che le vendite di Vista non possano che aumentare.
Considera' altresi' che un downgrade di Vista a XP viene considerato come una vendita di una licenza Vista e il cerchio si chiude.
Da qui a dire che la consumer statisfaction di Vista e' alle stelle ce ne corre di acqua sotto i ponti. ;)

perchè fai un affermazione simile ?

Informati sui fatti (http://www.pcworld.com/article/147966/new_survey_vista_cleans_mac_osxs_clock.html)

il +355% di Vista va da Giugno 2007 a Giugno 2008 Aka anno fiscale!!

Xp non e piu invendita dal 30 e non c'azzecca niente con le vendite di XP che cmq continua nei dispositivi UMPC &co.

AnonimoVeneziano
14-07-2008, 23:23
Beh, è vero che XP non è più in vendita dal 30 solo, ma praticamente tutte le grandi distribuzioni hanno adottato Vista quasi subito appena è uscito .

L'utente medio non si fa molti problemi se sul PC c'è Vista o XP . Si piglia il portatile/desktop e quello che c'è c'è ... e in genere c'è Vista.

Quindi al di là di tutto io credo che la maggior parte delle persone sia soddisfatta di Vista e che molti di quelli che parlano male siano trascinati dalla massa o perchè hanno avuto esperienze negative con alcuni applicativi che a loro servivano e che non hanno funzionato bene come su XP , però nonostante tutto ritengo queste statistiche di vendita di Vista un po' inutili e poco significative. E' ovvio che quando (quasi) tutti i produttori di PC montano Vista di default la diffusione di Vista va alle stelle.

Ciao

cdimauro
15-07-2008, 07:50
E' simile alla situazione che si creò all'uscità di XP, e prima ancora di Windows 98.

Comunque una misura, per quanto limitata, del gradimento di Vista si trova nel thread di cui parlavamo prima. Se consideriamo che si tratta dell'opinione di utenti di questo forum, che sono particolarmente pignoli e pronti a piantare chiodi al minimo problema, direi che Vista sia andato ben oltre le più rosee aspettative di MS. ;)

AnonimoVeneziano
15-07-2008, 09:12
E' simile alla situazione che si creò all'uscità di XP, e prima ancora di Windows 98.

Comunque una misura, per quanto limitata, del gradimento di Vista si trova nel thread di cui parlavamo prima. Se consideriamo che si tratta dell'opinione di utenti di questo forum, che sono particolarmente pignoli e pronti a piantare chiodi al minimo problema, direi che Vista sia andato ben oltre le più rosee aspettative di MS. ;)

Beh, però è un thread nella sezione "Vista" dove in genere c'è una concentrazione di persone che sono soddisfatte del nuovo sistema :D

Uno a cui vista non piace e che è tornato a XP dubito vada a fare un giro in quella sezione.

Anche in questa sezione c'è un sondaggio a riguardo e il risultato è ribaltato nonostante le DX10.

Ciò non toglie che Vista , per me, è un buon SO e la prossima volta che formatterò XP probabilmente lo soppianterò con Vista Business 64 bit regolarmente detenuto :D

Ciao

dovella
23-07-2008, 10:06
Emergono altri dettagli per le DX 11

* Full support (including all DX11 hardware features) on Windows Vista as well as future versions of Windows ( e gia si sapeva)
* Compatibility with DirectX 10 and 10.1 hardware, as well as support for new DirectX 11 hardware (questa mi piace)
* New compute shader technology that lays the groundwork for the GPU to be used for more than just 3D graphics, so that developers can take advantage of the graphics card as a parallel processor
* Multi-threaded resource handling that will allow games to better take advantage of multi-core machines
* Support for tessellation, which blurs the line between super high quality pre-rendered scenes and scenes rendered in real-time, allowing game developers to refine models to be smoother and more attractive when seen up close

Link (http://www.shacknews.com/onearticle.x/53810)

News HWUp (http://www.hwupgrade.it/news/videogiochi/microsoft-rilascia-i-primi-dettagli-sulle-directx-11_26066.html)

arxangel
23-07-2008, 12:15
Emergono altri dettagli per le DX 11

* Full support (including all DX11 hardware features) on Windows Vista as well as future versions of Windows ( e gia si sapeva)
* Compatibility with DirectX 10 and 10.1 hardware, as well as support for new DirectX 11 hardware (questa mi piace)
* New compute shader technology that lays the groundwork for the GPU to be used for more than just 3D graphics, so that developers can take advantage of the graphics card as a parallel processor
* Multi-threaded resource handling that will allow games to better take advantage of multi-core machines
* Support for tessellation, which blurs the line between super high quality pre-rendered scenes and scenes rendered in real-time, allowing game developers to refine models to be smoother and more attractive when seen up close

Link (http://www.shacknews.com/onearticle.x/53810)

News HWUp (http://www.hwupgrade.it/news/videogiochi/microsoft-rilascia-i-primi-dettagli-sulle-directx-11_26066.html)
Niente Ray tracing quindi?

HostFat
23-07-2008, 12:21
Quanto annunciato in questa occasione da Microsoft non è da considerarsi il panorama completo delle novità apportate con DirectX 11. Il colosso di Redmond, infatti, rivelerà in futuro altri dettagli sulle nuove librerie grafiche.Non si ha ancora conferma su nulla.

dovella
30-07-2008, 13:48
Niente Ray tracing quindi?

scusa ma secondo te

Support for tessellation che cos è ?? non è raytracing? o mi sto arrugginendo io?

cmq

Link (http://blogs.msdn.com/ptaylor/archive/2008/07/28/gamefest-2008-and-the-directx-11-announcement.aspx)


The good news:

DirectX 11 will be available on both Vista and Windows7. It is good to hear DirectX 11 will not be limited to Windows 7.

The better news:

DirectX 11 will have better compatibility with DirectX 10 hardware than most expected. What does that mean? Yes, there is some confusion over the "11 running on 10 hw" part of the announcement.

There are parts of the new API that are hardware independent, those can indeed run downlevel. The mult-threaded resource handling, for instance, can be enabled to run on DirectX 10 class hardware if the IHVs ( ATI, Intel, nVidia ) update their DirectX 10 drivers. Think of that part of it as "11 on 10".

Then there are parts of the new API that do require new hardware support and will only run on DX11 class hardware. The hardware tesselator and Shader Model 5.0 are examples of those parts.

The best news:

This makes it clear that Microsoft has not "forgotten" PC gaming; which some critics seem to think. Which is a very good thing.

The "stuff not told yet" news:

There are a couple of things for developers not disclosed in these releases, and when the DirectX 11 SDK comes out I think developers will be pleasantly surprised.


in pratica non solo le dx 11 saranno pienamente compatibili con Vista , ma saranno compatibili anche con il nostro hardware DX 10 :D :D

goldorak
30-07-2008, 14:21
DirectX 11 will have better compatibility with DirectX 10 hardware than most expected. What does that mean? Yes, there is some confusion over the "11 running on 10 hw" part of the announcement.

[cut]

Then there are parts of the new API that do require new hardware support and will only run on DX11 class hardware. The hardware tesselator and Shader Model 5.0 are examples of those parts.

The best news:

This makes it clear that Microsoft has not "forgotten" PC gaming; which some critics seem to think. Which is a very good thing.

The "stuff not told yet" news:

There are a couple of things for developers not disclosed in these releases, and when the DirectX 11 SDK comes out I think developers will be pleasantly surprised.

in pratica non solo le dx 11 saranno pienamente compatibili con Vista ,ma saranno compatibili anche con il nostro hardware DX 10 :D :D

Ma perche' ti ostini a dire cose non vere ?
Cosa non ti e' chiaro di questa frase :


Then there are parts of the new API that do require new hardware support and will only run on DX11 class hardware. The hardware tesselator and Shader Model 5.0 are examples of those parts.

lowenz
30-07-2008, 15:36
In principio era il caos. Poi vennero le Glide che diventarono IL punto di riferimento.
Beh e PoweVR? :stordita: :p

cdimauro
30-07-2008, 15:38
Faceva parte del caos, appunto. :D

L'ordine arrivò con 3DFx e le Glide. :cool:

dovella
30-07-2008, 15:39
Ma perche' ti ostini a dire cose non vere ?
Cosa non ti e' chiaro di questa frase :

Ci sono parti della nuova API che sono hardware indipendenti, quelle effettivamente in grado di eseguire downlevel. La mult-threaded gestione delle risorse, ad esempio, può essere abilitato per funzionare su DirectX 10 classe se l'hardware IHVs (ATI, Intel, nVidia) di aggiornare le DirectX 10 conducenti. Pensare che parte di essa come "11 a 10".

Poi ci sono le componenti della nuova API che richiedono il supporto di nuovo hardware e viene eseguito solo su hardware DX11 classe. Tesselator l'hardware e Shader Model 5,0 sono esempi di quelle parti.

appleroof
30-07-2008, 16:59
scusa ma secondo te

Support for tessellation che cos è ?? non è raytracing? o mi sto arrugginendo io?

cmq

cut

la tassellation non c'entra nulla con il ray-tracing

poi, qualcuno sostiene che non ci sarà ray-tracing con le dx11 (non so se già postato)

http://news.softpedia.com/news/Bad-News-for-Intel-DirectX-11-Doesn-039-t-Do-Ray-Tracing-89677.shtml

lowenz
31-07-2008, 08:19
Faceva parte del caos, appunto. :D

L'ordine arrivò con 3DFx e le Glide. :cool:
Chiamalo caos :O

http://www.unreal.com/press/powervr_pr.html

Poi invece è diventato il motore di riferimento per le Glide :p

Mamma mia quando rivedo quel sito con la grafica del '98, che ricordi :cry:

cdimauro
31-07-2008, 09:29
Lo chiamo caos perché all'epoca ogni produttore proponeva le proprie API (ovviamente diverse, e anche molto, dalle dalle altre).

3DFx, imponendosi, portò le Glide a livello di standard.

Fire Hurricane
31-07-2008, 09:40
l'aumento di quanto dovrebbe essere ?

perchè sicneramente io ne ho abbastanza di queste libreria del cavolo che non sanno amnco far funzionare un videogioco decentamente.

fede086
31-07-2008, 12:29
* Compatibility with DirectX 10 and 10.1 hardware, as well as support for new DirectX 11 hardware
Vuol dire che con la mia 9600GT,che supporta le DirectX 10,potrò usare le nuove DirectX?

goldorak
31-07-2008, 12:34
Vuol dire che con la mia 9600GT,che supporta le DirectX 10,potrò usare le nuove DirectX?


Vuol dire che alcune funzionalita' delle dx11 saranno retrocompatibili con le dx10/dx10.1. Ma se uno vuole TUTTE le funzionalita' delle dx11 allora ci vorra' una scheda video dx 11. Ad esempio il tessellator e il shader model 5 saranno disponibili solo su schede dx 11.
Chi ha hardware dx10/10.1 si attacca al tram.

Quindi le dx11 non sono retrocompatibili al 100% con le dx10/10.1.

Ecco nello specifico (mi chiedo poi perche' le cose vengono postate e la gente non le legge :rolleyes:) :


Then there are parts of the new API that do require new hardware support and will only run on DX11 class hardware.
The hardware tesselator and Shader Model 5.0 are examples of those parts.

fede086
31-07-2008, 12:44
vabbè stai calmo,se non volevi ripondermi non eri obbligato a farlo..

goldorak
31-07-2008, 12:48
vabbè stai calmo,se non volevi ripondermi non eri obbligato a farlo..

Come vedi ti ho risposto.
Pero' tengono a sottolineare che leggere non le ultime 10 pagine, ma almeno gli ultimi 3-4 interventi per sapere di cosa si parla non sarebbe male visto tra l'altro che cera gia' la risposta alla tua domanda.

fede086
31-07-2008, 12:54
Come vedi ti ho risposto.
Pero' tengono a sottolineare che leggere non le ultime 10 pagine, ma almeno gli ultimi 3-4 interventi per sapere di cosa si parla non sarebbe male visto tra l'altro che cera gia' la risposta alla tua domanda.
E io "tengo" a precisare che non eri obbligato a rispondermi se dopo dovevi fare il sarcastico. Se fossi stato in grado di tradurre quello che c'era scritto 4 post sopra di certo non avrei posto quella domanda!basta cosi e grazie lo stesso per la risposta!

dovella
31-07-2008, 17:28
altre news (http://www.tgdaily.com/content/view/38660/98/)

Last week, Microsoft held its annual XNA Gamefest developers conference. During the conference, Microsoft announced major changes for its Games for Windows Live service. Also, the company announced DirectX 11, which is considered to be key API for next generation of PC and console games. We got the opportunity to chat with Microsoft’s Windows gaming guy about these changes and how they will affect the platform and gamers. And we learned that DX11 is perhaps the DX11 that should have been the DX that was released with Windows Vista.

Fire Hurricane
31-07-2008, 20:16
quando escono di preciso ?

appleroof
31-07-2008, 20:21
quando escono di preciso ?

a sentire i rumors, tra la fine dell'anno prox e l'inizio del 2010

Obi 2 Kenobi
31-07-2008, 22:55
quindi finalmente vedramo questo raytracing?
Dovella, mi potresti gentilmente tradurre quello che hai postato?

Custode
01-08-2008, 10:00
http://www.pcgameshardware.com/aid,654068/News/Raytraced_games_in_2_to_3_years_says_Intel/


Brevissima traduzione del testo alla meno peggio -leggete di persona così non prendete cantonate :)-:

La techdemo di Quake 4 vista in azione è molto grezza e non perfetta dal punto di vista visivo: è stata assemblata alla meno peggio per mostrare le basi della tecnologia, comunque tutte presenti. Un demo completo avrebbe mostrato differenze più significative all'occhio.

Ci sono alcuni approcci individuali nel settore scientifico che mostrano come gli algoritmi Raytracing scalino molto bene col numero di core presenti. Credo che nel giro di 2 o 3 anni inizierà a vedersi qualcosa, ma la migrazione ad un nuovo modello di programmazione richiederà anni: siamo ancora ad un livello molto primitivo.

Obi 2 Kenobi
01-08-2008, 11:08
balbefish ruleZ? :asd:

Custode
01-08-2008, 11:45
balbefish ruleZ? :asd:

No, Custofish ruleZ! ^___^

dovella
05-08-2008, 22:21
scusate e

You kind of give the graphic card a low res model and tell it to make the edges round... to break it down into very simple words. The graphic card can then decide based upon the z-value how many new polygons are going to be created. This happens during each frame, which means that you can really smoothly do the LODs...

@Dovella: tesellation is also useful for raytracing.

Tesellation has been in the discussions for quite a few DX versions now... it's cool to finally have it in hardware.


(questa è la risposta di un developers)

II ARROWS
06-08-2008, 02:33
Per quanto riguarda "avancompatibilità" di schede DX 10 per DX11, per alcune funzioni e solo alcune schede sono avancompatibili.
Le ATi per esempio già supportano il tasselation, se avete una Ati DX10.1 allora avete un vantaggio sulle DX11. Eventuali altre funzioni come il SM 5 non saranno disponibili ed emulate via software.
In parole povere non c'è il taglio netto come DX9 e DX10 ma come DX8 e DX9, con una scheda come la mia vecchia Radeon 9250 potevi far girare in DX9 software Half Life 2.

Per quanto riguarda il raytracing, Intel può dire quello che vuole ma le loro demo facevano tutte graficamente cagare. Bei riflessi, ma texture e modelli poligonali del 2000, se non peggio. E in ogni caso, se si utilizzerà il ray tracing saranno sempre delle schede video ad accelerare, esattamente come ora.
E comunque Dovella, il fatto che la tassellatura sia utile non significa che ci sarà. Al momento rimane sempre computazionalmente onerosa.

P.S. una tecnica grafica non può salvare una piattaforma che tra parentesi rimane a galla comunque.

dovella
06-08-2008, 17:51
Microsoft: DirectX 11 at the Vanguard of the GPGPU Revolution (http://news.softpedia.com/news/Microsoft-DirectX-11-at-the-Vanguard-of-the-GPGPU-Revolution-91539.shtml)

lowenz
08-08-2008, 09:25
http://www.tgdaily.com/content/view/38795/113/

:cool:

Interview – Lots of graphics tech tradeshows are on the calendar for the coming weeks - Siggraph 2008 in Anaheim, IDF Fall in San Francisco, Games Convention in Leipzig and Nvision 08 in San Jose. Intel will play a big role in three of those shows and with Larrabee out and Nehalem almost ready for showtime, we felt it was time to get an update on Intel’s ray-tracing efforts.

There is no better person at Intel to chat about ray-tracing than Daniel Pohl, an engineer who is making some impressive progress in ray-tracing research – a graphics technology that is likely to heavily impact the way graphics and animations are created in the future.


TG Daily: Intel finally disclosed a few details about Larrabee earlier this week. What is Larrabee from your perspective. What is the underlying architecture and the programming model?

Daniel Pohl: Larrabee was primarily built as a rasterizering processor. Therefore you have support for DirectX and OpenGL. But it will also be a freely programmable x86-architecture. That means you could, for example, write your own rasterizer with your own API, a ray tracer, a voxel renderer or combinations of those. You could also use it for non-graphical applications that benefit from parallelization.


TG Daily: How did you get the API to enable ray-tracing? What API is Intel using to showcase ray tracing demos?

Daniel Pohl: Some of the important features of a graphics API are to be able to setup your geometry, define material properties, camera values and a lighting environment. We wrote our own API for that and tuned that through several internal revisions. The shading system uses a HLSL-like syntax that allows you also to shoot new rays within a shader. With that capability, special effects like glass and mirrors become very easy tasks. Everything you see in the Quake Wars: Ray Traced demo is done over that API. Using that API the programmer has no need to manually multi-thread the rendering and does not need to optimize the shading with SSE as this is done by the shading compiler automatically. Of course there always people who want to go really low-level to squeeze out every last percent of performance. For that case, our API can also be bypassed to directly access all internal structures. Let me make sure here that we are doing this for research reasons, so it might be that this API never sees the public light.


TG Daily: There seems to be a lot of talk about ray-tracing in the media and all of the advantages it can bring. Is Ray-tracing the holy grail of rendering?

Daniel Pohl: Personally, I've been researching real-time ray-tracing for games since 2004. Back then on Quake 3: Ray Traced (www.q3rt.de). I figured out quite fast that there are a lot of benefits in using that technology. For example, for reflections and refractions you are simulating rays exactly like in nature. You get high quality results in an easy way. Looking several years ahead, I can't imagine that game developers still want to use the approximation for those effect that are currently used.
In general, the usability of ray-tracing for games depends also on what speed-ups we can expect from researching faster algorithms and how hardware will evolve.


TG Daily: There seems to be a prejudice that ray-tracing can only be used for scene rendering... what are actual purposes that RT can be used?

Daniel Pohl: Once you have the possibility to shoot a ray effectively through a dynamic scene you can use that for even more. In my master thesis in 2006 at the University Erlangen & Saarland, I used the same rays as used for rendering to do collision detection. Once you shoot many million rays per image, the amount of collision detection rays is almost for free. That also means you don't need to keep separate rendering and collision detection structures in the memory. You can use the same.
Another usage is for AI. In order to detect visibility from one player to another you can use rays to detect blocking objects. You can also use the visibility determination for pathfinding. It is interesting to note that the usage of rays for collision detection and AI is already used in some current games. But this is sometimes not done against the complete dynamic scene or it is done with only a few rays. From talking to game developers, we already got the feedback that they would also like to be able to spend more rays on those queries.


TG Daily: What kind of ray-tracing research has to be done before ray-tracing becomes interesting for commercial game development.

Daniel Pohl: Creating higher image quality even faster. That requires smart anti-aliasing algorithms, a level of detail mechanism without switching artifacts, particle systems that also work in reflections, a fast soft shadowing algorithm, adoption to upcoming hardware architectures. We have some topics to keep us busy.
You can see more about our work at Siggraph in a talk from me at the Intel booth theater on Tuesday August 12 and 14. We will also have our ray tracing booth at IDF in San Francisco from August 19-21.


TG Daily: Back in June at Research@Intel Day, you used a Caneland platform system with a 16-core Tigerton setup to demonstrate Ray-traced ET: Quake Wars. That was quite a powerful system – any reason why Tigerton was the hardware of choice?

Daniel Pohl: Our ray-tracing research group is part of Intel's Tera-Scale project. There we target future architectures that consists out of tens, hundreds and even thousands of cores. The Caneland platform with a total of 16 cores in a single machine gives us a good glimpse at what we can expect in future desktop systems. It allows us to study threading behavior and optimize for parallelization. So far we encountered almost linear scaling of the frame rate with the number of cores. The more cores, the better for ray-tracing!


TG Daily: We noticed significant performance differences between the demos - while the Quake 4 RT code ran at 90 fps and above, Quake Wars dipped to 14-29 fps. What is the reason for this performance penalty?

Daniel Pohl: Besides the fact that Quake Wars is a newer and therefore more complex game, we also covered a lot more special effects. We have accurate shadows, reflections, glass and a really cool looking water implementation. Besides that, we have now better texture filtering and a freely programmable shading system with a HLSL-like syntax. Also, we showed a decent amount of dynamic objects. Dynamic objects have often been considered to be a bottleneck in a ray tracing environment due to the need to update acceleration structures. You might see more about this topic soon ...


TG Daily: Thank you.



Conclusion

This year, Intel will promote graphics at three consecutive tradeshows. For a company that has not been able to produce decent drivers for their integrated products, this kind of progress in the discrete segment is encouraging.

It is too early to say what impact Larrabee will have on the market, but the company is investing a sizeable amount of money into this project. In fact, Intel is betting the farm on visual computing: The future will bring Larrabee's in-order cores paired with Intel's traditional out-of-order cores. Sort of a fusion.

Intel's research group is pushing ray-tracing development on Intel's chips, but we should not forget that there are companies such as JulesWorld, a small company from Los Angeles that is offering ray-tracing technology on graphics cards of today, not tomorrow.

We're living in a very exciting time in history of computing. The Technology advancements that will be achieved in the next five years are likely to shape the future of communications, entertainment and computing.

dovella
08-08-2008, 13:00
Link PDF (http://developer.download.nvidia.com/presentations/2008/Gamefest/Gamefest2008-DisplacedSubdivisionSurfaceTessellation-Slides.PDF)

Obi 2 Kenobi
09-08-2008, 11:37
http://www.tgdaily.com/content/view/38795/113/

:cool:

Interview – Lots of graphics tech tradeshows are on the calendar for the coming weeks - Siggraph 2008 in Anaheim, IDF Fall in San Francisco, Games Convention in Leipzig and Nvision 08 in San Jose. Intel will play a big role in three of those shows and with Larrabee out and Nehalem almost ready for showtime, we felt it was time to get an update on Intel’s ray-tracing efforts.

There is no better person at Intel to chat about ray-tracing than Daniel Pohl, an engineer who is making some impressive progress in ray-tracing research – a graphics technology that is likely to heavily impact the way graphics and animations are created in the future.


TG Daily: Intel finally disclosed a few details about Larrabee earlier this week. What is Larrabee from your perspective. What is the underlying architecture and the programming model?

Daniel Pohl: Larrabee was primarily built as a rasterizering processor. Therefore you have support for DirectX and OpenGL. But it will also be a freely programmable x86-architecture. That means you could, for example, write your own rasterizer with your own API, a ray tracer, a voxel renderer or combinations of those. You could also use it for non-graphical applications that benefit from parallelization.


TG Daily: How did you get the API to enable ray-tracing? What API is Intel using to showcase ray tracing demos?

Daniel Pohl: Some of the important features of a graphics API are to be able to setup your geometry, define material properties, camera values and a lighting environment. We wrote our own API for that and tuned that through several internal revisions. The shading system uses a HLSL-like syntax that allows you also to shoot new rays within a shader. With that capability, special effects like glass and mirrors become very easy tasks. Everything you see in the Quake Wars: Ray Traced demo is done over that API. Using that API the programmer has no need to manually multi-thread the rendering and does not need to optimize the shading with SSE as this is done by the shading compiler automatically. Of course there always people who want to go really low-level to squeeze out every last percent of performance. For that case, our API can also be bypassed to directly access all internal structures. Let me make sure here that we are doing this for research reasons, so it might be that this API never sees the public light.


TG Daily: There seems to be a lot of talk about ray-tracing in the media and all of the advantages it can bring. Is Ray-tracing the holy grail of rendering?

Daniel Pohl: Personally, I've been researching real-time ray-tracing for games since 2004. Back then on Quake 3: Ray Traced (www.q3rt.de). I figured out quite fast that there are a lot of benefits in using that technology. For example, for reflections and refractions you are simulating rays exactly like in nature. You get high quality results in an easy way. Looking several years ahead, I can't imagine that game developers still want to use the approximation for those effect that are currently used.
In general, the usability of ray-tracing for games depends also on what speed-ups we can expect from researching faster algorithms and how hardware will evolve.


TG Daily: There seems to be a prejudice that ray-tracing can only be used for scene rendering... what are actual purposes that RT can be used?

Daniel Pohl: Once you have the possibility to shoot a ray effectively through a dynamic scene you can use that for even more. In my master thesis in 2006 at the University Erlangen & Saarland, I used the same rays as used for rendering to do collision detection. Once you shoot many million rays per image, the amount of collision detection rays is almost for free. That also means you don't need to keep separate rendering and collision detection structures in the memory. You can use the same.
Another usage is for AI. In order to detect visibility from one player to another you can use rays to detect blocking objects. You can also use the visibility determination for pathfinding. It is interesting to note that the usage of rays for collision detection and AI is already used in some current games. But this is sometimes not done against the complete dynamic scene or it is done with only a few rays. From talking to game developers, we already got the feedback that they would also like to be able to spend more rays on those queries.


TG Daily: What kind of ray-tracing research has to be done before ray-tracing becomes interesting for commercial game development.

Daniel Pohl: Creating higher image quality even faster. That requires smart anti-aliasing algorithms, a level of detail mechanism without switching artifacts, particle systems that also work in reflections, a fast soft shadowing algorithm, adoption to upcoming hardware architectures. We have some topics to keep us busy.
You can see more about our work at Siggraph in a talk from me at the Intel booth theater on Tuesday August 12 and 14. We will also have our ray tracing booth at IDF in San Francisco from August 19-21.


TG Daily: Back in June at Research@Intel Day, you used a Caneland platform system with a 16-core Tigerton setup to demonstrate Ray-traced ET: Quake Wars. That was quite a powerful system – any reason why Tigerton was the hardware of choice?

Daniel Pohl: Our ray-tracing research group is part of Intel's Tera-Scale project. There we target future architectures that consists out of tens, hundreds and even thousands of cores. The Caneland platform with a total of 16 cores in a single machine gives us a good glimpse at what we can expect in future desktop systems. It allows us to study threading behavior and optimize for parallelization. So far we encountered almost linear scaling of the frame rate with the number of cores. The more cores, the better for ray-tracing!


TG Daily: We noticed significant performance differences between the demos - while the Quake 4 RT code ran at 90 fps and above, Quake Wars dipped to 14-29 fps. What is the reason for this performance penalty?

Daniel Pohl: Besides the fact that Quake Wars is a newer and therefore more complex game, we also covered a lot more special effects. We have accurate shadows, reflections, glass and a really cool looking water implementation. Besides that, we have now better texture filtering and a freely programmable shading system with a HLSL-like syntax. Also, we showed a decent amount of dynamic objects. Dynamic objects have often been considered to be a bottleneck in a ray tracing environment due to the need to update acceleration structures. You might see more about this topic soon ...


TG Daily: Thank you.



Conclusion

This year, Intel will promote graphics at three consecutive tradeshows. For a company that has not been able to produce decent drivers for their integrated products, this kind of progress in the discrete segment is encouraging.

It is too early to say what impact Larrabee will have on the market, but the company is investing a sizeable amount of money into this project. In fact, Intel is betting the farm on visual computing: The future will bring Larrabee's in-order cores paired with Intel's traditional out-of-order cores. Sort of a fusion.

Intel's research group is pushing ray-tracing development on Intel's chips, but we should not forget that there are companies such as JulesWorld, a small company from Los Angeles that is offering ray-tracing technology on graphics cards of today, not tomorrow.

We're living in a very exciting time in history of computing. The Technology advancements that will be achieved in the next five years are likely to shape the future of communications, entertainment and computing.

in italiano sarebbe? :stordita:

maggiore scia
14-08-2008, 21:05
ray tracing su gpu invidia(Quadro Plex 2100 D4 con 4 GPUs) a 1080p
immagini:
http://img364.imageshack.us/img364/478/nvidiartdemo1ej7.jpg (http://imageshack.us)

http://img294.imageshack.us/img294/9765/nvidiartdemo2tq3.jpg (http://imageshack.us)
spettacolo....:D

fonte:
http://www.pcgameshardware.com/aid,655883/News/Nvidia_demonstrates_ray_tracing_on_the_GPU/

Claus89
14-08-2008, 22:33
ray tracing su gpu invidia(Quadro Plex 2100 D4 con 4 GPUs) a 1080p
immagini:
http://img364.imageshack.us/img364/478/nvidiartdemo1ej7.jpg (http://imageshack.us)

http://img294.imageshack.us/img294/9765/nvidiartdemo2tq3.jpg (http://imageshack.us)
spettacolo....:D

fonte:
http://www.pcgameshardware.com/aid,655883/News/Nvidia_demonstrates_ray_tracing_on_the_GPU/

blutto l'asfalto....:D

II ARROWS
15-08-2008, 02:01
Bella, bella merda.

Io questi riflessi li vedo già nei giochi di oggi... i riflessi sulle auto li vedevo anche in Need for Speed Undeground... che non usava il Ray Tracing credo! :D

Non so dire se non erano perfetti come dovrebbero essere questi, quello che so dire è che giocandoci erano perfetti. Le auto non avranno avuto 2milioni di poligoni, ma erano 4(non conto quelle stradali che erano dei parallelepipedi) e l'ambiente era buono.

Questa tecnologia non serve nei videogiochi è pesante e la qualità non si nota. nVidia deve smetterla di far vedere ad Intel che può farlo anche lei, deve limitarsi a fare ciò che serve.

Donbabbeo
15-08-2008, 10:31
Il tuo punto di vista mi pare notevolmente riduttivo.
Dal punto di vista utente è comprensibile il tuo dubbio, avere la stessa qualità con maggiori sforzi (vabbè che quelle immagini mi sembrano alquanto riduttive per mostrare la "potenza" del raytracing, vuoi un paio di immagini decenti?
http://www.mildlydiverting.com/interactivewriting/images/cgi_face.jpg

http://www.lightandmatter.com/html_books/5op/ch01/figs/computer-ray-tracing.jpg).
All'inizio ci sarà un certo scotto da pagare avremo fondato le basi per un nuovo livello di qualità grafica.
In ogni caso andrebbe visto anche dal punto di vista dello sviluppatore, programmare in ray-tracing è molto più semplice e richiede meno codice, calcolare le varie riflessioni sulle superfici avviene in automatico e necessita di meno effetti aggiuntivi.
Rimane il fatto che non la ritengo una tecnologia che arriverà nel giro di un paio di anni, ancora ne dovrà passare parecchia di acqua sotto i ponti mi sa :D

xxxyyy
15-08-2008, 10:46
Bella, bella merda.

Io questi riflessi li vedo già nei giochi di oggi... i riflessi sulle auto li vedevo anche in Need for Speed Undeground... che non usava il Ray Tracing credo! :D

Non so dire se non erano perfetti come dovrebbero essere questi, quello che so dire è che giocandoci erano perfetti. Le auto non avranno avuto 2milioni di poligoni, ma erano 4(non conto quelle stradali che erano dei parallelepipedi) e l'ambiente era buono.

Questa tecnologia non serve nei videogiochi è pesante e la qualità non si nota. nVidia deve smetterla di far vedere ad Intel che può farlo anche lei, deve limitarsi a fare ciò che serve.

Non diciamo... stupidaggini.
Col RT puoi fare robe che con la rasterizzazione ti sogni di fare.
E quando ci sara' la potenza sufficiente di calcolo, bastera' solo dire "e la luce sia" e tutto sara' illuminato come la realta'. Con la rasterizzazione bisognera' piangere sangue (e soldi).

II ARROWS
15-08-2008, 12:29
Quando ci sarà, ora infatti non c'è e non vedo l'utilità di fare questi esercizi di stile solo per rispondere ad Intel.
Non so se hai letto cosa hanno usato per farlo, ma non hanno neanche detto quanto tempo hanno impiegato, se poi vediamo che c'è gente qua che se il loro gioco non fa almeno 100FPS a 3200x2400 dicono che è brutto e programmato male...

Ah, la seconda immagine la avevo già vista.

xxxyyy
15-08-2008, 16:08
Quando ci sarà, ora infatti non c'è e non vedo l'utilità di fare questi esercizi di stile solo per rispondere ad Intel.
Non so se hai letto cosa hanno usato per farlo, ma non hanno neanche detto quanto tempo hanno impiegato, se poi vediamo che c'è gente qua che se il loro gioco non fa almeno 100FPS a 3200x2400 dicono che è brutto e programmato male...

Ah, la seconda immagine la avevo già vista.

Esercizio di stile, sicuramente.
Inutilita' al giorno d'oggi, assolutamente si'.

Tuttavia il RT e' il futuro, quello che fara' fare il vero salto ai giochi verso la grafica fotorealistica.
Quindi a me proprio non dispiace vedere che ci siano gia' sfide tra i colossi dell'hardware in questo campo, perche', non so tu, ma io lo ritengo il Santo Graal della grafica (no, forse il photon mapping lo e', ma mi accontento anche del RT :sofico:). Quindi, ripeto, son contentissimo di vedere queste immagini.
:)

HostFat
15-08-2008, 16:33
Più che altro, per saperci lavorare ... bisogna allenasi a programmarsi sopra.
Prima iniziano meglio è ;)

darkfear
15-08-2008, 17:04
A quanto ho capito una tech demo di ruby (il cui modello non era "aggiornato") fatta girare in Real Time su 2 hd 4800 durante la presentazione di Cinema 2.0, usa Ray Tracing.

mi riferisco a questa:

http://tlundmark.blogspot.com/2008/07/amd-to-realtime-ray-tracing-with-cinema.html

(in basso ci sono i video SD della demo)

http://www.tomshw.it/articles/20080627/ati_rt_08_c.jpg
http://www.pcgameshardware.de/screenshots/medium/2008/08/Ruby_new_demo_09.jpg

http://bp2.blogger.com/_ejVhPSXllX0/SG3ziSAaa8I/AAAAAAAAEAI/mlwokMKzJrE/s1600-h/2585848826_87f8f0154f_o.jpg
http://bp1.blogger.com/_ejVhPSXllX0/SG3zijQsHSI/AAAAAAAAEAQ/wYTt-Aam4HM/s1600-h/2585849022_3443db26d6_o.jpg

tuttavia la strada è ancora lunga...anche se non ho ben capito se usi davvero ray tracing o qualcos'altro...
sta roba non la vedremo tra meno di 3-4 anni...forse di +.

Mister Tarpone
15-08-2008, 17:23
ah.. quindi pure Ati sta dietro a sto ray tracing, non solo nvidia.
:)

darkfear
15-08-2008, 17:56
ah.. quindi pure Ati sta dietro a sto ray tracing, non solo nvidia.
:)

sembra di si...però gli stessi sviluppatori che partecipano al progetto parlano di 3...5...forse 10 anni prima di vedere qualcosa del genere applicato ai vg...e oltre per vederla applicata PER BENE.

quindi volate basso...passeranno 20 anni prima che sta roba diventi la norma...ma molti meno prima di vedere la solita tech demo mascherata da gioco che gira bene solo 2 anni dopo l'uscita.

Ogni riferimento a crysis è puramente voluto.

II ARROWS
15-08-2008, 18:46
(no, forse il photon mapping lo e', ma mi accontento anche del RT :sofico:)QUESTO (http://en.wikipedia.org/wiki/Photon_mapping)?

Aspetterai ancora per molto, praticamente è Ray Tracing + Path Tracing... :D

xxxyyy
16-08-2008, 00:05
QUESTO (http://en.wikipedia.org/wiki/Photon_mapping)?

Aspetterai ancora per molto, praticamente è Ray Tracing + Path Tracing... :D

:)
Si', ma infatti ho detto che mi accontento del ray-tracing, che per me arrivera' massimo tra 5 anni... non 20.
Certo, se la concorrenza hardware si blocca per monopolio (e questo sembra non essere piu' il caso, nemmeno del duopolio, visto l'ingresso di Intel nella grafica) o tutti che si buttano sulle (maledettissime) console (speriamo di no :sperem:) allora dico 10 anni, perche' le prossime console lo faranno il raytracing, IMO.

HostFat
16-08-2008, 01:25
:)
Si', ma infatti ho detto che mi accontento del ray-tracing, che per me arrivera' massimo tra 5 anni... non 20.
Certo, se la concorrenza hardware si blocca per monopolio (e questo sembra non essere piu' il caso, nemmeno del duopolio, visto l'ingresso di Intel nella grafica) o tutti che si buttano sulle (maledettissime) console (speriamo di no :sperem:) allora dico 10 anni, perche' le prossime console lo faranno il raytracing, IMO.Si ma sulle console il raytracing non avrà lo stesso vantaggio che avrà sui PC.
Sulle console l'hardware è fisso no?
Sarà semplicemente grafica più avanzata, come lo è tuttora ad ogni nuovo modello che fanno uscire.
Su PC invece sarà un bel paradiso per chi deve programmare ... visto che si troverà ben meno problemi per adattare il suo prodotto, il suo gioco ... a tutti gli hardware possibili, presenti e futuri!

cignox1
18-08-2008, 06:53
Ricordo che gia' all'uscita della playstation 3 qualcuno aveva parlato di raytracing per via della presenza dello straordinario CELL. Comunque temo che il problema principale del raytracing in RT non sia calcolare le intersezioni: le schede video oggi e ancor piu' quelle di domani hanno una potenza tale che questo davvero sarebbe il problema minore. Le difficolta' da risolvere per quel che vedo io sono due:
-Aggiornare la struttura dati. I triangoli vengono mantenuti all'interno di strutture dati di spatial subdivision. BVH e BIH sono due versioni decentemente veloci durante il rendering ma quello che piu' conta molto veloci in fase di costruzione, tuttavia qui si parla di decine di milioni poligoni al secondo. Uno dei vantaggi dell'RT e' che gestisce straordinariamente bene alte complessita' geometriche. Tuttavia questa geometria (la parte dinamica per lo meno) deve essere aggiornata all'interno della struttura di spatial subdivision.
-Nella rasterizzazione, l'osservatore vede solo (e soltanto) quello che sta davanti a lui. Se ci sono riflessi, viene fatto un rendering con il punto di vista modificato prima di quello finale. Se ci sono ombre, viene fatto un rendering dal punto di vista della luce prima di quello finale. E cosi' via. Questo significa che per un dato rendering, sai con precisione quali poligoni verranno visualizzati e questo ti consente di ottimizzare il rendering in diversi modi.
Nel raytracing, dopo la prima intersezione qualsiasi cosa e' possibile: il raggio della luce puo' essere sparato in qualsiasi direzione, idem per quelli di riflessione e trasmissinone. Quindi la scheda video dovra' avere tutta la geometria, le textures e i dati a disposizione in qualsiasi momento, e con accesso casuale. E questo e' pacco!
Io comunque sono ottimista. Dubito che Larrabee possa fare miracoli (una serie di pentium pro modificati in parallelo...) ma potrebbe entusiasmare abbastanza da convincere qualche programmatore o piccola software house a creare piccoli giochi in rt.
Ancora meglio, le grosse software house potrebbero fare qualcosa di simile a quanto fatto da Valve con Portal: un gioco piccolo, semplice e gratuito fatto per acquisire know-how su una specifica tecnologia e valutarne l'impatto sul pubblico...

maggiore scia
18-08-2008, 09:36
raytracing su ps3 e cell.
http://www.youtube.com/watch?v=zKqZKXwop5E&feature=relatedù

http://www.youtube.com/watch?v=oLte5f34ya8

ion2
18-08-2008, 10:05
Ricordo che gia' all'uscita della playstation 3 qualcuno aveva parlato di raytracing per via della presenza dello straordinario CELL.

Spero che quel "qualcuno" non sia lo stesso che sparava testate nucleari con la play2:asd:

Mister Tarpone
22-08-2008, 14:20
Rasterisation is here to stay
Written by Fuad Abazovic
Friday, 22 August 2008 12:01



Games Convention 08: Ray tracing is distant future

There is still a lot of things that can be approximated with rasterisation and most developers we talked to at games convention believes that ray tracing is something that might be a distant future of computer gaming.

Rasterisation uses a lot of approximation and you can make a lot of things looks quite realistic. At the same time ray tracing is physically more correct but it takes too much of your computational power. At this time most developers believe that ray tracing is a good direction
to go toward but they will almost exclusively stick to rasterisation, at least in the next few years.

Ray tracing has been used Hollywood for years and it will slowly move to the real times games, but we are probably talking about at least 2010 / 2011 if not even later. Intel has the money to push it, so it might actually happen but we can promise you that the transition from Open GL / DirectX games that we call rasterisation to ray tracing will be slow and painful.

darkfear
22-08-2008, 15:05
quante buone notizie :asd:

Obi 2 Kenobi
24-08-2008, 23:47
Rasterisation is here to stay
Written by Fuad Abazovic
Friday, 22 August 2008 12:01



Games Convention 08: Ray tracing is distant future

There is still a lot of things that can be approximated with rasterisation and most developers we talked to at games convention believes that ray tracing is something that might be a distant future of computer gaming.

Rasterisation uses a lot of approximation and you can make a lot of things looks quite realistic. At the same time ray tracing is physically more correct but it takes too much of your computational power. At this time most developers believe that ray tracing is a good direction
to go toward but they will almost exclusively stick to rasterisation, at least in the next few years.

Ray tracing has been used Hollywood for years and it will slowly move to the real times games, but we are probably talking about at least 2010 / 2011 if not even later. Intel has the money to push it, so it might actually happen but we can promise you that the transition from Open GL / DirectX games that we call rasterisation to ray tracing will be slow and painful.

ehm...fate una traduzione, pls?^^

II ARROWS
25-08-2008, 01:46
Ci sono un sacco di cose che possono essere ancora approssimate con la rasterizzazione, e molti sviluppatori che hanno parlato alla Games Convention credono potrebbe essere un distante futuro.
Inoltre che è molto più pesante rispetto alla rasterizzazione(ma va?) e la maggior parte la vede come una buona direzione.
Credono che il mercato comincierà a muoversi verso il 2011, e che Intel e DirectX/OpenGL aiuteranno a rendere questo passaggio lentamente ed indolore.

II ARROWS
25-08-2008, 01:46
...[Ma a che serve la distanza dei 30 secondi se poi mi manda due messaggi contemporaneamente??]

Obi 2 Kenobi
25-08-2008, 09:23
Ci sono un sacco di cose che possono essere ancora approssimate con la rasterizzazione, e molti sviluppatori che hanno parlato alla Games Convention credono potrebbe essere un distante futuro.
Inoltre che è molto più pesante rispetto alla rasterizzazione(ma va?) e la maggior parte la vede come una buona direzione.
Credono che il mercato comincierà a muoversi verso il 2011, e che Intel e DirectX/OpenGL aiuteranno a rendere questo passaggio lentamente ed indolore.

scusa non ho capito. Questa è un riassunto di quello che ha scritto mister tarpone, oppure è un altra informazione sul raytracing?

gaxel
25-08-2008, 09:29
scusa non ho capito. Questa è un riassunto di quello che ha scritto mister tarpone, oppure è un altra informazione sul raytracing?

E' un riassunto...

Obi 2 Kenobi
26-08-2008, 11:24
grazie gaxel. :D :Prrr:

cignox1
28-08-2008, 07:32
sembra di si...però gli stessi sviluppatori che partecipano al progetto parlano di 3...5...forse 10 anni prima di vedere qualcosa del genere applicato ai vg...e oltre per vederla applicata PER BENE.

quindi volate basso...passeranno 20 anni prima che sta roba diventi la norma...ma molti meno prima di vedere la solita tech demo mascherata da gioco che gira bene solo 2 anni dopo l'uscita.

Ogni riferimento a crysis è puramente voluto.

A mio avviso il mancato passaggio al RT e' piu' che altro una questione commerciale che tecnologica: se Ati creasse una scheda da 2 Teraflop come la 4870x2 ma costruita per il raytracing, e ci mettesse 2 Gb di memoria come su una 4850 che ho visto, secondo me potremmo vedere un gran bel RT in tempo reale (andiamo, chi ha provato Arauna non si e' chiesto cosa si potrebbe ottenere con una potenza 30 o 40 volte maggiore?). Ma chi la comprerebbe, se poi i giochi non potessero essere eseguiti?
A quanto pare, al di la di quanto e' stato detto negli ultimi mesi, pare che la demo non usi davvero il raytracing, ma una sorta di evoluzione nella tecnologia di relighting... sul sito www.ompfg.org c'e' una interessante discussione in mertito, fatta da esperti nel settore della programmazione Cg.

Detto questo, anche per le tecniche normali sono piu' ottimista: per me potremo vedere i primi giochi (quasi) fotorealistici tra un paio di anni (tre al massimo). Il primo bel passo sarebbe passare finalmente ad una memoria piu' grande (almeno un gigabyte) per avere texture di qualita' maggiore.
Certo, da programmare saranno un incubo!

Per intanto si e' realizzato il mio piccolo sogno: illuminazione e ombre completamente real time (Assassin Creed e Crysis). Il primo fu Doom 3, ma a parte quelli che usavano il suo motore grafico, gli altri erano ancora rimasti alle lightmaps (tipo HL2, che comunque IMHO e' uno dei giochi graficamente (e non solo) piu' belli di sempre).
Ombre in rt erano un primo importante scoglio da superare. Ora probabilmente c'e' la global illumination e una qualita' maggiore delle ombre. La complessita' poligonale non e' piu' un problema, secondo me.

arxangel
30-11-2008, 18:51
Notizia interessante:
http://msdn.microsoft.com/en-us/library/dd285359.aspx