PDA

View Full Version : UNREAL ENGINE 3 TO GET TUNED UP


*sasha ITALIA*
27-02-2005, 14:06
Epic Games has revealed that its award-winning Unreal Engine, used to power everything from Epic's own Unreal series to Deus Ex and Splinter Cell, is about to receive a host of tune-ups in the shape of Unreal Engine 3.
The new features and improved technical effects will dictate the way stacks of future PC and next-generation console games look and play.
So what can we look forward to? First up is something Epic is calling Seamless World Support. This little mouthful will apparently allow the "creation of virtually unending environments through background management of game levels and assets". This could be great news for MMOs or single-player games in large-scale environments since playing areas will be larger, faster and more detailed.

Next is the even more tongue-twisting UnrealKismet Visual Scripting System, which "empowers designers to build and iterate detailed game scenarios and AI behaviours with limited, or even zero, programmer involvement". The upshot of that is developers will have much more freedom to create innovative and exciting games without clogging up the system with all that complicated programming stuff. Which is nice.
On top of that, Epic are also promising big improvements in physics modelling, terrain editing, lighting, animation, particles, cinematic creation and texture editing.
All the new features and enhancements planned for Unreal Engine 3 are being shown off at next month's Games Developer's Conference in San Francisco. We'll be there bringing you the latest, hopefully including some info on new PC and next-gen games that will use Unreal Engine 3.



non è che ho capito bene...ma anche il futuro Splinter Cell e Deus Ex godranno di questo formidabile motore??

Psiche
27-02-2005, 14:16
Non avevo voglia di aprire una discussione riguardo il Games Developer's Conference 2005 ma dato che l'hai tirato in ballo... :D

Leggete tra le ultime righe del comunicato, viene citato il GDC di quest'anno. Infatti prorio nella manifestazione che si terrà tra il 7 e l'11 Marzo si attendono importanti novità dalla Epic Games (e non solo).

Occhio dunque alla prox settimana

;)

prova
27-02-2005, 16:03
First up is something Epic is calling Seamless World Support. This little mouthful will apparently allow the "creation of virtually unending environments through background management of game levels and assets".


Ho avuto un'erezione spontanea mentre leggevo questa frase :cool:

E via così! Il futuro è vicino! ;)

Trabant
27-02-2005, 16:24
Si, l'Unreal 3 si avvicina ... e con lui la fine dei nostri poveri piccì :cry:

andreamarra
27-02-2005, 17:37
Originariamente inviato da prova
Ho avuto un'erezione spontanea mentre leggevo questa frase :cool:

E via così! Il futuro è vicino! ;)

ma praticamente quella parte che hai quotato cosa significa in termini pratici? A tradurla non ci sono problemi da parte mia, ma non capisco il senso :asd: :sofico:

praticamente dice che con una tecnica particolare sarà possibile avere un ultra livello senza caricamenti? Quindi un open world completamente esplorabile?

:)

STICK
27-02-2005, 19:47
in pratica sara' anche il motore grafico piu' sfruttato dalle software house.

prova
27-02-2005, 20:27
Originariamente inviato da andreamarra
ma praticamente quella parte che hai quotato cosa significa in termini pratici? A tradurla non ci sono problemi da parte mia, ma non capisco il senso :asd: :sofico:

praticamente dice che con una tecnica particolare sarà possibile avere un ultra livello senza caricamenti? Quindi un open world completamente esplorabile?

:)


Esatto, proprio così.
Pensa poter giocare senza caricamenti tra una sezione e l'altra [sembra una sciocchezza, ma rompe MOLTO il ritmo del gioco].

E soprattutto pensa all'implementazione di questa tecnica nei mmorpg! :D

xxxyyy
27-02-2005, 20:51
Gochi basati su l'UE3: il motivo per cui cambiero' la mia GF4Ti... che penso non ce la fara' al massimo dettaglio...
BRING IT ON!
:D

Athlon 64 3000+
27-02-2005, 21:55
Originariamente inviato da xxxyyy
Gochi basati su l'UE3: il motivo per cui cambiero' la mia GF4Ti... che penso non ce la fara' al massimo dettaglio...
BRING IT ON!
:D

Se è per questo anche una Geforce 6800Ultra non ce la farà sicuramente a far girare L'UE3 al massimo del dettaglio,forse ci vorranno L'NV47 e R520 che verranno presentati a maggio.

agma
27-02-2005, 22:57
Originariamente inviato da Trabant
Si, l'Unreal 3 si avvicina ... e con lui la fine dei nostri poveri piccì :cry:

ma anche l'inizio dei nostri nuovi ultrapotenti pc... :D

Trabant
27-02-2005, 23:07
Originariamente inviato da agma
ma anche l'inizio dei nostri nuovi ultrapotenti pc... :D

SBORONE! :D

xxxyyy
27-02-2005, 23:13
Originariamente inviato da Athlon 64 3000+
Se è per questo anche una Geforce 6800Ultra non ce la farà sicuramente a far girare L'UE3 al massimo del dettaglio,forse ci vorranno L'NV47 e R520 che verranno presentati a maggio.

Io direi una G70.
E poi ero sarcastico, non so se l'avevi notato...
:)

prova
28-02-2005, 00:55
Originariamente inviato da agma
ma anche l'inizio dei nostri nuovi ultrapotenti pc... :D

Classico esempio di una persona che vede il bicchiere mezzo pieno: bravo! :D

Leron
28-02-2005, 08:49
Originariamente inviato da prova
Classico esempio di una persona che vede il bicchiere mezzo pieno: bravo! :D
ma il bicchiere mi va anche bene, quello che mi preoccupa è il portafoglio, il mio non è neanche mai stato mezzo pieno :D

MaBru
28-02-2005, 09:13
Originariamente inviato da Leron
ma il bicchiere mi va anche bene, quello che mi preoccupa è il portafoglio, il mio non è neanche mai stato mezzo pieno :D
Forse perché è SEMPRE pieno?:D

socialscalator
28-02-2005, 11:13
Mi sa che mi tengo il 2800+ ancora per un pò.. poi mi compro l'atomica e ci installo u3 :D

Leron
28-02-2005, 12:02
Originariamente inviato da MaBru
Forse perché è SEMPRE pieno?:D
ehh magari :D sempre vuoto purtroppo, ora più che mai :(

andreamarra
28-02-2005, 12:09
Originariamente inviato da prova
Esatto, proprio così.
Pensa poter giocare senza caricamenti tra una sezione e l'altra [sembra una sciocchezza, ma rompe MOLTO il ritmo del gioco].

E soprattutto pensa all'implementazione di questa tecnica nei mmorpg! :D

:oink: :cool:

davestas
28-02-2005, 12:16
quando dovrebbero uscire i primi giochi con U3???
Per il procio basterà un a643500+ visto che sto per acquistarlo/(oltre alla x800xl che ovviamente dovro' cambiare...)?:muro: :cry:

agma
28-02-2005, 12:26
Originariamente inviato da prova
Classico esempio di una persona che vede il bicchiere mezzo pieno: bravo! :D

:flower:
:cincin:

G-DannY
28-02-2005, 12:30
Quando uscirà questo mostro probabilmente piangeranno anche i possessori di FX-55 e R520... :D

Athlon 64 3000+
28-02-2005, 14:08
Originariamente inviato da G-DannY
Quando uscirà questo mostro probabilmente piangeranno anche i possessori di FX-55 e R520... :D

Adesso non esageriamo.
R520 sarà la scheda ideale per giocarci,così come sarà NV47.
Per la cpu se va bene un'Athlon 64 3500+ basterà anche la mia Cpu in sign visto che nei giochi tra un 3000+ e un 3500+ c'è una differenza di 10-15 fps nei giochi che per me non sono tantissimi come differenza.
Quello che contà e avere una gpu cazzuta che è meglio.

davestas
28-02-2005, 14:12
quindi basterà un A64 da 3000+ in poi oltre alla GPU?

prova
28-02-2005, 14:13
Originariamente inviato da Athlon 64 3000+
Per la cpu se va bene un'Athlon 64 3500+ basterà anche la mia Cpu in sign visto che nei giochi tra un 3000+ e un 3500+ c'è una differenza di 10-15 fps nei giochi che per me non sono tantissimi come differenza.



No no, son proprio un cazz come differenza :asd:

Athlon 64 3000+
28-02-2005, 14:27
Originariamente inviato da prova
No no, son proprio un cazz come differenza :asd:

Spiegati meglio perfavore.

Athlon 64 3000+
28-02-2005, 14:29
Originariamente inviato da davestas
quindi basterà un A64 da 3000+ in poi oltre alla GPU?

Per me basta e avanza,tanto adesso ho una 6800Gt come schede e a inizio 2006 prenderà una gpu che mi raddoppio almeno le prestazioni rispetto alla ma 6800 e tiro fino al 2007.

andreamarra
28-02-2005, 14:51
Originariamente inviato da Athlon 64 3000+
Spiegati meglio perfavore.

che 10-15 fps nei giochi odierni sono una differenza enorme.

Se i giochi vanno a 330 e tu ne fai 320 allora la differenza è assolutamente minima.

Ma i giochi di adesso sono molto esosi, se in un punto con Riddick faccio 27 fps, 10 in più sarebbero decisamente ben accetti.

Athlon 64 3000+
28-02-2005, 15:07
Originariamente inviato da andreamarra
che 10-15 fps nei giochi odierni sono una differenza enorme.

Se i giochi vanno a 330 e tu ne fai 320 allora la differenza è assolutamente minima.

Ma i giochi di adesso sono molto esosi, se in un punto con Riddick faccio 27 fps, 10 in più sarebbero decisamente ben accetti.

Allora vedo che non ci siamo capiti.
Io sto parlando delle differenza di prestazioni nei giochi a 1024x768 per esempio a parità di gpu tra un'Athlon 64 3000+ e un'Athlon 64 3500+ e ho visto che ci sono 10-12 fps di differenza e se uno fa 90 l'altro fa 102 per dire.
Io dico che se diventerà obsoleto un'Athlon 64 3000+ lo diventerà anche un 3500+.
Tanto con queste cpu conta avere una gpu tosta.

Praetorian
28-02-2005, 15:07
secondo me l'attuale generazione di skede video sn di "transizione" e quindi sostanzialmente inutili:

sono abbondantemente potenti cn tutti i titoli in commercio adesso...ma forse nn saranno nemmeno sufficienti cn i gioki basati sull' UE3.


io con la mia 9800xt gioco ankora oggi cn filtri a tutto spiano! nn mi serve a nulla una x850xt 512MB...tanto vale aspettare R520 :D

allora si ke i nuovi mostri saranno utili...



ovviamente imho...:sofico:

G-DannY
28-02-2005, 15:11
Originariamente inviato da Praetorian
secondo me l'attuale generazione di skede video sn di "transizione" e quindi sostanzialmente inutili:

sono abbondantemente potenti cn tutti i titoli in commercio adesso...ma forse nn saranno nemmeno sufficienti cn i gioki basati sull' UE3.


io con la mia 9800xt gioco ankora oggi cn filtri a tutto spiano! nn mi serve a nulla una x850xt 512MB...tanto vale aspettare R520 :D

allora si ke i nuovi mostri saranno utili...



ovviamente imho...:sofico:

socialscalator
28-02-2005, 15:49
Originariamente inviato da Praetorian
secondo me l'attuale generazione di skede video sn di "transizione" e quindi sostanzialmente inutili:

sono abbondantemente potenti cn tutti i titoli in commercio adesso...ma forse nn saranno nemmeno sufficienti cn i gioki basati sull' UE3.


io con la mia 9800xt gioco ankora oggi cn filtri a tutto spiano! nn mi serve a nulla una x850xt 512MB...tanto vale aspettare R520 :D

allora si ke i nuovi mostri saranno utili...



ovviamente imho...:sofico:

Sono della stessa idea... aggiumgerei anche che la tecnologia SLI non mi ha convinto per nulla...

davestas
28-02-2005, 16:45
Originariamente inviato da Praetorian
secondo me l'attuale generazione di skede video sn di "transizione" e quindi sostanzialmente inutili:

sono abbondantemente potenti cn tutti i titoli in commercio adesso...ma forse nn saranno nemmeno sufficienti cn i gioki basati sull' UE3.


io con la mia 9800xt gioco ankora oggi cn filtri a tutto spiano! nn mi serve a nulla una x850xt 512MB...tanto vale aspettare R520 :D

allora si ke i nuovi mostri saranno utili...



ovviamente imho...:sofico:



anche le cpu, gli A64, siono di transizione?
Ve lo chiedo perchè sto per prendere l'accoppiata a64 3200+ o 3500+ - x800xl....:muro: :muro:

zerothehero
28-02-2005, 17:46
Originariamente inviato da davestas
anche le cpu, gli A64, siono di transizione?
Ve lo chiedo perchè sto per prendere l'accoppiata a64 3200+ o 3500+ - x800xl....:muro: :muro:


Nell'informatica TUTTO è in transizione...quindi ignora il problema.

fd-82
28-02-2005, 18:00
Originariamente inviato da zerothehero
Nell'informatica TUTTO è in transizione...quindi ignora il problema.

Verissimo, nell'ambito delle schede video poi la cosa è anche più accentuata. (togli la 9700pro e la 4200;) )

Praetorian
28-02-2005, 19:09
Originariamente inviato da zerothehero
Nell'informatica TUTTO è in transizione...quindi ignora il problema.

vero...ma comprare adesso una x800 o 6800 nn ha senso...

Alberello69
28-02-2005, 22:21
hem..... mettete a 1600x1200 AA4 AF16...poi ne riparliamo......anzi, direi che bastano 1280x1024.....
ognuno ha il suo modo di giocare, io per esempio non sopporto quando si scende a 40fps o meno...mi da fastidio

Alberello69
28-02-2005, 22:22
Originariamente inviato da Athlon 64 3000+
Adesso non esageriamo.
R520 sarà la scheda ideale per giocarci,così come sarà NV47.
....
su questo non sono molto sicuro....vi ricordo che si parla di 1GB di ram video tra le altre cose per giocare al massimo dettaglio...

fek
28-02-2005, 22:41
Originariamente inviato da Psiche
Non avevo voglia di aprire una discussione riguardo il Games Developer's Conference 2005 ma dato che l'hai tirato in ballo... :D

Grrrrrr.....

Athlon 64 3000+
28-02-2005, 22:42
Originariamente inviato da Alberello69
su questo non sono molto sicuro....vi ricordo che si parla di 1GB di ram video tra le altre cose per giocare al massimo dettaglio...

Allora ci vorrebbe NV50 e R600, mi pare esagerato.
Dato che verrà usato nei giochi nel 2006 io non mi metterei il problema.
Tanto in quel periodo ci saranno delle schede che saranno almeno 3 volte più potenti di una Geforce 6800GT.

Alberello69
28-02-2005, 22:44
la prossima ati che uscirà per la metà di quest'anno sarà già 3 volte la x850xt ;)

xxxyyy
28-02-2005, 23:48
Originariamente inviato da Athlon 64 3000+
Allora ci vorrebbe NV50 e R600

Sottoscrivo.
Magari tutto a palla anche qualcosa di piu'... prevedo una pesantezza estrema.

Athlon 64 3000+
01-03-2005, 08:17
Originariamente inviato da xxxyyy
Sottoscrivo.
Magari tutto a palla anche qualcosa di piu'... prevedo una pesantezza estrema.

Se neanche R600 che sarà WGF 2.0 è in grado di far girare tutto a palla io dico che quelli della Epic si sono fatti dei cannoni perchè mi pare veramente assurda questa cosa.

Alberello69
01-03-2005, 10:02
Originariamente inviato da Athlon 64 3000+
Se neanche R600 che sarà WGF 2.0 è in grado di far girare tutto a palla io dico che quelli della Epic si sono fatti dei cannoni perchè mi pare veramente assurda questa cosa.

WGF 2.0??????
che sarebbe?

fek
01-03-2005, 10:24
Originariamente inviato da Alberello69
WGF 2.0??????
che sarebbe?

DX10.

G-DannY
01-03-2005, 10:25
Originariamente inviato da Alberello69
WGF 2.0??????
che sarebbe?

Le prossime DirectX che non si chiameranno più DirectX...

davestas
01-03-2005, 10:31
Originariamente inviato da Praetorian
vero...ma comprare adesso una x800 o 6800 nn ha senso...


si ma io entro Giugno voglio prendere il pc nuovo....
:muro: :muro: :cry:

Athlon 64 3000+
01-03-2005, 10:57
Originariamente inviato da davestas
si ma io entro Giugno voglio prendere il pc nuovo....
:muro: :muro: :cry:

Per quel periodo le schede saranno state presentate da poco e dubito che arriveranno subito sul mercato,secondo me saranno disponibili verso luglio.

Praetorian
01-03-2005, 11:14
Originariamente inviato da davestas
si ma io entro Giugno voglio prendere il pc nuovo....
:muro: :muro: :cry:



vuoi un consiglio? prenditi una skeda video "momentanea" e quando sono disponibili le skede nuove la cambi...

Athlon 64 3000+
01-03-2005, 11:17
Originariamente inviato da davestas
si ma io entro Giugno voglio prendere il pc nuovo....
:muro: :muro: :cry:

Potresti prenderti una 6600GT PCI-ex e nel frattempo aspetti che calino un poì' di prezzo e poi ti fai una scheda con NV47 o R520.

davestas
01-03-2005, 11:37
si ma la x800xl costa circa 100 euro in piu' rispetto alla 6600gt, poi appena R520 uscirà non costerà un botto? E non ci vorrà molto tempo per essere davvero sfruttata, per non contare che le prime release secondo me non conviene mai acquistarle.NON SO SE IL GIOCO VALE LA CANDELA......:muro: :cry: :cry:

MSciglio
01-03-2005, 20:47
State enfatizzando troppo la pesantezza dell'Unreal Engine 3. Tecnologicamente non è più pesante di engine come Doom3 o HL2 ovvero engine che supportano Shader Model 2.0. Se poi come riferimento prendete il video famoso che gira su internet allora quello non ha senso. Puoi usare UE3 anche senza usare texture 2048x2048 separate per testa e corpo di ogni personaggio e magari non usare 22k poligoni per mesh.

davestas
01-03-2005, 22:07
quindi stai dicendo che con la x800xl, almeno per i primi tempi e giochi non ci saranno problemi?????:muro: :cry: :muro:

MSciglio
01-03-2005, 22:22
Originariamente inviato da davestas
quindi stai dicendo che con la x800xl, almeno per i primi tempi e giochi non ci saranno problemi?????:muro: :cry: :muro:

Non ho detto questo. Ho detto solamente che se non gira bene non è colpa di Unreal Engine 3 ma di come è stato usato.

davestas
01-03-2005, 22:27
si ma allora a chi venderanno sti giochi diu nuova generaazione basati su u3, solo ai possesori di R520???
Non credo proprio, sono convinto che il divario tra R420 ed i primi esemplari di R520 non sarà cosi grosso...

MSciglio
01-03-2005, 22:40
Originariamente inviato da davestas
si ma allora a chi venderanno sti giochi diu nuova generaazione basati su u3, solo ai possesori di R520???
Non credo proprio, sono convinto che il divario tra R420 ed i primi esemplari di R520 non sarà cosi grosso...

Stai dicendo tutto da solo. Come puoi fare affermazioni del genere se ancora non si è visto mezzo screenshot di giochi che usano UE3? Il video famoso non fa riferimento ad alcun gioco in produzione. E' soltanto una dimostrazione dell'engine. Punto.

Alberello69
01-03-2005, 22:53
a buon intenditor poche parole.....
:asd:

http://www.unrealtechnology.com/screens/SoftShadows.jpg

http://www.unrealtechnology.com/screens/DynamicLight.jpg

http://www.unrealtechnology.com/screens/HDRGlow.jpg

http://www.unrealtechnology.com/screens/p_soldier.jpg

http://www.unrealtechnology.com/screens/p_beast.jpg

P.S.
Se lo paragonate a Doom3 significa che non avete capito nulla di quello che dice nel filmato mostrato all'E3....:rolleyes:

MSciglio
01-03-2005, 23:04
Originariamente inviato da Alberello69
a buon intenditor poche parole.....
:asd:

P.S.
Se lo paragonate a Doom3 significa che non avete capito nulla di quello che dice nel filmato mostrato all'E3....:rolleyes:

Come volevasi dimostrare. Come ho scritto sopra gli screenshots (e il video) si riferisco semplicemente al demo dell'engine e non di un gioco.

A quanto pare non riesci a capire che la tecnologia (intendo dal punto di vista grafico) usata è la stessa ma cambiano i contenuti grafici.

Ad ogni modo fidati che ho capito molto bene quello che dice nel video... e non solo.

fek
02-03-2005, 00:30
Originariamente inviato da MSciglio
Come volevasi dimostrare. Come ho scritto sopra gli screenshots (e il video) si riferisco semplicemente al demo dell'engine e non di un gioco.

A quanto pare non riesci a capire che la tecnologia (intendo dal punto di vista grafico) usata è la stessa ma cambiano i contenuti grafici.

Ad ogni modo fidati che ho capito molto bene quello che dice nel video... e non solo.

Beh, fra la tecnologia usata in Doom 3 e quella usata nella techdemo di Unreal 3 c'e' una sostanziale differenza.

Va anche detto che molta della qualita' di questa techdemo deriva dagl'ottimi grafici e dal fatto di usare texture map e normal map enormi. I due motori sono scritti per girare su due piattaforme diverse, hardware di generazione DX8 per Doom3 e hardware di generazione DX9/DX10 per Unreal 3.
Dal punto di vista puramente tecnico non c'e' nulla di piu' di quello che adesempio c'e' nell'ultima demo di Splinter Cell. Letteralmente nulla di piu': shadow mapping, blooming, parallax mapping. Tutte tecniche ormai piuttosto diffuse nei motori in produzione, che si vedranno fra la fine di quest'anno e il prossimo.

MSciglio
02-03-2005, 00:49
Originariamente inviato da fek
Beh, fra la tecnologia usata in Doom 3 e quella usata nella techdemo di Unreal 3 c'e' una sostanziale differenza.

Va anche detto che molta della qualita' di questa techdemo deriva dagl'ottimi grafici e dal fatto di usare texture map e normal map enormi. I due motori sono scritti per girare su due piattaforme diverse, hardware di generazione DX8 per Doom3 e hardware di generazione DX9/DX10 per Unreal 3.
Dal punto di vista puramente tecnico non c'e' nulla di piu' di quello che adesempio c'e' nell'ultima demo di Splinter Cell. Letteralmente nulla di piu': shadow mapping, blooming, parallax mapping. Tutte tecniche ormai piuttosto diffuse nei motori in produzione, che si vedranno fra la fine di quest'anno e il prossimo.

E' normale che ci siano differenze sostanziali tra Doom3 e i giochi UE3 powered. Ci stanno più di due anni di differenza. Come impatto visivo (mi riferisco alla demo) la differenza tra Doom3 (o Far Cry etc etc) la fanno esclusivamente le texture gigantesche, i grafici e l'HDR. Il sistema di ombre è decisamente migliore e invece del tradizionale normal mapping UE3 usa il parallax mapping (o offset normal mapping come lo chiamano loro...) che sai meglio di me essere un paio di istruzioni in più.
Il punto che tenevo a precisare è che se usato con "moderazione" l'UE3 non è affatto più pesante dei giochi che sono usciti in questi ultimi mesi e che usciranno nei prossimi.

fek
02-03-2005, 11:18
Originariamente inviato da MSciglio
con "moderazione" l'UE3 non è affatto più pesante dei giochi che sono usciti in questi ultimi mesi e che usciranno nei prossimi.

Sicuramente si', fermo restando che e' ancora in sviluppo quindi non ottimizzato.
Certe tecniche usate come la loro particolare implementazione dello shadow mapping sono comunque inerentemente pesanti, ma come hai detto giustamente tu ci sono due anni di differenza e sono due motori scritti per GPU con capacita' differenti.

Athlon 64 3000+
02-03-2005, 11:33
Originariamente inviato da fek
Sicuramente si', fermo restando che e' ancora in sviluppo quindi non ottimizzato.
Certe tecniche usate come la loro particolare implementazione dello shadow mapping sono comunque inerentemente pesanti, ma come hai detto giustamente tu ci sono due anni di differenza e sono due motori scritti per GPU con capacita' differenti.

LA cosa che mi preoccupa è che L'UE3 col cavolo che si riesce a far girare bene con un NV40.
Comunque dato che uscirà nel 2006 con gpu ben più potenti delle attuale allorà è un'altro discorso.

Matt77
02-03-2005, 11:40
Non capisco tutte queste s@@@e mentali, intanto se come e' vero i giochi che lo sfrutteranno usciranno non prima del 2006, per quella data piu' o meno tutti avremo a disposizione un buon pc/gpu per farlo girare, eppoi non e' possibile che una qualunque software house si dia il martello sulle p@@@e, e tagli fuori piu' del 90/95% del mercato che nn possiede schede di fascia alta, lo stesso doom3/HL2 si e' giocato con dettagli abbastanza alti anche con schede tipo 9600/9700 e affini, quindi........non fascìatevi la testa prima di rompervela, ciao

PS
certo se poi volete a tutti i costi giocare a 1600x1200 con tutti i filtri behh allora son fatti vostri.....;) ;)

Athlon 64 3000+
02-03-2005, 11:46
Originariamente inviato da Matt77
Non capisco tutte queste s@@@e mentali, intanto se come e' vero i giochi che lo sfrutteranno usciranno non prima del 2006, per quella data piu' o meno tutti avremo a disposizione un buon pc/gpu per farlo girare, eppoi non e' possibile che una qualunque software house si dia il martello sulle p@@@e, e tagli fuori piu' del 90/95% del mercato che nn possiede schede di fascia alta, lo stesso doom3/HL2 si e' giocato con dettagli abbastanza alti anche con schede tipo 9600/9700 e affini, quindi........non fascìatevi la testa prima di rompervela, ciao

PS
certo se poi volete a tutti i costi giocare a 1600x1200 con tutti i filtri behh allora son fatti vostri.....;) ;)

Questo no di sicuro, la mia soluzione di riferimento è 1024x768.
Hai ragione per esempio con una Radeon 9700 128 MB HL2 si pùò giocare al massimo del dettaglio mettendoci anche l'af a 4x e al momento HL2 è per me il motore grafico di referimento.
Io ci gioco a 1280x1024 tutto a palla con af 16x e il gioco non fà un piega.

Matt77
02-03-2005, 11:52
HL 2 va bene, ma io con una 9700pro ho giocato doom3 a 1024 senza filtri, tutti i dettagli su high, e in piu' il parallax mod e l'ultra quality mod installati, tutto ad una media di 30fps, pochi ma piu' che sufficienti per gustarmi il gioco in tutto il suo splendore.Chiedo scusa per essere uscito dalla discussione, cmq e' assurdo pensare che programmino un gioco che girera' solo dall'r520/nv47 in su', nn siamo ridicoli dai!!!:) ;)

Matt77
02-03-2005, 11:56
Concludo dicendo poi, che per chi vede la soglia della fluidita dai 100fps in su'(quando dai 50fps in su e' tutto fluidissimo), behh allora si devono attrezzare con un cluster o una renderfarm, ciao ciao.........;) :) :D

Psiche
02-03-2005, 11:56
IMHO il primo gioco che vedremo animato dall'UE3 è attualmente il lavorazione negli studi della Epic Games ed azzardo anche che l'uscità non sarà poi così lontana come si ipotizza ora... massimo per natale di quest'anno

Cmq ne sapremo molto di + tra una settimana al GDC.

;)

Matt77
02-03-2005, 12:00
Originariamente inviato da Psiche
IMHO il primo gioco che vedremo animato dall'UE3 è attualmente il lavorazione negli studi della Epic Games ed azzardo anche che l'uscità non sarà poi così lontana come si ipotizza ora... massimo per natale di quest'anno

Cmq ne sapremo molto di + tra una settimana al GDC.

;)

Si ma dovrebbe essere per xbox!!!!o xbox2?? vabbe' cmq per console......:)

MSciglio
02-03-2005, 13:04
Originariamente inviato da Athlon 64 3000+
LA cosa che mi preoccupa è che L'UE3 col cavolo che si riesce a far girare bene con un NV40.
Comunque dato che uscirà nel 2006 con gpu ben più potenti delle attuale allorà è un'altro discorso.

Secondo me non leggete i messaggi precedenti. Ho ripetuto circa 343245782345789 volte che il DEMO dell'engine non gira bene. E' un demo in quanto tale e' creato per dimostrare la tecnologia, non ha alcun obiettivo di garantire performance valide considerando che non e' nemmeno un demo rilasciato al pubblico.

MSciglio
02-03-2005, 13:07
Originariamente inviato da Matt77
Concludo dicendo poi, che per chi vede la soglia della fluidita dai 100fps in su'(quando dai 50fps in su e' tutto fluidissimo), behh allora si devono attrezzare con un cluster o una renderfarm, ciao ciao.........;) :) :D

Questi numeri non sono nemmeno tra gli obiettivi della Epic. Il frame rate di riferimento sara' 30fps.

MSciglio
02-03-2005, 13:09
Originariamente inviato da Matt77
Si ma dovrebbe essere per xbox!!!!o xbox2?? vabbe' cmq per console......:)

Mi sembra improbabile che facciano uscire un gioco XBox quando entro l'anno a quanto pare esce XBox2. Oltre tutto UE3 non e' fatto per XBox.

MaBru
02-03-2005, 13:10
Originariamente inviato da Psiche
IMHO il primo gioco che vedremo animato dall'UE3 è attualmente il lavorazione negli studi della Epic Games ed azzardo anche che l'uscità non sarà poi così lontana come si ipotizza ora... massimo per natale di quest'anno

Cmq ne sapremo molto di + tra una settimana al GDC.

;)
Stai parlando di Gears of Wars?

fd-82
02-03-2005, 13:10
Originariamente inviato da MSciglio
Secondo me non leggete i messaggi precedenti...


Hai ragione, ma se non fai sapere che sei un game developer... nessuno ti prenderà sul serio.:D

Banus
02-03-2005, 13:21
Originariamente inviato da MSciglio
Questi numeri non sono nemmeno tra gli obiettivi della Epic. Il frame rate di riferimento sara' 30fps.
Ciao Chtuhulu :D
Infatti il nuovo gioco della Epic non dovrebbe essere un FPS.

MSciglio
02-03-2005, 13:24
Originariamente inviato da Banus
Ciao Chtuhulu :D
Infatti il nuovo gioco della Epic non dovrebbe essere un FPS.

Ciao :D

xxxyyy
02-03-2005, 14:25
Originariamente inviato da Matt77
certo se poi volete a tutti i costi giocare a 1600x1200 con tutti i filtri behh allora son fatti vostri.....;) ;)

...quello che intendo fare io... e tiro avanti col mio ottimo catorcio di GF4 ancora per un annetto.
Per quello che dico sara' super pesante. Certo che se abbassi risoluzione, togli filtri e abbassi texture e effetti, andra' bene anche su una 9800 o GF6800... chesso'
:)

andreamarra
02-03-2005, 15:21
Originariamente inviato da MSciglio
State enfatizzando troppo la pesantezza dell'Unreal Engine 3.


E' una cosa che ultimamente dico anch'io.

Un conto è un demo tecnologico (e quini sovrabbondante in tutto), un conto è un gioco.

davestas
02-03-2005, 15:41
Originariamente inviato da Athlon 64 3000+
LA cosa che mi preoccupa è che L'UE3 col cavolo che si riesce a far girare bene con un NV40.
Comunque dato che uscirà nel 2006 con gpu ben più potenti delle attuale allorà è un'altro discorso.

Guarda che il 2006 è il prossimo anno non tra 3-4, e cmq non credo che in un anno piu' del 10% dei giocatori cambierà scheda e comprerà R520....

Matt77
02-03-2005, 15:50
Originariamente inviato da MaBru
Stai parlando di Gears of Wars?
Esatto, e ribadisco, dopo aver letto un'intervista ad un tizio di epic in giro per la rete, che il primo gioco, dovrebbe essere per xbox o cmq per console, non l'ho sognato, riporto cio' che ho letto.....ciao:) ;)

MSciglio
02-03-2005, 15:52
Originariamente inviato da Matt77
Esatto, e ribadisco, dopo aver letto un'intervista ad un tizio di epic in giro per la rete, che il primo gioco, dovrebbe essere per xbox o cmq per console, non l'ho sognato, riporto cio' che ho letto.....ciao:) ;)

xbox2

Matt77
02-03-2005, 15:53
Originariamente inviato da davestas
Guarda che il 2006 è il prossimo anno non tra 3-4, e cmq non credo che in un anno piu' del 10% dei giocatori cambierà scheda e comprerà R520....

il 10%????? Secondo me il 10% non e' nemmeno la percentuale di schede totali(ati/nvidia) per quel che riguarda la fascia alta, e per fascia alta intendo anche schede da 250/300euro, non solo quelle da 500/600euro!!!!(nell'arco di 12/18 mesi ovvio)

hellkeeperintheheaven
02-03-2005, 20:43
come ho capito siete troppo creduloni...
qualche anno fà pensavamo di far girare doom 3 prendendo in affitto un pc della nasa quando poi l'hò finito con una gf 3 vi rendete conto?!?!
la forza di un motore grafico non sta nel dettaglio che riesce a calcolare, ma il frame rate che può dare con i computer di fascia media, che misto ad una grafica dettaglita fa diventare un motore uno standard e un modello di riferimento (quake3) la tecnologia avanza anche a nostro favore, quindi penso che con una 6600gt
potreste giocarci tranquillamente a 1024


spero di convincervi.......:cool:

Marx01
02-03-2005, 21:32
Imho le attuali schede di fascia alta dotate di 512mb di memoria sono ok per far girare in modo dignitoso questo motore grafico nn escluderei che con una scheda con 128mb di fascia medio alta attuale si possa farlo girare ma secondo me sara' come fare girare doom3 attualmente con una geforce3.Questo motore grafico sara' davvero tosto perche' si iniziera' veramente a fare un uso sapiente e intensivo degli SM3.

MSciglio
02-03-2005, 21:59
Originariamente inviato da Marx01
Imho le attuali schede di fascia alta dotate di 512mb di memoria sono ok per far girare in modo dignitoso questo motore grafico nn escluderei che con una scheda con 128mb di fascia medio alta attuale si possa farlo girare ma secondo me sara' come fare girare doom3 attualmente con una geforce3.Questo motore grafico sara' davvero tosto perche' si iniziera' veramente a fare un uso sapiente e intensivo degli SM3.

Ti sbagli. Usa lo shader model 2.0. SM3 sarà utilizzato solo per qualche ottimizzazione (tipo più luci calcolate in un solo passo etc etc).
Tutte le schede DX9 sono e saranno in grado di far girare prodotti di UE3. Con 128mb il demo famoso gira a 3-5fps per via delle texture gigantesche che non entrano in memoria.

Alberello69
03-03-2005, 00:20
Originariamente inviato da MSciglio
..... Con 128mb il demo famoso gira a 3-5fps per via delle texture gigantesche che non entrano in memoria.
dove hai preso questi valori?

MSciglio
03-03-2005, 00:24
Originariamente inviato da Alberello69
dove hai preso questi valori?

Me li sono sognati ;)

xxxyyy
03-03-2005, 01:27
Originariamente inviato da hellkeeperintheheaven
come ho capito siete troppo creduloni...

Qui, almeno... io, penso si faccia riferimento al giocarci al top... e chiaro che girera' bene su schede di attuale fascia alta, ma ridicendo risoluzione, filtri, dettagli, etc etc...
Ma mi sembra abbastanza logico per un motore cosi' lontano nel tempo... diciamo almeno un anno...
E' sempre stato cosi', no?
:)

Banus
03-03-2005, 09:26
Originariamente inviato da MSciglio
Me li sono sognati ;)
:asd:
Ma non avevi passato ai raggi X la demo della Epic? :D

hellkeeperintheheaven
03-03-2005, 09:43
comunque confondete lunreal engine 3 con unreal 3,
con il motore di doom 3 si può arrivare anche ad un livello grafico molto simile a quello del famoso video che v fa(e mi fa) sbavare tanto.

:old:

Alberello69
03-03-2005, 09:59
be credo che la maggiorparte di noi conosca la differenza tra l'engine e il gioco!
l'engine di doom 3 non puo' raggiungere quei livelli di realismo, soprattutto per l'incredibile numero di poligoni che vengono generati nelle scene, e per la mancanza di quell'effetto di dissolvenza delle ombre che mostra nella scena illuminata con la lampada... (qualcuno sà come si chiama?)
P.S.
abbiamo visto tutti cosa hanno combinato con MOHPA utilizzando il motore di Quake3 con un elevatissimo numero di poligoni....praticamente sulla mai config mi scende a 15 fps in alcuni punti! scandaloso

prova
03-03-2005, 10:04
Originariamente inviato da hellkeeperintheheaven
AMD Atlon 1600+
1512mb ram
2x ge-force 6800ultra sli

[ot]
E tu hai un 1600+ con due 6800Ultra in SLI??!!??!! :rotfl:

Sei consapevole che sei totalmente cpu limited e che con quel processore già non sfrutti una 9800Pro, quindi figurarsi una 6800, vero? :)

hellkeeperintheheaven
03-03-2005, 10:21
mi rendo pienamente conto ma io non passo una settimana senza cambiare configurazione, il mio athlon fx 55 si è fuso e ho dovuto sostituirlo e... ....questo passava il convento...

attualmente ho due gb di ram e due 6600gt in sli con un 2200+,come avrai capito ci scambiamo i pezzi tra amici e ogni tanto facciamo cazzate(i 2 gb di ram e il processore, per exemplum)

:D

penso che ue3 utilizzi lo SM3 almeno cosi' sò...

G-DannY
03-03-2005, 10:21
Originariamente inviato da hellkeeperintheheaven
AMD Atlon 1600+
1512mb ram
2x ge-force 6800ultra sli

Un genio delle configurazioni hardware questo qui...

Soprattutto se ci avete fatto caso vorrei tanto capire dove è andato a pescare una m/b per athlon (1600 quindi thunderbird) con doppio pci-ex per lo sli :asd:

Bella li, i pallonari sono stupendi... :rolleyes:


E cmq al massimo sarebbero 1536mb di ram... ZZZZzzzz...

G-DannY
03-03-2005, 10:23
Originariamente inviato da hellkeeperintheheaven
attualmente ho due gb di ram e due 6600gt in sli con un 2200+,come avrai capito ci scambiamo i pezzi tra amici e ogni tanto facciamo cazzate(i 2 gb di ram e il processore, per exemplum)


Idem con patate... il 2200 se è un athlon è su nforce2... e nforce2 non supporta ne pci-ex ne lo sli...

Vai ancora, diccene ancora!!! :D

PS: :rotfl: (in effetti anche il mio 486 con 2 radeonX960 in sli e 8gb di ram fatica un pochino... e non so come mai cavolo... :rolleyes: )

hellkeeperintheheaven
03-03-2005, 10:36
"attualmente ho due gb di ram e due 6600gt in sli con un 2200+,come avrai capito ci scambiamo i pezzi tra amici e ogni tanto facciamo cazzate(i 2 gb di ram e il processore, per exemplum)..."

appunto come pensi di poterli mettere insieme con lo scotc?,ci ho provato ma poi mi andava in conflitto il longhorn..


:ahahah:

Alberello69
03-03-2005, 11:57
;)

http://alberello.altervista.org/forumimage/2156.jpg

http://alberello.altervista.org/forumimage/3114.jpg

http://alberello.altervista.org/forumimage/1267.jpg

davestas
03-03-2005, 14:50
ok, quindi mi state dicendo che non dovro' pentirmi presto dei circa 300 euro che spendero' nei prox giorni per la x800xl insieme al a64 3200+ o 3500+???':muro:

prova
03-03-2005, 15:13
Cazzo, nessuno ti sta dicendo che dovrai pentirti! Al momento è un'ottima configurazione, performanete e non troppo costosa.

Però non puoi pensare che quello che compri OGGI offra le stesse prestazioni nel FUTURO.

Il concetto di "oggi" e di "futuro" ti sono ben conosciuti, no? :)

Alberello69
03-03-2005, 15:14
lol

CapodelMondo
03-03-2005, 16:26
su beyondunreal hanno postato questa immagine che fa capire la differenza che ci sarà tra i vari unreal tournament visto che dicono che il prossimo si avvarrà del nuovo unreal engine..eccovi uno screen di confronto..

http://www.beyondunreal.com/image.php?src=content/potd_images/malcom.jpg

raven73
03-03-2005, 16:46
Originariamente inviato da CapodelMondo
su beyondunreal hanno postato questa immagine che fa capire la differenza che ci sarà tra i vari unreal tournament visto che dicono che il prossimo si avvarrà del nuovo unreal engine..eccovi uno screen di confronto..

http://www.beyondunreal.com/image.php?src=content/potd_images/malcom.jpg

Certo, vorrebero far credere ai creduloni che la grafica di UT2003-4 eè quella dello screen:rolleyes: .....

Banus
03-03-2005, 16:48
Originariamente inviato da CapodelMondo
http://www.beyondunreal.com/image.php?src=content/potd_images/malcom.jpg
:old:
gira da qualche mese :D

Le versioni 1 e 2 sono un po' abbruttite per fare risaltare la differenza, comunque il dettaglio è alto, fin troppo :p, si vedono anche le ombre della corazza :D

MSciglio
03-03-2005, 17:34
Originariamente inviato da Banus
:old:
gira da qualche mese :D

Le versioni 1 e 2 sono un po' abbruttite per fare risaltare la differenza, comunque il dettaglio è alto, fin troppo :p, si vedono anche le ombre della corazza :D

Ripeto... e' facile ottenere quel dettaglio con + di 21k poligoni e mappe a 2048x2048 separate per testa e corpo. Tranquilli comunque che i primi giochi che usciranno con UE3 non si spingeranno a tanto.

Banus
03-03-2005, 17:37
Originariamente inviato da MSciglio
Ripeto... e' facile ottenere quel dettaglio con + di 21k poligoni e mappe a 2048x2048 separate per testa e corpo. Tranquilli comunque che i primi giochi che usciranno con UE3 non si spingeranno a tanto.
Di sicuro un deathmatch a quel dettaglio è fuori dalle possibilità delle schede attuali e prossime :p
Gli screenshot postati nella pagina precedente invece mi sembrano più verosimili (soprattutto il secondo).

CapodelMondo
03-03-2005, 19:52
Originariamente inviato da Banus
:old:
gira da qualche mese :D

Le versioni 1 e 2 sono un po' abbruttite per fare risaltare la differenza, comunque il dettaglio è alto, fin troppo :p, si vedono anche le ombre della corazza :D


sarà old negli altri siti....qui nessuno l aveva messo ;) ..

la versione 2 non è per niente abbruttita fidati...

anke le primi immagini di doom3 (2 anni fa) sembravano fake ....

fek
03-03-2005, 20:01
Originariamente inviato da Matt77
il 10%????? Secondo me il 10% non e' nemmeno la percentuale di schede totali(ati/nvidia) per quel che riguarda la fascia alta, e per fascia alta intendo anche schede da 250/300euro, non solo quelle da 500/600euro!!!!(nell'arco di 12/18 mesi ovvio)

Al momento lo 0.8% di chi gioca ad HL2 possiede una 6800. Su Steam sono riportate le statistiche in tempo reale e sono interessantissime.

Purtroppo non ho il link sotto mano in questo momento.

Athlon 64 3000+
03-03-2005, 20:09
Originariamente inviato da fek
Al momento lo 0.8% di chi gioca ad HL2 possiede una 6800. Su Steam sono riportate le statistiche in tempo reale e sono interessantissime.

Purtroppo non ho il link sotto mano in questo momento.

Nenche L'1%.
Infatti micca tutti si possono o non volgio spendere dei soldi per prendere una 6800 o una X800.
Se riesci a trovare il link mettilo perchè sono molto curioso.
(off topic)Sono l'utente simone3dfx di nvitalia con cui hai avuto un discussione accesa.

Marx01
03-03-2005, 20:17
Originariamente inviato da hellkeeperintheheaven
come avrai capito ci scambiamo i pezzi tra amici e ogni tanto facciamo cazzate


e anche belle grosse
:D

Marx01
03-03-2005, 20:23
Originariamente inviato da davestas
ok, quindi mi state dicendo che non dovro' pentirmi presto dei circa 300 euro che spendero' nei prox giorni per la x800xl insieme al a64 3200+ o 3500+???':muro:

nel 2006 c saranno i processori dual core
:cool:

xxxyyy
03-03-2005, 20:31
Originariamente inviato da davestas
ok, quindi mi state dicendo che non dovro' pentirmi presto dei circa 300 euro che spendero' nei prox giorni per la x800xl insieme al a64 3200+ o 3500+???':muro:

Pentiti! Perche il giorno del giudizio e' vicino!

lowenz
03-03-2005, 22:10
UN-real è sempre UN pezzo in là :D

R@nda
03-03-2005, 22:14
Sta a vedere che alla fine avremo il motore di Ut2004 con l'aggiunta delle ultime tecnologie e nulla più.

Non che mi faccia schifo ....:D

lowenz
03-03-2005, 22:18
Originariamente inviato da R@nda
Sta a vedere che alla fine avremo il motore di Ut2004 con l'aggiunta delle ultime tecnologie e nulla più.

Non che mi faccia schifo ....:D

E' sempre così in informatica, anzi DEVE esserlo: non pensiate si butti via il lavoro svolto tanto faticosamente negli anni precedenti, lo si integra e aggiorna ;)
Non ha senso ricominciare TUTTO da 0 :)
Un buon progetto software infatti è quello modificabile facilmente in futuro, non quello statico e immutabile.

MSciglio
03-03-2005, 22:21
Originariamente inviato da R@nda
Sta a vedere che alla fine avremo il motore di Ut2004 con l'aggiunta delle ultime tecnologie e nulla più.

Non che mi faccia schifo ....:D

Un buon 80% dell'engine è rimasto invariato.

street
03-03-2005, 22:47
Originariamente inviato da Marx01
nel 2006 c saranno i processori dual core
:cool:

si ma bisognerebbe vedere se l' Ue3 é stato parallelizzato oppure no.

Altrimenti potresti rippare un dvd senza perdere fps mentre sei in DM, ma come utilità sarebbe scarsa

Alberello69
03-03-2005, 22:51
da quello che ho capito i giochi , almeno nell'immediato futuro, non trarranno beneficio dall'architettura dual core....da questo deriva la scelta di amd di presentare i dual core nella serie a64, AMD dice che il riferimento assoluto in campo game continuerà ad essere la serie FX in single core....

Alberello69
03-03-2005, 22:52
almeno all'inizio....

MSciglio
03-03-2005, 23:00
Originariamente inviato da Alberello69
da quello che ho capito i giochi , almeno nell'immediato futuro, non trarranno beneficio dall'architettura dual core....da questo deriva la scelta di amd di presentare i dual core nella serie a64, AMD dice che il riferimento assoluto in campo game continuerà ad essere la serie FX in single core....

Ci si adatterà molto presto al multiprocessing considerando le console che verranno. Anche UE3 si adatterà a questo nel prossimo futuro.

Alberello69
03-03-2005, 23:19
il motore di U3 ormai è fatto....fek ci puoi confermare che una volta scritto è impossibile fare ottimizzazioni così a basso livello?

MSciglio
03-03-2005, 23:58
Originariamente inviato da Alberello69
il motore di U3 ormai è fatto....fek ci puoi confermare che una volta scritto è impossibile fare ottimizzazioni così a basso livello?

L'UE3 è ancora in fase di sviluppo e il supporto per il multiprocessing è un MUST per i prossimi engine che intendono sfruttare le console next-gen.

Alberello69
04-03-2005, 00:16
Lo spero anche io...comunque il mio prossimo upgrade l'ho programmato per la fine del 2006.

MaBru
10-03-2005, 12:17
Ci sono dei nuovi filmati presi al GDC 2005 con la videocamera.
Video 1 (http://zdmedia.vo.llnwd.net/o1/1UP/unreal3_demo1_Quicktime.zip)
Video 2 (http://zdmedia.vo.llnwd.net/o1/1UP/unreal3_demo2_Quicktime.zip)
Video 3 (http://zdmedia.vo.llnwd.net/o1/1UP/unreal3_demo3_Quicktime.zip)
Video 4 (http://zdmedia.vo.llnwd.net/o1/1UP/unreal4_demo4_Quicktime.zip)
La qualità è appena discreta.

tonaz
10-03-2005, 14:12
il quarto video punta al 3. non esiste un 4 video credo. impressionante cmq...bella roba

X-ICEMAN
10-03-2005, 15:11
Originariamente inviato da tonaz
il quarto video punta al 3. non esiste un 4 video credo. impressionante cmq...bella roba
esiste ed è anche ( probabilmente ) il più impressive tra quelli resi pubblici ( ci sono pezzi che non si sono ancora visti online, tra cui scene di combattimento :) stando a gamespot e ign)

http://zdmedia.vo.llnwd.net/o1/1UP/unreal4_demo4_Quicktime.zip

fek
10-03-2005, 15:25
Originariamente inviato da Athlon 64 3000+
Nenche L'1%.
Infatti micca tutti si possono o non volgio spendere dei soldi per prendere una 6800 o una X800.
Se riesci a trovare il link mettilo perchè sono molto curioso.
(off topic)Sono l'utente simone3dfx di nvitalia con cui hai avuto un discussione accesa.

Ma nulla di acceso, figurati :)

Ecco il link:
http://www.steampowered.com/status/survey.html


ATI Radeon 9800 Series 170,087 11.89 %
NVidia GeForce4 MX Series 145,075 10.14 %
ATI Radeon 9600 Series 144,809 10.12 %
NVidia GeForce4 Series 128,324 8.97 %
NVidia GeForce FX 5200 Series 111,023 7.76 %
NVidia GeForce2 MX Series 83,263 5.82 %
ATI Radeon 9500/9700 Series 58,888 4.12 %
ATI Radeon 9200 Series 56,755 3.97 %
NVidia GeForce FX 5600 Series 52,904 3.70 %
Unknown 31,048 2.17 %
NVidia GeForce3 Series 30,897 2.16 %
NVidia GeForce FX 5700 Series 29,409 2.06 %
NVidia GeForce FX 5900 Series 27,956 1.95 %
Intel 845 23,043 1.61 %
NVidia GeForce 6800 GT 22,575 1.58 %
NVidia TNT2 Series 19,235 1.34 %
ATI Radeon 9000 Series 17,997 1.26 %
NVidia GeForce2 Series 17,166 1.20 %
ATI Mobility Radeon 9600/9650/9700 Series 15,916 1.11 %
ATI Radeon X800 PRO 15,163 1.06 %
NVidia GeForce FX 5700LE 14,620 1.02 %
NVidia GeForce FX 5900 12,850 0.90 %
SiS 650/651/M650/740 9,441 0.66 %
ATI Radeon 8500 Series 9,153 0.64 %
NVidia GeForce 6800 8,988 0.63 %
ATI Radeon 7000 Series 8,110 0.57 %
NVidia GeForce FX 5500 7,890 0.55 %
ATI Mobility Radeon 8500/9000/9200 7,860 0.55 %
S3 Graphics ProSavageDDR 7,428 0.52 %
NVidia GeForce FX 5950 Series 7,296 0.51 %
Intel 810 6,644 0.46 %
ATI Radeon 7500 Series 5,684 0.40 %
Intel 852/855 5,168 0.36 %
ATI Radeon X800 XT 5,013 0.35 %
ATI Radeon X800 XT Platinum Edition 4,765 0.33 %
NVidia GeForce 6800 Ultra 4,705 0.33 %
ATI Radeon 9550 (RV350LX) 4,665 0.33 %
ATI Radeon X300 Series 4,461 0.31 %
ATI Mobility Radeon 7500 4,456 0.31 %
NVidia GeForce FX Go5200 3,694 0.26 %
ATI Radeon 9100 3,670 0.26 %
ATI Radeon IGP 340M 3,483 0.24 %
ATI Radeon 7200 Series 3,147 0.22 %
SiS 300/305/630/540/730 3,137 0.22 %
NVidia GeForce2 Integrated GPU 2,887 0.20 %
NVidia TNT Series 2,839 0.20 %
ATI Radeon X600 Series 2,654 0.19 %
NVidia GeForce4 420 Go 2,413 0.17 %
NVidia GeForce FX Go5600 2,408 0.17 %

Banus
10-03-2005, 15:27
Ho visto il 2 e il 3. Bellissimo il 2 con la sequenza infinita stile cartone animato :D
Vedo che si pone sempre più enfasi sulla fisica. Questo assieme all'annuncio del primo acceleratore fisico (su cui esistono già accordi con Epic) fa pensare che ormai la prossima frontiera è la simulazione fisica.

fek
10-03-2005, 15:37
Originariamente inviato da lowenz
E' sempre così in informatica, anzi DEVE esserlo: non pensiate si butti via il lavoro svolto tanto faticosamente negli anni precedenti, lo si integra e aggiorna ;)
Non ha senso ricominciare TUTTO da 0 :)
Un buon progetto software infatti è quello modificabile facilmente in futuro, non quello statico e immutabile.


Hmmm... oddio... hmmm... dipende.
Spesso e' piu' conveniente e veloce buttare via tutto e ripartire da 0.

La tecnologia 3d cambia talmente in fretta che larga parte del codice scritto anche solo tre o quattro anni fa non ha piu' senso di esistere oggi, dev'essere modificato e aggiornato.
Aggiornare un sistema esistente ha un costo; a volte costa meno riscriverlo.

Queste sono considerazioni generali, poi dipende sempre da caso a caso, l'idea e' che se la qualita' del codice non e' abbastanza alta e se il nuovo motore dev'essere abbastanza diverso dal precedente, ha senso riscriverlo incorporando le nuove conoscenze, invece di sottoporre il precedente ad un pesante refactoring.

fek
10-03-2005, 15:42
Originariamente inviato da Alberello69
il motore di U3 ormai è fatto....fek ci puoi confermare che una volta scritto è impossibile fare ottimizzazioni così a basso livello?

Anche qui dipende molto dalla situazione. Sicuramente il motore non e' fatto e fino a "qualche mese" prima dell'uscita e' sempre possibile ottimizzare. Magari il supporto totale al multiprocessing no, ma sicuramente alcuni sistemi si adatteranno a questa situazione secondo me.

Ecco un buon esempio di quello che dicevo prima: invece di adattare un motore esistente al multiprocessing, costa probabilmente meno riscriverlo da zero con questa architettura in mente.

xxxyyy
10-03-2005, 15:43
Bella la cittadina del quarto video.
Prevedo 1Gb RAM video....
:)
Pero' niente comabattimenti... magari in prossimi video.

R@nda
10-03-2005, 16:02
Il 4 è uno spettacolo davvero!:eek:

fek
10-03-2005, 16:06
Originariamente inviato da xxxyyy
Bella la cittadina del quarto video.
Prevedo 1Gb RAM video....
:)
Pero' niente comabattimenti... magari in prossimi video.

Si', molto bella. Anche l'acqua :p

Vash88
10-03-2005, 16:12
Davvero incredibile. Ma non esiste nessun filmato di qualità migliore?:( Screenshot?? Vorrei rifarmi il desktop!;)

Xilema
10-03-2005, 16:35
Questo motore è davvero sconvolgente, non ho parole...

fabiannit
10-03-2005, 17:03
Originariamente inviato da Trabant
Si, l'Unreal 3 si avvicina ... e con lui la fine dei nostri poveri piccì :cry:


spero che nn debba spendere altri soldi dopo i 500€ per la x800xt per giocarci!!

voi che ne dite?cona le vga attuali come ci potremo giocare??

Alberello69
10-03-2005, 17:23
Originariamente inviato da fabiannit
spero che nn debba spendere altri soldi dopo i 500€ per la x800xt per giocarci!!

voi che ne dite?cona le vga attuali come ci potremo giocare??
...si certo, pero' a 1280 senza filtri e texture medie :muro:

xxxyyy
10-03-2005, 17:31
Originariamente inviato da fabiannit
spero che nn debba spendere altri soldi dopo i 500€ per la x800xt per giocarci!!

voi che ne dite?cona le vga attuali come ci potremo giocare??

Tranquillo, sara' giocabile anche su S3 Vision864.
:D

Ma certo che ci giochi. Non pretendere di giocarci al massimo... mi sembra ovvio... visto che i primi giochi usciranno tra un anno...

X-ICEMAN
10-03-2005, 17:32
Originariamente inviato da fabiannit
spero che nn debba spendere altri soldi dopo i 500€ per la x800xt per giocarci!!

voi che ne dite?cona le vga attuali come ci potremo giocare??
no problem spendi meno e compra un xbox2 con cui ci giochi ( ai titoli con l' UE3.0 in questo caso) anche meglio che con una X800XT :)

Alberello69
10-03-2005, 18:16
Originariamente inviato da X-ICEMAN
no problem spendi meno e compra un xbox2 con cui ci giochi ( ai titoli con l' UE3.0 in questo caso) anche meglio che con una X800XT :)
si come no!
sulla televisione con i pixel grandi quanto una ciliegia... :sofico:

fek
10-03-2005, 18:20
Originariamente inviato da Alberello69
si come no!
sulla televisione con i pixel grandi quanto una ciliegia... :sofico:

No, sull'HDTV :cool:

reptile9985
10-03-2005, 18:32
Originariamente inviato da fek
No, sull'HDTV :cool:

allora dammi 6000€ ke la compro :sofico:

lowenz
10-03-2005, 18:39
Originariamente inviato da fek
Aggiornare un sistema esistente ha un costo; a volte costa meno riscriverlo.


Credo che per FPS online questo abbia riguardato ultimamente soprattutto il netcode, più ancora che il motore geometrico in sè ;)

BTinside
10-03-2005, 19:46
Originariamente inviato da fabiannit
spero che nn debba spendere altri soldi dopo i 500€ per la x800xt per giocarci!!

voi che ne dite?cona le vga attuali come ci potremo giocare??

Benino! E' fresca fresca la notizia che il primo gioco ad utilizzare l'UE 3.0 uscirà nel 2006 e i requisiti minimi sono.....rullo di tamburi.........Geforce 6600GT:eek:
Impressionante ragazzi, davvero impressionante....
Nel 2006 la 6600GT sarà già mooolto economica.

;)

BTinside
10-03-2005, 19:52
Originariamente inviato da andreamarra
che 10-15 fps nei giochi odierni sono una differenza enorme.

Se i giochi vanno a 330 e tu ne fai 320 allora la differenza è assolutamente minima.

Ma i giochi di adesso sono molto esosi, se in un punto con Riddick faccio 27 fps, 10 in più sarebbero decisamente ben accetti.

Si ma 10-15 fps di vantaggio li ha appunto, come dici tu, con giochi leggeri. Appena cominciano le cose pesanti e si scenderà fino a 25fps mi sà ke il vantaggio di 10fps non ci sarà più, magari 3-4fps

MSciglio
10-03-2005, 19:54
Originariamente inviato da fek
Anche qui dipende molto dalla situazione. Sicuramente il motore non e' fatto e fino a "qualche mese" prima dell'uscita e' sempre possibile ottimizzare. Magari il supporto totale al multiprocessing no, ma sicuramente alcuni sistemi si adatteranno a questa situazione secondo me.

Ecco un buon esempio di quello che dicevo prima: invece di adattare un motore esistente al multiprocessing, costa probabilmente meno riscriverlo da zero con questa architettura in mente.

L'engine è sostanzialmente quasi "features-complete" e d'ora in avanti verranno fatte quasi esclusivamente ottimizzazioni.
Il supporto per il multiprocessing ci sarà e non è nemmeno così drammatico introdurlo poiché l'engine è strutturato bene e ben modulare. Tutto sommato si tratta di distribuire la complessità computazionale su più risorse.

X-ICEMAN
10-03-2005, 19:56
Originariamente inviato da reptile9985
allora dammi 6000€ ke la compro :sofico:
esagerato...

bastan 1200€ e ti porti a casa il Dell da 24" che supporta perfettamente le risoluzioni hdtv e ha tutte le connessioni del caso ( già ordinato che farà compagnia al mio Tv sharp aquos da 26" anche lui HDTV :) gheeee in casa ice dual hdtv :D )

Vash88
10-03-2005, 20:05
Veramente su gamespot dicono che si giocherà con una Geforce 6600GT tranquillamente, immagino a 1024x768 su medio-alto.
E dice che per allora sarà scesa considerevolmente di prezzo....

Athlon 64 3000+
10-03-2005, 20:10
Originariamente inviato da Vash88
Veramente su gamespot dicono che si giocherà con una Geforce 6600GT tranquillamente, immagino a 1024x768 su medio-alto.
E dice che per allora sarà scesa considerevolmente di prezzo....

Non aveva detto che la 6600GT era il requisito minimo per giocarci in maniera decente?

BTinside
10-03-2005, 20:15
Originariamente inviato da fek
Dal punto di vista puramente tecnico non c'e' nulla di piu' di quello che adesempio c'e' nell'ultima demo di Splinter Cell. Letteralmente nulla di piu': shadow mapping, blooming, parallax mapping. Tutte tecniche ormai piuttosto diffuse nei motori in produzione, che si vedranno fra la fine di quest'anno e il prossimo.

Infatti prima che tu dicessi questo stavo guardando gli screens di UE3.0 e notavo che in effetti tutta questa differenza con l'ultimo Splinter Cell non la trovo, anzi trovo molte similitudini, persino le cose troppo "lucide" a volte.

MaBru
10-03-2005, 20:28
Originariamente inviato da tonaz
il quarto video punta al 3. non esiste un 4 video credo. impressionante cmq...bella roba
Ho corretto. Avevo linkato il terzo. Sorry.

Trabant
10-03-2005, 20:30
Secondo me per il motore fisico hanno fatto una sboronata pazzesca, vedere una decina di oggetti di forma e dimensioni diverse, alcuni dei quali snodabili, muoversi secondo le leggi della gravità o di un campo elettromagnetico è quasi impensabile.

Mi chiedo che capacità di CPU sia necessaria per la sola gestione di una fisica così verosimile, se poi pensiamo che in un gioco "reale" ci sarà anche da gestire l'AI dei NPC (almeno si spera) mi domando quanto effettivamente possa essere utile "in game" e non rimanga un puro esercizio di classe.

Molto probabilmente stanno investendo in un engine che dovrà durare almeno una decina d'anni, forse solo un un'arco temporale di quest'ordine di grandezza avremo macchine in grado di sfruttarne tutte le possibilità.

xxxyyy
10-03-2005, 20:40
Originariamente inviato da BTinside
Benino! E' fresca fresca la notizia che il primo gioco ad utilizzare l'UE 3.0 uscirà nel 2006 e i requisiti minimi sono.....rullo di tamburi.........Geforce 6600GT:eek:
Impressionante ragazzi, davvero impressionante....
Nel 2006 la 6600GT sarà già mooolto economica.

;)

E i requisiti minimi sappiamo tutti cosa vogliono dire...

Peccato che non ci sia in rete il filmato di gamaplay reale... possibile che non siano riusciti a filmarlo?

Trabant
10-03-2005, 20:44
Ho visto anche il Demo4 ... la città è impressionante :eek:

Vash88
10-03-2005, 20:53
Una decina d'anni è una cosa irrealizzabile, guarda cosa c'era sul mercato 10 anni fa.... ;)

Per la fisica
To demonstrate this, Epic showed an Unreal Engine 3 demo in which boulders rolled down a hill. In Unreal Tournament 2003, the engine could calculate and display about 10 boulders rolling down a hill at a time. Unreal Tournament 2004 increased that number to about 20. Both of those combined are nowhere close to the number of physical objects that Unreal Engine 3 can handle at the same time. To illustrate this, an avalanche of more than 600 boulders rolled down the hill, each reacting realistically to collisions and each casting its own shadow.


Mark Rein
He said that a video card based on an Nvidia 6600GT, the kind currently available for around $250, will be able to handle games based on the engine easily. However, by the time any games based on Unreal Engine 3 ship next year, those cards will have dropped in price considerably, meaning that PC gamers won't drop big bucks on upgrades.


Per l'articolo completo guardate qua!
http://www.gamespot.com/news/2005/03/09/news_6120126.html

STICK
10-03-2005, 20:54
Originariamente inviato da fek
Anche qui dipende molto dalla situazione. Sicuramente il motore non e' fatto e fino a "qualche mese" prima dell'uscita e' sempre possibile ottimizzare. Magari il supporto totale al multiprocessing no, ma sicuramente alcuni sistemi si adatteranno a questa situazione secondo me.

Ecco un buon esempio di quello che dicevo prima: invece di adattare un motore esistente al multiprocessing, costa probabilmente meno riscriverlo da zero con questa architettura in mente.


fek,su cosa si basa un motore grafico in grado di sfruttare il multiprocessing e le architetture a 64 bit?

Banus
10-03-2005, 21:21
Originariamente inviato da Trabant
Secondo me per il motore fisico hanno fatto una sboronata pazzesca, vedere una decina di oggetti di forma e dimensioni diverse, alcuni dei quali snodabili, muoversi secondo le leggi della gravità o di un campo elettromagnetico è quasi impensabile.
Cambiare l'orientamento delle forze è elementare (era supportato già da Serious Sam 1), il difficile è gestire le collisioni. E nel video di oggetti ce n'erano :D
Secondo me la sboronata è il cubo di gelatina che trattiene i corpi... ho visto che il movimento rallentava dentro il cubo, e lasciando gli oggetti rimanevano intrappolati. Sono curioso di sapere quale tecnica potrebbe essere stata usata, è probabile un bounding box (vista la forma semplice).

MSciglio
10-03-2005, 21:24
Originariamente inviato da Vash88
Una decina d'anni è una cosa irrealizzabile, guarda cosa c'era sul mercato 10 anni fa.... ;)

Per la fisica


Mark Rein



Per l'articolo completo guardate qua!
http://www.gamespot.com/news/2005/03/09/news_6120126.html

Si riferisce ai giochi sviluppati con UE3, non il video. Ti garantisco che non vedrai quelle cose con una 6600GT dato che ora ci vogliono 2 6800 Ultra in SLI.

Alberello69
10-03-2005, 22:25
Originariamente inviato da X-ICEMAN
esagerato...

bastan 1200€ e ti porti a casa il Dell da 24" che supporta perfettamente le risoluzioni hdtv e ha tutte le connessioni del caso ( già ordinato che farà compagnia al mio Tv sharp aquos da 26" anche lui HDTV :) gheeee in casa ice dual hdtv :D )
guarda che tu confondi con il supporto in INGRESSO al segnale HDTV.... sicuramente la tele che hai preso non è a 1440 x 1080 ;)

andreamarra
10-03-2005, 22:26
Originariamente inviato da Banus

Secondo me la sboronata è il cubo di gelatina che trattiene i corpi... ho visto che il movimento rallentava dentro il cubo, e lasciando gli oggetti rimanevano intrappolati. Sono curioso di sapere quale tecnica potrebbe essere stata usata, è probabile un bounding box (vista la forma semplice).

una cosa molto ma molto simile c'è in HL2 in un livello particolare (bellissimo), con una specie di campo magnetico "viscoso" che trattiene i corpi, e che si muovono leggerissimamente.

In più l'immagine del corpo all'interno di questo campo di forza gelatinoso si deformava in tempo reale.

Non so se ce l'hai presente, forse è una tecnica simile a quella usata in questo motore.

Banus
10-03-2005, 22:44
Originariamente inviato da andreamarra
Non so se ce l'hai presente, forse è una tecnica simile a quella usata in questo motore.
No. no ce l'ho presente.
Perchè non ho finito quel gioco :muro: :muro:
Purtroppo il mio Athlon 900 non ha retto dopo la metà del gioco... troppa roba. Era ingiocabile :p

Comunque da come lo descrivi assomiglia vagamente alla visione sott'acqua di Turok. Probabilmente è abbastanza semplice da creare come effetto (componente di forze viscosa: una equazione; effetto di deformazione: come lo shader di rifrazione dell'acqua).

andreamarra
10-03-2005, 22:48
Originariamente inviato da Banus
No. no ce l'ho presente.
Perchè non ho finito quel gioco :muro: :muro:
Purtroppo il mio Athlon 900 non ha retto dopo la metà del gioco... troppa roba. Era ingiocabile :p

Comunque da come lo descrivi assomiglia vagamente alla visione sott'acqua di Turok. Probabilmente è abbastanza semplice da creare come effetto (componente di forze viscosa: una equazione; effetto di deformazione: come lo shader di rifrazione dell'acqua).

praticamente è uguale all'effetto del video dove c'è il cubo gelatinoso che ingloba il corpo del soldato.

Dovresti vederlo dal vivo, comunque è in un livello mooooolto avanzato, non posto shot altrimetni spoilero tantissimo :D

Alberello69
10-03-2005, 23:02
Originariamente inviato da andreamarra
praticamente è uguale all'effetto del video dove c'è il cubo gelatinoso che ingloba il corpo del soldato.

Dovresti vederlo dal vivo, comunque è in un livello mooooolto avanzato, non posto shot altrimetni spoilero tantissimo :D
daiii vogliamo gli shot!!:D
siamo su un'altra discussione...non ci sono problemi

Vash88
10-03-2005, 23:31
Originariamente inviato da MSciglio
Si riferisce ai giochi sviluppati con UE3, non il video. Ti garantisco che non vedrai quelle cose con una 6600GT dato che ora ci vogliono 2 6800 Ultra in SLI.

Già hai ragione. Cmq per ora Unreal 3 non è stato ancora annuciato. :confused:

X-ICEMAN
10-03-2005, 23:43
Originariamente inviato da Alberello69
guarda che tu confondi con il supporto in INGRESSO al segnale HDTV.... sicuramente la tele che hai preso non è a 1440 x 1080 ;)

per il dell non ci sono problemi perchè il display ha risoluzione nativa a 1920*1080 e supporto di tutti i segnali hdtv ovviamente



lo sharp ha il pannello con risoluzione 1366*768

le specifiche hdtv principali sono 2
720p con risoluzione 1280 x 720 @ 60 hz
1080i/1080p con risoluzione 1920 x 1080 @ 60hz

lo sharp in questione supporta entrambi i segnali, dove il 720p rientra pienamente nella risoluzione del pannello, mentre il segnale 1080i ( supportato perfettamente ) viene scalato alla risoluzione massima del pannello sharp ( credo dallo scaler interno al tv, ma non ci giurerei )

ho già avuto modo di giocare ai pochi titoli xbox in 720p ed ai pochissimi in 1080i con risultati eccezionali ( se si paragona alla schifo-risoluzione delle tv normali ) ed ho provato tramite portatile connesso via dvi a visualizzare filmati demo di windows con supporto hdtv ( pure quelli perfettamente visualizzati ) http://www.microsoft.com/windows/windowsmedia/content_provider/film/contentshowcase.aspx


detto questo, il problema non si pone. perchè tanto i giochi xbox2 saranno sviluppati per lo standard 720p ( anche perchè renderizzare a 1920*1080 è quasi "troppo" persino per le schede 3d per pc con chilate di ram a bordo :) )


fine ot sulle hdtv ed xbox2 ( citando anche il fatto, che Microsoft ha preso in licenza proprio l'unreal engine 3.0 per lo sviluppo di alcuni dei suoi futuri titoli interni, praticamente tutti esclusi i lavori bungie e probabilmente rare :) che useranno engine proprietari, quindi direi che non solo Xbox2 gestirà molto bene l' UE 3.0, ma qualcosa mi dice che Ati avrà parecchi feedback a riguardo, e che su pc i giochi con l' UE3.0 gireranno abbastanza ottimizzati )

Alberello69
11-03-2005, 10:23
mi scrivi i modelli di queste tv perchè sono interessato,
grazie

fek
11-03-2005, 10:38
Originariamente inviato da STICK
fek,su cosa si basa un motore grafico in grado di sfruttare il multiprocessing e le architetture a 64 bit?

Appena ne scrivo uno te lo dico :)

Le architetture a 64 bit servono a poco in questo campo, anzi, potrebbero causare un rallentamento dovuto all'aumento del working set, visto che ogni puntatore e' grande il doppio, controbilanciato dalla maggiore efficienza globale dell'architettura pero' (al di la' dei calcoli a 64 bit di cui non ho mai avuto bisogno).

Per sfruttare il multiprocessing, invece il discorso si complica notevolmente. Posso immaginare una struttura con diversi working thread che gestiscono ognuno un modello, ad esempio, e lo preparano per la visualizzazione e poi si sincronizzano per mandare ogni modello alla scheda grafica. Lo stesso per il sistema di animazioni che potrebbe gestire ogni animazione in un thread separato. Ma finche' non ci metto le zampe sopra non saprei essere piu' preciso, perche' a parte pochi esperimenti non ho mai programmato nulla di pesantemente multiprocessing (a parte il multiprocessing fra CPU e GPU, ma questo e' un altro discorso).


Originariamente inviato da andreamarra
In più l'immagine del corpo all'interno di questo campo di forza gelatinoso si deformava in tempo reale.

Non so se ce l'hai presente, forse è una tecnica simile a quella usata in questo motore.

Ecco, questa e' una cosa interessante, perche' l'effetto e' banale ma ha un bell'impatto :)

Sostanzialmente e' lo stesso effetto delle demo per Amiga di piu' di dieci anni fa. Corsi e ricorsi storici.
L'idea e' che il cubo scrive in un buffer un'informazione per ogni pixel che dice di quanto spostare a destra/sinistra o alto/basso il pixel stesso. Alla fine della scena, in fase di postprocessing, di recupera quest'informazioni per ogni pixel da un buffer di distorsione e invece di "mandare a schermo" il pixel, si manda a schermo quello "un po' piu' in la'" in base all'informazione di distorsione. Con lo stesso semplice framework si fa anche heat haze, gli effetti di distorsione di HL2, shock wave, rifrazioni del vetro.

Non e' strettamente necessario farlo in post processing, io l'ho fatto cosi' perche' mi veniva comodo per altri motivi, ma si puo' fare tutto nel pixel shader che disegna il cubo.

street
11-03-2005, 10:43
già che ci sei, fek, mi puoi dire quanto impatta la gestione della A.I. in un fps? Nel senso, gestire 30 bot da un punto di vista non grafico ma di intelligenza artificiale é pesante per i pc di oggi?

E dalla tua esperienza pesa maggiormente gestire 30 bot o 30 "umani", o magari la differenza é appena percettibile?

fek
11-03-2005, 10:55
Originariamente inviato da street
già che ci sei, fek, mi puoi dire quanto impatta la gestione della A.I. in un fps? Nel senso, gestire 30 bot da un punto di vista non grafico ma di intelligenza artificiale é pesante per i pc di oggi?

E dalla tua esperienza pesa maggiormente gestire 30 bot o 30 "umani", o magari la differenza é appena percettibile?

Non saprei perche' non ho mai programmato AI.
Spannometricamente parlando, direi che e' piu' pesante gestire 30 bot.

STICK
11-03-2005, 12:33
Originariamente inviato da fek
Appena ne scrivo uno te lo dico :)

Le architetture a 64 bit servono a poco in questo campo, anzi, potrebbero causare un rallentamento dovuto all'aumento del working set, visto che ogni puntatore e' grande il doppio, controbilanciato dalla maggiore efficienza globale dell'architettura pero' (al di la' dei calcoli a 64 bit di cui non ho mai avuto bisogno).

Per sfruttare il multiprocessing, invece il discorso si complica notevolmente. Posso immaginare una struttura con diversi working thread che gestiscono ognuno un modello, ad esempio, e lo preparano per la visualizzazione e poi si sincronizzano per mandare ogni modello alla scheda grafica. Lo stesso per il sistema di animazioni che potrebbe gestire ogni animazione in un thread separato. Ma finche' non ci metto le zampe sopra non saprei essere piu' preciso, perche' a parte pochi esperimenti non ho mai programmato nulla di pesantemente multiprocessing (a parte il multiprocessing fra CPU e GPU, ma questo e' un altro discorso).





scusa fek,ma allora il processore Cell della prossima PS3,così come la cpu della Xbox2 che sono a 64 bit che vantaggi avranno?
A meno che i 64 bit di queste cpu rispetto alle architetture x86-64 abbiano un altro significato.

STICK
14-03-2005, 13:50
Originariamente inviato da fek


Per sfruttare il multiprocessing, invece il discorso si complica notevolmente. Posso immaginare una struttura con diversi working thread che gestiscono ognuno un modello, ad esempio, e lo preparano per la visualizzazione e poi si sincronizzano per mandare ogni modello alla scheda grafica. Lo stesso per il sistema di animazioni che potrebbe gestire ogni animazione in un thread separato. Ma finche' non ci metto le zampe sopra non saprei essere piu' preciso, perche' a parte pochi esperimenti non ho mai programmato nulla di pesantemente multiprocessing (a parte il multiprocessing fra CPU e GPU, ma questo e' un altro discorso).




ecco un articolo fresco in merito al multiprocessing nei giochi:
AnanTech ha pubblicato un articolo sulle possibilità dell'utilizzo dei Multi-core e multi-threading nei giochi. Trovate anche un'intervista sull'argomento a Tim Sweeney capo programmatore della Epic.

http://anandtech.com/cpuchipsets/showdoc.aspx?i=2377

andreamarra
14-03-2005, 13:53
gli ambienti e gli effetti ricreati sono magnifici.

Solo che non ho personalmente visto quasi nulla su come si comporta questo engine con le ombre. in vari filmati si vedono singole ombre da singoli punti di luce... si sa quante ombre in tempo reale può gestire?

MSciglio
14-03-2005, 18:53
Originariamente inviato da andreamarra
gli ambienti e gli effetti ricreati sono magnifici.

Solo che non ho personalmente visto quasi nulla su come si comporta questo engine con le ombre. in vari filmati si vedono singole ombre da singoli punti di luce... si sa quante ombre in tempo reale può gestire?

Il sistema delle ombre e' il migliore che si sia visto fino ad ora. Unisce elegantemente diversi algoritmi di shadowing in particolare una evoluzione delle vecchie lightmaps, shadow volumes e shadow mapping a seconda della geometria coinvolta.

Il numero di ombre in tempo reale ovviamente dipendono dalla macchina su cui gira e da quali oggetti i designer e/o i grafici hanno deciso di usare le ombre.

Alberello69
14-03-2005, 23:46
Originariamente inviato da STICK
ecco un articolo fresco in merito al multiprocessing nei giochi:
AnanTech ha pubblicato un articolo sulle possibilità dell'utilizzo dei Multi-core e multi-threading nei giochi. Trovate anche un'intervista sull'argomento a Tim Sweeney capo programmatore della Epic.

http://anandtech.com/cpuchipsets/showdoc.aspx?i=2377
ottimo, grazie per il link!;)

Marx01
14-03-2005, 23:54
Originariamente inviato da Vash88
Veramente su gamespot dicono che si giocherà con una Geforce 6600GT tranquillamente, immagino a 1024x768 su medio-alto.
E dice che per allora sarà scesa considerevolmente di prezzo....


si certo
:asd: per godersi per bene questo gingillo ci vorra' una gpu tosta e SOPRATTUTTO tanta memoria onboard dubito fortemente che con una 6600gt c si giochera' con quei dettagli.
Penso piu' probabilmente un 800x600 dettagli medi.

MSciglio
15-03-2005, 00:13
Originariamente inviato da Marx01
si certo
:asd: per godersi per bene questo gingillo ci vorra' una gpu tosta e SOPRATTUTTO tanta memoria onboard dubito fortemente che con una 6600gt c si giochera' con quei dettagli.
Penso piu' probabilmente un 800x600 dettagli medi.

In teoria non è detto se il sistema di streaming delle risorse funziona bene e i livelli sono progettati in modo da non avere troppe risorse utilizzate in uno stesso istante.

Considera poi che Xbox 2 non avrà certamente più di 512MB di RAM in totale per cui l'engine sarà strutturato in maniera tale da stare dentro a tali limitazioni.

davestas
15-03-2005, 10:52
ragazzi ma i giochi di xbox2 saranno a 720p o 1080i, alcuni dicono il primo, altri il secondo, intanto sony con gt4 nel sol levante già ha fatto uscire GT4 a 1080i....:muro: :muro:
Poi siete sicuri che nelle console PAL verrà abilitato il tutto?:muro:

Leron
15-03-2005, 10:57
Originariamente inviato da davestas
ragazzi ma i giochi di xbox2 saranno a 720p o 1080i, alcuni dicono il primo, altri il secondo, intanto sony con gt4 nel sol levante già ha fatto uscire GT4 a 1080i....:muro: :muro:
Poi siete sicuri che nelle console PAL verrà abilitato il tutto?:muro:
edit và, troppo lungo da spiegare

Vash88
15-03-2005, 13:50
Originariamente inviato da Marx01
si certo
:asd: per godersi per bene questo gingillo ci vorra' una gpu tosta e SOPRATTUTTO tanta memoria onboard dubito fortemente che con una 6600gt c si giochera' con quei dettagli.
Penso piu' probabilmente un 800x600 dettagli medi.

Lo sapremo solo quando esce ;) !

davestas
15-03-2005, 13:55
Originariamente inviato da Leron
edit và, troppo lungo da spiegare


vabbè semplifica e sintetizza....:D

Leron
15-03-2005, 14:14
Originariamente inviato da davestas
vabbè semplifica e sintetizza....:D
semplificando enormemente: in europa non si è ancora deciso se seguire lo standard 720p progressivo o 1080i interlacciato, quindi non si hanno sicurezze su questo versante dell'hdv nè sull'hdtv

lavoro nella realizzazione di audiovisivi, essendo nel settore devo studiarmi l'evoluzione di questi nuovi standard (nuovi per modo di dire)

xxxyyy
15-03-2005, 14:20
Perche' non si fa 1080p e basta?

andreamarra
15-03-2005, 14:21
Originariamente inviato da MSciglio
Il sistema delle ombre e' il migliore che si sia visto fino ad ora. Unisce elegantemente diversi algoritmi di shadowing in particolare una evoluzione delle vecchie lightmaps, shadow volumes e shadow mapping a seconda della geometria coinvolta.

Il numero di ombre in tempo reale ovviamente dipendono dalla macchina su cui gira e da quali oggetti i designer e/o i grafici hanno deciso di usare le ombre.

ottimo... :)

non c'è qualche video che mostra il sistema di ombre implementato?

Leron
15-03-2005, 14:24
Originariamente inviato da xxxyyy
Perche' non si fa 1080p e basta?
il 1080p non è neanche preso in considerazione dalle case produttrici

pare che in europa siano per ora più orientati al 720p progressivo

il 1080p per la produzione di audiovisivi è praticamente inesistente

Alberello69
15-03-2005, 14:30
Originariamente inviato da andreamarra
ottimo... :)

non c'è qualche video che mostra il sistema di ombre implementato?
ma scusa le ombre si vedono in ogni video...si vedono benissimo nel video che circola da un anno, e vengono anche commentate.

andreamarra
15-03-2005, 14:35
Originariamente inviato da Alberello69
ma scusa le ombre si vedono in ogni video...si vedono benissimo nel video che circola da un anno, e vengono anche commentate.

si che si vedono, ma non ho visto video con più di un'ombra riportata da più sorgenti di luce. A me pare di vederne solo una e semplice, vedrò meglio.

Banus
15-03-2005, 15:52
Originariamente inviato da Leron
lavoro nella realizzazione di audiovisivi, essendo nel settore devo studiarmi l'evoluzione di questi nuovi standard (nuovi per modo di dire)
Infatti se non sbaglio La HDTV è dietro l'angolo da almeno 10 anni :p

Probabilmente il 1080p non è considerato perchè richiede visori sofisticati (l'interlacciamento ti consente di risparmiare sulla frequenza di refresh). Questo è uno dei motivi per cui i monitor costano più dei televisori :D

X-ICEMAN
15-03-2005, 17:54
Originariamente inviato da davestas
ragazzi ma i giochi di xbox2 saranno a 720p o 1080i, alcuni dicono il primo, altri il secondo, intanto sony con gt4 nel sol levante già ha fatto uscire GT4 a 1080i....:muro: :muro:
Poi siete sicuri che nelle console PAL verrà abilitato il tutto?:muro:


i giochi xbox2 come quelli ps3 avranno come risoluzione nativa ( ovvero sono programmati per quella risoluzione ) i 720p
molti avranno anche il supporto a 1080i ma non tutti ( in un gioco, è molto piu complicato realizzare titoli a 1080i per via della risoluzione elevatissima)
i 1080p sono ancora peggio :) da gestire, oltre a non esserci tantissimi dispositivi in grado di visualizzarli a piena risoluzione, per me non verranno presi in considerazione neppure per i film su bluray e hd-dvd

nelle console pal sarà abilitato il tutto in tutte le console questa volta

per quello che riguarda l'hdtv adesso.. bhe ps2 ha solo 2 giochi che vanno a 1080i e nessuno a 720p
xbox ha piu di una ventina di titoli a 720p e qualcuno anche a 1080i

davestas
16-03-2005, 11:25
quando si saprà con certezza qualcosa a riguardo, bisognerà aspettare l'uscita dei primi giochi neanche la èresenzazione delle consoles???
Lo dico perchè sto, o meglio stavo per quistare un tv crt JVC read 1080i e NON 720p...:muro: :muro: e non vorrei prenderla in quel posto...:muro: :cry:

Alberello69
16-03-2005, 11:28
Originariamente inviato da davestas
quando si saprà con certezza qualcosa a riguardo, bisognerà aspettare l'uscita dei primi giochi neanche la èresenzazione delle consoles???
Lo dico perchè sto, o meglio stavo per quistare un tv crt JVC read 1080i e NON 720p...:muro: :muro: e non vorrei prenderla in quel posto...:muro: :cry:
ma io credo che sicuramente il montor ti scala a quella risoluzione!

davestas
16-03-2005, 14:10
si ma io vorrei , devo prendere il tv nuovo....:muro: , poi 32' o piu' sono diversi da 19'...

Alberello69
16-03-2005, 14:33
Originariamente inviato da davestas
si ma io vorrei , devo prendere il tv nuovo....:muro: , poi 32' o piu' sono diversi da 19'...
scusa non capisco quale è il problema dato che hai la compatibilità con le risoluzioni inferiori alla 1080i :confused:

X-ICEMAN
16-03-2005, 15:03
Originariamente inviato da davestas
quando si saprà con certezza qualcosa a riguardo, bisognerà aspettare l'uscita dei primi giochi neanche la èresenzazione delle consoles???
Lo dico perchè sto, o meglio stavo per quistare un tv crt JVC read 1080i e NON 720p...:muro: :muro: e non vorrei prenderla in quel posto...:muro: :cry:
quello che ho scritto prima.. è certezza fidati

Leron
16-03-2005, 15:15
Originariamente inviato da X-ICEMAN
quello che ho scritto prima.. è certezza fidati
scusa ma come fai a saperlo se NON lo sanno neanche quelli che devono definire lo standard europeo??

a parte che il 1080p non esisterà MAI in europa (non è neanche preso in considerazione come alternativa)

non capisco cosa ci sia di così divertente a sparare certezze che non ci sono

se poi devo "fidarmi"....

Leron
16-03-2005, 15:16
Originariamente inviato da Alberello69
ma io credo che sicuramente il montor ti scala a quella risoluzione!
un conto è lavorare su una risoluzione nativa, un conto è una interpolata

Leron
16-03-2005, 15:18
Originariamente inviato da Banus
Infatti se non sbaglio La HDTV è dietro l'angolo da almeno 10 anni :p

Probabilmente il 1080p non è considerato perchè richiede visori sofisticati (l'interlacciamento ti consente di risparmiare sulla frequenza di refresh). Questo è uno dei motivi per cui i monitor costano più dei televisori :D
infatti, giusta osservazione

cosa importante è il fatto dell'interlacciamento, in ogni caso io sono più per il 1080i, anche se è interlacciato (qualitativamente preferirei il 720p) mi da non poco fastidio la differenza di standard: usa e giappone stanno già trasmettendo in 1080i, se noi adottiamo il 720p siamo da capo come con l'ntsc/pal

Leron
16-03-2005, 15:22
Originariamente inviato da Alberello69
scusa non capisco quale è il problema dato che hai la compatibilità con le risoluzioni inferiori alla 1080i :confused:
bisogna vederne il modello: un pannello lcd ad esempio o è studiato per una risoluzione nativa a 1080i o 720p

un pannello nativo a 1080i visualizzerà in maniera peggiore titoli a 720p di quanto fa un pannello nativo a 720p (questo è naturale)

ve ne potete accorgere andando in qualunque negozio di tv/hifi e notare la differenza

l'unica verità che abbiamo è che comprare una tv adesso con supporto hdtv/hdv è un rischio (e lo sarà fino alla definizione dello standard in maniera ufficiale, cosa che avverrà quando si riuniranno gli enti maggiori europei (il centro studi rai sta spingendo per 720p cmq))

X-ICEMAN
16-03-2005, 15:39
Originariamente inviato da Leron
scusa ma come fai a saperlo se NON lo sanno neanche quelli che devono definire lo standard europeo??

a parte che il 1080p non esisterà MAI in europa (non è neanche preso in considerazione come alternativa)

non capisco cosa ci sia di così divertente a sparare certezze che non ci sono

se poi devo "fidarmi"....
ma infatti 1080p io non l'ho preso in considerazione

per il resto, invece quello che so da mie fonti è poi quello che ho scritto... giochi xbox2 e ps3 nativamente sono pensati per i 720p

non serve uno standard europeo, basta che i tv in vendita in europa siano compatibili con quello standard ( ed ad esempio il mio sharp lo è :) ) è cosi e basta. :D di titoli a 1080i ce ne saranno, decisamente molti più di questa generazione, ma non tutti, proprio per un fattore di risoluzione troppo elevata e quantità di memoria disponibile. (visto che non si tratta di film, ma di grafica in real time )

Banus
16-03-2005, 15:45
Originariamente inviato da Leron
cosa importante è il fatto dell'interlacciamento, in ogni caso io sono più per il 1080i, anche se è interlacciato (qualitativamente preferirei il 720p) mi da non poco fastidio la differenza di standard: usa e giappone stanno già trasmettendo in 1080i, se noi adottiamo il 720p siamo da capo come con l'ntsc/pal
Infatti non vedo come mai si vorrebbe adottare il 720p...
almeno con 1080i aumenti la risoluzione e richiede pure meno righe per quadro (540 contro 720). Forse si guadagna un po' in stabilità di immagine con il 720p, ma se il 1080i è già standard altrove non vedo perchè non adottarlo.

xxxyyy
16-03-2005, 15:46
Che merd@... niente 1080p... almeno per i film in alta definizione mi aspettavo che la utilizzassero... che merd@.
Soprattutto coi monitor/proiettori a larga diagonale questa risoluzione sarebbe stata ottima... come su quel nuovo Samsung LCD da 82"...va beh!
:)

Alberello69
16-03-2005, 15:55
be è chiaro che vogliono farci cambiare altre 2 volte la tele!
poveri noi....vittime del mercato!