PDA

View Full Version : Crytek parla della tecnologia di Crysis in un nuovo video


Redazione di Hardware Upg
30-05-2007, 12:50
Link alla notizia: http://www.hwupgrade.it/news/videogiochi/crytek-parla-della-tecnologia-di-crysis-in-un-nuovo-video_21372.html

Crytek ha rilasciato una sorta di video-documentario in cui vengono spiegate diverse caratteristiche della tecnologia che sta alla base di Crysis.

Click sul link per visualizzare la notizia.

[K]iT[o]
30-05-2007, 12:59
Sono sempre più curioso di vederlo, dopo tutto Far Cry è stato un gran gioco al punto da convincermi a finirmelo, per cui confido nella Crytek :)

giannismart
30-05-2007, 12:59
kissà se la mia nuova 8600gt lo farà girare bene...:D

Luca.81
30-05-2007, 13:03
kissà se la mia nuova 8600gt lo farà girare bene...:D

mmm, a sensazione la vedo un pò brutta anche per le 8800GTS, speriamo di no :D

Kharonte85
30-05-2007, 13:17
AMD nemmeno nominata...

aaasssdddfffggg
30-05-2007, 13:22
... è chiaro da questa conferenza che AMD-ATI stanno giocando un ruolo di secondo piano anche per gli sviluppatori.

ErminioF
30-05-2007, 13:25
Esatto, mah, amd datti una svegliata

JohnPetrucci
30-05-2007, 13:27
... è chiaro da questa conferenza che AMD-ATI stanno giocando un ruolo di secondo piano anche per gli sviluppatori.
Di sicuro non saranno i k10 a cambiare la situazione, le vga qua hanno un peso enorme ed Amd con la sua HD 2900 XT, se l'è proprio cercata.....

ultimate_sayan
30-05-2007, 13:29
Io desidererei che la si piantasse con tutte queste anticipazioni... troppo hype non fa mai bene...

ohmaigod
30-05-2007, 13:47
Io desidererei che la si piantasse con tutte queste anticipazioni... troppo hype non fa mai bene...



quoto

omega726
30-05-2007, 14:12
Bah...mi sa che sarà bello pesantello...
Deduco che per i video abbiano usato una 8800gtx se non 2 in sli per fare i fichi....
Però la cosa che mi preoccupa è che non vedo AA e non vedo v-sync.....

Crux_MM
30-05-2007, 14:14
Originariamente inviato da: ultimate_sayan
Io desidererei che la si piantasse con tutte queste anticipazioni... troppo hype non fa mai bene...

QUOTONE

Commento # 10 di: omega726 pubblicato il 30 Maggio 2007, 15:12

Bah...mi sa che sarà bello pesantello...
Deduco che per i video abbiano usato una 8800gtx se non 2 in sli per fare i fichi....
Però la cosa che mi preoccupa è che non vedo AA e non vedo v-sync.....

PAURA

faber80
30-05-2007, 14:20
effettivamente è poco chiara la mancanza di AMD-ATI in questo contesto, che sia voluta o no.

D'altronde dalla Ati nn ci saranno sostanziali novità per qualche mesetto, ove avremo solo l' R650 (R600 a 65 nm) e miglioramenti SW, ma niente rivoluzioni o profezie.
Da AMD invece si aspetta un'altra "profezia": il k10

cmq tornando alla tecnologia crysis, è un motore grafico notevole
(ancora ricordo Far Cry a 1680x1050 su un P4 2.8Ht con 9800SE 128Mb: NESSUNO SCATTO ragazzi - ampiamente scalabile)

ghiltanas
30-05-2007, 14:42
la prima cosa da dire è:
xkè nn danno mai informazioni circa il sistema usato per le prove? :mad:
(sia hardware che driver) lo so che è prematuro e di qui a settembre ne passa di acqua sotto i ponit, però uno comincia a regolarsi no?

seconda cosa:
è davvero un brutto segnale per amd/ati essere stata esclusa da un'intervista cosi importante, e dovrebbe essere una campana d'allarme per fargli dare una svegliata.

IlTurko
30-05-2007, 15:17
esce almeno tra sei mesi imho. Per allora, una 8900gtx o ultra se sarà già fuori, se lo pappa tranquillamente.
per le altre, la famosa scalabilità crytec dovrebbe tranquillizzare.

Defragg
30-05-2007, 15:26
seconda cosa:
è davvero un brutto segnale per amd/ati essere stata esclusa da un'intervista cosi importante, e dovrebbe essere una campana d'allarme per fargli dare una svegliata.

non credo esclusa, più che altro il fatto è che quando si tratta di parlare di un gioco e si fà una conferenza il produttore hardware che paga di più è quello che darà la "collaborazione" ;)
quindi nvidia e intel hanno pagato più di amd, tutto qui :asd:

mica stupidi i crytek :D

maeco84
30-05-2007, 16:23
kissà se la mia nuova 8600gt lo farà girare bene...:D

Direi di no... credo che con la mia 1900XT in DX9 andrà molto meglio di come la tua andrà in DX10

nudo_conlemani_inTasca
30-05-2007, 16:34
Di sicuro non saranno i k10 a cambiare la situazione, le vga qua hanno un peso enorme ed Amd con la sua HD 2900 XT, se l'è proprio cercata.....

Mah.. dire che ATI sia già morta e sepolta mi sembra un tantinello eccessivo,
ok tutti presi dalla smania di Conroè e vento in poppa per Intel quest'anno con i C2D e C2Q, però non credo che i K10 sfigureranno.. da tutte le voci che trapelano saranno dei bei processorini.. AMD rulez.
ATI invece non ha lavorato bene per R600 che doveva "spakkare" rispetto a G80 che invece è un ottimo progetto di GPU e darà del filo da torcere mica da poco ad ATI per farle recuperare il gap prestazionale/tecnologico con la sua acerrima rivale di sempre! :asd:

Ad ogni modo CryTek ha realizzato FarCry che è stato un piccolo gioiellino: tutti l'hanno criticato, e ancora di più l'hanno giocato.. quindi è il solito detto: "chi disprezza compra!" :D
Ben programmatto, ottima grafica e sonoro.. IA non trascurabile.. non ci vedo poi tutte queste alternative valide da contrapporre nel genere, al primo FPS di Crytek.. o sbaglio?! :mbe:

Effettivamente il gioco e l'engine grafico è stato programmato molto bene, proprio in virtù del fatto che fosse molto scalabile e con pochi difetti (bug).

Ne ho 1 copia tutt'ora in bella mostra sulla libreria.. :D

I K10 secondo me + ATI con la revision R650 saranno 2 ottimi pezzi di silicio messi a lavorare insieme.. ATI ed AMD non staranno a farsi fregare fette di mercato strappate negli anni scorsi a morsi. ;)

PS:
La ATI HD X2900XT ha veramente deluso le aspettative, inoltre ho sentito che oltre a scaldare parecchio, pesare ancor di più e fare molto rumore come SVGA è stata pure privata dell' UVP.. che tristezza, magari ATI con l'R650 @ 65nm tornerà ad offrire una GPU da primato (visto che le GDDR4 prodotte da Samsung) stentano ad essere prodotte in grandi volumi per poter essere montate sulle ammiraglie di ATI ed nVidia.. penalizzando le prestazioni, of course. :O

Crysis lo aspetto con ansia anch'io.. speriamo sia bello che qua di titoli interessanti ce n'è sempre meno, in questo mare di piattume ludico. :(

bye

aaasssdddfffggg
30-05-2007, 19:52
Crysis credo proprio che lo faranno uscire a fine anno in concomitanza con il lancio delle 8900 che con il suo teraflop di potenza di calcolo (3 volte una 8800gtx) a detta di M. HARA di nVIDIA, lo farà schizzare dai monitor.

nonikname
30-05-2007, 19:53
xkè nn danno mai informazioni circa il sistema usato per le prove? :mad:


LO dicono su ChipOnline ... core duo 2 a 3Ghz e 8800GTX....

Direi di no... credo che con la mia 1900XT in DX9 andrà molto meglio di come la tua andrà in DX10

Beh , fra il path DX9 e DX10 c'è anche differenza di ottimizzazione driver , effetti implementati oltre che di dettaglio , quindi è un paragone improponibile... ma paragonando entrambe le vga in DX9 non sarei così sicuro sul predominio della 1900gt... anche se suppongo che la GTS , a 1280 x 1024 , possa spuntarla agevolmente ;)

ghiltanas
30-05-2007, 21:56
LO dicono su ChipOnline ... core duo 2 a 3Ghz e 8800GTX....



ah grazie, cmq core 2 duo il modello lo sai? e cmq volevo sapere anche la parte software (os driver ecc...)

te lo chiedo xkè il sito è in tedesco e nn ci capisco nulla

SolidSnake587
30-05-2007, 21:59
Non credo che la mia 8800 GTS riuscirà a farmelo godere al massimo, chissà se sarà giù uscita la GX2 :P

nonikname
30-05-2007, 23:17
ah grazie, cmq core 2 duo il modello lo sai? e cmq volevo sapere anche la parte software (os driver ecc...)

te lo chiedo xkè il sito è in tedesco e nn ci capisco nulla

mi hai quotato proprio la frase dove ho scritto il modello... l'unico core duo 2 a 3ghz è il Core 2 Extreme X6800 ..


Non credo che la mia 8800 GTS riuscirà a farmelo godere al massimo

Ci riuscirà eccome... se hai la 640 riuscirai a giocare anche a risoluzioni spinte o medie con i filtri...

C'è un filmato su GT che fa vedere le possibilità dell'engine (con il commento in inglese e un pronunciato accento tedesco) dove il tipo dice espressamente che con un 6600 , 2 gigi di ram e una 8800gts si riesce a giocare fluidamente fino a 1600x1200 in eye candy mode (AA e AF on)..
In quel filmato la macchina di prova era la solita ... Conroe Ext X6800 , 2giga di ram e 8800GTX ...
Il monitor del crucco che si atteggia ad anglofono , ha sul lato destro il debug attivato e i FPS non scendono mai sotto i 50 ... se non sbaglio era un Dell da 27" e vedendo i caratteri sullo schermo doveva essere settato a 1600 x 1200 o a 1920 per 1080... ergo.. pensa che hanno ancora 3-5 mesi per ottimizzare il codice sia la crytek che nVIDIA , fai 2 + 2 e il resto viene da se ...(sperando sempre che esca prima della 8900GTX , la quale alzerà ulteriormente la barra delle prestazioni e di conseguenza la spesa per noi video giocatori PC...)
In quel video si diceva anche che la versione a 64bit di vista non era più performante di quella a 32bit , ma che dal lato server permetteva di gestire più agevolmente le partite in multiplayer con mappe di grosse dimensioni ed un elevato numero di bot...

Quindi stai pure tranquillo che ci giocherai alla grande con tutti gli effetti , anche in dx10...
Sarebbe assurdo se dopo 4 anni di sviluppo , in collaborazione con nvidia , microsoft e intel , permettessero di giocare fluidamente solo al 7-10% della fascia dei potenziali clienti... oltre che ad essere una cattiva pubblicità per queste aziende , sarebbe un totale fiasco anche per le vendite del gioco .... e visti i nomi in gioco e i $$ che girano attorno ad esso , non credo che ne rimarrai deluso...

La microsoft e intel lo hanno gia fatto posticipare una volta (ottimizzazione DX10 e multithreaded engine) , spero solo che esca molto prima delle vacanze natalizie (magari con una demo dopo l'estate ) , altrimenti crytek dovrà nuovamente battere cassa ai suoi ricchi sponsor e l'Hype accumulatasi farà crollare ogni certezza sulle specifiche raccomandate...

MArCoZ_46
31-05-2007, 01:19
Sono contento di aver giocato a Far Cry solo quest'anno, altrimenti attendere quasi 4 anni per Crysis mi avrebbe straziato di brutto!
Non vedo l'ora che esca, speriamo presto :)

ghiltanas
31-05-2007, 09:14
mi hai quotato proprio la frase dove ho scritto il modello... l'unico core duo 2 a 3ghz è il Core 2 Extreme X6800 ..




ti sbagli è: 2,933 MHz , praticamente è 3 ghz ma averlo visto scritto in maniera inesatta mi ha fatto pensare a un procio nuovo oppure a uno overcloccato

ghiltanas
31-05-2007, 09:16
Per quanto riguarda la nuova architettura nvidia il nuovo progetto potrebbe chiamarsi g92 e sembra che nvidia voglia seguire la stessa scaletta del g80:

prima lanciare in autunno la fascia alta e a febbraio 2008 medio-alta e cosi via...staremo a vedere

nonikname
31-05-2007, 11:34
ti sbagli è: 2,933 MHz , praticamente è 3 ghz ma averlo visto scritto in maniera inesatta mi ha fatto pensare a un procio nuovo oppure a uno overcloccato

Mea culpa....


Sono contento di aver giocato a Far Cry solo quest'anno, altrimenti attendere quasi 4 anni per Crysis mi avrebbe straziato di brutto!
Non vedo l'ora che esca, speriamo presto

A sentire gli sviluppatori , il gioco è già pronto al 90% , bisogna rifinire alcune dinamiche di gioco (essenzialmente script) e limare alcuni lag improvvisi dovuti all'eccessivo uso di V-ram (ottimizzazione texture o geometrie in eccesso)... oltre che naturalmente ottimizzarlo per la serie HD2X00 AMD e renderlo bug-free...

Quindi , a mio avviso , dovrebbe essere pronto (se tutto va bene) nel periodo back to school (settembre in avanti) e questo coincide pericolosamente al lancio della 8900GTX-GTS...
Considerando che non si sa se nvidia implementerà il bus a 512bit , e che quindi la Vram massima potrebbe variare da 768Mb a 1024Mb , e che Crysis e un titolo "meant to be played" (http://it.nzone.com/object/nzone_twimtbp_gameslist_it.html) , suppongo venga sfruttato proprio questo evento per alzare ulteriormente il dettaglio max...

P.S. vista la situazione AMD attuale penso che un bus a 384bit sarebbe più che sufficiente anche sulla 8900 , ma 2 anni fa gli ing. nvidia non potevano sapere a che livello prestazionale si sarebbe posta la HD2900XT...
Quindi presumo che il progetto iniziale sia stato a 512bit ...e , a meno di cambiamenti in corsa , penso che il g92 faccia il suo debutto con 1024mb di GDDR4 (ci starebbero 4 livelli interi del vecchio farcry caricati solo sulla v-ram...) , ergo +texture (o texture + definite) +poly-bumpmapping e più geometria inseribile a fondo scala delle opzioni video... :(

Mister Tarpone
31-05-2007, 12:35
Direi di no... credo che con la mia 1900XT in DX9 andrà molto meglio di come la tua andrà in DX10

ma sai una sega te :) !! sul quale andrà meglio o peggio :) !!
aspettiamo e vediamo prima di dire "direi di no" ;) ;) ;)


ciao... http://img106.imageshack.us/img106/6659/fagianosd9.gif