PDA

View Full Version : Windows 7 e DirectX 11, presa di contatto


Pagine : 1 [2]

al135
04-12-2009, 20:01
magari in un altra sede siamo veramente ot :)

it
non vedo l'ora escano le nuove vga "fermi" per vedere un confronto come si deve

e che te ne fai? gira tutto con una 8800 :rotfl:

Diobrando_21
04-12-2009, 20:02
http://www.tweaktown.com/reviews/2729/asus_geforce_gts_250_dark_knight_graphics_card/index14.html


un test a caso che dimostra come anche con una 250(8800gt) sia possibile stare tranquiillamente sopra ai 30 fps(refresh console 0 differenze dai 60 fps a livello visivo visto che l'occhio sopra i 25-30 fps percepisce un immagine fluida)

quindi non venitemi a dire che non si puo giocare tutto a palla con queste schede video, se poi adesso tirate in ballo che voi giocate a 120 fps fissi qui è tutto un altro paio di maniche mi metto a parlare al muro che proabilemten capisce di piu

eh no le condizioni le detto io a 'sto punto. Tu hai parlato di giocare tutto al max e 30 fps sono il minimo indispensabile per percepire la fluidità, che è ben diverso...oltretutto stai solo peggiorando la tua situazione visto che hai nuovamente affermato qualcosa di errato: la differenza tra i 30 e i 60 fps è abissale e....mettiti seduto un attimo.....l'occhio umano percepisce differenze anche fino a 120fps (scherzando hai detto la verità, pensa). Ma questo è un altro argomento trattato da me e da molti altri in un altro thread, appena ritrovo il link te lo posto, non sia mai che impari qualcosa di utile...

...cmq ancora niente bench alle mie condizioni (che tra l'altro non sono il max visto che ti ricordo che esiste sempre 2560x1600)...ritenta, sarai più fortunato :asd:

Stappern
04-12-2009, 20:06
e che te ne fai? gira tutto con una 8800 :rotfl:

infatti ho scritto per "vedere" un confronto

la gente si guarda la formula uno ma non è che quando spegne la tv si ordina una di queste
http://www.ilblogdeimotori.com/auto-moto/wp-content/uploads/2009/06/formula-1.jpg



;)

al135
04-12-2009, 20:07
mmm beh potrei pensarci :ciapet:

Stappern
04-12-2009, 20:08
mmm beh potrei pensarci :ciapet:

io solo se ci posso mettere un impianto a metano :asd:

bobby10
04-12-2009, 20:31
leggiti qua va
http://gaming.ngi.it/archive/index.php/t-50218.html

ps: ma cosa cavolo scrivi a fare se non hai neanche avuto una 8800/9800 ?
vai a pescare alcuni test in rete con non si sa quali filtri e settaggi precisi sono stati fatti ne da chi?
saro' ignorante ma credo che per parlare bisogna avere anche un bel po di argomenti.
prenditi una 8800/9800 ( e non una gts250 che è piu potente , e guarda un po inefficace lo stesso ad alti livelli) e vai a giocare a stalker , crysis , far2 e un altra miriade di ultimi titoli da 1680 filtri attivi in su...
sisi miri benissimo con 25-30 fps .... ma c'hai mai giocato tanto per farti un esempio a counter strike? giocaci a 25 fps... ti fanno un frontino dopo 2 metri
ma posso continuare, gioca ad ARMA2 con quelle schede... gioca a OPERATION FLASHPOINT 2 :asd:

interessante il link.

Tra l'altro l'avevo pensato che tra le immagini in tv a 24hz e i giochi al pc ci dovevano essere delle differenze.
Peccato pensavo di avere l'occhio bionico :(

leoneazzurro
04-12-2009, 21:01
al135 e Stappern, 3 giorni a testa per flame.

leoneazzurro
04-12-2009, 21:05
sai dove posso reperire una lista di programmi che lo supportano e/o di software house che ne hanno annunciato l'utilizzo ?

No, al momento non ho liste da proporti. So ad esempio che la patch DirectX11 di Battleforge utilizza Directompute (i Compute Shader) per velocizzare i calcoli di IA e parzialmente della fisica (ed in quel caso la path DX11 é piú veloce della path DX10).

Pat77
04-12-2009, 21:57
Il problema, come ti è stato anche detto, è che per aumentare il dettaglio si deve aumentare anche il numero di poligoni. Per fare questo la tessellazione ha parecchi vantaggi prestazionali, perchè se di dovesse renderizzare un modello con lo stesso livello di dettaglio in DX9 senza tessellazione e in DX11 con tessellazione, le DX11 avrebbero un indiscusso vantaggio prestazionale. Questo a parità di resa visiva. La strada che gli sviluppatori paiono intraprendere sino ad ora invece è quella di sfruttare il gap prestazionale per inserire nuovi effetti ed aumentare il dettaglio, il che porta ad avere un risultato dal frame rate accettabile ma a volte inferiore a quello DX9. Ad esempio, a prescindere che a te il drago non faccia gridare al miracolo, si può facilmente vedere che le immagini prodotte nella versione DX9 e DX11 del demo sono palesemente differenti. La domanda da porsi sarebbe in questo caso: in DX9, a quanti FPS girerebbe l'immagine con il livello di dettaglio della versione DX11? Se pensi "il medesimo" mi sa che sei un po' fuori strada.
Che poi questi vantaggi vengano sfruttati poco e male, è un' altra questione.

Sì sì sono palesemente differenti anche i due frame rate, è questo il punto, non avrei nulla da dire se a parità di frame rate vi fosse tale differenza, ma non è così, qui si parla di una migliore efficenza, per ora risibile, e stiamo parlando di bench o giochi che sfruttano ancora poco di tale caratteristica, quando sarà tutto più poligonoso necessariamente crollerano ancor di più.
Dx10 migliorava l'illuminazione, dx11 i poligoni, al prezzo assurdo di dimezzare il frame rate, mi ricorda tanto la coperta troppo corta.

leoneazzurro
04-12-2009, 22:10
Dipende, se il frame rate é 100+ allora dimezzarlo per avere un maggiore dettaglio grafico é accettabile. A parte ció, ripeto, quale frame rate avrebbe lo stesso dettaglio in DX9? Non devi pensare DX11=meno framerate, questo non é automatico. Ad esempio, questo test:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_radeon_hd_5000_weitere_details/16/#abschnitt_stalker_call_of_pripyat

mostra che in DX11 le prestazioni aumentano e questo con una migliore gestione delle ombre, mentre se si attiva la tessellazione si ottiene un migliore dettaglio poligonale e le prestazioni non sono troppo inferiori alla versione DX10. A me non pare un risultato da buttare.

leddlazarus
04-12-2009, 22:34
Dipende, se il frame rate é 100+ allora dimezzarlo per avere un maggiore dettaglio grafico é accettabile. A parte ció, ripeto, quale frame rate avrebbe lo stesso dettaglio in DX9? Non devi pensare DX11=meno framerate, questo non é automatico. Ad esempio, questo test:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_radeon_hd_5000_weitere_details/16/#abschnitt_stalker_call_of_pripyat

mostra che in DX11 le prestazioni aumentano e questo con una migliore gestione delle ombre, mentre se si attiva la tessellazione si ottiene un migliore dettaglio poligonale e le prestazioni non sono troppo inferiori alla versione DX10. A me non pare un risultato da buttare.

se ho capito bene la tessellation aumenta il numero di poligoni solo in alcune parti della scena 3d, tralasciando le altre. giusto?

quindi al contrario delle dx9 dove se voglio maggiore definizione devo intervenire sulla scena completa, qui posso concentrare le migliorie solo in alcuni punti o oggetti.

bhe detta così si dovrebbe avere un vantaggio non indifferente sulla qualità della scena senza sacrificare troppo il framerate generale.

cmq è un peccato che certe chicche sono visibili su alcune demo e/o benchmark specializzati, senza poterle godere in appieno in giochi programmati con les pelotas.

leoneazzurro
04-12-2009, 23:01
se ho capito bene la tessellation aumenta il numero di poligoni solo in alcune parti della scena 3d, tralasciando le altre. giusto?

Volendo, ma in generale la tessellazione serve ad aumentare il numero di poligoni partendo da un modello semplificato rispetto al dettaglio che si vuole ottenere, ci penserá poi la GPU ad aumentare i poligoni in base alle funzioni specificate dal programmatore, quindi su una parte o su tutta la scena. Il vantaggio poi é di "alleggerire" la modellazione a monte della GPU, ad esempio l´applicazione potrebbe "mandare" alla GPU un modello formato da 1000 poligoni e la GPU potrebbe trasformarlo in un modello da 10000 poligoni, secondo i dettami del programmatore.


quindi al contrario delle dx9 dove se voglio maggiore definizione devo intervenire sulla scena completa, qui posso concentrare le migliorie solo in alcuni punti o oggetti.

In DirectX9 si dovrebbe definire il modello da 10000 poligoni giá prima di mandarlo alla GPU, con conseguente degrado prestazionale e maggiore occupazione di memoria e di banda

Crimson Skies
04-12-2009, 23:06
Volendo, ma in generale la tessellazione serve ad aumentare il numero di poligoni partendo da un modello semplificato rispetto al dettaglio che si vuole ottenere, ci penserá poi la GPU ad aumentare i poligoni in base alle funzioni specificate dal programmatore, quindi su una parte o su tutta la scena. Il vantaggio poi é di "alleggerire" la modellazione a monte della GPU, ad esempio l´applicazione potrebbe "mandare" alla GPU un modello formato da 1000 poligoni e la GPU potrebbe trasformarlo in un modello da 10000 poligoni, secondo i dettami del programmatore.



In DirectX9 si dovrebbe definire il modello da 10000 poligoni giá prima di mandarlo alla GPU, con conseguente degrado prestazionale e maggiore occupazione di memoria e di banda

Quindi a questo punto tutto di guadagnato rispetto alle DX9 e credo anche le DX10, giusto?
Se la risposta è affermativa, da dove nasce tutta l'avversione delle pagine precedenti?

leddlazarus
04-12-2009, 23:25
Quindi a questo punto tutto di guadagnato rispetto alle DX9 e credo anche le DX10, giusto?
Se la risposta è affermativa, da dove nasce tutta l'avversione delle pagine precedenti?

forse per il fatto che a parte le belle parole, i fatti (giochi) non rispecchiano proprio le aspettative.

c'è ben poca differenza tra le versioni tali da gridare al miracolo.

ma è solo questione di tempo e pazienza. prima o poi svilupperanno applicazioni degne di rispetto.

bobby10
04-12-2009, 23:38
Quindi a questo punto tutto di guadagnato rispetto alle DX9 e credo anche le DX10, giusto?
Se la risposta è affermativa, da dove nasce tutta l'avversione delle pagine precedenti?

non si parlava/criticava la tessellazione bensì le migliorie che danno le dx11

gnicK79
05-12-2009, 00:08
interessante il link.

Tra l'altro l'avevo pensato che tra le immagini in tv a 24hz e i giochi al pc ci dovevano essere delle differenze.
Peccato pensavo di avere l'occhio bionico :(

Beh quel post è di 10 anni fa!! E a suo tempo diede degli schiaffoni da paura agli scettici che non si arrendevano nemmeno di fronte all'evidenza comprovata dai propri occhi (anzi dal proprio cervello). A costo di difendere una definizione vecchia e coniata quando realmente non s'era mai sperimentata, a occhio e sguardo fisso, una scena soggetta a cambi repentini, NON PILOTATI, di inquadratura, in cui una volta tanto NON poteva essere il cervello ad applicare naturalmente quell'effetto di blurring, per avvicinare il concetto di realtà, a ciò che si stava visionando sul monitor.
Nei films, invece, questo effetto viene introdotto fra un frame reale e l'altro, e dall'effetto di fusione dei due fotogrammi se ne creano altri intermedi che ingannano il cervello sulla presunta fluidità reale della pellicola e sopperendo all'effettiva assenza dei fotogrammi intermediari. Insomma, l'argomento non è così semplice da liquidare, come qualcuno credeva di fare prima.
Il medesimo utente ha postato il link di un recentissmo Thread aperto in HU. Se sei interessato a maggiori dettagli probabilmente qualcosa in più potresti trovarla lì. :)
Qui siamo con DX11 e Win 7.

non si parlava/criticava la tessellazione bensì le migliorie che danno le dx11

Ma il tassellatore (questo) in DX11 è parte integrante e una delle novità e migliorie di queste librerie. :wtf:
Se poi si considera l'implementazione del sistema di illuminazione/ombre HDAO, Depth of field, il supporto migliorato multi-threading, e poi ancora il nuovo modello delle API di nuovo retrocompatibile con le versioni precedenti..... hai voglia di novità.

wolverine
05-12-2009, 00:39
per il mercato videoludico, ah perché secondo te nn è una mossa commerciale cambiare sistema operativo facendo leva dille directx invece che implementarle su xp :mbe:

Perchè secondo te Seven è solo dx11?? :fagiano: maggiore sicurezza, migliore gestione delle cpu multicore e migliore gestione della memoria sono piccolezze? (tanto per dirne tre).. :doh: :read:

Arriverà sto 2014.. :Perfido: :fiufiu:

Diobrando_21
05-12-2009, 03:06
http://www.hwupgrade.it/news/videogiochi/insomniac-games-e-l-inutilita-dei-60fps_30605.html


ops

hardware upgrade? ma che strano sito sarà?

roba cinese sicuramente :asd: io non ci sono mai stato :asd:

guarda! era proprio questo il link che cercavo, bravo...ma a quanto pare non riesci nemmeno a capire quello che leggi...Insomniac considera inutili i 60fps non perché pensa che non siano percepibili ma inutili a livello COMMERCIALE in quanto la maggioranza dell'utenza si accontenta proprio come te dei 30fps e di questa categoria fanno parte sia i giocatori di console che alcuni giocatori PC (più raro)...bada bene non è un offesa sono solo esigenze diverse l'importante e constatarlo e non incaponirsi come hai fatto fino a questo momento...quindi leggiti anche le 19 pagine del thread con relativi documenti e fonti annessi e sicuramente cambierai idea (sennò :muro:) tanto con 3 giorni ne hai di tempo...poi contattami in pvt così terminiamo il discorso....intendo per la cena visto che alla fine tanto hai fatto, tanto hai detto ma di bench con "tutto al max" non se n'è vista nemmeno l'ombra. Ciao ;)

giuro! fine OT

Diobrando_21
05-12-2009, 03:07
EDIT

Diobrando_21
05-12-2009, 03:10
EDIT scusate sembrava non postasse

leddlazarus
05-12-2009, 09:28
aspettate che nvidia faccia le dx11 e vedrete come i tanti nvfan verranno a dire che esse siano fondamentali lol.... e cmq per rispondere ad un'affermazione di qualche pagina addietro, si mi aspetto di giocare a 1920x1080 aa8x af16x in dx11 ultra detail agli ultimi giochi, tipo dirt 2, come del resto faccio in massima fluidità con la 5970 ed i suoi "acerbi driver" (quando non lo saranno, vedremo magari un risultato simile alla 4870x2 che adesso va come se non meglio di una gtx295)

ma che discorsi fai.

non è questione di ATI o NVIDIA è solo questione di SOFTWARE.

se non c'è il software adatto è inutile fare confronti.

e quando ci sarà sarà impossibile confrontare perchè non ci sarà + la versione dx9.

Diobrando_21
05-12-2009, 10:32
leddlazarus lungi da me essere fanboy, è solo fastidioso ormai leggere sempre da parte degli stessi utenti, sulle news ati "e questo non serve e quello non serve, fa cag@are di qua e di la" mentre sui fogliettini svolazzanti di batman proclami di magnificenza. Ognuno ha le sue tecnologie, ognuno i suoi gusti... ognuno le sue opinioni legittime e condivisibili o meno, sempre nel rispetto di quelle altrui, senza che ci sia il bisogno di apostrofare in un modo o nell'altro una scheda, una casa o il lavoro delle persone che ci stanno dietro... non vi piacciono gli effetti dx11? non comprate! quello che dicevo è che appena arriveranno le nvidia dx11 chi ha tanto bistrattato ste cose sarà li a proclamarne tanto per cambiare la magnificenza...

ma sicuramente succederà anche questo, però mi sembra che in questo thread nn tirava un'aria del genere, anzi c'era la voglia di avere chiara la situazione perché a primo impatto nn è che avessero fatto una buona impressione. Tutto qui ;)

leddlazarus
05-12-2009, 10:47
ma sicuramente succederà anche questo, però mi sembra che in questo thread nn tirava un'aria del genere, anzi c'era la voglia di avere chiara la situazione perché a primo impatto nn è che avessero fatto una buona impressione. Tutto qui ;)

ESATTO!!

MenageZero
05-12-2009, 11:17
da quel che sapevo l'argomento di un certo incremento lineare (ma non so di quanto in termini assoluti) della ram allocata al crescere delle finestre, con vista, e che dovrebbe essere stato evitato con seven, era un discorso specificamente relativo a quanto per ogni finestra viene disgnato tramite le api gdi+, con vista non ricordo esattamente per quale ragione tecnica, c'era necessità che le strutture dati generate da quelle chiamate per ogni finestra fossero replicate sia in vram che nella ram di sistema (o quantomeno ne allocavano sicuramente diq uest'ultima), portando ad ogni ulteriore finestra aperta un ulteriore contributo aggiuntivo di ram allocata (che, come sopra, non sa quantificare al momento) dovuto a questa situazione

in win7 le medesime strutture dati di ogni finestra relative al disegno a video tramite gdi+ di cui sopra, dovrebbero essere presenti solo in vram, sostanzialmente rimuovendo quel contributo aggiuntivo alla ram allocata per ogni finestra;

questo non significa necessariamente però che aprire n finestre di una applicazione significhi che l'allocazione di ram complessiva rimanga costante,
ogni finestra può portare istanze aggiuntive di strutture dati varie che nulla c'entrano con le gdi+, in particolare relative alla specifica applicazione

imho in un test come quello della recensione forse bisognerebbe prima trovare un modo per quantificare il contributo all'aumeto di ram dato dal 'difetto di design' in vista, e poi vedere se in win7 si può dire o meno che tale contributo sia stato sostanzialmente eliminato


ps:
senza bisgno di dare giudizi in un vreso o l'altro, vorrei sottolineare l'ironia di aver letto più di un commento del tipo "lunga vita a vista" (vs win7), quello stesso vista che fino a che win7 non è stato a portata di mano per tutti (dalla beta) era oggetto dei medesimi commenti a favore di xp :D

pps: sulle dx11 e confronti con le api precdenti, lo dico da profano totale della programmazione in ambito grafico a livello di engine & co, ma, per chi fosse totalmente estraneo al mondod ello sviluppo software, non bisogna pensare che magari solo eseguendo un app. preesistente su un sistema con dx11, la solo a presenza delle nuove librerie porti dei miglioramenti, o che dovrebbe essere scontato vedere differenze grandi solo perché in un progetto (sicuramente preesistente alla disponibilità di dx11 per gli sviluppatori dello stesso) vinene aggiunto l'uso di alcune funzione specifiche della nuova versione (e stiamo cmq sempre parlando di titoli che per specifica ancorab devono dare risultati quasi equivalenti anche su sistemi dx9 e su console)

il concetto applicato a dx11 vale ovviamente quando si parla dei vantaggi presunti o reali di una nuova versione di una libreria di sviluppo qualunque essa sia, non vuole essere una sorta di difesa d'ufficio di dx11 in quanto tale

TheThane
05-12-2009, 13:01
Per vedere la differenza in dx11 un gioco deve essere stato creato pensando solo alle dx11! Cosa attualmente impossibile sia per il parco macchine che per il tempo. Fra qualche anno quando staranno per uscire le dx12 le 11 saranno al loro massimo regime e come oggi le differenze non si noteranno più di tanto.
Poi non capisco perchè quella volta hanno deciso di strutturare l'hardware in modo che la generazione precendete di dx non sia compatibile ne aggiornabile, ogni volta un casino perchè giustamente le software house aspettano!! Ho capito che una scheda dx9 sia "meno" potente rispetto ad una 11 di adesso, però non è detto che uno deva giocare con tutto al massimo...

gnicK79
05-12-2009, 13:33
Per vedere la differenza in dx11 un gioco deve essere stato creato pensando solo alle dx11! Cosa attualmente impossibile sia per il parco macchine che per il tempo. Fra qualche anno quando staranno per uscire le dx12 le 11 saranno al loro massimo regime e come oggi le differenze non si noteranno più di tanto.
Poi non capisco perchè quella volta hanno deciso di strutturare l'hardware in modo che la generazione precendete di dx non sia compatibile ne aggiornabile, ogni volta un casino perchè giustamente le software house aspettano!! Ho capito che una scheda dx9 sia "meno" potente rispetto ad una 11 di adesso, però non è detto che uno deva giocare con tutto al massimo...

Un hardware pensato per ospitare fixed functions di specifiche DX9 sarebbe inadeguato per aggiornarsi potenzialmente a specifiche DX10, poiché i componenti circostanti e l'architettura generale sono progettati per spingere con le librerie di partenza. Non è così facile.

Se per compatibilità, intendi la retrocompatibilità delle librerie API.... quello è un problema a scapito solo di chi sviluppa... e non per l'hardware che invece supporta le versioni precedenti delle DX. In ogni caso è Microsoft a decidere queste cose. L'interruzione della retrocompatibilità col passato introdotta nelle DX10 era stata giustificata dal fatto che il nuovo modello API messo in piedi era più semplice da concepire per uno sviluppatore (anche se meno abordabile per chi invece era abituato col vecchio concept). Ad ogni modo si poteva decidere di riadattare e re-integrare perlomeno le DX9c nel model nuovo... cosa che non è avvenuta e che poi invece è accaduta in DX11 capendo che le DX9 purtroppo, o per fortuna, rallentavano l'evoluzione delle librerie anche per via delle console ritenute, come ovvio, il mercato ideale per chi produce videogiochi.

psychok9
05-12-2009, 18:30
Il fatto è che se crei dei poligoni in più bisogna anche renderizzarli, il che crea del lavoro in più a valle della creazione del modello poligonale a dettaglio aumentato. Però i poligoni in più si possono creare on-chip, per cui posso andare a risparmiare banda passante per la geometria e memoria per la gestione dei modelli.

Ci sono 3 possibilità per l'utilizzo della tessellation/DX11:

1) Stesso dettaglio poligonale e prestazioni superiori
2) Dettaglio migliorato e praticamente le stesse prestazioni
3) Dettaglio molto maggiore e relativo hit prestazionale

Generalmente possiamo vedere che in Dirt si è utilizzata l'opzione 2, mentre nel demo Unigine la 3). La cosa bella però della tessellazione è che potrei agire sulla programmabilità dello stadio di tessellazione per passare da 1) a 2) o 3) o viceversa in base alle mie impostazioni e alle mie esigenze, addirittura potrei gestire un livello di dettaglio poligonale "autotadattabile dinamicamente" alle prestazioni della mia scheda video, e tutto ciò senza modificare il modello originale (che sarebbe lo stesso in tutti i casi) ma solo la funzione di amplificazione.

Thanks per l'ottima spiegazione!
Allora speriamo venga sfruttata anche l'opzione 1 e 2 dai programmatori :)
Su Dirt 2 sinceramente, non so se per mia lacuna visiva, non ho visto nulla di differente dagli screen comparativi. Pensavo in maggiori dettagli ambientali e auto e/o maggiori prestazioni :(

Pat77
05-12-2009, 22:05
Dipende, se il frame rate é 100+ allora dimezzarlo per avere un maggiore dettaglio grafico é accettabile. A parte ció, ripeto, quale frame rate avrebbe lo stesso dettaglio in DX9? Non devi pensare DX11=meno framerate, questo non é automatico. Ad esempio, questo test:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_radeon_hd_5000_weitere_details/16/#abschnitt_stalker_call_of_pripyat

mostra che in DX11 le prestazioni aumentano e questo con una migliore gestione delle ombre, mentre se si attiva la tessellazione si ottiene un migliore dettaglio poligonale e le prestazioni non sono troppo inferiori alla versione DX10. A me non pare un risultato da buttare.

Ed è circa questo il vantaggio prestazionale almeno oggi, 10-20% in più, il che combinato alla migliore gestione non è certo poco.
Ma ritengo pursempre che unigine sia forzatamente un strumento di marketing più che un effettivo confronto tra le due API.

leoneazzurro
05-12-2009, 22:52
Per forza, Unigine non é altro che un demo che mostra alcune possibilitá offerte dalle API, con un bench integrato, ma nulla di piú.

mika480
06-12-2009, 00:10
Dopo aver letto tutto cio' giungo ad una conclusione
-Per lavorare uso il pc
-Per giocare la PS3.
Altro che directx11!

coschizza
06-12-2009, 12:40
dimostra che la maggior parte delle aziende sviluppa i giochi per le console proprio a 30 fps e li ce solo scritto che anche la insomniac(che non è il fruttivendolo sotto casa) ha capito che è inutile sforzarsi per fornire 60 fps costanti vista la loro dubbia utilità



stai confondendo i 2 discorsi

una cosa e dire che l'occhio umano non ha bisogni di una fluidità superiore ai 30fps (cosa ovviamente falsa visto che qui parliamo di scienza e quindi non puoi discutere su questo visto che stai andando contro essa in maniera aperta e indiscutibile)

una altra cosa è dire che un team di sviluppo utilizza preferibilmente giochi a 30fps per motivi di costo facilità di sviluppo e perche mediamente l'utente non si lamenta di questo in certre categorie di gioco

sono 2 cose diverse nemmeno lontanamente collegabili come stai facendo tu, hai fatto solo confusione nel leggere e interpretare il discorso della insomniac che nel post non voleva dire quello che hai capito tu.

ti faccio un esempio identico, se la fiat ti dice che le loro macchine vanno al massimo a 160Km/h perche di piu non serve, questo non singifica che andare di piu sia inutile e impossibile per un essere umano, eppure tu hai capito proprio questo dal post precedente

Zappa1981
06-12-2009, 21:00
Ho letto una buona parte dei commenti e in realtà avete ragione un pò tutti. Ho guardato le foto attentamente con lo scopo di notare le differenze tra direct x9 e 11, e le ho viste anche se le considero insufficenti per poter dire che le directx 9 sono da buttare. Certo è che se le case software ottimizzano i giochi per le directx 11 in modo nativo e le case come ati e nvidia si concentrano sull ottimizzazione dei driver per sfruttare queste tecnologie allora le differenze saranno molto più marcate. La cosa che ho notato su questo articolo è che si parla spesso di differenze tra vista, 7 e xp e da sostenitore accanito di xp mi sento di dire che windows 7 ha molti pregi come ad esempio la compatibilità software che mi sembra implementata molto bene, cosa che xp 64 non ha in alcun modo. Xp 32 lo tengono solo le aziende ormai, per noi un passaggio a 7 è molto più semplice dato che non abbiamo server in rete o cmq possiamo adattare facilmente il nuovo sistema alle nostre esigenze e allora perchè non passare a 7? io l ho fatto e non sono affatto pentito... Tornando in topic io ho preso una 4890 nuova pagata una pippa di tabacco e per di più va da dio con la mia configurazione, sono convinto che sotto sotto un motivo per mostrarci le directx 11 e i suoi pregi sia puramente commerciale, le schede come la mia avranno vita lunga ancora perchè francamente vedere uno schizzo di acqua in meno non mi cambia la vita e nemmeno me ne accorgo... Lo stesso discorso posso farlo per le cpu...perchè io sarei cpu limited? perchè secondo voi con la mia scheda al massimo dei dettagli a 1920 x 1080 (full hd) dovrei avere problemi di fluidità? NO va tutto da dio e renderizzo le directx 10.1 al massimo dei dettagli e al massimo degli effetti, quindi vedete anche voi che chi mi dice mah...con la tua cpu sei cpu limited e non ti godi la scheda mente...ovvio se avessi un i7 avrei qualche frame in più ma vivo lostesso :) La 5870 l ho vista in azione e le directx 11 le renderizzerà molto bene ma bisogna aspettare che i driver diventino maturi, non lo sono nemmeno per la mia figuriamoci per una 5870 :) cmq le directx 9 non sono morte e ci daranno e ci danno ancora soddisfazioni :)

Diobrando_21
07-12-2009, 00:47
stai confondendo i 2 discorsi

una cosa e dire che l'occhio umano non ha bisogni di una fluidità superiore ai 30fps (cosa ovviamente falsa visto che qui parliamo di scienza e quindi non puoi discutere su questo visto che stai andando contro essa in maniera aperta e indiscutibile)

una altra cosa è dire che un team di sviluppo utilizza preferibilmente giochi a 30fps per motivi di costo facilità di sviluppo e perche mediamente l'utente non si lamenta di questo in certre categorie di gioco

sono 2 cose diverse nemmeno lontanamente collegabili come stai facendo tu, hai fatto solo confusione nel leggere e interpretare il discorso della insomniac che nel post non voleva dire quello che hai capito tu.

ti faccio un esempio identico, se la fiat ti dice che le loro macchine vanno al massimo a 160Km/h perche di piu non serve, questo non singifica che andare di piu sia inutile e impossibile per un essere umano, eppure tu hai capito proprio questo dal post precedente

esattamente...meno male, sennò poi sembro io il pazzo :)

Ho letto una buona parte dei commenti e in realtà avete ragione un pò tutti. Ho guardato le foto attentamente con lo scopo di notare le differenze tra direct x9 e 11, e le ho viste anche se le considero insufficenti per poter dire che le directx 9 sono da buttare. Certo è che se le case software ottimizzano i giochi per le directx 11 in modo nativo e le case come ati e nvidia si concentrano sull ottimizzazione dei driver per sfruttare queste tecnologie allora le differenze saranno molto più marcate. La cosa che ho notato su questo articolo è che si parla spesso di differenze tra vista, 7 e xp e da sostenitore accanito di xp mi sento di dire che windows 7 ha molti pregi come ad esempio la compatibilità software che mi sembra implementata molto bene, cosa che xp 64 non ha in alcun modo. Xp 32 lo tengono solo le aziende ormai, per noi un passaggio a 7 è molto più semplice dato che non abbiamo server in rete o cmq possiamo adattare facilmente il nuovo sistema alle nostre esigenze e allora perchè non passare a 7? io l ho fatto e non sono affatto pentito... Tornando in topic io ho preso una 4890 nuova pagata una pippa di tabacco e per di più va da dio con la mia configurazione, sono convinto che sotto sotto un motivo per mostrarci le directx 11 e i suoi pregi sia puramente commerciale, le schede come la mia avranno vita lunga ancora perchè francamente vedere uno schizzo di acqua in meno non mi cambia la vita e nemmeno me ne accorgo... Lo stesso discorso posso farlo per le cpu...perchè io sarei cpu limited? perchè secondo voi con la mia scheda al massimo dei dettagli a 1920 x 1080 (full hd) dovrei avere problemi di fluidità? NO va tutto da dio e renderizzo le directx 10.1 al massimo dei dettagli e al massimo degli effetti, quindi vedete anche voi che chi mi dice mah...con la tua cpu sei cpu limited e non ti godi la scheda mente...ovvio se avessi un i7 avrei qualche frame in più ma vivo lostesso :) La 5870 l ho vista in azione e le directx 11 le renderizzerà molto bene ma bisogna aspettare che i driver diventino maturi, non lo sono nemmeno per la mia figuriamoci per una 5870 :) cmq le directx 9 non sono morte e ci daranno e ci danno ancora soddisfazioni :)

perché cpu limited? cos'hai?

Zappa1981
07-12-2009, 10:34
ho un pentium D 915 2.8Ghz @ 4.02Ghz, gli ho fatto una modifichina :P

Crimson Skies
07-12-2009, 11:40
ho un pentium D 915 2.8Ghz @ 4.02Ghz, gli ho fatto una modifichina :P

E' un dual Core. Non è un C2D ma cmq non è male come CPU. E' LGA 775.

Zappa1981
07-12-2009, 11:53
si infatti ovvio che un core 2 duo gli da via ma a me sembra sufficente per la maggior parte dei giochi e applicazioni :)

bobby10
07-12-2009, 12:12
ho un pentium D 915 2.8Ghz @ 4.02Ghz, gli ho fatto una modifichina :P

ammazza se l'hai tirato.
Comunque condivido quello che hai detto.. E' anche assurdo mettersi a discutere su certe differenze minime..poi quando ci saranno i giochi nativi dx11 si vedrà....ma anche qui io ho già espresso il mio parere.
Schizzo più schizzo meno la mia esperienza di gioco non cambia..quando e se ci saranno i giochi che si vedono come i film allora riterrò la novità degna di nota. :fagiano:

Zappa1981
07-12-2009, 18:59
SI, ti posso assicurare che quando ti dicono..sei cpu limited cambia, compra, non serve.. E' vero ho fatto un test e la mia scheda è sfruttata poco più di metà ma l altra metà che manca nelle applicazioni e nei giochi di tutti i giorni non la vedi... perchè probabilmente i frame che mancano all occhio umano non arrivano nemmeno ad esser visti... quindi io con 140 euro ho una scheda buona che mi permette di giocare in full hd e ho speso relativamente poco e ho dato ulteriore linfa vitale al mio vetusto processore che a quella velocità se la cava egreggiamente... magari quando gioco arrivo a 75 gradi ma non posso avere tutto no? sarei curioso di montare una 5970 (magari con alimentatore migliore) e fare una prova 3d e vedere che risultato vedo :)

leddlazarus
08-12-2009, 09:18
voglio proprio vedere se domani uscisse un giocone di quelli spaccatutto sviluppato solo (e dico SOLO) per dx11, con effetti fantasmagorici mai visti e frame rate decenti, cosa si direbbe qui sul forum.

il 7 è uscito ufficialmente da 3 mesi. mi sembra abbia avuto un consenso + positivo di vista.

ora occorre solo aspettare almeno 1 anno per vedere qualcosa di interessante.

penso pero' che siamo sulla buona strada per l'abbandono delle dx9.

a proposito quanto sono durate?

Crimson Skies
08-12-2009, 10:06
voglio proprio vedere se domani uscisse un giocone di quelli spaccatutto sviluppato solo (e dico SOLO) per dx11, con effetti fantasmagorici mai visti e frame rate decenti, cosa si direbbe qui sul forum.

il 7 è uscito ufficialmente da 3 mesi. mi sembra abbia avuto un consenso + positivo di vista.

ora occorre solo aspettare almeno 1 anno per vedere qualcosa di interessante.

penso pero' che siamo sulla buona strada per l'abbandono delle dx9.

a proposito quanto sono durate?

Concordo con te su entrambe le affermazioni.

Win 7 ha avuto un larghissimo consenso più di Vista sicuramente ma da esso ha ereditato molto.
Per il giocone bhè basta vedere la news su Bad Company 2 o altri per rendersi conto della cosa.

Per quel che ne so le Dx9 sono state rilasciate nel 2002.

mika480
08-12-2009, 10:36
Il veloce progresso M$ !!!

LkMsWb
08-12-2009, 19:19
penso pero' che siamo sulla buona strada per l'abbandono delle dx9.

a proposito quanto sono durate?

Nel 2002 è uscito il primo hardware Directx 9.0 (le Radeon 9700), nel 2004 il primo hardware DX 9.0c (GeForce 6x00), nel 2005 il primo hardware capace in directx 9 di applicare l'AntiAliasing ad una immagine con HDR (Radeon X1x00). Il 2006 invece è l'anno delle Directx 10 (GeForce 8800). Il problema è stato poi il passaggio limitato a Vista, l'hardware DX10 ormai è ovunque, non così il software, ma con il buon successo di Seven e la possibilità di avere le DX11 su Vista... speriamo bene :)

Crimson Skies
08-12-2009, 19:58
Nel 2002 è uscito il primo hardware Directx 9.0 (le Radeon 9700), nel 2004 il primo hardware DX 9.0c (GeForce 6x00), nel 2005 il primo hardware capace in directx 9 di applicare l'AntiAliasing ad una immagine con HDR (Radeon X1x00). Il 2006 invece è l'anno delle Directx 10 (GeForce 8800). Il problema è stato poi il passaggio limitato a Vista, l'hardware DX10 ormai è ovunque, non così il software, ma con il buon successo di Seven e la possibilità di avere le DX11 su Vista... speriamo bene :)

Io sono ottimista. Vista/7 porteranno ventata nuova con le Dx11.:)

Helldron
09-12-2009, 12:07
Usare le DX11?? Naa, la vedo dura un uso massiccio prima del cambio definitivo di motori grafici che avverrà con le nuove console. Al momento ci troviamo in chiara fase di transizione, escono giochi con grafica di uno o due anni fa migliorati/pompati ma non c'è ancora uno stacco netto. Dovremo aspettare un paio d'annetti per vedere quello vero..

mika480
12-12-2009, 15:40
Aspettiamo quindi con fiducia le DX 135
;)))

Motenai78
15-01-2010, 14:35
Francamente so' sfiduciato.
le differenze in game son risibili, soprattutto rispetto al calo di performance.

E lo ungine, o come si chiama, renderizza due immagini diverse, poi se le DX10 NON possono fare gli "spuntoni del drago" (per intenderci), ed i rilievi: allora le DX11 vincono a man bassa, altrimenti è una discreta presa per i fondelli.