View Full Version : DirectX 10.1 e l'eterna sfida marketing
Redazione di Hardware Upg
14-11-2007, 08:54
Link alla notizia: http://www.hwupgrade.it/news/skvideo/directx-101-e-l-eterna-sfida-marketing_23246.html
Si avvicina il lancio delle prime schede video con supporto alle API DirectX 10.1, non ancora disponibili sul mercato ma già importante veicolo marketing dei produttori di GPU
Click sul link per visualizzare la notizia.
Anche perchè ora vengono implementati sulle schede video, nei primi mesi del 2008 verranno rilasciate su Vista...ma per i giochi? Almeno dopo l'estate 2008 (IMHO).
Sarà uscita una nuova generazione di schede sia da nvidia che da ati...no?
Ma è vera la storia secondo cui con le Dx10.1 è previsto l'utilizzo obbligatorio dell'AA a 2X?
sbaglio o alcuni giochi senza ps 3.0 manco partono?in quel caso anche se il ragionamento ati era giusto, la scelta di nvidia fu + lungimirante
News molto diretta e chiara le Dx10.1 sono solo marketing quando verranno implementate nei games avremo ben altre schede rispetto a quelle oggi (o domani :D ) in commercio
MiKeLezZ
14-11-2007, 09:14
Non mi aspettavo tale articolo!
Comunque è chiaro che se le prestazioni delle 38x0 saranno deludenti così come sembrano, le DX 10.1 saranno il leit-motiv che le accompagnerà, così come per i Phenom lo è l'architettura quad-core nativa... in entrambi i casi però l'utente accorto dovrebbe sapere che gli scenari reali non premiano tali virtuosismi, e guardare quindi aspetti più "sostanziosi".
Ma è vera la storia secondo cui con le Dx10.1 è previsto l'utilizzo obbligatorio dell'AA a 2X?No, il gioco per essere DX 10.1 deve semplicemente avere internamente l'opzione per abilitare 4x AA (secondo modalità prestabilite dal white paper delle DX).
Percui la scheda DX 10.1 in questo casa basta che supporti tale 4x AA... e questo lo fanno già tutte :/
Anche perchè ora vengono implementati sulle schede video, nei primi mesi del 2008 verranno rilasciate su Vista...ma per i giochi? Almeno dopo l'estate 2008 (IMHO).
Sarà uscita una nuova generazione di schede sia da nvidia che da ati...no?Sia G100 che R700 sono previsti da qui a 6-8 mesi, o se preferiamo, 2Q 2008... quindi, giusto.
Morlack`X
14-11-2007, 09:15
Che bello... serviva proprio un upgrade delle directx 10... gioverà ai quei 4 o 5 giochi che le usano...
Ginger79
14-11-2007, 09:17
Spero che questi chiarimenti servano a chiudere la bocca ad un po di gente su questo Forum. Inutile aspettare schede DX10.1 oggi come oggi... meglio puntare sulle prestazioni massime in DX10.
Il paragone con la storia verificatasi precedentemente, sebbene risulti l'unico spunto al quale aggrapparsi per argomentare, non mi trova molto concorde in quanto la differenza tra Shader 2.0 e 3.0 è sicuramente più marcata che non quella tra DX10 e 10.1. Poi la storia ci insegna anche che schede come la 6800Ultra possono ancora oggi essere utilizzate per far girare giochi del calibro di Bioshock risultanto tutt'altro che obsolete (e permettendo l'abilitazione di tutti gli effetti visivi) cosa che invece non accade con le X800 di Ati ... schede tecnologicamente inferiori al debutto che oggi non permettono di godere di effetti essenziali.
Nvidia fece bene a suo tempo con l'introduzione degli shader 3.0 (fattore che contribuì a decretare il successo delle 6800) e fa bene ora a non introdurre per forza le DX10.1 ... due scelte opposte ma azzeccate in entrambi i momenti storici.
Ati dal canto suo non può fare altrimenti... chi comprerebbe oggi una loro scheda se la stessa non avesse almeno qualche feature in più rispetto alla concorrenza?? Nessuno viste le prestazioni dimostrateci nell'ultimo anno e mezzo e quelle che ci dimostrerà con la sua nuova e fiammante gamma di X3850/70 che si preannuncia già sconfitta in partenza... (così come lo saranno i Phenomeni).
a rigore questo ragionamento sarebbe stato più che valido anche quando sono uscite le prime schede dx10... ma allora c'era da spingere vista...:D
gianni1879
14-11-2007, 09:25
No, il gioco per essere DX 10.1 deve semplicemente avere internamente l'opzione per abilitare 4x AA (secondo modalità prestabilite dal white paper delle DX).
Percui la scheda DX 10.1 in questo casa basta che supporti tale 4x AA... e questo lo fanno già tutte :/
allora secondo il tuo ragionamento tutte le vga attuali sono dx10.1, se il gioco basta che lo abbi all'interno! in realtà non è così la gpu deve essere in grado di effettuare AA via Shaders, per una maggiore qualità visiva, cosa che attualmente Nvidia non ha nella sua archietettura, ecco perchè a breve se non rivoluziona G80/G92 non potrà farlo, al contrario già R600 era capace di farlo e con piccole modifiche è diventato anche DX10.1 compilant
Le nuove API avranno interessanti ottimizzazioni specifiche per l'anti aliasing e per il supporto alla global illumination, funzionalità molto interessante per fornire una migliore resa dell'illuminazione degli oggetti. In particolare DirectX 10.1 permetterà di gestire modalità anti aliasing custom implementate via pixel shaders, utili in quelle situazioni nelle quali il tradizionale approccio anti aliasing di tipo multisample può avere problemi qualitativi, quando ad esempio viene abbinato a HDR e a tecniche di deferred shading.
Ovviamente come sappiamo tutti R600 e derivati non è capace di gestire AA tradizionale in box, non si tratta di bug come si sosteneva ma di una scelta progettuale (sbagliata o giusta che sia). RV670 non si sa ancora nulla se hanno implementato AA tradizionale, ma dubito fortemente.
Anche da dire ovviamente che giochi in dx10.1 li vedremo tra un bel pò di tempo.
Spero che questi chiarimenti servano a chiudere la bocca ad un po di gente su questo Forum. Inutile aspettare schede DX10.1 oggi come oggi... meglio puntare sulle prestazioni massime in DX10.
Il paragone con la storia verificatasi precedentemente, sebbene risulti l'unico spunto al quale aggrapparsi per argomentare, non mi trova molto concorde in quanto la differenza tra Shader 2.0 e 3.0 è sicuramente più marcata che non quella tra DX10 e 10.1. Poi la storia ci insegna anche che schede come la 6800Ultra possono ancora oggi essere utilizzate per far girare giochi del calibro di Bioshock risultanto tutt'altro che obsolete (e permettendo l'abilitazione di tutti gli effetti visivi) cosa che invece non accade con le X1800 di Ati ... schede tecnologicamente inferiori al debutto che oggi non permettono di godere di effetti essenziali.
Ati dal canto suo non può fare altrimenti... chi comprerebbe oggi una loro scheda se la stessa non avesse almeno qualche feature in più rispetto alla concorrenza?? Nessuno viste le prestazioni dimostrateci nell'ultimo anno e mezzo e quelle che ci dimostrerà con la sua nuova e fiammante gamma di X3850/70 che si preannuncia già sconfitta in partenza... (così come lo saranno i Phenomeni).
Mi sembri un FAN sfegatato della Nvidia. Scommetto che ne hai una.
Io con la mia X1800XT con COD4 e Bioshock gioco a 1280x1024 al max dei dettagli con filtri attivati.
Come mai tu dici che non è possibbbbbole?
halduemilauno
14-11-2007, 09:35
Mi sembri un FAN sfegatato della Nvidia. Scommetto che ne hai una.
Io con la mia X1800XT con COD4 e Bioshock gioco a 1280x1024 al max dei dettagli con filtri attivati.
Come mai tu dici che non è possibbbbbole?
credo che intendesse dire x800. e giustamente visto che non supportano gli shader3 a differenza delle 6800.
;)
gianni1879
14-11-2007, 09:36
Mi sembri un FAN sfegatato della Nvidia. Scommetto che ne hai una.
Io con la mia X1800XT con COD4 e Bioshock gioco a 1280x1024 al max dei dettagli con filtri attivati.
Come mai tu dici che non è possibbbbbole?
a parte che ha cannato di brutto, forse voleva dire le X800/X850 che non avevano lo sm 3.0, invece di dire X1800 :rolleyes:
Ginger79
14-11-2007, 09:38
Mi sembri un FAN sfegatato della Nvidia. Scommetto che ne hai una.
Io con la mia X1800XT con COD4 e Bioshock gioco a 1280x1024 al max dei dettagli con filtri attivati.
Come mai tu dici che non è possibbbbbole?
Nessun Fanboysmo (lo lascio fare ai ragazzini quello... e di solito chi lo cita lo è ;) ). (cmq intendevo X800)
Ad ogni modo la mia è un'analisi oggettiva della situazione e non vedo come tu possa affermare il contrario visto che è successo e succederà esattamente quello che ho detto. Se non vuoi accettarlo (xchè di questo si tratta... di pura accettazione per il fatto di essere stato toccato dal discorso in quanto possessore di una scheda Ati.. anche se non di quella incriminata dal mio discorso) aspetta qualche tempo e poi vedrai che i fatti mi daranno ragione. Non ho la sfera di cristallo ... ho solo ripercorso la storia e mi sono limitato a fare previsioni per l'imminente futuro.
Queste le dichiarazioni di MICROSOFT E CRYTEK:
Kevin Unangst, direttore di Microsoft Games per Windows, dichiara che le DX10.1 sono solamente un aggiornamento incrementale, che non coinvolgerà nessun gioco nel prossimo futuro. Cevat Yerli di Crytek, è stato ancora più chiaro: "Da sempre ci vantiamo di utilizzare per primi ogni importante nuova tecnologia per migliorare i nostri giochi ma, guardando alle DX10.1, non abbiamo trovato nulla che giustificasse l'impegno. Non abbiamo intenzione di utilizzarle, nemmeno nel prossimo futuro".
R3GM4ST3R
14-11-2007, 09:40
Ecco che ci risiamo un'altra volta, ancora una volta il marketing davanti alla tecnologia ed alla stabilità operativa.
Tempo fa, si sviluppava meglio, si testava di più, e solo dopo si vendeva.
Oggi un prodotto viene concepito, e venduto prima che diventi stabile e definitivo...
Questa corsa al "IO CE L'HO PIU' LUNGO" la vedo abbastanza negativa dal punto di vista dell'affidabilità e dell'efficenza.
Daltronde basta vedere com'è organizzata una società ora e com'era organizzata una società 20 anni fà...
Oggi si fa tutto di fretta e male, si fanno millemila aggiornamenti SW, FW e riprogettazioni HW fatte prima di aver realmente capito dove si era cannato con la versione HW precedente.
(xkè??xkè bisogna vendere!!!)
Ginger79
14-11-2007, 09:43
a parte che ha cannato di brutto, forse voleva dire le X800/X850 che non avevano lo sm 3.0, invece di dire X1800 :rolleyes:
Si è vero ho CANNATO DI BRUTTO BRUTTO BRUTTO per aver messo un 1 davanti all'800 ... ma per favore... riprenditi.. te l'ho già detto chiaramente una volta.
halduemilauno
14-11-2007, 09:44
a parte che ha cannato di brutto, forse voleva dire le X800/X850 che non avevano lo sm 3.0, invece di dire X1800 :rolleyes:
ha cannato di brutto per un 1 di troppo. e il senso era pure + che chiaro. cannato di brutto.
MC.
gianni1879
14-11-2007, 09:46
Si è vero ho CANNATO DI BRUTTO BRUTTO BRUTTO per aver messo un 1 davanti all'800 ... ma per favore... riprenditi.. te l'ho già detto chiaramente una volta.
visto che mi avevi sottolineato che non vedevo ciò che scrivevo... te l'ho voluto sottolineare io stavolta senza andare in pallone ;) e senza dare i numeri come invece avevi fatto tu l'altra volta :)
ah per il riprenditi mi pare che i MOD invece ti hanno ripreso giusto per una settimana intera...
/OT
gianni1879
14-11-2007, 09:48
ha cannato di brutto per un 1 di troppo. e il senso era pure + che chiaro. cannato di brutto.
MC.
che fai pure l'avvocato difensore?? non credo ci sia bisogno.
e cmq l'ho scritto pure che voleva dire X800/x850, ma ha scritto appunto sbagliato, il cannato era riferito appunto allo scrivere e non al concetto.
Ginger79
14-11-2007, 09:51
che fai pure l'avvocato difensore?? non credo ci sia bisogno.
e cmq l'ho scritto pure che voleva dire X800/x850, ma a scritto appunto sbagliato, il cannato era riferito appunto allo scrivere e non al concetto.
Ah hai messo gli occhiali.... strano.... dov'è L'H di "Ha scritto appunto sbagliato" ?!?!? :D :D :D
Ti massacri con le tue mani....
è solo un modo x far vendere le future ati dato che deluderanno anch'esse come la 2900
gianni1879
14-11-2007, 09:52
Ah hai messo gli occhiali.... strano.... dov'è L'H di "Ha scritto appunto sbagliato" ?!?!? :D :D :D
Ti massacri con le tue mani....
hehehehe è saltato un tasto :D però non ho aggiunto nulla di numeri.
cmq aristop OT
la differenza tra Shader 2.0 e 3.0 è sicuramente più marcata che non quella tra DX10 e 10.1.
Non ho capito il paragone tra le differenze di due versioni di SM e due versioni di Dx. Che senso ha scusa?
Nvidia fece bene a suo tempo con l'introduzione degli shader 3.0 (fattore che contribuì a decretare il successo delle 6800) e fa bene ora a non introdurre per forza le DX10.1 ... due scelte opposte ma azzeccate in entrambi i momenti storici.
Questo è vero, ai tempi comprai la X800 e me ne sono pentito amaramente in quanto mi sono trovato senza supporto per molti titoli che non partivano senza SM 3.0, anche se poi all'atto pratico, anche se ci fosse stato il supporto, non so COME avrebbero girato quei titoli.
Aggiungo anche che però ai tempi, in fase decisionale, non avrei mai pensato che saremmo arrivati ai tempi del "the way its meant to be played" e dei giochi volutamente castrati per venire incontro agli accordi commerciali. :rolleyes:
Mah non capisco il fanboysmo, dovremmo ormai essere abituati alle altalene prestazionali AMD-Intel , ATI-Nvidia che si sono susseguite nel corso degli anni.
ATI toppa da un anno e mezzo è vero, ciò non toglie che se la 3870 sarà pari o poco sotto alla 8800 GT scaldando molto meno, facendo meno rumore, con una qualità di immagine (sembra) migliore ma soprauttto con la possibilità di fare XFIRE su mobo superiori come le x38/P35 non credo proprio che uscirà sconfitta dal duello.
Tantopiù che di 8800 GT stiamo tutti a parlarne ma in giro non se ne trovano.......
P.S. non sono fanboy ATI, ho avuto 3 schede ATI e 3 Nvidia sempre contento anche se la qualità di immagine ATI era superiore
infatti secondo me quando ci saranno veramente le dx 10.1 non saranno n grado di sfruttarle in modo fluido nei giochi
Mah non capisco il fanboysmo, dovremmo ormai essere abituati alle altalene prestazionali AMD-Intel , ATI-Nvidia che si sono susseguite nel corso degli anni.
ATI toppa da un anno e mezzo è vero, ciò non toglie che se la 3870 sarà pari o poco sotto alla 8800 GT scaldando molto meno, facendo meno rumore, con una qualità di immagine (sembra) migliore ma soprauttto con la possibilità di fare XFIRE su mobo superiori come le x38/P35 non credo proprio che uscirà sconfitta dal duello.
Tantopiù che di 8800 GT stiamo tutti a parlarne ma in giro non se ne trovano.......
P.S. non sono fanboy ATI, ho avuto 3 schede ATI e 3 Nvidia sempre contento anche se la qualità di immagine ATI era superiore
si con le 7800 e 7900 era superiore ati in velocità e qualità, mentre ora è nvidia a essere superiore in qualità e velocità
coschizza
14-11-2007, 10:16
Che bello... serviva proprio un upgrade delle directx 10... gioverà ai quei 4 o 5 giochi che le usano...
per poter usare una libreria o una api devi prima renderla pubblica, quindi è normale che prima si distriguiscano i framework e poi si attenda che gli sviluppatori le usino.
se quindi non distribuiscono le dx 10.1 mai nessuno le userà e tornando al passato saremmo quindi ancora a win3.1 a 16bit
altro esempio importante, che senso avava la AMD a inserire il supporto ai 64bit anni prima che la gente lo utilizzi anche a livelli minimi ? era ovviamente stategico
Spero che questi chiarimenti servano a chiudere la bocca ad un po di gente su questo Forum. Inutile aspettare schede DX10.1 oggi come oggi... meglio puntare sulle prestazioni massime in DX10.
:mbe:
Nvidia fece bene a suo tempo con l'introduzione degli shader 3.0 (fattore che contribuì a decretare il successo delle 6800) :muro: persino i sassi sanno che una X800 gto2 equipara le prestazioni di una 7800 gtx. In Far Cry, non in giochini da nulla. :sofico:
Ati dal canto suo non può fare altrimenti... chi comprerebbe oggi una loro scheda se la stessa non avesse almeno qualche feature in più rispetto alla concorrenza?? Nessuno viste le prestazioni dimostrateci nell'ultimo anno e mezzo e quelle che ci dimostrerà con la sua nuova e fiammante gamma di X3850/70 che si preannuncia già sconfitta in partenza... (così come lo saranno i Phenomeni).
Oddio un FanBoy. Sisi hai ragionissima, Guarda che è uscito un nuovo telefono che ha la nuovissima suoneria del merlo canterino. Vai a comprarlo va.
Tu dici che prima NVidia ha fatto bene ha mettere features in più poi sviluppando un prodotto top gamma che le prende in ogni dove dal top gamma del "nemico" ed ora sostieni il contrario?
Nessun Fanboysmo (lo lascio fare ai ragazzini quello... e di solito chi lo cita lo è ;) ). (cmq intendevo X800)
Ad ogni modo la mia è un'analisi oggettiva della situazione e non vedo come tu possa affermare il contrario visto che è successo e succederà esattamente quello che ho detto. Se non vuoi accettarlo (xchè di questo si tratta... di pura accettazione per il fatto di essere stato toccato dal discorso in quanto possessore di una scheda Ati.. anche se non di quella incriminata dal mio discorso) aspetta qualche tempo e poi vedrai che i fatti mi daranno ragione. Non ho la sfera di cristallo ... ho solo ripercorso la storia e mi sono limitato a fare previsioni per l'imminente futuro.
Chi lo cita lo è mille volte più di me??? :D :D :D
come vedi dal mio avatar, non posso essere un fan delle ATI.
Anzi, la X1800XT (che ha funzionato a dovere) la sto vendendo in qst forum per prendermi una 8800gt.
Chiudo qui il discorso perchè siamo OT.
mirkonorroz
14-11-2007, 10:31
Benvenga ogni tecnologia sw/hw che permetta di raggiungere il fotorealismo realtime in modo automatico (senza fake) (color bleeding e illuminazione indiretta servono a questo principalmente); il problema e' che FORSE, nonostante ottimizzazioni e aggiunte varie, per scene molto complesse, probabilmente ci vorranno anni.
La stessa HDRI senza illuminazione indiretta e color bleeding contribuisce molto relativamente al fotorealismo.
Poiche' la ricerca va finanziata, penso si abbiano due alternative: faccio pagare di piu' le schede grafiche, ad esempio, senza global illumination (GI) dicendo che sto lavorando alla GI o metto sul mercato un prodotto che ne implementa anche una piccola parte magari modo inefficiente per scene complesse ? Io forse preferisco la seconda alternativa (valutando ovviamente il prezzo) che magari mi da una qualche prova del lavoro in corso.
L'importante e' che vi siano applicazioni che girino fluide su una buona percentuale di schede in commercio. Nulla vieta di buttare fuori, ad esempio, crysis che vada solo sulle top di gamma, puo' essere visto come esperimento per il prossimo futuro, sta a noi valutare se comprarlo o no e sta alla software house continuare, nello stsso tempo, a produrre anche titoli piu' compatibili verso il basso.
Penso che poi il fatto di dire che il combiamento non e' rivoluzionario vada visto sia sotto l'aspetto dell'uso per l'utente finale (come sembra essere il caso della redazione) che sul lato piu' tecnico. Ad esempio se novita' per la GI (algoritmi, strutture dati) sono valide (nonostante la attuale "lentezza" della GPU), cioe' fanno fare un buon passo avanti verso la meta finale (questo lo potra dire chi se ne intende veramente, non io), io per esempio posso considerare l'ugrade dalle 10.0 alle 10.1 un salto molto piu' grande che dalle dx9.0 alle dx10.0.
Spero di non aver detto tutte cose ovvie...ma se sono ovvie bisognerebbe ricordarsele. Se sono sbagliate, invece, mi scuso in anticipo :D
PS:
Certo che poi e' questione di gusti: ad esempio non e' detto che a tutti, piaccia il fotorealismo in ogni circostanza e gioco. Ad esempio io odio gli umani fotorealistici soprattutto nei giochi violenti, preferisco robot o "cose" tipo UTIII.
MiKeLezZ
14-11-2007, 10:42
persino i sassi sanno che una X800 gto2 equipara le prestazioni di una 7800 gtx. In Far Cry.Annata 2004?
:eek:
:mbe:
:muro: persino i sassi sanno che una X800 gto2 equipara le prestazioni di una 7800 gtx. In Far Cry, non in giochini da nulla.
:sofico:
Oddio un FanBoy.
OMG...questa l'hai sparata grossa :asd: anche full mod non arriva alla 7800GTX :banned:
http://img106.imageshack.us/img106/4311/immaginekq1.jpg
:mbe:
:muro: persino i sassi sanno che una X800 gto2 equipara le prestazioni di una 7800 gtx. In Far Cry, non in giochini da nulla. :sofico:
Oddio un FanBoy. Sisi hai ragionissima, Guarda che è uscito un nuovo telefono che ha la nuovissima suoneria del merlo canterino. Vai a comprarlo va.
Tu dici che prima NVidia ha fatto bene ha mettere features in più poi sviluppando un prodotto top gamma che le prende in ogni dove dal top gamma del "nemico" ed ora sostieni il contrario?
oddio un fanboy :D
Oramai gli informatici hanno abbandonato l'informatica... chi da' le linee guida al giorno d'oggi potrebbe usare gli stessi metodi nel gestire la catena mcdonalds senza accorgersene... l'informatica e' morta, evviva l'informatica.
gianni1879
14-11-2007, 11:11
OMG...questa l'hai sparata grossa :asd: anche full mod non arriva alla 7800GTX :banned:
http://img106.imageshack.us/img106/4311/immaginekq1.jpg
nemmeno lontanamento :asd: cmq con il core a 600MHz forse forse forse forse :asd:
forse ad una 7800gt 400/1000
Con una X800XT PE 256MB AGP8, gioco a GRAW2 con tutto a medio-alto a 1280x960 e va alla grande!
Provato il demo di COD4, idem!
Per World in Conflict devo abbassare qualcosa, ma va bene lo stesso!
Il demo di Crysis è più pesante e devo settare a medio-basso, ma gira discretamente!
Cos'è che non dovrebbe girare, scusa? :mbe:
C'e' qualcosa che mi sfugge (nella mia estrema ignoranza le cose sono tante, effettivamente)
Nuove generazioni = Shader "PROGRAMMABILI".
Per cui pensavo che Nvidia/AMD (a livello firmware o piu' facilmente driver) PROGRAMMANDO gli shader potessero semplicemente implementare gli effetti che poi i programmatori chiamano tramite le API direct X (QUALUNQUE VERSIONE).
Discorso contorto ma banale.
No ?
Tralasciando poi vari discorsi tipo che da 2 anni a questa parte il fotorealismo (Che rincorrevamo dai tempi dell Geforce) ce lo stiamo scordando da quanto HDR ed effetti Lucidi e Unti si implementano.
(ma e' solo la mia opinione eh :) ).
TheMac
Con una X800XT PE 256MB AGP8, gioco a GRAW2 con tutto a medio-alto a 1280x960 e va alla grande!
Provato il demo di COD4, idem!
Per World in Conflict devo abbassare qualcosa, ma va bene lo stesso!
Il demo di Crysis è più pesante e devo settare a medio-basso, ma gira discretamente!
Cos'è che non dovrebbe girare, scusa? :mbe:
xè vai con gli shader 2.0 e non puoi sfruttare gli shader 3.0
Cos'è che non dovrebbe girare, scusa? :mbe:
Prova a far partite SCDA o Bioshock tanto per citarne due...
killer978
14-11-2007, 11:40
Cmq le scheda ATI se vogliamo sono state sempre lungimiranti!!!
Con le 9800 si è potuto giocare a tutto discretamente x diversi anni, stessa cosa x le X1900 schede che ormai hanno + di 2 anni alle spalle eppure ti permettono di giocare a tutto con filtri attivi a patto di usare un 19", le 7900 oggi arrancano di brutto rispetto alle X1900, e se guardiamo tantissimi bench sparsi x la rete in diversi titoli Dx9 le X1950 se la giocano anche con le 8800GTS!!!
R600 è un progetto se vogliamo ambizioso ma che ha avuto scarso successo, gia era pronto x le DX10.1, mentre Nvidia con le 8800 e stata + consevativa ed ha avuto ragione basta guardare la 8800GT che signora scheda che è. Secondo me è la VGA migliore uscita in tutti questi ann, non si era mai visto nulla di simile a quel prezzo, con 230€ si porta a casa una scheda che va quasi quanto il top da 500€ ma che consuma meno ed occupa poco spazio nel case.
Tanto di cappelo a Nvidia x la 8800GT :)
masluigi
14-11-2007, 12:56
Oggi vige la legge che il mercato va' dove ci sono le prestazioni massime, lo dico da fan ati 9500 - 9800 -x800xt - 1900xtx e adesso 2x 8800 gtx sli, ati si deve svgliare a non presentare delle schedine come x2900 (ho aspettato 10 mesi fiducioso) che mi ha fortemente deluso adesso leprestazioni nvidia nsono troppo avanti, il motivo per cui sceglievo ati come molti e' che era sempre avanti come prestazioni e visualizzazione, oggi amd la sta' facendo sprofondare con lei, dove sta' adesso la lungimiranza.
masluigi
14-11-2007, 12:57
Ps Amd crede che inserendo le dx10.1 gli faccia guadagnare mercato, quando sono usciti due o tre giochi dx10, se questa e' lungimiranza meglio che cambino mestiere.
oggi compro una bella auto senza aria condizionata. tanto siamo in autunno e l'aria condizionata non mi serve.
la mia domanda è secondo voi a giugno riuscirò a rivedere l'auto per comprarne una nuova con l'aria condizionata?
gallo_79
14-11-2007, 13:32
al di la di tutto trovo curioso come tutti ci si stia accapigliando citando modelli di schede video vecchie di anni... mi vien da dire meglio per il mio portafoglio (ricordo con amarezza il periodo 2000-2005 quando ogni sei mesi si cambiava) ma credo male per le società... probabilmente sono alla canna del gas!
sì perchè pensandoci su, non ho visto una corsa in massa a installare vista per poter avere le directx 10. non ho visto lo stesso salto qualitativo fra le dx10 e le dx9 come c'era stato fra le dx9 e le dx8.
vedo differenze di prestazioni a risoluzioni altissime, ma per me che ho un normalissimo 19 pollici lasciano un pò il tempo che trovano, più che a 1280x1024 non posso andare. probabilmente il frutto del lavorone ms si vedrà in futuro, magari con le dx11 o giù di li... fatto sta che con la mia 7900gt gioco ancora bene, ed è passato un anno e mezzo da quando l'ho infilata nello slot. forse crysis gli darà un colpo fatale, ma ripeto... l'ho sfruttata 3 volte di più delle sue antenate...
questo per esprimere il mio scetticismo verso tutte le innovazioni microscopiche che sto vedendo in questo periodo.
PS: non sono un fan boy. Di solito mi guardo nel portafoglio e miro alla scheda più alta nei benchmark che mi posso permettere. Ma ora e per i prossimi mesi non vedo molti punti a favore di ati...
Bah io non capisco i fanboy. Io non so come fate voi ma quando devo spendere i miei soldi prima controllo quanti soldi ho, poi guardo quale scheda posso comprare, poi controllo le comparative(magari prestando maggiore attenzione ai giochi che mi interessano di più) e poi compro a seconda di quello che conviene a me.
MiKeLezZ
14-11-2007, 13:50
oggi compro una bella auto senza aria condizionata. tanto siamo in autunno e l'aria condizionata non mi serve.
la mia domanda è secondo voi a giugno riuscirò a rivedere l'auto per comprarne una nuova con l'aria condizionata?L'esempio calzante è con ARS o EBD, magari montato su piccole cilindrate da città.
gallo_79
14-11-2007, 13:50
zancle: la rivenderai, non ci farai tanti soldi, ma il marocchino di turno lo trovi. Ma se invece dell'aria condizionata stessimo parlando dei fendinebbia? O degli specchietti termici?...
Secondo me se hai intenzione di comprare una scheda per tenerla due anni, meglio questa. Se tanto fra 6-8-10 mesi la cambi, le 10.1 non possono farti ne caldo ne freddo.
appleroof
14-11-2007, 13:58
O quantomeno quando questo avverrà avremo già a disposizione da tempo nuove generazioni di architetture video, capaci di potenze di elaborazione ben superiori a quelle attualmente in commercio.
quanto è antipatico dire "l'avevo detto dall'inizio"....
per ora secondo me, appunto, le dx10.1 sbandierate sulle 38x0 sono fuffa commerciale (proprio a proposito di marketing, al quale si riferisce il titolo della notizia), se ne riparla seriamente con la prox gen Ati/Nvidia ;)
rmarango
14-11-2007, 14:01
Nulla vieta di buttare fuori, ad esempio, crysis che vada solo sulle top di gamma, puo' essere visto come esperimento per il prossimo futuro, sta a noi valutare se comprarlo o no e sta alla software house continuare, nello stsso tempo, a produrre anche titoli piu' compatibili verso il basso.
Ma crysis e' scalabilissimo, io riesco a farlo girare sulla mia vecchia scheda grafica a 640x480 con tutti i dettagli low...! :D :D :D
appleroof
14-11-2007, 14:02
oggi compro una bella auto senza aria condizionata. tanto siamo in autunno e l'aria condizionata non mi serve.
la mia domanda è secondo voi a giugno riuscirò a rivedere l'auto per comprarne una nuova con l'aria condizionata?
credo di capire il senso di questa domanda, peraltro giusta in sè, secondo me...il fatto è che quando avremo giochi "full dx10.1" al 99,99% le attuali 38x0 non saranno cmq sufficienti a gestirli, saranno sorpassate
secondo me non basare dunque l'acquisto della nuova vga (qualunque essa sarà in definitiva) sulle dx10.1, come detto per ora sono fuffa
I titoli nativamente (aka realmente) DX10 li vedremo non prima della fine del prossimo anno, con una preponderanza solo nel 2009, figuriamoci quelli DX10.1..
Quello di AMD è un specchio per le allodole; le Radeon HD 38x0 non potranno gestire i titoli creati con quelle API.
Comunque mi permetto di fare un'annotazione: la GeForce 6800 era davvero un ottima architettura, un capolavoro d'hardware, e ha saputo gestire, seppur ovviamente in misura limitata, lo SM3.0. ;)
oddio un fanboy :D
Chiedo venia ho sbagliato riga della faccina. :muro:
Ricky68 che configurazione hai perche io con una x1900gt a cod4 in 1024*768 sto sui 50 fps
OMG...questa l'hai sparata grossa :asd: anche full mod non arriva alla 7800GTX :banned:
Chiedo scusa. Ho sbagliato riga della faccina....... Mi perdonate?
Oddio sai cosa significa la faccina alla fine della mia frase?
dicevo così xè uno che dice che la 7800 gtx e una x800 gto sono uguali o è un pazzo o un fanboy
gallo_79
14-11-2007, 15:08
dicevo così xè uno che dice che la 7800 gtx e una x800 gto sono uguali o è un pazzo o un fanboy
ah dici?
io non ne ho avuta neanche una, ma se vado a vedere i comparativi dati alla mano la x800 gto non ne esce tanto bene...
magari però sono io che non capisco niente e tomshw sbaglia tutti i benchmark...
http://www.tomshw.it/comparativa_schede_video_2007.php
EDIT: Scusa. Non avevo proprio capito il senso del tuo post. Ho fatto le ore troppo piccole a cercare di connettermi ai server di cod4... hihi
BlueKnight
14-11-2007, 15:19
Forse dici così perchè non ti è chiaro dove abbia preso le News HWUpgrade...purtroppo ultimamente sta peccando su questo fatto in confornto ad altre testete.
http://www.tomshw.it/news.php?newsid=11985
Leggendo questo articolo di Tom's si nota come tali parole usate per scrivere l'articolo provengano si da Microsoft, Crytek, nVidia...
nVidia snobba le DX10.1, e non devo spiegare io il perchè...
Crytek società alle "dipendenze" di nVidia a tutti gli effetti, non le andrebbe mai contro e poi ovviamente ritenendo il suo motore grafico rivoluzionario non potrebbe dire che le DX10.1 sono una cosa buona se no passarebbe il messeggio che il Cry Engine è già vecchio perhè non supporta queste librerie.
L'unica che dovrebbe essere imparziale è Microsoft, anche se volendo scavare a fondo si può dire che neanche lei lo è...perchè sarebbe come ammettere che le DX10 sono uscite prematuramente per colpa sua perchè voleva far uscire Vista in fretta e furia e solo ora son state corrette.
Spero che questi chiarimenti servano a chiudere la bocca ad un po di gente su questo Forum. Inutile aspettare schede DX10.1 oggi come oggi... meglio puntare sulle prestazioni massime in DX10.
Il paragone con la storia verificatasi precedentemente, sebbene risulti l'unico spunto al quale aggrapparsi per argomentare, non mi trova molto concorde in quanto la differenza tra Shader 2.0 e 3.0 è sicuramente più marcata che non quella tra DX10 e 10.1. Poi la storia ci insegna anche che schede come la 6800Ultra possono ancora oggi essere utilizzate per far girare giochi del calibro di Bioshock risultanto tutt'altro che obsolete (e permettendo l'abilitazione di tutti gli effetti visivi) cosa che invece non accade con le X800 di Ati ... schede tecnologicamente inferiori al debutto che oggi non permettono di godere di effetti essenziali.
Nvidia fece bene a suo tempo con l'introduzione degli shader 3.0 (fattore che contribuì a decretare il successo delle 6800) e fa bene ora a non introdurre per forza le DX10.1 ... due scelte opposte ma azzeccate in entrambi i momenti storici.
Ati dal canto suo non può fare altrimenti... chi comprerebbe oggi una loro scheda se la stessa non avesse almeno qualche feature in più rispetto alla concorrenza?? Nessuno viste le prestazioni dimostrateci nell'ultimo anno e mezzo e quelle che ci dimostrerà con la sua nuova e fiammante gamma di X3850/70 che si preannuncia già sconfitta in partenza... (così come lo saranno i Phenomeni).
BlueKnight
14-11-2007, 15:25
si con le 7800 e 7900 era superiore ati in velocità e qualità, mentre ora è nvidia a essere superiore in qualità e velocità
Non hai letto le Preview delle HD 38xx immagino... e non hai letto cosa hanno fatto quei furboni dell'nVidia nelle ultime relase di dirver allora.... hanno abbassato volutamente i dettagli di Crysis anche al massimo della qualità per far andare meglio le loro schede...e tutto questo è testimoniato per la rete anche dalle immagini con drivers vecchi e nuovi.
gallo_79
14-11-2007, 15:25
Forse dici così perchè non ti è chiaro dove abbia preso le News HWUpgrade...
Scusa se mi intrometto, ma non mi è chiaro a cosa ti riferisci
Toms nell'articolo che hai linkato cita più esplicitamente le fonti, forse (non che hwupgrade non lo faccia eh... sono addirittura in lingua originale nel testo) ma giunge alle stesse conclusioni:
"Quindi non vorremmo che questo "presunto" specchietto per le allodole possa sviare l'attenzione degli utenti dagli aspetti a cui dare attenzione che, come riportato in una notizia pubblicata ieri, saranno ben altri."
BlueKnight
14-11-2007, 15:39
I titoli nativamente (aka realmente) DX10 li vedremo non prima della fine del prossimo anno, con una preponderanza solo nel 2009, figuriamoci quelli DX10.1..
Quello di AMD è un specchio per le allodole; le Radeon HD 38x0 non potranno gestire i titoli creati con quelle API.
Comunque mi permetto di fare un'annotazione: la GeForce 6800 era davvero un ottima architettura, un capolavoro d'hardware, e ha saputo gestire, seppur ovviamente in misura limitata, lo SM3.0. ;)
I titoli DX10 nativi li vedremo sicuramente più avanti... quindi, perchè il programmatore intanto che c'è non può modificare il suo motore e portarlo a DX10.1 (il che li faciliterebbe anche la programmazione) prima di farlo uscire?
Secondo me voi ragazzi non avete capito che i motori grafici non lo fanno le scelte della gente, ma i soldi in rapporto alla facilità di programmazione.
Se le DX10.1 facilitano la programmazione rispetto alle DX10, perchè un programmatore deve essere così stupido da stare a lavorare in DX10? A mio avviso vi sarà un salto repentino da DX9 a 10.1, saltando di pari passo motori DX10.1...se no i programmatori sarebbero stupidi.
E' lo stesso discorso del programmare per Cell della PS3... potrebbe dare buoni risultati ma è difficile o diverso da programmare rispetto le altre postazioni e costa un botto di soldi... il gioco non vale la candela.
BlueKnight
14-11-2007, 15:43
Scusa se mi intrometto, ma non mi è chiaro a cosa ti riferisci
Toms nell'articolo che hai linkato cita più esplicitamente le fonti, forse (non che hwupgrade non lo faccia eh... sono addirittura in lingua originale nel testo) ma giunge alle stesse conclusioni:
"Quindi non vorremmo che questo "presunto" specchietto per le allodole possa sviare l'attenzione degli utenti dagli aspetti a cui dare attenzione che, come riportato in una notizia pubblicata ieri, saranno ben altri."
Il senso del mio discorso era che HWupgrade non riporta in maniera così chiara quali sono state le fonti, parla sopratutto di Microsoft.
Leggendo più sotto i commenti dei lettori di Tom's però si vede che non tutti hanno poi così fiducia di quella news, perchè ogni Società citata avrebbe anche dei motivi personali per screditare le DX 10.1.
Il mio discorso era quello, secondo me gli utenti dovrebbero aspettare a parlare o screditare una cosa prima di sentire commenti parziali.
Secondo me le uniche fonti realmente parziali sarebbero le case produttrici di giochi e i programmatori stessi.
MiKeLezZ
14-11-2007, 15:47
Forse dici così perchè non ti è chiaro dove abbia preso le News HWUpgrade...purtroppo ultimamente sta peccando su questo fatto in confornto ad altre testete.
http://www.tomshw.it/news.php?newsid=11985
Leggendo questo articolo di Tom's si nota come tali parole usate per scrivere l'articolo provengano si da Microsoft, Crytek, nVidia...
nVidia snobba le DX10.1, e non devo spiegare io il perchè...
Crytek società alle "dipendenze" di nVidia a tutti gli effetti, non le andrebbe mai contro e poi ovviamente ritenendo il suo motore grafico rivoluzionario non potrebbe dire che le DX10.1 sono una cosa buona se no passarebbe il messeggio che il Cry Engine è già vecchio perhè non supporta queste librerie.
L'unica che dovrebbe essere imparziale è Microsoft, anche se volendo scavare a fondo si può dire che neanche lei lo è...perchè sarebbe come ammettere che le DX10 sono uscite prematuramente per colpa sua perchè voleva far uscire Vista in fretta e furia e solo ora son state corrette.Non capisco. Lo sviluppatore delle DX10.1 dice che sono una trascurabile evoluzione delle DX10, nulla di rivoluzionario.
Per me si può anche chiudere qua... i GOMPLOTTI lasciamoli sbrigare a Mulder e Scully
gallo_79
14-11-2007, 15:47
al di la dei dettagli su tempi e modelli è chiaro che le 10.1 non sono, a detta di tutti, anche della microsoft stessa, dei miglioramenti folgoranti. Ma è giusto, sono comunque dei miglioramenti, anche se piccoli, quindi hai ragione a dire perchè dovrei rinunciarvi?
alla fine ci troveremo a scegliere fra una scheda leggermente più cara, a detta di tutti gli esperti un 10% più potente, ma senza supporto alle 10.1, e una scheda più economica, meno potente ma con le 10.1.
ovviamente io ho una mia opinione, ma non credo si possa sostenere che una scheda sia assolutamente meglio dell'altra.
gallo_79
14-11-2007, 16:04
Secondo me le uniche fonti realmente parziali sarebbero le case produttrici di giochi e i programmatori stessi.
...di cui una (crytek) l'hai già evidentemente scartata, in quanto imparziale...
e ovviamente tutte le altre case sono da scartare, perchè tutti i giochi che usciranno prossimamente sono in cantiere da diverso tempo, per i giochi più grossi parlerei di almeno un anno in cui hanno lavorato sulle dx10...
secondo me la diffidenza è sempre giusta, ma va usata con moderazione.
spero per ati comunque di essere smentito dai fatti, perchè secondo me la competizione ci può fare solo bene, e mi può solo far risparmiare qualche soldo :stordita:
Spero che questi chiarimenti servano a chiudere la bocca ad un po di gente su questo Forum. Inutile aspettare schede DX10.1 oggi come oggi... meglio puntare sulle prestazioni massime in DX10.
Ati dal canto suo non può fare altrimenti... chi comprerebbe oggi una loro scheda se la stessa non avesse almeno qualche feature in più rispetto alla concorrenza?? Nessuno viste le prestazioni dimostrateci nell'ultimo anno e mezzo e quelle che ci dimostrerà con la sua nuova e fiammante gamma di X3850/70 che si preannuncia già sconfitta in partenza... (così come lo saranno i Phenomeni).
Sono d'accordo ma vorrei fare una considerazione: Intel ha risorse e un numero di ingegneri molto superiore a quello di AMD, ed è per questo che quest'ultima ha comprato Ati.
Sono convinto che fino a Fusion e il nuovo core ,AMD non riuscirà a competere con Intel pienamente nel campo processori.
Contro Nvidia invece con R700 vedremo i primi veri risultati della fusione di Ati con AMD, sperando che siano positivi.
Non capisco. Lo sviluppatore delle DX10.1 dice che sono una trascurabile evoluzione delle DX10, nulla di rivoluzionario.
Per me si può anche chiudere qua... i GOMPLOTTI lasciamoli sbrigare a Mulder e Scully
Queste sono le differenze:
Direct3D 10.1 extends the feature set of Direct3D 10.0 with the following new features:
- Independent blend modes for each render target using the new blend-state interface (see ID3D10BlendState1 Interface).
- A new data type for an array-of-cube textures (see D3D10_TEXCUBE_ARRAY_SRV1). Use the new ID3D10ShaderResourceView1 Interface interface to bind the cube textures to the pipeline.
The new features require a 10.1 device type (see ID3D10Device1 Interface) which can be created by calling D3D10CreateDevice1, or you can create the device and swap chain at the same time by calling D3D10CreateDeviceAndSwapChain1.
Del tutto trascurabili nella stragrande maggioranza dei casi a meno non si stia facendo deferred rendering con MSAA abilitato e si voglia un po' piu' di controllo.
Primi benchmark per una HD3870 !!!!
http://iax-tech.com/video/3870/38701.htm
Ho vinto qualcheccosa? :D
PS: per chi ha chiesto la mia configurazione: leggi la firma.....
gallo_79
14-11-2007, 16:58
curioso
eliminando la "taroccatura" di nvidia a questo tizio risulta addirittura che la 8800gt vada più veloce di prima...
potrebbe darsi che le correzioni negli ultimi driver siano state "azzoppate" per mantenere competitive le vecchie gpu delle 8800gts e gtx, mentre le nuove serie invece ne risentano... che strano!
o forse è solo uno stupidissimo bug
finche tengono queste api solo su vista.....
;)
diabolik1981
14-11-2007, 18:33
finche tengono queste api solo su vista.....
;)
e dove altro le vorresti?
Se le DX10.1 facilitano la programmazione rispetto alle DX10[..]
Scusa ma dove hai letto che facilitano la programmazione? Le 10.1 apportano solo un paio di aggiunte (su tutte l'AA via shader, che semmai complica dato che il programmatore deve scrivere una parte extra di codice).
Diciamo che DX10 e 10.1 sono la stessa cosa, alla fin fine; usare una o l'altra non dà differenze, tranne pochi casi. E anche in questi ultimi, differenze marginali.
Le DX10 mettono in mano agli sviluppatori tutto quanto possano desiderare: libertà di programmazione, maggior semplicità ove possibile, nonché la possibilità di scrivere shader complessi quanto e come vogliono (grazie all'interazione tra pixel e vertex). Poco ci manca perché siano le API definitive.
COmunque sarà qualcosa di molto lungo..quindi avremo schede molto diverse da queste attuali![Buttero la 8800GTX?:cry:]
BlueKnight
14-11-2007, 22:27
Scusa ma dove hai letto che facilitano la programmazione? Le 10.1 apportano solo un paio di aggiunte (su tutte l'AA via shader, che semmai complica dato che il programmatore deve scrivere una parte extra di codice).
Diciamo che DX10 e 10.1 sono la stessa cosa, alla fin fine; usare una o l'altra non dà differenze, tranne pochi casi. E anche in questi ultimi, differenze marginali.
Le DX10 mettono in mano agli sviluppatori tutto quanto possano desiderare: libertà di programmazione, maggior semplicità ove possibile, nonché la possibilità di scrivere shader complessi quanto e come vogliono (grazie all'interazione tra pixel e vertex). Poco ci manca perché siano le API definitive.
Scusa, mi riferivo soprattuto a questa pagina di cui si era molto parlato:
http://www.tomshw.it/graphic.php?guide=20071026&page=directx_101_radeon_hd3800_rv670-02
marcog90
15-11-2007, 06:13
ora che si useranno solo giochi che andranno su schede video con directx 10.1 secondo me ci vorrà ancora un po di tempo...
Renacchio
15-11-2007, 07:45
In realtà sono proprio le DX10 ad essere solo marketing.
In alcune recensioni nei siti americani vengono paragonate prestazioni e qualità dello stesso gioco tra DX9 e DX10:
DX 10 nessun miglioramento visivo ma diminuzione delle prestazioni UTILI!!!
nonikname
15-11-2007, 08:05
La 3850 la reputo una scheda molto interessante , la 3870 è inferiore alla 8800gt che gia fatica in DX10 , figurati con le DX10.1...
http://www.anandtech.com/video/showdoc.aspx?i=3151
Frse forse 3870 non è così una merdina . . .
Min Framerate in Crysis cca 9 FPS contro 1 FPS della 8800 GT . . .
gallo_79
15-11-2007, 13:37
ovviamente il dato di min e max framerate lascia sempre il tempo che trova, se non corredato dalla durata dei tempi nei quali vengono rilevati... è più affidabile un giudizio sul framerate medio
BlueKnight
15-11-2007, 17:55
Uscite oggi le recensioni su tutti i siti del mondo.
La 3870 è veramente penosa.
Qui vengono spiegato ancora meglio e in maniera più semplice le novità apportare dalle 10.1
http://www.tomshw.it/graphic.php?guide=20071115&page=radeon_hd3870_hd3850-01
centrogm
27-11-2007, 11:22
Neanche capace di fare copia ed incolla ... era x800 non x1800
Lunar Wolf
13-12-2007, 19:56
Hay raga per caso qualcuno sà se DirectX 10 è scaricabile anke per l?XP??? Lo kiedo perchè in alcuni siti ho trovato dei download ma si come ho la connessiono con il palmare della SonyEricsson P900 allora per scaricare 600MB nn mi bastano nemmeno 3 mesi!!! Cmq fattemi sapere! grazie
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.