View Full Version : NVIDIA risponde ad ATI, nessun ostruzionismo nei videogiochi
Redazione di Hardware Upg
01-10-2009, 11:13
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-risponde-ad-ati-nessun-ostruzionismo-nei-videogiochi_30295.html
La società californiana risponde all'accusa fatta da un portavoce della società nel corso della giornata di ieri
Click sul link per visualizzare la notizia.
Bastoner
01-10-2009, 11:16
Seee come no :asd:
intanto da adesso in poi dovranno essere molto piu' cauti di prima, l'antitrust è li a vigilare....
"ha lavorato a fianco Eidos per poter supportare la nostra tecnologia di l'Anti-aliasing"
Nostra???????
ah ecco.... -_-
Brunos82
01-10-2009, 11:18
e dunque alla Ati non rimane che rimboccarsi le mani
b4st0n3r
01-10-2009, 11:18
http://fulljerem.free.fr/img/milka.gif
Human_Sorrow
01-10-2009, 11:19
"Se AMD vuole offrire innovazione per giochi PC quindi li incoraggiamo a rimboccarsi le maniche e fare lo stesso."
:sofico: :sofico:
Cmq anche ati dovrebbe sviluppare insieme alle case produttrici.... senno le schede compro quelle di nvidia è!!
teolinux
01-10-2009, 11:21
If AMD wants to deliver innovation for PC games then we encourage them to roll up their sleeves and do the same
Che bordata! :sofico:
Foglia Morta
01-10-2009, 11:25
Il fatto che le affermazioni fatte da AMD non sia vere sono inoltre dimostrate dal fatto che Batman : Arkham Asylum è sviluppato su engine grafico Unreal 3, che nativamente non supporta l'anti-aliasing. NVIDIA, citando le parole riportate nella loro dichiarazione, ha lavorato a fianco Eidos per poter supportare la nostra tecnologia di l'Anti-aliasing.
Ed anche hardware upgrade si è fatta intortare :asd: . Se qualche programmatore di Eidos dice che non ci saranno problemi attivando l'AA da CCC allora la dimostrazione di cui si parla è falsa.
Robertazzo
01-10-2009, 11:26
in effetti sto spot meant to be played...ha rotto i maroni
mircocatta
01-10-2009, 11:26
Ma chi mi assicura che non sia stata nvidia a chiedere di non mettere l'AA nel gioco? per poi ovviamente aiutare la software house ad implementare il suo AA
trovo impensabile al giorno d'oggi che una software house, che addirittura riesce ad implementare il physics in quel gioco, non implementi un banale filtro AA, cosa che attualmente fanno TUTTI..
insomma nvidia dice che amd deve cominciare a dare mazzette agli sviluppatori pure anch'essa ...
XCò,a,òzòa
michelgaetano
01-10-2009, 11:29
Qualcuno gli spiega come cambiando un semplice ID l'AA funzioni? Ah già, hanno lavorato a stretto contatto per le loro "kickass" feature :asd:
dado1979
01-10-2009, 11:30
Oltre al danno, la beffa!
Spiegatemi come mai se l'Unreal Engine 3 non supporta nativamente l'AA nella demo per attivarlo, basta cambiare l'ID name della scheda AMD?
E come mai poi nel gioco non funziona neanche cambiando l'ID name?
Se fosse come dicono loro non dovrebbe funzionare in nessun caso... tantomeno cambiando l'ID name!!!
A me pare + che palese che ci sia della disonestà!!!
Gioco nello scaffale poer me!!!
che boiata pazzesca, come cercare delle scuse insulse....
Negative_creep
01-10-2009, 11:31
http://fulljerem.free.fr/img/milka.gif
Ahahaha...
Comunque è palese, solo i tonti possono credere alle parole di Nvidia (e quindi anche i fanboy :O ).
Ai tempi della 3dfx compariva semplicemente un logo prima dell'avvio del gioco (una figata quel logo!) ma stava semplicemente ad indicare che quel gioco supportava tranquillamente le librerie glide e l'architettura 3dfx.
Ora invece sembra che le cose siano cambiate parecchio, (vedi Doom 3 ben supportato dalle Nvidia, e Half Life 2 dalle ATI) certo è che quelli dell'Nvidia ce la mettono tutta ad ostacolare la concorrenza, e poveraccia è sempre AMD di mezzo!
Poi se leggi anche news in cui si parla di "Microsoft e Nvidia unite nel GPU Computing" speri solo che di queste collaborazioni non ne risenta la concorrenza.
Consiglio
01-10-2009, 11:31
:vicini:
longhorn7680
01-10-2009, 11:32
Ma chi mi assicura che non sia stata nvidia a chiedere di non mettere l'AA nel gioco? per poi ovviamente aiutare la software house ad implementare il suo AA
trovo impensabile al giorno d'oggi che una software house, che addirittura riesce ad implementare il physics in quel gioco, non implementi un banale filtro AA, cosa che attualmente fanno TUTTI..
Te lo dicono Unreal tournament 3, Brother in Arms HH e tanti altri titoli CHE NON HANNO l' AA!!!!!
Il motore grafico di questi giochi non ha il supporto AA nativo e devo dire che vista le resa grafica che ha anche senza non vedo il bisogno di implementare l'AA!!!!
Questo e uno dei punti di forza di questo motore visto che cosi riesce a dare ottimi risultati visivi mantenendo un'ottima fluidita anche con VGA non Top!!!
Se poi nVidia ha speso risorse per implementare questa funzione e anche giusto che abbia l'esclusiva sull'utilizzo di default di questa feature, visto che tramite CCC o il semplice AtiTrayTools chiunque con un paio di click riesce ad abilitare questa funzione anche su Ati!!!!
Evangelion01
01-10-2009, 11:36
Nvidia per ora fa :mc:
Forse pensa che la gente è stupida e che siccome molti giochi "supportano" il"meant to be :blah:"
possono vendere una 285 a 280€ nuova quando a 220€ c'è la 5850 che la straccia... ma faranno poca strada così facendo. Se non cominciano ad abbassare i prezzi altro che "The Way it's meant to be played" ...
La loro politica di ostruzionismo e rimarchiamento continuo mi ha francamente stufato... voglio qualcosa di concreto da loro.
longhorn7680
01-10-2009, 11:36
Ahahaha...
Comunque è palese, solo i tonti possono credere alle parole di Nvidia (e quindi anche i fanboy :O ).
Io non sono un fanboy e neanche tonto, ma le parole di nVidia corrispondono alla realta dei fatti!!!!!!
Su Unreal Tournament e Brother in Arms adesso non mi vengono in mente altri titoli con questo motore grafico l'AA NON ESISTE!!!!
Te lo dicono Unreal tournament 3, Brother in Arms HH e tanti altri titoli CHE NON HANNO l' AA!!!!!
Il motore grafico di questi giochi non ha il supporto AA nativo e devo dire che vista le resa grafica che ha anche senza non vedo il bisogno di implementare l'AA!!!!
Questo e uno dei punti di forza di questo motore visto che cosi riesce a dare ottimi risultati visivi mantenendo un'ottima fluidita anche con VGA non Top!!!
Se poi nVidia ha speso risorse per implementare questa funzione e anche giusto che abbia l'esclusiva sull'utilizzo di default di questa feature, visto che tramite CCC o il semplice AtiTrayTools chiunque con un paio di click riesce ad abilitare questa funzione anche su Ati!!!!
allora mi spieghi come mai se la funzione è così difficile da implementare basta cambiare l'identificativo della scheda perché l'aa magicamente funzioni? (e con prestazioni superiori rispetto all'aa attivato mediante acp/att)
da ciò si deriva il fatto che l'aa funziona con tutte le schede video (come in tutti gli altri giochi) ma hanno messo un blocco volto a disabilitare una caratteristica perfettamente funzionante nel caso di sceda video ati
ps. tutto imho
Drakogian
01-10-2009, 11:41
... cut ...
Se poi nVidia ha speso risorse per implementare questa funzione e anche giusto che abbia l'esclusiva sull'utilizzo di default di questa feature, visto che tramite CCC o il semplice AtiTrayTools chiunque con un paio di click riesce ad abilitare questa funzione anche su Ati!!!!
Chissà se quello che dici è riportato sulla scatola del gioco...
Tipo: "Gioco in esclusiva Nvidia... per i possessori di schede video ATI usate CCC o AtiTrayTools... eccovi le istruzioni"
Se non c'è scritto allora merita di rimanere sullo scaffale.
michelgaetano
01-10-2009, 11:43
Io non sono un fanboy
Se non lo sei, accetta la realtà dei fatti, che !fazz ha espresso perfettamente.
allora mi spieghi come mai se la funzione è così difficile da implementare basta cambiare l'identificativo della scheda perché l'aa magicamente funzioni? (e con prestazioni superiori rispetto all'aa attivato mediante acp/att)
da ciò si deriva il fatto che l'aa funziona con tutte le schede video (come in tutti gli altri giochi) ma hanno messo un blocco volto a disabilitare una caratteristica perfettamente funzionante nel caso di sceda video ati
ps. tutto imho
longhorn7680
01-10-2009, 11:43
Nvidia per ora fa :mc:
Forse pensa che la gente è stupida e che siccome una 285, supporta il"meant to be :blabla:"
possono venderla a 280€ nuova quando a 220€ c'è la 5850 che la straccia... ma faranno poca strada così facendo. Se non cominciano ad abbassare i prezzi altro che "The Way it's meant to be played" ...
La loro politica di ostruzionismo e rimarchiamento continuo mi ha francamente stufato... voglio qualcosa di concreto da loro.
Eccoti le ultime notizie su G300 riportate Qui (http://overclockers.ru/hardnews/34496.shtml)
* 3 miliardi di transistor;
* 512 processor units (CUDA Cores nella terminologia NVIDIA);
* 128 блоков выборки текстур (TMU);
* 48 ROP's;
* 384-bit bus della memoria con supporto GDDR-5;
* Supporto fino a 6 Gb di memoria video;
* Supporto ECC;
* Nuova architettura Fermi,
* Supporto DirectX 11;
* 2 Thread controller (Shedulers);
* Assenza della unit addetta alla tassellation, questa funzione sara realizzata a livello software;
* Consumo max attorno ai 200 W.
Sempre su questo sito danno come data d'uscita di queste schede Dicembre 2009!!! Mah staremo a vedere!!!
ivano444
01-10-2009, 11:45
Eccoti le ultime notizie su G300 riportate http://overclockers.ru/hardnews/34496.shtml (Qui)
* 3 miliardi di transistor;
* 512 processor units (CUDA Cores nella terminologia NVIDIA);
* 128 блоков выборки текстур (TMU);
* 48 ROP's;
* 384-bit bus della memoria con supporto GDDR-5;
* Supporto fino a 6 Gb di memoria video;
* Supporto ECC;
* Nuova architettura Fermi,
* Supporto DirectX 11;
* 2 Thread controller (Shedulers);
* Assenza della unit addetta alla tassellation, questa funzione sara realizzata a livello software;
* Consumo max attorno ai 200 W.
Sempre su questo sito danno come data d'uscita di queste schede Dicembre 2009!!! Mah staremo a vedere!!!
ma mo che centra:p
PrototypeR
01-10-2009, 11:46
Ma da quando l'Unreal Engine 3 non supporta l'antialiasing se fino adesso ho visto SEMPRE giochi basati su Unreal Engine 3 CON ANTIALIASING anche per le Ati??? Forse quelli della nVidia dovrebbero pensare meglio le frasi prima di dichiarare cavolate. Qualche esempio? Bioshock, Unreal Tournament 3, Gears of War, Medal of Honor Airborne, Wheelman, Stranglehold...e tanti altri...
michelgaetano
01-10-2009, 11:47
Chissà se quello che dici è riportato sulla scatola del gioco...
Tipo: "Gioco in esclusiva Nvidia... per i possessori di schede video ATI usate CCC o AtiTrayTools... eccovi le istruzioni"
Se non c'è scritto allora merita di rimanere sullo scaffale.
Ma neanche è così eh.
Attivare l'AA da pannello significa attivarlo su tutto il gioco stesso, non solo su quegli elementi che ne avrebbero bisogno. Il risultato è quindi un decadimento delle prestazioni.
PrototypeR
01-10-2009, 11:49
@longhorn7680
Leggi cosa ho scritto...e prova quei giochi che ho scritto con una scheda Ati e vedrai che C'è L'ANTIALIASING.
@ivano444
Infatti...che cavolo centra con questa news?
Ma chi mi assicura che non sia stata nvidia a chiedere di non mettere l'AA nel gioco? per poi ovviamente aiutare la software house ad implementare il suo AA
Beh, chi ci assicura il contrario? Una cosa sono le supposizioni, un' altra le prove.
Per ora vediamo che l' una casa ha lavorato con gli sviluppatori e l' altra no.
longhorn7680
01-10-2009, 11:51
allora mi spieghi come mai se la funzione è così difficile da implementare basta cambiare l'identificativo della scheda perché l'aa magicamente funzioni? (e con prestazioni superiori rispetto all'aa attivato mediante acp/att)
da ciò si deriva il fatto che l'aa funziona con tutte le schede video (come in tutti gli altri giochi) ma hanno messo un blocco volto a disabilitare una caratteristica perfettamente funzionante nel caso di sceda video ati
ps. tutto imho
Beh essendo l'AA una feature supportata da tutte le VGA in commercio e ovvio che non c'era modo di disabilitarla completamente a livello software!!!!! Le prestazioni superiori date dall'attivazione in game rispetto a quella forzata e data dal fatto che forzando l'AA lo applichi A TUTTI GLI ELEMENTI del gioco, mentra da menu vengono applicati solo agli elementi che ne necessitano!!!!
Questa manovra e una furbata di nVidia, pero avendoci speso parecchi soldi credo abbia il diritto di avere un minimo vantaggio da cio!!!!
Certo e giocare sporco, ma comunque nei limiti della legalita!!!!!
Per chi sostiene che io sia un fanboy e meglio che si vada a leggere i miei commenti di ieri sulla notizia data da Ati su Batman AA :muro: :muro: :muro:
Nvidia stà portando avanti un'ottima politica commerciale. Ha la forza per farlo e non è contro la legge.
Per quanto si possa essere affezionati al marchio ATI, nVidia ha giocato el carte giuste. Punto.
A me nvidia ultimamente con le sue dichiarazioni mi fa sganasciare dalle risate come pochi :asd: :asd: :asd:
longhorn7680
01-10-2009, 11:53
Ma da quando l'Unreal Engine 3 non supporta l'antialiasing se fino adesso ho visto SEMPRE giochi basati su Unreal Engine 3 CON ANTIALIASING anche per le Ati??? Forse quelli della nVidia dovrebbero pensare meglio le frasi prima di dichiarare cavolate. Qualche esempio? Bioshock, Unreal Tournament 3, Gears of War, Medal of Honor Airborne, Wheelman, Stranglehold...e tanti altri...
Fammi veder uno screenshot dove dal menu del gioco PUOI ABILITARE l'AA
Dragon2002
01-10-2009, 11:54
Che risposta scema che hanno dato,ora dovrà essere il giudice ha dare quelle giuste con una multa da paura,gli deve passare la voglia di fare queste schifezze.
ma NVIDIA chi crede di prendere per il :ciapet:.Non c'e stata nessuna mazzetta come non ce ne stata nessuna per togliere il supporto dx10.1 ad assassins creed dove le ati stracciavano le nvidia....
Nvidia farebbe meglio a starsene un po zitta che farebbe piu bella figura:asd:
michelgaetano
01-10-2009, 11:55
Beh essendo l'AA una feature supportata da tutte le VGA in commercio e ovvio che non c'era modo di disabilitarla completamente a livello software!!!!! Le prestazioni superiori date dall'attivazione in game rispetto a quella forzata e data dal fatto che forzando l'AA lo applichi A TUTTI GLI ELEMENTI del gioco, mentra da menu vengono applicati solo agli elementi che ne necessitano!!!!
Questa manovra e una furbata di nVidia, pero avendoci speso parecchi soldi credo abbia il diritto di avere un minimo vantaggio da cio!!!!
Certo e giocare sporco, ma comunque nei limiti della legalita!!!!!
Per chi sostiene che io sia un fanboy e meglio che si vada a leggere i miei commenti di ieri sulla notizia data da Ati su Batman AA :muro: :muro: :muro:
Ma quale diritto? Stai scherzando spero. L'unico diritto sarebbe dato da una nota ben leggibile sulla scatola, che specifica come con le schete Ati l'AA dal gioco non lo attivi.
Tu la vedi questa cosa sulla copertina del gioco? No, perchè non c'è. E se non sei un fanboy, come dici, non staresti a provare il contrario ed infarcire il discorso di punti esclamativi che ti sembrano andati di traverso.
Questa è slealtà verso chi compra il gioco, perchè non messo al corrente delle limitazioni imposte a causa delle solite "mazzette".
Fammi veder uno screenshot dove dal menu del gioco PUOI ABILITARE l'AA
Se è vero che l'AA si può attivare suelle ATI nella demo (cambiando ID name della scheda) ma non nel gioco hanno giocato sporco, c'è poco da insistere... ;)
g.luca86x
01-10-2009, 12:02
ma NVIDIA chi crede di prendere per il :ciapet:.Non c'e stata nessuna mazzetta come non ce ne stata nessuna per togliere il supporto dx10.1 ad assassins creed dove le ati stracciavano le nvidia....
Nvidia farebbe meglio a starsene un po zitta che farebbe piu bella figura:asd:
mi hai tolto le parole di bocca! Il problema è che tra Nvidia e Intel ad amd fanno sempre fare la fine di calimero! Mi sa che farebbero bene quelli di amd a rivolgersi a qualche Tony Ciccione Williams, stile Homer e Pretzel, perchè se aspetta in silenzio la fanno nera...
Evangelion01
01-10-2009, 12:03
Eccoti le ultime notizie su G300 riportate Qui (http://overclockers.ru/hardnews/34496.shtml)
Ah, adesso si che è qualcosa di concreto... di sicuro posso andare in negozio e chiedere :
Io : salve , vorrei una scheda nvidia G300.
Negoziante : eh? :mbe:
Io : si, quella con 3 milardi di transistor , e :blah:
Negoziante : No guardi se vuole ho una bella 285 a 300€
Io : le ho chiesto una G300, possibile che non la abbia??
Negoziante : No, mi dispiace, altrimenti ho una 5850 per 220€..
Io : no no, voglio una nvidia, tutti i giochi girano bene solo così perchè sono "the way meant to be played" ,mi dia la 285
Negoziante : certo , eccole la versione xxx con vasellina in bundle.
:D
michelgaetano
01-10-2009, 12:04
Ah, adesso si che è qualcosa di concreto... di sicuro posso andare in negozio e chiedere :
Io : salve , vorrei una scheda nvidia G300.
Negoziante : eh? :mbe:
Io : si, quella con 3 milardi di transistor , e :blah:
Negoziante : No guardi se vuole ho una bella 285 a 300€
Io : No guardi , le ho chiesto una G300, possibile che non la abbia??
Negoziante : No, guardi, altrimenti ho una 5850 per 220€..
Io : no no, voglio una nvidia, tutti i giochi girano bene solo così perchè sono "the way meant to be played" ,mi dia la 285
Negoziante : certo , eccole la versione xxx con vasellina in bundle.
:D
La dura realtà :asd:
g.luca86x
01-10-2009, 12:06
La dura realtà :asd:
nel vero senso della parola, vista la destinazione! :asd:
PaoloM72
01-10-2009, 12:11
Ragazzi, c'è poco da discutere. Alla fine della fiera è il consumatore a decidere. Io Batman lo lascio sullo scaffale, e il discorso lo chiudo in fretta. Avanti il prossimo :)
Goofy Goober
01-10-2009, 12:14
fantastico! sublime! eccitante!
su ATI inizia un po' a lavorare sui giochi!!! basta star li a girarsi i pollici!!! :sofico:
"ha lavorato a fianco Eidos per poter supportare la nostra tecnologia di l'Anti-aliasing"
Nostra???????
ah ecco.... -_-
http://fulljerem.free.fr/img/milka.gif
ahahah
mi ricordo ancora la 8800gts della xfx con in bundle lost planet con il bel logo nvidia e taaaanti altri..
voglio vedere la risposta di nvidia sul mercato, se si avverassero questi rumors "gt 300" tra 6 mesi", con le 58x0 che vanno più delle 285/295 a costi inferiori..
comunque spero che anche nvidia si riprenda, perchè ne viene di più a noi consumatori
MiKeLezZ
01-10-2009, 12:28
Se è vero che l'AA si può attivare suelle ATI nella demo (cambiando ID name della scheda) ma non nel gioco hanno giocato sporco, c'è poco da insistere... ;)Sei sicuro? Riassumiamo:
L'Engine UT3 non supporta AA in DX9 e ha dei problemi in DX10.
Agli sviluppatori EIDOS ciò non interessa, e sono pronti per rilasciare il gioco senza.
NVIDIA sborsa soldi e offre il suo supporto per aggiungere un filtro AA funzionante e degli effetti Physx tramite il loro SDK con esempi pre-forniti.
Per quale motivo ATI dovrebbe beneficiare di tutto questo?
Ma voi quando lavorate siete contenti se uno arriva a fine giornata e si incula tutto il merito del vostro lavoro, senza fare nulla? Se vuoi le cose te le devi guadagnare
"Se AMD vuole offrire innovazione per giochi PC quindi li incoraggiamo a rimboccarsi le maniche e fare lo stesso."Esattamente.
Crimson Skies
01-10-2009, 12:29
Ottima risposta di Nvidia.
Alla fine bisogna finirla sempre con l'attaccare o Nvidia e Intel.
Alla fine non è vero che ci sono solo giochi ottimizzati per Nvidia. Ora non ricordo il titolo/i ma ci sono alcuni con il logo ATi e quindi non vedo il problema. Se le case prodruttrici preferiscono Nvidia ad Ati non bisogna colpevolizzare la prodruttrice di schede ma chi produce i giochi che sceglie secondo me.
michelgaetano
01-10-2009, 12:30
Ottima risposta di Nvidia.
Alla fine bisogna finirla sempre con l'attaccare o Nvidia e Intel.
Alla fine non è vero che ci sono solo giochi ottimizzati per Nvidia. Ora non ricordo il titolo/i ma ci sono alcuni con il logo ATi e quindi non vedo il problema.
Quali? :D
Per quale motivo ATI dovrebbe beneficiare di tutto questo?
Per quale motivo non dare l'oppunità anche agli sviluppatori ATi di fornire l'AA (che è ben diverso, dal dargli il lavoro fatto da quelli Nvidia)? Ah già :asd:
non fosse per nvidia, che negli ultimi 15 anni ha investito pesantemente nel 3D, staremo ancora a giocare a pac man
Io non vi capisco, se NVidia ha collaborato ed ha speso soldi per aggiungere una feature ad un motore grafico che ne era privo, perché la deve rendere gratuita anche a tutti i concorrenti? ATI la vuole, o paga le royalty ad NVidia o sviluppa le proprie e le aggiunge con una patch, troppo comodo sfruttare il lavoro di altri cambiando un'ID.
Se volete proprio lamentarvi, lamentevi con i creatori dell'unreal engine che non l'hanno inserita nel core del motore.
Un'altra cosa, l'AA non e' la funzione principale di un gioco, non e' obbligatoria per la fruizione del prodotto come non lo sono tante altre cose. Se lo fosse mi dovrebbero scrivere sulla scatola anche quali dettagli posso attivare e disattivare (shoadow, HDR etc), quanti livelli di dettaglio intermedi ci sono, risoluzione minima e massima, se le funzioni delle directx sono tutte utilizzate o solo in parte e chi più ne ha più ne metta, ma credo che uno compri il gioco per giocarci, non per fare degli screenshot.
Crimson Skies
01-10-2009, 12:33
ahahah
mi ricordo ancora la 8800gts della xfx con in bundle lost planet con il bel logo nvidia e taaaanti altri..
voglio vedere la risposta di nvidia sul mercato, se si avverassero questi rumors "gt 300" tra 6 mesi", con le 58x0 che vanno più delle 285/295 a costi inferiori..
comunque spero che anche nvidia si riprenda, perchè ne viene di più a noi consumatori
Si vero. L'avevo anche io anche se con la 8800 GTX. Se la nuova serie va più delle attuali top di gamma Nvidia e le GT300 andranno più delle nuove Ati, Nvidia starà sempre 1 passa avanti.
Sicuramente i costi sono maggiori ma se questo dipende dal fatto che Nvidia sborsa soldi per ottimizzare i giochi ben venga visto che io pago quel tanto in più per avere come ritorno giochi che vanno sulla mia Nvidia e basta senza problemi alcuni. Mi smbra un buon rapporto dare/avere.
Intanto visto che Nvidia fa' la bastarda, ho scaricato i driver 185 che permettono l'uso della Physx, cosi' mi comprero' una scheda Ageia da poter impiegare insieme alla Ati 5870 visto che dai 186 in poi non permettono piu' questo tipo di accoppiate miste. :D
ghiltanas
01-10-2009, 12:34
http://www.pctunerup.com/up/results/_200910/th_20091001132958_55747b_il-padrino-1-visore.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091001132958_55747b_il-padrino-1-visore.jpg)
- Don c'è di la il responsabile Eidos, lo faccio entrare?
- Certo
http://www.pctunerup.com/up/results/_200910/th_20091001133300_DonCorleoneIlPadrino1.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091001133300_DonCorleoneIlPadrino1.jpg)
- S'accomodasse...le farò una proposta che nn potrà rifiutare, l'aa sulle ati nn si deve attivare
http://www.pctunerup.com/up/results/_200910/th_20091001132958_55747b_il-padrino-1-visore.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091001132958_55747b_il-padrino-1-visore.jpg)
- Don c'è di la il responsabile Eidos, lo faccio entrare?
- Certo
http://www.pctunerup.com/up/results/_200910/th_20091001133300_DonCorleoneIlPadrino1.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091001133300_DonCorleoneIlPadrino1.jpg)
- S'accomodasse...le farò una proposta che nn potrà rifiutare, l'aa sulle ati nn si deve attivare
OMMIODIO
:asd: :asd: :asd: :asd:
Se metti il logo nvidia all'occhiello invece del garofano rosso è perfetta!
FioriDelMale
01-10-2009, 12:36
Originariamente inviato da: Raven
Se è vero che l'AA si può attivare suelle ATI nella demo (cambiando ID name della scheda) ma non nel gioco hanno giocato sporco, c'è poco da insistere...
Sei sicuro? Riassumiamo:
L'Engine UT3 non supporta AA in DX9 e ha dei problemi in DX10.
Agli sviluppatori EIDOS ciò non interessa, e sono pronti per rilasciare il gioco senza.
NVIDIA sborsa soldi e offre il suo supporto per aggiungere un filtro AA funzionante e degli effetti Physx tramite il loro SDK con esempi pre-forniti.
Per quale motivo ATI dovrebbe beneficiare di tutto questo?
Ma voi quando lavorate siete contenti se uno arriva a fine giornata e si incula tutto il merito, senza fare nulla? Se vuoi le cose te le devi guadagnare
Originariamente inviato da: Human_Sorrow
"Se AMD vuole offrire innovazione per giochi PC quindi li incoraggiamo a rimboccarsi le maniche e fare lo stesso."
Esattamente.
mi sa che si è perso il filo generale del discorso..oltre al fatto che è chiaro che sponsorizzare un gioco possa a sua volta coincidere con agevolazioni (che attenzione non significa ostacolazioni ad altri) il punto è che in ogni caso va fatta chiarezza e sopratutto certe cose vanno messe ben in chiaro prima.dalla sponsorizzazzione si è passati alla partnership senza però rendere il consumatore al corrente.
altra cosa che la nota rilasciata da amd non verte solo su questo caso ma anche nella difficoltà avuta piu' volte nell'avere materiale beta per l'ottimizzazzione dei driver prima dell'uscita o comunique in concomitanza. questa si, è una questione sul quale difficilmente si ha la possibilità di smentita.
Sei sicuro? Riassumiamo:
.
beh... non sono d'accordo... qua hanno lavorato per fare in modo che l'AA non vada su una scheda piuttosto che su un'altra... è concorrenza sleale, visto che l'AA è uno standard compatibile per tutte le schede (e infatti nella demo funziona su entrambe!)... ;)
Discorso diverso per il physics, ovviamente... tecnologia proprietaria di nvidia, che fa bene a spingere! ;)
... mi ricorda un po' il truform di ati... fu inserito ufficialmente in nwn1..e funzionava da dio (fu usato in manera davvero ottimale)... poi nvidia si lamentò (pagò la tangentina) e la feature venne tolta con le patch successive con la scusa che "non era una feature standard e dava problemi di compatibilità"... se ti sembra giusto questo... :O
non fosse per nvidia, che negli ultimi 15 anni ha investito pesantemente nel 3D, staremo ancora a giocare a pac man
Cacchio e io che pensavo che fosse merito di 3DFX...
Io non capisco perchè molti si ostinano a credere che Nvidia abbia tolto qualcosa, invece che aggiunto.
In origine il gioco era sprovvisto di AA. Nvidia decide di intervenire col suo programma e finanzia alla eidos il supporto all'antialiasing. Le ultime righe della notizia sono chiarissime. Ora, se nvidia ci ha speso dei soldi, giustamente vorrà tenersi l'esclusiva della sua implementazione AA. Perchè dovrebbe lavorare anche per la concorrenza?? Sarebbe piaciuto ad ati vedersi abilitato l'AA senza muovere un dito, eh? Entrambe ati e nvidia possono abilitare l'antialiasing via drivers, ma le nvidia hanno in più il valore aggiunto di un antialiasing ottimizzato e integrato col motore di gioco.
Nvidia non ha tolto proprio nulla ad ati, ha soltanto aggiunto una funzionalità al gioco disponibile con le proprie schede.
a fazz e altri
Il fatto che l'AA interno al gioco possa anche funzionare su schede ati non dimostra un bel cacchio su una presunta colpevolezza di nvidia. Significa soltanto che non c'è nessuna incompatibilità hardware. Nvidia sta solo limitando il codice scritto in casa propria a girare sulle proprie schede. Come è giusto che sia.
a raven
dici che non sei d'accordo... ma non può essere un'opinione, è un dato di fatto che nvidia si è sbattuta per AGGIUNGERE una funzionalità! nel motore l'AA NON È presente!! mikelezz ha spiegato benissimo questo concetto.
EDIT: vedo che negli ultimi minuti sono apparsi diversi commenti che sottolineano la stessa idea.
http://www.pctunerup.com/up/results/_200910/th_20091001132958_55747b_il-padrino-1-visore.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091001132958_55747b_il-padrino-1-visore.jpg)
- Don c'è di la il responsabile Eidos, lo faccio entrare?
- Certo
http://www.pctunerup.com/up/results/_200910/th_20091001133300_DonCorleoneIlPadrino1.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091001133300_DonCorleoneIlPadrino1.jpg)
- S'accomodasse...le farò una proposta che nn potrà rifiutare, l'aa sulle ati nn si deve attivare
Fantastico:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
la eidos ci vive con le mazzette di nvidia
Futura12
01-10-2009, 12:40
Cmq anche ati dovrebbe sviluppare insieme alle case produttrici.... senno le schede compro quelle di nvidia è!!
ma cosa vai cialtrando? Nvidia stando alle ultime....non è che sviluppa insieme alla case produttrici gli mette solo in mano una mazzetta di cash e il gioco è finito.
Vorrei fare notare che tale accusa è stata riportata dal blog Amd sì, ma in un post del senior manager of advanced marketing at AMD, ma come specificato nel blog stesso, sono pareri "personali" e non ufficiali.
Quindi la cosiddetta "accusa" non è di Amd, ma del senior manager, ed Nvidia ha risposto a lui.
Come è stato da lui scritto, e ribadisco:
"We were able to confirm this by changing the ids of ATI graphics cards in the Batman demo. By tricking the application, we were able to get in-game AA option where our performance was significantly enhanced. This option is not available for the retail game as there is a secure rom."
Non mi sembra che abbiano mostrato nel blog:
1) che il trucco funzioni davvero (nessun bench o screenshot con l'AA all'opera), lui o qualcun'altro, sia con la demo, sia con il gioco definitivo;
2) che l'abilitazione dell'AA non comporti crash o artefatti.
Ecco perchè preferisco aspettare un'articolo di "terzi" a tal proposito.
Negative_creep
01-10-2009, 12:42
Ah, adesso si che è qualcosa di concreto... di sicuro posso andare in negozio e chiedere :
Io : salve , vorrei una scheda nvidia G300.
Negoziante : eh? :mbe:
Io : si, quella con 3 milardi di transistor , e :blah:
Negoziante : No guardi se vuole ho una bella 285 a 300€
Io : le ho chiesto una G300, possibile che non la abbia??
Negoziante : No, mi dispiace, altrimenti ho una 5850 per 220€..
Io : no no, voglio una nvidia, tutti i giochi girano bene solo così perchè sono "the way meant to be played" ,mi dia la 285
Negoziante : certo , eccole la versione xxx con vasellina in bundle.
:D
AhahahahahhaAHHAHAHAA...Grande!
Devo correggerti però, nessun negoziante propone un'ATI in alternativa ad una Nvidia, sempre e solo Intel e Nvidia perchè le AMD scaldano troppo! :doh:
Duke.N.4ever
01-10-2009, 12:42
io invoco l antitrust perche è ora che nvidia inizi a predere multe e pagare perche è come il discorso amd\intel concorrenza sleale e intel tocca paga la multa percui:O
CoolBits
01-10-2009, 12:45
AMD\ATI CACCIA LA GRANA e LE RISORSE per collaborare con gli sviluppatori invece di :cry: come al solito
Sinceramente a me interesserebbe capire dal lato tecnico alcune cose sul supporto AA con l'UE3, perchè io dopo anni e miriadi di giochi mossi da questo motore, ancora non ho capito molto bene quale sia la situazione °__°.
Originariamente, che io sappia, l'UE3 non supporta l'AA: UT3 non lo supportava, Raimbow Six Vegas 1 e 2 non lo supportano, Brothers in Arms non lo supporta, Bioshock in DX9 non lo supporta -mi pare in DX10 sì, ma non ne sono sicuro, forse mi confondo-, Gears of War in DX9 non lo supporta, in DX10 sì, ma ho letto che le prestazioni calano a picco, Mass Effects non lo supporta, Wheelman non lo supporta, X-men Origins - Wolverine non lo supporta, Mirror's Edge sì.
Ho letto per anni discussioni nella sezione giochi del forum dove ci si lamentava della continua mancanza dell'AA nei giochi con UE3, ho letto di gente che riusciva ad abilitarlo solo tramite trucchetti con nHancer su schede nVidia, mentre mi pare che con ATI non si potesse sempre.
Ho letto, mi pare, ma anche qui serve delucidazione, che con le DX10.1 delle ATI si poteva implementare una tipologia di AA che andava a braccetto con l'UE3, cosa non possibile con nVidia.
C'è qualcuno in questo forum che non sia il solito fanboy o che parla perchè lo ha sentito dire dal cuggino del cuggino, che può dare una spiegazione esaustiva e chiara una volta per tutte su cosa si possa fare o non si possa fare con l'UE3 a livello di AA con le architetture delle attuali schede video?
Yoss, manifestati, te ne supplico! ^__^
Almeno imparo qualcosa invece di leggere le solite 20 pagine di flammate ATI contro nVidia ad ogni news loro concernenti.
AhahahahahhaAHHAHAHAA...Grande!
Devo correggerti però, nessun negoziante propone un'ATI in alternativa ad una Nvidia, sempre e solo Intel e Nvidia perchè le AMD scaldano troppo! :doh:
Ah si si verissimo gira ancora sta voce che amd/ati scalda troppo hahahaha
luX0r.reload
01-10-2009, 12:47
Il fatto che le affermazioni fatte da AMD non sia vere sono inoltre dimostrate dal fatto che Batman : Arkham Asylum è sviluppato su engine grafico Unreal 3, che nativamente non supporta l'anti-aliasing. NVIDIA, citando le parole riportate nella loro dichiarazione, ha lavorato a fianco Eidos per poter supportare la nostra tecnologia di l'Anti-aliasing.
Ed anche hardware upgrade si è fatta intortare :asd: . Se qualche programmatore di Eidos dice che non ci saranno problemi attivando l'AA da CCC allora la dimostrazione di cui si parla è falsa.
... affatto. Dovresti sapere che l'aa attivato specificamente all'interno del gioco è differente da quello applicato tramite control center.
Lo spiega dettagliatamente l'articolo che ha scatenato questa reazione... basta leggere ;)
AMD\ATI CACCIA LA GRANA e LE RISORSE per collaborare con gli sviluppatori invece di :cry: come al solito
Se intel/nvidia fanno gli imbrogli da dove li prende i soldi secondo te?;) :rolleyes:
MiKeLezZ
01-10-2009, 12:52
ma cosa vai cialtrando? Nvidia stando alle ultime....non è che sviluppa insieme alla case produttrici gli mette solo in mano una mazzetta di cash e il gioco è finito.Vediamo... NVIDIA fa esibizioni per i giochi, ora trasformate in conferenze per le tecnologie; NVIDIA fornisce una caterva di esempi di programmazione a quanti ne richiedano; NVIDIA sviluppa nuove tecnologie (3D Stereo Physx) per gli sviluppatori, utilizzabili fra l'altro da chiunque (SDK è disponibile anche per me e te); NVIDIA integra nuove idee per la programmazione e anche queste le fornisce gratuitamente in forma di esempi (è il caso della gestione di AA in Far Cry 2); NVIDIA fornisce supporto agli sviluppatori di giochi (e quando si parla di TWIMTBP significa che se il Tizio EIDOS non riesce a programmare l'engine può telefonare a NVIDIA e c'è un programmatore NVIDIA che gli da proprio una mano a scriverlo... scusate se è poco). Se queste ti sembrano mazzette... a me sembra farsi il culo per fornire un supporto di qualità.
Assomigliano più a mazzette quelle di ATI per DIRT 2, che ha semplicemente bonificato 1M di $ affinchè aggiungessero al gioco degli effetti DX11, e ha preso l'esclusiva del gioco per le sue confezioni retail delle VGA.
2012comin
01-10-2009, 12:52
Io non sono un fanboy e neanche tonto, ma le parole di nVidia corrispondono alla realta dei fatti!!!!!!
Su Unreal Tournament e Brother in Arms adesso non mi vengono in mente altri titoli con questo motore grafico l'AA NON ESISTE!!!!
Non è questo il problema sollevato da Amd.
Negative_creep
01-10-2009, 12:54
io invoco l antitrust perche è ora che nvidia inizi a predere multe e pagare perche è come il discorso amd\intel concorrenza sleale e intel tocca paga la multa percui:O
qui le multe NON LE PAGA NESSUNO!
Su hwupgrade non si è seguita per niente (intendo negli ultimi mesi) la vicenda AMD - INTEL, su un altro noto sito invece hanno postato passo passo le news riguardanti la vicenda ed è emerso che Intel non solo non vuole pagare la multa, ma vuole anche il pagamento degli oneri legali!!!!!
http://www.tomshw.it/news.php?newsid=19386 :read:
In tutte queste vicende non solo siamo sempre noi a rimetterci, ma guarda caso è sempre AMD... :muro:
AndreaG.
01-10-2009, 12:57
Cacchio e io che pensavo che fosse merito di 3DFX...
allora saremo in 2 ad esserci rincoglioniti perchè pure io pensavo a 3dfx....
masty_<3
01-10-2009, 12:57
non avevano chiamato l'AA "kickass feature"?
non so voi ma io (sarò malato eh?) con ati ho una qualità migliore di resa dei colori a video.
Parlo di mero 2d... nvidia ha un segnale più "sporco" a mio parere...
capita anche a voi?
sarà per caso un boicottaggio all''incontrario?
michelgaetano
01-10-2009, 12:59
Vediamo... NVIDIA fa esibizioni per i giochi, ora trasformate in conferenze per le tecnologie; NVIDIA fornisce una caterva di esempi di programmazione a quanti ne richiedano; NVIDIA sviluppa nuove tecnologie (3D Stereo Physx) per gli sviluppatori, utilizzabili fra l'altro da chiunque (SDK è disponibile anche per me e te); NVIDIA integra nuove idee per la programmazione e anche queste le fornisce gratuitamente in forma di esempi (è il caso della gestione di AA in Far Cry 2); NVIDIA fornisce supporto agli sviluppatori di giochi (e quando si parla di TWIMTBP significa che se il Tizio EIDOS non riesce a programmare l'engine può telefonare a NVIDIA e c'è un programmatore NVIDIA che gli da proprio una mano a scriverlo... scusate se è poco). Se queste ti sembrano mazzette... a me sembra farsi il culo per fornire un supporto di qualità.
Assomigliano più a mazzette quelle di ATI per DIRT 2, che ha semplicemente bonificato 1M di $ affinchè aggiungessero al gioco degli effetti DX11, e ha preso l'esclusiva del gioco per le sue confezioni retail delle VGA.
Quindi ora Ati è cattiva per DiRT2 e Nvidia no per i vari giochi in bundle (vedi AC e dirx 10.1).
Già, già :asd:
Sammy Jankis
01-10-2009, 13:02
allora saremo in 2 ad esserci rincoglioniti perchè pure io pensavo a 3dfx....
Io sono il terzo......adesso non si può più dire che i coglioni vanno in coppia ! :D
Severnaya
01-10-2009, 13:03
oddio come si fa a pensare nel 2009 che per attivare l'AA bisogna diventare partner perché altrimenti i programmatori nn sono capaci... se cambi l'ID e magicamente l'AA funziona sulle ati c'è poco da dire eh...
yossarian
01-10-2009, 13:06
Sinceramente a me interesserebbe capire dal lato tecnico alcune cose sul supporto AA con l'UE3, perchè io dopo anni e miriadi di giochi mossi da questo motore, ancora non ho capito molto bene quale sia la situazione °__°.
Originariamente, che io sappia, l'UE3 non supporta l'AA: UT3 non lo supportava, Raimbow Six Vegas 1 e 2 non lo supportano, Brothers in Arms non lo supporta, Bioshock in DX9 non lo supporta -mi pare in DX10 sì, ma non ne sono sicuro, forse mi confondo-, Gears of War in DX9 non lo supporta, in DX10 sì, ma ho letto che le prestazioni calano a picco, Mass Effects non lo supporta, Wheelman non lo supporta, X-men Origins - Wolverine non lo supporta, Mirror's Edge sì.
Ho letto per anni discussioni nella sezione giochi del forum dove ci si lamentava della continua mancanza dell'AA nei giochi con UE3, ho letto di gente che riusciva ad abilitarlo solo tramite trucchetti con nHancer su schede nVidia, mentre mi pare che con ATI non si potesse sempre.
Ho letto, mi pare, ma anche qui serve delucidazione, che con le DX10.1 delle ATI si poteva implementare una tipologia di AA che andava a braccetto con l'UE3, cosa non possibile con nVidia.
C'è qualcuno in questo forum che non sia il solito fanboy o che parla perchè lo ha sentito dire dal cuggino del cuggino, che può dare una spiegazione esaustiva e chiara una volta per tutte su cosa si possa fare o non si possa fare con l'UE3 a livello di AA con le architetture delle attuali schede video?
Yoss, manifestati, te ne supplico! ^__^
Almeno imparo qualcosa invece di leggere le solite 20 pagine di flammate ATI contro nVidia ad ogni news loro concernenti.
l'UE3, come tutti i motori che fanno deferred rendering, non supporta il MSAA box fino alle dx9; questo perchè non permette il salvataggio dei dati dello z-buffer e, dato che le operazioni di rendering avvengono dopo la rimozione delle superfici nascoste (che è distruttiva, in quanto elimina i dati sulle geometrie non visibili), l'alternativa sarebbe quella di ricalcolare l'intera geometria ogni volta che serve.
Le dx10 permettono il salvataggio di questi dati attraverso due tecniche:
1) si salvano su una texture e, ogni volta che se ne ha bisogno, si fa un'accesso a texture
2) si inizializza un color buffer come z-buffer e lo si usa all'occorrenza.
Con le dx10.1, invece, si possono utilizzare più z-buffer (tanti quanti ne servono e con differenti precisioni di calcolo, cosa non indifferente, perchè il MSAA box è a 8 bit di tipo INT per canale, mentre le operazioni di color blending sono effettuate a fp16 o fp32).
L'HW dx10.1 supporta tutti e tre i metodi epr implementare il MSA box in presenza di deferred rendering con il vantaggio che il terzo, che è anche quello più ortodosso, fornisce un vantaggio prestazionale quantificabile in un 20% circa (qualcosa in più in realtà) sugli altri, grazie al fatto che si risparmia un passaggio e ottimizza l'uso della banda passante.
Perciò non c'è una sola ragione tecnica per cui un'implemetazione che faccia uso di uno qualunque dei primi due metodi (il terzo non va su chip nVidia), non possa funzionare su ATi o su qualunque altro HW dx10 o superiore e motivo per cui le giustificazioni di nVidia sono un ridicolo :mc: che fa il paio con quelle di ubisoft e la patch 1.01 di Assassin's creed, basato anche quello sull'UE3, che faceva andare le 4850 più forte delle GTX280 con MSAA4x e che è stata rimossa perchè (spiegazione ufficiale) creava artefatti su HW dx10 :D
Futura12
01-10-2009, 13:08
Sinceramente a me interesserebbe capire dal lato tecnico alcune cose sul supporto AA con l'UE3, perchè io dopo anni e miriadi di giochi mossi da questo motore, ancora non ho capito molto bene quale sia la situazione °__°.
Originariamente, che io sappia, l'UE3 non supporta l'AA: UT3 non lo supportava, Raimbow Six Vegas 1 e 2 non lo supportano, Brothers in Arms non lo supporta, Bioshock in DX9 non lo supporta -mi pare in DX10 sì, ma non ne sono sicuro, forse mi confondo-, Gears of War in DX9 non lo supporta, in DX10 sì, ma ho letto che le prestazioni calano a picco, Mass Effects non lo supporta, Wheelman non lo supporta, X-men Origins - Wolverine non lo supporta, Mirror's Edge sì.
Ho letto per anni discussioni nella sezione giochi del forum dove ci si lamentava della continua mancanza dell'AA nei giochi con UE3, ho letto di gente che riusciva ad abilitarlo solo tramite trucchetti con nHancer su schede nVidia, mentre mi pare che con ATI non si potesse sempre.
Ho letto, mi pare, ma anche qui serve delucidazione, che con le DX10.1 delle ATI si poteva implementare una tipologia di AA che andava a braccetto con l'UE3, cosa non possibile con nVidia.
C'è qualcuno in questo forum che non sia il solito fanboy o che parla perchè lo ha sentito dire dal cuggino del cuggino, che può dare una spiegazione esaustiva e chiara una volta per tutte su cosa si possa fare o non si possa fare con l'UE3 a livello di AA con le architetture delle attuali schede video?
Yoss, manifestati, te ne supplico! ^__^
Almeno imparo qualcosa invece di leggere le solite 20 pagine di flammate ATI contro nVidia ad ogni news loro concernenti.
Manco io l'ho mai capito..fatto sta che per esempio Rainbow Six Vegas,al tempo avevo una 8800...riusci a mettere sia AA che HDR...al 2 per esempio non ci sono mai riuscito.:boh:
CoolBits
01-10-2009, 13:09
l'UE3, come tutti i motori che fanno deferred rendering, non supporta il MSAA box fino alle dx9; questo perchè non permette il salvataggio dei dati dello z-buffer e, dato che le operazioni di rendering avvengono dopo la rimozione delle superfici nascoste (che è distruttiva, in quanto elimina i dati sulle geometrie non visibili), l'alternativa sarebbe quella di ricalcolare l'intera geometria ogni volta che serve.
Le dx10 permettono il salvataggio di questi dati attraverso due tecniche:
1) si salvano su una texture e, ogni volta che se ne ha bisogno, si fa un'accesso a texture
2) si inizializza un color buffer come z-buffer e lo si usa all'occorrenza.
Con le dx10.1, invece, si possono utilizzare più z-buffer (tanti quanti ne servono e con differenti precisioni di calcolo, cosa non indifferente, perchè il MSAA box è a 8 bit di tipo INT per canale, mentre le operazioni di color blending sono effettuate a fp16 o fp32).
L'HW dx10.1 supporta tutti e tre i metodi epr implementare il MSA box in presenza di deferred rendering con il vantaggio che il terzo, che è anche quello più ortodosso, fornisce un vantaggio prestazionale quantificabile in un 20% circa (qualcosa in più in realtà) sugli altri, grazie al fatto che si risparmia un passaggio.
Perciò non c'è una sola ragione tecnica per cui un'implemetazione che faccia uso di uno qualunque dei primi due metodi (il terzo non va su chip nVidia), non possa funzionare su ATi o su qualunque altro HW dx10 o superiore
Su un altro forum è stato riportato che tu lavori per AMD Italia...puoi smentire o confermare questa affermazione?
http://hwproject.net/forum/showpost.php?p=77266&postcount=78
michelgaetano
01-10-2009, 13:10
Su un altro forum è stato riportato che tu lavori per AMD Italia...puoi smentire o confermare questa affermazione?
L'utilità della cosa, qui?
Futura12
01-10-2009, 13:12
L'utilità della cosa, qui?
Condivido,non è di buon gusto al massimo mandagli un pvt
yossarian
01-10-2009, 13:13
Su un altro forum è stato riportato che tu lavori per AMD Italia...puoi smentire o confermare questa affermazione?
http://hwproject.net/forum/showpost.php?p=77266&postcount=78
non lavoro per amd Italia anche se in passato mi sono occupato di progettazione di chip grafici :D
yossarian
01-10-2009, 13:14
L'utilità della cosa, qui?
Condivido,non è di buon gusto al massimo mandagli un pvt
semplice tentativo, puerile quanto fallimentare, di screditare ciò che dico e che non fa comodo a qualcuno, evidentemente :D .
Chiaro che i fanboy sono altri, ovvero quelli che parlano senza sapere ma solo per partito preso
CoolBits
01-10-2009, 13:16
non lavoro per amd Italia anche se in passato mi sono occupato di progettazione di chip grafici :D
complimenti sei un pozzo d'informazioni ;)
scusate l'OT
Futura12
01-10-2009, 13:16
semplice tentativo di screditare ciò che dico e che non fa comodo a qualcuno, evidentemente :D .
Chiaro che i fanboy sono altri, ovvero quelli che parlano senza sapere ma solo per partito preso
Capito...comunque sono sempre ben gradite le tue delucidazioni su chip grafici!
Foglia Morta
01-10-2009, 13:16
non lavoro per amd Italia anche se in passato mi sono occupato di progettazione di chip grafici :D
yoss nel tuo articolo su Appunti Digitali dici che RV870 è limitato dalla banda passante. Potresti specificare in quali situazioni hai notato che la 5870 ha questo collo di bottiglia ?
Judicator
01-10-2009, 13:20
Sei sicuro? Riassumiamo:
L'Engine UT3 non supporta AA in DX9 e ha dei problemi in DX10.
Agli sviluppatori EIDOS ciò non interessa, e sono pronti per rilasciare il gioco senza.
NVIDIA sborsa soldi e offre il suo supporto per aggiungere un filtro AA funzionante e degli effetti Physx tramite il loro SDK con esempi pre-forniti.
Per quale motivo ATI dovrebbe beneficiare di tutto questo?
Ma voi quando lavorate siete contenti se uno arriva a fine giornata e si incula tutto il merito del vostro lavoro, senza fare nulla? Se vuoi le cose te le devi guadagnare
Esattamente.
Non per far polemica, il paragone non è calzante, non si tratta più di nVidia contro ATi, qui chi ci rimette siamo noi (noi tutti, eh). Qui è nVidia contro di noi, perchè alla fine dei conti ATi continuerà a vendere come ha continuato a vendere fino ad adesso. A me non pare nè morale nè etico.
Continuiamo pure a bombardare i civili...
Oggi è l'AA, cosa sarà domani?
Per fortuna che gli sviluppatori hanno comunque la necessità di sviluppare per il massimo comune denominatore.
Futura12
01-10-2009, 13:22
Non per far polemica, il paragone non è calzante, non si tratta più di nVidia contro ATi, qui chi ci rimette siamo noi (noi tutti, eh). Qui è nVidia contro di noi, perchè alla fine dei conti ATi continuerà a vendere come ha continuato a vendere fino ad adesso. A me non pare nè morale nè etico.
Continuiamo pure a bombardare i civili...
Oggi è l'AA, cosa sarà domani?
Per fortuna che gli sviluppatori hanno comunque la necessità di sviluppare per il massimo comune denominatore.
Quoto,secondo me facendo cosi Nvidia sta cercando di ''comprare'' anche gli acquirenti di schede ATI che vedendo prestazioni scarse...vanno dalla parte della casa verde. Ci vorrebbe una bella denuncia.
Come potete vedere dalla firma non sono assolutamente di parte,l'unica parte che per me conta è il mio portafoglio.
yossarian
01-10-2009, 13:22
yoss nel tuo articolo su Appunti Digitali dici che RV870 è limitato dalla banda passante. Potresti specificare in quali situazioni hai notato che la 5870 ha questo collo di bottiglia ?
rispondo al volo, per limiti di tempo; appena posso vi farò un'analisi più approfondita.
Alle alte risoluzioni si nota un calo vistoso passando da una risoluzione ad un'altra con alcuni titoli, ossia le prestazioni non scalano "linearmente"; inoltre, in certi casi, un CF ha prestazioni molto più elevate di quanto non dovrebbe; uno dei casi tipici di situazione bandwidth limited è quando un CF o uno SLI hanno prestazioni doppie rispetto al single chip.
La cosa può essere ben mascherata, in certi casi, dal fatto che le RBE dei chip ATi, con l'attivazione dei filtri, hanno un degrado prestazionale ridotto (perchè hanno un pixel fillrate che cresce all'aumentare del numero di sample grazie alla presenza di più punti di spilling dei dati).
allora mi spieghi come mai se la funzione è così difficile da implementare basta cambiare l'identificativo della scheda perché l'aa magicamente funzioni? (e con prestazioni superiori rispetto all'aa attivato mediante acp/att)
da ciò si deriva il fatto che l'aa funziona con tutte le schede video (come in tutti gli altri giochi) ma hanno messo un blocco volto a disabilitare una caratteristica perfettamente funzionante nel caso di sceda video ati
ps. tutto imho
Ma cosa centra col fatto che sia difficile da implementare?
La funzione non è presente nel motore grafico.
Nvidia ha investito tempo e denaro per implementare la funzione, una volta implementata la funzione va con tutte le schede video.
Perchè invidia dovrebbe avvantaggiare un concorrente del suo lavoro?
Ha limitato la funzione alle solo schede video invidia, nessuno ha impedito ad Ati di implementare tale funzione.
longhorn7680
01-10-2009, 13:25
Io non capisco perchè molti si ostinano a credere che Nvidia abbia tolto qualcosa, invece che aggiunto.
In origine il gioco era sprovvisto di AA. Nvidia decide di intervenire col suo programma e finanzia alla eidos il supporto all'antialiasing. Le ultime righe della notizia sono chiarissime. Ora, se nvidia ci ha speso dei soldi, giustamente vorrà tenersi l'esclusiva della sua implementazione AA. Perchè dovrebbe lavorare anche per la concorrenza?? Sarebbe piaciuto ad ati vedersi abilitato l'AA senza muovere un dito, eh? Entrambe ati e nvidia possono abilitare l'antialiasing via drivers, ma le nvidia hanno in più il valore aggiunto di un antialiasing ottimizzato e integrato col motore di gioco.
Nvidia non ha tolto proprio nulla ad ati, ha soltanto aggiunto una funzionalità al gioco disponibile con le proprie schede.
a fazz e altri
Il fatto che l'AA interno al gioco possa anche funzionare su schede ati non dimostra un bel cacchio su una presunta colpevolezza di nvidia. Significa soltanto che non c'è nessuna incompatibilità hardware. Nvidia sta solo limitando il codice scritto in casa propria a girare sulle proprie schede. Come è giusto che sia.
a raven
dici che non sei d'accordo... ma non può essere un'opinione, è un dato di fatto che nvidia si è sbattuta per AGGIUNGERE una funzionalità! nel motore l'AA NON È presente!! mikelezz ha spiegato benissimo questo concetto.
EDIT: vedo che negli ultimi minuti sono apparsi diversi commenti che sottolineano la stessa idea.
Appunto cio che ho provato a spiegare beccandomi di essere un fanboy :muro: :muro: :muro: !!!!!
yossarian
01-10-2009, 13:28
Ma cosa centra col fatto che sia difficile da implementare?
La funzione non è presente nel motore grafico.
Nvidia ha investito tempo e denaro per implementare la funzione, una volta implementata la funzione va con tutte le schede video.
Perchè invidia dovrebbe avvantaggiare un concorrente del suo lavoro?
Ha limitato la funzione alle solo schede video invidia, nessuno ha impedito ad Ati di implementare tale funzione.
la funzione non è presente solo se si utilizzano feature dx9 only ma, in quel caso, non lo è per nessuno :D
l'UE3, come tutti i motori che fanno deferred rendering, non supporta il MSAA box fino alle dx9; questo perchè non permette il salvataggio dei dati dello z-buffer e, dato che le operazioni di rendering avvengono dopo la rimozione delle superfici nascoste (che è distruttiva, in quanto elimina i dati sulle geometrie non visibili), l'alternativa sarebbe quella di ricalcolare l'intera geometria ogni volta che serve.
Le dx10 permettono il salvataggio di questi dati attraverso due tecniche:
1) si salvano su una texture e, ogni volta che se ne ha bisogno, si fa un'accesso a texture
2) si inizializza un color buffer come z-buffer e lo si usa all'occorrenza.
Con le dx10.1, invece, si possono utilizzare più z-buffer (tanti quanti ne servono e con differenti precisioni di calcolo, cosa non indifferente, perchè il MSAA box è a 8 bit di tipo INT per canale, mentre le operazioni di color blending sono effettuate a fp16 o fp32).
L'HW dx10.1 supporta tutti e tre i metodi epr implementare il MSA box in presenza di deferred rendering con il vantaggio che il terzo, che è anche quello più ortodosso, fornisce un vantaggio prestazionale quantificabile in un 20% circa (qualcosa in più in realtà) sugli altri, grazie al fatto che si risparmia un passaggio e ottimizza l'uso della banda passante.
Perciò non c'è una sola ragione tecnica per cui un'implemetazione che faccia uso di uno qualunque dei primi due metodi (il terzo non va su chip nVidia), non possa funzionare su ATi o su qualunque altro HW dx10 o superiore e motivo per cui le giustificazioni di nVidia sono un ridicolo :mc: che fa il paio con quelle di ubisoft e la patch 1.01 di Assassin's creed, basato anche quello sull'UE3, che faceva andare le 4850 più forte delle GTX280 con MSAA4x e che è stata rimossa perchè (spiegazione ufficiale) creava artefatti su HW dx10 :D
Grazie infinite per la spiegazione e la disponibilità :).
Mi chiedo a questo punto, come mai ATI, avendo una simile potenzialità in hardware, non abbia mai puntato sulla miriade di titoli mossi dall'UE3 per promuovere e spingere tale tecnologia: possibile non abbia trovato un titolo uno di un certo rilievo mosso da tale motore con cui collaborare a stretto contatto per incentivare l'uso di quella particolare forma di AA a lei congeniale?
Lo dico da possessore di GTX275: trovo di gran lunga più utile una simile implementazione dell'AA, piuttosto che due foglietti svolazzanti che seguono le leggi della fisica -pur non disdegnando questi effetti-. E' un peccato veramente, e me ne dispiaccio.
Foglia Morta
01-10-2009, 13:29
rispondo al volo, per limiti di tempo; appena posso vi farò un'analisi più approfondita.
Alle alte risoluzioni si nota un calo vistoso passando da una risoluzione ad un'altra con alcuni titoli, ossia le prestazioni non scalano "linearmente"; inoltre, in certi casi, un CF ha prestazioni molto più elevate di quanto non dovrebbe; uno dei casi tipici di situazione bandwidth limited è quando un CF o uno SLI hanno prestazioni doppie rispetto al single chip.
La cosa può essere ben mascherata, in certi casi, dal fatto che le RBE dei chip ATi, con l'attivazione dei filtri, hanno un degrado prestazionale ridotto (perchè hanno un pixel fillrate che cresce all'aumentare del numero di sample grazie alla presenza di più punti di spilling dei dati).
ok grazie... allora sono stati degli spilorci :D ( hanno usato memorie a 1250 Mhz quando sono disponibili quelle a 1375 e 1500Mhz )
Mi ripeto, perché vi lamentate di una feature non prevista dall'engine originale e mai implementata in nessun gioco sviluppato con lo stesso engine?
Perchè NVidia deve regalare a tutti i concorrenti un miglioramento grafico (non di gameplay) che ha pagato/sviluppato anche se compatibile con tutte le schede grafiche?
Volete L'AA integrato nell'engine, fate una petizione oppure accontentatevi di quello del control panel. In alternativa convincete ATI a fare una patch.
Futura12
01-10-2009, 13:31
ok grazie... allora sono stati degli spilorci :D ( hanno usato memorie a 1250 Mhz quando sono disponibili quelle a 1375 e 1500Mhz )
in effetti:asd: ma potrebbe anche essere che quei chip con frequenze da 1500Mhz non ce ne siano in quantita a prezzi decenti,visto che la loro produzione è iniziata da poco...
Vedremo nella 5890:asd:
michelgaetano
01-10-2009, 13:33
ok grazie... allora sono stati degli spilorci :D ( hanno usato memorie a 1250 Mhz quando sono disponibili quelle a 1375 e 1500Mhz )
È quel che ho pensato, però...
E se vogliano invece mantenersi del margine per rispondere a GT300?
Cioè, una 5890 con clock superiori e maggiore banda passante (se effettivamente bandwidth limited come diceva yossarian), dovrebbe riuscire a guadagnare in ambiti sostenuti.
Futura12
01-10-2009, 13:35
È quel che ho pensato, però...
E se vogliano invece mantenersi del margine per rispondere a GT300?
Cioè, una 5890 con clock superiori e maggiore banda passante (se effettivamente bandwidth limited come diceva yossarian), dovrebbe riuscire a guadagnare in ambiti sostenuti.
potrebbe anche essere,vedremo appena qualcuno potrà v-moddare le GDDR5 della 5870 portandole a frequenze molto elevate:O ...
michelgaetano
01-10-2009, 13:42
potrebbe anche essere,vedremo appena qualcuno potrà v-moddare le GDDR5 della 5870 portandole a frequenze molto elevate:O ...
E negli altri thread si diceva anche che date le dimensioni era possibile inserire altre SIMD.
Insomma, più SP, clock più elevati, maggiore banda (se confermata la limitazione) ed ecco, sulla carta, che il boost dovresti avercelo.
Nvidia! Mitticcaaa!!! Mavaffan:ciapet:!
ma non diciamo cavolate però eh...
Mi ripeto, perché vi lamentate di una feature non prevista dall'engine originale e mai implementata in nessun gioco sviluppato con lo stesso engine?
Perchè NVidia deve regalare a tutti i concorrenti un miglioramento grafico (non di gameplay) che ha pagato/sviluppato anche se compatibile con tutte le schede grafiche?
Volete L'AA integrato nell'engine, fate una petizione oppure accontentatevi di quello del control panel. In alternativa convincete ATI a fare una patch.
Rileggiti la spiegazione di Yossarian, in particolare quando dice:
"L'HW dx10.1 supporta tutti e tre i metodi epr implementare il MSA box in presenza di deferred rendering con il vantaggio che il terzo, che è anche quello più ortodosso, fornisce un vantaggio prestazionale quantificabile in un 20% circa (qualcosa in più in realtà sugli altri, grazie al fatto che si risparmia un passaggio e ottimizza l'uso della banda passante.
Perciò non c'è una sola ragione tecnica per cui un'implemetazione che faccia uso di uno qualunque dei primi due metodi (il terzo non va su chip nVidia), non possa funzionare su ATi o su qualunque altro HW dx10 o superiore e motivo per cui le giustificazioni di nVidia sono un ridicolo [faccina dell'arrampicarsi sugli specchi]."
EDIT: Yossarian, potresti - se esistono da qualche parte in rete - citare qualche documento tecnico che avvalora il parere da te espresso? Mi piacerebbe avere le prove provate dalla tesi all'1+1 logico, sia per mia cultura personale che per poter riportare i fatti cosi' come sono.
atinvidia284
01-10-2009, 13:55
l'UE3, come tutti i motori che fanno deferred rendering, non supporta il MSAA box fino alle dx9; questo perchè non permette il salvataggio dei dati dello z-buffer e, dato che le operazioni di rendering avvengono dopo la rimozione delle superfici nascoste (che è distruttiva, in quanto elimina i dati sulle geometrie non visibili), l'alternativa sarebbe quella di ricalcolare l'intera geometria ogni volta che serve.
Le dx10 permettono il salvataggio di questi dati attraverso due tecniche:
1) si salvano su una texture e, ogni volta che se ne ha bisogno, si fa un'accesso a texture
2) si inizializza un color buffer come z-buffer e lo si usa all'occorrenza.
Con le dx10.1, invece, si possono utilizzare più z-buffer (tanti quanti ne servono e con differenti precisioni di calcolo, cosa non indifferente, perchè il MSAA box è a 8 bit di tipo INT per canale, mentre le operazioni di color blending sono effettuate a fp16 o fp32).
L'HW dx10.1 supporta tutti e tre i metodi epr implementare il MSA box in presenza di deferred rendering con il vantaggio che il terzo, che è anche quello più ortodosso, fornisce un vantaggio prestazionale quantificabile in un 20% circa (qualcosa in più in realtà) sugli altri, grazie al fatto che si risparmia un passaggio e ottimizza l'uso della banda passante.
Perciò non c'è una sola ragione tecnica per cui un'implemetazione che faccia uso di uno qualunque dei primi due metodi (il terzo non va su chip nVidia), non possa funzionare su ATi o su qualunque altro HW dx10 o superiore e motivo per cui le giustificazioni di nVidia sono un ridicolo :mc: che fa il paio con quelle di ubisoft e la patch 1.01 di Assassin's creed, basato anche quello sull'UE3, che faceva andare le 4850 più forte delle GTX280 con MSAA4x e che è stata rimossa perchè (spiegazione ufficiale) creava artefatti su HW dx10 :D
Quoto yossarin,più o meno la stessa spiegazione che avrei dato io se avessi postato prima
:asd:
Scherzi a parte,mi spiace che amd subisca come al solito solo per sporca concorrenza da parte di chi ha più dobloni a disposizione per guidare il progresso tecnologico a scapito dell'interà comunità.
Chi ricorda la vicenda Assassin's creed e ati directx 10.1 sa anche il tipo di giochetti che nvidia pratica ormai da tempo.
sisi certo
però ci sono tante cose che nn si spiegano
ad esempio...perchè nel demo l'aa andava?
e perchè gli sviluppatori si rifiutano sempre di dare qualcosa ad ati?
forse perchè c'è qualche mano che elargisce denaro e pizzini?
nvidia ma datte fuoco!
l'UE3, come tutti i motori che fanno deferred rendering, non supporta il MSAA box fino alle dx9; questo perchè non permette il salvataggio dei dati dello z-buffer e, dato che le operazioni di rendering avvengono dopo la rimozione delle superfici nascoste (che è distruttiva, in quanto elimina i dati sulle geometrie non visibili), l'alternativa sarebbe quella di ricalcolare l'intera geometria ogni volta che serve.
Le dx10 permettono il salvataggio di questi dati attraverso due tecniche:
1) si salvano su una texture e, ogni volta che se ne ha bisogno, si fa un'accesso a texture
2) si inizializza un color buffer come z-buffer e lo si usa all'occorrenza.
Con le dx10.1, invece, si possono utilizzare più z-buffer (tanti quanti ne servono e con differenti precisioni di calcolo, cosa non indifferente, perchè il MSAA box è a 8 bit di tipo INT per canale, mentre le operazioni di color blending sono effettuate a fp16 o fp32).
L'HW dx10.1 supporta tutti e tre i metodi epr implementare il MSA box in presenza di deferred rendering con il vantaggio che il terzo, che è anche quello più ortodosso, fornisce un vantaggio prestazionale quantificabile in un 20% circa (qualcosa in più in realtà) sugli altri, grazie al fatto che si risparmia un passaggio e ottimizza l'uso della banda passante.
Perciò non c'è una sola ragione tecnica per cui un'implemetazione che faccia uso di uno qualunque dei primi due metodi (il terzo non va su chip nVidia), non possa funzionare su ATi o su qualunque altro HW dx10 o superiore e motivo per cui le giustificazioni di nVidia sono un ridicolo :mc: che fa il paio con quelle di ubisoft e la patch 1.01 di Assassin's creed, basato anche quello sull'UE3, che faceva andare le 4850 più forte delle GTX280 con MSAA4x e che è stata rimossa perchè (spiegazione ufficiale) creava artefatti su HW dx10 :D
Ecco... dopo questo si può chiudere il thread! ;)
(great as usual! :))
l'UE3, come tutti i motori che fanno deferred rendering, non supporta il MSAA box fino alle dx9; questo perchè non permette il salvataggio dei dati dello z-buffer e, dato che le operazioni di rendering avvengono dopo la rimozione delle superfici nascoste (che è distruttiva, in quanto elimina i dati sulle geometrie non visibili), l'alternativa sarebbe quella di ricalcolare l'intera geometria ogni volta che serve.
Le dx10 permettono il salvataggio di questi dati attraverso due tecniche:
1) si salvano su una texture e, ogni volta che se ne ha bisogno, si fa un'accesso a texture
2) si inizializza un color buffer come z-buffer e lo si usa all'occorrenza.
Con le dx10.1, invece, si possono utilizzare più z-buffer (tanti quanti ne servono e con differenti precisioni di calcolo, cosa non indifferente, perchè il MSAA box è a 8 bit di tipo INT per canale, mentre le operazioni di color blending sono effettuate a fp16 o fp32).
L'HW dx10.1 supporta tutti e tre i metodi epr implementare il MSA box in presenza di deferred rendering con il vantaggio che il terzo, che è anche quello più ortodosso, fornisce un vantaggio prestazionale quantificabile in un 20% circa (qualcosa in più in realtà) sugli altri, grazie al fatto che si risparmia un passaggio e ottimizza l'uso della banda passante.
Perciò non c'è una sola ragione tecnica per cui un'implemetazione che faccia uso di uno qualunque dei primi due metodi (il terzo non va su chip nVidia), non possa funzionare su ATi o su qualunque altro HW dx10 o superiore e motivo per cui le giustificazioni di nVidia sono un ridicolo :mc: che fa il paio con quelle di ubisoft e la patch 1.01 di Assassin's creed, basato anche quello sull'UE3, che faceva andare le 4850 più forte delle GTX280 con MSAA4x e che è stata rimossa perchè (spiegazione ufficiale) creava artefatti su HW dx10 :D
Mi pare che questo post di yossarian chiuda la questione. :rolleyes:
:read: nvidia sta mettendo i bastoni tra le ruote limitando le capacità degli avversari che SONO OGGETTIVAMENTE TECNOLOGICAMENTE PIU' AVANTI!
Nvidia :banned:
OT: Grazie per la spiegazione Yossarian, molto interessante.
rispondo al volo, per limiti di tempo; appena posso vi farò un'analisi più approfondita.
Alle alte risoluzioni si nota un calo vistoso passando da una risoluzione ad un'altra con alcuni titoli, ossia le prestazioni non scalano "linearmente"; inoltre, in certi casi, un CF ha prestazioni molto più elevate di quanto non dovrebbe; uno dei casi tipici di situazione bandwidth limited è quando un CF o uno SLI hanno prestazioni doppie rispetto al single chip.
La cosa può essere ben mascherata, in certi casi, dal fatto che le RBE dei chip ATi, con l'attivazione dei filtri, hanno un degrado prestazionale ridotto (perchè hanno un pixel fillrate che cresce all'aumentare del numero di sample grazie alla presenza di più punti di spilling dei dati).
Quindi basterebbe alzzare le frequenze delle DDR5 per arginare un attimo questa situazione, dico bene?
Quindi ora Ati è cattiva per DiRT2 e Nvidia no per i vari giochi in bundle (vedi AC e dirx 10.1).
Già, già :asd:
No, significa che ognuno tira l'acqua al suo mulino. ;)
E chi tenta sempre di santificare ati e demonizzare nvidia o viceversa, vorrei ricordare gli anni di cartello sui prezzi che entrambe le società hanno portato avanti di comune accordo, alla faccia dei loro "fedeli" utenti.
michelgaetano
01-10-2009, 14:01
Quindi basterebbe alzzare le frequenze delle DDR5 per arginare un attimo questa situazione, dico bene?
Teoricamente, sì. Andrebbe vista a quele frequenza (alla quale corrisponderà una certa ampiezza di banda) però questo limite viene scavalcato.
No, significa che ognuno tira l'acqua al suo mulino. ;)
E chi tenta sempre di santificare ati e demonizzare nvidia o viceversa, vorrei ricordare gli anni di cartello sui prezzi che entrambe le società hanno portato avanti di comune accordo, alla faccia dei loro "fedeli" utenti.
Qui nessuno santifica nulla, come vuoi far credere. Danneggiare appositamente chi non ha un prodotto del tuo marchio è ben oltre il tirar acqua al proprio mulino.
No, significa che ognuno tira l'acqua al suo mulino. ;)
E chi tenta sempre di santificare ati e demonizzare nvidia o viceversa, vorrei ricordare gli anni di cartello sui prezzi che entrambe le società hanno portato avanti di comune accordo, alla faccia dei loro "fedeli" utenti.
Questo e' un Tu Quoque (http://en.wikipedia.org/wiki/Tu_quoque). E anche OT.
konzendoji
01-10-2009, 14:11
Lo spot avrà rotto anche i coglioni...ma chi è più bravo e più furbo merita di esere premiato!
E' ora che ATi si svegli...dopo 2 radeon (x1900xt e 3870) la mia preossima scheda sarà una bella nVidia!
Così me ne tornerò a casa...(riprendendo dalla fx5700 e 6800ultra)...
E se Ati continuerà a dormire, in casa mia non entrerà + una readeon(come già non entra nessun amd).
L'unica radeon che rimarrà sarà la 3870 che userò in un media video che mi farò...
E' l'ora che amd ed ati puntino un po' + in alto
Lo spot avrà rotto anche i coglioni...ma chi è più bravo e più furbo merita di esere premiato!
E' ora che ATi si svegli...dopo 2 radeon (x1900xt e 3870) la mia preossima scheda sarà una bella nVidia!
Così me ne tornerò a casa...(riprendendo dalla fx5700 e 6800ultra)...
E se Ati continuerà a dormire, in casa mia non entrerà + una readeon(come già non entra nessun amd).
L'unica radeon che rimarrà sarà la 3870 che userò in un media video che mi farò...
E' l'ora che amd ed ati puntino un po' + in alto
Non so se nell'ultima settimana hai letto qualche news in giro ma ATI si è svegliata e anche parecchio bene. Ha l'hw + potente in circolazione.
Per AMD ti posso dare ragione
Bastoner
01-10-2009, 14:17
Lo spot avrà rotto anche i coglioni...ma chi è più bravo e più furbo merita di esere premiato!
E' ora che ATi si svegli...dopo 2 radeon (x1900xt e 3870) la mia preossima scheda sarà una bella nVidia!
Così me ne tornerò a casa...(riprendendo dalla fx5700 e 6800ultra)...
E se Ati continuerà a dormire, in casa mia non entrerà + una readeon(come già non entra nessun amd).
L'unica radeon che rimarrà sarà la 3870 che userò in un media video che mi farò...
E' l'ora che amd ed ati puntino un po' + in alto
Ma dove vivi? Hai sentito é uscita la serie 5000? Mi sembra un discorso un po' anacronistico, visto che ATI si é data una mossa: 40 nm, dx11, eyefinity, single gpu più potente del momento.....ma che vuoi di più?
E' Nvidia che si deve sbrigare :asd:
Lo spot avrà rotto anche i coglioni...ma chi è più bravo e più furbo merita di esere premiato!
E' ora che ATi si svegli...dopo 2 radeon (x1900xt e 3870) la mia preossima scheda sarà una bella nVidia!
Così me ne tornerò a casa...(riprendendo dalla fx5700 e 6800ultra)...
E se Ati continuerà a dormire, in casa mia non entrerà + una readeon(come già non entra nessun amd).
L'unica radeon che rimarrà sarà la 3870 che userò in un media video che mi farò...
E' l'ora che amd ed ati puntino un po' + in alto
Dicevi? :mc:
http://www.hardocp.com/images/articles/1253589355YCmpekvJfn_10_4_l.gif
Ri-dicevi? :rolleyes:
http://www.legitreviews.com/images/reviews/1080/batman_chart.jpg
...e poi aggiunge: qui, di videogiochi non ne facciamo, ci occupiamo di schede grafiche :O
:asd:
michelgaetano
01-10-2009, 14:20
Non so se nell'ultima settimana hai letto qualche news in giro ma ATI si è svegliata e anche parecchio bene. Ha l'hw + potente in circolazione.
Per AMD ti posso dare ragione
Ma dove vivi? Hai sentito é uscita la serie 5000? Mi sembra un discorso un po' anacronistico, visto che ATI si é data una mossa: 40 nm, dx11, eyefinity, single gpu più potente del momento.....ma che vuoi di più?
E' Nvidia che si deve sbrigare :asd:
Dicevi? :mc:
http://www.hardocp.com/images/articles/1253589355YCmpekvJfn_10_4_l.gif
Ri-dicevi? :rolleyes:
http://www.legitreviews.com/images/reviews/1080/batman_chart.jpg
Dai è solo rimasto un po' indietro :asd:
Lo spot avrà rotto anche i coglioni...ma chi è più bravo e più furbo merita di esere premiato!
E' ora che ATi si svegli...dopo 2 radeon (x1900xt e 3870) la mia preossima scheda sarà una bella nVidia!
Così me ne tornerò a casa...(riprendendo dalla fx5700 e 6800ultra)...
E se Ati continuerà a dormire, in casa mia non entrerà + una readeon(come già non entra nessun amd).
L'unica radeon che rimarrà sarà la 3870 che userò in un media video che mi farò...
E' l'ora che amd ed ati puntino un po' + in alto
Mi spiace per te... davvero.... adesso sai come ti mazzolano....:D :D
Ragazzi, c'è poco da discutere. Alla fine della fiera è il consumatore a decidere. Io Batman lo lascio sullo scaffale, e il discorso lo chiudo in fretta. Avanti il prossimo :)
Quoto con convinzione.. =) piuttosto che inutili e sterili lamentale sarebbe ora che i consumatori iniziassero a "punire" attraverso le loro scelte le aziende i cui comportamenti sono degni d'azione penale..sperare esclusivamente nell'antitrust è una operazione di volgare e puerile deresponsabilizzazione!
Per quanto mi riguarda EIDOS, Nvidia ed Intel..: sullo scaffale!
SilentDragon
01-10-2009, 14:44
Lo spot avrà rotto anche i coglioni...ma chi è più bravo e più furbo merita di esere premiato!
E' ora che ATi si svegli...dopo 2 radeon (x1900xt e 3870) la mia preossima scheda sarà una bella nVidia!
Così me ne tornerò a casa...(riprendendo dalla fx5700 e 6800ultra)...
E se Ati continuerà a dormire, in casa mia non entrerà + una readeon(come già non entra nessun amd).
L'unica radeon che rimarrà sarà la 3870 che userò in un media video che mi farò...
E' l'ora che amd ed ati puntino un po' + in alto
Ma oltre al discorso delle pure prestazioni di cui hanno (giustamente) parlato bs82, bastoner ecc.. qui il discorso cadeva sull'AA, ed e' stata ati stessa a produrre le sue GPU con supporto dx10.1 che come ha spiegato il prof. yossarian supportano (e ottimizzano) l'AA con i motori basati su deferred.
Anche il motore di S.T.A.L.K.E.R. e' basato sulla tecnica di rendering, e (se ricordo bene) il capitolo Clear Sky ha tra le opzioni alcuni flag per gpu dx10.1
Qui nessuno santifica nulla, come vuoi far credere. Danneggiare appositamente chi non ha un prodotto del tuo marchio è ben oltre il tirar acqua al proprio mulino.
No in questo caso ci sarebbe da chiarire esattamente come stanno le cose: se Batman aveva il supporto all'antialiasing e dopo nvidia ha pagato per avere l'esclusiva, in questo caso allora ci sarebbe bisogno di una bella multa per concorrenza sleale.
Se invece il motore non prevedeva il supporto e nvidia ha pagato perché venisse aggiunto, allora è suo sacrosanto diritto chiedere che funzioni solo sulle proprie schede.
Finché non è appurato questo dettaglio, il resto sono solo chiacchere da salotto.
Visto il comportamento passato di nvidia, personalmente penserei più al primo caso, ma preferisco concedere il beneficio del dubbio.
Questo e' un Tu Quoque (http://en.wikipedia.org/wiki/Tu_quoque). E anche OT.
Non precisamente, il mio esempio scredita sia ati che nvidia. E' non è più ot delle tante frecciatine che popolano thread come questo.
michelgaetano
01-10-2009, 15:01
No in questo caso ci sarebbe da chiarire esattamente come stanno le cose: se Batman aveva il supporto all'antialiasing e dopo nvidia ha pagato per avere l'esclusiva, in questo caso allora ci sarebbe bisogno di una bella multa per concorrenza sleale.
Se invece il motore non prevedeva il supporto e nvidia ha pagato perché venisse aggiunto, allora è suo sacrosanto diritto chiedere che funzioni solo sulle proprie schede.
Finché non è appurato questo dettaglio, il resto sono solo chiacchere da salotto.
Nella demo la cosa era attivabile anche con una Ati, ed è stata rimossa.
Se si vuole che determinate caratteristiche non siano attivabili con altre schede (leggi: quelle che, probabilmente, non sborsano), la cosa va specificata, e gli utenti devono essere informati. La cosa non è avvenuta, o non staremmo qui a disquisire sulla slealtà di Nvidia.
b4st0n3r
01-10-2009, 15:26
Ah, adesso si che è qualcosa di concreto... di sicuro posso andare in negozio e chiedere :
Io : salve , vorrei una scheda nvidia G300.
Negoziante : eh? :mbe:
Io : si, quella con 3 milardi di transistor , e :blah:
Negoziante : No guardi se vuole ho una bella 285 a 300€
Io : le ho chiesto una G300, possibile che non la abbia??
Negoziante : No, mi dispiace, altrimenti ho una 5850 per 220€..
Io : no no, voglio una nvidia, tutti i giochi girano bene solo così perchè sono "the way meant to be played" ,mi dia la 285
Negoziante : certo , eccole la versione xxx con vasellina in bundle.
:D
:asd:
http://www.pctunerup.com/up/results/_200910/th_20091001132958_55747b_il-padrino-1-visore.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091001132958_55747b_il-padrino-1-visore.jpg)
- Don c'è di la il responsabile Eidos, lo faccio entrare?
- Certo
http://www.pctunerup.com/up/results/_200910/th_20091001133300_DonCorleoneIlPadrino1.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091001133300_DonCorleoneIlPadrino1.jpg)
- S'accomodasse...le farò una proposta che nn potrà rifiutare, l'aa sulle ati nn si deve attivare
qualcuno riesce a fare un fotomontaggio col padrino che accarezza una gt285 al posto del gatto? :D
PConly92
01-10-2009, 15:28
nella demo l'aa era attivabile anche sulle ati (da dentro il menu di gioco)...
stranamente nel gioco completo non si può più attivare l'aa sulle schede ati!
vergogna iNvidia
edit. ops è gia stato detto
Evangelion01
01-10-2009, 15:39
Lo spot avrà rotto anche i coglioni...ma chi è più bravo e più furbo merita di esere premiato!
E' ora che ATi si svegli...dopo 2 radeon (x1900xt e 3870) la mia preossima scheda sarà una bella nVidia!
Così me ne tornerò a casa...(riprendendo dalla fx5700 e 6800ultra)...
E se Ati continuerà a dormire, in casa mia non entrerà + una readeon(come già non entra nessun amd).
L'unica radeon che rimarrà sarà la 3870 che userò in un media video che mi farò...
E' l'ora che amd ed ati puntino un po' + in alto
:rotfl::rotfl::rotfl:
:ronf:
b4st0n3r
01-10-2009, 15:46
:rotfl::rotfl::rotfl:
:ronf:
:asd:
...
Perciò non c'è una sola ragione tecnica per cui un'implemetazione che faccia uso di uno qualunque dei primi due metodi (il terzo non va su chip nVidia), non possa funzionare su ATi...
prima di tutto, grazie yossarian per l'approfondimento.
secondo, vorrei far notare a raven, bs82,noir79 ed altri che hanno mancato un punto fondamentale della questione. l'ho sottolineato per bene nel quote, si legge?
Ripeto quanto ho detto prima (forte di conferma da parte di yoss): nvidia non è impossibilitata a far girare una propria tecnologia anche sulle ati, semplicemente, e giustamente, NON VUOLE.
...per cui le giustificazioni di nVidia sono un ridicolo :mc:
Secondo te, yoss, nvidia si sta comportando in modo ridicolo perchè non vuole regalare il proprio lavoro ad ati?
Non mi diverto a difendere nvidia, ne sto facendo una questione di logica. Attualmente il comunicato di nvidia non può essere smontato. Chi lancia accuse lo sta facendo a priori, spesso senza neanche aver capito di cosa si sta parlando.
Cioè ma ti rendi conto che stai dicendo che la presenza dell'AA su Batman è un merito Nvidia?
CIoè ma hai capito bene di cosa stiamo parlando????
PConly92
01-10-2009, 15:51
prima di tutto, grazie yossarian per l'approfondimento.
secondo, vorrei far notare a raven, bs82,noir79 ed altri che hanno mancato un punto fondamentale della questione. l'ho sottolineato per bene nel quote, si legge?
Ripeto quanto ho detto prima (forte di conferma da parte di yoss): nvidia non è impossibilitata a far girare una propria tecnologia anche sulle ati, semplicemente, e giustamente, NON VUOLE.
Secondo te, yoss, nvidia si sta comportando in modo ridicolo perchè non vuole regalare il proprio lavoro ad ati?
Non mi diverto a difendere nvidia, ne sto facendo una questione di logica. Attualmente il comunicato di nvidia non può essere smontato. Chi lancia accuse lo sta facendo a priori, spesso senza neanche aver capito di cosa si sta parlando.
scusate se la ripeto ma come mai nella demo l'aa sulle ati funzionava? hanno cambiato motore grafico in un mese e non lo so io...boh
yossarian
01-10-2009, 15:51
Rileggiti la spiegazione di Yossarian, in particolare quando dice:
"L'HW dx10.1 supporta tutti e tre i metodi epr implementare il MSA box in presenza di deferred rendering con il vantaggio che il terzo, che è anche quello più ortodosso, fornisce un vantaggio prestazionale quantificabile in un 20% circa (qualcosa in più in realtà sugli altri, grazie al fatto che si risparmia un passaggio e ottimizza l'uso della banda passante.
Perciò non c'è una sola ragione tecnica per cui un'implemetazione che faccia uso di uno qualunque dei primi due metodi (il terzo non va su chip nVidia), non possa funzionare su ATi o su qualunque altro HW dx10 o superiore e motivo per cui le giustificazioni di nVidia sono un ridicolo [faccina dell'arrampicarsi sugli specchi]."
EDIT: Yossarian, potresti - se esistono da qualche parte in rete - citare qualche documento tecnico che avvalora il parere da te espresso? Mi piacerebbe avere le prove provate dalla tesi all'1+1 logico, sia per mia cultura personale che per poter riportare i fatti cosi' come sono.
http://ati.amd.com/products/pdf/directx10.1whitepaperv1.0final.pdf
in particolare dove parla di separate blend modes per-MRT e di multisample buffer read and write
Queste sono le cose in più che hanno le dx10.1 (e le dx11) rispetto alle dx10.
Quindi basterebbe alzzare le frequenze delle DDR5 per arginare un attimo questa situazione, dico bene?
la situazione non è drammatica con i titoli attuali e l'uso delle dx11 (ma anche delle 10.1) permetterà un utilizzo più efficiente della bandwidth.
Era solo una mia constatazione e presupponeva il fatto che con la prossima generazione sarà necessario ricorrere ad altre soluzioni
gabi.2437
01-10-2009, 15:53
Com'è che l'AA di Batman è diventato l'AA di Nvidia?
Ma soprattutto: caro ::NSM: cosa c'entra l'AA di Nvidia?
Nessuno vuole le tecnologie di antialiasing di nvidia.
Vogliamo poter usare le tecnologie di antialiasing di ATI per Batman :O
Nella demo la cosa era attivabile anche con una Ati, ed è stata rimossa.
Se si vuole che determinate caratteristiche non siano attivabili con altre schede (leggi: quelle che, probabilmente, non sborsano), la cosa va specificata, e gli utenti devono essere informati. La cosa non è avvenuta, o non staremmo qui a disquisire sulla slealtà di Nvidia.
Ad essere onesti in questo caso sarebbe dovuta essere eidos ad informare i potenziali acquirenti della possibilità o meno di attivare AA a seconda della scheda video. C'è stata ben poca trasparenza in questa cosa ed il tutto farebbe pensare più ad un imbroglio made by nvidia.
La cosa che mi sorprende di più è che non ci sia nessun controllo di trattative illecite in questo settore.
psychok9
01-10-2009, 15:55
Oltre al danno, la beffa!
Spiegatemi come mai se l'Unreal Engine 3 non supporta nativamente l'AA nella demo per attivarlo, basta cambiare l'ID name della scheda AMD?
E come mai poi nel gioco non funziona neanche cambiando l'ID name?
Se fosse come dicono loro non dovrebbe funzionare in nessun caso... tantomeno cambiando l'ID name!!!
A me pare + che palese che ci sia della disonestà!!!
Gioco nello scaffale poer me!!!
Quoto.
... mi ricorda un po' il truform di ati... fu inserito ufficialmente in nwn1..e funzionava da dio (fu usato in manera davvero ottimale)... poi nvidia si lamentò (pagò la tangentina) e la feature venne tolta con le patch successive con la scusa che "non era una feature standard e dava problemi di compatibilità"... se ti sembra giusto questo... :O
Questo è ancora peggio :eek:
È come se adesso obbligassero Eidos a disabilitare il Physx... E non la sapevo... Complimenti nVidia... :rolleyes:
Cacchio e io che pensavo che fosse merito di 3DFX...
3Dfx chi!? :doh: :stordita:
E poi da quando in qua se una azienda sviluppa un mercato per scopo di lucro, poi gli devon perdonare le mazzette e le furbate? Ah siamo una "grande famigghia" capisco... :eek: :muro: :rolleyes:
b4st0n3r
01-10-2009, 15:58
ragazzi esiste un programma per cambiare l'id della scheda? magari gira bene anche shift e altri giochi con le ati mettendo l'id delle nvidia :eek:
yossarian
01-10-2009, 15:58
prima di tutto, grazie yossarian per l'approfondimento.
secondo, vorrei far notare a raven, bs82,noir79 ed altri che hanno mancato un punto fondamentale della questione. l'ho sottolineato per bene nel quote, si legge?
Ripeto quanto ho detto prima (forte di conferma da parte di yoss): nvidia non è impossibilitata a far girare una propria tecnologia anche sulle ati, semplicemente, e giustamente, NON VUOLE.
Secondo te, yoss, nvidia si sta comportando in modo ridicolo perchè non vuole regalare il proprio lavoro ad ati?
Non mi diverto a difendere nvidia, ne sto facendo una questione di logica. Attualmente il comunicato di nvidia non può essere smontato. Chi lancia accuse lo sta facendo a priori, spesso senza neanche aver capito di cosa si sta parlando.
di fatto, per il MSAA box non c'è una tecnica proprietaria di ATi o nVidia. Le RBE non fanno altro che prendere i valori contenuti nello z-buffer, generare per ogni pixel n subpixel in base al numero di sample impostati e fare operazioni di interpolazione lineare a 8 bit. Si tratta di unità di tipo fixed function che lavorano in modalità standard operando sullo z-buffer. Quello che cambia è il modo in cui si possono salvare i dati dello z-buffer per poterli riutizzare con engine di tipo deferred; ma anche quello segue modalità standard e sono le tre che ho elencato prima e a cui fino alle dx9 non si aveva accesso, motivo per cui gli engine dx9 non conciliano MSAA con deferred rendering. Diverso discorso quando si implementa una delle tecniche sopra elencate e, quindi, si adottano path con elementi dx10 o dx10.1
leoneazzurro
01-10-2009, 15:59
http://ati.amd.com/products/pdf/directx10.1whitepaperv1.0final.pdf
in particolare dove parla di separate blend modes per-MRT e di multisample buffer read and write
Queste sono le cose in più che hanno le dx10.1 (e le dx11) rispetto alle dx10.
la situazione non è drammatica con i titoli attuali e l'uso delle dx11 (ma anche delle 10.1) permetterà un utilizzo più efficiente della bandwidth.
Era solo una mia constatazione e presupponeva il fatto che con la prossima generazione sarà necessario ricorrere ad altre soluzioni
E delle limitazioni del setup (triangle rate) che ne pensi? (magari spostandoci nel thread adatto in articoli o in sezione schee video)
yossarian
01-10-2009, 16:01
E delle limitazioni del setup (triangle rate) che ne pensi? (magari spostandoci nel thread adatto in articoli o in sezione schee video)
appena posso ti rispondo a questa ed altre questioni. Ti anticipo che in dx11 le operazioni di interpolazione per le texture sono eseguite dallo shader core sia su RV870 che su GT300 (immagino anche su larrabee) e le fixed function sono utilizzate solo per texture sampling e texture addressing.
Ciao leo :)
leoneazzurro
01-10-2009, 16:03
di fatto, per il MSAA box non c'è una tecnica proprietaria di ATi o nVidia. Le RBE non fanno altro che prendere i valori contenuti nello z-buffer, generare per ogni pixel n subpixel in base al numero di sample impostati e fare operazioni di interpolazione lineare a 8 bit. Si tratta di unità di tipo fixed function che lavorano in modalità standard operando sullo z-buffer. Quello che cambia è il modo in cui si possono salvare i dati dello z-buffer per poterli riutizzare con engine di tipo deferred; ma anche quello segue modalità standard e sono le tre che ho elencato prima e a cui fino alle dx9 non si aveva accesso, motivo per cui gli engine dx9 non conciliano MSAA con deferred rendering. Diverso discorso quando si implementa una delle tecniche sopra elencate e, quindi, si adottano path con elementi dx10 o dx10.1
In parole povere, non esiste "codice Nvidia" per l'AA in questo gioco, esiste del codice DX10 standard che non viene fatto girare mediante il riconoscimento dell'ID scheda su schede ATI che pure lo potrebbero processare senza problemi e senza necessità di cambiamenti.
Che poi i programmatori abbiano avuto necessità di supporto per far girare codice DX10 standard depone solo a loro sfavore. (Sto precisando per chi ha difficoltà con il linguaggio tecnico)
Cioè ma ti rendi conto che stai dicendo che la presenza dell'AA su Batman è un merito Nvidia?
CIoè ma hai capito bene di cosa stiamo parlando????
Va bene, prova a fare così. Leggiti 10 volte di fila il comunicato nvidia, pensaci un po' su, se non è chiaro leggilo altre 10 volte e così via. Se ti arriva l'illuminazione, fammi un fischio.
"A representative of AMD recently claimed that NVIDIA interfered with anti-aliasing (AA) support for Batman: Arkham Asylum on AMD cards. They also claimed that NVIDIA’s The Way It’s Meant to be Played Program prevents AMD from working with developers for those games. Both of these claims are NOT true. Batman is based on Unreal Engine 3, which does not natively support anti-aliasing. We worked closely with Eidos to add AA and QA the feature on GeForce. Nothing prevented AMD from doing the same thing. Games in The Way It’s Meant to be Played are not exclusive to NVIDIA. AMD can also contact developers and work with them. We are proud of the work we do in The Way It’s Meant to be Played. We work hard to deliver game-changing features in PC games like PhysX, AA, and 3D Vision for games like Batman. If AMD wants to deliver innovation for PC games then we encourage them to roll up their sleeves and do the same."
Se non ci fosse stata nvidia, a quest'ora tutti sarebbero stati costretti ad usare i driver della propria scheda per avere un AA, e per giunta poco efficace!!
scusate se la ripeto ma come mai nella demo l'aa sulle ati funzionava? hanno cambiato motore grafico in un mese e non lo so io...boh
Leggi il mio ultimo post. Nvidia ha sviluppato un AA funzionante su qualsiasi scheda, e la demo ne è stata una prova. Per il gioco completo, tuttavia, Nvidia ha scelto di prendersi l'esclusiva sul proprio codice, e di farlo funzionare soltanto su schede nvidia. Non ha cambiato motore, ha semplicemente fatto sì che l'AA da lei implementato non sia più fruibile con hardware ati.
Com'è che l'AA di Batman è diventato l'AA di Nvidia?
Ma soprattutto: caro ::NSM: cosa c'entra l'AA di Nvidia?
Nessuno vuole le tecnologie di antialiasing di nvidia.
Vogliamo poter usare le tecnologie di antialiasing di ATI per Batman :O
Cosa c'entra l'AA di nvidia? leggi la prima parte del mio post.
Vuoi un AA ottimizzato anche sulle schede ati? Aspetta e spera che i programmatori ati collaborino con eidos! Nvidia l'ha già fatto.
Se poi eidos non ha voluto inviare ad ati una build apposita, non è affar mio.
gabi.2437
01-10-2009, 16:17
A casa mia è chi fa il gioco che si dà da fare per mettere l'AA
Certamente quelli di batman, siccome erano nel programma di nvidia, hanno "trascurato" quello ATI, ma non deve certo essere ati a andare a farglielo :rotfl: Eidos pelandrona, che si tengano il loro batman, perchè i miei €€€ valgono come quelli dell'acquirente nvidia.
Poi che quello nvidia sia ottimizzato, fatto meglio etc etc... sono tutte balle, te puoi confrontare? No, o credi a loro o niente, loro ti dicono che "eh è per ottimizzarlo"...quando poi magari in verità non è vero niente.
Ci ritroviamo quindi un gioco con un NORMALE AA nvidia e 0 AA ATI
Uhm...sisi bello
non è questione di aa ottimizzato per schede nvidia, è questione di features standard delle DX10 che vengono castrate nel caso di scheda madre del concorrente.
Allora adesso faccio un cominicato stampo dove dico che io ho creato internet.
Lo prendi per buono a prescidendere?
PS: nn si tratta di comunicato stampa ma di risposte di personaggi nvidia e ati tramite post su dei blog.
di fatto, per il MSAA box non c'è una tecnica proprietaria di ATi o nVidia.
perdonami l'imprecisione lessicale. questo, però, non cambia la questione: il codice scritto da nvidia per integrare l'AA, per quanto universale, non deve necessariamente poter girare su qualunque scheda. Non so quanto abbia faticato nvidia per realizzarlo, in ogni caso è giusto che se ne prenda il merito.
gabi.2437
01-10-2009, 16:22
perdonami l'imprecisione lessicale. questo, però, non cambia la questione: il codice scritto da nvidia per integrare l'AA, per quanto universale, non deve necessariamente poter girare su qualunque scheda. Non so quanto abbia faticato nvidia per realizzarlo, in ogni caso è giusto che se ne prenda il merito.
Secondo me ha faticato 0 e non c'è niente di innovativo, 0 merito.
L'AA nella demo c'era e per le ATI c'è anche in altri giochi basati sull'UE3, chissà come mai.
E eidos non ha fatto l'AA ATI
"il codice scritto da nvidia per integrare l'AA"
nvidia nn ha scritto un benedetto nulla di codiceeeeeeeeeeeeeeeeeeeeeeeee!
A casa mia è chi fa il gioco che si dà da fare per mettere l'AA
Certamente quelli di batman, siccome erano nel programma di nvidia, hanno "trascurato" quello ATI, ma non deve certo essere ati a andare a farglielo :rotfl: Eidos pelandrona, che si tengano il loro batman, perchè i miei €€€ valgono come quelli dell'acquirente nvidia.
Poi che quello nvidia sia ottimizzato, fatto meglio etc etc... sono tutte balle, te puoi confrontare? No, o credi a loro o niente, loro ti dicono che "eh è per ottimizzarlo"...quando poi magari in verità non è vero niente.
Ci ritroviamo quindi un gioco con un NORMALE AA nvidia e 0 AA ATI
Uhm...sisi bello
Se nemmeno credi che sia ottimizzato, cos'hai contro l'AA abilitabile via driver? Quello è presente per qualsiasi scheda, non è un'esclusiva. Ah, una volta nelle rece delle schede video erano inseriti anche i test sulla qualità dei filtri, ma quelli sulle prestazioni con AA attivato ci sono ancora.
Puoi inviare un reclamo a eidos, se ti fa sentire meglio. O anche ad ati, ma non certo a nvidia, che finora è l'unica ad aver scritto il codice per l'AA.
non è questione di aa ottimizzato per schede nvidia, è questione di features standard delle DX10 che vengono castrate nel caso di scheda madre del concorrente.
Standard delle DX10? Non so, può darsi, ma quello che è certo è che non è standard nell'UE, tanto che non è normalmente presente. Vuoi prendertela con quelli della Epic che non l'hanno messo di base? O con quelli della Eidos che non l'hanno aggiunto?
Allora adesso faccio un cominicato stampo dove dico che io ho creato internet.
Lo prendi per buono a prescidendere?
PS: nn si tratta di comunicato stampa ma di risposte di personaggi nvidia e ati tramite post su dei blog.
Non saprei, ma un comunicato stampa ufficiale di un'azienda miliardaria ispira certamente più fiducia di qualche teoria complottista...
PConly92
01-10-2009, 16:30
è inutile che difendi nvidia...
ormai è chiaro (tutti se ne sono resi conto) che nvidia a pagato rocksteady per disattivare l'aa ingame in presenza di schede ati.
giochi con unreal engine 3 con aa attivabile(anche con schede ati&nvidia) ce ne sono parecchi, quindi...:rolleyes:
mi spieghi cosa ci guadagni a difendere nvidia quando ha torto?
ah beh la fiera delle guerre insomma
cavolo la gente pensa che che i dipendenti lavorano gratis : nvidia sviluppa l'AA e' ati pretende che funzioni sulle proprio schede senza spendere un euro sono proprio dei geni i manager ati e la gente che crede ad ati
Drakogian
01-10-2009, 16:38
A casa mia è chi fa il gioco che si dà da fare per mettere l'AA
Certamente quelli di batman, siccome erano nel programma di nvidia, hanno "trascurato" quello ATI, ma non deve certo essere ati a andare a farglielo :rotfl: Eidos pelandrona, che si tengano il loro batman, perchè i miei €€€ valgono come quelli dell'acquirente nvidia.
Poi che quello nvidia sia ottimizzato, fatto meglio etc etc... sono tutte balle, te puoi confrontare? No, o credi a loro o niente, loro ti dicono che "eh è per ottimizzarlo"...quando poi magari in verità non è vero niente.
Ci ritroviamo quindi un gioco con un NORMALE AA nvidia e 0 AA ATI
Uhm...sisi bello
Non posso e non voglio indagare se Nvidia ha messo lo "zampino" in questa storia. Una cosa è certa il gioco lo vende la Eidos e quindi, per me, la responsabilità è sua. Se lo possono tenere.... !!!
P.S.: forse faranno uno sconto ai possessori di schede ATI... :D
PConly92
01-10-2009, 16:40
cavolo la gente pensa che che i dipendenti lavorano gratis : nvidia sviluppa l'AA e' ati pretende che funzioni sulle proprio schede senza spendere un euro sono proprio dei geni i manager ati e la gente che crede ad ati
nvidia non ha sviluppato un bel niente.ha solo pagato rocksteady pe disattivare aa in presenza di ati punto e basta.giochi by unreal engine con aa su ATI sono parecchi...
michelgaetano
01-10-2009, 16:40
cavolo la gente pensa che che i dipendenti lavorano gratis : nvidia sviluppa l'AA e' ati pretende che funzioni sulle proprio schede senza spendere un euro sono proprio dei geni i manager ati e la gente che crede ad ati
E cosa dire della gente che prima di parlare neanche si informa, e parla senza sapere che neanche è stata inviata (per chissà quali motivi, eh :asd:) ad Ati una pre-release build?
Secondo me ha faticato 0 e non c'è niente di innovativo, 0 merito.
L'AA nella demo c'era e per le ATI c'è anche in altri giochi basati sull'UE3, chissà come mai.
E eidos non ha fatto l'AA ATI
Torna indietro di qualche pagina e IMPARA che l'UE non implementa internamente il filtro AA. L'AA nella demo c'era per le ati? Grazie al cacchio, nvidia ci stava lavorando dietro da un po'!!
"il codice scritto da nvidia per integrare l'AA"
nvidia nn ha scritto un benedetto nulla di codiceeeeeeeeeeeeeeeeeeeeeeeee!
Allora, come cazzo lo vuoi chiamare, quel lavoro fatto da nvidia per far funzionare l'AA sulle sue schede. Qualsiasi cosa sia, non è NULLO. C'è stato del lavoro, è giusto che nvidia se ne prenda il merito!
è inutile che difendi nvidia...
ormai è chiaro (tutti se ne sono resi conto) che nvidia a pagato rocksteady per disattivare l'aa ingame in presenza di schede ati.
giochi con unreal engine 3 con aa attivabile(anche con schede ati&nvidia) ce ne sono parecchi, quindi...:rolleyes:
Non sai di cosa stai parlando. Ti rispondo per pietà, ripetendomi: in questo batman è disponibile lo stesso AA di tutti i giochi basati su UE, quello attivabile via drivers, su qualsiasi scheda. In più, se hai una nvidia, puoi abilitarne una versione ottimizzata direttamente dal gioco.
mi spieghi cosa ci guadagni a difendere nvidia quando ha torto?
Niente. Voglio piuttosto difendere logica e ragione. Qui LATITANO alla grande :read:
michelgaetano
01-10-2009, 16:43
Torna indietro di qualche pagina e IMPARA che l'UE non implementa internamente il filtro AA. L'AA nella demo c'era per le ati? Grazie al cacchio, nvidia ci stava lavorando dietro da un po'!!
Allora, come cazzo lo vuoi chiamare, quel lavoro fatto da nvidia per far funzionare l'AA sulle sue schede. Qualsiasi cosa sia, non è NULLO. C'è stato del lavoro, è giusto che nvidia se ne prenda il merito!
Niente. Voglio piuttosto difendere logica e ragione. Qui LATITANO alla grande :read:
Logica e ragione?
E dove è la logica per la quale questa limitazione dell'AA non è fatta presente al consumatore sulla scatola?
quando le SH fanno queste bastardate c'e solo una cosa da fare:andare di torrente:asd:
nvidia non ha sviluppato un bel niente.ha solo pagato rocksteady pe disattivare aa in presenza di ati punto e basta.giochi by unreal engine con aa su ATI sono parecchi...
E cosa dire della gente che prima di parlare neanche si informa, e parla senza sapere che neanche è stata inviata (per chissà quali motivi, eh :asd ad Ati una pre-release build?
Il motore grafico non supporta l'AA e qualcuno ha pagato perche' sia sviluppato
se nvidia paga perche' l'AA funzioni perche' dovrebbe dare un vantaggio alla concorenza ?
2012comin
01-10-2009, 16:54
Allora, come cazzo lo vuoi chiamare, quel lavoro fatto da nvidia per far funzionare l'AA sulle sue schede. Qualsiasi cosa sia, non è NULLO. C'è stato del lavoro, è giusto che nvidia se ne prenda il merito!
Hanno lavorato per non fare andare sulle Ati una "cosa" che senza il loro "lavoro" avrebbe funzionato.
g.luca86x
01-10-2009, 16:56
non potete venire a dire che nvidia ha fatto qualcosa di ottimizzazione o di codice che magari non gira su schede video ati: l'aa è uno standard non qualcosa di proprietario che è implementabile tranquillamente da una qualunque architettura dx10. Sostanzialmente nvidia ha pagato eidos per fare l'aa solo per le loro schede. non si può venir a dire "è ottimizzato per nvidia" perchè se nella demo girava vuol dire che c'è solo il normale AA con un blocco per l'id delle schede video ati, tutto qui. Forse sfugge una cosa: non stiamo discutendo sulle features proprietarie come physics (che nvidia se lo tenga) ma su qualcosa di universale come un banale AA. Se il motore grafico non lo supporta la software house può decidere di implementarlo ma non è che può farlo eliminando ati perchè nvidia li paga per farlo. Sono mezzucci infami. A questo punto il prossimo gioco li paga per non far girare nemmeno i filtri anisotropici sulle schede ati e siamo a posto! E' mica normale?
PConly92
01-10-2009, 16:56
ormai mi sono reso conto, è inutile stare qui a litigare...
qui finiremmo come sulle console, le solite esclusive.finiremo che per nvidia ci saranno certi giochi e per ati altri...:( mi riccordo il gaming su pc nel lonatano 2003-2004 con radeon x800xt e geforce 6800 bei tempi...:(
Hanno lavorato per non fare andare sulle Ati una "cosa" che senza il loro "lavoro" avrebbe funzionato.
E qui però SBAGLI alla grande! Ati ha nè più nè meno lo stesso supporto all'AA di tutti gli altri titoli UE senza un'implementazione propria, vedi bioshock!
Ho finito di argomentare, se devo ripetere realtà di fatto già rese note in precedenza. C'è più di qualcuno che semplicemente non è al livello di questa discussione.
Torna indietro di qualche pagina e IMPARA che l'UE non implementa internamente il filtro AA. L'AA nella demo c'era per le ati? Grazie al cacchio, nvidia ci stava lavorando dietro da un po'!!
Allora, come cazzo lo vuoi chiamare, quel lavoro fatto da nvidia per far funzionare l'AA sulle sue schede. Qualsiasi cosa sia, non è NULLO. C'è stato del lavoro, è giusto che nvidia se ne prenda il merito!
Non sai di cosa stai parlando. Ti rispondo per pietà, ripetendomi: in questo batman è disponibile lo stesso AA di tutti i giochi basati su UE, quello attivabile via drivers, su qualsiasi scheda. In più, se hai una nvidia, puoi abilitarne una versione ottimizzata direttamente dal gioco.
Niente. Voglio piuttosto difendere logica e ragione. Qui LATITANO alla grande :read:
moderiamo il linguaggo, ammonizione
quando le SH fanno queste bastardate c'e solo una cosa da fare:andare di torrente:asd:
la pirateria non è concessa
5 giorni
MadJackal
01-10-2009, 17:10
Se nemmeno credi che sia ottimizzato, cos'hai contro l'AA abilitabile via driver? Quello è presente per qualsiasi scheda, non è un'esclusiva. Ah, una volta nelle rece delle schede video erano inseriti anche i test sulla qualità dei filtri, ma quelli sulle prestazioni con AA attivato ci sono ancora.
Puoi inviare un reclamo a eidos, se ti fa sentire meglio. O anche ad ati, ma non certo a nvidia, che finora è l'unica ad aver scritto il codice per l'AA.
Hanno lavorato per non fare andare sulle Ati una "cosa" che senza il loro "lavoro" avrebbe funzionato.
Gli utenti che scrivono queste cose sono dunque perfettamente d'accordo se ATI disabilita forzatamente il supporto DX11 in Grid2 ed il nuovo Stalker, l'AA per le schede NVIDIA in BF:Heroes, C&C4, Demigod, Battleforge... Od anche i giochi che useranno il Frostbite Engine 2 (i prossimi Battlefield).
Mi pare che abbiano pure dato una mano in OFP: DR... Quindi niente supporto a DX10 ed effetti complessi su schede video NVIDIA... che i proprietari giochino in DX9 con tutte le impostazioni al minimo! :rolleyes:
Devo continuare?
...ATI lavora per i giocatori su tecnologie che funzionano su tutto, NVIDIA gioca sporco. L'AA non è una tecnologia NVIDIA. NVIDIA può aver scritto quanto codice vuole, ma a meno che le routine siano scritte in CUDA (e non lo sono) non può disattivare l'AA sulle ATI.
Poi amen, se preferite ad un'azienda che lavora per supportare gli standard una che tira colpi bassi a più non posso... E se un giorno ci ritrovassimo, continuando così, a dover comprare due schede video per giocare a due giochi diversi? Guardate che si comincia proprio da qui...
michelgaetano
01-10-2009, 17:14
E qui però SBAGLI alla grande! Ati ha nè più nè meno lo stesso supporto all'AA di tutti gli altri titoli UE senza un'implementazione propria, vedi bioshock!
Ho finito di argomentare, se devo ripetere realtà di fatto già rese note in precedenza. C'è più di qualcuno che semplicemente non è al livello di questa discussione.
Prima di lasciarci, visto che la discussione è troppo bassa per il tuo livello, mi rispondi?
Logica e ragione?
E dove è la logica per la quale questa limitazione dell'AA non è fatta presente al consumatore sulla scatola?
--
L'AA non è una tecnologia NVIDIA. NVIDIA può aver scritto quanto codice vuole, ma a meno che le routine siano scritte in CUDA (e non lo sono) non può disattivare l'AA sulle ATI.
È una kickass feature :asd:
blowfever
01-10-2009, 17:16
si figurati davvero come no
:oink:
leoneazzurro
01-10-2009, 17:19
Se nemmeno credi che sia ottimizzato, cos'hai contro l'AA abilitabile via driver? Quello è presente per qualsiasi scheda, non è un'esclusiva. Ah, una volta nelle rece delle schede video erano inseriti anche i test sulla qualità dei filtri, ma quelli sulle prestazioni con AA attivato ci sono ancora.
Puoi inviare un reclamo a eidos, se ti fa sentire meglio. O anche ad ati, ma non certo a nvidia, che finora è l'unica ad aver scritto il codice per l'AA.
Standard delle DX10? Non so, può darsi, ma quello che è certo è che non è standard nell'UE, tanto che non è normalmente presente. Vuoi prendertela con quelli della Epic che non l'hanno messo di base? O con quelli della Eidos che non l'hanno aggiunto?
Non saprei, ma un comunicato stampa ufficiale di un'azienda miliardaria ispira certamente più fiducia di qualche teoria complottista...
Che in DX10 si possa supportare il MSAA sull´Unreal Engine 3 lo dice non ATI, ma Tim Sweeney:
http://www.pcbuyersguide.co.za/showpost.php?p=60120&postcount=3
http://www.pcgameshardware.de/aid,602522/Exclusive-Interview-with-Epics-Tim-Sweeny-on-Unreal-Engine-3-and-UT-3/Spiele/News/
http://www.evga.com/gaming/gaming_news/gn_100.asp
Q. Does Unreal Tournament 3 support HDR rendering with Anti-aliasing?
A. Yes, on Windows Vista. On all PC platforms, we support running with 16-bit-per-component frame buffer (64 bits total). MSAA anti-aliasing support is only enabled on DirectX 10, because the deferred rendering techniques used by the engine require some capabilities not included in DirectX 9.
MadJackal
01-10-2009, 17:26
È una kickass feature :asd:
Dal marketing NVIDIA ci si può aspettare di tutto.
g.luca86x
01-10-2009, 17:55
Che in DX10 si possa supportare il MSAA sull´Unreal Engine 3 lo dice non ATI, ma Tim Sweeney:
http://www.pcbuyersguide.co.za/showpost.php?p=60120&postcount=3
http://www.pcgameshardware.de/aid,602522/Exclusive-Interview-with-Epics-Tim-Sweeny-on-Unreal-Engine-3-and-UT-3/Spiele/News/
http://www.evga.com/gaming/gaming_news/gn_100.asp
Q. Does Unreal Tournament 3 support HDR rendering with Anti-aliasing?
A. Yes, on Windows Vista. On all PC platforms, we support running with 16-bit-per-component frame buffer (64 bits total). MSAA anti-aliasing support is only enabled on DirectX 10, because the deferred rendering techniques used by the engine require some capabilities not included in DirectX 9.
tradotto in soldoni: con l'UE3 l'AA non può esserci lavorando con dx9 perchè manca il supporto proprio delle librerie. Al contrario usando le dx10 il motore supporta correttamente l'AA per via delle maggiori capacità delle dx10 rispetto alle dx9.
Ora qualcuno che difende il cosiddetto "lavoro" di nvidia potrebbe gentilmente spiegarmi perchè io piciu con seven e una 5870 non posso giocare a batman con l'AA, anche e il motore grafico del gioco lo avrebbe correttamente supportato senza che nvidia ci mettesse le mani sopra?
yossarian
01-10-2009, 18:03
perdonami l'imprecisione lessicale. questo, però, non cambia la questione: il codice scritto da nvidia per integrare l'AA, per quanto universale, non deve necessariamente poter girare su qualunque scheda. Non so quanto abbia faticato nvidia per realizzarlo, in ogni caso è giusto che se ne prenda il merito.
l'implementazione del MSAA con deferred rendering in dx10 dx10.1 o dx11 è una tecnica standard; nessuno si è dovuto sbattere per fare nulla; o si usa il render to texture o il MRT sullo z-buffer o non si usa. Non esiste una tecnologia proprietaria da parte di nessuno
yossarian
01-10-2009, 18:18
Che in DX10 si possa supportare il MSAA sull´Unreal Engine 3 lo dice non ATI, ma Tim Sweeney:
http://www.pcbuyersguide.co.za/showpost.php?p=60120&postcount=3
http://www.pcgameshardware.de/aid,602522/Exclusive-Interview-with-Epics-Tim-Sweeny-on-Unreal-Engine-3-and-UT-3/Spiele/News/
http://www.evga.com/gaming/gaming_news/gn_100.asp
Q. Does Unreal Tournament 3 support HDR rendering with Anti-aliasing?
A. Yes, on Windows Vista. On all PC platforms, we support running with 16-bit-per-component frame buffer (64 bits total). MSAA anti-aliasing support is only enabled on DirectX 10, because the deferred rendering techniques used by the engine require some capabilities not included in DirectX 9.
anzi, se proprio vogliamo essere precisi, la tecnica migliore nonchè la più ortodossa per implementare il MSAA con deferred rendering (UE3, stalker, ecc) è quella di ricorrere al MRT con cui i chip dx10.1 e dx11 hanno un boost quantificabile tra il 20 e il 25% circa e che i chip dx10 (quindi tutta le serie 8 e 9, oltre a GT200 di nVidia) non supportano, dovendo ricorrere ad altri mezzi come il render to texture o l'utilizzo di un color buffer come z-buffer.
Quindi, di fatto, gli unici chip a supportare nativamente il MSAA con deferred rendering senza ricorrere a "trucchi" sono quelli dx10.1 o superiori. Qui siamo al paradosso che il MSAA funziona su chip dx10 e non su chip dx10.1 o dx11 :D
g.luca86x
01-10-2009, 18:19
anzi, se proprio vogliamo essere precisi, la tecnica migliore nonchè la più ortodossa per implementare il MSAA con deferred rendering (UE3, stalker, ecc) è quella di ricorrere al MRT con cui i chip dx10.1 e dx11 hanno un boost quantificabile tra il 20 e il 25% circa e che i chip dx10 (quindi tutta le serie 8 e 9 di nVidia) non supportano, dovendo ricorrere ad altri mezzi come il render to texture o l'utilizzo di un color buffer come z-buffer.
Quindi, di fatto, gli unici chip a supportare nativamente il MSAA con deferred rendering senza ricorrere a "trucchi" sono quelli dx10.1 o superiori. Qui siamo al paradosso che il MSAA funziona su chip dx10 e non su chip dx10.1 o dx11 :D
tutto merito del lavoro di nvidia :asd:
Ma chi mi assicura che non sia stata nvidia a chiedere di non mettere l'AA nel gioco? per poi ovviamente aiutare la software house ad implementare il suo AA
trovo impensabile al giorno d'oggi che una software house, che addirittura riesce ad implementare il physics in quel gioco, non implementi un banale filtro AA, cosa che attualmente fanno TUTTI..
Riescono a implementare PhysX perchè nvidia collabora con il succitato programma, cosa che non fa ATI. Non dico che non ci possa essere del marcio però le affermazioni di ATI sono abbastanza pesanti. Soprattutto in luce del fatto che alcune tecnologie le stanno approcciando solo adesso (per esempio il toolkit basato su Bullet).
Bastoner
01-10-2009, 18:37
Riescono a implementare PhysX perchè nvidia collabora con il succitato programma, cosa che non fa ATI. Non dico che non ci possa essere del marcio però le affermazioni di ATI sono abbastanza pesanti. Soprattutto in luce del fatto che alcune tecnologie le stanno approcciando solo adesso (per esempio il toolkit basato su Bullet).
Physix é una tecnologia proprietaria di Nvidia. L'antialiasing no. Magari leggi qualche intervento di yossarian per capirne qualcosa in più. :rolleyes:
ormai mi sono reso conto, è inutile stare qui a litigare...
qui finiremmo come sulle console, le solite esclusive.finiremo che per nvidia ci saranno certi giochi e per ati altri...:( mi riccordo il gaming su pc nel lonatano 2003-2004 con radeon x800xt e geforce 6800 bei tempi...:(
Proprio bei tempi, quando dopo 6 mesi che avevi una top di gamma era già da buttare nel cesso, perchè non mandava i giochi a palla nemmeno al day one :D
Preferisco i tempi attuali, guarda. :D
Physix é una tecnologia proprietaria di Nvidia. L'antialiasing no. Magari leggi qualche intervento di yossarian per capirne qualcosa in più. :rolleyes:
Io stavo parlando in merito a PhysX, tu leggi i miei di post invece. Quando molti produttori cominciano a trovarsi sufficientemente indietro tecnologicamente, cominciano a fare sparate. Le sparate va bene farle solo se si ha almeno uno straccio di prova in mano, altrimenti ci si fa brutta figura. Sono dichiarazioni che da case del genere non ci si aspetta. Al massimo mi potevo aspettare una causa da risolversi in tribunale. E comunque un programma studiato per favorire determinate tecnologie non lo vedo proprio come un programma ostruzionista. Sono troppe le cose da accertare prima che si possa definire tale.
Bastoner
01-10-2009, 18:44
Io stavo parlando in merito a PhysX, tu leggi i miei di post invece. Quando molti produttori cominciano a trovarsi sufficientemente indietro tecnologicamente, cominciano a fare sparate. Le sparate va bene farle solo se si ha almeno uno straccio di prova in mano, altrimenti ci si fa brutta figura. Sono dichiarazioni che da case del genere non ci si aspetta. Al massimo mi potevo aspettare una causa da risolversi in tribunale. E comunque un programma studiato per favorire determinate tecnologie non lo vedo proprio come un programma ostruzionista. Sono troppe le cose da accertare prima che si possa definire tale.
Non ho capito quale sia la tua posizione sulla questione antialiasing. E' stato o no un sabotaggio? Lascia perdere Physix che appartiene a Nvidia e Nvidia a tutto il diritto di tenerlo per sé.
Non ho capito quale sia la tua posizione sulla questione antialiasing. E' stato o no un sabotaggio? Lascia perdere Physix che appartiene a Nvidia e Nvidia a tutto il diritto di tenerlo per sé.
La mia posizione è neutra. Chiunque ritenga di poter far luce su una questione del genere con un trafiletto di notizia dorme sopra le nuvole.
Questioni del genere sono molto piu' complesse di quello che si pensi da accertare.
Fra il non implementare qualcosa e l'essere pagati per non averlo implementato ci passa una montagna come differenza.
Perchè di non implementare qualcosa ne hanno pure diritto. Ma come puoi accertare che abbiano ricevuto pagamenti? Non puoi.
Ergo inutile anche solo parlarne.
La questione va analizzata in tutt'altra ottica che quella tecnica, insomma.
leoneazzurro
01-10-2009, 18:54
Non c´é niente da "implementare" o "non implementare". Unreal Engine 3 supporta MSAA sotto DirectX10, se in un dato gioco basato su quel motore grafico l´MSAA funziona sotto Nvidia e sotto ATI no significa che il gioco "legge" il produttore della scheda grafica e disabilita quella feature solo per un produttore di schede video.
Non c´é niente da "implementare" o "non implementare". Unreal Engine 3 supporta MSAA sotto DirectX10, se in un dato gioco basato su quel motore grafico l´MSAA funziona sotto Nvidia e sotto ATI no significa che il gioco "legge" il produttore della scheda grafica e disabilita quella feature solo per un produttore di schede video.
Questo non lo puoi dire. Anche se non c'è nulla da implementare, devi metterci comunque qualcosa per dirgli di attivarlo. Non attivarlo ed essere pagati per non attivarlo è diverso. Non c'è niente da implementare, ma c'è da attivare.
Non attivare significa forse essere pagati? Sono accuse gravi e infondate, almeno fino a quando non si dimostra qualcosa a livello "fiscale". Parlarne tecnicamnte e pretendere di arrivare a una sentenza definitiva è sciocco.
Bastoner
01-10-2009, 19:03
Non c´é niente da "implementare" o "non implementare". Unreal Engine 3 supporta MSAA sotto DirectX10, se in un dato gioco basato su quel motore grafico l´MSAA funziona sotto Nvidia e sotto ATI no significa che il gioco "legge" il produttore della scheda grafica e disabilita quella feature solo per un produttore di schede video.
Ecco appunto. E' così evidente....
Bastoner
01-10-2009, 19:05
Questo non lo puoi dire. Anche se non c'è nulla da implementare, devi metterci comunque qualcosa per dirgli di attivarlo. Non attivarlo ed essere pagati per non attivarlo è diverso.
Pittosto ci devi mettere qualcosa per dirgli di disattivarlo. Si é visto che cambiando l'ID della scheda, l'aa si attiva anche sulle ATI. Se non é sabotaggio questo, mi sembra proprio che avete il proscitto sugli occhi. Mamma Nvidia ha sempre ragione.
Pittosto ci devi mettere qualcosa per dirgli di disattivarlo. Si é visto che cambiando l'ID della scheda, l'aa si attiva anche sulle ATI. Se non é sabotaggio questo, mi sembra proprio che avete il proscitto sugli occhi. Mamma Nvidia ha sempre ragione.
Fosse cosi facile dimostrare le cose. Ti ripeto il prosciutto ce l'hai tu. Se il gioco attiva l'AA in presenza di nVidia è ovvio che cambiando ID alla scheda esso si attiva. Ma ancora, significa forse essere stati pagati? Eppure mi sembra un concetto facile.
E' come dire che io mi scordo di pagare il caffè al bar e vengo considerato ladro. Sicuramente le motivazioni tecniche per non attivare l'AA su ATI non ci sono. Ma questo implicherebbe essere stati pagati, implicherebbe un sabotaggio o qualsiasi altra implicazione?
Supponiamo che io sono un dipendente rocksteady a cui mi sta sulle balle ATI. Lo disattivo esplicitamente per antipatia. Ho diritto di farlo? O devo essere accusato di prendere mazzette? Questo è il discorso.
Non c'è niente per dimostrare le accuse che fate. Tutte tecnicamente valide ma a livello legale di validità nulla.
Bastoner
01-10-2009, 19:15
Fosse cosi facile dimostrare le cose. Ti ripeto il prosciutto ce l'hai tu. Se il gioco attiva l'AA in presenza di nVidia è ovvio che cambiando ID alla scheda esso si attiva. Ma ancora, significa forse essere stati pagati? Eppure mi sembra un concetto facile.
E' come dire che io mi scordo di pagare il caffè al bar e vengo considerato ladro. Sicuramente le motivazioni tecniche per non attivare l'AA su ATI non ci sono. Ma questo implicherebbe essere stati pagati, implicherebbe un sabotaggio o qualsiasi altra implicazione?
Supponiamo che io sono un dipendente rocksteady a cui mi sta sulle balle ATI. Lo disattivo esplicitamente per antipatia. Ho diritto di farlo? O devo essere accusato di prendere mazzette? Questo è il discorso.
Non c'è niente per dimostrare le accuse che fate. Tutte tecnicamente valide ma a livello legale di validità nulla.
Se vabbé, che ingenuità.....
leoneazzurro
01-10-2009, 19:16
Questo non lo puoi dire. Anche se non c'è nulla da implementare, devi metterci comunque qualcosa per dirgli di attivarlo. Non attivarlo ed essere pagati per non attivarlo è diverso. Non c'è niente da implementare, ma c'è da attivare.
Non attivare significa forse essere pagati? Sono accuse gravi e infondate, almeno fino a quando non si dimostra qualcosa a livello "fiscale". Parlarne tecnicamnte e pretendere di arrivare a una sentenza definitiva è sciocco.
Il path é DX10 standard, quindi se lo hanno attivato per Nvidia avrebbe funzionato senza modifiche su schede ATI, ergo hanno dovuto mettere non solo uno switch per attivarlo, ma anche una routine per leggere l´ID delle schede ATI e disattivarlo in caso si rilevasse una scheda non Nvidia. Questo é riconducibile solo in base ad un accordo tra Eidos e Nvidia, e sará anche che Nvidia non ha versato soldi, ma é in ogni caso una pratica scorretta ed anticompetitiva che andrebbe sanzionata.
Se vabbé, che ingenuità.....
Ma ingenuità cosa. Le accuse le puoi fare solo quando hai la certezza matematica di qualcosa. Tu la certezza matematica non ce l'hai, ergo qualsiasi dichiarazione in merito si chiama diffamazione. In un tribunale se non tirano fuori prove di avvenuto pagamento, basta una dichiarazione cosi ingenua per prendersi la ragione.
Crimson Skies
01-10-2009, 19:18
Quali? :D
Per quale motivo non dare l'oppunità anche agli sviluppatori ATi di fornire l'AA (che è ben diverso, dal dargli il lavoro fatto da quelli Nvidia)? Ah già :asd:
Quali siano i giochi non ricordo ma c'erano perchè ho visto il logo Ati.
Vediamo... NVIDIA fa esibizioni per i giochi, ora trasformate in conferenze per le tecnologie; NVIDIA fornisce una caterva di esempi di programmazione a quanti ne richiedano; NVIDIA sviluppa nuove tecnologie (3D Stereo Physx) per gli sviluppatori, utilizzabili fra l'altro da chiunque (SDK è disponibile anche per me e te); NVIDIA integra nuove idee per la programmazione e anche queste le fornisce gratuitamente in forma di esempi (è il caso della gestione di AA in Far Cry 2); NVIDIA fornisce supporto agli sviluppatori di giochi (e quando si parla di TWIMTBP significa che se il Tizio EIDOS non riesce a programmare l'engine può telefonare a NVIDIA e c'è un programmatore NVIDIA che gli da proprio una mano a scriverlo... scusate se è poco). Se queste ti sembrano mazzette... a me sembra farsi il culo per fornire un supporto di qualità.
Assomigliano più a mazzette quelle di ATI per DIRT 2, che ha semplicemente bonificato 1M di $ affinchè aggiungessero al gioco degli effetti DX11, e ha preso l'esclusiva del gioco per le sue confezioni retail delle VGA.
Io dico solo che dire che Nvidia vuole essere scorretta mi sembra un attacca gratuito. Ati cercherà di avere l'esclusiva per i giochi DX11 sicuramente. A quel punto daremo addosso ad Ati?
E poi i grafici che ci sono qualche pagina indietro dove una 5xxx surclassa di netto una 295 mi sembrano a parte credo falsi e sopratutto se sono veri per batman allora Nvidia non sta castrando Ati ma cercando di migliorare la qualità del gioco per le sue schede che non è niente di male imho.
Il path é DX10 standard, quindi se lo hanno attivato per Nvidia avrebbe funzionato senza modifiche su schede ATI, ergo hanno dovuto mettere non solo uno switch per attivarlo, ma anche una routine per leggere l´ID delle schede ATI e disattivarlo in caso si rilevasse una scheda non Nvidia. Questo é riconducibile solo in base ad un accordo tra Eidos e Nvidia, e sará anche che Nvidia non ha versato soldi, ma é in ogni caso una pratica scorretta ed anticompetitiva che andrebbe sanzionata.
E perchè mai? A sto punto facciamo insorgere pure Intel perchè il gioco non è progettato per le integrate, quando alcune magari avrebbero pure la potenza di farlo girare al minimo, no?
Se non dimostri la tresca commerciale, puoi avere tutte le motivazioni del mondo che di scorretto non ci sta niente. Rimani solo con una scelta discutibile. Discutibile ma non inquisitoria.
E' una scelta di cattivo gusto ma da qui a sparare insinuazioni di sabotaggio ce ne passa.
Bastoner
01-10-2009, 19:26
Ma quante stupidaggini, la certezza la si può avere solo se qualcuno di noi fosse stato partecipe dello sviluppo ed avesse visto con i suoi occhi la tresca. Per un giudice qui ci sarebbero prove sufficienti per condannare Nvidia, visto che chiunque ne capisca qualcosa tecnicamente sa che l'AA é sviluppato sul path dx10, e questo vale per Nvidia e per ATI. Non c'è bisogno di introdurre qualcosa nel codice per abilitarlo sulle ATI, c'è bisogno di introdurre qualcosa per disabilitarlo, lo vuoi capire o no?
Non c'è peggior sordo di chi non vuol sentire.
Se in un processo ci vogliono le prove, queste sono prove, non opinioni.
leoneazzurro
01-10-2009, 19:27
E perchè mai? A sto punto facciamo insorgere pure Intel perchè il gioco non è progettato per le integrate, quando alcune magari avrebbero pure la potenza di farlo girare al minimo, no?
Se non dimostri la tresca commerciale, puoi avere tutte le motivazioni del mondo che di scorretto non ci sta niente. Rimani solo con una scelta discutibile. Discutibile ma non inquisitoria.
E' una scelta di cattivo gusto ma da qui a sparare insinuazioni di sabotaggio ce ne passa.
Assolutamente no. L´esempio che fai é fuorviante, perché da un lato si tratta di schede che non hanno la potenza necessaria per far girare il gioco al dato livello di dettaglio, dall´altra ci sono schede con possibilitá identiche ma volutamente si é scelto di "castrarne" una. Che sia una cosa voluta é chiaro, perché le schede fanno girare il medesimo codice. Ti ricordo che le pratiche anticompetitive consistono proprio in questo.
PConly92
01-10-2009, 19:32
Proprio bei tempi, quando dopo 6 mesi che avevi una top di gamma era già da buttare nel cesso, perchè non mandava i giochi a palla nemmeno al day one :D
Preferisco i tempi attuali, guarda. :D
si con tutti i giochi pc porting da console schifosamente ottimizzati:rolleyes:(con il hardware che abbiamo) e appunto di cosa stiamo parlando adesso , aa attivabile su nvidia su ati no!!!
come siamo finiti noi giocatori pc...:( speriamo in qualcosa con le dx11
nudo_conlemani_inTasca
01-10-2009, 19:55
Beh.. che dire: si replica la stessa storia per il settore CPU.
Intel vs AMD (e l'UE che bastona a suon di multe)
nVidia vs ATI (AMD) (e magari anke qui interverrà l'UE.. facendogli il fondello). :asd:
Non c'è molto da aggiungere, è stato detto già tutto da molti di voi. Do solo una considerazione personale/spunto.
nVidia ha scelto di "collaborare" per l'implementazione dell'AA su Batman: AA, oltre alle tecnologie Physix. Su queste ultime poco da dire, utili o meno, belle o meno eccetera sono proprietarie, quindi è "giusto" che vadano solo su hardware nVidia (benché sia una vergogna che con gli ultimi driver sia IMPOSSIBILE usare una GeForce per la fisica e una Radeon per la grafica... meditare...). Ma l'AntiAliasing... che è una cosa STANDARD... vuoi mettere un ringraziamento a nVidia? Ok. Vuoi mettere le modalità di AA non-standard proprietarie con nVdia e con ATI no? (Leggasi: su nVidia AA MSAA e CSAA, con ATI solo MSAA) Bene, fallo. Ma bloccare l'implementazione di un AntiAliasing STANDARD (e il MultiSampling è standard) è sicuramente una pratica che definire pulita...
Ed il fatto che nel demo cambiando ID andasse, oltre al fatto che via pannello (con i dovuti svantaggi del caso) l'AntiAliasing comunque vada dimostra che a livello software, appunto, non esista alcun motivo per non implementarlo anche con altre schede.
Tra l'altro ormai qualche pagina fa ho visto "dite ad ATI di fare una patch". Come fa a farla ATI visto che è un blocco dal gioco...
Concludo dicendo, circa i driver, che se come è stato annunciato AMD/ATI non ha, per vari titoli (viene citato Resident Evil) la possibilità di testare le schede e i driver prima che questi escano... beh è fatta. E, si, sono di parte... dalla parte del mio portafogli, che se la precedente 8800 GTX non fosse morta a 2 anni e 5 giorni dall'acquisto (toh, 2 anni di garanzia... sarò sfortunato forte) allora sarebbe ancora nel case, e ne ero soddisfattissimo (ovviamente vista la scheda :p ).
EDIT: Sono state fatte ipotesi ironiche del tipo "ATI metta il blocco nei giochi DX11" e cose simili... beh se GT300 avrà le funzionalità hardware complete per le DX11 io starei tranquillo, i giochi andranno... piuttosto guardate le DX10.1 di Assassin's Creed o tecnologie come TruForm o 3Dc (che, tra l'altro, ora ha anche nVidia, visto che è stato reso pubblico). E per GT300 si vociferano grandi cose, ma tessellator software (Ma non è una funzionalità hardware da avere per le DX11?).
ghiltanas
01-10-2009, 20:09
Non c'è molto da aggiungere, è stato detto già tutto da molti di voi. Do solo una considerazione personale/spunto.
nVidia ha scelto di "collaborare" per l'implementazione dell'AA su Batman: AA,
ma collaborare per cosa scusa? in dx10 l'ue supporta l'aa, stop. NN va implementato nulla, che ci giochi con ati o nvidia che sia l'aa lo dovresti poter attivare. Per quale motivo si sono svegliati la mattina e si sono presi la briga di implementare (qui si che hanno dovuto farlo) uno switch che imposta off l'aa in presenza di schede ati?
ma collaborare per cosa scusa? in dx10 l'ue supporta l'aa, stop. NN va implementato nulla, che ci giochi con ati o nvidia che sia l'aa lo dovresti poter attivare. Per quale motivo si sono svegliati la mattina e si sono presi la briga di implementare (qui si che hanno dovuto farlo) uno switch che imposta off l'aa in presenza di schede ati?
Dimmi due cose, per favore, in tutta tranquillità: Hai letto tutto il messaggio? Hai notato le virgolette? :D
g.luca86x
01-10-2009, 20:23
ma collaborare per cosa scusa? in dx10 l'ue supporta l'aa, stop. NN va implementato nulla, che ci giochi con ati o nvidia che sia l'aa lo dovresti poter attivare. Per quale motivo si sono svegliati la mattina e si sono presi la briga di implementare (qui si che hanno dovuto farlo) uno switch che imposta off l'aa in presenza di schede ati?
infatti è tra virgolette: dite la stessa cosa anche se in termini diversi...
ghiltanas
01-10-2009, 20:25
Dimmi due cose, per favore, in tutta tranquillità: Hai letto tutto il messaggio? Hai notato le virgolette? :D
in tutta tranquillità ti dico che sono un cretino :O , senza virgolette :D
in tutta tranquillità ti dico che sono un cretino :O , senza virgolette :D
Basta chiarirsi ^^
Chiudo con gli OT :D
wolverine
01-10-2009, 20:53
Certo che alla nvidia c'hanno una faccia da sberle niente male eh! :D :rolleyes:
Non c´é niente da "implementare" o "non implementare". Unreal Engine 3 supporta MSAA sotto DirectX10, se in un dato gioco basato su quel motore grafico l´MSAA funziona sotto Nvidia e sotto ATI no significa che il gioco "legge" il produttore della scheda grafica e disabilita quella feature solo per un produttore di schede video.
Il gioco completo non saprei, ma la demo gira in DX9, non in DX10, quindi, forse qualcosina da implementare c'era effettivamente, o no ?
ma se una sw house non ha soldi-tempo-capacità-personale per sviluppare un effetto del motore grafico, arriva ATI/NVIDIA e dice "ve lo facciamo noi gratis/previo compenso se ci mettete il logo" questo vi sembra illegale-non morale-non professionale-non etico ?
ma vivete nel mondo dei balocchi ?
guardatevi in giro, il mondo va avanti così: navigate sui siti, da qualche parte troverete sempre il nome della azienda che l'ha sviluppato.
Guardatevi gli sponsor nei giornali: da qualche parte c'è sempre scritto l'azienda che l'ha realizzato la grafica.
Così è stato per blu-ray e hd-dvd: case cinematografiche hanno sposato l'uno o l'altro standard o entrambe, hanno investito fondi, hanno fatto pubblicità e hanno sviluppato/fatto ricerca.
A qualcuno viene commissionato un lavoro, in questo caso nvidia, la quale ha tutto il diritto di tutelarsi sia dal fatto che con schede ati il lavoro da loro fatto non sia fruibile, sia di mettere loghi e fare campagna pubblicitaria. L'AA è una feature "standard" che però il motore UT3 non supporta ? eidos subappalta la patch al motore a nvidia ? Nvidia la fa e si tutela dal fatto che la concorrenza possa fruirne.
DISCORSO CAMBIA RADICALMENTE se da nvidia è partita la mazzetta per impedire ad ATI di fare altrettanto. Questo non è corretto, ma senza prove :(
ATI fa eccellenti (spesso anche migliori) schede di nvidia (le ultime serie lo dimostrano) non si può dire altrettanto sulla ricerca/sviluppo per tecnologie accessorie quali physx cuda 3dvision supporto sdk ecc ecc.
Questa è la marcia in più di nvidia, quella di ati è il prezzo più competitivo:
The Way It's Meant To Be Played = nvidia sostiene costi e prende parte attivamente allo sviluppo = il consumatore (noi) paghiamo di più queste schede per ottenere il massimo da questo genere di gioco.
Vi sembra ci sia qualcosa di sbagliato in questo ? Certo, se si continua così, si rischia di dover avere una scheda ati e una nvidia sul pc.
Ma non è la stessa cosa delle console ps3 e xbox360 ? ci sono giochi per entrambe, ci sono giochi in esclusiva per ovvie ragioni di mercato (mazzette escluso, ovvio).
premetto che non so se il gioco giri in dx9 o in dx10 o ci sia la possibilità di scelta tra le due.
DUNQUE: se è vero che l'unreal engine in dx10 supporta nativamente l'aa allora secondo me dovrebbe esserne permessa l'attivazione anche con schede ati QUALORA STIA GIRANDO IN DX10.
MA se in dx9 l'implementazione in-game (cioè nel motore del gioco e attivabile dal menù del gioco) è frutto della collaborazione di nvidia come sostiene allora è giusto che venga proposta solo alle schede invidia, ragazzi non è mica una onlus nvidia, come ha detto qualcuno nessuno vuole che a fine giornata ci vengano portati via i meriti del lavoro svolto.
POI non ha senso quando dite "ma nella demo si attivava l'AA facendogli vedere una scheda ati come nvidia per cui è un'ostruzione", (è ovvio che così bypassiamo il sistema, ma ciò non toglie che l'AA in-game SIA STATO SVILUPPATO DA NVIDIA CON FONDI DI NVIDIA) qui perdete il punto di vista delle cose, perchè dovete pensare che senza il LAVORO di nvidia il gioco ve lo beccavate TUTTI senza AA attivabile in-game, insomma dovete pensarlo come un surplus frutto del lavoro di nvidia..OOOOOK qui le supposizioni si sprecano, so anch'io che forse gli sviluppatori avrebbero comunque provveduto loro stessi a implementarlo per tutte le schede e capisco che si possa dire che nvidia abbia pagato per escludere le ati ma queste sono tutte supposizioni. Alla luce di quello che sappiamo e che ci viene detto non c'è nulla di scorretto nel comportamento di nvidia...ripeto alla luce di quello che sappiamo...nessuno vietava ad ati di contattare eidos in fase di sviluppo, informarsi sulle feature del gioco, venire a conoscenza dell'assenza dell'AA nativo e dire "vogliamo l'AA in-game vi mandiamo qualcuno se c'è bisogno"...ci ha pensato nvidia, è giusto che si prenda l'esclusiva per me..
correggetemi se sbaglio riguardo a dx 9 e 10 e tutto il resto
TENGO A PRECISARE CHE QUESTE SONO LE MIE CONSIDERAZIONI IN BASE ESCLUSIVAMENTE A CIO' CHE CI VIENE DETTO, SENZA SUPPOSIZIONI, NULLA IMPEDISCE CHE DOMANI SALTI FUORI CHE NVIDIA HA PAGATO PER IMPEDIRE CHE GLI SVILUPPATORI PERMETESSERO L'IMPLEMENTAZIONE ANCHE PER ATI..MA SE NOI PENSIAMO CHE IL GIOCO PER GLI SVILUPPATORI ERA BELLO CHE PRONTO E FINITO SENZA AA NON C'E' NULLA DI IRREGOLARE
ma se una sw house non ha soldi-tempo-capacità-personale per sviluppare un effetto del motore grafico, arriva ATI/NVIDIA e dice "ve lo facciamo noi gratis/previo compenso se ci mettete il logo" questo vi sembra illegale-non morale-non professionale-non etico ?
NON
C'E'
NULLA
DA
SVILUPPARE
Oh, ma lo stiamo ripetendo da oltre 10 pagine.
Bah, per quanto mi riguarda Ati e Nvidia si equivalgono come quasi da sempre, trascurando le piccole parentesi come la serie 5 di Nvidia e la serie HD2xxx di Ati. Proprio per questo vorrei che ci lasciassero la libertà di scegliere senza compromessi.
ma veramente dicono che l'aa non è implementato nativamente nell'unreal engine per cui come fai a dire che non ci sia nulla da sviluppare?
Per chi fosse arrivato ora: il thread l'ha gia' vinto Yossarian con questo post (http://www.hwupgrade.it/forum/showthread.php?t=2057949&page=4&post=78#post29105385), e il succo e': i programmatori della Eidos hanno scelto coscientemente di non supportare l'AA nativamente per schede ATI.
Se qualcuno vuole contestare questo, si legga il post e risponda a tono; io personalmente chiederei a Yoss se potesse linkare, per mia curiosita' personale, della documentazione tecnica a sostegno delle sue (gia' di per se credibili) affermazioni.
NON
C'E'
NULLA
DA
SVILUPPARE
Oh, ma lo stiamo ripetendo da oltre 10 pagine.
Le 10 pagine sono il frutto di un equivoco secondo il quale Batman userebbe con Vista l'UE3 in versione DX10, io il gioco completo non l'ho, ma la demo su Vista confermo che usa l'UE3 in versione DX9, e non mi sembra sia possibile scegliere il renderer DX10.
Se questo elenco è affidabile http://en.wikipedia.org/wiki/List_of_games_with_DirectX_10_support anche il gioco completo dovrebbe essere DX9 only :)
Bastoner
01-10-2009, 21:29
Il gioco completo non saprei, ma la demo gira in DX9, non in DX10, quindi, forse qualcosina da implementare c'era effettivamente, o no ?
Il gioco é un dx9, ma c'è una path dx10 per l'aa. Esattamente come in Unreal Tournament 3. Non c'è nulla da sviluppare. Non c'è nulla da sviluppare. Non c'è nulla da sviluppare. Non c'è nulla da sviluppare. Non c'è nulla da sviluppare. Non c'è nulla da sviluppare. Non c'è nulla da sviluppare. Non c'è nulla da sviluppare. Non c'è nulla da sviluppare. Non c'è nulla da sviluppare. Non c'è nulla da sviluppare. Non c'è nulla da sviluppare.
e chi ci dice che questa patch con le feature dx10 non sia frutto della collaborazione di nvidia
Crimson Skies
01-10-2009, 21:37
ma se una sw house non ha soldi-tempo-capacità-personale per sviluppare un effetto del motore grafico, arriva ATI/NVIDIA e dice "ve lo facciamo noi gratis/previo compenso se ci mettete il logo" questo vi sembra illegale-non morale-non professionale-non etico ?
ma vivete nel mondo dei balocchi ?
guardatevi in giro, il mondo va avanti così: navigate sui siti, da qualche parte troverete sempre il nome della azienda che l'ha sviluppato.
Guardatevi gli sponsor nei giornali: da qualche parte c'è sempre scritto l'azienda che l'ha realizzato la grafica.
Così è stato per blu-ray e hd-dvd: case cinematografiche hanno sposato l'uno o l'altro standard o entrambe, hanno investito fondi, hanno fatto pubblicità e hanno sviluppato/fatto ricerca.
A qualcuno viene commissionato un lavoro, in questo caso nvidia, la quale ha tutto il diritto di tutelarsi sia dal fatto che con schede ati il lavoro da loro fatto non sia fruibile, sia di mettere loghi e fare campagna pubblicitaria. L'AA è una feature "standard" che però il motore UT3 non supporta ? eidos subappalta la patch al motore a nvidia ? Nvidia la fa e si tutela dal fatto che la concorrenza possa fruirne.
DISCORSO CAMBIA RADICALMENTE se da nvidia è partita la mazzetta per impedire ad ATI di fare altrettanto. Questo non è corretto, ma senza prove :(
ATI fa eccellenti (spesso anche migliori) schede di nvidia (le ultime serie lo dimostrano) non si può dire altrettanto sulla ricerca/sviluppo per tecnologie accessorie quali physx cuda 3dvision supporto sdk ecc ecc.
Questa è la marcia in più di nvidia, quella di ati è il prezzo più competitivo:
The Way It's Meant To Be Played = nvidia sostiene costi e prende parte attivamente allo sviluppo = il consumatore (noi) paghiamo di più queste schede per ottenere il massimo da questo genere di gioco.
Vi sembra ci sia qualcosa di sbagliato in questo ? Certo, se si continua così, si rischia di dover avere una scheda ati e una nvidia sul pc.
Ma non è la stessa cosa delle console ps3 e xbox360 ? ci sono giochi per entrambe, ci sono giochi in esclusiva per ovvie ragioni di mercato (mazzette escluso, ovvio).
Quoto su quasi tutta la linea a parte l'affermazione che Ati fa schede migliori di Nvidia dove la cosa la vedo dubbia.
Cmq come avevo già detto anche io se Ati fa costare le schede di meno è perchè è Nvidia che le fa costare di più perchè poi noi utenti finali abbiamo molto dai videogiochi con il "Meant to be Played", PhysX ecc.
Bah, per quanto mi riguarda Ati e Nvidia si equivalgono come quasi da sempre, trascurando le piccole parentesi come la serie 5 di Nvidia e la serie HD2xxx di Ati. Proprio per questo vorrei che ci lasciassero la libertà di scegliere senza compromessi.
La libertà di scegliere c'è sempre dipende solo da cosa si vuole:
1. Nvidia costa maggiore ma maggior supporto per giochi e tecnologia.
2. Ati costo inferiore e minor supporto su giochi e tecnologia.
La libertà di scegliere c'è sempre dipende solo da cosa si vuole:
1. Nvidia costa maggiore ma maggior supporto per giochi e tecnologia.
2. Ati costo inferiore e minor supporto su giochi e tecnologia.Senza compromessi ;)
P.s.
Quel "minor supporto su giochi e tecnologia" sembra così drammatico che non può che farmi sorridere :D
...che non hanno il minimo pudore di chinarsi all'obiettività TECNICA e non OPINABILE di chi ha esperienza, ci lavora e sa come funzionano le cose?
I comunicati stampa sono per il utonti.
Complimenti a Nvidia che ha scoperto che sono veramente tanti i polli da spennare... mi ricorda una certa mela morsicata.
Lavaggio del cervello... ma fatevi na cultura sulle schede video... e poi vedere 16enni e 20enni che vivono di giochini e zero conoscenza che scrivono cavolate e che manco sanno che porcate faceva nvidia ANNI FA....
Crimson Skies
01-10-2009, 21:48
Senza compromessi ;)
P.s.
Quel "minor supporto su giochi e tecnologia" sembra così drammatico che non può che farmi sorridere :D
Intendevo nel senso meno ottimizzazioni e meno soldi investiti in tecnologie come appunto quel PhysX e quel Cuda di cui si parla.
Bastoner
01-10-2009, 21:50
...che non hanno il minimo pudore di chinarsi all'obiettività TECNICA e non OPINABILE di chi ha esperienza, ci lavora e sa come funzionano le cose?
I comunicati stampa sono per il utonti.
Complimenti a Nvidia che ha scoperto che sono veramente tanti i polli da spennare... mi ricorda una certa mela morsicata.
Lavaggio del cervello... ma fatevi na cultura sulle schede video... e poi vedere 16enni e 20enni che vivono di giochini e zero conoscenza che scrivono cavolate e che manco sanno che porcate faceva nvidia ANNI FA....
Parole sante....:rolleyes:
Quoto su quasi tutta la linea a parte l'affermazione che Ati fa schede migliori di Nvidia dove la cosa la vedo dubbia.
Cmq come avevo già detto anche io se Ati fa costare le schede di meno è perchè è Nvidia che le fa costare di più perchè poi noi utenti finali abbiamo molto dai videogiochi con il "Meant to be Played", PhysX ecc.
La libertà di scegliere c'è sempre dipende solo da cosa si vuole:
1. Nvidia costa maggiore ma maggior supporto per giochi e tecnologia.
2. Ati costo inferiore e minor supporto su giochi e tecnologia.
Dura essere fanboy della zolla verde in questi tempi eh..
:asd: :asd: :asd:
Il gioco é un dx9, ma c'è una path dx10 per l'aa. Esattamente come in Unreal Tournament 3
In UT3, Bioshock, altri non me ne vengono in mente con l'UE3, potevi scegliere se usare il renderer DX9 o DX10, tant'è che sono citati come giochi DX10 http://en.wikipedia.org/wiki/List_of_games_with_DirectX_10_support Batman no, ma ripeto, non avendo il gioco completo non saprei. Tu invece che citi la presenza di un renderer DX10 saprai certamente suggerirmi come attivarlo, perchè a questo punto mi viene il dubbio che mi sia sfuggito qualcosa provando la demo.
Crimson Skies
01-10-2009, 22:04
Dura essere fanboy della zolla verde in questi tempi eh..
:asd: :asd: :asd:
Nooo. Non la definirei dure anche perchè sono i fatti che parlano mica io. Io non voglio fare il fan boy per carità. Però lungi da me che Nvidia < Ati. Piuttosto direi il contrario nella maggior parte dei casi se non anche parità. Ma alla fine conta anche il contorno che è fatto dalle applicazioni che migliorano l'esperienza di gioco.
ghiltanas
01-10-2009, 22:06
http://www.pctunerup.com/up/results/_200910/th_20091001230040_darthvader_hmed2_3phmedium.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091001230040_darthvader_hmed2_3phmedium.jpg)
Luke vieni con me, abbandona le dx11 e il tesselation, giura fedeltà all'imperatore e lui ti concederà di usare Physx e l'aa
MadJackal
01-10-2009, 22:09
1. Nvidia costa maggiore ma maggior supporto per giochi e tecnologia.
2. Ati costo inferiore e minor supporto su giochi e tecnologia.
E' faaaalsooooo.
Dipendenti di ATI su altri forum hanno affermato che sono disponibili ad aiutare chiunque chieda. E lo fanno dai tempi del source, senza chiedere loghi o cavolate varie, consigliando ottimizzazioni al codice, non ottimizzazioni per una scheda video. Anche con frotte di giochi recenti, e SOPRATTUTTO senza impedire alla concorrenza di usare l'AA (kickass feature! :rotfl:).
NVIDIA sgancia soldi ai publisher ed offre di fare il lavoro AL POSTO degli sviluppatori, ed infatti piace ai publisher e non agli sviluppatori stessi. E soprattutto usa colpi bassi e tecnologie proprietarie.
Davvero non notate le differenze?
Se le notate, cosa credete sia meglio?
Che si usino "standard" o che si usino tecnologie proprietarie e si arrivi ad avere le esclusive a seconda della scheda video installata nel pc?
netcrusher
01-10-2009, 22:36
Dai ragazzi ma che vi costa essere sportivi, parlo con voi fan Nvidia, ammettete l'innegabile , Nvidia sta facendo una magra figura in tutta questa situazione.....è proprio vero la verità non la si vuole proprio accettare, fareste andare all'ergastolo gente innocente pur di non ammettere le evidenze......contenti voi di questa situazione fasulla........che vergogna
Evangelion01
01-10-2009, 22:41
A me sembra che nvidia stia alzando il classico polverone fatto di phisics, meant to be , ostruzionismo di bassa lega e rumors su g300 ( guardacaso di oggi l' articolo di hwupgrade) per cercare di coprire l'improponibilità dei prezzi attuali delle sue schede... certo se spera di risollevare le sorti così.. :rolleyes:
A me sembra che nvidia stia alzando il classico polverone fatto di phisics, meant to be , ostruzionismo di bassa lega e rumors su g300 ( guardacaso di oggi l' articolo di hwupgrade) per cercare di coprire l'improponibilità dei prezzi attuali delle sue schede... certo se spera di risollevare le sorti così.. :rolleyes:Io ripeto che secondo me non è un caso: probabilmente con tutte queste "voci" intendono limitare le vendite delle nuove nate in casa Ati. Anche se non è loro intenzione qualcuno sicuramente ci casca.
Evangelion01
01-10-2009, 22:57
Io ripeto che secondo me non è un caso: probabilmente con tutte queste "voci" intendono limitare le vendite delle nuove nate in casa Ati. Anche se non è loro intenzione qualcuno sicuramente ci casca.
Certo è che la tempistica dell' annuncio è pressochè perfetta.
Cmq per quanto mi riguarda aspetterò g300 , ma per il semplice motivo che la mia 4870 mi permette di giocare quasi tutto benissimo, cambiarla adesso alla fine non avrebbe molto senso : meglio aspettare che i prezzi calino e la concorrenza torni feroce come piace al mio portafogli. :D
... ATI ha ricordato che non le è stata fornita alcuna copia di preproduzione per fare quello che ha fatto NVIDIA (basterebbe leggere il post originale sul sito di supporto Catalyst, c'è scritto chiaramente). Quindi tutte le polemiche non sussistono.
Quello di NVIDIA è puro e semplice gioco sporco, inscusabile e che disaffeziona i clienti più attenti a queste questioni (sottoscritto compreso).
yossarian
01-10-2009, 23:50
ma se una sw house non ha soldi-tempo-capacità-personale per sviluppare un effetto del motore grafico, arriva ATI/NVIDIA e dice "ve lo facciamo noi gratis/previo compenso se ci mettete il logo" questo vi sembra illegale-non morale-non professionale-non etico ?
ma vivete nel mondo dei balocchi ?
guardatevi in giro, il mondo va avanti così: navigate sui siti, da qualche parte troverete sempre il nome della azienda che l'ha sviluppato.
Guardatevi gli sponsor nei giornali: da qualche parte c'è sempre scritto l'azienda che l'ha realizzato la grafica.
Così è stato per blu-ray e hd-dvd: case cinematografiche hanno sposato l'uno o l'altro standard o entrambe, hanno investito fondi, hanno fatto pubblicità e hanno sviluppato/fatto ricerca.
A qualcuno viene commissionato un lavoro, in questo caso nvidia, la quale ha tutto il diritto di tutelarsi sia dal fatto che con schede ati il lavoro da loro fatto non sia fruibile, sia di mettere loghi e fare campagna pubblicitaria. L'AA è una feature "standard" che però il motore UT3 non supporta ? eidos subappalta la patch al motore a nvidia ? Nvidia la fa e si tutela dal fatto che la concorrenza possa fruirne.
DISCORSO CAMBIA RADICALMENTE se da nvidia è partita la mazzetta per impedire ad ATI di fare altrettanto. Questo non è corretto, ma senza prove :(
ATI fa eccellenti (spesso anche migliori) schede di nvidia (le ultime serie lo dimostrano) non si può dire altrettanto sulla ricerca/sviluppo per tecnologie accessorie quali physx cuda 3dvision supporto sdk ecc ecc.
Questa è la marcia in più di nvidia, quella di ati è il prezzo più competitivo:
The Way It's Meant To Be Played = nvidia sostiene costi e prende parte attivamente allo sviluppo = il consumatore (noi) paghiamo di più queste schede per ottenere il massimo da questo genere di gioco.
Vi sembra ci sia qualcosa di sbagliato in questo ? Certo, se si continua così, si rischia di dover avere una scheda ati e una nvidia sul pc.
Ma non è la stessa cosa delle console ps3 e xbox360 ? ci sono giochi per entrambe, ci sono giochi in esclusiva per ovvie ragioni di mercato (mazzette escluso, ovvio).
premetto che non so se il gioco giri in dx9 o in dx10 o ci sia la possibilità di scelta tra le due.
DUNQUE: se è vero che l'unreal engine in dx10 supporta nativamente l'aa allora secondo me dovrebbe esserne permessa l'attivazione anche con schede ati QUALORA STIA GIRANDO IN DX10.
MA se in dx9 l'implementazione in-game (cioè nel motore del gioco e attivabile dal menù del gioco) è frutto della collaborazione di nvidia come sostiene allora è giusto che venga proposta solo alle schede invidia, ragazzi non è mica una onlus nvidia, come ha detto qualcuno nessuno vuole che a fine giornata ci vengano portati via i meriti del lavoro svolto.
POI non ha senso quando dite "ma nella demo si attivava l'AA facendogli vedere una scheda ati come nvidia per cui è un'ostruzione", (è ovvio che così bypassiamo il sistema, ma ciò non toglie che l'AA in-game SIA STATO SVILUPPATO DA NVIDIA CON FONDI DI NVIDIA) qui perdete il punto di vista delle cose, perchè dovete pensare che senza il LAVORO di nvidia il gioco ve lo beccavate TUTTI senza AA attivabile in-game, insomma dovete pensarlo come un surplus frutto del lavoro di nvidia..OOOOOK qui le supposizioni si sprecano, so anch'io che forse gli sviluppatori avrebbero comunque provveduto loro stessi a implementarlo per tutte le schede e capisco che si possa dire che nvidia abbia pagato per escludere le ati ma queste sono tutte supposizioni. Alla luce di quello che sappiamo e che ci viene detto non c'è nulla di scorretto nel comportamento di nvidia...ripeto alla luce di quello che sappiamo...nessuno vietava ad ati di contattare eidos in fase di sviluppo, informarsi sulle feature del gioco, venire a conoscenza dell'assenza dell'AA nativo e dire "vogliamo l'AA in-game vi mandiamo qualcuno se c'è bisogno"...ci ha pensato nvidia, è giusto che si prenda l'esclusiva per me..
correggetemi se sbaglio riguardo a dx 9 e 10 e tutto il resto
TENGO A PRECISARE CHE QUESTE SONO LE MIE CONSIDERAZIONI IN BASE ESCLUSIVAMENTE A CIO' CHE CI VIENE DETTO, SENZA SUPPOSIZIONI, NULLA IMPEDISCE CHE DOMANI SALTI FUORI CHE NVIDIA HA PAGATO PER IMPEDIRE CHE GLI SVILUPPATORI PERMETESSERO L'IMPLEMENTAZIONE ANCHE PER ATI..MA SE NOI PENSIAMO CHE IL GIOCO PER GLI SVILUPPATORI ERA BELLO CHE PRONTO E FINITO SENZA AA NON C'E' NULLA DI IRREGOLARE
facciamo un'edizione del TG per i non udenti :D
Ricapitoliamo:
l'UE3 è nato dx9 e come tale non supporterebbe il MSAA. Questo significa, udite bene, che, con una path dx9 non lo supporta e che i tecnici di nVidia, il mago otelma (pardon, il "divino otelma"), l'incredibile hulk, sbirulino e luke skywalker si possono sbattere quanto vogliono ma non avranno mai il MSAA su HARDWARE DX9.
Con l'HARDWARE DX10 le cose stanno diversamente, perchè ci sono due metodi STANDARD per implementare il MSAA con l'UE3 e con tutti gli altri engine che usano deferred rendering (standard, non nVidia mode).
Con l'HARDWARE DX10.1 E DX11 ce n'è un terzo, migliore degli altri 2 che fa andare le vga un 20-25% in più con MSAA 4x attivo. Questa modalità non è supportata da hardware dx10 o precedente (che non supporta neppure le altre).
Ora, mi risulta che la questione nasca intorno all'implementazione del MSAA con HW dx10 (non mi risulta che lo si abbia con la serie 7 ad esempio, ma sono pronto ad essere smentito :D ), quindi la tesi che l'UE3 è DX9 e non supporta MSAA e che questo è possibile grazie a nVidia, equivalente alla tesi: nVidia ha inventato il MSAA con l'UE3 è una cazzata madornale perchè parliamo di utilizzo con HW dx10, ovvero perfettamente in grado di aggirare l'ostacolo posto dall'impossibilità di salvare le geometrie del frame prima della rimozione delle superfici nascoste. Sarebbe invece corretta (l'affermazione che nVidia ha inventato il MSAA con UE3) se riuscissero a farlo andare sulla serie 7 (ma li sfido a far funzionare qualcosa di diverso da semplice blurring).
Ora, capisco che continui lavaggi del cervello su quanto è brava nVidia e quanto segue gli sviluppatori e quante cose inventa, possono produrre risultati disastrosi ma, di fatto, esistono giochi con l'UE3 che fanno tranquillamente uso di MSAA come e meglio di BAA e su tutti i chip dx10 o superiori. Due tra tutti, bioshock e assassin's creed dove, addirittura, con la patch 1.01 si era tentato di implementare il MRT su z-buffer col risultato che le 4850 (proprio 50 e non 70) con MSAA 4x attivo erano più veloci delle 280 GTX fino a risoluzioni con cui non erano frame buffer limited.
La patch è stata inspiegabilmente tolta dopo pochissimo tempo con la motivazione che creava artefatti grafici con vga dx10.
Quindi, non solo è possibile far funzionare il MSAA con l'UE3 su ATi, ma è possibile anche avere miglioramenti prestazionali impossibili con nVidia.
Il tutto usando path STANDARD :read:
Alla luce dei fatti, questa affermazione
Both of these claims are NOT true. Batman is based on Unreal Engine 3, which does not natively support anti-aliasing
è palesemente falsa, in quanto sarebbe dovuta suonare così: l'UE3 nativamente non supporta il MSAA su hardware dx9 o precedente.
psychok9
02-10-2009, 00:06
Incornicio il tuo post, complimenti yossarian :ave:
Ora ORDINO a tutti i fanboy (o funboy come dice qualcuno :D) nVidia una lettura al giorno obbligatoria del tuo post :D
Io ho una fantastica nVidia 8800 GT@AMP, ma questa mossa di nVidia (e di Eidos non dimentichiamolo) mi ha fatto letteralmente schifo! :mad:
E spero tanto che i boccaloni si sveglino... anche perché altrimenti in futuro ne vedremo delle brutte :(
Libertà di scelta! Olé! :D
Mi fa tristezza il fatto, che un esperto in materia com'è yossarian, venga visto da molti come il messia, pur facendo la cosa più normale del mondo, ovvero mostrare i fatti con obiettività. Questo è un esempio lampante del mondo di oggi, dove tutti sono artisti, giornalisti, esperti... e quelli veri si contano sulle dita di una mano. Mi congratulo con yossarian per la sua integrità e per non essere diventato uno della massa. E' il motivo principale delle mie innumerevoli visite su HWU. Grazie!
ghiltanas
02-10-2009, 01:07
Incornicio il tuo post, complimenti yossarian :ave:
Ora ORDINO a tutti i fanboy (o funboy come dice qualcuno :D) nVidia una lettura al giorno obbligatoria del tuo post :D
Io ho una fantastica nVidia 8800 GT@AMP, ma questa mossa di nVidia (e di Eidos non dimentichiamolo) mi ha fatto letteralmente schifo! :mad:
E spero tanto che i boccaloni si sveglino... anche perché altrimenti in futuro ne vedremo delle brutte :(
Libertà di scelta! Olé! :D
ma infatti io nn capisco, anch'io ho una 8800gt che reputo una signora scheda, però se nvidia compie azioni poco pulite nn è che devo difenderla ad ogni costo...neanche mi pagasse :mbe:
Ma quante stupidaggini, la certezza la si può avere solo se qualcuno di noi fosse stato partecipe dello sviluppo ed avesse visto con i suoi occhi la tresca. Per un giudice qui ci sarebbero prove sufficienti per condannare Nvidia, visto che chiunque ne capisca qualcosa tecnicamente sa che l'AA é sviluppato sul path dx10, e questo vale per Nvidia e per ATI. Non c'è bisogno di introdurre qualcosa nel codice per abilitarlo sulle ATI, c'è bisogno di introdurre qualcosa per disabilitarlo, lo vuoi capire o no?
Non c'è peggior sordo di chi non vuol sentire.
Se in un processo ci vogliono le prove, queste sono prove, non opinioni.
Non sono prove, perchè quand'anche nel codice ci fosse un path che disabilità l'AA con le ATI esplicitamente, non si tratta di nessun reato, te lo ficchi nella testa o no? QUante volte devo ripetere che il "reato" è la mazzetta e non la prova tecnica? Io come produttore posso fare quello che voglio se non prendo mazzette, pure fare un gioco che su nVidia è 3D e su ATI va in 2D. Lo capisci o no? Ha forse ATI stipulato un contratto pagato che richiedeva la perentoria attivazione dell'AA sulle sue schede? No. Allora il reato dove sta dimostrato? La questione non è il codice, la questione è lanciare accuse senza prove. Puoi parlare di codice quanto ti pare che se non hai le prove delle mazzette tutti questi discorsi sono solo polvere.
Mi domando allora come mai ATI che lancia accuse cosi pesanti non gli faccia veramente causa. Forse perchè sono quasi sicuri di non poter dimostrare niente?
Assolutamente no. L´esempio che fai é fuorviante, perché da un lato si tratta di schede che non hanno la potenza necessaria per far girare il gioco al dato livello di dettaglio, dall´altra ci sono schede con possibilitá identiche ma volutamente si é scelto di "castrarne" una. Che sia una cosa voluta é chiaro, perché le schede fanno girare il medesimo codice. Ti ricordo che le pratiche anticompetitive consistono proprio in questo.
Pratica anticompetitiva è quando dimostri che ci hanno preso dei soldi per sfavorire il concorrente. Senza la dimostrazione dei soldi rimane solo una scelta discutibile. Io come produttore e realizzatore tecnico posso scegliere come implementare una mia cosa, ci mancherebbe. Che la cosa sia voluta è chiaro, che la scelta sia discutibile pure, l'abbiamo capito. Quello che non capisco è dove dovrebbe stare "il reato". Ma soprattutto, anche se ci fosse un pagamento tramite il programma TWIMTBP, sarebbe comunque un reato?
Allora dovremmo far chiudere tutte le software house che pagano per le esclusive?
Poi vorrei capire perchè tutti ce l'hanno con nVidia per la presunta mazzetta e nessuno dice niente di Rocksteady, che presa o non presa sta mazzetta, la stupidaggine alla fine l'ha fatta lei. Forse qualcuno dimentica quando ATI e Valve si accordarono per far partire Half Life 2 su nVidia 5800 con path DirectX8? Sono scattate multe, antitrust, ecc. ecc.? A me non risulta.
Al di la della colpevolezza o meno, nVidia una cosa giusta l'ha detta: ATI si deve rimboccare le maniche, l'essere avanti sull'hardware in questo mercato non basta piu'. Mi è piaciuta la collaborazione annunciata con Bullet, ma devono lavorare molto. Dichiarazioni come quella di Erwin Coumans fanno sorridere (e a ATI dovrebbero far arrossire piu' del loro stesso PCB):
"L’accelerazione ATI Bullet attraverso OpenCL funzionerà con qualsiasi driver che la supporti, noi usiamo schede GeForce di NVIDIA per portare avanti lo sviluppo e facciamo anche uso del loro SDC OpenCL, penso siano un buon partner tecnologico."
Se chiedete a me, io la multa la farei proprio a Batman. :asd:
b4st0n3r
02-10-2009, 08:07
Fosse cosi facile dimostrare le cose. Ti ripeto il prosciutto ce l'hai tu. Se il gioco attiva l'AA in presenza di nVidia è ovvio che cambiando ID alla scheda esso si attiva. Ma ancora, significa forse essere stati pagati? Eppure mi sembra un concetto facile.
E' come dire che io mi scordo di pagare il caffè al bar e vengo considerato ladro. Sicuramente le motivazioni tecniche per non attivare l'AA su ATI non ci sono. Ma questo implicherebbe essere stati pagati, implicherebbe un sabotaggio o qualsiasi altra implicazione?
Supponiamo che io sono un dipendente rocksteady a cui mi sta sulle balle ATI. Lo disattivo esplicitamente per antipatia. Ho diritto di farlo? O devo essere accusato di prendere mazzette? Questo è il discorso.
Non c'è niente per dimostrare le accuse che fate. Tutte tecnicamente valide ma a livello legale di validità nulla.
ma che cazzo stai a di? (cit.):D
come fai tu a non capire certe cose.:doh: Ora un dipendente rocksteady si mette a disabilitare l'antialiasing per antipatia! Come minimo verrebbe licenziato anche perchè non è che la swhouse ci abbia fatto una gran figura. Secodno me ha subito una bella botta all'immagine(=giochi venduti=meno soldi)
leoneazzurro
02-10-2009, 08:28
Pratica anticompetitiva non è solo "prendere mazzette", altrimenti Microsoft e Intel non avrebbero preso le multe che hanno preso. Ad esempio una delle ragioni per cui Microsoft ha preso multe è che "non forniva la necessaria documentazione" agli sviluppatori di terze parti per lavorare efficacemente con i sistemi operativi della casa di Redmond.
Ragazzi, questa è una strada pericolosa per il gioco su PC. A quando troveremo un publisher che disabilita il supporto DX11 alle schede Nvidia perchè a detta sua "è buggato" o che abilita la tessellazione su una singola scheda, o che "taglia" features grafiche a seconda dello sviluppatore e della sua partnership con l'una o con l'altra casa?
Poi siamo d'accordo che la responsabilità ce l'ha pure lo svilupppatore, ed infatti sarebbe il caso che queste "iniziative" venissero stigmatizzate proprio dagli sviluppatori stessi (anche se ai publisher fanno comodo).
Bastoner
02-10-2009, 08:43
Non sono prove, perchè quand'anche nel codice ci fosse un path che disabilità l'AA con le ATI esplicitamente, non si tratta di nessun reato, te lo ficchi nella testa o no? QUante volte devo ripetere che il "reato" è la mazzetta e non la prova tecnica? Io come produttore posso fare quello che voglio se non prendo mazzette, pure fare un gioco che su nVidia è 3D e su ATI va in 2D. Lo capisci o no? Ha forse ATI stipulato un contratto pagato che richiedeva la perentoria attivazione dell'AA sulle sue schede? No. Allora il reato dove sta dimostrato? La questione non è il codice, la questione è lanciare accuse senza prove. Puoi parlare di codice quanto ti pare che se non hai le prove delle mazzette tutti questi discorsi sono solo polvere.
Mi domando allora come mai ATI che lancia accuse cosi pesanti non gli faccia veramente causa. Forse perchè sono quasi sicuri di non poter dimostrare niente?
Ma che stai dicendo????? :rotfl: :rotfl: :rotfl:
Bastoner
02-10-2009, 08:44
ma infatti io nn capisco, anch'io ho una 8800gt che reputo una signora scheda, però se nvidia compie azioni poco pulite nn è che devo difenderla ad ogni costo...neanche mi pagasse :mbe:
Allora qualcuno é pagato qui dentro :asd:
b4st0n3r
02-10-2009, 08:48
Pratica anticompetitiva non è solo "prendere mazzette", altrimenti Microsoft e Intel non avrebbero preso le multe che hanno preso. Ad esempio una delle ragioni per cui Microsoft ha preso multe è che "non forniva la necessaria documentazione" agli sviluppatori di terze parti per lavorare efficacemente con i sistemi operativi della casa di Redmond.
Ragazzi, questa è una strada pericolosa per il gioco su PC. A quando troveremo un publisher che disabilita il supporto DX11 alle schede Nvidia perchè a detta sua "è buggato" o che abilita la tessellazione su una singola scheda, o che "taglia" features grafiche a seconda dello sviluppatore e della sua partnership con l'una o con l'altra casa?
Poi siamo d'accordo che la responsabilità ce l'ha pure lo svilupppatore, ed infatti sarebbe il caso che queste "iniziative" venissero stigmatizzate proprio dagli sviluppatori stessi (anche se ai publisher fanno comodo).
*
Sono stato tentato dallo scrivere in questo 3D ancora una volta.....ma non credo abbia alcuna utilità relezionarsi con utenti che difendono a spada tratta un comportamento che qualsivoglia individuo con un minimo di acume reputerebbe disdicevole....
Agli amici che si stanno battendo per far comprendere quanto sia pericoloso il comportamento Nvidia cito quanto segue ..
"Non discutete con gli idioti. La gente potrebbe non notare la differenza...."
"Non discutete mai con gli idioti…ti trascinano al loro livello e ti batteno con l’esperienza...."
Arthur Bloch
capitan_crasy
02-10-2009, 10:35
facciamo un'edizione del TG per i non udenti :D
Ricapitoliamo:
l'UE3 è nato dx9 e come tale non supporterebbe il MSAA. Questo significa, udite bene, che, con una path dx9 non lo supporta e che i tecnici di nVidia, il mago otelma (pardon, il "divino otelma"), l'incredibile hulk, sbirulino e luke skywalker si possono sbattere quanto vogliono ma non avranno mai il MSAA su HARDWARE DX9.
Con l'HARDWARE DX10 le cose stanno diversamente, perchè ci sono due metodi STANDARD per implementare il MSAA con l'UE3 e con tutti gli altri engine che usano deferred rendering (standard, non nVidia mode).
Con l'HARDWARE DX10.1 E DX11 ce n'è un terzo, migliore degli altri 2 che fa andare le vga un 20-25% in più con MSAA 4x attivo. Questa modalità non è supportata da hardware dx10 o precedente (che non supporta neppure le altre).
Ora, mi risulta che la questione nasca intorno all'implementazione del MSAA con HW dx10 (non mi risulta che lo si abbia con la serie 7 ad esempio, ma sono pronto ad essere smentito :D ), quindi la tesi che l'UE3 è DX9 e non supporta MSAA e che questo è possibile grazie a nVidia, equivalente alla tesi: nVidia ha inventato il MSAA con l'UE3 è una cazzata madornale perchè parliamo di utilizzo con HW dx10, ovvero perfettamente in grado di aggirare l'ostacolo posto dall'impossibilità di salvare le geometrie del frame prima della rimozione delle superfici nascoste. Sarebbe invece corretta (l'affermazione che nVidia ha inventato il MSAA con UE3) se riuscissero a farlo andare sulla serie 7 (ma li sfido a far funzionare qualcosa di diverso da semplice blurring).
Ora, capisco che continui lavaggi del cervello su quanto è brava nVidia e quanto segue gli sviluppatori e quante cose inventa, possono produrre risultati disastrosi ma, di fatto, esistono giochi con l'UE3 che fanno tranquillamente uso di MSAA come e meglio di BAA e su tutti i chip dx10 o superiori. Due tra tutti, bioshock e assassin's creed dove, addirittura, con la patch 1.01 si era tentato di implementare il MRT su z-buffer col risultato che le 4850 (proprio 50 e non 70) con MSAA 4x attivo erano più veloci delle 280 GTX fino a risoluzioni con cui non erano frame buffer limited.
La patch è stata inspiegabilmente tolta dopo pochissimo tempo con la motivazione che creava artefatti grafici con vga dx10.
Quindi, non solo è possibile far funzionare il MSAA con l'UE3 su ATi, ma è possibile anche avere miglioramenti prestazionali impossibili con nVidia.
Il tutto usando path STANDARD :read:
Alla luce dei fatti, questa affermazione
è palesemente falsa, in quanto sarebbe dovuta suonare così: l'UE3 nativamente non supporta il MSAA su hardware dx9 o precedente.
http://www.pctunerup.com/up//results/_200910/20091002113530_ruleztrometro000.gif
g.luca86x
02-10-2009, 11:02
http://www.pctunerup.com/up//results/_200910/20091002113530_ruleztrometro000.gif
viva viva l'ipnorospo! :asd:
http://i35.tinypic.com/x0xshf.jpg
MiKeLezZ
02-10-2009, 12:07
Vediamo di fare un post ordinato...
CASO ASSASSIN'S CREED
Sul forum di http://www.framebuffer.com.br/forum/ fu effettuata una comparativa che non so sia stata eliminata o abbia cambiato indirizzo, ma di cui si può trovare una versione "toned down" a questo altro indirizzo: http://www.rage3d.com/articles/assassinscreed-addendum/
Comprovati da screen, questi erano i problemi riscontrati :
a) In DX10.1 con l'HDR tutto appare più luminoso del normale (DX10), con alcuni muri che proprio accecano
b) In DX10.1 non si può abilitare, causa bug, il adaptive/transparent anti-aliasing, con conseguenti pixelloni per lo schermo
c) In DX10.1 l'anisotropic-filtering non si può modificare ed è fisso a 8X
d) In DX10.1 attivando l'anti-aliasing scompaiono le cascate di sabbia dai templi
e) In DX10.1 le vetrate, invece che illuminate dal BLOOM, stanno in una misteriosa penombra
f) In DX10.1, saltuariamente, nelle scenette di inframezzo, diventa tutto sfuocato
Cosa dissero gli sviluppatori all'epoca?
"Dobbiamo rimuovere il supporto DX10.1 perchè la nostra implementazione non era stata fatta in modo corretto e non vogliamo che gli utenti con Vista e DX10.1 abbiano una cattiva esperienza di gioco.
Le maggiori performance che vedete in DX10.1 sono causate (oltre all'ovvio miglioramento dato dalle nuove tecniche n.d.e.) dal fatto gli effetti di post-processing non vengano correttamente elaborati."
Il che è stato confermato.
Non solo.
http://techreport.com/discussions.x/14707
Ken Brown portavoce NVIDIA ha confermato che NON VI E' STATO ALCUNO SCAMBIO DI DANARO fra UBISOFT e NVIDIA (al contrario invece di quanto ha fatto ATI con DIRT 2, per dirne una, dove sono girati 1M di $) e la cooperazione è semplicemente uno scambio di favori in ambito di marketing.
D'altronde che il gioco funzioni bene e senza bug è un pregio anche per NVIDIA, non solo per lo sviluppatore.
Infatti il TWIMTBP ha proprio come fine l'aumentare la qualità visiva, l'aumentare la compatibilità con schede video, le performance, e la visibilità del gioco.
Ken Brown ha confermato che NVIDIA NON ha costretto UBISOFT alla rimozione delle DX10.1 e che tale decisione è stata presa dagli sviluppatori, esattamente per le motivazione scritte sopra.
Direi argomento chiuso, chi vuole si salvi il link al commento e lo riutilizzi alla bisogna.
CASO BATMAN E UNREAL ENGINE 3
BATMAN è un gioco nato DX9. Sviluppato su hardware DX9. Portato su PC in DX9. Spero questo sia chiaro.
BATMAN utilizza Unreal Engine 3. Unreal Engine 3 E' UFFICIALMENTE INCOMPATIBILE CON IL MSAA in DX9.
Questo perchè, come già detto, il motore utilizza, fra le altre, una tecnica particolare chiamata deferred shading (di cui, attenzione, non ci deve importare assolutamente nulla, a parte che tratta gli effetti particellari, le ombre e le luci dinamiche) di levatura superiore rispetto tali API.
Il supporto del MSAA non gli viene fornito neppure in DX10 perchè questa è una scelta del singolo programmatore, che dipenderà dal target di schede su cui verrà fatto girare e le sue preferenze in ambito di programmazione.
Quando compri la licenza del Unreal Engine 3, nei tools correlati NON c'è nulla ti implementi il MSAA, e d'altronde non è neppure una funzionalità pubblicizzata: http://www.unrealtechnology.com/features.php?ref=rendering
Vorrei ricordare che UE3 è stato rilasciato nel 2006 e sviluppato su principalmente schede GeForce 7xx0 (assolutamente solo DX9) e che il supporto DX10 è posticcio. L'intervista di Tim che ho visto linkata è relativa solo a una IPOTESI di FUNZIONAMENTO (e non a una effettiva presenza nei tools), in quanto all'epoca (2006 - 1 anno prima uscisse Vista e relative DX10) c'era curiosità di sapere se HDR e AA potevano andare a braccetto.
Ogni sviluppatore è quindi libero di:
a) Non implementare MSAA (e forse vi dimenticate che fino all'anno scorso nessun gioco UE3 ce l'aveva)
b) Implementarlo più o meno efficacemente e seconda una o più strade, influenzati da proprie conoscenze sul deferred shading, API MS, o altri tipi di programmazione
Nel caso b) si aprono nuove scelte:
a) si implementa un codice specifico per un "custom AA" (KillZone)
b) si rimuove parte del deferred rendering del Unreal Engine a favore di un diverso motore per gli effetti particellari, e quindi si rende disponibile il MSAA anche in DX9
c) il MSAA si calcola prima degli effetti di post-processing del deferred rendering (ombre, effetti particellari, nebbia), e quindi solo su una parte della grafica (Gears of Wars)
d) si usa una delle modalità definite nelle DX10, DX10.1, DX11, oppure una vendor-specific (NVAPI)
e) si calcola brutalmente tramite SS su qualsiasi cosa, con mostruosi hit prestazionali e possibili corruzioni grafiche (control panel)
Detto questo,
E' ora importante sottolineare come in ogni caso questo supporto non scenda dal cielo.
Niente è gratis.
Poco è già pronto.
a,b,c,d,e sono ordinate dalla più complessa alla meno, ma tutte richiedono codice per funzionare, chi nella sezione del motore, chi in una sottosezione, chi nei driver. Oltre al codice, lavoro. Debugging, Testing, Riscrittura. E' difficile. :-)
Quello che è successo è molto semplice:
EIDOS aveva intenzione di rilasciare il gioco senza supporto AA.
NVIDIA l'ha bloccata sulle prime fasi del porting e si è offerta non solo di inserirlo, ma di aiutarla nel debugging, betatesting, nell'implementazione degli effetti Physx e di fornirle anche marketing gratuito sotto forma di pubblicità, visibilità, coupon. Questo è quando fa il programma TWIMTBP. Nessuna persona sana di mente rifiuterebbe ed è il motivo per cui vedete così tanti titoli TWIMTBP.
In cambio ha solo richiesto che questo suo lavoro non venisse immeritatamente sfruttato dalla rivale.
NVIDIA NON HA TOLTO LA FUNZIONALITA' DI AA DAL GIOCO.
NVIDIA HA AGGIUNTO LA FUNZIONALITA' DI AA PER LE SUE SCHEDE.
Ora è chiaro che la patch per il supporto AA non sia nulla di magico. Richiede espressamente hardware DX10 e quindi rientrerà nella nostra opzione d) e come tale non vi sono impedimenti fisici per cui anche le schede ATI se ne avvantaggino, essendo dotate di pari funzionalità DX10 (anzi, superiori).
Il punto è che è stata fatta con programmi NVIDIA grazie a programmatori NVIDIA e specificatamente per schede NVIDIA.
Ecco il perchè del blocco.
SITUAZIONE ATTUALE
Dopo l'insurrezione dei forum, lo sviluppatore del gioco e la stessa EIDOS si è trovata fra due fuochi. Ha quindi molto cordialmente chiesto a ATI se gli fornisse anche lei un supporto tale per poter identicamente abilitare l'AA. Cosa che avverebbe tramite patch di gioco.
Al momento, 1/10/09 si sta ancora aspettando la risposta ATI.
I casi ora sono due:
1) ATI fornisce, esce patch, tutti contenti, la storia finisce nel dimenticatoio
2) ATI non fornisce, non uscirà mai una patch, ATI fomenterà nei forum la "cattiva NVIDIA", si creerà un mare di pubblicità negativa e la vicenda rimarrà per sempre vista come una onta imperdonabile, al pari di Assassin's Creed e identicamente senza motivi validi
Questo è Marketing e questo è Giocare Anche Più Sporco
MARKETING
Vediamo cosa è successo fra le due aziende
ATI:
Il capo ufficio marketing esprime un parere personale, in alcun modo avallato ufficialmente da ATI, su un blog
NVIDIA:
L'azienda firma una dichiarazione ufficiale di piena responsabilità che smentisce tutto quanto ipotizzato e non lascia questioni irrisolte
Rileggiamo assieme:
"Batman è basato sul Unreal Engine 3, il quale NON SUPPORTA IN MODO NATIVO la funzionalità di Anti-Aliasing.
Abbiamo LAVORATO strettamente con EIDOS per aggiungere le funzionalità di AA e QA per la nostra clientela GeForce.
Niente e nessuno ha impedito a AMD di fare lo stesso. I giochi con la dicitura "The Way It’s Meant to be Played" NON sono esclusive NVIDIA.
AMD può identicamente contattare gli sviluppatori e LAVORARE a loro fianco.
Siamo ORGOGLIOSI del LAVORO riusciamo a fare con il programma "The Way It’s Meant to be Played".
LAVORIAMO DURAMENTE per portare funzionalità che migliorino radicalmente l'esperienza di gioco, come PhysX, AA, e Stereoscopia, e così come per Batman, anche per altri giochi.
Cosa c'è da aggiungere? Cosa non è chiaro?
Se c'era il minimo azzardo di illecito AMD sarebbe andata in tribunale, così come ha fatto come Intel. Ne sarebbe scoppiato un caso mediatico sicuramente più interessante ed incisivo di quello di ora.
In questo caso però l'interesse di AMD è ben diverso e i suoi movimento avvengono su un territorio in penombra.
Una istanza in tribunale vedrebbe inoltre una risposta per diffamazione e forse l'esito non sarebbe tanto positivo per ATI.
Non solo, rileggiamo la dichiarazione del SENIOR MANAGER DEL MARKETING DI ATI (E PREGO RILEGGERE BENE LA QUALIFICA):
"we submitted a list of issues that we discovered during the games’ development. These issues include inefficiencies in how the game engine worked with our hardware in addition to real bugs, etc.. We have sent THIS LIST to the developer for review.. Unfortunately you will be unable to get a fair playing experience with our hardware until the developer releases a patch TO ADDRESSO AND FIX OUR reported ISSUES.
ATI SI LIMITA A FARE LA LISTINA DEI PROBLEMI RISCONTRATI CON IL GIOCO E I SUOI ACCELERATORI GRAFICI E AD INOLTRARLA PER EMAIL AGLI SVILUPPATORI, SPERANDO CHE VENGANO FIXATI
Avete letto bene, ATI si limita a rilasciare il feedback sui bug, come potrebbe farlo un end-user qualunque... e addirittura a piangere se il motore di gioco non sfrutta adeguatamente le proprie schede, quando evidentemente dovrebbe correggere ciò con i suoi driver data l'architettura fortemente dipendente da loro (molto più di quella NVIDIA)
NVIDIA? Si fa in prima persona contattando gli sviluppatori, fornendogli esempi già pronti per l'uso, scrivendogli addirittura il codice, e spingendoli a fornire funzionalità aggiuntive. Siamo a livelli che addirittura il supporto DX10 a Unreal Tournament 3 è arrivato assieme al programma TWIMTBP di NVIDIA.
Le vedete o no le differenze? Credete ancora nel mondo bianco e nero?
CASO MAGO OTELMA E I SUPEREROI MARVEL
E' stata sollevata una questione sull'esistenza di personaggi mitologici e sovraumani inerenti Universi Paralleli, ambientazioni di Star Wars e come ultimo, ma non per ultimo, anfratti della TV.
Confermo. Si sono tutti riuniti nella software house Guerrilla.
Perchè hanno implementato il MSAA su Unreal Engine 3 e hardware DX9 (la derivata 7800 montata sulla PS3), ovviamente facendosi un culo a paiolo:
http://members.gamedev.net/skyork/pdfs/DeferredRenderinginKillzone.pdf
yossarian
02-10-2009, 12:22
Vediamo di fare un post ordinato...
CASO ASSASSIN'S CREED
Sul forum di http://www.framebuffer.com.br/forum/ fu effettuata una comparativa che non so sia stata eliminata o abbia cambiato indirizzo, ma di cui si può trovare una versione "toned down" a questo altro indirizzo: http://www.rage3d.com/articles/assassinscreed-addendum/
Comprovati da screen, questi erano i problemi riscontrati :
a) In DX10.1 con l'HDR tutto appare più luminoso del normale (DX10), con alcuni muri che proprio accecano
b) In DX10.1 non si può abilitare, causa bug, il adaptive/transparent anti-aliasing, con conseguenti pixelloni per lo schermo
c) In DX10.1 l'anisotropic-filtering non si può modificare ed è fisso a 8X
d) In DX10.1 attivando l'anti-aliasing scompaiono le cascate di sabbia dai templi
e) In DX10.1 le vetrate, invece che illuminate dal BLOOM, stanno in una misteriosa penombra
f) In DX10.1, saltuariamente, nelle scenette di inframezzo, diventa tutto sfuocato
Cosa dissero gli sviluppatori all'epoca?
"Dobbiamo rimuovere il supporto DX10.1 perchè la nostra implementazione non era stata fatta in modo corretto e non vogliamo che gli utenti con Vista e DX10.1 abbiano una cattiva esperienza di gioco.
Le maggiori performance che vedete in DX10.1 sono causate (oltre all'ovvio miglioramento dato dalle nuove tecniche n.d.e.) dal fatto gli effetti di post-processing non vengano correttamente elaborati."
Il che è stato confermato.
Non solo.
http://techreport.com/discussions.x/14707
Ken Brown portavoce NVIDIA ha confermato che NON VI E' STATO ALCUNO SCAMBIO DI DANARO fra UBISOFT e NVIDIA (al contrario invece di quanto ha fatto ATI con DIRT 2, per dirne una, dove sono girati 1M di $) e la cooperazione è semplicemente uno scambio di favori in ambito di marketing.
D'altronde che il gioco funzioni bene e senza bug è un pregio anche per NVIDIA, non solo per lo sviluppatore.
Infatti il TWIMTBP ha proprio come fine l'aumentare la qualità visiva, l'aumentare la compatibilità con schede video, le performance, e la visibilità del gioco.
Ken Brown ha confermato che NVIDIA NON ha costretto UBISOFT alla rimozione delle DX10.1 e che tale decisione è stata presa dagli sviluppatori, esattamente per le motivazione scritte sopra.
Direi argomento chiuso, chi vuole si salvi il link al commento e lo riutilizzi alla bisogna.
caso memooria corta? :D
http://www.hwupgrade.it/forum/showthread.php?t=1875557&page=9
post n°173 :read:
eh, si, argomento chiuso; infatti la patch non è stata più riproposta corretta da qualche picoclo bug evidento soprattutto con HW dx10 (a detta di ubisoft). Chissà perchè :D
CASO BATMAN E UNREAL ENGINE 3
BATMAN è un gioco nato DX9. Sviluppato su hardware DX9. Portato su PC in DX9. Spero questo sia chiaro.
BATMAN utilizza Unreal Engine 3. Unreal Engine 3 E' UFFICIALMENTE INCOMPATIBILE CON IL MSAA in DX9.
Questo perchè, come già detto, il motore utilizza, fra le altre, una tecnica particolare chiamata deferred shading (di cui, attenzione, non ci deve importare assolutamente nulla, a parte che tratta gli effetti particellari, le ombre e le luci dinamiche) di levatura superiore rispetto tali API.
Il supporto del MSAA non gli viene fornito neppure in DX10 perchè questa è una scelta del singolo programmatore, che dipenderà dal target di schede su cui verrà fatto girare e le sue preferenze in ambito di programmazione.
Quando compri la licenza del Unreal Engine 3, nei tools correlati NON c'è nulla ti implementi il MSAA, e d'altronde non è neppure una funzionalità pubblicizzata: http://www.unrealtechnology.com/features.php?ref=rendering
Vorrei ricordare che UE3 è stato rilasciato nel 2006 e sviluppato su principalmente schede GeForce 7xx0 (assolutamente solo DX9) e che il supporto DX10 è posticcio. L'intervista di Tim che ho visto linkata è relativa solo a una IPOTESI di FUNZIONAMENTO (e non a una effettiva presenza nei tools), in quanto all'epoca (2006 - 1 anno prima uscisse Vista e relative DX10) c'era curiosità di sapere se HDR e AA potevano andare a braccetto.
Ogni sviluppatore è quindi libero di:
a) Non implementare MSAA (e forse vi dimenticate che fino all'anno scorso nessun gioco UE3 ce l'aveva)
b) Implementarlo più o meno efficacemente e seconda una o più strade, influenzati da proprie conoscenze sul deferred shading, API MS, o altri tipi di programmazione
Nel caso b) si aprono nuove scelte:
a) si implementa un codice specifico per un "custom AA" (KillZone)
b) si rimuove parte del deferred rendering del Unreal Engine a favore di un diverso motore per gli effetti particellari, e quindi si rende disponibile il MSAA anche in DX9
c) il MSAA si calcola prima degli effetti di post-processing del deferred rendering (ombre, effetti particellari, nebbia), e quindi solo su una parte della grafica (Gears of Wars)
d) si usa una delle modalità definite nelle DX10, DX10.1, DX11, oppure una vendor-specific (NVAPI)
e) si calcola brutalmente tramite SS su qualsiasi cosa, con mostruosi hit prestazionali e possibili corruzioni grafiche (control panel)
Detto questo,
E' ora importante sottolineare come in ogni caso questo supporto non scenda dal cielo.
Niente è gratis.
Poco è già pronto.
a,b,c,d,e sono ordinate dalla più complessa alla meno, ma tutte richiedono codice per funzionare, chi nella sezione del motore, chi in una sottosezione, chi nei driver. Oltre al codice, lavoro. Debugging, Testing, Riscrittura. E' difficile. :-)
Quello che è successo è molto semplice:
EIDOS aveva intenzione di rilasciare il gioco senza supporto AA.
NVIDIA l'ha bloccata sulle prime fasi del porting e si è offerta non solo di inserirlo, ma di aiutarla nel debugging, betatesting, nell'implementazione degli effetti Physx e di fornirle anche marketing gratuito sotto forma di pubblicità, visibilità, coupon. Questo è quando fa il programma TWIMTBP. Nessuna persona sana di mente rifiuterebbe ed è il motivo per cui vedete così tanti titoli TWIMTBP.
In cambio ha solo richiesto che questo suo lavoro non venisse immeritatamente sfruttato dalla rivale.
NVIDIA NON HA TOLTO LA FUNZIONALITA' DI AA DAL GIOCO.
NVIDIA HA AGGIUNTO LA FUNZIONALITA' DI AA PER LE SUE SCHEDE.
Ora è chiaro che la patch per il supporto AA non sia nulla di magico. Richiede espressamente hardware DX10 e quindi rientrerà nella nostra opzione d) e come tale non vi sono impedimenti fisici per cui anche le schede ATI se ne avvantaggino, essendo dotate di pari funzionalità DX10 (anzi, superiori).
Il punto è che è stata fatta con programmi NVIDIA grazie a programmatori NVIDIA e specificatamente per schede NVIDIA.
Ecco il perchè del blocco.
SITUAZIONE ATTUALE
Dopo l'insurrezione dei forum, lo sviluppatore del gioco e la stessa EIDOS si è trovata fra due fuochi. Ha quindi molto cordialmente chiesto a ATI se gli fornisse anche lei un supporto tale per poter identicamente abilitare l'AA. Cosa che avverebbe tramite patch di gioco.
Al momento, 1/10/09 si sta ancora aspettando la risposta ATI.
I casi ora sono due:
1) ATI fornisce, esce patch, tutti contenti, la storia finisce nel dimenticatoio
2) ATI non fornisce, non uscirà mai una patch, ATI fomenterà nei forum la "cattiva NVIDIA", si creerà un mare di pubblicità negativa e la vicenda rimarrà per sempre vista come una onta imperdonabile, al pari di Assassin's Creed e identicamente senza motivi validi
Questo è Marketing e questo è Giocare Anche Più Sporco
MARKETING
Vediamo cosa è successo fra le due aziende
ATI:
Il capo ufficio marketing esprime un parere personale, in alcun modo avallato ufficialmente da ATI, su un blog
NVIDIA:
L'azienda firma una dichiarazione ufficiale di piena responsabilità che smentisce tutto quanto ipotizzato e non lascia questioni irrisolte
Rileggiamo assieme:
"Batman è basato sul Unreal Engine 3, il quale NON SUPPORTA IN MODO NATIVO la funzionalità di Anti-Aliasing.
Abbiamo LAVORATO strettamente con EIDOS per aggiungere le funzionalità di AA e QA per la nostra clientela GeForce.
Niente e nessuno ha impedito a AMD di fare lo stesso. I giochi con la dicitura "The Way It’s Meant to be Played" NON sono esclusive NVIDIA.
AMD può identicamente contattare gli sviluppatori e LAVORARE a loro fianco.
Siamo ORGOGLIOSI del LAVORO riusciamo a fare con il programma "The Way It’s Meant to be Played".
LAVORIAMO DURAMENTE per portare funzionalità che migliorino radicalmente l'esperienza di gioco, come PhysX, AA, e Stereoscopia, e così come per Batman, anche per altri giochi.
Cosa c'è da aggiungere? Cosa non è chiaro?
Se c'era il minimo azzardo di illecito AMD sarebbe andata in tribunale, così come ha fatto come Intel. Ne sarebbe scoppiato un caso mediatico sicuramente più interessante ed incisivo di quello di ora.
In questo caso però l'interesse di AMD è ben diverso e i suoi movimento avvengono su un territorio in penombra.
Una istanza in tribunale vedrebbe inoltre una risposta per diffamazione e forse l'esito non sarebbe tanto positivo per ATI.
Non solo, rileggiamo la dichiarazione del SENIOR MANAGER DEL MARKETING DI ATI (E PREGO RILEGGERE BENE LA QUALIFICA):
"we submitted a list of issues that we discovered during the games’ development. These issues include inefficiencies in how the game engine worked with our hardware in addition to real bugs, etc.. We have sent THIS LIST to the developer for review.. Unfortunately you will be unable to get a fair playing experience with our hardware until the developer releases a patch TO ADDRESSO AND FIX OUR reported ISSUES.
ATI SI LIMITA A FARE LA LISTINA DEI PROBLEMI RISCONTRATI CON IL GIOCO E I SUOI ACCELERATORI GRAFICI E AD INOLTRARLA PER EMAIL AGLI SVILUPPATORI, SPERANDO CHE VENGANO FIXATI
Avete letto bene, ATI si limita a rilasciare il feedback sui bug, come potrebbe farlo un end-user qualunque... e addirittura a piangere se il motore di gioco non sfrutta adeguatamente le proprie schede, quando evidentemente dovrebbe correggere ciò con i suoi driver data l'architettura fortemente dipendente da loro (molto più di quella NVIDIA)
NVIDIA? Si fa in prima persona contattando gli sviluppatori, fornendogli esempi già pronti per l'uso, scrivendogli addirittura il codice, e spingendoli a fornire funzionalità aggiuntive. Siamo a livelli che addirittura il supporto DX10 a Unreal Tournament 3 è arrivato assieme al programma TWIMTBP di NVIDIA.
Le vedete o no le differenze? Credete ancora nel mondo bianco e nero?
CASO MAGO OTELMA E I SUPEREROI MARVEL
E' stata sollevata una questione sull'esistenza di personaggi mitologici e sovraumani inerenti Universi Paralleli, ambientazioni di Star Wars e come ultimo, ma non per ultimo, anfratti della TV.
Confermo. Si sono tutti riuniti nella software house Guerrilla.
Perchè hanno implementato il MSAA su Unreal Engine 3 e hardware DX9 (la derivata 7800 montata sulla PS3), ovviamente facendosi un culo a paiolo:
http://members.gamedev.net/skyork/pdfs/DeferredRenderinginKillzone.pdf
quante cazzate in un post solo.
Qualunque motore di tipo deferred, anche sviluppato su HW marziano, è incompatibile con HW dx9 ma è perfettamente competibile con HW dx10 o superiore. E l'UE3 non fa alcuna eccezione
Basta informarsi per evitare figuracce :D
byez
stramegaquoto mikelezz, la gente non capisce che per i programmatori eidos andava bene rilasciarlo senza AA e che la sua implementazione è data dal lavoro di nvidia, che ripeto non è una onlus
Sto thread sta diventando una barzelletta.....:rolleyes: :rolleyes: :rolleyes:
Voi secondo me non state bene....fare tutti sti casini per ati/nvidia......manco vi dessero da magnare
Vediamo di fare un post ordinato...
Ordinato era ordinato.... ma yoss te l'ha disintegrato in 2 secondi! :asd:
stramegaquoto mikelezz, la gente non capisce che per i programmatori eidos andava bene rilasciarlo senza AA e che la sua implementazione è data dal lavoro di nvidia, che ripeto non è una onlus
Scusa... ma se tu confondi path con patch (vedi il tuo post qualche pagina prima), poi per forza sei convinto di cose sbagliate! :D
:mc:
hai ragione era path..è una svista, conosco le due cose :)
MiKeLezZ
02-10-2009, 12:40
Ordinato era ordinato.... ma yoss te l'ha disintegrato in 2 secondi! :asd:Yossarian mi ha offeso e non ha risposto a nessuno dei punti, anche perchè non vi è alcuna risposta da poter dare
Ha parlato per 9 pagine di cose tecniche non inerenti la questione, fra l'altro parzialmente smentite
Mi stupisco quindi alquando del tuo atteggiamento
Ma perchè i moderatori non mettono a tacere coloro che fanno disinformazione volontaria oppure ignorantistica, primo fra tutti Mikelezz? Voglio dire, non c'è un mod oppure admin che sappia la verissima verità sulla questione del deferred con hardware DX10 su UT3? "Incrediiiiiiiiiiiiiibbbbbbile"
Ha parlato per 9 pagine di cose tecniche non inerenti la questione
... ma li hai letti i suoi post, sì?!?!? :mbe:
Mi stupisco quindi alquando del tuo atteggiamento
Anch'io! :D
ps: alquanTo ;)
yossarian
02-10-2009, 12:47
Yossarian mi ha offeso e non ha risposto a nessuno dei punti, anche perchè non vi è alcuna risposta da poter dare
Mi stupisco alquando del tuo atteggiamento
le risposte ci sono tutte; magari se ti prendi la briga di leggere i link..........
Ti reputi offeso? NOn è colpa mia se non sai come funziona un engine di tipo deferred e non conosci i limiti dell'HW DX9.
Andiamo per ordine:
memoria corta: hai dimostrato di averla; ti ho linkato una discussione in cui hai sollevato le stesse obiezioni alle quali ho esaurientemente risposto (dopo di che ti sei defilato)
ignoranza su alcuni aspetti fondamentali delle architetture: hai dimostrato di averla nel momento in cui affermi che l'UE3 non è compatibile con MSAA senza aggiungere su HW DX9. Poichè non parlaimo della serie 7 e di R5x0, evidentemente l'HW in questione è compatibile con la tecniche STANDARD per implementare il MSAA su engone di tipo deferred. Se tu non le conosci non è colpa mia :p
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.