View Full Version : NVIDIA e Sony: un nuovo accordo
Redazione di Hardware Upg
27-03-2006, 10:10
Link alla notizia: http://www.hwupgrade.it/news/skvideo/16851.html
Le due aziende hanno sottoscritto un nuovo contratto di collaborazione per lo sviluppo di nuova tecnologia, ma mancano dettagli precisi su cosa si tratti
Click sul link per visualizzare la notizia.
Specifichiamo che sostanzialmente RSX = GeForce 7900 :-)
Topol4ccio
27-03-2006, 10:26
Specifichiamo che sostanzialmente RSX = GeForce 7900 :-)
Davvero? Io sapevo che la X1900 è sostanzialmente il chip dell'XBox360, ma non avevo ancora sentito paragoni tra il chip della Play3 e le attuali VGA NVidia per PC (forse anche perché la Play3 non è ancora uscita).
L'ATI R500 dell'XBOX è un progetto totalmente custom con alcune caratteristiche uniche come la memoria EDRAM, che non ha assolutamente nulla da spartire con gli altri chip grafici ATI attuali, e verrà usato come base di partenza per lo sviluppo di R600 e oltre.
RSX invece è una versione (forse) riveduta e corretta della 7900, probabile adottino un sistema tipo lo SLI integrato per avere maggiore potenza, in ogni caso si, è l'architettura della 7900, quindi HDR + AA contemporaneamente saranno fisicamente impossibili (al contrario dell'XBOX360), si useranno altri sistemi alternativi tipo il blooming, ma effetti di illuminazione dinamica, usando il vero AA col vero HDR come in Oblivion non saranno assolutamente possibili sulla PS3.
Riguardo i vari tipi di HDR consiglio la lettura di questa pagina
http://en.wikipedia.org/wiki/High_dynamic_range_rendering
elfunambolo
27-03-2006, 10:56
Su tom's c'è scritto che forse in futuro Nvidia fornirà il chip perl PSP2
int main ()
27-03-2006, 11:06
L'ATI R500 dell'XBOX è un progetto totalmente custom con alcune caratteristiche uniche come la memoria EDRAM, che non ha assolutamente nulla da spartire con gli altri chip grafici ATI attuali, e verrà usato come base di partenza per lo sviluppo di R600 e oltre.
RSX invece è una versione (forse) riveduta e corretta della 7900, probabile adottino un sistema tipo lo SLI integrato per avere maggiore potenza, in ogni caso si, è l'architettura della 7900, quindi HDR + AA contemporaneamente saranno fisicamente impossibili (al contrario dell'XBOX360), si useranno altri sistemi alternativi tipo il blooming, ma effetti di illuminazione dinamica, usando il vero AA col vero HDR come in Oblivion non saranno assolutamente possibili sulla PS3.
Riguardo i vari tipi di HDR consiglio la lettura di questa pagina
http://en.wikipedia.org/wiki/High_dynamic_range_rendering
e invece secondo me ti sbagli secondo me nvidia in qualke modo ha migliorato la 7900 per la ps3 in modo da permettere l'uso dell'hdr e dell'aa contemporaneamente.. :O
e cmq quando io gioko a sirius sam 2 uso hdr + aa + aniso e tutto al max e si vede una porcata e và quindi nn capisco che dici :help:
Topol4ccio
27-03-2006, 11:12
L'ATI R500 dell'XBOX è un progetto totalmente custom con alcune caratteristiche uniche come la memoria EDRAM, che non ha assolutamente nulla da spartire con gli altri chip grafici ATI attuali
Faccio riferimento alle parole di Richard Huddy di Ati Technologies:
http://www.tomshw.it/business.php?guide=20060208
In particolare riporto questo estratto:
TH: Quando potremo vedere una GPU per desktop confrontabile con quella per Xbox 360?
RH: Le caratteristiche che rendono l'Xbox 360 unica nel suo genere sono allo stesso tempo le migliori esistenti per una console. Ad oggi produciamo una GPU (X1900) che è teoricamente più potente di Xenos e nei giochi offre un'esperienza confrontabile. Suppongo che sia giusto dire che la X1900 è molto vicina a quello che sarebbe uno Xenos per PC.
Giustamente come dici tu le architetture non sono uguali, ma sono molto simili, e direi che la fonte si può considerare attendibile, essendo un ingegnere Ati... :)
Un altro articolo che evidenzia le analogie tra le due architetture è questo:
http://www.gamestar.it/showPage.php?template=News&id=5094&masterPage=stampa_news.htm
Del quale riporto:
La guerra sul fronte delle prestazioni tra ATI e il concorrente NVIDIA potrebbe aver spinto il produttore di chip grafici canadese ad anticipare i tempi di rilascio per il mondo PC del tanto osannato processore utilizzato sulla console Microsoft Xbox 360.
In questi giorni ATI sta presentando al mondo la nuova serie Radeon X1900 composta da tre modelli: X1900 XT e X1900 CrossFire (uguali caratteristiche ma la seconda serve per realizzare configurazioni a doppia scheda), e X1900 XTX (top di gamma dalle altissime prestazioni).
Molte riviste del settore negli Stati Uniti hanno esaminato proprio le caratteristiche del modello di punta, il Radeon X1900 XTX, che almeno sulla carta sembra offrire le stesse caratteristiche del chip grafico di cui è dotata la Xbox 360: frequenza di funzionamento di 650MHz, 512 MB di memoria operante a 1.5GHz e 48 Pixel Pipeline.
L'unica differenza, al momento, sembra la mancanza dei 10 MB di memoria cache integrati presenti nel chip grafico di Xbox 360.
leoneazzurro
27-03-2006, 11:13
Anche se setti HDR+AA dai drivers o dal gioco (se è HDR calcolato in virgola mobile FP16), nel caso delle schede nvidia uno dei due effetti sarà disabilitato, infatti queste schede non possono fare quel tipo di HDR insieme all'antialiasing (mentre ciò è posibile sulle schede ATI seie X1K) .
Se l'HDR è del tipo "alla Half Life 2: Lost Coast", ossia calcolato dai PS atraverso tecniche di tone mapping, è possibile attivarlo sia sulle schede ATI che su quelle NVIDIA (ma anche sule schede ATI di classe R3xx e R4xx).
int main ()
27-03-2006, 11:14
cos'è xenos? :sofico:
int main ()
27-03-2006, 11:16
Anche se setti HDR+AA dai drivers o dal gioco (se è HDR calcolato in virgola mobile FP16), nel caso delle schede nvidia uno dei due effetti sarà disabilitato, infatti queste schede non possono fare quel tipo di HDR insieme all'antialiasing (mentre ciò è posibile sulle schede ATI seie X1K) .
Se l'HDR è del tipo "alla Half Life 2: Lost Coast", ossia calcolato dai PS atraverso tecniche di tone mapping, è possibile attivarlo sia sulle schede ATI che su quelle NVIDIA (ma anche sule schede ATI di classe R3xx e R4xx).
nn sò che tipo è ma fino ad oggi l'ho sempre attivato tutto insieme ed è andato senza disabilitarsi cm dici tu :sofico: forse è un errore ma nn credoche il mio pc sbagli ogni volta aha :fagiano:
diabolik1981
27-03-2006, 11:23
nn sò che tipo è ma fino ad oggi l'ho sempre attivato tutto insieme ed è andato senza disabilitarsi cm dici tu :sofico: forse è un errore ma nn credoche il mio pc sbagli ogni volta aha :fagiano:
Te lo disabilita ma non è che ti avvisa quando lo fa...
int main ()
27-03-2006, 11:51
ops ma guarda che novità nn lo sapevo -.-... :sofico: cmq si nota se c'è l'hdr o no!! e in sirius sam nn me lo togle questo è sicuro!!! perkè è troppo no spettacolo
Che bello sentire parlare un chiaro fan ATI mentre butta fango sui prodotti Nvidia e Sony...senza per altro che qualcuno sappia veramente tutte le caratteristiche del chip RSX...al giorno d'oggi basta leggere una pagina su Wikipedia e si diventa esperti informatici...
MenageZero
27-03-2006, 13:10
ops ma guarda che novità nn lo sapevo -.-... :sofico: cmq si nota se c'è l'hdr o no!! e in sirius sam nn me lo togle questo è sicuro!!! perkè è troppo no spettacolo
però può darsi che ti si disabiliti l'AA... ;)
(nel senso che effettivamente non viene applicato durante il gioco, non che ti si deseleziona nelle opzioni del drv o del gioco; guarda bene, magari con una risoluzione bassa così le "scalettature", se ci sono, sono evidenti)
Poi può anche essere che sia un HDR implemetato in modo simile ad "HL2: lost coast" ed effettivamente vengano applicati HDR+AA, questo non lo so.
(cmq ricordo che all'epoca della presentazione di lost coast, in relazione ad hdr+aa e ati vs nvidia, c'era anche chi, molto più competente di me in materia, sosteneva che un hdr di quel tipo non era da considerarsi tecnicamente un "vero hdr"... poi personalmente non ne ho idea, sono molto ignorante in questo ambito di programmazione)
leoneazzurro
27-03-2006, 13:21
Che bello sentire parlare un chiaro fan ATI mentre butta fango sui prodotti Nvidia e Sony...senza per altro che qualcuno sappia veramente tutte le caratteristiche del chip RSX...al giorno d'oggi basta leggere una pagina su Wikipedia e si diventa esperti informatici...
Che RSX sia un chip direttamente derivato da G71 è una voce molto insistente che circola su molti forum accreditati, uno per tutti Beyond3d, ed è stato confermato in quella sede anche da persone molto "addentro" ai fatti di nvidia, nonchè dal "nostro" esperto di settore, Yossarian (che di schede video ne capisce più che abbastanza).
Ti pregherei di non dare del fanboy ad un'altra persona solo perchè sta esprimendo un'opinione, tra l'altro suffragata da molte notizie: tu che informazioni hai per dire il contrario?
Tra l'altro, come detto sopra, un tipo diverso di HDR (anche se con una resa qualitativa differente) può essere supportato da G70-71: non si tratta dell'HDR eseguito in Fp16.
(nel senso che effettivamente non viene applicato durante il gioco, non che ti si deseleziona nelle opzioni del drv o del gioco; guarda bene, magari con una risoluzione bassa così le "scalettature", se ci sono, sono evidenti)
Poi può anche essere che sia un HDR implemetato in modo simile ad "HL2: lost coast" ed effettivamente vengano applicati HDR+AA, questo non lo so.
(cmq ricordo che all'epoca della presentazione di lost coast, in relazione ad hdr+aa e ati vs nvidia, c'era anche chi, molto più competente di me in materia, sosteneva che un hdr di quel tipo non era da considerarsi tecnicamente un "vero hdr"... poi personalmente non ne ho idea, sono molto ignorante in questo ambito di programmazione)
Si tratta in entrambi i casi di HDR, solo che quello eseguito in FP16 è più semplice da programmare e in genere permette una resa grafica di qualità superiore. Comunque che io sappia Serious Sam 2 utilizza l'HDR FP16, per cui non è possibile utilizzare l'AA insieme all'HDR con le schede Nvidia.
MenageZero
27-03-2006, 13:24
Che bello sentire parlare un chiaro fan ATI mentre butta fango sui prodotti Nvidia e Sony...senza per altro che qualcuno sappia veramente tutte le caratteristiche del chip RSX...al giorno d'oggi basta leggere una pagina su Wikipedia e si diventa esperti informatici...
Scusa ma (solo per curiosità) con chi "ce l'hai" ? :confused:
finora mi è sembrato un thread tutt'altro che "infiammato"...
hai "percepito" degli ingiusti "lanci di fango" solo perché qualcuno all'inizio ha menzionato che RSX è forse più simile alle attuali soluzioni pc di quanto lo sia Xenos o per la qustione "hdr+aa -> tendenzialmente ati sì e nvidia no" ? :confused:
(non è per entrare nel merito di ati vs nvidia, anche preché nelle questioni menzionate sono piuttosto ignorante e non mi interessa il "tifo", solo, come già detto, il tuo post mi ha un pò incuriosito, dato il thread tranquillo)
edit: ho scritto questo post mentre ancora non c'era il precedente di leoneazzurro, preciso preché non sembri che abbia voluto accodarmi "al riparo
" dell'intervento del mod per alimentare subdolamente polemiche
coschizza
27-03-2006, 13:56
Giustamente come dici tu le architetture non sono uguali, ma sono molto simili, e direi che la fonte si può considerare attendibile, essendo un ingegnere Ati... :)
Un altro articolo che evidenzia le analogie tra le due architetture è questo:
http://www.gamestar.it/showPage.php?template=News&id=5094&masterPage=stampa_news.htm
le 2 architetture sono completamente diverse diciamo al 100% perche non si puo dire di piu.
l'articolo che hai postato (il secondo link) è il parere di una persona che non ha nozioni tecniche e che evidentemente molti prendono come vere ma non ha indovinato nemmeno 1 delle cose che ha scritto, per esempio scrivere che le 48 unita delle 2 gpu sono simili non è vero da nessun punto di vista tu ti possa mettere.
ho discusso su questi argomenti per mesi è sono sempre riuscito a dimostrare la realta con dati oggettivi e non semplici pareri che in questo campo contano 0. Ora recupero i miei post e te li ripropongo.
la r500 no ha niente che derivi dalla r520 (r580) ma prorpio niente basta guardare gli schemi a blocchi e si vede che sono 2 cose completamente differenti come condrontare un pentium 3 con il 4
le differenze non sono solo tecnologiche ma soprattutto di approccio, la r500 non è basata su una evoluzione delle directx9 ma un nuovo sistema che verra utilizzato dalle directx10 in poi
potremmo discutere in dettaglio su tutti le caratteristiche ma per cominciare con un informazione che ti fa vedere come la differenza è totale guarda gli schemi a blocchi
http://pc.watch.impress.co.jp/docs/2005/0914/kaigai02l.gif
http://pc.watch.impress.co.jp/docs/2005/1017/kaigai_2.jpg
Foglia Morta
27-03-2006, 14:01
le 2 architetture sono completamente diverse diciamo al 100% perche non si puo dire di piu.
Nei commenti alla recensione della X1800 XT ( quando 24 pipeline sono meglio di 16 ) se ricordo bene yoss aveva spiegato come con qualche variazione allo schema di funzionamento di R520 questo sarebbe stato identico a R500 ( penso anche sostituendogli shader generici agli shader specifici ) a parte la EDRAM ed eventuali adattamenti alla console
coschizza
27-03-2006, 14:10
Nei commenti alla recensione della X1800 XT ( quando 24 pipeline sono meglio di 16 ) se ricordo bene yoss aveva spiegato come con qualche variazione allo schema di funzionamento di R520 questo sarebbe stato identico a R500 ( penso anche sostituendogli shader generici agli shader specifici ) a parte la EDRAM ed eventuali adattamenti alla console
capisco ma penso sarai daccordo con me che si puo anche dire che un intel p4 "con qualche variazione allo schema di funzionamento sarebbe stato identico" an un amd athlon
o una gpu ati "con qualche variazione allo schema di funzionamento sarebbe stato identico" a una nvidia
è ovvio che la r500 usa i pixel i vertex ecc ha delle alu ha degli shader come tutte le altre gpu, ma l'implementazione è differente, se guardi ho aggiornato il mio post precedente e vedrai 2 interessanti schemi a blocchi che guardati con obiettività mostrano 2 gpu che fanno la stessa cosa ovviamente ma lo fanno in maniera completamente diversa.
Tornando al titolo dire che questo accordo è ovvio e prevedibile la sony non ha investito soldi e know how in un azienda per poi perdere tutto dopo l'uscita del loro primo prodotto fatto in società, devono sfruttare l'intesa fino a quando è conveniente per entrambe.
la nvidia non ha fatto la gpu per la xbox 360 proprio perche non era in accordo con la ms su alcuni fattori economici che ha fatto rompere il legame a vantaggio/svantaggio (in base a dove si guarda) delle 2.
Foglia Morta
27-03-2006, 14:17
si, volevo solo dire che anche se ci sono differenze sostanziali R500-R520-R580-R600 sono risultati delle stesse scelte progettuali di volta in volta adattate alle esigenze del momento
coschizza
27-03-2006, 14:26
si, volevo solo dire che anche se ci sono differenze sostanziali R500-R520-R580-R600 sono risultati delle stesse scelte progettuali di volta in volta adattate alle esigenze del momento
e qui che non sono completramente daccordo, le scelte progettuali fatte per la R500 non sono state prese in nessuna altra gpu ne della ATI ne della NVIDIA, solo la futura R600 partira da quella base ma stiamo parlando di futuro.
invece si, le scelte progettuali per la R520 sono applicate anche nella R580 e in tutte le variazioni fatte negli ultimi mesi.
è la ATI stessa ad aver su richiesta della MS creato una gpu che partisse da 0 per diversificarsi completamente dal mercato pc e creare una gpu "custom". I team di sviluppo delle 2 branche r500 o r5x00 sono stati ufficialmente separati per rendere i 2 progetti assestanti, come è avvenuto a suo tempo con il gamecube e avverrà con il revolution, le "scelte progettuali" annunciate dalla ati e dalla nintendo parlano di una gpu che non avrà ninete a che fare con qualcosa di già esistente, l'unica cosa che la renderà uguale alle attuali e che lavorerà ancora con il concetto di triangolo e pixel. Anche questi gruppi di sviluppo sono assestanti da quello per il mecato pc.
poi è ovvio che nel tempo si prende il meglio degli altri per fare una nuova gpu ma spesso partendo da 0 ci si svincola dai problemi attuali e si trovano nuovi sistemi per far avanzare la tecnologia.
Foglia Morta
27-03-2006, 14:32
e qui che non sono completramente daccordo, le scelte progettuali fatte per la R500 non sono state prese in nessuna altra gpu ne della ATI ne della NVIDIA, solo la futura R600 partira da quella base ma stiamo parlando di futuro.
invece si, le scelte progettuali per la R520 sono applicate anche nella R580 e in tutte le variazioni fatte negli ultimi mesi.
è la ATI stessa ad aver su richiesta della MS creato una gpu che partisse da 0 per diversificarsi completamente dal mercato pc e creare una gpu "custom". I team di sviluppo delle 2 branche r500 o r5x00 sono stati ufficialmente separati per rendere i 2 progetti assestanti, come è avvenuto a suo tempo con il gamecube e avverrà con il revolution, le "scelte progettuali" annunciate dalla ati e dalla nintendo parlano di una gpu che non avrà ninete a che fare con qualcosa di già esistente, l'unica cosa che la renderà uguale alle attuali e che lavorerà amcora con il concetto di triangolo e pixel. Anche questi gruppi di sviluppo sono assestanti da quello per il mecato pc.
siamo ot comunque sono strasicurissimo che Ati non ha mai cominciato un progetto specificamente per Microsoft. R600 avrà molto in comune con R520/R580 . R500 è "solo" ciò che si adatta meglio alle esigenze di Microsoft sulla scia dello sviluppo delle gpu Ati IMHO
coschizza
27-03-2006, 14:50
siamo ot comunque sono strasicurissimo che Ati non ha mai cominciato un progetto specificamente per Microsoft. R600 avrà molto in comune con R520/R580 . R500 è "solo" ciò che si adatta meglio alle esigenze di Microsoft sulla scia dello sviluppo delle gpu Ati IMHO
nell'ultima intervista all'ati che ho letto dicevano che il r500 è la base per il r600 che ne sarà la normale evoluzione. Questo era la base dei loro commneti già dalla presentazione della console.
comunque l'ATI è stata pagata per cominciato un progetto nuovo , se poi ne trarra grandi vantaggi anche i futuri progetti nel campo pc è meglio per loro.
io parlo partendo dagli schemi a blocchi che ho postato e molti altri sempre ufficiali.
leoneazzurro
27-03-2006, 14:57
Nei commenti alla recensione della X1800 XT ( quando 24 pipeline sono meglio di 16 ) se ricordo bene yoss aveva spiegato come con qualche variazione allo schema di funzionamento di R520 questo sarebbe stato identico a R500 ( penso anche sostituendogli shader generici agli shader specifici ) a parte la EDRAM ed eventuali adattamenti alla console
Non esattamente, Yossarian ha detto che con qualche variazione allo schema di funzionamento si poteva prevedere come ATI intende sviluppare la sua architettura unificata, che concettualmente è simile a R500, ma che nell'implementazione reale potrebbe essere notevolmente diversa. Ad esempio Xenos non ha il ring bus memory controller, in R520 c'è lo stadio di vertex che dovrebbe essere eliminato in toto, R500 ha la possibilità di fare vertex texturing direttamente, le ALU potrebbero essere anche notevolmente differenti, R600 non dovrebbe avere embedded DRAM e quindi la sua sezione di render output dovrebbe essere notevolmente differente, ecc.
è la ATI stessa ad aver su richiesta della MS creato una gpu che partisse da 0 per diversificarsi completamente dal mercato pc e creare una gpu "custom".
Questo è vero solo in parte, in effetti R500 ha ripreso molti concetti di progettazione da R400, una GPU che ATI non ha mai fatto uscire perchè "troppo avanti con i tempi". Poi deriva dagli studi di ATI sulle architetture unificate. Anche se è chiaro che il progetto sia stato adattato ad un ambito console.
yossarian
27-03-2006, 15:31
andiamo con ordine (visto che sono anche stato chiamato in causa)
1) R580 e R500 non sono lo stesso chip e non sono neppure uguali o simili (e la differenza non sta solo nell'eDRAM). R500 ha shader unificati, R580 no. Questo comporta una diversa gestione dei thread all'interno del chip
2) Huddy ha paragonato R500 e R580 a livello di potenza di calcolo reale. Ha giustamente detto ceh R580 è, in teoria, più potente di R500 e che è l'unico chip, tra quelli marchiati ATi, per pc, che può essere paragonato a R500. La conclusione da trarre non è del tipo: R500 e R580 sono uguali (questa è una molto libera interpretazione); ma R580 è, sulla carta, più potente di R500 (ha più unità di calcolo e lavora a frequenze superiori), ma i due chip sono, nella pratica, comparabili (R500 compensa con una maggiore efficienza complessiva le carenze a livello di potenza di calcolo pura). Quindi R580 è quanto di più vicino esista a R500, per pc, considerando la capacità di calcolo reale e le feature introdotte.
3) In sede di presentazione di R5x0, ho detto che, con opportune modifiche, quel chip sarebbe stato compatibile con le dx10; questo pur restando a shader separati. Ed è molto probabile che nVIDIA farà qualcosa simile a quanto avevo anticipato allora, nel progetto di NV50 (o G80)
4) non aspettatevi grosse rivoluzioni tra G7x e RSX. L'architettura di base è la stessa e la capacità di calcolo delle pixel pipeline di RSX è esattamente uguale a quella di un G7x a 550 MHz in termini di flops. Al pari di G7x, su RSX non sarà possibile attivare HDR+MSAA facendo HDR con blending a fp16
5) la serie R5x0 ha shader separati ma ha più di qualche elemento comune con R500 e con la serie R6x0 (dispatch processor, anche se con funzionalità differenti, tmu esterne alle pixel pipeline, tanto per dirne un paio). Dicioamo che la serie R5x0 è un adattamento allo sm3.0 di un progetto pensato per lo sm4.0 :D
Foglia Morta
27-03-2006, 15:39
andiamo con ordine (visto che sono anche stato chiamato in causa)
1) R580 e R500 non sono lo stesso chip e non sono neppure uguali o simili (e la differenza non sta solo nell'eDRAM). R500 ha shader unificati, R580 no. Questo comporta una diversa gestione dei thread all'interno del chip
2) Huddy ha paragonato R500 e R580 a livello di potenza di calcolo reale. Ha giustamente detto ceh R580 è, in teoria, più potente di R500 e che è l'unico chip, tra quelli marchiati ATi, per pc, che può essere paragonato a R500. La conclusione da trarre non è del tipo: R500 e R580 sono uguali (questa è una molto libera interpretazione); ma R580 è, sulla carta, più potente di R500 (ha più unità di calcolo e lavora a frequenze superiori), ma i due chip sono, nella pratica, comparabili (R500 compensa con una maggiore efficienza complessiva le carenze a livello di potenza di calcolo pura).
3) In sede di presentazione di R5x0, ho detto che, con opportune modifiche, quel chip sarebbe stato compatibile con le dx10; questo pur restando a shader separati. Ed è molto probabile che nVIDIA farà qualcosa simile a quanto avevo anticipato allora, nel progetto di NV50 (o G80)
4) non aspettatevi grosse rivoluzioni tra G7x e RSX. L'architettura di base è la stessa e la capacità di calcolo delle pixel pipeline di RSX è esattamente uguale a quella di un G7x a 550 MHz in termini di flops. Al pari di G7x, su RSX non sarà possibile attivare HDR+MSAA facendo HDR con blending a fp16
5) la serie R5x0 ha shader separati ma ha più di qualche elemento comune con R500 e con la serie R6x0 (dispatch processor, anche se con funzionalità differenti, tmu esterne alle pixel pipeline, tanto per dirne un paio)
non volevo dire che sono uguali... ma solo che sono parenti e R500 è stato ricamato su misura per microsoft in base a progetti già esistenti
yossarian
27-03-2006, 15:42
non volevo dire che sono uguali... ma solo che sono parenti e R500 è stato ricamato su misura per microsoft in base a progetti già esistenti
l'ho aggiunto editando; vero per R500, ma anche per R5x0 (le tmu esterne e le vertex pipeline di tipo "tradizionale", con la sola aggiunta dell'unità di branching, lo dimostrano chiaramente) :D
JohnPetrucci
27-03-2006, 21:15
Come è inteso oggi l'Hdr non è che sia molto realistico, io ho una Ati x1800xt, l'ho attivato in Far Cry e posso solo dire che sarà che è ancora primitivo e da migliorare, ma non è sempre piacevole giocare con il sole in faccia, o avere l'effetto di un faro da stadio accendendo una semplice torcia....
MiKeLezZ
27-03-2006, 21:43
sì è talmente esagerato da esser fastidioso e sembrare artificioso
paradossalmente, mi ha immerso più nell'atmosfera il banale "bloom"
mi auguro l'hdr e il suo supporto migliori in seguito, magari da farlo diventare un no performance loss come l'anisotropico
Specifichiamo che sostanzialmente RSX = GeForce 7900 :-)
E tu come lo sai?
al giorno d'oggi basta leggere una pagina su Wikipedia e si diventa esperti informatici...
Diciamo che se lo facessero tutti (leggere su Wikipedia) sarebbe già qualcosa... :p
ragazzi ma xke dite sempre minchianate ???
ma ki sei tu un ingegnere ?
ma come puoi permetterti di dire che quel chip RSX sia una 7900?
ma secondo te è cosi ?
in ogni caso :
1: ogni compagnia fà i suoi interessi e le relative dichiarazioni di onnipotenza
2: col 7900 a veramente un cazzo di niente a che fare
3: casomai il termine customizzato è da intendere... "mmm sto chip è carino, pero' cosi è un rottame. facciamo cosi mettiamogli la edram integrata on die e per 3 anni siamo apposto.."
4: RSX è completamente ridisegnata da capo . e un derivato di G80
e ha la possibilita di usare MXM, visto che fai il sapientino dovresti sapere queste cose
HDR + AA + ANISO + quello che vuoi, guarda non scendo manco nel dettaglio xkè fondamentalmente credo sia inutile e non voglio provocare mal di testa a nessuno...
tutti sti acronomi e tecnologie sono tanto sbandierate dagli altri
ma non da NVIDIA che da per scontato utilizzare tutte ste tecnologie contemporaneamente..
tant'è vero che non è ati a dettare legge nel settore ma NVIDIA
le ati sono come apple, fanno quello che possono con quello che si ha a disposizione
sony è come intel RIDISEGNA TUTTO da zero con i pro ed ovviamente i contro...
la verità è solo una ci sn delle persone che sono ignoranti in merito
,gli basta vedere 2 texture con cromia differente per saltare inpiedi e dire "UUUUUUUUUUUUUUUUUUUUUUUUUUUUUUU CHE BELLLA" poi invece e tutto un accrocchio.
vi ricordo e mettetevelo in testa che un gioco come god of wars
con la bellissima grafica che ha gira su ps2 "CON 32 MB DI RAM"
con 32 mega... e un processore che okkio e croce fa 40 milioni di poligoni. io non ho MAI visto un titolo su PS2 CHE VADA A SCATTI "che ma con minor frame rate si , minore ma sempre costante" o il suo menu di sistema andare a scatti. voi su xbox360 o xbox ? che dite?
quando sui forum leggo ste porcate mi incazzo come un saraceno...
ati raccoglie e raccoglierà per sempre molliche mentre gli altri gli illuminano la strada... sti pagliacci...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.