View Full Version : G70 alla base del chip video Playstation 3
Redazione di Hardware Upg
30-03-2006, 12:45
Link alla notizia: http://www.hwupgrade.it/news/skvideo/16900.html
NVIDIA e Sony non confermano ufficialmente, ma sembra sempre più chiaro che sia l'architettura G70 alla base del chip RSX di Sony
Click sul link per visualizzare la notizia.
Sono curioso di vedere cosa sarà in grado di fare questa PS3. Il G70 è un ottimo chip, però ATI ha fornito Xbox360 di un altrettanto valido chip.
Sembrerebbe ben dimensionato, anche le memorie, che però con il bus a 128bit a 700 Mhz non offrono un BW estremo, bisogna vedere se questa connessione permette di usare un pò di ram centrale oppure se i 700 Mhz sono la frequenza di funzionamento, che poi DDR fanno 1400 Mhz.
Vedremo
Meglio sicuramente il motore della XB360.
Pensavo ad un utilizzo del G71 ma invece non solo hanno adottato un G70 ridisegnato a 90 nanometri.
Tanto valeva usare il G71 boo
Addirittura sta cac*ta avra' sole 8 ROPs
Pistolpete
30-03-2006, 13:00
In effetti "sembra" poco potente.
Vedremo al momento del lancio ufficiale cosa saprà fare.
per dodo88
è ora di crescere, no?
ErminioF
30-03-2006, 13:01
Mi sembra comunque strano...cell ultrapotente, gpu "buona" ma in prospettiva futura molto inferiore.
leoneazzurro
30-03-2006, 13:02
.....xbox360 4ever.....
Evitare questo tipo di uscite, grazie.
leoneazzurro
30-03-2006, 13:04
Meglio sicuramente il motore della XB360.
Pensavo ad un utilizzo del G71 ma invece non solo hanno adottato un G70 ridisegnato a 90 nanometri.
Tanto valeva usare il G71 boo
Addirittura sta cac*ta avra' sole 8 ROPs
Ehm.. il G71 E' un G70 a 90 nm. Le differenze sono trascurabilissime.
Le ROPs potrebbero essere soltanto 8 per il semplice motivo che non c'è abbastanza banda passante della memoria per alimentarle a sufficienza (PS: anche R500 ha 8 ROPs, anche se accorpate alla EDRAM)
Darioxxx
30-03-2006, 13:09
ma quando la bannate sta gente? ma non lo so guarda...
int main ()
30-03-2006, 13:09
ma si sono rincoglioniti alla sony!!!!!!!!!! solo 256 mb d memoria!!!! e sopratutto solo 128 bit ma nn c posso credere ditemi che ho capito maleeeeeeeeeeeeeeeeee :cry: :cry: :cry: :cry: :cry: :cry: :cry: :cry: :cry:
Andrea deluxe
30-03-2006, 13:11
AUTOCASHSTRAMIENTO MASSIMO!
SONO DEFICENTI ALLA SONY!
(SONO FANBOY SONY)
e con una bandwidth cosi limitata come sperano di fare girare i giochi a 1080p con un minimo di filtri!?!?
Dipende comunque dalle risoluzioni a cui lavora. Perchè è inutile avere 48 pixel shader, 16 rops, 40gb/s di banda se poi il chip ti va al 30%, sarebbero tutti costi inutili, che non apportano benefici e in una console anche questo è importante...
peccato che sony sventola ai quattro venti tra le caratteristiche di superiorità della ps3 sulla x360 proprio il supporto dei giochi a 1080p, ora questa è una risoluzione estrema anche per un pc attuale se pensi che sia poco sfruttata in un ottica del genere...
cmq con un bus a 128bit e delle memorie a quella freq i 1080p sono improponibili..
leoneazzurro
30-03-2006, 13:14
ma si sono rincoglioniti alla sony!!!!!!!!!! solo 256 mb d memoria!!!! e sopratutto solo 128 bit ma nn c posso credere ditemi che ho capito maleeeeeeeeeeeeeeeeee :cry: :cry: :cry: :cry: :cry: :cry: :cry: :cry: :cry:
Normale per il target.. 256 Mbyte di memoria centrale e 256 dedicati alla GPU.
Xbox 360 per esempio ha 512 Mbyte di memoria, condivisi tra R500 e la CPU: sempre con bus a 128 bit.
int main ()
30-03-2006, 13:16
ma nn è vero!! l'xbox ha 512 mb dedicati al sistema e misembra altri 156 al gpu che è a 512 bit o sbaglio!?!?! io sapevo così
nudo_conlemani_inTasca
30-03-2006, 13:17
Il discorso sulla PS3 è molto interessante.
Credo che la XBoX360° sia concettualmente e tecnicamente più avanzata rispetto ala PS3 (SOLO però nel comparto grafico).
Trovo che l'architettura del Cell (il cuore centrale) sia molto più evoluta della soluzione di Zio Bill sulla XB360 col un'architettura derivata dal PowerPC by IBM.
Rimangono da valutare 2 aspetti:
Il costo finale della console PS3 rispetto alla controparte MS (che ha sfornato la XB360 già in perdita.. :asd: gli costa più produrla che venderla).
(*)
Questo anche perchè MS vuole recuperare il capitale speso NON sui guadagni della console ma sulle VENDITE dei videogames.
Poi è da vedere se l'architettura della PS3 venga sfruttata (dopo un tempo ragionevole di studio/conoscienza da parte dei programmatori) fino all'ultima risorsa disponibile, cosa che si è gia vista su PS2, in grado di tirare fuori alcuni titoli a più di 5 anni della sua comparsa sul mercato con grafica in grado di stupire.
Magari la PS3 avrà un costo d'acquisto anche più abbordabile (alla luce di quante console verranno fabbricate e vendute) motore trainante di tutto è il marchio che dà affidabilità: it's SONY! :cool:
.....xbox360 4ever.....
:rotfl: :rotfl: vedremo...
secondo me hanno fatto un'ottimo lavoro invece,G70 o no,i trailers parlano chiaro! Brava sony ;)
domanda!! che è questa connessione flexIO?
che differenza di banda c'è rispetto al pci ex?
Alucard83
30-03-2006, 13:21
In effetti sono stupito da questa scelta, considerando anche il megaritardo accumulato a causa del blue ray contavo anche in un aggiornamento del sistema grafico.......trovo parecchio sbagliata questa scelta.....ora colmare il divario con x360 sarà più dura (giappone escluso)
i trailer non significano niente..
nudo_conlemani_inTasca
30-03-2006, 13:24
Mi sembra comunque strano...cell ultrapotente, gpu "buona" ma in prospettiva futura molto inferiore.
Infatti va a finire che in previsione della straripante potenza di calcolo dell Cell, Sony abbia deciso di optare per dei motori grafici 3D in grado di essere gestiti in buona parte dal nucleo centrale, dedicando meno lavoro al comparto del chip Video (RSX).
Proprio perchè così facendo riescono a contenere i costi in maniera consistente,
o magari oltre a questo ci sono altre motivazioni a noi oscure (di solito il fattore costo è predominante su tutte le altre scelte) provengo dal Mondo del lavoro tecnico.. posso permettermi di sbilanciarmi in questa frase. :D
DarKilleR
30-03-2006, 13:27
va bene che i giochi su Console sono stra ottimizzati per l-hardware utilizzato...ma come faranno a tener testa graficamente parlando, alla Xbox 360? visto che il C1 e' gia' superiore alla X1900 ??
Gia' montano il G70, ma castrarlo a 128bit e solo 8 rops, avrebbe le prestazioni simili ad una 7800 GS...
Bah sinceramente mi chiedo come possano fare gli sviluppatori a sfornare games next-gen (vera next-gen non mera risoluzione hd) con tutte queste castrazioni. Speriamo che si tratti di rumors altrimenti sarà simpatico vedere cosa possa uscirne... speriamo perchè io sto aspettando PS3 proprio in virtu di queste non-piu'-presunte features (vabbè dai anche per i titoli in esclusiva ma xbox360, bada è una mia riflessione, non la considero una console next-gen vera e propria).
leoneazzurro
30-03-2006, 13:31
peccato che sony sventola ai quattro venti tra le caratteristiche di superiorità della ps3 sulla x360 proprio il supporto dei giochi a 1080p, ora questa è una risoluzione estrema anche per un pc attuale se pensi che sia poco sfruttata in un ottica del genere...
cmq con un bus a 128bit e delle memorie a quella freq i 1080p sono improponibili..
E' un'ipotesi accreditata da Microsoft che infatti i giochi in 1080p non usciranno. Tuttavia dipende tutto anche dal livello poligonale e dal carico sui ps, si potrà poi essere avvantaggiati dal fatto di lavorare su un'architettura sola. Insomma, si vedrà cosa si tirerà fuori da queste architetture solo con l'esperienza.
leoneazzurro
30-03-2006, 13:34
ma nn è vero!! l'xbox ha 512 mb dedicati al sistema e misembra altri 156 al gpu che è a 512 bit o sbaglio!?!?! io sapevo così
La situazione è un pò diversa. Vedi questo articolo:
http://www.beyond3d.com/articles/xenos/index.php?p=02
Allora, prima cosa bisogna vedere se sono 700Mhz effettivi o meno, altrimenti avremmo bus a 128bit con banda passante di 22,4GB al secondo.
Inoltre Cell è un processore molto potente sui calcoli vettoriali, se in qualche modo interagisse con il chip RSX?
Non dimentichiamoci che è un unità sinergica. Inoltre sbaglio o PS3 usava le XDR come ram di sistema? Anche queste hanno una grande banda passante, quindi potrebbe essere che le unità vettoriali di Cell elaborino dati che vengono poi pescati poi da RSX tramite il nuovo bus.
Fino a che non uscirà PS3 insomma non potremo avere un quadro preciso delle tecnologie implementate, inutile sparare sentenze basandoci su due righe di news.
Inoltre R500 non ha un bus a 512 bit, ha un ring-bus al suo interno, ma il bus esterno è di 256-128 bit, adesso non ricordo...
Menomale che i PC sarebbero stati, a livello di potenza, devastati dalla Next Gen. :D
leoneazzurro
30-03-2006, 13:41
va bene che i giochi su Console sono stra ottimizzati per l-hardware utilizzato...ma come faranno a tener testa graficamente parlando, alla Xbox 360? visto che il C1 e' gia' superiore alla X1900 ??
Gia' montano il G70, ma castrarlo a 128bit e solo 8 rops, avrebbe le prestazioni simili ad una 7800 GS...
Coff coff... non esageriamo. X1900 ha potenza di calcolo decisamente maggiore, banda passante verso le memorie decisamente più elevata, un numero maggiore di ROPs, e una peggiore efficienza complessiva. Quindi parlare di superiorità è quantomeno azzardato, senza test alla mano.
DevilsAdvocate
30-03-2006, 13:44
La situazione è un pò diversa. Vedi questo articolo:
http://www.beyond3d.com/articles/xenos/index.php?p=02
Credo che si riferisse ai 10MB eDRAM Framebuffer, se non ho letto
male il chip grafico di Xbox360 dovrebbe avere 10Mb di ram dedicata (come cache?)
e poi utilizzare la memoria di sistema (i 512 Mb) tramite un bus a 128 bit. Non ne ho la
certezza, comunque.
Si, chip con 10mb di memoria edram dedicata e condivisione della memoria centrale con la cpu tramite bus 128bit
ErminioF
30-03-2006, 13:48
Su tomshw.it c'era un'intervista ad un capo progetti ati che diceva che già la x1900 è più potente dell'r500, figuriamoci di questo chip per ps3.
Ed è un peccato perchè già mi immagino le pessime conversioni pc-console next gen che ci propineranno tra 1-2 anni,
Mr Grady
30-03-2006, 13:49
Personalmente sono sicuro che sony tirerà fuori una console ottima.
Permettetemi di dissentire poi sui vari discorsi "Di numeri" che tanto quelli contano solo per il 10% sulla buona riuscita di una console, credo poi che in questo ambito (le console) sia del tutto inutile spaccarsi la testa tanto sulla potenza intrinseca delle macchine.
Ricordo a tutti che il successo di una console lo decretano i giochi.
leoneazzurro
30-03-2006, 13:50
Inoltre R500 non ha un bus a 512 bit, ha un ring-bus al suo interno, ma il bus esterno è di 256-128 bit, adesso non ricordo...
Il bus verso le memorie è 128 bit. R500 non ha un ring bus ampio 512 bit come R520/580 (anche perchè con un bus esterno a 128 bit la sua utilità è limitata) e ci sono indizi che anzi il ring bus non ci sia ( o perlomeno non è implementato come su R520/580).
yossarian
30-03-2006, 13:51
C.V.D.
confermato quanto si sapeva già da un anno a questa parte.
Almeno adesso saranno ridimensionate le sparate sulle presunte Tflops teoriche di ps3 (di cui la stragrande maggioranza, circa 1,8 sulle 2 complessive, attribuite a RSX).
Il cell ha una notevole potenza teorica in virgola mobile per essere una cpu, ma non è in grado di sostituire una gpu, anche scarsa (figuriamoci un G7x), nelle operazioni di rendering.
R580 ha una potenza di calcolo teorica superiore a quella di R500, ma la sua architettura è meno efficiente e R500 ha una serie di accorgimenti che, in determinate situazioni, gli permettono di competere almeno ad armi pari con R580 (il limite dei registri temporanei impiegabili contemporaneamente è superiore a 4 e l'eDRAM permette la velocizzazione di un gran numero di operazioni; inoltre, nelle applicazioni vertex shader bounded, può contare su un numero di unità di calcolo che può diventare sensibilmente superiore a quello di qualunque altra gpu).
http://ps3.ign.com/articles/614/614682p1.html
Sembrerebbe che siano 700mhz-1400mhz DDR.
Ci sono un pò di specifiche di maggio 05.
Mazzulatore
30-03-2006, 13:54
Mah... io ho visto cod 2 su xbox360 alla fnac, non ricordo se la tv era HD, ne so se si può impostare il dettaglio della grafica, ma ho visto nettamente che il livello di dettaglio di mipmap era al minimo (bilineare peraltro), e non era abilitato antialiasing.
Sono molto scettico sull'abuso di numeri che si auspicano nei chip per console, soprattutto perchè nativamente non possono essere paragonabili a quelli ultraventilati ed ultra alimentati che stanno nei nostri PC.
leoneazzurro
30-03-2006, 13:55
Credo che si riferisse ai 10MB eDRAM Framebuffer, se non ho letto
male il chip grafico di Xbox360 dovrebbe avere 10Mb di ram dedicata (come cache?)
e poi utilizzare la memoria di sistema (i 512 Mb) tramite un bus a 128 bit. Non ne ho la
certezza, comunque.
i 10 Mbyte di EDRAM non sono utilizzati per il frame buffer, bensì per avere un'enorme banda passante per le ROPs necessaria per ottenere un Antialiasing "free", ossia con minima perdita prestazionale.
COFFEE_MUG
30-03-2006, 13:56
Credo che puoi smettere di piangere...:bimbo:
Essendo un sistema "solo" per il gioco e' probabile abbia bisogno di meno ram in quanto non ha niente altro da fare che eseguire un gioco.... Alla Sony sono stati sempre TROPPO avanti con i prodotti, ( si ricordino i mini disc: un mito), se l'hanno fatta cosi' vuol dire che funziona bene. Sono giapponesi, non pirlotti...
Premetto che se esce o meno non me ne puo' calare....pero' Sony e' Sony. Provare prima di criticare. Mentre con alcuni software(...) si sa' bene chi li fa' e come saranno, (...).... :cincin:
Dark Schneider
30-03-2006, 13:58
Sarà pure depotenziato rispetto alla versione PC, ma la realtà è un altra: tra 5 anni vedremo cosa è in grado di fare il G70. :) Il G70 della PS3 seppur meno potente della versione PC sarà sfruttato, quello del Pc invece tra 5 anni sarà un fermacarte. :D
Quindi è inutile stare a fare confronti tra GPU Pc e GPU Console.
si talmente avanti da avere fato una ps2 con un cavolo di memoria video..
e ci sono voluti anni per tirare fuori qualcosa a livello del dreamcast come pulizia e definizione delle texture..
Queste invece le specifiche di Xbox360
# Memory Bandwidth:
# 22.4 GB/s memory interface bus bandwidth
# 256 GB/s memory bandwidth to EDRAM
# 21.6 GB/s front-side bus
La EDRAM ha una banda mostruosa, ma per il resto non è allineata alla PS3.
int main ()
30-03-2006, 13:59
il mio nn era un confronto è che mi dispiace che sia così debole :eek: :(
Michelangelo_C
30-03-2006, 14:01
Infatti il più grande problema della ps2 è stato la poca memoria che non permetteva l'uso di texture particolarmente dettagliate. Speriamo che con ps3 non ripetano lo stesso errore, i numeri sono ben superiori dei precedenti ma lo sono anche i giochi..
COFFEE_MUG
30-03-2006, 14:02
......"Il G70 della PS3 seppur meno potente della versione PC sarà sfruttato, quello del Pc invece tra 5 anni sarà un fermacarte. "
Per essere esatti sara' un ottimo fermaporte tra 60 giorni ed un elegante fermacarte entro 90 circa.
Tra cinque anni sara' preistoria. :asd:
Tidus.hw
30-03-2006, 14:09
ma con 8 rops e una ipotetica frequenza di 550/600mhz (a quanto va l'rsx? )
la sv può riuscire a sfornare 60fps @ 1080p? senza contare la banda passante delle ram. :stordita:
Lord-Namo
30-03-2006, 14:15
Alla fine questo RSX sarà un G70 a 90 nanometri, sinceramente mi aspettavo qualcosa di più :(
mi sa che aspetterò le G80 e R600 :)
Matrox Parhelia PH-A256R
Acceleratore grafico basato su GPU a 512-bit, Interfaccia DDR a 256-bit, AGP 4x, 256MB, 2 RAMDAC a 400 MHz a 10-bit, Triple-RGB, Dual-DVI, TV Out, DualHead-HF, alte prestazioni 2D/3D/DVD, Surround Gaming, 10-bit GigaColor. Cavo a Y da DVI a doppio HD-15, adattatore da DVI a HD-15, cavo da HD-15 a S-Video/ Composito inclusi. Software in dotazione: Matrox PowerDesk-HF, plug-in a 10 bit per Adobe® Photoshop®, driver per Microsoft® Windows® XP e Windows® 2000
€ 799,00
Ati Radeon X1600 Pro AGP
[omissis]
Da notare che il Ring Bus lavora alla stessa frequenza della memoria ed è costituito da due anelli che percorrono in senso opposto il perimetro della VPU, l’uno in senso orario e l’altro in senso antiorario. In tal modo la massima distanza per raggiungere il Ring Stop di destinazione è metà dell’anello. Il meccanismo di funzionamento del controller è identico in R 520 e in RV 530, ciò che cambia è l’ampiezza del Ring Bus, 512 bit in R 520 (2 anelli da 256 bit ciascuno) e 256 bit in RV 530 (2 anelli da 128 bit). Nell’R520 ciascun Ring Stop ha a disposizione due canali da 32 bit per accedere alla memoria (l’ampiezza complessiva dell’interfaccia di memoria è dunque 256 bit, cioè 2 x 4 x 32 bit) mentre nell’ RV 530 ciascun Ring Stop ha a disposizione un canale da 32 bit per accedere alla memoria (l’ampiezza complessiva dell’interfaccia di memoria è dunque 128 bit, cioè 4 x 32 bit).
Nvidia GeForce 7800 GTX 512
Con la 7800 GTX 512, il bus interno è in grado di trasferire 512 bit per clock, grazie alla sua funzionalità double data rate. Il bus esterno rimane da 256 bit, quindi la velocità di trasferimento da e verso i 512 MB di memoria rimane identica.
512 bit!! Non dovreste fumarvi la colla dei libri.........
leoneazzurro
30-03-2006, 14:20
E tutto ciò che ha a che fare con R500 e RSX, che sono chip organizzati differentemente?
Tetsuya1977
30-03-2006, 14:24
Sarà pure depotenziato rispetto alla versione PC, ma la realtà è un altra: tra 5 anni vedremo cosa è in grado di fare il G70. :) Il G70 della PS3 seppur meno potente della versione PC sarà sfruttato, quello del Pc invece tra 5 anni sarà un fermacarte. :D
Quindi è inutile stare a fare confronti tra GPU Pc e GPU Console.
Non me ne vogliano gli altri ma trovo sensato e intelligente solo questo post
Qualcuno over 25 ricorda quando i giochi del C64 e dell'Amiga sfruttavano la macchina al 101% dopo 5-6 anni?
Si gridava al miracolo,c'erano le recensioni di Zzap! con utenti e redattori che pensavano addirittura che la macchina era un'altra
Adesso gli unici che urlano al miracolo sono i produttori di schede video-cpu-ram che impazziscono dalla gioia a venderti una scheda che viene sfruttata al 30% se va bene e fra due mesi è già sostituita,facendoti perdere metà del suo valore sul mercato dell'usato
Chiedete a chi ha comprato una 7800 e ha visto uscire le 7900
La colla dei libri?
Ma hai letto quel che scrivi?
Il ring bus (che come mi hanno già fatto notare potrebbe non essere nella GPU di Xbox) è interno, la connessione all'esterno avviene su un bus a 256-128 bit a seconda del chip.
Quindi quei 512 bit fungono solo alle funzionalità esterne, rimane però il fatto, ovvio, scontato che se hai un bu esterno a 128bit e 1400 mhz hai una banda di 22,4 gb/s sulla memoria, i dati ti arrivano, teoricamente, a quel data-rate
Legolas84
30-03-2006, 14:31
Non me ne vogliano gli altri ma trovo sensato e intelligente solo questo post
Qualcuno over 25 ricorda quando i giochi del C64 e dell'Amiga sfruttavano la macchina al 101% dopo 5-6 anni?
Si gridava al miracolo,c'erano le recensioni di Zzap! con utenti e redattori che pensavano addirittura che la macchina era un'altra
Adesso gli unici che urlano al miracolo sono i produttori di schede video-cpu-ram che impazziscono dalla gioia a venderti una scheda che viene sfruttata al 30% se va bene e fra due mesi è già sostituita,facendoti perdere metà del suo valore sul mercato dell'usato
Chiedete a chi ha comprato una 7800 e ha visto uscire le 7900
Perfettamente daccordo con te.
L'hardware per console viene sfruttato negli anni fino all'osso, al contrario del PC dove nessuna VGA viene mai sfruttata nemmeno al 60%. Inoltre le software house si concentrano su un solo tipo di hardware senza dover adattre il gioco a 100 tipi di sistemi diversi.
Quindi non capisco come si possano confrontare i due mondi...
Non te ne fai nulla del cell se ci mettono un chip video che fà da collo di bottiglia. Non stanno rapportando tutto nelle giuste proporzioni.
Ancora oggi non si puo' dire nulla di come sarà il chi grafico,ma dall'uso del G70 si puo' solo dubitare che non avrà HDR con AA e gli shader unificati. Sarebbe la cosa più stupida che potrebbero fare ma non penso che uscirà senza queste due peculiarità altrimenti la Sony toperà alla grande ,con o senza il suo BR.
XBOX360 e PS3 avranno parità di texture (DX9.0c) , poi starà alla potenza bruta a far girare una grafica che abbonda di dettagli.
Tetsuya1977
30-03-2006, 14:35
Perfettamente daccordo con te.
Te credo ...hai una 7800 :stordita: :fagiano:
Scherzo..ma...fossi in te sarei incazzatissimo
Gli avrai dato un 300-350 euro per trovarti adesso con una scheda che sul mercato dell'usato vale 200 euro (forse)
Rimangono da valutare 2 aspetti:
Il costo finale della console PS3 rispetto alla controparte MS (che ha sfornato la XB360 già in perdita.. :asd: gli costa più produrla che venderla).
(*)
Questo anche perchè MS vuole recuperare il capitale speso NON sui guadagni della console ma sulle VENDITE dei videogames.
vale per MS come per Sony... almeno nel primo periodo di commercializzazione la console viene venduta in perdita per favorire la penetrazione sul mercato e aumentare la base installata, i guadagni vengono dalla vendita di software e accessori (memory card, pad, ecc costano al produttore a far tanto 1/10 del prezzo di vendita)
poi ovviamente i costi calano e per via della produzione di massa e perchè alcuni componenti vengono reingegnerizzati per ottimizzare i costi (esempio EE e GS su un unico package)
a questo andrebbe aggiunto che, vista la presenza le lettore blue-ray e del cell, la PS3 sarebbe addirittura più costosa da produrre rispetto all'Xbox 360 e non credo (oh, imho :D) che Sony possa permettersi di commercializzarla ad un prezzo superiore (chi vivrà...)
personalmente nei numeri relativi all'hw ci vedo poco o niente riguardo il possibile successo della piattaforma, PS1 e 2 sono lì a dimostrarlo
probabilmente il software farà la differenza, fattore N permettendo
:)
Per quello che riguarda la banda passante
.
.
.
.
.
Lo ripeto, dati tecnici danno la banda a 22,4GB/s cioè 128bit x 700Mhz DDR
.
.
Questo si allinea a Xbox360, che a parte la EDRAM ha valori similari
.
Inoltre prima di sputar sentenze penso sia giusto attendere le prime prove, non perchè penso che questo chip possa stupire, ma perchè stiamo facendo congetture e giudicando su queste, che non hanno nessun valore.
.
.
Chi dice quindi che quelle memorie sono colli di bottiglia prima legga le specifiche, perchè sono allineate a quelle di X360.
goldorak
30-03-2006, 14:43
Te credo ...hai una 7800 :stordita: :fagiano:
Scherzo..ma...fossi in te sarei incazzatissimo
Gli avrai dato un 300-350 euro per trovarti adesso con una scheda che sul mercato dell'usato vale 200 euro (forse)
E perche' mai ? :rolleyes:
Mica ha comprato delle azioni di Ati o Nvidia.
Comprare una scheda video non significa fare un investimento sul futuro, e' pirla chi ne compra una sperando di poterla rivendere a prezzo "alto" qualche tempo dopo.
vabè ma non ho capito che è successo come mai tutto questo casino si è sempre saputo che l rsx non è altro che un g47
perchè vedo gente che sis trappa i peli dul pube??
majin boo
30-03-2006, 14:47
io credo che fare i conti in tasca a sony sulle scelte che sta facendo sia per lo meno discutibile.non credo che non sappiano quello che stanno facendo...
già mi immagino un utente di questo forum andare dai tecnici della sony a ripetere quanto scritto qua:
"hey voi, ma vi rendete conto che se piazzate una gpu del genere sulla ps3 sarete rovinati??ma non capite che 256 mb sono troppo pochi??" :D
aspettiamo di vederne i risultati prima di giudicare, io sono fiducioso che ps3 non sarà una delusione. e poi - come è stato detto - non ha senso paragonare la gpu di una console a quella di un pc.
ma alla fine anche se la ps3 saràsolo leggemrnete superiore ad unxbox360 sti cazzi quello che conta sono i giochi i che li realizza la vera differenza in questa nextgen la faranno le software house
alla fine ps3 e xbox 360 stanno li a livello tecnico cè chi fa meglio una cosa chi un altra il pc non reggera il confronto con le console per un bel po di anni
tutto dipende da cosa uno ci deve fare
Appunto dossier, quello che intendo è questo, qui han sentito 700 mhz e tutti giù a dire peste e corna senza degnarsi di leggere le specifiche lamentando la ridicola banda.
La realtà è che sulla carta (e per ora di PS3 non abbiamo altro che carta) le console si equivalgono, ed è inutile fare a gara, come sempre, a chi lo ha più "sviluppato in lunghezza" se poi hai solo giochi noiosi o ingiocabili.
Lungi dal dire che X360 o PS2 abbiano questi problemi, ma di sicuro la qualità del gioco è importante quanto l'aspetto grafico.
ErminioF
30-03-2006, 15:20
il pc non reggera il confronto con le console per un bel po di anni
Si certo... :rotfl:
B|4KWH|T3
30-03-2006, 15:23
1 sola considerazione:
Costerà molto meno a Sony utilizzare questa soluzione (niente costi di R&D usando qualcosa che già esisteva)
ma uno con una console cosa ci deve fare?
giocare!
E cos'è un gioco?
Un intrattenimento per suscitare in chi lo pratica un sentimento di felicità.
E allora per un gioco una delle componenti fondamentali, la componente regina a mio avviso è la giocabilità e il coinvolgimento.
Ok che il realismo può coinvolgere, ma quante volte negli anni le innovazioni grafiche hanno "bucato" rispetto a giochi con un game-play strepitoso?
Lord-Namo
30-03-2006, 15:33
il pc non reggera il confronto con le console per un bel po di anni
:rotfl: :rotfl: :rotfl:
Forse per qualche mese....in autunno esce la G80 e R600
Tetsuya1977
30-03-2006, 15:36
E perche' mai ? :rolleyes:
Mica ha comprato delle azioni di Ati o Nvidia.
Comprare una scheda video non significa fare un investimento sul futuro, e' pirla chi ne compra una sperando di poterla rivendere a prezzo "alto" qualche tempo dopo.
A Goldrake.... pirla con me te lo risparmi.
Punto.
COFFEE_MUG
30-03-2006, 16:03
Quoto Tetsuya 1977. Sfanculare i prodotti si, I(a proprio rischio), le persone no. Mi sa' che hai la ruggine nelle lame rotanti, oppure Alcor e' 'mbriago stamattina, :hic:
"Meno caffe', piu' camomilla". Relax, bimbo :bimbo:
anchio sono un ( pirla ? ) fanboy sony o meglio ero, ma in 7 anni ho cambiato 3 TV da saloto mentre quella pessima e sconosciuta che tengo in stanza va da 10 anni ormai..so che non e' un comento molto indicativo ma penso che sony era SONY una volta...
Rimangono da valutare 2 aspetti:
Il costo finale della console PS3 rispetto alla controparte MS (che ha sfornato la XB360 già in perdita.. :asd: gli costa più produrla che venderla).
(*)
Questo anche perchè MS vuole recuperare il capitale speso NON sui guadagni della console ma sulle VENDITE dei videogames.
Non è che tu abbia detto chissà quale grande verità: è così dai tempi di Xbox e lo sanno tutti.
Gli utili si fanno sul software grazie alle pesanti royalties e sui prodotti collaterali come pad e cavi. L'hardware di base viene venduto sottocosto.
Lo sanno anche i sassi.
COFFEE_MUG
30-03-2006, 16:12
Ti riferisci SICURAMENTE a me, ( la frase e' la mia)
A: sei :ot: in quanto si parla della consolle e della configurazione hardware e delle "ipotetiche" prestazioni
B: se tu sei :ncomment: e lo capisco, picchia solennemente e con impegno chi te l'ha venduto; in quanto i prodotti sono di serie A o di serie B. ( Mal assemblati o simili), Senno' Postalmarket non sarebbe MAI nata.
C: Ho un sistema hi-fi cd_radio_minidisic_con in + connessione A FIBRA OTTICA che ha 7 anni. Fantascienza per l'epoca. La meccanica la fa la Philips. M A I un problema. Connessa al PC e/o al Plasmone ( ovvio Sony).....I miei amici vengono da me per films, partite o Motogp...Mai 1 solo problema...Ripeto, presentati da chi te li ha venduti :huh: e chiedi spiegazioni.
Dimenticavo: SONY " e' "SONY
scusate ma se i primi player b-r che usciranno verranno venduti intorno ai MILLE € come ho letto com'è possibile che la play3 esca ad un prezzo diciamo fra i 300/400? ok puntano sul software e su i giochi ma così chiunque voglia vedersi un film in hd si comprerà la play3 piuttosto che un player e quindi il player sony come lo vendono?c'è qlcsa che non mi quadra..
leoneazzurro
30-03-2006, 16:22
State buoni, o poi mi vedo costretto ad intervenire.
Topol4ccio
30-03-2006, 16:35
scusate ma se i primi player b-r che usciranno verranno venduti intorno ai MILLE € come ho letto com'è possibile che la play3 esca ad un prezzo diciamo fra i 300/400? ok puntano sul software e su i giochi ma così chiunque voglia vedersi un film in hd si comprerà la play3 piuttosto che un player e quindi il player sony come lo vendono?c'è qlcsa che non mi quadra..
Ecco, questa mi sembra una domanda interessante. Possibile che Sony vada a cannibalizzare i propri stessi prodotti?
Non può vendere dei lettory BlueRay a 1000 euro per poi vendere un apparecchio per l'intrattenimento elettronico che, tra le tante cose, legge ANCHE i BlueRay a meno di 500 euro... Perché a questo punto anche chi è interessato SOLO ai film su BlueRay, finirebbe per prendere la Play3 in ogni caso!
Ci dev'essere dell'altro... :confused:
COFFEE_MUG
30-03-2006, 16:37
Tutto ok. No flames. ( se dicevi a me)
Era la risposta "ferma e sincera" ad un sarcasmo un po' troppo debordante.E oure :ot: Eppoi se si fa' un riferimento e' corretto fare i nomi.
Non mi chiamo "quelliche", ma COFFEE_MUG. Ciao
leoneazzurro
30-03-2006, 16:40
Io mi riferivo a tutti, non a te in particolare.
COFFEE_MUG
30-03-2006, 16:42
Il protocollo Blue-Ray e' nato gia' morto. E pure gia' superato come una settimana fa'.
Purtroppo come i mini disc, mai capiti e apprezzati dalla maggior parte dei consumatori. Non si sanno "sincronizzare" col resto del pianeta. Forse e' quella la loro debolezza. O troppo avanti o, inspiegabilmente, indietro. Son giapponesi, sara' un modo Zen di scassarsi i maroni. Ma fanno cosa strabilianti, per me.
coschizza
30-03-2006, 16:44
Le specifiche pubblicate oggi sono le stesse annunciate 1 anno fa all'E3 in america, quindi la sony (come era ovvio e come avvienne sempre in questo campo) non ha stravolto i progetto iniziale e manterra le specifiche come le avava presentate.
di sicuro tecnicamente parlando il RSX potrà utilizzare la risoluzione massima 1080P solo in rare occasioni e come la console MS tutti dovranno utilizzare qualla 720P che è gia piu che ottima per questa nuova generazione.
alla fine quello che pensavo a suo tempo si è avverato cioè le 2 console sono paragonabili la ps3 vince sulla parte cpu ma la xbox su quella video e sviluppo.
non ci resta che giocarci dimenticando specifiche e hardware (come sto facendo sulla 360 dal giorno di lancio :) )
Mah... io ho visto cod 2 su xbox360 alla fnac, non ricordo se la tv era HD, ne so se si può impostare il dettaglio della grafica, ma ho visto nettamente che il livello di dettaglio di mipmap era al minimo (bilineare peraltro), e non era abilitato antialiasing.
attenzione che le demostation che hai visto sono collegate in COMPONENT e non utilizzano la risoluzione corretta dei pannelli lcd utilizzati (1360*768) , il gioco in VGA impostato correttamente non ha nessun aliasing e avendolo finito 3 volte consecutivamente te lo posso giurare :sofico: (ma non avrei motivo di mentire), inoltre anche io ho vsto l'aliasing sul 23'' della demostation, ma sul mio 32'' (che dovrebbe risaltare l'aliasing visto la dimensione) invece con il cavo VGA è perfetto (il component è abbastanza scarso in tutti i giochi sulla 360 non è un gran segnale, il VGA vince praticamente sempre)
per quello che dici del "mipmap" confermo che il gioco usava il bilinear.
pessima scelta....sul lato grafico si sono tirati una tale zappata quelli della sony...tanto venderanno lo stesso perchè c'è gente fissata con la sony come fosse dio...
COFFEE_MUG
30-03-2006, 17:02
Per evitare mal-comprensioni, , la frase " non mi chiamo quelliche" non si riferiva ( e il post ad essa associato), assolutamente e in nessuna parte a te ed al tuo post. ciao!
coschizza
30-03-2006, 17:02
pessima scelta....sul lato grafico si sono tirati una tale zappata quelli della sony...tanto venderanno lo stesso perchè c'è gente fissata con la sony come fosse dio...
il problema è molto semplice il RSX è un ottimo chip ma era pensato per uscire all'inizio del 2006 e non alla fine, quindi un ottimo progetto tempo 10 mesi è diventa un progetto oramai superato.
ma questo è piu che altro un problema di immagine , i giochi non ne risentono visto che la potenza è comunque paragonabile a quella del concorrente diretto (MS).
per chi ha detto che il blu ray è nato già morto:
guarda che mi sembra un'affermazione del tutto campata in aria!I dvd ci sono ormai da + di 10 anni e con i nuovi pannelli che impazzano un supporto che dia una risoluzione degna diventerà necessario.Anche sull'xbox360 faranno i giochi su hd-dvd e secondo il tuo ragionamento anche questo sarebbe un formato già morto?Son già pronti diversi titoli per entrambi i supporti e verranno messi in vendita diversi player.Aggiungo anche al mio post di prima che oltre a dover raffrontare il prezzo con i diversi player da tavolo(anche prodotti da sony) c'è da contare il costo della cpu e della gpu + l'hdd sempre che ce l'abbia.Non capisco proprio come potrà costare meno di 500€.
coschizza...rsx basato su nv47 era inferiore al chip grafico della xbox360 anche se uscivano in contemporanea....
tutti a parlar della potenza della potenza....
poi quelli che parlano dei giochi dei giochi dei giochi..
il fatto è che con l'hardware grafico di xbox360 si potranno usare determinati effetti grafici che sul pc ancora oggi non sono attivabili...infatti r500 è quanto di più vicino ci sia alle nuove dx10
mentre con la playstation 3 e il suo rsx, non si potraà mai andare oltre quello che già ora abbiamo sui pc....tutto li....
cell sarà potente quanto volete....ma se rsx non può renderizzare certi effetti.....col cavolo che fra 5 anni sarà sfruttato....sarà già bello che sfruttato fra un mese...
non vedrete mai tutti gli effetti di un project offset su ps3, e manco quelli di un crysis....questo è il problema dell'avere scelto un chip "vecchio" e nemmeno del tutto dx9
il mio commento non si riferiva solo a te ma a tutti... x il discorso di MD , io celo da anni ormai, ma scaduta la garanzia si e' rotto.discorso altretanto valido con la play1 rotta anche quella...sara una sfiga tremenda??? ma...
cqe rilegendo l'articolo mi e venuta una leggera depressione.sara che mi aspetavo veramente le console next gen.
chiuso OT
un commento positivo,i giochi per PS sono da sempre fatti veramente bene.speriamo che sarrano cosi anche sta volta
...qualunque sia la GPU, dell'una o dell'altra console Next-Gen ancora da venire, ma volete mettere l'ottimizzazione che si riesce ad ottenere quando sai che TUTTO IL RESTO E' FISSO ?
Non devi combattere contro milioni di configurazioni possibili (per non parlare dei driver). "Avra' l'SSE 3 ?", "Sara' Dual Core ?". Sai gia' A PRIORI quello che ti aspetta, e per quello ottimizzi.
I risultati, a mio giudizio, non saranno MAI paragonabili soprattutto dopo l'inevitabile fase di apprendimento (Ricordate le innumerevoli dichiarazioni sulla PS2 quando usci' ? "La console piu' difficile in assoluto per sviluppare games". Guardate ora a che punto si e'). Le console stravinceranno (premetto che ho un PC, non son fanboydi nulla eh ! :) ).
Ovvio che poi i PC non sfigureranno mai visto che l'evoluzione tecnologica (ringraziamo anche SLI/Crossfire) e' devastante.
TheMac
il pc non reggera il confronto con le console per un bel po di anni
Non penso propio. A fine hanno dovrebbe uscire il nuovo motore grafico della Crytek con DX10. Per quanto riguarda le schede grafiche quasi al 100% adotteranno le DX10. Nel 2007 ci sarà un'altro passo in avanti nel campo della grafica videoludica.
leoneazzurro
30-03-2006, 17:44
coschizza...rsx basato su nv47 era inferiore al chip grafico della xbox360 anche se uscivano in contemporanea....
tutti a parlar della potenza della potenza....
poi quelli che parlano dei giochi dei giochi dei giochi..
il fatto è che con l'hardware grafico di xbox360 si potranno usare determinati effetti grafici che sul pc ancora oggi non sono attivabili...infatti r500 è quanto di più vicino ci sia alle nuove dx10
mentre con la playstation 3 e il suo rsx, non si potraà mai andare oltre quello che già ora abbiamo sui pc....tutto li....
cell sarà potente quanto volete....ma se rsx non può renderizzare certi effetti.....col cavolo che fra 5 anni sarà sfruttato....sarà già bello che sfruttato fra un mese...
non vedrete mai tutti gli effetti di un project offset su ps3, e manco quelli di un crysis....questo è il problema dell'avere scelto un chip "vecchio" e nemmeno del tutto dx9
Gli unici effetti che non sono disponibili su RSX ma su R500 si sono quelli HDR in contemporanea all'AA. Ah, si rumoreggia di una versione di Project Offset anche per PS3. Ah, ancora per la precisione, essendo RSX derivato da G70/71 è un chip DX9.0 con SM 3 (per quanto verrà programmato con una versione di OpenGL). Ancora per la precisione, R500 non incorpora tutte le specifiche dello SM 4.
Che poi R500 sia più potente (più efficiente, sopratutto) di RSX lo sapevano anche i sassi da mesi, potendo tra l'altro utilizzare l'AA con minima perdita prestazionale. Tuttavia credo che alla fine tutta questa differenza grafica non ci sarà.
Tetsuya1977
30-03-2006, 18:04
Tutto ok. No flames. ( se dicevi a me)
Era la risposta "ferma e sincera" ad un sarcasmo un po' troppo debordante.E oure :ot: Eppoi se si fa' un riferimento e' corretto fare i nomi.
Non mi chiamo "quelliche", ma COFFEE_MUG. Ciao
Nomi?
Visto che sono un "bimbo" quando mi inviti a giocare a moto GP?
Sai quanto mi fanno impazzire le moto?
Se non lo sapessi ci sono aziende che investono nel campo di altre tecnologie ,cito un esempio: Toshiba investe in apparecchiature mediche.
Una sola azienda non è leader nel settor in ogni apparecchiatura che produce.
Il problema non è essere un fan ,ma non ammettere quando un prodotto , dell'azienda per cui si tiene parte , non è il meglio in circolazione oppure omettendo i contro e sottolineando solo i pro. (Come quando fanno la pubblicità dei propi prodotti).
Ho un amico che tiene la Sony. L'unica cosa che ha di bello è la tv a tubo in sala. la cosa assurda pero' è che ritiene il suo impianto audio ,abbastanza professionale. Casse audio sony con ampli sony. Gli ho fatto sentire l'impianto che ho in casa.... muto ,non ha più detto nulla.
attenzione che non penso che il top è meglio e il resto è schifezza, ma mi piace dire i dati di fatto e non pensare come un fan :
quella cosa è il massimo solo perchè tifo per quella casa. :nonsifa:
Connessa al PC e/o al Plasmone ( ovvio Sony).....I miei amici vengono da me per films, partite o Motogp...Mai 1 solo problema...
Dimenticavo: SONY " e' "SONY
che modello è il plasma ? è considerato il top nel campo?
ci scommetto tutto quello che volete ma per almeno due anni ma anche 3 quello che faranno girare le console non lo si vedra sui pc
io non palro di mera potenza dell hardware
ma di GIOCHI
ragazzi la play 3 ha 256XDR per GPU e 256DDR per Cell, mentre xbox ha 256mbyte ddr3 condivise per gpu e cpu. Inoltre le XDR hanno una banda enorme. Non disprezzate prima di vedere qualche gioco scritto ad hoc per questa piattaforma§!
leoneazzurro
30-03-2006, 19:43
ragazzi la play 3 ha 256XDR per GPU e 256DDR per Cell, mentre xbox ha 256mbyte ddr3 condivise per gpu e cpu. Inoltre le XDR hanno una banda enorme. Non disprezzate prima di vedere qualche gioco scritto ad hoc per questa piattaforma§!
Il contrario: 256 Mbyte XDR per il Cell e 256 Mbyte DDR3 pee la GPU, mentre Xbox ha 512 Mbyte di RAM.
kenjcj2000
30-03-2006, 19:44
Io vorrei solo riportare alcune cose che ho letto in giro:
1.Un ingegnere (mi sembra..) che non ricordo assolutamente come si chiami è stato licenziato giorni fà x aver fatto paragoni fra le due consol e diceva che x lui sarebbe superiore il 360... può essere vero rimane il fatto che è stato licenziato in troco...poco furbo direi...
2.A oggi con lo sviluppo che vedo sul pc non penso che le consol possano stare davanti x molto (sono possesore di un 360...) anzi oggi tutto quello che è uscito su 360 e su pc devo dire che graficamente sul bambino (pc) è tutto un^altro vedere.. x ora fate conto che esce una vga ogni 6mesi...
3.Il problema che le PS2 sono fatte x durare poco lo sappiamo tutti avevo letto un articolo anni fà che la sony diceva che sono state costruite x avere una vita media di 5anni non sò se tutti adottano questa polica il fattò xrò è che comprato il gamecube ancora vivo mente di PS2 sono alla terza..preso la slim pochi giorni fà
freerider79
30-03-2006, 19:44
tra un anno sia la PS3 che la XBOX360 saranno inferiori alla direct x 10.0 applicata alle vga di fascia alta per PC, già ora una x1900xtx o 7900gtx in SLI/crossfire sono superiori ma mancano i giochi per sfruttarle.
Nel frattempo Ho visto call of duty2 su XBOX360 e su PC con una asus7800gtx256mb e mi è sembrato meglio su PC!!! sopratutto le luci dinamiche e il fumo!!!
Sta PS3 con 256mb probabilmente condizionerà gli sviluppatori gamer a lavorare più sulla programmazione che sui MB delle texture.
saluti a tutti....
kenjcj2000
30-03-2006, 19:46
ci scommetto tutto quello che volete ma per almeno due anni ma anche 3 quello che faranno girare le console non lo si vedra sui pc
io non palro di mera potenza dell hardware
ma di GIOCHI
se non parli di potenza non vedo che cosa vuoi dire :confused: le consol sono millenni che sono con un target diverso da chi gioca sul pc :confused: quindi????????
riva.dani
30-03-2006, 19:51
Nessuno disprezza, tantomeno prima di aver provato con mano...
Però sulla carta questa console, visto il cell, pareva essere un mostro, anni luce avanti a xbox 360.
Invece dopo questa uscita aumentano i dubbi. E per averne una da testare occorrerà aspettare ancora a lungo....
leoneazzurro
30-03-2006, 19:55
Nessuno disprezza, tantomeno prima di aver provato con mano...
Però sulla carta questa console, visto il cell, pareva essere un mostro, anni luce avanti a xbox 360.
Invece dopo questa uscita aumentano i dubbi. E per averne una da testare occorrerà aspettare ancora a lungo....
Ma il Cell è un mostro solo in certo ambiti, tra l'altro in certi casi dovrebbe essere anche meno performante dello Xenon(es. gestione AI) , mentre in altri (es. gestione della fisica) essergli notevolmente superiore.
maggiore scia
30-03-2006, 20:09
cmq g 70 ha funzioni ke le attuali direct 9 non implementeno,con delle api specifiche per rsx e l'aiuto di cell penso ke si vedranno kose mai viste,ricordiamoci ke cell in virgola mobile ha una potenza staordinaria e i maggiori algoritmi grafici sono prorio in virgola mobile,poi il discorso della hdr +aa4* è gia stato superato,anzi addirittura hanno usato hdr a 16 bit,questo grazie alla sinergia di cell e rsx :) .cmq la gpu della 360 è la punta di diamante di questa generazione ,è eccezionale, basta vedere le immagini di gears of war per farsi un'idea della qualità video :)
ci scommetto tutto quello che volete ma per almeno due anni ma anche 3 quello che faranno girare le console non lo si vedra sui pc
io non palro di mera potenza dell hardware
ma di GIOCHI
ma è sempre stato cosi,con la differenza ,da come hai detto che il pc ha il vantaggio dell'hw e anche della grafica.
gli fps e gdr primeggieranno cmq su pc per il resto ho notato che molti giochi su console (quelli più acclamati) escono anche per pc, pro evolution soccer , tomb raider , splinter cell tanto per fare degli esempi.
Gli unici che non si sono visti sono i picchiaduro e i piattaforma, generi diffusi su console , cosa che è sempre stata.
leoneazzurro
30-03-2006, 20:16
cmq g 70 ha funzioni ke le attuali direct 9 non implementeno,con delle api specifiche per rsx e l'aiuto di cell penso ke si vedranno kose mai viste,ricordiamoci ke cell in virgola mobile ha una potenza staordinaria e i maggiori algoritmi grafici sono prorio in virgola mobile,poi il discorso della hdr +aa4* è gia stato superato,anzi addirittura hanno usato hdr a 16 bit,questo grazie alla sinergia di cell e rsx :) .cmq la gpu della 360 è la punta di diamante di questa generazione ,è eccezionale, basta vedere le immagini di gears of war per farsi un'idea della qualità video :)
Eh? :confused:
La news riporta '...'chip video RSX, montato nelle console Sony Playstation 3, sia basato sull'architettura NV47...'.
Non vorrei dire una cavolata, ma se l'asso nella manica di Sony fosse utilizzare +core/chip NV47-based? tanto hanno già la CPU multi-core...
tanto x sognare, magari è una castroneria galattica...
bye bye
maggiore scia
30-03-2006, 20:18
per quanto xenon, la cpu della 360, è nettamente inferiore a cell è questo alla lunga penso ke si noterà,d'altronde sulla 360 la grafica pesa tutta sulla gpu mentre sulla ps3 è una sinergia fra cpu e gpu inoltre hanno fatto vedere dei filmati sulle capacità di rendering di cell, kosa ke xenon si sogna ,cmq sono mie supposizioni i gioki saranno la prova del nove :)
kenjcj2000
30-03-2006, 20:22
cmq g 70 ha funzioni ke le attuali direct 9 non implementeno,con delle api specifiche per rsx e l'aiuto di cell penso ke si vedranno kose mai viste,ricordiamoci ke cell in virgola mobile ha una potenza staordinaria e i maggiori algoritmi grafici sono prorio in virgola mobile,poi il discorso della hdr +aa4* è gia stato superato,anzi addirittura hanno usato hdr a 16 bit,questo grazie alla sinergia di cell e rsx :) .cmq la gpu della 360 è la punta di diamante di questa generazione ,è eccezionale, basta vedere le immagini di gears of war per farsi un'idea della qualità video :)
scusa.. che vuol dire? poi basta con i filmati .... che non contano praticamente nulla...
ErminioF
30-03-2006, 20:22
ci scommetto tutto quello che volete ma per almeno due anni ma anche 3 quello che faranno girare le console non lo si vedra sui pc
io non palro di mera potenza dell hardware
ma di GIOCHI
Certo, ogni macchina ha le proprie esclusive, i mario, gli zelda, i tekken su console, fps strategici e gdr stile ue-usa solo su pc :asd:
A livello di potenza un pc di adesso se ben attrezzato è superiore alla x360, però ti viene a costare 3 volte tanto (monitor escluso, ma escludo anche una tv hd che costa ben più di un lcd 17-19" :)
Sono 2 macchine differenti difficilmente comparabili per "risultati su schermo"...anche perchè le console han sempre fatto ottime figure grazie a grafiche precalcolate-renderizzate quando su pc è di moda il 3d puro...
Io penso solo che quando uscirà Gt5 tutti staremo li così :sbav: :sbav:
E fanculo le specifiche.
Ancora adesso Gt4 mi va sbavare....e gira su una Ps2 merdosa.
Figurati cosa mi tira fuori Poliphony da un mostro del genere.
kenjcj2000
30-03-2006, 20:29
Infatti penso che già con pes (pure sul 360?) e con gt5 e final fantasy la ps3 avra già una buona fetta di mercato e poi x quanto mi riguarda le consol non le valuto solo dalla grafica non è un metodo di valutazione giusta è un modo di giocare diverso...io:
sparatutto
strategici
rpg (alla oblivion)
tutti sul pc il resto tutto consol
diabolik1981
30-03-2006, 20:50
tra un anno sia la PS3 che la XBOX360 saranno inferiori alla direct x 10.0 applicata alle vga di fascia alta per PC, già ora una x1900xtx o 7900gtx in SLI/crossfire sono superiori ma mancano i giochi per sfruttarle.
Nel frattempo Ho visto call of duty2 su XBOX360 e su PC con una asus7800gtx256mb e mi è sembrato meglio su PC!!! sopratutto le luci dinamiche e il fumo!!!
Sta PS3 con 256mb probabilmente condizionerà gli sviluppatori gamer a lavorare più sulla programmazione che sui MB delle texture.
saluti a tutti....
Ricordate un piccolo dettaglio. In campo di programmazione dei giochi la programmazione per la x360 è molto più vicina a quella per PC quindi vedo uno scenario in cui vi sarà molto porting tra x360 e PC e meno tra PS3 e le altre.
COFFEE_MUG
30-03-2006, 21:14
PER TETSUYA 1977: Bimbo nel senso che :cry: non pingere :bimbo: ovvero : non piangere. Consolazione. Nulla piu'.
PER NIIID: Forse sei davvero sfigato :D scherzo. Sicuramente i giochi PS di nuova generazione saranno sempre fantastici il fatto e' che i gusti e le preferenze portano o alle PS o al PC o, se hai dindi a tutt'e 2. Sony fa' prodotti ottimi. Per me almeno.
PER DOPPIO K: Se una tecnologia, ancor prima di nascere, (intendo commercialmente, non in qualche laboratorio dove ci sono gia' cose che vedremo tra 50 anni), viene affiancata ad una che e': piu' capiente, piu' veloce, piu' flessibile, piu' robusta, meno costosa, accessibile con materiali non super costosi o tossici si dice GIA' MORTAAAAAAAA!!!!!!!! :nera: Almeno e' la mia opinione
Per APPLE80: Il modello e' klv-42 o ke 42 mo scendo e ti ri-posto. Connesso alle casse e sub dell'impinato e perfettamente compatibile. Sono un Biaggista, quindi sorvoliamo il motogp...grazie.
C I A O. :cincin:
COFFEE_MUG
30-03-2006, 21:21
HW UPGRADE 28 MARZO 2006
NUOVO RECORD DI DENSITA PER I DISCHI OLOGRAFICI
E' di questi giorni la notizia riguardante un nuovo record raggiunto dai dischi olografici, relativo alla densità per unità di superficie di dati immagazzinabili. Hardware Upgrade ha già avuto modo di parlare dei dischi olografici, che sfruttano una tencologia di scrittura e lettura su disco ottico in grado di spostare molto in avanti il limite di capienza delle tecnologie attualmente utilizzate.
InPhase Technologies, azienda nata nel 2000 da un accordo fra Lucent e Bell Labs, si è sempre posta come obiettivo quello di investire per il futuro del settore ottico, specializzandosi nella ricerca sui dischi olografici.
E' infatti tale azienda ad annunciare il raggiungimento di una capienza di ben 515 Gbit per pollice quadro, superiore a qualsiasi valore ottenuto anche con le moderne tecnologie Perpendicular Recording applicate ai dischi rigidi magnetici di recente generazione. Se da una parte tale tecnologia ha permesso di superare i limiti dell'effetto superparamagnetico della Longitudinal Recording, è pur vero che anche la Perpendicular Recording sarà soggetta a limiti, seppur in un futuro non certo vicino.
La tecnologia di scrittura olografica applicata ai supporti ottici permetterà di superare i limiti dei supporti magnetici, anche se è difficile pensare a queste unità come a sostituti veri e propri degli attuali dischi rigidi. Le applicazioni reali saranno infatti inizialmente rivolte allo storage di massa a livello enterprise per centri dati e backup, che sfruttano attualmente tecnologie a nastro.
I primi prodotti che saranno presentati sul mercato saranno infatti dischi da 300 GB (quasi 8 volte la capienza di un supporto Blu-ray), contraddistinti però da un transfer rate abbastanza modesto se confrontato con quello degli attuali dischi rigidi: 20 MB al secondo circa. La roadmap in ogni caso parla di dischi da 800 GB e 1,6 TB ed un transfer rate massimo di 100 MB al secondo, valore decisamente più interessante di quello di prima generazione.
JohnPetrucci
30-03-2006, 22:01
Sicuramente buon chip video, ma nel complesso l'hardware della ps3 non è affatto distante da quello della Xbox 360, che tutt'ora preferisco, anche perchè la ps3 costerà sicuramente di più.
Space Marine
31-03-2006, 01:48
Io vorrei quotare il commento di ErminioF:
Console e pc son macchine diverse, con peculiarità ludiche e target diversi.
Non si può dire che le console siano meglio dei pc (sotto l'aspetto ludico).
Anche se meglio sfruttate, o magari anche meglio dotate a livello di specifiche, finora su console non si è visto un solo, VERO!!!!, simulatore di guida (e per piacere, non provateci, gt4 NON è un simulatore di guida!!! :D).
Forse l'unico che ci sia mai stato è Sega F355 Challenge, ovviamente per dreamcast, e risalente al 1999. (nel 2002 è uscita una corversione ps2, la grafica era peggiore del DC, e cmq aveva ormai fatto il suo tempo in quanto a motore fisico) E, forse, Richard Burn Rally (che cmq su pc è un altro pianeta). Dopo di allora, il nulla.
Su PC basta dire invece una sola parola: NetKarPRO.
Oppure, per parlare di altri generi:
Sim di volo, giochi di strategia, FPS (con mouse e tastiera!!!), sono tutti generi che su console, a meno che non cambi rotta il mercato, non ci saranno mai, o cmq non saranno mai al livello del PC.
Oppure, picchiaduro, platform et similia decenti su pc non se ne vedono da anni. E i giochi arcade belli su pc non sono molti.
Dipende tutto dal genere di gioco che interessa.
Personalmente, cercando simulatori di guida, preferisco il pc.
GT4 sarà anche un bel gioco (mai messo in dubbio), ma non è un simulatore. E poi il pc si può usare anche per altro, e se voglio giocare online non mi tocca pagare, insieme all'operatore telefonico, anche il pizzo al produttore di turno.
Chi preferisce gli arcade, oppure cerca certe serie specifiche (dead or alive, ff etc...) sicuramente preferirà le console.
Ma basta con sti confronti a chi c'ha la grafica "più lunga"
I giochi son fatti per esser giocati, non per esser guardati.
Se vi piace la grafica, andate al cinema, o compratevi un Amiga 1000 e fateci girare qualche demo.
Risparmierete un sacco di soldi e vi divertirete di più, scoprendo anche una delle macchine che ha fatto la storia dell'informatica.
P.S: speriamo che esca presto sto GT5, così esce pure il Driving Force Pro 2... =D
BlackBug
31-03-2006, 06:28
la cosa noiosa...è che continuano solo a parlare...fatti e non pugnette! tirate fuori questo arnese e vediamo chi è + forte!
coschizza
31-03-2006, 10:22
per quanto xenon, la cpu della 360, è nettamente inferiore a cell è questo alla lunga penso ke si noterà,d'altronde sulla 360 la grafica pesa tutta sulla gpu mentre sulla ps3 è una sinergia fra cpu e gpu inoltre hanno fatto vedere dei filmati sulle capacità di rendering di cell, kosa ke xenon si sogna ,cmq sono mie supposizioni i gioki saranno la prova del nove :)
questo non è vero anche i core della 360 vengono utilizzati per elaborare gli oggetti e passarli in stream verso la gpu, quindi quello che puo fare tecnicamente in cell lo fa oggi la console MS ,infatti in giochi come Oblivion ufficialmente tutti gli alberi vengono gegerati dimanicamente dalla cpu (per renderli tutti diversi) e messi nella sua cache L2 per essere presi dalla gpu e messi sullo schermo.
il cell ha solo un vantaggio di potenza elaborativa ma niente di piu
dadolino
31-03-2006, 10:39
x Rufus
considera le caratteristiche di un console Old gen come ps2 o Xbox e dimmi quando i giochi su Pc hanno raggiunto quei livelli e con quali caratteristiche.Poi ne riparliamo
Cmq le console in genere sono macchine che sono messe a punto in ogni dettaglio...anche il più ottimizzato tra i Pc ha una serie di "freni" od impedimenti che a parità di frequenza del processore centrale e di quello grafico non potrà mai competere con una console!
Sawato Onizuka
31-03-2006, 11:31
ragazzi adesso nn ho seguito il topic cmq se alla base della ps3 ci sta G70 penso che la motivazione sia che Cell funge un po' come il PowerPC che era presente sul GameCube, ovvero si occupava anche di realizzare aspetti grafici, quindi l'RSX nn avrebbe bisogno di una eccessiva potenza per evitare sprechi ... imho
chiedo delucidazioni sul mio pensiero :help: ;)
coschizza
31-03-2006, 11:36
ragazzi adesso nn ho seguito il topic cmq se alla base della ps3 ci sta G70 penso che la motivazione sia che Cell funge un po' come il PowerPC che era presente sul GameCube, ovvero si occupava anche di realizzare aspetti grafici, quindi l'RSX nn avrebbe bisogno di una eccessiva potenza per evitare sprechi ... imho
chiedo delucidazioni sul mio pensiero :help: ;)
la tua analisi è esatta la 100% perche sia nella cpu della ps3 che della xbox 360 alcune funzioni di "geometry shader" o di "PPU" sono gestite dall cpu per allegerire la gpu (che deve fare molto altro pero).
il problema sta solo nella banda, entrambe la console hanno la possibilta di muover i giochi in 720p senza problemi ma il "sogno" della sony di fare tutto in 1080P a 60fps in doppio monitor (mi ricordo in diretta le parole all'E3 del 2005) resterà solo un miraggio.
maggiore scia
01-04-2006, 14:12
il punto di forza della 360 è la gpu, mentre nella ps3 è il cell, cmq rispetto a ps2, stavolta sony ha messo una signora gpu grazie a invidia.
kenjcj2000
01-04-2006, 20:52
scusa se insisto ma mi spieghi questo :D
cmq g 70 ha funzioni ke le attuali direct 9 non implementeno,con delle api specifiche per rsx e l'aiuto di cell penso ke si vedranno kose mai viste,ricordiamoci ke cell in virgola mobile ha una potenza staordinaria e i maggiori algoritmi grafici sono prorio in virgola mobile,poi il discorso della hdr +aa4* è gia stato superato,anzi addirittura hanno usato hdr a 16 bit,questo grazie alla sinergia di cell e rsx .cmq la gpu della 360 è la punta di diamante di questa generazione ,è eccezionale, basta vedere le immagini di gears of war per farsi un'idea della qualità video
forse a volte è meglio un copia incolla :ave: :winner: :tapiro:
per quanto xenon, la cpu della 360, è nettamente inferiore a cell è questo alla lunga penso ke si noterà,d'altronde sulla 360 la grafica pesa tutta sulla gpu mentre sulla ps3 è una sinergia fra cpu e gpu inoltre hanno fatto vedere dei filmati sulle capacità di rendering di cell, kosa ke xenon si sogna ,cmq sono mie supposizioni i gioki saranno la prova del nove :)
nn è affatto vero, anzi x un bel po' i gioki x 360 saranno migliori, poi in futuro mi sà ke saranno uguali, soprattutto xkè Xenon è molto + facile da programmare rispetto a Cell (gli stessi sviluppatori lo hanno ammesso).
Secondo me l'hardware meglio progettato è quello di 360, è molto ben equilibrato.
Sony ha fatto quasi lo stesso errore di Nintendo x Revo: ha messo una GPU ke è già vekkia prima di essere immessa sul mercato...
P.S. i filmati della PS3 erano pre-renderizzati
maggiore scia
02-04-2006, 09:30
scusa se insisto ma mi spieghi questo :D
cmq g 70 ha funzioni ke le attuali direct 9 non implementeno,con delle api specifiche per rsx e l'aiuto di cell penso ke si vedranno kose mai viste,ricordiamoci ke cell in virgola mobile ha una potenza staordinaria e i maggiori algoritmi grafici sono prorio in virgola mobile,poi il discorso della hdr +aa4* è gia stato superato,anzi addirittura hanno usato hdr a 16 bit,questo grazie alla sinergia di cell e rsx .cmq la gpu della 360 è la punta di diamante di questa generazione ,è eccezionale, basta vedere le immagini di gears of war per farsi un'idea della qualità video
forse a volte è meglio un copia incolla :ave: :winner: :tapiro:
mi rispiego,g70 a delle feature, ke le attuali direct 9 non hanno modo di sfruttare, quindi con delle librerie specifiche sviluppate da sony questa gpu verra sfruttata al massimo, inoltre su ps3 con cell e rsx si puo fare tranquillamente hdr e aa4* ;)
maggiore scia
02-04-2006, 09:34
nn è affatto vero, anzi x un bel po' i gioki x 360 saranno migliori, poi in futuro mi sà ke saranno uguali, soprattutto xkè Xenon è molto + facile da programmare rispetto a Cell (gli stessi sviluppatori lo hanno ammesso).
Secondo me l'hardware meglio progettato è quello di 360, è molto ben equilibrato.
Sony ha fatto quasi lo stesso errore di Nintendo x Revo: ha messo una GPU ke è già vekkia prima di essere immessa sul mercato...
P.S. i filmati della PS3 erano pre-renderizzati
guarda ke il cell, in floating point, è il doppio piu potente di xenon è sicuramente col tempo si allargherà il divario prestazionale a favore di ps3 :) .
kenjcj2000
02-04-2006, 09:34
mi rispiego,g70 a delle feature, ke le attuali direct 9 non hanno modo di sfruttare, quindi con delle librerie specifiche sviluppate da sony questa gpu verra sfruttata al massimo, inoltre su ps3 con cell e rsx si puo fare tranquillamente hdr e aa4* ;)
stesso discorso vale x il 360 ;)
kenjcj2000
02-04-2006, 09:38
poi x quanto riguarda la potenza ti riposto questo:
Un ingegnere (mi sembra..) che non ricordo assolutamente come si chiami è stato licenziato giorni fà x aver fatto paragoni fra le due consol e diceva che x lui sarebbe superiore il 360... può essere vero rimane il fatto che è stato licenziato in troco...poco furbo direi...
notizia VERA
maggiore scia
02-04-2006, 09:44
stesso discorso vale x il 360 ;)
si infatti,anke per xenos microsoft ha sviluppato librerie specifiche da notare i pixel shader 3.0+ ke sono quasi i pixel shader 4.0 delle future dx 10,già sbavo :sborone:
kenjcj2000
02-04-2006, 09:49
si infatti,anke per xenos microsoft ha sviluppato librerie specifiche da notare i pixel shader 3.0+ ke sono quasi i pixel shader 4.0 delle future dx 10,già sbavo :sborone:
Il fatto è che le librerie di cui tu parli sono sboccabili (dico cosi) con le dtx10 infatti non capisco tutto il tuo sbav sulla Ps3 a sentire i tuoi interventi il 360 non ha nulla di quello da tè citato :confused: non sono x nulla convito che sarà la consol più potente forse (probabilmente) avrà le maggiori escusive ne ne faranno consigliare l^acquiso
maggiore scia
02-04-2006, 09:52
poi x quanto riguarda la potenza ti riposto questo:
Un ingegnere (mi sembra..) che non ricordo assolutamente come si chiami è stato licenziato giorni fà x aver fatto paragoni fra le due consol e diceva che x lui sarebbe superiore il 360... può essere vero rimane il fatto che è stato licenziato in troco...poco furbo direi...
notizia VERA
dico questo,le due console hanno filosofie costruttive diverse, e in certi campi una darà il meglio dell'altra :)
guarda ke il cell, in floating point, è il doppio piu potente di xenon è sicuramente col tempo si allargherà il divario prestazionale a favore di ps3 :) .
Sony continua a sbandierare ke nel calcolo in virgola mobile Cell ha il doppio della potenza rispetto a Xenon...ma si dimentica il calcolo a numeri interi dove Xenon ha il triplo della potenza di Cell vantando tre proci General Purpose mentre Cell ne ha uno solo. ;)
Da qualke parte ho letto ke l' 80% dei calcoli dei gioki sono in numeri interi, mentre il restante 20% sono in virgola mobile.
L'hai detto: COL TEMPO, il divario si vedrà solo quando queste console dovranno andare in pensione e c saranno già X720 e PS4! :mc:
maggiore scia
02-04-2006, 14:29
Sony continua a sbandierare ke nel calcolo in virgola mobile Cell ha il doppio della potenza rispetto a Xenon...ma si dimentica il calcolo a numeri interi dove Xenon ha il triplo della potenza di Cell vantando tre proci General Purpose mentre Cell ne ha uno solo. ;)
Da qualke parte ho letto ke l' 80% dei calcoli dei gioki sono in numeri interi, mentre il restante 20% sono in virgola mobile.
L'hai detto: COL TEMPO, il divario si vedrà solo quando queste console dovranno andare in pensione e c saranno già X720 e PS4! :mc:
penso ke ti sbagli,forse è l'incontrario tutti gli algoritmi grafici e fisici sono in virgola mobile mentre l'ia è fatta da interi,vedi tu ;)
L'IA in numeri interi, la fisica in virgola mobile, la grafica mi sembra sia mista...
cmq le due piattaforme si equivalgono, cioè ognuna ha i suoi punti di forza e i suoi punti deboli.
è sempre così
senti ma x caso 6 un fanatico di sony?
se l' X360 nn t piace o forse nn sopporti microzozz, nn vuol dire ke la sua console debba essere x forza inferiore a quella di sony...
poi ognuno ha il suo modo di vederla
ciao
Gli unici effetti che non sono disponibili su RSX ma su R500 si sono quelli HDR in contemporanea all'AA.
Emh..forse dovresti riformulare questa frase come:
secondo me su RSX non puoi avere AA su un render target floating point.
Che poi R500 sia più potente (più efficiente, sopratutto) di RSX lo sapevano anche i sassi da mesi, potendo tra l'altro utilizzare l'AA con minima perdita prestazionale. Tuttavia credo che alla fine tutta questa differenza grafica non ci sarà.
Non esserne cosi' certo. Metti che hai su RSX un simpatico pixel shader che viene eseguito in 20 cicli di clock (roba di normale amminstrazione), con 24 pipeline RSX produrra' (teoricamente) 1.2 pixel per ciclo di clock.
Diciamo che per scrivere questo pixel in memoria devi anche leggere e aggiornare lo zbuffer, indi per cui ti servono 1.2*12 bytes per ciclo di clock = 14.4 bytes
Ogni ciclo di clock RSX puo' leggere/scrivere 40 bytes, inoltre puo' comprimere color e z, la maggior parte dei sample con AA 4x consumano solo un quarto della banda che sarebbe altrimenti necessaria, la banda extra ti serve solo sugli edge.
Quindi facciamo un altra stima spannometrica e diciamo che ti servono 20 bytes per ciclo di clock per renderizzare il tuo simpatico pixel, ergo la meta' (leggeramente meno, c'e' anche il RAMDAC che vuole la sua parte) della banda libera per le texture.
Per shader piu' pesanti la situazione migliora ulteriormente..insomma.. la AA non sara' un particolare problema ;)
A meno che tu non abbia un gioco con tonnellate di effetti particellari (alto fillrate..ALU praticamente ferme..), allora il discorso cambia :)
(tieni anche conto che non ho considerato affatto flexIO...)
maggiore scia
02-04-2006, 18:58
senti ma x caso 6 un fanatico di sony?
se l' X360 nn t piace o forse nn sopporti microzozz, nn vuol dire ke la sua console debba essere x forza inferiore a quella di sony...
poi ognuno ha il suo modo di vederla
ciao
scusate ho sbagliato a quotare,sorry
maggiore scia
02-04-2006, 19:09
Emh..forse dovresti riformulare questa frase come:
secondo me su RSX non puoi avere AA su un render target floating point.
Non esserne cosi' certo. Metti che hai su RSX un simpatico pixel shader che viene eseguito in 20 cicli di clock (roba di normale amminstrazione), con 24 pipeline RSX produrra' (teoricamente) 1.2 pixel per ciclo di clock.
Diciamo che per scrivere questo pixel in memoria devi anche leggere e aggiornare lo zbuffer, indi per cui ti servono 1.2*12 bytes per ciclo di clock = 14.4 bytes
Ogni ciclo di clock RSX puo' leggere/scrivere 40 bytes, inoltre puo' comprimere color e z, la maggior parte dei sample con AA 4x consumano solo un quarto della banda che sarebbe altrimenti necessaria, la banda extra ti serve solo sugli edge.
Quindi facciamo un altra stima spannometrica e diciamo che ti servono 20 bytes per ciclo di clock per renderizzare il tuo simpatico pixel, ergo la meta' (leggeramente meno, c'e' anche il RAMDAC che vuole la sua parte) della banda libera per le texture.
Per shader piu' pesanti la situazione migliora ulteriormente..insomma.. la AA non sara' un particolare problema ;)
A meno che tu non abbia un gioco con tonnellate di effetti particellari (alto fillrate..ALU praticamente ferme..), allora il discorso cambia :)
(tieni anche conto che non ho considerato affatto flexIO...)
scusa nao,tenendo conto anke del flex io,kosa intendi anke la partecipazione di cell nel rendering con rsx.in poke parole ,il cell sarebbe in grado di fare da solo AA e lasciare rsx al suo compito ke gli compete meglio, ossia i pixel shader.magari ho detto una stupidità :help: pero sono kurioso :)
scusa nao,tenendo conto anke del flex io,kosa intendi anke la partecipazione di cell nel rendering con rsx.in poke parole ,il cell sarebbe in grado di fare da solo AA e lasciare rsx al suo compito ke gli compete meglio, ossia i pixel shader.magari ho detto una stupidità :help: pero sono kurioso :)
L'AA non e' una cosa che puoi separare dal rendering, non e' un effetto in piu', indi per cui a meno che tu non renderizzi la scena usando la CPU (cosa altamente improbabile) CELL non potra' occuparsi dell'AA per forza di cose.
FlexIO come da specs rilasciate da extra banda a RSX
maggiore scia
02-04-2006, 19:22
Il fatto è che le librerie di cui tu parli sono sboccabili (dico cosi) con le dtx10 infatti non capisco tutto il tuo sbav sulla Ps3 a sentire i tuoi interventi il 360 non ha nulla di quello da tè citato :confused: non sono x nulla convito che sarà la consol più potente forse (probabilmente) avrà le maggiori escusive ne ne faranno consigliare l^acquiso
ma io sto parlando solo del lato tecnico delle due macchine,perkè finalmente sono due console con le contropalle hanno il meglio dell'hardware ke offre oggi,sono come due moto da moto gp, un banco di prova su cui lavorare per il futuro,vedi r500 ke dara inizio a schede con pipe unificate anke per pc e il cell ke verra sfruttato anke in altri ambienti vedi i server e magari anke i pc desktop.mai successo prima nelle storie delle console,questo fa anke capire, ke case come ms e sony, ci credono veramente e ci investono suon di quatrini.
maggiore scia
02-04-2006, 19:34
L'AA non e' una cosa che puoi separare dal rendering, non e' un effetto in piu', indi per cui a meno che tu non renderizzi la scena usando la CPU (cosa altamente improbabile) CELL non potra' occuparsi dell'AA per forza di cose.
FlexIO come da specs rilasciate da extra banda a RSX
grazie per la spiegazione,e ti ringrazio ulteriormente per i tuoi interventi sono sempre precisi e dettagliati. :)
leoneazzurro
02-04-2006, 21:09
Emh..forse dovresti riformulare questa frase come:
secondo me su RSX non puoi avere AA su un render target floating point.
Era quello che intenedevo dire (HDR FP16+AA non disponibile si RSX), magari un pò ingarbugliatamente.
Non esserne cosi' certo. Metti che hai su RSX un simpatico pixel shader che viene eseguito in 20 cicli di clock (roba di normale amminstrazione), con 24 pipeline RSX produrra' (teoricamente) 1.2 pixel per ciclo di clock.
Diciamo che per scrivere questo pixel in memoria devi anche leggere e aggiornare lo zbuffer, indi per cui ti servono 1.2*12 bytes per ciclo di clock = 14.4 bytes
Ogni ciclo di clock RSX puo' leggere/scrivere 40 bytes, inoltre puo' comprimere color e z, la maggior parte dei sample con AA 4x consumano solo un quarto della banda che sarebbe altrimenti necessaria, la banda extra ti serve solo sugli edge.
Quindi facciamo un altra stima spannometrica e diciamo che ti servono 20 bytes per ciclo di clock per renderizzare il tuo simpatico pixel, ergo la meta' (leggeramente meno, c'e' anche il RAMDAC che vuole la sua parte) della banda libera per le texture.
Per shader piu' pesanti la situazione migliora ulteriormente..insomma.. la AA non sara' un particolare problema ;)
A meno che tu non abbia un gioco con tonnellate di effetti particellari (alto fillrate..ALU praticamente ferme..), allora il discorso cambia :)
(tieni anche conto che non ho considerato affatto flexIO...)
Intendevo infatti dire che a conti fatti IMHO non ci saranno differenze sostanziali tra RSX e R500 per quanto riguarda ciò che saranno in grado di produrre in termini di resa grafica: se l'AA su R500 viene realizzato tramite l'EDRAM (che è una necessità su un'architettura UMA come quella di Xbox360, e con un bus a 128 bit), con RSX si utilizzerà il metodo tradizionale. R500 tuttavia ha sicuramente un'architettura più efficiente in termini organizzativi (e questo influisce sulle capacità computazionali reali).
Ma alla fine, con risoluzioni come il 720p, la potenza di entrambi i chips è sicuramente sovrabbondante. Al di sopra, Xbox360 non è andato per scelta (e ci sarebbe voluta sia più banda passante della memoria unificata sia un maggiore quantitativo di EDRAM per evitare di non poter utilizzare in pratica l'AA), mentre ho delle forti perplessità nei confronti di RSX di poter gestire i 1920x1080 punti in 1080p (1080i lo vedo ancora gestibile) con HDR o AA: IMHO non c'è la potenza bruta e la banda passante per farlo. La mia opinione è che i giochi usciranno quasi tutti in 720p o al massimo 1080i, e il 1080p sarà dedicato solo alla riproduzione dei film su supporti blu-ray.
Era quello che intenedevo dire (HDR FP16+AA non disponibile si RSX), magari un pò ingarbugliatamente.
E' importante perche' il 99% delle volte HDR e FP16 vengono interscambiati quasi fossero la stessa cosa.
Intendevo infatti dire che a conti fatti IMHO non ci saranno differenze sostanziali tra RSX e R500 per quanto riguarda ciò che saranno in grado di produrre in termini di resa grafica: se l'AA su R500 viene realizzato tramite l'EDRAM (che è una necessità su un'architettura UMA come quella di Xbox360, e con un bus a 128 bit), con RSX si utilizzerà il metodo tradizionale.
QUello che volevo dire e sottolineare BENE e' che nell'esermpio che ho fatto l'EDRAM non e' di nessun vantaggio. E non e' fatto un esempio lontano dalla realta'.
R500 tuttavia ha sicuramente un'architettura più efficiente in termini organizzativi (e questo influisce sulle capacità computazionali reali).
Sulla carta si, che sia anche vero nella realta' e' un altro discorso.
Attenzione: non sto dicendo che non possa esserlo o che non lo e', ma semplicemente che non lo sappiamo (io non lo so, tu non so..)
Non e' che una GPU unificata la si fa in 2 secondi, per certi versi e' piu' complessa di una GPU non unificata e in alcuni casi non e' affatto detto che sia piu' veloce.
Ma alla fine, con risoluzioni come il 720p, la potenza di entrambi i chips è sicuramente sovrabbondante.
Sovrabbondante? Per quanto mi riguarda non lo e' affatto, anzi..
Al di sopra, Xbox360 non è andato per scelta (e ci sarebbe voluta sia più banda passante della memoria unificata sia un maggiore quantitativo di EDRAM per evitare di non poter utilizzare in pratica l'AA), mentre ho delle forti perplessità nei confronti di RSX di poter gestire i 1920x1080 punti in 1080p (1080i lo vedo ancora gestibile) con HDR o AA: IMHO non c'è la potenza bruta e la banda passante per farlo. La mia opinione è che i giochi usciranno quasi tutti in 720p o al massimo 1080i, e il 1080p sarà dedicato solo alla riproduzione dei film su supporti blu-ray.
Anche io personalmente non ho dubbi sul fatto che la stragrande maggioranza dei giochi per PS3 gireranno in 720p o 1080i, ma non ho dubbi anche sul fatto che vedremo di tanto in tanto qualche gioco in 1080p.
Il motivo e' semplice..se hai un titolo che non richiede chissa' quanti shader complessi puoi benissimo farlo in 1080p sfruttando la PS3 a dovere.
Girando a 30 fps hai quasi 450 milioni di cicli di clock spare su RSX per frame, ovvero quasi 150 cicli per pixel!
Anche considerando una efficienza penosa (25%) hai piu' di 30 cicli (piu' o meno 60-90 istruzioni) per pixel da usare.
Per qualcosa di semplice sono strasufficienti..e non ho dubbi che verso la fine
della vita della console (o forse anche prima? :) ) qualcuno si inventera' qualche diavoleria per riuscire a fare giochi impressionanti a livello grafico anche a 1080p
Sony continua a sbandierare ke nel calcolo in virgola mobile Cell ha il doppio della potenza rispetto a Xenon...ma si dimentica il calcolo a numeri interi dove Xenon ha il triplo della potenza di Cell vantando tre proci General Purpose mentre Cell ne ha uno solo. ;)
Da qualke parte ho letto ke l' 80% dei calcoli dei gioki sono in numeri interi, mentre il restante 20% sono in virgola mobile.
L'hai detto: COL TEMPO, il divario si vedrà solo quando queste console dovranno andare in pensione e c saranno già X720 e PS4! :mc:
ma guarda a me questa cosa dell 80% son numeri interi mi fa ridere ma anche tanto...
Sulla carta si, che sia anche vero nella realta' e' un altro discorso. Attenzione: non sto dicendo che non possa esserlo o che non lo e', ma semplicemente che non lo sappiamo (io non lo so, tu non so..) Non e' che una GPU unificata la si fa in 2 secondi, per certi versi e' piu' complessa di una GPU non unificata e in alcuni casi non e' affatto detto che sia piu' veloce.
Ati ha in progetto gli shader unificati dai tempi del R400. ;)
leoneazzurro
03-04-2006, 01:04
QUello che volevo dire e sottolineare BENE e' che nell'esermpio che ho fatto l'EDRAM non e' di nessun vantaggio. E non e' fatto un esempio lontano dalla realta'.
Ma infatti l'EDRAM serve in pratica solo per l'AA, per i PS dipende tutto da chip e RAM.
Sulla carta si, che sia anche vero nella realta' e' un altro discorso.
Attenzione: non sto dicendo che non possa esserlo o che non lo e', ma semplicemente che non lo sappiamo (io non lo so, tu non so..)
Non e' che una GPU unificata la si fa in 2 secondi, per certi versi e' piu' complessa di una GPU non unificata e in alcuni casi non e' affatto detto che sia piu' veloce.
Beh, io parlo chiaramente del "sulla carta" più delle impressioni di alcuni recensori più alcune discussioni avute con Yossarian a riguardo. L'idea è che il chip in sè sia decisamente buono per quel che deve fare, poi è chiaro che se ci sono altri colli di bottiglia (dalla CPU in primis per passare alla RAM, ecc) non performerà mai come dovrebbe, ma questo è vero per tutti i sistemi.
Sovrabbondante? Per quanto mi riguarda non lo e' affatto, anzi..
Una risoluzione 720 p è 1280x720. Ora, con una scheda PC di 2 anni fa (una 6800 GT-128 mega) a 1024x768 il mio PC riesce a far girare bene Oblivion (che è un gioco con un gran dettaglio grafico e direi dovrebbe essere più o meno quello che ci si può aspettare da un gioco per PS3, su Xbox è già uscito) sia in HDR che in blooming+AA4x. Considerando che il PC con Windows ha anche un sistema operativo che sottrae un pò di risorse al sistema, direi quindi che un RSX, decisamente più potente della mia scheda, non dovrebbe avere problemi a far girare qualcosa del genere su una PS3. Chiaro che aumentando il dettaglio poligonale e la pesantezza degli shader si può far sedere qualunque cosa, ma è anche vero che con un HW fissato si può ottimizzare meglio. Diciamo quindi che, se non sovrabbondante, IMHO la potenza grafica non difetta in nessuna delle due soluzioni.
Anche io personalmente non ho dubbi sul fatto che la stragrande maggioranza dei giochi per PS3 gireranno in 720p o 1080i, ma non ho dubbi anche sul fatto che vedremo di tanto in tanto qualche gioco in 1080p.
Il motivo e' semplice..se hai un titolo che non richiede chissa' quanti shader complessi puoi benissimo farlo in 1080p sfruttando la PS3 a dovere.
Girando a 30 fps hai quasi 450 milioni di cicli di clock spare su RSX per frame, ovvero quasi 150 cicli per pixel!
Anche considerando una efficienza penosa (25%) hai piu' di 30 cicli (piu' o meno 60-90 istruzioni) per pixel da usare.
Per qualcosa di semplice sono strasufficienti..e non ho dubbi che verso la fine
della vita della console (o forse anche prima? :) ) qualcuno si inventera' qualche diavoleria per riuscire a fare giochi impressionanti a livello grafico anche a 1080p
Si, credo anche io che qualcosa uscirà a 1080p, anche se la percentuale soprattutto inizialmente IMHO sarà bassina: ritengo anche che per forza all'inizio dovranno essere titoli più semplici e a mio parere questo ridurrà l'effetto di questi giochi. Ovvero, se per avere un gioco 1080p, debbo ridurre gli effetti/shader probabilmente molti potrebbero preferire un titolo a "soli" 720p ma più "ricco". Poi è chiaro che se sono riusciti a tirare fuori un GT4 e un God of War da una PS2, qualcosa si inventeranno per poter spremere la PS3 anche a 1080p... :)
Ati ha in progetto gli shader unificati dai tempi del R400. ;)
E quindi? e' garanzia di qualcosa?
Ma infatti l'EDRAM serve in pratica solo per l'AA, per i PS dipende tutto da chip e RAM.
Emh..no. Rileggi quello che ho scritto. Con qualsiasi shader non banale (e mi pare che praticamente tutti i giochi puntinno in questa direzione) l'edram non da nessun contributo rilevante, AA o meno non fa differenza.
Non e' come sulla ps2 dove l'edram era fondementale visto che non avevi neanhce il multitexturing e dovevi multipassare tutto.
Beh, io parlo chiaramente del "sulla carta" più delle impressioni di alcuni recensori più alcune discussioni avute con Yossarian a riguardo. L'idea è che il chip in sè sia decisamente buono per quel che deve fare, poi è chiaro che se ci sono altri colli di bottiglia (dalla CPU in primis per passare alla RAM, ecc) non performerà mai come dovrebbe, ma questo è vero per tutti i sistemi.
Scusa ma come fai a sapere se un chip e' buono o no? Hai una vaga idea di quanti CENTINAIA di colli di bottiglia diversi una gpu puo' avere?
Non sappiamo niente di Xenos, gli unici che potrebbero dirci qualcosa non possono farlo.
Pensi che una architettura unifcata porti solo benefici? ti sbagli, se la storiella fosse cosi' semplice le avremmo viste su PC da un pezzo, e il fatto che per la prima volta sia arrivata su una console non e' un caso.
Ovvero, se per avere un gioco 1080p, debbo ridurre gli effetti/shader probabilmente molti potrebbero preferire un titolo a "soli" 720p ma più "ricco". Poi è chiaro che se sono riusciti a tirare fuori un GT4 e un God of War da una PS2, qualcosa si inventeranno per poter spremere la PS3 anche a 1080p... :)
Infatti m$ ha sbagliato a non supportare 1080p, perche' prima o poi qualcuno ci avrebbe fatto qualcosa.
=>TaroKSoft<=
03-04-2006, 02:05
Sony continua a sbandierare ke nel calcolo in virgola mobile Cell ha il doppio della potenza rispetto a Xenon...ma si dimentica il calcolo a numeri interi dove Xenon ha il triplo della potenza di Cell vantando tre proci General Purpose mentre Cell ne ha uno solo. ;)
Da qualke parte ho letto ke l' 80% dei calcoli dei gioki sono in numeri interi, mentre il restante 20% sono in virgola mobile.
L'hai detto: COL TEMPO, il divario si vedrà solo quando queste console dovranno andare in pensione e c saranno già X720 e PS4! :mc:
scusa ma AMD è più veloce nei calcoli in virgola mobile e guarda a caso va meglio nei giochi rispetto a intel. :)
Nei games servono calcoli in floating point. :)
leoneazzurro
03-04-2006, 02:10
Emh..no. Rileggi quello che ho scritto. Con qualsiasi shader non banale (e mi pare che praticamente tutti i giochi puntinno in questa direzione) l'edram non da nessun contributo rilevante, AA o meno non fa differenza.
Non e' come sulla ps2 dove l'edram era fondementale visto che non avevi neanhce il multitexturing e dovevi multipassare tutto.
Da quel che so io, l'EDRAM serve solo per ottenere l'AA multisampling a costo molto ridotto. Quindi mi sembra logico che se il collo di bottiglia è a livello shader, l'EDRAM non dia nessun vantaggio (e non mi sembra di avere detto il contrario). Tuttavia è anche vero che su RSX l'AA comporta un degrado delle prestazioni percentualmente più marcato rispetto alle stime su R500 (basta vedere quanto incide l'AA su una 7800 GTX, per fare un esempio, considerando anche che ci sarà anche FlexIO, ma che comunque la banda della memoria dedicata è decisamente più limitata rispetto alla schede PC). E questi sono dati effettivi (ossia RSX bene o male sappiamo come può comportarsi, tenendo conto che se le voci sono vere avrà anche la metà delle ROPs di una 7800/7900 GTX). Per cui potremmo avere una situazione in cui pur essendo R500 più limitato prestazionalmente senza AA, con AA le prestazioni dei due chip si equivalgono o comunque non sono molto distanti.
Scusa ma come fai a sapere se un chip e' buono o no? Hai una vaga idea di quanti CENTINAIA di colli di bottiglia diversi una gpu puo' avere?
Non sappiamo niente di Xenos, gli unici che potrebbero dirci qualcosa non possono farlo.
Pensi che una architettura unifcata porti solo benefici? ti sbagli, se la storiella fosse cosi' semplice le avremmo viste su PC da un pezzo, e il fatto che per la prima volta sia arrivata su una console non e' un caso.
E' chiaro che il chip bisogna provarlo, ecc. Io ho letto un bel pò su Xenos, ad esempio l'analisi tecnica (molto approfondita, mi pare) su Beyond3D e siti similari, e anche commenti di programmatori che lo hanno provato e che ne hanno parlato in maniera molto buona (leggevo su di un sito straniero che alcuni programmatori di Kameo erano stati "piacevolmente sorpresi" dalle prestazioni di Xenos), segno che le limitazioni sicuramente ci sono ma che il progetto non è certo male. Un'architettura unificata è ovvio che non porti solo benefici, ad esempio una delle prime domande che feci a proposito dell'architettura unificata fu "ma non è che un'architettura tradizionale è in grado di svolgere determinati compiti in maniera più rapida di un'architettura unificata"? Questo per dirti che anche io non sono convinto che a priori un'architettura unificata sia per forza migliore, tra l'altro la logica di controllo è più complessa. Però non è detto neanche che a priori debba risultare peggiore di una tradizionale. Il discorso del fatto che sia apparsa su console è anche dovuto al fatto che il "rischio sperimentazione" (ossia utilizzare un'architettura grafica particolare e non derivata da quello che c'è su PC) su una console è meno gravoso che non su di un PC, anzi sulle console si è spinti a trovare soluzioni tali da avere il massimo risultato con il minimo costo. E se il futuro parla di architetture unificate anche sul PC (e non usciranno tra 10 anni, molto prima) evidentemente significa che alla lunga l'approccio unificato paga. sopratutto quando si cominciano ad aggiungere determinate features alle GPU.
Dal punto di vista della pura potenza di calcolo, Xenos non fa tanto schifo, anzi: 48 unità shader unificate, ognuna in grado di svolgere 1 istruzione vettoriale + 1 scalare per ciclo di clock, significano che il suo potenziale in termini di Flops teorico è sì inferiore a quello teorico di RSX (anche se questo ha delle limitazione nelle operazioni che coinvolgono i texture fetch) ma la possibilità di sfruttare meglio le ALU secondo ATI permettono di raggiungere un'efficienza interna del 95%, il che avvicina molto le due soluzioni. Il vero limite di R500 nella Xbox 360 è IMHO la memoria: l'architettura UMA com una banda passante così ridotta rispetto alla concorrenza ( e alle soluzioni da PC) penalizza molto questa GPU, e IMHO non a caso ci sono soluzioni atte a minimizzare l'impegno di banda passante e a sfruttare meglio l'architettura UMA (es. sempre l'EDRAM, le funzioni MEMEXPORT). Poi, non essendo un programmatore, nè avendo un kit di sviluppo nè di PS3 nè di Xbox360, prove dirette non posso farne.
Infatti m$ ha sbagliato a non supportare 1080p, perche' prima o poi qualcuno ci avrebbe fatto qualcosa.
Quello sempre. Bisogna vedere cosa ci faranno su PS3 (e se il costo dei televisori full HD calerà in fretta, al momento i costi sono troppo alti - e monitor LCD di buona dimensione e risoluzione sono comunque non proprio a buon mercato).
scusate l'errore ma io in buona fede mi sono fidato della dikiarazione di J Allard in un numero di XMU dovevo aspettarmelo xò ke i dati delle case produttrici in genere sono un po' troppo "ottimistici"
scusate la gaffe
ciao
leoneazzurro
03-04-2006, 08:55
scusa ma AMD è più veloce nei calcoli in virgola mobile e guarda a caso va meglio nei giochi rispetto a intel. :)
Nei games servono calcoli in floating point. :)
Si e no. La fisica in genere lavora su dati FP, ma altre componenti lavorano sugli interi (es, IA).
Ricordate un piccolo dettaglio. In campo di programmazione dei giochi la programmazione per la x360 è molto più vicina a quella per PC quindi vedo uno scenario in cui vi sarà molto porting tra x360 e PC e meno tra PS3 e le altre.
Solo una precisazione, perche' e' vero il contrario.
Usare la GPU della PS3 e' molto piu' simile a cio' che si fa su PC rispetto al 360, che impone diverse modifiche ad un engine pensato su PC (sia per la presenza dell'EDRAM, sia per l'R500 che e' sostanzialmente differente da ogni GPU su PC).
Sulla carta si, che sia anche vero nella realta' e' un altro discorso.
Attenzione: non sto dicendo che non possa esserlo o che non lo e', ma semplicemente che non lo sappiamo (io non lo so, tu non so..)
Non e' che una GPU unificata la si fa in 2 secondi, per certi versi e' piu' complessa di una GPU non unificata e in alcuni casi non e' affatto detto che sia piu' veloce.
Infatti, come ci insegna Yoss, in situazioni in cui il rapporto fra vertici e frammenti in transito e' vicino a quello cablato in una GPU a shader non unificati, questa e' una soluzione certamente piu' efficiente. Inoltre su una GPU a shader unificati tutta una classe di ottimizzazioni perde senso: ad esempio non ha piu' valore il linearizzare e spostare calcoli dal fragment shader al vertex shader, perche' quei calcoli sono eseguiti sulle stesse unita' (tralascio il fatto che cosi' facendo in genere si diminuisce anche il numero di calcoli portando comunque ad un leggero vantaggio prestazionale).
Ed infine l'EDRAM, quando si attiva MSAA e si e' costretti al predicated tile rendering, pone dei vincoli abbastanza pesanti sull'architettura dell'engine. Di nuovo, tutta una serie di tecniche sono molto piu' complesse o addirittura impossibili in questo scenario (e questo scenario e' un vincolo senza il quale il titolo non puo' essere pubblicato e non viene accettato da MS).
Detto questo, l'R500 e' molto, molto veloce. La cosa che piu' mi ha impressionato e' uno shader di 50 texture fetch per un filtro PCF (le soft shadow) piu' una ventina di texture fetch ed un paio di centinaia di istruzioni ALU in totale e che fa uso smodato e (poco sensato per altro) di registri temporanei, che viene eseguito poco piu' di una volta per pixel a 720p MSAA4X e gira a 30fps. Non ho ancora implementato questo particolare shader su altre architetture, ma il risultato e' assolutamente ottimo al di la' di ogni mia piu' rosea aspettativa.
Sono pero' riuscito a fare dei confronti implementando una pipeline di post processing (classico bloom, light streak, motion blur, depth of field, tonemapping) su 360, PS3 e G71 su PC, tutte e tre le implementazioni di nuovo non particolarmente ottimizzate, trovando che la versione 360 e' sensibilmente piu' veloce delle altre due implementazioni. Non posso quantificare numericamente quel 'sensibilmente' perche' ha poco senso e dipende moltissimo dalle situazioni, ma in genere ho trovato l'R500 piu' performante quasi in tutte le situazioni che ho incontrato. Il problema di questa GPU, come dicevo prima, sono le grosse limitazioni che le limitate dimensioni dell'EDRAM impongono all'engine. Lavorarci attorno non e' banale e rende un porting diretto da PC a 360, di nuovo, non banale.
diabolik1981
03-04-2006, 10:11
Solo una precisazione, perche' e' vero il contrario.
Usare la GPU della PS3 e' molto piu' simile a cio' che si fa su PC rispetto al 360, che impone diverse modifiche ad un engine pensato su PC (sia per la presenza dell'EDRAM, sia per l'R500 che e' sostanzialmente differente da ogni GPU su PC).
Bentornato!
E grazie per la precisazione, avevo capito male qualche post letto tempo fa.
Bentornato fek. :)
Spero che resterai di nuovo con noi. :p
BYEZZZZZZZZZZZ!!!!!!!!!!!! ;)
yossarian
03-04-2006, 10:35
Scusa ma come fai a sapere se un chip e' buono o no? Hai una vaga idea di quanti CENTINAIA di colli di bottiglia diversi una gpu puo' avere?
Non sappiamo niente di Xenos, gli unici che potrebbero dirci qualcosa non possono farlo.
vero, una gpu può avere centinaia di colli di bottiglia diversi
Pensi che una architettura unifcata porti solo benefici? ti sbagli, se la storiella fosse cosi' semplice le avremmo viste su PC da un pezzo, e il fatto che per la prima volta sia arrivata su una console non e' un caso.
vero, una gpu a shader unificati non porta solo benefici. Adesso chiediti perchè ATi sta per abbandonare un'architettura di tipo tradizionale (anzi, per molti aspetti, più efficiente di un'architettura tradizionale classica, se possiamo così definirla), per adottarne una a shader unificati con la serie 6x0; e chiediti anche perchè MS, per la sua console, ha voluto proprio R500. Infatti, non è un caso che un chip a shader unificati si sia visto per la prima volta non su una console, ma su quella di casa MS (non è esattamente la stessa cosa)
yossarian
03-04-2006, 11:35
Infatti, come ci insegna Yoss, in situazioni in cui il rapporto fra vertici e frammenti in transito e' vicino a quello cablato in una GPU a shader non unificati, questa e' una soluzione certamente piu' efficiente.
vero; circuiti di controllo più complessi richiedono, in ogni caso, più cicli di clock spesi per operazioni differenti da quelle relative ai calcoli.
Inoltre su una GPU a shader unificati tutta una classe di ottimizzazioni perde senso: ad esempio non ha piu' valore il linearizzare e spostare calcoli dal fragment shader al vertex shader, perche' quei calcoli sono eseguiti sulle stesse unita' (tralascio il fatto che cosi' facendo in genere si diminuisce anche il numero di calcoli portando comunque ad un leggero vantaggio prestazionale).
anche questo è vero; però è altrettanto vero che certe ottimizzazioni, sui chip a shader separati, servono, come l'adozione di buffer FIFO interni (di dubbia utilità, per altro), a cercare di limitare quelle situazioni in cui un'architettura del genere risulterebbe poco efficiente: lo spostare i calcoli da un tipo di unità all'altro, quando possibile, è un tentativo di riprodurre quel bilanciamento che su un'architettura a shader unificati hai già.
Detto questo, l'R500 e' molto, molto veloce. La cosa che piu' mi ha impressionato e' uno shader di 50 texture fetch per un filtro PCF (le soft shadow) piu' una ventina di texture fetch ed un paio di centinaia di istruzioni ALU in totale e che fa uso smodato e (poco sensato per altro) di registri temporanei, che viene eseguito poco piu' di una volta per pixel a 720p MSAA4X e gira a 30fps. Non ho ancora implementato questo particolare shader su altre architetture, ma il risultato e' assolutamente ottimo al di la' di ogni mia piu' rosea aspettativa.
queste sono informazioni da addetti ai lavori e strettamente riservate :D ; il limite, per quanto riguarda l'utilizzo dei registri temporanei, da parte delle altre architetture (compresa la serie derivata da R580, che è quella che si comporta meglio), è quello classico dei 4 registri, oltre il quale, le prestazioni crollano letteralmente
ciao e ben tornato :)
leoneazzurro
03-04-2006, 11:43
Solo una precisazione, perche' e' vero il contrario.
Usare la GPU della PS3 e' molto piu' simile a cio' che si fa su PC rispetto al 360, che impone diverse modifiche ad un engine pensato su PC (sia per la presenza dell'EDRAM, sia per l'R500 che e' sostanzialmente differente da ogni GPU su PC).
...
Ed infine l'EDRAM, quando si attiva MSAA e si e' costretti al predicated tile rendering, pone dei vincoli abbastanza pesanti sull'architettura dell'engine. Di nuovo, tutta una serie di tecniche sono molto piu' complesse o addirittura impossibili in questo scenario (e questo scenario e' un vincolo senza il quale il titolo non puo' essere pubblicato e non viene accettato da MS).
Bentornato anche da me :)
Infatti l'EDRAM con l'AA a 720p dà vantaggi prestazionali, ma rende il tutto (struttura del chip, modalità di rendering, prestazioni) molto vincolato alla sua presenza e alla sua dimensione.
queste sono informazioni da addetti ai lavori e strettamente riservate :D ; il limite, per quanto riguarda l'utilizzo dei registri temporanei, da parte delle altre architetture (compresa la serie derivata da R580, che è quella che si comporta meglio), è quello classico dei 4 registri, oltre il quale, le prestazioni crollano letteralmente
Ma no, intendevo che il mio shader fa uso smodato e insensato di troppi registri temporanei e che andrebbe ottimizzato un po' :D
yossarian
03-04-2006, 12:05
Ma no, intendevo che il mio shader fa uso smodato e insensato di troppi registri temporanei e che andrebbe ottimizzato un po' :D
a beh, allora...... :D
coschizza
03-04-2006, 12:34
Ed infine l'EDRAM, quando si attiva MSAA e si e' costretti al predicated tile rendering, pone dei vincoli abbastanza pesanti sull'architettura dell'engine. Di nuovo, tutta una serie di tecniche sono molto piu' complesse o addirittura impossibili in questo scenario (e questo scenario e' un vincolo senza il quale il titolo non puo' essere pubblicato e non viene accettato da MS).
be costretti costretti non al 100%, anche perche l'unico titoli che oggi è uscito che ufficialmente non utilizza il "predicated tile rendering" è proprio il titolo MS pgr3 che per far stare il frame buffer nell'EDRAM e non dover modificare il motore di rendering è stato ridott da 1280x720x4AA a 1024x600x2AA
considerando che il titolo anche con questo "limite" è graficamente bolto bello direi che in il vincolo verrò "aggirato" anche con titoli futuri che non rispettino i limiti imposti dalla ms.
Anzi direi IMHO che è forse il titolo con la miglior grafica tra i giochi usciti fino ad oggi (è per ora ne ho presi già 10 :D e finiti 8 :sofico: )
be costretti costretti non al 100%, anche perche l'unico titoli che oggi è uscito che ufficialmente non utilizza il "predicated tile rendering" è proprio il titolo MS pgr3 che per far stare il frame buffer nell'EDRAM e non dover modificare il motore di rendering è stato ridott da 1280x720x4AA a 1024x600x2AA
Costretti :)
(PGR3 e' un'eccezione e ci hanno gia' fatto sapere gentilmente che non ne faranno altre)
coschizza
03-04-2006, 15:05
Costretti :)
(PGR3 e' un'eccezione e ci hanno gia' fatto sapere gentilmente che non ne faranno altre)
allora ti credo, visto che ci lavori con queste persone.
sul forum del gioco pgr3 alcuni developer avevano detto che non avendo il tempo di implementare un motore che usasse il "predicated tile rendering" avevano optato a limitare la dimensione del frame buffer perche altrimenti avrebbero perso un 20% di potenza a causa di dover dividere e renderizzare il frama in piu parti.
ma allora mi domando, se ipoteticamente avremmo 30Mb di EDRAM che contengono interamente il frame che differenza avremmo tra un motore con o senza il tile rendering? 10%-20% o piu? tanto per capire quanto questo sia un limite tecnico
Da quel che so io, l'EDRAM serve solo per ottenere l'AA multisampling a costo molto ridotto.
Dipende da come definisci il costo. Su Xenos ci sono quasi piu' di 80 milioni di transistor dedicati all'EDRAM, praticamente un quarto di tutta la GPU.
Quindi il normale costo dell'AA e' stato spostato dai ROP al vertex shading E allo stesso tempo si e' ridotta l'area del chip che puo' essere utilizzata per lo shading in generale. Io questo non lo chiamerei costo molto ridotto, io lo chiamo fare delle scelte e dei trade off.
A mio modesto avviso l'edram aveva molto piu' senso la generazione passata, che in questa. Come ho gia' avuto modo di spiegare ci sono altri modi molto piu' economici per avere lo stesso fillrate che ti garantisce una edram nei casi in cui il fillrate ti serve davvero.
Quindi mi sembra logico che se il collo di bottiglia è a livello shader, l'EDRAM non dia nessun vantaggio (e non mi sembra di avere detto il contrario). Tuttavia è anche vero che su RSX l'AA comporta un degrado delle prestazioni percentualmente più marcato rispetto alle stime su R500 (basta vedere quanto incide l'AA su una 7800 GTX, per fare un esempio, considerando anche che ci sarà anche FlexIO, ma che comunque la banda della memoria dedicata è decisamente più limitata rispetto alla schede PC).
Negli stessi casi in cui l'EDRAM non da nessun particolare vantaggio a Xenos non avrai particolari cali di prestazioni su RSX attivando l'AA. Il motivo e' semplice, con qualsiasi shader non banale c'e' tutta la banda che ti serve (ricordiamo la compressione di zbuffer e color buffer, che Xenos non ha perche' giustamente con la banda garantita dall'edram non sarebbe servita a nulla)
E questi sono dati effettivi (ossia RSX bene o male sappiamo come può comportarsi, tenendo conto che se le voci sono vere avrà anche la metà delle ROPs di una 7800/7900 GTX).
Effettivi si, ma su un'altra piattaforma. e RSX NON e' semplicemente un G70 con bus dimezzato ;)
E' chiaro che il chip bisogna provarlo, ecc. Io ho letto un bel pò su Xenos, ad esempio l'analisi tecnica (molto approfondita, mi pare) su Beyond3D e siti similari, e anche commenti di programmatori che lo hanno provato e che ne hanno parlato in maniera molto buona (leggevo su di un sito straniero che alcuni programmatori di Kameo erano stati "piacevolmente sorpresi" dalle prestazioni di Xenos),
Cosa pretendi che ti dicano? che faccia schifo? :)
Con questo non voglio dire che faccia schifo, anzi probabilmente e' una bomba, ma di certo non pretenderai commenti imparziali da first party con titolo al lancio.. :)
Sappiamo benissimo che in entrambi i campi volano puttanate a non finire.
ma la possibilità di sfruttare meglio le ALU secondo ATI permettono di raggiungere un'efficienza interna del 95%, il che avvicina molto le due soluzioni.
Lasciamo perdere il 95% per favore, non sta ne' in cielo ne' in terra.
ATI e NVIDIA hanno probabilmente progettato e simulato entrambi tutte le architetture possibili e immaginabili, se si potesse ottenere una efficienza cosi' alta avremo avuto GPU unificate da un bel po'.
Chi ha mai progettato qualcosa sa che efficienze del genere non si raggiungono praticamente mai, in nessun sistema complesso.
Il vero limite di R500 nella Xbox 360 è IMHO la memoria: l'architettura UMA com una banda passante così ridotta rispetto alla concorrenza ( e alle soluzioni da PC) penalizza molto questa GPU
Mah..a me non sembra cosi' poca la banda, anzi..
Inoltre su una GPU a shader unificati tutta una classe di ottimizzazioni perde senso: ad esempio non ha piu' valore il linearizzare e spostare calcoli dal fragment shader al vertex shader, perche' quei calcoli sono eseguiti sulle stesse unita' (tralascio il fatto che cosi' facendo in genere si diminuisce anche il numero di calcoli portando comunque ad un leggero vantaggio prestazionale).
Umh, non mi pare. Se hai un'operazione che costa K cicli eseguita su P pixel generati da V vertici, a meno che V non sia maggiore di P spostare parte di K su V portera' la GPU unificata a fare meno calcoli per il semplice motivo che K*V < K*P
Detto questo, l'R500 e' molto, molto veloce. La cosa che piu' mi ha impressionato e' uno shader di 50 texture fetch per un filtro PCF (le soft shadow) piu' una ventina di texture fetch ed un paio di centinaia di istruzioni ALU in totale e che fa uso smodato e (poco sensato per altro) di registri temporanei, che viene eseguito poco piu' di una volta per pixel a 720p MSAA4X e gira a 30fps. Non ho ancora implementato questo particolare shader su altre architetture, ma il risultato e' assolutamente ottimo al di la' di ogni mia piu' rosea aspettativa.
Ti posso dire che su un'altra piattaforma che non nominero' (:)) prendere 12 bilinear sample con PCF (quindi 48 sample effettivi) per pixel su un buffer 720p MSAA4X da una shadow map 2048x2048 gira a circa 200 FPS ;)
Il problema di questa GPU, come dicevo prima, sono le grosse limitazioni che le limitate dimensioni dell'EDRAM impongono all'engine. Lavorarci attorno non e' banale e rende un porting diretto da PC a 360, di nuovo, non banale.
Se lavorassi su un titolo per 360 punterei tutto sugli effetti particellari, con l'immenso fill rate sicuramente si possono fare cose mirabili :)
Adesso chiediti perchè ATi sta per abbandonare un'architettura di tipo tradizionale (anzi, per molti aspetti, più efficiente di un'architettura tradizionale classica, se possiamo così definirla), per adottarne una a shader unificati con la serie 6x0;
Semplicemente perche' pensano che sia arrivato il momenti giusto per farlo, mentre a NVIDIA non pensano che sia ancora il momento giusto. Vedremo chi avra' avuto ragione a fine anno :)
e chiediti anche perchè MS, per la sua console, ha voluto proprio R500.
Non e' che M$ avesse alternative:era in causa con NVIDIA per NV2A, non aveva altra scelta.
Infatti, non è un caso che un chip a shader unificati si sia visto per la prima volta non su una console, ma su quella di casa MS (non è esattamente la stessa cosa)
Umh..non ti seguo, vorresti spiegarmi l'arcano?
yossarian
03-04-2006, 23:18
Semplicemente perche' pensano che sia arrivato il momenti giusto per farlo, mentre a NVIDIA non pensano che sia ancora il momento giusto. Vedremo chi avra' avuto ragione a fine anno :)
ATi ha, al contrario di nVIDIA, avuto modo di provare entrambe le architetture
Non e' che M$ avesse alternative:era in causa con NVIDIA per NV2A, non aveva altra scelta.
avrebbe potuto ugualmente sceglierne una di tipo tradizionale (non è che ATi produca solo R500)
Umh..non ti seguo, vorresti spiegarmi l'arcano?
si torna al punto precedente: avrebbero potuto optare per qualcosa di diverso, apparentemente più collaudato, ma non l'hanno fatto. Secondo hanno scelto xenos solo perchè fa figo avere una gpu che anticipa molti elementi delle dx10, oppure c'è dell'altro?
yossarian
03-04-2006, 23:39
Umh, non mi pare. Se hai un'operazione che costa K cicli eseguita su P pixel generati da V vertici, a meno che V non sia maggiore di P spostare parte di K su V portera' la GPU unificata a fare meno calcoli per il semplice motivo che K*V < K*P
in un'architettura a shader unificati lo spostamento avviene automaticamente. Nel momento in cui le unità che si stanno occupando dei vertici terminano la loro elaborazione passano a operare sui pixel che sono ancora in coda.
in un'architettura a shader unificati lo spostamento avviene automaticamente. Nel momento in cui le unità che si stanno occupando dei vertici terminano la loro elaborazione passano a operare sui pixel che sono ancora in coda.
Si e' vero, ma non hai letto bene quello che ho scritto perche' cio' che dici in questo caso non e' rilevante.
La tua GPU unificata si autobilancera' piu' o meno efficientemente ma se devi renderizzare 1000 vertici che generano 1M di pixel e hai una operazione che costa 10 cicli che viene eseguita PER pixel, se la sposti sui vertici il numero totale di di cicli cala di 9990000 cicli. Non e' per niente uguale dal punto di vista computazionale.
La GPU unificata si autoassegna il carico di lavoro, ma non puo' tramutare i pixel i n vertici o viceversa ;)
ATi ha, al contrario di nVIDIA, avuto modo di provare entrambe le architetture
ATI e NVIDIA spendono una vagonata di milioni di dollari ogni anno per simulare le loro GPU. Niente non viene costruito che non sia stato simulato estensivamente. Non hanno bisogno di produrre effettivamente una GPU per sapere che tipo di prestazioni avra' su un certo tipo di applicazioni.
avrebbe potuto ugualmente sceglierne una di tipo tradizionale (non è che ATi produca solo R500)
Sono stati coraggiosi infatti :)
si torna al punto precedente: avrebbero potuto optare per qualcosa di diverso, apparentemente più collaudato, ma non l'hanno fatto. Secondo hanno scelto xenos solo perchè fa figo avere una gpu che anticipa molti elementi delle dx10, oppure c'è dell'altro?
Nono so come sono andate le cose, non so se ATI ha proposto design differenti a M$ oppure gli hanno dato un progetto di massima da prendere o lasciare.
Quello che so e' che Sony che si e' mossa con estremo ritardo e con l'acqua alla golta ha speso 30 milioni di dollari per RSX, quando m$ ne spese 200 per NV2A. Non so quanto abbiano speso per Xenos ha ho come l'impressione che la cifra sia molto piu' alta di 30 milioni. Alla fine ne sara' varsa la pena? (dal punto di vista economico intendo)
yossarian
04-04-2006, 00:15
ATI e NVIDIA spendono una vagonata di milioni di dollari ogni anno per simulare le loro GPU. Niente non viene costruito che non sia stato simulato estensivamente. Non hanno bisogno di produrre effettivamente una GPU per sapere che tipo di prestazioni avra' su un certo tipo di applicazioni.
le simulazioni sono solo un primo passo, ma non sono sufficienti a stabilire se un'architettura, alla fine, darà i risultati sperati (i fattori che possono influenzare la riuscita o meno di un chip sono troppi e non sempre tutti prevedibili sulla base di simulazioni e calcoli teorici).
Sono stati coraggiosi infatti :)
in questo settore non si opera sulla base di scelte coraggiose. Dove conta il profitto le motivazioni alla base di ogni scelta sono ben altre
Nono so come sono andate le cose, non so se ATI ha proposto design differenti a M$ oppure gli hanno dato un progetto di massima da prendere o lasciare.
quello che so io è che MS sapeva che ATi stava lavorando da tempo ad un'architettura a shader unificati e ha chiesto espressamente quel tipo di chip. D'altronde, alcune scelte progettuali della serie R5x0, fanno intendere che il filone principale che ATi stava seguendo era quello degli shader unificati (se hai avuto modo di dare un'occhiata ai brevetti depositati da NV per quello che presumibilmente sarà il primo chip dx10, avrai potuto notare più di qualche analogia con l'architettura di R5x0 (ad esempio tmu esterne alle pipeline e un probabile ring bus)
Quello che so e' che Sony che si e' mossa con estremo ritardo e con l'acqua alla golta ha speso 30 milioni di dollari per RSX, quando m$ ne spese 200 per NV2A. Non so quanto abbiano speso per Xenos ha ho come l'impressione che la cifra sia molto piu' alta di 30 milioni. Alla fine ne sara' varsa la pena? (dal punto di vista economico intendo)
se sia stato o meno conveniente o meno, economicamente parlando e facendo il paragone con RSX, non saprei proprio dirtelo
Quindi il normale costo dell'AA e' stato spostato dai ROP al vertex shading
Il mamexport non dovrebbe risolvere in parte questa problematica ?
Quanto occupa una scena geometrica poco complessa in memoria ?
Avevo letto che il 3dc poteva comprimere normal map e "effetti di luce", vale lo stesso discorso x la geometria ?
fek è molto gradita una tua risposta... :D
Umh, non mi pare. Se hai un'operazione che costa K cicli eseguita su P pixel generati da V vertici, a meno che V non sia maggiore di P spostare parte di K su V portera' la GPU unificata a fare meno calcoli per il semplice motivo che K*V < K*P
Si', infatti ho scritto poco dopo che in quell'analisi tralascio il fatto che in genere ho meno vertici in transito rispetto ai frammenti :)
Volevo sottolineare che su una GPU non unificata, lo spostamento porta sempre e comunque meno carico sul fragment processing proprio perche' le unita' di esecuzione sono diverse.
Ti posso dire che su un'altra piattaforma che non nominero' (:)) prendere 12 bilinear sample con PCF (quindi 48 sample effettivi) per pixel su un buffer 720p MSAA4X da una shadow map 2048x2048 gira a circa 200 FPS ;)
Non sto prendendo 12 bilinear sample con PCF infatti. Sto effettuando un'integrazione bidimensionale del risultato del depth compare, con un kernel 7x7 (49 fetch) che mi da' un risultato "migliore" ad un costo ovviamente maggiore.
leoneazzurro
04-04-2006, 09:33
Dipende da come definisci il costo. Su Xenos ci sono quasi piu' di 80 milioni di transistor dedicati all'EDRAM, praticamente un quarto di tutta la GPU.
Quindi il normale costo dell'AA e' stato spostato dai ROP al vertex shading E allo stesso tempo si e' ridotta l'area del chip che puo' essere utilizzata per lo shading in generale. Io questo non lo chiamerei costo molto ridotto, io lo chiamo fare delle scelte e dei trade off.
Per costo intendevo "costo prestazionale", ossia la perdita di prestazioni passando da no AA a 4xAA, è chiaro che come computo di transistor non è più economico (anzi) ma forse costava meno che non avere memoria dedicata.
Negli stessi casi in cui l'EDRAM non da nessun particolare vantaggio a Xenos non avrai particolari cali di prestazioni su RSX attivando l'AA. Il motivo e' semplice, con qualsiasi shader non banale c'e' tutta la banda che ti serve (ricordiamo la compressione di zbuffer e color buffer, che Xenos non ha perche' giustamente con la banda garantita dall'edram non sarebbe servita a nulla)
Da quel che vedo io, abilitare il MSAA porta ad un degrado delle prestazioni, su chip per PC che hanno molta più banda passante di quella che ha RSX. Qeusto perchè se non erro abilitare il MSAA pone anche del carico sugli shader, oltre che per questioni di banda passante. Che poi sul fatto che la potenza e la banda possano essere più che sufficienti per le risoluzioni (almeno la 720p) che ci si prefigge di utilizzare, sono più che d'accordo. Tra l'altro quello che bisogna capire in queste architetture per console è se il collo di bottiglia è realmente la GPU o se ve ne sono altri in tutto il sistema...
Effettivi si, ma su un'altra piattaforma. e RSX NON e' semplicemente un G70 con bus dimezzato ;)
Per ora si sa di RSX che è un derivato di G70 con interfaccia per FleXIO e con 8 ROPs. Poi potrebbe anche avere tecnologie più avanzate per la compressione in real-time ed il risparmio di banda, ma sinceramente non so nulla di ciò. A parte ciò, Non vedo grosse differenze tra come questo chip viene utilizzato in PS3 e ad esempio una 7800 GTX (si può utilizzare la banda passante del FlexIO per aumentare quella a disposizione della GPU come con la tecnologia turbocache si utilizza quella del bus PCI-Express, ma bisogna condividerla con Cell e IMHO la banda reale a disposizione sarà comunque inferiore a quella delle schede per PC). Poi, come ho detto, il collo di botiglia potrebbe essere altrove .
Cosa pretendi che ti dicano? che faccia schifo? :)
Con questo non voglio dire che faccia schifo, anzi probabilmente e' una bomba, ma di certo non pretenderai commenti imparziali da first party con titolo al lancio.. :)
Sappiamo benissimo che in entrambi i campi volano puttanate a non finire.
Questo è vero, però se lo cominciano a dire anche altri (vedi fek sopra) per me è un'indicazione che poi non sia tanto una ciofeca.
Lasciamo perdere il 95% per favore, non sta ne' in cielo ne' in terra.
ATI e NVIDIA hanno probabilmente progettato e simulato entrambi tutte le architetture possibili e immaginabili, se si potesse ottenere una efficienza cosi' alta avremo avuto GPU unificate da un bel po'.
Chi ha mai progettato qualcosa sa che efficienze del genere non si raggiungono praticamente mai, in nessun sistema complesso.
Probabile che il 95% non si raggiunga mai in partica, altrettanto probabile IMHO che l'efficienza di una architettura unificata ben bilanciata sia comunque più elevata di quella di una tradizionale (efficienza, non prestazioni assolute che dipendono da altri fattori). Tuttavia è possibile che le architetture unificate non siano state sviluppate prima per due motivi:
1) Era più semplice finora salire di clock e banda piuttosto che dover riprogettare da capo la struttura dei chip, con una logica di controllo sofisticata e per nulla banale
2) Forse al di sotto di un certo livello il costo in termini di transistor di un'architettura unificata è superiore a quello di un'architettura tradizionale
Mah..a me non sembra cosi' poca la banda, anzi..
Se consideri che la banda con la memoria è pari a quella di una 7600 GT e che è condivisa con la CPU e con le altre periferiche, vedi che poi tanta non è. Ecco perchè è stata usata la EDRAM per l'AA. Ritengo poi che ciò tenderà ad elevare ancora più nelle applicazioni il rapporto shader operations/texture operations, in maniera ancora maggiore che non nel modo PC:
yossarian
04-04-2006, 11:00
Si e' vero, ma non hai letto bene quello che ho scritto perche' cio' che dici in questo caso non e' rilevante.
La tua GPU unificata si autobilancera' piu' o meno efficientemente ma se devi renderizzare 1000 vertici che generano 1M di pixel e hai una operazione che costa 10 cicli che viene eseguita PER pixel, se la sposti sui vertici il numero totale di di cicli cala di 9990000 cicli. Non e' per niente uguale dal punto di vista computazionale.
La GPU unificata si autoassegna il carico di lavoro, ma non puo' tramutare i pixel i n vertici o viceversa ;)
ah, ok. In effetti, in tal caso, lo spostamento delle operazioni di interpolazione dai pixel ai vertici porta un indubbio e notevole vantaggio anche su una gpu a shader unificati (con l'ulteriore vantaggio di poter avere, all'occorrenza, più unità di vertex shading di quante non ne abbia un'architettura tradizionale) :)
http://www.xbox-tribe.com/archivio-news.php?action=show&year=4&month=6&id=42500
l'ho letta qui la notizia e poi l'ho letta anke su XMU
ho una domanda ma R500 consente agli sviluppatori di scegliere quanti vertex e pixel shader mettere (ad es. 34 pixel pipe e 14 vertex pipe) oppure è una cosa unica dove prima potrebbe giungere un vertex e poi subito dopo un pixel (scusate la terminologia niubbica)?
coschizza
04-04-2006, 11:23
http://www.xbox-tribe.com/archivio-news.php?action=show&year=4&month=6&id=42500
l'ho letta qui la notizia e poi l'ho letta anke su XMU
ho una domanda ma R500 consente agli sviluppatori di scegliere quanti vertex e pixel shader mettere (ad es. 34 pixel pipe e 14 vertex pipe) oppure è una cosa unica dove prima potrebbe giungere un vertex e poi subito dopo un pixel (scusate la terminologia niubbica)?
da quello che ho letto io sembra che il motore abbia un "arbiter" che suddivide le unita in automatico per raggiungere la migliore efficienza ma che il programmatore puo in qualsiasi momento decidere di cambiare il rapporto PS/VS come vuole.
per esempio quando viene eseguito il "Z-only pass" che la MS consiglia tutte le unita passano a lavorare sugli vertici.
piu di questo non so ;) solo FX puo darci dati reali visto che ci puo mettere le mani di persona e puo lavorando con gli SDK e guardare cosa supportano le API in questo campo.
Aggiunta
dando un occhiata a un paio di schemi a blocchi ho visto che la gpu puo tenere online 94 hardware multithreading con un suddivisione di 31 vertex thread e 63 pixel thread quindi comunque il rapporto a livello progettuale non è stato 1/1 come era ovvio visto che oggi sul pc siamo su circa 1/3 dove.
leoneazzurro
04-04-2006, 11:39
http://www.xbox-tribe.com/archivio-news.php?action=show&year=4&month=6&id=42500
l'ho letta qui la notizia e poi l'ho letta anke su XMU
ho una domanda ma R500 consente agli sviluppatori di scegliere quanti vertex e pixel shader mettere (ad es. 34 pixel pipe e 14 vertex pipe) oppure è una cosa unica dove prima potrebbe giungere un vertex e poi subito dopo un pixel (scusate la terminologia niubbica)?
le unità di R500 sono divise in 3 gruppi da 16, ci sono poi 16 unità texture dedicate alle operazioni di vertex shading e 16 dedicate alle operazioni sui pixel. Quindi il carico di lavoro viene assegnato in automatico tramite l'arbiter, tuttavia il rapporto deve tenere conto di questo fatto, ossia potremmo avere in un dato istante 0 unità che lavorano ai vertici e 48 ai pixel, o viceversa, oppure 16 unità ai vertici e 32 ai pixel, o vice verssa, ma non ad esempio 14 ai vertici e 34 ai pixel. Poi non so quanto in realtà gli sviluppatori possano agire sull'arbiter per bilanciare il carico in base all'applicazione, forse un controllo c'è, ma credo sia molto ristretto.
leoneazzurro
04-04-2006, 11:42
da quello che ho letto io sembra che il motore abbia un "arbiter" che suddivide le unita in automatico per raggiungere la migliore efficienza ma che il programmatore puo in qualsiasi momento decidere di cambiare il rapporto PS/VS come vuole.
per esempio quando viene eseguito il "Z-only pass" che la MS consiglia tutte le unita passano a lavorare sugli vertici.
piu di questo non so ;) solo FX puo darci dati reali visto che ci puo mettere le mani di persona e puo lavorando con gli SDK e guardare cosa supportano le API in questo campo.
Aggiunta
dando un occhiata a un paio di schemi a blocchi ho visto che la gpu puo tenere online 94 hardware multithreading con un suddivisione di 31 vertex thread e 63 pixel thread quindi comunque il rapporto a livello progettuale non è stato 1/1 come era ovvio visto che oggi sul pc siamo su circa 1/3 dove.
vuoi dire Fek, forse ;)
yossarian
04-04-2006, 11:43
da quello che ho letto io sembra che il motore abbia un "arbiter" che suddivide le unita in automatico per raggiungere la migliore efficienza ma che il programmatore puo in qualsiasi momento decidere di cambiare il rapporto PS/VS come vuole.
per esempio quando viene eseguito il "Z-only pass" che la MS consiglia tutte le unita passano a lavorare sugli vertici.
piu di questo non so ;) solo FX puo darci dati reali visto che ci puo mettere le mani di persona e puo lavorando con gli SDK e guardare cosa supportano le API in questo campo.
le cose stanno in maniera un po' più complessa :)
Cercando di semplificare, il programmatore può allocare manualmente il numero di registri riservati a vertici e pixel. Per quanto riguarda le operazioni di gestione dei thread, di arbiter e di sottostazioni ce ne sono diversi. Dati e istruzioni sono tenuti separati (l'unificazione avviene solo a livello di calcolo e, ovviamente, di arbitrato). Ogni operazione eseguita da luogo ad un segnale di feedback che aggiorna le code della o delle reservation station precedenti. Questa continua operazione di refresh, da un lato permette il corretto bilanciamento delle operazioni in base alle richieste dell'elaborazione e una gestione dinamica e OoO dei thread; dall'altro fa spendere cicli di clock che rendono un chip a shader unificati meno efficiente quando il bilanciamento si avvicina a quello ideale di un chip di tipo tradizionale
coschizza
04-04-2006, 12:09
vuoi dire Fek, forse ;)
ops ho fatto un gafffffff :mc: scusa Fek
quindi le possibili combinazioni sarebbero: 48 PS/0 VS, 32 PS/16 VS, 16 PS/32 VS, 0 PS/48 VS giusto?
ma nn ho capito XNA in cosa consiste?
leoneazzurro
04-04-2006, 12:55
quindi le possibili combinazioni sarebbero: 48 PS/0 VS, 32 PS/16 VS, 16 PS/32 VS, 0 PS/48 VS giusto?
ma nn ho capito XNA in cosa consiste?
http://www.microsoft.com/xna/
nn sò molto bene l'inglese me lo potresti spiegare x favore?
'azie
leoneazzurro
04-04-2006, 13:17
nn sò molto bene l'inglese me lo potresti spiegare x favore?
'azie
XNA è una piattaforma recentemente presentata da Microsoft comprendente un ambiente di sviluppo (framework) software per le applicazioni videoludiche, che promette di abbattere tempi e costi di sviluppo dei giochi. Ovviamente giochi per le piattaforme Windows e Xbox360: in questo modo i porting dall'una all'altra piattaforma saranno estremamente semplici da eseguire (in teoria).
coschizza
04-04-2006, 13:31
nn sò molto bene l'inglese me lo potresti spiegare x favore?
'azie
in aggiunta a quello che ha scritto leoneazzurro ti cito un esempio fatto nelle presentazioni della MS messe sul loro sito.
La ms per testare lo sviluppo tramite XNA ha portato il loro gioco MechCommander 2 alla piattaforma XNA (e sembra senza nessun problema particolare).
stando alle loro ricerche sembra che grazie ai tool presenti nel framework XNA hanno scoperto che ben il 10% dei modelli presenti nel dvd del gioco non erano in realtà mai utilizzati nello stesso e che ben il 40% delle texture presenti sul dvd non erano mai realmente utilizzate dal gioco, quindi uno spreco inutile di spazio.
inoltre sembra che il tempo per la compilazione delle build incrementali si sia ridotto di un valore compreso da 6x a 14x
queste cose le ho lette dalla presentazione
http://download.microsoft.com/download/4/c/9/4c99435d-0e88-45f6-8152-dbcf1d15fed7/XNABuildAdvanced.ppt
a pagina 6 , spero che qualcuno mi confermi che non abbia capito male io, non vorre diffondere informazioni che non siano vere. :)
mi sembra ke in XNA ci una tecnologia kiamata Sintesi Procedurale ke viene usata in Oblivion.
ecco il link
http://www.mondoxbox.com/articolo.php?id=307
coschizza
04-04-2006, 15:10
mi sembra ke in XNA ci una tecnologia kiamata Sintesi Procedurale ke viene usata in Oblivion.
ecco il link
http://www.mondoxbox.com/articolo.php?id=307
la Sintesi Procedurale è un tecnologia che sta al di fuori dell'XNA
è semplicemente una tecnologia per far generare un qualche stream di dati da una cpu per poi passarla alla gpu che finirà il lavoro per passarlo sullo schermo, in questo modo in giochi come Oblivion è possibile a livello teorico avere 1 solo albero che poi viene rielaborato dalla cpu e modificato volta per volta per creare un foresta di alberi sempre differenti, in questo modo si risparmia memoria e parte del carico di lavoro va sulla cpu.
capito...
da questo si vede ke a MS hanno svolto un lavoro migliore ke a sony secondo me
capito...
da questo si vede ke a MS hanno svolto un lavoro migliore ke a sony secondo me
la stessa cosa credo che si possa fare su ps3 ;)
kenjcj2000
05-04-2006, 06:58
la stessa cosa credo che si possa fare su ps3 ;)
spero x loro... in genere quando si esce un anno dopo bisognerebbe uscire con un prodotto migliore...
spero x loro... in genere quando si esce un anno dopo bisognerebbe uscire con un prodotto migliore...
si ma questa è una cosa che riguarda più il sw che l' hw...
cmq io intendevo l'unione con una piattaforma hw e un ambiente di sviluppo specifico ke consente anke facili porting ta il mondo pc e il mondo 360.
in alcune interviste molti svil. hanno dikiarato ke è molto + facile lavorare su 360 ke ps3 cmq alla fine sono loro ke c lavorano e quindi potrebbero rispondere meglio
intanto leggete di ps3 e di x360:
http://www.gamestar.it/showPage.php?template=News&id=5193
http://www.gamestar.it/showPage.php?template=News&id=3944
http://www.gamestar.it/showPage.php?template=News&id=4779
http://www.gamestar.it/showPage.php?template=News&id=3997
ciao
Free Gordon
05-04-2006, 15:53
Gli unici effetti che non sono disponibili su RSX ma su R500 si sono quelli HDR in contemporanea all'AA.
Non ne sarei così certo. :D
leoneazzurro
05-04-2006, 16:10
Non ne sarei così certo. :D
HDR con blending FP 16 + AA no, Tone mapping/blooming/HDR tramite PS + AA si, su RSX (ho precisato poi) .
A meno di un deciso redesign delle ROPs.
Free Gordon
05-04-2006, 16:20
Pensi che una architettura unifcata porti solo benefici? ti sbagli, se la storiella fosse cosi' semplice le avremmo viste su PC da un pezzo, e il fatto che per la prima volta sia arrivata su una console non e' un caso.
Se dopo molti anni di discussioni e test, hanno deciso di andare in quella direzione con la DX10, vuol dire che il guadagno in termini di performance/transistor è migliore credo.
Free Gordon
05-04-2006, 16:28
Costretti :)
(PGR3 e' un'eccezione e ci hanno gia' fatto sapere gentilmente che non ne faranno altre)
Ma perchè quest'obbligo assurdo?? :confused:
leoneazzurro
05-04-2006, 16:32
Ma perchè quest'obbligo assurdo?? :confused:
Uhm.. qualcosa del tipo "abbiamo speso soldi per l'EDRAM per avere AA 4x su tutti i giochi, lo abbiamo dichiarato a tutto il mondo in pompa magna e non volgiamo che ora qualche PR della parte avversa cominci rompere i maroni dicendo: 'vedete che erano balle'? " :D
Free Gordon
05-04-2006, 17:02
HDR con blending FP 16 + AA no, Tone mapping/blooming/HDR tramite PS + AA si, su RSX (ho precisato poi) .
A meno di un deciso redesign delle ROPs.
Non mi son spiegato, in quel replay mi riferivo a questo:
http://www.beyond3d.com/articles/xenos/index.php?p=09
;)
Free Gordon
05-04-2006, 17:07
Uhm.. qualcosa del tipo "abbiamo speso soldi per l'EDRAM per avere AA 4x su tutti i giochi, lo abbiamo dichiarato a tutto il mondo in pompa magna e non volgiamo che ora qualche PR della parte avversa cominci rompere i maroni dicendo: 'vedete che erano balle'? " :D
Eh... mi sa che purtroppo hai ragione!! :D
leoneazzurro
05-04-2006, 18:19
Non mi son spiegato, in quel replay mi riferivo a questo:
http://www.beyond3d.com/articles/xenos/index.php?p=09
;)
Si, ma nel mondo reale le differenze di avere quelle istruzioni in più si traducono in 0 differenze negli effetti applicabili. Qualche differenza si potrebbe avere con l'utilizzo elevato di dynamic flow control, ma alla fine penso proprio che cose eclatanti non ce ne saranno proprio...
maggiore scia
05-04-2006, 20:27
nella gestione degli shader e dei poligoni,quale gpu risulterebbe meglio fra rsx e xenos? :help:
domanda nubbiosa ma la curiosità è troppo forte :)
leoneazzurro
05-04-2006, 20:47
nella gestione degli shader e dei poligoni,quale gpu risulterebbe meglio fra rsx e xenos? :help:
domanda nubbiosa ma la curiosità è troppo forte :)
Non c'è una risposta univoca, quindi dovrai rassegnarti a convivere con questo dubbio :D
Free Gordon
06-04-2006, 16:31
Si, ma nel mondo reale le differenze di avere quelle istruzioni in più si traducono in 0 differenze negli effetti applicabili. Qualche differenza si potrebbe avere con l'utilizzo elevato di dynamic flow control, ma alla fine penso proprio che cose eclatanti non ce ne saranno proprio...
Perchè le avrebbero messe allora? :D
Tra pixel shader 2.0 e 3.0 a livello visivo c'è molta poca differenza, tra 3 e 4 sarà la stessa cosa? ^_^
Potrebbe darsi di sì, come no... ;)
Xenos ha molte istruzioni in più rispetto ad un chip SM3 se noti (e non sono nemmeno tutte esposte), chi lo sa che non si possa fare qualcosa di più anche a livello di superfici rispetto ad un chip sm3?
Io rimango nel dubbio. :)
leoneazzurro
06-04-2006, 16:55
Perchè le avrebbero messe allora? :D
Tra pixel shader 2.0 e 3.0 a livello visivo c'è molta poca differenza, tra 3 e 4 sarà la stessa cosa? ^_^
Una chiarificazione: R500 è una parte che ha alcune caratteristiche superiori a quelle richieste da SM3.0, ma NON E' una parte SM 4.0, pur avendo unità shader unificate (potremmo parlare di SM 3.0+). Pensa comunque che al giorno d'oggi siamo ancora ben lontani dal poter sfruttare tutte le istruzioni permesse dallo SM3.0. le istruzioni in più potrebbero essere utili in casi particolari, ma dubito che si abbiano le capacità per applicare shader da 3000 istruzioni su ogni pixel dello schermo.
Potrebbe darsi di sì, come no... ;)
Xenos ha molte istruzioni in più rispetto ad un chip SM3 se noti (e non sono nemmeno tutte esposte), chi lo sa che non si possa fare qualcosa di più anche a livello di superfici rispetto ad un chip sm3?
Io rimango nel dubbio. :)
Come detto sopra, una cosa è avere il supporto, un'altra è avere le capacità di calcolo necessarie per poter usare shader complessi in maniera estensiva.
Alla fine per questi due progetti è la capacità di calcolo che conta, e la distanza tra i due chip non è abissale (a parte il dynamic flow control che nell'RSX, se derivato pari pari da G70/71, dovrebbe essere decisamente meno performante).
maggiore scia
06-04-2006, 17:33
Non c'è una risposta univoca, quindi dovrai rassegnarti a convivere con questo dubbio :D
quindi le due gpu, più o meno saranno sugli stessi livelli,magari in certe situazioni particolari di rendering, una sarà meglio dell'altra, ai giochi l'ardua sentenza. :)
maggiore scia
06-04-2006, 17:36
cmq la penso come free gordon,i pixel shader 3.0+ di xenos, magari, faranno vedere cose mirabili a livello di superficie.
gears of war ;)
leoneazzurro
06-04-2006, 17:39
Solo il tempo potrà dirlo.
Free Gordon
06-04-2006, 20:36
Una chiarificazione: R500 è una parte che ha alcune caratteristiche superiori a quelle richieste da SM3.0, ma NON E' una parte SM 4.0...
Non lo possiamo sapere. ;)
:D
Come detto sopra, una cosa è avere il supporto, un'altra è avere le capacità di calcolo necessarie per poter usare shader complessi in maniera estensiva.
Alla fine per questi due progetti è la capacità di calcolo che conta, e la distanza tra i due chip non è abissale (a parte il dynamic flow control che nell'RSX, se derivato pari pari da G70/71, dovrebbe essere decisamente meno performante).
Anche io la penso come te in fin dei conti.
leoneazzurro
06-04-2006, 20:48
Non lo possiamo sapere. ;)
:D
ma si, qualcosa lo sappiamo ;)
"Whilst ostensibly Xenos has been hailed as a Shader Model 3.0 part, its capabilities don't fall directly inline with it and exceed it in some areas giving this more than a whiff of WGF2.0 (Windows Graphics Foundation 2.0 - the new name for DirectX Next / DirectX 10) about it."
ossia Xenos è stato dichiarato una parte SM 3.0 anche se le sue capacità eccedono quelle dello SM 3.0 e danno un sostanzioso assaggio di ciò che potranno essere le WGF 2.0
ma...
"WGF2.0 has requirements for virtualisation, and whilst Xenos has the luxury of being able to access the entire system memory this is by virtue of the fact that it is the system memory controller. Part of the virtualised requirements of WGF2.0 appear to be able to include unlimited length shaders, where Xenos has some hard coded limits here and, whilst large and defeat-able through a couple of methods, probably wouldn't meet the requirements for WGF2.0 here. When we looked into WGF2.0 in our DirectX Next article there was, at that point, a suggested requirement to the graphics pipeline to have a fully integer instruction set as well as the floating point pipelines, however Xenos's ALU's are purely float in operation."
Ovviamente sempre tratto dall'articolo di Wavey su Beyond 3D
Anche io la penso come te in fin dei conti.
:D
Free Gordon
06-04-2006, 20:59
ma si, qualcosa lo sappiamo ;)
"Whilst ostensibly Xenos has been hailed as a Shader Model 3.0 part, its capabilities don't fall directly inline with it and exceed it in some areas giving this more than a whiff of WGF2.0 (Windows Graphics Foundation 2.0 - the new name for DirectX Next / DirectX 10) about it."
ossia Xenos è stato dichiarato una parte SM 3.0 anche se le sue capacità eccedono quelle dello SM 3.0 e danno un sostanzioso assaggio di ciò che potranno essere le WGF 2.0
ma...
"WGF2.0 has requirements for virtualisation, and whilst Xenos has the luxury of being able to access the entire system memory this is by virtue of the fact that it is the system memory controller. Part of the virtualised requirements of WGF2.0 appear to be able to include unlimited length shaders, where Xenos has some hard coded limits here and, whilst large and defeat-able through a couple of methods, probably wouldn't meet the requirements for WGF2.0 here. When we looked into WGF2.0 in our DirectX Next article there was, at that point, a suggested requirement to the graphics pipeline to have a fully integer instruction set as well as the floating point pipelines, however Xenos's ALU's are purely float in operation."
Ovviamente sempre tratto dall'articolo di Wavey su Beyond 3D
Sì, l'avevo letto... :D
Diciamo che è probabile che Xenos abbia preso dalle DX10 quello che interessa alla console (e aggiunto qualcosa che nelle 10 non c'è, sempre in quell'ottica)... :p
Free Gordon
06-04-2006, 21:04
"however Xenos's ALU's are purely float in operation"
forse questa era la feature più interessante fra quelle che mancano...
in questo modo la GPU avrebbe potuto vicariare la CPU in alcuni casi, ma mi pare che questo nel 360 già avvenga, no? :cool:
maggiore scia
06-04-2006, 21:25
l'istruzione memexport è solo ad hoc per xenos,anke se leggendo nei forum sembra non sia stà grande feature, certo sulla carta sembra molto valida, permette di memorizzare un algoritmo e allocarlo in memoria senza ripassarlo alla gpu ..galvanizzante.
leoneazzurro
06-04-2006, 22:26
"however Xenos's ALU's are purely float in operation"
forse questa era la feature più interessante fra quelle che mancano...
in questo modo la GPU avrebbe potuto vicariare la CPU in alcuni casi, ma mi pare che questo nel 360 già avvenga, no? :cool:
Ne discutevano Fek e Yossarian qualche tempo fa in un altro thread: pare che R500 per alcuni versi sia tanto flessibile da poter svolgere anche compiti abbastanza diversi da quello per cui è stato progettato, così come si è parlato spesso della possibilità (e opportunità) di far svolgere alle GPU calcoli che non riguardino solo la grafica.
Kanon di Gemini
07-04-2006, 00:36
scusa Yossarian ma tu di che ti occupi?
Sappiamo che Nao è programmatore in una third party(mi pare) per Sony come Fek che è ufficialmente un nuovo stipendiato Microsoft (auguri :D ), tu anche programmi per le future console? :)
leoneazzurro
07-04-2006, 10:04
Lui non programma, ma diciamo che è molto addentro l'architettura hardware delle GPU. ;)
maggiore scia
09-04-2006, 10:59
in cosa consiste il dynamic flow control in una gpu?è importante nelle prestazioni complessive di una gpu? :help:
coschizza
09-04-2006, 13:02
in cosa consiste il dynamic flow control in una gpu?è importante nelle prestazioni complessive di una gpu? :help:
è la possibilità di avere dei shader con salti all'interno del codice cosa che rende l'esecuzione piu pesante di un shader che esegue le istruzioni in sequenza
maggiore scia
09-04-2006, 13:47
xenos mi stupisce sempre di più,grazie ati :)
yossarian
09-04-2006, 15:07
in cosa consiste il dynamic flow control in una gpu?è importante nelle prestazioni complessive di una gpu? :help:
è un insieme di dispositivi HW che permettono, in presenza di istruzioni contenenti una condizione, di effettuare dei salti, ovvero di scartare uno dei due rami di un'istruzione di tipo if. In assenza di dynamic flow control, il chip è costretto ad elaborare i calcoli relativi a entrambi i rami dell'istruzione.
Esistono vari modi di fare dynamic branching, con livelli di accuratezza differenti; di solito si sceglie di affiancare due algoritmi di db, oppure uno di dynamic branching con uno di static branching.
L'efficienza del db è tanto maggiore quanto più è alto il numero di operazioni superflue che permette di evitare. Può accadere, però, che se uno o più pixel del gruppo che si analizza, non rispetta le condizioni di salto, il dynamic branching risulta inefficiente, poichè non permette di effettuare salti di istruzioni e fa perdere cicli di clock per le operazioni di riempimento e svuotamento della pipeline. Per questo motivo, è opportuno scegliere in modo oculato sia l'algoritmo che le dimensioni di batch da utilizzare; ad esempio, il db delle pixel pipeline di NV4x o di G7x risulta poco efficiente perchè fa uso di batch di dimensioni molto grandi (se non ricordo male, 1024 pixel per NV4x e 768 per G7x); questo fa aumentare la possibilità che all'interno ci siano pixel che non rispettano le condizioni di salto. Molto efficiente, invece, il db delle vertex pipeline dei chip NV. Le pixel pipeline dei chip ATi, invece, fanno uso di batch di dimensioni nettamente inferiori (16 per R520, 48 per R580 e 64 per xenos)
maggiore scia
09-04-2006, 15:30
è un insieme di dispositivi HW che permettono, in presenza di istruzioni contenenti una condizione, di effettuare dei salti, ovvero di scartare uno dei due rami di un'istruzione di tipo if. In assenza di dynamic flow control, il chip è costretto ad elaborare i calcoli relativi a entrambi i rami dell'istruzione.
Esistono vari modi di fare dynamic branching, con livelli di accuratezza differenti; di solito si sceglie di affiancare due algoritmi di db, oppure uno di dynamic branching con uno di static branching.
L'efficienza del db è tanto maggiore quanto più è alto il numero di operazioni superflue che permette di evitare. Può accadere, però, che se uno o più pixel del gruppo che si analizza, non rispetta le condizioni di salto, il dynamic branching risulta inefficiente, poichè non permette di effettuare salti di istruzioni e fa perdere cicli di clock per le operazioni di riempimento e svuotamento della pipeline. Per questo motivo, è opportuno scegliere in modo oculato sia l'algoritmo che le dimensioni di batch da utilizzare; ad esempio, il db delle pixel pipeline di NV4x o di G7x risulta poco efficiente perchè fa uso di batch di dimensioni molto grandi (se non ricordo male, 1024 pixel per NV4x e 768 per G7x); questo fa aumentare la possibilità che all'interno ci siano pixel che non rispettano le condizioni di salto. Molto efficiente, invece, il db delle vertex pipeline dei chip NV. Le pixel pipeline dei chip ATi, invece, fanno uso di batch di dimensioni nettamente inferiori (16 per R520, 48 per R580 e 64 per xenos)
grazie mille,per la risposta, su questo forum non si finisce mai di imparare e di soddisfare le proprie curiosità, anzi passioni :)
Murakami
09-04-2006, 17:16
Mi sono sempre chiesto: avere una struttura a shader unificati non fa salire il conto dei transistor complessivi della GPU? Voglio dire: se una pipeline deve essere capace di elaborare sia vertex che pixel, suppongo debba essere dotata di un' architettura più complessa di un VS o di un PS tradizionale (in quanto "totipotente")... :mbe:
yossarian
09-04-2006, 17:32
Mi sono sempre chiesto: avere una struttura a shader unificati non fa salire il conto dei transistor complessivi della GPU? Voglio dire: se una pipeline deve essere capace di elaborare sia vertex che pixel, suppongo debba essere dotata di un' architettura più complessa di un VS o di un PS tradizionale (in quanto "totipotente")... :mbe:
al contrario; il numero di transistor dedicati alle unità di calcolo diminuisce; dal punto di vista architetturale, un ps e un vs non sono molto differenti, quindi il fatto di avere unità in grado dieseguire tutti e due i tipi di calcoli, fa aumentare di poco il numero di transistor relativi alla singola unità. Però hai la possibilità di ottenere la stessa capacità di calcolo reale diminuiendo il numero complessivo di unità di calcolo, potendo contare su una maggiore efficienza complessiva dell'architettura (a livello di singola unità è più efficiente una dedicata). Quello che aumenta, in un'architettura unificata, è il numero di transistor dedicati ai circuiti di controllo.
maggiore scia
09-04-2006, 18:15
xenos è formato da ben 337 milioni di transistor,232 per il core shader e 105 per il core con la edram e il frame buffer, mentre g71 ne ha 273 milioni tiriamo via pure video,cinefx e 8 rops saranno 240 milioni su rsx.xenos è un'opera d'arte di tecnologia,il padre delle future gpu a shader unficate, è già una leggenda.sarò malato, ma se c'è una gpu ke merita, è proprio r500, questa è next technology.cmq ati ha fatto bene ha inserirla in una console come banco di prova.sicuramente ki svilupperà sulla 360 si troverà anke avvantagiato con le future schede dx10.cmq ho appurato ke xenos scalda da paura, penso ke sia dovuto all'architettura a shader unificati, forse è per questo ke nvidia non ha sposato questa filosofia.
maggiore scia
09-04-2006, 18:28
si potrebbe fare un topic su r500, con tutte le specifiche e comparazioni con altre gpu,solo su beyond 3d c'è un'analisi molto detagliata ,ma è in inglese purtroppo,ho provato pure ha usare il traduttore, peggio ke andare di notte,magari kiedo troppo, pero sarebbe bello e mooooolto interessante. :) .
AngelBadX
25-04-2006, 05:25
B: se tu sei e lo capisco, picchia solennemente e con impegno chi te l'ha venduto; in quanto i prodotti sono di serie A o di serie B. ( Mal assemblati o simili), Senno' Postalmarket non sarebbe MAI nata.
C: Ho un sistema hi-fi cd_radio_minidisic_con in + connessione A FIBRA OTTICA che ha 7 anni. Fantascienza per l'epoca. La meccanica la fa la Philips. M A I un problema. Connessa al PC e/o al Plasmone ( ovvio Sony).....I miei amici vengono da me per films, partite o Motogp...Mai 1 solo problema...Ripeto, presentati da chi te li ha venduti e chiedi spiegazioni.
Dimenticavo: SONY " e' "SONY
bhaa.sony??quante palle ha detto su play 2?e quante cavolate ha fatto?ha avuto anche parecchie denuncie..bhje detto questo cè da dire che la sony i suoi prodotti saranno la metà,visto che molte ditte fanno i prodotti e la sony li compra e li rimette su il suo marchio!!che schifezza!
cmq per mè la ps3 ,non avra un boom che tutti si aspettavano proprio per il costo...
e ultima cosa,tra xbox360 e play 3 secondo mè la play 3 avra + potenza di fluidità e fisica dei giochi,invece la xbox360 avra una qualità migliore e un ottima cura di effetti luce obre e filtri..
cmq si per avere una conferma bisogna aspettare che esca e almeno provare i giochi per 3 4 mesi per dare un giudizzio a pieno..
ci sara una bella guerra tra programmatori dei video game , devono dare tecnologie nuove e innovative per dare un tocco di potenza in + alle console sia da parte di ps3 che da x360, il gioco fatto molto bene e particolare puo dare molta differenza e arrichimento a una delle 2 console!
ciaa tutti
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.