PDA

View Full Version : [3D tecnico]XBOX360 HW Vs PS3 HW


Pagine : 1 [2] 3

BTinside
19-05-2005, 11:26
Mi sa che sto thread non è molto utile, solo 13 pagine.
Purtroppo la gente continua maggiormente a parlare di hardware nei rispettivi thread ufficiali :rolleyes:

dodo88
19-05-2005, 11:42
RAGA...l'xbox 360 è di mamma microsoft..... non credo che possa essere inferiore alla consolle di mamma sony.... anzi il contrario :D

BTinside
19-05-2005, 11:46
RAGA...l'xbox 360 è di mamma microsoft..... non credo che possa essere inferiore alla consolle di mamma sony.... anzi il contrario :D
E che c'entra? :confused:

dodo88
19-05-2005, 11:51
E che c'entra? :confused:
MICROSOFT è sempre MICROSOFT :ave:

BTinside
19-05-2005, 11:56
MICROSOFT è sempre MICROSOFT :ave:

Fanboy è sempre Fanboy :asd:
Anche tu una vittima del marketing? :D

Allanon Of Shannar
19-05-2005, 12:48
RAGA...l'xbox 360 è di mamma microsoft..... non credo che possa essere inferiore alla consolle di mamma sony.... anzi il contrario :D

MICROSOFT è sempre MICROSOFT

E dopo questi concordo con te sull'inutilità del thread BTinside.. ;)

BTinside
19-05-2005, 13:07
E dopo questi concordo con te sull'inutilità del thread BTinside.. ;)
;)

Vash88
19-05-2005, 22:54
:O sono solo 13 pagine perchè c'è poco da discutere, solo le cpu, delle gpu si sa ancora troppo poco!

aceto876
20-05-2005, 00:16
Dettagli su R500 suTechreport (http://techreport.com/etc/2005q2/xbox360-gpu/index.x?pg=1)

Crashman
20-05-2005, 06:14
Dettagli su R500 suTechreport (http://techreport.com/etc/2005q2/xbox360-gpu/index.x?pg=1)
Davvero interessante, ottimo link ;)

yanchi
20-05-2005, 09:35
MICROSOFT è sempre MICROSOFT :ave:
ma la microsoft ti paga per farle pubblicità?? :rolleyes: :rolleyes:

RedSky
20-05-2005, 09:52
ma la microsoft ti paga per farle pubblicità?? :rolleyes: :rolleyes:

per favore evitiamo questo tipo di commenti (se posso consigliare), sembrano tanto gli stessi di quelli che appena esce il discorso Telecom Italia fanno gli stessi commenti appena uno si "azzarda" a dire qualcosa di positivo :rolleyes:

BTinside
20-05-2005, 10:46
per favore evitiamo questo tipo di commenti (se posso consigliare), sembrano tanto gli stessi di quelli che appena esce il discorso Telecom Italia fanno gli stessi commenti appena uno si "azzarda" a dire qualcosa di positivo :rolleyes:
Certo Telecom Italia è da lodare, sopratutto per i prezzi e per la velocità/efficienza con la quale soddisfano gli utenti GIA' abbonati. :rolleyes: Sono velocissimi invece quando ancora non sei un loro cliente adsl e devi diventarlo. :D

lucasantu
20-05-2005, 11:48
Certo Telecom Italia è da lodare, sopratutto per i prezzi e per la velocità/efficienza con la quale soddisfano gli utenti GIA' abbonati. :rolleyes: Sono velocissimi invece quando ancora non sei un loro cliente adsl e devi diventarlo. :D


spero che tu sia ironico , ho la adsl da 5 anni ormai , da quando c'era la BBB
me l'hanno montata in 5 giorni , e me l'hanno sempre upgradata in pochissimo tempo .
ora la 4 mb me l'hanno upgradata in 3 giorni , richiesta venerdì , attiva lunedì w :)

Manp
20-05-2005, 11:51
spero che tu sia ironico , ho la adsl da 5 anni ormai , da quando c'era la BBB
me l'hanno montata in 5 giorni , e me l'hanno sempre upgradata in pochissimo tempo .
ora la 4 mb me l'hanno upgradata in 3 giorni , richiesta venerdì , attiva lunedì w :)

bravo, io invece non ce l'ho anocra... quindi?

cmq è OT fuori misura

:)

AleAme
20-05-2005, 11:53
spero che tu sia ironico , ho la adsl da 5 anni ormai , da quando c'era la BBB
me l'hanno montata in 5 giorni , e me l'hanno sempre upgradata in pochissimo tempo .
ora la 4 mb me l'hanno upgradata in 3 giorni , richiesta venerdì , attiva lunedì w :)

Beh, io ho aspettato 5 mesi per avere la linea telefonica normale.
In compenso chiamano 1 volta a settimana per promozioni varie...

:tapiro:

RedSky
20-05-2005, 11:57
Certo Telecom Italia è da lodare, sopratutto per i prezzi e per la velocità/efficienza con la quale soddisfano gli utenti GIA' abbonati. :rolleyes: Sono velocissimi invece quando ancora non sei un loro cliente adsl e devi diventarlo. :D

ot on

parla per te ;) 4 anni di Adsl con Telecom mai un guasto, di cui 3 di Alice Mega uno fra 640 e Free e 1 mese di 4mbit :fagiano:

tiè :tie:

il mio quote era in rierimento al tipo di entrate che si fanno spesso e volentieri con un comportamento prevenuto con luogo comune incorporato, non era un pretesto per farne uscire un'altro dalla sua nicchia a lanciar letame su un'altra al centro del mirino (TI appunto) :p

ot off

saluti

checo
20-05-2005, 12:07
dico la mia

parlando di cpu vedo il 360 sicuramente più semplice da programmare, e in operazioni generali ben più veloce. Tuttavia il cell è più potente, ma tutto sta in come si usano le unità vettoriali e quanto si riuscirà a parallelizzare.
il 360 ha 3 core power il cell 1 + le unità vettoriali ognuna con della ram emebdded. imho il secondo è stratosferico ma ti sbatti a ti9rarne fuori le potenzialità.

dal lato gpu credo che se l'rsx è cugiono di g70 non sia poi tanto superiore d r500. poi non capisco il senso di 12 o 16 vertex unit che con il cell sotto mi sembra un controsenso

street
20-05-2005, 12:16
ot on

parla per te ;) 4 anni di Adsl con Telecom mai un guasto, di cui 3 di Alice Mega uno fra 640 e Free e 1 mese di 4mbit :fagiano:

tiè :tie:

il mio quote era in rierimento al tipo di entrate che si fanno spesso e volentieri con un comportamento prevenuto con luogo comune incorporato, non era un pretesto per farne uscire un'altro dalla sua nicchia a lanciar letame su un'altra al centro del mirino (TI appunto) :p

ot off

saluti

[sempre ot]
non facciamo infatti di tutta l' erba un fascio:

abbonato adsl aziende con interbusiness, 1 anno = 7 ticket aperti, fate un pò voi :rolleyes:

Crashman
20-05-2005, 13:49
Mi quoto da un altro thread:
Ecco 2 link che puntualizzano un po' di cose sull'R500 (una fra tutte il fatto che non fa 48 miliardi di shader ops/sec ma il doppio)
http://www.firingsquad.com/features/xbox_360_interview/
http://www.hardocp.com/article.html?art=Nzcx
;)

PeK
20-05-2005, 15:14
ATI: Yeah I really think it’s just an accident because, well you know, last summer they had to change their plans. They found out that Cell didn’t work as well as they wanted to for graphics. Remember originally you had two or three Cell processors doing everything and then in August last year they had to take an NVIDIA PC chip. And as you know, all PC chips do this, and so it [dual HD display outputs] just came for free.



...

vabbè, questa sparata poteva anche risparmiarsela

per i non anglofoni

ATI: beh, si. credo che sia solo per coincidenza perchè, beh... lo sai, la scorsa estate hanno dovuto cambiare i loro progetti. hanno scoperto che Cell non era buono quanto volevano per fare la grafica. ricordi che originalmente volevano 2 o 3 processori Cell che si occupavano di tutto, però in agosto hanno dovuto prendere un chip per computer da nvidia. e come saprai, tutti i chip per pc lo fanno, e quindi lo [doppio output in alta definizione] hanno ottenuto gratis

Coyote74
20-05-2005, 16:30
ATI: Yeah I really think it’s just an accident because, well you know, last summer they had to change their plans. They found out that Cell didn’t work as well as they wanted to for graphics. Remember originally you had two or three Cell processors doing everything and then in August last year they had to take an NVIDIA PC chip. And as you know, all PC chips do this, and so it [dual HD display outputs] just came for free.



...

vabbè, questa sparata poteva anche risparmiarsela

per i non anglofoni

ATI: beh, si. credo che sia solo per coincidenza perchè, beh... lo sai, la scorsa estate hanno dovuto cambiare i loro progetti. hanno scoperto che Cell non era buono quanto volevano per fare la grafica. ricordi che originalmente volevano 2 o 3 processori Cell che si occupavano di tutto, però in agosto hanno dovuto prendere un chip per computer da nvidia. e come saprai, tutti i chip per pc lo fanno, e quindi lo [doppio output in alta definizione] hanno ottenuto gratis

Sarebbe interessante conoscere la domanda... anche perchè, altrimenti, sembra che quelle dichiarazioni siano vaneggiamenti di un ubriaco. :D

Crashman
20-05-2005, 17:12
Sarebbe interessante conoscere la domanda... anche perchè, altrimenti, sembra che quelle dichiarazioni siano vaneggiamenti di un ubriaco. :D
La domanda era questa:Well, on the Sony console, I think they're looking at applications that go beyond just a console in the living room don't you think?

Banus
20-05-2005, 20:44
ATI: Yeah I really think it’s just an accident because, well you know, last summer they had to change their plans. They found out that Cell didn’t work as well as they wanted to for graphics. Remember originally you had two or three Cell processors doing everything and then in August last year they had to take an NVIDIA PC chip. And as you know, all PC chips do this, and so it [dual HD display outputs] just came for free.
E' invece abbastanza plausibile. Un brevetto depositato su Cell mostrava una configurazione particolare con 4 PPE, 8 SPE per due PPE, e altre due PPE con 4 SPE e altri elementi con la funzione di rasterizzatori (un setup che ricorda il GS della PS2). A parte il fatto che realizzarlo con la tecnologia di oggi sarebbe del tutto proibitivo :p , questo brevetto faceva pensare all'uso di un Cell modificato come GPU, che sarebbe stato estremamente flessibile. A quanto pare l'idea non era molto buona (le GPU con circuiteria dedicata sono comunque più efficienti) e quindi hanno ripiegato su Nvidia, che non ha fatto altro che customizzare G70 per Sony. Dopo l'annuncio della collaborazione con Nvidia l'ipotesi del "Cell custom" è definitivamente caduta.

fek
20-05-2005, 21:28
Qui c'e' un'interessante confronto fra PS3 e X360. E' un po' di parte, alcuni calcoli sembrano tirati per i capelli, altri sono proprio sbagliati, ma in generale e' piuttosto sensato:

http://www.majornelson.com/2005/05/20/xbox-360-vs-ps3-part-1-of-4

Questa e' la sua conclusione:


CONCLUSION
When you break down the numbers, Xbox 360 has provably more performance than PS3. Keep in mind that Sony has a track record of over promising and under delivering on technical performance. The truth is that both systems pack a lot of power for high definition games and entertainment.

end.is.forever
20-05-2005, 21:42
Qui c'e' un'interessante confronto fra PS3 e X360. E' un po' di parte, alcuni calcoli sembrano tirati per i capelli, altri sono proprio sbagliati, ma in generale e' piuttosto sensato:

http://www.majornelson.com/2005/05/20/xbox-360-vs-ps3-part-1-of-4

Questa e' la sua conclusione:

A me sembra un' "analisi" un po' del cavolo, campata per aria come poche altre.
Tipo i dati sulla GPU sarebbe bello sapere da quale viaggio mentale se li è tirati fuori.

Poi interessantissimo quel "CPU general purpose performance comparison" con Xbox 360 che ha 1. Di cosa? Boh per lui non è importante; l'importante è che ha 1 mentre la PS3 avrebbe 0,3.
Se solo tutti i benchmark fossero così esaurienti...

Poi fa abbastanza rabbrividire questa conclusione:
Xbox 360 games—by leveraging cutting-edge hardware, software, and services—will outperform the PlayStation 3.
Sarebbe bello sapere di quali "cutting-edge software" e "services" sta parlando, dato che è già tanto se della console abbiamo visto la cover.

yanchi
20-05-2005, 21:51
wow la sony allora fa uscire un hardware in ritardo di un anno e per di più inferiore come potenza....ma loooool....

fek
20-05-2005, 21:52
A me sembra un' "analisi" un po' del cavolo, campata per aria come poche altre.
Tipo i dati sulla GPU sarebbe bello sapere da quale viaggio mentale se li è tirati fuori.


Quelli mi sembrano piuttosto attendibili.


Poi interessantissimo quel "CPU general purpose performance comparison" con Xbox 360 che ha 1. Di cosa? Boh per lui non è importante; l'importante è che ha 1 mentre la PS3 avrebbe 0,3.
Se solo tutti i benchmark fossero così esaurienti...

Questo calcolo non ha alcun senso, come quello sulla banda passante.


Poi fa abbastanza rabbrividire questa conclusione:

Sarebbe bello sapere di quali "cutting-edge software" e "services" sta parlando, dato che è già tanto se della console abbiamo visto la cover.

Su questo invece sono d'accordo :)
Si riferisce a tutti i servizi Live che sono stati presentati.

Speed399
20-05-2005, 21:52
mm

Fatal error: Call to undefined function: get_bloginfo() in /home/hryb/public_html/majornelson/wp-includes/wp-db.php on line 304

end.is.forever
20-05-2005, 22:03
Diciamo la verità: ora qualsiasi analisi di prestazioni non ha nessuna base; proprio perchè nessuno ha dei dati, e senza dati le uniche cose che sono fuori sono analisi di parte di qualche major nelson di turno.

Anche se ci fossero i dati, comunque si potrebbe tirare fuori pochissimo, perche le due architetture sono completamente diverse, addirittura una di queste usa una pu completamente nuova e mai usata in alcun sistema consumer e una gpu che non è ancora stata sviluppata e su cui si sa pochissimo (se non che è stata presentata da Nvidia come qualcosa di completamente diverso dalle schede PC e questo conferma che di dati non se ne possono tirare fuori).

Tirare conclusioni non ha nessun senso, posso capire analizzare quel poco che abbiamo e dire la propria opinione, ma addirittura parlare di "console più performante" è ridicolo.

BTinside
20-05-2005, 23:33
ot on

parla per te ;) 4 anni di Adsl con Telecom mai un guasto, di cui 3 di Alice Mega uno fra 640 e Free e 1 mese di 4mbit :fagiano:

tiè :tie:

il mio quote era in rierimento al tipo di entrate che si fanno spesso e volentieri con un comportamento prevenuto con luogo comune incorporato, non era un pretesto per farne uscire un'altro dalla sua nicchia a lanciar letame su un'altra al centro del mirino (TI appunto) :p

ot off

saluti
Nessun PRE-giudizio, tutte esperienze personsali e di amici miei, poi per carità la Telecom non è un unico grande uomo che si occupa di tutta Italia, la serietà del suo operato può variare da zona a zona, e io e altri due miei amici siamo dovuti ricorrere all'avvocato per farci disdire l'adsl io due anni fa e loro da poco tempo. Per attivartelo te lo attivano subito, per disdire l'abbonamento se non li minacci con l'avvocato ti lasciano sbattere.

OT off (anche se ho iniziato io :D )

yanchi
21-05-2005, 00:00
Diciamo la verità: ora qualsiasi analisi di prestazioni non ha nessuna base; proprio perchè nessuno ha dei dati, e senza dati le uniche cose che sono fuori sono analisi di parte di qualche major nelson di turno.

Anche se ci fossero i dati, comunque si potrebbe tirare fuori pochissimo, perche le due architetture sono completamente diverse, addirittura una di queste usa una pu completamente nuova e mai usata in alcun sistema consumer e una gpu che non è ancora stata sviluppata e su cui si sa pochissimo (se non che è stata presentata da Nvidia come qualcosa di completamente diverso dalle schede PC e questo conferma che di dati non se ne possono tirare fuori).

Tirare conclusioni non ha nessun senso, posso capire analizzare quel poco che abbiamo e dire la propria opinione, ma addirittura parlare di "console più performante" è ridicolo.

quoto

yanchi
21-05-2005, 08:39
Comunque Major Nelson, la persona che ha messo su quel grafico è "Microsoft Director of Xbox Live"

Banus
21-05-2005, 08:58
Comunque Major Nelson, la persona che ha messo su quel grafico è "Microsoft Director of Xbox Live"
Quindi è prevedibile che porti acqua al suo mulino, come Sony con i 2 "Tflops" o con le comparazioni fra banda CPU-GPU-RAM nelle due architetture (sommando le bande dei due canali) o con i transistor (in cui mi pare abbiano toppato, parlano di 160 quando dovrebbero essere quasi 300 per R500).

Secondo me di questa generazione di console sono molto interessanti Cell per la PS3, e R500 per XBOX 360, perchè sono architetture molto innovative. Sarà interessante vedere nella programmazione dei giochi quanto sarà efficiente l'architettura di Cell (che è studiata per mantenere sempre occupate le SPE) e di R500, che oltre a shader unificati, stando alle parole di ATI, dovrebbe avere anche UMA (Uniform Memory Access) e la possibilità di riprocessare il risultato di uno shader. Inoltre data l'enorme potenza nel vertex processing potrebbe permettere displacement mapping esteso. D'altra pare Cell potrebbe permettersi calcoli di fisica complessi, suono, texture, modelli procedurali (ma la banda con RSX è un grande limite).

Comunque la sfida fra le due console sembra abbastanza equilibrata.

Annamaria
21-05-2005, 10:18
Bill Gates avra' il monopolio, anche, del mercato delle console e temo, gia', con la Xbox 360.

GogetaSSJ
21-05-2005, 10:21
Bill Gates avra' il monopolio, anche, del mercato delle console e temo, gia', con la Xbox 360.

E, sta cosa, dove, l'hai letta?

Annamaria
21-05-2005, 10:30
E, sta cosa, dove, l'hai letta?

Non l'ho letta, ma credo che, con con windows, avra' il monopolio, prima o poi...Bill Gates, sicuramente, non ne parlera', ma è sua intenzione avere il monopolio nel mercato delle console, purtroppo.

BTinside
21-05-2005, 10:31
Quindi è prevedibile che porti acqua al suo mulino, come Sony con i 2 "Tflops" o con le comparazioni fra banda CPU-GPU-RAM nelle due architetture (sommando le bande dei due canali) o con i transistor (in cui mi pare abbiano toppato, parlano di 160 quando dovrebbero essere quasi 300 per R500).

Si lui fa i grafici dove mostrano le colonnine di X360 sempre più alte di PS3, ma se hai visto il video della conference Sony vedrai che mostrano più o meno gli stessi grafici ma in maniera ribaltata, cioè gran vantaggio per PS3.
Anche se nei grafici di Xbox si parlava mi pare di Banda totale, mentre alla Sony forse prendevano in esame altri aspetti.

Allanon Of Shannar
21-05-2005, 10:33
Non l'ho letta, ma credo che, con con windows, avra' il monopolio, prima o poi...Bill Gates, sicuramente, non ne parlera', ma è sua intenzione avere il monopolio nel mercato delle console, purtroppo.

Ho qualche GROSSO dubbio..soprattutto sul mercato pc. Incrociamo sempre le dita che non raggiunga mai il monopolio da nessuna parte nè lui nè sony che sennò sono cavoli per noi utenti finali..

GogetaSSJ
21-05-2005, 10:34
Non l'ho letta, ma credo che, con con windows, avra' il monopolio, prima o poi...Bill Gates, sicuramente, non ne parlera', ma è sua intenzione avere il monopolio nel mercato delle console, purtroppo.

Bè a chi non piacerebbe avere un monopolio, anche a Sony e Nintendo ovviamente.
Comunque stiamo parlando di un mercato in continua evoluzione il quale ha fatto passi da gigante negli ultimi anni, per cui la concorrenza è e sarà spietata.
Dubito che uno dei 3 grandi marchi si affermerà come monopolio.

Ren
25-05-2005, 18:22
Articolo corposo sulla CPU XBOX360.
Pare sia altamente customizzata...

http://arstechnica.com/articles/paedia/cpu/xbox360-1.ars/1

fek aiutaci tu!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! :D

Banus
25-05-2005, 18:51
Articolo corposo sulla CPU XBOX360.
Pare sia altamente customizzata...
Ci sono già informazioni così precise? :D
E' interessante l'immagine che si vede qui:
http://arstechnica.com/articles/paedia/cpu/xbox360-1.ars/4

Si vede una cache da 1 MB condivisa mentre dai rumors avevo sentito parlare di 1 MB per ciascun core...
Dalle parole dell'autore dell'articolo sembra che i core di Xenon siano più simili alla PPE di Cell che ai PowerPC 970, quindi niente OOOE probabilmente. La possibilità di gestire due thread per core è un'altra similarità con la PPE.

E' molto interessante la gestione della cache L2, che si differenzia dalla normali cache. In particolare è possibile "bloccare" determinate porzioni di cache e gestirle come FIFO, evitando continui cache miss dovuti alla limitata capacità, e relative latenze. Con questa politica la cache L2 si comporta in modo simile alla memoria locale delle SPE, e viene acceduta direttamente bypassando la cache L1.

Ren
25-05-2005, 21:55
Si vede una cache da 1 MB condivisa mentre dai rumors avevo sentito parlare di 1 MB per ciascun core...

Microsoft ha confermato 1mb condivisa.

Ren
25-05-2005, 21:59
La microsoft pare abbia lavorato insieme ad IBM E ATI nello sviluppo di ogni singolo componente in modo da customizzare ogni singola parte x aiutare gli sviluppatori.

Ren
25-05-2005, 22:01
Banus altre spiegazioni(anke tecniche) saranno ben gradite...

Banus
25-05-2005, 22:56
Banus altre spiegazioni(anke tecniche) saranno ben gradite...
Non sono assolutamente un esperto e per scendere nei dettagli è meglio aspettare fek ;)
Dell'articolo oltre alla discussione dell'architettura di Xenon mi è piaciuta la parte introduttiva sulla geometria procedurale e sulla tessellizzazione. In poche parole significa la possibilità di displacement mapping effettivo (niente "falso" displacement come il parallax mapping) e vera e propria geometria procedurale, ad esempio rilievi montuosi generati da un algoritmo, oppure un'intera foresta con ciascun albero diverso dagli altri (anche se fek ha proposto un modo per fare questo con un uso intellingente delle matrici di skinning :p), effetti raramente visti in un gioco come isosurfaces (ad esempio le metaball, che si vedono in alcune demo 3D) oppure calcolo della deformazione di superfici.
Dopo anni di giochi limitati nel numero di poligoni a causa della scarsa potenza dell'hardware (console) oppure da colli di bottiglia (PC), si potrebbero vedere dei giochi estremamente dettagliati sulla nuova generazione di console.

Eraser|85
26-05-2005, 18:52
sono arrivato fino a pagina 7 e mezzo.. quando ho letto che usare 24 pipes con 2 alu è un "passo indietro" rispetto a 48 pipes con 1 alu..

ma ragazzi, lo sapete che quando si parla di "numero di pipelines" ci riferiamo in quanti "sotto-pezzi" un'architettura riesce a suddividere l'istruzione? E' praticamente come per i pentium 4 con 31 stadi di pipelines.. si è visto a cosa hanno portato tutte quelle pipes..

c'è un punto in cui l'aumento di pipelines porta ad un decadimento di prestazioni.. mentre un aumento di ALU porta ad un miglioramento in ogni caso

Avere un istruzione suddivisa in "48 fasi" significa istruzioni eseguite per ciclo di clock estremamente semplici, dando la possibilità di un aumento in frequenza maggiore (ecco perchè l'architettura NetBURST di Intel ha queste frequenze.. ha pipes lunghissime!)

Quando però abbiamo dobbiamo svuotare tutte le pipelines, bisognerà aspettare altri 48 cicli di clock prima che si avrà un istruzione in uscita...

Quindi ragazzi, prima di dire "più pipes abbiamo meglio è" bisogna prendere in considerazione diverse variabili... e perchè no, guardare il passato e il presente, per poter cercare di "indovinare" il futuro ;)

Banus
26-05-2005, 19:02
ma ragazzi, lo sapete che quando si parla di "numero di pipelines" ci riferiamo in quanti "sotto-pezzi" un'architettura riesce a suddividere l'istruzione? E' praticamente come per i pentium 4 con 31 stadi di pipelines.. si è visto a cosa hanno portato tutte quelle pipes..
No, si riferisce al numero di "blocchi" del processore ;)
Quelli di cui parli sono gli stadi della pipeline. Il discorso "48x1 meglio di 24x2" ha il suo significato, perchè nel primo caso si possono avere 48 computazioni indipendenti, nel secondo solo se le istruzioni sono parallelizzabili, quindi c'è da aspettarsi una minore efficienza. L'adozione del 24x2 comunque ha il suo senso, perchè le pipeline hanno anche circuiteria di controllo, buffer.. che consumano transistor.

Eraser|85
26-05-2005, 19:41
ah ok, avevo cannato :D pensavo ci si riferisse agli stadi.. ;)

e mica si sa queste architetture di quanti stadi di pipeline dispongono?

Ren
26-05-2005, 20:06
Ma fek è sparito ?

Manp
26-05-2005, 20:13
Ma fek è sparito ?

sarà impegnato col lavoro... ogni tanto credo che debba anche lavorare oltre a perder tempo sul forum :fagiano: :D :D :D

:)

Banus
26-05-2005, 20:43
e mica si sa queste architetture di quanti stadi di pipeline dispongono?
Difficile dirlo, perchè spesso non si hanno dati precisi neppure per i chip in commercio. Il chip della Radeon X850 ha 16 stadi, X800 12. In genere alzando la frequenza aumentano gli stadi, aumentando la complessità delle operazioni (come in NV40) diminuiscono.

fek
27-05-2005, 15:02
sarà impegnato col lavoro... ogni tanto credo che debba anche lavorare oltre a perder tempo sul forum :fagiano: :D :D :D

:)

:p

Crashman
27-05-2005, 15:04
:p
Perchè non ci parli un po' di quello che hai scoperto smanettando nelle sdk? :D :D

fek
27-05-2005, 15:06
Articolo corposo sulla CPU XBOX360.
Pare sia altamente customizzata...

http://arstechnica.com/articles/paedia/cpu/xbox360-1.ars/1

fek aiutaci tu!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! :D

Ho letto quell'articolo ieri sera, e' molto interessante.
Alcune considerazioni dell'autore dell'articolo non sono propriamente esatte, ad esempio quando dice che gli alberi possono essere creati tutti uno diverso dall'altro da molti artisti oppure generati proceduralmente. C'e' una via di mezzo: gli artisti possono creare un certo numero di alberi che possono essere modificati proceduralmente via codice direttamente nella GPU senza dover fare streaming di nuova geometria ad ogni frame. Faccio una cosa simile in BW2 per gli abitanti del villaggio che sono uno un po' piu' grasso, piu' alto, colorato diversamente rispetto agl'altri, per dare un po' di varieta'.

Per il resto ha gia' detto tutto Banus, se c'e' lui io non servo :D

fek
27-05-2005, 15:07
Perchè non ci parli un po' di quello che hai scoperto smanettando nelle sdk? :D :D

Perche' la maggior parte e' sotto NDA :D

Crashman
27-05-2005, 15:09
Perche' la maggior parte e' sotto NDA :D
Malvagio :D

Banus
27-05-2005, 17:43
Malvagio :D
C'è lo speciale su Beyond3d (http://www.beyond3d.com/articles/directxnext/) ma ormai non sarà più molto attendibile :p
Le caratteristiche di R500 sono comunque abbastanza in linea con quanto riportato.

Crashman
27-05-2005, 18:08
C'è lo speciale su Beyond3d (http://www.beyond3d.com/articles/directxnext/) ma ormai non sarà più molto attendibile :p
Le caratteristiche di R500 sono comunque abbastanza in linea con quanto riportato.
In effetti l'avevo letto un paio di eoni fa :p , ma magari qualcuno non l'aveva letto ;)
Ecco un altro bel link (http://www.beyond3d.com/forum/viewtopic.php?t=23216&sid=1fbd325abfdcce2ae4b8a51bdbc9abf7), scritto in una lingua non meglio identificata (sembra un incrocio tra inglese e giorgianese)
Facevano prima a lasciarlo in giapponese :D :D

ugluck
28-05-2005, 00:40
MICROSOFT è sempre MICROSOFT :ave:

Ne sono quasi sicuro, anche se a volte penso che in realtà sia la buitoni :D

Sono piombato qui in mezzo a questo casino per un'altra ragione, a parte il fatto che questo tread non poggi su quasi nulla di concreto, chi di voi ha esperienza a riguardo (io l'ultimo codice l'ho buttato giù almeno 6 anni fa e non era un gran chè), quale delle due macchine è più sfruttabile e semplice da programmare? so che è impossibile forse ma provate a dire la vostra, almeno per continuare a fantasticare.

Oltretutto vorrei sapere se non sarebbe stato meglio non vedere niente all'e3 (mi riferisco ai precalcolati improbabili che hanno spiattellato)

X-ICEMAN
28-05-2005, 00:58
Oltretutto vorrei sapere se non sarebbe stato meglio non vedere niente all'e3 (mi riferisco ai precalcolati improbabili che hanno spiattellato) bhe a me è bastato vedere dal vivo gears of war, giocato con tanto di pad collegato al dev kit powermac X360, per dare un senso a tutto l' E3 :)

poi dopo quello viene tutto il resto, da prey a kameo, da alan wake ad oblivion, da call of duty ai titoli sportivi EA next gen, da perfect dark 0 a quake 4, da need for speed most wanted a condemned, da full auto a top spin 2, da amped3 a the outfit etc etc cosa hanno in comune quei titoli ? semplice tutti in uscita su x360 nei primi mesi di vita e tutti in real time :) altro che demo pre render :D

ugluck
28-05-2005, 01:10
bhe a me è bastato vedere dal vivo gears of war, giocato con tanto di pad collegato al dev kit powermac X360, per dare un senso a tutto l' E3 :)

poi dopo quello viene tutto il resto, da prey a kameo, da alan wake ad oblivion, da call of duty ai titoli sportivi EA next gen, da perfect dark 0 a quake 4, da need for speed most wanted a condemned, da full auto a top spin 2, da amped3 a the outfit etc etc cosa hanno in comune quei titoli ? semplice tutti in uscita su x360 nei primi mesi di vita e tutti in real time :) altro che demo pre render :D

Quindi al contrario di sony la microsoft aveva qualcosa di concreto? strano, da ign mi era sembrato di capire che non era così, però se hai toccato con mano... comunque a parte gears of war tra l'altro giocato su una macchina non sicuramente definitiva (o sbaglio anche qui? correggimi nel caso) nient'alto.

Rimane però il resto del quesitone, a dire il vero nonostante sulla carta la macchina sony mi sembri superiore non mi fido fino a quando non la vedo. Poi nell'ultima generazione la macchina meno potente si è dimostrata la migliore no? (sono sempre un nintendaro ma i dati parlano chiaro)

P.S.: questa storia del powermac sta facendo sclerare la gente sul forum apple, l'xbox 360 non ha a che fare con il g5, dovrebbero scriverlo grosso :D

X-ICEMAN
28-05-2005, 01:25
Ign ha realizzato parecchi hands on dei giochi ( come altri siti anche italiani :D ) non tutti i giochi però erano disponibili sullo showfloor, alcuni erano solo a porte chiuse con i programmatori che giocavano davanti a te e ti facevano vedere le varie feature del gioco ( gears of war e perfect dark0 tanto per fare un esempio )

tra i giocabili da tutti sul padiglione c'erano test drive, need4 speed, call of duty2, top spin2, amped3, full auto, condemned, e praticamente kameo ( che però era in simil rolling demo (provato pure quello a porte chiuse) con i livelli disponibili a porte chiuse che erano in loop ( non giocabili ) sullo showfloor

tutti erano collegati ai dev kit alpha non finali ( 30% circa delle potenzialità dell'hardware finale, a detta dei programmatori ) ovvero dei powermac dual 2.2 con ati x850 o similare

l'unico dev kit beta ( con hardware non del tutto finale ma molto più avanzato) era nello stand ati che faceva girare in rolling una loro tech demo più avanzata (ruby sempre ) che mostravano a porte chiuse anche su pc con r520 ( più o meno quelli dove girava alan wake e prey, sempre nello stand ati )

gabberman81
28-05-2005, 11:18
Ign ha realizzato parecchi hands on dei giochi ( come altri siti anche italiani :D ) non tutti i giochi però erano disponibili sullo showfloor, alcuni erano solo a porte chiuse con i programmatori che giocavano davanti a te e ti facevano vedere le varie feature del gioco ( gears of war e perfect dark0 tanto per fare un esempio )

tra i giocabili da tutti sul padiglione c'erano test drive, need4 speed, call of duty2, top spin2, amped3, full auto, condemned, e praticamente kameo ( che però era in simil rolling demo (provato pure quello a porte chiuse) con i livelli disponibili a porte chiuse che erano in loop ( non giocabili ) sullo showfloor

tutti erano collegati ai dev kit alpha non finali ( 30% circa delle potenzialità dell'hardware finale, a detta dei programmatori ) ovvero dei powermac dual 2.2 con ati x850 o similare

l'unico dev kit beta ( con hardware non del tutto finale ma molto più avanzato) era nello stand ati che faceva girare in rolling una loro tech demo più avanzata (ruby sempre ) che mostravano a porte chiuse anche su pc con r520 ( più o meno quelli dove girava alan wake e prey, sempre nello stand ati )


ma ti devo leggere pure qui ???http://img17.exs.cx/img17/8382/sarcastic28bb.gif (http://www.imageshack.us)cmq quest'e3 é stato una BUFFONATA UNICA!!http://img17.exs.cx/img17/8932/furiosi89cn.gif (http://www.imageshack.us)non vi dico la delusione quando ho saputo che killzone 2 era precalcolato !!!
:ahahah: non ci volevo credere !!!!
1)cmq x quanto riguarda pgr3, gears of war, need for speed most wanted ho notato che a parte la grafica fantastica (gow é immenso !!) sono parecchio scattosi!!non vorrei ritrovarmi dei giochi che muovono un sacco di poligoni e effetti speciali ma che girano sui 20/30 frames :mc: no xche io adesso voglio TUTTI i giochi a 60 fps, sopratutto gli sparatutto e i racing, e chissenefrega di avere risoluzioni della madonna se poi il framerate é scarso...
2)doa4 mi ha deluso, hanno usato i soliti modelli 3d :doh: poi niente ombre dinamiche...spero che lo migliorino xche cosi' comé pare un gioco da xbox 1 1/2 pare un doau pompato e non un gioco da next gen :(

X-ICEMAN
28-05-2005, 12:06
1) i titoli in versione beta anche su hardware non definitivi non vanno mai a frame rate fissi, i titoli in versione beta su hardware alpha meno che mai

2) doa4 aveva chilate di effetti in meno rispetto la versione finale, per farlo girare a 60 già su quei dev kit (e la considerazione sui modelli "soliti" è veramente una cavolata unica :D basta confrontare le foto a risoluzioni reali per farsene una idea)

gabberman81
28-05-2005, 12:37
1) i titoli in versione beta anche su hardware non definitivi non vanno mai a frame rate fissi, i titoli in versione beta su hardware alpha meno che mai

2) doa4 aveva chilate di effetti in meno rispetto la versione finale, per farlo girare a 60 già su quei dev kit (e la considerazione sui modelli "soliti" è veramente una cavolata unica :D basta confrontare le foto a risoluzioni reali per farsene una idea)


1) sperem :idea:
2) i modelli di doa4 x essere su xbox360 non sono niente di che...i volti sono rimasti uguali identici a quelli di doau, sono troppo semplici, i volti di vf4 su ps2 sono nettamente superiori, sia come numero di poligoni che come animazioni facciali e non venitemi a dire che é x via dello stile manga... :sob: chissa vf5 che mostro che sarà!!! qualcuno l'ha visto ?? :mbe:

ugluck
28-05-2005, 13:23
mi dispiace ma nonostante le esaurienti puntualizzazioni che mi avete fornito continuo ad avere l'idea che all'e3 nessuno ha veramente provato una nuova console, quello che sarà lxbox 360, la ps3 o revolution lo sapremo solo tra un bel po'. A questo punto preferisco aspettare.

gabberman81
28-05-2005, 13:30
mi dispiace ma nonostante le esaurienti puntualizzazioni che mi avete fornito continuo ad avere l'idea che all'e3 nessuno ha veramente provato una nuova console, quello che sarà lxbox 360, la ps3 o revolution lo sapremo solo tra un bel po'. A questo punto preferisco aspettare.


certo che avrei preferito che sony piuttosto di mostrare filmati spacciandoli x filmati in game, FAKE :mad: AVESSE FATTO COME NINTENDO che non avendo nulla da far vedere se né stata zitta e buona, non si prendono x il culo gli utenti, ancora mi rode x il filmato di killzone2 :ncomment:

X-ICEMAN
28-05-2005, 13:47
1) sperem :idea:
2) i modelli di doa4 x essere su xbox360 non sono niente di che...i volti sono rimasti uguali identici a quelli di doau, sono troppo semplici, i volti di vf4 su ps2 sono nettamente superiori,
ma neppure lontanamente paragonabili
anche levando il fattore risoluzione ( più che doppia rispetto a quelli di doa ultimate o vf4) la realizzazione dei modelli di doa4 è decisamente superiore, animazione dei capelli, dei vestiti, numero di poligoni e texture applicate

enry2772
28-05-2005, 13:50
Guarda dalle caratteristiche tecniche viste della PS3 dico sicuramente che e' molto piu' potente dell' X360!!!!

Io prendero' sicuramente la PS3!!! :D

X-ICEMAN
28-05-2005, 13:57
bhe che sia un pò più potente ci sta sicuramente ( molto non credo proprio.. si vedrà nei giochi.. ) ma dalla tua sign non penso tu decida per "hardware più potente" perchè senno in questa gen non avresti scelto ps2 :D penso che la scelta sia dettata dai giochi..

gabberman81
28-05-2005, 14:05
ma neppure lontanamente paragonabili
anche levando il fattore risoluzione ( più che doppia rispetto a quelli di doa ultimate o vf4) la realizzazione dei modelli di doa4 è decisamente superiore, animazione dei capelli, dei vestiti, numero di poligoni e texture applicate

la res non centra nulla, io parlo di numero di poligoni/texture i vestiti sono + dettagliati i capelli mi sembrano =; ma il punto forte di un modello 3d é il VOLTOhttp://img107.exs.cx/img107/6318/special659ic.gif (http://www.imageshack.us) se questo é identico a quello della vers xbox allora non mi pare che andiamo troppo bene !!
ti invito a postare un immg dei volti di doau o doa3 e di doa4 che vediamo se li hanno migliorati :read:

X-ICEMAN
28-05-2005, 14:26
la res non centra nulla, io parlo di numero di poligoni/texture i vestiti sono + dettagliati i capelli mi sembrano =; ma il punto forte di un modello 3d é il VOLTOhttp://img107.exs.cx/img107/6318/special659ic.gif (http://www.imageshack.us) se questo é identico a quello della vers xbox allora non mi pare che andiamo troppo bene !!
ti invito a postare un immg dei volti di doau o doa3 e di doa4 che vediamo se li hanno migliorati :read:

la res c'entra tutta visto che risoluzione doppia + antialiasing = potenza di calcolo necessaria a muovere il tutto allo stesso frame rate decisamente maggiore

muovere doa3 o vf4 a 640x480 (scarsi) senza fsaa @60fps è una cosa
muovere doa4 a 1280x720 + fsaa è un'altra @60fps

non concordo neppure sul fattore volto.. visto che imho non sono la cosa più importante.. la differenza qualitativa la fa il modello in se..

puoi farmi un volto perfetto ma con capelli "rigidi" e fissi oppure puoi fare un volto meno perfetto ma con chiome di capelli animate e non "fisse", con animazioni facciali e realizzazione persino degli occhi che non sono più "texture"
( giusto per fare un esempio )


foto
vf4
http://www.totalvideogames.com/pages/articles/media.php?screenshot=17545
http://media.ps2.ign.com/media/497/497456/img_1778691.html
http://www.totalvideogames.com/pages/articles/media.php?screenshot=17558
http://ps2media.ign.com/ps2/image/vfe_012803_6.jpg


doa4
http://media.xbox360.ign.com/media/545/545798/img_2796689.html
http://xbox360media.ign.com/xbox360/image/article/614/614922/dead-or-alive-4-20050516103848473.jpg
http://media.xbox360.ign.com/media/545/545798/img_2791044.html
http://media.xbox360.ign.com/media/545/545798/img_2796685.html



i modelli di doa4 visti in movimento con tutti i vestiti animati, animazioni facciali, capelli, texture etc in piena hdtv sono totalmente su un altro livello rispetto a quelli di doa3 o vf4
e non sono neppure in versione " finale " la qualità aumenterà ancora nei prossimi mesi con l'arrivo dell'hardware definitivo

Crashman
28-05-2005, 16:22
Guarda dalle caratteristiche tecniche viste della PS3 dico sicuramente che e' molto piu' potente dell' X360!!!!

Io prendero' sicuramente la PS3!!! :D
Wow che analisi approfondita. Pensa un po' che non ci stiamo sbattendo da qualche settimana cercando di capire i vantaggi di ciascuna architettura e tu hai capito tutto i 2 secondi. Grande!

Crashman
28-05-2005, 16:25
la res non centra nulla, io parlo di numero di poligoni/texture i vestiti sono + dettagliati i capelli mi sembrano =; ma il punto forte di un modello 3d é il VOLTOhttp://img107.exs.cx/img107/6318/special659ic.gif (http://www.imageshack.us) se questo é identico a quello della vers xbox allora non mi pare che andiamo troppo bene !!
ti invito a postare un immg dei volti di doau o doa3 e di doa4 che vediamo se li hanno migliorati :read:
Ma fammi capire, volevi dei volti + realistici? No perchè DoA ha da sempre uno stile molto ma molto anime, volti + realistici non sarebbero da DoA (nel 4 sono assolutamente perfetti)

ugluck
28-05-2005, 17:13
a parte il fatto che i giochi da screenshot non si possono proprio giudicare, specie con differenze esigue o immagini dubbie come queste doa è sempre stato bello graficamente ma ha avuto lacune giocative, anche soul calibur 2 imho... bisognerà vedere le recensioni.


P.S.: scegliere una console per la potenza è come comprare una macchina solo per i cavalli vapore, non scherziamo.

gabberman81
28-05-2005, 20:10
Ma fammi capire, volevi dei volti + realistici? No perchè DoA ha da sempre uno stile molto ma molto anime, volti + realistici non sarebbero da DoA (nel 4 sono assolutamente perfetti)


sarà lo stile troppo manga...ma i volti di doa4 sono identici a quelli di doa3 :read: io volevo vedere un salto qualitativo come é avvenuto da vf3 a vf4 o da tekken3 a tekken tag...poi non ci sono le ombre dinamiche (come in kakuto kojin) le ombre rendono molto + realistici e spettacolari i personaggi :O e cmq non sono certo l unico che si chiedeva se fosse un gioco x xbox1 o x xbox360 :rolleyes:
insomma, avete presente gears of war (il mostro che ho nell'avatar) ecco quella é grafica da next gen, doa4 mi pare soltanto l'ennesima minestra riscaldata (e io ADORO dead or alive, doau é uno dei giochi + belli x xbox)

Eraser|85
29-05-2005, 09:58
no ma dico ci vedi?

ma lo vedi quanto sono molto più definiti, puliti i modelli e le scene negli screen di DoA4?

Come è stato già detto, è lo stile manga che vieta di avere troppi dettagli (come in GoW)!! Come si fa fare un gioco fotorealistico e dire che è un manga? Non bastano solo i vestiti strani e larghi, le spade enormi a fare di un gioco un manga..

gabberman81
29-05-2005, 14:17
no ma dico ci vedi?

ma lo vedi quanto sono molto più definiti, puliti i modelli e le scene negli screen di DoA4?

Come è stato già detto, è lo stile manga che vieta di avere troppi dettagli (come in GoW)!! Come si fa fare un gioco fotorealistico e dire che è un manga? Non bastano solo i vestiti strani e larghi, le spade enormi a fare di un gioco un manga..


parlavo DEI VOLTI, I VOLTI !!! :rolleyes: sono identici a quelli di doau, ecco io vorrei vedere dei volti + dettagliati (avete presente le introduzioni di doa3 e doau ??? ecco quelli sono in stile manga ma sono + dettagliati !!)
ecco spero di essermi spiegato http://img17.exs.cx/img17/8514/cool90yq.gif (http://www.imageshack.us)

Ren
02-06-2005, 09:49
seconda parte dell'articolo di ars sulla cpu.
http://arstechnica.com/articles/paedia/cpu/xbox360-2.ars

X-ICEMAN
02-06-2005, 10:21
parlavo DEI VOLTI, I VOLTI !!! :rolleyes: sono identici a quelli di doau, ecco io vorrei vedere dei volti + dettagliati (avete presente le introduzioni di doa3 e doau ??? ecco quelli sono in stile manga ma sono + dettagliati !!)
ecco spero di essermi spiegato http://img17.exs.cx/img17/8514/cool90yq.gif (http://www.imageshack.us)
risoluzione in game

questo

http://xboxmedia.ign.com/xbox/image/article/561/561497/dead-or-alive-ultimate-20041028062116282.jpg

VS

questo

http://xbox360media.ign.com/xbox360/image/article/615/615311/dead-or-alive-4-20050517025812606.jpg
identici :D

Allanon Of Shannar
02-06-2005, 11:08
risoluzione in game

questo

http://xboxmedia.ign.com/xbox/image/article/561/561497/dead-or-alive-ultimate-20041028062116282.jpg

VS

questo

http://xbox360media.ign.com/xbox360/image/article/615/615311/dead-or-alive-4-20050517025812606.jpg
identici :D

Impressive...la pulizia grafica che raggiungeranno queste next gen è impressionante.
E pochi cavoli...in questa generazione l'alta risoluzione è D'OBBLIGO insieme al FSAA in tutti i giochi...
Vedendolo in movimento mi ha fatto ancora di più una bellissima impressione (insieme a quel teaser del prox vf).

Crashman
02-06-2005, 19:56
Ecco un ottimo articolo di Ars Technica, che analizza ottimamente la XeCPU:
Parte 1 (http://arstechnica.com/articles/paedia/cpu/xbox360-1.ars/1)
Parte 2 (http://arstechnica.com/articles/paedia/cpu/xbox360-2.ars?67820&38621)
Sono rimasto piacevolmente sorpreso dalla presenza del supporto HW per i modelli procedurali (il "procedural synthesis"). Ma devo dire anche ci sono cose abbastanza negative come l'esecuzione in-order...

Crashman
02-06-2005, 19:58
Mi sono accorto che qui non avevo postato il link sulla conference a londra di Ati in cui parla dello xenos:
Link (http://www.bit-tech.net/news/2005/05/25/ati_xbox_360_london)

B|4KWH|T3
09-10-2005, 17:06
Sono rimasto piacevolmente sorpreso dalla presenza del supporto HW per i modelli procedurali (il "procedural synthesis"). Ma devo dire anche ci sono cose abbastanza negative come l'esecuzione in-order...

A proposito di questa cosa:
non capisco perchè si parli della PS3 come penalizzata in certe situazioni rispetto ad una Xbox360 più versatili, o una PS3 esageratamente favorita in calcoli come la fisica.
I 3 core PPC modificati della seconda non mi sembrano nel complesso molto diversi dal Cell (PPC modificato+Processori vettoriali).

Naturalmente se qualcuno è in grado di spiegare nel dettaglio tanto meglio.

Crashman
11-10-2005, 09:48
A proposito di questa cosa:
non capisco perchè si parli della PS3 come penalizzata in certe situazioni rispetto ad una Xbox360 più versatili, o una PS3 esageratamente favorita in calcoli come la fisica.
I 3 core PPC modificati della seconda non mi sembrano nel complesso molto diversi dal Cell (PPC modificato+Processori vettoriali).

Naturalmente se qualcuno è in grado di spiegare nel dettaglio tanto meglio.
Hai riesumato una discussione vecchissima, in cui le informazioni disponibili non erano poi così tante. Cmq questo fatto non è ancora stato smntito. Infatti a fare la differenza in alcuni ambiti tipo l'IA, sono proprio la maggiore presenza di ppe nella x360. Giustamente tu hai obiettato dicendo che è cmq simile a quella del cell (vero tranne che per l'unità vettoriale, a 128 registri nello xenon), ma nella Ps3 no sarebbe solo impegnata nella gestione dell'IA ma anche nella coordinazione delle SPE, che essendo processori vettoriali, non possono aiutare la ppe in una IA, se non con un enorme spreco di transistor...
Di contro però, la xecpu può contare su un minore numero di unità vettoriali (3*VMX-128) rispetto alla cell (1*VMX-32 + 7*SPE): queste essendo appunto procssori vettoriali si comportano benissimo in ambiti come la fisica o calcoli sui vertici...
Tutto qui, le differenze ovviamente non sono abissali (anche perchè nei calcoli relativi alla fisica bisognerebbe tenere presente la possibilità di un aiuto da parte del C1 all'interno della x360) :)

^Robbie^
11-10-2005, 11:21
Secondo me tra le due non ci saranno differenze abissali. ;)

Byez!

Coyote74
11-10-2005, 12:12
Ormai è lampante, i dati parlano chiaro, la PS3 macinerà la x360 sotto tutti i punti di vista. A confronto sembrerà di una generazione avanti. Senza contare che avendo un lettore BD sarà anni luce avanti anche dal punto di vista multimediale, relegando la X360 in un cantuccio delle case dei poveri utenti che non hanno saputo aspettare, a prendere la polvere. Dal momento che entrerà sul mercato la PS3 tutto il resto sembrerà vetusto...

Manp
11-10-2005, 12:20
Ormai è lampante, i dati parlano chiaro, la PS3 macinerà la x360 sotto tutti i punti di vista. A confronto sembrerà di una generazione avanti. Senza contare che avendo un lettore BD sarà anni luce avanti anche dal punto di vista multimediale, relegando la X360 in un cantuccio delle case dei poveri utenti che non hanno saputo aspettare, a prendere la polvere. Dal momento che entrerà sul mercato la PS3 tutto il resto sembrerà vetusto...

e in base a quali motivi tecnici avresti maturato questa convinzione?

torgianf
11-10-2005, 12:22
e in base a quali motivi tecnici avresti maturato questa convinzione?

perche' lui le ha a casa entrambe :D

Coyote74
11-10-2005, 12:26
e in base a quali motivi tecnici avresti maturato questa convinzione?

Non nasce da una mia convinzione, è un assioma :O

Spider-Mans
11-10-2005, 12:30
Ormai è lampante, i dati parlano chiaro, la PS3 macinerà la x360 sotto tutti i punti di vista. A confronto sembrerà di una generazione avanti. Senza contare che avendo un lettore BD sarà anni luce avanti anche dal punto di vista multimediale, relegando la X360 in un cantuccio delle case dei poveri utenti che non hanno saputo aspettare, a prendere la polvere. Dal momento che entrerà sul mercato la PS3 tutto il resto sembrerà vetusto...


BUAHHAHAHAHAHAHAHHAHAHAHAHA

ti informo che vari tecnici ed esperti hanno sottolineato come la gpu ATi xbox360 e la memoria unificata della xbox360 siano NETTAMENTE migliori delle scelte di gpu Nvidsia (molto simile alla normalissima 7800 gia uscita su pc) e memoria non unificata della ps3

torna dal mondo delle fiabe

Coyote74
11-10-2005, 12:32
BUAHHAHAHAHAHAHAHHAHAHAHAHA

ti informo che vari tecnici ed esperti hanno sottolineato come la gpu ATi xbox360 e la memoria unificata della xbox360 siano NETTAMENTE migliori delle scelte di gpu Nvidsia (molto simile alla normalissima 7800 gia uscita su pc) e memoria non unificata della ps3

torna dal mondo delle fiabe

Cosa vuol dire "torna al mondo delle fiabe"? :confused:

Spider-Mans
11-10-2005, 12:33
Cosa vuol dire "torna al mondo delle fiabe"? :confused:


leggi meglio torna "dal" mondo delle fiabe ossia tienitele per te ste perle da alice nel paese delle meraviglie :stordita:

Coyote74
11-10-2005, 12:35
leggi meglio torna "dal" mondo delle fiabe ossia tienitele per te ste perle da alice nel paese delle meraviglie :stordita:

Ha, ora è molto più chiaro, grazie :O
Ma mi spieghi che fastidio ti da se espongo un'opinione come la mia? :confused:

Spider-Mans
11-10-2005, 12:36
Ha, ora è molto più chiaro, grazie :O
Ma mi spieghi che fastidio ti da se espongo un'opinione come la mia? :confused:


nessuna :D sei libero di dire che il sole è viola e non giallo :D
pero nel momento in cui lo dici io sono libero di sottolineare che non è cosi'

con rispetto^^ :D

Coyote74
11-10-2005, 12:44
nessuna :D sei libero di dire che il sole è viola e non giallo :D
pero nel momento in cui lo dici io sono libero di sottolineare che non è cosi'

con rispetto^^

Ecco... è proprio questo che non va... di rispetto non ne hai avuto proprio per niente, frasi del tipo "torna dal paese delle fiabe" sono alquanto eccessive a mio avviso.
Detto per inciso stavo scherzando e ho voluto vedere fino a che punto si arrivava. Onestamente trovo alquanto stucchevole questa continua diatriba su la x360 è meglio o la PS3 è mille anni avanti. Nessuno di noi ha ancora in mano una X360, ma già fa confronti con una console (PS3) che è lungi da venire. Tanti si fanno forti di affermazioni di pseudo esperti per sostenere le proprie tesi, ma resta il fatto che finchè nessuno avrà in casa sia la PS3 che la X360 di confronti è inutile farne. Sono solo aria fritta. Per quanto ne sappiamo la PS3 a confronto potrebbe essere un macinino o un fulmine, nessuna ipotesi è scartabile.

Spider-Mans
11-10-2005, 12:46
Ecco... è proprio questo che non va... di rispetto non ne hai avuto proprio per niente, frasi del tipo "torna dal paese delle fiabe" sono alquanto eccessive a mio avviso.
Detto per inciso stavo scherzando e ho voluto vedere fino a che punto si arrivava. Onestamente trovo alquanto stucchevole questa continua diatriba su la x360 è meglio o la PS3 è mille anni avanti. Nessuno di noi ha ancora in mano una X360, ma già fa confronti con una console (PS3) che è lungi da venire. Tanti si fanno forti di affermazioni di pseudo esperti per sostenere le proprie tesi, ma resta il fatto che finchè nessuno avrà in casa sia la PS3 che la X360 di confronti è inutile farne. Sono solo aria fritta. Per quanto ne sappiamo la PS3 a confronto potrebbe essere un macinino o un fulmine, nessuna ipotesi è scartabile.


beh anche io avevo un tono marcatamente scherzoso altrimenti non usavo le fiabe e alice nel paese delle meraviglie :D

mentre non avevo capito che anche tu stavi scherzando dato che leggere certe "sentenze" senza avere niente in mano mi sembrava assurdo..

infatti condivido appieno il tuo pensiero dato che mi sono limitato a riportare certi giudizi di esperti che parlano a lvl teorico di prestazioni simili.....cmq vedremo

insomma potevi dirlo subito che scherzavi...non traspariva dai tuoi reply :sofico:

ciao^

Coyote74
11-10-2005, 12:53
beh anche io avevo un tono marcatamente scherzoso altrimenti non usavo le fiabe e alice nel paese delle meraviglie :D

mentre non avevo capito che anche tu stavi scherzando dato che leggere certe "sentenze" senza avere niente in mano mi sembrava assurdo..

infatti condivido appieno il tuo pensiero dato che mi sono limitato a riportare certi giudizi di esperti che parlano a lvl teorico di prestazioni simili.....cmq vedremo

insomma potevi dirlo subito che scherzavi...non traspariva dai tuoi reply :sofico:

ciao^

Se lo dicevo subito che scherzo era? :p

Spider-Mans
11-10-2005, 12:53
Se lo dicevo subito che scherzo era? :p


ok ci sono cascato :muro: :Prrr: :sofico:

^Robbie^
11-10-2005, 13:30
ok ci sono cascato :muro: :Prrr: :sofico:

:Perfido: :asd:

B|4KWH|T3
13-10-2005, 19:48
... siano NETTAMENTE migliori delle scelte di gpu Nvidsia (molto simile alla normalissima 7800 gia uscita su pc) e memoria non unificata della ps3

torna dal mondo delle fiabe


Ma perchè qualcuno ha capito cosa c'è nell 'RSX nvidia?
Ci sono dati ufficiali e dettagliati sull'architettura?

Jaguar64bit
13-10-2005, 20:12
A mio avviso se la Ps3 è più potente lo sarà di poco , l'XBox360 non lo sottovaluterei troppo..io credo che tutte e due gli hardware in questione possono essere raffrontati su di una linea bilanciata.. , non credo che usciranno giochi che spezzano le gambe all'altra console..se per Ps3 ci sara MGS4 per l'Xbox 360 ci sarà Halo3.... , ma poi credo che tutte e due le console sapranno stupire molto , cmq senza avere giochi in mano per fare comparazioni è difficile capire chi ha qualcosa in più.

Innominato
13-10-2005, 21:30
Secondo me la ps3 dovrà essere superiore o in hardware o in ottimizzazione perchè sennò l'avrebbero già fatta uscire :fagiano:

enry2772
14-10-2005, 08:24
E' piu' potente la PS3..... :)

Crashman
14-10-2005, 08:36
Secondo me la ps3 dovrà essere superiore o in hardware o in ottimizzazione perchè sennò l'avrebbero già fatta uscire :fagiano:
Mai sentito parlare di prezzi di produzione??? ;)

Crashman
14-10-2005, 08:37
E' piu' potente la PS3 di una PSX ..... :)
Quoto in toto :)



:D

end.is.forever
14-10-2005, 08:59
BUAHHAHAHAHAHAHAHHAHAHAHAHA

ti informo che vari tecnici ed esperti hanno sottolineato come la gpu ATi xbox360 e la memoria unificata della xbox360 siano NETTAMENTE migliori delle scelte di gpu Nvidsia (molto simile alla normalissima 7800 gia uscita su pc) e memoria non unificata della ps3

torna dal mondo delle fiabe

Che intervento del xxxxx.

Dato che te la ridi tutta a proposito di hardware ancora in progettazione nel mondo delle fiabe ci stai anche tu.

Innominato
14-10-2005, 11:42
Mai sentito parlare di prezzi di produzione??? ;)
Perchè una cosa che costa 3 a sony costa 2 a bill? :mbe:

Everyman
14-10-2005, 12:33
Beh, considerato che ps3 esce dopo xbox360, credo che qualche punto a favore di Sony ci sara', e ci mancherebbe, dato che le leggi informatico/temporale parlano da sole, soprattutto dal punto di vista della gestione della fisica.

Comunque manca poco all'uscita di xbox180...pardon, xbox360 :asd:

Ren
14-10-2005, 13:18
Perchè una cosa che costa 3 a sony costa 2 a bill?

Semplicemente la ps3 nell'insieme costerà molto di+ di un xbox360,
xquesto non ci sarà un lancio contemporaneo in tutto il mondo...

Ren
14-10-2005, 13:21
Beh, considerato che ps3 esce dopo xbox360, credo che qualche punto a favore di Sony ci sara', e ci mancherebbe, dato che le leggi informatico/temporale parlano da sole, soprattutto dal punto di vista della gestione della fisica.

Ti sbagli,
Sei mesi non sono nulla quando devi finire la progettazione,produrre ed immettere sul mercato.

Everyman
14-10-2005, 13:27
Ti sbagli,
Sei mesi non sono nulla quando devi finire la progettazione,produrre ed immettere sul mercato.

In base a cosa giudichi un hardware di cui non si sa praticamente nulla?

La mia era una considerazione di carattere generale, difficilmente, nella storia dell'informatica, ho visto un prodotto uscira 6 mesi dopo ed essere peggio dei concorrenti usciti prima.

Poi magari hai ragione te, eh! :)

Ren
14-10-2005, 13:35
In base a cosa giudichi un hardware di cui non si sa praticamente nulla?

mi sa che ti sei perso qualche puntata di troppo... :sofico:

Everyman
14-10-2005, 15:52
mi sa che ti sei perso qualche puntata di troppo... :sofico:

Argomenta che sono curioso.

Parlami di PS3, delle demo giocabili che hai provato e di un confronto delle stesse rispetto alle demo giocabili che hai provato su xbox360.

Pendo dalle tue labbra sapienti e giudicanti :O

Ren
14-10-2005, 16:44
Parlami di PS3, delle demo giocabili che hai provato e di un confronto delle stesse rispetto alle demo giocabili che hai provato su xbox360.

Demo giocabili ?
Che roba hai fumato ? :rotfl:

:D :D :D

Non si parlava di hardware... :boh:

luckye
14-10-2005, 17:28
Per quello che mi è dato capire questo è il miu punto di vista.

Il cell è "superiore" al G5 di gates ma "solo con operazioni vettoriali" nel general
fa decisamente pena.

CPU:
Penso che il cell esprima le sue potenzialità parallelizzando cioè userà una sottounità per l' Ia una per la geometria,una presumo effetti audio,una compressione/decompressione varie ect ect insomma la potenza sarà divisa per i vari compiti eseguiti simultaneamente.Quindi chi parla questo fa 1tf e questa 193 pincopallino sbaglia di principio.
Gioca inoltre a sfavore il fatto che essendo una architettura nuova i programmatori dovranno sbatterci un bel pò la testa prima di farla fruttare.
Per la x-box nulla da dire,in general andrà benone e il tricore permetterà (pur avendo su carta una potenza minore di cell) ottimi risultati e far girare parecchi task insieme.

Propendo per la X-box

GPU:
Si,fa bene secondo me Sony a sbandierare ps e vs separati.Si perde in flessibilità e potenza probabilmente ma si semplifica (e molto) il lavoro di programmazione.
Xbox e shader unificati,embedded ram.Ottimo potenziale e da vedere come i programmatori riusciranno ad esprimerlo.

Vantaggio nell'immediato ps3 e xbox con aa attivato.In futuro potrebbe prevalere la scelta di bill gates.


Quindi nonostante tutto vedo meglio la X-box.Considerazioni esterne il fatto che disporrà di lettore dvd che rende possibile nel futuro vari utilizzi con chip di modding dedicati :p
La ps3 resta tagliata fuori in partenza come supporti.

Coyote74
14-10-2005, 17:28
Demo giocabili ?
Che roba hai fumato ? :rotfl:

:D :D :D

Non si parlava di hardware... :boh:

Credo proprio che fosse ironico... :rolleyes:

Vegita.ssj
14-10-2005, 17:36
Per quello che mi è dato capire questo è il miu punto di vista.

Il cell è "superiore" al G5 di gates ma "solo con operazioni vettoriali" nel general
fa decisamente pena.

CPU:
Penso che il cell esprima le sue potenzialità parallelizzando cioè userà una sottounità per l' Ia una per la geometria,una presumo effetti audio,una compressione/decompressione varie ect ect insomma la potenza sarà divisa per i vari compiti eseguiti simultaneamente.Quindi chi parla questo fa 1tf e questa 193 pincopallino sbaglia di principio.
Gioca inoltre a sfavore il fatto che essendo una architettura nuova i programmatori dovranno sbatterci un bel pò la testa prima di farla fruttare.
Per la x-box nulla da dire,in general andrà benone e il tricore permetterà (pur avendo su carta una potenza minore di cell) ottimi risultati e far girare parecchi task insieme.

Propendo per la X-box

GPU:
Si,fa bene secondo me Sony a sbandierare ps e vs separati.Si perde in flessibilità e potenza probabilmente ma si semplifica (e molto) il lavoro di programmazione.
Xbox e shader unificati,embedded ram.Ottimo potenziale e da vedere come i programmatori riusciranno ad esprimerlo.

Vantaggio nell'immediato ps3 e xbox con aa attivato.In futuro potrebbe prevalere la scelta di bill gates.


Quindi nonostante tutto vedo meglio la X-box.Considerazioni esterne il fatto che disporrà di lettore dvd che rende possibile nel futuro vari utilizzi con chip di modding dedicati :p
La ps3 resta tagliata fuori in partenza come supporti.


:D :D
Ma per piacere, voglio capire che non ci saranno grosse differenze ma la ps3 se non uguale sarà superiore al 360 e non succederà ma il viceversa...
Vuoi vedere che fanno una console con circa mezzo anno tecnologico di vantaggio e risulti addirittura meno potente, ma per piacere :D :D :D

luckye
14-10-2005, 17:50
:D :D
Ma per piacere, voglio capire che non ci saranno grosse differenze ma la ps3 se non uguale sarà superiore al 360 e non succederà ma il viceversa...
Vuoi vedere che fanno una console con circa mezzo anno tecnologico di vantaggio e risulti addirittura meno potente, ma per piacere :D :D :D

Voglio riportare alla luce un vecchio e sempreverde esepio.
Saturn contro Ps one.

Saturn era dotato di doppia cpu,prestazioni e potenza eccezzionale.
La ps-one no.

Risultato:
Il saturn era difficile da programmare e le due cpu nel migliori dei casi rendevano al 65%,la ps one no.
Morale non ti fai niente dell'hardware se poi i programmatori non riescono a sfruttarlo.

Non si parla di quale è più potente ma quale porterà più velocemente (potenzialmente) a risultati migliori.
Secondo me sarà la x-box.
Ricordo che il cell non è un chip custom per la ps3 a differenza del g5 della xbox.E una cpu impiegata anche in altri ambiti ma nessuno come general (non ci sarà mai cell su desktop).
Inoltre la xbox pagerà gli shader unificati per un qualche periodo potendo contare però sul plus dei 10mb di ram integrata.

yossarian
14-10-2005, 18:03
L'RSX non ha gli shader unificati.

Qualcuno sa di preciso se il PPC sul 360 ha esecuzione in order o out of order?


ooo (quasi certo)

Si hanno notizie precise sul numero di pipeline dell'RSX?



a conti fatti sono 24 con 8 vsu, esattamente come G70 (cambia solo la frequenza). Per RSX hanno dichiarato 136 shader ops per ciclo. Le shader instruction di G70 sono esattamente 136 per ciclo (credo che quel 136 sia riferito alle istruzioni, perchè, altrimenti, avrebbe la metà delle unità di shading di G70, per cui le shader ops dichiarate sono 280 per ciclo).

Se effettivamente, RSX dovesse, come sembra, rivelarsi un G70 a 550 Mhz, il confronto con R500 è presto fatto. Basta guardare le prestazioni di R520 e considerare che R500, anche se ha un clock minore, è ancora più efficiente (l'architettura di R520 è di tipo ibrido), ha 10 MB di eDRAM, e 48 unità di shading 4+1 generiche, contro le 16 3+1 più le 8 4+1 di R520

Alberto Falchi
14-10-2005, 18:07
:D :D
Ma per piacere, voglio capire che non ci saranno grosse differenze ma la ps3 se non uguale sarà superiore al 360 e non succederà ma il viceversa...
Vuoi vedere che fanno una console con circa mezzo anno tecnologico di vantaggio e risulti addirittura meno potente, ma per piacere :D :D :D

Gaurda che non è che esce più il là perché stanno sviluppando chissà quali nuovi componenti.L'hardware è ormai finalizzato da tempo, e le date di lancio sono semplici questioni di marketing. Poi, chi sarà la più potente, lo si vedrà all'effettiva uscita. Sicuro è che l'architettura di PS3 è meno semplice per uno sviluppatore, e in molti casi, sembrerebbe essere anche meno efficiente, pur potendo contare su un numero di teraflop più elevato. In ogni caso.. la potenza dell'hardware è insignificante, rispetto a cosa ci gira sopra.

Pape

Vegita.ssj
14-10-2005, 18:48
Premetto che il mio intervento è stato semplicemente per controbattere l'opinione secondo la quale "tecnicamente" c'è chi vede x.box un pelino più efficiente. Secondo me non sarà per nulla così ed effettivamente le cose si vedranno a console sul mercato quindi al di là di ipotesi questo è quanto.
Per quanto concerne la facilità con cui si sviluppa un software per una determinata console, lo scontro (che poi è stato uno schiacciamento) tra ps2 e x.box dovrebbe dirla lunga.....ovvero la ps2 ha dato un bel pò di filo da torcere ai programmatori mentre x.box è stata considerata molto più semplice da questo punto di vista; nonostante ciò le cifre di vendita parlano da sole!!!!!
E questo riguarda il lato tecnico...che alla fine imho conta molto poco.....io sono il primo che afferma che conta quello che gira sopra di una console e non quanto sia potente.....
;)

Ren
14-10-2005, 19:19
ooo (quasi certo)

Sbagli è in-order.

Una volta x tutte :O
Il tricore non è un g5 ma un powerpc molto simile al cell, se vogliamo possiamo definirlo un ibrito tra PPE e SPE.

ps.yoss ti sei perso una miriade di slide...

PeK
14-10-2005, 19:30
Per quanto concerne la facilità con cui si sviluppa un software per una determinata console, lo scontro (che poi è stato uno schiacciamento) tra ps2 e x.box dovrebbe dirla lunga.....


ps2 è uscita senza concorrenza. xbox è uscita quando tutti quelli che volevano una console l'avevano già comprata.

Coyote74
14-10-2005, 19:46
Sbagli è in-order.

Una volta x tutte :O
Il tricore non è un g5 ma un powerpc molto simile al cell, se vogliamo possiamo definirlo un ibrito tra PPE e SPE.

ps.yoss ti sei perso una miriade di slide...

Confermo, da tutte le parti si sente dire che è in-order.

yossarian
14-10-2005, 19:51
Sbagli è in-order.

Una volta x tutte :O
Il tricore non è un g5 ma un powerpc molto simile al cell, se vogliamo possiamo definirlo un ibrito tra PPE e SPE.

ps.yoss ti sei perso una miriade di slide...

il powerpc, di base, è un'architettura ooo (potrei citare il ppc 601, il 603, il 620, il 970, tanto per dirne alcuni); è il Cell che fa eccezione

Speed399
14-10-2005, 19:53
http://arstechnica.com/articles/paedia/cpu/xbox360-2.ars/3

Coyote74
14-10-2005, 19:55
http://arstechnica.com/articles/paedia/cpu/xbox360-2.ars/3

Come volevasi dimostrare... x360=in-order :)

yossarian
14-10-2005, 20:38
scusami se faccio una domanda da capra, se fosse confermato quanto dici, allora l'xbox360 dovrebbe essere più "potente" della play3?

la sezione grafica dell'xbox è migliore di quella della play; se, però, le due cpu dovessero essere entrambe in order, allora su questo campo la spunterebbe la play.

Alberto Falchi
14-10-2005, 20:42
la sezione grafica dell'xbox è migliore di quella della play; se, però, le due cpu dovessero essere entrambe in order, allora su questo campo la spunterebbe la play.

La play la sputa sicuramente come potenza bruta, il fatto è che per chi programma, non è facile (nè necessariamente possibile) tirarne fuori il potenziale. Su xbox sviluppi considerando ppiù thread e lasci tutto al compilatore. Su PS3, devi smistare tu il carico fra le ALU, lavorando a basso livello, e impazzendo nel gestire lo scheduling. Si, teoricamente spacca Cell, praticamente, per lo sviluppo di videogiochi, non necessariamente tutta quella potenza sarà sfruttata a dovere.

Pape

gottardi_davide
14-10-2005, 20:48
ps2 è uscita senza concorrenza. xbox è uscita quando tutti quelli che volevano una console l'avevano già comprata.
beh.. si, direi un bel 70% della gente.

Jaguar64bit
14-10-2005, 20:50
La play la sputa sicuramente come potenza bruta, il fatto è che per chi programma, non è facile (nè necessariamente possibile) tirarne fuori il potenziale. Su xbox sviluppi considerando ppiù thread e lasci tutto al compilatore. Su PS3, devi smistare tu il carico fra le ALU, lavorando a basso livello, e impazzendo nel gestire lo scheduling. Si, teoricamente spacca Cell, praticamente, per lo sviluppo di videogiochi, non necessariamente tutta quella potenza sarà sfruttata a dovere.

Pape


Diciamo che la Ps3 potrebbe venire fuori alla distanza quando i programmatori avranno "capito" come sfruttare e armonizzare al meglio le capacità del Cell e dell'RSX , magari per i primi anni l'hardware dell'Xbox360 essendo meno ostico...risulterà più competitivo vista la cpu più convenzionale , a mio parere alla fine tra le due macchine non ci saranno differenze ragguardevoli , ma cmq la curiosità di vederle all'opera magari sullo stesso titolo è tanta.

yossarian
14-10-2005, 20:51
La play la sputa sicuramente come potenza bruta, il fatto è che per chi programma, non è facile (nè necessariamente possibile) tirarne fuori il potenziale. Su xbox sviluppi considerando ppiù thread e lasci tutto al compilatore. Su PS3, devi smistare tu il carico fra le ALU, lavorando a basso livello, e impazzendo nel gestire lo scheduling. Si, teoricamente spacca Cell, praticamente, per lo sviluppo di videogiochi, non necessariamente tutta quella potenza sarà sfruttata a dovere.

Pape


bisognerà vedere anche quanto carico di lavoro sarà assegnato alla sottosezione grafica. R500 è molto più evoluto di RSX (un G70 a 0,09 e 550 Mhz) ed è anche più efficiente e con un maggior numero di unità di calcolo (seppure a frequenze minori), rispetto a R520.
Per quanto riguarda le cpu, il cell, come giustamente dici, ha bisogno di una particolare cura da parte dei programmatori, essendo totalmente dipendente dal codice inviatogli (le SPE sono indipendenti tra loro, ma dipendono dalla PPE per la ripartizione dei carichi di lavoro all'interno del thread (o dei thread) e la PPE è anche l'unica a essere dotata di unità di branching. Pewrò è anche vero che se pure la cpu dell'x-box fosse "in order", neppure i 3 core indipendenti della stessa sarebbero così "trasparenti" al codice inviato loro e potrebbero incorrere in inconvenienti analogji a quelli paventati per il cell (che, in tal caso, potrebbe vantare su una maggiore potenza di calcolo complessiva).

yossarian
14-10-2005, 20:53
capisco che faccio domande da sfera di cristallo, ma da quello che sai, se le cpu fossero entrambe in order, riuscirebbe il cell a colmare il gap che l'rsx ha nei confronti dell'r500?

qui, per rispondere, ci vuole veramente la sfera di cristallo (anche perchè la play non l'ha vista funzionare ancora nessuno come nessuno che io conosca ha ancora visto un sample di RSX funzionante).

:D

Jaguar64bit
14-10-2005, 20:54
bisognerà vedere anche quanto carico di lavoro sarà assegnato alla sottosezione grafica. R500 è molto più evoluto di RSX (un G70 a 0,09 e 550 Mhz) ed è anche più efficiente e con un maggior numero di unità di calcolo (seppure a frequenze minori), rispetto a R520.
Per quanto riguarda le cpu, il cell, come giustamente dici, ha bisogno di una particolare cura da parte dei programmatori, essendo totalmente dipendente dal codice inviatogli (le SPE sono indipendenti tra loro, ma dipendono dalla PPE per la ripartizione dei carichi di lavoro all'interno del thread (o dei thread) e la PPE è anche l'unica a essere dotata di unità di branching. Pewrò è anche vero che se pure la cpu dell'x-box fosse "in order", neppure i 3 core indipendenti della stessa sarebbero così "trasparenti" al codice inviato loro e potrebbero incorrere in inconvenienti analogji a quelli paventati per il cell (che, in tal caso, potrebbe vantare su una maggiore potenza di calcolo complessiva).

Prendendo il tuo discorso , si capisce che se il Cell risulterà troppo complesso da sfruttare e l'RSX è meno potente dell'R500 , la Ps3 potrebbe trovarsi in svantaggio sull'X360.

yossarian
14-10-2005, 20:58
Prendendo il tuo discorso , si capisce che se il Cell risulterà troppo complesso da sfruttare e l'RSX è meno potente dell'R500 , la Ps3 potrebbe trovarsi in svantaggio sull'X360.

se fosse un'architettura in order anche quella di xbox, pure quest'ultima non sarebbe semplicissima da programmare; non certo a livello delle cpu da pc. In tal caso, la maggior5 potenza del cell potrebbe, se ben sfruttata, rimettere le cosa in equilibrio o, addirittura, far pendere la bilancia dalla parte della play

Ren
14-10-2005, 22:00
Ma una cpu che non utilizza un linguaggio grafico(shader) quanto può essere efficiente nel calcolare la grafica 3d ?
Forse nelle applicazioni fisiche sfonderà alla grande ma sul versante interi ?
Carmack che non è l'ultimo arrivato ha enunciato che un core del 360 quindi in-order come il cell, ha prestazioni simili ad un duron 1000.

Ren
14-10-2005, 22:08
se fosse un'architettura in order anche quella di xbox, pure quest'ultima non sarebbe semplicissima da programmare; non certo a livello delle cpu da pc. In tal caso, la maggior5 potenza del cell potrebbe, se ben sfruttata, rimettere le cosa in equilibrio o, addirittura, far pendere la bilancia dalla parte della play

Microsoft x la sua console propone di calcolare solo la grafica poligonale, questa da inviare al R500 in modo da rilegare ad esso solo il calcolo dei pixel shader.
Sony invece pretende di fare miracoli con un'architettura si potente ma non efficace nella grafica come delle gpu che propongono cache adeguate x il calcolo dei pixel ed un linguaggio dedicato...

ragalino x yoss
http://rapidshare.de/files/6287355/x360.rar.html

yossarian
15-10-2005, 02:42
Ma una cpu che non utilizza un linguaggio grafico(shader) quanto può essere efficiente nel calcolare la grafica 3d ?
Forse nelle applicazioni fisiche sfonderà alla grande ma sul versante interi ?
Carmack che non è l'ultimo arrivato ha enunciato che un core del 360 quindi in-order come il cell, ha prestazioni simili ad un duron 1000.

invece, pensa che quelli di Apple, dopo aver abbandonato i PPC pr passare a Intel, alla domanda "perchè non avete deciso di utilizzare Cell" hanno risposto di considerarlo alla stregua di un co-processore e non una vera cpu.
In realtà, sappiamo che Cell è, a tutti gli effetti, uno stream processor e non un co-processore. Però è anche vero che i PPC montati su Mac sono ooo e Apple si è orientata su una tipologia di cpu con la stessa logica di funzionamento.



Microsoft x la sua console propone di calcolare solo la grafica poligonale, questa da inviare al R500 in modo da rilegare ad esso solo il calcolo dei pixel shader.
Sony invece pretende di fare miracoli con un'architettura si potente ma non efficace nella grafica come delle gpu che propongono cache adeguate x il calcolo dei pixel ed un linguaggio dedicato...

ragalino x yoss
http://rapidshare.de/files/6287355/x360.rar.html

grazie per il file; l'ho appena scaricato e, appena posso, gli darò un'occhiata (non domani, perchè sarò fuori tutto il giorno, quindi mi prendo "un giorno di ferie dal forum").
Ho la sensazione che Sony, all'inizio, si fosse aspettata troppo dal Cell e, in un secondo tempo, abbia dovuto cercare partner per la sottosezione grafica, mettendo, in qualche modo in difficoltà anche nVIDIA che, in qualche modo, ha dovuto cambiare pianificazione anche per il comparto GPU per pc (si è trovata, contemporaneamente, a sviluppare il progetto NV40/G70, a progettare la gpu wgf2.0 (che, anche ammesso che che continuerà ad avere shader fisicamente separati, come ha detto Kirk, per emulare il funzionamento a shader unificati deve, per forza di cose, avere un'architettura alquanto differente dalle attuali e, quindi, rappresenta, di fatto, un nuovo progetto e non un semplice arrangiamento di G70) e, nello stesso tempo, adattare G70 a funzionare su una consolle, in maniera sinergica con un processore molto "particolare". Tutto questo, dovendo anche accelerare il passaggio a nanometrie inferiori per mettere a punto la playstation 3.

Certo è che, in ogni caso, se veramente pure la cpu di MS fosse IO come dici e, per di più, con pipeline a molti stadi, anche questa è una scelta che mi lascia altrettanto perplesso anche perchè si tratta di tecnologie note da anni, utilizzate in passato anche per applicazioni SOHO e poi abbandonate in favore di altre soluzioni più flessibili nell'impiego.
Certo, un'architettura IO ha il vantaggio della semplicità realizzativa, permette l'integrazione di più unità di calcolo nello stesso die rispetto ad una ooo (non a caso, molti supercomputer, utilizzati, però, in campi specifici, propongono architetture superparallele, di tipo vettoriale, con logica IO), però richiede un lavoro di ottimizzazione eccezionale e non ha la flessibilità d'impiego di una OOO. Almeno, da questo punto di vista, il Cell ha il vantaggio di avere unità di calcolo con pipeline non eccessivamente lunghe e un più elevato parallelismo.

luckye
15-10-2005, 10:27
A me il cell convince poco messo in una consolle da gioco :O
Sicuramente poi farà vedere grandi cose ma bisognerà vedere in quanto tempo sarà sfruttato a dovere e sopratutto come sarà confronto al g5 della x.

P.s alla fine il cell è un bordello di programmazione,cioè quello che un normale cpu fa in hw (prefetch,indirizzamento cache....) quì deve essere fatto in software boh !

Ren
15-10-2005, 12:01
come sarà confronto al g5 della x.

:mad:
siete de legno...

Ren
15-10-2005, 12:22
Xenos, tricore

Architettura in-order(IO)
3 core simmetrici
Cache condivisa di 1mb FIFO con allocazione speciale x la gpu.
VMX con 128x128 registri (come le spe)
21 stade pipeline con parallelismo di tipo TLP(come ht del pentium4)
6 thread totali misti (interi-vettoriali)

luckye
15-10-2005, 12:40
:mad:
siete de legno...

Saremo di legno ma programmare un "coso" con un core di powerpc menomato collegato a sottounità praticamente indipendenti di calcolo vettoriale con struttura ridotta al minimo per semplificare il design e il nuemro di chip...
Insomma è un transmeta crusoe su base ppc con sottounità vettoriali.
Penso sia bello complesso da far andare.... :rolleyes:

Ren
15-10-2005, 13:16
Saremo di legno ma programmare un "coso" con un core di powerpc menomato collegato a sottounità praticamente indipendenti di calcolo vettoriale con struttura ridotta al minimo per semplificare il design e il nuemro di chip... Insomma è un transmeta crusoe su base ppc con sottounità vettoriali. Penso sia bello complesso da far andare....

guarda che mi riferivo all'appellativo errato di g5... :read:
Sul versante programmazione sono d’accordo con te. :friend:
:D

luckye
15-10-2005, 14:00
guarda che mi riferivo all'appellativo errato di g5... :read:
Sul versante programmazione sono d’accordo con te. :friend:
:D

Avevo capito male perchè in effetti mi stavo domandando se avessi un'idea di cosa fosse cell :-)
Vabbè g5 per comodità e ovvio che è molto semplificato ed è un chip custom per questo anche perchè un g5 scalda come un prescott figuriamo un tricore quanto 160w ?? :-)

yossarian
16-10-2005, 01:16
ragalino x yoss
http://rapidshare.de/files/6287355/x360.rar.html

ho dato un'occhiata veloce. Hai ragione, anche xenon sembra avere logica IO. Scelta condivisibile per quanto riguarda la maggior semplicità circuitale, la possibilità di mettere in parallelo più elementi, i minori costi; molto meno relativamente ad uno dei campi principali d'applicazione di queste consolle (i giochi)

Ho visto anche una slide del ppe del cell (poi, con calma faccio il confronto con, un core dello xenon); nella slide dell'R500, invece, credo ci sia un errore: i 3 gruppi di 16 shader unit non sono disposti in parallelo ma in serie (comunque farò ulteriori indagini, anche perchè le logiche dietro le diverse disposizioni sono alquanto differenti).

p.s. a un certo punto è scappata fuori anche una slide di Matrox :D

Innominato
16-10-2005, 08:50
Saremo di legno ma programmare un "coso" con un core di powerpc menomato collegato a sottounità praticamente indipendenti di calcolo vettoriale con struttura ridotta al minimo per semplificare il design e il nuemro di chip...
Insomma è un transmeta crusoe su base ppc con sottounità vettoriali.
Penso sia bello complesso da far andare.... :rolleyes:
Ma da ignorante... per programmare cosa usano? cioè magari usano tipo un ide che aiuta molto, non programmeranno mica in binario, siccome io ho programmato pochissimo in c e non giochi, non capisco, e poi qualcuno ha detto che usano il pc per fare i giochi, ma come fanno ad essere portabili? :mc: basta anche una spiegazione sommaria...

Ren
18-10-2005, 09:02
Slide ed altro sul cell...(yoss dove sei?)

http://rapidshare.de/files/6427820/Cell.rar.html

Kars
18-10-2005, 10:42
(imho) se da una parte e' piu' semplice programmare giochi per x360,diciamo allo stesso livello pc, dall' altra aumentano le possibilita' di una programmazione a livello di porting. avete presente le differenze tra call of duty,sviluppato in paralello per tutte le console e nfs mw sviluppato da hoc per x360? Ecco... la paura mia e' che a parte i primi giochi ad essere sviluppati in esclusiva per x360 in futuro potrebbero essere sviluppati in maniera molto piu' blanda, sia per problemi di tempo che di denaro.
Per la ps3 invece,che una architettura completamente differente, potrebbero sfornare giochi molto piu' ottimizzati, anche perche' se e' vero che e' difficile programmarci sopra e' vero anche che la sony aiuta i programmatori e non li lascia in balia di un codice sconosciuto.

Manp
18-10-2005, 12:08
e' vero anche che la sony aiuta i programmatori e non li lascia in balia di un codice sconosciuto.

ah sì eh... vallo a spiegare a quei poveri programmatori che hanno avuto a che fare con la PS2 nei primi 2/3 anni di vita :stordita:

se parliamo di coccolare i programmatori allora credo che MS con Xbox e X360 non sia seconda a nessuno

:)

sslazio
18-10-2005, 12:14
(imho) se da una parte e' piu' semplice programmare giochi per x360,diciamo allo stesso livello pc, dall' altra aumentano le possibilita' di una programmazione a livello di porting. avete presente le differenze tra call of duty,sviluppato in paralello per tutte le console e nfs mw sviluppato da hoc per x360? Ecco... la paura mia e' che a parte i primi giochi ad essere sviluppati in esclusiva per x360 in futuro potrebbero essere sviluppati in maniera molto piu' blanda, sia per problemi di tempo che di denaro.
Per la ps3 invece,che una architettura completamente differente, potrebbero sfornare giochi molto piu' ottimizzati, anche perche' se e' vero che e' difficile programmarci sopra e' vero anche che la sony aiuta i programmatori e non li lascia in balia di un codice sconosciuto.

sull'ultima affermazione non posso che essere completamente in disaccordo.
Sony non ha aiutato un bel niente i programmatori, addirittura i primi giochi decenti sono usciti per merito del Rendeware che non sono librerie grafiche sony bensì di terze parti e comunque basate su quelle che erano caratteristiche della vecchia PSX.
Per lo scatolone c'erano le directx 8.1 o le opengl ad aiutare i programmatori.
Comunque dalle notizie che si trovano in rete pare che Sony questa volta abbia tagliato la testa al toro visto che essendo del tutto deficiente nel fare librerie grafiche proprietarie, ha scelto un chip grafico nvidia e guarda caso ha stretto accordi per utilizzare le librerie OPENGL dove Nvidia sguazza come un porcello in una latrina.
L'unica casa che in passato ha realizzato librerie grafiche proprie per la propria macchina, devo dire con risultati sorprendenti visto che è stato storicamente l'hW più sfruttato di qualunque altro, è stata SEGA, con il glorioso DC e lo fece proprio perchè cercò di correggere uno dei più grandi insuccessi commerciali hw ovvero il SATURN, carente per la difficoltà intrinseca di programmazione dovuta all'assenza di librerie grafiche proprietarie.
Non so Nintendo come si è comportata in questo ambito, ma mi sembra di ricordare che anche lei fu molto carente fino al N64 mentre credo che con il CUBO abbia inserito funzioni grafiche preimpostate che con un semplice programma ogni programmatore è in grado di richiamare senza dover programmare nulla.
Il tutto a scapito di qualche forse di creativa inventiva di programmazione, ma devo dire che in Re4 ancora sbavo dopo aver visto una simile magnificenza.

Kars
18-10-2005, 12:15
ah sì eh... vallo a spiegare a quei poveri programmatori che hanno avuto a che fare con la PS2 nei primi 2/3 anni di vita :stordita:

se parliamo di coccolare i programmatori allora credo che MS con Xbox e X360 non sia seconda a nessuno

:)

si ma mi sembra che in rapporto escano piu' giochi per ps2 che xbox

Kars
18-10-2005, 12:19
vi riporto un interessante articolo tratto da Punto Informatico (http://punto-informatico.it/p.asp?i=55639) :

Roma - Tempi complicati per Sony: la preoccupazione che il lancio della Sony Playstation 3 possa non realizzare le aspettative non sembra più così remota. Secondo il magazine giapponese ZakZak, che ha intervistato Ken Kutaragi presidente di Sony Computer Entertainment, qualche ombra inizia a materializzarsi dietro il progetto PS3. Su tutte, la notizia secondo cui è di 17,6 milioni di dollari (Fonte ZakZak) il costo per avviare lo sviluppo di nuove applicazioni compatibili. Non tutte le software house sarebbero pronte a sborsare tale cifra solo per iniziare qualsiasi progetto. Senza, non si può neanche partire.
La migrazione dei team di sviluppo verso Microsoft Xbox 360 sarebbe già iniziata. Tanto più che per lavorare con Microsoft i costi non solo sarebbero inferiori ma il sistema della nuova console condividerebbe alcune caratteristiche con la piattaforma Windows. In pratica le software house sarebbero in grado di sviluppare prodotti multi-piattaforma - console e PC - con un decisivo risparmio a fronte di una audience potenzialmente molto ampia.

Per ora la partita fra i due giganti dell'intrattenimento videoludico ricorda il match virtuale di tennis fra i due personaggi del film Blowup, di Michelangelo Antonioni. Mimano i gesti sul campo ma la pallina è solo immaginaria. A colpi di sheet tecniche ci si può accapigliare, ma solo quando i videogiochi prederanno forma sui televisori delle case si potrà rilasciare un verdetto.

Secondo indiscrezioni, alcuni sviluppatori avrebbero riferito che la situazione sarebbe peggiore di quanto molti avevano denunciato con il varo di Nintendo Gamecube. E non si tratta certo solo di costi ma anche del notevole livello di difficoltà che avrebbe lo sviluppo su questa nuova - seppur avanzata - piattaforma. Sega per questi motivi ha già riferito che alcuni suoi nuovi titoli non saranno disponibili per PS3.

Alcuni addetti ai lavori sostengono che anche il prezzo finale della PS3 potrebbe essere un limite: si parla di un prezzo più elevato della concorrente numero uno, Xbox 360. E se c'è chi si spinge ad equiparare quest'ultima ad una versione low-cost di Windows e la PS3 ad una sorta di Mac per il videogame, quello che emerge è la possibilità che PS3 "cozzi" con la geografia economica del settore. In Giappone la strada è storicamente in discesa per Sony, ma altrove Microsoft potrebbe avere più spazi che in passato. Basti pensare come Final Fantasy, simbolo della qualità videoludica giapponese, sarà reso disponibile anche per Xbox 360: sicuramente uno dei migliori colpi messi a segno dalla casa di Redmond. Se anche altri sviluppatori decideranno di sposare la causa Microsoft, Sony potrebbe vedersela molto male.

Kars
18-10-2005, 12:22
sull'ultima affermazione non posso che essere completamente in disaccordo.
Sony non ha aiutato un bel niente i programmatori, addirittura i primi giochi decenti sono usciti per merito del Rendeware che non sono librerie grafiche sony bensì di terze parti e comunque basate su quelle che erano caratteristiche della vecchia PSX.
Per lo scatolone c'erano le directx 8.1 o le opengl ad aiutare i programmatori.
Comunque dalle notizie che si trovano in rete pare che Sony questa volta abbia tagliato la testa al toro visto che essendo del tutto deficiente nel fare librerie grafiche proprietarie, ha scelto un chip grafico nvidia e guarda caso ha stretto accordi per utilizzare le librerie OPENGL dove Nvidia sguazza come un porcello in una latrina.
L'unica casa che in passato ha realizzato librerie grafiche proprie per la propria macchina, devo dire con risultati sorprendenti visto che è stato storicamente l'hW più sfruttato di qualunque altro, è stata SEGA, con il glorioso DC e lo fece proprio perchè cercò di correggere uno dei più grandi insuccessi commerciali hw ovvero il SATURN, carente per la difficoltà intrinseca di programmazione dovuta all'assenza di librerie grafiche proprietarie.
Non so Nintendo come si è comportata in questo ambito, ma mi sembra di ricordare che anche lei fu molto carente fino al N64 mentre credo che con il CUBO abbia inserito funzioni grafiche preimpostate che con un semplice programma ogni programmatore è in grado di richiamare senza dover programmare nulla.
Il tutto a scapito di qualche forse di creativa inventiva di programmazione, ma devo dire che in Re4 ancora sbavo dopo aver visto una simile magnificenza.

Sono d'accordo ma va a scapito della sony non aiutare i programmatori, ora piu' che mai aggiungerei

Manp
18-10-2005, 12:23
si ma mi sembra che in rapporto escano piu' giochi per ps2 che xbox

escono più gioch PS2 perchè la base installata di PS2 è maggiore (4/5 volte, mica poco)...

per la prossima generazione si riparte da zero, anzi si riparte con un vantaggio per Xbox che uscendo prima avrà già una buona base installata al momento dell'uscita di PS3

a questo aggiungici i probabili maggiori costi di sviluppo dei giochi PS3 vista la complessità della macchina e il tutto potrebbe portare a ridisegnare certi rapporti preferenziali di certe softco nei confronti della Playstation

poi è ovvio che non sarà di certo una cosa drastica. PS3 esce dopo, questo è vero, ma non ci metterà di certo molto a vendere come se non più della vecchia PS2 (anche senza giochi, come era successo proprio per PS2 per cui c'era gente disposta a spendere 1.200.000£ per giocare a Tekken Tag e Fantavision)... e una volta che la base installata di PS3 diventerà cospicua i maggiori costi di sviluppo passeranno in secondo se non terzo piano

:)

sslazio
18-10-2005, 12:26
escono più gioch PS2 perchè la base installata di PS2 è maggiore (4/5 volte, mica poco)...

per la prossima generazione si riparte da zero, anzi si riparte con un vantaggio per Xbox che uscendo prima avrà già una buona base installata al momento dell'uscita di PS3

a questo aggiungici i probabili maggiori costi di sviluppo dei giochi PS3 vista la complessità della macchina e il tutto potrebbe portare a ridisegnare certi rapporti preferenziali di certe softco nei confronti della Playstation

poi è ovvio che non sarà di certo una cosa drastica. PS3 esce dopo, questo è vero, ma non ci metterà di certo molto a vendere come se non più della vecchia PS2... e una volta che la base installata di PS3 diventerà cospicua i maggiori costi di sviluppo passeranno in secondo se non terzo piano

:)

veramente un programmatore tempo parlava di una difficoltà superiore di programmazione dell'XBOX2, anche se in effetti sembrerebbe il contrario visto la novità hw della PS3.
Dove hai letto che è più difficile programmare lo scatolone?

OvErClOck82
18-10-2005, 12:27
escono più gioch PS2 perchè la base installata di PS2 è maggiore (4/5 volte, mica poco)...

per la prossima generazione si riparte da zero, anzi si riparte con un vantaggio per Xbox che uscendo prima avrà già una buona base installata al momento dell'uscita di PS3

a questo aggiungici i probabili maggiori costi di sviluppo dei giochi PS3 vista la complessità della macchina e il tutto potrebbe portare a ridisegnare certi rapporti preferenziali di certe softco nei confronti della Playstation

poi è ovvio che non sarà di certo una cosa drastica. PS3 esce dopo, questo è vero, ma non ci metterà di certo molto a vendere come se non più della vecchia PS2... e una volta che la base installata di PS3 diventerà cospicua i maggiori costi di sviluppo passeranno in secondo se non terzo piano

:)
Parole sante :D

Manp
18-10-2005, 12:28
veramente un programmatore tempo parlava di una difficoltà superiore di programmazione dell'XBOX2, anche se in effetti sembrerebbe il contrario visto la novità hw della PS3.
Dove hai letto che è più difficile programmare lo scatolone?

scusa ma c'è scritto ovunque che la PS3 sembra più difficile da sfruttare...
praticamente in ogni post di yoss...

lo dice anche l'articolo postato che i costi per PS3 sono maggiori (rispetto ad X360, è ovvio che siano maggiori rispetto alla generazione precedente)... se sono maggiori è perchè servono più risorse umane e di tempo e non mi spiego come sia possibile se non per il fatto che i programmatori trovano difficoltà nel sfruttare l'HW :confused:

:)

sslazio
18-10-2005, 13:51
scusa ma c'è scritto ovunque che la PS3 sembra più difficile da sfruttare...
praticamente in ogni post di yoss...

lo dice anche l'articolo postato che i costi per PS3 sono maggiori (rispetto ad X360, è ovvio che siano maggiori rispetto alla generazione precedente)... se sono maggiori è perchè servono più risorse umane e di tempo e non mi spiego come sia possibile se non per il fatto che i programmatori trovano difficoltà nel sfruttare l'HW :confused:

:)

vedremo, comunque vada il salto qualitativo spero sia almeno doppio rispetto a quello tra la precedente generazione e questa perchè tutta questa differenza non si è avvertita.

Coyote74
18-10-2005, 13:55
Pregusto già il momento in cui, tra 1 anno, tirerò questo 3d fuori dai meandri del forum e ci faremo insieme tante belle risate sulle certezze che ora stiamo esponendo. :rotfl: :rotfl: :rotfl:

Ren
18-10-2005, 13:55
Le cpu delle future console sono entrambe difficili da programmare, questo perchè sono di tipo in-order, cioè prive di unità dedicate al renaming ed al reordering, presenti nelle ooo(out of order).

L'assenza di queste unità comporta diversi problemi :
1.In caso di cache miss si dovrà cercare il dato dalla memoria centrale, perdendo così qualche centinaio di cicli di clock.(le ooo possono mettere in coda il thread e eseguirne un'altro)
2.La tipologia di codice sequenziale in ordine prevede un compilatore con i controcazzi che cmq non potrà mai essere efficiente come dovrebbe.
3.Il cell è ancora peggio xchè deve alimentare diversi co-processori vettoriali e questo significa che se sbaglia l'unità centrale sbagliano anche le sub-unità.

In finale il codice deve essere più pulito delle lenzuola di un prete, cosa che comporta tempi difficili e lunghi x i coders...(specialmente x quelli che lavorano su ps3)

Manp
18-10-2005, 14:25
Pregusto già il momento in cui, tra 1 anno, tirerò questo 3d fuori dai meandri del forum e ci faremo insieme tante belle risate sulle certezze che ora stiamo esponendo. :rotfl: :rotfl: :rotfl:

più che certezze io vedo dei puntini di sospensione ...

:)

Free Gordon
19-10-2005, 16:03
Se effettivamente, RSX dovesse, come sembra, rivelarsi un G70 a 550 Mhz, il confronto con R500 è presto fatto. Basta guardare le prestazioni di R520 e considerare che R500, anche se ha un clock minore, è ancora più efficiente (l'architettura di R520 è di tipo ibrido), ha 10 MB di eDRAM, e 48 unità di shading 4+1 generiche, contro le 16 3+1 più le 8 4+1 di R520


Non ti pare un pò troppo potente, R500 se fosse realmente così? :D

E poi volevo chiederti anche un'altra cosa:

E' vero che i thread degli SPE sono relazionati con il PPE come quelli del Core 1 e 2 sono relazionati al Core 0 della CPU X360?

Ciòè, se il cell ha 8 thread fittizi, Xenon ne ha 6 altrettanto fittizi?

fek
19-10-2005, 17:08
bisognerà vedere anche quanto carico di lavoro sarà assegnato alla sottosezione grafica. R500 è molto più evoluto di RSX (un G70 a 0,09 e 550 Mhz) ed è anche più efficiente e con un maggior numero di unità di calcolo (seppure a frequenze minori), rispetto a R520.

Aggiungo che e' sostanzialmente ufficiale che l'RSX non supporta MSAA e HDR (rendering in floating point) contemporaneamente.

qui, per rispondere, ci vuole veramente la sfera di cristallo (anche perchè la play non l'ha vista funzionare ancora nessuno come nessuno che io conosca ha ancora visto un sample di RSX funzionante).

:D

:Perfido:

Jaguar64bit
19-10-2005, 17:52
Aggiungo che e' sostanzialmente ufficiale che l'RSX non supporta MSAA e HDR (rendering in floating point) contemporaneamente.





Il non supporto dell'HDR non me lo sarei aspettato.

fek
19-10-2005, 18:08
Il non supporto dell'HDR non me lo sarei aspettato.

Sara' supportato, ma senza MSAA.

yossarian
19-10-2005, 18:18
Non ti pare un pò troppo potente, R500 se fosse realmente così? :D

E poi volevo chiederti anche un'altra cosa:

E' vero che i thread degli SPE sono relazionati con il PPE come quelli del Core 1 e 2 sono relazionati al Core 0 della CPU X360?

Ciòè, se il cell ha 8 thread fittizi, Xenon ne ha 6 altrettanto fittizi?


appena ho un po' di tempo mi guardo in dettaglio le specifiche dell'x-chip; al momento non saprei cosa risponderti.
Se fossero relazionati tra loro, ci sarebbe dipendenza nell'elaborazione, in qiualche modo analoga a quella vista per il cell. Però per valutarne le implicazioni ho bisogno di un po' di tempo.

yossarian
19-10-2005, 18:21
Aggiungo che e' sostanzialmente ufficiale che l'RSX non supporta MSAA e HDR (rendering in floating point) contemporaneamente.


[QUOTE]

questo lo sapevamo (è sempre più un G70 a 0,09, bus a 128 bit e senza troppe varianti rispetto alla versione base)

[QUOTE=fek].



:Perfido:

ma non mi dire........... :D

p.s. finite le ferie?

Coyote74
19-10-2005, 18:40
:Perfido:

Cosè quella faccina perfida?
Per caso tu hai visto qualcosa? :D

Free Gordon
19-10-2005, 20:00
appena ho un po' di tempo mi guardo in dettaglio le specifiche dell'x-chip; al momento non saprei cosa risponderti.
Se fossero relazionati tra loro, ci sarebbe dipendenza nell'elaborazione, in qiualche modo analoga a quella vista per il cell. Però per valutarne le implicazioni ho bisogno di un po' di tempo.


Non volevo pressarti :D sapevo che la cpu aveva un crossbar a 3 queue. Se così fosse sarebbero indipendenti no?

Do85
19-10-2005, 20:03
allora 24 o 48 pipeline per la 360???
se può essere interessante: http://forum.gamesradar.it/showthread.php?t=262328 (nn dico utile)

PeK
19-10-2005, 21:54
allora 24 o 48 pipeline per la 360???
se può essere interessante: http://forum.gamesradar.it/showthread.php?t=262328 (nn dico utile)


bisogna registrarsi :\

non potresti copia/incollare le cose più interessanti? grazie :p

yossarian
22-10-2005, 13:28
Non volevo pressarti :D sapevo che la cpu aveva un crossbar a 3 queue. Se così fosse sarebbero indipendenti no?

dallo schema che ho potuto vedere, sembrerebbe che le 3 cpu siano indipendenti tra loro e ci sia solo la possibilità di uno scambio di dati attraverso il crossbar e la cache L2, in comune. Invece, pare sia possibile subordinare il lavoro delle cpu a quello della GPU che, in determinate situazioni, potrebbe fungere da master

yossarian
22-10-2005, 13:31
allora 24 o 48 pipeline per la 360???
se può essere interessante: http://forum.gamesradar.it/showthread.php?t=262328 (nn dico utile)


48, ma non sono pipeline ma unità di calcolo del tipo full vect fp128 con in serie unità scalari fp32. Il che equivale a dire 96 unità complessive, accoppiate a due a due (una vettoriale con una scalare) e raggruppate in 3 blocchi da 16+16 ciascuno.
Inoltre ci sono 16 tmu per le operazioni di filtering e 16 in grado di eseguire solo point sampling e 16 vertex fetch

ArtX
22-10-2005, 14:00
scusa yossarian
potresti spiegarmi cosa sono esattamente le pipeline ,per me sono le unita di calcolo della gpu ma tu qui hai scritto

>>48, ma non sono pipeline ma unità di calcolo del tipo full vect fp128 con in serie unità scalari fp32. Il che equivale a dire 96 unità complessive, accoppiate a due a due (una vettoriale con una scalare) e raggruppate in 3 blocchi da 16+16 ciascuno.
Inoltre ci sono 16 tmu per le operazioni di filtering e 16 in grado di eseguire solo point sampling e 16 vertex fetch

io sono solo un neoappasionato di queste cose.

un'altra cosa, quante pipeline infine hanno rsx e r500 visto che qua non ci capisco più niente :D
e la gpu del revolution sarà uguale a quella del xbox2 solo con più mhz o caso? (anche se non centra niente con queste console)

yossarian
22-10-2005, 15:09
scusa yossarian
potresti spiegarmi cosa sono esattamente le pipeline ,per me sono le unita di calcolo della gpu ma tu qui hai scritto

>>48, ma non sono pipeline ma unità di calcolo del tipo full vect fp128 con in serie unità scalari fp32. Il che equivale a dire 96 unità complessive, accoppiate a due a due (una vettoriale con una scalare) e raggruppate in 3 blocchi da 16+16 ciascuno.
Inoltre ci sono 16 tmu per le operazioni di filtering e 16 in grado di eseguire solo point sampling e 16 vertex fetch

io sono solo un neoappasionato di queste cose.

un'altra cosa, quante pipeline infine hanno rsx e r500 visto che qua non ci capisco più niente :D
e la gpu del revolution sarà uguale a quella del xbox2 solo con più mhz o caso? (anche se non centra niente con queste console)

le pipeline sono semplicemente una sorta di catena di montaggio. Un dati in ingresso richiede un certo numero e una determinata tipologia di elaborazioni. Per fare questo si ricorre ad architetture che utilizzino unità di calcolo in serie o, in alcuni passaggi, strutturate come serie-parallelo-serie, in modo tale che ogni unità, dopo aver svolto il suo lavoro, passi il dato all'unità successiva. Quindi, una pipeline è, in realtà, una catena di unità di calcolo e non una singola unità. Nelle cpu e nelle gpu più recenti, poichè le elaborazioni sono diventate sempre più complesse, si è pensato di frazionare gli stadi che richiedevano tempi di elaborazione più lunghi, in tante sottounità, ognuna delle quali svolge parte del compito e affida l'elaborazione a quella successiva. In questo modo è possibile eseguire contemporaneamente più elaborazioni e di aumentare la frequenza di funzionamento (la velocità di elaborazione dell'intera pipeline è imposta dal suo stadio più lento; l'idea è quella di frazionare quest'ultimo in tanti stadi, ognuno dei quali svolga solo parte del compito e abbia tempi complessivi d'elaborazione di molto inferiori). Ad esempio, all'interno della pipeline di G70 possono circolare fino a una quindicina di pixel di cui fino a 8 elaborati contemporaneamente, con i dati di altri 56 immagazzinati all'interno dei registri di sola lettura, in attesa di entrare nelle pipeline.
Un chip come R5x0 o R500 si basa su un principio differente; ad esempio, su R520 è possibile caricare dati per oltre 16 mila dati da elaborare; però, complessivamente, ogni gruppo di unità di calcolo elabora solo 4 pixel per volta, per un totale di 16 (R520 ha 4 gruppi di 4 unità ciascuno), contro i 192 di G70 (8 per 24 pipeline). Però, a differenza di G70, le singole elaborazioni richiedono molto meno tempo perchè ogni unità compie poche operazioni piuttosto semplici e con tempi di esecuzione estremamente ridotti.
Su un principio analogo si basano lo SPE del Cell, che sono unità di calcolo vettoriali, con pochi stadi e in grado di compiere poche operazioni per ciclo ma molto velocemente. Quindi la differenza tra un'architettura pipelined e una non pipelined sta nel numero di operazioni per ciclo (molte in quella pipeline d poche nell'altra) e nella velocità con cui i dati escono dalle strutture preposte all'elaborazione (bassa velocità per le architetture pipelined, perchè ogni songolo dato deve attraversare molti stadi di calcolo e, spesso, si trova a dover attendere che l'elaborazione precedente sia terminata, alta velocità nelle altre).
R500 si basa sullo stesso principio di R520, con in aggiunta il fatto che le unità di calcolo sono in grado di eseguire sia calcoli geometrici che calcoli sui pixel (mentre in R520 e in G70 le due tipologie sono separate).

RSX ha un'architettura, almeno stando alle specifiche fornite, tipo quella di G70, ovvero con le classiche pipeline e, per l'esattezza, dovrebbe avere 8 vertex pipeline, 24 pixel pipeline e 16 rop's (che sono la parte terminale della pipeline di un chip grafico, quella che si occupa di "scrivere" i pixel, la cui elaborazione è stata completata, nel frame buffer. R500, invece, non un'architettura a pipeline, ma ha delle unità di calcolo disposte a matrice. Ognuna è in grado di compiere operazioni relative sia alle vertex che alle pixel pipeline. Le unità di calcolo di R500 sono in tutto 48, ognuna formata da un'unità vettoriale a 4 componenti e da una scalare in parallelo. Il blocco delle tmu, che in una architettura tradizionale è all'interno delle pixel pipeline, è posto al di fuori, anche questo con una struttura a matrice, il cui lavoro può essere coordinato in base alle esigenze della specifica elaborazione.

La gpu del Revolution dovrebbe essere della famiglia di R5x0, quindi dovrebbe derivare da R520 o, per essere più precisi, da R580 (non dovrebbe avere shader unificati come R500).

Fiero
23-10-2005, 12:44
A questo punto se le specifiche di RSX dovessero essere confermate sembra proprio debba essere parecchio inferiore a R500.
Praticamente hanno preso una 7800 e l'hanno pompata in frequenza...
Mentre in ATi hanno certamente fatto un progetto ben più complesso. Che (sempre sulla carta) sembra parecchio più efficiente.
E' plausibile pensare che Nvidia non abbia avuto sufficiente tempo per sviluppare qualcosa di specifico?
A questo punto è possibile pensare ad un 'adeguamento' dell'ultim'ora sull'architettura di RSX? O ormai è troppo tardi? O forse RSX ha ancora qualche asso nella manica da buttare sul tavolo?
Oppure ancora (io penso sia così) ormai la GPU è tratta e c'è poco da fare a questo punto?
Boh, basta attendere qualche news 'definitiva' su RSX...

ps. Ma 'sto topic sul Cell lo apriamo o no che tra un po' comincio gli esami e non posso passare i pomeriggi sul forum! :D :help:

Ren
23-10-2005, 19:31
yoss cosa ne pensi della xcpu(xenos) ?

yossarian
23-10-2005, 23:40
yoss cosa ne pensi della xcpu(xenos) ?


più informazioni prendo e più mi sembra non troppo dissimile dal cell (a parte il fatto che xenos è il chip grafico e xenon la cpu :) ).

Ognuno dei tre core ha, per buona parte, la stessa architettura del PPE con, in aggiunta, alcune pipeline dedicate a calcoli vettoriali simili alle SPE (con cui hanno in comune anche il numero di registri interni: 128). Hanno identiche unità di branching e implementano set di istruzioni VMX (con cui la PPE gestisce anche le SPE).
Quello che cambia è l'approccio: da un lato si ha una processore che gestisce, oltre alle sue pipeline interne, altre 8 unità di calcolo collegate ad esso tramite bus e tra loro in maniera tale che ognuna ha accesso diretto ai dati contenuti nei registri della precedente; dall'altro 3 processori che gestiscono, ognuno, qualcosa di simile a 2 SPE del cell, poste all'interno del core della cpu stessa. Il primo è l'esaltazione del calcolo parallelo, il secondo è un approccio intermedio tra architetture con parallelismo spinto e architetture di tipo pipelined (una PPE ha "solo"23 stadi contro i 40 di ciascun core dello xenon). Il Cell ha una maggior potenza complessiva e dovrebbe essere avvantaggiato nel funzionamento come steam processor (anche se il divario di potenza tra i due chip va notevolmente ridimensionato rispetto ai dati teorici forniti qualche tempo fa), lo Xenon è più flessibile e un po' meno complesso da programmare e si dovrebbe comportare meglio con i calcoli general pourpose, ma anche in questo caso, il vantaggio non è abissale.
Potrebbe essere interessante la possibilità di utilizzare R500 come master e lo Xenon come slave che potrebbe dare dei vantaggi non soltanto in termini di calcolo dei vertici da parte della cpu, come si è ipotizzato, ma anche in altri tipi di calcolo (in tal caso, la gestione di una scena sarebbe affidata ad un chip OoO con un chip IO a fare da coadiutore).

Ren
24-10-2005, 14:16
Nella porzione di cache dedicata alla gpu si ha una compressione dati d3d di 2x, questo mi fa pensare che la cpu possa gestire istruzioni direct3d nativamente...

tu che ne pensi ?

OvErClOck82
24-10-2005, 14:33
A questo punto se le specifiche di RSX dovessero essere confermate sembra proprio debba essere parecchio inferiore a R500.
Praticamente hanno preso una 7800 e l'hanno pompata in frequenza...
Mentre in ATi hanno certamente fatto un progetto ben più complesso. Che (sempre sulla carta) sembra parecchio più efficiente.
E' plausibile pensare che Nvidia non abbia avuto sufficiente tempo per sviluppare qualcosa di specifico?
A questo punto è possibile pensare ad un 'adeguamento' dell'ultim'ora sull'architettura di RSX? O ormai è troppo tardi? O forse RSX ha ancora qualche asso nella manica da buttare sul tavolo?
Oppure ancora (io penso sia così) ormai la GPU è tratta e c'è poco da fare a questo punto?
Boh, basta attendere qualche news 'definitiva' su RSX...

ps. Ma 'sto topic sul Cell lo apriamo o no che tra un po' comincio gli esami e non posso passare i pomeriggi sul forum! :D :help:
per l' RSX io avevo sentito da varie interviste che si mangiava senza problemi due 6800ultra in sli, cosa che la 7800 nn fa, quindi, ammesso che sia vero; sono fiducioso

yossarian
24-10-2005, 14:40
Nella porzione di cache dedicata alla gpu si ha una compressione dati d3d di 2x, questo mi fa pensare che la cpu possa gestire istruzioni direct3d nativamente...

tu che ne pensi ?

mi meraviglierei se non fosse così :D

Coyote74
24-10-2005, 14:42
per l' RSX io avevo sentito da varie interviste che si mangiava senza problemi due 6800ultra in sli, cosa che la 7800 nn fa, quindi, ammesso che sia vero; sono fiducioso

Già si sapeva che l'RSX sarà più performante delle 7800, in quanto sfrutta la stessa tecnologia, ma ha una frequenza di lavoro molto superiore. Resta il fatto che da quello che ci è dato sapere l'R500 sembra migliore.

Ren
24-10-2005, 14:46
mi meraviglierei se non fosse così

Ma è una caratteristica speciale dello xenon o no ?
Il cell può gestire istruzioni opengl o direct3d ?

Per la gestione di istruzioni direttamente in D3d si è dovuto ricorrere ad un design speciale delle unità vettoriali ?

yossarian
24-10-2005, 14:52
per l' RSX io avevo sentito da varie interviste che si mangiava senza problemi due 6800ultra in sli, cosa che la 7800 nn fa, quindi, ammesso che sia vero; sono fiducioso


è probabile che alcune affermazioni siano state ampiamente travisate.
Le istruzioni per clock, relative ai ps, in G70 sono 120 e in NV40 64; quelle relative ai vs sono 16 per G70, 12 per NV40; il numero massimo di operazioni sono 240 (648 flops) per i ps e 40 (80 flops) per i vs di G70, contro le 128 (304 flops) per i ps e 30 (60 flops) per i vs di NV40. Se porti la frequenza di G70 a 550Mhz hai una gpu che, in teoria, è più veloce di 2 6800 ultra.
E guarda caso, i numeri relativi alle istruzioni di RSX sono proprio 136 (120+16), esattamente come G70

yossarian
24-10-2005, 14:53
Ma è una caratteristica speciale dello xenon o no ?
Il cell può gestire istruzioni opengl o direct3d ?

Per la gestione di istruzioni direttamente in D3d si è dovuto ricorrere ad un design speciale delle unità vettoriali ?


la PPE del Cell può gestire operazioni D3D e OpenGL. Le SPE hanno un set di operazioni altivec (esattamente come la unità vettoriali interne ai tre core dell'x-chip)

fek
24-10-2005, 14:57
Ma è una caratteristica speciale dello xenon o no ?
Il cell può gestire istruzioni opengl o direct3d ?

Per la gestione di istruzioni direttamente in D3d si è dovuto ricorrere ad un design speciale delle unità vettoriali ?

Credo che si riferisca alla compressione DXTx che e' supportata da qualunque GPU da molti anni a questa parte.

D3D non e' un set di istruzioni, ma una API per pilotare le GPU. L'X360 usera' una versione customizzata di D3D per supportare le caratteristiche peculiari dell'R500..

Ren
24-10-2005, 15:03
cioè i dati elaborati verrano compressi nella porzione di cache e poi letti e decompressi dalla gpu ?

Ren
27-10-2005, 12:50
So said Jeff, an IBM chip developer, but as you know, the project is in conjunction with Microsoft. Add in a lot of work from Chartered, the company fabbing it. Microsoft definitely had input at all stages.

The chip itself is a three way SMP PPC with specialised function VMX extensions and two threads per core. It has 1MB of L2 cache, a FSB of 21.6GB/s. It has 165M transistors, and is built on IBM's 10KE 90nm SOI process.

The L1 Icache is 32K 2 way set associative, and has a 128 byte cache line size. It can issue 2 instructions per clock, in order, but can do delayed execution to cover load to use delays. The chip, still somewhat unnamed, has 2 fixed point units, and has a 2 cycle op latency. The Dcache is also 32K but is 4 way set associative, and is non-blocking. The FPU is combined with the VMX unit and can also handle two threads.

The full pipeline is 11 FO4 in length, and has a 10 cycle Scalar DP FPU latency, 2 cycle load latency, 4 cycles for simple VMX and 14 for dot product VMX. This is important because of the target for the chip, gaming. The VMX extensions are going to be heavily used here, and part of the MS mods were upping the number of VMX registers from 32 to 128. It also adds Direct3D pack and unpack instructions.

The 1MB L2 cache is shared by all three cores, and is 8-way set associtive. It is ECC protected, and supports the MESI coherency protocol. The FSB beyond that is specific to the Xbox360, and was designed for the machine itself. It connects to the ATI GPU at 10.8GBps in each direction, hence the 21.6GBps noted earlier. Interestingly, the IBM chip runs it's link layer at 1.35GHz with an 8 bit width, and ATI does it at 675MHz at 16 bits of width.

Despite the complexity of this chip, the first silicon was fully functional and running a test game a week after they got first power on. IBM and MS had an extensive testing program and it paid off. The chip was delivered on time and hit the quality targets. It is now in volume production, and you should be able to buy one in less than a month. They won't sell them to you without a console to wrap it in, but if they did, it would look like this.

Some last few tech rather miscellaneous specs. The project took about 24 months from signing on the dotted line to finish. 8 months of that was the time from tape out to volume production, meaning about 16 months was design and verification. The die is about 160 square mm, but they wouldn't talk about power. The work there is ongoing, so if you have a closed cabinet to keep them in, skip the first generation Xbox360s. To make matters worse, the mostly unnamed chip has a name, but they wouldn't give it out. Aaargh. The name on top of the chips will probably give Intel the shivers though. µ

http://www.theinquirer.net/images/articles/disrobed.jpg

;)

[Kendall]
27-10-2005, 13:01
Salve ragazzi, dato che, da quel che ho letto, qui bazzicano persone che ne sanno decisamente più di me di Hardware sapreste commentarmi questa (http://www.theinquirer.net/?article=27249) notizia riguardo all'utilizzo della cpu dell'X360? (avevo postato anche nella discussione sulll'x360 però credo che questa sia più corretta).

Ecco la notizia:

XBox 360 games single threaded, says Vole

Microsoft drops bomb at FPF

By Charlie Demerjian in San Jose: mercoledì 26 ottobre 2005, 18.16
Advert
MICROSOFT'S VOLE DRAMA ARMY DROPPEDa bombshell today in a backhanded way.

During a talk on multithreaded programming, Microsoft used the three core, two thread per core Xbox360 as an example.

The bombshell was that the first generation of Xbox titles, all of them, are single threaded. Not good.

The INQ has gotten its hands on an Xbox360, yes, there is a Wal-Mart near us, and was completely underwhelmed by the quality of the games. Graphics quality was poor, and pixels were showing up blocky, ruining the wow-factor of the new console.

Every new machine has a nasty first set of games as the programmers work up to speed on the hardware. In this case, the up side is that there is about 6x the CPU power available and coming to a console near you in the second generation of games.

The scary part is that everyone tells me that the PS3 is harder to program for than the Xbox360, and the tools are nowhere near the quality of Microsoft's. That means that even with an extra six months of design time, the initial PS3 games may be worse.

Mi interessava particolarmente il punto riguardo all'uso di un solo thread sui 6 totali della cpu dell'X360

ArtX
27-10-2005, 20:33
grazie a yossarian

Do85
28-10-2005, 08:21
']Salve ragazzi, dato che, da quel che ho letto, qui bazzicano persone che ne sanno decisamente più di me di Hardware sapreste commentarmi questa (http://www.theinquirer.net/?article=27249) notizia riguardo all'utilizzo della cpu dell'X360? (avevo postato anche nella discussione sulll'x360 però credo che questa sia più corretta).



Mi interessava particolarmente il punto riguardo all'uso di un solo thread sui 6 totali della cpu dell'X360

Già in questa notizia, che avevo letto altrove, sembra che la Ms si lamenti che gli sviluppatori solo uno dei 6 thread a disposizione della 360....
Anche io ne vorrei sapere di + al riguardo...

Do85
28-10-2005, 08:34
http://next.videogame.it/html/notizia.php?id=36854

Free Gordon
28-10-2005, 12:27
Già in questa notizia, che avevo letto altrove, sembra che la Ms si lamenti che gli sviluppatori solo uno dei 6 thread a disposizione della 360....
Anche io ne vorrei sapere di + al riguardo...


Almeno 2 li devono usare, perchè l'audio è gestito via CPU... :D

Sicuramente cmq, almeno 3 saranno usati nella maggioranza dei giochi: Call of Duty 2 ad esempio, usa il core0 e core1 solo per gli effetti particellari (a detta degli sviluppatori).

vaio-man
28-10-2005, 13:04
secondo me la x sarà + complessa da programmare, per lo meno all'inizio, cioè creano un architettura ultra futurista processore dual core e pippe unificate quando neppure un programmatore ne ha scritto prima neanche una riga di codice, inoltre la x utilizzerà una versione semplificata delle prossime directX, la ps3 nn solo usa una struttura ben conosciuta dai programmatori ma usa drectX 9c e una versione custom delle opengl (con custom intendo dire che hanno aggiunto funzioni che in queste al momento nn sono incluse nella versione pc di opengl), secondo me la M$ userà questa console per istruire i programmatori sulle nuove funzionalità di prossima generazione su pc

Manp
28-10-2005, 13:11
secondo me la x sarà + complessa da programmare, per lo meno all'inizio, cioè creano un architettura ultra futurista processore dual core e pippe unificate quando neppure un programmatore ne ha scritto prima neanche una riga di codice, inoltre la x utilizzerà una versione semplificata delle prossime directX, la ps3 nn solo usa una struttura ben conosciuta dai programmatori ma usa drectX 9c e una versione custom delle opengl (con custom intendo dire che hanno aggiunto funzioni che in queste al momento nn sono incluse nella versione pc di opengl), secondo me la M$ userà questa console per istruire i programmatori sulle nuove funzionalità di prossima generazione su pc

cioè, secondo te Xbox 360 userà una versione semplificata delle DirectX 9? :mbe:

mentre la PS3 usa le DirectX 9c?! che sono roba Microsoft?! :mbe:

goan76
28-10-2005, 13:16
secondo me la x sarà + complessa da programmare, per lo meno all'inizio, cioè creano un architettura ultra futurista processore dual core e pippe unificate quando neppure un programmatore ne ha scritto prima neanche una riga di codice, inoltre la x utilizzerà una versione semplificata delle prossime directX, la ps3 nn solo usa una struttura ben conosciuta dai programmatori ma usa drectX 9c e una versione custom delle opengl (con custom intendo dire che hanno aggiunto funzioni che in queste al momento nn sono incluse nella versione pc di opengl), secondo me la M$ userà questa console per istruire i programmatori sulle nuove funzionalità di prossima generazione su pc

prima di dire certe cose informati bene.

1 l x360 monta una cpu tricore
2 l x usera le directx 10 che non ricordo il nome.

Eh cosa la ps3 usa le drectX 9c ma quando mai. :asd:

goan76
28-10-2005, 13:30
doppio post scusate.

fek
28-10-2005, 14:06
cioè i dati elaborati verrano compressi nella porzione di cache e poi letti e decompressi dalla gpu ?

Il DXTx usa uno schema di compressione che (detto male) comprime un blocco di texel occupando il 25% o il 50% dello spazio. E' uno schema fisso: ogni blocco viene compresso al 25% o al 50% a seconda del particolare schema usato. Questo vuol dire che quando la uno shader richiede alla GPU un determinato texel, questa e' in grado di accedere il blocco della texture che lo contiene, decomprimerlo al volo e restituire il texel richiesto. La CPU si limita a caricare la texture gia' compressa da disco o DVD in memoria video o di sistema nel caso di una console, pronta per essere usata dalla GPU.

La decompressione e' molto veloce quindi anche dal punto di vista prestazionale, e' conveniente comprimere le texture perche' si abbassa drasticamente il consumo di banda passante sul bus interno della GPU o sul bus di sistema nel caso di una console.

secondo me la x sarà + complessa da programmare, per lo meno all'inizio, cioè creano un architettura ultra futurista processore dual core e pippe unificate quando neppure un programmatore ne ha scritto prima neanche una riga di codice, inoltre la x utilizzerà una versione semplificata delle prossime directX, la ps3 nn solo usa una struttura ben conosciuta dai programmatori ma usa drectX 9c e una versione custom delle opengl (con custom intendo dire che hanno aggiunto funzioni che in queste al momento nn sono incluse nella versione pc di opengl), secondo me la M$ userà questa console per istruire i programmatori sulle nuove funzionalità di prossima generazione su pc

E' vero il contrario.
L'XCPU usa un modello di programmazione multithreading abbastanza ben conosciuto: tecniche di multiprocessing sono usate da diversi decenni oramai. La libreria di rendering e' una versione custom delle DirectX, a meta' strada fa DX9 e DX10.

La PS3 dal lato della CPU invece impone un modello di programmazione basato sul modello concettuale di uno stream processor che e' totalmente innovativo, per il quale non c'e' molta letteratura e molto know-how.
Dal lato della GPU invece c'e' un vantaggio perche' e' sostanzialmente identica ad un G70 che e' ben conosciuto, la libreria di rendering e' OpenGL ES che e' anch'essa ben conosciuta.

Il vantaggio dell'X360 pero', a mio avviso, risiede in XNA, un framework di sviluppo che e' parzialmente condiviso fra X360 e PC ed e' ottimamente supportato da Microsoft.
La PS3 non ha nulla di analogo.

vaio-man
28-10-2005, 14:13
manp, ti chiedo di leggere nn 2 ma 3 volte i miei post prima di fare commenti, io ho scritto le prossime directX, se secondo te le prossime sono le 9, contento te contenti tutti. mi pare chiaro che con "prossime" intendevo le 10, o le WGF 2.0 come le vogliate chiamare. :D
mi sembrano più attinenti i commenti successivi che nn tentano di sme***re la gente ma le chiariscono le cose, grazie :D
anche se secondo me nn ci sarebbe nulla di strano se la PS3 usasse una qualche versione custom di directX 9c visto che il G70 è compatibile con queste e che sono state create da M$ e da Nvidia la quale quindi le conosce molto bene.
per il procio della PS3 nn sono così sicuro che il modello sia del tutto sconosciuto infatti le spe del cell sono molto simili alle vpu dellìemotion engine, ricordate?

fek
28-10-2005, 14:27
anche se secondo me nn ci sarebbe nulla di strano se la PS3 usasse una qualche versione custom di directX 9c visto che il G70 è compatibile con queste e che sono state create da M$ e da Nvidia la quale quindi le conosce molto bene.

PS3 usera' OpenGL ES come libreria di rendering e nient'altro. Le DirectX sono proprietarie MS.


per il procio della PS3 nn sono così sicuro che il modello sia del tutto sconosciuto infatti le spe del cell sono molto simili alle vpu dellìemotion engine, ricordate?

E' molto, molto differente.

vaio-man
28-10-2005, 15:02
ufficialmente usa le opengl ES e fin qui tutti d'accordo, ma essendo il G70 e quindi anche RSX compatibile con direct3D chi impedisce alle software house di crearsi i propri SDK in maniera da usare le directX?
fek su questo che sto per dire sono sicuro che mi potrai smentire o confermare, visto che tu lo hai usato :cool: , ma che io sappia l'ambiente di sviluppo + usato per la PS2 nn era sony, ma di una terza parte ora nn ricordo il nome e aveva ben poco a che fare con le librerie proprietarie in quanto molto + semplice da usare :D

fek
28-10-2005, 15:06
ufficialmente usa le opengl ES e fin qui tutti d'accordo, ma essendo il G70 e quindi anche RSX compatibile con direct3D chi impedisce alle software house di crearsi i propri SDK in maniera da usare le directX?


Microsoft.


fek su questo che sto per dire sono sicuro che mi potrai smentire o confermare, visto che tu lo hai usato :cool: , ma che io sappia l'ambiente di sviluppo + usato per la PS2 nn era sony, ma di una terza parte ora nn ricordo il nome e aveva ben poco a che fare con le librerie proprietarie in quanto molto + semplice da usare :D

Codewarrior oppure ProDG. Usavano cmq le lib proprietarie.

yossarian
28-10-2005, 15:12
ufficialmente usa le opengl ES e fin qui tutti d'accordo, ma essendo il G70 e quindi anche RSX compatibile con direct3D chi impedisce alle software house di crearsi i propri SDK in maniera da usare le directX?
fek su questo che sto per dire sono sicuro che mi potrai smentire o confermare, visto che tu lo hai usato :cool: , ma che io sappia l'ambiente di sviluppo + usato per la PS2 nn era sony, ma di una terza parte ora nn ricordo il nome e aveva ben poco a che fare con le librerie proprietarie in quanto molto + semplice da usare :D

Epic ha già confermato che l'ambiente di sviluppo per la ps3 sarà OpenGL (anzi, una versione OpenGL che farà uso di estensioni proprietarie NV)

vaio-man
28-10-2005, 15:30
bè mi sa che allora vedremo un proliferarsi di motori grafici openGL :sofico:
ben venga

yossarian
28-10-2005, 15:34
bè mi sa che allora vedremo un proliferarsi di motori grafici openGL :sofico:
ben venga

questo è da dimostrare; se Carmack dovesse tener fede a quanto detto (ossia che preferisce xbox come piattaforma di sviluppo), considerando che ID è rimasta una delle poche ancora fedeli all'OpenGL, potrebbe essere il contrario.
E comunque Epic lavorerà anche per MS

vaio-man
28-10-2005, 15:45
no nn è da dimostrare, io nn ho detto che ne vedremo di + su pc, ma in senso assoluto, male che vada i giochi ps3 resteranno solo su console mentre per il porting su pc verrà usato il motore della versione x, in ogni caso vedremo l'aumento dei motori openGL, anche se solo su ps3

yossarian
28-10-2005, 15:51
no nn è da dimostrare, io nn ho detto che ne vedremo di + su pc, ma in senso assoluto, male che vada i giochi ps3 resteranno solo su console mentre per il porting su pc verrà usato il motore della versione x, in ogni caso vedremo l'aumento dei motori openGL, anche se solo su ps3

e dov'è il vantaggio se il porting su pc sarà effettuato, magari, usando le dx, per quei giochi sviluppati su entrambe le piattaforme? Se così fosse, l'uso resterebbe confinato al mondo delle consolle (anzi di una consolle)

Manp
28-10-2005, 17:11
manp, ti chiedo di leggere nn 2 ma 3 volte i miei post prima di fare commenti, io ho scritto le prossime directX, se secondo te le prossime sono le 9, contento te contenti tutti. mi pare chiaro che con "prossime" intendevo le 10, o le WGF 2.0 come le vogliate chiamare. :D
io leggo male una volta ;)

anche se secondo me nn ci sarebbe nulla di strano se la PS3 usasse una qualche versione custom di directX 9c visto che il G70 è compatibile con queste e che sono state create da M$ e da Nvidia la quale quindi le conosce molto bene.
ma tu insisti...

nvidia che "crea" le directx?

PS: andrebbero letti 10 volte i tuoi post ;)

vaio-man
29-10-2005, 01:04
si manp, Nvidia che crea le directX, vai a vedere sul sito ufficiale Nvidia cosa dice sulle 9c ;)
per il porting non ci sarebbe nessun vantaggio a usare le openGL su console e le directX sul pc, anzi ci sono svantaggi (economici nn tecninici,anche se io preferisco le openGL) a usare le openGL sulla ps3, infatti due piattaforme su 3 usa le directX
P.S. sul revolution si sa nulla? cioè userà librerie propietarie o no?
P.P.S. non pensate che sia così dificile che la M$ dia le directX a un concorrente, in ogni caso ci guadagna dalle royalty , con questo non voglio insistere di + sulla questione ps3-directX, ormai ho appurato grazie a voi che non c'è possibilità che questo avvenga, però voglio dire che in ogni caso lei avrebbe solo dei vantaggi, almeno due sicuramente 1) soldi dalle royalty 2) dare limiti tecnlogici agli avversari ;)

fek
29-10-2005, 09:01
si manp, Nvidia che crea le directX, vai a vedere sul sito ufficiale Nvidia cosa dice sulle 9c ;)

NVIDIA non ha creato le DX, ma sono proprietarie Microsoft. NVIDIA come ATI come altre aziende (tra cui Valve, ID e Lionhead) partecipano alla definizione delle librerie in un particolare comitato.

P.P.S. non pensate che sia così dificile che la M$ dia le directX a un concorrente,

Non sarebbe solo difficile, ma e' proprio impossibile.

Manp
29-10-2005, 10:29
NVIDIA non ha creato le DX, ma sono proprietarie Microsoft. NVIDIA come ATI come altre aziende (tra cui Valve, ID e Lionhead) partecipano alla definizione delle librerie in un particolare comitato.

Non sarebbe solo difficile, ma e' proprio impossibile.

coff coff :fagiano:

cmq, fek ho un favore da chiederti, mi diresti la tua su questa ipotesi:

http://www.hwupgrade.it/forum/showpost.php?p=10006577&postcount=6597

:)

vaio-man
29-10-2005, 10:45
quindi ora la Nvidia non avrebbe partecipato allo sviluppo delle 9c, ok se lo dite voi :muro:
non ho detto che le possiede Nvidia ma che ha partecipato allo sviluppo s-v-i-l-u-p-p-o ok? :muro:
gli shader model 3 sono stati voluti dalla Nvidia è per questo che per tre anni li ha sbandierati inutilmente, perchè pochissimi giochi li supportavano :muro: :muro: :muro: :doh:
e se raggionate un millesimo di secondo la possibilità che la M$ permetta a una console concorrente di usare le directX esiste dal momento che M$ controllerebbe lo sviluppo della tecnologica, ci pensate un revolution che usa le directX 8.1 mentre la M$ è già alle 10?
(con revolution ho detto un nome a caso)

Manp
29-10-2005, 10:53
anche se secondo me nn ci sarebbe nulla di strano se la PS3 usasse una qualche versione custom di directX 9c visto che il G70 è compatibile con queste e che sono state create da M$ e da Nvidia la quale quindi le conosce molto bene.

è curioso come si passi da una "creazione" quasi demiurgica ad una più blanda "partecipazione allo sviluppo" :rolleyes:

la parte di nvidia nello sviluppo delle DirectX è la stessa che ha avuto Ati e, come ti ha spiegato fek, le varie softco. interessate

poi cmq credo che aziende che si occupano di HW e altre di SW abbiano interessi su aspetti diversi delle API

:)

yossarian
29-10-2005, 10:54
quindi ora la Nvidia non avrebbe partecipato allo sviluppo delle 9c, ok se lo dite voi :muro:
non ho detto che le possiede Nvidia ma che ha partecipato allo sviluppo s-v-i-l-u-p-p-o ok? :muro:
gli shader model 3 sono stati voluti dalla Nvidia è per questo che per tre anni li ha sbandierati inutilmente, perchè pochissimi giochi li supportavano :muro: :muro: :muro: :doh:

ha partecipato alla definizione delle specifiche, insieme ad ATi e a diverse swhouse. Le specifiche sm3.0 erano note già dal 2002, ancora prima dell'uscita di R300 e NV30 e non sono state volute da nVIDIA.
E poi, di quali 3 anni parli? Il primo chip NV sm3.0 è stato NV40, che mi risulta essere del Q2 2004; la serie NV3x, a causa della carenza di spazio nei registri interni, non si poteva definire neppure sm2.0 full compliant.

vaio-man
29-10-2005, 12:36
eran 3 anni per modo di dire, pensavo che si usasse anche da altre parti questa definizione.
creazione e partecipazione allo sviluppo sono la stessa cosa per me, creazione insieme a M$, aiuto a M$ nello sviluppo, in ogni caso la nvidia ha contribuito + di ogni altro, visto che la addiritura la ati era scettica su l'utilità degli shader 3.0

yossarian
29-10-2005, 13:31
eran 3 anni per modo di dire, pensavo che si usasse anche da altre parti questa definizione.
creazione e partecipazione allo sviluppo sono la stessa cosa per me, creazione insieme a M$, aiuto a M$ nello sviluppo, in ogni caso la nvidia ha contribuito + di ogni altro, visto che la addiritura la ati era scettica su l'utilità degli shader 3.0

boh, se ne sei convinto tu. Fatto sta che ATi ha anche un chip sm4.0 (o quasi) bello e pronto, a 0,09 u, da montare su xbox2 (tanto per riportare in tema la discussione); quindi, tanto scettica non mi pare che sia stata e, secondo il tuo ragionamento, lo sm4.0 lo avrebbe "creato" ATi.

Ora, stando a quanto affermi, nVIDIA dovrebbe conoscere lo sm3.0 alla perfezione (compresi i modelli di refrast proposti come campioni, avendoli creati insieme a MS); allora come spieghi questo?

http://www.theinquirer.net/?article=27084

vaio-man
29-10-2005, 14:11
e grazie al ca**o che sulla x ci monta le shader model 3+ (e nn 4) glielo ha detto M$ ma la serie x800 ti sembra che abbia lo shader 3? mi pare di no anche se sapeva che la serie 6 di Nvidia li avrebbe avuti
ora che pensi era scettica o no?
P.S. per chi non lo sapesse lo shader 3 non è altro che una versione potenziata del 2

yossarian
29-10-2005, 14:38
e grazie al ca**o che sulla x ci monta le shader model 3+ (e nn 4) glielo ha detto M$ ma la serie x800 ti sembra che abbia lo shader 3? mi pare di no anche se sapeva che la serie 6 di Nvidia li avrebbe avuti
ora che pensi era scettica o no?
P.S. per chi non lo sapesse lo shader 3 non è altro che una versione potenziata del 2

r500 è quasi full sm4 non 3+ e MS non c'entra niente col progetto dei chip.
Veniamo al discorso sm3.0

nVIDIA aveva un'architettura da rifare quasi epr intero (NV3x); ATi ne aveva una che funzionava molto bene (R3x0). Quindi nVIDIA doveva progettare un nuovo chip e ATi non ne aveva la necessità. Tu cosa avresti fatto al posto di NV? Progettato un altro chip sm2.0, oppure ne avresti fatto uno sm3.0 anche se questo non era utilizzato (per poi doverne fare uno ulteriore sm3.0)? E al posto di ATi, sapendo che lo sm3.0 non sarebbe stato utilizzato ancora per un pezzo, avresti tenuto l'architettura sm2.0 di R3x0 o ne avresti progettato uno nuovo?
E secondo te, R520 sarebbe uscito perchè ATi si è vista costretta, nonostante lo scetticismo, a tirare fuori un chip sm3.0, oppure faceva parte di un programma ben preciso?

Infine, ti ripropongo la domanda: stando a quello che hai detto, nVIDIA, insieme a MS ha creato lo sm3.0; ammettiamo che sia così, allora si presuppone che nVIDIA, non solo conosca alla perfezione i modelli relativi allo sm3.0, ma addirittura li crei (a questo punto, c'è da ritenere, basandosi sui suoi modelli di rasterizzazione). Come spieghi la notizia riportata nel link?

fek
29-10-2005, 14:38
quindi ora la Nvidia non avrebbe partecipato allo sviluppo delle 9c, ok se lo dite voi :muro:
non ho detto che le possiede Nvidia ma che ha partecipato allo sviluppo s-v-i-l-u-p-p-o ok? :muro:

Abbiamo detto l'esatto contrario: NVIDIA ha partecipato allo sviluppo, non ha creato le DX.
Ho partecipato anch'io nel mio piccolo allo sviluppo delle DX10 ma non per questo posso dire che sono mie :)

Come NVIDIA, anche ATI, Valve, ID, Lionhead hanno partecipato allo sviluppo. Ma la proprieta' rimane Microsoft che non cedera' mai i diritti per l'uso alla Sony e la Sony non e' interessata potendo usare OpenGL ES.


P.S. per chi non lo sapesse lo shader 3 non è altro che una versione potenziata del 2

Oddio, non e' solo questo, ci sono alcune sostanziali differenze.

vaio-man
29-10-2005, 14:51
quindi secondo yossarian sarebbe andato bene a M$ anche uno SM 1.1 :muro:
è logico che la M$ ha detto ad ati "queste sono le librerie che dobbiamo usare , creami la migliore architettura che ti viene fuori rispettando queste specifiche"
fek non ho detto che sono di Nvidia il copyright è di M$ ma la Nvidia avendo partecipato allo sviluppo e avendo voluto lei il SM 3 è palese che le conosce meglio di una ati che ha dovuto fare solo degli aggiustamenti e ratificare le specifiche, visto che il consorzio di aziende che è stato nominato ratifica le specifiche ed elimina gli eventuali bug :stordita:

yossarian
29-10-2005, 14:59
quindi secondo yossarian sarebbe andato bene a M$ anche uno SM 1.1 :muro:
è logico che la M$ ha detto ad ati "queste sono le librerie che dobbiamo usare , creami la migliore architettura che ti viene fuori rispettando queste specifiche"
fek non ho detto che sono di Nvidia il copyright è di M$ ma la Nvidia avendo partecipato allo sviluppo e avendo voluto lei il SM 3 è palese che le conosce meglio di una ati che ha dovuto fare solo degli aggiustamenti e ratificare le specifiche, visto che il consorzio di aziende che è stato nominato ratifica le specifiche ed elimina gli eventuali bug :stordita:

quindi secondo te ATi si è messa a progettare un chip sm4.0 solo perchè glielo ha chiesto MS. Forse ti sfugge che il progetto chip a shader unificati è iniziato nel 2002, appena dopo il lancio di R300 e non su commissione MS; e ti sfugge anche il fatto che una nuova architettura (per nuova intendo nuova anche nella logica progettuale, cosa che nessuno dei chip visti fino a R520 ha dimostrato di essere), come quella di R520 (che rappresenta un ibrido ma fa parte dello stesso progetto dell'x-chip) e R500 non si improvvisano in un mese e neppure in un anno.

Se nVIDIA conosce le specifiche sm3.0 meglio di ATi e di chiunque altro, a parte, forse MS, allora spiega il link che ho postato e spiega il fatto che alcune feature tipiche dello sm3.0, come ad esempio il dynamic branching, siano state implementate meglio su R520 che non su G70.

Comunque questo topic sta finendo OT; quindi se vuoi rimanere della tua idea, nonostante tutti ti stiano dicendo il cointrario, fa pure, anzi aggiungi anche le OpenGL alle creazioni di nVIDIA (con SGI, ATi, 3DLabs e company che correggono solo i bug) :D

yossarian
29-10-2005, 15:07
Ho partecipato anch'io nel mio piccolo allo sviluppo delle DX10 ma non per questo posso dire che sono mie :)



a volte basta anche un piccolo contributo per far impallare i giochi subito dopo la schermata iniziale :D

fek
29-10-2005, 15:18
quindi secondo yossarian sarebbe andato bene a M$ anche uno SM 1.1 :muro:
è logico che la M$ ha detto ad ati "queste sono le librerie che dobbiamo usare , creami la migliore architettura che ti viene fuori rispettando queste specifiche"
fek non ho detto che sono di Nvidia il copyright è di M$ ma la Nvidia avendo partecipato allo sviluppo e avendo voluto lei il SM 3 è palese che le conosce meglio di una ati che ha dovuto fare solo degli aggiustamenti e ratificare le specifiche, visto che il consorzio di aziende che è stato nominato ratifica le specifiche ed elimina gli eventuali bug :stordita:

Yoss non ha detto che a MS sarebbe andato bene anche lo shader model 1.x.
NVIDIA non ha voluto espressamente lo shader model 3.0, le sue specifiche sono state dettate da Microsoft su suggerimento sia di ATI, sia di NVIDIA, sia di alcuni sviluppatori.
NVIDIA non conosce l'SM3 necessariamente meglio di ATI.
L'R500 usa uno shader model molto simile allo SM4, le cui specifiche sono gia' state definite.
Il consorzio non ratifica le specifiche, il consorzio propone le specifiche che sono poi decise e finalizzate solo da Microsoft.

vaio-man
29-10-2005, 15:23
ma tu credi ancora a the inquirer? :D
quando lo scrive HWU allora ci credo
guarda che domani i marziani attacano la terra :D
ma non è che sei tu quello che diceva che la X1800 è + efficiente di G70 perchè raggiunge frequenze + alte? :Prrr:
e poi spiegami perchè avrebbe dovuto iniziare lo sviluppo prima di sapere che la M$ l'avrebbe contata visto che
1)nel 2002 lavorava ancora al progetto dolphin
2) la ati stessa ha detto che un progetto simile sarebbe inproponibile nel mondo pc
P.S. dov'è che la r520 sarebbe ibrida? questa mela devi spiegare, mi sa che sei :mc:

fek
29-10-2005, 15:31
ma tu credi ancora a the inquirer? :D
quando lo scrive HWU allora ci credo
guarda che domani i marziani attacano la terra :D
ma non è che sei tu quello che diceva che la X1800 è + efficiente di G70 perchè raggiunge frequenze + alte? :Prrr:
e poi spiegami perchè avrebbe dovuto iniziare lo sviluppo prima di sapere che la M$ l'avrebbe contata visto che
1)nel 2002 lavorava ancora al progetto dolphin
2) la ati stessa ha detto che un progetto simile sarebbe inproponibile nel mondo pc
P.S. dov'è che la r520 sarebbe ibrida? questa mela devi spiegare, mi sa che sei :mc:

Guarda che yoss ne sa' piu' di me, te e tutti gli altri messi assieme qui dentro.
Se dice che l'R520 e' un ibrido, spera che non si metta a spiegarci il perche' altrimenti gli servono dieci post...

vaio-man
29-10-2005, 15:35
fek, se dico che la r520 non è ibrida so quello che sto dicendo, l'unica cosa che ha unificata quella architettura è il memory ring bus da 512 bit :read:

X-ICEMAN
29-10-2005, 15:39
1)nel 2002 lavorava ancora al progetto dolphin
2) la ati stessa ha detto che un progetto simile sarebbe inproponibile nel mondo pc
P.S. dov'è che la r520 sarebbe ibrida? questa mela devi spiegare, mi sa che sei :mc:

alcune correzioni

-Ati non ha mai lavorato al progetto dolphin, ha semplicemente acquistato ARTX ( che ha sviluppato il chip ) nella primavera del 2000

- xenos è pensato espressamente per gestire il rendering di un gioco console, e lo dimostra la edram inserita nella gpu ( che non sarebbe adeguata per risoluzioni pc tipo 1600*1200 ) piuttosto che la scelta di directX create ad hoc ( con specifiche differenti sia rispetto alle 9.0c che alle 10 ) oppure per mille mila altri fattori.. esempi ? sia per il non dover restare legata a precedenti "retrocompatibilità" hardware, cosa che per esempio ha permesso di utilizzare gli shader unificati prima rispetto al mondo pc, sia per tutto il resto dell'architettura della console come ad esempio il fatto che la gpu può accedere direttamente alla cache della cpu

vaio-man
29-10-2005, 15:49
e io non ho detto che la ati stessa ha giudicato impossibile presentare allo stato attuale un r500 su pc? :mbe:
x-iceman il secondo concetto che hai espresso contiene nel succo lo stesso che ho detto io, al momento gli shader unificati sono improponibili su pc, quindi perchè iniziare lo sviluppo di una tale architettura se
1) su pc è improponibile
2) nessuno glielo aveva chiesto
quindi la ati ha iniziato quel progetto su comissione di M$, e su specifiche di m$ se no perchè arrovellarsi su una architettura video rivoluzionaria invece di adatarne una già esistente? :mbe:

fek
29-10-2005, 15:52
fek, se dico che la r520 non è ibrida so quello che sto dicendo, l'unica cosa che ha unificata quella architettura è il memory ring bus da 512 bit :read:

Se dici quello, non sai quello che stai dicendo. Come nel caso di NVIDIA e le DX: e' evidente che non sai quello che stai dicendo.

Maury
29-10-2005, 16:03
fek, se dico che la r520 non è ibrida so quello che sto dicendo, l'unica cosa che ha unificata quella architettura è il memory ring bus da 512 bit :read:

forse è meglio che ti dedichi ad altro :)

vaio-man
29-10-2005, 16:07
http://www.hwupgrade.it/articoli/skvideo/1361/25-30.html#commenti

ditemi dove è scritto che la x1800 ha gli shader unificati, portatemi prove

X-ICEMAN
29-10-2005, 16:09
perchè arrovellarsi su una architettura video rivoluzionaria invece di adatarne una già esistente? :mbe:
perchè in questo modo sviluppano un chip base da cui partire nelle prox gen di gpu pc ( da fine 2006 in poi ) quando anche su pc dovranno iniziare a portare gli shader unificati (e molto altro ancora ) ed è un vantaggio non da poco avere già esperienza con precedenti prodotti simili.. Certamente non potevano debuttare con una soluzione a shader unificati su pc, quando Microsoft non rilascia le DX 10 ( o WGF come le si vuole chiamare )

vaio-man
29-10-2005, 16:14
si ma il succo della questione è che quelle specifiche gliele ha date la M$, e l'r500 è nato appositamente per la x360 e non per opera dello spirito santo, e come se io costruisco qualcosa e poi decido a cosa serve, ma vi sembra logico? :muro:

X-ICEMAN
29-10-2005, 16:20
si ma il succo della questione è che quelle specifiche gliele ha date la M$, e l'r500 è nato appositamente per la x360 e non per opera dello spirito santo, e come se io costruisco qualcosa e poi decido a cosa serve, ma vi sembra logico? :muro:
ma che ati si avvantaggi della situazione è il MINIMO, nvidia lo ha fatto con il progetto GF3/NV2A/GF4 in particolare quest'ultima, che quando è uscita era nettamente avanti alla concorrenza, superata solo dopo parecchi mesi ( in cui sul mercato ha fatto da padrona) proprio dalla 9700 di ati

quando Xbox è stata annunciata ( e la conseguente partnership con Nvidia ufficializzata) per pc era l'era della gf2..

vaio-man
29-10-2005, 16:25
e fino a qui sono d'accordo, ma yossarian non può venire a dirmi che ati ha fatto tutto di testa sua sperando che prima o poi qualcuno gli chiedesse di utilizzare il suo progetto nella sua console :D

yossarian
29-10-2005, 16:25
ma tu credi ancora a the inquirer? :D
quando lo scrive HWU allora ci credo
guarda che domani i marziani attacano la terra :D
ma non è che sei tu quello che diceva che la X1800 è + efficiente di G70 perchè raggiunge frequenze + alte? :Prrr:
e poi spiegami perchè avrebbe dovuto iniziare lo sviluppo prima di sapere che la M$ l'avrebbe contata visto che
1)nel 2002 lavorava ancora al progetto dolphin
2) la ati stessa ha detto che un progetto simile sarebbe inproponibile nel mondo pc
P.S. dov'è che la r520 sarebbe ibrida? questa mela devi spiegare, mi sa che sei :mc:

sicuramente the inquirer è più attendibile di te.
L'attacco dei marziani è stato rinviato a data da destinarsi per motivi tecnici
Perchè non apri un thread apposito per illuminarci sul funzionamento ed il livello di efficienza di G70 e R520? Se vuoi, lo apro io, ti invito ufficialmente a postare, così vediamo se ti tiri indietro e, in caso contrario, cosa hai da dire. :D
1) ti hanno già risposto
2) ATi ha parlato solo delle eDRAM nelle rop's (che immagino tu non sappia neppure cosa siano o a cosa servono; no, non è roba commestibile :Prrr: ), non dell'unificazione degli shader (prevista, tra l'altro, dallo sm4.0 che, è evidente che tu non conosci, al pari del 3 di cui continui a ripetere che l'ha creato nVIDIA ma sembra che non sappia dire altro).

Su R520 non ti spiego un bel niente, signor "so tutto io"; quando inizierai a capire qualcosa di architettura dei chip, allora, forse, ne riparleremo :ciapet:

yossarian
29-10-2005, 16:27
http://www.hwupgrade.it/articoli/skvideo/1361/25-30.html#commenti

ditemi dove è scritto che la x1800 ha gli shader unificati, portatemi prove

chi ha parlato di shader unificati? Non conosci né R500 né R520 e continui a sproloquiare a sproposito? :read:

Riguardo all'efficienza, tutte le recensioni hanno affermato che R520 è più efficiente di G70; tu sostieni il contrario. Bene, dimostralo. Sto per aprire un topic in schede video, dove sari tu a dover parlare delle due architetture.
Tanti auguri :D

http://www.hwupgrade.it/forum/showthread.php?p=10014692#post10014692

vaio-man
29-10-2005, 16:29
ma quindi eri davvero tu? quello che diceva che? :sbonk: :sbonk:
e per favore porta prove, non merda fumante :fuck: :fuck:
io non ho detto che la g70 è + efficiente, è vero il contrario, ma non perchè raggiunge frequenze + alte

yossarian
29-10-2005, 16:32
ma quindi eri davvero tu? quello che diceva che? :sbonk: :sbonk:
e per favore porta prove, non merda fumante :fuck: :fuck:
io non ho detto che la g70 è + efficiente, è vero il contrario, ma non perchè raggiunge frequenze + alte

dovresti imparare a leggere prima di scrivere e non il contrario.

Vai al link postato sopra e divertiti, senza continuare a inquinare questo thread con una serie di scempiaggini :sofico:

vaio-man
29-10-2005, 16:42
ti ho già detto porta prove, se non sai il significato del verbo provare: http://www.etimo.it/?term=provare&find=Cerca :D

yossarian
29-10-2005, 16:44
ti ho già detto porta prove, se non sai il significato del verbo provare: http://www.etimo.it/?term=provare&find=Cerca :D

ti stanno aspettando nel thread su schede video; te l'ho aperto apposta; questo lo hai già inquinato abbastanza :D

vaio-man
29-10-2005, 16:50
ok ti do la risposta che tu non sei riuscito a darmi, F-A-N-B-O-Y
ecco ciò che sei ed ecco il motivo per cui nn porti prove
io dico cose sbagliate e tu cose giuste, ok!!
ma dimostramelo io sto qua aspetto te e non vedo perchè devo entrare in un thread tra g70 ed r520 visto che io sto parlando di M$, x-box,R500 (e non R520) e console :Prrr:
è la gente come te che rovina i forum, porta prove
significato del verbo provare(che non conosci): http://www.etimo.it/?term=provare&find=Cerca

[Kendall]
29-10-2005, 16:55
ok ti do la risposta che tu non sei riuscito a darmi, F-A-N-B-O-Y
ecco ciò che sei ed ecco il motivo per cui nn porti prove
io dico cose sbagliate e tu cose giuste, ok!!
ma dimostramelo io sto qua aspetto te e non vedo perchè devo entrare in un thread tra g70 ed r520 visto che io sto parlando di M$, x-box,R500 (e non R520) e console :Prrr:
è la gente come te che rovina i forum, porta prove
significato del verbo provare(che non conosci): http://www.etimo.it/?term=provare&find=Cerca

Scusa Vaio, ma non mi sembra che tu abbia portato prove a sostegno delle tue tesi, mentre se sfogli un po' di pagine di questo thread troverai tonnellate di spiegazioni tecniche... Che ne dici di farti una bella dose di umiltà dato che, da quello che ho capito io, sia fek che Yoss sono decisamente più esperti di te in questo campo?

yossarian
29-10-2005, 16:57
ok ti do la risposta che tu non sei riuscito a darmi, F-A-N-B-O-Y
ecco ciò che sei ed ecco il motivo per cui nn porti prove
io dico cose sbagliate e tu cose giuste, ok!!
ma dimostramelo io sto qua aspetto te e non vedo perchè devo entrare in un thread tra g70 ed r520 visto che io sto parlando di M$, x-box,R500 (e non R520) e console :Prrr:
è la gente come te che rovina i forum, porta prove
significato del verbo provare(che non conosci): http://www.etimo.it/?term=provare&find=Cerca

e allora resta quà e parla di R500 e RSX; altrimenti devo ritenere che sei un buffone :sofico:

Cosa dovrei provare? Un'affermazione che non ho mai fatto? Solo perchè continui a mettermi in bocca cose che non ho detto? Due sono i casi: o non capisci quello che uno scrive oppure sei un buffone. Nel primo caso, un po' di applicazione può giovarti; nel secondo non c'è molto da fare. :D

vaio-man
29-10-2005, 17:00
io non metto indubbio le loro conoscenze ma voglio prove, costa tanto dare un link attendibile (e con questo esludo the inquirer)?
fek non lo metto indubbio so chi è. e con questo chiudo
io un link dove non c'è scritto nè che la x1800 è ibrida nè che ha le pippe unificate l'ho portato e guarda il caso è propio in questo sito. :muro:

vaio-man
29-10-2005, 17:04
io non metto indubbio le loro conoscenze ma voglio prove, costa tanto dare un link attendibile (e con questo esludo the inquirer)?
fek non lo metto indubbio so chi è. e con questo chiudo
io un link dove non c'è scritto nè che la x1800 è ibrida nè che ha le pippe unificate l'ho portato e guarda il caso è propio in questo sito. :muro:
l'affermazione l'hai fatta, due per la precisione
1) la R520 è ibrida
2) lo sviluppo di r500 è iniziato nel 2002, e senza indicazioni su l'architettura da parte di M$
se vuoi ti posto il link anche per la seconda è sempre in questo sito

fek
29-10-2005, 17:16
Su R520 non ti spiego un bel niente, signor "so tutto io"; quando inizierai a capire qualcosa di architettura dei chip, allora, forse, ne riparleremo :ciapet:

Ma io non avevo mai visto yoss inalberarsi :eek:

fek
29-10-2005, 17:18
è la gente come te che rovina i forum, porta prove
significato del verbo provare(che non conosci): http://www.etimo.it/?term=provare&find=Cerca

Ora pero' vedi di calmarti, di gente educata e competente come yoss non ce ne sara' mai abbastanza. Ti ha gia' dato tutte le spiegazioni del caso, sia qui sia altrove. Il problema e' capirle, perche' le spiegazioni che ha dato non sono banali, tutt'altro.

Gli dovresti delle scuse.