View Full Version : La CPU di PlayStation 3 impiegata seriamente con Folding@home
Redazione di Hardware Upg
16-03-2007, 15:01
Link alla notizia: http://www.hwupgrade.it/news/videogiochi/la-cpu-di-playstation-3-impiegata-seriamente-con-folding-home_20488.html
Folding@home è un programma medico realizzato dall'Università di Stanford per lo studio del folding delle proteine.
Click sul link per visualizzare la notizia.
sta ps3 fà di tutto..tranne fare bene la cosa di cui è stata progettata, giocare :D
si scherza naturalmente..
sto pensando come mai non l'ibm non si metta a fare cpu del calibro di cell per pc desktop e supercomputer, visto che sembra essere così potente....
psychok9
16-03-2007, 15:12
Quinsi si potrà scaricare la versione per PS3?
Non è che poi questo accorcerà la vita della PS3?
Interessante... il client per le geforce 8800 è uscito che voi sappiate?
psychok9
16-03-2007, 15:12
sto pensando come mai non l'ibm non si metta a fare cpu del calibro di cell per pc desktop e supercomputer, visto che sembra essere così potente....
In teoria IBM è supporter di AMD, ma dovrebbero darsi 1 smossa ^_^
Automator
16-03-2007, 15:13
beh stavolta onore e merito a Sony :)
La questione non è la potenza della macchina...la questione è che questi signori per farle pubblicità si abbassano anche a questo...per venderti il prodotto sono disposti anche a dirti che serve per combattere le malattie quando non gliene potrebbe fregare di meno...è questo che deve far pensare.
Mikelaborazioni
16-03-2007, 15:20
sta ps3 fà di tutto..tranne fare bene la cosa di cui è stata progettata, giocare :D
Ho avuto la tentazione di scriverlo anche io, ma non volevo accendere flames.... Visto che l'hai fatto tu, ti quoto :D
Per carità il folding@home è una applicazione utilissima e dai nobili propositi (sicuramente molto + utile di quella minkiata del seti@home), ma questo dimostra ancora una volta che quel processore è utile per applicazioni di nicchia, di certo non è nato per far girare videogames next-gen.
Suvvia possessori della PS3, unitevi e contribuite tutti insieme a debellare il cancro! Almeno i vostri 600$ spesi serviranno a qualcosa asd :ciapet:
Mezzelfo
16-03-2007, 15:21
Ehm... Guardate che Sony Cell l'ha sviluppato con IBM (e anche Toshiba mi pare), e già vende dei blade server con cell come CPU.
Ibm è troppo "furba" per buttarsi sul mercato desktop ;-)
Molto meglio i processori "dedicati" (vedi Wii, xbox360 e PS3), che sono più redditizi.
Per i supercomputer, hanno i processori Power5 e 6, che sono delle vere belve.
Cmq, 10 volte le prestazioni di una cpu mainstream (diciamo un dual core da 2.2-2.4 Ghz) non è niente male come rapporto performance/W.
Questo è un test che vidi tempo fa':
http://techreport.com/etc/2006q4/gpu-folding/index.x?pg=1
con Opteron 180 e x1900XTX.
"Con PlayStation 3 parte della nostra rete, possiamo prendere in considerazione delle questioni che prima era impossibile elaborare, con l'obiettivo di trovare la cura alle malattie più pericolose"
Fantastico!!
E non mi importa niente se il suo nome è playstation, xbox, wii o altro. Grazie a questa macchina il calcolo distribuito potrà ricevere una notevole spinta in avanti in fatto di prestazioni. Con grande beneficio per tutti.
MesserWolf
16-03-2007, 15:44
beh davvero una bella cosa... ho sempre pensato che un procio come cell fosse sprecato in una console, almeno così sarà sfruttato appieno e per qualcosa di notevole.
Con macchine domestiche così potenti e così diffuse e tutte in rete, il futuro del calcolo distribuito è + roseo che mai!
Per quanto riguarda IBM:
* non commercializza + hardware che non sia supercomputer o server professionali e anche in quel caso vende + che altro i servizi che stanno attorno a queste macchine
*esistono già supercomputer/server (o quanto meno sono in dirittura d'arrivo) che utilizzano cell in accoppiata con processori tradizionali
* E' incentrata sulla vendita di servizi e sulla ricerca (è una delle aziende al mondo che investe di più nella ricerca, anche in quella di base)
SergioStyle
16-03-2007, 15:44
mi ricorda tanto quella diceria che si diceva nel 2000, cioè che la ps2 con l'emotion engine veniva usata per i carrarmati dell'esercito Iraniano :D
che stano, quando un prodotto sony va male, escono sempre notizie come questa, sarà un caso:O
gabi.2437
16-03-2007, 15:49
E' una cosa vera eh, il client per PS3 di folding@home è in programmazione già da un bel pò, dovrebbe uscire a breve.
Ah, siete tutti invitati a partecipare anche se non avete una PS3 eh
graphixillusion
16-03-2007, 15:49
come al solito, ogni volta che qualcuno si degna o comunque prova a fare qualcosa di diverso e di utile per la societa', ci sono sempre commenti che fanno cadere le braccia. attualmente la moda del mondo dei videogiochi vuole xbox360 e wii al centro dei riflettori. bisogna (e non ho capito il motivo) andare per forza contro sony. ho la strana sensazione che se questo progetto folding@home fosse nato su wii o su xbox o su apple, la gente avrebbe gridato al miracolo...
SilverLizard
16-03-2007, 15:52
E' bello sapere che una console fa qualcosa di utile. Almeno una tra le tante. Ed è bello anche vedere quanta gente si diverte a spammare, dire scemate e attaccare Sony ad ogni notizia ;) Probabilmente anche io sto spammando e dicendo scemate ora, ma che mi frega. Mi chiedo cosa avrebbero detto xboxari e gente simile se il servizio fosse per il processore di xbox360 o altre. In quel caso, molto probabilmente, sarebbero i Sony fanboys a rivoltarsi. Bene bene, mi diverto un sacco quando vedo ste cose ^^
vaio-man
16-03-2007, 15:54
la ibm vende da tempo blade server con cell, e sta costruendo il sostituto di blue gene con cell e opteron ;)
Quanto al processo di folding, si tratta di una delle fasi della sintesi proteica, segnatamente il passaggio dalla struttura terziaria alla quaternaria della molecola.
veramente il folding è tutt'altro: in vivo è il ripiegamento della proteina ad ottenere le sue strutture tridimensionali native. cioè sarebbe il passaggio dalla struttura primaria alla terziaria.
in silico si tenta di predire/calcolare UNA struttura tridimensionale che la proteina dovrebbe assumere data una sequenza aminoacidica di partenza.
comunque benvenga il progetto anche sulla PS3
psychok9
16-03-2007, 15:54
come al solito, ogni volta che qualcuno si degna o comunque prova a fare qualcosa di diverso e di utile per la societa', ci sono sempre commenti che fanno cadere le braccia. attualmente la moda del mondo dei videogiochi vuole xbox360 e wii al centro dei riflettori. bisogna (e non ho capito il motivo) andare per forza contro sony. ho la strana sensazione che se questo progetto folding@home fosse nato su wii o su xbox o su apple, la gente avrebbe gridato al miracolo...
Già non capisco tutto questo odio verso sony, quando fino a qualche anno fa se non avevi sony eri out... ma lol da 1 eccesso all'altro...
Io non ho mai avuto PSx per via della grafica (troppo "sporca" x i miei gusti), ma devo dire che la PS3 mi ha piacevolmente colpito... salvo qualche intoppo penso anche di poter partecipare al progetto. Unico neo: quanto consumerà/riscalderà/durerà con il Folding a lavoro?
gabi.2437
16-03-2007, 15:56
Sul perchè non c'è client xbox 360 e wii cmq il motivo c'è, o è che sono già impegnati con quello gpu e ps3 o che quelle 2 console non sono abbastanza potenti o altro
graphixillusion
16-03-2007, 15:56
eeheh gia' :) io la guerra tra i fanboys non l'ho mai concepita. sono uno di quelli che ama il prodotto in se a prescindere dalla macchina per il quale e' stato concepito. queste cyberwar di idee hanno stancato francamente.. windows vs linux, apple vs intel, xbox vs playstation, nvidia vs ati, intel vs amd. ragazzi basta con i paraocchi! :D
salvodel
16-03-2007, 15:57
sto pensando come mai non l'ibm non si metta a fare cpu del calibro di cell per pc desktop....
cell non è cosi potente nel general purpose aspetto che caratterizza i PC dal resto dell'elettronica.
..
sto pensando come mai non l'ibm non si metta a fare cpu del calibro di cell per pc desktop e supercomputer, visto che sembra essere così potente....
Semplicemente perchè le CPU desktop attuali sono mooooolto più performanti del Cell. (EDIT: anticipato di due minuti :) )
"Supercomputer" con Cell ce ne sono (non molti però), ma sono utilizzati in particolari ambiti dove il Cell si comporta meglio di CPU "general purpose".
Se avessi una PS3 col cavolo che ci farei andare il "Folding@home" visto che l'unico guadagno sarebbe quello dell'Enel (vedi bollette) e sicuramente sarebbero di più i morti causati dall'inquinamento causato per produrre l'energia per alimentare i Cell che le persone salvate dalle scoperte derivate dal F@H (pessimista ma realista :cry: )
Per avere il Petaflop ci vogliono anche qualche centinaio di GigaWatt (o gigovat :confused: come diceva lo "sienziato" di "Ritorno al futuro" :D )
supertigrotto
16-03-2007, 16:00
Ragazzi,non fatevi ingannare!
Sony sta diventando peggio delle case farmaceutiche,ora specula pure su questo pur di vendere il proprio prodotto.
Cell è un processore scalare,mica Dio!
Guardate che sono già dei gran bastardi quelli delle case farmaceutiche(sto facendo una mole di ricerche per la mamma di una mia amica malata di tumore per trovare delle cure alternative o sperimentali)raccontandoti un sacco di balle,ora ci si mette pure sony per vendere le ps3.
Spero che sony vada in fallimento dopo questo.......
Comunque sono tutte eresie quelle che dicono che sul cell il folding@home funziona meglio che sui pc,poi vorrei vedere chi sarà così gentile da lasciare la ps3 accesa almeno 8 ore al giorno.
Ora come ora mi vergogno di aver acquistato prodotti sony come ps1 autoradio etc da degli sciacalli.....
Tutto solo per vendere........e se ci ragionate e fate delle ricerche capirete perchè!!!!
gabi.2437
16-03-2007, 16:01
Ma lo sapete che quelli di folding@home han fatto il client ps3 solo per aver ulteriore potenza? Non c'è sotto un GomBloDDo eh...e non è non partecipando a questi progetti (peraltro tutti di varie università, le case farmaceutiche hanno i loro supercomputer)
Nessuno mette in dubbio la sua utilità...il punto è che quando arrivi a casa...stanco magari di una giornata di lavoro...accendi la ps3/x360/wii e la metti a lavorare 2 ore con il calcolo distribuito o ci giochi?
psychok9
16-03-2007, 16:02
x supertigrotto
"Anche il diavolo potrebbe fare una cosa buona senza volerlo..."
Con questo voglio dire, sono società per azioni, quindi fanno lucro (ovvio), se per sbaglio ci scappa che sono veloci a fare calcoli scientifici (cerca su Wikipedia il Cell) non è un male.
gabi.2437
16-03-2007, 16:03
Nessuno mette in dubbio la sua utilità...il punto è che quando arrivi a casa...stanco magari di una giornata di lavoro...accendi la ps3/x360/wii e la metti a lavorare 2 ore con il calcolo distribuito o ci giochi?
Entrambe, è proprio lì il trucco del calcolo distribuito, sfruttare la potenza non usata da giochi o altro (un gioco non deve mica usar l'hardware al 100% eh...)
Sarebbe carino se Sony offrisse degli sconti per eventuali servizi a pagamento legati alla ps3 a chi partecipa attivamente al progetto. Con due o tre milioni di questi aggeggini a lavorare folding farebbe un bel salto in quanto a potenza.
ciao ;)
gabi.2437
16-03-2007, 16:05
Quello si ma la sony non è direttamente legata a quelli di folding@home
Stessa cosa sarebbe col pc, con 2 o 3 milioni di pc che partecipano...susu
Sarebbe carino se Sony offrisse degli sconti per eventuali servizi a pagamento legati alla ps3 a chi partecipa attivamente al progetto. Con due o tre milioni di questi aggeggini a lavorare folding farebbe un bel salto in quanto a potenza.
ciao ;)
Se ci credessero seriamente sì...per quanto mi riguarda è solo un modo per fare pubblicità alla console che al momento fatica a ingranare...magari mi sbaglio e poi in futuro si aprirà uno scenario del genere ma conoscendo la fama di sparapalle di Sony resto solo perplesso.
nonikname
16-03-2007, 16:13
Tanto per capire quale sarà la malleabilità di questo "giocattolino" pensate solo a Yellow Dog Linux...
Ecco un intervista (GDC) a Kai Staats , Co FOndatore e CEO di Terra soft Solutions / Yellow Dog Linux , con tanto di distribuzione funzionante con firefox , mouse , tastiera e un macello di applicazioni..
Mi sa che un Blu-ray non lo riempiono cmq.. :sofico:
PlayStation 3 - GDC 07 Yellow Dog Linux Interview : 30Mb (circa) (http://www.gametrailers.com/downloadnew.php?id=17786&type=mov&f=) 480x270 mov
PlayStation 3 - GDC 07 Yellow Dog Linux Interview HD : 100MB (http://www.gametrailers.com/downloadnew.php?id=17785) 852x480 mov
Edit: i link funzionano solo dal forum : non mi chiedete il perchè...
essereumano
16-03-2007, 16:24
Ragazzi non vi fate fregare!!!
Sonyha tirato fuori questo progetto che in realtà utilizzerà le Ps3 come zombies per impadronirsi del mondo e mutilare orrendamente la gente...
Oh ma se anche in queste notizie ci trovate il marcio ragazzi staccatevi un secondo da internet... è un consiglio...
graphixillusion
16-03-2007, 16:33
ragazzi, secondo me state esagerando. insomma questa cosa del folding@home e' una cosa in piu' che se uno vuole puo' attivare o disattivare senza il minimo problema. io non penso che la gente compri ps3 perche' si puo' fare il folding@home. e' una cosa aggiuntiva. sempre meglio avere qualcosa in piu' che qualcosa in meno no? poi se questo servizio ha anche la minima possibilità di fare qualcosa di buono xke' no? si sa che la medaglia ha sempre due facce. poi se il servizio e' ritenuto utile o meno questo e' opinabile. l'importante e' avere la voglia di fare qualcosa di buono per la società. quantomeno provarci insomma... lasciamo perdere le cose tipo il cell e' potente oppure no xke' questi sono discorsi che trascendono dal vero scopo che c'e' dietro il folding@home...
essereumano
16-03-2007, 16:34
straquoto
Semplicemente perchè le CPU desktop attuali sono mooooolto più performanti del Cell. (EDIT: anticipato di due minuti :) )
"Supercomputer" con Cell ce ne sono (non molti però), ma sono utilizzati in particolari ambiti dove il Cell si comporta meglio di CPU "general purpose".
Alte performance in floating-point possono fare comodo pure sui sistemi desktop, sopratutto per l'engine fisico dei videogame.
Rumor vociferano che AMD sia intenzionata a integrare in fusion il Cell, e di per se l'idea sarebbe eccellente. Attualmente il Cell "1.0" (8 SPE+1 PPE, 3,2 Ghz a 90 nm) ha una capacità di 204,8 Gigaflops, circa 2 volte e mezzo le performance di un quad-core intel. I punti di forza del Cell non sono solo questi: è molto economico per le prestazioni che offre. :)
Rumor vociferano che AMD sia intenzionata a integrare in fusion il Cell, e di per se l'idea sarebbe eccellente. Attualmente il Cell "1.0" (8 SPE+1 PPE, 3,2 Ghz a 90 nm) ha una capacità di 204,8 Gigaflops, circa 2 volte e mezzo le performance di un quad-core intel. I punti di forza del Cell non sono solo questi: è molto economico per le prestazioni che offre. :)
Però sono in singola precisione. In precisione doppia non è molto efficiente: circa 10 volte più lento (cioè come un Pentium 4 di fascia alta, comunque). Ma ho letto che IBM sta lavorando una un Cell ottimizzato anche per la doppia precisione.
Inoltre sarebbe interessante sapere a che frequenza si possono spingere i nuovi Cell a 65nm. Certo sulla PS3 li faranno comunque andare a 3.2Ghz, ma in altri ambiti potrebbero sfruttarli al massimo. Già i 3.2Ghz sono conservativi a 90nm: i prototipi erano stati mostrati a 4.6 Ghz!
essereumano
16-03-2007, 17:09
Bestia!!! 4.6ghz!!! sai che overclokki alla ps3...
Shinnok Drako
16-03-2007, 17:27
Ragazzi,non fatevi ingannare!
Sony sta diventando peggio delle case farmaceutiche,ora specula pure su questo pur di vendere il proprio prodotto.
Cell è un processore scalare,mica Dio!
Guardate che sono già dei gran bastardi quelli delle case farmaceutiche(sto facendo una mole di ricerche per la mamma di una mia amica malata di tumore per trovare delle cure alternative o sperimentali)raccontandoti un sacco di balle,ora ci si mette pure sony per vendere le ps3.
Spero che sony vada in fallimento dopo questo.......
Comunque sono tutte eresie quelle che dicono che sul cell il folding@home funziona meglio che sui pc,poi vorrei vedere chi sarà così gentile da lasciare la ps3 accesa almeno 8 ore al giorno.
Ora come ora mi vergogno di aver acquistato prodotti sony come ps1 autoradio etc da degli sciacalli.....
Tutto solo per vendere........e se ci ragionate e fate delle ricerche capirete perchè!!!!
A dire la verità... io non so se scaricherò/utilizzerò ste programmino. E poi scusa ma Sony non sta obbligando nessuno ad utilizzarlo, puoi benissimo fare meno.
E soprattutto non credo che Sony punti su f@h per la vendita delle sue PS3, siamo videogiocatori, non scenziati e se proprio vogliamo aiutare la ricerca possiamo contibuire. Capirei il tuo post se l'annuncio fosse:
"Sony con f@h ti regala 1 coniglietta di Playboy alla settimana e 1000 euro per ogni ora che utilizzi il servizio!!!!!"
Allora sì, sarebbe veramente triste (beh... non proprio triste per me ;P ma non ci farebbe una bella figura)
Però sono in singola precisione. In precisione doppia non è molto efficiente: circa 10 volte più lento (cioè come un Pentium 4 di fascia alta, comunque). Ma ho letto che IBM sta lavorando una un Cell ottimizzato anche per la doppia precisione.
Inoltre sarebbe interessante sapere a che frequenza si possono spingere i nuovi Cell a 65nm. Certo sulla PS3 li faranno comunque andare a 3.2Ghz, ma in altri ambiti potrebbero sfruttarli al massimo. Già i 3.2Ghz sono conservativi a 90nm: i prototipi erano stati mostrati a 4.6 Ghz!
Le frequenze del Cell a 65 nm possono arrivare fino a 6 Ghz.
http://forum.beyond3d.com/showthread.php?t=37230
Qui anche altre informazioni sull'evoluzione di tale architettura:
http://forum.beyond3d.com/showthread.php?t=36335
Per il 2010 supererà il teraflops, ed è un numero conservativo.:)
Matrixbob
16-03-2007, 17:40
Era ora! :O
Anche io partecipo al calcolo ditribuito su piattaforma BOINC della Berkeley university e non ho mai rotto 1 componente del mio PC.
Questo lo dico perchì ha dubbi in proposito del HW.
Salut e joinate il team che ho in "firma".
Matrixbob
16-03-2007, 17:45
Nessuno mette in dubbio la sua utilità...il punto è che quando arrivi a casa...stanco magari di una giornata di lavoro...accendi la ps3/x360/wii e la metti a lavorare 2 ore con il calcolo distribuito o ci giochi?
Dipende da cosa ci fai con la PS3. Se in casa la tua PS3 fa 1 po' tutto: stereo, lettore DVD, sistema d'informazione news, meteo ed altro. Beh allora per dargli corrente senza sfruttarla allora tanto è bene lasciarla lavorare al progetto medico no?!
Matrixbob
16-03-2007, 17:47
Ragazzi non vi fate fregare!!!
Sonyha tirato fuori questo progetto che in realtà utilizzerà le Ps3 come zombies per impadronirsi del mondo e mutilare orrendamente la gente...
Oh ma se anche in queste notizie ci trovate il marcio ragazzi staccatevi un secondo da internet... è un consiglio...
Ecco bravo staccati da I e vai a farti 1 bel bagno caldo che ne hai bisogno. ...
se non sbaglio il cell su ps3 è un pò castrato da quello reale mi pare 6spe e 2.8ghz di frequenza
SolidSnake587
16-03-2007, 19:55
Solo io resto dell'idea che una console DEVE servire solo per giocare?
se non sbaglio il cell su ps3 è un pò castrato da quello reale mi pare 6spe e 2.8ghz di frequenza
Ha 8 SPE ma una disabilitata via hardware per aumentare la resa produttiva dei processori. Quindi utilizzabili sono 7 a 3,2 Ghz :)
dolcenero
16-03-2007, 21:02
sto pensando come mai non l'ibm non si metta a fare cpu del calibro di cell per pc desktop e supercomputer, visto che sembra essere così potente....
forse perchè il Cell è progettato e realizzato dal consorzio STI??? Sony, IBM, Toshiba??? :D
sul sito ibm ci sono svariati paper sull'argomento e anche molto interessanti...
bye
piratikkio
16-03-2007, 21:06
mai sentito di questo progetto, ma appena entrerò in possesso
della macchina, contribuirò anch'io......
blackshard
16-03-2007, 21:44
Io dico:
furbi all'Università di Stanford: i fessacchiotti si comprano la playstation 3 e ci fanno girare folding@home, loro si risparmiano le spese di (costoso) hardware ed elettricità. Ragionamento in perfetto stile aziendale! Fantastico! :rolleyes:
Se tanto mi da tanto, perché non si comprano 10.000 cell da ibm (o magari 10.000 playstation 3) e si fanno i cluster per cacchi loro?
furbi quelli di Sony: prontissimi a cogliere al balzo la pubblicità innescata da una cosa del genere, anche se non c'azzecca proprio niente per quello che la playstation 3 si presuppone dovrebbe fare: console da gioco. "playstation 3 con il firmware 2.15 vi pulirà anche il sedere!" :rolleyes:
Sembra tanto la storia di ageia, nessuno la vuole per giocarci, allora puntano sul professionale, ma ovviamente qui Sony si aspetta solo il ritorno in termini pubblicitari, visto che il professionale è saldamente nelle mani di altri e, come al solito, si riscopre sempre la solita acqua calda... (chi ha detto GPU?)
gabi.2437
16-03-2007, 22:01
Io dico:
furbi all'Università di Stanford: i fessacchiotti si comprano la playstation 3 e ci fanno girare folding@home, loro si risparmiano le spese di (costoso) hardware ed elettricità. Ragionamento in perfetto stile aziendale! Fantastico! :rolleyes:
Se tanto mi da tanto, perché non si comprano 10.000 cell da ibm (o magari 10.000 playstation 3) e si fanno i cluster per cacchi loro?
furbi quelli di Sony: prontissimi a cogliere al balzo la pubblicità innescata da una cosa del genere, anche se non c'azzecca proprio niente per quello che la playstation 3 si presuppone dovrebbe fare: console da gioco. "playstation 3 con il firmware 2.15 vi pulirà anche il sedere!" :rolleyes:
Sembra tanto la storia di ageia, nessuno la vuole per giocarci, allora puntano sul professionale, ma ovviamente qui Sony si aspetta solo il ritorno in termini pubblicitari, visto che il professionale è saldamente nelle mani di altri e, come al solito, si riscopre sempre la solita acqua calda... (chi ha detto GPU?)
Vedo che tu non conosci bene la situazione della ricerca universitaria, che dici, i 10.000 cell da ibm glieli paghi tu?
Pensi che la Stanford University navighi nell'oro? :rolleyes: :rolleyes:
Gente sveglia, folding esiste da ANNI, il client per ps3 è una cosa extra, non c'è il GOMBLODDO della sony che aspetta il ritorno pubblicitario o altro
^TiGeRShArK^
16-03-2007, 22:22
come al solito, ogni volta che qualcuno si degna o comunque prova a fare qualcosa di diverso e di utile per la societa', ci sono sempre commenti che fanno cadere le braccia. attualmente la moda del mondo dei videogiochi vuole xbox360 e wii al centro dei riflettori. bisogna (e non ho capito il motivo) andare per forza contro sony. ho la strana sensazione che se questo progetto folding@home fosse nato su wii o su xbox o su apple, la gente avrebbe gridato al miracolo...
Non mi pare che si sia andati contro sony in questa news.
Questa imho è la migliore notizia uscita sulla PS3.
Almeno servirà a qualcosa di utile e non solo x giocare.
Io ho accolto MOLTO positivamente questa notizia.
sulla xbox 360 non si può fare nulla di simile se non sfruttando R500..e quindi dubito che sia possibile vedere contemporaneamente le proteine con HDR e AA (sti cazzi?!?!? :asd: ).
Scherzi a parte, spero che anke microsoft si svegli e decida di fare una versione equivalente per R500 dato che i presupposti dovrebbero esserci (vedi folding@home su x1900xt).
capitan_crasy
16-03-2007, 22:23
sto pensando come mai non l'ibm non si metta a fare cpu del calibro di cell per pc desktop e supercomputer, visto che sembra essere così potente....
In teoria IBM è supporter di AMD, ma dovrebbero darsi 1 smossa ^_^
Ci sono buone possibilità che il Cell entri come Co-Processore nella futura tecnologia TORRENZA di AMD...
^TiGeRShArK^
16-03-2007, 22:26
Sul perchè non c'è client xbox 360 e wii cmq il motivo c'è, o è che sono già impegnati con quello gpu e ps3 o che quelle 2 console non sono abbastanza potenti o altro
o forse che le CPU delle due console non sono abbastanza specializzate come il Cell?
Non è questione di potenza.
è questione di potenza in ben determinati ambiti ;)
X il gioco l'xbox 360 è esattamente equivalente alla ps3 a livello di potenza
^TiGeRShArK^
16-03-2007, 22:29
Ragazzi,non fatevi ingannare!
Sony sta diventando peggio delle case farmaceutiche,ora specula pure su questo pur di vendere il proprio prodotto.
Cell è un processore scalare,mica Dio!
Guardate che sono già dei gran bastardi quelli delle case farmaceutiche(sto facendo una mole di ricerche per la mamma di una mia amica malata di tumore per trovare delle cure alternative o sperimentali)raccontandoti un sacco di balle,ora ci si mette pure sony per vendere le ps3.
Spero che sony vada in fallimento dopo questo.......
Comunque sono tutte eresie quelle che dicono che sul cell il folding@home funziona meglio che sui pc,poi vorrei vedere chi sarà così gentile da lasciare la ps3 accesa almeno 8 ore al giorno.
Ora come ora mi vergogno di aver acquistato prodotti sony come ps1 autoradio etc da degli sciacalli.....
Tutto solo per vendere........e se ci ragionate e fate delle ricerche capirete perchè!!!!
:rolleyes:
si può criticare davvero TUTTO a sony, ma questo proprio è assurdo :rolleyes:
Sony lo fa indubbiamente per pubblicità, ma quantomeno la ricerca ne ricaverà un grandissimo giovamento da questi calcoli.
ed è CERTAMENTE molto + fruttuoso che giocare a tekken X (con x un numero ke va da 0 a N + 1) :rolleyes:
^TiGeRShArK^
16-03-2007, 22:33
Alte performance in floating-point possono fare comodo pure sui sistemi desktop, sopratutto per l'engine fisico dei videogame.
Rumor vociferano che AMD sia intenzionata a integrare in fusion il Cell, e di per se l'idea sarebbe eccellente. Attualmente il Cell "1.0" (8 SPE+1 PPE, 3,2 Ghz a 90 nm) ha una capacità di 204,8 Gigaflops, circa 2 volte e mezzo le performance di un quad-core intel. I punti di forza del Cell non sono solo questi: è molto economico per le prestazioni che offre. :)
ti sei (stranamente :rolleyes: ) dimenticato di aggiungere in Floating Point a precisione singola :rolleyes:
per quelli a doppia precisione devi ridurre la tua cifra di...mmm...praticamente un'inezia...
.....circa 10 volte :asd:
Nessuno si sogna di contestare la potenza in alcuni ambiti ma da qui a propagandarlo come LA soluzione definitiva ce ne passa...
^TiGeRShArK^
16-03-2007, 22:36
Le frequenze del Cell a 65 nm possono arrivare fino a 6 Ghz.
http://forum.beyond3d.com/showthread.php?t=37230
Qui anche altre informazioni sull'evoluzione di tale architettura:
http://forum.beyond3d.com/showthread.php?t=36335
Per il 2010 supererà il teraflops, ed è un numero conservativo.:)
Dopo aver visto la roadmap di Intel ke prevedeva 10 ghz x i Pentium 4 e lo stesso Cell che doveva viaggiare a 4.6 ghz (se non erro) e invece viaggia a molto meno, permettimi...ma sono lievemente scettico :p
L'unica roadmap valida IMHO è una roadmap che possiamo vedere realizzata sotto i nostri occhi :O
x il resto la legge di Murphy è sempre in agguato :asd:
^TiGeRShArK^
16-03-2007, 22:38
Io dico:
furbi all'Università di Stanford: i fessacchiotti si comprano la playstation 3 e ci fanno girare folding@home, loro si risparmiano le spese di (costoso) hardware ed elettricità. Ragionamento in perfetto stile aziendale! Fantastico! :rolleyes:
Se tanto mi da tanto, perché non si comprano 10.000 cell da ibm (o magari 10.000 playstation 3) e si fanno i cluster per cacchi loro?
furbi quelli di Sony: prontissimi a cogliere al balzo la pubblicità innescata da una cosa del genere, anche se non c'azzecca proprio niente per quello che la playstation 3 si presuppone dovrebbe fare: console da gioco. "playstation 3 con il firmware 2.15 vi pulirà anche il sedere!" :rolleyes:
Sembra tanto la storia di ageia, nessuno la vuole per giocarci, allora puntano sul professionale, ma ovviamente qui Sony si aspetta solo il ritorno in termini pubblicitari, visto che il professionale è saldamente nelle mani di altri e, come al solito, si riscopre sempre la solita acqua calda... (chi ha detto GPU?)
:muro:
ancora mi chiedo come si faccia a criticare una notizia POSITIVA in questo modo :muro:
piratikkio
16-03-2007, 22:55
o forse che le CPU delle due console non sono abbastanza specializzate come il Cell?
Non è questione di potenza.
è questione di potenza in ben determinati ambiti
X il gioco l'xbox 360 è esattamente equivalente alla ps3 a livello di potenza
sbagliato, è più potente ps3; non voglio fare console war, ma sta storia sta un pò stancando......
yossarian
16-03-2007, 23:08
sbagliato, è più potente ps3; non voglio fare console war, ma sta storia sta un pò stancando......
ottimo contributo; adesso sarebbe opportuna una disamina tecnica per motivare questa tua affermazione
Ho avuto la tentazione di scriverlo anche io, ma non volevo accendere flames.... Visto che l'hai fatto tu, ti quoto :D
Per carità il folding@home è una applicazione utilissima e dai nobili propositi (sicuramente molto + utile di quella minkiata del seti@home),
Per quale motivo seti sarebbe una minchiata?
Per favore motiva le tue risposte, altrimenti sembrano trollate fatte da un bambino brufoloso al fine di scatenare flame.
Ad esempio io penso che tu sia completamente ignorante in materia e motiverò questa affermazione:
ma questo dimostra ancora una volta che quel processore è utile per applicazioni di nicchia, di certo non è nato per far girare videogames next-gen.,
E' esattamente il contrario, il Cell si dimostra una architettura estremamente flessibile in grado di eseguire gli stessi compiti che possono svolgere le GPU di ultima generazione.
yossarian
16-03-2007, 23:28
E' esattamente il contrario, il Cell si dimostra una architettura estremamente flessibile in grado di eseguire gli stessi compiti che possono svolgere le GPU di ultima generazione.
ma anche no; prova a far fare un rendering al cell e poi ne riparliamo (altro che gpu di ultima generazione :D )
semmai sono le gpu di ultima generazione a riuscire a svolgere compiti non propriamente da gpu (in particolare le ATi a partire dalla serie X1xx0) e le nVidia della serie 8)
^TiGeRShArK^
16-03-2007, 23:30
ottimo contributo; adesso sarebbe opportuna una disamina tecnica per motivare questa tua affermazione
inutile yoss...
io ancora sto aspettando un solo commento tecnico..:cry:
ma a parole, come vedi, sono tutti bravissimi :asd:
yossarian
16-03-2007, 23:32
inutile yoss...
io ancora sto aspettando un solo commento tecnico..:cry:
ma a parole, come vedi, sono tutti bravissimi :asd:
magari tira fuori la storia dei 2 Tflops (di cui 1,8 relativi all'RSX) :D
al posto tuo metterei la richiesta di commenti tecnici in signature :ciapet:
^TiGeRShArK^
16-03-2007, 23:33
E' esattamente il contrario, il Cell si dimostra una architettura estremamente flessibile in grado di eseguire gli stessi compiti che possono svolgere le GPU di ultima generazione.
Da cosa deduci tutto ciò?
stai quindi affermando che anke le X1900 XT, o le stesse R500 di Xbox 360 sono quindi CPU General Purpose a tutti gli effetti?
Io dal canto mio non credo proprio.
Nel loro campo Cell e le GPU dicono certamente la loro.
Ma da lì al General Purpose ce ne corre di acqua sotto i ponti.
Le GPU come il Cell stanno solo muovendo i primi timidi passi in questa direzione.
^TiGeRShArK^
16-03-2007, 23:36
magari tira fuori la storia dei 2 Tflops (di cui 1,8 relativi all'RSX) :D
e bhè...
a leggere certi commenti sul Cell sembra quasi ke se lo compri ti cresce anke l'ucce**o :asd:
Viene proposto come La Soluzione e La Panacea assoluta :asd:
mi ricorda tanto quella diceria che si diceva nel 2000, cioè che la ps2 con l'emotion engine veniva usata per i carrarmati dell'esercito Iraniano :D
che stano, quando un prodotto sony va male, escono sempre notizie come questa, sarà un caso:O
sfatiamo un paio di miti:
1. La PS2 viene esportata come COMPUTER, non come CONSOLE o ELETTRODOMESTICO; in quanto tale, in alcuni paesi "caldi" ne venne vietata l'importazione proprio per la catalogazione della stessa, ovvero COMPUTER e quindi (sulla carta) utilizzabile anche per applicazioni militari.
NESSUNO MAI detto che la sua presunta "potenza" potesse essere usata per altro.
2. PS2 non è andata male, come affermi, anzi è il prodotto più longevo tra tutte le console 128 bit... e ha venduto anche più di psone, se non erro, quindi "le voci" di cui prima non vengono messe per giustificare un prodotto andato male.
3. E' VERO che il cell, può beneficiare del calcolo distribuito, ora che la tecnologia sia sfruttata per i VG o altro è irrilevante, ma se Sony riesce a tirare fuori qualcosa di buono oltre ai VG, anche se alla base c'è un fine commerciale, non vedo dove sia il male.
ma anche no; prova a far fare un rendering al cell e poi ne riparliamo (altro che gpu di ultima generazione :D )
Parliamone :rolleyes: :
http://ps3.console-tribe.com/news/3-3-18582/cell-la-cpu-eclettica-si-da-al-3d.html
Da cosa deduci tutto ciò?
Visto che il Cell riesce ad eseguire gli stessi compiti, e con le stesse ottime prestazioni, di una GPU di ultima generazione (stiamo parlando di folding@home) è sicuramente un buon indizio che il Cell è adatto a far girare i videogames next-gen (visto che mikele contestava questo)
stai quindi affermando che anke le X1900 XT, o le stesse R500 di Xbox 360 sono quindi CPU General Purpose a tutti gli effetti?
No.
^TiGeRShArK^
16-03-2007, 23:59
Parliamone :rolleyes: :
http://ps3.console-tribe.com/news/3-3-18582/cell-la-cpu-eclettica-si-da-al-3d.html
almeno leggi quello ke linki? :asd:
il rendering di un solo frame della scena succitata, su una piattaforma Centrino Duo con il ray-tracer dell'ambiente 3dStudioMax avrebbe richiesto 1 ora e 8 minuto di lavoro! Il binomio Cell-iRT invece ferma la lancetta del cronometro a meno di mezzo secondo per ogni frame.
secondo te quanti videogiocatori trovi in tutto il mondo disposti a giocare ad una media di 2 FPS!!! :asd:
Le latenze del Cell sono assolutamente troppo elevate per genereare un render paragonabile a quello delle pipeline grafiche delle skede odierne.
Ma questo si sapeva già ;)
^TiGeRShArK^
17-03-2007, 00:02
Visto che il Cell riesce ad eseguire gli stessi compiti, e con le stesse ottime prestazioni, di una GPU di ultima generazione (stiamo parlando di folding@home) è sicuramente un buon indizio che il Cell è adatto a far girare i videogames next-gen (visto che mikele contestava questo)
Hai una minima idea della diversità tra i calcoli necessari x qualcosa del tipo di folding@home e i calcoli compiuti da una GPU General Purpose?
ah..
prima di rispondere ti consiglio di rileggere i miei commenti in cui ero felice di questa possibilità offerta da sony ;)
yossarian
17-03-2007, 00:04
Parliamone :rolleyes: :
http://ps3.console-tribe.com/news/3-3-18582/cell-la-cpu-eclettica-si-da-al-3d.html
quindi? :rolleyes:
sei per caso a conoscenza della procedura completa per la realizzazione di quella demo?
yossarian
17-03-2007, 00:05
almeno leggi quello ke linki? :asd:
secondo te quanti videogiocatori trovi in tutto il mondo disposti a giocare ad una media di 2 FPS!!! :asd:
Le latenze del Cell sono assolutamente troppo elevate per genereare un render paragonabile a quello delle pipeline grafiche delle skede odierne.
Ma questo si sapeva già ;)
c'è anche questo da aggiungere
Even though the PS3’s RSX is inaccessible under Linux the smart little system will reach out across the network and leverage multiple IBM QS20 blades to render the complex model, in real-time, with software based ray-tracing. Using IBM’s scalable iRT rendering technology, the PS3 is able to decompose each frame into manageable work regions and dynamically distribute them to blades or other PS3s for rendering. These regions are then further decomposed into sub-regions by the blade’s Cell processors and dynamically dispatched to the heavy lifting SPEs for rendering and image compression. Finished encoded regions are then sent back to the PS3 for Cell accelerated decompression, compositing, and display.
Il tutto per renderizzare una scena del tutto statica, dove l'unico oggetto in movimento è l'osservatore.
^TiGeRShArK^
17-03-2007, 00:19
CUT
Il tutto per renderizzare una scena del tutto statica, dove l'unico oggetto in movimento è l'osservatore.
Ho visto un frammento del filmato in quick time postato e ho pensato che è abbastanza simile a quello ke ha renderizzato il mio Pentium 100 con 8 MB di RAM ai tempi...anzi... quello aveva circa 33000 poligoni... questa scena dubito fortemente che arrivi a questa cifra :asd:
removedrdsaduasdsasdtyasd7asdd1asd
17-03-2007, 00:35
x ^TiGeRShArK^
perché ti ostini a denigrare il cell? se ibm non fosse produttrice anche della cpu della x360, ti direbbe sicuramente che il cell alla cpu della x360 gli farebbe barba e capelli, ma non può per ovvi motivi. il problema è uno solo, il fatto di non conoscerla a fondo o di non saperla programmare non da diritto a dare giudizi negativi. poi riesci ad immaginare questa situazione: ibm, sony e toshiba investono un sacco di milioni di dollari e oltre 5 anni per lo sviluppo del cell, poi arrivi tu e dici "dopo averlo programmato per 5 minuti e dopo aver letto le caratteristiche del cell su xbox tribe posso dire che non è niente di particolare, anzi, in alcuni casi la cpu della x360 è superiore". secondo me, se come programmatore hai dei dubbi sul cell, dovresti mandare una mail ad ibm che ti dirà vita, morte e miracoli del suo potentissimo processore e sicuramente ti darà delle nozioni tecniche che magari potranno farti cambiare anche idea, sai, c'è sempre da imparare. per conto mio, mi fido di ibm. se ibm mi dice che il cell riesce a giocare a calcio, per me il cell riesce a giocare a calcio ;-)
da yossarian
sei per caso a conoscenza della procedura completa per la realizzazione di quella demo?
basta mandare una mail ad ibm e chiedere delle info, prima o poi rispondono. cmq a me hanno impressionato questi dati:
La scena ottenuta è quindi frutto dell'unità di calcolo centrale: il Cell. Per meglio comprendere la portata dell'avvenimento basti pensare che il rendering di un solo frame della scena succitata, su una piattaforma Centrino Duo con il ray-tracer dell'ambiente 3dStudioMax avrebbe richiesto 1 ora e 8 minuto di lavoro! Il binomio Cell-iRT invece ferma la lancetta del cronometro a meno di mezzo secondo per ogni frame.
meno male che il cell in campo grafico è una ciofeca
almeno leggi quello ke linki? :asd:
secondo te quanti videogiocatori trovi in tutto il mondo disposti a giocare ad una media di 2 FPS!!!
Una CPU “normale” impiega 1h18m , il Cell impiega meno di 0,5s.
Visto che è più di 9000 volte più veloce di una CPU ad eseguire il rendering, direi che non se la cava tanto male anche se in questo specifico campo non ottiene le stesse performance di una GPU.
Hai una minima idea della diversità tra i calcoli necessari x qualcosa del tipo di folding@home e i calcoli compiuti da una GPU General Purpose?
Si, ho idea della diversità.
Ti consiglio di rileggerti il mio primo reply: secondo Mikele il fatto che il Cell sia in grado di ottenere ottime performance in folding@home “ dimostra ancora una volta che quel processore è utile per applicazioni di nicchia, di certo non è nato per far girare videogames next-gen.” , per me dimostra esattamente il contrario (anche se ovviamente questa è una condizione necessaria ma non sufficiente a dimostralo).
Il punto è questo, tu con chi concordi?
psychok9
17-03-2007, 01:08
Le frequenze del Cell a 65 nm possono arrivare fino a 6 Ghz.
http://forum.beyond3d.com/showthread.php?t=37230
Qui anche altre informazioni sull'evoluzione di tale architettura:
http://forum.beyond3d.com/showthread.php?t=36335
Per il 2010 supererà il teraflops, ed è un numero conservativo.:)
Se e' davvero così scalabile sarebbe una buona cosa che Sony, con la sua prossima console, punti ancora su questo processore in modo da far partire avvantaggiate le aziende che publicano videogiochi e dare risultati subito migliori :)
^TiGeRShArK^
17-03-2007, 01:11
x ^TiGeRShArK^
perché ti ostini a denigrare il cell?
:rolleyes:
allora..
non so se hai notato quello ke ho scritto finora in questa news, ma addirittura ero felice di tutto questo.
Io no nsto affatto denigrando il Cell, lo sto riportando alla realtà, ovvero ribadisco che NON è ASSOLUTAMENTE una panacea ma è un processore che in alcuni ambiti dice la sua.
Mi pare un opininione molto + ponderata rispetto a chi lo eleva a "processore super-potente" o "soluzione definitiva" :rolleyes:
se ibm non fosse produttrice anche della cpu della x360, ti direbbe sicuramente che il cell alla cpu della x360 gli farebbe barba e capelli, ma non può per ovvi motivi. il problema è uno solo, il fatto di non conoscerla a fondo o di non saperla programmare non da diritto a dare giudizi negativi.
Non mi pare che alcuno dei qui presenti abbia mai affermato ke la X-CPU sia migliore del CELL.
Al massimo io ho affermato che x i gioki xbox 360 e ps3 a livello di potenza pure possono essere considerate equivalenti.
Ah.... e ovviamente evitando di citare il mio odio x i processori in-order (famiglia di cui fanno parte sia la x-cpu ke il cell)
poi riesci ad immaginare questa situazione: ibm, sony e toshiba investono un sacco di milioni di dollari e oltre 5 anni per lo sviluppo del cell, poi arrivi tu e dici "dopo averlo programmato per 5 minuti e dopo aver letto le caratteristiche del cell su xbox tribe posso dire che non è niente di particolare, anzi, in alcuni casi la cpu della x360 è superiore".
quotami dove avrei detto qualcosa del genere per favore ;)
Se non estrapoli i miei post a caso dubito che tu possa mai trovare una simile castroneria ;)
Come ho già detto circa 10 secondi fa la XBOX nel complesso, nell'ambito ludico, potrebbe essere superiore al Cell alla lunga data la superiorità del chip video.
Io non ho ai detto ke la X-CPU è superiore al Cell in tutto e per tutto (anke se in determinati ambiti è indubbiamente superiore, checchè tu ne dica).
secondo me, se come programmatore hai dei dubbi sul cell, dovresti mandare una mail ad ibm che ti dirà vita, morte e miracoli del suo potentissimo processore e sicuramente ti darà delle nozioni tecniche che magari potranno farti cambiare anche idea, sai, c'è sempre da imparare.
e secondo te non avrei mai letto la documentazione ufficiale del cell? :asd:
credo che la discussione qui sul forum riguardo al Cell (riguardo a rumours, opinioni e documentazione ufficiale) sia arrivata al guinness dei primati per lunghezza...
e non mi pare che tu abbia mai scritto nulla ai tempi ;)
per conto mio, mi fido di ibm. se ibm mi dice che il cell riesce a giocare a calcio, per me il cell riesce a giocare a calcio ;-)
bhè..contento tu.
Io dopo anni e anni e ancora anni nel mondo dell'IT ho imparato solo a fidarmi di quello che vedo con i miei occhi lasciando perdere totalmente le dichiarazioni di puro marketing delle varie aziende ;)
da yossarian
sei per caso a conoscenza della procedura completa per la realizzazione di quella demo?
basta mandare una mail ad ibm e chiedere delle info, prima o poi rispondono. cmq a me hanno impressionato questi dati:
La scena ottenuta è quindi frutto dell'unità di calcolo centrale: il Cell. Per meglio comprendere la portata dell'avvenimento basti pensare che il rendering di un solo frame della scena succitata, su una piattaforma Centrino Duo con il ray-tracer dell'ambiente 3dStudioMax avrebbe richiesto 1 ora e 8 minuto di lavoro! Il binomio Cell-iRT invece ferma la lancetta del cronometro a meno di mezzo secondo per ogni frame.
meno male che il cell in campo grafico è una ciofeca
infatti ti è lievemente sfuggito il commento in cui dicevo che il mio Pentium 100 ai tempi risuciva a fare qualcosa di comparabile con una scena di circa 33000 poligoni ... ah... ovviamente in ray-tracing....anche perchè ai tempi il radiosity, che NON è stato utilizzato per questa scena ma ad oggi viene utilizzato da TUTTI i software 3D, ancora non esisteva :asd:
psychok9
17-03-2007, 01:14
Ragazzi la finite di parlare a vanvera da fanboy contro Sony!? Non esistono aziende "cattive" e aziende "buone" :O, quindi se è potente bene! Se domani esce xyz con un altra cpu ancora più potente bene! E' la vita!
Questo Cell tecnicamente mi sorprende... sembra veramente potente e spero che imparino a sfruttarlo a dovere... poi riuscire ad utilizzarlo su piattaforma pc sarebbe un sogno! Una bella chissà che velocità nella conversione HD tra formati diversi!
^TiGeRShArK^
17-03-2007, 01:17
Una CPU “normale” impiega 1h18m , il Cell impiega meno di 0,5s.
Visto che è più di 9000 volte più veloce di una CPU ad eseguire il rendering, direi che non se la cava tanto male anche se in questo specifico campo non ottiene le stesse performance di una GPU.
guarda..
alle sparate del marketing ho imparato a non dare ascolto circa 10 anni fa.
Se vuoi pure io ti posso scrivere un programma che renderizza una scena obiettivamente vomitevole dal punto di vista della qualità a cui ci hanno abituato i giochi odierni (e sfido chiunque abbia visto almeno una parte del filmato a dire il contrario) che impiega 100 volte di + su un core duo rispetto ad un cell.
Si, ho idea della diversità.
Ti consiglio di rileggerti il mio primo reply: secondo Mikele il fatto che il Cell sia in grado di ottenere ottime performance in folding@home “ dimostra ancora una volta che quel processore è utile per applicazioni di nicchia, di certo non è nato per far girare videogames next-gen.” , per me dimostra esattamente il contrario (anche se ovviamente questa è una condizione necessaria ma non sufficiente a dimostralo).
Il punto è questo, tu con chi concordi?
Io concordo col fatto che il Cell, in alcuni ambiti è davvero un ottimo processore.
sono felicissimo di questa scelta di sony che finalmente offre molte ooportunitò alla ricerca del folding@home.
Ma di certo non vado a dire che il Cell è la scelta ottimale per il calcolo General Puropose o che è la soluzione di calcolo definitiva....semplicemente perchè questo NON è assolutamente vero.
Ci sono moltissime soluzioni diverse dal cell che in altri ambiti hanno prestazioni molto superiori.
Il cell non è altro che un processore ottimo per quello per cui è stato pensato.
Ovvero l'elaborazione di flussi di dati (Non per niente è uno STREAM processor).
^TiGeRShArK^
17-03-2007, 01:21
Ragazzi la finite di parlare a vanvera da fanboy contro Sony!? Non esistono aziende "cattive" e aziende "buone" :O, quindi se è potente bene! Se domani esce xyz con un altra cpu ancora più potente bene! E' la vita!
Questo Cell tecnicamente mi sorprende... sembra veramente potente e spero che imparino a sfruttarlo a dovere... poi riuscire ad utilizzarlo su piattaforma pc sarebbe un sogno! Una bella chissà che velocità nella conversione HD tra formati diversi!
spero tu non ti stia riferendo a me o a yossarian (dubbio lecito dato che non vedo molti altri commenti a quest'ora) perchè altrimenti ti consiglio di rileggere attentamente i nostri commenti.
yossarian
17-03-2007, 01:22
x ^TiGeRShArK^
da yossarian
sei per caso a conoscenza della procedura completa per la realizzazione di quella demo?
basta mandare una mail ad ibm e chiedere delle info, prima o poi rispondono. cmq a me hanno impressionato questi dati:
non ne ho bisogno, dato che la conosco (leggi quanto ho postato sopra, nella parte in inglese)
x ^TiGeRShArK^
La scena ottenuta è quindi frutto dell'unità di calcolo centrale: il Cell. Per meglio comprendere la portata dell'avvenimento basti pensare che il rendering di un solo frame della scena succitata, su una piattaforma Centrino Duo con il ray-tracer dell'ambiente 3dStudioMax avrebbe richiesto 1 ora e 8 minuto di lavoro! Il binomio Cell-iRT invece ferma la lancetta del cronometro a meno di mezzo secondo per ogni frame.
meno male che il cell in campo grafico è una ciofeca
infatti è una ciofeca; un centrino duo non deve fare rendering, per quello ci sono le schede grafiche. Se vuoi confrontare il cell con applicazioni grafiche, confrontalo con una gpu, in modo che potrai renderti conto del fatto che non c'è competizione. Dovrei dotarmi di una ps3 più un'altra decina di dispositivi del tipo ps3 o server blade per fare il lavoro che una singola gpu riesce, da sola, a fare meglio?
psychok9
17-03-2007, 01:27
spero tu non ti stia riferendo a me o a yossarian (dubbio lecito dato che non vedo molti altri commenti a quest'ora) perchè altrimenti ti consiglio di rileggere attentamente i nostri commenti.
Ho avuto l'impressione che ci siate andati 1 pò pesanti, poi magari mi sbaglierò :)
Addirittura paragonarlo al pentium100... :eek:
psychok9
17-03-2007, 01:29
infatti è una ciofeca; un centrino duo non deve fare rendering, per quello ci sono le schede grafiche. Se vuoi confrontare il cell con applicazioni grafiche, confrontalo con una gpu, in modo che potrai renderti conto del fatto che non c'è competizione.
Cosa centra? Se il cell ti fa pure il caffè... mica cè da sputare anche sapendo che il bar te lo fa meglio :)
Insomma alla fine conta il risultato prezzo-costo/risultato finale...
^TiGeRShArK^
17-03-2007, 01:33
Ho avuto l'impressione che ci siate andati 1 pò pesanti, poi magari mi sbaglierò :)
Addirittura paragonarlo al pentium100... :eek:
ehmmm..
avevo scritto che una scena di complessità simile era stata renderizzata dal mio pentium 100...
Con ciò non intendevo dire che il cell ha la potenza di calcolo di un pentium 100...
Intendevo dire che con le sparate del marketing e con le demo realizzate in questo modo si può far credere che renderizzare scene simili sia molto oneroso e che il cell sia la soluzionie ottimale.
Ebbene, questo non è vero dato che le schede video odierne renderizzano giochi con una grafica MOLTO ma MOLTO migliore rispetto a quella di questa scena (e sfido chiunque a provare il contrario :p).
E, d'altro canto, la potenza di calcolo necessaria, se utilizzato un programma adeguatamente ottimizzato per il rendering, per il calcolo di questa scena è molto ma molto inferiore di quella che si vuol far credere in quel link ;)
^TiGeRShArK^
17-03-2007, 01:37
Cosa centra? Se il cell ti fa pure il caffè... mica cè da sputare anche sapendo che il bar te lo fa meglio :)
Insomma alla fine conta il risultato prezzo-costo/risultato finale...
e il cellsulla ps3 imho non raggiunge assolutamente quest'obiettivo...soprattutto analizzando il rapporto qualità/prezzo :p
yossarian
17-03-2007, 01:42
Ho avuto l'impressione che ci siate andati 1 pò pesanti, poi magari mi sbaglierò :)
Addirittura paragonarlo al pentium100... :eek:
in certi casi vale la pena di etremizzare certi concetti; d'altra parte, mi pare che si esageri anche quando si paragoni il cell ad una moderna gpu: il cell non può essere paragonato neppure ad una gpu di 3 generazioni fa e non bastano 200 Gflops per colmare le lacune dovute ad una pipeline assolutamente incapace di nascondere le latenze (tra l'altro, anche numericamente parlando, per quanto la cosa abbia poco senso, 200 Gflops, per una gpu, non sono neppure tanti).
Prima si parlava di fantomatici 2 Tflops di potenza di calcolo della ps3; poi si scopre che di questi, ben 1,8 sarebbero da attribuire a RSX che altro non è che un G70, la cui potenza di calcolo teorica (che è ben superiore a quella reale) è ben al di sotto dei 400 Gflops in fp16 e poco sopra i 200 in fp32 (d'altra parte, se NV avesse avuto questo mostro da quasi 2 Tflops, cosa si metteva a progettare G80 che non arriva neppure a 400 Gflops teorici?).
Adesso pare che il cell sia in grado di fare tutto e di farlo anche di dispositivi progettati per quegli usi specifici (vedi il confronto con le attuali gpu); se permetti le esagerazioni stanno altrove. :D
yossarian
17-03-2007, 01:47
Cosa centra? Se il cell ti fa pure il caffè... mica cè da sputare anche sapendo che il bar te lo fa meglio :)
Insomma alla fine conta il risultato prezzo-costo/risultato finale...
il problema è che il cell non fa pure il caffè; quella è sciacquatura di piatti spacciata per caffè. Se a te o qualcun altro va di berla, accomodatevi pure.
I fatti parlano chiaro e dicono che sony, per la parte grafica, ha dovuto ripiegare su un g70 perchè il cell non era in grado di fare rendering. Il resto sono chiacchiere da bar o dimostrazioni accademiche fini a sé stesse (come quella di IBM al GDC).
Tra l'altro, ripeto il concetto: se devo utilizzare una ventina di cell per ottenere quello che una gpu fa da sola e meglio, la cosa diventa anche antieconomica (oltre che ridicola)
psychok9
17-03-2007, 01:57
Quindi quella scena potrei renderizzarla anch'io, a quella risoluzione, con il mio A64X2 2.6GHz?
Non avendo comunque conoscenze tecniche a riguardo non posso far altro che fidarmi di voi :)
Comunque la news parla correttamente di molta potenza calcoli scientifici e quella mi sembra un ottima cosa.
yossarian
17-03-2007, 02:16
Quindi quella scena potrei renderizzarla anch'io, a quella risoluzione, con il mio A64X2 2.6GHz?
Non avendo comunque conoscenze tecniche a riguardo non posso far altro che fidarmi di voi :)
quella scena è solo una demo, con una telecamera che si muove (piuttosto lentamente) seguendo una direzione preimpostata. Ossia, le condizioni migliori per una cpu come il cell; e nonostante tutto, la scena è ben lontana da quello che si ottiene in game al giorno d'oggi e le prestazioni sono ridicole (ripeto, il confronto, su un rendering, va fatto con una gpu). Detto questo, aggiungo che il cell, così com'è, non potrà mai sostituire una gpu.
Discorso potenza: non ha senso sparare numeri a caso; 200 Gflops possono essere tanti o pochi, a seconda dell'applicazione. I calcoli di tipo scientifico sono una di quelle applicazioni in cui il cell eccelle :D .
blackshard
17-03-2007, 02:27
Dalla notizia sembra che cell sia "Il Processore", più potente di qualunque altra cosa vista fin'ora, e lo si dimostra con numeri e numeri che di senso compiuto ne hanno ben poco. Questo serve quasi esclusivamente per inculcare nella mente del consumatore che la PS3 è la console più potente, e il consumatore pensa automaticamente che offre i giochi più belli. Basta guardare alcuni dei molti commenti del thread.
:muro:
ancora mi chiedo come si faccia a criticare una notizia POSITIVA in questo modo :muro:
Molto semplicemente analizzandola non per quello che sembra ma per quello che è. E questa è quasi del tutto pubblicità. Pensi che Sony non abbia foraggiato gli studi alla Stanford per far produrre folding@home per PS3? Addirittura integrarlo nel firmware... le aziende si battono contro il software homebrew, Sony in primis, e ora accolgono allegramente un software simile.
Tra l'altro, ripeto il concetto: se devo utilizzare una ventina di cell per ottenere quello che una gpu fa da sola e meglio, la cosa diventa anche antieconomica (oltre che ridicola)
Esatto. Questo è il punto del discorso: ogni architettura ha dei trade-off, nessuna architettura può fare tutto con il massimo delle prestazioni raggiungibili e con il costo economico più basso.
piratikkio
17-03-2007, 04:09
togershork
come già ha detto qlc1, non significa che la potenza maggiore di ps3 la avvantaggerà nella resa dei giochi.......però è più potente: questo è un fatto oggettivo....
ti consiglio il sito della ibm, là puoi leggerti tutte le informazione che vuoi.
i programmatori (quelli veri), si stanno spaccando il cu!o per capire come far rendere al meglio il cell; e ci hanno investito tanto di quel tempo e denaro, che forse mi perdonerai se considero le tue impressioni, senza realmente considerarle......e poi non hai dato nessuna spiegazione tecnica, quindi non penso che tu abbia il diritto di chiederne......
cmq ti ho dato la dritta del sito della ibm, forse puoi anche capirci qlcosina se ti concentri.....
Matrixbob
17-03-2007, 08:54
Solo io resto dell'idea che una console DEVE servire solo per giocare?
Ma PS3 non è stata concepita x fare solo da console. Quindi non è solo 1 console. WII quasi.
Matrixbob
17-03-2007, 09:02
Io dico:
furbi all'Università di Stanford: i fessacchiotti si comprano la playstation 3 e ci fanno girare folding@home, loro si risparmiano le spese di (costoso) hardware ed elettricità. Ragionamento in perfetto stile aziendale! Fantastico! :rolleyes:
Se tanto mi da tanto, perché non si comprano 10.000 cell da ibm (o magari 10.000 playstation 3) e si fanno i cluster per cacchi loro?
furbi quelli di Sony: prontissimi a cogliere al balzo la pubblicità innescata da una cosa del genere, anche se non c'azzecca proprio niente per quello che la playstation 3 si presuppone dovrebbe fare: console da gioco. "playstation 3 con il firmware 2.15 vi pulirà anche il sedere!" :rolleyes:
Sembra tanto la storia di ageia, nessuno la vuole per giocarci, allora puntano sul professionale, ma ovviamente qui Sony si aspetta solo il ritorno in termini pubblicitari, visto che il professionale è saldamente nelle mani di altri e, come al solito, si riscopre sempre la solita acqua calda... (chi ha detto GPU?)
Ti auguro di non ammalarti mai delle seguenti malattie:
morbo di Parkinson o di Alzheimer, la fibrosi cistica e altri cancri.
Perchè la tua idea d'andarci CONTRO avrà rallentato le rispettive ricerche.
In conclusione ricordiamo che la maggior parte dei risultati sono di dominio pubblico e quindi consultabili da chi na ha bisogno.
removedrdsaduasdsasdtyasd7asdd1asd
17-03-2007, 10:45
x yossarian
Questa è la traduzione (spero esatta) della parte inglese che hai postato:
Anche se l’rsx della ps3 è inaccessibile sotto linux, il piccolo sistema intelligentemente (o astutamente) si estenderà attraverso la rete influenzando i molteplici blade IBM QS20 per renderizzare il modello complesso, in tempo reale, con software basato sul ray-tracing. Usando la tecnologia di renderizzazione iRT scalabile di IBM, la PS3 è capace di scomporre ogni fotogramma in regioni (o zone) di lavoro maneggiabili (o trattabili) e distribuirle dinamicamente ai blade o ad altre PS3 per il rendering. Queste regioni sono poi ulteriormente scomposte in sotto-regioni dai processori cell del blade e spedite dinamicamente alla forte spinta delle SPE per il rendering e la compressione dell’immagine. Le regioni terminate di codificare sono allora spedite di nuovo alla PS3 per la decompressione accelerata del Cell, composizione, e visualizzazione.
Mi sembra che questo sia il funzionamento del Folding@home applicato alla demo presentata al gdc, ecco il perché di tutta questa potenza. in realtà, un sistema basato sul cell (a detta di IBM), adottando alcune tecniche software, può produrre immagini in ray-trace a 720p a frame rate interattivi (boh?), anche per scene moderatamente complesse contenenti più di 1 milione di poligoni.
questo è il link: http://www.gametomorrow.com/minor/barry/iRT-Sumary.pdf
la mia considerazione è che le carenze dell'rsx possano tranquillamente essere aggirate dal cell che può dare una grossa mano sia sulla fisica che sulla grafica con ottimi risultati.
naturalmente se ciò che dice ibm fosse vero, e questo, più che le nostre supposizioni, lo dirà il tempo, farebbe della ps3 una console veramente potente
removedrdsaduasdsasdtyasd7asdd1asd
17-03-2007, 10:48
x ^TiGeRShArK^
volevo farti notare che i poligoni della demo non sono 33000 ma 3 milioni. forse il tuo pentium 100 si sarebbe fuso prima di cominciare i calcoli ;-)
...
la mia considerazione è che le carenze dell'rsx possano tranquillamente essere aggirate dal cell che può dare una grossa mano sia sulla fisica che sulla grafica con ottimi risultati..........
Mi sbaglio o sei quello dell'altra news, sul bluray ? sei un mito :D
Sulla fisica senza ombra di dubbio, sulla grafica è impossibile :cry:
Credimi che ^TiGeRShArK^ e yossarian non parlano per sentito dire. (come si dice dalle mie parti "hanno le @@ quadre !!! :sofico: )
Non è colpa di nessuno se la Sony abbia messo un "procio" non adatto ad una console in una console.
Consiglio OT : se ti piace la ps3 comprala e basta.
Se il cell fosse la panacea di tutti i mali (battutina sul F@H), tutti i PC ne monterebbero uno, tutte le schede grafiche pure e magari invece delle x-fi un bel cell-stereofonico :)
Come ho già detto il Cell ha i suoi ambiti dove eccelle (pochi ambiti ma ci sono) per il resto ci sono soluzioni migliori sotto tutti i punti di vista, è una cosa appurata quindi non capisco perchè bisogna fare tutti questi discorsi.
Parere personale : IMHO il cell "non è ne carne ne pesce" (dalle mie parti con dialetto italianizzato si dice "non è ne XXXX ne uselo" :oink: , uselo vuol dire volatile :D XXXX si capisce quindi non lo scrivo) nel senso che nel general purpose è inferiore alla CPU classiche, nel rendering in tempo reale è inferiore alle GPU, nel calcolo scientifico "vero" (quello dove della precisione singola non ci fa un "fico secco") non è proprio il massimo.
In pratica se la cavicchia in tutto ma non eccelle in nulla (escusi i rari ambiti detti sopra).
Il nuovo cell che sta progettando l'IBM probabilmente potrà fare sfracelli nel calcolo scientifico "vero" (sempre che le future soluzioni AMD basate su R600 non siano ancora meglio, IMHO molto probabile)
Scusami Rusty ma oggi pomeriggio non posso uscire e quindi scoccero un sacco di gente sul Forum, sorry :)
^TiGeRShArK^
17-03-2007, 12:21
togershork
come già ha detto qlc1, non significa che la potenza maggiore di ps3 la avvantaggerà nella resa dei giochi.......però è più potente: questo è un fatto oggettivo....
ti consiglio il sito della ibm, là puoi leggerti tutte le informazione che vuoi.
i programmatori (quelli veri), si stanno spaccando il cu!o per capire come far rendere al meglio il cell; e ci hanno investito tanto di quel tempo e denaro, che forse mi perdonerai se considero le tue impressioni, senza realmente considerarle......e poi non hai dato nessuna spiegazione tecnica, quindi non penso che tu abbia il diritto di chiederne......
cmq ti ho dato la dritta del sito della ibm, forse puoi anche capirci qlcosina se ti concentri.....
:rolleyes:
1) Mi chiamo TigerShark..ma forse bisognerebbe conoscere un pò l'inglese per evitare di sbagliare lo spelling di parole scritte in quella lingua.
2)Il Cell non è assolutamente + potente nell'ambito per cui è utilizzato nella PS3. (ma poi + potente rispetto a ke? dal tuo post non si capisce affatto.)
3)Ti assicuro che ho letto molto di + sul Cell di quanto tu possa immaginare. E l'importante cmq non è leggere è capire cosa si legge. E da quello che dici tu non mi pare proprio che tu abbia le basi necessarie per capire il Cell :rolleyes:
4)Da quello che scrivi si capisce che tu non hai la MINIMA idea di cosa significhi PROGRAMMARE.
Quindi, x favore, almeno evita di parlare di cose che non conosci per nulla con persone che magari ci vivono grazie alla programmazione.
5)Le mie spiegazioni tecniche le ho date a suo tempo e ribadite N-mila volte. Se vuoi cercale, perchè io onestamente mi sono stancato di ripetere sempre le stesse cose a persone che sanno rispondere solo "eh ma i programmatori quelli veri...." e "eh ma mio cuggggino...." e cose del genere :rolleyes:
Per quanto mi riguarda potete anke credere che comprando la PS3 col Cell vi cresca l'uccello...tanto il marketing sony, che sta facendo davvero un buon lavoro visti i discorsi tuoi e quelli di molti altri, tra non molto raggiungerà anke quel livello :rolleyes:
^TiGeRShArK^
17-03-2007, 12:36
x yossarian
Questa è la traduzione (spero esatta) della parte inglese che hai postato:
Anche se l’rsx della ps3 è inaccessibile sotto linux, il piccolo sistema intelligentemente (o astutamente) si estenderà attraverso la rete influenzando i molteplici blade IBM QS20 per renderizzare il modello complesso, in tempo reale, con software basato sul ray-tracing. Usando la tecnologia di renderizzazione iRT scalabile di IBM, la PS3 è capace di scomporre ogni fotogramma in regioni (o zone) di lavoro maneggiabili (o trattabili) e distribuirle dinamicamente ai blade o ad altre PS3 per il rendering. Queste regioni sono poi ulteriormente scomposte in sotto-regioni dai processori cell del blade e spedite dinamicamente alla forte spinta delle SPE per il rendering e la compressione dell’immagine. Le regioni terminate di codificare sono allora spedite di nuovo alla PS3 per la decompressione accelerata del Cell, composizione, e visualizzazione.
Mi sembra che questo sia il funzionamento del Folding@home applicato alla demo presentata al gdc, ecco il perché di tutta questa potenza.
Il principio dell'elaborazione distribuita è simile, ma mentre nel folding@home non renderizzi niente ma vengono effettuati dei calcoli scientifici, in questa demo è stato fatto un rendering distribuito (cosa che praticamente TUTTI i moderni software 3D riescono a fare da una marea di tempo.... mai sentito parlare di Render Farms?)
in realtà, un sistema basato sul cell (a detta di IBM), adottando alcune tecniche software, può produrre immagini in ray-trace a 720p a frame rate interattivi (boh?), anche per scene moderatamente complesse contenenti più di 1 milione di poligoni.
questo è il link: http://www.gametomorrow.com/minor/barry/iRT-Sumary.pdf
Appunto e dice chiaramente che questo viene ottenuto da un cluster di cell.
Esattamente quello che yossarian sta cercando di farti capire da ieri sera.
la mia considerazione è che le carenze dell'rsx possano tranquillamente essere aggirate dal cell che può dare una grossa mano sia sulla fisica che sulla grafica con ottimi risultati.
In che modo può il Cell aiutare l'RSX nella grafica?
naturalmente se ciò che dice ibm fosse vero, e questo, più che le nostre supposizioni, lo dirà il tempo, farebbe della ps3 una console veramente potente
:muro:
IBM sta semplicemente dicendo che con un cluster di cell è possibile effettuare il ray-tracing in real-time.
Secondo te quindi l'utente dovrà comprarsi 120 PS3 per giocare in ray-tracing alla spaventosa velocità di 2 FPS?
yossarian
17-03-2007, 12:37
x yossarian
Questa è la traduzione (spero esatta) della parte inglese che hai postato:
Anche se l’rsx della ps3 è inaccessibile sotto linux, il piccolo sistema intelligentemente (o astutamente) si estenderà attraverso la rete influenzando i molteplici blade IBM QS20 per renderizzare il modello complesso, in tempo reale, con software basato sul ray-tracing. Usando la tecnologia di renderizzazione iRT scalabile di IBM, la PS3 è capace di scomporre ogni fotogramma in regioni (o zone) di lavoro maneggiabili (o trattabili) e distribuirle dinamicamente ai blade o ad altre PS3 per il rendering. Queste regioni sono poi ulteriormente scomposte in sotto-regioni dai processori cell del blade e spedite dinamicamente alla forte spinta delle SPE per il rendering e la compressione dell’immagine. Le regioni terminate di codificare sono allora spedite di nuovo alla PS3 per la decompressione accelerata del Cell, composizione, e visualizzazione.
Mi sembra che questo sia il funzionamento del Folding@home applicato alla demo presentata al gdc, ecco il perché di tutta questa potenza. in realtà, un sistema basato sul cell (a detta di IBM), adottando alcune tecniche software, può produrre immagini in ray-trace a 720p a frame rate interattivi (boh?), anche per scene moderatamente complesse contenenti più di 1 milione di poligoni.
questo è il link: http://www.gametomorrow.com/minor/barry/iRT-Sumary.pdf
la mia considerazione è che le carenze dell'rsx possano tranquillamente essere aggirate dal cell che può dare una grossa mano sia sulla fisica che sulla grafica con ottimi risultati.
naturalmente se ciò che dice ibm fosse vero, e questo, più che le nostre supposizioni, lo dirà il tempo, farebbe della ps3 una console veramente potente
no, questo è il modo in cui IBM pensa di utilizzare il cell per fare rendering.
Capisci bene che, personalemente, non saprei che farmene un cluster di 20 o 30 per svolgere il lavoro che una singola gpu può fare meglio.
Il cell non è in grado di fare rendering: punto; al massimo può dare un amano nei calcoli geometrici e in qualche operazione di post processing. Per il resto, o ce la fa RSX o nisba.
Il resto, come ho già detto, sono tutte chiacchiere e discussioni (nonchè dimostrazioni) accademiche, ovvero fini a sé stesse
removedrdsaduasdsasdtyasd7asdd1asd
17-03-2007, 12:40
x GabrySP
esatto sono il difensore mascherato della ps3 (mascherato non tanto).
Sulla gestione della grafica sul cell basta che clicchi sul link del mio ultimo post. ciò che ho detto è ciò che scrivono tre tecnici di ibm e, senza offesa per nessuno, mi pare abbiano le palle (senza censura) più quadrate di ^TiGeRShArK^ e yossarian. con me potrebbero fare anche i fighi, ma li vorrei vedere coinvolti in discussioni tecniche con i tecnici di ibm, secondo me ne escono male.
per quanto riguarda la tua personale opinione del cell "non è ne carne ne pesce", sarà interessante riprenderla tra un anno o due, quando di questo processore si conosceranno i limiti reali.
un'altra cosa, il cell ha come nucleo una cpu general purpose su architettura ppc che viaggia a 3.2Ghz con una memoria xdr ram che viaggia alla stessa velocità del processore, se ti sembra poco per il general purpose non so che dirti.
il cell, come sicuramente saprai (notizie vecchie oltre 5 anni, riportate da playstation magazine) è nato proprio grazie a sony che intendeva progettare un processore rivoluzionario per la sua nuova console che poi ha coinvolto ibm e toshiba (in quanto possessori delle tecnologie adatte allo sviluppo dello stesso), tutto per dire che il cell è adattissimo per programmare giochi, ma non adatto a programmatori non molto pratici (posso fare un riferimento ai tempi dell'amiga, vi ricordate della tiertex? http://www.spaziogames.it/content2/archivio/articolo_retrogames.asp?id=163).
chiudo dicendo che la ibm sta tenendo dei corsi per insegnare la programmazione del cell (lo sta facendo anche m$ per quanto riguarda windows vista), quindi se qualcuno fosse realmente interessato si può rivolgere direttamente ad ibm, altrimenti si possono continuare a scrivere delle stupidaggini su questo processore, tanto non cambia niente.
un'altro piccolo appunto è che considerando l'sdk della ps3, considerando che il cell non è nè carne nè pesce, non mi pare che i giochi fin qui usciti per la ps3 siano così male, considerato anche che dai rumors, il kit di sviluppo usato per programmare questi giochi era quello col cell a 2.4Ghz.
comunque, e qui chiudo davvero, mi sembra strano che le tre aziende coinvolte nel progetto cell abbiano tirato fuori, dopo anni di studi e di spese, una ciofeca (IMHO)..
al tempo l'ardua sentenza
Mi stai simpatico però credimi che non serve aspettare qualche anno per sapere cove va il cell :D
PS. è normale che i tecnici IBM parlino bene del Cell :D (ogni scarrafone è bello a mamma soa :) )
Ti ricordo le sagge parole del buon zio Stevy Jobs : "i motorola sono almeno 5 volte più potenti degli Intel", passato ad Intel disse : "gli Intel sono almeno 5 volte più veloci dei motorola"
Il relativo sistema di disequazioni è questo : 1) M>=5*I
2) I>=5*M
Sfido chiunque a risolvere questo sistema :D (probabilmente il CELL può farlo in un nanosecondo :rotfl: )
PS : yoss i tecnici IBM se li mangia a colazione pucciati nel caffelatte :Prrr:
yossarian
17-03-2007, 12:55
x GabrySP
esatto sono il difensore mascherato della ps3 (mascherato non tanto).
Sulla gestione della grafica sul cell basta che clicchi sul link del mio ultimo post. ciò che ho detto è ciò che scrivono tre tecnici di ibm e, senza offesa per nessuno, mi pare abbiano le palle (senza censura) più quadrate di ^TiGeRShArK^ e yossarian. con me potrebbero fare anche i fighi, ma li vorrei vedere coinvolti in discussioni tecniche con i tecnici di ibm, secondo me ne escono male.
e cosa ne sai che non ne abbiamo già discusso? :D
x GabrySP
un'altra cosa, il cell ha come nucleo una cpu general purpose su architettura ppc che viaggia a 3.2Ghz con una memoria xdr ram che viaggia alla stessa velocità del processore, se ti sembra poco per il general purpose non so che dirti.
infatti l'unico elemento GP del cell è il PPE che, oltre a fare da unità GP deve anche occuparsi di distribuire i task ai spe. Non mi pare che sia molto
x GabrySP
il cell, come sicuramente saprai (notizie vecchie oltre 5 anni, riportate da playstation magazine) è nato proprio grazie a sony che intendeva progettare un processore rivoluzionario per la sua nuova console che poi ha coinvolto ibm e toshiba (in quanto possessori delle tecnologie adatte allo sviluppo dello stesso), tutto per dire che il cell è adattissimo per programmare giochi, ma non adatto a programmatori non molto pratici (posso fare un riferimento ai tempi dell'amiga, vi ricordate della tiertex? http://www.spaziogames.it/content2/archivio/articolo_retrogames.asp?id=163).
playstation magazine può riportare ciò che vuole; ti consiglio di leggerti la storia del cell scritta da IBM (dato che il porgetto è quasi integralmente loro). Sony e Toshiba (quindi non solo Sony) hanno chiesto a IBM di porgettare una cpu che avesse caratteristiche tali da poter essere impiegata in vari ambiti, tra cui anche il gaming (quindi non è nato in ottica solo ps3).
In quanto ai programmatori non molto pratici, ti faccio presente che anche Carmack ha mosso critiche alla ps3 per la sua difficoltà di programmazione. Ora, si dà il caso che ps3 utilizzi una versione ridotta e customizzata (soprattutto in funzione RSX e, quindi, NV) delle OpenGL; non credo che Carmack abbia molto da imparare sulle OGL e su come si ottimizza il SW per gpu NV (ti dice niente NV3x e Doom3?)
x GabrySP
chiudo dicendo che la ibm sta tenendo dei corsi per insegnare la programmazione del cell (lo sta facendo anche m$ per quanto riguarda windows vista), quindi se qualcuno fosse realmente interessato si può rivolgere direttamente ad ibm, altrimenti si possono continuare a scrivere delle stupidaggini su questo processore, tanto non cambia niente.
al tempo l'ardua sentenza
girerò il consiglio a Carmack :sofico:
x GabrySP
comunque, e qui chiudo davvero, mi sembra strano che le tre aziende coinvolte nel progetto cell abbiano tirato fuori, dopo anni di studi e di spese, una ciofeca (IMHO)..
al tempo l'ardua sentenza
e tu pensi che IBM, Sony e Toshiba abbiano investito tempo e soldi solo per ps3? Oggettivamente, mi spieghi cosa può fregare a IBM o Toshiba della console di Sony?
removedrdsaduasdsasdtyasd7asdd1asd
17-03-2007, 13:09
da ^TiGeRShArK^
In che modo può il Cell aiutare l'RSX nella grafica?
*Con Lair ci si concentra molto, oltre che sul sistema di controllo, sulla componente grafica. Il gioco di Factor 5 supporta nativamente la risoluzione full HD, mentre l'audio non è compresso e in 7.1. Il motore grafico supporta le seguenti tecniche: Progressive Mesh, renderizzata direttamente dal processore CELL, consente un elevato livello di dettaglio; HDR, la quale garantisce un maggior realismo nelle illuminazioni; fisica dinamica in tempo reale, ciò vale anche per i liquidi; Parallax Shader ed effetti volumetrici.
http://www.hwupgrade.it/articoli/videogiochi/1676/sony-playstation-3-e-i-giochi-next-gen-del-2007_11.html*
non mi intendo molto di grafica (anzi per niente) però posso dire questo: o il progressive mesh fa parte dei vari effetti grafici gestiti dalla gpu, quindi, o i factor 5 (mitico turrican) hanno fatto un bel lavoro facendolo svolgere al cell, oppure mi sono sbagliato e chiedo scusa.
x yossarian
il link da me postato parla di un sistema (quindi singolo) basato sul cell (quindi potrebbe essere anche una ps3) può produrre immagini in ray-trace a 720p a frame rate "interattivi" (non ho capito cosa vuol dire, se qualcuno riesce a tradurre meglio), anche per scene moderatamente complesse contenenti più di 1 milione di poligoni. visto che te ne intendi, per una cpu non è un risultato abbastanza soddisfacente? un core duo della intel riesce a fare meglio?
In che modo può il Cell aiutare l'RSX nella grafica?
Il Cell può renderizzare facilmente parecchi milioni di poligoni, fare displacement mapping, radiosity,alleggerire la scena per RSX(culling), fare geometry shading,calcolare la fisica di parecchie migliaia di corpi ed è perfetto per la fluidodinamica.
Logicamente non può compiere tutte queste operazioni contemporaneamente visto che il numero delle SPE è limitato a 7 di cui 1 è riservata ad altri compiti.
Gli sviluppatori hanno a disposizione quindi 6 per il gioco.
In un futuro non troppo lontano, il Cell su Ps3 si occuperà di renderizzare i poligoni e RSX di rasterizzarli, e probabilmente i vertex shader di RSX saranno meno utilizzati.
Alcune informazioni tratte da Beyon3D e dal sito ufficiale dei nuovi tool di sviluppo:
http://forum.beyond3d.com/showthread.php?t=39185&page=2
http://www.gfdata.de/archiv03-2007-gamefront/2881.html
Just got this article about what has been talk about in PS Edge. It's a PS3 only specialised tool, not for multiplatform.
Including Animation System, Geometry Processing, Compression, GCM Replay. This tool is free for all PS3 developer, it incuding a lot of SPURS.
SPURS is a pre made task for SPE, you only have to give certain parameters then it will run in SPE by itself. It's a very powerfull tool for PS3 games, if you don' know how to programme SPE.
OK start with Animation system, it's for character or 3D onject movement. Basically this is done in 4 blocks, gam logic, bending tree (list of joint displacement), Low level Operation Generation, Low level Operation execution. Due to the better use of SPE now it's possible to run the last 2 block on SPE. So SPE can generate it's own code and run the code. Since low level code is generate real time, no static coordinate is required, also by putting most of the processing weight on SPE, speed up the process.
Geometry System, using a new VOC that's optimised for RSX, the new SDK allows 85% more compression in vertex, with same memory size it will be able to generate 6.5 times more triangles.
They also gain performance using SPE to do skinning (shadow mapping). Cut all the crap of how i works, basically using this new tool, with just a single SPU PS3 can generate 800,000 polygon 60FPS, that's 48 million polygon per second, approx 580 million vertex. And that's including 60% culling, which is a very realistic number for most game use.
The demo showed a real time generation of PS3 without any help from RSX. With the new Edge tool they manage to get 768 people and 50 cars with full real time animated.
Finally GCM Replay a specialised tool for finding out what got send to RSX,
what RSX do with the command and what part of the shading was casing the problems, and so on.
At least it's a big jump from tapping command to a good diognastic tool.
Credo sia molto interessante.
@yossarian: non credo che le pipeline delle SPE abbiano una latenza alta, non l'avevo mai letto prima.
PS: Con questo post non vorrei passare per una fanboy Sony, non lo sono proprio. :D
removedrdsaduasdsasdtyasd7asdd1asd
17-03-2007, 13:28
ok, basta, mi arrendo. vi dispiace se consiglio ad ibm e a sony di assumervi come responsabili della nuova cpu per la play 4? secondo me ne viene fuori uno z80 ;-) yossarian x questa frase "e cosa ne sai che non ne abbiamo già discusso?" vinci l'oscar del dubbio. da questo momento cercherò di non discutere di cose tecniche, anche a causa della poca conoscenza (penso di tutti). cmq, siamo tutti così bravi che invece di essere da qualche altra parte a programmare qualcosa per la ps3 (data la profonda conoscenza del cell da parte di qualcuno) siamo qui a mostrare chi ce l'ha più lungo e a sbolognare dati e opinioni che non stanno nè in cielo nè in terra (sopratutto da parte mia). forse è meglio lasciare la parola a chi con il cell passa più ore che con la propria moglie (i programmatori), e con i risultati che riusciranno ad ottenere in futuro si potrà giustamente dire ciò che il cell saprà fare realmente. passo e chiudo
yossarian
17-03-2007, 13:48
da ^TiGeRShArK^
x yossarian
il link da me postato parla di un sistema (quindi singolo) basato sul cell (quindi potrebbe essere anche una ps3) può produrre immagini in ray-trace a 720p a frame rate "interattivi" (non ho capito cosa vuol dire, se qualcuno riesce a tradurre meglio), anche per scene moderatamente complesse contenenti più di 1 milione di poligoni. visto che te ne intendi, per una cpu non è un risultato abbastanza soddisfacente? un core duo della intel riesce a fare meglio?
tu useresti una ferrari per fare fuoristrada? Oppure un trattore da 1000 CV per correre in F1?
Il link da te postato non fornisce tutte le informazioni necessarie, nel senso che non parla del fatto che il software rendering non verrebb eeseguito da un solo cell ma da un cluster di cell (facenti parte o di server blade o di altre ps3).
Te ne dico un'altra; esistono brevetti IBM per cell composti da 1 ppe, 4 spe e un pixel shader core, destinati, secondo l'idea iniziale, a fare da gpu (con i spe a fungere da VSU). Questo progetto è stato accantonato, almeno per ora (ma non credo verrà mai sviluppato). Questo dovrebbe farti capire alcune cose innanzitutto che la presenza di un pixel shader core sta a significare che i spe non sono idonei a svolgere i compiti delle pixel pipeline (e alla IBM lo sanno benissimo, altrimenti non avrebbero pensato a questa soluzione). La motivazione è molto semplice: un spe ha una singola pipeline di tipo single threaded (mi riferisco a quella che effettivamente svolge i calcoli). 8 SPE equivalgonmo a 8 pipeline single threaded; una gpu come G7x, ha 24 pixel pipeline multithreaded. Durante un'elaborazione, ci sono operazioni con latenze molto elevate (ad esmepio quelle di texturing; d'altra parte, alla ATi non sono degli idioti, eppure, con la serie X1xx0 hanno utilizzato texture cache di tipo fully associative, complicando non poco l'architettura del chip, pur di ridurre al mininmo il rischio di cache miss). Immagina che un spe stia svolgendo un task che richiede l'applicazione di una texture (oil che nelle pixel pipeline capita piuttosto di frequente :D ). L'elaborazione si arresta in attesa del dato mancante; se la pipeline fosse multithreaded, il task potrebbe essere messo da parte, in attesa del dato e, nel frattempo, le alu potrebbero iniziare a processare il task successivo. In un spe, al contrario, succede che l'elaborazione si blocca fino a che non arriva la texture (il che può voler dire anche centinaia di cicli persi).
Il paragone con un core duo non ha assolutamente senso, pechè si tratta di cpu completamente differenti; allo stesso modo, potrei indurti a paragonare il cell e un core duo su un'elaborazione che prevede, ad esempio, molti salti condizionati; in tal caso, il cell non ne uscirebbe affatto bene.
Ti ripeto, l'idea del cell come gpu è accademia pura; non potrà mai coadiuvare una gpu in molte delle operazioni che questa svolge e, tanto meno, potrà sostituirla.
yossarian
17-03-2007, 13:50
Il Cell può renderizzare facilmente parecchi milioni di poligoni, fare displacement mapping, radiosity,alleggerire la scena per RSX(culling), fare geometry shading,calcolare la fisica di parecchie migliaia di corpi ed è perfetto per la fluidodinamica.
Logicamente non può compiere tutte queste operazioni contemporaneamente visto che il numero delle SPE è limitato a 7 di cui 1 è riservata ad altri compiti.
Gli sviluppatori hanno a disposizione quindi 6 per il gioco.
In un futuro non troppo lontano, il Cell su Ps3 si occuperà di renderizzare i poligoni e RSX di rasterizzarli, e probabilmente i vertex shader di RSX saranno meno utilizzati.
Alcune informazioni tratte da Beyon3D e dal sito ufficiale dei nuovi tool di sviluppo:
http://forum.beyond3d.com/showthread.php?t=39185&page=2
http://www.gfdata.de/archiv03-2007-gamefront/2881.html
Credo sia molto interessante.
peccato che, nella maggior parte dei casi, in un'elaborazione grafica i colli di bottiglia sono a livello di pixel pipeline (e li rsx deve cavarsela da solo). Per il resto hai fatto un elenco di cose già note e che non dimostrano che il cell può fungere da gpu (come qualcuno sostiene). In quanto ai dati numerici teorici, il consiglio è di prenderli sempre con il beneficio del dubbio :D
@yossarian: non credo che le pipeline delle SPE abbiano una latenza alta, non l'avevo mai letto prima.
PS: Con questo post non vorrei passare per una fanboy Sony, non lo sono proprio. :D
non sono le pipeline ad avere latenze più o meno alte ma l'insieme di architettura e operazioni che si fanno svolgere ad una determinata pipeline. Mi induci a pensare che tu non abbia idea del perchè le pipeline delle gpu sono multithreaded :D
yossarian
17-03-2007, 13:53
ok, basta, mi arrendo. vi dispiace se consiglio ad ibm e a sony di assumervi come responsabili della nuova cpu per la play 4? secondo me ne viene fuori uno z80 ;-) yossarian x questa frase "e cosa ne sai che non ne abbiamo già discusso?" vinci l'oscar del dubbio. da questo momento cercherò di non discutere di cose tecniche, anche a causa della poca conoscenza (penso di tutti). cmq, siamo tutti così bravi che invece di essere da qualche altra parte a programmare qualcosa per la ps3 (data la profonda conoscenza del cell da parte di qualcuno) siamo qui a mostrare chi ce l'ha più lungo e a sbolognare dati e opinioni che non stanno nè in cielo nè in terra (sopratutto da parte mia). forse è meglio lasciare la parola a chi con il cell passa più ore che con la propria moglie (i programmatori), e con i risultati che riusciranno ad ottenere in futuro si potrà giustamente dire ciò che il cell saprà fare realmente. passo e chiudo
grazie, lo accetto volentieri; e può anche darsi che in questo momento abbia qualcosa di meglio da fare che scrivere programmi per il cell (anche perchè non sono un programmatore)
removedrdsaduasdsasdtyasd7asdd1asd
17-03-2007, 14:20
da GabrySP
PS : yoss i tecnici IBM se li mangia a colazione pucciati nel caffelatte
non so che lavoro faccia yossarian, però con tutto il rispetto (alla fine stiamo solo giocando, niente di serio) permettimi di avere dei dubbi
il cell, come sicuramente saprai (notizie vecchie oltre 5 anni, riportate da playstation magazine) è nato proprio grazie a sony che intendeva progettare un processore rivoluzionario per la sua nuova console che poi ha coinvolto ibm e toshiba (in quanto possessori delle tecnologie adatte allo sviluppo dello stesso), tutto per dire che il cell è adattissimo per programmare giochi, ma non adatto a programmatori non molto pratici (posso fare un riferimento ai tempi dell'amiga, vi ricordate della tiertex? http://www.spaziogames.it/content2/archivio/articolo_retrogames.asp?id=163).
Il problema del Cell è che la progettazione è iniziata tanto tempo fà e nessuno si aspettava allora lo sviluppo che hanno avuto le GPU.
Certo 4 Cell probabilmente sono 100 volte meglio del processore della PS2 (come erano le specifiche allora per la consolle next-gen), ma mettere 4 Cell nel 2007 costa troppo e una GPU del 2007, in ambito grafico, fa la stessa cosa, anche meglio, costando meno.
Quindi per quanto il Cell sia fantastico, perchè ancora lo penso, è rimasto un po' spiazzato nella PS3 (che serve essenzialmente per giocare) e Sony ha dovuto ripiegare su Nvidia.
Allo stesso tempo lo sbilanciamento per il calcolo vettoriale (e solo a singola precisione, perchè alla PS3 bastava) ha penalizzato l'utilizzo general-pourpose, tanto che un Cell in quest'ambito pare essere circa 4 volte più lento di uno Xenon dual core (il massimo della tecnologia Intel). Quindi Apple non ha ritenuto di impiegarlo (anche se sui test di Photoshop avrebbe comunque potuto dichiarare che il Mac con Cell era 5-10 volte più veloce di un PC) ed è passata ad Intel.
Certo rimangono molti ambiti dove il Cell eccelle, dove le CPU sono troppo generiche e le GPU troppo specializzate. Ma le GPU in particolare stanno sempre più andando a pestare i piedi dove il Cell è forte, quindi a questo punto la sua utilità inizia ad essere dubbia. Ma non credo lo sia ancora e penso che si ritaglierà il suo spazio come coprocessore o per oggetti multimediali da mettere sotto la TV o simili. Per esempio per l'iTV avrei visto 1000 volte meglio un Cell del centrino che hanno utilizzato.
peccato che, nella maggior parte dei casi, in un'elaborazione grafica i colli di bottiglia sono a livello di pixel pipeline (e li rsx deve cavarsela da solo). Per il resto hai fatto un elenco di cose già note e che non dimostrano che il cell può fungere da gpu (come qualcuno sostiene). In quanto ai dati numerici teorici, il consiglio è di prenderli sempre con il beneficio del dubbio :D
Siamo d'accordo. Infatti non sostengo che il Cell possa essere usato come una GPU ma che possa fare molto bene alcune delle operazioni di cui solitamente si occupa la GPU.
Non ho mai letto però di sviluppatori che si lamentavano per colli di bottiglia nelle pixel pipeline, cosa invece accaduta per i vertex shader.
non sono le pipeline ad avere latenze più o meno alte ma l'insieme di architettura e operazioni che si fanno svolgere ad una determinata pipeline. Mi induci a pensare che tu non abbia idea del perchè le pipeline delle gpu sono multithreaded :D
Non sono un esperto, sono solo appassionato (e per giunta da pochi mesi) quindi perdonami errori e imprecisioni. :D
In ogni caso, non avevo mai sentito parlare di queste latenze elevate nel Cell. Anzi ero sicuro che fosse un processore con una elevatissima efficenza.
yossarian
17-03-2007, 15:58
Siamo d'accordo. Infatti non sostengo che il Cell possa essere usato come una GPU ma che possa fare molto bene alcune delle operazioni di cui solitamente si occupa la GPU.
Non ho mai letto però di sviluppatori che si lamentavano per colli di bottiglia nelle pixel pipeline, cosa invece accaduta per i vertex shader.
invece è esattamente il contrario; d'altra parte, basta analizzare l'evoluzione di unità del numero di pixel shading unit e di vertex shading unit negli utlimi anni (in R580, ad esempio, il rapporto è di 6:1; in G7x anche, se tieni conto del fatto che le 24 pixel pipeline hanno un potenziale teorico di 27 flops ciascuna contro le 10 delle vertex pipeline e 48 alu contro 8).
Non sono un esperto, sono solo appassionato (e per giunta da pochi mesi) quindi perdonami qualche errore. :D
In ogni caso, non avevo mai sentito parlare di queste latenze elevate nel Cell.
Anzi ero sicuro che fosse un processore con una elevatissima efficenza.
le pipeline del cell sono molto semplici dal punto di vista architetturale. Questa semplicità fa si che in alcune operazioni risultino molto veloci ed efficienti; di contro, in altre operazioni, questa semplicità diventa un handicap. Una delle situazioni problematiche è quella che ho esposto prima, ossia quando si deve fare texturing; in tal caso, una pipeline single threaded non ha la possibilità di mettere in attesa un thread mentre aspetta i dati mancanti e passare al successivo; al contrario, deve terminare la prima elaborazione per poi passare alla seconda; questo significa che tutti gli altri thread aspettano in coda la conclusione del primo (il che si traduce in cicli di clock sprecati). Al contrario, all'interno di una pipeline di una gpu possono girare contemporaneamente decine di thread e, di volta in volta, il chip è in grado di metterne uno in stand by (mentre aspetta i dati per il suo completamento) e passare ad un altro. Per questo motivo il cell non potrà mai sostituire una gpu (risulterebbe tremendamente inefficiente).
Quindi, non è corretto dire che le pipeline del cell hanno elevate latenze, ma che non sono in grado di mascherare le latenze (perchè non sono strutturate per eseguire in maniera efficiente calcoli che prevedano elevate latenze)
Bhe...se una GPU non era necessaria Sony non avrebbe messo l'RSX nella Ps3.
Però i tool Edge, come lavorano e cosa in grado di fare, non sono ne chiacchere ne numeri teorici, sono stati mostrati agli sviluppatori e qualcuno li starà anche usando internamente per i propri titoli Sony.
E vedo che in giro sono stati ben accolti.
Tutto questo cosa centra con folding non lo so....però no, il Cell non può sostituire una Gpu.
^TiGeRShArK^
17-03-2007, 16:37
x GabrySP
esatto sono il difensore mascherato della ps3 (mascherato non tanto).
e questo si era capito ;)
io dal canto mio preferisco difendere la corretta informazione anche se così facendo vado contro il marketing sony e faccio alterare i fedeli discepoli :p
Sulla gestione della grafica sul cell basta che clicchi sul link del mio ultimo post. ciò che ho detto è ciò che scrivono tre tecnici di ibm e, senza offesa per nessuno, mi pare abbiano le palle (senza censura) più quadrate di ^TiGeRShArK^ e yossarian. con me potrebbero fare anche i fighi, ma li vorrei vedere coinvolti in discussioni tecniche con i tecnici di ibm, secondo me ne escono male.
Se sono discussioni in ambito di pipeline grafiche potrebbe essere che io non esca bene dato che le conosco "quanto basta" e, a differenza di yossarian, non lo faccio per lavoro.
Per quanto rigurada la programmazione ti assicuro che non sfigurerei affatto ;)
per quanto riguarda la tua personale opinione del cell "non è ne carne ne pesce", sarà interessante riprenderla tra un anno o due, quando di questo processore si conosceranno i limiti reali.
E perchè non sarebbe possibile conoscerli?
Forse tu non li conosci, ma sapendo come è strutturato è semplice ricavarne i limiti e i punti di forza per chi è un addetto ai lavori.
un'altra cosa, il cell ha come nucleo una cpu general purpose su architettura ppc che viaggia a 3.2Ghz con una memoria xdr ram che viaggia alla stessa velocità del processore, se ti sembra poco per il general purpose non so che dirti.
eh la miseria...
dovremmo essere stupiti da tutte queste cifre ? :D
Iniziamo con ordine.
La memoria XDR è prodotta dalla RAMBUS ed è il successore della memoria RIMM, famosissima per aver stroncato le vendite dei primi pentium 4 basati sul chipset camino (i820 ke tra l'altro era anche buggato in quanto non gestiva correttamente + di due moduli se non erro) e successivi (mi pare fino all'i850 se non sbaglio).
Il problema principale era dato dalle elevatissime latenze per gli standard dell'epoca ed è stata facilmente sbaragliata dalle DDR.
Infatti, non so se hai notato, ma oggi sui PC, e, cosa + importante nelle skede video, montiamo tutti DDR nelle varie versioni e non certo RAMBUS :p
Quello che tu chiami, giustamente, il nucleo del Cell è la PEE ed è basata su un core PowerPC molto semplificato e per giunta in-order.
Non mi stancherò mai di ripetere quanto poco siano efficienti le architetture in-order rispetto a quelle out of order utilizzate ad esempio sulle cpu di classe x86 (Ma non solo dato che anche i PowerPC erano ovviamente out of order).
Inoltre come diceva giustamente yossarian la PPE spreca anche cicli di clock per gestire le varie SPE.
il cell, come sicuramente saprai (notizie vecchie oltre 5 anni, riportate da playstation magazine) è nato proprio grazie a sony che intendeva progettare un processore rivoluzionario per la sua nuova console che poi ha coinvolto ibm e toshiba (in quanto possessori delle tecnologie adatte allo sviluppo dello stesso), tutto per dire che il cell è adattissimo per programmare giochi, ma non adatto a programmatori non molto pratici (posso fare un riferimento ai tempi dell'amiga, vi ricordate della tiertex? http://www.spaziogames.it/content2/archivio/articolo_retrogames.asp?id=163).
mmmm..
mi stai dicendo che secondo te dei colossi come Ibm e toshiba si sono messi a progettare un processore in funzione di sony?
Dovresti sapere che gli investimenti per progettare una nuova architettura sono MOLTO ma MOLTO onerosi, e infatti il Cell è stato progettato come uno STREAM processor, ovvero un processore che eccelle nell'elaborare flussi continui di dati.
Ora di deve vedere quanto i giochi possono essere assimilibabili a flussi continui di dati.
A mio parere questo NON è assolutamente il campo principe del cell.
E infatti ci sono molti altri campi in cui le sue prestazioni sono molto superiori (vedasi il folding@home tanto per dirne uno).
chiudo dicendo che la ibm sta tenendo dei corsi per insegnare la programmazione del cell (lo sta facendo anche m$ per quanto riguarda windows vista), quindi se qualcuno fosse realmente interessato si può rivolgere direttamente ad ibm, altrimenti si possono continuare a scrivere delle stupidaggini su questo processore, tanto non cambia niente.
Io non ho bisogno di fiondarmi in qui corsi dato che il mio onesto lavoro da programmatore ce l'ho.
Se dovessi cambiare cambierei sicuramente per andare a lavorare con un azienda del calibro di ToughtWorks o Google.
Altro ke ps3 :asd:
Sai com'è...prediligo lievemente la ricerca ai giokini ;)
un'altro piccolo appunto è che considerando l'sdk della ps3, considerando che il cell non è nè carne nè pesce, non mi pare che i giochi fin qui usciti per la ps3 siano così male, considerato anche che dai rumors, il kit di sviluppo usato per programmare questi giochi era quello col cell a 2.4Ghz.
comunque, e qui chiudo davvero, mi sembra strano che le tre aziende coinvolte nel progetto cell abbiano tirato fuori, dopo anni di studi e di spese, una ciofeca (IMHO)..
al tempo l'ardua sentenza
:asd:
Ancora non hai capito che l'unico che sta dicendo che il Cell è una ciofeca sei tu? :asd:
Il cell è un ottimo processore per fare le cose per cui è stato pensato.
Però non mi pare che sia stato pensato APPOSITAMENTE per i giochi come tu e qualcun altro volete far ceredere :p
^TiGeRShArK^
17-03-2007, 16:56
da ^TiGeRShArK^
In che modo può il Cell aiutare l'RSX nella grafica?
*Con Lair ci si concentra molto, oltre che sul sistema di controllo, sulla componente grafica. Il gioco di Factor 5 supporta nativamente la risoluzione full HD, mentre l'audio non è compresso e in 7.1. Il motore grafico supporta le seguenti tecniche: Progressive Mesh, renderizzata direttamente dal processore CELL, consente un elevato livello di dettaglio; HDR, la quale garantisce un maggior realismo nelle illuminazioni; fisica dinamica in tempo reale, ciò vale anche per i liquidi; Parallax Shader ed effetti volumetrici.
http://www.hwupgrade.it/articoli/videogiochi/1676/sony-playstation-3-e-i-giochi-next-gen-del-2007_11.html*
non mi intendo molto di grafica (anzi per niente) però posso dire questo: o il progressive mesh fa parte dei vari effetti grafici gestiti dalla gpu, quindi, o i factor 5 (mitico turrican) hanno fatto un bel lavoro facendolo svolgere al cell, oppure mi sono sbagliato e chiedo scusa.
Io stavo parlando di grafica e non di geometrie.
E non è un errore non voluto, ma l'ho scritto appositamente.
Il + grosso limite dell'RSX è proprio la pipeline grafica con i giochi odierni.
Potrebbe essere che in futuro ciò non sarà + vero se verranno predilette le trasformazioni sui vertici e sulle geometrie, ma solo in quel caso il Cell potrà essere d'aiuto alla RSX.
R500 d'altro canto può affrontare tranquillamente lo stesso problema di un eventuale sbilanciamento dei giochi verso i vertex shaders dato che come ben saprai è un progetto a pipeline (vertex e pixel)unificate.
x yossarian
il link da me postato parla di un sistema (quindi singolo) basato sul cell (quindi potrebbe essere anche una ps3) può produrre immagini in ray-trace a 720p a frame rate "interattivi" (non ho capito cosa vuol dire, se qualcuno riesce a tradurre meglio), anche per scene moderatamente complesse contenenti più di 1 milione di poligoni. visto che te ne intendi, per una cpu non è un risultato abbastanza soddisfacente? un core duo della intel riesce a fare meglio?
mmmm..
mi sa che devo riportarti la traduzione CORRETTA allora dato che a quanto pare la tua era un pò approssimativa :p
Even though the PS3’s RSX is inaccessible under Linux the smart little system will reach out across the network and leverage multiple IBM QS20 blades to render the complex model, in real-time, with software based ray-tracing. Using IBM’s scalable iRT rendering technology, the PS3 is able to decompose each frame into manageable work regions and dynamically distribute them to blades or other PS3s for rendering.
Nonostante l'RSX, il chip grafico della PS3, sia inaccessibile da Linux, il nostro piccolo sistema, attraverso la rete, controllerà diversi Server Blade IBM QS20 per renderizzare il modello complesso, in real-time, utilizzando una tecnica di ray-tracing software. Utilizzando la scalabile tecnologia di rendering IBM iRT, la PS3 è in grado di scomporre ogni frame in diverse sotto-sezioni di grandezza opportuna e di distribuirle dinamicamente ad altre Blade o ad altre PS3 per essere renderizzate.
quindi, come puoi chiaramente vedere dalla traduzione corretta, per renderizzare quella scena (alla ridicola velocità di 2 FPS tra l'altro :rolleyes: ) non hanno utilizzato una sola PS3 ma hanno utilizzato un cluster di Blade e di PS3.
Se vuoi paragonarla col Core duo, allora la risposta è: si un cluster di core duo potrebbe* benissimo fare di meglio.
*il potrebbe dipende da n-mila fattori che non sto a spiegarvi.
Quello che tu chiami, giustamente, il nucleo del Cell è la PEE ed è basata su un core PowerPC molto semplificato e per giunta in-order.
Non mi stancherò mai di ripetere quanto poco siano efficienti le architetture in-order rispetto a quelle out of order utilizzate ad esempio sulle cpu di classe x86 (Ma non solo dato che anche i PowerPC erano ovviamente out of order).
Sì ma non esageriamo con questa storia dell'in-order!!
Ok, è meno efficiente, ma mica il processore va 10 volte meno!!!
Ho visto dei test dove i Cell della PS3 vanno mediamente la metà di un G5 di pari frequenza. Ma quest'ultimo ha più cache e soprattutto il doppio delle unità intere e FP, quindi il fatto che sia in-order conta fino ad un certo punto!! E0 semplicemente un core semplificato. Se ne mettono 2 vedi che alla fine è simile al G5.
Inoltre se l'architettura è stabile, o con JIT tipo LLVM, si può spostare l'ottimizzazione in fase di compilazione ed avere praticamente le stesse prestazioni (almeno in teoria) di una ben più complessa architettura out-of-order. Che poi è l'approccio utilizzato da Intel su Itanium.
^TiGeRShArK^
17-03-2007, 17:10
Il Cell può renderizzare facilmente parecchi milioni di poligoni,
Nessuno lo mette in dubbio.
Non certo in real-time però ;)
fare displacement mapping,
questo mi sa che rientra nella geometria se non erro.
radiosity,
qualche informazioni su come il cell possa gestire il radiosity in real-time di scene quanto meno paragonabili come complessità a quelle dei gioki odierni?
No..perchè mi sento *lievemente* scettico su questa tua affermazione :p
alleggerire la scena per RSX(culling), fare geometry shading,calcolare la fisica di parecchie migliaia di corpi ed è perfetto per la fluidodinamica.
E queste ultime rientrano tutte nella geometria e nella fisica.
Ora..come può il cell aiutare l'RSX nella grafica, o se preferisci meglio, nella pipeline grafica?
A parte le cose da te enunciate su cui sono MOLTO dubbioso e preferirei avere un link che quanto meno comprovasse la tua tesi, quasi tutto quello da te nominato si riferisce alla geometria e alla fisica.
Ma non mi pare che io stessi parlando di quelle ;)
Logicamente non può compiere tutte queste operazioni contemporaneamente visto che il numero delle SPE è limitato a 7 di cui 1 è riservata ad altri compiti.
Gli sviluppatori hanno a disposizione quindi 6 per il gioco.
In un futuro non troppo lontano, il Cell su Ps3 si occuperà di renderizzare i poligoni e RSX di rasterizzarli, e probabilmente i vertex shader di RSX saranno meno utilizzati.
e che utilità avrebbe sovraccaricare le SPE del cell per lasciare non sfruttate le unità destinate al calcolo dei vertici dell'RSX?
Te lo dico io. Nessuna.
L'unico motivo per utilizzare le SPE del cell per calcoli di geometria sarà quando le unità interne di RSX non ce la faranno + dato che come ben sai questo chip non è dotato di un design a shaders unificati.
Quindi, se in futuro ci si sbilancerà di + verso la geometria, allora il cell metterà una pezza effettuando queste operazioni sulle sue SPE, e quindi sacrificando risorse di calcolo che potrebbero essere occupate per qualcos'altro.
Alcune informazioni tratte da Beyon3D e dal sito ufficiale dei nuovi tool di sviluppo:
http://forum.beyond3d.com/showthread.php?t=39185&page=2
http://www.gfdata.de/archiv03-2007-gamefront/2881.html
Credo sia molto interessante.
Si..interessante notare soprattutto come per la scena che contiene la massiccia geometria siano impiegate ben 5 SPE... non mi pare resti molto altro per altri usi :D
@yossarian: non credo che le pipeline delle SPE abbiano una latenza alta, non l'avevo mai letto prima.
PS: Con questo post non vorrei passare per una fanboy Sony, non lo sono proprio. :D
Le latenze del Cell, se confrontate con quelle di una GPU hanno latenze + elevate dato che il Cell non è affatto pensato per essere utilizzato come una pipeline grafica, e infatti è strutturalmente poco adatto.
Ma qui non so precisamente tutti i dettagli di una pipeline grafica e immagino che yossarian ci potrà illuminare molto di +.. io dal canto mio immagino che manchino registri temporanei in maniera sufficiente e che soprattutto la quantità di unità di calcolo del Cell è molto inferiore rispetto a quella delle moderne GPU.
(Basti pensare all'elevatissimo numero di pixel pipeline presenti nelle schede odierne..mi pare che siano in un numero BEN superiore a 7 :p)
^TiGeRShArK^
17-03-2007, 17:16
ok, basta, mi arrendo. vi dispiace se consiglio ad ibm e a sony di assumervi come responsabili della nuova cpu per la play 4?
Il mio lavoro infatti non è progettare CPU.
E' programmarle.
anche se non nego che l'architettura delle varie CPU mi ha sempre appassionato e le conosco piuttosto bene.
secondo me ne viene fuori uno z80 ;-)
Con gli strumenti e il know-how attuale in uqel campo immagino che persino tu riusciresti a cavare fuori qualcosa di meglio di uno Z80 ;)
yossarian x questa frase "e cosa ne sai che non ne abbiamo già discusso?" vinci l'oscar del dubbio. da questo momento cercherò di non discutere di cose tecniche, anche a causa della poca conoscenza (penso di tutti). cmq, siamo tutti così bravi che invece di essere da qualche altra parte a programmare qualcosa per la ps3 (data la profonda conoscenza del cell da parte di qualcuno) siamo qui a mostrare chi ce l'ha più lungo e a sbolognare dati e opinioni che non stanno nè in cielo nè in terra (sopratutto da parte mia).
E tu che ne sai cosa facciamo noi nella vita? :asd:
ah..bhè....
allora....
visto che ti interessa tanto la mia vita sappi che da lunedì dubito che potrò rispondere dato che starò una settimana in olanda x lavoro ;)
^TiGeRShArK^
17-03-2007, 17:18
un spe ha una singola pipeline di tipo single threaded (mi riferisco a quella che effettivamente svolge i calcoli). 8 SPE equivalgonmo a 8 pipeline single threaded; una gpu come G7x, ha 24 pixel pipeline multithreaded. Durante un'elaborazione, ci sono operazioni con latenze molto elevate (ad esmepio quelle di texturing; d'altra parte, alla ATi non sono degli idioti, eppure, con la serie X1xx0 hanno utilizzato texture cache di tipo fully associative, complicando non poco l'architettura del chip, pur di ridurre al mininmo il rischio di cache miss). Immagina che un spe stia svolgendo un task che richiede l'applicazione di una texture (oil che nelle pixel pipeline capita piuttosto di frequente :D ). L'elaborazione si arresta in attesa del dato mancante; se la pipeline fosse multithreaded, il task potrebbe essere messo da parte, in attesa del dato e, nel frattempo, le alu potrebbero iniziare a processare il task successivo. In un spe, al contrario, succede che l'elaborazione si blocca fino a che non arriva la texture (il che può voler dire anche centinaia di cicli persi).
ottima spiegazione :D
^TiGeRShArK^
17-03-2007, 17:23
Allo stesso tempo lo sbilanciamento per il calcolo vettoriale (e solo a singola precisione, perchè alla PS3 bastava) ha penalizzato l'utilizzo general-pourpose, tanto che un Cell in quest'ambito pare essere circa 4 volte più lento di uno Xenon dual core (il massimo della tecnologia Intel). Quindi Apple non ha ritenuto di impiegarlo (anche se sui test di Photoshop avrebbe comunque potuto dichiarare che il Mac con Cell era 5-10 volte più veloce di un PC) ed è passata ad Intel.
bhè....
la apple riesce sempre a dire che il suo nuovo prodotto è 5-10 volte + veloce di qualcos'altro :asd:
Certo rimangono molti ambiti dove il Cell eccelle, dove le CPU sono troppo generiche e le GPU troppo specializzate. Ma le GPU in particolare stanno sempre più andando a pestare i piedi dove il Cell è forte, quindi a questo punto la sua utilità inizia ad essere dubbia. Ma non credo lo sia ancora e penso che si ritaglierà il suo spazio come coprocessore o per oggetti multimediali da mettere sotto la TV o simili. Per esempio per l'iTV avrei visto 1000 volte meglio un Cell del centrino che hanno utilizzato.
infatti è + o - la mia idea.
Certo ancora non si può dire perchè le GPGPU sono ancora ad uno stato praticamente embrionale...
Però sembrano una tecnologia molto promettente.
yossarian
17-03-2007, 17:26
Sì ma non esageriamo con questa storia dell'in-order!!
Ok, è meno efficiente, ma mica il processore va 10 volte meno!!!
Ho visto dei test dove i Cell della PS3 vanno mediamente la metà di un G5 di pari frequenza. Ma quest'ultimo ha più cache e soprattutto il doppio delle unità intere e FP, quindi il fatto che sia in-order conta fino ad un certo punto!! E0 semplicemente un core semplificato. Se ne mettono 2 vedi che alla fine è simile al G5.
Inoltre se l'architettura è stabile, o con JIT tipo LLVM, si può spostare l'ottimizzazione in fase di compilazione ed avere praticamente le stesse prestazioni (almeno in teoria) di una ben più complessa architettura out-of-order. Che poi è l'approccio utilizzato da Intel su Itanium.
non sempre è possibile spostare l'ottimizzazione a livello di compilatore; quando lo si può fare, in teoria il gap viene annullato; nella realtà, però, i chip IO risultano molto meno flessibili rispetto a quelli OoO e questo, in applicazioni di tipo GP è un aspetto da non sottovalutare.
non sempre è possibile spostare l'ottimizzazione a livello di compilatore; quando lo si può fare, in teoria il gap viene annullato; nella realtà, però, i chip IO risultano molto meno flessibili rispetto a quelli OoO e questo, in applicazioni di tipo GP è un aspetto da non sottovalutare.
E comunque quanto incide alla fine? Hai dei numeri?
Da quelli che ho visto io non molto, almeno non necessariamente tutti imputabili all'architettura in-order.
Se la semplificazione architetturale permette un innalzamento della frequenze (come nel caso del Cell) che colma il gap di prestazioni, semplicemente si è scelto un approccio diverso al problema, più efficiente dal punto di vista n. transistor/prestazioni, quindi più economico da produrre, ma ugualmente efficiente dal punto di vista prestazionale.
Credo che questa sia stata la filosofia di IBM per il Cell.
^TiGeRShArK^
17-03-2007, 17:36
Sì ma non esageriamo con questa storia dell'in-order!!
Ok, è meno efficiente, ma mica il processore va 10 volte meno!!!
Ho visto dei test dove i Cell della PS3 vanno mediamente la metà di un G5 di pari frequenza. Ma quest'ultimo ha più cache e soprattutto il doppio delle unità intere e FP, quindi il fatto che sia in-order conta fino ad un certo punto!! E0 semplicemente un core semplificato. Se ne mettono 2 vedi che alla fine è simile al G5.
Inoltre se l'architettura è stabile, o con JIT tipo LLVM, si può spostare l'ottimizzazione in fase di compilazione ed avere praticamente le stesse prestazioni (almeno in teoria) di una ben più complessa architettura out-of-order. Che poi è l'approccio utilizzato da Intel su Itanium.
E infatti si è visto il grossissimo successo di Itanium :asd:
scherzi a parte.
Per quanto si possa anche utilizzare l'approccio EPIC di Itanium (cosa di cui dubito fortemente sul cell) dovresti sapere che una CPU Out of Order è inerentemente + efficiente, per quante ottimizzazioni possa fare un compilatore.
Ora, che tu mi dica che esistano applicazioni in cui una cpu in order e out of order abbiano prestazioni del tutto comparabile nessuno lo mette in dubbio.
Ma immagina una situazione magari pesantemente multi-threaded con molteplici accessi alla memoria.
In quel caso semplicemente le prestazioni di una CPU in-oder crolleranno, perchè appena trova una banalissima istruzione che richiede accesso alla memoria (una semplice MOV che carichi un registro ad esempio) e il dato non si trova nè nella L1 nè nella L2, allora la CPU si ritroverà a perdere un centinaio di cicli di clock nell'attesa del dato, perchè NON può in nessun modo eseguire le istruzioni successive.
Una CPU out of order invece, a meno di problemi di dipendenze, può tranquillamente continuare il suo lavoro mentre attende che il dato venga caricato dalla memoria.
Da notare come il modello in-order si adatti particolarmente ad elaborazioni di flussi di dati, ed è principalmente per questo motivo che è stato adottato nel cell (Oltre ovviamente al risparmio derivato dall'architettura è semplificata).
Nessuno lo mette in dubbio.
Non certo in real-time però ;)
http://www.multiplayer.it/forum/showpost.php?p=4626502&postcount=3474
Qualcuno usera' certamente in futuro (e qualcuno lo fa gia' ora..) le SPUs per rimuovere triangoli non visti, per fare progressive mesh, displacent mapping, etc.. e certamente daranno una bella mano a RSX ,ma gli SPE sono cosi' stupidamente veloci che probabilmente una singola SPU potrebbe tranquillamente macinare qualche milione di triangoli per frame senza neanche sbattersi piu' di tanto
nAo è uno sviluppatore italiano che lavora nei Ninja Theory, il team di Heavenly Sword. :)
Sul forum di Beyond3D ci sono tonnellate di informazioni su Ps3, scritte da svariati programmatori di Ps3 e Xbox360.
http://forum.beyond3d.com/forumdisplay.php?f=15
Questo thread è particolarmente interessante e non ci sono numeri teorici ma numeri reali. La tech demo a cui mi riferivo prima è stata realizzata in sole 2 settimane da 2 programmatori attraverso questo nuovo tool di sviluppo chiamato Edge.
http://forum.beyond3d.com/showthread.php?t=39185&page=4
^TiGeRShArK^
17-03-2007, 17:38
E comunque quanto incide alla fine? Hai dei numeri?
Da quelli che ho visto io non molto, almeno non necessariamente tutti imputabili all'architettura in-order.
Se la semplificazione architetturale permette un innalzamento della frequenze (come nel caso del Cell) che colma il gap di prestazioni, semplicemente si è scelto un approccio diverso al problema, più efficiente dal punto di vista n. transistor/prestazioni, quindi più economico da produrre, ma ugualmente efficiente dal punto di vista prestazionale.
Credo che questa sia stata la filosofia di IBM per il Cell.
Che tipo di applicazione hai visto che si comportava in maniera pressochè equivalente tra Cell e Power PC?
Perchè, come ho detto prima, tale modello è utile soprattutto se utilizzato nell'analisi di flussi di dati (che è proprio l'utilizzo PRINCIPE del cell e per questo IBM ha scelto il modello in-order consentendo una maggiore frequenza per via della maggiore semplicità architetturale).
non sempre è possibile spostare l'ottimizzazione a livello di compilatore; quando lo si può fare, in teoria il gap viene annullato; nella realtà, però, i chip IO risultano molto meno flessibili rispetto a quelli OoO e questo, in applicazioni di tipo GP è un aspetto da non sottovalutare.
Le architetture ooo sono necessarie sui PC perchè le implementazioni sono estremamente eterogenee e quindi chi fa il compilatore comunque non saprebbe per chi ottimizzare (Pentium III? Pentium IV? CoreDuo? Amd? Ecc). Ma di Cell ce n'è uno solo... almeno per ora e sicuramente per la PS3, quindi il lavoro dovrebbe essere più semplice e le differenze prestazionali minori.
^TiGeRShArK^
17-03-2007, 17:42
http://www.multiplayer.it/forum/showpost.php?p=4626502&postcount=3474
mi sfugge l'attinenza del post che hai linkato con quello che ti chiedevo sul radiosity in real-time :D
nAo è uno sviluppatore italiano che lavora nei Ninja Theory, il team di Heavenly Sword. :)
Lo so ;)
Partecipò lungamente anke lui alla discussione di diverso tempo fa sul Cell, insieme a me, Yossarian, Cdimauro, Fek (programmatore della LionHead) e tanti altri che non ti sto a nominare che non finiamo + :D
Sul forum di Beyond3D ci sono tonnellate di informazioni su Ps3, scritte da svariati programmatori di Ps3 e Xbox360.
http://forum.beyond3d.com/forumdisplay.php?f=15
Questo thread è particolarmente interessante e non ci sono numeri teorici ma numeri reali. La tech demo a cui mi riferivo prima è stata realizzata in sole 2 settimane da 2 programmatori attraverso questo nuovo tool di sviluppo chiamato Edge.
http://forum.beyond3d.com/showthread.php?t=39185&page=4
tnx x i link ;)
ora gli do un'okkiata :p
yossarian
17-03-2007, 17:45
Le latenze del Cell, se confrontate con quelle di una GPU hanno latenze + elevate dato che il Cell non è affatto pensato per essere utilizzato come una pipeline grafica, e infatti è strutturalmente poco adatto.
Ma qui non so precisamente tutti i dettagli di una pipeline grafica e immagino che yossarian ci potrà illuminare molto di +.. io dal canto mio immagino che manchino registri temporanei in maniera sufficiente e che soprattutto la quantità di unità di calcolo del Cell è molto inferiore rispetto a quella delle moderne GPU.
(Basti pensare all'elevatissimo numero di pixel pipeline presenti nelle schede odierne..mi pare che siano in un numero BEN superiore a 7 :p)
un chip multithreaded prevede non solo più unità di immagazzinamento dati (registri e cache interne), ma anche circuiti logici di trasmissione e di controllo più complessi. In ogni momento, il controller deve essere "informato" della situazione dell'elaborazione per ogni singola alu, in modo da poter intervenire in caso di rischi di stallo (quindi deve esserci un continuo scambio di informazioni tra alu e controller).
^TiGeRShArK^
17-03-2007, 17:50
un chip multithreaded prevede non solo più unità di immagazzinamento dati (registri e cache interne), ma anche circuiti logici di trasmissione e di controllo più complessi. In ogni momento, il controller deve essere "informato" della situazione dell'elaborazione per ogni singola alu, in modo da poter intervenire in caso di rischi di stallo (quindi deve esserci un continuo scambio di informazioni tra alu e controller).
mmmm..
questo mi ricorda il ring-bus di R520.... o sbaglio? :p
Che tipo di applicazione hai visto che si comportava in maniera pressochè equivalente tra Cell e Power PC?
Perchè, come ho detto prima, tale modello è utile soprattutto se utilizzato nell'analisi di flussi di dati (che è proprio l'utilizzo PRINCIPE del cell e per questo IBM ha scelto il modello in-order consentendo una maggiore frequenza per via della maggiore semplicità architetturale).
La metà di un G5 a parità di frequenza, non proprio equivalente.
Questo: http://www.geekpatrol.ca/2006/11/pla...3-performance/
Ma ora non funziona.
E' un benchmark sotto Linux con decine di test...
Le differenze sono molte in un verso o nell'altro a seconda del test, ma il risultato è quello...
Lo stesso bench su un MacPro (Xeon 2.66 Ghz, credo) dava risultati circa 4 volte superiori, da cui è evidente perchè Apple è passata a quelli...
Ovviamente testa solo la PPE del Cell, visto che non include codice per le SPE.
^TiGeRShArK^
17-03-2007, 18:04
Le architetture ooo sono necessarie sui PC perchè le implementazioni sono estremamente eterogenee e quindi chi fa il compilatore comunque non saprebbe per chi ottimizzare (Pentium III? Pentium IV? CoreDuo? Amd? Ecc). Ma di Cell ce n'è uno solo... almeno per ora e sicuramente per la PS3, quindi il lavoro dovrebbe essere più semplice e le differenze prestazionali minori.
NO.
Il problema non dipende dall'architettura utilizzata.
Itanium per limitare in parte il problema utilizzava gli accessi alla memoria in maniera predicativa a livello di codice sorgente, in pratica il programmatore e il compilatore potevano dire quando pensavano che sarebbe avvenuto un accesso alla memoria e il codice sarebbe stato genereato con le istruzioni nell'ordine giusto per limitare i danni.
Il problema è però ke quest'approccio statico è molto meno efficiente di quello dinamico calcolato dallo scheduler del processore.
E, come ho detto prima, in applicazioni che richiedono molteplicic accessi alla memoria e che siano magari anche multi-threaded la differenza è evidente.
^TiGeRShArK^
17-03-2007, 18:06
La metà di un G5 a parità di frequenza, non proprio equivalente.
Questo: http://www.geekpatrol.ca/2006/11/pla...3-performance/
Ma ora non funziona.
E' un benchmark sotto Linux con decine di test...
Le differenze sono molte in un verso o nell'altro a seconda del test, ma il risultato è quello...
Lo stesso bench su un MacPro (Xeon 2.66 Ghz, credo) dava risultati circa 4 volte superiori, da cui è evidente perchè Apple è passata a quelli...
Ovviamente testa solo la PPE del Cell, visto che non include codice per le SPE.
ehm...
se non sappiamo che genere di test sono mi pare difficile analizzare alcunchè :D
yossarian
17-03-2007, 18:07
Le architetture ooo sono necessarie sui PC perchè le implementazioni sono estremamente eterogenee e quindi chi fa il compilatore comunque non saprebbe per chi ottimizzare (Pentium III? Pentium IV? CoreDuo? Amd? Ecc). Ma di Cell ce n'è uno solo... almeno per ora e sicuramente per la PS3, quindi il lavoro dovrebbe essere più semplice e le differenze prestazionali minori.
su una unica piattaforma le ottimizzazioni sono sicuramente più semplici; questo però non significa che ps3 o xbox360 non si sarebbero giovate dell'adozione di una cpu OoO; quando si fa un progetto si deve scendere a tanti compromessi: un progetto relativo ad una console impone più compromessi rispetto a molti altri. Questo perchè si hanno problemi di spazio, di raffreddamento, di contenimento dei costi. Il cell in particolare, poi, è pensato anche per applicativi che non necessitano di elaborazione OoO (al contrario di xenon che non credo si vedrà mai al di fuori di una console)
yossarian
17-03-2007, 18:21
mmmm..
questo mi ricorda il ring-bus di R520.... o sbaglio? :p
no, il ring bus serve ad ottimizzare il trasferimento dati da e verso la ram e tra unità di calcolo; è la soluzione più efficiente tra quelle a buon mercato (non a caso è stata adottata sia da IBM sul cell che da ATi sulle sue gpu).
Il principio su cui si basa il ring bus è molto semplice: su un crossbar tradizionale, ogni braccio serve un certo numero di chip di ram. Nel momento in cui una unità di calcolo ha bisogno di accedere alla ram, l'arbiter riceve la richiesta di accesso, ne valuta la priorità (insieme alle altre richieste pervenute), la invia al chip a cui è stato chiesto di accedere e quindi procede all'evasione della richiesta. In pratica, segue tutto il processo, ad esempio, di trasferimento dati da e verso la ram (che si può dividere in 4 fasi).
Con il ring bus, invece, una volta che il controller ha ricevuto la richiesta e l'ha inoltrata viene reso libero di passare ad elaborare altre richieste; supponiamo che si debba trasferire dei dati da un chip di ram verso un'unità di calcolo, questi sono messi in circolo all'interno del ring (ovviamente il pacchetto contiene anche l'informazione relativa alla alu o pipeline che deve farne uso); una volta che il pacchetto arriva in corrispondenza dell'unità che ne ha fatto richiesta, viene automaticamente smistato senza ulteriori interventi da parte del controller.
Ovvio che anche una struttura ad anello presenta dei punti deboli e, all'aumentare del numero di unità di calcolo o di chip di ram, rischia di perdere efficienza (questo è uno dei motivi per cui nei chip ATi, le unità sono sempre raggruppate in cluster di 12, 16, ecc, alu).
Invece, ad essere multithreaded è la singola pipeline (o la singola alu)
E dimmi quando pensate di farci vedere l'R600?( :fiufiu: )
yossarian
17-03-2007, 19:08
siamo pericolosamente OT :nonio:
Ops (:D ) hai ragione, mi spiace.
ottima novità, perché non partecipano anche le altre consolle al progetto? sarebbe bellissimo, immaginate come si accorcerebbero i tempi di ricerca.
p.s. comunque volendo butterei dentro anche i comunic pc.
blackshard
18-03-2007, 14:56
Ti auguro di non ammalarti mai delle seguenti malattie:
morbo di Parkinson o di Alzheimer, la fibrosi cistica e altri cancri.
Perchè la tua idea d'andarci CONTRO avrà rallentato le rispettive ricerche.
In conclusione ricordiamo che la maggior parte dei risultati sono di dominio pubblico e quindi consultabili da chi na ha bisogno.
Tu sei completamente pazzo! E non capisci una ceppa di quello che leggi.
Come al solito c'è sempre chi legge una cosa e poi parte per la tangente facendo connessioni in lungo e in largo.
Ti rendi conto di quello che TU pensi che IO sia contro la ricerca? Dov'è che ho scritto "sono contro la ricerca"? Trovamelo dai, ti do' 1000 euro.
Ti rendi conto che io stavo commentando solo e soltanto la notizia e i riflessi pubblicitari per sony, e non ho mai detto nulla sulla bontà di folding@home?
Bah... probabilmente sono solo parole sprecate...
gabi.2437
18-03-2007, 18:39
ottima novità, perché non partecipano anche le altre consolle al progetto? sarebbe bellissimo, immaginate come si accorcerebbero i tempi di ricerca.
p.s. comunque volendo butterei dentro anche i comunic pc.
Altra dimostrazione dell'ignoranza nei riguardi del calcolo distribuito (e per forza, non se ne parla mai, uno quindi le cose non se le può inventare)
I PC POSSONO PARTECIPARE EH
Esistono DECINE di progetti che usano i pc, il client di folding@home per la ps3 è un extra
Susu, date un'occhiata alla sezione "Calcolo distribuito" di questo forum
Yossarian ma quindi secondo te l'utilizzo del Cell per renderizzare i poligoni non servirà? E' vero che sul pc si ha una grossa disparità tra vertex e pixel shader, ma su console potrebbe essere diverso, e le pixel pipeline di RSX sfruttate in manieria molto migliore.
:)
yossarian
19-03-2007, 00:18
Yossarian ma quindi secondo te l'utilizzo del Cell per renderizzare i poligoni non servirà?
può servire solo per calcoli geometrici e alcune operazioni di post processing; non per il resto. Inoltre, c'è da sottolineare che il cell ha un apotenza enorme nei calcoli in fp per essere una cpu, ma come gpu non brillerebbe, anche se avesse un'architettura adatta ad effettuare rendering (tanto per fare un paragone, una gpu da 200 Gflops teorici, a livello di potenza di calcolo, è inferiore a RSX: e il cell non è una gpu)
E' vero che sul pc si ha una grossa disparità tra vertex e pixel shader, ma su console potrebbe essere diverso, e le pixel pipeline di RSX sfruttate in manieria molto migliore.
:)
ps3 utilizza una varsione di opengl ridotta (per adattarla ad una console) e customizzata (in base alle esigenze di rsx); inoltre, dell'architettura di RSX aka G70, si conoscono pregi, difetti e limiti.
ancora l'ennesima trovata pubblicitaria!!!!
non ci cascate!!!!!
non e' vero niente!!!!!
chissa' quanti soldi sony ha data a standford per tirar fuori una falsità del genere!!!!
tutto questo per convincere la gente che il cell e' un processore potentissimo, cosa reale solo in particolari condizioni...
e che le console servono anche a fare qualcosa di utile...
lasciate stare!!!!
se fosse stato tanto potente come processore si sarebbe visto nei video games...che necessitano di una precisione di calcolo enormemente inferiore rispetto agli algoritmi scientifici....invece a parte l'alta definizione la ps3 gestisce la fisica poco piu' di quanto si faccia gia' con la ps2 e alla pari di un normalissimo pc di ultima generazione.....
e continuano a dire falsita!!!!!
mcgyver83
19-03-2007, 08:13
Io non volgio fare polemica ma solo una considerazione di bassissimo livello (se avessi l'adsl flat parteciperei) : una cosa quando la usi si usura, più la usi più si usura e più si usura più si rompe...
Ovviamente bisogna vedere quanto questa usura è particolare.... comunque ad esempio gli alimentatori dei pc forse non sono fatti per stare accessi una settimana con la cpu al 100%..
Poi ovviamente l'usura è minima, anche i rischi di sablzi di tensione,temperatura alta per lunghi periodi...
Detto questo io parteciperei se avessi la flat perchè di questa usura è sicuramente minima ma non è vero che i componenti non si degradano...
bonzuccio
19-03-2007, 09:01
no, questo è il modo in cui IBM pensa di utilizzare il cell per fare rendering.
Capisci bene che, personalemente, non saprei che farmene un cluster di 20 o 30 per svolgere il lavoro che una singola gpu può fare meglio.
Il cell non è in grado di fare rendering: punto; al massimo può dare un amano nei calcoli geometrici e in qualche operazione di post processing. Per il resto, o ce la fa RSX o nisba.
Il resto, come ho già detto, sono tutte chiacchiere e discussioni (nonchè dimostrazioni) accademiche, ovvero fini a sé stesse
Non farà rendering ma le operazioni che fa secondo me ne fanno una cpu degna di stare in una console di gioco
può servire solo per calcoli geometrici e alcune operazioni di post processing; non per il resto. Inoltre, c'è da sottolineare che il cell ha un apotenza enorme nei calcoli in fp per essere una cpu, ma come gpu non brillerebbe, anche se avesse un'architettura adatta ad effettuare rendering (tanto per fare un paragone, una gpu da 200 Gflops teorici, a livello di potenza di calcolo, è inferiore a RSX: e il cell non è una gpu)
ps3 utilizza una varsione di opengl ridotta (per adattarla ad una console) e customizzata (in base alle esigenze di rsx); inoltre, dell'architettura di RSX aka G70, si conoscono pregi, difetti e limiti.
Difetti e limiti bilanciabili dal cell da quello che ho capito.
Se a questo si aggiunge che i giochi prima o poi saranno ottimizzati per questa architettura (per non parlare delle potenzialità puramente multimediali di questa cpu) IMHO solo su ps3 avremo giochi che daranno un'esperienza NUOVA: attualmente si ha una elasticità impensabile su altre console, tanto da poterci far andare linux e software per il calcolo distribuito, effettuare decoding/encoding di streaming audio e video con prestazioni da far impallidire i dsp di player professionali e le cpu/gpu di workstation dal costo ben maggiore (se ne esistono di tali), con anche qualche velleità di rendering..
ma su quest'ultimo punto chi aveva letto voi e qualche altro articolo sa bene che è una esagerazione da prendere con le molle.
Resta il fatto che a una cpu senza OoO che fa quello che può fare il cell fornire un compilatore adatto, oltre a tecniche di programmazione adatte al Cell, sono qualcosa che ha un senso prendere fortemente in considerazione.. come diceva giustamente Criceto.
Io mi occupo di altre cose e nel dettaglio sputo sangue su cose diverse dalla programmazione/comprensione di
architetture di video processing ma permettimi di fare il "politicante" dove si parla di cose che comunque mi appassionano
e di intervenire con le mie sintesi dopo 10 pagine di discussione :D
yossarian
19-03-2007, 10:46
Non farà rendering ma le operazioni che fa secondo me ne fanno una cpu degna di stare in una console di gioco
non credo che qualcuno reputi il cell una cpu indegna di stare in una console; certo è che il porgetto non è nato avendo come ottica quella del gaming. Il cell non è una cpu per giocare, ma una cpu con cui si può anche giocare
Difetti e limiti bilanciabili dal cell da quello che ho capito.
forse non mi sono spiegato; in ambito gaming, il cell deve gestire la fisica (e lo fa piuttosto bene), l'IA (e qui è piuttosto carente), l'audio, il PPE e un SPE sono occupati dal S.O. e, in più, dovrebbe coadiuvare RSX (potendolo fare solo in ambiti ben precisi al di fuori dei quali è perfettamente inutile). Quel demo (perchè non è altro) che si è visto, qualunque chip grafico, anche vecchio di 5, 6 o 7 anni, potrebbe riprodurlo meglio e in maniera molto più fluida.
Ho l'impressione che si sia calcata troppo la mano su questa presunta potenza di ps3 (prima la sparata sui 2 Tflops, adesso tutte queste "dimostrazioni di potenza" del cell che, all'atto pratico non dimostrano niente di diverso da quello che già si sapeva), al punto che molti si sono fatti l'idea che in questa console ci sia una riserva di potenza tale da poter permettere qualunque cosa. Purtroppo non è assoluatamente così: l'unica potenza che fin qui si è vista all'opera è quella del marketing.
Se a questo si aggiunge che i giochi prima o poi saranno ottimizzati per questa architettura (per non parlare delle potenzialità puramente multimediali di questa cpu) IMHO solo su ps3 avremo giochi che daranno un'esperienza NUOVA:
liberissimo di pensarlo; resta il fatto che la gpu di ps3 è inferiore a quella di xbox360; ed è la gpu che determina, per lo più, le prestazioni del comparto grafico.
attualmente si ha una elasticità impensabile su altre console, tanto da poterci far andare linux e software per il calcolo distribuito,
pensi che sulla 360 non ci possa girare linux o che, ad esempio, R500 non possa far girare SW per il calcolo distribuito? Le gpu ATi della serie 5x0 se la cavano piuttosto bene con le simulazioni fisiche e il calcolo distribuito :D
effettuare decoding/encoding di streaming audio e video con prestazioni da far impallidire i dsp di player professionali e le cpu/gpu di workstation dal costo ben maggiore (se ne esistono di tali),
forse perchè il cell è stato progettato anche per quello
con anche qualche velleità di rendering..
ma su quest'ultimo punto chi aveva letto voi e qualche altro articolo sa bene che è una esagerazione da prendere con le molle.
su questo penso di essermi già espresso
Resta il fatto che a una cpu senza OoO che fa quello che può fare il cell fornire un compilatore adatto, oltre a tecniche di programmazione adatte al Cell, sono qualcosa che ha un senso prendere fortemente in considerazione.. come diceva giustamente Criceto.
ci sono cose, come simulazioni fisiche, calcolo distribuito, o codec audio/video, per cui non serve una cpu OoO; e sono tutte cose che il cella fa molto bene :D
Io mi occupo di altre cose e nel dettaglio sputo sangue su cose diverse dalla programmazione/comprensione di
architetture di video processing ma permettimi di fare il "politicante" dove si parla di cose che comunque mi appassionano
e di intervenire con le mie sintesi dopo 10 pagine di discussione :D
è nel tuo pieno diritto :D
Consiglio la lettura di questo thread, Yoss secondo me stai sottovalutando un poco il Cell, mentre altri invece lo osannano all'eccesso.
http://forum.beyond3d.com/showthread.php?t=39185
Non ho la pretesa di comprendere nel dettaglio ogni cosa discussa in quel thread, però mi pare evidente che le due architetture
vanno trattate come richiedono.
yossarian
19-03-2007, 12:30
Consiglio la lettura di questo thread, Yoss secondo me stai sottovalutando un poco il Cell, mentre altri invece lo osannano all'eccesso.
http://forum.beyond3d.com/showthread.php?t=39185
Non ho la pretesa di comprendere nel dettaglio ogni cosa discussa in quel thread, però mi pare evidente che le due architetture
vanno trattate come richiedono.
ho letto il thread e mi sembra che quanto detto non si discosti da quello che si è affermato in questo o altri thread su HWU su cell, rsx, xenon e xenos; in poche parle, partendo dall'assunto che xenos ha un innegabile vantaggio nei confronti di rsx nel processare i vs, la discussione verte sull'utilizzo del cell come aiuto a rsx per i calcoli geometrici. Da un lato c'è che, avebdo screitoo codice per entrambe le console, sostiene che facendo un porting da x360 a ps3, senza l'ausilio di una spu, si deve ridurre il numero dei triangoli per frame, dall'altro chi sostiene che sono rari i casi in cui si è vs bounded. In realtà, dipende da cosa hai a disposizione a livello di HW e da cosa vuoi realizzare e in che modo.
E' ovvio che le console sono piuttosto differenti come concezione; la dimostrazione è anche nel fatto che ps3 punta molto sul cell, mentre x360 ha come punto di forza xenos.
Si tratta di una discussione interessanto come molte su B3D, ma che non aggiunge niente a quello che già si conosce su queste due architetture.
Non si tratta di sottovalutare o meno il cell; come ogni architettura ha pregi e difetti. Nasce per essere impiegato in molti campi anche diversi tra loro, però questo non significa che rappresenti l'eccellenza in ciascuno di questi. Ci sono cose che fa molto bene, altre un po' meno, per altre è del tutto inutile (come ogni altro pezzo di silicio :D ).
Qui mi pare che si ecceda, invece, in senso opposto. Prima con la storia dei 2 Tflops, adesso con il cell che sembra sia in grado di fare tutto, compresi pernottamento e mazza pensione :D.
Forse bisognerebbe stare un po' di più con i piedi per terra e valutare le cose in maniera più obiettiva.
Questa del calcolo distribuito è una buona cosa ed è una di quelle applicazioni in cui il cell se la cava bene. Questo non vuol dire che se può fare calcolo distribuito, ad esempio, meglio di un core duo, sia, in assoluto migliore di un core duo per fare ogni cosa. Il core duo è progettato per fare altro e quell'altro può capitare che lo faccia meglio del cell. In poche parole, non esiste la cpu o la gpu o qualunque altra cosa che sia "definitiva", in assoluto la migliore
bonzuccio
19-03-2007, 12:51
Posto quindi il fatto che cell può aiutare rsx nel rendering delle immagini (visto che rsx è sottodimensionata sui vertex shader) le architetture a livello di potenza più o meno si equivalgono.
Quello che non era proprio chiaro è il fatto che cell dialoga con la vga a velocità molto alte tanto da poterne essere considerato un prolungamento,
se questo avviene significa che se da una parte hai una architettura "quasi" unificata e quindi flessiile in questo senso dall'altra risulta anche vero che dipende cosa ci vuoi fare e il Cell risulta essere nel totale un valore aggiunto per fisica ed IA senza decadimenti prestazionali.. oltre a garantire la stessa flessibilità sui calcoli di pixel e vertex
due spe possiamo darle anche al folding@home 24/7 fino a quando non le useranno a dovere
yossarian
19-03-2007, 12:59
Posto quindi il fatto che cell può aiutare rsx nel rendering delle immagini (visto che rsx è sottodimensionata sui vertex shader) le architetture a livello di potenza più o meno si equivalgono.
no, perchè xenos è più efficiente di rsx anche nelle operazioni relative al pixel shading core (immagino che il paragone tra G80 e G7x sia sotto gli occhi di tutti; ebbene, sulla carta la potenza di calcolo di una 7950 GTX e quella di una 8800 GTX, calcolata in Gflops, è molto simile.............sulla carta :D ).
Le due architetture possono equivalersi nel complesso (a livello di potenza teorica ps3 ha qualcosa in più); questo non significa che si equivalgono in tutti gli ambiti: ci sono cose che fa meglio x360, altre che fa meglio ps3
Quello che non era proprio chiaro è il fatto che cell dialoga con la vga a velocità molto alte tanto da poterne essere considerato un prolungamento,
se questo avviene significa che se da una parte hai una architettura "quasi" unificata e quindi flessiile in questo senso dall'altra risulta anche vero che dipende cosa ci vuoi fare e il Cell risulta essere nel totale un valore aggiunto per fisica ed IA senza decadimenti prestazionali.. oltre a garantire la stessa flessibilità sui calcoli di pixel e vertex
due spe possiamo darle anche al folding@home 24/7 fino a quando non le useranno a dovere
scordatelo; la velocità di connessione tra due unità di calcolo fisicamente separate non è sempre diversi ordini di grandezza superiore a quello di unità di calcolo presenti sullo stesso die, per tutta una serie di ragioni che diventa lungo e complesso star qui ad elencare.
bonzuccio
19-03-2007, 13:41
A parte che io preferisco lo sviluppo di giochi maggiormente cpu-centrici per svariati motivi non ultimi che ste vga vanno il doppio ma pesano e consumano il doppio figuriamoci se gli vogliamo pure far fare altre cose :doh:
Poi se mi metti davanti 2 piattaforme e una è più "open" la preferisco essendo che per sfruttarla vangono più cervelli e mi dovrò sorbire meno marketing (in teoria) e quella di folding@home non è marketing
ma necessaria informazione per farlo adottare ai possessori di milioni di cell in giro per il mondo
questa è la situazione
RSX
- 550 MHz
- 8 unità di vertex
- 24 pixel pipelines
- 24 unità di texture
- 48 pixel ALU (che fanno pure texturing) + 48mini ALU (che si caricano delle texture facendo piccoli calcoli specializzati per le pixel alu)
Xenos
- 500 MHz
- 48 pixel ALU's (che fanno anche lavoro di vertex)
- 16 unità di texture separate
Mi spiegate dove sta scritto che Xenos è meglio??
A livello di gestione delle texture non mi sembra ci sia paragone e nemmeno di pixel shading
Le architetture a shader unificate sono pensate per i pc dove le sh non si preoccupano del fatto che hai più unità di vertex o di pixel e non hanno bisogno di bilanciare, in una console se il developer sa che tu hai quella determinata scheda sfrutterà quella scheda nel modo migliore
Si ma se alla base non ci sono unità vertex sufficienti e il gioco o la scena ne fa ampio uso l'rsx crolla o comunque è l'emento negativo, da qui le strategie per capire se il cell può alleviare in qualche modo.
bonzuccio
19-03-2007, 14:00
Si ma se alla base non ci sono unità vertex sufficienti e il gioco o la scena ne fa ampio uso l'rsx crolla o comunque è l'emento negativo, da qui le strategie per capire se il cell può alleviare in qualche modo.
7x00 contro x1000 nvidia ne esce con le ossa rotte anche se se ne esce sempre prima... è una mia convinzione.. :D
Nel tuo link i developer dicono che senza cell bisognerebbe dimunuire il numero di poligoni rispetto a xenos
per avere la stessa scena fluida allo stesso modo e li dicono che è possibile.
Ma se il collo di bottiglia si allarga allora sprigioni una potenza non indifferente a cui niente sta dietro (in teoria)
poi se non si può fare allora ciccia
comunque per chiudere questo indegno se pur interessante ot rimando a
http://www.hwupgrade.it/forum/showthread.php?t=1408220
scusate ma ogni occasione è buona per imparare :)
yossarian
19-03-2007, 16:16
A parte che io preferisco lo sviluppo di giochi maggiormente cpu-centrici per svariati motivi non ultimi che ste vga vanno il doppio ma pesano e consumano il doppio figuriamoci se gli vogliamo pure far fare altre cose :doh:
Poi se mi metti davanti 2 piattaforme e una è più "open" la preferisco essendo che per sfruttarla vangono più cervelli e mi dovrò sorbire meno marketing (in teoria) e quella di folding@home non è marketing
ma necessaria informazione per farlo adottare ai possessori di milioni di cell in giro per il mondo
questa è la situazione
RSX
- 550 MHz
- 8 unità di vertex
- 24 pixel pipelines
- 24 unità di texture
- 48 pixel ALU (che fanno pure texturing) + 48mini ALU (che si caricano delle texture facendo piccoli calcoli specializzati per le pixel alu)
Xenos
- 500 MHz
- 48 pixel ALU's (che fanno anche lavoro di vertex)
- 16 unità di texture separate
Mi spiegate dove sta scritto che Xenos è meglio??
A livello di gestione delle texture non mi sembra ci sia paragone e nemmeno di pixel shading
Le architetture a shader unificate sono pensate per i pc dove le sh non si preoccupano del fatto che hai più unità di vertex o di pixel e non hanno bisogno di bilanciare, in una console se il developer sa che tu hai quella determinata scheda sfrutterà quella scheda nel modo migliore
le specifiche su carta credo le conoscano anche i muri (e quelle che hai fornito sono pure sbagliate e incomplete) :D
Ora, però, sarebbe il caso che ci illustrassi il comportamento di rsx a fp16, a fp32, in caso di operazioni di texturing in contemporanea ad operazioni di shading; oppure, magari, come si comporta l'unità di branching dei due chip, o le rispettive capacità e modalòità di texture filtering e, soprattutto, ci parlassi dei bilanciamenti di carico di lavoro in un chip a shader unificati e in uno a shader dedicati.
p.s. ti do un aiutino: nelle possibili ottimizzazioni, non rientra l'eventualità di agire sui controller
Altrimenti ti potrei rispondere in questo modo:
8800 GTX 128 alu scalari unificate (equivalenti, numericamente, a 32 alu vect4) a 1350 MHz capaci di 2 flop per alu per ciclo (non considerando la MUL che NV sostiene esserci e che finora non si è vista in alcun bench)
7950 GTX: 24 alu vettoriali a 650 MHz, capace, ognuna di 27 flops (a fp16); e non considero le 8 alu vect4+1 dei vs.
Dove sta scritto che G80 è meglio? :D
Tu puoi preferire quello che ti pare ed avere le tue convinzioni; purtroppo se non hai le adeguate conoscenze tecniche, la "politica" e la dialettica sono del tutto inutili:D
bonzuccio
19-03-2007, 16:50
Spiace vedere come (in questo forum) le persone presumibilmente preparate tecnicamente su un argomento preciso (poche) si esimano dallo spiegare le cose che sanno solo mettere in evidenza le eventuali lacune di chi non si occupa di queste cose quando è il momento.. magari perchè in fondo hai torto? :sofico:
Ma non è che magari lavori per ati? Io assolutamente non partivo da certi presupposti di interesse.
In fin dei conti mi sono accostato subito come un neofita dell'argomento essendo che non ho mai avuto a che fare con strumenti di sviluppo etc su questi argomenti: ci illustrassi, ci parlassi ti do un aiutino ma de che insomma sto cell si può usare per fare calcoli poligonali insieme o accostandosi a g71?
SI O
NO O
Adesso metti una croce sulla risposta :asd:
yossarian
19-03-2007, 17:04
Spiace vedere come (in questo forum) le persone presumibilmente preparate tecnicamente su un argomento preciso (poche) si esimano dallo spiegare le cose che sanno solo mettere in evidenza le eventuali lacune di chi non si occupa di queste cose quando è il momento.. magari perchè in fondo hai torto? :sofico:
forse se ti fossi documentato un po' di più avresti scoperto che discussioni su G70, R500, R5x0, architetture unificate e non, su questo forum se ne sono fatte a iosa (e qualche volta ho anche dato il mio contributo :p ).
Se ti reputi un neofita, ignorante (nel senso buono del termine), forse dovresti avere un atteggiamento meno supponente e arrogante parlando di argomenti che affermi di non conoscere.
Ma non è che magari lavori per ati? Io assolutamente non partivo da certi presupposti di interesse.
In fin dei conti mi sono accostato subito come un neofita dell'argomento essendo che non ho mai avuto a che fare con strumenti di sviluppo etc su questi argomenti: ci illustrassi, ci parlassi ti do un aiutino ma de che insomma
sei tu cha hai messo in dubbio che xenos sia, come gpu, migliore di rsx; ora, poichè che lavora nel settore (che sia sviluppatore di SW o pregettista HW, afferma il contrario), i casi sono due: o non tieni conto del parere di chi, pur essendo addetto ai lavori, non tesse gli elogi del tuo o dei tuoi marchi preferiti (fanboysmo è un termine terrificante ma forse può rendere l'idea); oppure non sei il neofita che sostieni di essere e sai cose di cui gli altri sono all'oscuro: in tal caso, sarebbe opportuno che fossi tu ad illustrarle a noi (invece di aspettare spiegazioni da altri). In parole povere, il mio era un invito a evitare divagazioni sul tema e fuori tema e a motivare con spiegazioni tecniche le tue affermazioni: per fare quattro chiacchiere c'è la sezione OT :fiufiu:
sto cell si può usare per fare calcoli poligonali insieme o accostandosi a g71?
SI O
NO O
Adesso metti una croce sulla risposta :asd:
mi pare che la risposta sia già stata ampiamente data (non mi capacito di come possa esserti sfuggita :sofico: ); magari non si è scesi troppo in dettagli tecnici, però immagino che uno che si professa neofita, possa accontentarsi anche di una risposta sommaria
bonzuccio
19-03-2007, 17:20
Non era assolutamente mia intenzione flammare ne di dimostrare che rsx è meglio di xenos stavamo parlando di cell e ps3 la divagazione riguardava la gpu nel contesto ps3
ot infatti ci sei andato prontamente te che ti sei messo a parlare di xenos vs rsx
(che sono gli argomenti che più conosci) e da li è partito tutto tant'è che non ho rimadato verso una discussione da piazzetta ma verso un th su ps3 e xbox
stando ai vari forum in giro per il mondo che ti hanno fatto vedere,
oltre al tuo strano e repentino cambio di atteggiamento stranamente stizzito,
stando a tutto questo permettimi di dubitare di quello che dici
e convinceremi che questo non è il luogo adatto per togliermi un dubbio..
non è ne supponenza ne credersi chissa chi.. de che
yossarian
19-03-2007, 17:30
Non era assolutamente mia intenzione flammare ne di dimostrare che rsx è meglio di xenos stavamo parlando di cell e ps3 la divagazione riguardava la gpu nel contesto ps3
ot infatti ci sei andato prontamente te che ti sei messo a parlare di xenos vs rsx
(che sono gli argomenti che più conosci) e da li è partito tutto tant'è che non ho rimadato verso una discussione da piazzetta ma verso un th su ps3 e xbox
stando ai vari forum in giro per il mondo che ti hanno fatto vedere,
oltre al tuo strano e repentino cambio di atteggiamento stranamente stizzito,
stando a tutto questo permettimi di dubitare di quello che dici
e convinceremi che questo non è il luogo adatto per togliermi un dubbio..
non è ne supponenza ne credersi chissa chi.. de che
mi pare che il tutto sia partito dall'affermazione che il cell può fare rendering (che non è sicuramente mia :D ).
Se ti interessa, ci sono anche discussioni sul cell (ben più di una), dove, oltre al mio, potrai trovare anche altri pareri: scegli quelli che più ti aggradano, ovvero i più viconi alla tua visione delle cose.
Da parte mia non mi risulta ci sia stato alcun repentino cambio di atteggiamento nel leggere quanto riportato su altri forum; anche perchè confermano quanto ho detto in precedenza, ovvero che il cell non può fare rendering ma solo eseguire calcoli geometrici e alcune operazioni di post processing (cose che si sanno da parecchio tempo, oltretutto, e forse solo a te erano sfuggite).
Se ti riferisci, con l'espressione "atteggiamento stizzito" al mio ultimo post, allora ti consiglio di rileggere i tuoi e di analizzarli bene a fondo.
In quanto al toglierti dubbi, lungi da me l'idea di volerlo fare: ognuno è libero di restare con le illusioni che preferisce :D
E poichè non devo toglierti dubbi, anche perchè tu non hai dubbi ma certezze a cui cerchi le conferme, non ritengo di doverti altre risposte.
Altrimenti, visto che, a tuo dire, il mio cavallo di battaglia è xenox vs rsx (su cui ho prontamente sviato il discorso), sono pronto ad ascoltarti qualora volessi darmi delucidazioni sul funzionamento del cell. Mantenendo la discussione su binari prettamente tecnici, ovviamente
Window Vista
19-03-2007, 17:45
Secondo me, il CELL può fare di +, ma per adesso non ci sono i tool adatti, forse tra 1 anno e passa si vedrà uno spiraglio di luce :D
Che ne dici Yossarian???
bonzuccio
19-03-2007, 17:59
" Originally Posted by Butta View Post
It makes me wonder if ports will fare a little better given these tools. The 2D crowds in Fight Night 3 were really hurting! Well if Spurs turns out to be as good as it sounds, perhaps Joker454 can stop bitching about PS3 being vertex limited... I wonder what happened to that guy, it seemed as if he had just begun working on a PS3 title. Wonder what his opinion is now given these new tools?
Risposta di joker454
Au contraire! Remember, my original beef was not that the PS3 was vertex limited, it was that the RSX was vertex limited, which I still stand by 100% today. In fact, I think the article quoted in this thread basically proves it. If you want a real world example, one of my code systems here at work can render ~1.2 million verticies on the 360's gpu faster than the rsx can render the same system with reduced lod models at ~700k verticies. This is all gpu, no cpu help. Yes, the difference is that lopsided in our game, even after I managed to bring that particular system down to two vertex inputs and optimize the heck out of the vertex shader and geometry layout ;( I don't wanna go through that whole thread again like last time, but needless to say to me, rsx still sucks. Your mileage may vary.
I never had a beef with cell though. It has a learning curve, and you need to pretty much rewrite all that code you've been saving over the years, but I think its worth it long term. The new tools and libraries that Sony has been putting out are awesome! I'll wait and see what real world performance we can get before I jump up and down for joy though. We only get 5 spu's full time, and the 6th is "most of the time" since Sony can use it if they need to (the 7th is theirs full time), and I assume with Home and all this other cool stuff they have coming out that they will indeed make use of the 6th.
We're currently fully using 2 spu's, and will most likely use all six by the time we are done since our goal is to hit 60fps on both platforms no matter what. As for how many we'll have free to handle geometry culling, I don't know just yet. I've been having fun with them so far though. I've moved all skinning off the gpu side to cpu side, since we get our biggest gains here on the PS3 by babying the RSX, ie, giving it as little to do as possible to get around its inadequacies. I actually tried it on the 360 as well and it gave back some fps, so the vmx units on the 360 will be fully worked also.
Doing geometry culling on the spu's is something I will do for sure, but I will also try it to a certain extent on the 360 as well, just to see what happens."
è uno dei post contenuti in uno dei th linkati..
http://forum.beyond3d.com/showthread.php?t=39185&page=3
jappilas
19-03-2007, 18:08
Non era assolutamente mia intenzione flammareottimo :)
mi pare che il tutto sia partito dall'affermazione che il cell può fare rendering (che non è sicuramente mia :D ).
Se ti interessa, ci sono anche discussioni sul cell (ben più di una), dove, oltre al mio, potrai trovare anche altri pareri: e dove sei sempre stato preciso e tecnico - come finora , d' altra parte :)
sul resto del post però ho l' impressione che tu mi abbia tolto le parole di bocca - nel senso che avrei dovuto, eventualmente, assumermi io la responsabilità di tacciarlo di fanboyismo (ma per adesso non ne ravvisavo la necessità) :O
ammetto che stavo preoccupando per questo thread :O
bonzuccio
19-03-2007, 18:12
edit
yossarian
19-03-2007, 18:33
" Originally Posted by Butta View Post
It makes me wonder if ports will fare a little better given these tools. The 2D crowds in Fight Night 3 were really hurting! Well if Spurs turns out to be as good as it sounds, perhaps Joker454 can stop bitching about PS3 being vertex limited... I wonder what happened to that guy, it seemed as if he had just begun working on a PS3 title. Wonder what his opinion is now given these new tools?
Risposta di joker454
Au contraire! Remember, my original beef was not that the PS3 was vertex limited, it was that the RSX was vertex limited, which I still stand by 100% today. In fact, I think the article quoted in this thread basically proves it. If you want a real world example, one of my code systems here at work can render ~1.2 million verticies on the 360's gpu faster than the rsx can render the same system with reduced lod models at ~700k verticies. This is all gpu, no cpu help. Yes, the difference is that lopsided in our game, even after I managed to bring that particular system down to two vertex inputs and optimize the heck out of the vertex shader and geometry layout ;( I don't wanna go through that whole thread again like last time, but needless to say to me, rsx still sucks. Your mileage may vary.
I never had a beef with cell though. It has a learning curve, and you need to pretty much rewrite all that code you've been saving over the years, but I think its worth it long term. The new tools and libraries that Sony has been putting out are awesome! I'll wait and see what real world performance we can get before I jump up and down for joy though. We only get 5 spu's full time, and the 6th is "most of the time" since Sony can use it if they need to (the 7th is theirs full time), and I assume with Home and all this other cool stuff they have coming out that they will indeed make use of the 6th.
We're currently fully using 2 spu's, and will most likely use all six by the time we are done since our goal is to hit 60fps on both platforms no matter what. As for how many we'll have free to handle geometry culling, I don't know just yet. I've been having fun with them so far though. I've moved all skinning off the gpu side to cpu side, since we get our biggest gains here on the PS3 by babying the RSX, ie, giving it as little to do as possible to get around its inadequacies. I actually tried it on the 360 as well and it gave back some fps, so the vmx units on the 360 will be fully worked also.
Doing geometry culling on the spu's is something I will do for sure, but I will also try it to a certain extent on the 360 as well, just to see what happens."
è uno dei post contenuti in uno dei th linkati..
http://forum.beyond3d.com/showthread.php?t=39185&page=3
ovvero hai riportato un post che non fa che confermare quanto è stato finora detto. Nessuno ha negato (ti invito a rileggerti tutti i post precedenti) che il cell possa fare calcoli geometrici. Il cell non è in grado di fare rendering (che non è composto solo da calcoli geometrici).
Ora, nell'ipotesi che il cell aiuti rsx, gli scenari possibili sono:
situazione in cui si è vs bounded: cell+rsx uguagliano (grosso modo) xenos
situazioni in cui colli di bottiglia sono altrove, rsx deve cavarsela da solo (e un chip a shader non unificati è molto meno efficiente di uno a shader unificati, anche su console e anche con codice ottimizzato; ne sa qualcosda NV che ha abbandonato l'architettura tradizionale di G7x, nonostante Kirk avesse più volte affermato, a ragione, che si poteva anche realizzare un chip sm4.0 senza l'unificazione fisica degli shader). In questo caso cell+rsx < xenos
Qualche parola sulle operazioni di texturing; rsx ha 24 tmu e xenos 16; però le tmu di rsx e una delle alu non sono indipendenti (quelle di xenos si). Questo significa che, nell'ipotesi di codice di tipo 1tex, 1 mad, 1 mad, se lavora a fp32, ogni pipeline di rsx perde qualcosa come 17 flops su 27 teoriche.
Infine, avere un'unità di vs etserna (come può essere un spe), non è la stessa cosa che averla interna, a livello di cicli persi per l'accesso ai dati (non è un caso che si tenda a integrare più core nello stesso die e all'interno di ogni core si aumenti il quantitativo di cache e registri; in quest'ottica, un grosso vantaggio è costituito dai 10 MB di eDRAM integrata nel die secondario di xenos: il suo vero limite è che ce ne sarebbe voluta di più :D ).
yossarian
19-03-2007, 18:33
ottimo :)
e dove sei sempre stato preciso e tecnico - come finora , d' altra parte :)
sul resto del post però ho l' impressione che tu mi abbia tolto le parole di bocca - nel senso che avrei dovuto, eventualmente, assumermi io la responsabilità di tacciarlo di fanboyismo (ma per adesso non ne ravvisavo la necessità) :O
ammetto che stavo preoccupando per questo thread :O
tranquillo, al massimo evitavo di fare altri post
BTinside
19-03-2007, 20:43
(ti dice niente NV3x e Doom3?)
Io ricordo che l'unico modo per far andare veloce quei chip che di Pixel Sahder 2.0 avevano ben poco era quello di sfruttarne, oltre le open gl, l'unico punto forte, ovvero le stencil shadows (grazie all' ultrashadow anche). Inoltre, se non sbaglio, si scoprì anche che il gioco conteneva delle castrature per i chip Ati R3XX tanto che usci poi una patch (o forse c'era qualcosa da variare nel file di configurazione) in grado di eliminarle. Non ricordo in cosa consistesse questa "castratura", ma sdisattivava delle ottimizzazioni del R300.
Confermi?
Al tempo mi desti parecchie dritte...:p
BTinside
19-03-2007, 22:08
Lo so ;)
Partecipò lungamente anke lui alla discussione di diverso tempo fa sul Cell, insieme a me, Yossarian, Cdimauro, Fek (programmatore della LionHead) e tanti altri che non ti sto a nominare che non finiamo + :D
me la linkeresti?:p
yossarian
19-03-2007, 22:25
me la linkeresti?:p
http://www.hwupgrade.it/forum/showthread.php?t=1102887
questo è uno: tieniti forte perchè è lunghissimo :D
p.s. ho letto il pvt (appena ho un attimo di tempo ti rispondo (anche perchè è poco più breve dei primi tre capitoli dei promessi sposi :D
yossarian
19-03-2007, 22:31
Io ricordo che l'unico modo per far andare veloce quei chip che di Pixel Sahder 2.0 avevano ben poco era quello di sfruttarne, oltre le open gl, l'unico punto forte, ovvero le stencil shadows (grazie all' ultrashadow anche). Inoltre, se non sbaglio, si scoprì anche che il gioco conteneva delle castrature per i chip Ati R3XX tanto che usci poi una patch (o forse c'era qualcosa da variare nel file di configurazione) in grado di eliminarle. Non ricordo in cosa consistesse questa "castratura", ma sdisattivava delle ottimizzazioni del R300.
Confermi?
Al tempo mi desti parecchie dritte...:p
esatto: stencil shadow, prima passata solo con z-ops (con NV3x che raddoppiava l'output a livello di rop's, un misto di fixed function, shader 1.1 e 1.4 e molte dependent texture read (operazione in cui NV3x andava piuttosto bene e R3x0 aveva come limite quello di 4 istruzioni consecutive (la patch corresse proprio questo inconveniente, sostituiendo alcune operazioni di texturing in operazioni di pixel shading, oltre a riordinare parzialmente le istruzioni per rendere il codice più digeribile all'architettura ATi.
BTinside
19-03-2007, 22:42
http://www.hwupgrade.it/forum/showthread.php?t=1102887
questo è uno: tieniti forte perchè è lunghissimo :D
p.s. ho letto il pvt (appena ho un attimo di tempo ti rispondo (anche perchè è poco più breve dei primi tre capitoli dei promessi sposi :D
Ok, grazie.:p
BTinside
19-03-2007, 22:45
esatto: stencil shadow, prima passata solo con z-ops (con NV3x che raddoppiava l'output a livello di rop's, un misto di fixed function, shader 1.1 e 1.4 e molte dependent texture read (operazione in cui NV3x andava piuttosto bene e R3x0 aveva come limite quello di 4 istruzioni consecutive (la patch corresse proprio questo inconveniente, sostituiendo alcune operazioni di texturing in operazioni di pixel shading, oltre a riordinare parzialmente le istruzioni per rendere il codice più digeribile all'architettura ATi.
Davvero interessante...:D
ho perso il filo del discorso al delirio della 5° pagina...
spero che il messaggio passi cmq.... calcolate per la ricerca... che sia un pentium 100 o un console poco importa!!!
ivano444
19-03-2007, 23:08
azz..si impara molto a leggere questo forum:D
ho perso il filo del discorso al delirio della 5° pagina...
spero che il messaggio passi cmq.... calcolate per la ricerca... che sia un pentium 100 o un console poco importa!!!
giusto...ma non con la ps3,io la compro per giocare e dopo 600 euro pretendo di farlo:p
giusto...ma non con la ps3,io la compro per giocare e dopo 600 euro pretendo di farlo:p
:doh:
il pc io lo pago molto di piu' e la cpu non la sfrutto mai al 100%... non sarebbe il caso di eliminare lo spreco?
bonzuccio
20-03-2007, 10:01
Secondo me, il CELL può fare di +, ma per adesso non ci sono i tool adatti, forse tra 1 anno e passa si vedrà uno spiraglio di luce :D
Che ne dici Yossarian???
Ti rispondo hio sperando che queste slide siano il fulcro di ulteriore discussione
con i nostri supertecnici leggermente vga-centrici :)
Edge tools (http://www.gfdata.de/archiv03-2007-gamefront/2881.html)
sono in versione beta
leggetele attentamente, eccole li le potenzialità del cell che si interfaccia con rsx (non male per una ppe senza OoO che deve pure comandare 7 dsp)
http://www.gfdata.de/archiv03-2007-gamefront/pe26.jpg
Di questo si parlava
Detto questo la notizia dell'utilizzo del Cell in ambiti diversi da quelli che è un blade server o un mainframe (ricordo la discussione in cui più di qualcuno parlava delle spe del cell come semplici dsp che sono gli stessi che qui parlano del cell come ne carne ne pesce) ma si utilizza anche in amiti quali mondo gaming di una console e nello specifico nel calcolo distribuito di un progetto importante come il folding@home,
non è che si tratta di una cpu (ho detto UNA cpu dai) di tipo gp e allo stesso tempo ultra specializzata?
Ho come l'impressione che tutto questo crei un certo scompiglio tra i tecnici abituati a un preciso modo di programmare e di utilizzare le risorse di architetture prettamente desktop quali quelle che ci troviamo sulle scrivanie.. a volte sotto la tv se si parla di xbox che è un pc in piccolo ah ma ci sono le esclusive, quanti soldi si spendono a volte invece di fare innovazione eh.
Qui si parla di una console che apre scenari diversi a quelli classici di vga che consumano 200W e processori perfettamente inutilizzati,
leggasi anche l'enfasi con cui si parla di cell che non fa rendering ma può aiutare (a questo punto si è giunti molto in la nella discussione) nella ia (male ovviamente causa branching prediction non proprio ad alti livelli), nella fisica e per ultimo nel calcolo dei poligoni.. e invece sta li il punto focale.
Bene farebbe sony a ingigantire le potenzialità del Cell, secondo me (qualora lo facesse) non lo fa abbastanza.
Questa è politica ed è importante e rileggendo la discussione dall'inizio sicuramente non sono il più bravo a farla
mi infastidisce il modo di bollare qualcosa che in molti ritengono giustamente innovativo con luoghi comuni che stranamente vengono da chi non dovrebbero venire additando gli altri di fare del cell la panacea e quant'altro.. cell è cell chi ha voglia di lavorarci ci lavori
ringrazio yoss per le delucidazioni tecniche, ho appreso concetti nuovi e criteri per pesare le architetture.. oltre che a infiniti suggerimenti di studio vista la complessità del tema.. ma continuo a pensare che se non hai a che fare direttamente con queste cose difficilmente non avrò bisogno ancora di delucidazioni
yossarian
20-03-2007, 14:20
Detto questo la notizia dell'utilizzo del Cell in ambiti diversi da quelli che è un blade server o un mainframe (ricordo la discussione in cui più di qualcuno parlava delle spe del cell come semplici dsp che sono gli stessi che qui parlano del cell come ne carne ne pesce) ma si utilizza anche in amiti quali mondo gaming di una console e nello specifico nel calcolo distribuito di un progetto importante come il folding@home,
non è che si tratta di una cpu (ho detto UNA cpu dai) di tipo gp e allo stesso tempo ultra specializzata?
anche per la serei X1x00 di ATi esiste un client folding@home, come ne esiste uno per la serie 8 di NV e anche per le cpu multicore di tipo x86; questo non dimostra niente; la serie X1x00, le 8x00 e anche R500 sono in grado di far girare alcuni task di tipo gp più velocemente (anche di molto) rispetto alle stesse cpu). Non mi pare che questo abbia sconvolto qualcuno
non è che si tratta di una cpu (ho detto UNA cpu dai) di tipo gp e allo stesso tempo ultra specializzata?
la fisica teorica può incrociare la strada della filosofia, quella della tecnologia no, nel modo più assoluto. Un dispositivo o è altamente specializzato oppure no; non può essere altamente specializzato a fare tutto ugualnmete bene :D (e comunque dispositivi "tuttologi" non ne conosco :D )
Bene farebbe sony a ingigantire le potenzialità del Cell, secondo me (qualora lo facesse) non lo fa abbastanza.
A me pare che Sony sia, invece, molto brava a pubblicizzare anche quello che non c'è (tipo i famosi 2 Tflops di potenza di calcolo della ps3 :D ). Stai tranquillo che tutto quello che c'è da ingigantire Sony l'ha già fatto
Questa è politica ed è importante e rileggendo la discussione dall'inizio sicuramente non sono il più bravo a farla
mi infastidisce il modo di bollare qualcosa che in molti ritengono giustamente innovativo con luoghi comuni che stranamente vengono da chi non dovrebbero venire additando gli altri di fare del cell la panacea e quant'altro.. cell è cell chi ha voglia di lavorarci ci lavori
hai detto bene: cell è cell, con i suoi pregi e i suoi difetti i suoi punti di forza e i suoi limiti, non è il santo graal
Per il resto, quanto hai riportato sono informazioni ben note, per buona parte dalla presentazion del cell, il restante agli addetti a i lavori (e comunque da tempo). Questo non sposta di una virgola le considerazioni già fatte: il cell fa bene diverse cose; altre ha la potenzialità per farle meglio (questo non significa che non se ne conoscano i limiti teorici che non potranno mai essere superati nella realtà). Per altre presenta, invece, dei notevoli limiti che, in virtù della sua architettura non possono essere superati.
Quello che si legge nelle presentazioni è tutto bello; il problema è metter in pratica certi proponimenti: ad esempio, nelle slide che hai postato, c'è scritto che il sistema è bilanciato in modo che RSX non debba attendere i dati dal cell: alla luce del fatto che conosco la criticità del trasferimento dati all'interno del cell e della gestione degli accessi alle risorse di sistema, permettimi di vare dei dubbi al riguardo: Sicuramente nel caso ideale potrà essere così, ma quente volte ci so trova nella situazione ideale?
In quanto alla definizione ppe + dsp, nella realtà gli elementi senza cui il cell non potrebbe funzionare sono essenzialmente il ppe e l'arbiter dell'eib (mentre può benissimo fare a meno dei spe (altra dimostrazione che non possono essere considerati cpu neppure all'interno del sottosistema cell). Inoltre, molti dsp hanno caratteristiche tali da permettere di assimilarli a cpu (cosa che i spe non hanno). Quindi non userei il termine dsp (che altro non sono che processori di segnali digitali), in maniera dispregiativa:D
p.s. tra l'altro, a leggere certi interventi, pare che il cell sia un oggetto misterioso, un continente da scoprire. Visione romantica ma maolto lontana dalla realtà. Quando si fa un progetto, di solito (qualche eccezione c'è sempre :D ), si parte da un'idea ben precisa di ciò che serve e di come lo si vuole realizzare. Questo significa che si possono incontrare difficoltà a mettere in pratica alcune idee teoriche, persino che, in alcuni casi, un porgetto vada al di là delle aspettative più rosee; ma non esiste che si progetta qualcosa senza conoscerne le potenzialità e i limiti (come dire:" ok, abbiamo per le mani questo coso, adesso vediamo cosa possiamo farci" :D )
bonzuccio
20-03-2007, 15:24
E fortuna che sony non ha detto che i 2T Flops erano solo del cell :asd:
Sul fatto che i dsp possono essere molto complessi è appurato :)
ma le spu sono processori gp essendo che hanno istruzioni gp, la p vorrà pur dire qualcosa e la s sta per synergic quindi lavorano e si scambiano i dati assieme.
Poi parlano con la memoria centrale quindi cell è un multiprocessore con una cpu e 7 unità specializzate in determinati compiti ma pur sempre processori gp
E' un ottoprocessore :sofico:
Quindi stando a quello che avevi detto
cell + rsx = xenos in determinati casi
cell + rsx < xenos in altri casi in cui ci sono colli di bottiglia dovuti a latenze e al fatto che sono sempre elementi separati (malgrado la memoria condivisa sia velocissima)
Ora quello che mi chiedo, visto che sto benedetto Cell dovranno sfruttarlo per non fare magre figure con chi FINALMENTE sfrutterà la ati di xbox a shader unificati, è se visto che lo useranno e pagheranno qualcosa in termini di latenze già che ci sono non fanno lavorare cell nello stesso momento in cui generano poligoni anche per la fisica prendendo due piccioni con una fava.
Cioè le esplosioni non soffriranno di scattosità varie e avremo una scena in cui il realismo sarà determinato oltre che dalla qualità delle texture e dal numero di poligoni anche dal fatto che tutto si muove secondo principi determinati da principi di fisica
yossarian
20-03-2007, 15:59
E fortuna che sony non ha detto che i 2T Flops erano solo del cell :asd:
sony non ha tanto interesse a pubblicizzare il cell quanto ps3; sfatiamo una leggenda metropolitana: Sony non ha progettato il cell. Se mai dovrebbe essere IBM a propagandarlo. La cosa grave è che dei 2 Tflops, 1,8 erano relativi a RSX (aka G70) :D
Sul fatto che i dsp possono essere molto complessi è appurato :)
ma le spu sono processori gp essendo che hanno istruzioni gp, la p vorrà pur dire qualcosa e la s sta per synergic quindi lavorano e si scambiano i dati assieme.
Poi parlano con la memoria centrale quindi cell è un multiprocessore con una cpu e 7 unità specializzate in determinati compiti ma pur sempre processori gp
E' un ottoprocessore :sofico:
anche R500 può eseguire istruzioni gp ed ha accesso diretto alla ram di sistema (invece ogni spe ha accesso diretto solo alla sua ram locale): questo non ne fa una cpu gp. Un spe non è una cpu ma un processore (può sembrare una sottigliezza ma non lo è, poichè una cpu è un processore ma un processore non necessariamente è una cpu)
Quindi stando a quello che avevi detto
cell + rsx = xenos in determinati casi
cell + rsx < xenos in altri casi in cui ci sono colli di bottiglia dovuti a latenze e al fatto che sono sempre elementi separati (malgrado la memoria condivisa sia velocissima)
memoria condivisa velocissima è un eufemismo; per avere un ordine di grandezza in cicli di clock, si potrebbe dire che l'accesso ad un registro richiede un ciclo (in linea di massima e comunque l'ordine di grandezza è quello), per una cache interna siamo sull'ordine delle decine, per una ram di sistema su quello delle centinaia (per quanto sia veloce).
Le uguaglianze/disuguaglianze di sopra, valgono solo in considerazione della sottosezione grafica. Questo non vuol dire che ps3 <= x360; ci saranno dei casi in cui va meglio la x360 e altri in cui prevale la ps3.
Ora quello che mi chiedo, visto che sto benedetto Cell dovranno sfruttarlo per non fare magre figure con chi FINALMENTE sfrutterà la ati di xbox a shader unificati, è se visto che lo useranno e pagheranno qualcosa in termini di latenze già che ci sono non fanno lavorare cell nello stesso momento in cui generano poligoni anche per la fisica prendendo due piccioni con una fava.
Cioè le esplosioni non soffriranno di scattosità varie e avremo una scena in cui il realismo sarà determinato oltre che dalla qualità delle texture anche dal fatto che tutto si muove secondo principi determinati da principi di fisica
cell è progettato per lavorare contemporaneamente su tutto e per farlo può operare sia in parallelo che in streaming, a seconda delle esigenze; lo stesso non vale per il singolo spe; ognuno avrà il suo specifico task; quindi c'è quello che fa calcoli geometrici, quello che si occupa del S.O., quello che fa calcoli relativi alla fisica, magari un paio che si occupano dell'audio, ecc. Questo perchè ogni spe è strutturato in modo tale da lavorare su un preciso task fino a che ha terminato le istruzioni in ingresso, oppure riceve il comando di iniziare a lavorare su altro.
Il tutto va condito con la difficoltà di organizzare il lavoro di tutte queste unità e con quelle connesse alla gestione degli accessi alle risorse di sistema e dello scambio di dati internamente al cell (ad esempio, nel trasferimento dei dati tra un spe ed un altro, ci sono delle precise regole da rispettare per non rischiare di vedere compromesse le prestazioni del chip).
In ogni caso, se ti aspetti giochi veramente realistici sia dal punto di vista della grafica che dell'IA e della fisica, non credo che rimarrai soddisfatto da questa generazione (che, almeno a livello di potenza di calcolo è già stata ampiamente superata dai pc)
ivano444
20-03-2007, 20:26
:doh:
il pc io lo pago molto di piu' e la cpu non la sfrutto mai al 100%... non sarebbe il caso di eliminare lo spreco?
ma che centra il folding della ps3 non lavora mica in background quindi se lo fai non puoi giocare...
Free Gordon
21-03-2007, 17:03
Il principio su cui si basa il ring bus è molto semplice: su un crossbar tradizionale, ogni braccio serve un certo numero di chip di ram. Nel momento in cui una unità di calcolo ha bisogno di accedere alla ram, l'arbiter riceve la richiesta di accesso, ne valuta la priorità (insieme alle altre richieste pervenute), la invia al chip a cui è stato chiesto di accedere e quindi procede all'evasione della richiesta. In pratica, segue tutto il processo, ad esempio, di trasferimento dati da e verso la ram (che si può dividere in 4 fasi).
Con il ring bus, invece, una volta che il controller ha ricevuto la richiesta e l'ha inoltrata viene reso libero di passare ad elaborare altre richieste; supponiamo che si debba trasferire dei dati da un chip di ram verso un'unità di calcolo, questi sono messi in circolo all'interno del ring (ovviamente il pacchetto contiene anche l'informazione relativa alla alu o pipeline che deve farne uso); una volta che il pacchetto arriva in corrispondenza dell'unità che ne ha fatto richiesta, viene automaticamente smistato senza ulteriori interventi da parte del controller.
Praticamente è la stessa differenza che passa tra il semaforo e la rotatoria! :sofico:
Free Gordon
21-03-2007, 17:30
in quest'ottica, un grosso vantaggio è costituito dai 10 MB di eDRAM integrata nel die secondario di xenos: il suo vero limite è che ce ne sarebbe voluta di più :D ).
Se mi permetti, penso di aver capito :rotfl: perchè c'è l'eDRAM in xenos.
Perchè non hanno creato uno Xenon con memcontroller integrato (tipo A64/Cell). :)
Hanno preferito risparmiare lì e investire nell'eDRAM.
Sennò avremmo avuto un'archi NUMA anche su 360, due pool di memoria ognuno col suo bus e niente eDRAM (per tenere bassi i costi ovviamente) ecc ecc...
Dal lato CPU sarebbe stato meglio (penso che Cell abbia un tot di banda "reale" in più a disposizione di Xenon) dal lato costi non lo so... ma sicuramente non penso (come dice nAo) che avrebbero potuto impiegare i transist in più (dall'eliminazione dell'eDRAM) nel core di Xenos... sennò addio economicità.
La questione è lì: o metti l'eDRAM -scelta Ms- o metti due bus (o un bus a 256bit per la GPU) -scelta Sony-.
Domandona allo Yosss: :D
Visto che dagli ultimi SDK, pare che Sony voglia usare la 1080p col barbatrucco.. (vogliono utilizzare un frame buffer di 960x1080 e poi up-scalare orrizzontalmente per avere la 1080p al costo della 720p :D ) non è possibile anche per 360 fare la stessa cosa?
Se renderizzi un'immagine a 480x720 e poi la upscali non potresti evitare di fare 3 tile (portarlo a 2) e ridurre così l'overdraw poligonale che penalizza così tanto il frame rate?
I dati dall'MT framework di Capcom parlano di un calo del frame rate del 5% nel caso dell'MSAA2X e uno del 15-20% nel caso del 4X. Ben lontani dal 5% auspicato da ATI col 4X attivo (spiegami come si ridurrebbe grazie al tiling manuale).
Per carità il folding@home è una applicazione utilissima e dai nobili propositi (sicuramente molto + utile di quella minkiata del seti@home), ma questo dimostra ancora una volta che quel processore è utile per applicazioni di nicchia, di certo non è nato per far girare videogames next-gen.
Mi domando dove sia la dimostrazione.
La questione non è la potenza della macchina...la questione è che questi signori per farle pubblicità si abbassano anche a questo...per venderti il prodotto sono disposti anche a dirti che serve per combattere le malattie quando non gliene potrebbe fregare di meno...è questo che deve far pensare.
Sicuramente un atto pubblicitario, comunque se la macchina è effettivamente potente, la trovo una cosa saggia inserire un client di elaborazione in una macchina da gioco in modo da rendere il progetto molto piu' visibile a tutti e soprattutto velocizzare i fini del progetto.
Se avessero inserito Seti@Home, probabilmente avrei gridato esclusivamente all'atto pubblicitario fine a se stesso, ma qui, sebbene sempre di pubblicità si parla, almeno c'è qualcosa di utile.
che stano, quando un prodotto sony va male, escono sempre notizie come questa, sarà un caso:O
Mi domando quale dovrebbe essere in questo caso il prodotto Sony che va male. No perchè la PS3 non va affatto male e a giudicare dal tuo commento, pare che anche la PS2 sia andata male... Quanto è brutta l'invidia ;)
sta ps3 fà di tutto..tranne fare bene la cosa di cui è stata progettata, giocare :D
si scherza naturalmente..
Il problema è che sono i suoi "non utenti" che non riescono a carpirne le potenzialità vere in ambito ludico ;)
NON si scherza, naturalmente..
E' FALSO!!!
"spero che il messaggio passi cmq.... calcolate per la ricerca... che sia un pentium 100 o un console poco importa!!!"
non spendete tempo e risorse in calcoli distribuiti illudendovi di aiutare la ricerca....
i risultati vengono buttati nel cesso...
chiunque abbia un minimo di cognizione di architettura di sistemi di elaborazione capisce questo...
la ps3 come strumento di calcolo e' solo una trovata pubblicitaria...
purtroppo nell'attuale ps3 manca un sistema simile all'EE della vecchia ps2...
chi ha progettato la ps3 era molto assonnato mentre lo faceva e si e' dato alli sogni...
ivano444
30-03-2007, 22:06
E' FALSO!!!
"spero che il messaggio passi cmq.... calcolate per la ricerca... che sia un pentium 100 o un console poco importa!!!"
non spendete tempo e risorse in calcoli distribuiti illudendovi di aiutare la ricerca....
i risultati vengono buttati nel cesso...
chiunque abbia un minimo di cognizione di architettura di sistemi di elaborazione capisce questo...
la ps3 come strumento di calcolo e' solo una trovata pubblicitaria...
purtroppo nell'attuale ps3 manca un sistema simile all'EE della vecchia ps2...
chi ha progettato la ps3 era molto assonnato mentre lo faceva e si e' dato alli sogni...
menomale che ci hai illuminato tu:rolleyes:
E' FALSO!!!
"spero che il messaggio passi cmq.... calcolate per la ricerca... che sia un pentium 100 o un console poco importa!!!"
non spendete tempo e risorse in calcoli distribuiti illudendovi di aiutare la ricerca....
i risultati vengono buttati nel cesso...
chiunque abbia un minimo di cognizione di architettura di sistemi di elaborazione capisce questo...
la ps3 come strumento di calcolo e' solo una trovata pubblicitaria...
purtroppo nell'attuale ps3 manca un sistema simile all'EE della vecchia ps2...
chi ha progettato la ps3 era molto assonnato mentre lo faceva e si e' dato alli sogni...
A quelli come te basta postare un link, della pagina ufficiale per altro. ;)
http://folding.stanford.edu/results.html
Poi magari ci spieghi pure la correlazione con la conoscenza dell'architettura dei sistemi di elaborazione. :asd:
certo che ti spiego il legame stretto che esiste tra software di calcolo scientifico distribuito e architettura dei sistemi di elaborazione:
un sistema di calcolo deve garantire l'esatezza di risultati in base ad una precisa valutazione dell'errore...
qualunque macchina di calcolo compie degli errori che chiameremo volgarmente bugs...
se supponiamo come i ricercatori di standford che la distribuzione dell'errore in folding home sia per cosi' dire uniforme.....basandoci un po' come se fossimo in un laboratorio in cui tutto sia sotto controllo....allora il calcolo distribuito on net sicuramente è efficace....anzi è l'unica soluzione attualmente praticabile, quando tutti i sistemi sono all'interno di un laboratorio e quindi l'intera architettura di calcolo è nota e valutabile....
cambiamo scenario....e poniamoci nella posizione reale...
calcolare via internet algoritmi di calcolo distribuito....su sistemi che non possono in alcun modo essere valutati pone inevitabilmente l'incognita sulla distribuzione dell'errore....non è possibile valutare quanto i risultati ricevuti siano di fatto attendibili.....
volendo fare un esempio concreto....
se io faccio girare un algoritmo scientifico su un sistema overclockato...o un sistema con ram non ECC o comunque su un sistema non sottoposto ad un rigoroso controllo non posso certo valutare se e in che misura i risultati siano contaminati da errori...
qualche anno fa ad esempio ci fu un articolo che mostrava come tra P4 e Athlon ci fossero delle lievi differenze nei render di alcune immagini 3d questo a causa della differente architettura, quindi medesimo algoritmo 2 risultati...
in quel caso era colpa delle librerie di windows che sotto P4 abilitavano in automatico le SSE2 che quindi avevano un sistema di approssimazione differente da quello fpu dei processori amd l'algoritmo si fidava delle librerie standard di windows.......
adesso come fate a controllare milioni di pc on net ed essere sicuri di ottenere risultati scientifici attendibili??!?!
forse pensate che la ramECC gli Itanium le connessioni fibra ottica le facciano per buttare i soldi dalla finestra?!?!?
semplicemente questi sono strumenti di calcolo che garantiscono una eccellente valutazione dei risultati....che noi invece dovremo affidare a delle console da gioco....che svolgono calcolo per visualizzare pupazzi in 3d che se vengono visualizzati un pixel sopra o sotto a causa di un errore di calcolo magari per l'alta temperatura di esercizio, non importa a nessuno.......
siamo seri....quando si parla di certe cose....
e lasciamo al new york time il compito di divulgare menzogne.....sul calcolo distribuito....
un'ultima citazione....negli anni 96-98 furono scoperti alcuni bugs sui processori mips di silicon graphics....e furono rilasciate delle patch per garantire una maggiore stabilità di calcolo.....i sistemi di calcolo sono una cosa seria....
post scriptum: (indagine sociologica)
in realtà quello di standford è piu' uno studio sociologico, come la gente si illuda di utilizzare i propri sistemi per qualcosa di utile invece che per le solite quisquiglie....o video games come nel caso di ps3....
....ossia non e' un oggetto inutile ma volendo puo' servire a qualcosa....
peccato che molti ci caschino....
certo che ti spiego il legame stretto che esiste tra software di calcolo scientifico distribuito e architettura dei sistemi di elaborazione:
un sistema di calcolo deve garantire l'esatezza di risultati in base ad una precisa valutazione dell'errore...
[CUT]
LOL, seguendo il tuo ragionamento dovremmo tornare ad usare il pallottoliere:
tutti le CPU contengo BUGS, anche i costosissimi Itanium e le RAM ECC non sono in grado di correggere e rilevare tutti i tipi di errori.
Non sono un programmatore e né sono esperto di architettura degli elaboratori ma un metodo semplice che mi viene in mente per rilevare gli errori in un sistema di calcolo distribuito è inviare lo stesso “pacchetto” da analizzare a due sistemi differenti.
Se i risultati ottenuti sono differenti vuol dire che il pacchetto deve essere rianalizzato visto che uno dei due sistemi ha commesso un errore (la probabilità che 2 sistemi differenti compiano lo stesso errore sono le stesse che ha Rosy Bindi di diventare Miss Mondo).
un'ultima citazione....negli anni 96-98 furono scoperti alcuni bugs sui processori mips di silicon graphics....e furono rilasciate delle patch per garantire una maggiore stabilità di calcolo.....i sistemi di calcolo sono una cosa seria....
Hai ragione ed è per questo motivo per cui dovresti stare zitto per evitare ulteriori figuracce: è da circa 10 anni che è possibile correggere parte dei BUGS anche delle CPU consumer prodotte da Intel e da AMD con semplici update del BIOS.
^TiGeRShArK^
06-04-2007, 15:57
Non sono un programmatore e né sono esperto di architettura degli elaboratori ma un metodo semplice che mi viene in mente per rilevare gli errori in un sistema di calcolo distribuito è inviare lo stesso “pacchetto” da analizzare a due sistemi differenti.
Infatti se non sbaglio è esattamente quello che avviene nei sistemi di calcolo distribuito del tipo di folding@home ;)
la mia frase era scritta per dimostrare che esiste un legame stretto tra
software di calcolo scientifico distribuito e architettura dei sistemi di elaborazione, come di fatto e'...
per quanto riguarda i sistemi di analisi degli errori....
no comment....se siete convinti che far colcolare a 2 sistemi lo stesso pacchetto garantisca la correttezza dei dati fate pure....
tenete conto che non si ha alcun controllo sui sistemi client...sull'hardware e sui sistemi di connessione....
vi è mai capitato di scaricare un'immagine iso da un ftp magari di una distro linux e vedere il checksum errato probabilmente per errori di connessione?
bene moltiplicate per migliaia di utenti ciascuno con un sistema diverso e con una tipologia di connessione diverse e vi rendete conto dell'assurdità di cosa state dicendo.
è piu' o meno la stessa cosa di quelli che si basano sui sondaggi per verificare l'attendibilità di un fatto i risultati hanno un valore puramente indicativo....
...questo va bene per una analisi sociologica non certo scientifica....
ma ormai forse la differnza non la considera piu' nessuno....
Dragonx21
09-04-2007, 17:35
quindi per te i sistemi distribuiti non hanno ragione di esistere?
:eek:
la mia frase era scritta per dimostrare che esiste un legame stretto tra
software di calcolo scientifico distribuito e architettura dei sistemi di elaborazione, come di fatto e'...
per quanto riguarda i sistemi di analisi degli errori....
no comment....se siete convinti che far colcolare a 2 sistemi lo stesso pacchetto garantisca la correttezza dei dati fate pure....
tenete conto che non si ha alcun controllo sui sistemi client...sull'hardware e sui sistemi di connessione....
vi è mai capitato di scaricare un'immagine iso da un ftp magari di una distro linux e vedere il checksum errato probabilmente per errori di connessione?
Si, ed è per questo motivo che esiste il checksum per verificarne l'integrità.
Ed è grazie a tecnologie simili che è possibile scaricare un'ISO di una distro di Linux dalla rete emule avendo la certezza, nonostante l'immagine si scaricata da centinaia se non da migliaia di fonti, che il file scaricato sarà integro.
bene moltiplicate per migliaia di utenti ciascuno con un sistema diverso e con una tipologia di connessione diverse e vi rendete conto dell'assurdità di cosa state dicendo.
E per quale motivo in questo caso non dovrebbe essere possibile utilizzare il checsum? Isterismo collettivo forse?
P.S.
Visto che secondo te questo sistema è inaffidabile come giustifichi l'esistenza di risultati verificati prodotti dai sistemi di calcolo distribuito, tipo GIMPS?
quello che intendo dire è che i sistemi calcolo distribuito basati su internet connection e home system o addirittura su console... rappresentano un elemento poco controllabile per definirlo un sistema affidabile....
troppe varianti in gioco non permettono di gestire i risultati come attendibili, a causa delle differenze di connessione, os, hardware ed altro....
quello che intendo dire che i sistemi di calcolo distribuiti sono tutt'altro che semplici, e che non possono essere gestiti semplicemente scaricando un programmino e paragonandolo ad emule...
volevo ricordare che stiamo parlando di migliaia di connessioni....
e ovvio che la speranza di poterla gestire è grande da parte di quelli che non possono affittare un mainframe....ma non penso che sia proprio auspicabile che questo sia applicabile concretamente.
faccio un esempio concreto e poi la finisco qua:
in una render farm esiste un amministratore di sistema che gestisce il tutto e si occupa dell'integrità dei sistemi di eleborazione in genere sono almeno una trentina. l'hardware non è assemblato a caso ma il tutto è progettato meticolosamente per garantire una coerenza dei risultati e sopratutto una precisa gestione degli errori, questo studio svolto a priori non garantisce che la render farm sia infallibile ma di certo garantisce un preciso standard di analisi dei dati che mette in evidenza subito se qualche sistema sbarella.....
Dragonx21
09-04-2007, 20:02
quello che intendo dire è che i sistemi calcolo distribuito basati su internet connection e home system o addirittura su console... rappresentano un elemento poco controllabile per definirlo un sistema affidabile....
troppe varianti in gioco non permettono di gestire i risultati come attendibili, a causa delle differenze di connessione, os, hardware ed altro....
quello che intendo dire che i sistemi di calcolo distribuiti sono tutt'altro che semplici, e che non possono essere gestiti semplicemente scaricando un programmino e paragonandolo ad emule...
volevo ricordare che stiamo parlando di migliaia di connessioni....
e ovvio che la speranza di poterla gestire è grande da parte di quelli che non possono affittare un mainframe....ma non penso che sia proprio auspicabile che questo sia applicabile concretamente.
faccio un esempio concreto e poi la finisco qua:
in una render farm esiste un amministratore di sistema che gestisce il tutto e si occupa dell'integrità dei sistemi di eleborazione in genere sono almeno una trentina. l'hardware non è assemblato a caso ma il tutto è progettato meticolosamente per garantire una coerenza dei risultati e sopratutto una precisa gestione degli errori, questo studio svolto a priori non garantisce che la render farm sia infallibile ma di certo garantisce un preciso standard di analisi dei dati che mette in evidenza subito se qualche sistema sbarella.....
guarda che i client dei sistemi di calcolo distribuito sono fatti proprio per gestire gli errori. e ti assicuro che sono meticolosi e discretamente stabili.
se un pc fa un errore se ne accorge. poi ovvio che i "pacchetti" sono suddivisi in maniera tale che i calcoli possono essere sviluppati anche da comuni pc.
forse stai troppo paragonando i classici sistemi di elaborazione con i sistemi distribuiti.
un sistema di calcolo distribuito può essere gestito da un client programmato come si deve, e naturalmente anche il server deve essere all'altezza.. e ora questi programmi ci sono.
non è che sei rimasto un po' indietro in questa tecnologia?;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.