View Full Version : IBM Cell, stop allo sviluppo. Ma solo di un modello
Redazione di Hardware Upg
24-11-2009, 08:07
Link alla notizia: http://www.hwupgrade.it/news/cpu/ibm-cell-stop-allo-sviluppo-ma-solo-di-un-modello_30853.html
IBM annuncia la dismissione del progetto relativo al successore di PowerXCell-8i. Non si parla di uno stop dell'intera produzione della famiglia Cell, ma solo di un modello
Click sul link per visualizzare la notizia.
Beh mi pare che sia comunque un flop, ricordo che quando fu annunciato sembrava che dovesse arrivare su qualsiasi computer, adirittura Sony lo aveva proposto alla Apple. Invece è solo su PS3 e qualche scheda Toshiba, peccato.
il cell è un portento come architettura, solo lo si sfruttasse al 100% sarebbe una figata
Il cell è interessante perchè è una idea nuova. Per come è stato concepito, è utile solo in ambiti specifici. Come general purpose non è tutto questo granchè, simile ad un single processor con processori "più semplici" per funzioni adatte più ad elaborazioni di flussi continui di dati. Mia opinione.
Kharonte85
24-11-2009, 09:47
Cell è sicuramente un processore interessante, è l'idea di adoperarlo per la grafica nelle console che mi è sempre apparsa "forzata"...checché ne dicano alla IBM probabilmente chi lavora su ps4 si è accorto che continuare su questa strada non avrebbe pagato.
riuzasan
24-11-2009, 10:25
Per chi bazzica sul forum developer IBM la istuazione è abbastanza grottesca ... un'architettura cosi particolare ed innovativa come CELL può si adattarsi ad una console, ma arrivare al contrario è assurdo.
In pratica attualmente, il processore in sviluppo di tipo general purpose con gli SPE come potente contorno elaborativo è stato accantonato, per supportare il pieno lo sviluppo della nuova variante Cell specificatamente sviluppata per la PS4.
E' un rischio enorme per IBM/Toshiba: se dopo PS4 per qualsiasi ragione Sony non si rivolgesse più ai processori della famiglia Cell, morirebbe una nuova e più innovativa idea di processore.
Spec1alFx
24-11-2009, 10:48
Personalmente tutta questa innovazione non ce la vedo. L'architettura delle GPU è simile a quella dei processori Cell, tant'è che inizialmente si pensava di usare quest'ultimo anche come scheda video - e poi ci si è resi conto che al di là del design le GPU sono progettate per intero per svolgere quel preciso compito e pertanto estremamente ottimizzate per esso.
Il Cell è sostanzialmente l'anello di congiunzione tra una CPU general purpose e una GPU, con il risultato che ha delle performance inaccettabili sul general purpose e altresì inaccettabili come GPU; ma soprattutto non può competere con il binomio CPU + GPU.
In soldoni: una GPU programmabile moderna dispone di capacità di calcolo in virgola mobile a precisione singola e doppia enormemente superiori ad un Cell. Una CPU moderna dispone di capacità di eseguire istruzioni general purpose enormemente superiori ad un Cell. E infine, non per importanza, con il binomio CPU + GPU riesci effettivamente a sfruttare la potenza messa a disposizione, mentre con il Cell devi ricorrere a compromessi. Insomma, non solo meno potenza ma anche meno sfruttabile.
Il Cell è un DSP. Va bene come coprocessore.
marcop1973
24-11-2009, 11:15
L' articolo mi fa pensare semplicemente al fatto che IBM non produrrà il powerxcell 32ii (2 PPE + 32 spe), ma che passerà direttamente al powerxcell 32iv (4ppe è 32 espe). Comunque la cosa sembra lo stesso molto inquietante. Ne approfitto per fare una domanda da ignorante:
gli SPE possono eseguire di cicli come i PPE o sono solo una sorta di evoluti coprocessori?
Grazie!
riuzasan
24-11-2009, 11:24
Assolutamente non con concordo SpecialFx.
Purtroppo fai l'errore di ridurre tutto al puro calcolo di una combo CPU X86 tradizionale + GPU senza introdurre nell'equazione i consumi e i costi.
Prendendo come punto di riferimento una combo economica Phenom X2 + GPU 5700, solo per eguagliare i consumi all'interno di un ipotetico "server" si dovrebbero utilizzare 4 Cell, che di calcoli bruti sia in single che in double precision sono enormemente superiori.
Quest'idea che poi le istruzioni "general purpose" (abbastanza singolare come affermazione ...) abbiano bisogno di performance è tutta da dimostrare: ad oggi il vero collo di bottiglia di qualsiasi applicazione non sono certo quelli delle applicazioni Office o small business, ma quelle che richiedono un massiccio parallelismo ben gestito da un leggera unità centrale che distribuisca efficacemente i calcoli ad unità secondarie.
In questo è l'errore di fondo.
Cell è e resta una sfida affascinante per chiunque abbia cominciato a programmare in assembler con un 68000.
Nel rapporto costo/consumi/prestazioni è enormemente superiore a qualsiasi combo x86+gpu, almeno attualmente.
Che poi GUARDA CASO sia AMD che INTEL spingano in un futuro prossimo all'integrazione di una GPU all'interno di una CPU tradizionale, è un chiaro segnale della direzione verso cui si stanno spostando i due maggiori CPU maker.
supertigrotto
24-11-2009, 15:35
però architetture come rv 870,l'ipotetico fermi etc fanno pensare che ormai le gpu sono alla stregua delle cpu o poco manca.
Nvidia e Ati stanno lavorando assiduamente al parallel computing,specialmente nvidia con fermi.
Mah....io attenderei inizio anno nuovo con l'arrivo delle specifiche tecniche definitive di POWER7 di IBM.....a quel punto vedremo cosa di correlato sarà portato avanti anche in area POWER CELL....non vorrei che intedessero affrmare, con la presente notizia, di voler fermare il progetto inerente al vecchio CORE (con l'aumento degli SPE) in quanto hanno magari in "pentola" qualcosa di più potente.
Vedremo..........tra l'altro con l'annuncio di queste nuove CPU (POWER7 per IBM e nuovi XEON per intel) non darei per scontato nulla!
WaywardPine
24-11-2009, 20:13
Assolutamente non con concordo SpecialFx.
Purtroppo fai l'errore di ridurre tutto al puro calcolo di una combo CPU X86 tradizionale + GPU senza introdurre nell'equazione i consumi e i costi.
Prendendo come punto di riferimento una combo economica Phenom X2 + GPU 5700, solo per eguagliare i consumi all'interno di un ipotetico "server" si dovrebbero utilizzare 4 Cell, che di calcoli bruti sia in single che in double precision sono enormemente superiori.
Due blade con due processori Cell ti vengono a costare circa 20,000$. Allo stesso prezzo compri quattro blade ciascuno con due Xeon Nehalem, oppure due blade ciascuno con 4 schede Tesla, oppure due blade ciascuno con 4 processori Opteron Istanbul.
Se parliamo di "calcoli bruti in doppia precisione":
- 4 powerxcell 8i: ~400 GFLOPS
- 8 Nehalem: ~400 GFLOPS
- 8 Istanbul: ~500 GFLOPS
- 8 Tesla: ~700 GFLOPS
Se parliamo di "calcoli bruti in singola precisione":
- 4 powerxcell 8i: ~800 GFLOPS
- 8 Nehalem: ~800 GFLOPS
- 8 Istanbul: ~1000 GFLOPS
- 8 Tesla: ~8000 GFLOPS
Se poi vogliamo parlare di performance reali il discorso è vastissimo, ma per stessa ammissione di IBM Cell non è adatto a certi tipi di algoritmi (lo stesso discorso vale in misura ancora maggiore per le GPU attuali). Con l'arrivo di Fermi le soluzioni Tesla diventeranno ancora più interessanti.
qui però lo dice in altro modo più ambiguo
http://www.playstationuniversity.com/ibm-cancels-cell-processor-development-1295/
Le caratteristiche del Cell saranno integrato in altri processori
Sony can still hire IBM to create a Cell Processor for their next console, without IBM being involved in their own internal development outside of the PS4.
Qui non si sa nemmeno se IBM voglia continuare lo sviuppo per Sony, quindi starebbe a Sony convincere IBM.
Bello vedere come le notizie vengano rivoltate, modficate e precisate in continuazione.
Chissà magari domani ne esce un altro in cui smentiscno tutto :p
Personalmente tutta questa innovazione non ce la vedo. L'architettura delle GPU è simile a quella dei processori Cell, tant'è che inizialmente si pensava di usare quest'ultimo anche come scheda video - e poi ci si è resi conto che al di là del design le GPU sono progettate per intero per svolgere quel preciso compito e pertanto estremamente ottimizzate per esso.
Il Cell è sostanzialmente l'anello di congiunzione tra una CPU general purpose e una GPU, con il risultato che ha delle performance inaccettabili sul general purpose e altresì inaccettabili come GPU; ma soprattutto non può competere con il binomio CPU + GPU.
Quoto.
Spec1alFx
26-11-2009, 14:41
Assolutamente non con concordo SpecialFx.
Purtroppo fai l'errore di ridurre tutto al puro calcolo di una combo CPU X86 tradizionale + GPU senza introdurre nell'equazione i consumi e i costi.
Assolutamente no, è evidente che invece non hai fatto tu quei due conti. Le schede video di ultima generazione (che nVidia deve ancora commercializzare) macinano gigaflops in doppia precisione oltre i 700, mentre un PowerXCell 8i arriva a 12.8 per SPE (quindi un valore teorico di picco appena superiore i 100 gigaflops).
Il PowerXCell 8i ha un TDP di 92 watt, le schede video in questioni circa 3 volte tanto. Quindi:
3 volte i consumi
7 volte le performance
A casa mia significa che chi vince sulle performance per watt... non è il Cell. Per quanto riguarda i costi ti ha ben risposto WaywardPine. I costi delle schede Fermi di prossima uscita sono già stati riportati da HWUpgrade nel recente passato e anch'esse sono vantaggiose rispetto al Cell. A livello di costo hai sostanzialmente un rapporto 1 Cell per 1 scheda Fermi (sistema incluso) e conseguentemente un benefit dal punto di vista prestazionale di un significativo 7x.
Prendendo come punto di riferimento una combo economica Phenom X2 + GPU 5700, solo per eguagliare i consumi all'interno di un ipotetico "server" si dovrebbero utilizzare 4 Cell, che di calcoli bruti sia in single che in double precision sono enormemente superiori.
Mi stai paragonando un PC da gioco con un sistema di tutt'altra fascia.
Quest'idea che poi le istruzioni "general purpose" (abbastanza singolare come affermazione ...) abbiano bisogno di performance è tutta da dimostrare: ad oggi il vero collo di bottiglia di qualsiasi applicazione non sono certo quelli delle applicazioni Office o small business, ma quelle che richiedono un massiccio parallelismo ben gestito da un leggera unità centrale che distribuisca efficacemente i calcoli ad unità secondarie.
In questo è l'errore di fondo.
Guarda, senza perdere tempo con le argomentazioni per cui quanto affermi è falso (in sintesi: per affrontare problemi complessi ti serve avere a disposizione potenza sia specifica ma anche generica, altrimenti hai colli di bottiglia), lascio parlare i fatti per conto mio:
quella stessa IBM che produce i Cell li infila in sistemi in cui il processore principale è... un Opteron. Ad esempio il supercomputer Roadrunner è composto da 12240 PowerXCell 8i che fanno da coprocessore a 6562 Opteron.
Cell è e resta una sfida affascinante per chiunque abbia cominciato a programmare in assembler con un 68000.
E già questo dovrebbe far intendere che non rappresenta questa grande innovazione. :D
Nel rapporto costo/consumi/prestazioni è enormemente superiore a qualsiasi combo x86+gpu, almeno attualmente.
Forse quando è uscito, per compiti estremamente specifici poteva avere il suo perchè, attualmente è superato. Le GPGPU incarnano l'evoluzione estrema del Cell.
Che poi GUARDA CASO sia AMD che INTEL spingano in un futuro prossimo all'integrazione di una GPU all'interno di una CPU tradizionale, è un chiaro segnale della direzione verso cui si stanno spostando i due maggiori CPU maker.
Stai facendo confusione: la GPU sarà integrata sui processori di fascia bassa, e non di certo per essere usata come coprocessore.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.