View Full Version : CPU -------> GPU
planning
09-02-2005, 18:37
Tutti noi sappiamo che i moderni processori grafici sono tecnologicamente + avanzati rispetto ai processori (P 4 e Athlon 64), la mia domanda è questa: se nessuno ha mai pensato di creare processori (CPU) che assomiglino ed abbiano le caratteristiche dei processori grafici che abbiamo nelle nostre schede video??
Originariamente inviato da planning
Tutti noi sappiamo che i moderni processori grafici sono tecnologicamente + avanzati rispetto ai processori (P 4 e Athlon 64), la mia domanda è questa: se nessuno ha mai pensato di creare processori (CPU) che assomiglino ed abbiano le caratteristiche dei processori grafici che abbiamo nelle nostre schede video??
credo che il CELL di IBM+Toshiba+sony sia in parte paragonabile ad una enorme ed estramente potente gpu.
Calcola che si dice sia a livelli di potenza pura di calcolo circa 6 volte più potente di una 6800u.
OverClocK79®
09-02-2005, 18:54
si ma dipende cosa intendiamo per potenza pura
e cmq se nn sbagli sono fatti per un tipo di calcolo differente
nn è che un domani mettono la 6800U al posto del P4 e il PC vola.......
sono 2 cose differenti altrimenti lo avrebbero già fatto
BYEZZZZZZZZZZZZ
Originariamente inviato da OverClocK79®
si ma dipende cosa intendiamo per potenza pura
e cmq se nn sbagli sono fatti per un tipo di calcolo differente
nn è che un domani mettono la 6800U al posto del P4 e il PC vola.......
sono 2 cose differenti altrimenti lo avrebbero già fatto
BYEZZZZZZZZZZZZ
è proprio così è un'architettura differente,non sono processori di stesso tipo versatili allo stesso modo per gli stessi compiti
Se vi piacciono le cose complicate :D
http://www.gpgpu.org/
Come usare le GPU per applicazioni non grafiche.
Sulla carta le attuali GPU battono tutti in FLOPS, però ci sono ancora grossi colli di bottiglia dovuti non tanto all'architettura interna quanto al fetching.
Da Stanford
"We find that the key cause of this inefficiency is that the GPU can fetch less data and yet execute more arithmetic operations per clock than the CPU when both are operating out of their closest caches. The lack of high bandwidth access to cached data will impair the performance of GPU implementations of any computation featuring significant input reuse"
http://graphics.stanford.edu/papers/gpumatrixmult/gpumatrixmult.pdf
una cpu è general puorposes un gpu no la differenza sta li
Originariamente inviato da checo
una cpu è general puorposes un gpu no la differenza sta li
Non è più così ormai. La linea di demarcazione si sta assottigliando. La GPU ha vettorializzato di molto le unità di computazione, molto più di quanto abbia fatto la CPU.
Questo effettivamente, unito ad un adeguato fetching dei dati, può essere molto interessante in un'ottica di sfruttamento PIENO del sistema che si ha a disposizione.
Se ho delle unità di calcolo, devo usarle globalmente al meglio, cioè occupare quelle che si rigirano i pollici ;)
Altrimenti potrei fare tutto con la ALU :D
Symonjfox
09-02-2005, 22:51
Beh, NVidia sta più o meno dirigendosi in quella direzione con il suo Pure Video.
Sarebbe bello integrarlo in maniera automatica in un sistema operativo e per compiti NON grafici (immaginate se fosse possibile aiutare la CPU durante una codifica MPEG4 oppure comprimere al volo un MP3 senza impegnare la CPU).
Avevo sentito parlare del progetto http://www.gpgpu.org/ però sapevo anche che era ancora molto indietro come realizzazione.
^TiGeRShArK^
09-02-2005, 23:13
Originariamente inviato da sslazio
credo che il CELL di IBM+Toshiba+sony sia in parte paragonabile ad una enorme ed estramente potente gpu.
Calcola che si dice sia a livelli di potenza pura di calcolo circa 6 volte più potente di una 6800u.
Infatti non so quanto il cell possa essere definito general purpose....
ha una marea di unità vettoriali, ke NON potranno essere sfruttate in ogni ambito, e ke cmq x sfruttarle adeguatamente negli ambiti in cui è possibile mi sa ke sarà un pò un casino imho....
cmq tra qualke anno si vedrà......
Originariamente inviato da ^TiGeRShArK^
Infatti non so quanto il cell possa essere definito general purpose....
ha una marea di unità vettoriali, ke NON potranno essere sfruttate in ogni ambito, e ke cmq x sfruttarle adeguatamente negli ambiti in cui è possibile mi sa ke sarà un pò un casino imho....
cmq tra qualke anno si vedrà......
direi che è la cpu emblema del general purpose.
Completamente sfruttabile con qualunque OS, in grado di fare cose diverse nel medesimo ciclo di clock o unire le forze di tutte le alu e FPU per accellerare un unico processo in corso.
In parole povere se manterrà le promesse su carta sarà la CPU che darà il vero salto di qualità che forse c'è stato solo nel passaggio dal c64 alle cpu di moderna generazione.
Originariamente inviato da sslazio
direi che è la cpu emblema del general purpose.
Completamente sfruttabile con qualunque OS, in grado di fare cose diverse nel medesimo ciclo di clock o unire le forze di tutte le alu e FPU per accellerare un unico processo in corso.
Questo non c'entra col general purpose :D
"General purpose" vuol dire per uso generico: audio, video, computazione pura, controllistica, ecc. ;)
Originariamente inviato da lowenz
Questo non c'entra col general purpose :D
"General purpose" vuol dire per uso generico: audio, video, computazione pura, controllistica, ecc. ;)
si e infatti ho detto che può fare più cose contemporaneamente, se vuoi ti scrivo la lista :D
Ti ricordo per altro che lo stesso emotion engine è in grado di processare audio, video e altro tramite vector unit interne completamente indipendenti.
si, ma le apu dell cell sono se prese singolarmente molto poco general
Cmq prendiamo ad esempio R420: può calcolare i valori di funzioni trigonometriche (sin e cos) in un ciclo di clock, una volta era impensabile per un core video una cosa simile!
Perchè quindi non sfruttare questa capacità oltre al rendering di una scena 3D?
Cmq appena reperisco una 6600GT mi ci metto al lavoro con sta cosa!
Capirossi
10-02-2005, 13:08
bella stà cosa :)
In fin dei conti è un po' quello che vuole fare anche microsoft con l'interfaccia 3d di longhorn, ovvero trasferire completamente il carico di lavoro alla gpu per altro ottenendo risultati a video decisamente più appaganti.
Tempo fa avevo sentito che le moderne gpu potrebbero in teoria processare anche l'audio anche se non ho capito come, se fosse vero vorrebbe dire che sono realmente molto sottoutilizzate rispetto alle potenzialità intrinseche.
C'è da dire che comunque per forza di cose dovrebbero combattere con il collo di bottiglia generato dal bus AGP o PCIexpress che sia, decisamente meno performante del bus di connessione tra cpu/chipset/ram.
Capirossi
10-02-2005, 14:00
Originariamente inviato da sslazio
In fin dei conti è un po' quello che vuole fare anche microsoft con l'interfaccia 3d di longhorn, ovvero trasferire completamente il carico di lavoro alla gpu per altro ottenendo risultati a video decisamente più appaganti.
Tempo fa avevo sentito che le moderne gpu potrebbero in teoria processare anche l'audio anche se non ho capito come, se fosse vero vorrebbe dire che sono realmente molto sottoutilizzate rispetto alle potenzialità intrinseche.
C'è da dire che comunque per forza di cose dovrebbero combattere con il collo di bottiglia generato dal bus AGP o PCIexpress che sia, decisamente meno performante del bus di connessione tra cpu/chipset/ram.
però sfruttare quei cicli di clock che altrimenti andrebbero persi è già qualcosa :)
http://www.bionicfx.com/
http://www.bionicfx.com/images/avex.gif
Originariamente inviato da lowenz
http://www.bionicfx.com/
http://www.bionicfx.com/images/avex.gif
fantastico, chissà se realmente utilizzabile.
Originariamente inviato da sslazio
fantastico, chissà se realmente utilizzabile.
La stessa architettura può essere usata per qualsiasi calcolo vettoriale, quindi postprocessing video, risoluzione numerica di sistemi di equazioni, simulazione fisica, global illumination (ci sono già degli esempi).
Il grosso difetto per ora è la rigidità del sistema I/O delle schede grafiche, pensato appunto per il rendering in tempo reale. In particolare non è possibile eseguire salti condizionali (dynamic branching) o se è possibile (NV40) va a scapito delle prestazioni. Possono essere emulati con il render to texture ma a un costo abbastanza alto (nel caso delle CPU gli tessi dati andrebbero in cache invece che in RAM).
Con le DirectX 10 invece è stato annunciato un modello di I/O molto più flessibile. Le GPU diventerebbero quindi delle CPU vettoriali dedicate estremamente potenti.
Originariamente inviato da planning
Tutti noi sappiamo che i moderni processori grafici sono tecnologicamente + avanzati rispetto ai processori (P 4 e Athlon 64), la mia domanda è questa: se nessuno ha mai pensato di creare processori (CPU) che assomiglino ed abbiano le caratteristiche dei processori grafici che abbiamo nelle nostre schede video??
A dire il vero le GPU non sono , almeno attualmente, tecnologicamente piu' avanzate di processori come il P4 o l'Athlon 64, e non lo sono neanche dal punto di vista architetturale o della complessita'.
Le GPU non sono costruite con i processi piu' avanzati e inoltre sono relativamente piu' semplici di una CPU. Infatti basta vedere quanto spende Intel per progettare un processore..e quando nvidia..si parla di ordini di grandezza di differenza. Non per niente il ciclo di svluppo di una GPU (e anche il ricambio architetturale sul mercato) e' molto piu' rapido di quello di una CPU moderna.
ciao,
Marco
Originariamente inviato da Nao_2
A dire il vero le GPU non sono , almeno attualmente, tecnologicamente piu' avanzate di processori come il P4 o l'Athlon 64, e non lo sono neanche dal punto di vista architetturale o della complessita'.
Le GPU non sono costruite con i processi piu' avanzati e inoltre sono relativamente piu' semplici di una CPU. Infatti basta vedere quanto spende Intel per progettare un processore..e quando nvidia..si parla di ordini di grandezza di differenza. Non per niente il ciclo di svluppo di una GPU (e anche il ricambio architetturale sul mercato) e' molto piu' rapido di quello di una CPU moderna.
Infatti si parlava di EFFICIENZA, non complessità ;)
Che siano fisicamente più semplici però ti sbagli: NV40 ha un quantitativo assurdo di transistor e gestire i pesi capacitivi (sìsì, sto parlando di FARAD) ad essi legati è cmq ALL'AVANGUARDIA.
NV40 -> 220 milioni di transistor e passa
Prescott -> 125 milioni di transistor
Originariamente inviato da lowenz
Infatti si parlava di EFFICIENZA, non complessità ;)
Che siano fisicamente più semplici però ti sbagli: NV40 ha un quantitativo assurdo di transistor e gestire i pesi capacitivi (sìsì, sto parlando di FARAD) ad essi legati è cmq ALL'AVANGUARDIA.
NV40 -> 220 milioni di transistor e passa
Prescott -> 125 milioni di transistor
Mi riferivo al fatto che una CPU moderna ha un sacco di celle e blocchi fatti e connessi praticamente a mano. Le GPU non hanno quasi mai blocchi custom. Ripeto..lo sforzo per sviluppare una GPU moderna e' attualmente molto inferiore a quello per sviluppare una CPU..
Contare semplicemente i transistor non ha molto senso,tutti i transistor sono uguali, ma qualcuno e' piu' uguale ;)
Difficilmente un paio di parametri possono essere utili per giudicare o confrontare dei design..
Originariamente inviato da Nao_2
Contare semplicemente i transistor non ha molto senso,tutti i transistor sono uguali, ma qualcuno e' piu' uguale ;)
Difficilmente un paio di parametri possono essere utili per giudicare o confrontare dei design..
Errore :D perchè invece la quantità conta eccome in elettronica: maggior capacità (= TANTI FARAD) dovuta a più transistor si rispecchia in tanti problemi realizzati del chip; i 2 più grossi sono:
-energia necessaria per communtazioni 0->1, 1->0 (se si usa C-MOS come tecnologia)
-rallentamento fronti dei segnali
E il primo, ultimamente (vedi consumi Prescott), sta pesando un casino nella progettazione.
Originariamente inviato da Nao_2
Mi riferivo al fatto che una CPU moderna ha un sacco di celle e blocchi fatti e connessi praticamente a mano. Le GPU non hanno quasi mai blocchi custom. Ripeto..lo sforzo per sviluppare una GPU moderna e' attualmente molto inferiore a quello per sviluppare una CPU..
C'è da considerare che difficilmente si reinventa la ruota.. il design dei processori Intel e AMD si è consolidato negli anni, e anche se periodicamente ci sono dei rinnovamenti l'architettura fondamentalmente è sempre la stessa.
Con le GPU tutto è molto più veloce... l'introduzione di sempre più logica e programmabilità ha portato a un'esplosione del numero dei transistor (basta vedere il trend degli ultimi 5 anni), oltre a porre parecchi problemi dal punto di vista dell'efficienza. Le pipeline delle GPU ormai non sono molto meno complesse di una CPU, considerando che nelle CPU una percentuale consistente di transistor è consumata dalla cache.
Inoltre anche nelle GPU all'occorrenza si usano blocchi custom. Alcune parti di R300 sono state ottimizzate a mano, per guadagnare in area e frequenza operativa.
Originariamente inviato da Banus
considerando che nelle CPU una percentuale consistente di transistor è consumata dalla cache.
PARECCHIO consistente, si vede ad occhio sul die di un procio ;)
Originariamente inviato da lowenz
-energia dissipata per communtazioni (se si usa CMOS)
-rallentamento fronti segnali
E il primo, ultimamente (vedi consumi Prescott) sta pesando un casino.
Sul primo per quanto ne so influiscono le correnti di leakage. Infatti si mormora di problemi da parte di Intel per il processo produttivo a 90 nm, in parte risolti quando è stato affinato (i prescott recenti infatti hanno consumi più contenuti).
Originariamente inviato da lowenz
Errore :D perchè invece la quantità conta eccome in elettronica: maggior capacità (= TANTI FARAD) dovuta a più transistor si rispecchia in tanti problemi realizzati del chip; i 2 più grossi sono:
-energia dissipata per communtazioni (se si usa CMOS)
-rallentamento fronti dei segnali
E il primo, ultimamente (vedi consumi Prescott), sta pesando un casino nella progettazione.
Non ho detto che la quantita' di transistor non conta, ho detto una cosa tanto banale quanto vera, ovvero che usare solo un paio di parametri (qualsiasi) per confrontare due design non e' corretto.
Vogliamo ritornare a quando i processori si confrontavano a colpi di Mhz? non credo..
Nvidia e ATI non usano praticamente celle custom per i loro design, e sebbene le loro GPU abbiamo tantissimi transistor, i blocchi di logica (lasciamo da parte le cache) sono spesso composti da blocchi tutti uguali ripetuti N volte. una GPU e' macchina massivamente parallela e multithreaded, una CPU no. I transistor non usati in cache appartangono quasi sempre a blocchi di design unici, che non vengono riusati. Una GPU puo' avere centiania di ALU, una CPU no.
Sono architetture diverse pensate per scopi diversi.
Originariamente inviato da Banus
Sul primo per quanto ne so influiscono le correnti di leakage. Infatti si mormora di problemi da parte di Intel per il processo produttivo a 90 nm, in parte risolti quando è stato affinato (i prescott recenti infatti hanno consumi più contenuti).
Mmmmmmmmmmm Banus, le correnti leakage sono problemi NON di commutazione del segnale.
Ti tocca una bacchettatina sulle dita :D
Ci sono perdite di potenza
1)dinamiche dovute a:
-commutazione
-corrente di crossbar
2)statiche dovute a:
-correnti di sottosoglia
-correnti di polarizzazione inversa
Sono le ultime quelle considerate "leakage" ;)
Originariamente inviato da Banus
C'è da considerare che difficilmente si reinventa la ruota.. il design dei processori Intel e AMD si è consolidato negli anni, e anche se periodicamente ci sono dei rinnovamenti l'architettura fondamentalmente è sempre la stessa.
Se per architettura intendi solo l'ISA allora sono d'accordo, altrimenti non tanto..
Diciamo che il ciclo di vita dell'architettura di una CPU di solito dura 2-3 volte quello di una GPU, questo si.
Le pipeline delle GPU ormai non sono molto meno complesse di una CPU, considerando che nelle CPU una percentuale consistente di transistor è consumata dalla cache.
Le GPU sono design complessi, ma le CPU lo sono molto molto di piu'.
Ma mano che le GPU diventeranno piu' programmabili la complessita' tra le 2 classi di processori si avvicinera' sempre piu', questo e' chiaro.
Inoltre anche nelle GPU all'occorrenza si usano blocchi custom. Alcune parti di R300 sono state ottimizzate a mano, per guadagnare in area e frequenza operativa.
Infatti non ho scritto che non ci sono blocchi custom in assoluto, ma che non si usano praticamente quasi mai. Anche perche' visto la classe di problemi altamente parallelizzabile alla quale rispondono le GPU si fa molto prima a incrementare il numero di pipeline che ad alzare il clock (il che richiederebbe molta piu' customizzazione..)
Originariamente inviato da Nao_2
Non ho detto che la quantita' di transistor non conta, ho detto una cosa tanto banale quanto vera, ovvero che usare solo un paio di parametri (qualsiasi) per confrontare due design non e' corretto.
Vogliamo ritornare a quando i processori si confrontavano a colpi di Mhz? non credo..
Nvidia e ATI non usano praticamente celle custom per i loro design, e sebbene le loro GPU abbiamo tantissimi transistor, i blocchi di logica (lasciamo da parte le cache) sono spesso composti da blocchi tutti uguali ripetuti N volte. una GPU e' macchina massivamente parallela e multithreaded, una CPU no. I transistor non usati in cache appartangono quasi sempre a blocchi di design unici, che non vengono riusati. Una GPU puo' avere centiania di ALU, una CPU no.
Sono architetture diverse pensate per scopi diversi.
Tutto corretto ma ormai la potenza dissipata è un parametro ASSOLUTO da guardare (parole di Intel all'IDF), e guarda caso è legata al layer fisico-elettronico del progetto (capacità parassite).
Non si può non guardare e io dicevo che se Nvidia ha fatto un chip con 220 milioni di transistor e consuma meno di una CPU con metà transistor è tecnologicamente all'avanguardia.
Cmq certo, bisogna considerare la frequenza per calcolare la potenza dissipata (3 Ghz per Intel e 400 Mhz per Nvidia).....però con i loro 400 Mhz le GPU fanno numeri assurdi come performance "assolute" (FLOPS) :)
Originariamente inviato da lowenz
Mmmmmmmmmmm Banus, le correnti leakage sono problemi NON di commutazione del segnale.
Ti tocca una bacchettatina sulle dita :D
Perchè non sono pignolo? :D
Mi riferivo all'energia dissipata stop :p
Mi sono accorto che la mia risposta non era del tutto precisa ma ormai avevo già inviato :p
Cmq benvenuto Nao_2, ho visto adesso che sei novello :D
Buona permanenza su HWUpgrade :)
Originariamente inviato da lowenz
Cmq certo, bisogna considerare la frequenza per calcolare la potenza dissipata (3 Ghz per Intel e 400 Mhz per Nvidia).....però con i loro 400 Mhz le GPU fanno numeri assurdi come performance "assolute" (FLOPS) :)
Te lo stavo per scrivere ma ti sei corretto da solo :) Tra l'altro, se non ricordo male, la potenza dissipata e' una funzione crescente col quadrato della frequenza..
Grazie per il benvenuto!
Originariamente inviato da Nao_2
Te lo stavo per scrivere ma ti sei corretto da solo :) Tra l'altro, se non ricordo male, la potenza dissipata e' una funzione crescente col quadrato della frequenza..
Grazie per il benvenuto!
Potenza dissipata da una porta logica CMOS per DOPPIA commutazione (0->1->0, 1->0->1).
P=Cl*Vdd^2*f*alpha
Cl=C Load->capacità equivalente della porta successiva (quella attaccata all'uscita)
Vdd->tensione di alimentazione
f->frequenza di lavoro (clock del sistema)
alpha->switching activity=dice con quale probabilità c'è una commutazione
alpha si calcola con delle ipotesi sugli ingressi della porta logica:
-ingressi statisticamente indipendenti
-autocorrelazione di ciascun ingresso nulla
Ops..mi ricordavo male, e' lineare nella frequenza ;)
Originariamente inviato da Nao_2
Ops..mi ricordavo male, e' lineare nella frequenza ;)
Va con il quadrato della tensione ;)
2 piccole note, già che ci sono:
-le correnti di leakage si fanno sempre più sentire perchè sono legate alla lunghezza di canale nei MOS usati, lunghezza che si cerca sempre di diminuire (ecco i vari processi produttivi: 0.15, 0.13, ecc) per integrare più transistor nella stessa area. E più diminuisce più corrente di leakage c'è :muro: :(
-le correnti di crossbar sono una brutta bestia, ci sono quando sia i p-MOS che gli n-MOs sono accesi (per piccole frazioni di tempo infatti sono accesi entrambi, non sono interruttori perfetti in esclusione come a volte li si descrive). Per eliminarle bisognerebbe avere accesi in esclusione i 2 tipi di MOS.....e per far questo ci vuole un circuitino pilota ausiliario.....che consuma a sua volta potenza :muro: :D :D :D
Ci sono anche le correnti di effetto tunnel, che viste lo spessore raggiunto dal gate stanno diventando importanti...
Intanto qualche immagine del meglio delle CPU, GPU:
http://planet64bit.de/pics/athlon64/Athlon64_die_marked.jpg
http://next.videogame.it/html/foto.php?tabella=articoli&id=4232&i=5
e di quello che è sicuramente il miglior connubio CPU-GPU, il Cell:
http://www.electronicsweekly.co.uk/ImageLibrary/GetImage.asp?liAssetID=1005
Allora questo potrebbe interessarvi:
ISSSCC 2005: The CELL Microprocessor (http://www.realworldtech.com/includes/templates/articles.cfm?ArticleID=RWT021005084318&mode=print)
Buona lettura ;)
Originariamente inviato da Nao_2
Allora questo potrebbe interessarvi:
Molto interessante infatti ;)
Mette in chiaro soprattutto il tipo di elaborazione che può essere svolta dalle SPE.
Siamo sui 256 Gflops teorici per calcoli FP a 32 bit e sui 25-30 Gflops per calcoli a 64 bit. Non è tantissimo ma supera comunque molti processori vettoriali (costosi e affamati di potenza).
:mbe: ragazzi complimenti mi sembra una lezione all'università di ingegneria informatica :mbe:
OverClocK79®
10-02-2005, 18:43
infatti.....
ascolto e memorizzo :p
purtroppo la mia conoscenza delle CPU nn arriva a questi livelli.....
nn apro manco bocca :p
BYEZZZZZZZZZZZZZZ
Originariamente inviato da sslazio
:mbe: ragazzi complimenti mi sembra una lezione all'università di ingegneria informatica :mbe:
Allora rinnovo la mia contentezza per non aver scelto ingegneria.. ;)
Originariamente inviato da sslazio
:mbe: ragazzi complimenti mi sembra una lezione all'università di ingegneria informatica :mbe:
Io e lowenz siamo reduci da un corso sulla tecnologia dei microprocessori tenuta dal prof Ripamonti.. le nostre discussioni sono nulla in confronto a quello che sa lui :D
Originariamente inviato da Nao_2
Allora rinnovo la mia contentezza per non aver scelto ingegneria.
Sei molto informato allora ;)
Originariamente inviato da Banus
Io e lowenz siamo reduci da un corso sulla tecnologia dei microprocessori tenuta dal prof Ripamonti.. le nostre discussioni sono nulla in confronto a quello che sa lui :D
:fiufiu:
Io anche di Sistemi di Elaborazione della Sami (che era all'IDF l'anno scorso), te no pappappero :Prrr:
Ho seguito 2 volte il corso con Ripamonti ed è sempre eccezionale quell'uomo.
Magari potrei scrivere una dispensina per il forum, quando ho tempo/voglia :)
Sei molto informato allora ;)
Grazie. Ma e' una specie di hobby con ripercussioni professionali. Oggi traffico con le GPU...un domani con CELL ;)
Tornando OT spero di avere entro Marzo una 6600GT e, scaricato l'SDK di Brook, smanettarci un po'.
Per chi è interessato (e magari sa un po' di C e ha una scheda DX9) ecco il materiale:
http://graphics.stanford.edu/projects/brookgpu/index.html
Originariamente inviato da lowenz
Tornando OT spero di avere entro Marzo una 6600GT e, scaricato l'SDK di Brook, smanettarci un po'.
Ma perchè dici sempre OT? Significa Off Topic :p
In questi casi si dice IT (In Topic) ;)
Originariamente inviato da Banus
Ma perchè dici sempre OT? Significa Off Topic :p
In questi casi si dice IT (In Topic) ;)
OT....On Topic :D
Io ragiono in logica binaria, ON/OFF :asd:
^TiGeRShArK^
11-02-2005, 00:35
Originariamente inviato da sslazio
direi che è la cpu emblema del general purpose.
Completamente sfruttabile con qualunque OS, in grado di fare cose diverse nel medesimo ciclo di clock o unire le forze di tutte le alu e FPU per accellerare un unico processo in corso.
In parole povere se manterrà le promesse su carta sarà la CPU che darà il vero salto di qualità che forse c'è stato solo nel passaggio dal c64 alle cpu di moderna generazione.
:fiufiu: dimentiki le dipendenze :D
non tutti i processi sono inerentemente parallelizzabili, ma cmq questo non c'entra col general purpose....
Il cell, x come lo vedo io è un processore SPECIALIZZATO...
ke poi possa pure eseguire codice più generico non ci piove, però non è nato x quello, dato ke con codice generico sarà fortemente penalizzato.
X questo sarà molto difficile da sfruttare inizialmente, x via del codice specifico ke digerisce....
tutto questo imho ovviamente.....
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.