View Full Version : Larrabee basato su core Pentium P54C
Redazione di Hardware Upg
07-07-2008, 09:56
Link alla notizia: http://www.hwupgrade.it/news/skvideo/larrabee-basato-su-core-pentium-p54c_25884.html
Intel ha anticipato che Larrabee utilizzerà core derivati da quelli utilizzati con i processori Pentium MMX, con ovviamente le opportune integrazioni architetturali
Click sul link per visualizzare la notizia.
Mercuri0
07-07-2008, 10:02
Architettura "pienamente compatibile con x86" ... con un core SIMD da 512bit, proprio "tipico" delle architetture x86 -.-
300 watt per una gpu... questo si che è uno skiaffo alle politiche di risparmi energetico... ma LOL...
TheDarkAngel
07-07-2008, 10:06
liscia un pò inorriditi per ora il consumo massimo @_o
Peccato che quando arriverà sul mercato credo che amd e nvidia sfornino gia schede da 5 teraflops, se gia la 4870x2 ne spara fuori 2,4 ora...
300W senza memoria , senza controller pci-e, ram dac ....
Mi sa che aggiungendo della ddr5 superano senza problema i 400W!
kavolo addirittura 300w di consumo:doh:
DarKilleR
07-07-2008, 10:14
allora, non capisco intel, si tirano fuori una VGA o simil VGA X86 quindi difficilmente sarà usabile come VGA....
ma anche se puntano ad un sistema tipo firestream o tesla per le webfarm, mi sembra che la loro efficienza prestazioni / watt sia molto bassa... o mi sbaglio?
Basterà mettere un flag nelle CPU capability e un compilatore che produca codice multipath et voilà... Un programma che su larrabee può avere un boost notevole. Già ora Matlab 7.6 sfrutta il multicore, parallelizzando i calcoli matriciali... Mi immagino con larrabee... Per esempio una operazione matriciale, una fft, sono altamente parallelizzabili... Sulle immagini mediche che io uso di solito, Matlab mi arriva ad occupare anche tutti e 8 i cores... Quindi almeno per quanto mi riguarda, il codice che uso è altamente parallelizzabile. E non ho dovuto modificare nulla...
essential__60
07-07-2008, 10:18
kavolo addirittura 300w di consumo:doh:
300W per 32 core
(... su un numero sino a 32 di core di processore x86 ... Per le versioni top di gamma ... si prevedono valori di consumo massimo sino a 300 Watt ...)
non mi sembra poi molto se consideri che oggi per 4 core sfondiamo i 100W tranquillamente quindi 25W (ottimistici) a core sarebbero "solo" 800W con i core attuali.
alegallo
07-07-2008, 10:22
Peccato, ho venduto il mio pentium 75 intorno al 1998 ... con un saldatore e un bel po' di fantasia avrei potuto farci una bella scheda video :D
Però non mi ero reso conto che consumasse così tanto: strano, avevo un ali da 200W e mi avanzava ... :eek:
Oh, le cpu sono come il maiale: nn si butta via niente! :rotfl:
P.S.: le P54C erano i Pentium dal 75 al 120, gli MMX erano le P55C ;)
Intel non vuole che i programmatori apprendano nuovi set di istruzioni per programmare le GPU? Ma perché...
1) Quando mai le GPU si programmano direttamente con il loro linguaggio assemblativo? Significherebbe produrre giochi che funzionano solo su uno specifico modello di GPU...
2) Ci sono davvero così tanti sviluppatori oggi che sono a loro agio con l'assembly x86? Ormai non si usa più neanche nelle routine chiave dei videogiochi, da una decina d'anni a questa parte. E poi il linguagio x86 non brilla certo per adeguatezza al calcolo vettoriale, con le varie SSEn che escono ogni 6 mesi...
Secondo me saranno altri gli assi nella manica di questo Larrabee, visto che alla ricerca&sviluppo della Intel non sono certo sprovveduti e sicuramente hanno informazioni precise su cosa si sta lavorando alla AMD.
jacky2142
07-07-2008, 10:29
300 watt per una gpu... questo si che è uno skiaffo alle politiche di risparmi energetico... ma LOL...
300 watt per una gpu servono già, la mia 8800gtx ne consuma + di 290 in full load, non vedo dove sia il LOL, è una cosa già affrontata
Complimenti, ma chi lavora in R&D alla Intel? va bene che negli ultimi tempi avevano proposto chipset tecnologicamente arretrati (il NB senz'ombra di dubbio) ma andare a riesumare addirittura il mitico Pentium I... LOLLISSIMI :asd: :asd:
coschizza
07-07-2008, 10:45
leggendo i post noto che molti non hanno capito quale sia il prodotto proposto, la mentarsi dei 300w non ha senso perche un sistema di queste prestazioni fatto da cpu normali consuma anche una decina di volte di piu e confrontare una soluzione simile con quella proposta da le GPU ATI e NVIDIA non ha senso visto che il funzionamento è completamente differente oltre che sono progettate in maniera diametralmente opposta.
stesso discorso per la decisione di mettere unita pentium di un decennio fa, innanzitutto non saranno uguali a quelle di una volta ma riprogettate e ampliate nelle funzionalità l'idea di base è quella di rendere ogni cpu autosufficiente cosa che non si puo dire dell'approccio fatto nella GPU dove le varie ALU non sono autosufficienti nella gestione e controllo.
quindi ci lamentiamo di 300w per 2T quando fino a pochi anni fa tale potenza richiedeva alimentazioni anche al livello di megawatt.
basta prendere in esempio una PS3 con il suo cell dove a aprità di consumo ha una performance di circa 1/10 di questa soluzione INTEL
AMD, nel progetto fusion, ha in mente una cosa simile. Solo che i core saranno molto di meno. Ma le unità di calcolo saranno simili, se non di più. Se la vedrà lo scheduler della CPU a distribuire il lavoro, ovviamente con code e banchi di register renaming maggiorati... E magari usando le SSE5... Ovviamente il codice dovrà essere ottimizzato, amgari con un loop unrolling spinto, ma si può fare. Il vantaggio di AMD è che l'architettura sarà superscalare come i moderni processori e il parallelismo sarà estratto dalla CPU. Questa soluzione intel sembra poco superscalare (il pentium I sotto questo punto di vista non era molto superscalare), ma basata su molti core... Un po' come il SUN niagara (8 core in order, 32 thread), ma con unità FPU più "potenti"...
LO VOGLIOOOOOOOOOOOOO!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
Opteranium
07-07-2008, 10:58
fa meno di 10 ciascuno, non mi sembra male.
Però è meno efficace del firestream 9250, che frulla 8 GFlop/W, questa, anche se è più potente in assoluto se ne farebbe "solo" 6,6..
DOMANDA:
ma questi 2 TF sono come quelli di una normale cpu, cioè li sfrutti per fare di tutto, oppure cono come le controparti ati/nvidia, solo per poche cose?
Perchè nel primo caso allora sarebbe manna...
coschizza
07-07-2008, 11:07
fa meno di 10 ciascuno, non mi sembra male.
Però è meno efficace del firestream 9250, che frulla 8 GFlop/W, questa, anche se è più potente in assoluto se ne farebbe "solo" 6,6..
DOMANDA:
ma questi 2 TF sono come quelli di una normale cpu, cioè li sfrutti per fare di tutto, oppure cono come le controparti ati/nvidia, solo per poche cose?
Perchè nel primo caso allora sarebbe manna...
è questa la differenza ati/nvidia hanno dei prodotti con una notevole potenza di calcolo teorica di picco ma che per essere gestita richidede la divisione del codice in modo da utilizzare centinaia di thred paralleli cosa che non è sempre possibile, mente la soluzione intel ha un approccio piu consevativo cioe avere meno thread e quindi meno unita interne di esecuzione ma assolutamente autosuffiicienti e quindi piu versatili.
tanto per fare un esempio limite mentre ognuna delle 32 cpu presenti nel prodotto intel potrebbero teoricamente gestire dasola un intero SO, nemmeno tutte le centinaia di ALU presenti in una GPU puo gestirne nemmeno 1.
MiKeLezZ
07-07-2008, 11:09
Larrabee = 32 Pentium I a 45nm ... Non ci credo ...
Ancora informazioni troppo fumose per farsi un'idea precisa di come funzioni quest'architettura. Chissà se si tratterà di core multipli paritetici (tipo niagara) oppure specializzati per il calcolo (tipo cell).
In entrambi i casi si tratterebbe di cose già viste, l'unica novità sarebbe l'uso dell'architettura x86... Niente di tanto esaltante :).
Sicuramente ci sarà dell'altro e non vedo l'ora di saperne di più (anche sul fronte Fusion, ovviamente).
essential__60
07-07-2008, 11:31
Ancora informazioni troppo fumose per farsi un'idea precisa di come funzioni quest'architettura. Chissà se si tratterà di core multipli paritetici (tipo niagara) oppure specializzati per il calcolo (tipo cell).
In entrambi i casi si tratterebbe di cose già viste, l'unica novità sarebbe l'uso dell'architettura x86... Niente di tanto esaltante :).
Sicuramente ci sarà dell'altro e non vedo l'ora di saperne di più (anche sul fronte Fusion, ovviamente).
Perchè fumose?
Larrabee utilizzerà un'architettura pienamente compatibile con codice x86
Quindi a tutti gli effetti ogni core è una cpu x86 che in teoria decidi se usare per la grafica o per normali operazioni di calcolo, esempio 8 x CPU 24 X GPU magari dinamicamente a seconda del lavoro (gioco - conversione video).
Un piccolo "cluster di calcolo" da usare a seconda del tipo di "lavoro".
Diciamo che finisce la differenza tra CPU e GPU.
Opteranium
07-07-2008, 11:34
è questa la differenza ati/nvidia hanno dei prodotti con una notevole potenza di calcolo teorica di picco ma che per essere gestita richidede la divisione del codice in modo da utilizzare centinaia di thred paralleli cosa che non è sempre possibile, mente la soluzione intel ha un approccio piu consevativo cioe avere meno thread e quindi meno unita interne di esecuzione ma assolutamente autosuffiicienti e quindi piu versatili.
davvero?? Allora ritiro tutto, grande Intel. Sarà con questo giocattolino il mio prox pc, dopo oltre 6 anni (e non so quanti altri prima che sia disponibile a prezzi umani) di Sempron 3100+.
Voglio saltare almeno 3-4 architetture!! Chissà che effetto fà...
MenageZero
07-07-2008, 11:35
Larrabee = 32 Pentium I a 45nm ... Non ci credo ...
ma che vuol dire :D , hanno preso il design di quel chip come punto di partenza probabilmente xché è buon compromesso tra quello che si richiede al singolo core di larrabee ed il num di cmos necessari, posti i limiti necessari in termini di consumo e dimensioni dato il processo a 45nm
il nuovo core integra anche istruzioni x64 e quel simd core da 512bit (se non sbaglio sui core2 siamo a128); e ci saranno sicuramente tanti altre differenze "di dettaglio" di cui la news non parla, non è che sia proprio un pentium1 il singolo core :sofico:
poi magari il rpogetto avrà dei limiti di budget/tempo anche a livello progettazione en non potevano partire completamente dal foglio bianco
piuttosto già così si parla di 300W per la versione top (e con "solo" 32 core), imho è eventualmente questo il dato negativo, sono troppini per il mercato consumer, più del top di ati ed nv se non rocrdo male e sembrerebbe improbabile che al debutto larrabee nel 3d possa già avere prestazioni vicinissime alle attuali gpu
ma che vuol dire :D , hanno preso il design di quel chip come punto di partenza probabilmente xché è buon compromesso tra quello che si richiede al singolo core di larrabee ed il num di cmos necessari, posti i limiti necessari in termini di consumo e dimensioni dato il processo a 45nm
poi il nuovo core integra anche istruzioni x64 e quel simd core da 512bit (se non sbaglio sui core2 siamo a128); e ci saranno sicuramente tanti altre differenze "di dettaglio" di cui la news non parla, non è che sia proprio un pentiun1 il singolo core :sofico:
poi magari il rpogetto avrà dei limiti di budget/tempo anche a livello progettazione en non potevano partire completamente dal foglio bianco
Ma in sostanza Larrabee cosa rappresenta? Una via di mezzo tra una GPU e una CPU? Una GPU x86? Una CPU estremamente parallela?
Non so ma si è mai parlato di che versione di DirectX implementeranno queste soluzioni?
Sono molto interessato ma sono anche un po' confuso. :stordita:
Perchè fumose?
Larrabee utilizzerà un'architettura pienamente compatibile con codice x86
Quindi a tutti gli effetti ogni core è una cpu x86 che in teoria decidi se usare per la grafica o per normali operazioni di calcolo, esempio 8 x CPU 24 X GPU magari dinamicamente a seconda del lavoro (gioco - conversione video).
Un piccolo "cluster di calcolo" da usare a seconda del tipo di "lavoro".
Diciamo che finisce la differenza tra CPU e GPU.
Cioè dici che con il Larrabee semplicemente la Intel farà il salto da 2+2 core a 32 core? :mbe: Sono un po' perplesso, dove rientra la unità SIMD da 512 bit in tutto questo? Forse con un'ennesima generazione delle SSE? L'articolo parla di 1 unità, lasciando immaginare che sarà condivisa da tutti i core...
P.S.: le P54C erano i Pentium dal 75 al 120, gli MMX erano le P55C ;)
Precisino ma mica tanto!!! I P54C erano tutti i pentium "lisci" quindi non si fermavano al 120, ma c'erano anche il 133, il 150, il 166, il 180 e infine il 200, del P55C uscirono solo il 166, il 200 e il 233
Da quello che ho letto i 2 Teraflops del Larrabee sono con numeri a doppia precisione, mentre quelli delle schede video ATI o Nvidia a singola precisione (passando alla doppia la velocita` si riduce notevolmente). Quindi sara` una gpgpu avente una potenza di calcolo mai vista prima su dei pc desktop.
MenageZero
07-07-2008, 11:55
Ma in sostanza Larrabee cosa rappresenta? Una via di mezzo tra una GPU e una CPU? Una GPU x86? Una CPU estremamente parallela?
Non so ma si è mai parlato di che versione di DirectX implementeranno queste soluzioni?
Sono molto interessato ma sono anche un po' confuso. :stordita:
puoi vederla come una gpu con arch. interna mooolto diversa da quelle ati ed nv, se effettivamente intel commercializzerà questo chip dedicandolo (anche) ad essere montato anche su schede video o in generale come un chip da dedicare al calcolo parallelo (ovvero qualuque tipo di elaborazione/sw fortemente parallelizzabile), cosa che cmq una volta in essere gli oppurtuni kit di sviluppo come sai si può fare anche con le gpu o con arch. come il cell
in teoria credo che questa arch, visto che parliamo di n core x86, possa fungere anche da cpu se integrasse l'opportruna logica di intefacciamento con "il resto del mondo", ma non mi pare si sia mai parlato di intenzione di intel di proprorre larrabee anche nels ettore cpu.
per ulteriori dettagli, tipo cosa altro verrà implementato in larrabbee oltre ai core x86, se e quali specifiche di api grafiche verranno implementate e quale versione, non ti so dire nulla (ad un certo punto mi pare fu detto che l'avrebbero reso compatibile con ogl e dx e che potrà essere usato anche per il rasterizing come le altre gpu e non solo raytracing, ma non mi ricordo se erano dichiarazioni uffciali da intel o meno)
anche perché mi pare che fin'ora questa sia una delle "voci uffciali" più "dettagliate" che ci siano state
:boh:
Ma in sostanza Larrabee cosa rappresenta? Una via di mezzo tra una GPU e una CPU? Una GPU x86? Una CPU estremamente parallela?
Non so ma si è mai parlato di che versione di DirectX implementeranno queste soluzioni?
Sono molto interessato ma sono anche un po' confuso. :stordita:
Se è come si delinea, non sarà più un processore disegnato per una specifica versione di DirectX, né il viceversa. Si tratta di core generici che non hanno bisogno di uno strato di astrazione come DirectX per essere sfruttati appieno, ma al contrario hanno bisogno di essere direttamente programmati. Ovviamente DirectX rimane sempre come esecutore finale delle primitive grafiche su Windows, ma la genericità di questa G/CPU le permetterebbe di essere usata anche con paradigmi completamente differenti da quelli imposti da DirectX o OpenGL - per esempio il ray tracing!
Peccato, ho venduto il mio pentium 75 intorno al 1998
[...]
P.S.: le P54C erano i Pentium dal 75 al 120, gli MMX erano le P55C ;)
io l'ho ancora (a 90MHz), dovrei solo vedere se la motherboard funziona ancora bene :cool:
Booo mi sa che le cose sono confuse più che mai!
Una gpu ha cose che una cpu non ha e viceversa!
Ora sono d'accordo che delle nano cpu indipendenti sono più modulari, ma è anche vero che si trovano di fronte a mole di dati incredibili. Questo nel 90% del caso vuol dire che le cpu avranno tutti gli stessi comandi per far fronte ad un incredibile carico di lavoro.
In secondo luogo, non si capisce a chi sono orientate! Se sono per il mercato server, è un prodotto ottimale ma pare starno che non siano a 64bit , con 32bit si indirizzano al massimo 4Gb che cono pochi per i server!
Se fossero per partitili, mi parerebbero una bella cosa, ma il consumo è troppo alto.
Se fossero per desktop, il valore aggiunto della programmabilità mi pare inutile. Già con le ati e nvidia riescono a fare compressione in gpu. Cosa serve?
Se mi dicono che vogliono fare un coprocessore matematico opzionale , avrebbe senso tante scelte ma allora non è una GPU
Booo mi sa che le cose sono confuse più che mai!
Una gpu ha cose che una cpu non ha e viceversa!
Ora sono d'accordo che delle nano cpu indipendenti sono più modulari, ma è anche vero che si trovano di fronte a mole di dati incredibili. Questo nel 90% del caso vuol dire che le cpu avranno tutti gli stessi comandi per far fronte ad un incredibile carico di lavoro.
In secondo luogo, non si capisce a chi sono orientate! Se sono per il mercato server, è un prodotto ottimale ma pare starno che non siano a 64bit , con 32bit si indirizzano al massimo 4Gb che cono pochi per i server!
Se fossero per partitili, mi parerebbero una bella cosa, ma il consumo è troppo alto.
Se fossero per desktop, il valore aggiunto della programmabilità mi pare inutile. Già con le ati e nvidia riescono a fare compressione in gpu. Cosa serve?
Se mi dicono che vogliono fare un coprocessore matematico opzionale , avrebbe senso tante scelte ma allora non è una GPU
Condivido con te molte delle perplessità, specialmente quella sull'abilità di una cpu generica a svolgere altrettanto bene il lavoro di una gpu. Però ti faccio notare che una razionalizzazione della attuale suddivisione computazionale cpu/gpu ha molti vantaggi. Il principale dei quali, è che si potrebbe utilizzare la potenza di calcolo della gpu per altro che non il 3D: perché tenere alimentato un pezzo di hardware importante per usarlo solo quando si gioca? Già ora si può usare una GPU per compiti specifici come la compressione video, ma perché non per la compressione dati? O per la cifratura? O il calcolo matriciale? O il P2P?
Senza contare che una macchina dotata di più processori generici è preparata per qualsiasi esigenza computazionale possa nascere in futuro, senza diventare obsoleta perché nel frattempo è uscita una nuova versione di DirectX o del protocollo degli shader o perché è nata una nuova esigenza come che ne so, la simulazione fisica?
ma che vuol dire :D , hanno preso il design di quel chip come punto di partenza probabilmente xché è buon compromesso tra quello che si richiede al singolo core di larrabee ed il num di cmos necessari, posti i limiti necessari in termini di consumo e dimensioni dato il processo a 45nm
il nuovo core integra anche istruzioni x64 e quel simd core da 512bit (se non sbaglio sui core2 siamo a128); e ci saranno sicuramente tanti altre differenze "di dettaglio" di cui la news non parla, non è che sia proprio un pentium1 il singolo core :sofico:
Però il Pentium I aveva un architettura In-Order che a parità del resto penalizza di brutto le prestazioni rispetto ad una Out-Of... almeno nelle cpu general purpose è così
questi 45 nm saranno sempre In quindi?
Tidus.hw
07-07-2008, 12:37
i 512bit a che si riferiscono? alla precisione?
Però il Pentium I aveva un architettura In-Order che a parità del resto penalizza di brutto le prestazioni rispetto ad una Out-Of... almeno nelle cpu general purpose è così
questi 45 nm saranno sempre In quindi?
In Order. ;)
greeneye
07-07-2008, 13:04
in order, 64 bit, 45 nm .... è un core atom!
i 512bit a che si riferiscono? alla precisione?
512 bit, ossia 16 FP32 o 8 FP64. Essendo 32 CPU a 2 GHz, sono 32x16x2 GFlop= 1TFlop a 32 bit e 0,5 TFlop a 64 bit... Quindi ipotizzo che le unità SIMD siano 2 per CPU, dando 2 TFlop in singola precisione e 1 TFlop in doppia precisione. Niente male se consideriamo che NVIDIA ha 1/8 della potenza in doppia rispetto alla singola precisione e AMD 1/5... ;)
i 512bit a che si riferiscono? alla precisione?
Non credo, sarebbe una precisione mostruosamente elevata, poco adatta per le applicazioni multimediali.
Probabilmente si tratterà dell'ampiezza in bit che l'unità può eseguire in una singola operazione, stile MMX/SSE. 512 bit che potranno essere visti come 8 interi a 64 bit, 16 interi a 32 bit, 32 interi a 16 bit e così via - sempre tutti elaborati in una singola istruzione (in effetti più probabilmente numeri a virgola mobile anziché interi).
Larrabee = 32 Pentium I a 45nm ... Non ci credo ...
Mi sa che non si tratta di quello, e' molto piu probabile che
i core dei Larrabee siano simili a quelli delle cpu Atom. :)
Se ci si fa caso le ottimizzazioni consigliate per le istruzioni x86
"per interi" degli Atom sono le stesse dei Pentium I :read:
(basta guardare nella documentazione riguardo le versioni "lpia"
degli eseguibili per Linux, dove per "lpia" si intende
"Low Power Intel Architecture" rappresentata per ora dagli Atom).
I core "base" degli Atom sono al tempo stesso spartani in termini
di area sul chip e di consumi, dovrebbe essere possibile pomparli su
di frequenza se si accetta un maggior consumo.
Per certi tipi di applicazioni mi sa che il Larrabee sara' una
gran bella bestia, i chip Ultrasparc T1 e T2 di Sun
(i "Niagara I" e "Niagara 2") hanno gia mostrato che
almeno per le applicazioni "da server per internet/aziendali"
sistemi di quel tipo vanno molto bene (e questo usando un sistema
relativamente debole a livello di floating point).
Il Larrabee a confronto di un Niagara II ha piu core
(e magari anche piu thread se come gli Atom supporteranno
due thread per core), per singolo core dovrebbe essere piu
potente sul lato dell'elaborazione in floating point, avra' integrata
una SIMD/GPU a 512bit e dovrebbe poter salire molto di piu di clock.
Resta da vedere se per allora ci sara' software "normale" che lo sfrutti
bene e se riusciranno a fornirgli sufficiente banda di I/O verso
la memoria.
che fico hanno usato il peggior processore che hanno creato per realizzare quella che sarà presumibilmente la peggior scheda video AHAHAHA magari con tanto di baco sulle fpu
bLaCkMeTaL
07-07-2008, 13:22
larrabee neanche è uscito e già si parla di pezzi da museo ...
imho sarà un bel flop.
Nasce x essere una scheda video ma non lo è. I core x86 a che servono se poi si passa da DX e OpenGL? Intel ha le capacità x creare driver che consentano una perfetta integrazione con tali librerie? IMHO no visto che manca di esperienza nel settore. Inoltre il consumo è decisamente eccessivo. Il mercato si sta spostando verso l'ottimizzazione dei consumi e qui parlano di 300Watt di consumo?
Attualmetne una 4870 fa già meglio e tra 6 mesi uscirà qualcos'altro di ancora + performante. Al di fuori del settore dei VG cosa resta? server e derivati? può essere ma imho anche li non sfonderebbe. L'attuale server + potente al mondo è basato su qualche migliaio di CELL e Opteron che imho rappresentano + o -o un sistema equivalente con imho il vantaggio di integrare X86 e RISC.
non mi risulta che si sia mai parlato di utilizzarlo come CPU all'interno di sistemi x86.
X finire: mi fa ridere chi pensa che cell sia 10 volte meno potente di una cpu intel. In certi ambiti è un centinaio di volte + veloce.
Secondo me non nascera` per fare concorrenza ad ATI e Nvidia nei giochi. Credo anzi che avra` poco a che vedere con essi e sara` piu` una soluzione tipo Tesla, dedicata per il calcolo, con in piu` la possibilita` di avere grafica 3d accelerata.
Fra parentesi, se non ho capito male la ATI 4870 in doppia precisione e` dichiarata per una potenza di calcolo massima teorica di 200 gigaFLOPS (1.2 TeraFLOPS in singola precisione). Il Larrabee sarebbe varie volte piu` veloce nei calcoli che richiedono numeri del genere.
MenageZero
07-07-2008, 13:49
Però il Pentium I aveva un architettura In-Order che a parità del resto penalizza di brutto le prestazioni rispetto ad una Out-Of... almeno nelle cpu general purpose è così
questi 45 nm saranno sempre In quindi?
sì un'arch. IO va molto meno di una OoO a parità di codice macchina (non ottimizzato a monte dal compilatore per quella IO) ma appunto si può anche lavorare lato compilatore (o meglio "assemblatore" a voler essere più precisi) in modo che massimizzi le prestazioni di un arch. IO. per esempio è quello che accade con architetture vliw come itanium o quella delle gpu ati (non che stiamo parlando di una implementazione di arch. vliw del tutto analoga tra itanium egpu ati eh :D);
poi non so se con una arch x86 su due core "identici" tranne che per una logica per l'esecuzione OoO si possano pienamente "compensare" le prestazioni singolo therad/core lavorando sulla fase di generazione del codice macchina, a naso direi di no vista la strada intrapresa da ormai più di un decennio sulle cpu x86 (o quantomeno sulle cpu x86 nel tempo è risultato più conveniente per tutti implementare e migliorare l'esecuzione OoO che lavorare al max sui compilatori sulle ottimizzazioni che vengono invece fatte dalla logica in hw)
ed infatti, a prescindere dal disocorso grossolano che ho appena fatto, dopo aver letto questa news una delle mie principali curiosità su larrabee è come si porrà questa arch. rispetto all'esecuzione OoO, se verrà in qualche modo implementata o meno, considerato che anche le gpu ati ed nv ormai hanno unità dedicate al dynamic branching
(a meno che insieme alle altre caratteristiche non abbiamo introdotto nei core anche la logica per l'esecuzione OoO, ma a poter indurre a pensare che i core di larrabee possano essere IO è non solo il "progenitore" ma il fatto che l'esecuzione OoO è in genere una feature molto costosa in termini di num di transistor ed uno dei motivi per cui sono partiti dal p1 per il singolo core è possibile che sia proprio mettere un numero sufficiente di core x86 ma dovendo contenere contenere le dimesioni e non esagerare più di tanto con i consumi
consumi che già farebbero storcere il naso stando per ora ai puri numeretti teorici: circa 1 teraflops di capacità di elaborazione max teorica in cambio di 300W, mentre per es, sempre come max teorico, un rv770 "offre" sui 1,2 e non mi ricordo quanto consuma ma mooolto meno; ovviamente per giudicare bisognerà aspettare le prestazioni sul campo, ma imho 300W sono cmq veramente tanti come valore assoluto, se vogliono commercializzare larrabbe anche nel settore consumer, ovvero come gpu per i giochi; per "giustificare" quel consumo dovrebbe avere da subito prestazioni superiori ai migliori chip o schede nv ed ati ... :stordita:)
alegallo
07-07-2008, 14:22
Precisino ma mica tanto!!! I P54C erano tutti i pentium "lisci" quindi non si fermavano al 120, ma c'erano anche il 133, il 150, il 166, il 180 e infine il 200, del P55C uscirono solo il 166, il 200 e il 233
Precisino eccome, anche troppo! ;)
I P54C erano dal 75 al 120, dal 133 al 200 erano i P54CS
Qui (http://en.wikipedia.org/wiki/Pentium) trovi una panoramica precisa dei Pentium, che io (purtroppo? per fortuna?) mi ricordo benissimo per ragioni anagrafiche ;)
a mio parere, questo Larrabee non e' altro che l'interpretazione del futuro secondo Intel, e nemmeno tanto lontano...
non si parla di rasterizzazione ma di renderizzazione, quindi le possibilita' grafiche delle schede di oggi sarebbero diverse (non impossibili da ottenere con un array di general CPU).
in piu' e' un processore, anzi, un array di processori, quindi puo' essere sfruttato senza problemi come normale CPU multicore.
il fatto che sia basato su un'architettura semplice e' dovuto alla sua complessita interna, e sicuramente sara' composto da 32 core P54C (approposito, dai 133 ai 233mhz erano i P54CS, si passa infatti sui mitici socket7), piu un singolo processore (multicore?) OOO con SIMD a 512 bit (probabilmente una pre produzione a 45nm di un core Bloomfield con SSSE4.2, considerando i 512 bit di istruzioni come 4x128), ottenendo cosi' caches e controller I/O.
d'altronde il pentium 75 aveva si un'architettura in order, ma aveva pipeline a 8 stadi (il P4 e' partito con 20 ed arrivato con 32), e mandate a 2ghz non mi spaventerebbe dire che avrebbe prestazioni paragonabili ad una CPUGP single core di pari frequenza, almeno con codice ottimizzato; averne 32 in array sarebbe un bel mastino per diversi ambiti...
logicamente nessuno vieta ad intel di passare al core P55C quando scendera' a 32nm..
insomma, come animale da matrici non mi sembra affatto male...
Precisino eccome, anche troppo! ;)
I P54C erano dal 75 al 120, dal 133 al 200 erano i P54CS
Qui (http://en.wikipedia.org/wiki/Pentium) trovi una panoramica precisa dei Pentium, che io (purtroppo? per fortuna?) mi ricordo benissimo per ragioni anagrafiche ;)
esatto, oltre il 120 erano CS
Ho inoltre un altro link che puo' essere utile..
http://users.erols.com/chare/586.htm
Nemesis1984
07-07-2008, 18:15
Infatti come consumo non lo vedo così scandaloso vista l'architettura della CPU formata da 32 core.
Poi comunque si parla di rumors e bisogna andarci con le pinze.
sì un'arch. IO va molto meno di una OoO a parità di codice macchina (non ottimizzato a monte dal compilatore per quella IO) ma appunto si può anche lavorare lato compilatore (o meglio "assemblatore" a voler essere più precisi) in modo che massimizzi le prestazioni di un arch. IO. per esempio è quello che accade con architetture vliw come itanium o quella delle gpu ati (non che stiamo parlando di una implementazione di arch. vliw del tutto analoga tra itanium egpu ati eh :D);
Appunto, si può fare con Itanium e con gli ISA delle gpu, cioè uscendo dall'x86 - ma con l'x86 non si può fare il parallelismo esplicito delle istruzioni - e poichè Larrabee sembra intenzionata a rimanere su x86, quasi sicuramente sarà penalizzata dall'architettura In-Order senza possibilità di migliorare via compilazione.
d'altronde il pentium 75 aveva si un'architettura in order, ma aveva pipeline a 8 stadi (il P4 e' partito con 20 ed arrivato con 32), e mandate a 2ghz non mi spaventerebbe dire che avrebbe prestazioni paragonabili ad una CPUGP single core di pari frequenza, almeno con codice ottimizzato; averne 32 in array sarebbe un bel mastino per diversi ambiti...
si ma non basta la riduzione della profondità della pipeline - i processori con esecuzione out-of-order possono anche fare l'esecuzione speculativa, che può tenere sempre carica la pipeline, lì dove un processore in-order senza speculazione come i Pentium I hanno continue penalità per le istruzioni di branch - senza contare che un pentium 4 ha anche l'issue multiplo e può lanciare e terminare fino a 3 istruzioni per ciclo di clock, mentre il pentium I ne esegue una sola...
Non ho ancora capito se sto Larrabee è ancora un 'work in progress' (come sembrerebbe) o esiste qualcosa di funzionante...secondo me le stanno provando tutte - perdendo tempo.
Considerazioni.
1- avere 32 core (al momento e sul mercato consumer) è completamente inutile visto che già con 4 i programmi che sfruttano in maniera decente i core sono solo una manciata (e rivolti ad un pubblico ben preciso).
2 - avere 32 core in una GPU (o come la vogliamo considerare) non mi sembra offra un grande vantaggio computazionale con quanto OGGI le varie schede Nvidia e Ati offrono: un pò di overclocking, un pò di re-design dei chip e magari l'accorpamento di più 'cpu-core' in un singolo chip e abbiamo risultati +- simili (se non superiori) ad un costo/tempo inferiore.
3 - capisco il CELL e FUSION dove esiste una CPU e delle unità-slave che fanno il lavoro bruto (o perlomeno così ho interpretato Fusion). Lì si programma la CPU ed in più si sfruttano i 'motori aggiuntivi'.
Quello che oggi si fa con una scheda discreta tramite Stream/CUDA un domani lo si farà direttamente con il compilatore che silenziosamente ottimizzerà il codice (un pò come adesso si può fare x ottimizzare il codice x sfruttare SSEn...).
Ma che senso ha questa CPU/GPU con 32 core? Perchè complicarsi la vita ad introdurre della logica di controllo-gestione dei thread? Mi piacerebbe sapere quanto tempo si perde nella 'coordinazione' di questi core?
Già le SSE sono potenti, ottimizzare queste no?
4 - anche con core 'semplici' come quelli alla base di ATOM non mi sembra si potranno mai avere risultati simili alle unità parallele di una GPU: le ultime Ati (tanto per citare l'ultima nata e più recente e disponibile tecnologia) mi sembra possieda 800 di queste 'unità/registri' paralleli: anche considerando i casi peggiori di mancato utilizzo di tutti i registri la potenza è notevolmente superiore a quanto possa offrire una cpu Atom (o 32...); manca l'elasticità di una cpu vero, ma è questione di stabilire chi fa cosa e soprattutto far fare le cose a chi le fa meglio.
Ritengo che la soluzione Intel non possa essere performante - in nessun ambito a questo punto.
Ovviamente sono osservazioni basate solo su voci e non esiste nulla di confermato, ma aspetteri prima di gridare al miracolo.
Ehm.... Penso sia una GPU per calcoli e non per giocare? Quindi confronti con nVidia e ATI sono piu' che inutili?
Ehm... Utilizzano l'architettura base dei Pentium 1 per facilita' di programmazione?
:mc:
Non so... Solo io mi sono chiesto questo senza dire che non servono 32 core, che consuma troppo, che ATI e nVidia fanno meglio, che Intel :ciapet: e non so cos'altro?
Sai per le universita' e simili che utilizzano server (ne ho montato qualcuno) rack con 2 quad core Xeon per calcoli scientifici (quanto consumano?), avere a disposizione una scheda cosi' alla quale i programmatori faranno supporto per i loro programmi (data la teorica semplicita' di programmazione) non e' un bene? Magari evitare di avere un armadio enorme con 4 o 8 server rack rumorosissimi (2xQuad Xeon) ma 1 o 2 server tower con una scheda simile a fare lo stesso lavoro?
No, la 4870x2 o GTX280 GX2 andranno di piu'... :doh:
ITALIA..... UNO!
:sbonk:
In assoluto infatti consuma tanto, ma il rapporto Teraflop (in DP) / Watt e` assolutamente concorrenziale anche rispetto alle piu` efficienti delle CPU (per non parlare dei cluster aventi una potenza equivalente).
Comunque lo sottolineo per l'ennesima volta (nessuno sembra leggere), la capacita` di calcolo massima teorica dichiarata da Ati e` NVidia e con numeri a singola precisione, mentre questo Larrabee della Intel, a doppia, il che vuol dire che la potenza di calcolo stessa e` assai superiore, almeno stando alle specifiche rilasciate, che oramai dovrebbero essere anche outdated.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.