|
|
|
![]() |
|
Strumenti |
![]() |
#41 |
Senior Member
Iscritto dal: Nov 2001
Messaggi: 8482
|
che fico hanno usato il peggior processore che hanno creato per realizzare quella che sarà presumibilmente la peggior scheda video AHAHAHA magari con tanto di baco sulle fpu
|
![]() |
![]() |
![]() |
#42 |
Senior Member
Iscritto dal: Jul 2002
Città: ...sul web.
Messaggi: 696
|
larrabee neanche è uscito e già si parla di pezzi da museo ...
|
![]() |
![]() |
![]() |
#43 |
Senior Member
Iscritto dal: Sep 2002
Città: Modena
Messaggi: 2190
|
imho sarà un bel flop.
Nasce x essere una scheda video ma non lo è. I core x86 a che servono se poi si passa da DX e OpenGL? Intel ha le capacità x creare driver che consentano una perfetta integrazione con tali librerie? IMHO no visto che manca di esperienza nel settore. Inoltre il consumo è decisamente eccessivo. Il mercato si sta spostando verso l'ottimizzazione dei consumi e qui parlano di 300Watt di consumo? Attualmetne una 4870 fa già meglio e tra 6 mesi uscirà qualcos'altro di ancora + performante. Al di fuori del settore dei VG cosa resta? server e derivati? può essere ma imho anche li non sfonderebbe. L'attuale server + potente al mondo è basato su qualche migliaio di CELL e Opteron che imho rappresentano + o -o un sistema equivalente con imho il vantaggio di integrare X86 e RISC. non mi risulta che si sia mai parlato di utilizzarlo come CPU all'interno di sistemi x86. X finire: mi fa ridere chi pensa che cell sia 10 volte meno potente di una cpu intel. In certi ambiti è un centinaio di volte + veloce. |
![]() |
![]() |
![]() |
#44 |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 11136
|
Secondo me non nascera` per fare concorrenza ad ATI e Nvidia nei giochi. Credo anzi che avra` poco a che vedere con essi e sara` piu` una soluzione tipo Tesla, dedicata per il calcolo, con in piu` la possibilita` di avere grafica 3d accelerata.
Fra parentesi, se non ho capito male la ATI 4870 in doppia precisione e` dichiarata per una potenza di calcolo massima teorica di 200 gigaFLOPS (1.2 TeraFLOPS in singola precisione). Il Larrabee sarebbe varie volte piu` veloce nei calcoli che richiedono numeri del genere. Ultima modifica di s12a : 07-07-2008 alle 13:52. |
![]() |
![]() |
![]() |
#45 | |
Senior Member
Iscritto dal: Sep 2005
Messaggi: 2717
|
Quote:
![]() poi non so se con una arch x86 su due core "identici" tranne che per una logica per l'esecuzione OoO si possano pienamente "compensare" le prestazioni singolo therad/core lavorando sulla fase di generazione del codice macchina, a naso direi di no vista la strada intrapresa da ormai più di un decennio sulle cpu x86 (o quantomeno sulle cpu x86 nel tempo è risultato più conveniente per tutti implementare e migliorare l'esecuzione OoO che lavorare al max sui compilatori sulle ottimizzazioni che vengono invece fatte dalla logica in hw) ed infatti, a prescindere dal disocorso grossolano che ho appena fatto, dopo aver letto questa news una delle mie principali curiosità su larrabee è come si porrà questa arch. rispetto all'esecuzione OoO, se verrà in qualche modo implementata o meno, considerato che anche le gpu ati ed nv ormai hanno unità dedicate al dynamic branching (a meno che insieme alle altre caratteristiche non abbiamo introdotto nei core anche la logica per l'esecuzione OoO, ma a poter indurre a pensare che i core di larrabee possano essere IO è non solo il "progenitore" ma il fatto che l'esecuzione OoO è in genere una feature molto costosa in termini di num di transistor ed uno dei motivi per cui sono partiti dal p1 per il singolo core è possibile che sia proprio mettere un numero sufficiente di core x86 ma dovendo contenere contenere le dimesioni e non esagerare più di tanto con i consumi consumi che già farebbero storcere il naso stando per ora ai puri numeretti teorici: circa 1 teraflops di capacità di elaborazione max teorica in cambio di 300W, mentre per es, sempre come max teorico, un rv770 "offre" sui 1,2 e non mi ricordo quanto consuma ma mooolto meno; ovviamente per giudicare bisognerà aspettare le prestazioni sul campo, ma imho 300W sono cmq veramente tanti come valore assoluto, se vogliono commercializzare larrabbe anche nel settore consumer, ovvero come gpu per i giochi; per "giustificare" quel consumo dovrebbe avere da subito prestazioni superiori ai migliori chip o schede nv ed ati ... ![]()
__________________
"La teoria è quando si sa tutto ma non funziona niente. La pratica è quando funziona tutto ma non si sa il perché. In ogni caso si finisce sempre con il coniugare la teoria con la pratica: non funziona niente e non si sa il perché." - Albert Einstein fonte: http://it.wikiquote.org/wiki/Albert_Einstein |
|
![]() |
![]() |
![]() |
#46 | |
Senior Member
Iscritto dal: Feb 2000
Città: Montevarchi (AR)
Messaggi: 2208
|
Quote:
![]() I P54C erano dal 75 al 120, dal 133 al 200 erano i P54CS Qui trovi una panoramica precisa dei Pentium, che io (purtroppo? per fortuna?) mi ricordo benissimo per ragioni anagrafiche ![]()
__________________
... mi guardo ancora nello specchio / e vi saluto, brava gente. (Ivano Fossati) Il mio coro - Polifonica San Lorenzo Ho fatto affari con molti, ho avuto problemi SOLO con madyson e Xavierz ![]() |
|
![]() |
![]() |
![]() |
#47 |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
a mio parere, questo Larrabee non e' altro che l'interpretazione del futuro secondo Intel, e nemmeno tanto lontano...
non si parla di rasterizzazione ma di renderizzazione, quindi le possibilita' grafiche delle schede di oggi sarebbero diverse (non impossibili da ottenere con un array di general CPU). in piu' e' un processore, anzi, un array di processori, quindi puo' essere sfruttato senza problemi come normale CPU multicore. il fatto che sia basato su un'architettura semplice e' dovuto alla sua complessita interna, e sicuramente sara' composto da 32 core P54C (approposito, dai 133 ai 233mhz erano i P54CS, si passa infatti sui mitici socket7), piu un singolo processore (multicore?) OOO con SIMD a 512 bit (probabilmente una pre produzione a 45nm di un core Bloomfield con SSSE4.2, considerando i 512 bit di istruzioni come 4x128), ottenendo cosi' caches e controller I/O. d'altronde il pentium 75 aveva si un'architettura in order, ma aveva pipeline a 8 stadi (il P4 e' partito con 20 ed arrivato con 32), e mandate a 2ghz non mi spaventerebbe dire che avrebbe prestazioni paragonabili ad una CPUGP single core di pari frequenza, almeno con codice ottimizzato; averne 32 in array sarebbe un bel mastino per diversi ambiti... logicamente nessuno vieta ad intel di passare al core P55C quando scendera' a 32nm.. insomma, come animale da matrici non mi sembra affatto male... |
![]() |
![]() |
![]() |
#48 | |
Senior Member
Iscritto dal: Mar 2002
Città: Treviso
Messaggi: 911
|
Quote:
Ho inoltre un altro link che puo' essere utile.. http://users.erols.com/chare/586.htm |
|
![]() |
![]() |
![]() |
#49 |
Senior Member
Iscritto dal: Jul 2007
Città: Bari
Messaggi: 882
|
Infatti come consumo non lo vedo così scandaloso vista l'architettura della CPU formata da 32 core.
Poi comunque si parla di rumors e bisogna andarci con le pinze. |
![]() |
![]() |
![]() |
#50 | ||
Member
Iscritto dal: Jan 2007
Città: Torino
Messaggi: 34
|
Quote:
Quote:
Ultima modifica di HW-MLCR : 07-07-2008 alle 18:50. |
||
![]() |
![]() |
![]() |
#51 |
Member
Iscritto dal: Sep 2003
Messaggi: 220
|
Non ho ancora capito se sto Larrabee è ancora un 'work in progress' (come sembrerebbe) o esiste qualcosa di funzionante...secondo me le stanno provando tutte - perdendo tempo.
Considerazioni. 1- avere 32 core (al momento e sul mercato consumer) è completamente inutile visto che già con 4 i programmi che sfruttano in maniera decente i core sono solo una manciata (e rivolti ad un pubblico ben preciso). 2 - avere 32 core in una GPU (o come la vogliamo considerare) non mi sembra offra un grande vantaggio computazionale con quanto OGGI le varie schede Nvidia e Ati offrono: un pò di overclocking, un pò di re-design dei chip e magari l'accorpamento di più 'cpu-core' in un singolo chip e abbiamo risultati +- simili (se non superiori) ad un costo/tempo inferiore. 3 - capisco il CELL e FUSION dove esiste una CPU e delle unità-slave che fanno il lavoro bruto (o perlomeno così ho interpretato Fusion). Lì si programma la CPU ed in più si sfruttano i 'motori aggiuntivi'. Quello che oggi si fa con una scheda discreta tramite Stream/CUDA un domani lo si farà direttamente con il compilatore che silenziosamente ottimizzerà il codice (un pò come adesso si può fare x ottimizzare il codice x sfruttare SSEn...). Ma che senso ha questa CPU/GPU con 32 core? Perchè complicarsi la vita ad introdurre della logica di controllo-gestione dei thread? Mi piacerebbe sapere quanto tempo si perde nella 'coordinazione' di questi core? Già le SSE sono potenti, ottimizzare queste no? 4 - anche con core 'semplici' come quelli alla base di ATOM non mi sembra si potranno mai avere risultati simili alle unità parallele di una GPU: le ultime Ati (tanto per citare l'ultima nata e più recente e disponibile tecnologia) mi sembra possieda 800 di queste 'unità/registri' paralleli: anche considerando i casi peggiori di mancato utilizzo di tutti i registri la potenza è notevolmente superiore a quanto possa offrire una cpu Atom (o 32...); manca l'elasticità di una cpu vero, ma è questione di stabilire chi fa cosa e soprattutto far fare le cose a chi le fa meglio. Ritengo che la soluzione Intel non possa essere performante - in nessun ambito a questo punto. Ovviamente sono osservazioni basate solo su voci e non esiste nulla di confermato, ma aspetteri prima di gridare al miracolo. |
![]() |
![]() |
![]() |
#52 |
Senior Member
Iscritto dal: Aug 2007
Città: Milano
Messaggi: 11981
|
Ehm.... Penso sia una GPU per calcoli e non per giocare? Quindi confronti con nVidia e ATI sono piu' che inutili?
Ehm... Utilizzano l'architettura base dei Pentium 1 per facilita' di programmazione? ![]() Non so... Solo io mi sono chiesto questo senza dire che non servono 32 core, che consuma troppo, che ATI e nVidia fanno meglio, che Intel ![]() Sai per le universita' e simili che utilizzano server (ne ho montato qualcuno) rack con 2 quad core Xeon per calcoli scientifici (quanto consumano?), avere a disposizione una scheda cosi' alla quale i programmatori faranno supporto per i loro programmi (data la teorica semplicita' di programmazione) non e' un bene? Magari evitare di avere un armadio enorme con 4 o 8 server rack rumorosissimi (2xQuad Xeon) ma 1 o 2 server tower con una scheda simile a fare lo stesso lavoro? No, la 4870x2 o GTX280 GX2 andranno di piu'... ![]() ITALIA..... UNO! ![]()
__________________
CLOUD STORAGE FREE | Asus G51JX (Thread Ufficiale) | Quale notebook per giocare? | PC (in corso): 2x Intel Xeon E5-2670 v1 2,6GHz - 96GB RAM - SAS 10-15k rpm - GPU TBD| Ultima modifica di Baboo85 : 10-07-2008 alle 20:22. |
![]() |
![]() |
![]() |
#53 |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 11136
|
In assoluto infatti consuma tanto, ma il rapporto Teraflop (in DP) / Watt e` assolutamente concorrenziale anche rispetto alle piu` efficienti delle CPU (per non parlare dei cluster aventi una potenza equivalente).
Comunque lo sottolineo per l'ennesima volta (nessuno sembra leggere), la capacita` di calcolo massima teorica dichiarata da Ati e` NVidia e con numeri a singola precisione, mentre questo Larrabee della Intel, a doppia, il che vuol dire che la potenza di calcolo stessa e` assai superiore, almeno stando alle specifiche rilasciate, che oramai dovrebbero essere anche outdated. Ultima modifica di s12a : 10-07-2008 alle 20:45. |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 15:14.