View Full Version : AMD mostra le cpu Opteron Istanbul a 6 core
Redazione di Hardware Upg
23-02-2009, 11:20
Link alla notizia: http://www.hwupgrade.it/news/cpu/amd-mostra-le-cpu-opteron-istanbul-a-6-core_28129.html
AMD anticipa quelle che saranno le prossime generazioni di processore Opteron con architettura a 6 core, attese al debutto nel corso della seconda metà dell'anno
Click sul link per visualizzare la notizia.
gianni1879
23-02-2009, 11:35
ottima notizia :)
Dai!!! che la strada e il ritmo sembrano finalmente quelli giusti... ;)
Quarto paragrafo, quarto rigo: probe filter, anzichè prove filter... :)
E' questo che AMD deve cercare di ridurre, sennò non sarà mai all'altezza.
Certo ormai sta sfornando architetture decenti alla pari o quasi di Intel, ma se non riduce i tempi del prossimo processo produttivo si verrà a creare un nuovo baratro fra le 2 case fra circa 1 anno
bhe la differenza sta proprio in questo tra intel e amd.
in parole povere...
amd ha investito molto per evitare i colli di bottiglia su un singolo processore (HT)
intel invece a continuato lo sviluppo delle sue cpu surclassando amd... ovviamente intel si troverà a gestire il collo di bottiglia... ma per come ha gestito la situazione e il marketing penso che abbia tempo e denaro a sufficenza per fare la stessa cosa di amd.
senza contare che l'intel ha già incorporato il controll memory nel processore (i7) che è tutta un'altra storia...
ovvimante il futuro a mio avviso si giocherà proprio sul numero di core presenti nel processore visto che come frequenze siamo arrivati al limite
ma non lo aveva fatto amd molti anni fa? perche' lo vendete come uan cosa di intel? e poi dai.... vi pare che la differenza fra 2 cpu la faccio il processo produttivo? non parliamo di i7 e k3.... se un architettura e' buona la differenza di clock si sente molto meno...e questa e' storia....e poi paragonare un opteron ad un i7.... vabbe' probabilmente sono io che vado in controtendeza.....
F1R3BL4D3
23-02-2009, 12:01
senza contare che l'intel ha già incorporato il controll memory nel processore (i7) che è tutta un'altra storia...
AMD da Sledge Hammer che ha integrato il controller di memoria on die. :stordita:
ottimo, se amd comincia a fare seria concorrenza ad intel i prezzi delle cpu si dovrebbero abbassare.
veramente molto interessante questa contromossa di AMD
è molto probabile che a breve riuscirà a tenere testa ad intel!
maumau138
23-02-2009, 12:03
Nehalem riprende soluzioni che AMD ha implementato da anni. Sia il memory controller che il bus Hyper Transport sono stati introdotti da AMD con le CPU Athlon 64 (2003). Potere del marketing.
AMD ha implementato alcune specifiche ottimizzazioni all'interno delle cpu Istanbul miranti a ridurre i colli di bottiglia che in modo naturale si possono venire a creare nel momento in cui in un singolo processore fisico sono presenti così tanti core.
Forse ho capito male (leggendo i vari articoli in giro) ma a 'naso' sembra che HT Assist venga utilizzato (usando parte della L3 cache) per impedire (o limitare) che ogni singolo core (su ogni singola CPU nelle configurazioni MULTI-SOCKET) faccia una richiesta alla RAM. In pratica vengono 'registrate' quali informazioni sono già presenti nelle cache E in quali core - in modo da massimizzare l'efficienza.
A me sembra una ottima cosa.
@fabri85 : AMD è da ANNI che integra il memory controller nel die, ha implementato HyperTransport (giunto alla sua 3 versione e 'aperto' a tutti...) per la gestione di core e cpu (pensa un pò! avevano già previsto che in futuro in un singolo die ci potessero stare + core...)
Intel ha una struttura diversa e solo con la serie i7 ha implementato quanto AMD è oltre 5 anni che utilizza: dimmi tu chi è in vantaggio...
phicrand_6358
23-02-2009, 12:22
Intel per il memory controller di i7 usa brevetti licenziati da AMD (secondo gli accordi di crosslicensing che hanno da sempre) e di Rambus...;)
Poi questi sono Opteron e vanno confrontati con i Xeon, non con i Core... e in particolare (per adesso) con gli esacore Xeon...;)
CoolBits
23-02-2009, 12:39
Nehalem riprende soluzioni che AMD ha implementato da anni. Sia il memory controller che il bus Hyper Transport sono stati introdotti da AMD con le CPU Athlon 64 (2003). Potere del marketing.
è vero tutti pensano che lo abbia inventato AMD e invece ci sono arrivati prima...IBM, Transmeta, Sparc, Intel 386SL e Timna ecc...
Intel per il memory controller di i7 usa brevetti licenziati da AMD (secondo gli accordi di crosslicensing che hanno da sempre) e di Rambus...;)
Sei sicuro non mi risulta che Intel utilizzi brevetti AMD nel suo memory controller...fonti?
E' questo che AMD deve cercare di ridurre, sennò non sarà mai all'altezza.
Certo ormai sta sfornando architetture decenti alla pari o quasi di Intel, ma se non riduce i tempi del prossimo processo produttivo si verrà a creare un nuovo baratro fra le 2 case fra circa 1 anno
Peccato che intel ha gli stessi problemi che ha avuto amd con il phenom 1.
A livello di tecnologie produttive mi sa che è intel ad essere in ritardo rispetto ad AMD-IBM.
I 32 di amd arriveranno probabilmente prima della fine dell'anno, insieme ad altre tecniche che intel è il ben lungi da utilizzare.
Se vedi la facilità di salire di clock del 45 di amd non credo che il margine di intel sia di 1 anno, ma al massimo di 6 mesi e con una tendenza al recupero (se non al sorpasso) di amd su intel.
Per il memory controller in triple chanel dell'i7 le prestazioni sono ottime, ma amd ha in cantiere per la prossima generazione di cpu un quad chanel, quindi bisogna capire sopratutto dove il software porterà, dato che i software sono almeno 5-6 anni indietro rispetto alle cpu.
II ARROWS
23-02-2009, 12:44
Ma per ovviare questi colli di bottiglia..
Non potremmo creare dei "RAID" di RAM?
Singolo socket > più bus che si collegano alla RAM, programmi diversi che possono lavorare contemporaneamente e accedere allo stesso momento alla RAM utilizzando locazioni di RAM diverse.
Mettiamo che ho 8GB, diviso in 4GB. Nello spazio da 0 a 4GB lavorano alcuni programmi e nello spazio da 4GB a 8GB ci lavorano degli altri.
Oppure consideriamo situazioni con un solo programma importante come di grafica, si occuperà tutta o quasi la memoria però thread diversi che lavorano su porzioni diverse di memoria(tipo dividere l'immagine in due). Quando capiterà invece che tutti lavorano sullo stesso banco amen, ma non ci sarebbero peggioramenti rispetto a quando ci troviamo oggi.
Se qualcuno può commentare...
+Benito+
23-02-2009, 12:50
il dual/triple channel è in buona sostanza un equivalente di stripe per l dischi fissi. Non è così, ma rende l'idea: aumenti l'ampiezza di bus e di conseguenza la banda.
phicrand_6358
23-02-2009, 13:05
è vero tutti pensano che lo abbia inventato AMD e invece ci sono arrivati prima...IBM, Transmeta, Sparc, Intel 386SL e Timna ecc...
Sei sicuro non mi risulta che Intel utilizzi brevetti AMD nel suo memory controller...fonti?
fonti non ricordo onestamente... dovrei cercare... cmq è normale, intel usa molti brevetti amd e viceversa, anche se in quello dell'i7 quelli usati sono più quelli di rambus (che usa anche AMD e tempo fa fece causa ad nvidia per il memory controller delle geforce)
II ARROWS
23-02-2009, 13:14
Sì, ma è come con i dischi fortemente dipendente dal tempo di accesso dei moduli RAM. Il vantaggio di un RAID 0 è la possibilità di accedere a costo X a 2 informazioni diverse, invece che a costo 2X.
Con il Dual channel da quello che ho capito, accedi a costo X a una dimensione doppia ma non a due informazioni diverse.
Per esempio, se chiedi un dato da 128bit lo fai in una volta sola ma non hai vantaggi se devi chiedere 2 dati(in locazioni di memoria diverse) da 64bit.
O sbaglio?
CoolBits
23-02-2009, 13:15
fonti non ricordo onestamente... dovrei cercare... cmq è normale, intel usa molti brevetti amd e viceversa, anche se in quello dell'i7 quelli usati sono più quelli di rambus (che usa anche AMD e tempo fa fece causa ad nvidia per il memory controller delle geforce)
sarà sicuramente quelche pseudo brevetto di quegli strozzini di RAMBUS :D
ottima notizia,ma chissà il prezzo...
maumau138
23-02-2009, 13:39
è vero tutti pensano che lo abbia inventato AMD e invece ci sono arrivati prima...IBM, Transmeta, Sparc, Intel 386SL e Timna ecc...
Mi ricordavo solo IBM, per questo ho usato introdotto e non inventato :D
Comunque, l'HT Assist mi sembra la maggiore innovazione dall'introduzione del multicore (non che siano passati decenni), e potrebbe portare AMD al riparo dall'introduzione dei nuovi Xeon (non mi ricordo il nome dell'architettura).
MiKeLezZ
23-02-2009, 13:51
Io sto più che tranquillo con 2 core... ne servono davvero 6?
Forse era meglio accelerare lo sviluppo di Fusion e proporre un degno antagonista per Atom...
Io sto più che tranquillo con 2 core... ne servono davvero 6?
Forse era meglio accelerare lo sviluppo di Fusion e proporre un degno antagonista per Atom...
Hai dei server in casa ? :confused:
Forse non hai notato che qui si parla di opteron, che non hanno nulla in comune con quello che scrivi :D
lol chiedo scusa per la gastroneria :D
mi ero perso il punto in cui AMD aveva giò integrato il controller :P
vi butto la baggianata, non linciatemi...
invece di fare 6 core identici non era meglio "specializzare" un core per un certo tipo di operazioni...
non so..essendo processori da server..guardare le operazioni che la stragrande maggioranza dei server fanno..e progettare un core specialista per eseguirle meglio..lasciando gli altri 5 +generalisti..
Gnubbolo
23-02-2009, 16:41
dovrebbero fare 100 tipi di processore diversi perchè esistono 100 operazioni diverse.
spiegazione banale ma da manuale:
quello che fa un una cpu sono salti e operazioni aritmetiche, per il software quello che c'è sotto deve essere trasparente, altrimenti basta una modifica ad esso per rendere tutto incompatibile.
Sire_Angelus
23-02-2009, 16:56
eh e poi convinci tu gli svilupattori a programmare specificatamente per quel singolo processore...
Sì, ma è come con i dischi fortemente dipendente dal tempo di accesso dei moduli RAM. Il vantaggio di un RAID 0 è la possibilità di accedere a costo X a 2 informazioni diverse, invece che a costo 2X.
Con il Dual channel da quello che ho capito, accedi a costo X a una dimensione doppia ma non a due informazioni diverse.
Per esempio, se chiedi un dato da 128bit lo fai in una volta sola ma non hai vantaggi se devi chiedere 2 dati(in locazioni di memoria diverse) da 64bit.
O sbaglio?
Ciao,
per quanto riguarda gli Athlon64 hai ragione: i due memory controller funzionano in realtà come un unico controller da 128 bit. Di conseguenza, se devi accedere a una sezione contigua di memoria minore di 128 bit sprechi parte dell'ampiezza di banda altrimenti disponibile.
Con i Phenom le cose sono cambiate: il memory controller può essere configurato sia in modalità "Ganged" (1 canale da 128 bit) che "Unganged" (2 canali da 64 bit); in quest'ultimo caso, puoi in effetti accedere contemporaneamente a 2 locazioni di memoria distinte.
Il setup con il memory controller in modalità "Unganged" dovrebbe garantire prestazioni mediamente migliori; la modalità "Ganged" invece dovrebbe spuntarla un pelino per quelle operazioni che accedono in modo sequenziale a grossi quantitativi di RAM (es: coding/decoding video).
Una curiosità: il SiS655 aveva introdotto il supporto per due bus da 64 bit indipendenti già con il P4.
LINK: http://www.xbitlabs.com/articles/mainboards/display/sis655.html
Come mostra l'articolo, la modalità 2x64 andava mediamente un minimo meglio rispetto a quella 1x128... ;)
Ciao. :)
capitan_crasy
23-02-2009, 17:43
vi butto la baggianata, non linciatemi...
invece di fare 6 core identici non era meglio "specializzare" un core per un certo tipo di operazioni...
non so..essendo processori da server..guardare le operazioni che la stragrande maggioranza dei server fanno..e progettare un core specialista per eseguirle meglio..lasciando gli altri 5 +generalisti..
in forma un pò diversa hai appena spiegato la tecnologia "Torrenza" dove AMD prevedeva l'utilizzo di Co-Processori ( di parlava addirittura del Cell ); peccato che tale idea sia stata accantonata causa problemi provocati dal K10 a 65nm...
blackshard
23-02-2009, 19:11
in forma un pò diversa hai appena spiegato la tecnologia "Torrenza" dove AMD prevedeva l'utilizzo di Co-Processori ( di parlava addirittura del Cell ); peccato che tale idea sia stata accantonata causa problemi provocati dal K10 a 65nm...
Ma anche fusion, non doveva essere qualcosa del genere?
Cioè, quello che la gente ha percepito di fusion è "mettere la grafica nel processore", ma non doveva essere qualcosa di più articolato, rendendo di fatto le unità grafiche accessibili stile coprocessore matematico? Oppure sta cosa me la sono inventata io?
senza contare che l'intel ha già incorporato il controll memory nel processore (i7) che è tutta un'altra storia...
Veramente gli amd hanno il controller di memoria integrato da anni...così come l'ht link, mentre intel l'ha introdotto solo ora (si chiama QPI ma è la stessa cosa)
MiKeLezZ
23-02-2009, 21:36
Hai dei server in casa ? sì single core :|
newtechnology
23-02-2009, 22:17
Peccato che intel ha gli stessi problemi che ha avuto amd con il phenom 1.
A livello di tecnologie produttive mi sa che è intel ad essere in ritardo rispetto ad AMD-IBM.
I 32 di amd arriveranno probabilmente prima della fine dell'anno, insieme ad altre tecniche che intel è il ben lungi da utilizzare.
Se vedi la facilità di salire di clock del 45 di amd non credo che il margine di intel sia di 1 anno, ma al massimo di 6 mesi e con una tendenza al recupero (se non al sorpasso) di amd su intel.
Per il memory controller in triple chanel dell'i7 le prestazioni sono ottime, ma amd ha in cantiere per la prossima generazione di cpu un quad chanel, quindi bisogna capire sopratutto dove il software porterà, dato che i software sono almeno 5-6 anni indietro rispetto alle cpu.
1° Quali problemi avrebbe intel paragonabili a quelli del phenom 1? Secono il fatto che salga di più in overclock non vuol dire nulla, le prestazioni MHZ/MHZ di un core i7 sono decisamente superiori in tutti gli ambiti ,ricordo che quando c'erano i prescot Intel aveva frenqeunze ben superiori rispetto AMD ma poi le prestazioni decadevano , a 4GH si avevano le stesse prestazioni di un A64 a 2800MHz , adesso ci troviamo l'opposto , per sopperire il gap si usano frequenze più alte ,chiaro sintomo di una FPU meno prestante e quindi tencologicamente inferiore , al tempo ricordo gente che dava il p4 superiore perchè utilizzava Hyper Threading o le SSE2 . Ricordo che intel è gia pronta per costruire a 32nm http://www.4news.it/2Tech/Intel_pronta_a_produrre_CPU_da_32nm-2090.html chiaramente con la stagnazione del mercato e la crisi economica non vedo perchè dovrebbe bruciare le tappe cosi velocemente, considerando poi che i phenom 2 bhe , mi sembra che non vadano un granche... Ho avuto il 9950 e sinceramente non andava neanche a inc...rlo.
Leggiti questo prima di dire cavolate , la tecnologia Intel a 32nm high-k di seconda generazione è la più avanzata del mondo http://punto-informatico.it/2549217/PI/News/intel-crisi-non-crisi-32nm-avanti.aspx ,AMD per fare i 32nm ha dovuto allearsi a AMD, Chartered, Infineon, Samsung, Sony, Toshiba, Freescale e STMicroelectronics hanno unito le proprie forze a quelle di IBM.
capitan_crasy
23-02-2009, 23:09
Ma anche fusion, non doveva essere qualcosa del genere?
Cioè, quello che la gente ha percepito di fusion è "mettere la grafica nel processore", ma non doveva essere qualcosa di più articolato, rendendo di fatto le unità grafiche accessibili stile coprocessore matematico? Oppure sta cosa me la sono inventata io?
Fusion è l'unione "fisica" di una CPU con una GPU, mentre per "torrenza" AMD prevedeva l'utilizzo di un o più socket 1207 e di slot HTX (HyperTransport Expansion Slot) per soluzioni chiamate "accelerators".
Essi sono componenti (co-processori) che miravano a velocizzare l'esecuzione di calcoli o compiti specifici, nei quali una singola o multipla CPU x86 non potrebbe portare ad ottenere risultati prestazionali sufficientemente elevati.
L'idea era veramente ottima, ma purtroppo la pratica è stata praticamente inesistente...
blackshard
23-02-2009, 23:35
1° Quali problemi avrebbe intel paragonabili a quelli del phenom 1?
Qualche problema di temperature secondo alcuni e un TDP un po' elevato secondo altri.
Secono il fatto che salga di più in overclock non vuol dire nulla, le prestazioni MHZ/MHZ di un core i7 sono decisamente superiori in tutti gli ambiti ,ricordo che quando c'erano i prescot Intel aveva frenqeunze ben superiori rispetto AMD ma poi le prestazioni decadevano , a 4GH si avevano le stesse prestazioni di un A64 a 2800MHz , adesso ci troviamo l'opposto , per
Attualmente un i7 ha IPC e rapporto consumi/lavoro migliore di tutti i processori attualmente disponibili.
Non capisco il paragone con i prescott onestamente. L'architettura netburst privilegiava la frequenza di clock all'IPC, con tutti i problemi di consumi legati ad una scelta del genere, ed è unica nel suo genere (vedi le pipeline a 31 stadi dei prescott contro i 12 stadi degli a64)
sopperire il gap si usano frequenze più alte ,chiaro sintomo di una FPU meno prestante e quindi tencologicamente inferiore , al tempo ricordo gente che dava il p4 superiore perchè utilizzava Hyper Threading o le SSE2 .
Beh mica un processore è fatto da una FPU e basta. Attualmente quello che spinge molto su nehalem sono il controller della memoria integrato e l'hyperthreading. Dall'altro lato amd avrebbe bisogno di sveltire la cache L3.
Ricordo che intel è gia pronta per costruire a 32nm http://www.4news.it/2Tech/Intel_pronta_a_produrre_CPU_da_32nm-2090.html chiaramente con la stagnazione del mercato e la crisi economica non vedo perchè dovrebbe bruciare le tappe cosi velocemente, considerando poi che i phenom 2 bhe , mi sembra che non vadano un granche... Ho avuto il 9950 e sinceramente non andava neanche a inc...rlo.
Il 9950 non è un phenom 2.
Leggiti questo prima di dire cavolate , la tecnologia Intel a 32nm high-k di seconda generazione è la più avanzata del mondo http://punto-informatico.it/2549217/PI/News/intel-crisi-non-crisi-32nm-avanti.aspx ,AMD per fare i 32nm ha dovuto allearsi a AMD, Chartered, Infineon, Samsung, Sony, Toshiba, Freescale e STMicroelectronics hanno unito le proprie forze a quelle di IBM.
E quindi? Dov'è l'errore nel fare alleanze per affinare il processo produttivo?
edit: per essere precisi, stiamo parlando di opteron e di server, per cui tutto il discorso dell'i7 per ora non si applica ancora a tale mercato.
1° Quali problemi avrebbe intel paragonabili a quelli del phenom 1? Secono il fatto che salga di più in overclock non vuol dire nulla, le prestazioni MHZ/MHZ di un core i7 sono decisamente superiori in tutti gli ambiti ,ricordo che quando c'erano i prescot Intel aveva frenqeunze ben superiori rispetto AMD ma poi le prestazioni decadevano , a 4GH si avevano le stesse prestazioni di un A64 a 2800MHz , adesso ci troviamo l'opposto , per sopperire il gap si usano frequenze più alte ,chiaro sintomo di una FPU meno prestante e quindi tencologicamente inferiore , al tempo ricordo gente che dava il p4 superiore perchè utilizzava Hyper Threading o le SSE2 . Ricordo che intel è gia pronta per costruire a 32nm http://www.4news.it/2Tech/Intel_pronta_a_produrre_CPU_da_32nm-2090.html chiaramente con la stagnazione del mercato e la crisi economica non vedo perchè dovrebbe bruciare le tappe cosi velocemente, considerando poi che i phenom 2 bhe , mi sembra che non vadano un granche... Ho avuto il 9950 e sinceramente non andava neanche a inc...rlo.
Leggiti questo prima di dire cavolate , la tecnologia Intel a 32nm high-k di seconda generazione è la più avanzata del mondo http://punto-informatico.it/2549217/PI/News/intel-crisi-non-crisi-32nm-avanti.aspx ,AMD per fare i 32nm ha dovuto allearsi a AMD, Chartered, Infineon, Samsung, Sony, Toshiba, Freescale e STMicroelectronics hanno unito le proprie forze a quelle di IBM.
Va bene, anche se è diverso tempo che Ibm produce processori a 32 nm, che ha scalato molto prima di intel in frequenza, che ha una miriade di brevetti sia sul 32 nm che sul 22 (con prototipi gia funzionanti).
High-k di seconda gen, è indubbiamente più evoluto di quello di prima, ma pensa che possa competere con Ultra Low-K, HKMG, soi di 2° generazione?
Continua a leggere gli spot di intel, senza tirare in ballo IBM però, dato che se Amd è indietro di 1 anno su intel (per me sono meno), la intel è indietro di almeno 2 anni sui processi di fabbricazione nei riguardi di Big blue, e chissa di quanti sui prototipi.
Quando i7 sarà nei server, ne riparliamo cmq;)
II ARROWS
24-02-2009, 11:43
Se:
AMD è indietro di un anno rispetto a Intel...
Intel è indietro di due anni rispetto a IBM...
Allora:
Intel è indietro di un anno rispetto ad AMD...
Peccato che la prima sia in conflitto con la terza...
Se:
AMD è indietro di un anno rispetto a Intel...
Intel è indietro di due anni rispetto a IBM...
Allora:
Intel è indietro di un anno rispetto ad AMD...
Peccato che la prima sia in conflitto con la terza...
Peccato che amd =\ Ibm
Allora la tua proprietà transitiva si va a farsi benedire.
Scusami qual'è la prima cpu Intel a 32 nm?
Controlla la prima dell'Ibm:D
blackshard
24-02-2009, 15:06
Ma aldilà del processo produttivo, sembra sempre di sentire le stesse storie.
Il processore A ha frequenza maggiore di B, allora A è meglio
Il processore A ha più cache di B, allora A è meglio
Adesso il discorso si è spostato sul processo produttivo, francamente alla prova dei fatti contano le prestazioni/costi/consumi, quindi che un processore sia a 45nm o a 65nm o a 90nm conta poco se quelle tre variabili sono nella giusta proporzione.
Che intel corra sul processo produttivo è una cosa nota, perchè per loro è un punto di forza poter spingere dal momento che hanno disponibilità economiche immense. Dall'altro lato AMD ha minori disponibilità economiche e tende a sfruttare il più possibile le linee produttive e ad ottimizzare il processo produttivo.
MiKeLezZ
24-02-2009, 15:25
Peccato che amd =\ Ibm
Allora la tua proprietà transitiva si va a farsi benedire.
Scusami qual'è la prima cpu Intel a 32 nm?
Controlla la prima dell'Ibm:Dmi fa ridere quando qualcuno cerca di difendere ibm/amd senza però avere la purezza di animo di verificare le proprie fonti e controllare anche le mosse del competitor
ibm non ha alcuna cpu commerciale a 32nm (giusto prototipi)
ibm ha solo prodotto una sram (che è il circuito più semplice possibile, e viene quindi utilizzato come "banco di prova" per il futuro sviluppo) con una collaborazione di praticamente tutte le più grosse aziende di semiconduttori del mondo
il frutto commerciale di questa collaborazione sarà, fra qualche mese, le schedine di memoria microSD da 32GB, e non delle CPU a 4 core fisici, 8 logici, e una fracassata di cache come nel caso Intel
fra l'altro, si tende forse a dimenticare che il primo prototipo a 32nm del mondo è stato di intel: e si parla del 18 settembre del 2007
http://www.intel.com/pressroom/archive/releases/20070918corp_a.htm?iid=tech_arch_32nm+body_pressrelease
1,5 anni fa
e, come al solito, il primo prodotto commerciale in larga quantità a 32nm sarà probabilmente sempre suo...
ciao
MiKeLezZ
24-02-2009, 15:28
Ma aldilà del processo produttivo, sembra sempre di sentire le stesse storie.
Il processore A ha frequenza maggiore di B, allora A è meglio
Il processore A ha più cache di B, allora A è meglio
Adesso il discorso si è spostato sul processo produttivo, francamente alla prova dei fatti contano le prestazioni/costi/consumi, quindi che un processore sia a 45nm o a 65nm o a 90nm conta poco se quelle tre variabili sono nella giusta proporzione.
Che intel corra sul processo produttivo è una cosa nota, perchè per loro è un punto di forza poter spingere dal momento che hanno disponibilità economiche immense. Dall'altro lato AMD ha minori disponibilità economiche e tende a sfruttare il più possibile le linee produttive e ad ottimizzare il processo produttivo.il discorso non si è mai spostato nella corsa al processo produttivo: questa rimane una specifica tecnica celata dagli occhi degli acquirenti, per cui si esaltano solo gli appassionati e gli stakeholder, ma non a torto!
Infatti è proprio grazie a lei se si possono ottenere i benefici in termini di :
- prestazioni (più MHz)
- costi (più CPU per wafer)
- consumi (meno V in alimentazione)
...di cui tu stesso vai profetizzando.
blackshard
24-02-2009, 15:46
il discorso non si è mai spostato nella corsa al processo produttivo: questa rimane una specifica tecnica celata dagli occhi degli acquirenti, per cui si esaltano solo gli appassionati e gli stakeholder, ma non a torto!
Infatti è proprio grazie a lei se si possono ottenere i benefici in termini di :
- prestazioni (più MHz)
- costi (più CPU per wafer)
- consumi (meno V in alimentazione)
...di cui tu stesso vai profetizzando.
Sempre se il processore è ben pensato. Se il processore è una chiavica non c'è processo produttivo che tenga. Il processo produttivo in se' non è indice di un cacchio o quasi.
MiKeLezZ
24-02-2009, 15:57
Sempre se il processore è ben pensato. Se il processore è una chiavica non c'è processo produttivo che tenga. Il processo produttivo in se' non è indice di un cacchio o quasi.ma che cavolo c'entra questa ovvietà
e sì, se il processore è forte è forte, e se è scarso è scarso. che scoperta
blackshard
24-02-2009, 16:59
ma che cavolo c'entra questa ovvietà
e sì, se il processore è forte è forte, e se è scarso è scarso. che scoperta
E allora spiegaglielo tu a newtechnology che fa questi paragoni del cazzo.
mi fa ridere quando qualcuno cerca di difendere ibm/amd senza però avere la purezza di animo di verificare le proprie fonti e controllare anche le mosse del competitor
ibm non ha alcuna cpu commerciale a 32nm (giusto prototipi)
ibm ha solo prodotto una sram (che è il circuito più semplice possibile, e viene quindi utilizzato come "banco di prova" per il futuro sviluppo) con una collaborazione di praticamente tutte le più grosse aziende di semiconduttori del mondo
il frutto commerciale di questa collaborazione sarà, fra qualche mese, le schedine di memoria microSD da 32GB, e non delle CPU a 4 core fisici, 8 logici, e una fracassata di cache come nel caso Intel
fra l'altro, si tende forse a dimenticare che il primo prototipo a 32nm del mondo è stato di intel: e si parla del 18 settembre del 2007
http://www.intel.com/pressroom/archive/releases/20070918corp_a.htm?iid=tech_arch_32nm+body_pressrelease
1,5 anni fa
e, come al solito, il primo prodotto commerciale in larga quantità a 32nm sarà probabilmente sempre suo...
ciao
chi ha parlato mai di commerciale, e dovresti ben sapere che ibm vende tecnologia e non processori x 86-64.
Se poi la tecnologia è solo quella che viene usata per i prodotti a listino....
AMD e' gia' avanti rispetto ad Intel a parte il processo produttivo: e' da anni che integra il memory controller. E soprattutto confrontiamo un sistema AMD con uno Intel (core I7). Se si potesse fare un confronto a parita' di prezzo, AMD sarebbe al top.
- AMD Phenom II X4 940 Black Edition 3.0GHz L3-6MB Deneb €257,00
- Intel Core2 Quad Q9550 2.8GHz 1333Mhz L2-12MB €295,00
Prezzi non aggiornati e forse non i migliori ma :read:
se confrontato con un i7 poi bisogna vedere la scheda madre che c'e' sotto e la differenza di prezzo non e' poca.
Io l'ho detto, se AMD volesse davvero tentare di superare Intel nella fascia alta ci riuscirebbe tranquillamente :O
MiKeLezZ
25-02-2009, 10:42
AMD e' gia' avanti rispetto ad Intel a parte il processo produttivo: e' da anni che integra il memory controller.Ci risiamo.
Intel sono ormai decenni che ha costruito CPU x86 con memory controller integrato.
http://www.ciar.org/ttk/cpuinfo/chiplist.html
Si comincia dal 1983, ben 26 anni fa, con il i80186.
Poi si passa al i386SL del 1986, di cui sono state venduti quasi 2 milioni.
E poi ancora al i80486SL datato 1992, 17 anni fa.
Ciao.
Ci risiamo.
Intel sono ormai decenni che ha costruito CPU x86 con memory controller integrato.
http://www.ciar.org/ttk/cpuinfo/chiplist.html
Si comincia dal 1983, ben 26 anni fa, con il i80186.
Poi si passa al i386SL del 1986, di cui sono state venduti quasi 2 milioni.
E poi ancora al i80486SL datato 1992, 17 anni fa.
Ciao.
E tenere l'implementazione no?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.