Memorie DDR2-1066 per le cpu K8L di AMD

Memorie DDR2-1066 per le cpu K8L di AMD

Le future cpu Athlon 64 basate su core K8L dovrebbero supportare in modo nativo le memorie DDR2-1066, che nel frattempo verranno standardizzate dal JEDEC

di pubblicata il , alle 14:23 nel canale Processori
AMD
 
38 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Dreadnought02 Gennaio 2007, 22:05 #21
Originariamente inviato da: II ARROWS
Dreadnought... Gddr3... G...

humm... non ci sono mica da un po' sk video che montano DDR3?

e questo che c'entra scusa???
Anche le DDR2 sono apparse su schede video...
Se AMD e Intel non trovano una soluzione diversa da quella attuale per gestire le memorie la tecnologia DDR3 avrà lo stesso triste destino delle DDR2...

Le DDR2 non le monta praticamente più nessuno, consumano troppo a clock alti. Le gddr3 sono un ottimo sostituto, consumano 1/4 a cella, le GDDR2 son vie di mezzo tra le DDR1 e le DDR2.
Dreadnought02 Gennaio 2007, 22:17 #22
Originariamente inviato da: flapane
come mai sia le ddr2 che le ddr3 sono apparse già tempo addietro sulle schede grafiche e hanno invece tempi di diffusione così lenti per quanto riguarda l'intera architettura pc?

Forse arrows ha ragione... le sk video montano le GDDR3 e non le DDR3 come scritto quasi ovunque.

Le GDDR3 sono standard simili alle DDR3 e alle DDR2, diciamo che sono l'evoluzione delle DDR2, in quanto consumano molto meno.
http://www.lostcircuits.com/memory/ddr3/6.shtml

Solo poche schede di ultima generazione montano le DDR3 vedendo ingiro su google.
Su molte sk grafiche c'è scritto DDR3 per ignoranza di chi pubblica i dati, ma in effetti montano GDDR3, solo alcune sk grafiche per portatili o le ultime ati e nvidia supportano le GDDR3 o le GDDR4 (evoluzione delle DDR3?) da quanto ho appena letto ingiro.
capitan_crasy02 Gennaio 2007, 22:27 #23
Originariamente inviato da: VeldorN
secondo me questa notizia va letta così:

Amd con il k8L e quindi con l HT 3.0 riuscirà a saturare la banda passante delle DDR2 800 e così punta alle 1066

spero di non sbagliarmi

peccato che l'Hyper Transport non c'entra con la banda delle memorie...
capitan_crasy02 Gennaio 2007, 22:29 #24
Originariamente inviato da: Dreadnought

Le DDR2 non le monta praticamente più nessuno, consumano troppo a clock alti. Le gddr3 sono un ottimo sostituto, consumano 1/4 a cella, le GDDR2 son vie di mezzo tra le DDR1 e le DDR2.

ok ma questo non significa che le DDr3 saranno "Migliori" delle DDR2 in prestazioni assolute...
Dreadnought02 Gennaio 2007, 23:05 #25
In teoria AMD voleva saltare direttamente alle DDR3 perchè le DDR2 non avevano niente di meglio rispetto alle DDR1, e si è visto con il socket AM2. Le DDR2 hanno ancora le frequenze di clock delle DDR1, e lavorano semplicemente sui segnali multipli per aumentare il transfer rate.
Le DDR2 667, vanno a 166MHz, le DDR2 800 a 200MHz

Le DDR3, viaggiano a frequenze maggiori di 533mhz, con timing poco più alti delle DDR2, le latenze saranno di molto inferiori, quasi dimezzate rispetto alle DDR2 e DDR1. I consumi molto inferiori, dovute a tecnologie senza terminazioni con resistenze esose.

flapane02 Gennaio 2007, 23:07 #26
bene non farebbe male col tempo diminuire ulteriormente i consumi
MuadDibb03 Gennaio 2007, 08:34 #27

Chi ha parlato di consumi???? :D

Flapane... possono abbassare i consumi quanto vogliono... ma se poi ci spari sopra una 8800 GTX ecco che tutto viene vanificato!! Spero tanto che, oltre la riduzione dei consumi di CPU e RAM, si arrivi anche alla riduzione dei consumi delle VGA... e a pensarci bene anche i chipset per mainboard (tipo l'Nforce4 che ho io) scaldano abbastanza!!
Mi sembra che a volte ci siano correnti di pensiero troppo diverse nell'informatica...
Secondo voi riusciranno ad abbassare temperature e consumi anche delle VGA (tralasciando il GPU Shrink)
Catan03 Gennaio 2007, 10:27 #28
ragazzi svegliamoci dalla favola della riduzione dei consumi in ambito vga..i produttori al massimo provano a restare con i consumi della generazione precedente.
abbassare il processo produttivo di qualche nm serve solo per aumentare la potenza rispetto alla quantità di calore prodotta.
MenageZero03 Gennaio 2007, 14:37 #29
dalla news:
"AMD sembra inoltre aver posticipato al 2009 il debutto del Socket AM3, con il quale verrà introdotto il supporto alla memoria DDR3 con le cpu Athlon 64; alla base di questa decisione la considerazione che la diffusione di memorie DDR3 in sistemi desktop non avverrà in modo massiccio prima di alcuni anni dal lancio delle prime soluzioni, attese per metà 2007 da Intel."

ma no ? chi l'avrebbe mai detto che, se amd non permetterà l'uso di ddr3 con le sue cpu prima di anni da quando la ddr3 è commercializzabile, questa ci metterà anni per diventare largamente diffusa o il tipo di ram principalemnte usato (visto che cmq con intel si potrà usare anche ddr2, non solo ddr3)...

va bene che amd ha una % minoritaria del mercato cpu x86,ma cmq stiamo parlando di un mercato sostanzailmente con due soli produttori per quel che riguarda i grandi numeri e la fetta di amd è tutt'altro che trascurabile e senza peso per influenzare il mercato stesso, imho quella che sembra trapelare da amd come una "previsione" su cui basare "oculate scelte strategiche" è più che altro solo una decisione atta a determinare con elevata probabilità la situazione che per qualche motivo preferiscono...

(ricrdate una certa ddr2 ? intel 2004, amd metà 2006... guarda caso ddr2 diventa "la"(concetto comprensivo di prezzi per veramente tutte le tasche) ram solo nel corso dell'anno appena finito.... )
MenageZero03 Gennaio 2007, 15:41 #30
Originariamente inviato da: Catan
ragazzi svegliamoci dalla favola della riduzione dei consumi in ambito vga..i produttori al massimo provano a restare con i consumi della generazione precedente.
abbassare il processo produttivo di qualche nm serve solo per aumentare la potenza rispetto alla quantità di calore prodotta.


bisogna anche dire che di gpu che consumano poco ce ne sono anche ora, a cominciare da quelle integrate nei northbridge... non è che bisogna per forza, contemporaneamente, giocare, magari "alla grande", col pc e pretendere di consumare complesivamente "poco"...

detto questo, se un giorno i consumi delle gpu, anche top, inizieranno a scendere sensibilmente, tanto meglio ovviamente cmq non è che imho questo non debba essere un obbiettivo da perseguire (ammesso che sia effettivamente possibile)

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^