View Full Version : [Thread Ufficiale] Aspettando Bulldozer *leggere prima pagina con attenzione*
capitan_crasy
09-12-2010, 10:13
Ciao ragazzi ;)
ho un dubbio...le attuali schede madri AM3 (quindi con chipset 870xx/880xx/890xx) saranno compatibili con queste future cpu amd della famiglia bulldozer?
:confused:
grazie :)
Ciao ragazzi ;)
ho un dubbio...le attuali schede madri AM3 quindi con chipset 890xx saranno compatibili con queste future cpu amd della serie bulldozer?
oppure è certo che non lo saranno? :confused:
grazie :)
Nessuna scheda mamma socket AM3 attualmente e di futura produzione sarà compatibile con le CPU Bulldozer; le attuali CPU socket AM3 invece saranno compatibili con le future schede mamme socket AM3+...
P.S. La tua firma sta sballando le dimensioni dei post di questo thread; ti prego di sistemarla...
astroimager
09-12-2010, 16:38
Ho capito male o occorrerà attendere ancora un paio di mesi prima di vedere i nuovi super-netbook by AMD?
Ho sempre più necessità di una macchina con queste caratteristiche... santa pazienza, va a finire che dovrò rivolgermi alla concorrenza!... :cry:
capitan_crasy
09-12-2010, 18:20
Ho capito male o occorrerà attendere ancora un paio di mesi prima di vedere i nuovi super-netbook by AMD?
Ho sempre più necessità di una macchina con queste caratteristiche... santa pazienza, va a finire che dovrò rivolgermi alla concorrenza!... :cry:
Ontazio/Zacate dovrebbe essere presentato ufficialmente a gennaio (forse al CES 2011) con disponibilità di alcune macchine entro la fine di quest'anno...
Q
astroimager
09-12-2010, 21:40
Ontazio/Zacate dovrebbe essere presentato ufficialmente a gennaio (forse al CES 2011) con disponibilità di alcune macchine entro la fine di quest'anno...
Q
Ho deciso che se trovo una buona occasione come ad ottobre, questa volta non me la faccio sfuggire... poi sono sempre in tempo a passare ad un Fusion, magari un Llano a basso consumo.
io è un po' che punto i subnotebook con amd serie k... ce n'è uno della msi iun vendita su n3xt che ha il dual core (k325), 4 giga di ram, integrata radeon 4225 e disco da boh, 320 giga tipo... non costa una follia, dovrebbe già fare quello che mi basta, però con zacate dietro l'angolo aspetto ancora qualche mese ;)
Mercuri0
09-12-2010, 23:39
Cioè le vostre stime di velocità si basano sulla considerazione orale di un PR? :mbe: Spero ci siano altre fonti
Yup. Io ho fatto una considerazione estremamente rozza: la GPU di llano probabilmente sarà limitata dalla memoria DDR3 e dal clock per contenere il TDP.
Solo che se cerchi, è molto raro trovare sui notebook una GPU con qualcosa di più della DDR3, e per il TDP, la GPU di Llano sarà a 32nm vs i 40 delle attuali e future del 2011.
Ergo, in campo mobile, Llano arriva dove il TDP e DDR3 consentiranno, e probabilmente sarà al top di quello di non esotico che si trova in giro. :read:
All'obiezione "ma dovrà vedersela contro le GPU del 2011" - eh, diciamo che sia da parte di nVidia che AMD in campo mobile da qualche tempo si va avanti più di nomi che di prestazioni. E ti faccio notare che le "nuove" 6550M e 6570M montano sempre Redwood, la GPU che sarà integrata in Llano. Le variabili saranno il clock (per il TDP) e le GDDR5... si ritorna alla mia considerazione rozza d'inizio.
Eppoi, non so a te, ma a me poter aggiornare la GPU del portatile/mediacenter compatto mica mi farebbe schifo. Llano potrebbe dare questa opportunità, perché le CPU nei portatili non vengono saldate come le GPU. Quindi magari si potrebbe passare a Trinity (bulldozer + nuova GPU) sullo stesso notebook ;)
Mercuri0
09-12-2010, 23:50
Aggiungo: si realizza quanto può pesare Llano nel mondo mobile, se si mette a fuoco che sui portatili Dell/Apple/HP/Sony non montano e non monteranno nel 2011 niente di meglio dell'equivalente di una 5570 per desktop!
Ovvio che AMD non deve scazzarlo troppo...
paolo.oliva2
10-12-2010, 01:15
...Eppoi, non so a te, ma a me poter aggiornare la GPU del portatile/mediacenter compatto mica mi farebbe schifo. Llano potrebbe dare questa opportunità, perché le CPU nei portatili non vengono saldate come le GPU. Quindi magari si potrebbe passare a Trinity (bulldozer + nuova GPU) sullo stesso notebook ;)
Questa è un'ottima considerazione... non ci avevo pensato.
Bisogna anche poi pensare, sempre se sarà possibile, che nei portatili, a fronte del procio/GPU più potente, aumentato pure le caratteristiche base, quali la quantitò della ram, la capacità dell'HD, web-cam e quant'altro, che poi il prezzo del prodotto finale lo ingrossano e non di poco. Addirittura potrebbe prospettarsi l'ipotesi che portatile + upgrade di APU acquistata a parte, potrebbero comportare un prezzo inferiore che lo stesso portatile equipaggiato con la stessa APU proposto dalla case madre. :D
A parte questo, fino ad oggi il portatile lo compravi e lo scoglio più grande è che già dopo 6 mesi è già bello "vecchio". Questo macigno potrebbe forse cambiare.
Le CPU sui portatili non si possono cambiare così a cuor leggero. Se cambia il TDP bisogna cambiare anche il sistema di raffreddamento.
no, bulldozer non andrà sulle schede madri am3.
Invece le future schede madri am3+ saranno compatibili con gli attuali processori :) se pensavi di fare un upgrade della scheda madre aspetta che escano quelle nuove a sto punto ;)
grazie del chiarimento :)
Nessuna scheda mamma socket AM3 attualmente e di futura produzione sarà compatibile con le CPU Bulldozer; le attuali CPU socket AM3 invece saranno compatibili con le future schede mamme socket AM3+...
P.S. La tua firma sta sballando le dimensioni dei post di questo thread; ti prego di sistemarla...
Grazie anche a te per il chiarimento :)
p.s. Provvedo subito a sistemare la firma,non me ne ero accorto :eek:
grazie,ciao ;)
paolo.oliva2
10-12-2010, 13:22
Le CPU sui portatili non si possono cambiare così a cuor leggero. Se cambia il TDP bisogna cambiare anche il sistema di raffreddamento.
Beh, chiaro.
Però si spera che a parità di socket e a parità di TDP, con il tempo l'offerta possa garantire più potenza a parità di TDP.
Quello che mi parrebbe più problematico, sarebbe il bios, che col cacchio si troverebbe disponibile... non vorrei che nel caso di non riconoscimento procio, alcune features vengano disabilitate.
io penso che ,a parte ogni superba o nefasta convinzione, che apu su bulldozer sia diversa da quella che si trova con i k10 ,anzi oltre ad essere ancora sui 32nm come la gpu di llano , ma su bulldozer dovra assolvere ad altri aspetti della ''comunicazione'', fra moduli e quant'altro, qualcosa sugli interi o sulle operazioni in virgola mobile,dovrebbe subire una variazione:eek:
dopotutto le apu (secondo il programma di ''amd velocity'') saranno proposte ad ogni anno , the best=miglioramento; cercando di trovare la strada della costruzione unica, cioe una specie di sovrapposizione hardware tale da non poter individuare una delle due componenti; un processore in cui tutto cio si verificasse ,sarebbe chiamato ibrido(frutto di un incrocio) ,e la cpu sara nascosta dalla gpu e viceversa, in quanto ne sono il frutto del ''CONCEPIMENTO'',appunto della fusione....:Prrr:
Le CPU sui portatili non si possono cambiare così a cuor leggero. Se cambia il TDP bisogna cambiare anche il sistema di raffreddamento.
ma abbiamo visto che a parità di processo produttivo il silicio può migliorare notevolmente ( questo esempio ha stufato, lo so, ma il thuban e0 consuma a occhio il 33% in meno del c3, visto che a parità di tdp ha 2 core in più e la cache in proporzione ) quindi non è da escludere che trinity possa offrire a parità di tdp di llano una gpu più potente, o un maggior numero di core, o frequenze più elevate... senza contare che anche a parità di core e clock è sempre k10 contro bd, quindi comunque ci sarebbe il guadagno cambiando APU :D
astroimager
10-12-2010, 19:33
io è un po' che punto i subnotebook con amd serie k... ce n'è uno della msi iun vendita su n3xt che ha il dual core (k325), 4 giga di ram, integrata radeon 4225 e disco da boh, 320 giga tipo... non costa una follia, dovrebbe già fare quello che mi basta, però con zacate dietro l'angolo aspetto ancora qualche mese ;)
Stavo per fare un excursus pazzo su un Macbook, non ho mai usato questi sistemi e sono troppo curioso... ma mi passa sempre la voglia quando vedo le specifiche in rapporto al prezzo. :read:
A proposito: avete notato che ora Mediamondo vende anche portatili AMD? :)
Se non è buon segno questo...
Mercuri0
10-12-2010, 20:12
Le CPU sui portatili non si possono cambiare così a cuor leggero. Se cambia il TDP bisogna cambiare anche il sistema di raffreddamento.
E già, bisogna sceglierne una di pari TDP.
Ma questa è la difficoltà minore, perché le CPU nei portatili sono praticamente categorizzate per TDP, e le CPU si evolvono a parità di TDP in maniera ancora più stringente per i desktop
Mica ad ogni gen di CPU possono ingrossare il sistema di raffreddamento dei portatili ;)
(o anche mica si può pensare che un produttore disegni un notebook intorno a una specifica CPU, di solito se ne sceglie una serie di pari TDP).
Penso il limite maggiore all'upgradabilità sarà invece la DDR3. Evoluzioni da questo lato richiederanno probabilmente un cambio di socket...
Mercuri0
10-12-2010, 20:17
io penso che ,a parte ogni superba o nefasta convinzione, che apu su bulldozer sia diversa da quella che si trova con i k10 ,anzi oltre ad essere ancora sui 32nm come la gpu di llano , ma su bulldozer dovra assolvere ad altri aspetti della ''comunicazione'', fra moduli e quant'altro, qualcosa sugli interi o sulle operazioni in virgola mobile,dovrebbe subire una variazione:eek:
Nu, perché se bulldozer avesse un'architettura diversa per far ciò che dici, non sarebbe bulldozer :read:
Non vi flashate troppo con la storia della "fusione", ci sono un pochito di problemi che non la rendono immediata. La strada più percorribile è cominciare a passare per OpenCL, che gira sia su CPU che su GPU.
Se AMD mostrasse qualche bel programmino OpenCL al lancio di Llano, male non farebbe. :oink:
Non vi flashate troppo con la storia della "fusione", ci sono un pochito di problemi che non la rendono immediata. La strada più percorribile è cominciare a passare per OpenCL, che gira sia su CPU che su GPU.
Ti dico la verità...non credo che sia OpenCL l'unica strada percorribile. Potrebbero essercene altre. Ad esempio studiando qualche metodo per includere le unità della GPU nella pipeline FPU per le sole istruzioni SIMD. Anche se certo non sarà Trinity a fare questo.
Spitfire84
10-12-2010, 20:24
Stavo per fare un excursus pazzo su un Macbook, non ho mai usato questi sistemi e sono troppo curioso... ma mi passa sempre la voglia quando vedo le specifiche in rapporto al prezzo. :read:
A proposito: avete notato che ora Mediamondo vende anche portatili AMD? :)
Se non è buon segno questo...
Ciao Astro, ormai che hai fato 30 fai 31!
Un mesetto di pazienza e poi potrai valutare come e dove investire i tuoi soldi! :D
Ottima news quella di AMD da
[email protected]'avevo letta un paio di mesi abbondanti fa qua sul forum.. :)
paolo.oliva2
11-12-2010, 13:15
Nulla di nuovo, però, in Q2 disponibilità chip-set 9XX.
Added chips: AMD plans to unreveal Bulldozer 9-series chipsets to the market in Q2 2011.
QUI (http://www.squidoo.com/amd-bulldozer-9-series-chipsets-set-to-out-in-2011-)
paolo.oliva2
11-12-2010, 23:33
Brazos Dresdenboy
...Another question seldomly answered by the previews was the function of Zacate's power management. Some reviewers included AMD's statements about idle power likely going further down in final systems. The most helpful remark came with the latest paper issue of the German c't mag, where the reviewer noted that the power management itself was not the final version. This might be supported by power consumption numbers running different kinds of code. For example the PC Per review lists a power consumption of 19.1W while running CineBench 11 (heavy CPU usage - esp. FPU) and 28.8W while running Left 4 Dead 2 with both heavy CPU and GPU usage. This is a difference of 10W for using 3D graphics. Some of this difference is likely caused by mem operations, which include power for the mem controller. But it's still possible that the available TDP headroom isn't fully exploited by the power management. This might be answered by an interview done by Xbit Labs, where Godfrey Cheng, director of client technology unit at AMD, answered a lot of questions about Zacate, Ontario and Fusion in general. He states that power management - esp. frequency boosting - isn't final and subject to change. So in case of the previews I wouldn't assume a higher CPU core clock than 1.6GHz and a higher GPU clock than 500MHz for tested Zacate systems. Further he said that Zacate is capable of delivering more than 90 GFLOPS compute performance. This is in comparison to the 400-500 GFLOPS stated for Llano.
I actually wonder if the Zacate APUs used in the prototype systems are of an earlier stepping than the ones sent out in the first batch shipped to device manufacturers as mentioned by AMD's CEO Dirk Meyer at the Financial Analyst Day. However, here are the (p)reviews:
QUI (http://citavia.blog.de/)
marchigiano
12-12-2010, 14:30
pensavo che su BD avessero montato solo chipset di fascia alta come il 990FX, mentre il 970 sarà sicuramente economico, forse per chi vuole riciclare i vecchi phenom 2 senza spendere un patrimonio di mobo
paolo.oliva2
12-12-2010, 15:13
pensavo che su BD avessero montato solo chipset di fascia alta come il 990FX, mentre il 970 sarà sicuramente economico, forse per chi vuole riciclare i vecchi phenom 2 senza spendere un patrimonio di mobo
Secondo me, i chip-set 9XX sono solo una ciliegina per far passare più indolore il fatto di cambiare mobo per il socket AM3+, perché grandi differenze non ne vedrei tra un 890FX ed un 990FX, almeno per come lo uso io.
Comunque per me il 970 è morto prima di nascere... non ha alcun senso commerciale... E' un B.E. top X4, ma si occa comunque meno di un Thuban non B.E., nel multicore non c'è storia tra l'X4 e l'X6. Se poi uno proprio volesse un B.E., beh, un 1075 quanto costerebbe di più? Il 1090T lo si trova a 180€, il 1075T B.E. dovrebbe costare ancor meno.
marchigiano
12-12-2010, 15:26
intendevo il chipset 970, non il phenom x4 970 :)
paolo.oliva2
12-12-2010, 16:09
intendevo il chipset 970, non il phenom x4 970 :)
ops :D
intendevo il chipset 970, non il phenom x4 970 :)
in effetti è inutile...tanto vale prendere il 980G.
Come ho già detto...non mi piacciono affatto questi chipset.
perchè mi aspettavo di più che un semplice rebrand con migliorie sulla memoria.
Per la fine dell'estate prossima (presumibilmente)...o in autunno...arriva il 1365 e la revision di 1155...saranno un altro pianeta.
D'accordo che con AMD è assicurata la longevità del socket...ma per il resto della mobo?
Per logica dovrebbe essere l'inverso...il socket più longevo dovrebbe anche garantire tutta una serie di features, che in un primo momento si possono rivelare inutili...ma che a lungo andare tornano comode. Viceversa...chi ha come strategia una continua evoluzione di socket, a senso, dovrebbe anche centellinare la tecnologia, per rendere più appetibile l'acquisto.
mah!
quasi sicuramente mi farò un bd4x+990x per maggio (forse)...ma sapere che nel giro di pochi mesi...la nuovissima piattaforma, sarà obsoleta di almeno 24 mesi sulla concorrenza...non mi pare potrà andare a genio a molti nè.
Personalmente nessun problema...fino al fusion II nessun upgrade.
fatto sta...che se in estate arriva il 1155.b su mobo da 150 euro con tutte le diavolerie incluse...una "vecchia" mobo 990x...non potrà superare i 100 euro.
Quindi??...forse...aspetto giugno/luglio...quantomeno il prezzo delle mobo di BD...presumibilmente caleranno un bel tot, rispetto al day1.
capitan_crasy
12-12-2010, 17:03
in effetti è inutile...tanto vale prendere il 980G.
Come ho già detto...non mi piacciono affatto questi chipset.
perchè mi aspettavo di più che un semplice rebrand con migliorie sulla memoria.
Per la fine dell'estate prossima (presumibilmente)...o in autunno...arriva il 1365 e la revision di 1155...saranno un altro pianeta.
D'accordo che con AMD è assicurata la longevità del socket...ma per il resto della mobo?
Per logica dovrebbe essere l'inverso...il socket più longevo dovrebbe anche garantire tutta una serie di features, che in un primo momento si possono rivelare inutili...ma che a lungo andare tornano comode. Viceversa...chi ha come strategia una continua evoluzione di socket, a senso, dovrebbe anche centellinare la tecnologia, per rendere più appetibile l'acquisto.
mah!
quasi sicuramente mi farò un bd4x+990x per maggio (forse)...ma sapere che nel giro di pochi mesi...la nuovissima piattaforma, sarà obsoleta di almeno 24 mesi sulla concorrenza...non mi pare potrà andare a genio a molti nè.
Personalmente nessun problema...fino al fusion II nessun upgrade.
fatto sta...che se in estate arriva il 1155.b su mobo da 150 euro con tutte le diavolerie incluse...una "vecchia" mobo 990x...non potrà superare i 100 euro.
Quindi??...forse...aspetto giugno/luglio...quantomeno il prezzo delle mobo di BD...presumibilmente caleranno un bel tot, rispetto al day1.
Io credo che hai una certa confusione su quanto siano determinanti i northbridge e i southbridge.
Gli NB AMD sono solo dei semplici controller PCI-express 2.0 e non determinano un incremento significativo tra i vari modelli del passato...
Sono i southbridge le vere innovazioni e per Bulldozer la serie SB900 sarà un ulteriore passo avanti.
Non importa se alla fine i NB 900 sono uguali alla serie 800, ci sarà un evoluzione solo con l'introduzione dello standard PCI-express 3.0, ma per il momento questi chipset sono più che sufficienti...
Dre@mwe@ver
12-12-2010, 17:04
in effetti è inutile...tanto vale prendere il 980G.
Come ho già detto...non mi piacciono affatto questi chipset.
perchè mi aspettavo di più che un semplice rebrand con migliorie sulla memoria.
Per la fine dell'estate prossima (presumibilmente)...o in autunno...arriva il 1365 e la revision di 1155...saranno un altro pianeta.
D'accordo che con AMD è assicurata la longevità del socket...ma per il resto della mobo?
Per logica dovrebbe essere l'inverso...il socket più longevo dovrebbe anche garantire tutta una serie di features, che in un primo momento si possono rivelare inutili...ma che a lungo andare tornano comode. Viceversa...chi ha come strategia una continua evoluzione di socket, a senso, dovrebbe anche centellinare la tecnologia, per rendere più appetibile l'acquisto.
mah!
quasi sicuramente mi farò un bd4x+990x per maggio (forse)...ma sapere che nel giro di pochi mesi...la nuovissima piattaforma, sarà obsoleta di almeno 24 mesi sulla concorrenza...non mi pare potrà andare a genio a molti nè.
Personalmente nessun problema...fino al fusion II nessun upgrade.
fatto sta...che se in estate arriva il 1155.b su mobo da 150 euro con tutte le diavolerie incluse...una "vecchia" mobo 990x...non potrà superare i 100 euro.
Quindi??...forse...aspetto giugno/luglio...quantomeno il prezzo delle mobo di BD...presumibilmente caleranno un bel tot, rispetto al day1.
Scusami e cosa avrebbero in più le mobo 1155 e X68? A me invece sembra che i northbridge AMD siano molto raffinati arrivando a gestire un gran numero di linee PCI-e, mentre la battaglia sta tutta nei southbridge. Sbaglio o con BD arriverà SB950? Da quanto ricordo non mi sembra affatto inferiore (o almeno non tanto da farlo sembrare obsoleto) a quelli Intel :)
paolo.oliva2
12-12-2010, 19:54
...quasi sicuramente mi farò un bd4x+990x per maggio (forse)...ma sapere che nel giro di pochi mesi...la nuovissima piattaforma, sarà obsoleta di almeno 24 mesi sulla concorrenza...non mi pare potrà andare a genio a molti nè...
Con tutto il rispetto, a me questo discorso di "obsoleto" nei confronti di Intel non lo vedo per nulla (forse serve a giustificare il perché una mobo AMD TOP costa 140€, molto meno di una Intel top?), a parte che poi questa tecnologia nuova a me ad esempio non serve ad una tozza e il più delle volte mi crea più prb che vantaggi..
Ti faccio un esempio banale... Io ho una montatura computerizzata per telescopio Skywatcher NEQ-6 Skyscan (montatura da 1.250€) che si interfaccia al PC solamente con RS232C, ma mi tocca prendere una scheda a parte perché l'RS232C non c'è più nelle nuove mobo... e vai con una scheda PCI :mad: (tra parentesi, credo che il problema che continuino a fare queste interfacce SOLO con RS232C, sia in primis per una compatibilità estrema con tutto l'esistente, ed anche un fattore di affidabilità, in quanto... il cavetto USB supporta lunghezze di cavo tanto quanto quello RS232C?
I SATA III di HD col cacchio che li ho comprati, quando un HD da 1TB SATA III mi costa quanto 3 HD da 2TB SATA II.
In poche parole... se AMD nell'SB850 non ci avesse messo dentro le USB 3.0 e i SATA III ma le mobo fossero costate 50€ in meno, a me non sarebbero di certo dispiaciute.
Finché si tratta di NB, OK, non credo sia possibile upgradare perché mancherebbero i contatti elettrici (PCI-e), ma se ad esempio dovessi sciegliere interfacce tipiche da SB, quali USB 3.0 o SATA III, preferirei acquistarle a parte decidendo io a posteriori se spenderli e/o cosa acquistare, perché con quei 200€ e passa di differenza di costo mobo, di migliore ce ne scappa ed un totale.
capitan_crasy
12-12-2010, 22:48
Fra l'altro ho provato AHCI del SB850 su un HD da un 1TB e devo dire che i driver AMD senza il famoso BUG pedalano meglio di Gimondi!!!:D
SB750 anche utilizzando i driver di Seven per AHCI funziona bene ma quello del SB850 è un altro pianeta; spero in altri miglioramenti nei southbridge serie SB900...:)
paolo.oliva2
12-12-2010, 23:19
Che i sample di BD siano già stati consegnati, lo si sapeva, questa è una riconferma.
AMD, apparently eager to get its Bulldozer core out the door, might be shipping its next generation architecture sooner than we thought. Mike Magee over at TechEye.net says he recently met up with John Fruehe, who said that AMD plans to start sampling Bulldozer cores in the fourth quarter of this year.
(qui (http://tecnobits.com.ar/gadgets/amd-planning-to-sample-bulldozer-core-in-q4/))
paolo.oliva2
12-12-2010, 23:25
Fra l'altro ho provato AHCI del SB850 su un HD da un 1TB e devo dire che i driver AMD senza il famoso BUG pedalano meglio di Gimondi!!!:D
SB750 anche utilizzando i driver di Seven per AHCI funziona bene ma quello del SB850 è un altro pianeta; spero in altri miglioramenti nei southbridge serie SB900...:)
Io non ho provato l'AHCI perché... non sono stato a pensare tanto, con il 1090T in mano e la formula IV... e quando l'ho pensato ormai avevo installato tutto. :)
Però... con l'SB 750 facendo copie incrociate con più HD, a volte mi si impallava il sistema. Ora, utilizzando 2 HD da 2TB + 3 da 1,5TB, va tutto liscio.
Inoltre, con l'SB750, a volte capitava che con marche differenti di HD bisognava cambiare l'ordine fisico delle porte, perché a volte, inspiegabilmente, il sistema perdeva velocità da/verso 1 HD. Con l'SB850 non mi si è più ripresentato questo problema.
Lights_n_roses
12-12-2010, 23:55
Salve !
Volevo sapere se era già saltata furoi qualche notizia di netbook con brazos !
Sono molto interessato all'acquisto e volevo farmi un'idea del periodo in cui saranno realisticamente sul mercato ..( spero a non + di 300 euro sennò è un furto !! )
Io non ho provato l'AHCI perché... non sono stato a pensare tanto, con il 1090T in mano e la formula IV... e quando l'ho pensato ormai avevo installato tutto. :)
Però... con l'SB 750 facendo copie incrociate con più HD, a volte mi si impallava il sistema. Ora, utilizzando 2 HD da 2TB + 3 da 1,5TB, va tutto liscio.
Inoltre, con l'SB750, a volte capitava che con marche differenti di HD bisognava cambiare l'ordine fisico delle porte, perché a volte, inspiegabilmente, il sistema perdeva velocità da/verso 1 HD. Con l'SB850 non mi si è più ripresentato questo problema.
io su questa scheda madre copn sb850, anche avendo impostato i dischi come non-ahci, quando devo fare un trasferimento dati da un disco all'altro sto un attimo, rispetto a prima... se la copia è all'interno del computer e non dalla rete, arrivo tranquillamente ai 140 mb/s come velocità segnata da windows, e sono i dischi a piatti, se sposto roba all'interno dell'ssd arrivo a 270-280... non è sicuramente tutto merito dei dischi :)
Fra l'altro ho provato AHCI del SB850 su un HD da un 1TB e devo dire che i driver AMD senza il famoso BUG pedalano meglio di Gimondi!!!:D
SB750 anche utilizzando i driver di Seven per AHCI funziona bene ma quello del SB850 è un altro pianeta; spero in altri miglioramenti nei southbridge serie SB900...:)
Ciao capo
Mi spiegheresti una cosina? dunque posseggo una mamma con sb700 ed ho impostato l'ahci con i driver di win7x64. Dovrei aspettarmi qualche bug? Troppo cpu overhead? devo installare i driver amd per l'AHCI?:confused:
Vorrei far dei test per arrivarci io alla soluzione ma non ho tempo manco per piangere.:cry:
AleLinuxBSD
13-12-2010, 09:42
Further he said that Zacate is capable of delivering more than 90 GFLOPS compute performance. This is in comparison to the 400-500 GFLOPS stated for Llano.
:eek:
Radeon HD5450 (http://benchmarkreviews.com/index.php?option=com_content&task=view&id=455&Itemid=72&limit=1&limitstart=3)
104 gflops
Direi che si tratta di risultati impressionanti, praticamente perfino una Zacate renderebbe del tutto inutile l'acquisto di una scheda video entry-level, mentre un Llano (lasciando perdere il discorso larghezza di bus e tipo di memoria che, necessariamente, sarà quella di sistema) dovrebbe alla fine permettere prestazioni da scheda di medio-alto livello.
Nonostante sia da tempo un supporter delle apu (amd e intel) non mi aspettavo potenzialità simili da soluzioni integrate.
In teoria con le Zacate è possibile evitare l'acquisto di schede video da 50 euro mentre con le Lliano perfino quelle da 100 euro, un risultato notevole.
Poi certo bisognerà vedere le prove su strada ma le premesse mi sembrano ottime.:O
capitan_crasy
13-12-2010, 10:08
Ciao capo
Mi spiegheresti una cosina? dunque posseggo una mamma con sb700 ed ho impostato l'ahci con i driver di win7x64. Dovrei aspettarmi qualche bug? Troppo cpu overhead? devo installare i driver amd per l'AHCI?:confused:
Vorrei far dei test per arrivarci io alla soluzione ma non ho tempo manco per piangere.:cry:
Ciao:
Il BUG ACHI della serie SB600/SB700 si manifesta usando i driver messi a disposizione da AMD...
Per evitare questo tipo di problema basta usare quelli nativi di Windows (Vista/Seven)...;)
capitan_crasy
13-12-2010, 10:16
Salve !
Volevo sapere se era già saltata furoi qualche notizia di netbook con brazos !
Sono molto interessato all'acquisto e volevo farmi un'idea del periodo in cui saranno realisticamente sul mercato ..( spero a non + di 300 euro sennò è un furto !! )
Zacate/Ontario sono in consegna già questo mese, tuttavia i primi prodotti dovrebbero essere presentati a inizio 2011...
Il prezzo di partenza delle soluzioni Ontario/Zacate sarà di 350 dollari...
Ciao:
Il BUG ACHI della serie SB600/SB700 si manifesta usando i driver messi a disposizione da AMD...
Per evitare questo tipo di problema basta usare quelli nativi di Windows (Vista/Seven)...;)
Ciao capo
Grazie :)
Ma in pratica che vantaggi ci sono ahci vs eide? Avevo letto che i driver di seven tassavano molto la cpu su sb600, questo vale anche per sb700?
capitan_crasy
13-12-2010, 11:02
Ciao capo
Grazie :)
Ma in pratica che vantaggi ci sono ahci vs eide? Avevo letto che i driver di seven tassavano molto la cpu su sb600, questo vale anche per sb700?
Di solito è solo una questione di utilizzare il Native Command Queueing e comunque i driver appositi per le porte SATA (anche se solo quelli di Windows) sono comunque migliori di una generica modalità IDE.
In alcuni ambiti però (come il classico uso desktop) la differenza visiva è praticamente impercettibile...
Di solito è solo una questione di utilizzare il Native Command Queueing e comunque i driver appositi per le porte SATA (anche se solo quelli di Windows) sono comunque migliori di una generica modalità IDE.
In alcuni ambiti però (come il classico uso desktop) la differenza visiva è praticamente impercettibile...
Grazie capo
Non so se era già stato postato...
Slide (nuova?) su FlexFP e confrontato con SB: http://www.overclock.net/amd-motherboards/884297-amd-bulldozer-motherboard-now-here-socket.html
capitan_crasy
13-12-2010, 11:52
Non so se era già stato postato...
Slide (nuova?) su FlexFP e confrontato con SB: http://www.overclock.net/amd-motherboards/884297-amd-bulldozer-motherboard-now-here-socket.html
Se ti riferisci a questa Slide
http://i664.photobucket.com/albums/vv4/wuttzi/CCIMGO3.png
non è mai stata pubblicata su questo thread, ma in pratica è tardata 9 novembre quindi non è proprio nuova...:)
paolo.oliva2
13-12-2010, 13:45
Se ti riferisci a questa Slide
http://i664.photobucket.com/albums/vv4/wuttzi/CCIMGO3.png
non è mai stata pubblicata su questo thread, ma in pratica è tardata 9 novembre quindi non è proprio nuova...:)
Per il 2011 dovrebbe essere comunque reale per AMD, anche se comunque dal grafico correttamente AMD ha inserito SB X8 nel 2011, anche se in realtà SB X8 comparirebbe a fine 2011, quasi 2012, quindi per quasi tutto il 2011 non è che la potenza di calcolo sarebbe così "pari" come sembrerebbe dal grafico.
Quello che cambierebbe è nel 2012, dove AMD butterà fuori BD X10 e conseguentemente BD X20, mentre Intel si baserebbe su YB, ma che sarebbe la stessa architettura di SB trasportata nel 22nm, quindi a parte TDP inferiori a parità di frequenza, mi sembra che non ci sarà nulla di nuovo.
Praticamente AMD dovrebbe leggersi così, nel 2012:
80 (4x20, 128 bit)
80 (8x10, 256 bit)
Edit
Inoltre... secondo me AMD BD X10 potrebbe anche essere più vicino di quello che AMD riporta ufficialmente. AMD ha dalla sua un'architettura "modulare", quindi dove non sussistono problemi di TDP, la realizzazione è tutta nell'intenzione di AMD se proporla o meno, in tempi anche relativamente stretti. L'offerta AMD nel desktop, di BD, è caratterizzata da TDP incredibilmente bassi anche parlando di X6 e X8, nonostante frequenze da desktop. Verosimilmente, confrontando l'offerta attuale, cioè Thuban X6 a frequenze da desktop ma a 125W TDP e Magny-C 12 core 140W TDP, a maggior ragione un BD X8 a 95W desktop permetterebbe un BD X20 server sempre dentro i 140W, indipendentemente dal fatto che l'ultra-low-k sia presente o meno nel 32nm al debutto.
Tra l'altro... se i TDP preannunciati da AMD per i BD desktop fossero riferiti al 32nm solo HKMG, per quanto si voglia accreditare all'ULK un guadagno risicato, sarebbero comunque più alti di quelli con HKMG ULK. Se già sarebbero incredibili quelli attuali... avrebbe dell'incredibile un'offerta di BD X8 con 95W TDP massimo ed i 125W TDP destinati unicamente per i BD X10.
Praticamente AMD dovrebbe leggersi così, nel 2012:
80 (4x20, 128 bit)
80 (8x10, 256 bit)
E chi ti ha detto che non tirino fuori un x10 con IB ?
In ogni caso sono valori indicati a parità di frequenza ;)
E chi ti ha detto che non tirino fuori un x10 con IB ?
In ogni caso sono valori indicati a parità di frequenza ;)
sono perazioni per ciclo, che a mio avviso però non è chiaro se un ciclo==un ciclo di clock
paolo.oliva2
13-12-2010, 14:18
E chi ti ha detto che non tirino fuori un x10 con IB ?
In ogni caso sono valori indicati a parità di frequenza ;)
Il punto non è cosa butterebbe fuori Intel.
Il punto è che in quel grafico compare un SB X8 per il 2011 quando sappiamo benissimo tutti che SB X8 non lo vedremo prima di fine 2011...
Intel gli X10 se li farà, Intel può fare anche degli X12, non è questo il punto, quello che mi fa venire il dubbio è, sarebbe competitiva? AMD mette 16MB di L3 in un X20, Intel ce ne mette 20 o 24MB in un X8... in un X10 quanta L3 ci metterebbeé 30MB? Quanto gli costerebbe il procio? Anche se a 22nm, avrebbe più di 2G di transistor, quindi una superficie bella grande sul Wafer, senza contare che con tutti quei transistor, l'incidenza di proci fallati svetterebbe.
Sinceramente, tralasciando flame, io mi chiedo questo:
Il prezzo di un i980X è alto perché EE, d'accordo. Ma un i970 è più basso di 100€ anche senza essere EE. Ma cosa ne sappiamo se questo prezzo alto sia gonfiato perché è il top dei proci, oppure perché nella produzione ci sarebbero molti scarti? Nessuno lo può sapere, tranne Intel. Tra l'altro, costa di meno perché mi sembra sia stata ridotta la L3, quindi il prezzo reale per superficie, in realtà, non è diminuito di una virgola, anzi, sarebbe aumentato.
Ora... pensiamo se Intel dovesse realizzare un procio in cui vi sarebbe un raddoppio del numero totale di transistor rispetto al i980X, in più su un silicio nuovo (22nm) che non dovrebbe essere certamente a livelli di resa del 32nm... che prezzo si ipotizzerebbe?
Se a questo aggiungiamo che AMD potrebbe immettere BD con prezzi aggressivi... tu come vedresti YB >X8? Già sarebbe ottimo se un X8 costasse pari ad un odierno X6 Intel, figuriamoci un X10.
marchigiano
13-12-2010, 14:30
con i south bridge amd avete provato a fare l'hot swap dei dischi sata? come vanno? il sistema rimane stabile? c'è l'opzione di disconnessione sicura dell'unità?
marchigiano
13-12-2010, 14:49
Intel gli X10 se li farà, Intel può fare anche degli X12, non è questo il punto, quello che mi fa venire il dubbio è, sarebbe competitiva? AMD mette 16MB di L3 in un X20, Intel ce ne mette 20 o 24MB in un X8... in un X10 quanta L3 ci metterebbeé 30MB? Quanto gli costerebbe il procio? Anche se a 22nm, avrebbe più di 2G di transistor, quindi una superficie bella grande sul Wafer, senza contare che con tutti quei transistor, l'incidenza di proci fallati svetterebbe.
mi sa che su desktop intel rimarrà fissa a 8 core 16 threads, eventuali 10 o 12 core solo per server, ma è più facile che faccia dei dual socket
ma anche il BD 10x dovrebbe essere solo per server no?
Il prezzo di un i980X è alto perché EE, d'accordo. Ma un i970 è più basso di 100€ anche senza essere EE. Ma cosa ne sappiamo se questo prezzo alto sia gonfiato perché è il top dei proci, oppure perché nella produzione ci sarebbero molti scarti? Nessuno lo può sapere, tranne Intel. Tra l'altro, costa di meno perché mi sembra sia stata ridotta la L3, quindi il prezzo reale per superficie, in realtà, non è diminuito di una virgola, anzi, sarebbe aumentato
no per me il prezzo è alto solo perchè non ha concorrenza
no per me il prezzo è alto solo perchè non ha concorrenza
infatti, la storia che il prezzo è determinato dall' area occupata è na scemenza.
paolo.oliva2
13-12-2010, 15:13
mi sa che su desktop intel rimarrà fissa a 8 core 16 threads, eventuali 10 o 12 core solo per server, ma è più facile che faccia dei dual socket
ma anche il BD 10x dovrebbe essere solo per server no?
No, BD X10 sarà anche desktop, come riportato ufficialmente da AMD, perfettamente compatibile con le mobo AM3+.
no per me il prezzo è alto solo perchè non ha concorrenza
Questo lo potremo vedere subito dopo l'uscita di BD.
Se fosse come riporti tu... sia SB X4 (il top quasi a 400$) che ancor più l'i7 X6, dovrebbero subire uno scivolone non indifferente nel listino.
infatti, la storia che il prezzo è determinato dall' area occupata è na scemenza.
Non è una bella figura certamente un SB X4 top a 400$ all'uscita e dopo 2 mesi a 200$ se non meno... non è una perdita di faccia?
Con un 1100T a 239€, il cui prezzo è certamente gonfiato e destinato ad arrivare sui 200€, un BD X4, in proporzione alla potenza, certamente non potrà costare di più (se non a clock/IPC da fantascienza).
Allora, per te, un BD X8 quanto costerebbe? 1800€?
Io la vedo differentemente... qualunque produttore può chiedere il prezzo/prestazioni a sua decisione, al più, è il mercato che lo recepisce e giudica se quel prezzo/prestazioni è soddisfacente, dopodiché sono i volumi di vendita che stabiliscono se è gradito o meno, quindi se un successo o meno. Per il 99,99% della gente, che Intel produca o meno gli X6, al momento è come se fosse totalmente indifferente, perché il mercato recepisce gli X4 per Intel, e gli X6 per AMD. In parole povere... se AMD immetterebbe nel mercato un BD X8 a 800€, a me non importerebbe una mazza dire "AMD ha il procio più potente" se mi servirebbe un mutuo per acquistarlo. Alla grande preferirei un procio del 20% meno potente, ma che costi un 30%, con un rapporto prezzo/prestazioni a tutto vantaggio del mio portafoglio. Io la penso così, senza alcuna bandiera di parte.
marchigiano
13-12-2010, 15:23
No, BD X10 sarà anche desktop, come riportato ufficialmente da AMD
su socket am3+ con appena il dual channel? :confused:
Questo lo potremo vedere subito dopo l'uscita di BD.
Se fosse come riporti tu... sia SB X4 (il top quasi a 400$) che ancor più l'i7 X6, dovrebbero avere uno scivolone non indifferente nel listino.
basta vedere adesso gli 8 miliardi di utili di intel :D
di sicuro se BD andrà veramente forte e amd lo venderà a poco (potrebbe sempre venderlo a 500-1000$ non si sa) intel inizierà a calare i prezzi
i primi BD stanno arrivando adesso ai produttori di mobo per i test, ma alcuni dicono che i SB 1356 e/o 2011 sono già da un pezzo sotto test, quindi non è detto che intel sarà in ritardo contro BD, anche perchè le vecchie roadmap davano haswell disponibile già all'inizio del 2012, ora è un po slittato ma non è detto che non possa recuperare
Non è una bella figura certamente un SB X4 top a 400$ all'uscita e dopo 2 mesi a 200$ se non meno... non è una perdita di faccia?
Con un 1100T a 239€, il cui prezzo è certamente gonfiato e destinato ad arrivare sui 200€, un BD X4, in proporzione della potenza, certamente non potrà costare di più...
Allora, per te, un BD X8 quanto costerebbe? 1800€?
non di co questo e non lo so, dico solo che il prezzo della cpu non è mai determinato dall' area che occupa, ma principalmente da come si posiziona rispetto le offerte concorrenti.
un ph2 x6 altrimenti avrebbe un prezzo fuori mercato.
se il bdx8 fosse nettamente superiore a qualsiasi altra cpu intel 800-900€ vedrai che li potrebbe costare, magari in versione b.e.
gli athlon fx costavano 1000 cucuzze al tempo, poichè non avevano rivali...
marchigiano
13-12-2010, 15:31
Non è una bella figura certamente un SB X4 top a 400$ all'uscita e dopo 2 mesi a 200$ se non meno... non è una perdita di faccia?
Con un 1100T a 239€, il cui prezzo è certamente gonfiato e destinato ad arrivare sui 200€, un BD X4, in proporzione della potenza, certamente non potrà costare di più...
Allora, per te, un BD X8 quanto costerebbe? 1800€?
memoria corta paolone?
http://www.hwupgrade.it/articoli/cpu/1479/comparativa-processori-maggio-2006_10.html
2 maggio 2006: prezzo di UNA cpu fx60 1031$
http://www.hwupgrade.it/articoli/cpu/1611/quad-fx-la-ricetta-amd-per-i-quattro-core_14.html
30 novembre 2006: prezzo di DUE cpu fx70 599$ (300$ l'una :asd:)
sono perazioni per ciclo, che a mio avviso però non è chiaro se un ciclo==un ciclo di clock
Sì, si intende clock cycle, ma non sono valori intesi come medi, ma massimi.
Sono operazione a precisione singola, da 32 bit quindi. Ogni FMAC può eseguire 4 operazioni a 32 bit contemporaneamente. Così due FMAC riescono ad eseguire 8 operazioni a 32 bit per ciclo. In un interlagos con 8 moduli si arriva così ad un massimo di 64 operazioni in singola precisione per ciclo di clock.
Sì, si intende clock cycle, ma non sono valori intesi come medi, ma massimi.
Sono operazione a precisione singola, da 32 bit quindi. Ogni FMAC può eseguire 4 operazioni a 32 bit contemporaneamente. Così due FMAC riescono ad eseguire 8 operazioni a 32 bit per ciclo. In un interlagos con 8 moduli si arriva così ad un massimo di 64 operazioni in singola precisione per ciclo di clock.
a ok che fossero massimi lo avevo capito non avevo ragionanto sul fatto che calcolano istruzioni eseguibili in un ciclo di clock.
Ma mentre per gli intel le porte di esecuzione sono CONDIVISE con quelle intere e di memoria, su AMD le porte FP sono DEDICATE... ;)
Per INTEL si tratta veramente di prestazioni MASSIME, perchè è difficile che ci siano sfilze di istruzioni FP senza nemmeno una istruzione intera in mezzo... ;)
Mentre per AMD eventuali istruzioni intere fra quelle FP non disturbano affatto... :)
Sì, si intende clock cycle, ma non sono valori intesi come medi, ma massimi.
Sono operazione a precisione singola, da 32 bit quindi. Ogni FMAC può eseguire 4 operazioni a 32 bit contemporaneamente. Così due FMAC riescono ad eseguire 8 operazioni a 32 bit per ciclo. In un interlagos con 8 moduli si arriva così ad un massimo di 64 operazioni in singola precisione per ciclo di clock.
Ciao
Più che altro sono le istruzioni che possono entrare nella pipeline in ogni ciclo di clock,(fase di issue per intenderci) quando effettivamente vengono computate è un altro discorso, cosi come è un altro discorso se le istruzioni vengono ritirate in parallelo.
Io credo che si intenda proprio quante istruzioni si trovano nella vera e propria fase di esecuzione contemporaneamente. Non certo terminate. Perché non potrebbe essere così ?
Ma mentre per gli intel le porte di esecuzione sono CONDIVISE con quelle intere e di memoria, su AMD le porte FP sono DEDICATE... ;)
Per INTEL si tratta veramente di prestazioni MASSIME, perchè è difficile che ci siano sfilze di istruzioni FP senza nemmeno una istruzione intera in mezzo... ;)
Mentre per AMD eventuali istruzioni intere fra quelle FP non disturbano affatto... :)
Non è detto. Certo quello è un limite dell'architettura Intel, ma tutte le istruzioni SIMD a livello della FPU sono di fatto lunghe sequenze di istruzioni FP ininterrotte.
paolo.oliva2
13-12-2010, 19:34
Ma mentre per gli intel le porte di esecuzione sono CONDIVISE con quelle intere e di memoria, su AMD le porte FP sono DEDICATE... ;)
Per INTEL si tratta veramente di prestazioni MASSIME, perchè è difficile che ci siano sfilze di istruzioni FP senza nemmeno una istruzione intera in mezzo... ;)
Mentre per AMD eventuali istruzioni intere fra quelle FP non disturbano affatto... :)
Difatti anche in giro per i vari TH, riportano comunque che come quantità di istruzioni eseguibili a ciclo, dove SB sarebbe anche tirato per il collo e pure per i capelli, BD dovrebbe essere ancora nella norma.
Onestamente, non ho mai visto parlare tanto bene di un procio AMD come ora di BD. Anche il più conservativo dei conservativi, mi sembra molto ottimista. Impossibile che tutti si siano drogati...
paolo.oliva2
13-12-2010, 19:36
memoria corta paolone?
http://www.hwupgrade.it/articoli/cpu/1479/comparativa-processori-maggio-2006_10.html
2 maggio 2006: prezzo di UNA cpu fx60 1031$
http://www.hwupgrade.it/articoli/cpu/1611/quad-fx-la-ricetta-amd-per-i-quattro-core_14.html
30 novembre 2006: prezzo di DUE cpu fx70 599$ (300$ l'una :asd:)
Infatti, mi hai mai sentito dire che avevo comprato un FX? Difatti, se era ladrona AMD a quei tempi, non vedo il perché dobbiano santificare Intel ora, no? ;)
Visto che comunque, su 30 anni di commercio di proci, stando di manica larga ne assegnamo 2 ad AMD, i rimanenti 28, a chi andrebbero a carico? Indovina chi aveva il prezzo più alto con 8088/8086-80286-80386SX-80386DX-486SX-486DX-486DX2-486DX4-Pentium 60-Pentium 100-Pentium 120-Pentium MMX e via discorrendo? Tu giudichi la mia memoria corta... A me non sembra :)
Io credo che hai una certa confusione su quanto siano determinanti i northbridge e i southbridge.
Gli NB AMD sono solo dei semplici controller PCI-express 2.0 e non determinano un incremento significativo tra i vari modelli del passato...
Sono i southbridge le vere innovazioni e per Bulldozer la serie SB900 sarà un ulteriore passo avanti.
Non importa se alla fine i NB 900 sono uguali alla serie 800, ci sarà un evoluzione solo con l'introduzione dello standard PCI-express 3.0, ma per il momento questi chipset sono più che sufficienti...
calma...non mischiamo l'euforia dell'aspettativa con la realtà della situazione.
i chipset di BD...rispecchiano fondamentalmente la strategia aziendale di AMD...come da sempre è stato: lo sfruttamento di una tecnologia ben oltre gli standard di Intel (anche se in ritardo).
Se BD si può vantare in parte o totalmente come un prodotto leader da un punto di vista architetturale...perlomeno fino a lga2011...NON trovo i motivi per cui...il lancio di un'architettura avveniristica o particolarmente longeva, non debba essere accompagnata da altrettante features di "servizio".
Lo sò anch'io che sono più che sufficienti per gli utilizzi di massa attuali...ma seguendo lo stesso ragionamento...anche BD8X per un utilizzo domestico...è altrettanto inutile, perchè al di sopra delle reali esigenze.
Quindi se un BD4X è più che sufficiente come un thubanx6 o un SB4x...sia per l'utilizzo che per la piattaforma di riferimento...un BD8X è spropositato.
Perchè una tecnologia particolare come quella racchiusa in BD8x...non può essere accompagnata da bridge di servizio...altrettanto "superiori"??
Questo era il senso del mio intervento...
Lanciare un prodotto ad aprile e maggio 2010...che sarà leader incontrastato, sia per tecnologia che per prestazioni...accompagnato da una serie di chipset uguali ad OGGI con SOLO l'aggiunta di una particolare miglioria per gli accessi alla RAM...è una grandiosa sciocchezza!
OGGi una MB 890GX...completa di tutto, praticamente uguale al 990X (la prima con VGA integrata la seconda con IOMMU)...costa meno di 100 euro ivata
I chipset BD non integreranno pci-ex 3 e usb 3?...bene...una mobo 990x non dovrà costare oltre quanto costerà una mobo 890GX al MOMENTO del lancio della nuova architettura.
Sarà AM3+??? giustamente costerà di più...hanno di fatto rebrandizzato i vecchi chipset?? giustamente per economie di scala costeranno di meno...ergo...la situazione non dovrebbe cambiare di un centesimo.
Magari 150 o 200 euro...personalmente in una MB forse non li spenderei...ma perchè devo acquistare una MB che di fatto è VECCHIA con sopra un bd8x...senza aver la possibilità di scegliere?
non sono l'utente adatto...ma se fossi convinto di acquistare un BD8X...non mi farei certo prendere per i fondelli, con una mobo HIGH OLD :rolleyes:
e con l'aggravante dei 10 mesi di fila...ovvero fino a febbraio/marzo 2011...ad essere ottimisti.
ripeto...personalmente...non me ne frega una cippa...perchè andrò di BD4x...e fino al 2015 sono a posto (grazie ad upgrade futuri)...ma a livello di MKT...non mi pare sarà quel successo in immagine, che si meriterebbe al suo lancio...il BD8X.
capitan_crasy
13-12-2010, 19:47
No, BD X10 sarà anche desktop, come riportato ufficialmente da AMD, perfettamente compatibile con le mobo AM3+.
ehmm... NI...:stordita:
AMD ha descritto il core Komodo come l'erede di Zambezi ma in realtà non ha mai detto che ci sarà la versione 10 core anche per desktop...
Dato che però il progetto Bulldozer è modulare basta non aggiungere o inibire il terzo canale per le DDR3 e il PCI-express 3.0 per portarlo "facilmente" anche sul socket AM3+ ( dipende anche se Intel proporrà SB 10 core per il mercato desktop)...
Scusami e cosa avrebbero in più le mobo 1155 e X68? A me invece sembra che i northbridge AMD siano molto raffinati arrivando a gestire un gran numero di linee PCI-e, mentre la battaglia sta tutta nei southbridge. Sbaglio o con BD arriverà SB950? Da quanto ricordo non mi sembra affatto inferiore (o almeno non tanto da farlo sembrare obsoleto) a quelli Intel :)
infatti...non hanno nulla da invidiare ad Intel.
ma da come ho scritto...si capisce bene, che i futuri 1365, 1155.b e lga2011 desktop...saranno sopra decisamente.
ovvero 3Q e 4Q2011...a partire da una distanza di 3 mesi...rispetto al lancio di BD.
ma cosa pensate?...che Intel a partire dall'estate 2011...faccia le evoluzioni dei chipset così...per sfizio?
Io credo che si intenda proprio quante istruzioni si trovano nella vera e propria fase di esecuzione contemporaneamente. Non certo terminate. Perché non potrebbe essere così ?
.
Ciao cionci,
Certo, la capcità c'è, ma in genere si intende quando hai già la pappina pronta nei registri, e le istruzioni hanno la stessa latenza. Ovvero quando il tuo scheduler ha capito tutto della vita, e non è il caso per il k10, ad es se mischi istruzioni fp a diversa latenza.
Con tutto il rispetto, a me questo discorso di "obsoleto" nei confronti di Intel non lo vedo per nulla (forse serve a giustificare il perché una mobo AMD TOP costa 140€, molto meno di una Intel top?), a parte che poi questa tecnologia nuova a me ad esempio non serve ad una tozza e il più delle volte mi crea più prb che vantaggi..
Ti faccio un esempio banale... Io ho una montatura computerizzata per telescopio Skywatcher NEQ-6 Skyscan (montatura da 1.250€) che si interfaccia al PC solamente con RS232C, ma mi tocca prendere una scheda a parte perché l'RS232C non c'è più nelle nuove mobo... e vai con una scheda PCI :mad: (tra parentesi, credo che il problema che continuino a fare queste interfacce SOLO con RS232C, sia in primis per una compatibilità estrema con tutto l'esistente, ed anche un fattore di affidabilità, in quanto... il cavetto USB supporta lunghezze di cavo tanto quanto quello RS232C?
I SATA III di HD col cacchio che li ho comprati, quando un HD da 1TB SATA III mi costa quanto 3 HD da 2TB SATA II.
In poche parole... se AMD nell'SB850 non ci avesse messo dentro le USB 3.0 e i SATA III ma le mobo fossero costate 50€ in meno, a me non sarebbero di certo dispiaciute.
Finché si tratta di NB, OK, non credo sia possibile upgradare perché mancherebbero i contatti elettrici (PCI-e), ma se ad esempio dovessi sciegliere interfacce tipiche da SB, quali USB 3.0 o SATA III, preferirei acquistarle a parte decidendo io a posteriori se spenderli e/o cosa acquistare, perché con quei 200€ e passa di differenza di costo mobo, di migliore ce ne scappa ed un totale.
Concordo...ma fino ad un certo punto.
Innanzitutto...per maggio 2011, un SSD sata 3 (ovvero con un reale utilizzo di banda che sarà oltre il sataII)...sarà abbordabilissimo. Di fatto...tutte le mobo attuali che abbracciano tale feature, non fanno altro che far risprmiare slot e soldini ai loro possessori.
Stessa cosa usb 3.0 entro il 2011.
Stessa cosa pci-ex 3.0 per il 2012 (se non per la fine del 2011 con le nuove gpu a 28nm)
Ripeto anche a te...perchè ad aprile 2011 il 990fx, il top di AMD, garantirà dei servizi che nel giro di 6 mesi avranno solo le MB di Intel entry level???
BD8X sarà una cpu entry level per l'autunno prossimo??? e non credo proprio.
Perchè non dovrebbe essere altrettanto per i servizi che lo accompagnano?
Come ti ho già detto in passato...anch'io me ne "posso" fregare sia di sata che usb...pazienza...succesivamente all'occorrenza si tira fuori qualche decina di euro e si rinuncia ad uno slot.
Ma per il pci-ex 3.0 non ci sono rimedi. Si dovrà cambiare MB.
Mentre tutti gli acquirenti Intel dall'estate prossima in avanti...saranno a posto....non spenderanno un euro per schede aggiuntive e saranno pronti con il pci-ex.
Tra i motivi che mi legherebbero particolarmente ad AMD...vi è la longevità...
pazienza...mi accontenterò.
capitan_crasy
13-12-2010, 20:10
calma...non mischiamo l'euforia dell'aspettativa con la realtà della situazione.
i chipset di BD...rispecchiano fondamentalmente la strategia aziendale di AMD...come da sempre è stato: lo sfruttamento di una tecnologia ben oltre gli standard di Intel (anche se in ritardo).
Se BD si può vantare in parte o totalmente come un prodotto leader da un punto di vista architetturale...perlomeno fino a lga2011...NON trovo i motivi per cui...il lancio di un'architettura avveniristica o particolarmente longeva, non debba essere accompagnata da altrettante features di "servizio".
Lo sò anch'io che sono più che sufficienti per gli utilizzi di massa attuali...ma seguendo lo stesso ragionamento...anche BD8X per un utilizzo domestico...è altrettanto inutile, perchè al di sopra delle reali esigenze.
Quindi se un BD4X è più che sufficiente come un thubanx6 o un SB4x...sia per l'utilizzo che per la piattaforma di riferimento...un BD8X è spropositato.
Perchè una tecnologia particolare come quella racchiusa in BD8x...non può essere accompagnata da bridge di servizio...altrettanto "superiori"??
Questo era il senso del mio intervento...
Lanciare un prodotto ad aprile e maggio 2010...che sarà leader incontrastato, sia per tecnologia che per prestazioni...accompagnato da una serie di chipset uguali ad OGGI con SOLO l'aggiunta di una particolare miglioria per gli accessi alla RAM...è una grandiosa sciocchezza!
OGGi una MB 890GX...completa di tutto, praticamente uguale al 990X (la prima con VGA integrata la seconda con IOMMU)...costa meno di 100 euro ivata
I chipset BD non integreranno pci-ex 3 e usb 3?...bene...una mobo 990x non dovrà costare oltre quanto costerà una mobo 890GX al MOMENTO del lancio della nuova architettura.
Sarà AM3+??? giustamente costerà di più...hanno di fatto rebrandizzato i vecchi chipset?? giustamente per economie di scala costeranno di meno...ergo...la situazione non dovrebbe cambiare di un centesimo.
Magari 150 o 200 euro...personalmente in una MB forse non li spenderei...ma perchè devo acquistare una MB che di fatto è VECCHIA con sopra un bd8x...senza aver la possibilità di scegliere?
non sono l'utente adatto...ma se fossi convinto di acquistare un BD8X...non mi farei certo prendere per i fondelli, con una mobo HIGH OLD :rolleyes:
e con l'aggravante dei 10 mesi di fila...ovvero fino a febbraio/marzo 2011...ad essere ottimisti.
ripeto...personalmente...non me ne frega una cippa...perchè andrò di BD4x...e fino al 2015 sono a posto (grazie ad upgrade futuri)...ma a livello di MKT...non mi pare sarà quel successo in immagine, che si meriterebbe al suo lancio...il BD8X.
Continui a non capire...
I northbridge solo la parte più statica della piattaforma AMD.
Essi (e te lo ripeto) sono solo dei controller PCI-Express; FINE.
Non hanno rilevanza nelle memorie RAM, non hanno rilevanza nelle prestazioni in termini assoluti e non hanno rilevanza nell'overclock...
E' assolutamente inutile in termini economici proporre dei nuovi NB solo per fare bella figura quando alla fine si avranno le stesse prestazioni di quelli vecchi.
i 980G sono solo di transizione, servono più che altro per sistemi destinati al campo professionale e il fatto che ci sia una IGP ormai vecchia conta come il 2 di picche; anche perchè nessuno sceglierà un sistema BD X8/X6 o X4 per il Games con quella sola IGP.:fagiano:
Inoltre con l'avvento delle APU è totalmente INUTILE spendere tempo e denaro per sviluppare una nuova IGP per poi essere sostituita quasi subito da Trinity..
Quello che conta è il SOUTHBRIDGE e infatti AMD uscita con la serie SB900 nuova di zecca dove altre il SATA3.0 (dove Intel non ha ancora proposto niente) ci saranno le USB 3.0; anche se quest'ultime non sono determinati in senso assoluto di prestazioni o di prestigio in quanto oggi un chip USB 3.0 costa pochissimi dollari...
paolo.oliva2
13-12-2010, 22:01
Concordo...ma fino ad un certo punto.
Innanzitutto...per maggio 2011, un SSD sata 3 (ovvero con un reale utilizzo di banda che sarà oltre il sataII)...sarà abbordabilissimo. Di fatto...tutte le mobo attuali che abbracciano tale feature, non fanno altro che far risprmiare slot e soldini ai loro possessori.
Stessa cosa usb 3.0 entro il 2011.
Stessa cosa pci-ex 3.0 per il 2012 (se non per la fine del 2011 con le nuove gpu a 28nm)
Ripeto anche a te...perchè ad aprile 2011 il 990fx, il top di AMD, garantirà dei servizi che nel giro di 6 mesi avranno solo le MB di Intel entry level???
BD8X sarà una cpu entry level per l'autunno prossimo??? e non credo proprio.
Perchè non dovrebbe essere altrettanto per i servizi che lo accompagnano?
Come ti ho già detto in passato...anch'io me ne "posso" fregare sia di sata che usb...pazienza...succesivamente all'occorrenza si tira fuori qualche decina di euro e si rinuncia ad uno slot.
Ma per il pci-ex 3.0 non ci sono rimedi. Si dovrà cambiare MB.
Mentre tutti gli acquirenti Intel dall'estate prossima in avanti...saranno a posto....non spenderanno un euro per schede aggiuntive e saranno pronti con il pci-ex.
Tra i motivi che mi legherebbero particolarmente ad AMD...vi è la longevità...
pazienza...mi accontenterò.
Non ti seguo, o perlomeno i tuoi presupposti o requisiti sono enormemente differenti dai miei.
Io uso il PC per l'overclock come sfizio, per il gioco, per torrent, come banca dati (sopra i 17 TB), per il telescopio, per internet.
Per soddisfare quanto sopra, i requisiti sono:
Economicità e un ottimo rapporto prezzo/prestazioni.
Fino a qui, diciamo che mi sono potuto permettere 2 1090T, 2 mobo TOP Formula IV, l'aggiornamento al 1100T, 4 banchi di DDR3 2GHz.... e visto che non ho speso nel complesso una grossa cifra, ho potuto acquistare un Waterchiller come sfizio, da infilare in parallelo all'impianto a liquido già in possesso, da accendere quando voglio qualcosa di più, oltre ad HD da 2TB
I SATA III come ti ho detto non li ho neppure guardati, perché, gli SSD potranno calare pure di prezzo, però prova a fare un piccolo calcolo per arrivare a 17TB con degli SSD quanti € si dovrebbero tirare fuori, probabilmente mi ci scapparebbero dei sistemi completi di BD mobo e ram come X4, X6, X8, X10 e anche a venire.
Per le PCI-e 3.0, io onestamente non vedo alcun problema... Ho una 5770 che mi basta ed avanza, non so cosa ci potrei montare sopra per sfruttare la PCI-e 3.0. Tra l'altro, penso che come tutte le cose nuove, vedi gli HD SATA III che avranno un costo/prestazioni conveniente tra 12 mesi circa, quindi che ci sia o che non ci sia, non vedo nel mio caso quale sia la differenza.
Tra parentesi, io vedo il tutto come una questione di prestazioni. Comprare un SSD perché l'SO me lo carica in 15" anziché in 20", io preferisco magari spendere quei soldi in un BD X8 anziché in un BD X4, e magari tenermi la stessa mobo senza PCI-e 3.0 perché tanto non mi cambierebbe una tozza upgradandolo con un BD X10 all'occorrenza.
Per fare un paragone, è come se ci stessimo scandalizzando perché la vettura che compriamo non ha il navigatore satellitare, quando sappiamo benissimo che quando c'è, l'abbiamo pagato dai 1.500€ in su (non ce lo regalano mica), e con quei 1500€ anziché darli a "loro", ci possiamo comprare un n97mini che con 300€ assolve le stesse funzioni ed anche di più (le telefonate il navigatore della vettura non le fa di certo come del resto non ce lo possiamo portare in tasca in giro), e quelle 1200€ risparmiate, possiamo decidere come spenderle, come più ci piace.
Tra parentesi, il problema che tralasciamo, è che se si fosse obbligati a cambiare mobo per prb socket, quello che abbiamo speso nella mobo è OUT, mentre il bel controller RAID su scheda, sarebbe trasportabile. Immagina se IB per fobia Intel richiedesse un socket differente... i dindi spesi in più nella mobo bella fiammante Intel, con tanto di PCI-e 3.0, l'appenderesti al muro come soprammobile? Intel non ha mai mostrato riguardo ai propri clienti in fatto di obbligare cambio socket, sicuramente non quanto AMD. Su queste basi, mi sembra molto più utopistico pensare ad una longevità Intel di mobo...
Mercuri0
13-12-2010, 22:16
Direi che si tratta di risultati impressionanti, praticamente perfino una Zacate renderebbe del tutto inutile l'acquisto di una scheda video entry-level, mentre un Llano (lasciando perdere il discorso larghezza di bus e tipo di memoria che, necessariamente, sarà quella di sistema) dovrebbe alla fine permettere prestazioni da scheda di medio-alto livello.
Nonostante sia da tempo un supporter delle apu (amd e intel) non mi aspettavo potenzialità simili da soluzioni integrate.
In teoria con le Zacate è possibile evitare l'acquisto di schede video da 50 euro mentre con le Lliano perfino quelle da 100 euro, un risultato notevole.
Il bus e il tipo di memoria non lo puoi tralasciare, quindi la GPU di Llano raggiungerà al meglio le prestazioni di una 5570 per desktop, non più.
Il core GPU è in effetti lo stesso (ed è lo stesso della 5670)
paolo.oliva2
13-12-2010, 22:25
ehmm... NI...:stordita:
AMD ha descritto il core Komodo come l'erede di Zambezi ma in realtà non ha mai detto che ci sarà la versione 10 core anche per desktop...
Dato che però il progetto Bulldozer è modulare basta non aggiungere o inibire il terzo canale per le DDR3 e il PCI-express 3.0 per portarlo "facilmente" anche sul socket AM3+ ( dipende anche se Intel proporrà SB 10 core per il mercato desktop)...
Io da qualche parte avevo letto "Server" e "desktop" :cool: .
Comunque non mi farei problemi per la banda. Un BD X8 verrà commercializzato con un dual-channel e con DDR3 max 2133MHz, ed il mix assicurerebbe la banda sufficiente, altrimenti AMD avrebbe agito in diverso modo.
Per quando ci sarà BD X10, lo standard DDR3 sarà prossimo ai 2,5GHz se non superiore, quindi l'aumento di banda del 25% sopperirebbe l'aumento di prestazioni del procio (da X8 a X10).
Chiaramente 2-channel, 3-channel, 4-channel, fanno un'ottima impressione, però c'è una differenza, tra il "nominale" offerto dal numero dei canali, e l'"effettivo" reale usufruibile.
Ogni produttore non penso che abbia come obiettivo la "castrazione" della banda per fare un collo di bottiglia al procio, riducendone le prestazioni. Anzi, a me sembra che si faccia di tutto e di più per rendere il procio più potente possibile.
Bisogna vedere se AMD otterrà dal silicio 2° step, TDP/frequenze migliori del previsto.
Finché ci si limita a 2 core in più allo stesso TDP, l'aumento di frequenza DDR3 da qui ad 1 anno soddisferebbe la richiesta in più... ma se AMD riuscisse ad aumentare anche la frequenza a parità di TDP, le cose cambierebbero e forse ci vorrà qualche cosa di più.
Athlon 64 3000+
13-12-2010, 22:47
Ho una tale voglia matta di prendere Buldozer che quasi quasi lo prenderei all'uscita perchè di aspettare non so se questa volta ce la faccio.
Diciamo che l'abbinamento che voglio io sarà Buldozer x4+ mobo MSI 990X+ 4 gb ddr3-1866(standard Jedec a parte).
Naturalmente spero sempre che la Buldozer x4 sia superiore a Thuban.
capitan_crasy
13-12-2010, 23:38
Io da qualche parte avevo letto "Server" e "desktop" :cool: .
http://www.pctunerup.com/up/results/_201012/20101213232931_ScreenHunter_101.jpg
AMD dice Komodo anche Desktop ma non dice esattamente quanti siano i core...
Comunque non mi farei problemi per la banda. Un BD X8 verrà commercializzato con un dual-channel e con DDR3 max 2133MHz, ed il mix assicurerebbe la banda sufficiente, altrimenti AMD avrebbe agito in diverso modo.
in forma nativa Zambezi avrà il supporto alle DDR3 1886Mhz...
Per quando ci sarà BD X10, lo standard DDR3 sarà prossimo ai 2,5GHz se non superiore, quindi l'aumento di banda del 25% sopperirebbe l'aumento di prestazioni del procio (da X8 a X10).
http://www.pctunerup.com/up/results/_201012/20101213233453_DDR4.jpg
Le DDR3 avranno un massimo di 2133Mhz, che poi saranno l'inizio delle DDR4...
Chiaramente 2-channel, 3-channel, 4-channel, fanno un'ottima impressione, però c'è una differenza, tra il "nominale" offerto dal numero dei canali, e l'"effettivo" reale usufruibile.
Ogni produttore non penso che abbia come obiettivo la "castrazione" della banda per fare un collo di bottiglia al procio, riducendone le prestazioni. Anzi, a me sembra che si faccia di tutto e di più per rendere il procio più potente possibile.
Bisogna vedere se AMD otterrà dal silicio 2° step, TDP/frequenze migliori del previsto.
Finché ci si limita a 2 core in più allo stesso TDP, l'aumento di frequenza DDR3 da qui ad 1 anno soddisferebbe la richiesta in più... ma se AMD riuscisse ad aumentare anche la frequenza a parità di TDP, le cose cambierebbero e forse ci vorrà qualche cosa di più.
Il problema è che il socket AM3+ non potrà gestire il triple channel, quindi se AMD deciderà di produrre una versione di Komodo 10 core Desktop dovrà per forza castrare un canale RAM...
Ho una tale voglia matta di prendere Buldozer che quasi quasi lo prenderei all'uscita perchè di aspettare non so se questa volta ce la faccio.
Diciamo che l'abbinamento che voglio io sarà Buldozer x4+ mobo MSI 990X+ 4 gb ddr3-1866(standard Jedec a parte).
Naturalmente spero sempre che la Buldozer x4 sia superiore a Thuban.
BD in versione 4 core avrà un DIE più piccolo degli attuali 4 core K10 Deneb, quindi dovrebbero avere frequenze alte e prezzi relativamente bassi...
paolo.oliva2
14-12-2010, 01:08
@Capitano.
Comunque, per fare un esempio, un triple channel odierno basato su delle DDR3 1600, sarebbe equivalente pressappoco ad un dual-channel basato però su DDR3 2,2GHz.
http://www.pctunerup.com/up/results/_201012/20101214004150_ddr3.jpg
http://it.wikipedia.org/wiki/DDR3
Però lì si parla di DDR3 2133MHz come max... mentre comunque delle DDR3 certificate >2200MHz le si possono trovare anche ora.
Poi li riporta le DDR2 come 400-800MHz, mentre sono arrivate a 1066MHz, ma che comunque delle DDR2 1200MHz o anche 1300MHz in commercio si trovano.
Comunque l'MC di BD supporta nativamente le 1866, mentre quello del Thuban ufficalmente le 1333, via bios le 1600, sempre nativamente. Ma come il Thuban da 1333 ufficiali supporta sino a 2GHz, BD, partendo da 1866 (+266MHz rispetto al Thuban come 1600, o 530MHz se prendiamo 1333MHz come ufficiale), dovrebbe comunque poter arrivare almeno ai 2,250MHz di DDR3.
Facendo un calcolo alla buona, un triple-channel basato su DDR3 1600, arriverebbe ad una banda massimo teorica di 38,4GB/s, un dual-channel basato su DDR3 2133 arriverebbe ad una banda nominale di 34,128GB/s, e sopra i 35,2GB/s se con DDR3 2,2GHz. Il Thuban con una banda sui 25GB/s è in grado di soddisfare un OC di 4,5GHz. Buldozer certamente chiederà più banda, in specialmodo un X8 e X10. Però, al 33% in più di banda, si andrebbero comunque ad aggiungere le migliorie dell'MC di BD, mi sembra si parlasse di un 25% o più. un dual-channel sfruttato meglio nel complesso (DDR3 + veloci, migliorie dell'MC), equivarrebbe tranquillamente (se non di più) ad un three-channel attuale.
In teoria, almeno teoricamente, il socket AM3+ potrebbe bastare a soddisfare un BD X10 del 2012. Poi, quando arriverà la terza generazione di BD, quella sul 22nm, sicuramente il dual
-channel non basterebbe più, ma del resto, si parlerebbe anche di APU, quindi volenti o nolenti comunque il socket e quindi pure mobo, andrebbero cambiate.
Continui a non capire...
I northbridge solo la parte più statica della piattaforma AMD.
Essi (e te lo ripeto) sono solo dei controller PCI-Express; FINE.
Non hanno rilevanza nelle memorie RAM, non hanno rilevanza nelle prestazioni in termini assoluti e non hanno rilevanza nell'overclock...
E' assolutamente inutile in termini economici proporre dei nuovi NB solo per fare bella figura quando alla fine si avranno le stesse prestazioni di quelli vecchi.
i 980G sono solo di transizione, servono più che altro per sistemi destinati al campo professionale e il fatto che ci sia una IGP ormai vecchia conta come il 2 di picche; anche perchè nessuno sceglierà un sistema BD X8/X6 o X4 per il Games con quella sola IGP.:fagiano:
Inoltre con l'avvento delle APU è totalmente INUTILE spendere tempo e denaro per sviluppare una nuova IGP per poi essere sostituita quasi subito da Trinity..
Quello che conta è il SOUTHBRIDGE e infatti AMD uscita con la serie SB900 nuova di zecca dove altre il SATA3.0 (dove Intel non ha ancora proposto niente) ci saranno le USB 3.0; anche se quest'ultime non sono determinati in senso assoluto di prestazioni o di prestigio in quanto oggi un chip USB 3.0 costa pochissimi dollari...
Comprendo cosa intendi dire...ma il mio ragionamento va ben molto oltre.
il discorso del 980G era legato al 970...in risposta a marchigiano. punto e fine.
Il problema che vedo io...e provo a spiegarmi con altri termini (per l'ennesima volta)...è che AMD adottando una strategia temporale di lancio chipset una sola volta l'anno (che approvo pienamente)...dovrebbe nel contempo ANCHE anticipare...quando è possibile...le esigenze a cavallo di due release chipset.
Tu mi dici che i SB avranno usb 3.0...io ti dico speriamo...perchè uno ne parla mentre dieci non lo menzionano. Infatti sulle slide si legge (ancora) usb 2.0.
un chip nec (o di concorrenza) con due porte...costa un inezia...pazienza...
10 dollari per occupare spazio sulla MB con un paio di chippetti esterni...per assicurare la compatibilità con 4 porticine. Passi pure, non è la morte di nessuno e sono più che sufficienti per il 99% degli utilizzatori.
Il NB è un controller pci ex 2.0...ok...predisporne una circuiteria con pci ex 3.0...a distanza di 6 mesi dalla ratifica non è possibile?...ovvero...prevedere di adottarlo prima marzo 2012 è impossibile?
Suvvia...benchè inutile essenzialmente...è e sarà un ottimo movente per l'acquisto di mobo che lo supporteranno.
sappiamo di lga2011. Ma Ufficiosamente ci sono anche degli ipotetici 1155.b e 1365...cerchiamo di essere obiettivi...non servirà a nessuno il pci ex 3 l'anno prossimo, ma praticamente tutti la vorrano...w il mkt.
Supponiamo che 1155.b e 1365 siano una bufala...e i rumors apparsi sul web circa questi due chipset "dotati"...che dovrebbero apparire nel 3Q...non abbiano alcun fondamento.
Sono sincero...io devo aggiornarmi entro la fine della primavera...quindi BD cade a fagiolo e alla grande.
Altrimenti...IMHO...aspetterei lga2011...ma non tanto perchè Intel è meglio o la preferisco (anzi la odio)...ma mi offrirà nel giro di pochi mesi ciò che AMD mi darà a primavera 2012...e questo nel caso che non vi siano chipset desktop (1155.b e 1365) per SB priva di GPU...
si si...Intel lascerà sicuramente tutto il mercato desktop ad AMD fino al 2012 :rolleyes:
La mobo costerà un patrimonio?...vorrà dire che risparmierò sulla CPU.
A mio parere...con un'architettura nuova, privilegio la mobo piuttosto che la CPU...quest'ultima si può sempre e facilmente upgradare, mentre con la mobo bisogna smontare tutto il pc. Punti di vista.
La mia unica paura...è che Intel se ne esca a cavallo del lancio di BD...con la presentazione dei suddetti chipset desktop...e relativa commercializzazione entro i successivi 3 mesi da BD. Tutto qui.
Comprendo benissimo...che l'acquirente preparato ed accorto, privilegerà BD8X a scanso della MB...perchè sà cosa vuole e come sfruttarlo...MA I VOLUMI...si fanno con i ragazzini, gli ignoranti, i fanboy da brand, i megalomani che vogliono tutto subito anche se non serve e non lo saprebbero usare ed infine gli sboroni...dico bene?
P.S.
Domanda da niubbo...se i NB non hanno rilevanza per la ram...perchè con i 9xx viene decantato IOMMU per migliorare l'I/O??
Comprendo cosa intendi dire...ma il mio ragionamento va ben molto oltre.
il discorso del 980G era legato al 970...in risposta a marchigiano. punto e fine.
Il problema che vedo io...e provo a spiegarmi con altri termini (per l'ennesima volta)...è che AMD adottando una strategia temporale di lancio chipset una sola volta l'anno (che approvo pienamente)...dovrebbe nel contempo ANCHE anticipare...quando è possibile...le esigenze a cavallo di due release chipset.
Tu mi dici che i SB avranno usb 3.0...io ti dico speriamo...perchè uno ne parla mentre dieci non lo menzionano. Infatti sulle slide si legge (ancora) usb 2.0.
un chip nec (o di concorrenza) con due porte...costa un inezia...pazienza...
10 dollari per occupare spazio sulla MB con un paio di chippetti esterni...per assicurare la compatibilità con 4 porticine. Passi pure, non è la morte di nessuno e sono più che sufficienti per il 99% degli utilizzatori.
Il NB è un controller pci ex 2.0...ok...predisporne una circuiteria con pci ex 3.0...a distanza di 6 mesi dalla ratifica non è possibile?...ovvero...prevedere di adottarlo prima marzo 2012 è impossibile?
Suvvia...benchè inutile essenzialmente...è e sarà un ottimo movente per l'acquisto di mobo che lo supporteranno.
sappiamo di lga2011. Ma Ufficiosamente ci sono anche degli ipotetici 1155.b e 1365...cerchiamo di essere obiettivi...non servirà a nessuno il pci ex 3 l'anno prossimo, ma praticamente tutti la vorrano...w il mkt.
Supponiamo che 1155.b e 1365 siano una bufala...e i rumors apparsi sul web circa questi due chipset "dotati"...che dovrebbero apparire nel 3Q...non abbiano alcun fondamento.
Sono sincero...io devo aggiornarmi entro la fine della primavera...quindi BD cade a fagiolo e alla grande.
Altrimenti...IMHO...aspetterei lga2011...ma non tanto perchè Intel è meglio o la preferisco (anzi la odio)...ma mi offrirà nel giro di pochi mesi ciò che AMD mi darà a primavera 2012...e questo nel caso che non vi siano chipset desktop (1155.b e 1365) per SB priva di GPU...
si si...Intel lascerà sicuramente tutto il mercato desktop ad AMD fino al 2012 :rolleyes:
La mobo costerà un patrimonio?...vorrà dire che risparmierò sulla CPU.
A mio parere...con un'architettura nuova, privilegio la mobo piuttosto che la CPU...quest'ultima si può sempre e facilmente upgradare, mentre con la mobo bisogna smontare tutto il pc. Punti di vista.
La mia unica paura...è che Intel se ne esca a cavallo del lancio di BD...con la presentazione dei suddetti chipset desktop...e relativa commercializzazione entro i successivi 3 mesi da BD. Tutto qui.
Comprendo benissimo...che l'acquirente preparato ed accorto, privilegerà BD8X a scanso della MB...perchè sà cosa vuole e come sfruttarlo...MA I VOLUMI...si fanno con i ragazzini, gli ignoranti, i fanboy da brand, i megalomani che vogliono tutto subito anche se non serve e non lo saprebbero usare ed infine gli sboroni...dico bene?
P.S.
Domanda da niubbo...se i NB non hanno rilevanza per la ram...perchè con i 9xx viene decantato IOMMU per migliorare l'I/O??
Francamente non sono d'accordo.
Il socket 1365 cosa offrirà di nuovo ? Il pci express 3.0 ? Come hai giustamente detto, è perfettamente inutile, visto che anche una 5970 satura a malapena il pci express 1.0, servirà un bel pò di tempo prima che il 2.0 diventi insufficiente.
Al contrario, AMD offre oggi il sata III integrato nel SB850 e quasi tutte le mobo hanno almeno due porte usb3.
Quindi casomai è amd che sta avanti.
Non ti seguo, o perlomeno i tuoi presupposti o requisiti sono enormemente differenti dai miei.
Io uso il PC per l'overclock come sfizio, per il gioco, per torrent, come banca dati (sopra i 17 TB), per il telescopio, per internet.
Per soddisfare quanto sopra, i requisiti sono:
Economicità e un ottimo rapporto prezzo/prestazioni.
Fino a qui, diciamo che mi sono potuto permettere 2 1090T, 2 mobo TOP Formula IV, l'aggiornamento al 1100T, 4 banchi di DDR3 2GHz.... e visto che non ho speso nel complesso una grossa cifra, ho potuto acquistare un Waterchiller come sfizio, da infilare in parallelo all'impianto a liquido già in possesso, da accendere quando voglio qualcosa di più, oltre ad HD da 2TB
I SATA III come ti ho detto non li ho neppure guardati, perché, gli SSD potranno calare pure di prezzo, però prova a fare un piccolo calcolo per arrivare a 17TB con degli SSD quanti € si dovrebbero tirare fuori, probabilmente mi ci scapparebbero dei sistemi completi di BD mobo e ram come X4, X6, X8, X10 e anche a venire.
Per le PCI-e 3.0, io onestamente non vedo alcun problema... Ho una 5770 che mi basta ed avanza, non so cosa ci potrei montare sopra per sfruttare la PCI-e 3.0. Tra l'altro, penso che come tutte le cose nuove, vedi gli HD SATA III che avranno un costo/prestazioni conveniente tra 12 mesi circa, quindi che ci sia o che non ci sia, non vedo nel mio caso quale sia la differenza.
Tra parentesi, io vedo il tutto come una questione di prestazioni. Comprare un SSD perché l'SO me lo carica in 15" anziché in 20", io preferisco magari spendere quei soldi in un BD X8 anziché in un BD X4, e magari tenermi la stessa mobo senza PCI-e 3.0 perché tanto non mi cambierebbe una tozza upgradandolo con un BD X10 all'occorrenza.
Per fare un paragone, è come se ci stessimo scandalizzando perché la vettura che compriamo non ha il navigatore satellitare, quando sappiamo benissimo che quando c'è, l'abbiamo pagato dai 1.500€ in su (non ce lo regalano mica), e con quei 1500€ anziché darli a "loro", ci possiamo comprare un n97mini che con 300€ assolve le stesse funzioni ed anche di più (le telefonate il navigatore della vettura non le fa di certo come del resto non ce lo possiamo portare in tasca in giro), e quelle 1200€ risparmiate, possiamo decidere come spenderle, come più ci piace.
Tra parentesi, il problema che tralasciamo, è che se si fosse obbligati a cambiare mobo per prb socket, quello che abbiamo speso nella mobo è OUT, mentre il bel controller RAID su scheda, sarebbe trasportabile. Immagina se IB per fobia Intel richiedesse un socket differente... i dindi spesi in più nella mobo bella fiammante Intel, con tanto di PCI-e 3.0, l'appenderesti al muro come soprammobile? Intel non ha mai mostrato riguardo ai propri clienti in fatto di obbligare cambio socket, sicuramente non quanto AMD. Su queste basi, mi sembra molto più utopistico pensare ad una longevità Intel di mobo...
sono d'accordo con riserva...e per niente sull'ultimo capoverso.
la penso come te...praticamente su tutto ma con questa riserva:
Non è importante cosa serva veramente oppure no...ciò che conta è la SCELTA.
la scelta...
- presume un attenzione al cliente
- presume una varietà di offerta tra i produttori in tutte le salse
- presume un guadagno in immagine
- presume una solidità del prodotto percepita grazie ai tre punti di cui sopra.
Perchè rinunciare a tutto questo?
Invece per quanto riguarda l'ultimo capoverso...un socket differente non è previsto al momento, quindi l'ipotesi cade.
IB sarà PERLOMENO su socket lga 2011 DESKTOP, garantirà pci-ex 3.0 e forse anche usb 3.0 (da confermare)...e ovviamente in quad channel. Lancio previsto, salvo smentite, a partire dal 1 luglio 2011 :mad:
Francamente non sono d'accordo.
Il socket 1365 cosa offrirà di nuovo ? Il pci express 3.0 ? Come hai giustamente detto, è perfettamente inutile, visto che anche una 5970 satura a malapena il pci express 1.0, servirà un bel pò di tempo prima che il 2.0 diventi insufficiente.
Al contrario, AMD offre oggi il sata III integrato nel SB850 e quasi tutte le mobo hanno almeno due porte usb3.
Quindi casomai è amd che sta avanti.
Non è una questione di utilità immediata...ma di MKT!!!
Se si vuole scarozzare intel da quel benedetto 80% di share...è necessario lavorare sull'immagine. La gente piuttosto che prendere un BD con mobo senza features...aspetta IB!!!
Tutto ciò che affermi è vero in toto...MA...lo sappiamo io, te e chi legge i forum o il web informandosi...ovvero il 5% dei potenziali acquirenti.
E il successo che possiamo garantire noialtri, nel mucchio...ha del pietoso, in confronto alla totalità.
Lietissimo di essere contraddetto dai fatti...è possibile ma improbabile...
l'architettura c'è eccome...è la strategia del contorno che fa acqua da tutte le parti...tutto dipende da come Intel reagirà durante il 3Q con IB.
Infatti, mi hai mai sentito dire che avevo comprato un FX? Difatti, se era ladrona AMD a quei tempi, non vedo il perché dobbiano santificare Intel ora, no? ;)
Visto che comunque, su 30 anni di commercio di proci, stando di manica larga ne assegnamo 2 ad AMD, i rimanenti 28, a chi andrebbero a carico? Indovina chi aveva il prezzo più alto con 8088/8086-80286-80386SX-80386DX-486SX-486DX-486DX2-486DX4-Pentium 60-Pentium 100-Pentium 120-Pentium MMX e via discorrendo? Tu giudichi la mia memoria corta... A me non sembra :)
si ma che centra chi lo ha fatto più volte?
tu hai scritto
"Non è una bella figura certamente un SB X4 top a 400$ all'uscita e dopo 2 mesi a 200$ se non meno... non è una perdita di faccia?"
risposta NO poiche lo fanno sia intel che amd da sempre, è il mercato che funziona così e vale anche per il resto dell' elttronica se non te ne sei accorto.
che poi il tuo volgia essere un modo per dare addosso ad intel ok, sta di fatto che giusto o non giusto avviene sempre sta cosa e non solo per le cpu.
Non è una questione di utilità immediata...ma di MKT!!!
Se si vuole scarozzare intel da quel benedetto 80% di share...è necessario lavorare sull'immagine. La gente piuttosto che prendere un BD con mobo senza features...aspetta IB!!!
Tutto ciò che affermi è vero in toto...MA...lo sappiamo io, te e chi legge i forum o il web informandosi...ovvero il 5% dei potenziali acquirenti.
E il successo che possiamo garantire noialtri, nel mucchio...ha del pietoso, in confronto alla totalità.
Lietissimo di essere contraddetto dai fatti...è possibile ma improbabile...
l'architettura c'è eccome...è la strategia del contorno che fa acqua da tutte le parti...tutto dipende da come Intel reagirà durante il 3Q con IB.
sarebbe comunque fuori strategia da parte di amd... andando a ritroso, amd è sempre stata più lenta di intel ad adottare nuovi standard sulle ram ( e aveva i suoi buoni motivi, ovvero il controller memoria integrato ) ma per quanto riguarda gli altri standard è sempre stata un passo avanti... quando c'era il passaggio da agp a pci-ex si son viste solo mobo amd a proporre entrambi gli standard insieme, il passaggio al pci-ex 2.0 è stato fatto dai chipset amd ( e dalle schede video ati) ben prima della concorrenza, il passaggio al sata2 idem, e ricordo che intel ha tolto da anni il controller eide dai suoi chipset, affindandosi a chip esterni per la gesione di un controller ide (2 sole periferiche) quando la maggior parte dei computer andava avanti ancora a dischi ide, e amd offriva 4 sata + 4 ide praticamente su qualunque scheda madre... il fatto è che intel sbandiera, amd di solito no... e sinceramente se scegliesse di non offrire pci-ex 3.0 si ritroverebbe nella condizione di intel coi core 2, eppure intel ne ha venduti di cpu e mobo... quello che dici tu può aver senso, ma è indipendente dalle feratures, i fanboy, la gente che neanche sa che amd esiste, quelli che comprano il pc al supermercato... non solo del pci-express 3.0 non se ne fanno niente, ma aanche se lo offrisse pure amd cambierebbe molto molto poco... e se tu vorrai prenderti lga2011 perchè ha pci-ex 3.0, pur sapendo che tanto non lo sfrutterai praticamente mai prima di ricambiare mobo... beh, allora non ho ancora capito perchè :D
paolo.oliva2
14-12-2010, 09:44
si ma che centra chi lo ha fatto più volte?
tu hai scritto
"Non è una bella figura certamente un SB X4 top a 400$ all'uscita e dopo 2 mesi a 200$ se non meno... non è una perdita di faccia?"
risposta NO poiche lo fanno sia intel che amd da sempre, è il mercato che funziona così e vale anche per il resto dell' elttronica se non te ne sei accorto.
che poi il tuo volgia essere un modo per dare addosso ad intel ok, sta di fatto che giusto o non giusto avviene sempre sta cosa e non solo per le cpu.
Forse non hai capito il nocciolo...
Io una speranza con AMD di pagare un BD X8 a 400€ ce la posso avere, con Intel non aspetto di certo un SB X8 con la speranza di pagarlo quanto un SB X4 top, perché non ci sarà mai.
Non è dare addosso, è la realtà.
Se AMD ha un rapporto prestazioni/prezzo migliore di Intel, è un dato di fatto, è attuale. Il perché, percome, non importa una mazza al mio portafoglio, ed è inutile non ammetterlo o ingigantire le prestazioni dei proci Intel per far credere che il prezzo sia onesto. Se AMD chiederà 1800€ per un BD X8 e Intel venderà IB X10 a 300€, io prenderò Intel. Ma credo sia inutile dire che ho molti dubbi in proposito.
L'esempio che ti ho fatto sopra di SB a 390$ è tipico, perché anche se per solo 2-3 mesi, Intel appiopperà il prezzo max possibile (mitigato dal fatto che difficilmente un SB X4 anche se top andrà il doppio di un 1100T, come invece il prezzo farebbe supporre), dopodiché sarà costretta a calarlo, ma non perché si santifica, semplicemente perché ci sarà BD. Ora sono curioso di vedere se AMD farà la stessa cosa, cioé entrambe le ditte sono ditte commerciali, entrambe si ritroverebbero nella situazione di avere il prodotto migliore... quindi AMD, seguendo il tuo ragionamento, BD X6 e BD X8 dovrebbero avere un prezzo superiore all'i980X di Intel. Io aspetto... perché per me invece sarà più basso. Poi tu ci puoi trovare tutti i perché e percome, ma io continuo a credere che un BD X8 me lo porterò a casa con 400-500€.
Non si può essere fan di PC e accettare per ogni modello superiore di procio che concede un +5% al max, si applichi il raddoppio del prezzo di listino. E' un'offesa al prezzo/prestazioni. Posso capire al 100% il motivo merceologico, ma continuo a ringraziare che fortunatamente sono in 2 a vendere i proci, perché altrimenti sarebbe finita. Senza AMD, SB avrebbe lo stesso listino degli i7 X4 all'uscita, forse pure di più.
Se una ditta ditta ha applicato da SEMPRE il prezzo più alto per 30 anni, ed un'altra solo per 1 anno lo ha eguagliato (MA NON SUPERATO), per me non è corretto fare di tutta un'erba un fascio. AMD, altre volte ha superato Intel in prestazioni, mantenendo comunque un prezzo più basso. Nei 486DX4, era davanti ad Intel, anche per il clock superiore, ma costava il 30% in meno rispetto ad un 486DX2 Intel. Per me Intel si è sempre evidenziata di più nei prezzi alti che nelle prestazioni, evidenziarlo non è una volgia, anzi, è una volgia non volerlo ammettere a tutti i costi.
capitan_crasy
14-12-2010, 09:56
Comprendo cosa intendi dire...ma il mio ragionamento va ben molto oltre.
il discorso del 980G era legato al 970...in risposta a marchigiano. punto e fine.
Il problema che vedo io...e provo a spiegarmi con altri termini (per l'ennesima volta)...è che AMD adottando una strategia temporale di lancio chipset una sola volta l'anno (che approvo pienamente)...dovrebbe nel contempo ANCHE anticipare...quando è possibile...le esigenze a cavallo di due release chipset.
Tu mi dici che i SB avranno usb 3.0...io ti dico speriamo...perchè uno ne parla mentre dieci non lo menzionano. Infatti sulle slide si legge (ancora) usb 2.0.
un chip nec (o di concorrenza) con due porte...costa un inezia...pazienza...
10 dollari per occupare spazio sulla MB con un paio di chippetti esterni...per assicurare la compatibilità con 4 porticine. Passi pure, non è la morte di nessuno e sono più che sufficienti per il 99% degli utilizzatori.
Il NB è un controller pci ex 2.0...ok...predisporne una circuiteria con pci ex 3.0...a distanza di 6 mesi dalla ratifica non è possibile?...ovvero...prevedere di adottarlo prima marzo 2012 è impossibile?
Suvvia...benchè inutile essenzialmente...è e sarà un ottimo movente per l'acquisto di mobo che lo supporteranno.
sappiamo di lga2011. Ma Ufficiosamente ci sono anche degli ipotetici 1155.b e 1365...cerchiamo di essere obiettivi...non servirà a nessuno il pci ex 3 l'anno prossimo, ma praticamente tutti la vorrano...w il mkt.
Supponiamo che 1155.b e 1365 siano una bufala...e i rumors apparsi sul web circa questi due chipset "dotati"...che dovrebbero apparire nel 3Q...non abbiano alcun fondamento.
Sono sincero...io devo aggiornarmi entro la fine della primavera...quindi BD cade a fagiolo e alla grande.
Altrimenti...IMHO...aspetterei lga2011...ma non tanto perchè Intel è meglio o la preferisco (anzi la odio)...ma mi offrirà nel giro di pochi mesi ciò che AMD mi darà a primavera 2012...e questo nel caso che non vi siano chipset desktop (1155.b e 1365) per SB priva di GPU...
si si...Intel lascerà sicuramente tutto il mercato desktop ad AMD fino al 2012 :rolleyes:
La mobo costerà un patrimonio?...vorrà dire che risparmierò sulla CPU.
A mio parere...con un'architettura nuova, privilegio la mobo piuttosto che la CPU...quest'ultima si può sempre e facilmente upgradare, mentre con la mobo bisogna smontare tutto il pc. Punti di vista.
La mia unica paura...è che Intel se ne esca a cavallo del lancio di BD...con la presentazione dei suddetti chipset desktop...e relativa commercializzazione entro i successivi 3 mesi da BD. Tutto qui.
Comprendo benissimo...che l'acquirente preparato ed accorto, privilegerà BD8X a scanso della MB...perchè sà cosa vuole e come sfruttarlo...MA I VOLUMI...si fanno con i ragazzini, gli ignoranti, i fanboy da brand, i megalomani che vogliono tutto subito anche se non serve e non lo saprebbero usare ed infine gli sboroni...dico bene?
P.S.
Domanda da niubbo...se i NB non hanno rilevanza per la ram...perchè con i 9xx viene decantato IOMMU per migliorare l'I/O??
Chiariamo una cosa:
Le specifiche definitive PCI-Express 3.0 sono state rilasciate a fine novembre di quest'anno e non 6 mesi fa; anche seguendo il tuo ragionamento AMD doveva anticipare queste caratteristiche per rischiare ad aprile chipset non adatti alle specifiche definitive...
Se Intel ha più mezzi e più soldi per anticipare le caratteristiche ufficiale ad AMD poco importa e sinceramente senza una nuova GPU con PCI-Express 3.0 o qualsiasi altro prodotto che saturi o solo trai beneficio è l'apoteosi dell'inutilità...
Se poi hai questa idea che per te sia meglio un sistema con questa nuova tecnologia saltando a piè pari il discorso prezzo/prestazioni/consumo della CPU va bene così, per me il discorso finisce qui...
Forse non hai capito il nocciolo...
Io una speranza con AMD di pagare un BD X8 a 400€ ce la posso avere, con Intel non l'avrò mai di prendere un SB X8 a quella cifra.
Non è dare addosso, è la realtà.
Se AMD ha un rapporto prestazioni/prezzo migliore di Intel, è un dato di fatto, è attuale. Il perché, percome, non importa una mazza al mio portafoglio, ed è inutile non ammetterlo o ingigantire le prestazioni dei proci Intel per far credere che il prezzo sia onesto. Se AMD chiederà 1800€ per un BD X8 e Intel venderà IB X10 a 300€, io prenderò Intel. Ma credo sia inutile dire che ho molti dubbi in proposito.
L'esempio che ti ho fatto sopra di SB a 390$ è l'esempio, perché anche se per solo 2-3 mesi, Intel appiopperà il prezzo max possibile, dopodiché sarà costretta a calarlo, ma non perché si santifica, semplicemente perché c'è BD. Ora sono curioso di vedere se AMD farà la stessa cosa, cioé entrambe le ditte sono ditte commerciali, entrambe si ritroverebbero nella situazione di avere il prodotto migliore... quindi AMD, seguendo il tuo ragionamento, BD X6 e BD X8 dovrebbero avere un prezzo superiore all'i980X di Intel. Io aspetto... perché per me invece sarà più basso. Poi tu ci puoi trovare tutti i perché e percome, ma io continuo a credere che un BD X8 me lo porterò a casa con 400-500€.
continui a non capire
poniamo che un bd8x costi 400€.
se un x8 intel andasse uguale probabilmente non lo troveresti a tanti € in più magari a 450€
ovvio che se sto x8 intel andasse di più di qualunque altra cpu amd x8 lo trovi a 999€
dipende sempre da cosa propone l'avversario indipendentemente da chi è .
poi ovvio che amd mantiene comunque un rapporto prezzo prestazionei mediamente migliore per recuperare quote di mercato.
non sta a me ricordarti che i primi dual core intel costavano MENO di quelli amd...
capitan_crasy
14-12-2010, 10:10
Non è una questione di utilità immediata...ma di MKT!!!
Se si vuole scarozzare intel da quel benedetto 80% di share...è necessario lavorare sull'immagine. La gente piuttosto che prendere un BD con mobo senza features...aspetta IB!!!
Credo che la tua visione sia alquanto distorta...
Intel è più avanti non perchè è la più brava, ma perchè è la più ricca e la più "furba"...
E non sarà certo anticipando una tecnologia come il PCI-Express 3.0 che "guadagnerà" posizioni di mercato...
Tutto ciò che affermi è vero in toto...MA...lo sappiamo io, te e chi legge i forum o il web informandosi...ovvero il 5% dei potenziali acquirenti.
Ma anche no...
Il popolo dei Forum rappresenta 1% e anche se fossimo il 10% non significa che quella percentuale prenderà all'unisono la migliore tecnologia disponibile sul mercato...
Il mercato vero si chiama OEM e certamente non stanno a guardare quale CPU faccia meglio il Super PI per scegliere il numero ordini...
La vera "guerra" sta proprio li, ovvero sulla battaglia dei prezzi e de li che si gioca le percentuali di mercato...
Lietissimo di essere contraddetto dai fatti...è possibile ma improbabile...
l'architettura c'è eccome...è la strategia del contorno che fa acqua da tutte le parti...tutto dipende da come Intel reagirà durante il 3Q con IB.
La domanda è perchè Intel ha anticipato i 22nm?
Forse i suoi 32nm non sono così buoni oppure la concorrenza ha i 32nm migliori dei suoi, o forse vuole solo dormire sogni tranquilli...
E chi lo sa...:O
paolo.oliva2
14-12-2010, 10:36
Ma il 22nm non è previsto per Intel nel 2012 in volumi? 1Q-2Q?
Addirittura SB X6 e X8, ancora nel 32nm, sarebbero previsti nel finire del 2011... come fa ad esserci il 22nm prima? Mi sono perso qualche cosa?
Io credo che si intenda proprio quante istruzioni si trovano nella vera e propria fase di esecuzione contemporaneamente. Non certo terminate. Perché non potrebbe essere così ?
Non è detto. Certo quello è un limite dell'architettura Intel, ma tutte le istruzioni SIMD a livello della FPU sono di fatto lunghe sequenze di istruzioni FP ininterrotte.
Beh, ma per i cicli, si usa il registro CX, INC, DEC e i vari JNE ecc... ;) Sono sempre istruzioni intere... ;)
capitan_crasy
14-12-2010, 11:36
Ma il 22nm non è previsto per Intel nel 2012 in volumi? 1Q-2Q?
Addirittura SB X6 e X8, ancora nel 32nm, sarebbero previsti nel finire del 2011... come fa ad esserci il 22nm prima? Mi sono perso qualche cosa?
Non bisogna fare troppo caso alle decisioni di Intel...
Ha il suo mercato e sicuramente avrà dei buoni motivi per anticipare i 22nm...
Comunque sia restiamo sui 32nm SOI di AMD...;)
capitan_crasy
14-12-2010, 11:38
Notizia di Hwupgrade del 14.12.2010
"Al CES di Las Vegas, evento che aprirà i battenti i primi giorni del prossimo mese di Gennaio, AMD presenterà assieme ai propri partner le prime soluzioni appartenenti alla famiglia Brazos, nome che identifica prodotti per sistemi di ridotte dimensioni che integreranno CPU e GPU in un singolo componente.
Queste soluzioni saranno le prime appartenenti alla famiglia AMD Fusion a debuttare sul mercato, seguite nel giro di alcuni mesi dalle proposte Llano indirizzate al segmento di fascia medio alta del mercato sia per sistemi desktop come per quelli notebook.
Queste le architetture di APU che AMD renderà disponibili al debutto della piattaforma Brazos:
AMD E-350 with AMD Radeon™ HD 6310 Graphics (dual-core CPU @ 1.6GHz & dual DX-11 SIMDs @ 500MHz)
AMD E-240 with AMD Radeon™ HD 6310 Graphics (single-core CPU @ 1.5GHz & dual DX-11 SIMDs @ 500MHz)
AMD C-50 with AMD Radeon™ HD 6250 Graphics (dual-core CPU @ 1.0GHz & dual DX-11 SIMDs @ 280MHz)
AMD C-30 with AMD Radeon™ HD 6250 Graphics (singlel-core CPU @ 1.2GHz & dual DX-11 SIMDs @ 280MHz)
Le soluzioni della serie E sono caratterizzati da un TDP massimo pari a 18 Watt, basate su architettura Zacate; per le proposte della famiglia C troveremo invece TDP massimo pari a 9 Watt con architettura Ontario. Per entrambe le famiglie avremo versioni single e dual core, differenziate tra di loro per il sottosistema grafico integrato e per la frequenza di clock.
I prezzi dei primi sistemi netbook basati su architettura Brazos dovrebbero partire da una soglia attorno ai 350 dollari USA, secondo quando anticipato da Godfrey Cheng, direttore in AMD della client technology unit; la notizia è stata riportata dal sito xbitlabs a questo indirizzo (http://www.xbitlabs.com/news/mobile/display/20101212151159_Price_of_AMD_Fusion_Based_Computers_to_Start_at_349.html). Questo conferma quanto già precedentemente emerso nel corso di conversazioni con AMD: l'azienda americana, assieme ai propri partner, vuole proporre la prima generazione di soluzioni Fusion al debutto sul mercato in segmenti di prezzo accessibili alla maggior parte degli utenti, cercando in questo modo di guadagnare sensibili quote di mercato rispetto a quanto attualmente detenuto."
Clicca qui... (http://www.hwupgrade.it/news/portatili/prezzi-molto-accessibili-per-i-primi-sistemi-amd-fusion_34757.html)
Non è una questione di utilità immediata...ma di MKT!!!
Se si vuole scarozzare intel da quel benedetto 80% di share...è necessario lavorare sull'immagine. La gente piuttosto che prendere un BD con mobo senza features...aspetta IB!!!
Tutto ciò che affermi è vero in toto...MA...lo sappiamo io, te e chi legge i forum o il web informandosi...ovvero il 5% dei potenziali acquirenti.
E il successo che possiamo garantire noialtri, nel mucchio...ha del pietoso, in confronto alla totalità.
Lietissimo di essere contraddetto dai fatti...è possibile ma improbabile...
l'architettura c'è eccome...è la strategia del contorno che fa acqua da tutte le parti...tutto dipende da come Intel reagirà durante il 3Q con IB.
..tristemente e totalmente d'accordo con te in tutto queello che dici :(
Credo che la tua visione sia alquanto distorta...
Intel è più avanti non perchè è la più brava, ma perchè è la più ricca e la più "furba"...
E non sarà certo anticipando una tecnologia come il PCI-Express 3.0 che "guadagnerà" posizioni di mercato...
Capt. , come giustamente dici Intel vende molto di piu' perche' piu' furba e piu' ricca.. ma a mio parere non solo: e' anche piu' consapevole di AMD delle dinamiche controverse del mercato, e dell'ignoranza dilagante che caratterizza "il cliente medio" (l'80% almeno dei potenziali clienti). Come diceva dany700, infatti, la maggior parte dei potenziali clienti sono gente ignorante da centro commerciale e non certo la gente informata che scrive e legge i post qui! Bastera' far credere che il PCI-ex 3.0 sia il meglio del meglio e loro prenderanno Intel magari anche solo per quello, essendo pure felici di spendere di piu' per avere una piattaforma, magari pure meno performante! O_o"
In definitiva: Intel non e' solo il primo produttore di chip X86 al mondo perche' e' furba, ha tanti soldi ed "inquina" il mercato con le sue dimostrate mafiosate.. ma lo e' soprattutto perche' investe moltissimo in marketing, contrariamente ad AMD.. :S
Con BD AMD si giochera' davvero' tanto.. troppo per permettersi che sia un progetto poco remunerativo! Per riuscire nell'impresa non dovra' solamente convincere dal punto di vista prestazionale (e sono sicuro che lo fara'), ma soprattutto dare un'immagine di se', del proprio marchio e quindi dei propri processori molto diversa da quella ce ultimamente sta passando (ovvero processori economici, di serie-b che vanno un po' di meno ma che "convengono al portafogli").
Se una ditta ditta ha applicato da SEMPRE il prezzo più alto per 30 anni, ed un'altra solo per 1 anno lo ha eguagliato (MA NON SUPERATO), per me non è corretto fare di tutta un'erba un fascio. AMD, altre volte ha superato Intel in prestazioni, mantenendo comunque un prezzo più basso. Nei 486DX4, era davanti ad Intel, anche per il clock superiore, ma costava il 30% in meno rispetto ad un 486DX2 Intel. Per me Intel si è sempre evidenziata di più nei prezzi alti che nelle prestazioni, evidenziarlo non è una volgia, anzi, è una volgia non volerlo ammettere a tutti i costi.
Il fatto che Intel tenga molto alti i prezzi non e' solo un modo per guadagnare di piu', ma fa ovviamente anche parte del marketing: ingenuamente la massa delle persone e' convinta che piu' soldi spende, piu' avra' il prodotto qualitativamente valido, ed e' altresi' convinta che per avere il prodotto piu' valido dovra' spendere di piu'!
Apple ad esempio ha capito molto bene ad esempio questa cosa, tant'e' che sul "culto" del prezzo (giustificato certo primariamente dal design) ci ha costruito l'immagine di prodotto "fashion", "di lusso", proponensosi quindi come il desiderio "quasi proibito", lo "sfizio" che l'acquirente generico vorra' (se potra') a tutti i costi!
Ma anche no...
Il popolo dei Forum rappresenta 1% e anche se fossimo il 10% non significa che quella percentuale prenderà all'unisono la migliore tecnologia disponibile sul mercato...
Il mercato vero si chiama OEM e certamente non stanno a guardare quale CPU faccia meglio il Super PI per scegliere il numero ordini...
La vera "guerra" sta proprio li, ovvero sulla battaglia dei prezzi e de li che si gioca le percentuali di mercato...
Quello che dici e' vero, tuttavia c'e' da ammettere che molte persone di fronte a due computer "OEM" proposti per dire in un centro commerciale prenderebbero quello con Intel, pur inferiore prestazinalmente e superiore di prezzo, solo perche' alla tv hanno sentito la musichetta o peggio ancora hanno sentito i pareri dell'amico dello zio del nipote di quel tale che si spaccia per smanettone di informatica che diceva che Intel rulez & AMD fa schifo.. :(
E' su queste cose che AMD deve davvero investire, a mio parere! :cry:
http://www.semiaccurate.com/forums/showpost.php?p=88582&postcount=209
In questo post JF-AMD rivela l'esistenza di una CPU Buldozer C32, X8 da 35W... :eek:
Notizia di Hwupgrade del 14.12.2010
"Al CES di Las Vegas, evento che aprirà i battenti i primi giorni del prossimo mese di Gennaio, AMD presenterà assieme ai propri partner le prime soluzioni appartenenti alla famiglia Brazos, nome che identifica prodotti per sistemi di ridotte dimensioni che integreranno CPU e GPU in un singolo componente.
Queste soluzioni saranno le prime appartenenti alla famiglia AMD Fusion a debuttare sul mercato, seguite nel giro di alcuni mesi dalle proposte Llano indirizzate al segmento di fascia medio alta del mercato sia per sistemi desktop come per quelli notebook.
Queste le architetture di APU che AMD renderà disponibili al debutto della piattaforma Brazos:
AMD E-350 with AMD Radeon™ HD 6310 Graphics (dual-core CPU @ 1.6GHz & dual DX-11 SIMDs @ 500MHz)
AMD E-240 with AMD Radeon™ HD 6310 Graphics (single-core CPU @ 1.5GHz & dual DX-11 SIMDs @ 500MHz)
AMD C-50 with AMD Radeon™ HD 6250 Graphics (dual-core CPU @ 1.0GHz & dual DX-11 SIMDs @ 280MHz)
AMD C-30 with AMD Radeon™ HD 6250 Graphics (dual-core CPU @ 1.2GHz & dual DX-11 SIMDs @ 280MHz)
Le soluzioni della serie E sono caratterizzati da un TDP massimo pari a 18 Watt, basate su architettura Zacate; per le proposte della famiglia C troveremo invece TDP massimo pari a 9 Watt con architettura Ontario. Per entrambe le famiglie avremo versioni single e dual core, differenziate tra di loro per il sottosistema grafico integrato e per la frequenza di clock.
I prezzi dei primi sistemi netbook basati su architettura Brazos dovrebbero partire da una soglia attorno ai 350 dollari USA, secondo quando anticipato da Godfrey Cheng, direttore in AMD della client technology unit; la notizia è stata riportata dal sito xbitlabs a questo indirizzo (http://www.xbitlabs.com/news/mobile/display/20101212151159_Price_of_AMD_Fusion_Based_Computers_to_Start_at_349.html). Questo conferma quanto già precedentemente emerso nel corso di conversazioni con AMD: l'azienda americana, assieme ai propri partner, vuole proporre la prima generazione di soluzioni Fusion al debutto sul mercato in segmenti di prezzo accessibili alla maggior parte degli utenti, cercando in questo modo di guadagnare sensibili quote di mercato rispetto a quanto attualmente detenuto."
Clicca qui... (http://www.hwupgrade.it/news/portatili/prezzi-molto-accessibili-per-i-primi-sistemi-amd-fusion_34757.html)
Ma un funzionario altolocato all'interno di AMD non aveva detto che le frequenze e altri dettagli non erano stati ancora finalizzati? Come fanno a dire le frequenze esatte?
http://www.semiaccurate.com/forums/showpost.php?p=88582&postcount=209
In questo post JF-AMD rivela l'esistenza di una CPU Buldozer C32, X8 da 35W... :eek:
..bisogna vedere la frequenza.. pero' e' una cosa PAZZESCA! :sofico:
AMD E-350 with AMD Radeon™ HD 6310 Graphics (dual-core CPU @ 1.6GHz & dual DX-11 SIMDs @ 500MHz)
AMD E-240 with AMD Radeon™ HD 6310 Graphics (single-core CPU @ 1.5GHz & dual DX-11 SIMDs @ 500MHz)
AMD C-50 with AMD Radeon™ HD 6250 Graphics (dual-core CPU @ 1.0GHz & dual DX-11 SIMDs @ 280MHz)
AMD C-30 with AMD Radeon™ HD 6250 Graphics (dual-core CPU @ 1.2GHz & dual DX-11 SIMDs @ 280MHz)
Questa è single core ;)
Le frequenze delle CPU sono note da tempo. Quelle della GPU e delle varie modalità di risparmio energetico credo che andassero ben definite.
capitan_crasy
14-12-2010, 13:09
Capt. , come giustamente dici Intel vende molto di piu' perche' piu' furba e piu' ricca.. ma a mio parere non solo: e' anche piu' consapevole di AMD delle dinamiche controverse del mercato, e dell'ignoranza dilagante che caratterizza "il cliente medio" (l'80% almeno dei potenziali clienti). Come diceva dany700, infatti, la maggior parte dei potenziali clienti sono gente ignorante da centro commerciale e non certo la gente informata che scrive e legge i post qui! Bastera' far credere che il PCI-ex 3.0 sia il meglio del meglio e loro prenderanno Intel magari anche solo per quello, essendo pure felici di spendere di piu' per avere una piattaforma, magari pure meno performante! O_o"
In definitiva: Intel non e' solo il primo produttore di chip X86 al mondo perche' e' furba, ha tanti soldi ed "inquina" il mercato con le sue dimostrate mafiosate.. ma lo e' soprattutto perche' investe moltissimo in marketing, contrariamente ad AMD.. :S
Guarda che ho lavorato per 4 anni in una grande catena di Ipermercati e ti posso assicurare che quasi tutti i commessi che vendono i PC non sanno nemmeno cosa sia il PCI-Express...
E' inutile parlarne; questa cosa del PCI-Express 3.0 è un dannato niente, anche perchè è un pò difficile spiegare che Intel ha un bus più veloce se poi nei supermercati vendono PC con schede video integrate oppure entry level...:rolleyes:
Quello che dici e' vero, tuttavia c'e' da ammettere che molte persone di fronte a due computer "OEM" proposti per dire in un centro commerciale prenderebbero quello con Intel, pur inferiore prestazinalmente e superiore di prezzo, solo perche' alla tv hanno sentito la musichetta o peggio ancora hanno sentito i pareri dell'amico dello zio del nipote di quel tale che si spaccia per smanettone di informatica che diceva che Intel rulez & AMD fa schifo.. :(
E' su queste cose che AMD deve davvero investire, a mio parere! :cry:
E quindi?
Questo è un problema di ignoranza non di tecnologia...:stordita:
Alekos Panagulis
14-12-2010, 13:19
E quindi?
Questo è un problema di ignoranza non di tecnologia...:stordita:
Bhè AMD deve investire in marketing, sponsorship e parthnership, e questo vale anche per la sua divisione grafica, che ha dei grossi problemi di visibilità nei confronti della suo avversario Nvidia.
capitan_crasy
14-12-2010, 13:22
Questa è single core ;)
Le frequenze delle CPU sono note da tempo. Quelle della GPU e delle varie modalità di risparmio energetico credo che andassero ben definite.
grazie per la segnalazione...
Anche il Corsini sbaglia...:)
Athlon 64 3000+
14-12-2010, 13:29
Chissa se si AMD riuscita a presentare gia nella seconda metà di aprile Buldozer x8 cosi da avere per il mese di maggio la versione x4 che tanto sto aspettando.
sarebbe comunque fuori strategia da parte di amd... andando a ritroso, amd è sempre stata più lenta di intel ad adottare nuovi standard sulle ram ( e aveva i suoi buoni motivi, ovvero il controller memoria integrato ) ma per quanto riguarda gli altri standard è sempre stata un passo avanti... quando c'era il passaggio da agp a pci-ex si son viste solo mobo amd a proporre entrambi gli standard insieme, il passaggio al pci-ex 2.0 è stato fatto dai chipset amd ( e dalle schede video ati) ben prima della concorrenza, il passaggio al sata2 idem, e ricordo che intel ha tolto da anni il controller eide dai suoi chipset, affindandosi a chip esterni per la gesione di un controller ide (2 sole periferiche) quando la maggior parte dei computer andava avanti ancora a dischi ide, e amd offriva 4 sata + 4 ide praticamente su qualunque scheda madre... il fatto è che intel sbandiera, amd di solito no... e sinceramente se scegliesse di non offrire pci-ex 3.0 si ritroverebbe nella condizione di intel coi core 2, eppure intel ne ha venduti di cpu e mobo... quello che dici tu può aver senso, ma è indipendente dalle feratures, i fanboy, la gente che neanche sa che amd esiste, quelli che comprano il pc al supermercato... non solo del pci-express 3.0 non se ne fanno niente, ma aanche se lo offrisse pure amd cambierebbe molto molto poco... e se tu vorrai prenderti lga2011 perchè ha pci-ex 3.0, pur sapendo che tanto non lo sfrutterai praticamente mai prima di ricambiare mobo... beh, allora non ho ancora capito perchè :D
:D :D :D
guarda il C2D ho dovuto acquistarlo per disperazione oltre 4 anni fa...a parità di prezzo AMD non offriva nulla di valido e sappiamo tutti il perchè. A parte quest'ultimo caso...la piattaforma intel precedente risale al 1995...per il resto sempre AMD...vedi te.
non sono le feaures apocalittiche in sè che fanno vendere ma aiutano sicuramente l'architettura vincente nel raggiungere un risultato più che soddisfacente...insomma...ci vuole un po' di tutto.
Servirà ad una mazza il pci-ex 3...intanto però...l'antagonista la proporrà nel 2011 invece AMD no. Hai voglia poi...a dire che non serve a nulla a chi acquisterà Intel :rolleyes:
e che cavolo...se c'è un'occasione di presentare BD con tutta la fatica che ha fatto AMD per questo progetto...è proprio questa...e non la sfrutta per accompagnare BD con chipset lungimiranti? :muro:
A parità di potenza e servizi...l'acquirente medio è portato ad acquistare Intel, per abitudine o semplicemente per forza del brand ecc. ecc.
Quindi la piattaforma AMD dovrà costare meno a parità di tutto il resto...un quad channel e pci ex 3 nel desktop non servono ancora a niente...ma servono a giustificare il prezzo delle mobo Intel. E' un peccato che AMD per propria strategia abbia scelto di non rivaleggiare...sotto questo aspetto, che come sottolinei tu...è sempre stato suo.
Tralasciando MC...pci-ex 3.0 sarà un forte richiamo, e verrà associato alla piattaforma migliore.
Il consumatore medio è condizionato dal fatto che per avere una buona postazione, deve associare la potenza della CPU con quella della GPU...e quindi...senza addentrarsi troppo sul perchè o il per come...associerà la miglior piattaforma con il pci-ex 3.0.
E' una questione di MKT...lavorare...la percezione della qualità nel potenziale acquirente...a prescindere che l'oggetto in questione da strumentalizzare a proprio vantaggio...si riveli utile oppure no per il cliente.
Me ne faccio una mazza di lga2011...costerà un botto rispetto a ciò che offrirà. Ma se verrà lanciato entro 3 mesi da BD...l'aspetto..solo per un abbassamento dei prezzi delle mobo di BD....se invece le mobo per BD saranno convenienti fin dal lancio, come mi aspetto, non attenderò manco un minuto altro che mesi.
E ad esser franco...sono molto curioso di vedere la differenza di MC tra le due architetture...dual ultra sfruttato di AMD...contro il quad ad ampio respiro di IB. A parte questo...fosse anche solo per il prezzo, lga2011 non m'interessa...minimamente.
Una curiosità...Intel mi ha stupito con i prezzi concorrenziali di SB...e se la cosa si ripetesse anche con lga2011 desktop??? Non voglio dare per scontato nulla... ;)
E quindi?
Questo è un problema di ignoranza non di tecnologia...:stordita:
Non sono completamente d'accordo in quanto l'ignoranza dei clienti si fonda su strategie di marketing atte a far credere loro quello che e' utile per l'azienda produttrice e portatrice di innovazione tecnologica, piu' o meno utile.
Poi conta che per marketing io intendo anche tutte quelle strategie utili ad incentivare lo sviluppo di software sulle proprie piattaforme!
Ti faccio un esempio: Intel su richiesta ti manda a casa tutta la documentazione specifica riguardante le famiglie dei suoi processori. Uno sviluppatore che dovra' programamre a basso livello, secondo te cosa scegliera' sempre ecomunque come piattaforma di sviluppo?
Nvidia per incentivare la diffusione di CUDA ha tenuto corsi informativi, e' disponibile a dare materiale e sostiene con tutti i mezzi gli studenti / sviluppatori lavorando a stretto contatto con aziende ed università..
Tra pochissimo avremo le APU, ed AMD cosa fara' per incentivare lo sviluppo di software serio sulle sue piattaforme hardware? O_o"
Non esiste solo un marketing pubblicitario (dove AMD e' del tutto inesistente), ma anche uno "tecnico", dove e' assolutamente e decisamente piu' che carente. Inutile sara' avere una piattaforma che potenzialmente sara' la migliore, se poi i porgrammi sarano scritti, sviluppati e compilati per le piattaforme Intel, e non solo perche' Intel paga le software house o trucca i compilatori, ma soprattutto perche' sostiene seriamente e da molto vicino lo sviluppo e l'innovazione software associata alle sue piattaforme..
capisci cosa intendo? :mbe:
Chiariamo una cosa:
Le specifiche definitive PCI-Express 3.0 sono state rilasciate a fine novembre di quest'anno e non 6 mesi fa; anche seguendo il tuo ragionamento AMD doveva anticipare queste caratteristiche per rischiare ad aprile chipset non adatti alle specifiche definitive...
Se Intel ha più mezzi e più soldi per anticipare le caratteristiche ufficiale ad AMD poco importa e sinceramente senza una nuova GPU con PCI-Express 3.0 o qualsiasi altro prodotto che saturi o solo trai beneficio è l'apoteosi dell'inutilità...
Se poi hai questa idea che per te sia meglio un sistema con questa nuova tecnologia saltando a piè pari il discorso prezzo/prestazioni/consumo della CPU va bene così, per me il discorso finisce qui...
in parte ho già risposto a giov.
in parte però ti dico...ok...va bene così.
ma IMHO...non credo che il pci-ex 3.0 costi uno sproposito a livello d'ingegnerizzazione delle mobo...e comunque è affrontabile da AMD.
AMD avrà fatto i suoi calcoli...stabilendo che rimarrà indietro rispetto ad Intel sul pci-ex per quasi un anno.
Ricorderai bene le ddr3...anticipate di molto rispetto ad AMD ed inutili. Ma tengo a precisare che MC è un qualcosa d'intangibile...mentre a livello di MKT il pci ex è tutta un'altra storia.
Personalmente per scrupolo...avrei comunque predisposto un bridge con tali specifiche...da immettere sul mercato DOPO il lancio di BD...a tempo con IB.
Voglio dire...se AMD è quella che insegue e nel contempo possiede una nuova architettura degna della rivale...mi pare superficiale...il cercare di mantenersi statica su aspetti che nell'immediato sono marginali ed inutili...ma che in realtà aiuterebbero a risollevarsi e non di poco...a livello di MKT...e di conseguenza, aiutare le vendite.
Comprendo anche che AMD adotti la strategia del dare ciò che realmente serve al giusto prezzo...a differenza di Intel.
Ma così facendo...AMD fa il gioco di Intel. Quest'ultima ha tutto l'interesse a mantenere la rivale entro certi limiti...che guardacaso si crea la stessa AMD.
Il consumatore finale...dirà...se voglio il max compro Intel ad un certo prezzo.
Se voglio il giusto ed utile...compro AMD ad un prezzo DECISAMENTE inferiore.
E grazie al MKT...Intel manterrà la sua posizione...e AMD nel 2011 rosicherà ben poco nel desktop...o perlomeno, ben meno di ciò che potenzialmente potrebbe ambire.
Il pci-ex 3.0 è obiettivamente al momento, una trovata commerciale.
Che aiuterà Intel a DIFENDERSI e non certo AMD ad ATTACCARE.
Capisco pure..che ciò che è così palese ai miei occhi...non può essere altrettanto per gli altri.
Con questo...non voglio ne lodare l'una o l'altra...mi spiace solo, se tale ipotesi che ho espresso...avrà risvolti empirici nella realtà e, per poco o per tanto, sarà così.
E' solo un punto di vista...nulla di più.
Non siamo noi appassionati, con la nostra estrema obiettività...che facciamo il mercato.
capitan_crasy
14-12-2010, 14:33
Non sono completamente d'accordo in quanto l'ignoranza dei clienti si fonda su strategie di marketing atte a far credere loro quello che e' utile per l'azienda produttrice e portatrice di innovazione tecnologica, piu' o meno utile.
Poi conta che per marketing io intendo anche tutte quelle strategie utili ad incentivare lo sviluppo di software sulle proprie piattaforme!
Ti faccio un esempio: Intel su richiesta ti manda a casa tutta la documentazione specifica riguardante le famiglie dei suoi processori. Uno sviluppatore che dovra' programamre a basso livello, secondo te cosa scegliera' sempre ecomunque come piattaforma di sviluppo?
Nvidia per incentivare la diffusione di CUDA ha tenuto corsi informativi, e' disponibile a dare materiale e sostiene con tutti i mezzi gli studenti / sviluppatori lavorando a stretto contatto con aziende ed università..
Tra pochissimo avremo le APU, ed AMD cosa fara' per incentivare lo sviluppo di software serio sulle sue piattaforme hardware? O_o"
Non esiste solo un marketing pubblicitario (dove AMD e' del tutto inesistente), ma anche uno "tecnico", dove e' assolutamente e decisamente piu' che carente. Inutile sara' avere una piattaforma che potenzialmente sara' la migliore, se poi i porgrammi sarano scritti, sviluppati e compilati per le piattaforme Intel, e non solo perche' Intel paga le software house o trucca i compilatori, ma soprattutto perche' sostiene seriamente e da molto vicino lo sviluppo e l'innovazione software associata alle sue piattaforme..
capisci cosa intendo? :mbe:
Questo tuo discorso può essere condiviso senza problemi ma c'entra poco con l' originare di questa discussione incentrata sull'utilizzo o meno del PCI-Express 3.0...:)
marchigiano
14-12-2010, 14:44
La domanda è perchè Intel ha anticipato i 22nm?
Forse i suoi 32nm non sono così buoni oppure la concorrenza ha i 32nm migliori dei suoi, o forse vuole solo dormire sogni tranquilli...
E chi lo sa...:O
a me non sembrano anticipati... rientrano nelle roadmap del 2009, poi a un certo punto sembravano slittate in avanti di qualche mese, forse ora recuperano...
al limite se vogliamo è proprio il 32nm ad essersi diffuso poco, perchè di 45nm ne hanno fatto a valanghe, mentre il 32 è rimasto relegato ai piccoli die westmere e all'opposto agli esacore top di gamma
anche atom salterà direttamente da 45 a 22nm :mbe:
:D :D :D
guarda il C2D ho dovuto acquistarlo per disperazione oltre 4 anni fa...a parità di prezzo AMD non offriva nulla di valido e sappiamo tutti il perchè. A parte quest'ultimo caso...la piattaforma intel precedente risale al 1995...per il resto sempre AMD...vedi te.
non sono le feaures apocalittiche in sè che fanno vendere ma aiutano sicuramente l'architettura vincente nel raggiungere un risultato più che soddisfacente...insomma...ci vuole un po' di tutto.
Servirà ad una mazza il pci-ex 3...intanto però...l'antagonista la proporrà nel 2011 invece AMD no. Hai voglia poi...a dire che non serve a nulla a chi acquisterà Intel :rolleyes:
e che cavolo...se c'è un'occasione di presentare BD con tutta la fatica che ha fatto AMD per questo progetto...è proprio questa...e non la sfrutta per accompagnare BD con chipset lungimiranti? :muro:
A parità di potenza e servizi...l'acquirente medio è portato ad acquistare Intel, per abitudine o semplicemente per forza del brand ecc. ecc.
Quindi la piattaforma AMD dovrà costare meno a parità di tutto il resto...un quad channel e pci ex 3 nel desktop non servono ancora a niente...ma servono a giustificare il prezzo delle mobo Intel. E' un peccato che AMD per propria strategia abbia scelto di non rivaleggiare...sotto questo aspetto, che come sottolinei tu...è sempre stato suo.
Tralasciando MC...pci-ex 3.0 sarà un forte richiamo, e verrà associato alla piattaforma migliore.
Il consumatore medio è condizionato dal fatto che per avere una buona postazione, deve associare la potenza della CPU con quella della GPU...e quindi...senza addentrarsi troppo sul perchè o il per come...associerà la miglior piattaforma con il pci-ex 3.0.
E' una questione di MKT...lavorare...la percezione della qualità nel potenziale acquirente...a prescindere che l'oggetto in questione da strumentalizzare a proprio vantaggio...si riveli utile oppure no per il cliente.
Me ne faccio una mazza di lga2011...costerà un botto rispetto a ciò che offrirà. Ma se verrà lanciato entro 3 mesi da BD...l'aspetto..solo per un abbassamento dei prezzi delle mobo di BD....se invece le mobo per BD saranno convenienti fin dal lancio, come mi aspetto, non attenderò manco un minuto altro che mesi.
E ad esser franco...sono molto curioso di vedere la differenza di MC tra le due architetture...dual ultra sfruttato di AMD...contro il quad ad ampio respiro di IB. A parte questo...fosse anche solo per il prezzo, lga2011 non m'interessa...minimamente.
Una curiosità...Intel mi ha stupito con i prezzi concorrenziali di SB...e se la cosa si ripetesse anche con lga2011 desktop??? Non voglio dare per scontato nulla... ;)
non mi hai capito, il c2d era meglio del concorrente amd del momento, non ci piove, ma su amd all'epoca avevi schede madri con le ultime features ( pci-ex 2.0, sata2, firewire/800 ) pur mantenendo compatibilità con la roba vecchia, su intel avevi 2 canali ide ( contro 4 amd) su un controller esterno al chipset ( e vai di costi in più ), insomma si era, a parti invertite, nella situazione che tu adesso dici essere un problema per amd, ma quella volta non è stato affatto un problema per intel...
se è marketing puro, e non c'è convenienza e non c'è utilità alcuna ad avere pci-ex 3.0 nel 2011, allora secondo il tuo ragionamento a sto punto amd potrebbe anche dire di avere il pci-ex 3.0 integrato anche se non ce l'ha, tanto
1) non ci saranno periferiche neanche in grado di riconoscere la differenza
2) non ci saranno periferiche alle quali porta benefici, sul pci-ex 2.0 gli ssd arrivano a 1500 mb/s e non saturano neanche tutta una 8x :rolleyes:
quindi nessuno si accorgerebbe della differenza, però visto che fa più figo avere le pci-ex 3.0... se è un discorso di "fa più figo" come mi pare di capire che sia, allora lascia perdere il pci-ex 3.0... chi vuole qualcosa di figo si compra un mac, chi compra in supermercato non sa neanche cosa sia il pci-ex, chi se lo monta, come noi, sa benissimo che non avrebbe senso comprarlo, specie se, sempre come noi, in media cambia componenti 3-4 volte più spesso rispetto all'utente medio, quindi entro tot tempo comprerai un'altra scheda madre, quando il pci-ex 3.0 sarà un pelo più maturo...
ultima cosa: per le ddr3 questa strategia di amd ha avuto senso, l'hai detto anche tu... non capisco questa rivolta epocale del pci-ex 3.0, e non capisco perchè dovrebbe andare diversamente rispetto al passaggio ddr2/ddr3
non mi hai capito, il c2d era meglio del concorrente amd del momento, non ci piove, ma su amd all'epoca avevi schede madri con le ultime features ( pci-ex 2.0, sata2, firewire/800 ) pur mantenendo compatibilità con la roba vecchia, su intel avevi 2 canali ide ( contro 4 amd) su un controller esterno al chipset ( e vai di costi in più ), insomma si era, a parti invertite, nella situazione che tu adesso dici essere un problema per amd, ma quella volta non è stato affatto un problema per intel...
se è marketing puro, e non c'è convenienza e non c'è utilità alcuna ad avere pci-ex 3.0 nel 2011, allora secondo il tuo ragionamento a sto punto amd potrebbe anche dire di avere il pci-ex 3.0 integrato anche se non ce l'ha, tanto
1) non ci saranno periferiche neanche in grado di riconoscere la differenza
2) non ci saranno periferiche alle quali porta benefici, sul pci-ex 2.0 gli ssd arrivano a 1500 mb/s e non saturano neanche tutta una 8x :rolleyes:
quindi nessuno si accorgerebbe della differenza, però visto che fa più figo avere le pci-ex 3.0... se è un discorso di "fa più figo" come mi pare di capire che sia, allora lascia perdere il pci-ex 3.0... chi vuole qualcosa di figo si compra un mac, chi compra in supermercato non sa neanche cosa sia il pci-ex, chi se lo monta, come noi, sa benissimo che non avrebbe senso comprarlo, specie se, sempre come noi, in media cambia componenti 3-4 volte più spesso rispetto all'utente medio, quindi entro tot tempo comprerai un'altra scheda madre, quando il pci-ex 3.0 sarà un pelo più maturo...
ultima cosa: per le ddr3 questa strategia di amd ha avuto senso, l'hai detto anche tu... non capisco questa rivolta epocale del pci-ex 3.0, e non capisco perchè dovrebbe andare diversamente rispetto al passaggio ddr2/ddr3
Intel è da sempre su un piedistallo...per un motivo o per l'altro. Non possiamo aspettarci le medesime reazioni dal mercato se mischiamo le parti.
Se AMD è sopra...Intel perde poco.
Se Intel è sopra...AMD perderebbe sicuramente più di Intel, a parti inverse.
Il MKT...è un qualcosa di complesso, non è così facilmente quantificabile..e può condizionare una moltitudine di aspetti.
alcuni sciocchi esempi:
- Intel è meglio...per il pci-ex...AMD no.
- Intel è meglio anche nelle fasce basse e medie...perchè se lo è nelle alte con il pci-ex lo è anche nell'entry level.
- Nei giochi e nel sistema in generale oltre alla cpu è fondamentale la gpu...chi garantisce un bus potenzialmente superiore in quest'ultimo ambito...è meglio.
3 caxxate...tutte a danno di AMD. Che siano vere o no, non è importante.
Riguardo ddr2/3 e pci-ex...
immagina l'utente medio...che cerca di acchiappare qualcosa in termini informatici...ma ci capisce poco, e comunque assorbe solo la punta dell'iceberg di tutto il panorama informatico che legge sul web.
Di cosa è palesemente martellato a livello informatico il web e di conseguenza il neofita? dalle CPU e dalle GPU...a seguire gli altri componenti...e in fondo al gruppo, la RAM.
pertanto, l'utente "da volumi"...alza le antenne per la GPU e di conseguenza per il pci-ex o la CPU...e poco o niente per l'interfaccia delle RAM.
Ecco perchè a suo tempo non ha avuto una gran risposta da parte del pubblico la ddr3 a scapito di AMD (era molto più forte la variabile prezzo in tal senso)...mentre con il pci-ex 3.0 è esattamente il contrario...a costi tutto sommato irrisori per tale implementazione, l'utente medio è disposto favorevolmente a spendere di più.
E' solo una questione d'immagine e percezione della qualità.
Al limite può entrare in gioco anche il fattore prezzo:
se BD8X+990fx...costerà "considerevolmente" meno di IB6X con chipset pci-ex 3.0...FORSE...potremo sperare in un ipotetico pareggio, sottolineando che buona parte del venduto, NON si fa con chi se ne capisce.
Per una stupidata di MKT...AMD rischia delle preziosissime quote di mercato a livello d'immagine, che le ritornerebbero ampiamente utili, redditività a parte.
Qualcuno potrebbe obiettare...è vero solo nelle fasce basse. E io dico...verissimo...ma nella fascia alta "l'ignaro" è presente comunque, anche se in maniera molto meno evidente...e per quanto sia alto il buon senso in tale fascia, non lo è proporzionalmente così tanto, da impensierire la leadership di Intel....considerando i volumi tipici di questo ambito.
Il problema è...che chi viene ritenuto vincente in tale fascia...vince di riflesso anche nelle altre fasce con maggior facilità. Spero di essermi spiegato cosa intendo per immagine e/o politiche di MKT strategico. A volte è più conveniente buttare soldi dalla finestra per implementare una cavolata come il pci-ex 3.0 piuttosto che in altro, quindi, spero vivamente che non sia questo il caso...anche se nutro dei timori in proposito.
Ripeto...dipenderà solo dalla strategia Intel per IB nel 3Q. Prezzo e data di lancio. In tal senso, AMD ha ufficializzato il suo gioco quasi in tutto...Intel solo parzialmente :(
Mi riferisco al mucchio sia ben chiaro...e non intendo affatto fare di tutta l'erba un fascio.
Questo tuo discorso può essere condiviso senza problemi ma c'entra poco con l' originare di questa discussione incentrata sull'utilizzo o meno del PCI-Express 3.0...:)
beh, certo: effettivamente ho deviato un po' dal discorso originale.. :fagiano:
Era per far capire comunque che AMD non puo' a mio parere piu' permettersi di avere dei buoni prodotti (magari anche i migliori in quanto prestazioni, architettura, prezzo).. ma e' ora che si svegli seriamente nell'adottare tutte quelle tecniche che agevolino la diffusione dei suoi processori, tutto qui!
La storia del pci-ex 3 sara' sicuramente utilizzata da Intel quale slogan pubblicitario.. e non fa nulla che poi nn sara' davvero utile! AMD avrebbe a mio parere dovuto seguire questa scia "pubblicitaria", dotando le sue schede di tutte quelle feactures percepite come "innovative", in modo da non dare credito alla sua rivale quando dirà (perchè negli spot lo dirà!) che loro hanno qualcosa in piu', tutto qui!
Intel è da sempre su un piedistallo...per un motivo o per l'altro. Non possiamo aspettarci le medesime reazioni dal mercato se mischiamo le parti.
Se AMD è sopra...Intel perde poco.
Se Intel è sopra...AMD perderebbe sicuramente più di Intel, a parti inverse.
Il MKT...è un qualcosa di complesso, non è così facilmente quantificabile..e può condizionare una moltitudine di aspetti.
alcuni sciocchi esempi:
- Intel è meglio...per il pci-ex...AMD no.
- Intel è meglio anche nelle fasce basse e medie...perchè se lo è nelle alte con il pci-ex lo è anche nell'entry level.
- Nei giochi e nel sistema in generale oltre alla cpu è fondamentale la gpu...chi garantisce un bus potenzialmente superiore in quest'ultimo ambito...è meglio.
3 caxxate...tutte a danno di AMD. Che siano vere o no, non è importante.
Azz, purtroppo dici cose estremamente ed eternamente vere! Cose che gli stessi commessi delle grandi catene di elettrodomestici (anche loro spesso ignoranti) dicono ai propri clienti, oltretutto! Purtroppo prevedo situazioni in tutto e per tutto identiche a quelle gia' viste in passato.. :(
Riguardo ddr2/3 e pci-ex...
immagina l'utente medio...che cerca di acchiappare qualcosa in termini informatici...ma ci capisce poco, e comunque assorbe solo la punta dell'iceberg di tutto il panorama informatico che legge sul web.
Di cosa è palesemente martellato a livello informatico il web e di conseguenza il neofita? dalle CPU e dalle GPU...a seguire gli altri componenti...e in fondo al gruppo, la RAM.
pertanto, l'utente "da volumi"...alza le antenne per la GPU e di conseguenza per il pci-ex o la CPU...e poco o niente per l'interfaccia delle RAM.
Ecco perchè a suo tempo non ha avuto una gran risposta da parte del pubblico la ddr3 a scapito di AMD (era molto più forte la variabile prezzo in tal senso)...mentre con il pci-ex 3.0 è esattamente il contrario...a costi tutto sommato irrisori per tale implementazione, l'utente medio è disposto favorevolmente a spendere di più.
E' solo una questione d'immagine e percezione della qualità.
Al limite può entrare in gioco anche il fattore prezzo:
se BD8X+990fx...costerà "considerevolmente" meno di IB6X con chipset pci-ex 3.0...FORSE...potremo sperare in un ipotetico pareggio, sottolineando che buona parte del venduto, NON si fa con chi se ne capisce.
Per una stupidata di MKT...AMD rischia delle preziosissime quote di mercato a livello d'immagine, che le ritornerebbero ampiamente utili, redditività a parte.
Qualcuno potrebbe obiettare...è vero solo nelle fasce basse. E io dico...verissimo...ma nella fascia alta "l'ignaro" è presente comunque, anche se in maniera molto meno evidente...e per quanto sia alto il buon senso in tale fascia, non lo è proporzionalmente così tanto, da impensierire la leadership di Intel....considerando i volumi tipici di questo ambito.
Il problema è...che chi viene ritenuto vincente in tale fascia...vince di riflesso anche nelle altre fasce con maggior facilità. Spero di essermi spiegato cosa intendo per immagine e/o politiche di MKT strategico. A volte è più conveniente buttare soldi dalla finestra per implementare una cavolata come il pci-ex 3.0 piuttosto che in altro, quindi, spero vivamente che non sia questo il caso...anche se nutro dei timori in proposito.
Ripeto...dipenderà solo dalla strategia Intel per IB nel 3Q. Prezzo e data di lancio. In tal senso, AMD ha ufficializzato il suo gioco quasi in tutto...Intel solo parzialmente :(
Mi riferisco al mucchio sia ben chiaro...e non intendo affatto fare di tutta l'erba un fascio.
Sempre piu' d'accordo con te: AMD non dovrebbe dare nessuna scusa all'utente disinformato per preferire la concorrenza: per questo dovrebbe fin da subito puntare a tutte le interfacce piu' innovative, anche se oggettivamente inutili.. :(
Pensate anche solo quanti qui (e non siamo al mediamondo!) dicono di preferire per home-use gli i7 in quanto hanno il tri-channel! O_o" Per il pci-ex3 potrebbe succedere la stessa cosa, ma all'ennesima potenza, proprio perche' l'utente medio da via via sempre piu' importanza alla potenza PERCEPITA del comparto grafico (infatti per esempio senza esitare comprera' preferibilmente una Nvidia 9600 da 1gb, piuttosto che una GTX 460 da 700 e rotti Mb.. :S)
orsogrigione
14-12-2010, 16:39
si puo sapere con certezza che non e' compatibile con am3? se dico certezza parlo di prove fisiche...mi interessa perke se un utente che deve cambiare procio con socket am3 non lo cambia piu' se deve anche cambiare scheda madre ,e quindi la vendita sara' rivolta piu che altro alle nuove configurazioni ,tagliando fuori la fetta di mercato dei semplici upgrade
si puo sapere con certezza che non e' compatibile con am3? se dico certezza parlo di prove fisiche
Impossibile provare, visto che i processori usciranno da tra qualche mese.
orsogrigione
14-12-2010, 16:50
Impossibile provare, visto che i processori usciranno da tra qualche mese.
ma tu cosa ne pensi?l'am3+ e' un socket fisicamente differente ?cioe' mi spiego meglio..no la vedo normale che il bulldozer e' differente fisicamente e va per forza sul am3+,mentre il soket am3+ e' retrocomaptibile con i phenom2
astroimager
14-12-2010, 16:59
Non so se qualche tempo fa avevate letto questa news:
http://www.businessmagazine.it/news/amd-poco-interessata-al-mercato-workstation_34584.html
Che stona maggiormente se confrontata con questa:
http://www.businessmagazine.it/news/il-mercato-delle-workstation-piu-forte-che-mai_34707.html
Secondo voi con Bulldozer AMD ricomparirà nel mercato workstation?
ma tu cosa ne pensi?l'am3+ e' un socket fisicamente differente ?
Amd ha detto che Bulldozer NON sarà compatibile con le attuali schede madri AM3. Quindi, fino a prova contraria, non abbiamo motivo di dubitarne.
Al contrario, gli attuali processori AM3 saranno compatibili con le mobo Am3r, ovvero quelle per Bulldozer.
orsogrigione
14-12-2010, 17:04
Amd ha detto che Bulldozer NON sarà compatibile con le attuali schede madri AM3. Quindi, fino a prova contraria, non abbiamo motivo di dubitarne.
Al contrario, gli attuali processori AM3 saranno compatibili con le mobo Am3r, ovvero quelle per Bulldozer.
lo so questo ma e' normale cosa dice amd?cioe' mi spiego meglio..no la vedo normale che il bulldozer e' differente fisicamente e va per forza sul am3+,mentre il soket am3+ e' retrocomaptibile con i phenom2..se il buldolzzer ha dei circuiti fatti per l'am3+ anche l'am3+ ha i circuiti diversi e quindi da creare problemi ai phenom2 .....invece secondo me e' solo una diavoleria che ti impongono via bios se volessero possono rilasciare bios sugli am3
__________________
ma tu cosa ne pensi?l'am3+ e' un socket fisicamente differente ?cioe' mi spiego meglio..no la vedo normale che il bulldozer e' differente fisicamente e va per forza sul am3+,mentre il soket am3+ e' retrocomaptibile con i phenom2
Non conta il "fisicamente", conta solo se sono "elettricamente" differenti.
E' chiaro che saranno fisicamente identici.
orsogrigione
14-12-2010, 17:07
Non conta il "fisicamente", conta solo se sono "elettricamente" differenti.
E' chiaro che saranno fisicamente identici.
si intendevo elettricamente non fisicamente la misura infatti ho parlato di circuiti se leggi bene....e quindi?
si intendevo elettricamente non fisicamente la misura infatti ho parlato di circuiti se leggi bene....e quindi?
Difficile da dirlo ora. E' possibile che alcuni pin non fossero utilizzati nell'AM3, mentre nell'AM3+ lo saranno.
orsogrigione
14-12-2010, 17:25
Difficile da dirlo ora. E' possibile che alcuni pin non fossero utilizzati nell'AM3, mentre nell'AM3+ lo saranno.
grazie di tutto..e' quella la mia paura i pin speriamo di no;) quindi montando il phenom2 sull am3+ resteranno dei buchini o come si chiamano liberi inutilizzati giusto?
oppure come dici tu che avevano preventivato nel soket am3 di lasciare inutilizzati alcuni pin .....ho capito bene?
orsogrigione
14-12-2010, 18:24
Amd ha detto che Bulldozer NON sarà compatibile con le attuali schede madri AM3. Quindi, fino a prova contraria, non abbiamo motivo di dubitarne.
Al contrario, gli attuali processori AM3 saranno compatibili con le mobo Am3r, ovvero quelle per Bulldozer.
e' questo pure e' vero..vedremo ,cercavo solo di approfondire una strategia ,che addietro amd non ha utilizzato sugli altri socket che erano sempre stati piu' longevi di intel,dove con intel non avrei dubbi su una dichiarazione simile,intel non e' nuova a queste cose...questo il motivo dei miei dubbi che possono essere infondati o azzardati di sicuro ,ma mi piaceva di parlarne..siamo ormai agli sgoccioli....
capitan_crasy
14-12-2010, 18:35
Credo che non si siano più dubbi...
AMD ha dichiarato che il socket AM3 NON è compatibile con le CPU socket AM3+:
Clicca qui... (http://www.hwupgrade.it/forum/showpost.php?p=32927449&postcount=2281)
mentre in una Roadmap AMD viene confermato la compatibilità delle schede mamme socket AM3+ sugli attuali CPU socket AM3...
http://www.pctunerup.com/up/results/_201012/th_20101214184847_zambezi_roadmap.jpg (http://www.pctunerup.com/up/image.php?src=_201012/20101214184847_zambezi_roadmap.jpg)
astroimager
14-12-2010, 18:38
Ciao Astro, ormai che hai fato 30 fai 31!
Un mesetto di pazienza e poi potrai valutare come e dove investire i tuoi soldi! :D
Spero solo che tanta attesa sia ripagata da buone dotazioni e prezzi abbordabili... :stordita:
Non conta il "fisicamente", conta solo se sono "elettricamente" differenti.
E' chiaro che saranno fisicamente identici.
Quindi non impediranno in nessun modo di montare un BD su socket AM3?
orsogrigione
14-12-2010, 18:40
Credo che non si siano più dubbi...
AMD ha dichiarato che il socket AM3 NON è compatibile con le CPU socket AM3+:
gia sapevo, il mio discorso remava contro a qeusta dichiarazione in poche parole non ci credo finche non commercializzano.... il perke l'ho spiegato;) cmq grazie;)
Strato1541
14-12-2010, 18:40
e' questo pure e' vero..vedremo ,cercavo solo di approfondire una strategia ,che addietro amd non ha utilizzato sugli altri socket che erano sempre stati piu' longevi di intel,dove con intel non avrei dubbi su una dichiarazione simile,intel non e' nuova a queste cose...questo il motivo dei miei dubbi che possono essere infondati o azzardati di sicuro ,ma mi piaceva di parlarne..
amd 2004-2005 socket 754 socket 939 poi socket 940 noto come am2 nel 2004-05 conviveva anche il socket 462...mi sembra che non sia nuova neanche amd in questo...
Se vuoi approfondire, basta ragionare sul fatto che quando si è in vantaggio si possono adottare strategie azzardate e poco conservative ciò che fece amd in quegli anni e una cosa simile intel in quest'ultimi(meno marcatamente anche!).Ora amd ha bisogno di cambiare totalmente non per supremazia ma per un salto di architettura.
La storia recente ricorda amd con un socket longevo come l'am2 e l'am2+, intel per il 775,la storia più vecchia ricorda il socket 7 e super socket 7 come molto longevo per intel.. per amd come l'impianto per i suoi k5 e k6...Prima c'era solo il monopolio intel e qualche concorrente come Cyrix e WinChip, che usava però i socket intel esattamente come amd.
NOn dimentichiamo che amd nacque come clone di una 80486 e la sua strda la prese completamente con il k7 slot a.
orsogrigione
14-12-2010, 18:44
amd 2004-2005 socket 754 socket 939 poi socket 940 noto come am2 nel 2004-05 conviveva anche il socket 462...mi sembra che non sia nuova neanche amd in questo...
Se vuoi approfondire, basta ragionare sul fatto che quando si è in vantaggio si possono adottare strategie azzardate e poco conservative ciò che fece amd in quegli anni e una cosa simile intel in quest'ultimi(meno marcatamente anche!).Ora amd ha bisogno di cambiare totalmente non per supremazia ma per un salto di architettura.
La storia recente ricorda amd con un socket longevo come l'am2 e l'am2+, intel per il 775,la storia più vecchia ricorda il socket 7 e super socket 7 come molto longevo per intel.. per amd come l'impianto per i suoi k5 e k6...Prima c'era solo il monopolio intel e qualche concorrente come Cyrix e WinChip, che usava però i socket intel esattamente come amd.
NOn dimentichiamo che amd nacque come clone di una 80486 e la sua strda la prese completamente con il k7 slot a.
amd e' piu longeva di intel....non c'era bisogno di fare tutto questo papiello..strato ma perke mi perseguiti dalla sezione schede video fin qui?sto qui parlando con tecnici validi tu sei esperto schede video va di la,che dici mi sposto in schede madri o pooi vieni pure li:D ?
dai scherzo resta....
capitan_crasy
14-12-2010, 18:47
MSI mostra il modello CR650 Notebook da 15.6 pollici composto da una APU Zacate modello E-350 Dual core @ 1.60GHz TDP 18W, con grafica integrata HD6310 (DX11, 80SP).
Questo modello dovrebbe essere presentato all'inizio del 2011...
http://www.pctunerup.com/up/results/_201012/th_20101214184650_msicr65001.jpg (http://www.pctunerup.com/up/image.php?src=_201012/20101214184650_msicr65001.jpg)
Clicca qui... (http://www.tcmagazine.com/tcm/news/hardware/33880/msi-readies-amd-e-350-apu-powered-cr650-notebook)
Strato1541
14-12-2010, 19:00
amd e' piu longeva di intel....non c'era bisogno di fare tutto questo papiello..strato ma perke mi perseguiti dalla sezione schede video fin qui?sto qui parlando con tecnici validi tu sei esperto schede video va di la
dai scherzo resta....
è corretto dire che in alcuni periodi è stata più longeva amd e in altri intel...Considerando il fatto che amd è nata come concorrente di intel e ha usato le sue main finchè non ha creato le sue possiamo considerare come l'inizio della vera concorrenza di amd verso intel come il 1999 con il k7.
Da lì possiamo notare che si sono alternati slot e socket per entrambe le case, troviamo il 775 intel 2004 fine 2008 e l'am2 di amd 2004 -2007 poi fù introdotto am2+.
Ora quello che sarà dell'am3+ è già abbastanza noto, e che l'am3 abbia una presunta vita breve è assodato..
Detto questo buldozzer dovrebbe essere una ottima tecnologia a quanto si dice..
Inciso perchè "alcuni" utenti consigliamo amd per longevità, senza magari sapere quello che dicono...
Mi sono trasferito dato che si stava facendo un discorso , se tu chiami "perseguitare" qualcuno che sostiene cose diverse dalle tue(fondate) allora ti perseguito.
capitan_crasy
14-12-2010, 19:25
Soyo mostra la propria scheda mamma di Brazos in formato mini-ATX, composta da una APU Zacate E-350 @ 1.60Ghz.
http://www.pctunerup.com/up/results/_201012/20101214192401_soyo1.jpg
http://www.pctunerup.com/up/results/_201012/20101214192444_soyo2.jpg
La scheda ha uno slot PCI-Express 16X, uno Slot PCI-Express 1x, uno slot PCI, 6 porte SATA3.0, uscite video VGA, DVI e HDMI; mancano le porte USB 3.0.
Purtroppo sarà difficile vedere questa soluzione in europa dato che la nuova Soyo ha un mercato solo in oriente...
Clicca qui... (http://www.dvhardware.net/article47069.html)
Spero solo che tanta attesa sia ripagata da buone dotazioni e prezzi abbordabili... :stordita:
Quindi non impediranno in nessun modo di montare un BD su socket AM3?
Ciao
Se i due socket saranno meccanicamente compatibili, è molto probabile che le specifiche elettriche non lo siano, se quest'ultimo caso non fosse vero, ovvero compatibilità elettrica (magari con limitazioni) e meccanica, basta un rilascio A.G.E.S.A compatibile e qualcuno che mastichi un pò di assembly per fare il bios\EFI.
Soyo mostra la propria scheda mamma di Brazos in formato mini-ITX, composta da una APU Zacate E-350 @ 1.60Ghz.
A me sinceramente quella non sembra una mini-ITX, ma una micro-ATX
http://www.unlogic.se/blogs/myblog/post/mini-itx-bug/file/blog/itx/VIA_Mini-ITX_Form_Factor_Comparison.jpg
orsogrigione
14-12-2010, 19:52
è corretto dire che in alcuni periodi è stata più longeva amd e in altri intel...Considerando il fatto che amd è nata come concorrente di intel e ha usato le sue main finchè non ha creato le sue possiamo considerare come l'inizio della vera concorrenza di amd verso intel come il 1999 con il k7.
Da lì possiamo notare che si sono alternati slot e socket per entrambe le case, troviamo il 775 intel 2004 fine 2008 e l'am2 di amd 2004 -2007 poi fù introdotto am2+.
Ora quello che sarà dell'am3+ è già abbastanza noto, e che l'am3 abbia una presunta vita breve è assodato..
Detto questo buldozzer dovrebbe essere una ottima tecnologia a quanto si dice..
Inciso perchè "alcuni" utenti consigliamo amd per longevità, senza magari sapere quello che dicono...
Mi sono trasferito dato che si stava facendo un discorso , se tu chiami "perseguitare" qualcuno che sostiene cose diverse dalle tue(fondate) allora ti perseguito.
ma e' proprio tutta amd che e' piu longeva mo vuoi vedere che sono io l'unico che lo dico ma che vuoi da me se lo si dice?..su una scheda madre amd am2 am2+ am3 di 30 euro sono compatibili tutti i procesori per farti un esempio se vuoi te le elenco...
mi ricordo un amico nel 2007 voleva passare da pentium single core su soket 775 ad un misero dualcore sempre 775 e la scheda madre non era compatibile con quel tipo di processore.la gigabyte serie 8 e non di qualita bassa di 30 euro ma media.questo perke per via del bus .
mentre su una scheda madre am2 passavi dal single core 3000+ al Athlon 64 X2 5600+ e se vuoi ti elenco quale scheda madre di fascia bassa anche.
Strato1541
14-12-2010, 20:20
ma e' proprio tutta amd che e' piu longeva mo vuoi vedere che sono io l'unico che lo dico ma che vuoi da me se lo si dice?..su una scheda madre amd am2 am2+ am3 di 30 euro sono compatibili tutti i procesori per farti un esempio se vuoi te le elenco...
mi ricordo un amico nel 2007 voleva passare da pentium single core su soket 775 ad un misero dualcore sempre 775 e la scheda madre non era compatibile con quel tipo di processore.la gigabyte serie 8 e non di qualita bassa di 30 euro ma media.questo perke per via del bus .
mentre su una scheda madre am2 passavi dal single core 3000+ al Athlon 64 X2 5600+ e se vuoi ti elenco quale scheda madre di fascia bassa anche.
Sei comunque nel 3d sbagliato per queste cose..Sono punti di vista a te piace pensarlo così pensalo, esattamente cose sei(anzi siete in molti) stati smentiti con la longevità dell'am3...
In ogni caso ogni 2-3 anni, che sia amd o intel la scheda madre và cambiata se si vuole sfruttare appieno le nuove cpu per le loro caratteristiche e non ci vedo niente di strano, se contiamo poi che la main nella maggior parte dei casi è la componente meno costosa di un sistema medio basso(quindi quello che interessa a chi vuole fare upgrade, di certo no interessa alla fascai più risicata di utenti che cerca l'high end)..
Senza considerare che commetti anche un'imprecisione amd è più "conveniente" sotto il punto di vista del prezzo d'acquisto non la più longeva..che sono 2 cose diverse!
Anche se da qualche parte i costi minori si fanno sentire vedi anche questo artivolo dove un athlon x4 se le prende da un banale i3
http://www.tomshw.it/cont/articolo/world-of-warcraft-cataclysm-e-dx11-analisi-delle-prestazioni-cpu-a-confronto-amd/28434/10.html
Alla fine il ragionamento corretto è quindi quello per fasce di prezzo e non quanti core e quanta frequenza da uno e l'altro e si vedrà che ponderando le cose ci si accorgerà che in realtà nè amd nè intel regalano qualcosa.
Uno può scegliere una casa per simpatia o convinzioni personali ma i dati sosno sempre e comunque oggettivi.
Anche se da qualche parte i costi minori si fanno sentire vedi anche questo artivolo dove un athlon x4 se le prende da un banale i3
Bellissima però questa affermazione, basare tutte le tue considerazioni su un solo gioco :D
Athlon 64 3000+
14-12-2010, 20:40
amd 2004-2005 socket 754 socket 939 poi socket 940 noto come am2 nel 2004-05 conviveva anche il socket 462...mi sembra che non sia nuova neanche amd in questo...
Se vuoi approfondire, basta ragionare sul fatto che quando si è in vantaggio si possono adottare strategie azzardate e poco conservative ciò che fece amd in quegli anni e una cosa simile intel in quest'ultimi(meno marcatamente anche!).Ora amd ha bisogno di cambiare totalmente non per supremazia ma per un salto di architettura.
La storia recente ricorda amd con un socket longevo come l'am2 e l'am2+, intel per il 775,la storia più vecchia ricorda il socket 7 e super socket 7 come molto longevo per intel.. per amd come l'impianto per i suoi k5 e k6...Prima c'era solo il monopolio intel e qualche concorrente come Cyrix e WinChip, che usava però i socket intel esattamente come amd.
NOn dimentichiamo che amd nacque come clone di una 80486 e la sua strda la prese completamente con il k7 slot a.
cerchiamo di non fare confusione con i socket AMD.
Il socket 754 fu presentato a settembre 2003
il socket 940 che era un socket per server venne presentato insieme al 754 e ci furono solo 2 processori che erano l'FX-51 e 53(almeno credo) e poi spari dal mercato.
Il socket 939 fu presentato nel giugno del 2004.
il socket AM2 fu presentato nel maggio del 2006.
Il socket AM2+ invece fu presentato nel novembre 2007.
Il socket 775 è stato si longevo ma la cara Intel le su carognate per costringerti a cambiare mobo le ha fatte come per esempio con i Pentium D e i chipset 915/925 e quando uscirono i core 2 duo.
Anche se da qualche parte i costi minori si fanno sentire vedi anche questo artivolo dove un athlon x4 se le prende da un banale i3
:D LOL:D peccato che un i3 costi più di un x4 (e già questo è tutto dire) e poi prendi esempio il comportamento delle cpu in un gioco, che è evidente che non è ottimizzato su 4 core. In tutti gli altri utilizzi , le dà , altro che le prende. Evitiamo questi interventi che oltre che essere da fanboy intel sono anche palesemente OT.
chiudo OT
ps.chiedo scusa, aveva già risposto prontamente cionci.
Strato1541
14-12-2010, 21:22
:D LOL:D peccato che un i3 costi più di un x4 (e già questo è tutto dire) e poi prendi esempio il comportamento delle cpu in un gioco, che è evidente che non è ottimizzato su 4 core. In tutti gli altri utilizzi , le dà , altro che le prende. Evitiamo questi interventi che oltre che essere da fanboy intel sono anche palesemente OT.
chiudo OT
ps.chiedo scusa, aveva già risposto prontamente cionci.
Io citavo un esempio e per dimostrare che il ragionamento corretto è quello per fasce di prezzo.(che và al di là di quanti core si hanno e la frequanza, l'x4 và meglio nel rendering e in altro, però l'i3 è un dual core)
Anche perchè non tifo per nessuno, solo ricordo bene che quando acquistai il l'athlon 3200 64 sù socket 754 , rimasi tagliato fuori dall'aggiornamento.
Tutto sommato non me nè stupii più di tanto , sono cose che possono succedere.
Il tutto per rispondere all'orso che sosteneva che le cpu per am3+ andranno in qualche modo(solo lui sà) bene nelle main am3.
Detto quello che conta è analizzare bene le cose da tutti i punti di vista senza fissarsi..Chiuso OT.
Bellissima però questa affermazione, basare tutte le tue considerazioni su un solo gioco :D
LOL
Per discorso inverso potrei postare un review con battlefield bc 2 e far cry 2 dove un 1090t va come un i980x..
Strato1541
14-12-2010, 21:27
cerchiamo di non fare confusione con i socket AMD.
Il socket 754 fu presentato a settembre 2003
il socket 940 che era un socket per server venne presentato insieme al 754 e ci furono solo 2 processori che erano l'FX-51 e 53(almeno credo) e poi spari dal mercato.
Il socket 939 fu presentato nel giugno del 2004.
il socket AM2 fu presentato nel maggio del 2006.
Il socket AM2+ invece fu presentato nel novembre 2007.
Il socket 775 è stato si longevo ma la cara Intel le su carognate per costringerti a cambiare mobo le ha fatte come per esempio con i Pentium D e i chipset 915/925 e quando uscirono i core 2 duo.
In ogni caso non è possibile montare i phenom x4 e x6 sù main am2, (ho un 6000 sù mn2-e sli e non posso aggiornarla non è una carognata questa??come paragone a pentium d e core 2).
Per me nessuno fà carognate , si segue il mercato e se è possibile avantaggiarsi lo si fà punto e stop.
Dopo quando tecnologicamente non sono compatibili si cambia esattamente come sarà per am3 e am3+.
Quindi non mi pare di aver mai detto fesserie.. ciao.
Strato1541
14-12-2010, 21:28
LOL
Per discorso inverso potrei postare un review con battlefield bc 2 e far cry 2 dove un 1090t va come un i980x..
Sempre sù di una frase ci si ferma si dovrebbe leggere tutto il discorso...
Lo sò bene..
Sempre sù di una frase ci si ferma si dovrebbe leggere tutto il discorso...
Lo sò bene..
Ciao
Senza offesa eh! :) Si scherza.:D
E concordo sul discorso in generale.
Strato1541
14-12-2010, 21:46
Ciao
Senza offesa eh! :) Si scherza.:D
E concordo sul discorso in generale.
:D :D L'importante è non prendersela mai!:) :)
Ciao ragazzi
floydbarber
14-12-2010, 22:35
MSI mostra il modello CR650 Netbook da 15.6 pollici composto da una APU Zacate modello E-350 Dual core @ 1.60GHz TDP 18W, con grafica integrata HD6310 (DX11, 80SP).
Questo modello dovrebbe essere presentato all'inizio del 2011...
Clicca qui... (http://www.tcmagazine.com/tcm/news/hardware/33880/msi-readies-amd-e-350-apu-powered-cr650-notebook)
Anche questo da 15.6" e non è neanche un portatile leggero, mi pare
A me sinceramente quella non sembra una mini-ITX, ma una micro-ATX
http://www.unlogic.se/blogs/myblog/post/mini-itx-bug/file/blog/itx/VIA_Mini-ITX_Form_Factor_Comparison.jpg
è una mini-dtx, il formato "inventato" da amd per risparmiare sui costi di produzione delle mobo...
http://origin.arstechnica.com/reviews/hardware/amds-new-dtx-form-factor.media/diagram2.jpg
dimensioni 200x170 mm, 3 slot di espansione
astroimager
14-12-2010, 23:18
MSI mostra il modello CR650 Netbook da 15.6 pollici composto da una APU Zacate modello E-350 Dual core @ 1.60GHz TDP 18W, con grafica integrata HD6310 (DX11, 80SP).
Questo modello dovrebbe essere presentato all'inizio del 2011...
http://www.pctunerup.com/up/results/_201012/th_20101214184650_msicr65001.jpg (http://www.pctunerup.com/up/image.php?src=_201012/20101214184650_msicr65001.jpg)
Clicca qui... (http://www.tcmagazine.com/tcm/news/hardware/33880/msi-readies-amd-e-350-apu-powered-cr650-notebook)
Netbook? :mbe:
capitan_crasy
14-12-2010, 23:33
Anche questo da 15.6" e non è neanche un portatile leggero, mi pare
Netbook? :mbe:
Va bene pignoloni facciamo Notebook, contenti?:D
astroimager
14-12-2010, 23:43
Ciao
Se i due socket saranno meccanicamente compatibili, è molto probabile che le specifiche elettriche non lo siano, se quest'ultimo caso non fosse vero, ovvero compatibilità elettrica (magari con limitazioni) e meccanica, basta un rilascio A.G.E.S.A compatibile e qualcuno che mastichi un pò di assembly per fare il bios\EFI.
Credo ci sia qualche seria incompatibilità elettrica con BD, altrimenti avrebbero esteso ufficialmente anche alle AM3 (aggiornamento BIOS permettendo).
Certo le ultime AM3 potevano essere progettate per una maggiore longevità, considerando che le attuali piattaforme server possono accogliere entrambe le architetture.
astroimager
14-12-2010, 23:48
Va bene pignoloni facciamo Notebook, contenti?:D
Onestamente non saprei come definirlo... :p
floydbarber
15-12-2010, 00:01
Va bene pignoloni facciamo Notebook, contenti?:D
Non mi ero neanche accorto che avevi scritto netbook :) .
Immaginavo che queste piattaforme sarebbero finite anche su qualche notebook, ma ci si aspettava di vedere prima qualcosa di più piccolo
Credo ci sia qualche seria incompatibilità elettrica con BD, altrimenti avrebbero esteso ufficialmente anche alle AM3 (aggiornamento BIOS permettendo).
Certo le ultime AM3 potevano essere progettate per una maggiore longevità, considerando che le attuali piattaforme server possono accogliere entrambe le architetture.
Ciao
Concordo, pero mi viene da pensare che ci devono mang.. cioè devono lavorare pure i produttori di schede mamme, guarda come sono contenti con intel, 2 socket solo per il desktop, può essere amd da meno :D
Comunque nei server le cose sono un pochetto diverse in quanto un g34 o 32 è diverso da un am2+ am3 sia com pin count che come caratteristiche elettriche, purtroppo:cry:
paolo.oliva2
15-12-2010, 10:15
Credo ci sia qualche seria incompatibilità elettrica con BD, altrimenti avrebbero esteso ufficialmente anche alle AM3 (aggiornamento BIOS permettendo).
Certo le ultime AM3 potevano essere progettate per una maggiore longevità, considerando che le attuali piattaforme server possono accogliere entrambe le architetture.
Io sono propenso di ritenere valida la mia vecchia idea che il motivo sia la DDR3.
Il Phenom II X4 supporta sino a 1333 nativamente, con il limite 1850 da bus in OC. Il Thuban supporta sempre 1333 nativamente, 1600 tramite bios e fino a 2000 tramite bus (2075 in OC). BD Supporterà le 1866 nativamente, e tutto farebbe prevedere che tramite bus si potrebbe arrivare alle 2133MHz, o perlomeno comunque superare i 2GHz del Thuban.
A pensarci un attimo, già il nome AM3+ sarebbe come dire un AM3 potenziato... quindi il supporto a memorie più veloci sarebbe gestito dal bios se BD montato e tornerebbe il fatto che si potrebbero montare Thuban/X4 sulla stessa mobo. In fin dei conti, con una Formula IV, se ci metto Thuban, ho il supporto alle DDR3 2GHz, se ci metto un 965C3, la mobo si trasforma in una classica AM3 1a serie.
Se il socket AM3+ fosse stato fatto per motivi di NDA BD, cioé di non far sapere il supporto fino a che tipo di DDR3, sarebbe una grande stronzata.
Sarebbe stato più consono un AM3 per Thuban testato anche per DDR3 > di 2GHz, compatibile con BD. Ma forse AMD non aveva ancora messo a punto l'MC per BD e i produttori di mobo non potevano commercializzare una mobo in quel modo.
Tra parentesi... vi ricordate che AMD giustificò la scelta di un socket diverso per BD (AM3+ e non AM3) per motivi di velocità e costi? Supponiamo che BD lo si potesse montare sull'AM3, con il limite di 2GHz per le ram, magari dai test fatti poteva risultare che per non creare collo di bottiglia a BD, dovevano aumentare la dimensione di L3 e/o potenziare ulteriormente l'MC. In fin dei conti, il messaggio del socket AM3+ è arrivato poco prima del messaggio delle caratteristiche NB/MC/L3. Conicidenza? Potrebbe, ma se vogliamo, se AMD avesse visto che era più conveniente anche per il cliente, alla fine, cambiare mobo... In fin dei conti, un BD con L3 più grande, sarebbe costato di più, ivi compreso anche a tutti quelli che avrebbero comprato un sistema ex-novo. Che so... forse è meglio che TUTTI paghino BD di meno ma con una nuova mobo che viceversa. Non dimentichiamoci poi che se BD X4 avesse avuto metti 6MB di L3 anziché 4, un BD X8, logicamente, ne avrebbe avuti 12MB anziché 8MB, a tutto discapito del prezzo.
imho è più che altro una questione di features della cpu... bd avrà un comportamento abbastanza diverso dai predecessori, sia cvome gestione del clock sia come risparmio energetico sia come (forse) gestione delle linee pci-express, e probabilmente se avessero reso possibile montarlo su una scheda madre "vecchia" avrebbe perso troppi dei vantaggi architetturali... senza considerare che anche il discorso di alimentazione diventa importante, abbiamo visto ( e qualcuno l'ha provato sul portafogli) che già un thuban ha un assorbimento differente da un deneb, se le specifiche di amperaggio non fossero in linea con quelle dell'am3 basterebbe questo a giustificare un cambio di socket.
paolo.oliva2
15-12-2010, 11:15
imho è più che altro una questione di features della cpu... bd avrà un comportamento abbastanza diverso dai predecessori, sia cvome gestione del clock sia come risparmio energetico sia come (forse) gestione delle linee pci-express, e probabilmente se avessero reso possibile montarlo su una scheda madre "vecchia" avrebbe perso troppi dei vantaggi architetturali... senza considerare che anche il discorso di alimentazione diventa importante, abbiamo visto ( e qualcuno l'ha provato sul portafogli) che già un thuban ha un assorbimento differente da un deneb, se le specifiche di amperaggio non fossero in linea con quelle dell'am3 basterebbe questo a giustificare un cambio di socket.
Per i consumi non penso... concordo che il Thuban ha più Ampere perché il Vcore è generalmente più basso, però si parla di 125W per ambedue. BD è dato per 95W come X6 e X4, quindi, anche contando in un aumento di Ampere per contrastare il Vcore inferiore, rimane sempre il tetto dei 95W. Per BD X8 versione 125W d'accordo... comunque la maggior parte di mobo supportano i 140W TDP, quindi del margine l'avrebbero.
Poi penso che molte cose innovative all'interno di BD vengano gestite dal procio/bios. Ad esempio, il Thuban si può montare su mobo "vecchie" e con l'aggiornamento bios si abilita il turbo, cosa che non esisteva a priori.
Non ho la lanterna magica, quindi posso sbagliare, però, se ci fosse uno stravolgimento dei contatti elettrici, di fatto un Phenom II non si potrebbe montare, come del resto, i chip 9XX hanno la medesima piedinatura dei "vecchi" 8XX, quindi non dovrebbero esserci piste/piedini in più, a parte probabilmente l'accrocchio solito per impedire il montaggio di BD su un socket non AM3+.
Non ho la lanterna magica, quindi posso sbagliare, però, se ci fosse uno stravolgimento dei contatti elettrici, di fatto un Phenom II non si potrebbe montare
Non è detto. La scheda madre potrebbe partire (e sicuramente lo farà) prima in una modalità di lettura dell'identificavo della CPU e poi switchare nella modalità di funzionamento della CPU rilevata. Certo così di solito non si gestisce uno stravolgimento, ma piccole differenze si possono gestire sicuramente.
aaadddfffgggccc
15-12-2010, 11:33
Per i consumi non penso... concordo che il Thuban ha più Ampere perché il Vcore è generalmente più basso, però si parla di 125W per ambedue. BD è dato per 95W come X6 e X4, quindi, anche contando in un aumento di Ampere per contrastare il Vcore inferiore, rimane sempre il tetto dei 95W. Per BD X8 versione 125W d'accordo... comunque la maggior parte di mobo supportano i 140W TDP, quindi del margine l'avrebbero.
Poi penso che molte cose innovative all'interno di BD vengano gestite dal procio/bios. Ad esempio, il Thuban si può montare su mobo "vecchie" e con l'aggiornamento bios si abilita il turbo, cosa che non esisteva a priori.
Non ho la lanterna magica, quindi posso sbagliare, però, se ci fosse uno stravolgimento dei contatti elettrici, di fatto un Phenom II non si potrebbe montare, come del resto, i chip 9XX hanno la medesima piedinatura dei "vecchi" 8XX, quindi non dovrebbero esserci piste/piedini in più, a parte probabilmente l'accrocchio solito per impedire il montaggio di BD su un socket non AM3+.
Ci sono parecchi limiti sulle mobo vecchie per gestire thuban, specialmente il turbo, ma non entriamo in dettaglio..
AMD ha fatto molto bene a creare un nouvo socket per BD e chiudere con la retro compatibilità, le nuove mobo saranno dotate di nuove circuitazioni elettriche appositamente studiate per BD che si differenziano molto dalle attuali AM3.
Saranno presenti anche delle novità di gestione bios grazie appunto alle nuove mobo e nuovi chipset, ovviamente è ancora tutto top secret ma qualche indiscrezione comincia a girare... :D
Ci sentiamo a fine febbraio ;)
capitan_crasy
15-12-2010, 11:36
imho è più che altro una questione di features della cpu... bd avrà un comportamento abbastanza diverso dai predecessori, sia cvome gestione del clock sia come risparmio energetico sia come (forse) gestione delle linee pci-express, e probabilmente se avessero reso possibile montarlo su una scheda madre "vecchia" avrebbe perso troppi dei vantaggi architetturali... senza considerare che anche il discorso di alimentazione diventa importante, abbiamo visto ( e qualcuno l'ha provato sul portafogli) che già un thuban ha un assorbimento differente da un deneb, se le specifiche di amperaggio non fossero in linea con quelle dell'am3 basterebbe questo a giustificare un cambio di socket.
Più ci penso e più AMD doveva condannare a morte il socket AM3+ e i suoi parenti...
Il core Sepang avrà il controller PCI-Express integrato e il triplo channel, mentre Komodo dovrà fare a meno di queste due novità proprio a causa del socket AM3+...
E anche vero che non si poteva puntare subito sul socket FM1 a causa dell'architettura di Zambezi la quale è senza controller PCI-Express integrati...
Credo che non si siano più dubbi...
AMD ha dichiarato che il socket AM3 NON è compatibile con le CPU socket AM3+:
Clicca qui... (http://www.hwupgrade.it/forum/showpost.php?p=32927449&postcount=2281)
mentre in una Roadmap AMD viene confermato la compatibilità delle schede mamme socket AM3+ sugli attuali CPU socket AM3...
http://www.pctunerup.com/up/results/_201012/th_20101214184847_zambezi_roadmap.jpg (http://www.pctunerup.com/up/image.php?src=_201012/20101214184847_zambezi_roadmap.jpg)
speriamo comincino ad uscire schede madri am3+, così dapoter fare una configurazione più espandibile.
paolo.oliva2
15-12-2010, 12:50
Più ci penso e più AMD doveva condannare a morte il socket AM3+ e i suoi parenti...
Il core Sepang avrà il controller PCI-Express integrato e il triplo channel, mentre Komodo dovrà fare a meno di queste due novità proprio a causa del socket AM3+...
E anche vero che non si poteva puntare subito sul socket FM1 a causa dell'architettura di Zambezi la quale è senza controller PCI-Express integrati...
In un certo senso, anche se ho detto sempre il contrario perché comunque convinto, mi comincio a ricredere. Meglio come fa Intel... nuovo procio/architettura, nuovo socket e bios/procio sfruttati al massimo senza tante menate di retrocompatibilità.
Guardiamo ora BD... retrocompatibile al Phenom II, per cosa? Tanto nel 2013 il socket si cambierà per l'APU... perché avere problemi di retrocompatibilità per 2 anni max?
Tra l'altro... questa retrocompatibilità sarà necessaria? Il 32nm prenderà rapidamente il posto del 45nm, perché comunque per AMD produrlo ha un costo inferiore, AMD può guadagnarci di più perché il rapporto prezzo/prestazioni del 32nm sul 45nm è immensamente a favore del 32nm, Llano ha un nuovo socket... questa retrocompatibilità di BD è alquanto discutibile. Tra l'altro... non credo che uno acquisterebbe una mobo compatibile BD per metterci su cosa? BD X4 avrà un prezzo simile ai Phenom II X4 odierni... non avrebbe senso risparmiare su 300€ totali (BD X4 + mobo) 30-40€ per prendersi un 45nm economico... Tra l'altro, bisognerebbe comunque aggiungere DDR3 almeno a 2GHz, quindi anche 50€ in meno andrebbero comunque rapportati su una spesa di 450€... che senso avrebbe ad esempio un sistema così a 350€ con un Sempron, e 450€ con un BD X4? Non ci sarebbe storia...
marchigiano
15-12-2010, 14:24
MSI mostra il modello CR650 Notebook da 15.6 pollici composto da una APU Zacate modello E-350 Dual core @ 1.60GHz TDP 18W, con grafica integrata HD6310 (DX11, 80SP).
Questo modello dovrebbe essere presentato all'inizio del 2011...
tutto dipenderà dal prezzo
Soyo mostra la propria scheda mamma di Brazos in formato mini-ATX, composta da una APU Zacate E-350 @ 1.60Ghz.
La scheda ha uno slot PCI-Express 16X, uno Slot PCI-Express 1x, uno slot PCI, 6 porte SATA3.0, uscite video VGA, DVI e HDMI; mancano le porte USB 3.0.
Purtroppo sarà difficile vedere questa soluzione in europa dato che la nuova Soyo ha un mercato solo in oriente...
Clicca qui... (http://www.dvhardware.net/article47069.html)
è micro-atx, forse un po più bassa avendo solo 3 slot contro i 4 classici... molto interessante comunque, la sbatti dentro un piccolo case e sei a posto come muletto/ufficio
tutto dipenderà dal prezzo
è micro-atx, forse un po più bassa avendo solo 3 slot contro i 4 classici... molto interessante comunque, la sbatti dentro un piccolo case e sei a posto come muletto/ufficio
no, è mini-dtx :muro:
marchigiano
15-12-2010, 15:23
no, è mini-dtx :muro:
un altro formato? che stress :D
mi autoquoto :)
il dtx come formato esiste da almeno un paio d'anni, ma praticamente non ha avuto diffusione... ed è strano, perchè le dimensioni delle dtx e mini-dtx sono pensate per ottimizzare le matrici da cui "tagliano" le schede madri, quindi per far spendere meno soldi ai produttori di mobo...e hanno i fori di fissaggio compatibili con atx-micro-atx-mini-itx, quindi possono essere montate in qualunque case standard
è una mini-dtx, il formato "inventato" da amd per risparmiare sui costi di produzione delle mobo...
http://origin.arstechnica.com/reviews/hardware/amds-new-dtx-form-factor.media/diagram2.jpg
dimensioni 200x170 mm, 3 slot di espansione
paolo.oliva2
15-12-2010, 19:43
Ho la sensazione che qualche cosa su BD trapelerà da qui a Natale... di corposa.
I sample ormai dovrebbero essere arrivati ai produttori di mobo... commercialmente sarebbe giusta una fuoriuscita di notizie (con il benestare AMD) di qualche schermata di BD... almeno di frequenze tangibili... :)
Ho la sensazione che qualche cosa su BD trapelerà da qui a Natale... di corposa.
I sample ormai dovrebbero essere arrivati ai produttori di mobo... commercialmente sarebbe giusta una fuoriuscita di notizie (con il benestare AMD) di qualche schermata di BD... almeno di frequenze tangibili... :)
Quanto meno lo faranno prima del 9 gennaio, uscita di SB. Quale mossa migliore per distogliere l'attenzione e dissuadere potenziali acquirenti. ;)
marchigiano
15-12-2010, 21:22
Quanto meno lo faranno prima del 9 gennaio, uscita di SB. Quale mossa migliore per distogliere l'attenzione e dissuadere potenziali acquirenti. ;)
si, anche se saranno fasce diverse...
mi autoquoto :)
il dtx come formato esiste da almeno un paio d'anni, ma praticamente non ha avuto diffusione... ed è strano, perchè le dimensioni delle dtx e mini-dtx sono pensate per ottimizzare le matrici da cui "tagliano" le schede madri, quindi per far spendere meno soldi ai produttori di mobo...e hanno i fori di fissaggio compatibili con atx-micro-atx-mini-itx, quindi possono essere montate in qualunque case standard
a bene, speriamo quindi in prezzi bassi perchè le mini-itx costano relativamente tanto
capitan_crasy
15-12-2010, 23:30
Ho la sensazione che qualche cosa su BD trapelerà da qui a Natale... di corposa.
I sample ormai dovrebbero essere arrivati ai produttori di mobo... commercialmente sarebbe giusta una fuoriuscita di notizie (con il benestare AMD) di qualche schermata di BD... almeno di frequenze tangibili... :)
Il prossimo appuntamento è al CES 2011 dove con tutta probabilità verrà presentato Bobcat...
Forse sarà mostrato qualche sample di BD o di Llano la quale dovrebbe aver raggiunto lo step B (quello destinato alla versione finale)...
si, anche se saranno fasce diverse...
a bene, speriamo quindi in prezzi bassi perchè le mini-itx costano relativamente tanto
oddio, per quello che offrono... la asus m4a88t-i am3 che ho preso da poco ha veramente tutto, ha l'880g che può andare in hybrid crossfire con una 5450 ( provato :) ), ha il core unlocker, un bios fatto benissimo anche per l'overclock, un access point wifi integrto, bluetooth integrato, due usb 3.0, e costa 100 euro... come prezzo è accettabilissimo imho, spero che ne facciano così anche per bd e llano :)
paolo.oliva2
16-12-2010, 10:36
oddio, per quello che offrono... la asus m4a88t-i am3 che ho preso da poco ha veramente tutto, ha l'880g che può andare in hybrid crossfire con una 5450 ( provato :) ), ha il core unlocker, un bios fatto benissimo anche per l'overclock, un access point wifi integrto, bluetooth integrato, due usb 3.0, e costa 100 euro... come prezzo è accettabilissimo imho, spero che ne facciano così anche per bd e llano :)
Concordo.
All'uscita sicuramente ci sarà sempre il classico ladrocinio... ma credo che non vi sia assolutamente nessun motivo per far pagare un'AM3+ più di una AM3 attuale, una volta a regime e con le stesse caratteristiche.
Io ho preso 2 Formula IV, lasciando perdere la Extreme (che ai fini dell'OC non ha nulla da offrire di più) ed ho speso 170€ appena uscita e 140€ la seconda, e non escluderei che sia ulteriormente diminuita di prezzo. Per la qualità della mobo e il rapporto prezzo/prestazioni sono estremamente soddisfatto. Anche considerando il ladrocinio iniziale per l'AM3+, una mobo top (Formula IV AM3+?) che si posizionasse sui 150€, dove ci potrei montare tutti i BD, dall'X4 all'X8 e tutti i proci AM3 precedenti ed i BD futuri 2012, praticamente l'intera produzione AMD, mi sembra il max.
Anche se, alla fine, avrei preferito un socket AM4 e addio alla retro-compatibilità.
paolo.oliva2
16-12-2010, 19:33
Le voci che il prox Xbox sarà equipaggiato con un AMD APU stanno diventando più insistenti... e scappa qualche dettaglio in più.
XBox 720 Boasts to Have AMD Fusion II Processor
“XBox 720″ Boasts to Have AMD Fusion II Processor; Coming in 2011?
QUI (http://forums.vr-zone.com/news-around-the-web/953652-xbox-720-boasts-have-amd-fusion-ii-processor.html)
Prendendo in esame i dubbi circa la "potenza" di una APU con il fatto della DDR3 e l'MC del procio che dovrebbe alimentare sia i core che l'APU... direi che AMD per forza possa aver studiato specifiche soluzioni.
Per la banda, io avrei pensato questo:
Abbiamo visto che il dual-channel nel Phenom II la banda che sia con 2 banchi o con 4 non aumenta. Però, visto che Llano è un'APU e visto che il tallone d'achille dell'APU sarebbe la banda delle DDR3, potrei anche presumere che AMD possa anche far lavorare un Llano specifico nell'XBOX come 2 effettivi dual-channel, con un raddoppio effettivo della banda.
Inoltre... mettiamo che AMD "tolga" 1 core o 2, visto che la potenza non dovrebbe mancare basandosi su clock da 32nm, in primis togliendo TDP ai core può destinare un maggior TDP per l'APU, ma anche inserire nello spazio vuoto una cache specifica per l'APU.
Cioè... in questo modo AMD potrebbe dedicare un dual-channel di 2 banchi specificatamente per l'APU e magari usare l'altro dual-channel sia per i core che per la Cache dell'APU, in modo di avere comunque una banda che possa arrivare quasi al doppio di una DDR3 "normale".
a vostro avviso le future sched madri am3+ avranno il pcexpres 3.0
marchigiano
16-12-2010, 20:41
Abbiamo visto che il dual-channel nel Phenom II la banda che sia con 2 banchi o con 4 non aumenta.
e certo mica con 4 banchi diventa quad-channel :)
Però, visto che Llano è un'APU e visto che il tallone d'achille dell'APU sarebbe la banda delle DDR3, potrei anche presumere che AMD possa anche far lavorare un Llano specifico nell'XBOX come 2 effettivi dual-channel, con un raddoppio effettivo della banda.
Inoltre... mettiamo che AMD "tolga" 1 core o 2, visto che la potenza non dovrebbe mancare basandosi su clock da 32nm, in primis togliendo TDP ai core può destinare un maggior TDP per l'APU, ma anche inserire nello spazio vuoto una cache specifica per l'APU.
Cioè... in questo modo AMD potrebbe dedicare un dual-channel di 2 banchi specificatamente per l'APU e magari usare l'altro dual-channel sia per i core che per la Cache dell'APU, in modo di avere comunque una banda che possa arrivare quasi al doppio di una DDR3 "normale".
potrebbero fare anche una mobo ad-hoc per microsos con 2 o più apu in una sorta di crossfire
capitan_crasy
16-12-2010, 20:42
a vostro avviso le future sched madri am3+ avranno il pcexpres 3.0
I tempi sono troppo stretti per sperare nel PCI-Express 3.0 sui chipset AMD serie 900; credo che verrà introdotto nel 2012 con la piattaforma che sostituirà "Scorpius"...
paolo.oliva2
16-12-2010, 21:24
e certo mica con 4 banchi diventa quad-channel :)
Ma è come se lo fosse. Cioè... ti faccio un esempio:
Procio classico: 4 core --> dual-channel, sparo a caso, 20GB/s. I 20GB/s li hai sia che usi i banchi 1-2, sia che usi i banchi 1-2-3-4.
Se invece l'MC potesse gestire, sempre in dual-channel ma effettivamente 2 dual-channel, avremmo 20GB/s per i core con i banchi 1-2, e 20GB/s per l'APU con i banchi 3-4.
La differenza è che con un quad-channel avresti 40GB/s in condivisione tra core e APU, mentre con un doppio dual channel effettivo, avresti 20GB/s per i core e 20GB/s per l'APU, ma la cui somma farebbe sempre 40GB/s.
potrebbero fare anche una mobo ad-hoc per microsos con 2 o più apu in una sorta di crossfire
Io qui non ci metto becco...
Comunque, a priori io partirei con questo ragionamento: partiamo dal fatto che le APU prima o poi sostituiranno le VGA su scheda. Quindi una APU deve comunque arrivare ad offrire quanto una VGA.
Ora... se noi ci puntualizziamo che le DDR3 non hanno la banda sufficiente quanto le GDR5, la cosa non avrebbe fine, perché le GDR sono più avanti in banda delle DDR, cioé.... quando ci saranno le DDR4, ci saranno le GDR6 e così via.
L'unico modo per ovviare a ciò, ma con questo non intendo solo AMD, ma chiunque voglia realizzare APU, per non castrarle, è di assicurare una banda adeguata che non gli faccia da collo di bottiglia. Ora... o si mettono delle GDR saldate tipo sulla mobo, oppure si realizzano quad-channel, esa-channel, octa-channel, ma questo comporterebbe un rialzo del prezzo, che farebbe perdere all'APU il concetto primario della economicità, quindi, qualche cosa si dovrebbe escogitare di alternativo.
Detto alla buona... non è detto addirittura che un teorico Llano per Xbox abbia un MC con i banchi 1-2 DDR3 destinati ai core, e i banchi 3-4 magari collegati a delle GDR5 saldate dulla mobo. Oppure, sempre in teoria, senza stravolgere nulla, che l'APU abbia un suo MC come sulle discrete che si allaccia alla sua GDR, lasciando comunque libere le interconnessioni tipiche di APU.
Probabilmente Llano non avrà nulla di quello che ho detto... ma ciò non toglie che una soluzione del genere comunque sarebbe prospettabile in futuro.
marchigiano
16-12-2010, 22:44
Ma è come se lo fosse. Cioè... ti faccio un esempio:
Procio classico: 4 core --> dual-channel, sparo a caso, 20GB/s. I 20GB/s li hai sia che usi i banchi 1-2, sia che usi i banchi 1-2-3-4.
Se invece l'MC potesse gestire, sempre in dual-channel ma effettivamente 2 dual-channel, avremmo 20GB/s per i core con i banchi 1-2, e 20GB/s per l'APU con i banchi 3-4.
La differenza è che con un quad-channel avresti 40GB/s in condivisione tra core e APU, mentre con un doppio dual channel effettivo, avresti 20GB/s per i core e 20GB/s per l'APU, ma la cui somma farebbe sempre 40GB/s.
a mi sa che ti riferisci al ganged/unganged...
però ti confondi:
con ganged, ogni core di una cpu ha accesso a TUTTA la ram in dual channel
con unganged, ogni core di una cpu ha accesso a metà della ram in single channel
a mi sa che ti riferisci al ganged/unganged...
però ti confondi:
con ganged, ogni core di una cpu ha accesso a TUTTA la ram in dual channel
con unganged, ogni core di una cpu ha accesso a metà della ram in single channel
Ciao
Scusami, ganged ed unganged non voglion dire proprio questo. In ambedue le modalita ogni core del k10 può utilizzare tutta la ram che vuole . Ganged ed unganged si riferiscono alla modalità operativa del memory controller del k10. Esso ha ampiezza di 144bit (l'ampiezza effettiva è 128bit quelli restanti sono utilizzati per l'error control) In modalità ganged ogni ciclo di clock un solo core può o leggere o scrivere 128bit da\verso la ram. in modalità unganged si ha lo sdoppiamento del mem controller da 128bit in 2 da 64. Un core può leggere\scrivere dalla\verso la ram 64bit ed un altro core allo stesso tempo può leggere\scrivere altri 64bit. In pratica la modalità unganged permette a 2 core di leggere\scrivere sulla ram in modo contemporaneo, utile per programmi multithreaded.
marchigiano
17-12-2010, 00:19
grazie della spiegazione
si vede che ho usato poco i phenom... :fagiano:
Le voci che il prox Xbox sarà equipaggiato con un AMD APU stanno diventando più insistenti... e scappa qualche dettaglio in più.
XBox 720 Boasts to Have AMD Fusion II Processor
“XBox 720″ Boasts to Have AMD Fusion II Processor; Coming in 2011?
QUI (http://forums.vr-zone.com/news-around-the-web/953652-xbox-720-boasts-have-amd-fusion-ii-processor.html)
Prendendo in esame i dubbi circa la "potenza" di una APU con il fatto della DDR3 e l'MC del procio che dovrebbe alimentare sia i core che l'APU... direi che AMD per forza possa aver studiato specifiche soluzioni.
Per la banda, io avrei pensato questo:
Abbiamo visto che il dual-channel nel Phenom II la banda che sia con 2 banchi o con 4 non aumenta. Però, visto che Llano è un'APU e visto che il tallone d'achille dell'APU sarebbe la banda delle DDR3, potrei anche presumere che AMD possa anche far lavorare un Llano specifico nell'XBOX come 2 effettivi dual-channel, con un raddoppio effettivo della banda.
Inoltre... mettiamo che AMD "tolga" 1 core o 2, visto che la potenza non dovrebbe mancare basandosi su clock da 32nm, in primis togliendo TDP ai core può destinare un maggior TDP per l'APU, ma anche inserire nello spazio vuoto una cache specifica per l'APU.
Cioè... in questo modo AMD potrebbe dedicare un dual-channel di 2 banchi specificatamente per l'APU e magari usare l'altro dual-channel sia per i core che per la Cache dell'APU, in modo di avere comunque una banda che possa arrivare quasi al doppio di una DDR3 "normale".
la prossima xbox usarà chip amd? si la gpu....
stop
imho non avrebbe senso usare un chip x86 mandano a quel paese tutta quanto fatto con la 360...
la prossima xbox usarà chip amd? si la gpu....
stop
imho non avrebbe senso usare un chip x86 mandano a quel paese tutta quanto fatto con la 360...
io di console non ci capisco un tubo, ma mi ricordo che la cpu della prima xbox era un pentium 3... sicuro che cell non fosse x86? girano i giochi della prima xbox sulla 360?
io di console non ci capisco un tubo, ma mi ricordo che la cpu della prima xbox era un pentium 3... sicuro che cell non fosse x86? girano i giochi della prima xbox sulla 360?
Microsoft regala o quasi il kit di sviluppo per i giochi. Una volta fatto il progetto, questo può essere compilato sia per PC che per XBOX con poche (o nessuna) modifica... Non vedo problemi... Ormai nessuno più programma in assembler e le librerie della XBOX sono appositamente compatibili con le directX (non chiedetemi che versione, però ) :)
allora una cpu x86 sulla xbox 720 è più che plausibile :)
capitan_crasy
17-12-2010, 12:05
Notizia di Hwupgrade del 17.12.2010
Con il termine di APU (acronimo di Accelerated Processing unit) AMD identifica le proprie soluzioni capaci di integrare al proprio interno i componenti CPU e GPU: in un solo chip saranno quindi presenti due componenti fino a oggi separati. I primi processori con tale caratteristica che appariranno sul mercato saranno basati su architettura Fusion e, secondo le informazioni attualmente disponibili, raggiungeranno gli scaffali della grande distribuzione con l'inizio del nuovo anno.
Zacate è il nome in codice della futura piattaforma notebook prodotta da AMD proprio con questo tipo di approccio: si tratta di CPU Dual core con GPU integrata (in grado di supportare DirectX 11). Le soluzioni potrebbero però trovare non solo spazio sul mondo notebook, ma anche sulla realtà desktop, per lo sviluppo di sistemi particolarmente compatti.
Secondo quanto riportato da The Inquirer (http://www.theinquirer.net/inquirer/news/1933076/amd-fusion-chip-zas-motherboards-arrive-january), infatti, il mercato delle schede madri garantirà un completo supporto alla nuova piattaforma AMD: il mese di Gennaio del prossimo anno, oramai alla porte, farà da sfondo al lancio di nuovi modelli.
A presentare le nuove schede madri ci saranno tutti i principali brand del settore, tra cui Asus, Gigabyte, MSI e Sapphire. Le prime soluzioni dovrebbero apparire proprio in occasione del solito CES di Las Vegas. Già qualche giorno fa, sempre in rete erano comparese le prime immagini di una possibile soluzione di Gigabyte, che riportiamo a seguire:
http://www.hwupgrade.it/immagini/gbt_fusion_zacate_mobo.jpg
Secondo le prime informazioni, nonostante manchino conferme ufficiali, le prestazioni che Zacate dovrebbe essere in grado di garantire risultano sufficienti per tenere testa alle CPU CULV di Intel e la sua grafica integrata si presenta in linea con una scheda video dedicata di fascia entry-level.
Le nuove soluzioni potrebbero quindi fare la felicità di tutti gli appassionati di HTPC o che intendono produrre un sistema a basso consumo che sia capace di risultare poco rumoroso. Non è da escludere nemmeno l'impiego di Zacate all'interno di sistemi All in one da parte dei produttori stessi.
Clicca qui... (http://www.hwupgrade.it/news/skmadri/schede-madri-per-zacate-in-arrivo-a-gennaio_34807.html)
Alekos Panagulis
17-12-2010, 12:42
Questa era la notizia che attendevo.....non vedo l'ora di buttare la little falls2 che non è in grado di riprodurre filmati hd :rolleyes:
paolo.oliva2
17-12-2010, 14:23
Notizia di Hwupgrade del 17.12.2010
Secondo le prime informazioni, nonostante manchino conferme ufficiali, le prestazioni che Zacate dovrebbe essere in grado di garantire risultano sufficienti per tenere testa alle CPU CULV di Intel e la sua grafica integrata si presenta in linea con una scheda video dedicata di fascia entry-level.
Quindi ancora una volta le prestazioni si sarebbero rivelate ben superiori alle attese, mi sembra.
Se la stessa cosa si ripeterà con BD...
marchigiano
17-12-2010, 14:46
si scontreranno con queste
http://www.anandtech.com/show/3869/zotac-ionitxpe-can-intels-culv-processors-reinvigorate-interest-in-nvidias-ion/1
speriamo in una guerra dei prezzi
certo che "furbetta" intel a presentare quelle mobo solo ora... :asd:
capitan_crasy
17-12-2010, 15:35
Quindi ancora una volta le prestazioni si sarebbero rivelate ben superiori alle attese, mi sembra.
Se la stessa cosa si ripeterà con BD...
Gli ultimi test di Zacate sono stati eseguiti con una piattaforma da laboratorio, quindi non sono il massimo come prestazioni a livello assoluto...
Tuttavia non mi aspetto grossi miglioramenti sulla piattaforma definitiva, anche se i driver video utilizzati per quella prova avevano un supporto ridotto ai minimi termini...
Vediamo come se la cava Zacate con revisioni del silicio, driver e BIOS definitivi...
von Clausewitz
17-12-2010, 18:25
Ho la sensazione che qualche cosa su BD trapelerà da qui a Natale... di corposa.
I sample ormai dovrebbero essere arrivati ai produttori di mobo... commercialmente sarebbe giusta una fuoriuscita di notizie (con il benestare AMD) di qualche schermata di BD... almeno di frequenze tangibili... :)
per sapere qualcosa di specifico pare bisognerà aspettare l'ISSCC (International Solid-State Circuits Conference) che si terrà a San Francisco fra il 20/24 febbraio
e il 21 febbraio dovrebbe essere la giornata delle rivelazioni, soprattutto sulle frequenze
http://en.expreview.com/2010/11/25/amd-bulldozer-processor-may-work-at-over-3-5ghz/12321.html
von Clausewitz
17-12-2010, 18:40
progamma da qui
http://isscc.org/doc/2011/isscc2011.advanceprogramabstracts.pdf
Bulldozer è a pagina 20:
SESSION 4 Monday February 21st, 1:30 pM
4.5 design Solutions for the Bulldozer 32nm Soi 2-core processor 3:15 pM
Module in an 8-core cpu
T. Fischer1, S. Arekapudi2, E. Busta1, C. Dietz3, M. Golden2, S. Hilker2, A. Horiuchi1, K. A. Hurd1,
D. Johnson1, H. McIntyre2, S. Naffziger1, J. Vinh2, J. White4, K. Wilcox4
1AMD, Fort Collins, CO
2AMD, Sunnyvale, CA
3AMD, Austin, TX
4AMD, Boxborough, MA
The Bulldozer 2-core CPU module contains 213M transistors in an 11-metal layer 32nm high-k metalgate
SOI CMOS process and is designed to operate from 0.8 to 1.3V. This micro-architecture improves
performance and frequency while reducing area and power over a previous AMD x86-64 CPU in the
same process. The design reduces the number of gates/cycle relative to prior designs, achieving
3.5GHz+ operation in an area (including 2MB L2 cache) of 30.9mm2.
4.6 40-entry unified out-of-order Scheduler and integer execution unit 3:45 pM
for the aMd Bulldozer x86-64 core
M. Golden, S. Arekapudi, J. Vinh
AMD, Sunnyvale, CA
A 40-instruction out-of-order scheduler issues four operations per cycle and supports single-cycle operation
wakeup. The integer execution unit supports single-cycle bypass between four functional
units. Critical paths are implemented without exotic circuit techniques or heavy reliance on full-custom
design. Architectural choices minimize power consumption.
paolo.oliva2
17-12-2010, 18:55
progamma da qui
http://isscc.org/doc/2011/isscc2011.advanceprogramabstracts.pdf
Bulldozer è a pagina 20:
SESSION 4 Monday February 21st, 1:30 pM
4.5 design Solutions for the Bulldozer 32nm Soi 2-core processor 3:15 pM
Module in an 8-core cpu
T. Fischer1, S. Arekapudi2, E. Busta1, C. Dietz3, M. Golden2, S. Hilker2, A. Horiuchi1, K. A. Hurd1,
D. Johnson1, H. McIntyre2, S. Naffziger1, J. Vinh2, J. White4, K. Wilcox4
1AMD, Fort Collins, CO
2AMD, Sunnyvale, CA
3AMD, Austin, TX
4AMD, Boxborough, MA
The Bulldozer 2-core CPU module contains 213M transistors in an 11-metal layer 32nm high-k metalgate
SOI CMOS process and is designed to operate from 0.8 to 1.3V. This micro-architecture improves
performance and frequency while reducing area and power over a previous AMD x86-64 CPU in the
same process. The design reduces the number of gates/cycle relative to prior designs, achieving
3.5GHz+ operation in an area (including 2MB L2 cache) of 30.9mm2.
4.6 40-entry unified out-of-order Scheduler and integer execution unit 3:45 pM
for the aMd Bulldozer x86-64 core
M. Golden, S. Arekapudi, J. Vinh
AMD, Sunnyvale, CA
A 40-instruction out-of-order scheduler issues four operations per cycle and supports single-cycle operation
wakeup. The integer execution unit supports single-cycle bypass between four functional
units. Critical paths are implemented without exotic circuit techniques or heavy reliance on full-custom
design. Architectural choices minimize power consumption.
E' lunga da qui a febbraio...
@Capitano.
Dell'ULK non ne menzionano nulla.
Mi sa proprio che il 32nm all'uscita sarà solo HKMG e l'aggiunta ULK per il 2012.
Questo potrebbe coincidere con i +2 core a parità di TDP (come postato da AMD ufficialmente, che l'X10 avrebbe lo stesso TDP dell'X8), che sarebbe un guadagno troppo corposo se ipotizzato solo per 1 step successivo a parità di trattamento.
Invece, se su un Vcore 0,8-1,3V 32nm HKMG l'aggiunta dell'ULK concedesse una riduzione del Vcore del 15%, il TDP dovrebbe diminuire della stessa percentuale, e quindi sarebbe molto più realistico che da un X8 si possa passare all'X10 a parità di TDP. Sarebbe fantasia, ma con lo stesso metro, se gli X4 e X6 dati a 95W TDP massimi, calassero di un 15% nel TDP, non sarebbero poi tanto distanti dai 65W TDP. :). Avrebbe dell'incredibile... solamente a pensare ad un X6 top a 65W TDP con frequenza a partire dai 3,5GHz. In ogni caso, almeno sugli 80W TDP max, ci dovrebbero arrivare certamente.
capitan_crasy
17-12-2010, 20:07
E' lunga da qui a febbraio...
@Capitano.
Dell'ULK non ne menzionano nulla.
Mi sa proprio che il 32nm all'uscita sarà solo HKMG e l'aggiunta ULK per il 2012.
Il fatto che AMD non nomini ultra Low-k non significhi che non lo utilizzi...
Dopotutto l'utilizzo del low-k su Thuban fu una "sorpresa" per tutti...
Questo potrebbe coincidere con i +2 core a parità di TDP (come postato da AMD ufficialmente, che l'X10 avrebbe lo stesso TDP dell'X8), che sarebbe un guadagno troppo corposo se ipotizzato solo per 1 step successivo a parità di trattamento.
Invece, se su un Vcore 0,8-1,3V 32nm HKMG l'aggiunta dell'ULK concedesse una riduzione del Vcore del 15%, il TDP dovrebbe diminuire della stessa percentuale, e quindi sarebbe molto più realistico che da un X8 si possa passare all'X10 a parità di TDP. Sarebbe fantasia, ma con lo stesso metro, se gli X4 e X6 dati a 95W TDP massimi, calassero di un 15% nel TDP, non sarebbero poi tanto distanti dai 65W TDP. :). Avrebbe dell'incredibile... solamente a pensare ad un X6 top a 65W TDP con frequenza a partire dai 3,5GHz. In ogni caso, almeno sugli 80W TDP max, ci dovrebbero arrivare certamente.
Lo ripeto ancora una volta non prendere per "definitivi" quei 3.50Ghz...
Un anno fa allo stesso congresso si parlava di Llano alla frequenza di 3.00Ghz, ma essendo un K10 quella frequenza è normale amministrazione per i 45nm, figurati per un 32nm SOI HKMG...
Angelonz
17-12-2010, 20:44
Ma che si sa sui nuovi chipset ?
- integreranno un controller usb 3.0 per 4 porte ?
- il controller del pci express sarà gestito dal chipset o direttamente dal processore ?
- saranno implementati gli standard usb 3.0 sata 3.0 pci-e 3.0 ?
Grazie
aaadddfffgggccc
17-12-2010, 20:58
Caratteristiche tecniche: ;)
AMD has scheduled the debut of its very first Fusion platform (named Brazos) for Q1 2011 and it seems Gigabyte is already supporting it. The Taiwanese company has built at least one mini-ITX motherboard that is based on Brazos and will likely market it as a solution for nettops and HTPCs.
Seen below, the GA-E350V-USB3 has a blue PCB, an Ultra Durable 3 design, the Hudson-M1 chipset, an E-350 accelerated processing unit (has two Bobcat cores @ 1.6 GHz, Radeon HD 6310 graphics with 80 Stream Processors running at 500 MHz, 18W TDP), two DDR3-1800+ memory slots, four SATA (probably 6.0 Gbps) ports, a PCI-Express x16 slot, 7.1 channel audio, USB 3.0, plus D-Sub and DVI outputs.
The motherboard's pricing and shipping details are yet unknown.
http://www.tcmagazine.com/sites/default/files/imagecache/tcm-inline-default/images/tcm/inline/gigabytega-e350v-usb3board01.jpg
paolo.oliva2
17-12-2010, 21:01
Lo ripeto ancora una volta non prendere per "definitivi" quei 3.50Ghz...
Un anno fa allo stesso congresso si parlava di Llano alla frequenza di 3.00Ghz, ma essendo un K10 quella frequenza è normale amministrazione per i 45nm, figurati per un 32nm SOI HKMG...
Io intendo da 3,5GHz in su, tutt'altra cosa rispetto a "fino a 3,5GHz" :D
In fin dei conti, AMD scrive sempre 3,5GHz+
capitan_crasy
17-12-2010, 21:16
Ma che si sa sui nuovi chipset ?
Clicca qui... (http://www.hwupgrade.it/forum/showpost.php?p=33718003&postcount=5532)
- integreranno un controller usb 3.0 per 4 porte ?
Il southbridge AMD con porte USB 3.0 si chiama Hudson D/M3 e dovrebbe essere SB950.
Sicuramente sarà utilizzato sulla piattaforma di Llano, mentre per Bulldozer manca solo la conferma ufficiale...
- il controller del pci express sarà gestito dal chipset o direttamente dal processore ?
Dal chipset per BD e dal processore per Llano...
- saranno implementati gli standard usb 3.0 sata 3.0 pci-e 3.0 ?
Le SATA 3.0 sono già disponibili per le piattaforme AMD, USB 3.0 è dato dal southbridge Hudson M/D3, mentre il PCI-express 3.0 arriverà nel 2012...
luchino89
18-12-2010, 00:28
Dovendo assemblarmi il nuovo computer principalmente per gaming verso fine gennaio, volevo sapere se per quel periodo AMD avrà già rilasciato delle MoBo AM3+ e i nuovi processori, per gaming quali saranno i migliori?
Altrimenti potrei ripiegare ancora su AM3 + un 955/965 BE e poi cambiarli nel 2012 (tenendoli quindi un annetto).
marchigiano
18-12-2010, 00:31
mi sa che mobo am3+ non le vedremo prima di aprile se non luglio :eek:
luchino89
18-12-2010, 00:38
mi sa che mobo am3+ non le vedremo prima di aprile se non luglio :eek:
Non ho letto tutte le pagine ma se non ho capito male dovrebbero uscire nuovi processori già a gennaio-febbraio. Funzionano con le MoBo AM3?
Altrimenti come ho già detto prenderò un 965 BE occandolo a 4Ghz e me lo tengo per un anno, un anno e mezzo....
mi sa che mobo am3+ non le vedremo prima di aprile se non luglio :eek:
Da dove lo leggi luglio ??? Le roadmap parlano di Q2 2010, luglio è nel Q3.
I nuovi processori che escono sono per soluzioni ultraportatili, netbook e nettop. Non sono AM3.
paolo.oliva2
18-12-2010, 08:37
mi sa che mobo am3+ non le vedremo prima di aprile se non luglio :eek:
:eek:
Secondo me dovrebbero vedersi come annuncio almeno a marzo, per essere comunque ben disponibili sul mercato prima del lancio di BD.
AMD ha da sempre "promesso" chip-set nuovi ogni anno, ed ogni anno li ha presentati verso marzo per essere ampiamente disponibili in aprile (vedi Thuban e 8XX). A maggior ragione, visto che è 5 anni che AMD aspetta BD, assolutamente non vedrei alcun motivo plausibile di un ritardo delle mobo unito al lancio di BD che non potrebbe essere quindi "montato".
Anzi, visto che le mobo assicurano la retro-compatibilità con i Phenom II AM3, sarebbe plausibile anche la commercializzazione senza dover aspettare per forza BD, se non per motivi di NDA e di non scoprire in anticipo caratteristiche di BD.
capitan_crasy
18-12-2010, 10:27
Dovendo assemblarmi il nuovo computer principalmente per gaming verso fine gennaio, volevo sapere se per quel periodo AMD avrà già rilasciato delle MoBo AM3+ e i nuovi processori, per gaming quali saranno i migliori?
Altrimenti potrei ripiegare ancora su AM3 + un 955/965 BE e poi cambiarli nel 2012 (tenendoli quindi un annetto).
Il ritorno di Leonida è vicino, molto vicino...
Bulldozer uscirà nel secondo trimestre 2011, forse ad aprile e attualmente non si sa niente sulle frequenze delle future CPU AMD...
Comunque sia trovi tutte le informazioni nelle prime pagine di questo thread...
mi sa che mobo am3+ non le vedremo prima di aprile se non luglio :eek:
Qualcuno me lo può bannare???:muro: :banned: :p
keroro.90
18-12-2010, 12:11
ci sono informazioni sulla compatibilita delle cpu attuali AM3 con mobo AM3+. ovvero un phenom x6 funzionera su una mobo am3+?
ci sono informazioni sulla compatibilita delle cpu attuali AM3 con mobo AM3+. ovvero un phenom x6 funzionera su una mobo am3+?
si funzionera
ci sono informazioni sulla compatibilita delle cpu attuali AM3 con mobo AM3+. ovvero un phenom x6 funzionera su una mobo am3+?
sicuramente al 100% sono compatibili tutti i phenom attuali con am3+
rimangono da confermare solo le atre cpu am3 inferiori (una formalità)
E' lunga da qui a febbraio...
@Capitano.
Dell'ULK non ne menzionano nulla.
Mi sa proprio che il 32nm all'uscita sarà solo HKMG e l'aggiunta ULK per il 2012.
Questo potrebbe coincidere con i +2 core a parità di TDP (come postato da AMD ufficialmente, che l'X10 avrebbe lo stesso TDP dell'X8), che sarebbe un guadagno troppo corposo se ipotizzato solo per 1 step successivo a parità di trattamento.
Invece, se su un Vcore 0,8-1,3V 32nm HKMG l'aggiunta dell'ULK concedesse una riduzione del Vcore del 15%, il TDP dovrebbe diminuire della stessa percentuale, e quindi sarebbe molto più realistico che da un X8 si possa passare all'X10 a parità di TDP. Sarebbe fantasia, ma con lo stesso metro, se gli X4 e X6 dati a 95W TDP massimi, calassero di un 15% nel TDP, non sarebbero poi tanto distanti dai 65W TDP. :). Avrebbe dell'incredibile... solamente a pensare ad un X6 top a 65W TDP con frequenza a partire dai 3,5GHz. In ogni caso, almeno sugli 80W TDP max, ci dovrebbero arrivare certamente.
come dire...che arriveranno anche i LE...naturalmente...perchè 65/80 w in effetti....sono da cpu da sciuponi :sofico:
un bel BD4X a 45W nel 2012...non sarà poi tanto malaccio come idea :D
:eek:
Secondo me dovrebbero vedersi come annuncio almeno a marzo, per essere comunque ben disponibili sul mercato prima del lancio di BD.
AMD ha da sempre "promesso" chip-set nuovi ogni anno, ed ogni anno li ha presentati verso marzo per essere ampiamente disponibili in aprile (vedi Thuban e 8XX). A maggior ragione, visto che è 5 anni che AMD aspetta BD, assolutamente non vedrei alcun motivo plausibile di un ritardo delle mobo unito al lancio di BD che non potrebbe essere quindi "montato".
Anzi, visto che le mobo assicurano la retro-compatibilità con i Phenom II AM3, sarebbe plausibile anche la commercializzazione senza dover aspettare per forza BD, se non per motivi di NDA e di non scoprire in anticipo caratteristiche di BD.
ad essere pignoli...dalle slide ufficiali...dovrebbe apparire 980G nella seconda metà del 1Q e normalmente i chipset con IGP di AMD appaiono sul mercato circa un mese...prima di tutti gli altri.
Ergo...appena verrà presentato 980G...presumendo...sapremo anche quando vedremo gli altri della serie BD (se AMD manterrà le vecchie abitudini).
E non sarebbe affatto male che questi chipset arrivino con un certo anticipo...così al lancio di BD...non si assisterà al solito ladrocinio sulle MB.
marchigiano
18-12-2010, 13:47
Non ho letto tutte le pagine ma se non ho capito male dovrebbero uscire nuovi processori già a gennaio-febbraio. Funzionano con le MoBo AM3?
Altrimenti come ho già detto prenderò un 965 BE occandolo a 4Ghz e me lo tengo per un anno, un anno e mezzo....
quelli che escono tra poco sono su altro socket (che poi dovrebbero essere saldati alla mobo se ricordo bene)
Da dove lo leggi luglio ??? Le roadmap parlano di Q2 2010, luglio è nel Q3.
vabbè ho voluto fare una previsione ottimistica e una pessimistica :)
Qualcuno me lo può bannare???:muro: :banned: :p
:Prrr: :Prrr:
miiiii l'ho detto per scaramanzia dai... :asd:
paolo.oliva2
18-12-2010, 14:54
^^
Tu pensa che mi sono preso il 1100T per "cazzeggiare" in questi mesi che mancano a BD, che io continuo a sperare siano non più di 3 mesi e 13 giorni (1° aprile), se poi tu me lo distanzi del doppio, io rischio l'infarto o al più il ricovero per fulminea crisi depressiva.
Io spero anzi in un anticipo (remota possibilità), comunque, tieni conto che AMD non avendo mai modificato la data di rilascio di BD, confermata anzi dal rilascio degli SE perfettamente nei tempi, direi che tutto prosegui nella giusta direzione.
Tra parentesi... se poi non sia il 1° aprile ma il 10 o il 15, qualche overdose di fegato qualcuno se la farà, ma tutto sommato, contando che almeno io lo aspetto dal Thuban, passerebbe 1 anno, quindi 1 anno e 10 giorni non è che cambi pià di tanto, al limite.
paolo.oliva2
18-12-2010, 15:18
come dire...che arriveranno anche i LE...naturalmente...perchè 65/80 w in effetti....sono da cpu da sciuponi :sofico:
un bel BD4X a 45W nel 2012...non sarà poi tanto malaccio come idea :D
Probabilmente, pensiero soggettivo, è auspicabile che comunque AMD debba buttare in campo con BD una discreta potenza.
Non voglio entrare nel merito del discorso di chi l'avrà più lungo tra AMD e Intel, ma comunque mi sembra prospettabile che se AMD si limita a TDP di 95W come massimo per BD X4 e BD X6, non avrebbe senso se questo TDP castrasse BD nella potenza nei confronti di SB.
Nello stesso ragionamento, un BD X6 con 95W TDP come massimo, credo sia già auspicabile a parità di frequenza (stesso silicio e stessi trattamenti) un BD X4 per via dei 2 core in meno e minor L3, un TDP che già dovrebbe risultare almeno inferiore di un 30-40%, di qui quei 95W di un X6 porterebbero già il TDP sui 65W. Figuriamoci poi i modelli non di punta.
Comunque non riesco a trovare un filo logico sui TDP annunciati da AMD.
Insomma... AMD ha sempre destinato i clock più alti unitamente al procio con il più alto numero di core.
i 95W di un BD X6 coinciderebbero con i 125W top di un BD X8.
Ma non trovo la correlazione di un BD X4 a 95W, è spropositato questo TDP rispetto ad un X6, e sarebbe strano in rapporto alle frequenze.
L'unico motivo che posso valutare e forse sarei sicuro al 99%, è frequenze per il Turbo2 veramente altissime.
Se facciamo mente locale... BD X6 e BD X8 non sarebbero proci da "gioco", nel senso che chi li acquista dovrebbe puntare su applicazioni multicore, o comunque di avere un procio con più programmi attivi contemporaneamente.
Faccio questo esempio, tenendo per confronto applicazioni multicore che utilizzino il massimo dei TH: (metto frequenze più basse di quello che penso per non destare commenti... :))
X8 4GHz def (32GHz totali), Turbo 500MHz su tutti i core (4GHz totali), massimo del procio 36GHz.
X6 4GHz def (24GHz totali), Turbo 600MHz su tutti i core (3,6GHz totali), massimo del procio 27,6GHz totali.
X4 4GHz def (16GHz totali), turbo 1GHz su tutti i core (4GHz totali), massimo del procio 20GHz totali.
Non guardiamo la frequenza, ma guardiamo la logica. In questo senso, BD X4 sarebbe più idoneo, dato l'alta frequenza, ad applicazioni monocore e giochi (visto che al mom + di 4 TH i giochi non usano). La superiore frequenza del Turbo giustificherebbe il TDP di BD X4 simile a BD X6, ma non ostacolerebbe le vendite dell'X6 perché comunque la frequenza complessiva non arriva a superare la potenza data dai 6 core dell'X6.
Invece, da BD X6 a BD X8, il TDP aumenta di 30W, sufficienti a pensare che un BD X8 abbia le stesse frequenze di un BD X6, quindi anche commercialmente, un BD X6 per lo stesso ragionamento fatto sopra per l'X4 non rappresenterebbe un ostacolo per BD X8.
Togli la somma dei Ghz che provoca conati... E' quanto di più sbagliato si possa fare per considerare le performance di una CPU.
[QUOTE=paolo.oliva2;33960088]^^
Tu pensa che mi sono preso il 1100T per "cazzeggiare" in questi mesi che mancano a BD, che io continuo a sperare siano non più di 3 mesi e 13 giorni (1° aprile), se poi tu me lo distanzi del doppio, io rischio l'infarto o al più il ricovero per fulminea crisi depressiva.
parlo per mie personali impressioni ;
pensate che anche loro stanno facendo fatiche a tenere per le catene ''la bestia'' (intendo l'x8):Prrr:
ad ogni modo ,secondo me, calcolando il 32nm(con prima o dopo il low-k,se ne dovesse necessitare),gli 8 core ,che per sua natura secondo alcune osservazioni, va ''meglio''(mi è sembrato di capire) aumentando la frequenza, piu la nuova architettura(secondo quello che attribuisco alla compartimentazione tra interi /virgola), non sarà di certo inosservato e neanche tantomeno suscitare un po di paura,perche secondo tutto quello che ho letto nel forum mi aspetto
che da 4 ghz(parlo di overclock,nostante non sia un uso medio di un processore) a 5 ghz e a liquido 6ghz , 8 core bulldozer dimostrerà la sua diversità,anche perchè cmq in ogni caso anche se ''sarà'' un apripista:eek: molto pesante , deve cmq dare spazio ad APU llano che è proprio lui IL DIVERSO ....e dopo di lui anche bulldozer stesso lo sposeranno con apu e via dicendo apu3,apu4,apu5 ...:read:
paolo.oliva2
18-12-2010, 19:37
Togli la somma dei Ghz che provoca conati... E' quanto di più sbagliato si possa fare per considerare le performance di una CPU.
Per me no.
Se usi un programma multicore che sfrutta tutti i TH disponibili (e quindi tutti i core), è l'unico sistema che si avvicina a capire cosa significa avere un X8 rispetto ad un X4 e X6.
E' anche per questo che il 99% della gente pensa che un II X4 sia uguale ad avere un X6 e poco cambierebbe a passare ad un X8.
Invece chi li ha, capisce perfettamente che 6 core anche in usi normalissimi, lasciano sempre e comunque il procio praticamente libero e molto più reattivo.
P.S.
A me risulta difficile capire come l'SMT Intel possa portare un guadagno fino al 50%, e nello stesso tempo pensare che più core portino un guadagno inferiore... il tutto a parità di TH sfruttabili. In fin dei conti, la "guerra" tra AMD ed Intel, è sui TH, ma con Intel su 2 TH a core, ed AMD su 1 TH a core ma più core fisici a procio. Non puoi in questo confronto limitare il numero di core come non "sfruttabili", perché sarebbe molto lesivo all'architettura AMD, in quanto, a tutti gli effetti, i limiti di SB X4 nello sfruttamento di programmi, avendo l'SMT, sono identici a quelli di un BD X8.
Che poi la scalabilità possa essere differente, da programma a programma, possiamo essere tutti d'accordo, ma vi sono programmi comunque dove la scalabilità è proporzionale al numero di core ed alla relativa frequenza. Un X6 Thuban può arrivare effettivamente ad un risultato del 50% superiore rispetto ad un X4. Poi vi saranno indubbiamente programmi che scalano peggio... ma il tutto sta al "cliente" capire il suo range di lavoro e quale procio sarebbe ideale. Chi gioca e basta, sicuramente mai acquisterebbe un BD X8 e tantomeno un i980X.
Per me no.
Non è "per te" o "per me", semplicemente non ha senso.
Primo: le performance delle CPU non scalano linearmente con la frequenza. Quindi il confronto fra X4 e X6 non lo puoi fare così.
Secondo: le performance non scalano MAI linearmente con il numero dei core a parità di stato.
Quindi non c'è niente di più sbagliato.
Se hai il procio libero significa che non lo sfrutti.
paolo.oliva2
18-12-2010, 20:49
Non è "per te" o "per me", semplicemente non ha senso.
Primo: le performance delle CPU non scalano linearmente con la frequenza. Quindi il confronto fra X4 e X6 non lo puoi fare così.
Secondo: le performance non scalano MAI linearmente con il numero dei core a parità di stato.
Quindi non c'è niente di più sbagliato.
Se hai il procio libero significa che non lo sfrutti.
Io ti posso far vedere che un Thuban X6 a parità di frequenza scala del 50% tondo rispetto ad un Phenom II X4, con Cinebench (basta che guardi la mia firma). Ma ci sono anche altri software che seppur non arrivano al 50%, sono sul 49%, tra cui mi sembra Povray e X264.
Questo è un esempio, che contraddice il tuo mai.
Però, e per me è questo il punto, si deve guardare il massimo realizzabile, ed il massimo è con la scalabilità del 100% rispetto al numero dei core, anche fosse per un solo programma in tutto l'universo, mettendo i distinguo per il proprio utilizzo, perché per me non è giusto dire che un X6 rispetto ad un X4 non guadagna il 50%.
L'esempio che ti ho portato dell'SMT Intel, è che si dice "guadagna fino al 50%", questo con 7-zip. Del resto sappiamo tutti che il guadagno di media è molto inferiore, ma non per questo considero sbagliato dire appunto che l'SMT porta fino al 50% di guadagno, perché, appunto, anche in 1 solo caso, lo fa. Mi sembra che se vogliamo essere coerenti, si debba usare lo stesso metro anche con AMD ed il numero dei core, cioé considerare il max guadagno prospettabile. Del resto, sarebbe assolutamente impossibile formulare una media che riporti un dato certo del guadagno del numero dei core, in quanto è soggettivo all'utilizzo.
Per il discorso sfruttamento procio... che vuol dire? che tutti quelli che hanno un X6 o avranno un X8 debbono per forza avere il procio 24h/24 365 giorni all'anno con carico del 100%? Ad esempio il mio Thuban passa 23h al giorno con un carico dell'1%, visto che non lo spengo mai e lo uso per Tiorrent. Però, quando voglio giocarci e farci una conversione video e altro, posso fare tutto contemporaneamente e volendo anche vedermi un film nelle pause-gioco, come pure masterizzare e fare altro ancora. E questo è uno dei reali vantaggi nell'avere 6 core fisici al posto di 4, come lo sarà averne 8 magari con BD.
Io ti posso far vedere che un Thuban X6 a parità di frequenza scala del 50% tondo rispetto ad un Phenom II X4.
Questo è un esempio, che contraddice il tuo mai.
Se è un benchmark non conta, perché non è detto che il punteggio sia calcolato in modo lineare.
Fammi vedere un'applicazione qualsiasi a parità di thread (a parità di stato) che aumenta del 50% esatto le sue performance e poi ne riparliamo.
paolo.oliva2
18-12-2010, 21:25
Se è un benchmark non conta, perché non è detto che il punteggio sia calcolato in modo lineare.
Fammi vedere un'applicazione qualsiasi a parità di thread (a parità di stato) che aumenta del 50% esatto le sue performance e poi ne riparliamo.
Ma se vuoi mettere i punti sulle i, tutto è diverso.
Ad esempio, un procio monocore a 2GHz e lo stesso procio ma a 4GHz, è del 100% più veloce? Non lo potrà mai essere, perché la velocità dell'elaborazione poggia su periferiche ben precise. Un transfer dagli HD di 140MB/s può soddisfare magari il procio a 2GHz, ma essere un collo di bottiglia per lo stesso a 4GHz, come pure delle DDR3 a 1,6GHz possono creare dei colli di bottiglia. Ma questo è soggettivo, perché potrei montarci un raid di HD e quindi aumentare il transfer, oppure mettere delle DDR3 più performanti.
Il punto è che si deve guardare al max possibile che si può ottenere, perché le "medie" e quant'altro, sono fuorvianti.
http://www.pctunerup.com/up//img/png.gif (http://www.pctunerup.com/up//image.php?src=_201012/20101218212835_test.png)
Questo è il Thuban X6. Ho 4 conversioni contemporanee di video, sotto c'è Torrent, ho Firefox con cui sto postando, ed il sistema è occupato al 67%, rispetto ad un X4 che sarebbe al 100% con penalizzazione dei converter (perché torrent ed SO limiterebbero le prestazioni dei converter, occupando percentuali di potenza dei core disponibili). Non ci vuole un benchmark per comprendere che 6 core ti danno sino al 50% di potenzialità in più rispetto ad un X4.
Se vuoi un esempio semplice, prova a pensare ad un X4 con 4 sessione di Aura video converter e un Thuban con 6 sessioni dello stesso software in lavoro. Certo... perdo l'1% perché i canali verso l'HD sarebbero pieni, magari perdo un altro 1% per la ram... ma rispetto ad un X4, nello stesso periodo di lavoro, quanto elaboro di più? E' enormemente importante se al posto di essere +50% sarei +47%? Io penso di no.
bicchiere
18-12-2010, 21:41
Il punto è che si deve guardare al max possibile che si può ottenere, perché le "medie" e quant'altro, sono fuorvianti.
In generale quando si progetta qualunque cosa,
si usa studiare soprattutto il caso medio e il caso peggiore.
Il caso piu' favorevole non interessa molto.
paolo.oliva2
18-12-2010, 21:45
In generale quando si progetta qualunque cosa,
si usa studiare soprattutto il caso medio e il caso peggiore.
Il caso piu' favorevole non interessa molto.
Se parli di garanzia, probabilmente.
Figurati che qua occhiamo tutti appunto per avere di più del max possibile dichiarato, per essere ben sopra alle medie ufficiali :sofico:
Se vai da un medico, e devi fare un'operazione a rischio, è chiaro che lui ti sbandiera la percentuale negativa di mortalità, ma il paziente sono convinto che pensa alla media dei salvati :)
6 core = 6 TH fisici.
4 core = 4 TH fisici.
Sulla carta la potenzialità è questa, non vedo perché doverla guardare in pessimismo...
Sarebbe come dire... nel lato più negativo, se giochi a tetris, un dual core rende come un octa-core... quindi AMD/Intel stanno facendo dei proci con più core... solo per farci spendere di più?
Sulla carta la potenzialità è questa, non vedo perché doverla guardare in pessimismo.
Perché nella realtà non funziona così.
E' come se tu dicessi ad uno a cui devi consigliare un PC di prendere un X6 al posto di un X4 perché va il 50% più veloce. Lui compra il PC con l'X6 e lo confronta con il PC di un suo amico che è identico, ma con un X4. A quel punto lui viene da te e ti dice che l'hai preso per i fondelli :D E tu: "No, ma guarda che se fai 3 conversioni contemporaneamente in DivX, mentre scarichi con torrent, l'X4 ti fa finire le conversioni con due minuti di ritardo rispetto all'X6"
Perché nella realtà non funziona così.
E' come se tu dicessi ad uno a cui devi consigliare un PC di prendere un X6 al posto di un X4 perché va il 50% più veloce. Lui compra il PC con l'X6 e lo confronta con il PC di un suo amico che è identico, ma con un X4. A quel punto lui viene da te e ti dice che l'hai preso per i fondelli :D E tu: "No, ma guarda che se fai 3 conversioni contemporaneamente in DivX, mentre scarichi con torrent, l'X4 ti fa finire le conversioni con due minuti di ritardo rispetto all'X6"
il discorso che fai tu è corretto in linea di principio, ma è sbagliato in questo frangente, perchè paolo cercava di capire il massimo di prestazioni ottenibile con le varie cpu, per dimostrare ( con successo, imho) che non c'è concorrenza interna tra x4-x6-x8... quindi qua conta sì il migliore dei casi possibili, quello con scalabilità lineare di clock e numero di core, perchè se vai a guardare lo sfruttamento medio dei processori che hanno più di 2 core è chiaro che non dovresti consigliare a nessuno di prendere più di un quad ( e solo perchè ormai un dual comincia a star stretto se navighi e giochi contemporaneamente, il tri-core nella nuova roadmap non c'è e per un qualsiasi computer uso ufficio basta ancora tranquillamente un dual core)... non puoi fare il discorso dell'utente medio, perchè un esa-core è già di per sè fuori dalla logica dell'utente medio, è come misurare la velocità della ferrari in cm/s :) il ragionamento di paolo, per quanto altamente spannometrico ( ma volutamente spannometrico), imho fila.
Probabilmente, pensiero soggettivo, è auspicabile che comunque AMD debba buttare in campo con BD una discreta potenza.
Non voglio entrare nel merito del discorso di chi l'avrà più lungo tra AMD e Intel, ma comunque mi sembra prospettabile che se AMD si limita a TDP di 95W come massimo per BD X4 e BD X6, non avrebbe senso se questo TDP castrasse BD nella potenza nei confronti di SB.
Nello stesso ragionamento, un BD X6 con 95W TDP come massimo, credo sia già auspicabile a parità di frequenza (stesso silicio e stessi trattamenti) un BD X4 per via dei 2 core in meno e minor L3, un TDP che già dovrebbe risultare almeno inferiore di un 30-40%, di qui quei 95W di un X6 porterebbero già il TDP sui 65W. Figuriamoci poi i modelli non di punta.
Comunque non riesco a trovare un filo logico sui TDP annunciati da AMD.
Insomma... AMD ha sempre destinato i clock più alti unitamente al procio con il più alto numero di core.
i 95W di un BD X6 coinciderebbero con i 125W top di un BD X8.
Ma non trovo la correlazione di un BD X4 a 95W, è spropositato questo TDP rispetto ad un X6, e sarebbe strano in rapporto alle frequenze.
L'unico motivo che posso valutare e forse sarei sicuro al 99%, è frequenze per il Turbo2 veramente altissime.
Se facciamo mente locale... BD X6 e BD X8 non sarebbero proci da "gioco", nel senso che chi li acquista dovrebbe puntare su applicazioni multicore, o comunque di avere un procio con più programmi attivi contemporaneamente.
Faccio questo esempio, tenendo per confronto applicazioni multicore che utilizzino il massimo dei TH: (metto frequenze più basse di quello che penso per non destare commenti... :))
X8 4GHz def (32GHz totali), Turbo 500MHz su tutti i core (4GHz totali), massimo del procio 36GHz.
X6 4GHz def (24GHz totali), Turbo 600MHz su tutti i core (3,6GHz totali), massimo del procio 27,6GHz totali.
X4 4GHz def (16GHz totali), turbo 1GHz su tutti i core (4GHz totali), massimo del procio 20GHz totali.
Non guardiamo la frequenza, ma guardiamo la logica. In questo senso, BD X4 sarebbe più idoneo, dato l'alta frequenza, ad applicazioni monocore e giochi (visto che al mom + di 4 TH i giochi non usano). La superiore frequenza del Turbo giustificherebbe il TDP di BD X4 simile a BD X6, ma non ostacolerebbe le vendite dell'X6 perché comunque la frequenza complessiva non arriva a superare la potenza data dai 6 core dell'X6.
Invece, da BD X6 a BD X8, il TDP aumenta di 30W, sufficienti a pensare che un BD X8 abbia le stesse frequenze di un BD X6, quindi anche commercialmente, un BD X6 per lo stesso ragionamento fatto sopra per l'X4 non rappresenterebbe un ostacolo per BD X8.
ci può stare benissimo il tuo ragionamento. ma solo in casi estremi, dal lato pratico.
L'utente medio...può notare diverse differenze tra un BD4X e un BD8X in particolari situazioni e molto gravose...un po' meno...si noterebbe il BD6X rispetto agli altri due, non sarebbe infatti...ne carne ne pesce ;)
ULK lo vedo bene per il risparmio energetico e/o innalzamento frequenze in generale per tutta linea...MA SOPRATTUTTO...per il BD4X.
IMHO..AMD si concentrerà molto sul "piccolo" del gruppo...perchè a prescindere dagli altri due...sarà il cuore di una APU, da qui...tutte le conseguenze del caso. Secondariamente ULK sarà fondamentale per BD8X, quale cavia, per testare il terreno al futuro BD10X. Anche in questo caso...BD6X non è ne carne ne pesce :rolleyes:
Fin dalla nascita...BD6X è un super BD4X o un BD8X castrato, che dir si voglia...vivrà di rendita...grazie alle fatiche che AMD spenderà nei confronti degli altri due ;)
gi0v3: prendi qualsaisi risultato di applicazioni reali (in secondi o FPS o altro) e vedrai che quella valutazione è quanto di più distante dalla realtà ci sia.
E' chiaro che a parità di frequenza l'X4 sarà in diretta concorrenza con l'X6, con percentuali variabili fra lo 0 e il 30-32% di prestazioni in più per il secondo in base all'applicazione. Se prendi un set di programmi abbastanza distribuito che possa riproporre l'uso medio di un qualsiasi utente, è molto probabile che il vantaggio medio sia anche sotto il 15%.
Quindi la valutazione che ha fatto non ha assolutamente alcun legame con la realtà, ma per questioni puramente teoriche e oggettive, non perché lo dico io.
Guarda:
http://www.tomshardware.com/reviews/phenom-ii-x6-thuban-core-scaling,2652-6.html
http://www.tomshardware.com/reviews/phenom-ii-x6-thuban-core-scaling,2652-7.html
paolo.oliva2
19-12-2010, 00:02
gi0v3: prendi qualsaisi risultato di applicazioni reali (in secondi o FPS o altro) e vedrai che quella valutazione è quanto di più distante dalla realtà ci sia.
E' chiaro che a parità di frequenza l'X4 sarà in diretta concorrenza con l'X6, con percentuali variabili fra lo 0 e il 30-32% di prestazioni in più per il secondo in base all'applicazione. Se prendi un set di programmi abbastanza distribuito che possa riproporre l'uso medio di un qualsiasi utente, è molto probabile che il vantaggio medio sia anche sotto il 15%.
Quindi la valutazione che ha fatto non ha assolutamente alcun legame con la realtà, ma per questioni puramente teoriche e oggettive, non perché lo dico io.
Guarda:
http://www.tomshardware.com/reviews/phenom-ii-x6-thuban-core-scaling,2652-6.html
http://www.tomshardware.com/reviews/phenom-ii-x6-thuban-core-scaling,2652-7.html
Io non capisco cosa centra l'utente medio con le prestazioni max di un procio.
Quando parliamo di un i980X giudicandolo il procio attualmente più potente, su che base lo facciamo?
Nel tuo ragionamento, allora, uno che prendesse un i980X per giocarci, denuncerebbe Intel? Un i980X nei giochi va meno di un i7 X4. Intel gli risponderebbe semplicemente che è un pirla, che ha preso un procio che è si più potente, ma in determinati casi.
Ma noi parliamo di prestazioni max dei proci, o il loro utilizzo per l'utente medio? Se un Atom soddisferebbe le esigenze di un utente medio (follia) allora lo giudicheremmo uguale in prestazioni ad un BD X8 a 4GHz?
Il succo qual'è? Che per dimostrare la potenza di un 6 core o di un 8 core, non si può prendere come metro un programma che sfrutta al massimo 1 core ed avviarlo in un'unica sessione, perché è chiaro che in questo frangente avere 1 core o 1000 non cambia una tozza, e da qui farne una media che senso avrebbe?
Il discorso di potenza, ad esempio come ho rappresentato io, che se faccio 4 conversioni video contemporanee con un X4 sfruttando il procio al 100%, con un X6 ne faccio 6 e con un X8 ne faccio 8. A me non fotte una mazza se il vantaggio medio sia del 15%, potrebbe anche essere del 5%, ma nel momento che lo uso come sopra, il vantaggio di un X8 sarà del 95% almeno in più rispetto ad un X4. Questo, per me, è indice di potenza in più, perché un X4 non potrebbe mai arrivare a risultati simili.
P.S.
Lascia perdere Tom's... per me i suoi test valgono come il 2 di picche quando esprime giudizi con i proci AMD. Non a caso vince il tapiro di platino nei suoi test di OC con gli AMD. Con un 1090T non supera i 3,9GHz e con un 1100T i 3,950, mentre quando testa i proci Intel ottiene risultati nettamente superiori a tutte le altre testate. Un suo giudizio sui proci AMD non va bene nemmeno come carta igienica. Non mi meraviglierebbe per nulla che rifacendo i suoi stessi test, i risultati sarebbero completamente differenti.
Figurati che lui è stato il 1° a postare che un i920 130W consumava il 25% in meno di un Phenom II 940 125W.
Prendi qualsiasi test comparativo attuale, guarda dove si posiziona un i920 nei confronti di proci 125W AMD.
Io non capisco cosa centra l'utente medio con le prestazioni max di un procio.
Forse perché è l'utente medio a comprarlo ? Sei tu che parli di concorrenza fra i due processori, se parli di concorrenza devi prendere anche in considerazione l'utenza media che li andrà a comprare e come li andrà ad utilizzare.
In ogni caso non si raggiungerà mai il 50% in più di prestazioni perché ci saranno altri colli di bottiglia. Come la ram, l'hard disk, il sistema operativo o semplicemente l'utente. L'utente è un collo di bottiglia ? Sì lo può essere.
Il discorso X8/X4 non torna comunque perché appunto ci sono i colli di bottiglia e più che aumenti il numero di processi pesi e più i colli di bottiglia si faranno sentire. Non avrai certo il 95% di prestazioni in più.
P.S.
Lascia perdere Tom's... per me i suoi test valgono come il 2 di picche quando esprime giudizi con i proci AMD. Non a caso vince il tapiro di platino nei suoi test di OC con gli AMD. Con un 1090T non supera i 3,9GHz e con un 1100T i 3,950, mentre quando testa i proci Intel ottiene risultati nettamente superiori a tutte le altre testate. Un suo giudizio sui proci AMD non va bene nemmeno come carta igienica. Non mi meraviglierebbe per nulla che rifacendo i suoi stessi test, i risultati sarebbero completamente differenti.
Figurati che lui è stato il 1° a postare che un i920 130W consumava il 25% in meno di un Phenom II 940 125W. Prendi qualsiasi test comparativo attuale, guarda dove si posiziona un i920 addirittura nei confronti di un Thuban 125W.
Ma in questo test che senso avrebbe falsare i risultati ? Trovami un test simile, che ti devo dire. Non ne trovo altri allora lo prendo per buono.
paolo.oliva2
19-12-2010, 00:35
Ma in questo test che senso avrebbe falsare i risultati ? Trovami un test simile, che ti devo dire. Non ne trovo altri allora lo prendo per buono.
Per lo stesso motivo che Tom's ha da sempre postato risultati pessimi SOLO per AMD.
Per lo stesso motivo che Tom's ha da sempre postato risultati pessimi SOLO per AMD.
Ma non c'è Intel in quella recensione. E' una recensione solo sul Thuban, se falsasse i dati non tornerebbe niente.
paolo.oliva2
19-12-2010, 00:53
Forse perché è l'utente medio a comprarlo ? Sei tu che parli di concorrenza fra i due processori, se parli di concorrenza devi prendere anche in considerazione l'utenza media che li andrà a comprare e come li andrà ad utilizzare.
In ogni caso non si raggiungerà mai il 50% in più di prestazioni perché ci saranno altri colli di bottiglia. Come la ram, l'hard disk, il sistema operativo o semplicemente l'utente. L'utente è un collo di bottiglia ? Sì lo può essere.
Il discorso X8/X4 non torna comunque perché appunto ci sono i colli di bottiglia e più che aumenti il numero di processi pesi e più i colli di bottiglia si faranno sentire. Non avrai certo il 95% di prestazioni in più.
Vuoi che ti posto 6 conversioni video vs 4 fatte contemporaneamente, a parità di settaggi, in cui ottengo praticamente il 50% di elaborazione in più a parità di tempo?
Comunque il discorso dell'utente medio non vale una tozza, Cionci.
L'utente medio guarda unicamente il costo/prestazioni.
Se con gli stessi soldi di un sistema SB X4 uno si potrebbe acquistare un sistema BD X6, lo sai che importanza avrebbe il discorso "ma l'utente medio non lo sfrutterebbe nel 50% dei casi"?
Perché AMD sta vendendo un puttanaio di X6 se all'utente medio basterebbe un X4? Probabilmente perché i più non la pensano come te, a torto o a ragione, ma direi che è il mercato a dirlo.
E' per lo stesso motivo che AMD vende i Thuban, perché se fosse come dici tu, .
Appunto, il costo/prestazioni è nettamente a favore degli X4...
Secondo te AMD sta vendendo più X6 degli X4 :doh:
paolo.oliva2
19-12-2010, 01:09
Ma non c'è Intel in quella recensione. E' una recensione solo sul Thuban, se falsasse i dati non tornerebbe niente.
Secondo te... uno legge quella rece e non farebbe mai comparazioni con altre rece su prodotti Intel?
Lui è l'unico che ancora non ha capito che occare l'NB al Phenom II comporta un vantaggio.
Nell'ultimo confronto che ha fatto, con un 1100T ed un 1055T occati vs proci Intel, nel commento finale ha scritto che è rimasto sorpreso che il 1055T in OC supera il 1100T in prestazioni :D .
Il motivo è che il 1055T, avendo il molti bloccato, lui deve agire sull'OC del bus, e questo comporta un aumento di frequenza anche per l'NB, mentre con il 1100T lui varia unicamente il molti del procio lasciando invariata la frequenza NB.
Come è possibile fare confronti di prestazioni tra proci AMD/Intel su queste basi?
Nello stesso discorso di prestazioni tra un X4 e X6, probabilmente occando pure l'NB io l'incremento lo vedo e molto. Se poi l'utente medio non lo fa, a me che mi frega? Se io ottengo un 50% in più, io sono soddisfatto ed è per questo che ho preso il Thuban, e sono contento dei soldi spesi perché il procio ha superato perfino le mie aspettative più rosee, sia per OC, per IPC per temperature, ecc. ecc. Allo stesso modo, il mio dubbio non risiede assolutamente nell'utilità di un X8 rispetto ad un X6, ma al limite nel prezzo, anche se sono sempre più convinto che i 400-500€ AMD non li supererà per un BD X8 B.E.
paolo.oliva2
19-12-2010, 01:15
Appunto, il costo/prestazioni è nettamente a favore degli X4...
Secondo te AMD sta vendendo più X6 degli X4 :doh:
Eddaie.
l'i980X allora è una ciofeca perché Intel ne vende lo 0,00000000000000001% del totale? o comunque lo reputiamo il procio più potente al momento?
Qui stiamo parlando di potenze di proci/architettura o delle vendite?
Il discorso si basa che un X8 sarà più potente di un X6 e X4, questo non ha nulla a che vedere con le vendite. Sappiamo tutti che AMD certamente non venderà più BD X8 che BD X6 e BD X4, ma questo non ha nulla a che vedere con le potenze.
Intel ha nell'i980X al momento il procio più potente. Il fatto di venderlo o meno è legato principalmente al fatto che ci vogliono 1000€, non al prb delle prestazioni. Se AMD richiedesse 50€ in più tra un BD X6 ed un BD X4, di gente che comprerebbe X6 al posto di X4 sicuramente sarà molta di più che nel caso AMD richiedesse una differenza di 300€.
Secondo te chi compra un 970 X4 a 160€ contro un 1055T a 170€?
Se AMD richiedesse per assurdo un prezzo uguale sia per BD X4 che X6 che X8... secondo te il cliente cosa comprerebbe?
floydbarber
19-12-2010, 01:20
Paolo e Cionci mi sembrate Don Camillo e Peppone :muro:
Eddaie.
Secondo te chi compra un 970 X4 a 160€ contro un 1055T a 170€?
l'i980X allora è una ciofeca perché Intel ne vende lo 0,00000000000000001% del totale? o comunque lo reputiamo il procio più potente al momento?
Qui stiamo parlando di potenze di proci/architettura o delle vendite?
Il discorso si basa che un X8 sarà più potente di un X6 e X4, questo non ha nulla a che vedere con le vendite. Sappiamo tutti che AMD certamente non venderà più BD X8 che BD X6 e BD X4, ma questo non ha nulla a che vedere con le potenze.
Lo vedi che ti contraddici da solo...prima parli di costo/prestazioni tu e tutto va bene, poi parlo io di costo/prestazioni e tu mi dici che non c'entra niente.
Deciditi...o parli di potenza di elaborazione o di costo/prestazioni e di quantità di vendita.
Però se confronti due processori e fai i soliti calcoli, anche questa volta senza senso, per dire che si fanno o meno concorrenza, renditi conto che si parla anche e soprattutto di vendite.
Inoltre il 970 X4 non ha la stessa frequenza di un 1055T. Tu eri partito considerando i processori a parità di frequenza. Con 700 Mhz in più, se non dovessi contare sul discorso overclock, prenderei ad occhi chiusi il 970.
Poi ripensandoci, tornando alla somma dei Ghz che avevi fatto prima, c'è un errore di fondo: consideri il turbo su BD come un incremento fisso, applicabile sempre su tutti i core. Invece non lo è. Proprio da quanto è stato detto da AMD, sarà un sovrappiù da usare quando, anche se l'uso della CPU sarà al 100%, la potenza dissipata rimarrà entro certi limiti.
Paolo e Cionci mi sembrate Don Camillo e Peppone :muro:
Oh che ci posso fare... A me far passare per veri questi calcoli senza alcun fondamento tecnico non piace.
Sono le solite cose che gli ripeto da una vita, ma non ci crede, non c'è verso.
Già mi girano perché sono dovuto rimanere a casa di sabato sera per colpa della strada ghiacciata...
floydbarber
19-12-2010, 02:05
Sono le solite cose che gli ripeto da una vita, ma non ci crede, non c'è verso.
ghiacciata...
Se non fosse caparbio non sarebbe Paolo Oliva :D
In fondo è una sua grande dote
Già mi girano perché sono dovuto rimanere a casa di sabato sera per colpa della strada ghiacciata...
Ne so qualcosa! Ma facciamoci dire da Paolo se c'è ghiaccio a Urbino :D
ivano444
19-12-2010, 03:04
che tomsh favorisce spudoratamente intel ormai lo si sa da tempo ;)
che tomsh favorisce spudoratamente intel ormai lo si sa da tempo ;)
Certo, siamo d'accordo, ma in un test in cui non c'è Intel e in cui si testa un Thuban con un numero variabile di core abilitati come potrebbe falsare i risultati ? Se fa andare meno gli X4 allora favorisce la vendita degli X6, se fa andare di più gli X4 favorisce la vendita degli X4. Allora è più probabile che faccia andare meno tutto, ma a quel punto le proporzioni fra i vari core abilitati rimangono esattamente le stesse.
paolo.oliva2
19-12-2010, 09:54
Lo vedi che ti contraddici da solo...prima parli di costo/prestazioni tu e tutto va bene, poi parlo io di costo/prestazioni e tu mi dici che non c'entra niente.
Deciditi...o parli di potenza di elaborazione o di costo/prestazioni e di quantità di vendita.
Che stai a di?
Io ho fatto un confronto tra X4, X6 e X8.
Tu hai tirato fuori che l'utente medio in un X6 guadagna al massimo il 15% rispetto all'X4
(e hai tirato fuori l'utente medio perché ti ho fatto più esempi che un X6 può guadagnare sino al 50% in più su un X4 e quindi dovevi attaccarti a qualche cosa).
Il confronto prestazioni prezzo al momento non lo si può certo fare, visto che non sappiamo il listino di BD, ma non verso Intel, che personalmente reputerei molto difficile un BD X8 a prezzi superiori di un i980X, ma di quanto si distanzieranno nel listino AMD gli X6 e X8 dagli X4.
Per assurdo, come ti ho scritto più avanti, un X6 AMD è preferibile come rapporto prezzo/prestazioni ad un X4 sempre AMD. Su questa linea, un teorico BD X8, ad un prezzo doppio rispetto ad un X4, avrebbe un prezzo/prestazioni fantastico.
Però se confronti due processori e fai i soliti calcoli, anche questa volta senza senso, per dire che si fanno o meno concorrenza, renditi conto che si parla anche e soprattutto di vendite.
Aspetta... mi devi spiegare +50% quando parli di SMT su un X4 Intel (senza nominare ASSOLUTAMENTE MEDIE, PREZZI e quant'altro), mentre per un Thuban ti limiti al +15% tirando fuori l'utente medio, i prezzi, di tutto di più.
Che senso hanno questi calcoli?
Come parli fino a +50% il guadagno dell'SMT, coerentemente, dovresti riportare fino a +50% nel caso di 6 core contro 4, come pure fino al 100% in più di un X8 rispetto ad un X4.
Inoltre il 970 X4 non ha la stessa frequenza di un 1055T. Tu eri partito considerando i processori a parità di frequenza. Con 700 Mhz in più, se non dovessi contare sul discorso overclock, prenderei ad occhi chiusi il 970.
Mi sa che ti devo delucidare.
Il TURBO?
il 1055T lavora a 2,8GHz come X6 e a 3,3GHz con il Turbo come X3, contro il 970 che lavora come X4 a 3,5GHz. La differenza è di 200MHz (non 700MHz come scrivi), fino a X3. Nei programmi che prevedono più core, un X6 a 2,8GHz se lo pappa il 970X4 a 3,5GHz X4. Ti dirò di più, come vedi nella mia firma, un X4 lo puoi tirare al massimo OC, a liquido, con il WC, e non arriverà mai nemmeno vicino a quello che realizza un 1055T a def. (4,97 con un 965C3@4,150GHz (in firma) contro i 5,5 mi sembra di un 1055T def, la dicono bella lunga)
In OC, poi, non c'è storia. Ricorda che il 970X4 è C3, il Thuban è E0, low-k.
Il 970 in OC arriva sui 4,100GHz come X4, con la stessa difficoltà, il 1055T arriva ad occhi chiusi a 4GHz come X6. Il 970X4 dovrebbe avere un limite architetturale attorno ai 4,2GHz, il Thuban supera i 4,5GHz.
E mi vieni a dire che per 10€ in meno prenderesti un 970X4 ad occhi chiusi?
Sono in molti a non pensarla come te, se vai sul TH OC Phenom II, c'è solo 1 utente che ha preso il 970X4, mentre guarda in quanti hanno preso il Thuban.
Gli utenti "nuovi" di X4 hanno dei C2 "vecchi" e altri dei C3, molto presumibile acquistati usati da chi è passato al Thuban.
Se proprio ad uno dasse fastidio avere un X6, che problema c'è? Vai nel bios, disabiliti 2 core, e ti ritrovi un X4 Zosma overcloccabile sino a 4,6GHz, con 95W TDP alla stessa frequenza in cui un 970X4 è 125W TDP, altro che 970X4 a 10€ in meno. Tra l'altro, il 1075T B.E. dovrebbe uscire a breve ed è un 3GHz stock con Turbo a 3,5GHz, con solamente 30€ in più del 970X4.
Poi ripensandoci, tornando alla somma dei Ghz che avevi fatto prima, c'è un errore di fondo: consideri il turbo su BD come un incremento fisso, applicabile sempre su tutti i core. Invece non lo è. Proprio da quanto è stato detto da AMD, sarà un sovrappiù da usare quando, anche se l'uso della CPU sarà al 100%, la potenza dissipata rimarrà entro certi limiti.
A parte che da AMD abbiamo saputo che il turbo arriverà al massimo a +500MHz ma su un BD X16 per server, e non sappiamo minimamente se il Turbo nel desktop possa avere frequenze ben superiori.
Innanzitutto, un BD X16 ha 105W ACP, corrispondenti a circa 140W TDP del desktop, molto vicini ai 125W di un BD X8, con metà core. La reale differenza del turbo la si può ricavare dopo aver conosciuto la differenza del clock stock. Cioè, se un BD X16 fosse 3,5GHz a def + turbo 500MHz massimo, il tutto in 140W, mi sembra più che chiaro che se un BD X8 fosse 125W alla stessa frequenza, in virtù di 8 core in meno con solo 15W TDP inferiore, potrebbe avere anche un Turbo di +1GHz per giustificare un TDP praticamente simile.
Ma questo lo si evince ancor meglio dal fatto che un X6 a 95W come massimo, non esclude certamente un X4 a frequenze ben superiori nel complesso. Ed è su questo punto, perché AMD ha sempre impostato frequenze maggiori in concomitanza al numero massimo di core, che BD X4 avendo a spanna un TDP del 40% inferiore ad un X6, per arrivare allo stesso TDP di un X6, il turbo dovrebbe essere molto spinto.
Non può esistere un BD X6 a 4GHz con turbo massimo +500MHz su 6 core il tutto a 95W TDP e nello stesso tempo pensare ad un BD X4 sempre a 4GHz con lo stesso incremento di frequenza del turbo ed essere sempre 95W TDP. Se fosse realmente simile, sarebbe 65W. Siccome è sempre 95W, io dedurrei che il motivo sia un Turbo almeno di +1GHz. Ti sembra un calcolo senza senso?
E poi, tra parentesi, per forza di cose il Turbo in BD, unito al fatto che vi saranno versioni B.E., non può avere controllo sul consumo, ma solo sul calore del procio. A questo punto, cambiando il dissi stock, come me per esempio a liquido, secondo te, il turbo, limitato dal calore, non varierebbe la frequenza massima?
Io non supero i 40° a liquido con un Thuban @4,5GHz, contro una temp def limite di 62°... cioè arrivo ai limiti di frequenza del procio anche essendo di molto sotto al limite di temp max procio.
E' questo il punto... se BD X4 avesse un Turbo di 1GHz o anche più, vorrebbe dire che architetturalmente AMD garantirebbe al 100% frequenze di 5GHz, e sempre guardando che l'OC in generale supera la massima frequenza def (compreso il turbo) di un 30%, si potrebbe pensare tranquillamente che frequenze in OC di 6GHz su tutti i core potrebbero essere raggiungibili almeno a liquido.
paolo.oliva2: questo l'hai scritto tu:
Comunque il discorso dell'utente medio non vale una tozza, Cionci.
L'utente medio guarda unicamente il costo/prestazioni.
Non a caso la mia risposta si riferiva a questa parte.
E come ti dicevo prima: l'utente medio conta se fai un confronto di mercato fra X4 ed X6 dicendo che non si fanno concorrenza tra loro, perché è l'utente medio che compra i processori.
Come al solito travisi le mie parole o addirittura te le inventi: io non ho mai parlato di 50% per l'SMT Intel. Anzi non ho mai parlato dell'SMT negli ultimi messaggi :confused: L'SMT fra abilitato e disabilitato garantisce un 12-15% circa in più di prestazione nelle situazioni più favorevoli, dove il Thuban X6 invece rispetto ad un X4 guadagna anche oltre il 30%. Quindi l'SMT di Intel permette guadagni in media intorno al 7%, anche meno.
Sul 970 in effetti mi sono confuso, pensavo che fosse basato su Zosma e che quindi avesse il Turbo Core.
Comunque il discorso si potrebbe riformulare tranquillamente così: se non si usano spesso applicazioni fortemente multithreaded e non si fanno 6 conversioni contemporaneamente (ma chi è che fa 6 encoding contemporaneamente ? In percentuale sul mercato intendo) potrebbe essere preferibile al 1055T. Ad esempio: in un sistema per giocare prenderei il 970 al posto del 1055T ad occhi chiusi. E lo dimostrano anche i benchmark.
Come già detto: senza considerare l'overclock, ma non mi leggi evidentemente.
A parte che da AMD abbiamo saputo che il turbo arriverà al massimo a +500MHz ma su un BD X16 per server, e non sappiamo minimamente se il Turbo nel desktop possa avere frequenze ben superiori.
A parte ? A parte cosa ? Io non ho mai nominato la frequenza del Turbo :confused:
E fra parentesi io non credo che si arrivi al Ghz su tutti i core. A meno di dover fare frequenze di base più basse di quanto ci si aspetta ad un dato TDP.
Io mi aspetto sempre 500 Mhz o al massimo 600 Mhz su tutti i core, per tutti i BD desktop.
Questo per un semplice motivo: tutti i moduli sono uguali quindi il comportamento dovrebbe restare proporzionale con il numero di moduli. Se si avesse 1 Ghz di Turbo alla fine un modulo al 100% + Turbo o un modulo al 100% in cui non si potrebbe attivare il Turbo perché si è raggiunto il limite di potenza non avrebbero consumi simili, ma sproporzionati in più per il primo.
C'è da dire che AMD ha sempre parlato di di Turbo su tutti i core, non ha mai chiarito il comportamento nel caso di altri core poco sfruttati: è qui che mi aspetto qualche sorpresa. Una situazione che su un server ha poco senso di esistere.
Ma questo lo si evince tranquillamente dal fatto che un X6 a 95W come massimo, non esclude certamente un X4 a frequenze ben superiori nel complesso. Ed è su questo punto, perché AMD ha sempre impostato frequenze maggiori in concomitanza al numero massimo di core, che BD X4 avendo a spanna un TDPdel 40% inferiore ad un X6, per arrivare allo stesso TDP di un X6, il turbo dovrebbe essere molto spinto.
E cosa c'entra con quello che ti ho scritto ? Esattamente niente. Pur di ammettere che hai sbagliato :mc:
Mai una volta che tu ammetta un errore.
E poi, tra parentesi, per forza di cose il Turbo in BD, unito al fatto che vi saranno versioni B.E., non può avere controllo sul consumo, ma solo sul calore del procio. A questo punto, cambiando il dissi stock, come me per esempio a liquido, secondo te, il turbo, limitato dal calore, non varierebbe la frequenza massima?
Non credo assolutamente che sarà limitato dal calore, BD secondo me avrà una chiarissima stima di quanto consuma ogni modulo in ogni momento.
Come ?
Ricordiamoci che il BD avrà una implementazione di clock e power gating a granularità molto fine. Semplicemente sfruttando le informazioni derivanti da clock e power gating e conoscendo per ogni istante le aree disattivate di ogni modulo, è tranquillamente possibile fare una stima della potenza dissipata da ogni modulo in percentuale alla potenza massima dissipata nel worst case.
In base a questa attivare o disattivare il Turbo o addirittura utilizzare diversi step di Turbo sarebbe relativamente semplice. Senza contare che si potrebbe stimare anche il consumo di tutta la CPU ed agire quindi con il Turbo anche in base a questo.
a mio parere :D :D :D
state dicendo le medesime cose...o perlomeno con un filo logico del tutto condivisibile...ma partendo da presupposti completamente differenti.
a seconda del punto di vista con cui vi si legge...si può avallare i ragionamenti come non.
in parole povere...
se vogliamo analizzare l'architettura BD in funzione del mercato e dei possibili sbocchi...sia di share...che di utilizzo nel concreto...mi viene naturale far propendere l'ago della bilancia verso il cionci ;)
se invece vogliamo leggere i post...considerando le prestazioni assolute dell'architettura, che per logica, sono racchiuse in un BD8X...e come tale...proposto per un'utenza esigente che possa sfruttare al 100%, tutta la manna che è in grado di offrire...l'ago della bilancia propende inequivocabilmente...verso l'olivaro :ciapet:
Mentre si leggono e scrivono gli interventi...è altrettanto naturale, travisare e/o scrivere delle inesattezze e comunque sempre in buona fede (presumo)...e vale per tutti noi.
Detto questo...IMHO...avete ragione entrambi...dipende solo dal punto di vista.
a mio parere :D :D :D
state dicendo le medesime cose...o perlomeno con un filo logico del tutto condivisibile...ma partendo da presupposti completamente differenti.
a seconda del punto di vista con cui vi si legge...si può avallare i ragionamenti come non.
in parole povere...
se vogliamo analizzare l'architettura BD in funzione del mercato e dei possibili sbocchi...sia di share...che di utilizzo nel concreto...mi viene naturale far propendere l'ago della bilancia verso il cionci ;)
se invece vogliamo leggere i post...considerando le prestazioni assolute dell'architettura, che per logica, sono racchiuse in un BD8X...e come tale...proposto per un'utenza esigente che possa sfruttare al 100%, tutta la manna che è in grado di offrire...l'ago della bilancia propende inequivocabilmente...verso l'olivaro :ciapet:
Mentre si leggono e scrivono gli interventi...è altrettanto naturale, travisare e/o scrivere delle inesattezze e comunque sempre in buona fede (presumo)...e vale per tutti noi.
Detto questo...IMHO...avete ragione entrambi...dipende solo dal punto di vista.
La lettura può essere anche quella, ma la somma dei Ghz ha veramente poco senso, anche per confrontare le prestazioni massime. Purtroppo non lo ammetterà mai.
Sommando tra l'altro il Turbo, che non sempre sarà attivo.
La lettura può essere anche quella, ma la somma dei Ghz ha veramente poco senso, anche per confrontare le prestazioni massime. Purtroppo non lo ammetterà mai.
Sommando tra l'altro il Turbo, che non sempre sarà attivo.
Il raddoppio della frequenza...o dei core...non corrisponde mai al raddoppio delle prestazioni, IN FUNZIONE DELL'UTILIZZO DESKTOP.
Per un semplice motivo, su tutti. (con il seguente esempio a caso)
Perchè se bisogna misurare le prestazioni pure...si deve valutare su tutto lo spettro delle applicazioni di cui si fa uso. Esattamente per lo stesso motivo in cui in una o due o tre situazioni...raddoppierò le prestazioni (assolute o per unità di tempo)...ne avrò qualche decina in cui le prestazioni saranno tra un 50 e 100%...DIVERSE centinaia tra un 25 e 50%...e via discorrendo.
Se limitiamo i ragionamenti al quel max di 3 situazioni...tutto ok
Altrimenti...diventa del tutto soggettivo ed arbitrario...e non se ne esce più :muro:
La funzione del Turbo, per ironia della sorte, non fa altro che che peggiorare la matassa del ragionamento. Dove le travisazioni...in tal senso...regnano sovrane :rolleyes:
Tecnicamente...man mano che mi allontano crescendo dalla base di un'architettura, in questo caso BD4X, le prestazioni crescono in modo meno che propozionale alla crescita in sè. Ecco perchè nei commenti precedenti, definivo il BD6X uno spartiacque tra i due...che lascia il tempo che trova.
esattamente come gli X3 tra i 2 e i 4.
Personalmente non ho particolari esigenze...aspetto i chipset BD...solo per divertirmi inizialmente a smanettare con un sempron o athlonx2 220 o phenom x2 550 o zosma (a trovarlo)...tutti sbloccabili. A meno che...BD4X non costi uno sproposito e permetta nel contempo...una grande scalabilità prestazionale oltre i 4Ghz rispetto ai predecessori in funzione del prezzo con cui sarà reperibile.
Dal mio punto di vista...non ha senso andare oltre BD4X. Per altri invece, rappresenta il minimo indispensabile...e in ragione di ciò, è giustificabile un atteggiamento rivolto alla massimizzazione delle prestazioni, che poi si tradurranno in realtà secondo le aspettative oppure no...poco importa, IN QUEL PRECISO ISTANTE il max è il max.
purtroppo occorrono le situazioni pratiche, test ed esami accurati...non possiamo saperlo in assoluto a priori...magari in funzione dell'architettura, DAVVERO si potrà ottenere QUASI un raddoppio delle prestazioni entro certi limiti di frequenza (4ghz??)...in più situazioni e non solo le immaginarie 3 di prima. (naturalmente SOLO per chi è in grado di sfruttare 8MT simultaneamente). Certo che...appena si supera quel limite le prestazioni gradatamente decadono, e il ragionamento pure.
Ergo...per un motivo o per l'altro...potete avere entrambi ragione, oppure torto...oppure semplicemente in parte entrambi, torto o ragione.
Dal lato pratico...per unità di tempo impiegata a livello desktop in funzione del risultato, BD8X non raddoppia le prestazioni di un BD4X e probabilmente nel complesso, manco un BD12X riuscirebbe a tanto. Da un punto di vista architetturale, a livello di prestazioni assolute su carta e nel concreto in particolari situazioni, tipiche del cliente evoluto ed esigente a cui è rivolto BD8X...si...il raddoppio c'è....perchè l'utente in questione rileva la sua soddisfazione in tal senso...e tanto basta.
Come già detto...è solo una questione di punti vista ed esigenze.
Di fatto...per senso...mi sento di condividere te, per quanto riguarda il discorso delle frequenze...ma in assoluto, si può dimostrare che questo modo di vedere può NON essere giusto per chiunque.
Conseguentemente...è necessario chiarie se i ragionamenti sono squisitamente architetturali in sè...oppure se abbracciati anche dalla concretezza ipotizzabile, che potrà avvenire su strada.
Un conto è l'architettura filosofica...un altro conto è il risultato immaginario (anche se sensato) di tale architettura...sottile è la differenza, ma gravose sono le divergenze scaturibili...(a quanto pare, è proprio così :Prrr:)
paolo.oliva2
19-12-2010, 16:50
Che lo sfruttamento dei core di un procio dipenda dall'uso e dai programmi, è chiaro che non ci piove.
Il punto è che 2-3 anni fa un dual-core (per me) era sfruttato ed un quad direi poco. Poi, sia per Intel con il raddoppio dei TH che a seguito AMD con l'X6 (tralascio gli X6 Intel non evidentemente per potenza, ma perché al momento, visto il tipo di discorso, se 8 TH si reputano difficili da sfruttare nel desktop, figuriamoci 12 TH dell'X6 Intel), il software si adegua via via all'aumento dei TH gestibili dai proci.
Ma guardate che subentra un fatto che in pochi considerano. Sta cambiando da parte dell'utente il modo con cui si interagisce con il sistema.
Una volta, con il dual core, avere l'anti-virus sotto in esecuzione, limitava di fatto l'uso di una applicazione alla volta, forse 2 ma già con limitazioni.
Con un quad, praticamente ci si è trovati come se si avesse un dual core liberissimo, ma con il vantaggio di avere l'anti-virus in funzione e magari 1-2 applicazioni già che girano.
Io avevo preso il 1090T, poi per prb con il WC di condensa il procio mi è saltato, e sono tornato a riusare il 965C3.
Il problema è che ormai mi ero abituato al Thuban e la differenza nel modo di usare il sistema.
Un esempio? Come ho detto, Torrent mi lavora sotto e scarico mkv, avi, divx, ecc. ecc. Voglio fare conversioni per trasferire un film nell'n97mini? OK, carico il software idoneo, e faccio la conversione, intanto leggo il TH, posto, spatacco con altre applicazioni, e via discorrendo.
Ma se devo fare magari 10 conversioni e sono le 17 del pomeriggio e me le voglio vedere la sera alla televisione, ho necessità di farle in tempi stretti, quindi posso caricare 5 istanze nel procio e ridurre i tempi di 1/5.
Quello che secondo me è sbagliato, è pensare che 1 programma monocore non possa sfruttare un X6 o un X8. Prendiamo BOINC, stesso discorso.... posso elaborare 6 istanze contemporaneamente.
Noi invece calcoliamo che se al mondo esistono 85% di programmi monocore ed il 15% di programmi multicore, allora un procio multicore non può essere sfruttato universalmente.
Io invece dico di considerare che di per sé già l'uso di un procio con più core possibile dia un senso di libertà rispetto ad uno con meno core, e che comunque quell'85% di programmi monocore, ove non c'è necessità di intervento umano (non è che uno possa avere 8 sessioni di Paint e lavorare contemporaneamente su tutte 8), è possibile comunque caricarne n volte contemporaneamente quanti n sono i core.
Considerando questo, è più facile secondo me comprendere che un procio con più core sia certamente più sfruttabile di quanto si pensi.
von Clausewitz
19-12-2010, 16:51
P.S.
Lascia perdere Tom's... per me i suoi test valgono come il 2 di picche quando esprime giudizi con i proci AMD. Non a caso vince il tapiro di platino nei suoi test di OC con gli AMD. Con un 1090T non supera i 3,9GHz e con un 1100T i 3,950, mentre quando testa i proci Intel ottiene risultati nettamente superiori a tutte le altre testate. Un suo giudizio sui proci AMD non va bene nemmeno come carta igienica. Non mi meraviglierebbe per nulla che rifacendo i suoi stessi test, i risultati sarebbero completamente differenti.
Figurati che lui è stato il 1° a postare che un i920 130W consumava il 25% in meno di un Phenom II 940 125W.
Prendi qualsiasi test comparativo attuale, guarda dove si posiziona un i920 nei confronti di proci 125W AMD.
scusa hwupgrade col 1100T non supera 1 3913 mhz (stabile), come te lo spieghi?
http://www.hwupgrade.it/articoli/cpu/2646/amd-phenom-ii-x6-1100t-per-100-mhz-in-piu_9.html
paolo.oliva2
19-12-2010, 17:06
scusa hwupgrade col 1100T non supera 1 3913 mhz (stabile), come te lo spieghi?
http://www.hwupgrade.it/articoli/cpu/2646/amd-phenom-ii-x6-1100t-per-100-mhz-in-piu_9.html
Un conto è TOM's che becca SEMPRE e comunque proci sfigati AMD, un altro è un test di HW-Upgrade che potrebbe anche aver beccato un procio sfigato (gli OC non sono certamente garantiti). Vi sono altre rece dove una ad esempio ha postato il 1100T a 4,450GHz ad aria (ma conoscendo il 1090T, nutro delle riserve).
Il metro per capire la media è quello di vedere le rece, constatare gli utenti finali dove arrivano, e trarre le conclusioni.
Di certo non sto dicendo che tutti i Thuban 1090T arrivano a superare i 4,5GHz, però, nel TH OC Thuban, si posta l'OC max con superamento test di OCCT e Vprime, quindi molto più selettivo che dire "sono a 4GHz RS".
C'è solo 1 utente mi sembra che ha problemi oltre i 3,950GHz, gli altri ad aria arrivano fino a 4,250GHz, a liquido si parte dai 4,3GHz in su.
Secondo te la media dov'è?
Forse non ti ricordi il famosissimo articolo dove Tom's cambiò il dissi standard di un 965C3 per mettergli quello di un Phenom II X3 (praticamente peggio del def) postando poi "il 965c3 non arriva a 3,6GHz ad aria". :doh:
Quello che mi ha fatto divertire, è che gli ho postato il mio 1090T a 4,5GHz in OC (1,512V) ad un Vcore inferiore del suo a 3,9GHz (1,6V), lo sai che hanno fatto? Mi hanno cancellato il post!!!
von Clausewitz
19-12-2010, 18:06
Un conto è TOM's che becca SEMPRE e comunque proci sfigati AMD, un altro è un test di HW-Upgrade che potrebbe anche aver beccato un procio sfigato (gli OC non sono certamente garantiti). Vi sono altre rece dove una ad esempio ha postato il 1100T a 4,450GHz ad aria (ma conoscendo il 1090T, nutro delle riserve).
Il metro per capire la media è quello di vedere le rece, constatare gli utenti finali dove arrivano, e trarre le conclusioni.
Di certo non sto dicendo che tutti i Thuban 1090T arrivano a superare i 4,5GHz, però, nel TH OC Thuban, si posta l'OC max con superamento test di OCCT e Vprime, quindi molto più selettivo che dire "sono a 4GHz RS".
C'è solo 1 utente mi sembra che ha problemi oltre i 3,950GHz, gli altri ad aria arrivano fino a 4,250GHz, a liquido si parte dai 4,3GHz in su.
Secondo te la media dov'è?
Forse non ti ricordi il famosissimo articolo dove Tom's cambiò il dissi standard di un 965C3 per mettergli quello di un Phenom II X3 (praticamente peggio del def) postando poi "il 965c3 non arriva a 3,6GHz ad aria". :doh:
Quello che mi ha fatto divertire, è che gli ho postato il mio 1090T a 4,5GHz in OC (1,512V) ad un Vcore inferiore del suo a 3,9GHz (1,6V), lo sai che hanno fatto? Mi hanno cancellato il post!!!
certo e infatti hwupgrade col 1090T è stata più fortunata arrivando a 4,3 ghz
non ho capito a cosa ti riferisci in riferimento al 965C3 se non che la discussione di riferimento da valori abbastanza discordanti da quelli che hai riferito
http://www.tomshw.it/cont/articolo/overclocking/23193/6.html
paolo.oliva2
19-12-2010, 18:43
certo e infatti hwupgrade col 1090T è stata più fortunata arrivando a 4,3 ghz
non ho capito a cosa ti riferisci in riferimento al 965C3 se non che la discussione di riferimento da valori abbastanza discordanti da quelli che hai riferito
http://www.tomshw.it/cont/articolo/overclocking/23193/6.html
Mi sa che ho sbagliato, non era il 965C3 ma un altro X4.
Comunque ciò non cambia il succo del discorso... Tom's ha da sempre fatto confronti e bench sui proci AMD piuttosto lesivi, e sono in parecchi concordi su questo fatto. Impostare giudizi sui dati riportati da "lui", non sono certo da considerare una Bibbia.
Senza farla lunga, ti posto alcune considerazioni ad esempio sull'ultimo artico sul 1100T: QUI (http://www.tomshw.it/cont/articolo/phenom-ii-x6-1100t-lotta-con-core-i7-920-e-core-i5-750/28602/1.html)
Innanzitutto lui confronta il 1100T con un i920 ed un i5 750 (azzo, gli altri lo confrontano con i860/i870, lui lo confronta con un i7 a 2,6GHz?)
I consumi solo lui può sapere come li tira fuori.
http://www.pctunerup.com/up/results/_201012/20101220132610_consumi1.jpg
http://www.pctunerup.com/up/results/_201012/20101220132659_consumi2.jpg
Come vedi, sia in idle che a pieno carico, il Thuban consuma nettamente meno.
Addirittura consuma meno anche in condizione OC a 4GHz rispetto all'i920 def.
Questo è il mio 1090T a 1,325V (-0,025V rispetto al Vcore def) che supera i 4GHz sotto carico.
http://www.pctunerup.com/up/results/_201012/th_20101221200517_4GHz1325V.jpg (http://www.pctunerup.com/up/image.php?src=_201012/20101221200517_4GHz1325V.jpg)
Ora come fa solo lui a vedere un consumo in primis superiore del 1100T rispetto al 1090T (quando tutte le testate riportano un consumo inferiore) ed addirittura un consumo del 50% superiore in overclock a 4GHz rispetto all'i920 def, quando altre testate riportano consumi ancora inferiori ed io, personalmente, addirittura supero i 4GHz ad un Vcore inferiore del def. 1,6V li ha dati unicamente per far apparire che il Thuban consumava di più A parte che per quei consumi postati, per me manco a 1,8V sarebbero reali.
http://www.pctunerup.com/up/results/_201012/20101220133348_toms1100T.jpg
Puoi capire alla fine le sue considerazioni e valori dei bench che affidabilità possano avere...
Che lo sfruttamento dei core di un procio dipenda dall'uso e dai programmi, è chiaro che non ci piove.
Il punto è che 2-3 anni fa un dual-core (per me) era sfruttato ed un quad direi poco. Poi, sia per Intel con il raddoppio dei TH che a seguito AMD con l'X6 (tralascio gli X6 Intel non evidentemente per potenza, ma perché al momento, visto il tipo di discorso, se 8 TH si reputano difficili da sfruttare nel desktop, figuriamoci 12 TH dell'X6 Intel), il software si adegua via via all'aumento dei TH gestibili dai proci.
Ma guardate che subentra un fatto che in pochi considerano. Sta cambiando da parte dell'utente il modo con cui si interagisce con il sistema.
Una volta, con il dual core, avere l'anti-virus sotto in esecuzione, limitava di fatto l'uso di una applicazione alla volta, forse 2 ma già con limitazioni.
Con un quad, praticamente ci si è trovati come se si avesse un dual core liberissimo, ma con il vantaggio di avere l'anti-virus in funzione e magari 1-2 applicazioni già che girano.
Io avevo preso il 1090T, poi per prb con il WC di condensa il procio mi è saltato, e sono tornato a riusare il 965C3.
Il problema è che ormai mi ero abituato al Thuban e la differenza nel modo di usare il sistema.
Un esempio? Come ho detto, Torrent mi lavora sotto e scarico mkv, avi, divx, ecc. ecc. Voglio fare conversioni per trasferire un film nell'n97mini? OK, carico il software idoneo, e faccio la conversione, intanto leggo il TH, posto, spatacco con altre applicazioni, e via discorrendo.
Ma se devo fare magari 10 conversioni e sono le 17 del pomeriggio e me le voglio vedere la sera alla televisione, ho necessità di farle in tempi stretti, quindi posso caricare 5 istanze nel procio e ridurre i tempi di 1/5.
Quello che secondo me è sbagliato, è pensare che 1 programma monocore non possa sfruttare un X6 o un X8. Prendiamo BOINC, stesso discorso.... posso elaborare 6 istanze contemporaneamente.
Noi invece calcoliamo che se al mondo esistono 85% di programmi monocore ed il 15% di programmi multicore, allora un procio multicore non può essere sfruttato universalmente.
Io invece dico di considerare che di per sé già l'uso di un procio con più core possibile dia un senso di libertà rispetto ad uno con meno core, e che comunque quell'85% di programmi monocore, ove non c'è necessità di intervento umano (non è che uno possa avere 8 sessioni di Paint e lavorare contemporaneamente su tutte 8), è possibile comunque caricarne n volte contemporaneamente quanti n sono i core.
Considerando questo, è più facile secondo me comprendere che un procio con più core sia certamente più sfruttabile di quanto si pensi.
esattamente.
è più un discorso di "cultura nell'utilizzo" o interazione con il pc...insomma sta diventando uno stress anche stare davanti al computer...
chiaramente...le SH di adegueranno alla nuova tendeza in atto.
il problema IMHO è che la gente, perlomeno agli inizi...in generale...non capirà che in MT è fondamentale un'organizzazione graduale dei compiti...ovvero avere 2-4 operazioni pesanti, lente e/o sempre funzionanti...un paio leggere ed infine un altro paio de gustibus "on the fly" per occupare il tempo.
l'utente medio donna ci uscirà di testa...e l'uomo combinerà tanti bei paciughi:Prrr:
Così a naso...non mi pare sia ancora abbastanza evoluta la mentalità verso il MT...per i più si parla di giochi e SOHO....dove un X4 è sufficiente e alla grande.
BD8X è per i casi limite e particolarmente esigenti, perlomeno nel 2011. Sarebbe uno spreco in mano ad un ragazzino solo per benchare o giocare...e purtroppo l'anno prossimo, lo share verrà sorretto soprattutto da utenti che non beneficeranno di tanta possibilità....mi auguro che impareranno a sfruttarla ;)
D'altro canto...bisognerà pure incominciare questa era del MT pesante, in qualche maniera :D
E come dici tu...una volta che ci si è automaticamente evoluti verso il MT e la sua efficienza...è fastidioso rinunciarvi.
paolo.oliva2
20-12-2010, 00:42
esattamente.
è più un discorso di "cultura nell'utilizzo" o interazione con il pc...insomma sta diventando uno stress anche stare davanti al computer...
chiaramente...le SH di adegueranno alla nuova tendeza in atto.
il problema IMHO è che la gente, perlomeno agli inizi...in generale...non capirà che in MT è fondamentale un'organizzazione graduale dei compiti...ovvero avere 2-4 operazioni pesanti, lente e/o sempre funzionanti...un paio leggere ed infine un altro paio de gustibus "on the fly" per occupare il tempo.
l'utente medio donna ci uscirà di testa...e l'uomo combinerà tanti bei paciughi:Prrr:
Così a naso...non mi pare sia ancora abbastanza evoluta la mentalità verso il MT...per i più si parla di giochi e SOHO....dove un X4 è sufficiente e alla grande.
BD8X è per i casi limite e particolarmente esigenti, perlomeno nel 2011. Sarebbe uno spreco in mano ad un ragazzino solo per benchare o giocare...e purtroppo l'anno prossimo, lo share verrà sorretto soprattutto da utenti che non beneficeranno di tanta possibilità....mi auguro che impareranno a sfruttarla ;)
D'altro canto...bisognerà pure incominciare questa era del MT pesante, in qualche maniera :D
E come dici tu...una volta che ci si è automaticamente evoluti verso il MT e la sua efficienza...è fastidioso rinunciarvi.
Si, si, chiaramente.
Esempio: più che altro puoi fare girare più programmi sciegliendo con cura i programmi che non usano contemporaneamente le stesse periferiche. Un po' come facciamo con internet. Non posso pensare di scaricare un download da un server di 1GB e nello stesso tempo fare girare torrent e voler fare gli aggiornamenti del pc. Allo stesso modo, non posso pensare di masterizzare e di trasferire contemporaneamente 300GB da un HD all'altro.
Oppure, al limite, individuo nel mio modo di "lavorare" al pc quali sono i punti deboli delle periferiche e le potenzio di conseguenza. Esempio, se 140MB/s degli HD fossero scarsi, allora gaccio un raid 0, e/o comunque mi baso su HD da 7200rpm con magari 32/64MB di cache, così la limitare le scritture nella FAT.
Indubbiamente se non per lavoro, portare ai limiti un X8 è difficile, però non impossibile. Da un X4 ad un X6 ci siamo abituati a fare un passo di 1 metro al posto di 70cm, poi proveremo a farlo di 1,2m :).
Usare il pc solo come strumento, io lo trovo noioso. Quello che mi diverte realmente, è arrivare ai suoi limiti in tutte le sue parti, dall'OC al max di programmi contemporaneamente, in modo da capirlo in tutte le sue parti e trovati i limiti, pensare a come oltrepassarli e risolverli.
Un esempio può essere l'aumento di transfer con gli HD. Anche qui io trovo interessante il modo di operare per risolvere il problema: uno spende 300€, si prende 1 HD SATA III e vai con il raddoppio della banda. Troppo facile. Il trucco ed il bello è arrivare al max spendendo il minimo. Prendendo 2 HD SATA II e mettendoli in RAID, otterrò praticamente lo stesso transfer di un SATA III, ma spendendo meno della metà con addirittura il doppio della capacità.
Si, si, chiaramente.
Esempio: più che altro puoi fare girare più programmi sciegliendo con cura i programmi che non usano contemporaneamente le stesse periferiche. Un po' come facciamo con internet. Non posso pensare di scaricare un download da un server di 1GB e nello stesso tempo fare girare torrent e voler fare gli aggiornamenti del pc. Allo stesso modo, non posso pensare di masterizzare e di trasferire contemporaneamente 300GB da un HD all'altro.
Oppure, al limite, individuo nel mio modo di "lavorare" al pc quali sono i punti deboli delle periferiche e le potenzio di conseguenza. Esempio, se 140MB/s degli HD fossero scarsi, allora gaccio un raid 0, e/o comunque mi baso su HD da 7200rpm con magari 32/64MB di cache, così la limitare le scritture nella FAT.
Indubbiamente se non per lavoro, portare ai limiti un X8 è difficile, però non impossibile. Da un X4 ad un X6 ci siamo abituati a fare un passo di 1 metro al posto di 70cm, poi proveremo a farlo di 1,2m :).
Usare il pc solo come strumento, io lo trovo noioso. Quello che mi diverte realmente, è arrivare ai suoi limiti in tutte le sue parti, dall'OC al max di programmi contemporaneamente, in modo da capirlo in tutte le sue parti e trovati i limiti, pensare a come oltrepassarli e risolverli.
Un esempio può essere l'aumento di transfer con gli HD. Anche qui io trovo interessante il modo di operare per risolvere il problema: uno spende 300€, si prende 1 HD SATA III e vai con il raddoppio della banda. Troppo facile. Il trucco ed il bello è arrivare al max spendendo il minimo. Prendendo 2 HD SATA II e mettendoli in RAID, otterrò praticamente lo stesso transfer di un SATA III, ma spendendo meno della metà con addirittura il doppio della capacità.
eh si..il bello del pc "costruttivo" è quello di provare soddisfazione...nel trasformare la poca spesa in tanto guadagno prestazionale :D
Vale per il raid di sata II...vale per le vga come quella che ho in firma che per l'anno prossimo con il 990x troverà una degna sorellina usata...vale per i proci sbloccabili e così via.
A proposito :oink:
Come vedi un procio (dovrò vedere al momento quale) su una 990x dotata di un piccolo TEC e relativo sostanzioso dissy...ben avvolti dal neoprene (anche sul retro della MB)...il tutto che sovrasta il NB? :ciapet:
Non vedo l'ora!
tanto più...che le ram stanno crollando...ora come ora ci sono delle ottime corsair, le vengeance...2x4GB 1866 cl9 1,5V in kit a 160 euri circa...chissà fra 4 mesi cosa offrirà il mercato, vuoi per la concorrenza, vuoi per il crollo dei prezzi ram fino alla prima metà 2011...sarà uno sballo :read:
Si prospetta una grande primavera...per chi come me...gode come un riccio, a far prendere il volo ai "vecchi" prodotti, considerati come tali dai più.
procio x2@x4 (o zosma@x6 :D ) su un NB pompato, magari con FSB 500 mhz
ram con frequenze da capogiro e latenze ridotte
cf di 5850@5870@1000/1300
raid SSD EFFETTIVAMENTE sata III se sarà necessario, che costerà come il sata II di ora (sperem).
Ciò che oggi è complicato se non impossibile, nell'eventuale fattibilità è comunque molto costoso...invece...fra pochi mesi sarà attuabile e con una spesa anche MOLTO più contenuta.
e la scimmia sale...sale...sale...:ciapet:
carlottoIIx6
20-12-2010, 12:14
basta flame
si sa che la rivista è nota per essere pro-intel!
basta vedere che in molti test il 1100 se la vede con i top intel
mentre il titolo recita che se la vede con il 760 :eek:
quando si tratta di testare un silicio, paolo è l numero uno qui
poi ognuno la pensi come vuole:cool:
ma che cosa e' successo?non vedo nuovi post.....hanno bannato tutti? :asd:
ma che cosa e' successo?non vedo nuovi post.....hanno bannato tutti? :asd:
Ormai è stato detto tutto :asd:
Si aspetta Zacate/Ontario per la ripresa delle ostilità :p
paolo.oliva2
21-12-2010, 12:14
Ormai è stato detto tutto :asd:
Si aspetta Zacate/Ontario per la ripresa delle ostilità :p
:D :D :D
In effetti... ormai ci sono determinate correnti di idee.
Sinché non ci saranno ulteriori dati oggettivi, sarebbe una discussione a oltranza (di certo non mi sto escludendo).
P.S.
Oggi arriva carne al fuoco... (1100T).
capitan_crasy
21-12-2010, 13:07
Nuova versione (v3.65) del programma HWiNFO32 la quale aggiunge un supporto avanzato alla AMD Family 15h, ovvero all'architettura Bulldozer...
Changes in HWiNFO32 v3.65 - Released on: Dec-21-2010:
Enhanced support of ATI PM2 sensors.
Added support of CHiL CH8266 PWM (for monitoring of GPU voltage, current, power).
Added universal support of CSMI SAS (improved drive detection).
Enhanced sensor monitoring on ASUS Rampage III GENE/Extreme.
Enhanced support of AMD Family 15h.
Added support of Intel XTU v2.1.
Added nVidia GeForce GTX 570.
Enhanced sensor monitoring on Intel 6-series desktop boards.
Added nVidia GeForce GT 540M.
Enhanced support of Ivy Bridge-DT/MB.
Added preliminary support of Ivy Bridge-EP/EX (Ivytown).
Enhanced sensor monitoring on MSI GX620.
Improved recognition of Arrandale ECC.
Added support of SMSC SCH3112/4/6 LPC HW monitor.
Fixed Benchmark comparison label issue.
Added Intel Core 2nd generation logos.
Clicca qui... (http://www.hwinfo.com/news32.html)
Snake156
21-12-2010, 17:14
Ormai è stato detto tutto :asd:
Si aspetta Zacate/Ontario per la ripresa delle ostilità :p
stanno tutti pensando ai regali per il natale :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.