PDA

View Full Version : Alcuni dubbi sui watt di Dothan


Redazione di Hardware Upg
30-03-2004, 16:10
Link alla notizia: http://news.hwupgrade.it/12123.html

I produttori di notebook avanzano dubbi sulla capacità delle proprie soluzioni di dissipare correttamente il calore generato dalle nuove cpu Pentium M basate su Core Dothan

Click sul link per visualizzare la notizia.

matboscolo
30-03-2004, 16:13
A quanto pare il problema di intel nel versante desktop (vedi adozione del btx per risolvere i problemi di dissipazione del prescott) si ripercuote anche sui notebook, questo per unificare la catena di produzione, cioè stufe e fornelli sia portatili che fissi:D

[IlD4nX]
30-03-2004, 16:20
oh no !! more lemmings (prescot - dothan)

Vangelis
30-03-2004, 16:22
e te pareva.... ;) speriamo che non siano poi tanti watt!

Helstar
30-03-2004, 16:25
Peccato che ci sono questi problemi ... questi processori sono eccellenti ma se si alza troppo la temperatura non ci siamo :\

xpiuma
30-03-2004, 16:28
Bè, mi pare strano...

Secondo INTEL Dothan non dovrebbe avere così tanti watt da dissipare, si parlava di 21W per la versione normale, 10W per la LV e 5W per la ULV (con bus a 400MHz).
Mentre a fine anno quando dovrebbero arrivare col bus a 533MHz la versione normale dovrebbe arrivare a 30W (e questi sono tantini...) e 15W per la LV mentre non si sa ancora niente della ULV...

All'arrivo di Jonah allora si che diventerebbero un problema, 45W per il normale!!!

Ah, e vogliamo parlare del prescott-M??? 90W!! E il Tejas-M?? 1xxW!!!

Ma questi ultimi sono solo poco più che rumors...

franfred
30-03-2004, 16:40
Aumentare i Watt oltre al problema di dissipazione termica incide negativamente sull'autonomia della batteria.
Non mi pare una buona idea raddoppiare la cache L2 se questo causa un raddoppio dei Watt...

frankie
30-03-2004, 16:50
mah, secondo me non dovevano cambiare core e aggiungere cache oltre !M.
Il vero miglioramento sarebbe stato DDR400 e bus800 con, anche se serve a poco il dual channel.
Così l'architettura rimaneva la stessa con il miglioramento 0.09, freq. più alte e bus più veloce.

Mi puzza di simil prescott, più cache per compensare pipeline più lunghe...

è risaputo che il passaggio 1-2M da vantaggi solo marginali rispetto a 512-1M

atomo37
30-03-2004, 17:03
insomma il processo produttivo 0.09 non accenna a mantenere le promesse sperate!!!

Max Power
30-03-2004, 17:23
Bella fregatura 0.09 micron!!!

Infatti si sente già vociferare di produzioni a0.065...

Intanto l'AMD se la spassa con i 0.13...

nonikname
30-03-2004, 17:34
Più che spassarsela dovrà affrontare anche lei i 90 nanometri , che sembrano portare più problemi che benefici , trascurando il fatto che lo stesso core prodotto a 90 nanometri costa la metà di quello fatto a 130 nanometri......

devis
30-03-2004, 17:44
Bello schifo questo strained silicon :muro:

Leggete questo bell'articoletto

http://www.lithium.it/articolo.asp?code=48&pag=3

ShadowX84
30-03-2004, 18:05
Personalmente non credo che questo (per adesso solo ipotetico) aumento di watt sia dovuto all'aumento della cache di secondo livello, ma bensi ad altri 2 fattori:

1)Il processo produttivo a 90nm sta dando più problemi del previsto a tutti i produttori, Intel però sembra che ne risenta in particolar modo infatti pare che non riesca ad ottimizzarlo in maniera efficiente forse anche a casusa dell'utilizzo dello strained silicon che potrebbe non essere sufficientemente maturo per rivelare tutti i suoi reali vantaggi!

2)Non vorrei che il progetto Centrino subisca la stessa sorte dei processori desktop per quanto riguarda il fronte delle frequenze (nonostante sia notizia di pochi giorni fa che Intel intende abbandonare la frequenza come unico parametro di riferimento).
Ergo visto che Banias non scarseggia di potenza (ne tantemeno il futuro dothan) non credo che ci sia bisogno di spingere la frequenza sino alla soglia dei 2,133Ghz entro la fine dell'anno, altrimenti è ovvio che i consumi non potranno rimanere contenuti!

Poi chissà...chi vivrà vedrà!

Bye bye! :)

ShadowX84
30-03-2004, 18:10
Perchè lo strined silicon ti pare uno schifo?:confused:

A me non sembrava male come idea!;)

Potresti spiegarti meglio?

Ciao ciao!! :)

Opteranium
30-03-2004, 18:53
noooooo...
mi crolla un mito, anche il nuovo Pentium M ha problemi di calore...

darkwings
30-03-2004, 19:12
Quello che mi chiedo, e' perche' sul mercato arrivino prodotti non ottimizzati? Che senso ha mettere sul mercato prodotti che andranno forse abbastanza bene, non solo si perde la faccia,ma si svaluta il prodotto stesso che non vale piu' niente.
Il consumismo americano che ti fa' comprare le stesse cose 10 volte fara' anche lavorare tutti, ma riduce tutti i prodotti ad usa e getta, tutto perde valore e non si e' mai soddisfatti di nulla.

piottanacifra
30-03-2004, 19:57
Intel una cosa la sa fare veramente bene!!!!!!!
Rubare i brevetti.
SALUTT & BAZZ

Spectrum7glr
30-03-2004, 20:04
ricordo a tutti che un 2600+ XP-M consuma 45watt....se Intel ha problemi in ambito mobile AMD che deve fare?...ragazzi: siamo seri :rolleyes:

hardskin1
30-03-2004, 20:05
Venghino signori! Proponiamo nuovi modelli di stufe e coperte elettriche DeIntel a prezzi veramente inaccessibili a tutti e consumi sempre in crescita!

HyperOverclock
30-03-2004, 20:23
E chissà che non presenti anche 2 core...

lamp76
30-03-2004, 21:01
Amd farebbe carte false per avere i consumi in ambito mobile che hanno Banias e Dothan! E che aumentando il clock ci vogliano + watt non ci vuole mica un genio per capirlo!?!?

Che vi aspettavate un processore + potente ma CON GLI STESSI CONSUMI????

lamp76
30-03-2004, 21:07
Voglio vedere quando AMD passerà a 0,09 ... Intel ci sta passando con anticipo ed alla lunga secondo me, la cosa gioverà ad Intel che si troverà avanti con la ricerca e riuscirà a migliorare i processi di produzione prima degli altri.

Prima o poi ci dovranno passare tutti dagli 0,09!

BlackBug
31-03-2004, 08:20
A menoi che AMD non abbia già qualcuno che sta lavorando in tal senso...cmq per il mobile è vero gli amd consumano molto ma costano una fesseria rispetto agli intel...se consumassero poco,fossero prestanti e costassero poco chi comprerebbe INTEL?

KAISERWOOD
31-03-2004, 09:11
Originariamente inviato da BlackBug
A menoi che AMD non abbia già qualcuno che sta lavorando in tal senso...cmq per il mobile è vero gli amd consumano molto ma costano una fesseria rispetto agli intel...se consumassero poco,fossero prestanti e costassero poco chi comprerebbe INTEL?

Questi sono i conusmi dell'athlon 64cg
Il core CG viene adottato per i seguenti tre modelli di CPU:

- Frequenza: 2000 MHz / Voltaggio: 1,4V / Valore termico: 69 Watt;
- Frequenza: 1800 MHz / Voltaggio: 1,3V / Valore termico: 50 Watt;
- Frequenza: 1000 MHz / Voltaggio: 1,1V / Valore termico: 22 Watt

Nella versione mobile credo che consumino di meno e cmq è errato fare confronti centrino vs athlon mobile, perchè l'athlon mobile si scontra coon il p4 mobile e allora se confronti le tabelle dell'athlon mobile con il p4 mobile, conviene l'atlhon per il consumo e se confronti i prezzi c'è un abisso anche con i centrino.




Pentium M 1,4 GHz 219.00 EUR
Pentium M 1,5 GHz 249.00 EUR
Pentium M 1,6 GHz 309.00 EUR
Pentium M 1,7 GHz 439.00 EUR

Pentium 4 Mobile 2,2 GHz 209.00 EUR
Pentium 4 Mobile 2,4 GHz 219.00 EUR
Pentium 4 Mobile 2,6 GHz 224.00 EUR
Pentium 4 Mobile 2,8 GHz 234.00 EUR
Pentium 4 Mobile 3,06 GHz 259.00 EUR
Pentium 4 Mobile 3,2 GHz 319.00 EUR

Athlon XP-M 1800+ (Thoroughbred) 69.00 EUR
Athlon XP-M 2000+ (Thoroughbred) 79.00 EUR
Athlon XP-M 2400+ (Barton) 89.00 EUR
Athlon XP-M 2500+ (Barton) 99.00 EUR
Athlon XP-M 2600+ (Thoroughbred) 119.00 EUR
Athlon XP-M 2600+ (Barton) 119.00 EUR
Athlon XP-M 2800+ (Barton) 149.00 EUR

i prezzi li ho presi da alcuni siti tedesco ma le cpu athlon m si torvano a di meno a roma. Un xp-m 1800 a 38euro e un 2400 xp-ma 72 senza iva.
cmq penso renda l'idea. Non avria 6 ore di autonomia ma pur se sono 2 e 30 non è male. Il pentiu-m sotto 1,3 costa un botto per l'autonomia, un 900ulv costa quanto un 1,7

KAISERWOOD
31-03-2004, 09:29
Originariamente inviato da lamp76
Amd farebbe carte false per avere i consumi in ambito mobile che hanno Banias e Dothan! E che aumentando il clock ci vogliano + watt non ci vuole mica un genio per capirlo!?!?

Che vi aspettavate un processore + potente ma CON GLI STESSI CONSUMI????

Secondo te perché un toro consumo di un polomino pari frequenza e l'xp2100 0,18 consuma quanto il 2800 0,13? L'intel si sta complicando la vita una cache di 2l troppo grande scalda e consuma molto. A mio avviso Il dothan dovrebbe essere un banias a 0,009 e basta senza aumenti di cache a limite solo di bus. Il processo costruttivo + raffinato li abbassa i consumi non li alza come intel vuol far crede x giustificare le sue minchiate. IL prescott a 0,13 secondo voi cosumerebbe di meno? immagginatevi quanto consumerebbe!!

L'athlon 0,009 in pratica l'athlon fx attuale con forse l'sse3 e processo costruttivo + raffinato, xciò non credo che avra problemi di consumo. Il toro A consumava poco rispetto ai polomino, e con il toro b si è ridotto ancora di + in consumi e si è spinto di + sulla frequenza, perciò aspettiamo anche i futuri step.

ShadowX84
31-03-2004, 13:53
Inviato da:
Amd farebbe carte false per avere i consumi in ambito mobile che hanno Banias e Dothan! E che aumentando il clock ci vogliano + watt non ci vuole mica un genio per capirlo!?!?

Hai ragione, però viste le prestazioni non vedo il perchè debbano innalzare la frequenza in maniera così consistente già aentro la fine dell'anno!

Inviato da:
...Che vi aspettavate un processore + potente ma CON GLI STESSI CONSUMI????

Teoricamente è possibile!
Visto che come si è detto e ridetto la frequenza non è l'unico parametro di valutazione, si possono modificare molte altre cose nel core che non necessariamente aumentano la potenza richiesta, come ad esempio il front side bus, oppure tanti altri miglioramenti a livello architetturale (non necessariamente pipeline o cache) ma ad esempio ALU, branch prediction, ecc...ecc..., tutte cose che aumentano la "potenza" del processore e non obbligtoriamente innalzano i consumi!

Inviato da: KAISERWOOD
Secondo te perché un toro consumo di un polomino pari frequenza e l'xp2100 0,18 consuma quanto il 2800 0,13? L'intel si sta complicando la vita una cache di 2l troppo grande scalda e consuma molto. A mio avviso Il dothan dovrebbe essere un banias a 0,009 e basta senza aumenti di cache a limite solo di bus. Il processo costruttivo + raffinato li abbassa i consumi non li alza come intel vuol far crede x giustificare le sue minchiate. IL prescott a 0,13 secondo voi cosumerebbe di meno? immagginatevi quanto consumerebbe!!...


Non credo che il passaggio da una cache L2 di 1Mb ad una di 2Mb sia la causa dei loro problemi (ripeto...per adesso solo ipotetici) di surriscaldamento!La memoria cache (quella di secondo livello) in teoria non consuma/scalda moltissimo rispetto alle altre parti del core, ovviamente questo dipende anche da come la cache viene ottimizzata e gestita se non erro!

Sono daccordo con te però quando dici che Dothan dovrebbe essere la versione di Banias fabbricata a 90 nanometri con l'eventuale incremento del FSB, senza quel mega di cache in più, feature che avrei introdotto eventualmente più avanti, magari a 2005 inoltrato, cmq...questi sono punti di vista!!

Ciao ciao!!:)

Mazzulatore
31-03-2004, 13:58
Intel mi fa ridere.... come ricava il valore di dissipazione "media"???? Normalmente un centrino "mediamente" consuma pochissimo, ma in condizioni di massimo carico non si sa niente e secondo me consuma tantissimo e comunque non meno di un XP-M

ronthalas
31-03-2004, 16:15
e restare a 0,13 invece di diminuire e fare la figuraccia dell'involuzione tecnologica?

DioBrando
01-04-2004, 02:17
Originariamente inviato da KAISERWOOD
Questi sono i conusmi dell'athlon 64cg
Il core CG viene adottato per i seguenti tre modelli di CPU:

- Frequenza: 2000 MHz / Voltaggio: 1,4V / Valore termico: 69 Watt;
- Frequenza: 1800 MHz / Voltaggio: 1,3V / Valore termico: 50 Watt;
- Frequenza: 1000 MHz / Voltaggio: 1,1V / Valore termico: 22 Watt

Nella versione mobile credo che consumino di meno e cmq è errato fare confronti centrino vs athlon mobile, perchè l'athlon mobile si scontra coon il p4 mobile e allora se confronti le tabelle dell'athlon mobile con il p4 mobile, conviene l'atlhon per il consumo e se confronti i prezzi c'è un abisso anche con i centrino.




Pentium M 1,4 GHz 219.00 EUR
Pentium M 1,5 GHz 249.00 EUR
Pentium M 1,6 GHz 309.00 EUR
Pentium M 1,7 GHz 439.00 EUR

Pentium 4 Mobile 2,2 GHz 209.00 EUR
Pentium 4 Mobile 2,4 GHz 219.00 EUR
Pentium 4 Mobile 2,6 GHz 224.00 EUR
Pentium 4 Mobile 2,8 GHz 234.00 EUR
Pentium 4 Mobile 3,06 GHz 259.00 EUR
Pentium 4 Mobile 3,2 GHz 319.00 EUR

Athlon XP-M 1800+ (Thoroughbred) 69.00 EUR
Athlon XP-M 2000+ (Thoroughbred) 79.00 EUR
Athlon XP-M 2400+ (Barton) 89.00 EUR
Athlon XP-M 2500+ (Barton) 99.00 EUR
Athlon XP-M 2600+ (Thoroughbred) 119.00 EUR
Athlon XP-M 2600+ (Barton) 119.00 EUR
Athlon XP-M 2800+ (Barton) 149.00 EUR

i prezzi li ho presi da alcuni siti tedesco ma le cpu athlon m si torvano a di meno a roma. Un xp-m 1800 a 38euro e un 2400 xp-ma 72 senza iva.
cmq penso renda l'idea. Non avria 6 ore di autonomia ma pur se sono 2 e 30 non è male. Il pentiu-m sotto 1,3 costa un botto per l'autonomia, un 900ulv costa quanto un 1,7


Infatti è sbagliato il metro di paragone utilizzato.
Con i Centrino ( che restano la migliore soluzione) ci si può affiancare i 2000-2200 AMD low voltage da 1.25 Vcore e 25W che cmq n sn affatto male, considerando anche il 3DPower Now che come accoppiata considero ancora sopra il corrispettivo SpeedStep Intel.

Poi naturalmente i raffronti sn sui dati "di fabbrica", se il centrino lo tiriamo per farci qlc lavoretto in grafica n sò come si comporti a livello di prestazioni generali rispetto ad un AMD e quanto effettivamente consumi.

Un balzo da 0,13 micron a 0,09 è ENORME.
Ci sn tantissime variabili da considerare e di sicuro dovranno tener conto della possibilità di migliorare la predizione dinamica di salto, l'utilizzo della cache e il generale andamento dei cicli di clock senza che vi siano troppi passaggi " a vuoto" che inficerebbero e n giustificherebbero granchè l'abbassamento del processo produttivo ( al di là dei logici risparmi sul n° di cpu ottenibili in un singolo wafer).

Staremo a vedere ma n credo che la soluzione sia un richiamo all'alimentazione BTX dei desktop, che sembrano tutti snobbare, Intel stessa inclusa.

KAISERWOOD
01-04-2004, 12:46
da 0,13 a 0,09 non è enorme come da 0,25 a 0,18 o da 0,18 a 0,13,. Nel primo caso eravanmo scei di o,o7 micron nel secondo di o,o5 adesso di o,,o4. Pericò quest'enorme balzo non mi pare, certo è sempre + difficle ridurre ma nei anche precedenti passaggi hanno torvato le loro difficoltà. Da 0,25 a 0,18 non ci sono satti grossi problemi, perchè in quel tempo le cpu rimanevano sul mercato per parecchio, tnato è vero che trovavi ancora i pentium 233 quando c'erano i pentium 2 e 3 slot 1. Per il passaggio a 0,13 intel non ha avuto grossi problemi perchè il p4 fino a 2ghz poteva farlo tranquillamente a 0,18 e inetnto poteva testare il processo costrivo + raffinato sui tualatin che erano + semplici (anche se + efficaci). Amd ha avuto problemi con i 0,13 perchè ha sfruttato a fondo lo 0,18 e non lo ha testato prima lo 0,13, infatti con il successivo step ha aggiunto un layer per rimediare. Credo che i problemi ocn lo 0,09 siano dovuti al fatto che intel avendo cambiato le cartteristiche del prescott non ha avuto il tempo di verificare (prima si parlava di 22stadi in + per far posto ad unità di elaborazione + complessa). AMD a mio avviso avrà problemi ocn lo 0,09 se farà il passaggio all'ultimo momento come è successo con lo 0,13.
X il dothan non si tratta di una mento tipo toro>barton di 256kbyte ma di 1mega di cache! Se per 256kbyte di cache c'è un aumento di 3 watt per 1mega in + si arriva a 10. Tra il primo step del tualatin e l'ultimo del coppermine a 1ghz la differenza è stata di 3 watt (27 vs 29) quiando nellas versione S a 1,4 (l'ultima uscita) ne consuma 30. Perciò se il dothan consuma 7watt in + o oltre è dovuto ad un processo ancora acerbo.
Resta il fatto che il dothna potrebbe non essere un semplice banias con cache maggiorata, perciò può essere che intel x fare "l'innovativa" abbia aumentatao le pipe come il prescott, perchè secondo me a 0,09 non riesce a superare i 2ghz con una cache da 2mega a meno che non allunghi di 2 stadi.

devis
01-04-2004, 13:05
Originariamente inviato da KAISERWOOD
da 0,13 a 0,09 non è enorme come da 0,25 a 0,18 o da 0,18 a 0,13,. Nel primo caso eravanmo scei di o,o7 micron nel secondo di o,o5 adesso di o,,o4.

Bisogna ragionare in proporzioni,in termini assoluti non dicono nulla ;)


0.25 um > 0.18 = -28 %

0.18 um > 0.13 = -27,7 %

0.13 um > 0.09 = -30,8 %

DioBrando
01-04-2004, 13:15
Originariamente inviato da KAISERWOOD
da 0,13 a 0,09 non è enorme come da 0,25 a 0,18 o da 0,18 a 0,13,. Nel primo caso eravanmo scei di o,o7 micron nel secondo di o,o5 adesso di o,,o4. Pericò quest'enorme balzo non mi pare, certo è sempre + difficle ridurre ma nei anche precedenti passaggi hanno torvato le loro difficoltà. Da 0,25 a 0,18 non ci sono satti grossi problemi, perchè in quel tempo le cpu rimanevano sul mercato per parecchio, tnato è vero che trovavi ancora i pentium 233 quando c'erano i pentium 2 e 3 slot 1. Per il passaggio a 0,13 intel non ha avuto grossi problemi perchè il p4 fino a 2ghz poteva farlo tranquillamente a 0,18 e inetnto poteva testare il processo costrivo + raffinato sui tualatin che erano + semplici (anche se + efficaci). Amd ha avuto problemi con i 0,13 perchè ha sfruttato a fondo lo 0,18 e non lo ha testato prima lo 0,13, infatti con il successivo step ha aggiunto un layer per rimediare. Credo che i problemi ocn lo 0,09 siano dovuti al fatto che intel avendo cambiato le cartteristiche del prescott non ha avuto il tempo di verificare (prima si parlava di 22stadi in + per far posto ad unità di elaborazione + complessa). AMD a mio avviso avrà problemi ocn lo 0,09 se farà il passaggio all'ultimo momento come è successo con lo 0,13.
X il dothan non si tratta di una mento tipo toro>barton di 256kbyte ma di 1mega di cache! Se per 256kbyte di cache c'è un aumento di 3 watt per 1mega in + si arriva a 10. Tra il primo step del tualatin e l'ultimo del coppermine a 1ghz la differenza è stata di 3 watt (27 vs 29) quiando nellas versione S a 1,4 (l'ultima uscita) ne consuma 30. Perciò se il dothan consuma 7watt in + o oltre è dovuto ad un processo ancora acerbo.
Resta il fatto che il dothna potrebbe non essere un semplice banias con cache maggiorata, perciò può essere che intel x fare "l'innovativa" abbia aumentatao le pipe come il prescott, perchè secondo me a 0,09 non riesce a superare i 2ghz con una cache da 2mega a meno che non allunghi di 2 stadi.


invece secondo me resta un grosso passo in avanti e che comporta tutti i rischi del caso.
non puoi raffrontare il passaggio 0.13-00.9 con quello precedente 0.25-0.18.
Non è la sola differenza di micron nel processo costruttivo ma conta anche la vicinanza al limite strutturale del silicio.
Quando ci fu il passaggio a 0.18, ovvio n lo fecero ad occhi chiusi; ma i margini di miniaturizzazione erano ancora molto elevati, oggi n è + così.
A dimostrarlo ci sn le fatiche di Intel ma anche dei produttori di schede video come la Nvidia che già aveva stentato con la prima serie FX, pensando che si trattasse solo di "rimpicciolire" i transistor sulla gpu, n tenendo conto evidentemente di tutti i "contro" che andavano a determinarsi.

L'aumento delle pipeline è verosimile ma i tecnici dell'intel dovranno stare attenti a non snaturare un'architettura come quella del pentium M che di tutto si preoccupa tranne che l'aumento sconsiderato di pipe per ricavarne qlc Mhz in +.
Il suo successo e lo sappiamo tutti deriva da altri fattori.

Il dato + veritiero è che gli annunci e le roadmap sn fatti per essere smentiti, ora + che mai. :)

KAISERWOOD
01-04-2004, 16:56
Mi pare che il limite è stato superato o spostato da Big Blu cmq non hai capito quello che intendo io, prima per collaudare un processo costruttivo c'era molto tempo a disposizioni tu stesso hai fatto un parogone calzante. Nvidia è stata la prima ad adottare lo 0,13 PREMATURAMENTE sulle schede video e il risultato è stato l'fx5800, Ati ha preferito usare lo 0,15 per collaudare lo 0,13 sui chip meno complessi Rv360 e solo con l'r420 adotterà lo 0,13 su quelli di gascia alta. Nvidia memore di aver utilizzato un processo costruttivo non collaudato bene ha deciso di sfornare l'nv40 a 0,13 (che omrai è ben collaudato) e rinviare l'utilizzo di uno + raffinato. Quello che ha fatto Ati con lo 0,13 è quello che ha fatto intel a suo tempo per il P4 che veniva fatto a 0,18 mentre il tualatin a 0,13. L'errore che tu fai a mio avviso è che prendi con leggerezza i precedenti passaggi nel senso che prima non c'erano le capacità tecnologiche di adesso perciò in quel periodo avevano alla fine le stesse difficoltà con la differenza ch eavevano + tempo a disposizione. Se prima avevano 2 o 3 anni per collaudare un processo produttivo e utilizzarlo per la produzione in massa adesso già è tanto se lo collaudano. Se Ati non avesse sforanto l'r300 Non avrebbe fatto uscire l'fx5800 subito, puo darsi che l'avrebbe fatto uscire adesso dopo aver collaudato il processo costruttivo per bene. Il Toro A non sarebbe uscito subito se non fosse stato per il northwood e adesso il Prescott non sarebbe uscito subito s enon era uscito l'athlon 64
Trovo scandaloso che gli utenti finali fanno da beta tester.

DioBrando
01-04-2004, 18:44
k ora ho capito dove vuoi arrivare.
Però + ti avvicini a quel limite e di + tempo necessiti.
Solo che per com'è la concorrenza ora di spazio per poter testare a fondo le soluzioni n ce n'è, e quindi + andiamo avanti e + secondo me ci troveremo davanti a soluzioni instabili come quelle della Nvidia.

Per questo sn d'accordo con te sul discorso dell'utente betatester inconsapevole e c'è da chiedersi se questo valga la candela.
Nel senso, si potrebbero fare uscire determinate soluzioni un pochino + in ritardo dato che il mercato magari non ne ha bisogno in quel momento e invece le pressioni della stampa, le quote, la Borsa, il bisogno di dover dichiarare ogni gg al mondo una novità, porta inevitabilmente gli utenti finali a pagarne le spese...

KAISERWOOD
02-04-2004, 10:15
Originariamente inviato da DioBrando
k ora ho capito dove vuoi arrivare.
Però + ti avvicini a quel limite e di + tempo necessiti.
Solo che per com'è la concorrenza ora di spazio per poter testare a fondo le soluzioni n ce n'è, e quindi + andiamo avanti e + secondo me ci troveremo davanti a soluzioni instabili come quelle della Nvidia.

Per questo sn d'accordo con te sul discorso dell'utente betatester inconsapevole e c'è da chiedersi se questo valga la candela.
Nel senso, si potrebbero fare uscire determinate soluzioni un pochino + in ritardo dato che il mercato magari non ne ha bisogno in quel momento e invece le pressioni della stampa, le quote, la Borsa, il bisogno di dover dichiarare ogni gg al mondo una novità, porta inevitabilmente gli utenti finali a pagarne le spese...
finalmente ci siamo capiti ;)
X il Dothan credo che Intel (anche se bisogna riconoscere che è un po' masochista e potrebbe persevare in errori stupidi) si prenda + tempo, per il semplice fatto che una soluzione alternativa al banias non esiste, perciò tutta 'sta fretta non c'è!
E credo che per i portatili si può permettere il lusso di prendersi tempo. L'unico problema è che athlon 64 mobile potrebbe dar fastidio ad un prescott mobile. Il Centrino così come è non è pargonabile anessuna cpu. Il ciryx e l'efficeon sono basso consumo e basse prestazioni x cose semplici e l'athlon mobile e il P4 mobile alte prestazioni ma alto cosumo. Isomma l'unico anello di congiunzione fra le 2categorie è il centrino ed un alternativa non esiste. MCmq per il centirno il prezzo è giustificato ma i Pentium 4-m hanno un prezzo spropositato.

dragunov
04-04-2004, 11:23
x frankie
non credo sarebbe stata una gran idea con la cache maggiorata credo ovvino al problema del bus limitato a 400mhz.
credo che per un core basato non sul netburst le vere migliorie non siano in raddoppio del fbs oppure il dualchannel

KAISERWOOD
04-04-2004, 15:24
Originariamente inviato da dragunov
x frankie
non credo sarebbe stata una gran idea con la cache maggiorata credo ovvino al problema del bus limitato a 400mhz.
credo che per un core basato non sul netburst le vere migliorie non siano in raddoppio del fbs oppure il dualchannel
a mio avviso il bus largo fa sempre bene. E' meglio un aumento di bus quadpump che una cache maggiore. Un bus 800 con dual channel porterebbe notevoli benefici al banias rispetto ad una cache + grande e alivello di conusme non peserebbe molto come la cache.

fabio69
04-04-2004, 16:17
Originariamente inviato da KAISERWOOD
a mio avviso il bus largo fa sempre bene. E' meglio un aumento di bus quadpump che una cache maggiore. Un bus 800 con dual channel porterebbe notevoli benefici al banias rispetto ad una cache + grande e alivello di conusme non peserebbe molto come la cache.

hai mai pensato di andare a Santa Clara e spiegare agli ingegneri Intel come si costruisce un processore?
leggendoti mi sembra proprio che abbiano bisogno del tuo aiuto
:rolleyes:

KAISERWOOD
04-04-2004, 18:55
Originariamente inviato da fabio69
hai mai pensato di andare a Santa Clara e spiegare agli ingegneri Intel come si costruisce un processore?
leggendoti mi sembra proprio che abbiano bisogno del tuo aiuto
:rolleyes:
:rolleyes: se non condividi esprimi le tue idee e non provocare le persone mi sembra un tentativo di flame.
non hai pensato che se i produttori di notebook sollevano dubbi hanno i loro motivi?

KAISERWOOD
04-04-2004, 20:20
Originariamente inviato da devis
Bisogna ragionare in proporzioni,in termini assoluti non dicono nulla ;)


0.25 um > 0.18 = -28 %

0.18 um > 0.13 = -27,7 %

0.13 um > 0.09 = -30,8 %

In effetti a proporzione è + tosto questo di passaggio ma qua ti fa pensare di + sul fatto che gli utenti sono dei beta tester. Nei primi 2 casi hanno avuto molto + tempo per collaudarli (soprattutto nel primo) prima di proporli al mercato. Amd sta costruendo adesso la fabbrica per i o,o9 e o,o65 e se intel sfonda i 4ghz amd sarà costretta a sfornare prima del tempo i suoi o,o9 con la conseguenza che noi facciamo da beta-tester. Ma quando amd avrà risolto intel se ne uscirà prima del tempo con i 0,065? Cmq x intel forse è la stessa storia del willamette è meglio aspettare la prossima cpu Tajas (sempre che non aumentino le pipe).

DioBrando
05-04-2004, 00:44
Originariamente inviato da KAISERWOOD
In effetti a proporzione è + tosto questo di passaggio ma qua ti fa pensare di + sul fatto che gli utenti sono dei beta tester. Nei primi 2 casi hanno avuto molto + tempo per collaudarli (soprattutto nel primo) prima di proporli al mercato. Amd sta costruendo adesso la fabbrica per i o,o9 e o,o65 e se intel sfonda i 4ghz amd sarà costretta a sfornare prima del tempo i suoi o,o9 con la conseguenza che noi facciamo da beta-tester. Ma quando amd avrà risolto intel se ne uscirà prima del tempo con i 0,065? Cmq x intel forse è la stessa storia del willamette è meglio aspettare la prossima cpu Tajas (sempre che non aumentino le pipe).

sì quello che volevo dire io...4 nanometri vicino ad un limite che sarà pure stato spostato da Big Blue ma resta cmq vicino è tanto...
cmq sul fatto dei beta tester credo siamo tutti d'accordo...magari sn le stesse case che potrebbero aspettare un attimo a sfornare certi prodotti ma purtroppo il mercato n attende.
A chi si trova in vantaggio fà comodo arrivare prima e spingere su quella novità così, anche se alla resa dei conti hanno 40mila difetti, scaldano e così via, è arrivata PRIMA della concorrenza e questo la fà mettere in cattiva luce agli occhi degli osservatori internazionali.

Ecco il perchè della fretta spesso ingiustificata e ovviamente a pagarne le conseguenze saremo sempre noi...
Il Tejas diciamo che esca tra due anni, ma siamo sicuri che tra due anni n ci basterà ancora il barton o Northwood di adesso oppure male che vada l'Athlon64?

lucio68
05-04-2004, 07:16
Intel ha adottato la tecnologia strained silicon, che probabilmente darà i suoi benefici tra un po' di tempo, quando sarà più matura, anche se il passaggio a 0,065 potrebbe dare ulteriori problemi.
AMD ha sposato la strada di IBM (di cui è partner) preferendo la tecnologia SOI (e credo anche low-k). Per questo il passaggio a 0,09 potrebbe essere meno problematico per AMD, ma staremo a vedere.
Per il limite si parla di 0,045? Quanti atomi sono?

KAISERWOOD
05-04-2004, 13:31
Il prescott poteva anche ritardare, il northwood a 3,6ghz 0,13 consumerebbe 100 watt e con un nuovo step si poteva spingere anche a di+, visto che in overclock ha mostrato di avere ampi margini. Non è la situazione del coppermine fermo 1ghz e di amd a 1,4, che ha costretto intel ad uscire con il willy. L'athlon 64 in volumi ancora non c'è ed è uscito fino 3400 e amd prima di andare oltre aspetterà una mossa di intel. Inoltre quanti utenti sanno del prescott? alcuni nei listini potranno veder scritto p4e con 1mega di cache l2 ma non p5.

DioBrando
05-04-2004, 23:25
Senza contare che ora come ora l'esigenza delle istruzioni a 64bit, senza applicativi, con 3 sistemi operativi sviluppati ad hoc, per il mercato consumer credo proprio n ci sia.

Alla fine sarà meglio per tutti se verranno ritardate le previsioni di lancio delle nuove unità, per consentire che lo sviluppo avvenga con tutti i crismi del caso.

cdimauro
06-04-2004, 05:47
Lavorando a un decoder JPEG 2000, mi sono reso conto che in almeno un paio di ambiti l'utilizzo di istruzioni a 64 bit avrebbe fatto veramente MOLTO comodo, sia dal punto di vista della compattezza del codice (algoritmi semplificati) che da quello prestazionale (codice più corto e molto più efficiente).
E' soltanto un esempio: è chiaro che non si potranno utilizzare in TUTTI gli ambiti, ma credo che la fantasia di un buon programmatore potrà riuscire a far fruttare questo cambio tecnologico, magari nelle applicazioni che più contano.

cdimauro
06-04-2004, 05:55
x lucio68: un atomo ha un raggio di circa 10^-10m, cioé 0,1nm. Considera che 0,045um sono pari a 45nm, quindi ci stiamo avvicinando abbastanza ai limiti fisici della materia.

KAISERWOOD
06-04-2004, 15:45
Originariamente inviato da cdimauro
Lavorando a un decoder JPEG 2000, mi sono reso conto che in almeno un paio di ambiti l'utilizzo di istruzioni a 64 bit avrebbe fatto veramente MOLTO comodo, sia dal punto di vista della compattezza del codice (algoritmi semplificati) che da quello prestazionale (codice più corto e molto più efficiente).
E' soltanto un esempio: è chiaro che non si potranno utilizzare in TUTTI gli ambiti, ma credo che la fantasia di un buon programmatore potrà riuscire a far fruttare questo cambio tecnologico, magari nelle applicazioni che più contano.
x rippare renderebbe molto + veloce il lavoro :D

DioBrando
06-04-2004, 18:51
Originariamente inviato da cdimauro
Lavorando a un decoder JPEG 2000, mi sono reso conto che in almeno un paio di ambiti l'utilizzo di istruzioni a 64 bit avrebbe fatto veramente MOLTO comodo, sia dal punto di vista della compattezza del codice (algoritmi semplificati) che da quello prestazionale (codice più corto e molto più efficiente).
E' soltanto un esempio: è chiaro che non si potranno utilizzare in TUTTI gli ambiti, ma credo che la fantasia di un buon programmatore potrà riuscire a far fruttare questo cambio tecnologico, magari nelle applicazioni che più contano.

ti pareva che mi dava ragione :D...è successo una volta per quest'anno siamo a posto :sofico:

cmq il discorso n fà una piega, c'è da vedere a quanti effettivamente interessi il discorso del ripping, del video-editing, del sito-smanetting :D

In realtà al di là dei vantaggi in termini di prestazioni assolute facevo un ragionamento + complesso sull'utilità di comprare ora un 64bit ma anche a breve termine quando in realtà sul mercato ci sn praticamente solo 3 sistemi operativi ( al di là del Mac che cmq fà storia a sè)...utilità che sussiste fino a un certo punto e considerata la produzione del socket 939 in quantità limitata i primi tempi, dell'iniziale ibrido Prescott secondo me ad un potenziale acquirente conviene aspettare...il tutto sempre IMHO ;)

cdimauro
06-04-2004, 22:06
Originariamente inviato da KAISERWOOD
x rippare renderebbe molto + veloce il lavoro :D
Se ti riferisci ai 64 bit genericamente, beh, questi processori permettono di crittare e decrittare dati molto, ma molto più velocemente rispetto a quelli a 32 bit. ;)
Se invece ti riferisci al JPEG2000, è meglio che lasci perdere: è molto, ma molto più lento del JPEG/MPEG/MPEG4-DIVX, e richiede anche un sacco di memoria. :O

cdimauro
06-04-2004, 22:19
Originariamente inviato da DioBrando
ti pareva che mi dava ragione :D...è successo una volta per quest'anno siamo a posto :sofico:
Eh, lo so: ti sto viziando! :D
cmq il discorso n fà una piega, c'è da vedere a quanti effettivamente interessi il discorso del ripping, del video-editing, del sito-smanetting :D
Già: chissà a quanti, se ci aggiungiamo anche il gaming, i database e la crittazione. :sofico:
In realtà al di là dei vantaggi in termini di prestazioni assolute facevo un ragionamento + complesso sull'utilità di comprare ora un 64bit ma anche a breve termine quando in realtà sul mercato ci sn praticamente solo 3 sistemi operativi ( al di là del Mac che cmq fà storia a sè)...utilità che sussiste fino a un certo punto e considerata la produzione del socket 939 in quantità limitata i primi tempi, dell'iniziale ibrido Prescott secondo me ad un potenziale acquirente conviene aspettare...il tutto sempre IMHO ;)
Beh, aspettare per aspettare comunque mi metto in casa un processore a 64 bit, che sicuramente potrà darmi altre soddisfazioni in futuro, oltre a quelle già attuali. :)
Poco importa se c'è un cambio di socket all'orizzonte: il 756 sarà ancora supportato in futuro, e il 940 pure per gli Opteron.
A me manca la grana, e il matterello di mia moglie è troppo non voglio proprio assaggiarlo :D, per cui aspetterò per il prossimo anno. Altrimenti avrei fatto l'ennesima follia... :oink: