View Full Version : Dal 2015 Samsung e TSMC per i SoC Apple a 16 e 14 nanometri
Redazione di Hardware Upg
19-12-2013, 13:31
Link alla notizia: http://www.businessmagazine.it/news/dal-2015-samsung-e-tsmc-per-i-soc-apple-a-16-e-14-nanometri_50243.html
Le indiscrezioni provenienti dall'oriente affermano che nel giro di due anni la Mela avrà suddiviso in maniera consistente la produzione dei propri SoC tra l'azienda taiwanese e quella coreana, passando inoltre al processo produttivo di tipo FinFET
Click sul link per visualizzare la notizia.
demikiller
19-12-2013, 15:47
mi fa pena. Apple non è in grado di produrre il proprio processore per fare questo 'duello'
CrapaDiLegno
19-12-2013, 15:59
Apple, Apple, Apple...
Gli altri invece cosa faranno? Continueranno a progettare SoC a 28nm?
Non credo. Tutti faranno SoC con il miglior processo produttivo disponibile, quindi oltre a Apple tutti staranno già progettando i propri SoC per i 20 e i 16nm.
Il fatto è che Apple non è in concorenza con nessuno, quindi può permettersi di sfornare un SoC come le pare a piace, pure peggiore degli altri.
mi fa pena. Apple non è in grado di produrre il proprio processore per fare questo 'duello'
Non ho capito. Apple è una azienda fabless come molte altre. Cosa vuol dire "non è in grado di produrre"? Se intendi fabbricarselo in casa neanche Qualcomm lo è. E quindi?
La parte interessante è quella relativa ai 16nm alla fine del 2014. Vuol dire arrivare a fare concorrenza diretta a Intel con i suoi 14nm. Se la qualità del processo sarà più che buona la vedo dura (anzi durissima) per Intel riuscire a entrare nel mondo mobile se si ostina a usare l'architettura x86.
E questo apre la porte alla realizzazione di processori decisamente più complessi e performanti anche in campo non mobile. Il 2015 potrebbe essere un anno interessante.
cdimauro
19-12-2013, 20:27
Infatti sono sempre gli altri a inseguire. Inoltre alcuni problemi coi nuovi processi produttivi possono capitare (e sono capitati) a tutti; specialmente adesso che ci avviciniamo sempre più ai limiti del silicio.
Comunque non mi è chiaro quali problemi avrebbe Intel con la sua architettura x86, visto che di recente ha abbracciato anche il settore embedded (con Quark), e le sue soluzioni coprono fino al mercato HPC (con Knights Corner, adesso, e la prossima incarnazione che arriverà a breve).
La chiave di lettura è già stata espressa: i processori (dispositivi, in generale) diventano sempre più complessi -> molti più transistor da impaccare -> la x86 tax diventa sempre meno rilevante.
D'altra parte ciò è diretta conseguenza dell'evoluzione del mercato: gli utenti si aspettano sempre di più (o, viceversa: le aziende invogliano gli utenti a volere sempre di più), per cui ciò porta necessariamente a prodotti che offrono prestazioni superiori, e quindi a chip più complessi. Da cui la conseguenza logica di cui sopra...
@CrapaDiLegno
Vero che Apple si è differenziata a sufficienza da poternsene quasi fregare della potenza dei SOC montati sugli Smartphone, però con l'A7 ha dimostrato di saper arrivare prima degli altri con un ottimo SOC (che va come e meglio di quelli della concorrenza con metà dei core e della frequenza, e tiene bene nei consumi).
@cdimauro
É l'architettura x86 in se che è poco adatta a questo ambito, le scelte di progettazione e il ciarpame che si porta dietro per motivi di compatibilità la rendono intrinsecamente meno efficiente dei concorrenti ARM.
Finora se l'è cavata grazie al vantaggio sul processo produttivo e la bontà delle sue tecnologie di risparmio energetico, ma ora il pprimo vantaggio si sta notevolmente assottigliando e potrebbe arrivare a perderlo del tutto.
cdimauro
20-12-2013, 19:43
Conosco discretamente la situazione di x86 (e di altre architetture). Riguardo a questa, ho scritto un pezzo circa 4 anni e mezzo fa (http://www.appuntidigitali.it/4375/arm-vs-intel-i-cut-the-power/), che ritengo tutt'ora abbastanza valido. Ciò soprattutto se consideri la parte centrale, che riporta sostanzialmente quello che ho scritto qui sopra, riguardo alla complessità dei chip, e al peso che, di conseguenza, assume quella che poi viene chiama la "x86 tax" (sostanzialmente il decoder).
Però se vuoi una trattazione più completa (ma decisamente più tecnica), ho scritto una serie di 9 articoli sull'aspetto "legacy" di x86. Qui (http://www.appuntidigitali.it/17712/il-legacy-di-x86-x64-parte-9-conclusioni/) trovi il link all'ultimo, in cui trovi poi i link agli altri 8. In questo modo puoi ponderare meglio quest'aspetto di quest'architettura.
La chiave di lettura è già stata espressa: i processori (dispositivi, in generale) diventano sempre più complessi -> molti più transistor da impaccare -> la x86 tax diventa sempre meno rilevante.
Questo se non consideri l'altra tassa, ovvero la Intel tax. :read:
Intel vorrebbe idealmente arrivare nel settore dei dispositivi mobili a fare come fa ora nel settore delle cpu per desktop/notebook/server, ovvero essere il monopolista di fatto nella fornitura di cpu ed essere lei a dettare i termini ai clienti produttori di hardware.
Con ARM invece non c'è tale rischio, nel momento in cui un fornitore di cpu ARM inizia a fare giochini sul prezzo e favoritismi sgradevoli, il cliente può rivolgersi ad altri per i prossimi prodotti o anche "fare da se".
cdimauro
21-12-2013, 06:47
Quindi non si capisce per quale motivo Intel stia acquisendo quote di mercato proprio nel settore mobile: saranno folli i clienti che si affidano a lei, se la situazione è quella che descrivi.
O forse sta sfornando dei buoni prodotti, per cui i clienti riescono ad avere finalmente una valida alternativa, in un mercato dominato da ARM e dalle sue architetture.
Infine nel settore desktop, ecc. Intel non è monopolista, ma occupa una posizione dominante. E non è certo colpa sua se da tempo AMD ha gettato la spugna e non offre soluzioni competitive a livello prestazionale e/o di consumi.
Attualmente il vantaggio che vedo riguardo ad ARM è la possibilità di licenziare l'architettura, per poi poterci fare quello che vuoi. Infatti vediamo come Apple e Qualcomm offrano soluzioni ARM, ma basate su una loro personalizzazione dell'architettura.
Questo ritengo essere il vero, concreto vantaggio di ARM sul Intel. Non so se Intel farà mai la stessa cosa. Considerata la sua storia, la vedo difficile. Ma è soltanto il mio personalissimo parere.
C'è, però, da dire che molti produttori, pur acquisendo una licenza ARM, non propongono delle soluzioni personalizzate; eppure vendono lo stesso e sono competitivi. Per cui non è una condizione necessaria per poter sfondare...
Quindi non si capisce per quale motivo Intel stia acquisendo quote di mercato proprio nel settore mobile: saranno folli i clienti che si affidano a lei, se la situazione è quella che descrivi.
Sbaglio o il grosso delle quote acquisite riguarda tablet su cui gira Windows 8.x per x86 ?
O forse sta sfornando dei buoni prodotti, per cui i clienti riescono ad avere finalmente una valida alternativa, in un mercato dominato da ARM e dalle sue architetture.
O forse è la retrocompatibilità con software x86 già sviluppato ?
Infine nel settore desktop, ecc. Intel non è monopolista, ma occupa una posizione dominante. E non è certo colpa sua se da tempo AMD ha gettato la spugna e non offre soluzioni competitive a livello prestazionale e/o di consumi.
Infatti ho scritto "monopolista di fatto", considera che anche quando AMD aveva le cpu più competitive non ha potuto sfruttare la cosa perchè Intel aveva già accumulato un tale vantaggio in capacità produttiva e cassa che AMD da un lato non era in grado di coprire da sola la richiesta del mercato e dall'altro non aveva le risorse finanziare per costruire (in 3..4 anni) gli impianti per competere anche sul lato quantitativo.
In contemporanea Intel stava portando avanti lo sviluppo di due linee di processori completamente differenti (i Pentium 4 ed i Pentium M da cui poi derivarono i successivi modelli) e sfruttando il suo vantaggio produttivo e finanziario per non perdere troppe quote di mercato.
Attualmente il vantaggio che vedo riguardo ad ARM è la possibilità di licenziare l'architettura, per poi poterci fare quello che vuoi. Infatti vediamo come Apple e Qualcomm offrano soluzioni ARM, ma basate su una loro personalizzazione dell'architettura.
Questo ritengo essere il vero, concreto vantaggio di ARM sul Intel. Non so se Intel farà mai la stessa cosa. Considerata la sua storia, la vedo difficile. Ma è soltanto il mio personalissimo parere.
Un altro vantaggio è poter scegliere tra vari fornitori in competizione tra loro che propongono soluzioni che coprono anche nicchie che Intel schiferebbe perchè "troppo piccole o con poco margine".
Maggior numero di alternative e di price point.
C'è, però, da dire che molti produttori, pur acquisendo una licenza ARM, non propongono delle soluzioni personalizzate; eppure vendono lo stesso e sono competitivi. Per cui non è una condizione necessaria per poter sfondare...
Non propongono soluzioni personalizzate perchè hanno già molti fornitori tra cui scegliere in base alle esigenze che hanno.
Ma se necessario possono fare da se.
Invece dall'altro lato hai un unico fornitore con un offerta molto più limitata che riesce molto più facilmente ad imporre il suo prezzo e la possibilità di fare da se proprio non esiste.
cdimauro
21-12-2013, 10:41
Sbaglio o il grosso delle quote acquisite riguarda tablet su cui gira Windows 8.x per x86 ?
O forse è la retrocompatibilità con software x86 già sviluppato ?
Rispondo a entrambe le domande con questo: Samsung Galaxy Tab 3 10.1 (http://en.wikipedia.org/wiki/Samsung_Galaxy_Tab_3_10.1)
Infatti ho scritto "monopolista di fatto",
Vabbé, devi forzare il significato. Il termine corretto è quello che ho riportato prima.
considera che anche quando AMD aveva le cpu più competitive non ha potuto sfruttare la cosa perchè Intel aveva già accumulato un tale vantaggio in capacità produttiva e cassa che AMD da un lato non era in grado di coprire da sola la richiesta del mercato e dall'altro non aveva le risorse finanziare per costruire (in 3..4 anni) gli impianti per competere anche sul lato quantitativo.
In contemporanea Intel stava portando avanti lo sviluppo di due linee di processori completamente differenti (i Pentium 4 ed i Pentium M da cui poi derivarono i successivi modelli) e sfruttando il suo vantaggio produttivo e finanziario per non perdere troppe quote di mercato.
Mi pare che proprio il periodo in cui Intel navigava male fu a causa del Pentium 4, mentre AMD col suo Athlon mieteva consensi e vendite. Non mi risultano "shortage" di produzione da parte sua.
Pentium-M arriverà soltanto dopo un bel po'.
Nel frattempo AMD sfornò x86-64 e i suoi Opteron prima e Athlon64 poi, mietendo ancora una volta consensi, sia in ambito desktop che, soprattutto, in quello server. Anche qui non mi risultano shortage.
Per cui AMD le sue occasioni le ha avute, ma non è riuscita a capitalizzare. E anziché sfruttare il vantaggio tecnologico, ha fallito nel presentare i suoi successivi prodotti.
Intel s'è leccata le ferite, e grazie a Pentium-M ha avuto la possibilità di recuperare, e infine sopravanzare AMD. E ricordo che Pentium-M nacque per il settore mobile.
Per cui mi pare che la storia non sia esattamente quella che hai riportato...
Un altro vantaggio è poter scegliere tra vari fornitori in competizione tra loro che propongono soluzioni che coprono anche nicchie che Intel schiferebbe perchè "troppo piccole o con poco margine".
Maggior numero di alternative e di price point.
Non mi pare che Intel schifi qualche settore di mercato. Anzi, con l'introduzione di Atom prima e di Quark poi, si stia spingendo ben oltre quelli che storicamente sono stati i settori in cui ha sempre lavorato. Si chiama diversificazione degli investimenti.
Ciò precisato, proprio a motivo di quello che hai scritto i clienti possono scegliere Intel anziché uno dei tanti fornitori ARM: perché c'è competizione e/o per proporre delle alternative.
Non propongono soluzioni personalizzate perchè hanno già molti fornitori tra cui scegliere in base alle esigenze che hanno.
Ma se necessario possono fare da se.
In teoria potresti avere ragione, ma il fatto che un colosso come Samsung, che possiede licenze ARM e soluzioni proprie, proponga soluzioni basate su processori Intel, credo faccia riflettere parecchio.
Evidentemente le soluzioni di Intel cominciano a muovere un mercato forse un po' troppo appiattito da/su ARM.
Invece dall'altro lato hai un unico fornitore con un offerta molto più limitata che riesce molto più facilmente ad imporre il suo prezzo e la possibilità di fare da se proprio non esiste.
E' naturale, se non c'è concorrenza. Vedi settore desktop.
Ma tolto questo, negli altri mercati c'è parecchia concorrenza, e Intel è un fornitore come gli altri. Qui o le tue soluzioni presentano qualche valore aggiunto, oppure puoi fare la fame.
Quindi non si capisce per quale motivo Intel stia acquisendo quote di mercato proprio nel settore mobile: saranno folli i clienti che si affidano a lei, se la situazione è quella che descrivi.
Intel ha ancora molto potere su quei produttori che vendono anche PC.
Non mi pare che ci siano prodotti mobile (che non debbano far girare Windows 8, quindi necessariamente x86) con processori Intel di produttori che non siano legati ad Intel per i computer tradizionali.
Infine nel settore desktop, ecc. Intel non è monopolista, ma occupa una posizione dominante. E non è certo colpa sua se da tempo AMD ha gettato la spugna e non offre soluzioni competitive a livello prestazionale e/o di consumi.
É decisamente colpa sua in buona parte. Intel è stata condannata, multata e per di più ha accettato un accordo con AMD per 1,5 miliardi di dollari (briciole rispetto al vantaggio acquistito, ma AMD aveva bisogno di quei liquidi) a causa dei comportamenti scorretti tenuti in passato, e grazie ai quali ha accumulato il vantaggio attuale.
Cerchiamo di non dimenticare la storia.
A mio parere sarebbe ora che qualche ente di tutela della concorrenza imponesse ad Intel di "liberalizzare" la licenza x86, così da permettere a chiunque di investire in questo campo, e non solo a quelli che sono comodi per Intel.
Sono comunque curioso di vedere come si comporteranno le soluzioni AMD quando le differenza sul processo produttivo si saranno ridotte o annullate.
Attualmente il vantaggio che vedo riguardo ad ARM è la possibilità di licenziare l'architettura [...]
Questo ritengo essere il vero, concreto vantaggio di ARM sul Intel.
E sicuramente è uno dei grandi vantaggi, ma non solo per ARM, ma anche per chi acquista.
Acquistare ARM è decisamente più desiderabile per chi produce dispositivi, perchè troverà sempre concorrenza e possibilità di avere un prodotto come serve a lei, e non dovrà sottostare alle scelte di un singolo produttore.
PaulGuru
21-12-2013, 12:36
Cosa vuol dire 14 e 16nm ?
Se ci saranno i 14nm perchè produrre ancora prodotti usando i 16nm ? Indipendentemente dal costo un PP superiore non sarà comunque appetibile se già sai che ce nè un altro migliore. Bah :rolleyes:
cdimauro
21-12-2013, 12:50
Intel ha ancora molto potere su quei produttori che vendono anche PC.
Non mi pare che ci siano prodotti mobile (che non debbano far girare Windows 8, quindi necessariamente x86) con processori Intel di produttori che non siano legati ad Intel per i computer tradizionali.
Ho postato un link nel precedente messaggio.
É decisamente colpa sua in buona parte. Intel è stata condannata, multata e per di più ha accettato un accordo con AMD per 1,5 miliardi di dollari (briciole rispetto al vantaggio acquistito, ma AMD aveva bisogno di quei liquidi) a causa dei comportamenti scorretti tenuti in passato, e grazie ai quali ha accumulato il vantaggio attuale.
Cerchiamo di non dimenticare la storia.
Cerchiamo anche di non prendere un caso, peraltro passato, e prenderlo come unica e sola causa della situazione di AMD.
AMD s'è affossata con le sue mani principalmente per scelte sbagliate, come quella di comprare Ati pagando un valore spropositato.
Inoltre, come dicevo, non è riuscita a innovare: delle sue roadmap con nuovi processori che avrebbero dovuto portare novità, seguendo la scia di K5, K6, ma soprattutto di K7 e K8, cos'è arrivato? Nulla di rilevante.
Se consideriamo che AMD è riuscita a sfondare proprio nel periodo in cui Intel attuava quelle pratiche per la quale è stata condannata, direi che il quadro sia abbastanza chiaro nonché ben diverso da quello che hai riportato.
Questo senza nulla togliere alla vicenda che hai citato, che certamente ha avuto un peso, ma a mio avviso non preponderante per quanto ho riportato sopra.
A mio parere sarebbe ora che qualche ente di tutela della concorrenza imponesse ad Intel di "liberalizzare" la licenza x86, così da permettere a chiunque di investire in questo campo, e non solo a quelli che sono comodi per Intel.
E' già stata obbligata in passato. AMD non è certo l'unica ad avere una licenza per produrre processori basati sull'architettura x86.
Se le altre realtà che hanno avuto la fortuna di avere una licenza x86 sono praticamente scomparse o non competono più in questo settore, è perché il mercato x86 è diventato troppo competitivo, e non sono riuscite a reggere il passo. L'unica è AMD, che peraltro con la chiusura del contenzioso con Intel ha ottenuto una licenza per x86 senza alcun vincolo (prima per poterne godere doveva anche produrre in proprio i processori).
Per cui se ci dovesse essere qualcun altro voglioso di entrare nel mercato x86, potrebbe benissimo rivolgersi agli altri licenziatari.
Ma certamente non vedo per quale motivo Intel debba regalare i suoi prodotti. D'altra parte ognuno può progettare una propria architettura, no? Oppure rivolgersi a quelle esistenti, ARM inclusa.
Sono comunque curioso di vedere come si comporteranno le soluzioni AMD quando le differenza sul processo produttivo si saranno ridotte o annullate.
Ci vorranno ancora un po' di anni prima che accada. Ma nel frattempo AMD deve pensare a innovare.
E sicuramente è uno dei grandi vantaggi, ma non solo per ARM, ma anche per chi acquista.
Acquistare ARM è decisamente più desiderabile per chi produce dispositivi, perchè troverà sempre concorrenza e possibilità di avere un prodotto come serve a lei, e non dovrà sottostare alle scelte di un singolo produttore.
Ma deve anche accontentarsi di quello che ARM offre come architettura...
PaulGuru
21-12-2013, 12:53
Ma deve anche accontentarsi di quello che ARM offre come architettura...il 90% della clientela a cui ARM è destinato hanno la particolarità che li accomuna della totale indifferenza riguardo le prestazioni, tutto consumo e chissenefrega delle prestazioni, infatti quasi nessuno degli acquirenti ne capisce un H di queste cose e di fatto non sapevano e non sanno tutt'ora usare un desktop Windows ed ecco che di fronte agli OS mobile più elementari è scoppiata pure la mania per Android e iOS.
cdimauro
21-12-2013, 12:56
Non credo che sia così; i loro conti se li saranno fatti.
Ma certamente legarsi mani e piedi ad ARM vuol dire accontentarsi di quello che quest'architettura è e sarà in grado di offrire.
PaulGuru
21-12-2013, 12:58
Non credo che sia così; i loro conti se li saranno fatti.
Ma certamente legarsi mani e piedi ad ARM vuol dire accontentarsi di quello che quest'architettura è e sarà in grado di offrire.
Infatti si accontentano, anzi per loro è ben più che sufficiente, sinceramente se non fosse per il marketing non ci sarebbe nemmeno stato bisogno di evolverlo.
Se fosse per l'utente medio basterebbe un SoC dual A7 fino all'infinito.
cdimauro
21-12-2013, 13:09
Ma l'utente medio cerca anche le prestazioni, ed è il motivo per cui i dispositivi mobile, siano essi tablet o smartphone, stanno divenendo sempre più complessi. Oggi hanno una potenza computazionale simile a quelle delle console di precedente generazione, o anche più.
Il problema è aggiungere core non basta a risolvere i problemi prestazionali. 9 donne non fanno un bambino in un mese. Gli algoritmi non sono tutti parallelizzabili; tutt'altro. Ecco che anche le prestazioni single core & thread diventano e sono importanti; settore dove gli ARM di certo non brillano, e non credo che riusciranno a colmare il divario con gli x86/x64.
Altra cosa molto importante, l'utenza s'è anche abituata a caricare il cellulare o il tablet ogni 1-2 giorni. Per cui il consumo è un fattore di cui tenere conto, ma non certo come in passato. E anche questo è dovuto alla fame di prestazioni.
In sintesi, voglio più potenza -> consumo di più -> devo caricare il dispositivo mobile ogni giorno o due. Una volta che l'utenza s'è abituata e ha accettato questa realtà, è più facile per i produttori di CPU e/o SoC spostare la competizione sul versante prestazionale.
Ho postato un link nel precedente messaggio.
Samsung produce anche PC. ;)
Cerchiamo anche di non prendere un caso, peraltro passato, e prenderlo come unica e sola causa della situazione di AMD.
Non è "un caso", è una politica attuata sistematicamente e per tempo prolungato.
Purtroppo intervenendo dopo anni come è successo, non si può fare altro che raccogliere i cocci.
AMD ha sicuramente fatto scelte sbagliate, ma nella sua posizione queste scelte sbagliate le si paga amaramente.
Anche Intel ha fatto scelte sbagliate, e parecchie, ma era in una posizione da cui poteva assorbire il colpo e maggiori risorse per porvi rimedio.
Inoltre, come dicevo, non è riuscita a innovare: delle sue roadmap con nuovi processori che avrebbero dovuto portare novità, seguendo la scia di K5, K6, ma soprattutto di K7 e K8, cos'è arrivato? Nulla di rilevante.
Scherzi vero? AMD è stata innovatrice come e più di Intel.
Giusto per citare i primi che mi vengono in mente, per prima AMD ha integrato il memory controller nella CPU (se non scomodiamo esperimenti passati e altre architetture), per prima ha usato un bus di interconnessione a banda ampia (hypertransport, ripreso poi da Intel con QPI), la prima a portare sul mercato un quad core nativo, la prima a spingere ed investire sull'integrazione tra CPU e GPU, ecc... Con Bulldozer ha tirato fuori un'architettura concettualmente differente con l'introduzione dei moduli CMT, sebbene i risultati pratici siano stati decisamente deludenti (ma con un processo produttivo migliore e più soldi da investire nel progetto chissà...).
Molte delle novità che Intel ha integrato in Nehalem AMD le aveva già sui proprio phenom da anni.
E' già stata obbligata in passato. AMD non è certo l'unica ad avere una licenza per produrre processori basati sull'architettura x86.
Le licenze x86 sono però ancora fortemente vincolate, AMD ha potuto avere condizioni vantaggiose per la propria proprio in virtù dell'accordo citato.
Se le altre realtà che hanno avuto la fortuna di avere una licenza x86 sono praticamente scomparse o non competono più in questo settore, è perché il mercato x86 è diventato troppo competitivo, e non sono riuscite a reggere il passo.
Sono tutte piccole realtà, che in un mercato dominato da un singolo produttore che per di più applica politiche di mercato scorrette, difficilmente hanno una reale possibilità di fare concorrenza ad Intel.
Pensa se realtà come Samsung potessero produrre per conto proprio CPU x86... per Intel non sarebbe così semplice.
Ma forse ad Intel piace vincere facile.
Ma certamente non vedo per quale motivo Intel debba regalare i suoi prodotti.
Perchè nel mercato PC è in posizione dominante, e fortunatamente esistono enti a tutela della concorrenza (anche se sfortunatamente spesso non fanno ciò che dovrebbero).
L'alternativa potrebbe essere uno scorporo di Intel, come successo ad AT&T.
Ma deve anche accontentarsi di quello che ARM offre come architettura...
ARM offre un'architettura migliore per il mondo Mobile, è Intel che sta facendo sforzi enormi per entrarci, e vi è riuscita in minima parte grazie al vantaggio sui processi produttivi.
In questo ambito le architettura ARM mi sembrano tutto tranne un accontentarsi.
PaulGuru
21-12-2013, 14:20
Ma l'utente medio cerca anche le prestazioni, ed è il motivo per cui i dispositivi mobile, siano essi tablet o smartphone, stanno divenendo sempre più complessi. Oggi hanno una potenza computazionale simile a quelle delle console di precedente generazione, o anche più.
L'utente medio aka utonto non ha bisogno di prestazioni, se cerca qualcosa in più è solo per correre in giro a dirlo agli amici del bar.
Sono più complessi per motivi di marketing, non puoi rilanciare un prodotto vecchio, devi portare delle novità, ma più che a scopo pratico queste novità servono solo per buttare giù paroloni nella scheda delle specifiche così da eccitare l'utonto che non sà nemmeno cosa vogliano dire però quando vede 8 core anzichè 4 si immagina chissà cosa, si gasa e poi lo compra.
Io conosco gente che paragona processori da PC a quelli dello smartphone usando come metro di paragone diretto la frequenza e il num dei cores.
cdimauro
21-12-2013, 15:51
Samsung produce anche PC. ;)
Non rappresentano il suo core business, e non ha nulla da temere da parte di Intel. Quel link l'ho riportato apposta perché ritengo significativo il cambiamento di Samsung: ha una grande fonderia, licenze ARM, produce processori per conto suo e anche per altri, ed è in posizione dominante nel mercato mobile (smartphone e tablet). Non ha nulla da chiedere a né tanto meno da temere da Intel. Eppure sta cominciando a sfornare prodotti mobile basati su Intel. Non credo sia un caso...
Non è "un caso", è una politica attuata sistematicamente e per tempo prolungato.
Senz'altro, e non ho nulla da dire su questo. I fatti parlano chiaro. E le sentenze pure.
Purtroppo intervenendo dopo anni come è successo, non si può fare altro che raccogliere i cocci.
Su questo invece non sono d'accordo, perché non mina la capacità di innovazione da parte di AMD.
AMD ha sicuramente fatto scelte sbagliate, ma nella sua posizione queste scelte sbagliate le si paga amaramente.
Anche Intel ha fatto scelte sbagliate, e parecchie, ma era in una posizione da cui poteva assorbire il colpo e maggiori risorse per porvi rimedio.
Indubbiamente. Non a caso è un colosso.
Ma forse è stato uno sbaglio ancora più grosso per Intel quello di dare in licenza le sue architetture proprio ad AMD, che alla fine è quello che ha fatto la sua fortuna.
Scherzi vero? AMD è stata innovatrice come e più di Intel.
A me sembra che a scherzare qui sia tu. Questa mi sembra decisamente grossa...
Giusto per citare i primi che mi vengono in mente, per prima AMD ha integrato il memory controller nella CPU (se non scomodiamo esperimenti passati e altre architetture),
Infatti non è certo una novità per Intel quella di integrare il memory controller nella CPU. E idem per la creazione di SoC. Nel mercato desktop l'ha fatto soltanto quando le è convenuto.
per prima ha usato un bus di interconnessione a banda ampia (hypertransport, ripreso poi da Intel con QPI),
Su questo non ho informazioni riguardo a eventuali esperimenti precedenti di Intel. M'informerò quando rientrerò dalle ferie.
la prima a portare sul mercato un quad core nativo,
Non è significativo. Non quanto l'introduzione di un dual-core, ad esempio. Altrimenti potremmo metterci a contare chi ha introdotto per primo un esacore, un octacore, ecc. Ad esempio Intel ha già introdotto piattaforme da 60 core...
la prima a spingere ed investire sull'integrazione tra CPU e GPU, ecc...
Lo credo bene: ha acquisito Ati per questo. Ed è certamente un passo importante.
In ogni caso sbagli: Intel 80860 (http://en.wikipedia.org/wiki/Intel_i860).
Con Bulldozer ha tirato fuori un'architettura concettualmente differente con l'introduzione dei moduli CMT, sebbene i risultati pratici siano stati decisamente deludenti (ma con un processo produttivo migliore e più soldi da investire nel progetto chissà...).
Lo avrebbe capito chiunque che sarebbero stati deludenti. Davvero è difficile credere che abbiano commesso un errore così madornale. E ovviamente questa non è certo configurabile come innovazione (cosa c'è di innovativo, poi?), ma come suicidio.
Molte delle novità che Intel ha integrato in Nehalem AMD le aveva già sui proprio phenom da anni.
Tipo?
Le licenze x86 sono però ancora fortemente vincolate,
C'è un solo vincolo. Grande, sicuramente, visto quanto costa produrre una fabbrica. Ma non insormontabile.
Comunque le licenze ci sono. Anzi, alcune sono già scadute, visto che non hanno durata perpetua, per cui si possono realizzare tranquillamente processori x86 senza necessariamente avere una licenza da Intel.
AMD ha potuto avere condizioni vantaggiose per la propria proprio in virtù dell'accordo citato.
Infatti. Le è andata di lusso, perché s'è potuta liberare delle fabbriche, cedendole a Globalfoundries, incassando un bel po' di soldi.
Sono tutte piccole realtà, che in un mercato dominato da un singolo produttore che per di più applica politiche di mercato scorrette, difficilmente hanno una reale possibilità di fare concorrenza ad Intel.
Via sta scomparendo perché si è auto-ghettizzata.
Per il resto oggi per concorrere in ambito x86 non hai bisogno soltanto di una licenza per quest'architettura, ma di un portfolio di tecnologie non indifferente per poter avere qualcosa di realmente competitivo.
Come dicevo sopra, oggi puoi anche realizzare processori x86 senza alcuna licenza. Ma se Intel e AMD dominano è perché hanno sviluppato un know-how eccezionale, che consente di ottenere elevate prestazioni e/o consumi.
Pensa se realtà come Samsung potessero produrre per conto proprio CPU x86... per Intel non sarebbe così semplice.
Come detto sopra, lo potrebbero benissimo fare, ma non basterebbe.
Ma forse ad Intel piace vincere facile.
Con Samsung che domina nel mercato mobile? Mi spieghi che motivo avrebbe di cedere a Intel proprio nel suo settore?
Perchè nel mercato PC è in posizione dominante, e fortunatamente esistono enti a tutela della concorrenza (anche se sfortunatamente spesso non fanno ciò che dovrebbero).
L'alternativa potrebbe essere uno scorporo di Intel, come successo ad AT&T.
Non ci sarebbero i presupposti, perché Intel è già stata costretta a cedere le licenze della sua architettura in passato. Se poi quelle aziende non ne hanno fatto uso, o si sono ritirate, non è certo affar suo.
Un nuovo intervento da parte dell'anti-trust, dunque, non avrebbe alcun senso, oltre a essere totalmente infondato proprio per questo motivo.
ARM offre un'architettura migliore per il mondo Mobile, è Intel che sta facendo sforzi enormi per entrarci, e vi è riuscita in minima parte grazie al vantaggio sui processi produttivi.
In questo ambito le architettura ARM mi sembrano tutto tranne un accontentarsi.
"Migliore" in che senso? Certamente non dal punto di vista prestazionale. I numeri sono lì a testimoniarlo.
Ad esempio su Anandtech trovi un pezzo in cui vengono riportati dei benchmark fatti su Cortex-A9 e A15. Parliamo di un'architettura in-order a 2 vie e di una out-of-order a 3 vie. Se guardi i numeri, tenendo conto anche delle frequenze (quelle di A15 sono superiori), ti rendo conto di che non c'è stato un grande balzo.
Per contro, se prendi l'ultima versione di Atom in-order a 2 vie e l'ultima out-of-order sempre a 2 vie, c'è stato un enorme passo in avanti.
Ci saranno sicuramente miglioramenti in futuro per ARM, ma rimane un'architettura RISC che non potrà fare miracoli.
x86 (e specialmente x64) ha molta più facilità a ottenere un elevato IPC, grazie alla sua architettura CISC, che condensa molto più "lavoro utile" nelle singole istruzioni.
Quello che in passato era uno svantaggio che avrebbe dovuto tarpare le ali ed eliminare i CISC, alla fine s'è rivelato il punto di forza che ha consentito all'architettura più "brutta" di fare le scarpe alle altre, eliminando un sacco di rivali.
La storia dimostra che chi ha perso la sua identità pur di competere non è stata certo la macrofamiglia dei CISC, ma quella dei RISC...
cdimauro
21-12-2013, 15:56
L'utente medio aka utonto non ha bisogno di prestazioni, se cerca qualcosa in più è solo per correre in giro a dirlo agli amici del bar.
Sono più complessi per motivi di marketing, non puoi rilanciare un prodotto vecchio, devi portare delle novità, ma più che a scopo pratico queste novità servono solo per buttare giù paroloni nella scheda delle specifiche così da eccitare l'utonto che non sà nemmeno cosa vogliano dire però quando vede 8 core anzichè 4 si immagina chissà cosa, si gasa e poi lo compra.
Io conosco gente che paragona processori da PC a quelli dello smartphone usando come metro di paragone diretto la frequenza e il num dei cores.
Non possono tutti essere appassionati di tecnologia e conoscitori.
Quello che dico è che la gente vuole avere prodotti sempre più complessi. In particolari i giochi rivestono un ruolo fondamentale. E lì non c'è tanto da girarci attorno: se un gioco gira meglio su una piattaforma piuttosto che su un'altra lo dovrebbe poter capire anche uno che di tecnologia non ne capisce niente.
Da lì nasce la competizione delle aziende.
Poi che queste preferiscano puntare sui miliardi di core per questioni di puro marketing, visto che i grandi numeri attecchiscono meglio sulla massa ignorante (nel senso non dispregiativo del termine), sono d'accordo.
PaulGuru
21-12-2013, 17:09
Non possono tutti essere appassionati di tecnologia e conoscitori.Io mi informo accuratamente su ogni cosa che compro che sia roba informatica o meno, se qualcuno non ha voglia e gli piace navigare nell'ignoranza sono affari suoi ma non dovrebbe avere diritto alcuno di lamentarsi o esprimere opinioni a riguardo.
Quello che dico è che la gente vuole avere prodotti sempre più complessi. In particolari i giochi rivestono un ruolo fondamentale. E lì non c'è tanto da girarci attorno: se un gioco gira meglio su una piattaforma piuttosto che su un'altra lo dovrebbe poter capire anche uno che di tecnologia non ne capisce niente.I giochi oggi sono molto più semplici del passato, gli enigmi di Tomb Raider e le avventure di Legacy of Kain sono solo sogni del passato, i vecchi RTS dove si doveva costruire e gestire l'economia sono finiti in favore di strategici dove hai già tutto bello che pronto visto che usare il cervello non se ne parla, mentre gli FPS oggi hanno un gameplay molto più lento e mappe complesse per favorire chi non ha skill e campera.
Esempio lampante è il successo di Wii, con i suoi giochini infantili e semplici hanno battuto le console classiche, e io mi chiedo ancora come accidenti si possa preferire Super Mario Bross a Battlefield 4.
Da lì nasce la competizione delle aziende.
Poi che queste preferiscano puntare sui miliardi di core per questioni di puro marketing, visto che i grandi numeri attecchiscono meglio sulla massa ignorante (nel senso non dispregiativo del termine), sono d'accordo.
Certo uno che compra legge la schedina delle specifiche che trova al supermercato ma se ogni produttore scrivesse sempre specifiche diverse piazzando sempre lo stesso prodotto, stai pur certo che il 95% dell'utenza manco se ne accorgerebbe.
cdimauro
21-12-2013, 17:35
Io mi informo accuratamente su ogni cosa che compro che sia roba informatica o meno, se qualcuno non ha voglia e gli piace navigare nell'ignoranza sono affari suoi ma non dovrebbe avere diritto alcuno di lamentarsi o esprimere opinioni a riguardo.
Non sono tutti così, lo sai.
I giochi oggi sono molto più semplici del passato, gli enigmi di Tomb Raider e le avventure di Legacy of Kain sono solo sogni del passato, i vecchi RTS dove si doveva costruire e gestire l'economia sono finiti in favore di strategici dove hai già tutto bello che pronto visto che usare il cervello non se ne parla, mentre gli FPS oggi hanno un gameplay molto più lento e mappe complesse per favorire chi non ha skill e campera.
Esempio lampante è il successo di Wii, con i suoi giochini infantili e semplici hanno battuto le console classiche, e io mi chiedo ancora come accidenti si possa preferire Super Mario Bross a Battlefield 4.
Io non parlavo del gameplay, ma dell'engine.
Per il resto a me piacciono più i platform che giochi di guerra.
Certo uno che compra legge la schedina delle specifiche che trova al supermercato ma se ogni produttore scrivesse sempre specifiche diverse piazzando sempre lo stesso prodotto, stai pur certo che il 95% dell'utenza manco se ne accorgerebbe.
Può darsi. Ma credo che siano in grado di valutare se un gioco è più fluido e/o dettagliato su una piattaforma anziché su un'altra.
Non rappresentano il suo core business, e non ha nulla da temere da parte di Intel. [...]
Certo non teme di fallire, ma perdere tutto il mercato PC certo non le fa piacere.
Samsung è di bocca buona, figurati se si fa scrupoli a cedere alla richiesta di Intel. Oltretutto sfornando millemila prodotti, figuriamoci se si preoccupa nel caso in cui uno non vada bene.
Non è neppure strano che non adotti solo prodotti fatti in casa, dato che già lo fa con i SOC ARM come gli snapdragon: sforna così tanta roba che quelli fatti in casa non le bastano.
Rimane un fatto, ed è quello che dicevo: solo produttori su cui Intel può far leva per il mercato PC hanno prodotto tablet con Atom.
Su questo invece non sono d'accordo, perché non mina la capacità di innovazione da parte di AMD.
La mina eccome. Se non vendi non guadagni, e se non guadagni i soldi da investire in ricerca e sviluppo diventano sempre meno.
Pensa che per quanto riguarda bulldozer avevo letto che una delle causa dei consumi elevati era dovuta al fatto che nella progettazione si erano affidati a strumenti automatici (più veloci ed economici) anziché ottimizzare "a mano" il progetto sul silicio, e questo avrebbe portato a problemi elevati di efficienza.
Con più soldi da investire, le cose vanno diversamente.
Ma forse è stato uno sbaglio ancora più grosso per Intel quello di dare in licenza le sue architetture proprio ad AMD, che alla fine è quello che ha fatto la sua fortuna.
Intel lo fece parecchio tempo fa, perchè aveva bisogno di fonderie esterne per rafforzare la produzione.
AMD poi, come hai visto, è stato qualcosa che Intel ha sempre potuto gestire facilmente, anche quando produceva processori migliori. Nonostante tutto AMD rimane comunque una piccola realtà rispetto ad Intel.
A me sembra che a scherzare qui sia tu. Questa mi sembra decisamente grossa...
Non scherzo affatto, e dato che mi sembra che tu sia una persona che segue questo settore, mi stupisco non poco di questo tuo dubbio.
AMD, da comprimaria, ha sempre dovuto rischiare e innovare (intel vende solo per il nome e gli accordi commerciali, politiche di vendita losche e compilatori taroccati a parte), e questo è facilmente verificabile.
Infatti non è certo una novità per Intel quella di integrare il memory controller nella CPU. [...]
Non è significativo. Non quanto l'introduzione di un dual-core, ad esempio [...]
In ogni caso sbagli: Intel 80860 (http://en.wikipedia.org/wiki/Intel_i860) [...]
Qui stiamo parlando di processori per PC, e il confronto va fatto tra AMD e intel in quella fascia di mercato. Di prodotti commercialmente validi per finire nei PC degli utenti.
Se prendiamo in considerazione altri settori, soluzioni esoteriche, esperimenti falliti, ecc... allora troviamo di tutto. Ma non è di questo che stiamo parlando.
Lo credo bene: ha acquisito Ati per questo. Ed è certamente un passo importante.
Beh, non è che siccome ha acquistato ATI allora deve spingere su questa integrazione, ma ha acquistato ATI per ottenere questo risultato.
ATI è stata pagata più del dovuto, ma è stata essenziale per la nascita di quel progetto a lungo termine che potrebbe fare la fortuna di AMD nei prossimi anni.
Lo avrebbe capito chiunque che sarebbero stati deludenti. Davvero è difficile credere che abbiano commesso un errore così madornale. E ovviamente questa non è certo configurabile come innovazione (cosa c'è di innovativo, poi?), ma come suicidio.
Invece non era affatto chiaro e prima che si vedessero i risultati concreti molta stampa di settore era estremamente ottimista su questi processori. Certo, con il senno di poi son tutti bravi.
Secondo te abbandonare un'architettura sicura e collaudata e riprogettare completamente il processore significa non fare nulla per cercare di innovare? Mah...
Tipo?
Alcuni li avevo elencati sopra, ma ce ne sono altri. Per esempio mi viene in mente l'introduzione dei 64 bit su x86. Li ha introdotti AMD con le sue AMD64.
Anche in questo caso, sono tutte cose facilmente verificabili.
[...] per cui si possono realizzare tranquillamente processori x86 senza necessariamente avere una licenza da Intel.
Scusa, potresti spiegare meglio questa affermazione?
A me risulta che le licenze x86 siano tutte fortemente vincolanti e in numero limitato. Puoi citare una fonte che riporti il fatto che chiunque possa produrre CPU x86 senza licenza?
Infatti. Le è andata di lusso, perché s'è potuta liberare delle fabbriche, cedendole a Globalfoundries, incassando un bel po' di soldi.
Dai, come fai a dire "le è andata di lusso"? In tutta la vicenda AMD è chiaramente la vittima, e l'accordo fatto non la risarcisce certo di anni di politiche scorrette di Intel.
AMD si è liberata delle fonderie semplicemente perchè i costi di queste ultime stanno diventando assolutamente insostenibili per piccole realtà, o hai la clientela di Intel o devi ingrandirti e vendere i prodotti delle tue fonderie ad una clientela più variegata (e difatti GF si è ingrandita parecchio, e anche Intel sta cominciando a stampare chip per terzi).
Con Samsung che domina nel mercato mobile? Mi spieghi che motivo avrebbe di cedere a Intel proprio nel suo settore?
Mi riferivo al fatto che finora i licenziatari di x86 non erano di dimensioni tali da preoccupare realmente Intel.
Se un'azienda come Samsung potesse e decidesse di entrare anche in questo campo (ma Samsung nello specifico dubito che abbia interesse a farlo, il settore mobile oggi è più proficuo e quello PC è in contrazione), ho idea che sarebbe una bella gatta da pelare anche per Intel.
Non ci sarebbero i presupposti, perché Intel è già stata costretta a cedere le licenze della sua architettura in passato. Se poi quelle aziende non ne hanno fatto uso, o si sono ritirate, non è certo affar suo.
Un nuovo intervento da parte dell'anti-trust, dunque, non avrebbe alcun senso, oltre a essere totalmente infondato proprio per questo motivo.
Non ci sarebbero i presupposti?
Intel ha una posizione dominante in questo settore, una posizione di cui ha abusato e che è deleteria per la concorrenza e di conseguenza per l'utenza finale.
Io francamente mi chiedo come sia possibile che non siano intervenuti prima.
Magari avrei qualche dubbio sul farlo ora, dato che Intel è in effetti un po' in difficoltà sui nuovi processi produttivi e per il fatto che l'esplosione del mercato mobile sta facendo perdere incisività al mercato dei classici PC.
"Migliore" in che senso? Certamente non dal punto di vista prestazionale. I numeri sono lì a testimoniarlo.
Dal punto di vista dell'efficienza. Le prestazioni in campo mobile contano molto meno, sono altri i parametri che rendono un SOC migliore di un altro.
Ad esempio su Anandtech trovi un pezzo in cui vengono riportati dei benchmark [...]
Stai dimenticando il vantaggi che Intel ha sul processo produttivo (o per lo meno, che ha avuto finora).
Se parliamo di architetture, la variabile processo produttivo va eliminata dal discorso.
Gli ATOM ora si comportano bene, ma quando poi arrivano sul mercato si confrontano con degli ARM che nel frattempo si sono evoluti e risultano soluzioni più competitive sul mercato.
Guarda cosa ha fatto Appel con l'A7: in una generazione ha fatto un processore che con metà dei core e poco più di metà della frequenza eguaglia e supera uno dei top di gama della generazione precedente, lo snapdragon 800. Se Intel avanza, ARM non sta a guardare.
PS: anche l'A9 è un processore OoO. ;)
Quello che in passato era uno svantaggio che avrebbe dovuto tarpare le ali ed eliminare i CISC, alla fine s'è rivelato il punto di forza che ha consentito all'architettura più "brutta" di fare le scarpe alle altre, eliminando un sacco di rivali.
x86 non è emersa perchè migliore, ma perchè più supportata dal mercato. Il mondo IT è pieno di ottime tecnologie mai decollate.
Per rimanere in campo processori e Intel, questa ha creato Itanium, che doveva essere l'architettura del passaggio ai 64 bit e il non plus ultra della tecnologia. É fallita, fondamentalmente per motivi di mercato.
Le architettura ARM non sono svantaggiate oggi perchè RISC, semplicemente oggi non hanno ancora trovato il posto nel mercato dei processori ad alte prestazioni ma sono dimensionate per il mercato su cui hanno trovato il loro spazio, ossia quello mobile, dove le prestazioni sono secondarie rispetto ai consumi.
Oggi, con le esigenze prestazionali in crescita e l'ingresso nel mercato server le cose potrebbero cominciare a cambiare (ma moderatamente, dato che anche sul mercato server si usano gli ARM per sfruttare le loro caratteristiche, non per farli diventare come gli x86 da HPPC).
Oltretutto gli x86 non sono più CISC da tempo, sono di fatto dei RISC con un layer per istruzioni complesse (ok, non è così semplice, ma è per inquadrare il punto).
Oltretutto il problema delle istruzioni complesse su processori ARM è in parte compensato sia dalla presenza di hardware specializzato (Amiga docet), sia dall'evoluzione delle tecnologie HSA (dai un'occhiata a chi fa parte del consorzio ;) ) che porterà sulla GPU i calcoli di tipo adeguato che necessitano di istruzioni complesse.
Mi pare che proprio il periodo in cui Intel navigava male fu a causa del Pentium 4, mentre AMD col suo Athlon mieteva consensi e vendite. Non mi risultano "shortage" di produzione da parte sua.
Pentium-M arriverà soltanto dopo un bel po'.
Nel frattempo AMD sfornò x86-64 e i suoi Opteron prima e Athlon64 poi, mietendo ancora una volta consensi, sia in ambito desktop che, soprattutto, in quello server. Anche qui non mi risultano shortage.
Per cui AMD le sue occasioni le ha avute, ma non è riuscita a capitalizzare. E anziché sfruttare il vantaggio tecnologico, ha fallito nel presentare i suoi successivi prodotti.
Intel s'è leccata le ferite, e grazie a Pentium-M ha avuto la possibilità di recuperare, e infine sopravanzare AMD. E ricordo che Pentium-M nacque per il settore mobile.
Per cui mi pare che la storia non sia esattamente quella che hai riportato...
Calabar ti ha già risposto ampiamente sugli altri punti, ma quello che hai scritto sopra non è assolutamente esatto.
Innanzitutto nonostante il flop "tecnologico" dei Pentium 4, AMD non fu in grado di sfruttare il vantaggio che aveva con Athlon ed Athlon64 per il semplice motivo che non aveva la capacità produttiva per coprire i quantitativi di cpu x86 richiesti dal mercato.
Peggio ancora, AMD non aveva i mezzi finanziari per investire su un numero sufficienti di fab per coprire la potenziale richiesta e non poteva neanche farsi finanziare da altri per procurarsi nuove fab, ecc. perchè la cosa era estremamente rischiosa.
Il motivo era che Intel aveva già la capacità produttiva per coprire tutto il mercato ed aveva pure già stanziato li investimenti per aggiornare le fab o costruirne di nuove in modo da sfruttare le scale d'integrazione successive.
In poche parole, nel "periodo d'oro di AMD" i produttori di pc dovevano comunque comprare cpu da Intel se volevano coprire le richieste del mercato quindi anche se con minori guadagni, Intel andava ancora avanti alla grande visto che il mercato continuava a tirare e sopratutto era in un a botte di ferro con il vantaggio che aveva in termini di risorse finanziarie e strumenti di pressione diretta ed indiretta.
Non ho scritto che era "monopolista di fatto" tanto per dire, la situazione era quella.
Solo un manangement totalmente incapace avrebbe potuto mettere in pericolo la posizione dominante di Intel, visto che per neutralizzare AMD doveva solo incrementare la spesa in R&D (ed i soldi non erano un problema) ed attendere il primo passo falso del suo molto più piccolo concorrente.
Non ci fu "shortage di produzione" perchè se non c'erano sufficienti cpu AMD i produttori semplicemente acquistavano cpu Intel.
Poi non è che Intel "abbia recuperato con i Pentium M", le linee Pentium 4 e Pentium M sono quasi contemporanee, Pentium M uscì dopo sul mercato ma non era destinato a sostituire i Pentium 4 ed entrambi terminarono di essere prodotti lo stesso anno.
Pentium 4 è uscito nel 2000 ed è rimasto in produzione fino al 2008, utilizzato principalmente su desktop (a parte la variante Pentium 4M uscita nel 2002 usata come "riempitivo" tra i Pentium III per notebook ed il Pentium M).
Pentium M è uscito nel 2003 ed è rimasto in produzione fino al 2008 e fu commercializzato principalmente come cpu per notebook (di solito con marchio Centrino).
Sia Pentium 4 che Pentium M furono poi entrambi sostituiti dagli Intel Core (derivati dai Pentium M) e poi dai Core 2, ecc. ecc.
cdimauro
22-12-2013, 07:21
Certo non teme di fallire, ma perdere tutto il mercato PC certo non le fa piacere.
Samsung è di bocca buona, figurati se si fa scrupoli a cedere alla richiesta di Intel. Oltretutto sfornando millemila prodotti, figuriamoci se si preoccupa nel caso in cui uno non vada bene.
Non è neppure strano che non adotti solo prodotti fatti in casa, dato che già lo fa con i SOC ARM come gli snapdragon: sforna così tanta roba che quelli fatti in casa non le bastano.
Rimane un fatto, ed è quello che dicevo: solo produttori su cui Intel può far leva per il mercato PC hanno prodotto tablet con Atom.
Come hai già detto tu stesso, Samsung si affida a più fornitori per i suoi prodotti nonostante sia in grado di fare tutto da sola, perché vende tantissimo.
Al momento è Intel che nel settore mobile ha bisogno di vendere i suoi processori, per cui non è nella posizione di poter fare pressioni a Samsung, che in questo mercato occupa una posizione dominante.
In ogni caso ha già subito delle pesanti condanne, per cui ricominciare con una politica di questo tipo le creerebbe decisamente molti più problemi, per cui non le conviene.
La mina eccome. Se non vendi non guadagni, e se non guadagni i soldi da investire in ricerca e sviluppo diventano sempre meno.
Senz'altro, ma i soldi di per sé non garantiscono automaticamente innovazione. Basti pensare al Pentium 4 di Intel, ad esempio. Oppure agli ottimi prodotti che ha tirato fuori AMD col suo budget. Era a questo che mi riferivo prima.
Pensa che per quanto riguarda bulldozer avevo letto che una delle causa dei consumi elevati era dovuta al fatto che nella progettazione si erano affidati a strumenti automatici (più veloci ed economici) anziché ottimizzare "a mano" il progetto sul silicio, e questo avrebbe portato a problemi elevati di efficienza.
Con più soldi da investire, le cose vanno diversamente.
Scusami, ma perché parli di due cose diverse? Il discorso riguardava l'efficienza a livello architetturale, non l'ottimizzazione del design di un progetto che è stato già definito. L'architettura di Bulldozer è stata fallimentare a livello prestazionale, come ben sappiamo. Poi ha avuto anche problemi di consumo, anch'essi importanti sicuramente, ma sono ALTRI problemi.
Intel lo fece parecchio tempo fa, perchè aveva bisogno di fonderie esterne per rafforzare la produzione.
AMD poi, come hai visto, è stato qualcosa che Intel ha sempre potuto gestire facilmente, anche quando produceva processori migliori. Nonostante tutto AMD rimane comunque una piccola realtà rispetto ad Intel.
Intel diede in licenza la sua architettura perché i produttori pretendevano un second source, altrimenti non avrebbero comprati i suoi prodotti. Specialmente in ambito governativo e militare. Questo valeva per tutti, Intel inclusa.
Successivamente ebbe bisogno di delegare parte della produzione ad AMD perché i suoi processori sfondarono, grazie soprattutto al successo dei PC.
Ma col 386 tirò i remi in barca. Questo portò, dopo un po' di anni, ad essere obbligata dall'autorità antitrust a cedere le licenze ad altri produttori di CPU. Oltre ad AMD acquisirono la licenza IBM, National Semiconductor, e mi pare anche un'altra azienda di cui adesso non ricordo il nome.
Per cui Intel ha potuto "gestire" AMD soltanto nella prima fase di vita dei processori x86. Poi divenne un peso e un problema, e cercò di liberarsene.
Poi che AMD fosse più piccola rispetto ad Intel è ovvio. Ma una piccola realtà certamente no.
Non scherzo affatto, e dato che mi sembra che tu sia una persona che segue questo settore, mi stupisco non poco di questo tuo dubbio.
AMD, da comprimaria, ha sempre dovuto rischiare e innovare (intel vende solo per il nome e gli accordi commerciali, politiche di vendita losche e compilatori taroccati a parte), e questo è facilmente verificabile.
In tribunale, magari, perché certe accuse che fai sono molto pesanti. Hai prove di tutto ciò? Se sono facilmente verificabili non avrai difficoltà a portarle...
Qui stiamo parlando di processori per PC, e il confronto va fatto tra AMD e intel in quella fascia di mercato. Di prodotti commercialmente validi per finire nei PC degli utenti.
Se prendiamo in considerazione altri settori, soluzioni esoteriche, esperimenti falliti, ecc... allora troviamo di tutto. Ma non è di questo che stiamo parlando.
Stavamo parlando di innovazione in generale. Ma anche restringendo il campo ai soli PC, non mi pare che manchino da parte di Intel.
Beh, non è che siccome ha acquistato ATI allora deve spingere su questa integrazione, ma ha acquistato ATI per ottenere questo risultato.
Non mi sembra di aver detto il contrario. Era proprio questo l'obiettivo di AMD, infatti.
ATI è stata pagata più del dovuto, ma è stata essenziale per la nascita di quel progetto a lungo termine che potrebbe fare la fortuna di AMD nei prossimi anni.
Vedremo in che modo, visto che ormai da qualche anno tutti i produttori di processori propongono sistemi con CPU e GPU integrata.
Invece non era affatto chiaro e prima che si vedessero i risultati concreti molta stampa di settore era estremamente ottimista su questi processori. Certo, con il senno di poi son tutti bravi.
La stampa non è tutta la stessa, come pure gli esperti in materia. Già qualche tempo prima che questi processori fossero presentati AMD rese disponibili slide e informazioni sulla nuova architettura. La cosa che balzò all'occhio fu la sezione del decoder, che era lampante essere il suo tallone d'Achille, come poi fu verificato. E idem la condivisione dell'FPU fra i due core.
C'è bisogno di stampa altamente specializzata per capirlo?
Secondo te abbandonare un'architettura sicura e collaudata e riprogettare completamente il processore significa non fare nulla per cercare di innovare? Mah...
No, se non porti qualche novità. Riprogettare un processore di per sé non significa nulla. Puoi riprogettare anche per economizzare, come a mio avviso è stato fatto da AMD in questo caso, dove ha tagliato decoder e FPU per ridurre la dimensione e i costi di produzione.
Infatti sul decoder ha fatto marcia indietro. Come te lo spieghi questo?
Alcuni li avevo elencati sopra, ma ce ne sono altri. Per esempio mi viene in mente l'introduzione dei 64 bit su x86. Li ha introdotti AMD con le sue AMD64.
Anche in questo caso, sono tutte cose facilmente verificabili.
Permettimi, hai parlato di Nehalem che integra innovazioni già presentate da AMD, e adesso mi vieni a citare i 64 bit? Non so, pensavi che Intel non dovesse integrarli in Nehalem? Lo fa già da parecchi anni, mi pare.
Anche qui vale quanto già detto prima: se sono facilmente verificabili le innovazioni di AMD che sono state introdotto in Nehalem, immagino che non avrai difficoltà a portarne ampia documentazione.
Per comodità ti riporto la tua precedente affermazione:
"Molte delle novità che Intel ha integrato in Nehalem AMD le aveva già sui proprio phenom da anni."
Mi sembra chiaro il contesto e cosa voglia dire la frase.
Scusa, potresti spiegare meglio questa affermazione?
A me risulta che le licenze x86 siano tutte fortemente vincolanti e in numero limitato. Puoi citare una fonte che riporti il fatto che chiunque possa produrre CPU x86 senza licenza?
La fonte è il diritto americano: le IP non durano in eterno, ma sono limitate a un periodo di 20 anni (se non ricordo male). Quindi tutte le architetture di Intel fino al primo Pentium possono essere riprodotte e commercializzate da altri senza bisogno di avere alcuna licenza.
Dai, come fai a dire "le è andata di lusso"? In tutta la vicenda AMD è chiaramente la vittima, e l'accordo fatto non la risarcisce certo di anni di politiche scorrette di Intel.
Non ho nulla da dire su questo, ma il valore di una licenza x86 completamente libera è enorme. Come pure i 5 anni di cross-licensing delle rispettive IP. Tu sottovaluti la portata di quest'accordo, che va ben oltre la mera questione economica. Per Intel liquidare la causa sborsando 1,2 miliardi di dollari non era certo un problema, con tutta la liquidità di cui dispone.
AMD cullava questo sogno da anni, e finalmente ha avuto l'occasione giusta per realizzarlo.
Ripeto: senza nulla togliere ai danni che ha avuto.
AMD si è liberata delle fonderie semplicemente perchè i costi di queste ultime stanno diventando assolutamente insostenibili per piccole realtà, o hai la clientela di Intel o devi ingrandirti e vendere i prodotti delle tue fonderie ad una clientela più variegata (e difatti GF si è ingrandita parecchio, e anche Intel sta cominciando a stampare chip per terzi).
Appunto. Oggi le fonderie costano tantissimo, e AMD ha fatto bene a concentrarsi sulla sola progettazione, delegando ad altri le rogne della produzione. Meglio cercare di fare bene una cosa, coi fondi a disposizione.
Intel è un colosso e se ha aperto ad altri (non concorrenti) probabilmente è perché ha bisogno di sfruttare tutta la sua capacità produttiva, proprio per coprire e in ultima analisi far fruttare i costi delle fabbriche che possiede. Questo è il mio personale pensiero in merito, ma è una cosa che affermo da tempo.
Mi riferivo al fatto che finora i licenziatari di x86 non erano di dimensioni tali da preoccupare realmente Intel.
Ci sono state realtà del calibro di IBM in passato, che non era certo piccola, e non ha nulla da invidiare a Intel quanto a innovazione.
Anche National Semiconductor era una grande realtà.
Comunque parlo del periodo in cui Intel cedette le sue licenze.
Oggi il discorso è ben diverso.
Se un'azienda come Samsung potesse e decidesse di entrare anche in questo campo (ma Samsung nello specifico dubito che abbia interesse a farlo, il settore mobile oggi è più proficuo e quello PC è in contrazione), ho idea che sarebbe una bella gatta da pelare anche per Intel.
Ho idea di no perché, come già detto, i soldi di per sé non sono una garanzia automatica per l'innovazione.
Samsung possiede già licenze ARM e ha uno stuolo di ingegneri per progettare propri processori. Lo fa già, per essere precisi, ma non mi pare che brillino rispetto alla concorrenza. Il suo interesse primario dovrebbe essere quello di fortificarsi e consolidare la sua posizione nel settore mobile, che è la sua gallina dalle uova d'oro. Invece quanto a innovazione pecca, e non poco.
Per cui dubito fortemente che possa fare meglio di Intel in un settore a lei completamente sconosciuto, e che ha già mietuto vittime, anche illustri.
La realtà è ben diversa: ha cominciato ad affidarsi anche a Intel proprio nel suo settore...
Non ci sarebbero i presupposti?
No, e ho anche spiegato il perché. Comunque lo ripeto sotto.
Intel ha una posizione dominante in questo settore, una posizione di cui ha abusato e che è deleteria per la concorrenza e di conseguenza per l'utenza finale.
Quindi, per risolvere il problema, l'antitrust dovrebbe assicurare che ci siano altri produttori dotati di licenze x86, in modo che possano competere con Intel e portare concorrenza al mercato. Come da manuale, insomma.
Sorpresa: ci sono già! Dunque un intervento in tal senso è semplicemente impossibile.
Io francamente mi chiedo come sia possibile che non siano intervenuti prima.
Perché non possono, se quello che vuoi è che ci siano altri soggetti dotati di licenze x86.
Infatti l'antitrust si è "limitata" a intervenire per risolvere il problema concreto, ossia la pratica di concorrenza sleale.
Magari avrei qualche dubbio sul farlo ora, dato che Intel è in effetti un po' in difficoltà sui nuovi processi produttivi e per il fatto che l'esplosione del mercato mobile sta facendo perdere incisività al mercato dei classici PC.
Questo è un altro discorso. La difficoltà dei processi produttivi è conseguenza dell'avvicinamento ai limiti del silicio. Scalare, insomma, non è più semplice come una volta. E questo non riguarda soltanto Intel: con la fisica e la materia devono averci a che fare tutti.
Il mercato dei PC è in calo, e lo sarà ancora, ma non sparirà del tutto. Si arriverà a un livellamento, ma un PC a casa fa sempre comodo. Piuttosto ci saranno tanti altri dispositivi mobile. Nuovo mercato insomma, in cui bisogna entrare perché ci sono numeri molto elevati. L'obiettivo è che un solo consumatore debba avere più dispositivi, e quindi spendere, spendere, spendere.
Certamente in questo contesto è Intel che deve darsi da fare.
Dal punto di vista dell'efficienza. Le prestazioni in campo mobile contano molto meno, sono altri i parametri che rendono un SOC migliore di un altro.
Le prestazioni contano nella misura in cui hai a che fare con software sempre più complessi. Altrimenti la corsa ai core, alle frequenze, e ad architetture con più elevato IPC non ci sarebbe.
Per essere chiari, se servisse far girare il vecchio RISCOS di Acorn, e le applicazioni che per esso furono sviluppate, sugli ARM, tutto ciò di cui stiamo parlando non servirebbe. Anche un vecchio ARM3 sarebbe stato più che sufficiente allo scopo.
Software e hardware vanno a braccetto, insomma.
Poi nulla da dire sulle altre cose. I consumi sono molto importanti, e da questo punto di vista Intel ha lavorato tanto, e i risultati si cominciano a vedere.
Ciò che manca al momento è la completa integrazione in un SoC.
Stai dimenticando il vantaggi che Intel ha sul processo produttivo (o per lo meno, che ha avuto finora).
Se parliamo di architetture, la variabile processo produttivo va eliminata dal discorso.
Perdonami, ma se parlo, come ho parlato, di prestazioni (peraltro specificando anche su singolo core/thread), mi sembra chiaro che non tenga conto di questa variabile (se in maniera limitata; ovviamente non parlo di processo produttivo a 180nm).
Gli ATOM ora si comportano bene, ma quando poi arrivano sul mercato si confrontano con degli ARM che nel frattempo si sono evoluti e risultano soluzioni più competitive sul mercato.
Anche gli Atom si evolvono, e sono sempre più competitivi.
Guarda cosa ha fatto Appel con l'A7: in una generazione ha fatto un processore che con metà dei core e poco più di metà della frequenza eguaglia e supera uno dei top di gama della generazione precedente, lo snapdragon 800. Se Intel avanza, ARM non sta a guardare.
E viceversa. ;)
PS: anche l'A9 è un processore OoO. ;)
Grazie per la correzione. E' stato un lapsus. Non amo particolarmente le sigle. :p
x86 non è emersa perchè migliore, ma perchè più supportata dal mercato. Il mondo IT è pieno di ottime tecnologie mai decollate.
Per rimanere in campo processori e Intel, questa ha creato Itanium, che doveva essere l'architettura del passaggio ai 64 bit e il non plus ultra della tecnologia. É fallita, fondamentalmente per motivi di mercato.
Lo stesso vale per quella che l'ha preceduta, l'80860 di cui ho postato il link prima.
Ma se ci limitassimo a questo, non renderemmo giustizia alla realtà: anche i processori x86 si sono evoluti e hanno offerto eccellenti prestazioni. Hanno "semplicemente" impiegato molto più tempo rispetto ai RISC, a causa della complessità dell'ISA. Ma una volta trovata la chiave per le prestazioni, non hanno avuto nulla da invidiare ai RISC; tutt'altro...
Le architettura ARM non sono svantaggiate oggi perchè RISC, semplicemente oggi non hanno ancora trovato il posto nel mercato dei processori ad alte prestazioni ma sono dimensionate per il mercato su cui hanno trovato il loro spazio, ossia quello mobile, dove le prestazioni sono secondarie rispetto ai consumi.
Oggi, con le esigenze prestazionali in crescita e l'ingresso nel mercato server le cose potrebbero cominciare a cambiare (ma moderatamente, dato che anche sul mercato server si usano gli ARM per sfruttare le loro caratteristiche, non per farli diventare come gli x86 da HPPC).
A8, A9, e A15 sono nati perché espressamente votati alle prestazioni. Quindi ARM sta puntando da tempo anche in questo campo.
Comunque vedremo cosa riuscirà a fare. Nel frattempo la storia ci ricorda che altri RISC, ben più votati alle prestazioni, hanno ceduto il passo a x86...
Oltretutto gli x86 non sono più CISC da tempo, sono di fatto dei RISC con un layer per istruzioni complesse (ok, non è così semplice, ma è per inquadrare il punto).
Gli x86 sono e rimangono CISC. Il fatto che l'unità di esecuzione interna sia una sorta di RISC non ha nulla a che vedere l'architettura, che rimane CISC. Infatti questa strategia è stata adottata anche da processori RISC, che fanno uso internamente di un'unità di esecuzione ancora più semplice per l'effettiva esecuzione. Anzi, alcuni RISC fanno anche uso di microcodice per le istruzioni più complesse.
Ma anche qui, la storia dimostra che i CISC hanno mantenuto la loro identità (le caratteristiche peculiari che li hanno sempre contraddistinti), mentre sono stati i RISC a tradire la loro, assomigliando sempre più ai CISC pur di rimanere competitivi.
Thumb di ARM, per fare l'esempio più noto, è un'ISA CISC, non RISC. Inoltre i RISC hanno centinaia di istruzioni ormai, anche molto complesse (e alcune, come già detto, fanno uso di microcodice per l'esecuzione; un autentico abominio se consideriamo perché sono nati i RISC e come funzionavano), e tante richiedono più di un ciclo di clock per la loro esecuzione.
Oltretutto il problema delle istruzioni complesse su processori ARM è in parte compensato sia dalla presenza di hardware specializzato (Amiga docet), sia dall'evoluzione delle tecnologie HSA (dai un'occhiata a chi fa parte del consorzio ;) ) che porterà sulla GPU i calcoli di tipo adeguato che necessitano di istruzioni complesse.
Non è che puoi portare tutto su GPU, altrimenti lo si sarebbe fatto già da un bel pezzo, visto che da anni questi elementi sono diventati d'uso più generale.
ARM continua a integrare istruzioni complesse perché sa che servono per rimanere competitiva. C'è poco da girarci attorno.
Ma la sua architettura rimane RISC e, dunque, ha dei limiti ben precisi e invalicabili riguardo al "lavoro utile" che una singola istruzione può realizzare.
La partita fra CISC e RISC si gioca tutto qui. Te ne renderai maggiormente conto quando arriverà AVX3.
cdimauro
22-12-2013, 07:49
Calabar ti ha già risposto ampiamente sugli altri punti,
Idem.
ma quello che hai scritto sopra non è assolutamente esatto.
Innanzitutto nonostante il flop "tecnologico" dei Pentium 4, AMD non fu in grado di sfruttare il vantaggio che aveva con Athlon ed Athlon64 per il semplice motivo che non aveva la capacità produttiva per coprire i quantitativi di cpu x86 richiesti dal mercato.
Ma hai notizie di shortage di quel periodo? Il nocciolo della questione è proprio questo.
Peggio ancora, AMD non aveva i mezzi finanziari per investire su un numero sufficienti di fab per coprire la potenziale richiesta e non poteva neanche farsi finanziare da altri per procurarsi nuove fab, ecc. perchè la cosa era estremamente rischiosa.
AMD aveva già degli investitori, e non credo che avrebbe avuto difficoltà a trovarne altri, vista la bontà dei suoi prodotti e la ricezione a dir poco entusiasta da parte del pubblico e del mercato.
Il motivo era che Intel aveva già la capacità produttiva per coprire tutto il mercato ed aveva pure già stanziato li investimenti per aggiornare le fab o costruirne di nuove in modo da sfruttare le scale d'integrazione successive.
Senz'altro, ma le vendite non andavano bene. E di questo ci sono anche ampie notizie dell'epoca.
In poche parole, nel "periodo d'oro di AMD" i produttori di pc dovevano comunque comprare cpu da Intel se volevano coprire le richieste del mercato quindi anche se con minori guadagni, Intel andava ancora avanti alla grande visto che il mercato continuava a tirare e sopratutto era in un a botte di ferro con il vantaggio che aveva in termini di risorse finanziarie e strumenti di pressione diretta ed indiretta.
La pressione di cui parli è arrivata dopo, come peraltro ha citato AMD nella sua causa contro Intel.
Ma, ribadisco, mancano informazioni su shortage da parte di AMD.
Non ho scritto che era "monopolista di fatto" tanto per dire, la situazione era quella.
Solo un manangement totalmente incapace avrebbe potuto mettere in pericolo la posizione dominante di Intel, visto che per neutralizzare AMD doveva solo incrementare la spesa in R&D (ed i soldi non erano un problema) ed attendere il primo passo falso del suo molto più piccolo concorrente.
Come già detto a calabar, i soldi da soli non bastano per innovare. Servono principalmente buone idee.
Non ci fu "shortage di produzione" perchè se non c'erano sufficienti cpu AMD i produttori semplicemente acquistavano cpu Intel.
Mi riferisco allo shortage di AMD, ossia l'incapacità di soddisfare la domanda per i suoi prodotti.
Che poi che Intel potesse vendere le sue CPU al posto di AMD è chiaro, ma all'epoca ebbe una flessione nelle vendite...
Poi non è che Intel "abbia recuperato con i Pentium M", le linee Pentium 4 e Pentium M sono quasi contemporanee, Pentium M uscì dopo sul mercato ma non era destinato a sostituire i Pentium 4 ed entrambi terminarono di essere prodotti lo stesso anno.
Pentium 4 è uscito nel 2000 ed è rimasto in produzione fino al 2008, utilizzato principalmente su desktop (a parte la variante Pentium 4M uscita nel 2002 usata come "riempitivo" tra i Pentium III per notebook ed il Pentium M).
Pentium M è uscito nel 2003 ed è rimasto in produzione fino al 2008 e fu commercializzato principalmente come cpu per notebook (di solito con marchio Centrino).
Scusami, ma sei tu stesso a confermare quello che ho scritto. Il Pentium-M arrivò ben TRE anni dopo il Pentium 4. Infatti era un prodotto completamente nuovo, e assolutamente NON contemporaneo a quest'ultimo.
Se il Pentium 4 è rimasto in produzione fino al 2008, è perché il Pentium-M era, per l'appunto, pensato per un altro mercato, quello mobile, ed è servito tempo affinché Intel lo utilizzasse anche nel mercato desktop.
Sia Pentium 4 che Pentium M furono poi entrambi sostituiti dagli Intel Core (derivati dai Pentium M) e poi dai Core 2, ecc. ecc.
Infatti. Proprio perché Intel, visti gli ottimi risultati del Pentium-M, decise di puntare tutto su quest'architettura.
Ma prima Intel aveva puntato tutto sui Pentium 4, tant'è che le sue roadmap prevedevano che sarebbe durata anni, e avrebbe persino raggiunto i 10GHz. Poi sappiamo come andò a finire...
Pentium-M fu soltanto una "piacevole" sorpresa, ma anche una gran fortuna, perché le consentì di uscire dal vicolo cieco in cui s'era andata a infilare, e a costruirci sopra il suo seguente successo commerciale.
Nella vita serve anche fortuna...
@cdimauro
Mi piacerebbe risponderti ancora punto per punto ma purtroppo la lunghezza della discussione ha superato il tempo che mi è possibile dedicarle.
Mi soffermo solo su tre punti.
Il primo è quando dico "puoi facilmente verificarlo". Non ho il tempo di rispondere, quindi ancor meno ho il tempo di cercarti articoli e fonti. Ma se sei interessato potrai trovarle anche tu facilmente (non lo direi, altrimenti).
Quando parli di "accuse" ad Intel da parte mia, ti correggo e ti faccio notare che non si tratta di accuse, ma di fatti (si, facilmente verificabili :p ).
Il secondo punto è legato ad interventi delle autorità per la concorrenza.
Avere qualche concorrente di facciata quando di fatto Intel ha il 90% del mercato e può fare il bello e il cattivo tempo in ambito PC non è una condizione che può proteggerla da ulteriori interventi.
Se non si trovano concorrenti interessati e disposti ad investire tanto da fare vera concorrenza ad Intel, la soluzione esiste ed è lo scorporo (non a caso ho citato AT&T, il cui scorporo ha prodotto vantaggi enormi nel mercato telefonico USA).
Rimane il fatto che Intel oggi è monopolista de facto in questo mercato (riprendo il termine di LMCH, che nonstante non sia il più corretto, è quello che a mio parere rende meglio l'idea della situazione) e che questa situazione sia lesiva della concorrenza ai danni del consumatore, e che un intervento che cambiasse le cose sarebbe decisamente positivo.
A mio parere l'antitrust americana non interviene perchè hanno paura dei produttori orientali e preferiscono tenersi Intel così com'è, per mantenere un'azienda americana forte.
Per quanto riguarda la licenza x86 come licenza libera, continuo a non essere convinto.
Che senso avrebbe avuto per AMD rinegoziare la licenza se questa è libera? Evidentemente la cosa non è così semplice, e la licenza è tutt'altro che libera.
cdimauro
22-12-2013, 14:33
@cdimauro
Mi piacerebbe risponderti ancora punto per punto ma purtroppo la lunghezza della discussione ha superato il tempo che mi è possibile dedicarle.
Non sei obbligato a rispondere subito: puoi farlo quando puoi. ;)
Mi soffermo solo su tre punti.
Il primo è quando dico "puoi facilmente verificarlo". Non ho il tempo di rispondere, quindi ancor meno ho il tempo di cercarti articoli e fonti. Ma se sei interessato potrai trovarle anche tu facilmente (non lo direi, altrimenti).
Quando parli di "accuse" ad Intel da parte mia, ti correggo e ti faccio notare che non si tratta di accuse, ma di fatti (si, facilmente verificabili :p ).
Mi interesso di informatica da quasi 32 anni ormai, e mi tengo abbastanza aggiornato, per cui ho una discreta conoscenza in materia. Il problema è che quanto hai scritto non collima con quanto è accaduto. Anzi, mi sembra un attacco molto generico e diciamo anche un po' infamante nei confronti di Intel. Prova a rileggere quella parte.
E' per questo motivo che chiedevo fonti a supporto delle tue affermazioni.
Il secondo punto è legato ad interventi delle autorità per la concorrenza.
Avere qualche concorrente di facciata quando di fatto Intel ha il 90% del mercato e può fare il bello e il cattivo tempo in ambito PC non è una condizione che può proteggerla da ulteriori interventi.
Chi dovrebbe proteggere questo mercato? Se ci sono già delle aziende in possesso di licenze x86 che non usano più, l'unica cosa sensata sarebbe trasferirle ad altre nella speranza che le mettano a frutto.
Ma il concetto fondamentale è che non puoi certo essere sicuro che lo facciano. Perché le aziende sono private, e valutano in che modo investire i proprio soldi, tenendo conto dei fattori di rischio.
Se nessuna azienda oltre AMD (e Via) si vuol esporre, allora dovrebbe essere lo stato (quale? Non viviamo in uno stato unico che amministra l'intero globo) a mettersi sul mercato facendo concorrenza a Intel. Solo che non mi sembra neppure questa una soluzione sensata, visto che parliamo di mercato.
In ogni caso esistono ancora 2 concorrenti attivi di Intel, per cui viene meno la necessità di un intervento dello stato.
Se non si trovano concorrenti interessati e disposti ad investire tanto da fare vera concorrenza ad Intel, la soluzione esiste ed è lo scorporo (non a caso ho citato AT&T, il cui scorporo ha prodotto vantaggi enormi nel mercato telefonico USA).
Premesso quanto detto sopra, di cosa tratterebbe e come dovrebbe essere effettuato questo "scorporo"?
L'esempio di AT&T non mi sembra calzante. Per lo meno, non vedo similitudini e applicabilità con quello di cui stiamo discutendo.
Rimane il fatto che Intel oggi è monopolista de facto in questo mercato (riprendo il termine di LMCH, che nonstante non sia il più corretto, è quello che a mio parere rende meglio l'idea della situazione) e che questa situazione sia lesiva della concorrenza ai danni del consumatore, e che un intervento che cambiasse le cose sarebbe decisamente positivo.
Ribadisco: è già intervenuta e Intel è stata scippata di un certo numero di licenze della SUA architettura. Non è più un problema di Intel se le altre aziende non riescono a competere o non se ne sono fatte niente delle licenze ricevute. L'antitrust potrebbe passarle ad altre aziende, se fosse realmente questo il problema, ma non vedo cosa c'entri ancora Intel con tutto ciò, dopo che ha già dato...
A mio parere l'antitrust americana non interviene perchè hanno paura dei produttori orientali e preferiscono tenersi Intel così com'è, per mantenere un'azienda americana forte.
In tal caso avrebbero potuto farlo le autorità antitrust europea e/o giapponese, tra l'altro aprendo un precedente. Perché non si sono mosse in tal senso se le cose stanno come dici tu? Eppure di tempo ne hanno avuto parecchio per valutare la situazione e prendere dei provvedimenti. Evidentemente non ci sono proprio gli estremi, e le motivazioni credo che siano riconducibili a ciò che ho affermato prima.
Per quanto riguarda la licenza x86 come licenza libera, continuo a non essere convinto.
Che senso avrebbe avuto per AMD rinegoziare la licenza se questa è libera? Evidentemente la cosa non è così semplice, e la licenza è tutt'altro che libera.
L'ho già spiegato prima: le licenze libere sono quelle di tutti i processori x86 progettati da Intel per le quali sono scaduti i diritti delle IP che le proteggevano. Persino su Wikipedia si trova riferimento in merito (http://en.wikipedia.org/wiki/X86), anche se limitato al 486:
"Open: Partly. For some advanced features, x86 may require license from Intel; x86-64 may require an additional license from AMD. The 80486 processor has been on the market for more than 20 years[1] and so cannot be subject to patent claims. This subset of the x86 architecture is therefore fully open."
Quest'anno dovrebbero essere scaduti quelli del Pentium (commercializzato nel 1993), che tra l'altro è ancor più interessante del 486, visto che gli Atom in-order derivano proprio da quell'implementazione.
Per la legislazione sulle IP negli USA (http://www.uspto.gov/patents/resources/general_info_concerning_patents.jsp), invece:
"Generally, the term of a new patent is 20 years from the date on which the application for the patent was filed in the United States or, in special cases, from the date an earlier related application was filed, subject to the payment of maintenance fees. U.S. patent grants are effective only within the United States, U.S. territories, and U.S. possessions. Under certain circumstances, patent term extensions or adjustments may be available."
Mi sembra sia chiaro, no?
Ad AMD ha fatto molto comodo avere una licenza x86 completamente libera, perché ovviamente le interessano le IP ben più recenti di quelle di Pentium e predecessori.
Ma hai notizie di shortage di quel periodo? Il nocciolo della questione è proprio questo.
Ti ho spiegato per ben due volte come mai non c'era shortage, i produttori acquistavano comunque da Intel perchè sapevano già che AMD non poteva coprire completamente le loro esigenze.
Solo se i consumatori avessero richiesto solo cpu AMD ci sarebbe stato shortage, ma il grosso dei consumatori che compravano pc in quel periodo spesso credevano che AMD fosse una sottomarca di Intel o peggio.
AMD aveva già degli investitori, e non credo che avrebbe avuto difficoltà a trovarne altri, vista la bontà dei suoi prodotti e la ricezione a dir poco entusiasta da parte del pubblico e del mercato.
Mi sa che non hai minimamente presente di che cifre si parlava per metter su UNA fab, figurati metter su una capacità produttiva che potesse metter AMD in pari con Intel. :rolleyes:
Scusami, ma sei tu stesso a confermare quello che ho scritto. Il Pentium-M arrivò ben TRE anni dopo il Pentium 4. Infatti era un prodotto completamente nuovo, e assolutamente NON contemporaneo a quest'ultimo.
Pentium 4 e Pentium M erano stati sviluppati da due team distinti e l'idea era che fossero in produzione circa nello stesso periodo, visto che Pentium 4 era pensato principalmente per desktop/server mentre il Pentium M era esclusivamente per i notebook.
Il fatto che Pentium 4 e Pentium M abbiano cessato la produzione simultaneamente la dovrebbe dir lunga in proposito.
Inoltre il Pentium M era un evoluzione del Pentium III Tualatin, tecnicamente quindi è la linea di core su cui era basato (anche) il Pentium M ad essere uscita prima. :read:
Infatti (guardacaso) il Pentium III Tualatin per notebook restò in produzione fino al 2003 per essere poi sostituito da Pentium M.
cdimauro
22-12-2013, 20:53
Ti ho spiegato per ben due volte come mai non c'era shortage, i produttori acquistavano comunque da Intel perchè sapevano già che AMD non poteva coprire completamente le loro esigenze.
Solo se i consumatori avessero richiesto solo cpu AMD ci sarebbe stato shortage, ma il grosso dei consumatori che compravano pc in quel periodo spesso credevano che AMD fosse una sottomarca di Intel o peggio.
OK, tagliamo la testa al toro. Ecco qui un bel po' di link a proposito riguardo ai primi anni del 2000:
http://www.hwupgrade.it/news/cpu/quote-di-mercato-per-le-cpu-nel-2001_5466.html
http://www.hwupgrade.it/news/cpu/quote-di-mercato-intel-e-amd_9245.html
http://www.hwupgrade.it/news/cpu/situazione-del-mercato-x86_11161.html
http://www.hwupgrade.it/news/cpu/quote-di-mercato-per-intel-e-amd-nel-1-trimestre-2004_12281.html
http://www.hwupgrade.it/news/cpu/processori-x86-intel-cresce-amd-anche_13959.html
http://www.hwupgrade.it/news/portatili/lentamente-amd-guadagna-quote-di-mercato_14593.html
Il primo link è indicativo. Mi spiegherai come avrà fatto AMD ad AUMENTARE NETTAMENTE le sue quote di mercato nella sua miserevole situazione, visto che, parole tue:
"non aveva la capacità produttiva per coprire i quantitativi di cpu x86 richiesti dal mercato"
Mi sa che non hai minimamente presente di che cifre si parlava per metter su UNA fab, figurati metter su una capacità produttiva che potesse metter AMD in pari con Intel. :rolleyes:
Chissà come avranno fatto i venture capitalist che hanno investito in Globalfoundries, con le fabbriche che costano adesso di gran lunga di più rispetto a una dozzina di anni fa.
Ma immagino che avrai una spiegazione fantasiosa anche per questo...
Anche per il resto del tuo messaggio, tagliamo la testa al toro. Riporto una serie di link alle pagine dell'articolo di Anandtech che analizzò dettagliatamente la nuova piattaforma Centrino:
http://www.anandtech.com/show/1083/2
http://www.anandtech.com/show/1083/3
http://www.anandtech.com/show/1083/4
http://www.anandtech.com/show/1083/5
E adesso passiamo a quello che hai scritto in proposito, alla luce del pezzo di Anand.
Pentium 4 e Pentium M erano stati sviluppati da due team distinti e l'idea era che fossero in produzione circa nello stesso periodo, visto che Pentium 4 era pensato principalmente per desktop/server mentre il Pentium M era esclusivamente per i notebook.
Dal primo link:
"The design team looked at the Pentium 4's architecture and quickly concluded that it wouldn't be appropriate for a mobile microprocessor. An extremely long pipeline for a CPU designed to run at very high frequencies was not conducive to building a processor that could run within a 24W power envelope. There were some features that they could borrow from the Pentium 4, but for the most part, the NetBurst architecture was not one that could be considered as the basis for the CPU that would end up known internally as Banias."
Quindi è totalmente falso che Pentium 4 e Banias fossero stati sviluppati nello stesso periodo.
Il fatto che Pentium 4 e Pentium M abbiano cessato la produzione simultaneamente la dovrebbe dir lunga in proposito.
Come ti avevo già spiegato, il primo è stato tenuto in vita finché il secondo è riuscito a sostituirlo anche nel mercato desktop.
Per il resto vedi sopra: no, le due cose non sono affatto collegate.
Inoltre il Pentium M era un evoluzione del Pentium III Tualatin, tecnicamente quindi è la linea di core su cui era basato (anche) il Pentium M ad essere uscita prima. :read:
Il P3 è stato soltanto il punto di partenza. L'articolo dettagliato di Anand è chiarissimo in proposito.
In particolare, dall'ultimo link:
"There's a difference between making a derivative microprocessor architecture and not re-inventing the wheel; we've already established that Banias is significantly different from the Pentium III, but the Israel design team didn't just synthesize the CPU from scratch in order to be genuinely different than the Pentium III."
Il fatto che Banias fosse partito dal P3 non vuol dire proprio nulla, viste tutte le modifiche effettuate. Come già detto, è stato la base di partenza, ma l'architettura che è stata realizzata è ben diversa, come attesta Anand, e come può constatare chiunque andando a verificare le differenze fra le due architetture.
E nessuno oggi direbbe per un Atom (o Larrabee; tanto è uguale il discorso) che "tecnicamente quindi è la linea di core su cui era basato (anche) il Pentium ad essere uscita prima" per giustificare una primogenitura dei Pentium rispetto agli altri processori di Intel presenti nel mercato quando è uscito l'Atom, appunto...
Peraltro nel pezzo di Anand nemmeno si parla di Tualatin, che potrebbe benissimo essere stato portato avanti mentre Banias veniva sviluppato nel frattempo.
Infatti (guardacaso) il Pentium III Tualatin per notebook restò in produzione fino al 2003 per essere poi sostituito da Pentium M.
Questo mi sembra a dir poco lapalissiano, visto che Banias era nato proprio per questo mercato, e ovviamente aveva caratteristiche migliori in tutto rispetto al prodotto che andava a sostituire in quel momento...
Concludendo, prendo in prestito le faccine che hai usato: :rolleyes: :rolleyes: :rolleyes: :read: :read: :read:
OK, tagliamo la testa al toro. Ecco qui un bel po' di link a proposito riguardo ai primi anni del 2000:
http://www.hwupgrade.it/news/cpu/quote-di-mercato-per-le-cpu-nel-2001_5466.html
http://www.hwupgrade.it/news/cpu/quote-di-mercato-intel-e-amd_9245.html
http://www.hwupgrade.it/news/cpu/situazione-del-mercato-x86_11161.html
http://www.hwupgrade.it/news/cpu/quote-di-mercato-per-intel-e-amd-nel-1-trimestre-2004_12281.html
http://www.hwupgrade.it/news/cpu/processori-x86-intel-cresce-amd-anche_13959.html
http://www.hwupgrade.it/news/portatili/lentamente-amd-guadagna-quote-di-mercato_14593.html
Il primo link è indicativo. Mi spiegherai come avrà fatto AMD ad AUMENTARE NETTAMENTE le sue quote di mercato nella sua miserevole situazione, visto che, parole tue:
"non aveva la capacità produttiva per coprire i quantitativi di cpu x86 richiesti dal mercato"
Se ci fai caso, gli articoli che hai linkato dicono che Intel non è mai scesa al di sotto del 70% delle vendite di cpu x86, nel periodo d'oro di AMD ad un certo punto questa si mise ad aumentare i prezzi proprio perchè non poteva spingersi oltre con la produzione.
Chissà come avranno fatto i venture capitalist che hanno investito in Globalfoundries, con le fabbriche che costano adesso di gran lunga di più rispetto a una dozzina di anni fa.
Forse ti sfugge il fatto che AMD ha venduto le sue fab a Globalfoundries e che questa fa tutta produzione per conto terzi (inclusa AMD).
In altre parole Globalfoundries non è in diretta competizione con Intel, si rivolge ad un mercato più vasto (tra i suoi clienti ha STMicroelectronics, Freescale, Qualcomm, ecc.) e può usare i processi produttivi "non più di ultima generazione" per produrre altri chip per roba embedded ecc. e farli fruttare molto più a lungo prima di rivendere i macchinari o dismetterli totalmente.
Anche per il resto del tuo messaggio, tagliamo la testa al toro. Riporto una serie di link alle pagine dell'articolo di Anandtech che analizzò dettagliatamente la nuova piattaforma Centrino:
http://www.anandtech.com/show/1083/2
http://www.anandtech.com/show/1083/3
http://www.anandtech.com/show/1083/4
http://www.anandtech.com/show/1083/5
E adesso passiamo a quello che hai scritto in proposito, alla luce del pezzo di Anand.
Dal primo link:
"The design team looked at the Pentium 4's architecture and quickly concluded that it wouldn't be appropriate for a mobile microprocessor. An extremely long pipeline for a CPU designed to run at very high frequencies was not conducive to building a processor that could run within a 24W power envelope. There were some features that they could borrow from the Pentium 4, but for the most part, the NetBurst architecture was not one that could be considered as the basis for the CPU that would end up known internally as Banias."
Quindi è totalmente falso che Pentium 4 e Banias fossero stati sviluppati nello stesso periodo.
Come ti avevo già spiegato, il primo è stato tenuto in vita finché il secondo è riuscito a sostituirlo anche nel mercato desktop.
Per il resto vedi sopra: no, le due cose non sono affatto collegate.
Il P3 è stato soltanto il punto di partenza. L'articolo dettagliato di Anand è chiarissimo in proposito.
In particolare, dall'ultimo link:
"There's a difference between making a derivative microprocessor architecture and not re-inventing the wheel; we've already established that Banias is significantly different from the Pentium III, but the Israel design team didn't just synthesize the CPU from scratch in order to be genuinely different than the Pentium III."
Il fatto che Banias fosse partito dal P3 non vuol dire proprio nulla, viste tutte le modifiche effettuate. Come già detto, è stato la base di partenza, ma l'architettura che è stata realizzata è ben diversa, come attesta Anand, e come può constatare chiunque andando a verificare le differenze fra le due architetture.
E nessuno oggi direbbe per un Atom (o Larrabee; tanto è uguale il discorso) che "tecnicamente quindi è la linea di core su cui era basato (anche) il Pentium ad essere uscita prima" per giustificare una primogenitura dei Pentium rispetto agli altri processori di Intel presenti nel mercato quando è uscito l'Atom, appunto...
Peraltro nel pezzo di Anand nemmeno si parla di Tualatin, che potrebbe benissimo essere stato portato avanti mentre Banias veniva sviluppato nel frattempo.
Questo mi sembra a dir poco lapalissiano, visto che Banias era nato proprio per questo mercato, e ovviamente aveva caratteristiche migliori in tutto rispetto al prodotto che andava a sostituire in quel momento...
Il tuo ragionamento funzionerebbe se non fosse per il piccolo dettaglio che le nuove cpu non si materializzano automagicamente il giorno in cui inizia la produzione in grandi quantitativi. ;)
Hai presente da quanti ANNI il team statunitense di Intel stava lavorando alle tecnologie ed all'architettura di quello che poi è diventano Pentium 4 ?
E' ovvio che anche il team israeliano del Pentium M avesse informazioni su di esso mentra era in fase di progettazione prima ed implementazione poi, come pure il team statunitense aveva informazioni sul Pentium M.
Buona parte delle peculiarità del Pentium 4 derivano da R&D relativo a multithreading ed ottimizzazione delle cpu superscalari portato avanti ... sperando che le tecnologie produttive fossero pronte in tempo. :stordita:
Circa nel 1995..2000 c'era parecchia ricerca su come ultra-ottimizzare codice eseguito su cpu VLIW e cpu superscalari con pipeline "lunghe".
Se non ci credi, cerca ad esempio con google "trailblazing percolation scheduling" per vedere che idee giravano in proposito.
Da parte di Intel, Itanium fu lo sviluppo in termini di cpu VLIW di tali idee, mentre il Pentium 4 ne fu lo sviluppo in termini di cpu superscalare.
Il team israeliano invece vide dove si andava a parare e concluse che avrebbe scaldato a bestia e conveniva procedere con un evoluzione del modello superscalare dei Pentium III.
Ma ovviamente quel che sembra funzionare sulla carta o su prototipi su cui viene fatto girare software compilato ad hoc, bisogna vedere come poi si comporta in un implementazione reale su cui far girare una gamma più ampia di software.
Il core Pentium 4 "Willamette" fu fatto uscire con troppa poca cache L2
e a 180nm proprio a causa dell' "ottimismo" in tal senso di Intel e scaldava a bestia.
E l'hyperthreading e cache L2 finalmente decenti arrivarono solo con il successivo "Northwood" a 130nm.
Per il Pentium M invece si attese la disponibilità dei 130nm e si presero pure tutto il tempo necessario per ottimizzare il layout circuitale per evitare che scaldasse troppo (e questo sarebbe stato una sentenza di morte per una cpu pensata espressamente per quelli che allora erano notebook a basso consumo).
Infatti per la messa a punto del processo a 130nm per cpu "per notebook a basso consumo" fu prima prodotto uno shrink del Pentium III (il Tualatin) e solo dopo arrivò il Pentium M.
Era il classico "tic toc" di Intel, ovvero prima fai uno shrink del core precedente e poi per lo stesso processo testato con lo shrink produci la nuova generazione.
Quindi per le cpu per notebook Intel attuò il "Tic" con Pentium III Tualatin e "Toc" con Pentium M. :read:
"Tic" Pentium III e "Toc" Pentium M,
NON
"Tic" Pentium 4 e "Toc" Pentium M. ;)
Infatti la linea Pentium 4 andava avanti in parallelo alla linea "mobile" ed a causa delle rivalità tra i team ci fu pure il tentativo di proporre dei "Pentium 4 Mobile" (i Pentium 4-M) che più che "mobile" erano "desktop replacement che non va troppo spesso in throttling termico". :muro:
cdimauro
23-12-2013, 08:58
Se ci fai caso, gli articoli che hai linkato dicono che Intel non è mai scesa al di sotto del 70% delle vendite di cpu x86, nel periodo d'oro di AMD ad un certo punto questa si mise ad aumentare i prezzi proprio perchè non poteva spingersi oltre con la produzione.
Li ho letti, li ho letti tutti. Ma AMD nel primo periodo ebbene un'ascesa notevole, e riuscì a guadagnare quote di mercato consistenti. Qui c'è poco da dire: o hai le capacità produttive, oppure rimani confinato nel tuo recinto.
Nel momento in cui hai guadagnato tanto e continui a guadagnare, se vai in shortage aumenti i prezzi e se te la senti amplii le tue capacità produttive (ma di questo ne ho parlato dopo).
Forse ti sfugge il fatto che AMD ha venduto le sue fab a Globalfoundries e che questa fa tutta produzione per conto terzi (inclusa AMD).
In altre parole Globalfoundries non è in diretta competizione con Intel, si rivolge ad un mercato più vasto (tra i suoi clienti ha STMicroelectronics, Freescale, Qualcomm, ecc.) e può usare i processi produttivi "non più di ultima generazione" per produrre altri chip per roba embedded ecc. e farli fruttare molto più a lungo prima di rivendere i macchinari o dismetterli totalmente.
Brutto periodo per i tori:
http://www.hwupgrade.it/news/cpu/amd-divisa-in-due-societa-alcuni-approfondimenti_26757.html
http://www.hwupgrade.it/news/cpu/amd-rivede-la-partecipazione-in-the-foundry-company_27416.html
http://www.businessmagazine.it/news/the-foundry-company-i-soci-approvano_28098.html
http://www.hwupgrade.it/news/cpu/effettivo-da-domani-lo-spin-off-di-amd_28207.html
http://www.businessmagazine.it/news/globalfoundries-e-il-braccio-produttivo-di-amd_28259.html
http://www.hwupgrade.it/news/cpu/globalfoundries-processo-bulk-a-32nm-entro-la-fine-dell-anno_28463.html
http://www.businessmagazine.it/news/globalfoundries-prepara-la-propria-strategia_28506.html
Sinteticamente:
1) il partner commerciale di AMD, ATI Co., già alla costituzione di The Foundry Company deteneva la maggior parte del pacchetto azionario;
2) inizialmente tutta la capacità produttiva era rivolta a soddisfare AMD;
3) erano previsti (e furono poi stanziati i fondi) investimenti per ampliare la catena produttiva;
4) i processi produttivi su cui ha puntava (e ha puntato) la nuova azienda NON erano quelli più vecchi, ma quelli più nuovi per mettersi in competizione con TSMC & co.;
5) no, non puntavano al settore embedded / economico, ma a partner di prestigio e con richieste di ben altra caratura.
E questo nel 2008. Otto anni prima l'operazione sarebbe costata decisamente meno, come già detto.
Il tuo ragionamento funzionerebbe se non fosse per il piccolo dettaglio che le nuove cpu non si materializzano automagicamente il giorno in cui inizia la produzione in grandi quantitativi. ;)
Le grandi quantità non sono condizione necessaria alla messa in produzione. Ovviamente questa è la speranza di chi realizza i prodotti, ma sappiamo che non sempre ciò si verifica, e inizialmente ci possono essere shortage di produzione. Scenario non certo raro, peraltro.
Hai presente da quanti ANNI il team statunitense di Intel stava lavorando alle tecnologie ed all'architettura di quello che poi è diventano Pentium 4 ?
Ho perfettamente presente, ma mi spiego meglio dopo.
E' ovvio che anche il team israeliano del Pentium M avesse informazioni su di esso mentra era in fase di progettazione prima ed implementazione poi, come pure il team statunitense aveva informazioni sul Pentium M.
Se avessi letto il pezzo di Anand avresti compreso che le cose non sono andate così. Riporto alcune parti, sempre per fare la festa ai tori:
"The face of mobile computing actually changed a little over three years ago, when Intel announced a chip they were working on called Timna.
[...]
At the core, Timna was based directly on Intel's Pentium III
[...]
Much of the technology and cost saving techniques that were developed in Israel for Timna ended up being used by other groups at Intel in everything from desktop to server CPUs, so even the Pentium 4s we've got today have a little bit of Timna in them.
[...]
Timna was to feature an integrated memory controller, but at the time it was on the drawing board Intel still had delusions of grandeur about RDRAM being the future of all memory technology by 2001. The high price of RDRAM coupled with the lack of demand for such a low cost chip (OEMs weren't too happy with nonexistent profit margins on sub-$600 PCs), led to pulling the plug on Timna just after the chip was completed.
[...]
Things were so bad for the Israel design team that when they were immediately summoned to begin work on a dedicated mobile processor
[...]
the Timna team didn't spend too much time mourning their loss and quickly began work on designing Intel's first truly mobile processor.
[...]
The design team looked at the Pentium 4's architecture and quickly concluded that it wouldn't be appropriate for a mobile microprocessor.
[...]
There were some features that they could borrow from the Pentium 4, but for the most part, the NetBurst architecture was not one that could be considered as the basis for the CPU that would end up known internally as Banias.
[...]
What was born out of Timna's ashes and the extreme dedication/talent of Intel's Israel design team was a processor that can easily be classified as a Pentium III with a Pentium 4 bus, but wrongly so. What Banias ended up being, was the most interesting microprocessor architecture that we've ever seen…
[...]
If you're picking up on the fact that Banias is significantly different from the Pentium III, then you're on the right track…
[...]
we've already established that Banias is significantly different from the Pentium III"
Penso che sia abbastanza chiaro, no? Ma procediamo con ordine:
1) Timna è stata la base di partenza per Banias;
2) Timna è un progetto che è iniziato ben prima del debutto del Pentium 4; il primo annuncio pubblico è del 1999 (anno in cui è stato commercializzato il Pentium III), quindi vuol dire che Intel ci lavorava già da qualche anno prima (presumibilmente nello stesso periodo in cui lavorava già al P3);
3) anche se il prodotto era finito, Timna è stato cancellato a fine settembre del 2000;
4) il team che si occupava di Timna è POI passato a lavorare a Banias;
5) il team di Banias ha analizzato le caratteristiche del P4 e ne ha prese in prestito alcune (il bus);
6) il P4 è stato commercializzato a novembre del 2000.
Dunque non ci sono gli estremi per sostenere la tua tesi, visto che Banias aveva ben altre radici. Inoltre quando è INIZIATA la lavorazione di Banias il P4 era già bello che pronto. Infatti è stato commercializzato a meno di 2 mesi dalla chiusura del progetto Timna...
Tra l'altro è interessante notare come Timna integrasse già sia il memory controller sia la GPU. E per fortuna che Intel non innova...
Buona parte delle peculiarità del Pentium 4 derivano da R&D relativo a multithreading ed ottimizzazione delle cpu superscalari portato avanti ... sperando che le tecnologie produttive fossero pronte in tempo. :stordita:
Circa nel 1995..2000 c'era parecchia ricerca su come ultra-ottimizzare codice eseguito su cpu VLIW e cpu superscalari con pipeline "lunghe".
Se non ci credi, cerca ad esempio con google "trailblazing percolation scheduling" per vedere che idee giravano in proposito.
Da parte di Intel, Itanium fu lo sviluppo in termini di cpu VLIW di tali idee, mentre il Pentium 4 ne fu lo sviluppo in termini di cpu superscalare.
Sì, ne sono a conoscenza, ma tutto questo non c'entra con Banias. Vedi sopra.
Il team israeliano invece vide dove si andava a parare e concluse che avrebbe scaldato a bestia e conveniva procedere con un evoluzione del modello superscalare dei Pentium III.
Ma ovviamente quel che sembra funzionare sulla carta o su prototipi su cui viene fatto girare software compilato ad hoc, bisogna vedere come poi si comporta in un implementazione reale su cui far girare una gamma più ampia di software.
Vedi sopra: il P4 era già finito quando hanno iniziato a lavorare a Banias, per cui potevano già toccarne con mano gli effetti. Né carta né prototipi, quindi.
Il core Pentium 4 "Willamette" fu fatto uscire con troppa poca cache L2
e a 180nm proprio a causa dell' "ottimismo" in tal senso di Intel e scaldava a bestia.
E l'hyperthreading e cache L2 finalmente decenti arrivarono solo con il successivo "Northwood" a 130nm.
OK, ma con ciò? Banias è partito DOPO che il P4 era già stato completato, e quando Intel ha prodotto le altre versione del P4, Banias era già (e ancora) in lavorazione...
Per il Pentium M invece si attese la disponibilità dei 130nm e si presero pure tutto il tempo necessario per ottimizzare il layout circuitale per evitare che scaldasse troppo (e questo sarebbe stato una sentenza di morte per una cpu pensata espressamente per quelli che allora erano notebook a basso consumo).
Veramente il processo a 130nm fu introdotto da Intel già nel 2001: due anni prima che uscisse Banias, che all'epoca era ancora alacremente in lavorazione. Quindi è ovvio che quando questo processore è stato poi commercializzato fosse basato su questo processo produttivo (peraltro già vecchio).
Infatti per la messa a punto del processo a 130nm per cpu "per notebook a basso consumo" fu prima prodotto uno shrink del Pentium III (il Tualatin) e solo dopo arrivò il Pentium M.
Com'è ovvio che sia, ma per una mera questione temporale. Infatti Banias uscì 2 anni dopo: era scontato che utilizzasse il processo a 130nm, come tutti i prodotti Intel. Infatti anche il P4 lo adottò un anno dopo la presentazione di Tualatin. Non ci fu certo bisogno di aspettare quest'ultimo per Banias, perché altrimenti Intel avrebbe potuto benissimo presentare Banias nello stesso periodo in cui sfornò Northwood, no? In realtà Banias non era pronto, ma ancora in lavorazione.
Era il classico "tic toc" di Intel, ovvero prima fai uno shrink del core precedente e poi per lo stesso processo testato con lo shrink produci la nuova generazione.
Quindi per le cpu per notebook Intel attuò il "Tic" con Pentium III Tualatin e "Toc" con Pentium M. :read:
"Tic" Pentium III e "Toc" Pentium M,
NON
"Tic" Pentium 4 e "Toc" Pentium M. ;)
Il Tick / Tock risale a un bel po' di anni dopo. In precedenza Intel ha introdotto innovazioni assieme alla presentazione di un nuovo processo produttivo.
I P4, come pure il successore di Banias, Dothan, dimostrano in maniera chiara come Intel NON seguisse il Tick / Tock sia prima che dopo la commercializzazione di Banias.
Per cui, ancora no: la tua tesi di una primogenitura di Tualatin viene a cadere. D'altra parte non c'è neppure alcuna traccia che indichi che Banias fosse basato o avesse preso qualcosa da Tualatin...
Infatti la linea Pentium 4 andava avanti in parallelo alla linea "mobile" ed a causa delle rivalità tra i team ci fu pure il tentativo di proporre dei "Pentium 4 Mobile" (i Pentium 4-M) che più che "mobile" erano "desktop replacement che non va troppo spesso in throttling termico". :muro:
Ne ho uno nel mio vecchio ThinkPad R40, ma I P4-M non giravano certo a frequenze elevate, proprio per evitare eccessivi surriscaldamenti nonché consumi troppo elevati.
Comunque non sono a conoscenza di rivalità fra i due team.
Li ho letti, li ho letti tutti. Ma AMD nel primo periodo ebbene un'ascesa notevole, e riuscì a guadagnare quote di mercato consistenti. Qui c'è poco da dire: o hai le capacità produttive, oppure rimani confinato nel tuo recinto.
E ti avevo spiegato come mai a causa della posizione di predominio massiccio di Intel quella non era una strada percorribile da AMD se non molto lentamente ed in molti anni, sperando di non fare nessun passo falso.
Nel momento in cui hai guadagnato tanto e continui a guadagnare, se vai in shortage aumenti i prezzi e se te la senti amplii le tue capacità produttive (ma di questo ne ho parlato dopo).
Ai produttori di PC interessava solo vendere i loro prodotti, se AMD non gli poteva fornire le cpu nei quantitativi voluti o se alzava troppo il prezzo, semplicemente acquistavano da Intel.
Questo a causa della posizione di predominio di Intel, che anche se non aveva il top come cpu compensava la cosa con offerte cpu+chipset ai produttori, con tanta pubblicità presso il grande pubblico, ecc. ecc.
Questo perchè aveva sufficienti risorse finanziarie per farlo mentre AMD non poteva fare uno sforzo finanziario equivalente.
4) i processi produttivi su cui ha puntava (e ha puntato) la nuova azienda NON erano quelli più vecchi, ma quelli più nuovi per mettersi in competizione con TSMC & co.;
5) no, non puntavano al settore embedded / economico, ma a partner di prestigio e con richieste di ben altra caratura.
Ma al tempo stesso può far fruttare meglio e più a lungo gli impianti "vecchi" in modo da avere una miglior redditività.
Non si parla solo di cpu e Soc e nel settore embedded ed automotive c'è parecchia roba che può essere prodotta molto più a lungo con le tecnologie "vecchie".
E questo nel 2008. Otto anni prima l'operazione sarebbe costata decisamente meno, come già detto.
Otto anni prima non c'era un mercato fabless o un outsourcing della produzione sufficientemente ampio ed anche Globalfoundries non è che sia nata così spontaneamente, se non c'erano gli investitori arabi con i petrodollari dubito che lo scorporo sarebbe stato possibile.
Penso che sia abbastanza chiaro, no? Ma procediamo con ordine:
1) Timna è stata la base di partenza per Banias;
2) Timna è un progetto che è iniziato ben prima del debutto del Pentium 4; il primo annuncio pubblico è del 1999 (anno in cui è stato commercializzato il Pentium III), quindi vuol dire che Intel ci lavorava già da qualche anno prima (presumibilmente nello stesso periodo in cui lavorava già al P3);
3) anche se il prodotto era finito, Timna è stato cancellato a fine settembre del 2000;
4) il team che si occupava di Timna è POI passato a lavorare a Banias;
5) il team di Banias ha analizzato le caratteristiche del P4 e ne ha prese in prestito alcune (il bus);
6) il P4 è stato commercializzato a novembre del 2000.
Dunque non ci sono gli estremi per sostenere la tua tesi, visto che Banias aveva ben altre radici. Inoltre quando è INIZIATA la lavorazione di Banias il P4 era già bello che pronto. Infatti è stato commercializzato a meno di 2 mesi dalla chiusura del progetto Timna...
Tra l'altro è interessante notare come Timna integrasse già sia il memory controller sia la GPU. E per fortuna che Intel non innova...
Sì, ne sono a conoscenza, ma tutto questo non c'entra con Banias. Vedi sopra.
Vedi sopra: il P4 era già finito quando hanno iniziato a lavorare a Banias, per cui potevano già toccarne con mano gli effetti. Né carta né prototipi, quindi.
OK, ma con ciò? Banias è partito DOPO che il P4 era già stato completato, e quando Intel ha prodotto le altre versione del P4, Banias era già (e ancora) in lavorazione...
E come ti spieghi questi ?
http://www.theregister.co.uk/2007/02/06/forgotten_tech_intel_timna?page=1
http://www.theregister.co.uk/2007/02/06/forgotten_tech_intel_timna?page=2
http://www.cpu-world.com/CPUs/Timna/
http://www.bloomberg.com/apps/news?pid=newsarchive&sid=a2mgYutwVFnM
In particolare
In Haifa, Rony Friedman was working on a chip for low-cost computers. It was slower than Intel's existing lineup -- but it put out less heat. The chip divided up instructions into parts and carried out the instructions in tandem. The design allowed the chip to run software faster and use less power.
The Israelis thought they'd hit the jackpot. Intel didn't. Otellini canceled the project because the chip worked with a special kind of memory that was too expensive.
``We weren't the mainstream,'' says Friedman, seated in his office in the Haifa design center, about a half hour from Technion. The center is a smaller version of Intel's Santa Clara headquarters down to its rows of gray fabric-lined cubicles.
``At the time, frequency was king,'' Friedman says, referring to clock speed. ``We were on the outside.''
Argue to Death
The trick was to persuade the rest of Intel that the company could sell a slower processor to consumers and PC makers. Winning over Otellini, then head of the chip division, proved a turning point.
``We did it the Israeli way; we argued our case to death,'' Eden recalls. ``You know what an exchange of opinions is in Israel? You come to the meeting with your opinion, and you leave with mine.''
The Israelis' new chip, named Banias after a river in northern Galilee, got a break with Intel's push into notebook computers.
Nei link sopra dicono che essenzialmente Timna a 180nm doveva essere un chip "low cost" con chip grafico e memory controller integrato progettato per usare la RDRAM.
Solo che per varie ragioni RDRAM non fu accettata dal mercato e ne MTH e ne un nuovo memory controller integrato per SDRAM erano soluzioni soddisfacenti.
Risultato: lo stesso team viene dirottato a sviluppare il Banias a 130nm, la cpu "per notebook" che obbligatoriamente deve usare lo stesso FSB del Pentium 4, ma anche se si perdono GC ed MC in compenso la nuova cpu può essere più costosa ( e verrà implementata a 130nm) quindi il team israeliano può reimplementare cose che nel Timna erano state implementate in modo più "economico" o non implementate affatto (ma il modello "alto IPC per ciclo di clock" rimane invariato).
Il Banias era essenzialmente "il Timna alleggerito di GC ed MC integrati e pompato con gli steroidi" ed a sua volta Timna era derivato dai P6, in pratica l'unica cosa in comune con il Pentium 4 era il FSB (perchè dovevano essere compatibili con gli stessi chipset) mentre l'elemento più rilevante del core, ovvero il modello architetturale superscalare che spinge sul microparallelismo ad IPC elevato invece che sulla frequenza di clock era già stato "congelato" durante lo sviluppo del Timna.
Quindi, si, mi ero confuso riguardo l'origine del Banias (stavo andando a memoria su cose del 2000..2003) ma la sua architettura a livello di core non ha per niente preso ispirazione dal Pentium 4.
Il Tick / Tock risale a un bel po' di anni dopo. In precedenza Intel ha introdotto innovazioni assieme alla presentazione di un nuovo processo produttivo.
I P4, come pure il successore di Banias, Dothan, dimostrano in maniera chiara come Intel NON seguisse il Tick / Tock sia prima che dopo la commercializzazione di Banias.
Dothan era essenzialmente un Banias implementato a 90nm con la cache L2 raddoppiata.
Era essenzialmente il tick a 90nm del Banias.
Non è il "tick tock" ufficialmente definito più rigorosamente in seguito, ma come minimo lo schema di fatto è quello.
Comunque non sono a conoscenza di rivalità fra i due team.
Tipo cose come il team statunitense incaricato dello sviluppo della cpu di punta che con il Pentium 4-M tentò di pucciare il biscotto nel settore di competenza del team israeliano ? ;)
O di come poi con la sconfitta dell' approccio "alta frequenza di clock" del team americano, il team israeliano "alto IPC" ha preso il controllo dello sviluppo delle cpu di punta successive ?
cdimauro
05-01-2014, 15:03
Causa vacanze e malattia, trovo soltanto adesso il tempo per rispondere.
E ti avevo spiegato come mai a causa della posizione di predominio massiccio di Intel quella non era una strada percorribile da AMD se non molto lentamente ed in molti anni, sperando di non fare nessun passo falso.
Fermiamoci un attimo. In precedenza avevi scritto questo: "non aveva la capacità produttiva per coprire i quantitativi di cpu x86 richiesti dal mercato".
Alla luce dei dati che ho riportato, e che dimostrano che AMD guadagnò notevoli quote di mercato (ovviamente a danno di Intel), vuol dire che, al contrario, AMD ebbe la capacità produttiva per far fronte al successo dei suoi prodotti.
Non sappiamo se a un certo punto arrivò a esaurire tale capacità, ed è per questo che avevo chiesto dati, mai pervenuti, su eventuali shortage.
Poi possiamo anche speculare (altro non si può, in assenza di dati) che fosse arrivata a saturare le sue linee produttive, e allora è lecito pensare che ciò abbia portato l'azienda, nell'immediato, ad aumentare i prezzi dei suoi prodotti. Anche di questo, però, dovrebbero essere possibile reperire di dati, che però... mancano.
Per finire, a seguito di shortage, o comunque anche in previsione di shortage, AMD poteva giocarsi la carta di ampliare la capacità produttiva. Anche di ciò, però, mancano dati / notizie /rumor a riguardo.
Questi, dunque, i FATTI e la ricostruzione del discorso che si stava facendo. Proseguiamo, dunque, sempre sulla scia delle speculazioni.
Ai produttori di PC interessava solo vendere i loro prodotti, se AMD non gli poteva fornire le cpu nei quantitativi voluti o se alzava troppo il prezzo, semplicemente acquistavano da Intel.
Questo a causa della posizione di predominio di Intel, che anche se non aveva il top come cpu compensava la cosa con offerte cpu+chipset ai produttori, con tanta pubblicità presso il grande pubblico, ecc. ecc.
Questo perchè aveva sufficienti risorse finanziarie per farlo mentre AMD non poteva fare uno sforzo finanziario equivalente.
SE AMD fosse stata in quelle condizioni, avrebbe provveduto a un sistematico aumento dei prezzi. E avrebbe anche potuto ampliare la sua catena produttiva cercando investitori, come farà, appunto, qualche anno più tardi.
Ma senza dati a supporto si ricade, anzi si continua, nel campo delle speculazioni...
Ma al tempo stesso può far fruttare meglio e più a lungo gli impianti "vecchi" in modo da avere una miglior redditività.
Non si parla solo di cpu e Soc e nel settore embedded ed automotive c'è parecchia roba che può essere prodotta molto più a lungo con le tecnologie "vecchie".
Certamente, però i piani all'epoca erano ben diversi, come riportano copiosamente le fonti che ho fornito.
Otto anni prima non c'era un mercato fabless o un outsourcing della produzione sufficientemente ampio ed anche Globalfoundries non è che sia nata così spontaneamente, se non c'erano gli investitori arabi con i petrodollari dubito che lo scorporo sarebbe stato possibile.
Quelli ci sono sempre stati. Comunque 8 anni prima non serviva l'outsourcing, ma ampliare la capacità produttiva di AMD: tanto bastava per gli investitori, visti anche i numeri di AMD. E, ribadisco, l'investimento sarebbe stato anche nettamente inferiore.
E come ti spieghi questi ?
http://www.theregister.co.uk/2007/02/06/forgotten_tech_intel_timna?page=1
http://www.theregister.co.uk/2007/02/06/forgotten_tech_intel_timna?page=2
http://www.cpu-world.com/CPUs/Timna/
Non ho nulla da spiegare, visto che confermano quello che avevo detto. ;)
http://www.bloomberg.com/apps/news?pid=newsarchive&sid=a2mgYutwVFnM
In particolare
Nei link sopra dicono che essenzialmente Timna a 180nm doveva essere un chip "low cost" con chip grafico e memory controller integrato progettato per usare la RDRAM.
Roba "poco evoluta" per l'epoca insomma. Sono cose AMD che farà soltanto una decade dopo, ma sono dettagli irrilevanti, no? :fagiano:
Solo che per varie ragioni RDRAM non fu accettata dal mercato
Le ragioni erano semplici: costi spropositati. Uniti, ma in minor misura, a latenze troppo elevate.
e ne MTH e ne un nuovo memory controller integrato per SDRAM erano soluzioni soddisfacenti.
In realtà il nuovo MC era bacato, per cui di fatto inutilizzabile.
Risultato: lo stesso team viene dirottato a sviluppare il Banias a 130nm, la cpu "per notebook" che obbligatoriamente deve usare lo stesso FSB del Pentium 4, ma anche se si perdono GC ed MC in compenso la nuova cpu può essere più costosa ( e verrà implementata a 130nm) quindi il team israeliano può reimplementare cose che nel Timna erano state implementate in modo più "economico" o non implementate affatto (ma il modello "alto IPC per ciclo di clock" rimane invariato).
Fin qui concordo.
Il Banias era essenzialmente "il Timna alleggerito di GC ed MC integrati e pompato con gli steroidi"
In realtà sono partiti da Timna, ma sono arrivati a una soluzione diversa: più complessa, ma più prestante ed efficiente.
ed a sua volta Timna era derivato dai P6, in pratica l'unica cosa in comune con il Pentium 4 era il FSB (perchè dovevano essere compatibili con gli stessi chipset) mentre l'elemento più rilevante del core, ovvero il modello architetturale superscalare che spinge sul microparallelismo ad IPC elevato invece che sulla frequenza di clock era già stato "congelato" durante lo sviluppo del Timna.
Quindi, si, mi ero confuso riguardo l'origine del Banias (stavo andando a memoria su cose del 2000..2003) ma la sua architettura a livello di core non ha per niente preso ispirazione dal Pentium 4.
Mai detto questo, infatti. L'unica cosa che ho scritto a chiare lettere è che presero il bus del P4.
Dothan era essenzialmente un Banias implementato a 90nm con la cache L2 raddoppiata.
Era essenzialmente il tick a 90nm del Banias.
Non è il "tick tock" ufficialmente definito più rigorosamente in seguito, ma come minimo lo schema di fatto è quello.
E' chiaro che non ci si poteva aspettare la rivoluzione che ci fu con Banias, ma Dothan, oltre al raddoppio della cache (cosa non da poco, specialmente per come funzionava Banias), portava qualcosa d'interessante (http://www.hardwarezone.com/articles/view.php?cid=14&id=1106&pg=3), specialmente considerando come funzionava l'architettura x86.
Non ci sono, comunque, gli estremi per poter parlare di tick-tock, al pari dei P4 che hanno cambiato processo produttivo, in maniera similare.
Tipo cose come il team statunitense incaricato dello sviluppo della cpu di punta che con il Pentium 4-M tentò di pucciare il biscotto nel settore di competenza del team israeliano ? ;)
Cioé? A cosa ti riferisci esattamente? Perché sinceramente non ho colto la citazione. :stordita:
O di come poi con la sconfitta dell' approccio "alta frequenza di clock" del team americano, il team israeliano "alto IPC" ha preso il controllo dello sviluppo delle cpu di punta successive ?
Questo mi pare naturale: fallito un progetto, si va avanti con quello vincente. Non c'era un "piano di rivalsa", insomma.
Fermiamoci un attimo. In precedenza avevi scritto questo: "non aveva la capacità produttiva per coprire i quantitativi di cpu x86 richiesti dal mercato".
Alla luce dei dati che ho riportato, e che dimostrano che AMD guadagnò notevoli quote di mercato (ovviamente a danno di Intel), vuol dire che, al contrario, AMD ebbe la capacità produttiva per far fronte al successo dei suoi prodotti.
Intel aveva più fab di AMD, si o no ? ;)
Secondo te investivano soldi con ANNI di anticipo per costruire più fab giusto per il gusto di farlo ?
Proprio per gli investimenti già fatti, Intel era comunque in grado di coprire il 100% del mercato anche nello step tecnologico successivo, mentre AMD non aveva la liquidità ed il tempo per fare altrettanto nonostante gli Athlon vendessero bene in quel momento.
Cioé? A cosa ti riferisci esattamente? Perché sinceramente non ho colto la citazione. :stordita:
Pentium 4-M.
Questo mi pare naturale: fallito un progetto, si va avanti con quello vincente. Non c'era un "piano di rivalsa", insomma.
Non ho mai scritto rivalsa. Solo di rivalità.
E per solite ragioni visto che come già detto, il gruppo di sviluppo del P4 venne di fatto sbandato mentre quelli del gruppo di sviluppo del Pentium-M presero le redini dello sviluppo delle generazioni successive.
cdimauro
06-01-2014, 06:36
Intel aveva più fab di AMD, si o no ? ;)
Secondo te investivano soldi con ANNI di anticipo per costruire più fab giusto per il gusto di farlo ?
Proprio per gli investimenti già fatti, Intel era comunque in grado di coprire il 100% del mercato anche nello step tecnologico successivo, mentre AMD non aveva la liquidità ed il tempo per fare altrettanto nonostante gli Athlon vendessero bene in quel momento.
Intel e AMD avevano e hanno all'incirca lo stesso modus operandi, per cui investivano in nuove fabbriche sulla base di una politica di rinnovamento o di ampliamento della loro capacità produttiva. Ovviamente il tutto era ed è commisurato alla propria capacità produttiva o alle previsioni.
Faccio presente, comunque, che AMD non era un nano, come si è cercato di far passare in questo thread. E' una realtà più piccola di Intel, ma comunque di un certo spessore e importante, che s'è dedicata pure a settori diversi (uno su tutti: la sua linea di processori RISC 29K, che praticamente monopolizzava il mercato delle stampanti tempo fa), e dunque aveva bisogno di capacità produttiva non soltanto per la sua linea di cloni x86. Dunque più piccola sì, ma nano certamente no.
Ciò precisato, è vero che, a fronte di un improvviso aumento della domanda, ci vuole tempo per programmare un aumento delle fabbriche. Sarebbe da folli negarlo. Ma il punto su cui finora stiamo dibattendo è: ne ebbe realmente bisogno?
I dati raccolti sono i seguenti:
- AMD aumenta velocemente le sue quote di mercato, e riesce a soddisfare la domanda;
- non ci sono notizie di shortage;
- non ci sono notizie di aumento di prezzi;
- non ci sono notizie di costruzioni di nuove fabbriche.
Questi dati, ovviamente, sono correlati, per come ho esposto nel precedente messaggio.
Se si vuol sostenere la tesi che AMD non fu in grado di conquistare più quote di mercato causa mancanza di adeguata capacità produttiva, per almeno una delle ultime tre bisognerebbe recuperare delle notizie. Tutto qui. ;)
Pentium 4-M.
OK, adesso ho colto. Non so perché, ieri m'era sfuggito. Bah. :stordita:
In questo caso non c'era nessuna rivalità col team di Banias, perché il Pentium 4-M è precedente a esso. Fu rilasciato, infatti, ben un anno prima.
Non ho mai scritto rivalsa. Solo di rivalità.
E per solite ragioni visto che come già detto, il gruppo di sviluppo del P4 venne di fatto sbandato mentre quelli del gruppo di sviluppo del Pentium-M presero le redini dello sviluppo delle generazioni successive.
Considera che già da parecchi anni ci sono team diversi in seno a Intel che lavorano a microarchitetture diverse, come abbiamo visto ampiamente anche in questi ultimi anni.
Non c'è rivalità in ciò, ma semplicemente si lavora a cose diverse. Anche Banias nasce, infatti, in quest'ottica. Se il suo team è diventato quello principale, è dovuto a una congiuntura: il P4 si rivelò troppo debole (consumi, prestazioni, e impossibilità di scalare per come s'era pensato), mentre Banias, al contrario, si mostrò ben capace di operare su qualunque fronte.
Ma il team del P4, com'è normale, lavorò poi ad altro.
Certamente questo può portare ad attriti e risentimenti nei team. Fa parte della natura umana. Ma in un'azienda grande come Intel c'è sempre spazio per lavorare a cose interessanti che possono poi, nuovamente, portare a soddisfazioni. Si lavora e si va avanti, sperando che quel che si fa diventi la "Next Big Thing". ;)
Intel e AMD avevano e hanno all'incirca lo stesso modus operandi, per cui investivano in nuove fabbriche sulla base di una politica di rinnovamento o di ampliamento della loro capacità produttiva. Ovviamente il tutto era ed è commisurato alla propria capacità produttiva o alle previsioni.
Faccio presente, comunque, che AMD non era un nano, come si è cercato di far passare in questo thread. E' una realtà più piccola di Intel, ma comunque di un certo spessore e importante, che s'è dedicata pure a settori diversi (uno su tutti: la sua linea di processori RISC 29K, che praticamente monopolizzava il mercato delle stampanti tempo fa), e dunque aveva bisogno di capacità produttiva non soltanto per la sua linea di cloni x86. Dunque più piccola sì, ma nano certamente no.
Ciò precisato, è vero che, a fronte di un improvviso aumento della domanda, ci vuole tempo per programmare un aumento delle fabbriche. Sarebbe da folli negarlo. Ma il punto su cui finora stiamo dibattendo è: ne ebbe realmente bisogno?
I dati raccolti sono i seguenti:
- AMD aumenta velocemente le sue quote di mercato, e riesce a soddisfare la domanda;
- non ci sono notizie di shortage;
- non ci sono notizie di aumento di prezzi;
- non ci sono notizie di costruzioni di nuove fabbriche.
Questi dati, ovviamente, sono correlati, per come ho esposto nel precedente messaggio.
Se si vuol sostenere la tesi che AMD non fu in grado di conquistare più quote di mercato causa mancanza di adeguata capacità produttiva, per almeno una delle ultime tre bisognerebbe recuperare delle notizie. Tutto qui. ;)
Ti avevo già spiegato come mai non poteva esserci shortage (Intel come fonte alternativa di cpu x86).
Inoltre AMD costruì nuove fab (prima a Dresda e poi nello stato di New York) ma come ho scritto prima con i fondi che poteva investire senza fare un salto nel vuoto.
Rimane il fatto che Intel aveva già più fab (sufficienti a coprire la richiesta mondiale di cpu x86) ed aveva già investito anni prima su nuove fab (sufficienti a coprire la crescita di richiesta di cpu x86 a livello mondiale).
In questo caso non c'era nessuna rivalità col team di Banias, perché il Pentium 4-M è precedente a esso. Fu rilasciato, infatti, ben un anno prima.
Ben sapendo che Pentium-M era già ormai pronto e con i Pentium III Tualatin che coprivano già le richieste di cpu per notebook.
La "fazione americana" voleva dimostrare che il loro design poteva competere almeno sul lato delle prestazioni anche nel settore dei notebook.
Quando poi uscì il Pentium M li prese a schiaffoni si a livellodi consumi più bassi che di prestazioni di punta.
Considera che già da parecchi anni ci sono team diversi in seno a Intel che lavorano a microarchitetture diverse, come abbiamo visto ampiamente anche in questi ultimi anni.
Non c'è rivalità in ciò, ma semplicemente si lavora a cose diverse. Anche Banias nasce, infatti, in quest'ottica. Se il suo team è diventato quello principale, è dovuto a una congiuntura: il P4 si rivelò troppo debole (consumi, prestazioni, e impossibilità di scalare per come s'era pensato), mentre Banias, al contrario, si mostrò ben capace di operare su qualunque fronte.
Ma il team del P4, com'è normale, lavorò poi ad altro.
Se non erro fu sbandato.
Sembri sottovalutare che a gestire lo sviluppo di un prodotto, oltre ai progettisti ci sono anche i manager, quando un progetto fallisce il suo obiettivo per i manager le prospettive di carriera vengono ridimensionate.
cdimauro
08-01-2014, 18:01
Ti avevo già spiegato come mai non poteva esserci shortage (Intel come fonte alternativa di cpu x86).
Inoltre AMD costruì nuove fab (prima a Dresda e poi nello stato di New York) ma come ho scritto prima con i fondi che poteva investire senza fare un salto nel vuoto.
Rimane il fatto che Intel aveva già più fab (sufficienti a coprire la richiesta mondiale di cpu x86) ed aveva già investito anni prima su nuove fab (sufficienti a coprire la crescita di richiesta di cpu x86 a livello mondiale).
Va bene, tagliamo la testa al toro anche a questo:
http://www.hwupgrade.it/news/altre/risultati-finanziari-amd_1975.html
http://www.hwupgrade.it/news/altre/rame-per-i-duron-ma-dove_967.html
http://www.hwupgrade.it/news/altre/info-su-athlon-1-7ghz_1377.html
http://www.hwupgrade.it/news/altre/2-milioni-di-chip-da-amd_1345.html
http://www.hwupgrade.it/news/cpu/preview-amd-athlon-4_3714.html
http://www.hwupgrade.it/news/cpu/roadmap-cpu-amd_5409.html
http://www.hwupgrade.it/news/cpu/accordo-tra-amd-e-umc_5518.html
http://www.hwupgrade.it/news/cpu/niente-piu-duron-nel-2003_6093.html
http://www.hwupgrade.it/news/cpu/amd-riorganizza-la-produzione-di-cpu_6255.html
http://www.hwupgrade.it/news/cpu/amd-e-intel-la-guerra-produttiva_6298.html
http://www.hwupgrade.it/news/cpu/amd-e-umc-per-la-tecnologia-apc_7049.html
http://www.hwupgrade.it/news/cpu/alcune-informazioni-su-amd-e-umc_7160.html
http://www.hwupgrade.it/news/skmadri/fujitsu-e-amd-insieme-per-i-chip-di-memoria-flash_7272.html
http://www.hwupgrade.it/news/cpu/amd-dopo-i-risultati-finanziari-pensa-alle-strategie-del-2003_7339.html
http://www.hwupgrade.it/news/cpu/amd-e-ibm-nuove-tecnologie-per-la-produzione-di-cpu_9022.html
http://www.hwupgrade.it/news/cpu/intel-processo-produttivo-a-90-nanometri-entro-al-meta-dell-anno_9093.html
http://www.hwupgrade.it/news/skmadri/amd-e-fujistu-nuova-joint-venture-per-memorie-flash_9665.html
http://www.hwupgrade.it/news/skmadri/amd-e-fujitsu-formano-fasl-llc_10399.html
http://www.hwupgrade.it/news/cpu/athlon-64-ora-a-circa-400-dollari_11036.html
http://www.hwupgrade.it/news/cpu/una-nuova-fabbrica-per-amd_11189.html
http://www.hwupgrade.it/news/cpu/nuova-fab-amd-quasi-sicuramente-a-dresda_11232.html
http://www.businessmagazine.it/news/opteron-a-009-micron-esposto-al-comdex_11238.html
http://www.hwupgrade.it/news/cpu/fab-36-arriva-l-annuncio-ufficiale-di-amd_11266.html
http://www.hwupgrade.it/news/cpu/perche-amd-ha-scelto-dresda-per-la-fab-36_11270.html
http://www.businessmagazine.it/news/opteron-dual-core-a-940-pin_11333.html
http://www.hwupgrade.it/news/cpu/k9-verra-sviluppato-a-009-micron_11491.html
http://www.hwupgrade.it/news/cpu/alcune-informazioni-sui-volumi-di-vendita-dei-processori-amd_11558.html
http://www.hwupgrade.it/news/cpu/amd-profitto-per-il-quarto-trimestre_11638.html
http://www.hwupgrade.it/news/cpu/fab-36-di-amd-operativa-dal-2006_11760.html
http://www.hwupgrade.it/news/cpu/alcune-informazioni-su-winchester_11928.html
http://www.hwupgrade.it/news/cpu/athlon-64-primi-test-a-009-micron_12263.html
http://www.hwupgrade.it/news/cpu/nuove-cpu-opteron-a-2-4-ghz_12440.html
http://www.hwupgrade.it/news/cpu/nuova-fabbrica-amd-a-dresda_12445.html
http://www.hwupgrade.it/articoli/cpu/1027/socket-939-la-nuova-interfaccia-delle-cpu-amd_index.html
http://www.hwupgrade.it/news/cpu/amd-opteron-dual-core-in-arrivo-per-il-2005_12619.html
http://www.hwupgrade.it/news/cpu/processori-e-nuovi-processi-produttivi-una-via-insidiosa_12663.html
http://www.hwupgrade.it/news/cpu/aumento-dei-volumi-per-le-cpu-athlon-64_12983.html
http://www.hwupgrade.it/news/cpu/avviata-la-produzione-a-009-micron-per-amd_12989.html
http://www.hwupgrade.it/news/cpu/legame-sempre-piu-forte-tra-amd-e-ibm_13201.html
http://www.hwupgrade.it/news/cpu/nuovi-risultati-finanziari-per-amd_13300.html
http://www.hwupgrade.it/news/memorie/spansion-memorie-flash-a-110-nanometri_13342.html
http://www.hwupgrade.it/news/memorie/spansion-all-attacco-di-intel-e-samsung_13576.html
Questi sono tutti i link pertinenti all'argomento della discussione. Per chi fosse interessato, consiglio di leggerli dal primo all'ultimo, perché consentono di comprendere man mano la storia di AMD nel periodo 2001-2004 (ma il primo link riporta informazioni anche sull'ultimo quarto del 2000) riguardo all'introduzione di nuovi processi produttivi, nuove fabbriche, politica dei prezzi, accordi con altre grosse realtà sia per la produzione sia per le nuove fabbriche, diversificazione degli investimenti (memorie flash).
Da quanto sopra sopra, in estrema sintesi, emerge che:
1) la fabbrica di Dresda era già operativa nel 2000, sebbene con scarse capacità produttive;
2) tale fabbrica diventerà punto centrale della produzione di AMD, tanto da venire ulteriormente espansa (Fab36);
3) i volumi di AMD sono progressivamente incrementati (ed è stata proprio la fab di Dresda a provvedervi);
4) non esiste alcuno shortage o comunque AMD non ha mai avuto carenza produttiva;
5) l'UNICO caso di aumento dei prezzi dei processori riguarda ALCUNI processori high-end, causa rese produttive non buone per questi modelli; per il resto i prezzi di AMD sono stati costantemente e considerevolmente sotto quelli dei prodotti di Intel, e dunque grandemente appetibili;
6) in previsione di futuri aumenti dei volumi di vendita, AMD ha stretto un accordo con UMC per la produzione dei suoi processori;
7) AMD s'è permessa il lusso di convertire una fabbrica alla sola produzione di memorie flash (mentre in precedenza produceva anche processori);
8) ha realizzato una joint-venture per la produzione esclusiva di memorie flash (d'altra parte l'avevo già detto che si occupava anche di altro);
9) nella sua politica di espansione si è fatta finanziare da alcuni investitori (banche);
10) last but not least, i die dei suoi processori erano di dimensione inferiore a quelli dei P4 di Intel, per cui erano più convenienti da produrre.
Credo ci siano abbastanza fatti per comprendere come AMD non abbia avuto tarpate le ali da parte di Intel, poiché aveva adeguate capacità produttive per sostenere la sua crescita (come ampiamente dimostrato, numeri alla mano), dovuta ai suoi prodotti che il mercato ha premiato, e soprattutto grazie alla nuovissima fabbrica di Dresda (per la quale ricevette anche un award come migliore fab al mondo; ne parla anche uno dei link).
Intel, invece di sopperire a ipotizzati shortage di AMD... le ha ceduto quote di mercato, come abbiamo visto.
Cadono, dunque, TUTTE le precedenti tesi esposte: che AMD non avesse capacità produttiva, non avesse i mezzi finanziari per sostenere la crescita, che non potesse farsi finanziare, e che i produttori dovessero comprare CPU da Intel per coprire le richieste di mercato.
Ben sapendo che Pentium-M era già ormai pronto e con i Pentium III Tualatin che coprivano già le richieste di cpu per notebook.
La "fazione americana" voleva dimostrare che il loro design poteva competere almeno sul lato delle prestazioni anche nel settore dei notebook.
Quando poi uscì il Pentium M li prese a schiaffoni si a livellodi consumi più bassi che di prestazioni di punta.
Come già detto, il P4-M uscì un anno prima di Banias, dunque quest'ultimo era tutt'altro che pronto.
Inoltre il P3 Tualatin non poteva affatto coprire tutto il mercato, per due motivi: il primo è che non aveva a disposizione le nuove SSE2 (motivo per cui i P4 mostravano i muscoli, almeno in ambito multimediale), e il secondo è che Intel aveva messo in piedi una poderosa campagna di marketing puntando tutto sul P4 (per cui i P3 non potevano usufruirne).
D'altra parte il P4 era stato il grande progetto di Intel che avrebbe dovuto coprire tutto il mercato. Era scontato che fosse prevista una declinazione mobile. Infatti è arrivata.
Se non erro fu sbandato.
Questo non lo so, ma penso che sia assolutamente plausibile. D'altra parte anche gli ingegneri hanno un cuore...
Sembri sottovalutare che a gestire lo sviluppo di un prodotto, oltre ai progettisti ci sono anche i manager, quando un progetto fallisce il suo obiettivo per i manager le prospettive di carriera vengono ridimensionate.
Ne sono perfettamente a conoscenza, e conosco le dinamiche in gioco. Ma, come dicevo, Intel era ed è abbastanza grande da annoverare diversi gruppi di sviluppo per la sua architettura, nelle varie declinazioni.
Per cui i manager di cui sopra, in caso di fallimento del loro progetto, si rimboccano le maniche e si danno da fare per la Next Big Thing.
Peraltro è successo anche a Timna: cancellato, quando era già pronto, tutto il team s'è buttato a capofitto su Banias, e abbiamo visto i risultati... ;)
Va bene, tagliamo la testa al toro anche a questo:
http://www.hwupgrade.it/news/altre/risultati-finanziari-amd_1975.html
http://www.hwupgrade.it/news/altre/rame-per-i-duron-ma-dove_967.html
http://www.hwupgrade.it/news/altre/info-su-athlon-1-7ghz_1377.html
http://www.hwupgrade.it/news/altre/2-milioni-di-chip-da-amd_1345.html
http://www.hwupgrade.it/news/cpu/preview-amd-athlon-4_3714.html
http://www.hwupgrade.it/news/cpu/roadmap-cpu-amd_5409.html
http://www.hwupgrade.it/news/cpu/accordo-tra-amd-e-umc_5518.html
http://www.hwupgrade.it/news/cpu/niente-piu-duron-nel-2003_6093.html
http://www.hwupgrade.it/news/cpu/amd-riorganizza-la-produzione-di-cpu_6255.html
http://www.hwupgrade.it/news/cpu/amd-e-intel-la-guerra-produttiva_6298.html
http://www.hwupgrade.it/news/cpu/amd-e-umc-per-la-tecnologia-apc_7049.html
http://www.hwupgrade.it/news/cpu/alcune-informazioni-su-amd-e-umc_7160.html
http://www.hwupgrade.it/news/skmadri/fujitsu-e-amd-insieme-per-i-chip-di-memoria-flash_7272.html
http://www.hwupgrade.it/news/cpu/amd-dopo-i-risultati-finanziari-pensa-alle-strategie-del-2003_7339.html
http://www.hwupgrade.it/news/cpu/amd-e-ibm-nuove-tecnologie-per-la-produzione-di-cpu_9022.html
http://www.hwupgrade.it/news/cpu/intel-processo-produttivo-a-90-nanometri-entro-al-meta-dell-anno_9093.html
http://www.hwupgrade.it/news/skmadri/amd-e-fujistu-nuova-joint-venture-per-memorie-flash_9665.html
http://www.hwupgrade.it/news/skmadri/amd-e-fujitsu-formano-fasl-llc_10399.html
http://www.hwupgrade.it/news/cpu/athlon-64-ora-a-circa-400-dollari_11036.html
http://www.hwupgrade.it/news/cpu/una-nuova-fabbrica-per-amd_11189.html
http://www.hwupgrade.it/news/cpu/nuova-fab-amd-quasi-sicuramente-a-dresda_11232.html
http://www.businessmagazine.it/news/opteron-a-009-micron-esposto-al-comdex_11238.html
http://www.hwupgrade.it/news/cpu/fab-36-arriva-l-annuncio-ufficiale-di-amd_11266.html
http://www.hwupgrade.it/news/cpu/perche-amd-ha-scelto-dresda-per-la-fab-36_11270.html
http://www.businessmagazine.it/news/opteron-dual-core-a-940-pin_11333.html
http://www.hwupgrade.it/news/cpu/k9-verra-sviluppato-a-009-micron_11491.html
http://www.hwupgrade.it/news/cpu/alcune-informazioni-sui-volumi-di-vendita-dei-processori-amd_11558.html
http://www.hwupgrade.it/news/cpu/amd-profitto-per-il-quarto-trimestre_11638.html
http://www.hwupgrade.it/news/cpu/fab-36-di-amd-operativa-dal-2006_11760.html
http://www.hwupgrade.it/news/cpu/alcune-informazioni-su-winchester_11928.html
http://www.hwupgrade.it/news/cpu/athlon-64-primi-test-a-009-micron_12263.html
http://www.hwupgrade.it/news/cpu/nuove-cpu-opteron-a-2-4-ghz_12440.html
http://www.hwupgrade.it/news/cpu/nuova-fabbrica-amd-a-dresda_12445.html
http://www.hwupgrade.it/articoli/cpu/1027/socket-939-la-nuova-interfaccia-delle-cpu-amd_index.html
http://www.hwupgrade.it/news/cpu/amd-opteron-dual-core-in-arrivo-per-il-2005_12619.html
http://www.hwupgrade.it/news/cpu/processori-e-nuovi-processi-produttivi-una-via-insidiosa_12663.html
http://www.hwupgrade.it/news/cpu/aumento-dei-volumi-per-le-cpu-athlon-64_12983.html
http://www.hwupgrade.it/news/cpu/avviata-la-produzione-a-009-micron-per-amd_12989.html
http://www.hwupgrade.it/news/cpu/legame-sempre-piu-forte-tra-amd-e-ibm_13201.html
http://www.hwupgrade.it/news/cpu/nuovi-risultati-finanziari-per-amd_13300.html
http://www.hwupgrade.it/news/memorie/spansion-memorie-flash-a-110-nanometri_13342.html
http://www.hwupgrade.it/news/memorie/spansion-all-attacco-di-intel-e-samsung_13576.html
Questi sono tutti i link pertinenti all'argomento della discussione. Per chi fosse interessato, consiglio di leggerli dal primo all'ultimo, perché consentono di comprendere man mano la storia di AMD nel periodo 2001-2004 (ma il primo link riporta informazioni anche sull'ultimo quarto del 2000) riguardo all'introduzione di nuovi processi produttivi, nuove fabbriche, politica dei prezzi, accordi con altre grosse realtà sia per la produzione sia per le nuove fabbriche, diversificazione degli investimenti (memorie flash).
Da quanto sopra sopra, in estrema sintesi, emerge che:
1) la fabbrica di Dresda era già operativa nel 2000, sebbene con scarse capacità produttive;
2) tale fabbrica diventerà punto centrale della produzione di AMD, tanto da venire ulteriormente espansa (Fab36);
3) i volumi di AMD sono progressivamente incrementati (ed è stata proprio la fab di Dresda a provvedervi);
4) non esiste alcuno shortage o comunque AMD non ha mai avuto carenza produttiva;
5) l'UNICO caso di aumento dei prezzi dei processori riguarda ALCUNI processori high-end, causa rese produttive non buone per questi modelli; per il resto i prezzi di AMD sono stati costantemente e considerevolmente sotto quelli dei prodotti di Intel, e dunque grandemente appetibili;
6) in previsione di futuri aumenti dei volumi di vendita, AMD ha stretto un accordo con UMC per la produzione dei suoi processori;
7) AMD s'è permessa il lusso di convertire una fabbrica alla sola produzione di memorie flash (mentre in precedenza produceva anche processori);
8) ha realizzato una joint-venture per la produzione esclusiva di memorie flash (d'altra parte l'avevo già detto che si occupava anche di altro);
9) nella sua politica di espansione si è fatta finanziare da alcuni investitori (banche);
10) last but not least, i die dei suoi processori erano di dimensione inferiore a quelli dei P4 di Intel, per cui erano più convenienti da produrre.
Credo ci siano abbastanza fatti per comprendere come AMD non abbia avuto tarpate le ali da parte di Intel, poiché aveva adeguate capacità produttive per sostenere la sua crescita (come ampiamente dimostrato, numeri alla mano), dovuta ai suoi prodotti che il mercato ha premiato, e soprattutto grazie alla nuovissima fabbrica di Dresda (per la quale ricevette anche un award come migliore fab al mondo; ne parla anche uno dei link).
Intel, invece di sopperire a ipotizzati shortage di AMD... le ha ceduto quote di mercato, come abbiamo visto.
Cadono, dunque, TUTTE le precedenti tesi esposte: che AMD non avesse capacità produttiva, non avesse i mezzi finanziari per sostenere la crescita, che non potesse farsi finanziare, e che i produttori dovessero comprare CPU da Intel per coprire le richieste di mercato.
Gran bel wall of text, ma hai mancato completamente il nocciolo della questione: non hai provato che AMD poteva sopperire alla richiesta mondiale di cpu x86, anzi, quanto riportato sopra dimostra che AMD sapeva benissimo di non poterlo fare e che era troppo rischioso tentare di dare priorità a questo visto che rischiava di esporsi troppo, per questo ha cercato di far fruttare al meglio quello che aveva, anche diversificando o cambiando produzione dove era più conveniente.
Come già detto, il P4-M uscì un anno prima di Banias, dunque quest'ultimo era tutt'altro che pronto.
Inoltre il P3 Tualatin non poteva affatto coprire tutto il mercato, per due motivi: il primo è che non aveva a disposizione le nuove SSE2 (motivo per cui i P4 mostravano i muscoli, almeno in ambito multimediale), e il secondo è che Intel aveva messo in piedi una poderosa campagna di marketing puntando tutto sul P4 (per cui i P3 non potevano usufruirne).
D'altra parte il P4 era stato il grande progetto di Intel che avrebbe dovuto coprire tutto il mercato. Era scontato che fosse prevista una declinazione mobile. Infatti è arrivata.
Il P3 Tualatin reggeva benissimo nel settore dei notebook e stava arrivando il Banias le cui prestazioni erano già note internamente ad Intel, eppure nonostante il fatto che il P4 avesse già dimostrato che razza di stufetta era secondo te il team del P4 si incaponì comunque a svilupparne una versione appositamente per i notebook solo per "favorire la diffusione delle SSE2" ?
A me sembra più una questione di rivalità interne ad Intel. ;)
cdimauro
09-01-2014, 21:41
Gran bel wall of text, ma hai mancato completamente il nocciolo della questione: non hai provato che AMD poteva sopperire alla richiesta mondiale di cpu x86, anzi, quanto riportato sopra dimostra che AMD sapeva benissimo di non poterlo fare e che era troppo rischioso tentare di dare priorità a questo visto che rischiava di esporsi troppo, per questo ha cercato di far fruttare al meglio quello che aveva, anche diversificando o cambiando produzione dove era più conveniente.
E' un wall of facts, e i primi link sono sufficienti per appurare che AMD era perfettamente in grado di soddisfare la richiesta del mercato né aveva timore di esporsi.
Dal primo: "Athlon and Duron sales have increased, both in terms of units and dollars. [...] Dresden Fab30 plant is currently at 50% wafer start capacity now and should reach 100% by the end of the year. AMD expects to produce 8 million CPUs this quarter and to sell about 6.5 million, due to expanded production and other factors. [...] the company expects sales of Duron processors to grow with the introduction of UMA."
Ma anche il quarto link mostra dei dati interessanti: "The company said yesterday that cumulative shipments of Athlon chips made at Fab 30 in Germany have hit the two million mark. In September, AMD had shipped only one million units. The company aims to start operating it 0.13 micron production line in December 2001 [...] There's plenty of room for manufacturing growth still - and, judging from AMD's recent sales results, it doesn't need to search quite so frantically to find another company, such as Motorola, to fund expansion. [...] Currently only 30 per cent of the floor space at Fab 30 is utilised. Today it has a manufacturing capability equivalent to 5000 wafers a week of 200mm wafers. AMD is targeting a utilisation rate of 50 per cent by the end of this year."
AMD cresceva, e poteva contare, sebbene non pienamente operativa, sulla nuovissima fabbrica di Dresda. Le fabbriche costano parecchio, per cui vuol dire che non aveva problemi a esporsi; è interessante notare che era talmente messa bene da non avere bisogno di trovare altri finanziatori per espandersi ulteriormente, come attesta l'ultima parte che ho riportato.
D'altra parte, e come già avevo sottolineato, un'azienda che si permette il lusso di convertire interamente alle memorie flash un'intera fabbrica, che prima si occupava anche di processori, vuol dire che se la passa decisamente bene, e con le altre fabbriche può reggere tranquillamente la domanda (crescente, come visto).
Anche la costruzione della successiva, nuova, fab sempre a Dresda, come pure la conversione degli impianti verso nuovi processi produttivi (gli ultimi link offrono informazioni su quello a 65nm, la cui adozione era prevista qualche anno dopo), si pone in quest'ottica di benessere e capacità sia produttiva sia economica.
Questi i fatti. Se vuoi sostenere una tesi diversa, come hai fatto finora, puoi sempre portarne di tuoi a supporto. Come peraltro dovrebbe essere d'uso fare: l'onere della prova spetta a chi propone la tesi. ;)
Il P3 Tualatin reggeva benissimo nel settore dei notebook
No, perché era sprovvisto delle SSE2, e Intel non poteva sfruttare la massiccia campagna pubblicitaria che mise in piedi per lanciare il P4. Non puoi vendere un P3 alla gente dopo che l'hai bombardata con la storia dei P4 velocissimi "che accelerano la navigazione su internet" (come recitava, all'incirca, la pubblicità ai tempi).
Quindi, non foss'altro per una mera questione di marketing, doveva sfruttare tutto il lavoro fatto per sostenere il P4.
e stava arrivando il Banias le cui prestazioni erano già note internamente ad Intel,
Un processore che arriva dopo un anno "non sta per arrivare": è ancora in piena lavorazione. Infatti il P4-M arrivò ad aprile 2002, mentre il primo Centrino arrivò a marzo 2003: fa quasi un anno.
Per un tape-out servono circa 3 mesi, per cui è palese che Banias non fosse affatto pronto quando il P4-M era, invece, già commercializzato.
eppure nonostante il fatto che il P4 avesse già dimostrato che razza di stufetta era secondo te il team del P4 si incaponì comunque a svilupparne una versione appositamente per i notebook solo per "favorire la diffusione delle SSE2" ?
Le SSE2 rappresentano una pietra miliare nelle estensioni SIMD di Intel, considerate le tantissime novità portate, e ovviamente anche prestazioni molto più elevate. Per cui era giusto e ovvio che Intel vi puntasse molto.
Il P4 scaldava molto a frequenze elevate, ma il P4-M girava a frequenze decisamente più ridotte anche per questo motivo. Inoltre implementava la tecnologia Speedstep, cosa che lo differenziava, per l'appunto, dai modelli desktop.
Come per tutti i processori che non sono banalmente una versione a frequenza più ridotta, è stato oggetto di progettazione, tape-out vari, e test per arrivare finalmente alla produzione. Questo vuol dire che la progettazione iniziò ben prima della sua commercializzazione, e dunque quando Banias era in piena e profonda fase di sviluppo.
Tutto ciò è perfettamente naturale, visto che, come già detto, Intel aveva puntato tutto il P4, per cui aveva previsto anche l'arrivo di versioni mobili di queste CPU.
A me sembra più una questione di rivalità interne ad Intel. ;)
Per esserci una rivalità devono esserci due contendenti. Poiché il team di Banias era ancora immerso nel lavoro, mentre quello del P4 aveva già sfornato la versione mobile un anno prima, non ci sono i presupposti per parlare di rivalità.
Se rivalità c'è stata, caso mai, sarebbe potuta nascere dopo, quando alla prova dei fatti Banias si dimostrò talmente efficace da costringere Intel a interrompere i piani sul P4, e puntare tutto sulla sua architetture mobile (perché quella era). Ma, per l'appunto, parliamo del periodo post-Banias...
E' un wall of facts, e i primi link sono sufficienti per appurare che AMD era perfettamente in grado di soddisfare la richiesta del mercato né aveva timore di esporsi.
Manca ancora l'elemento chiave I NUMERI riguardo la richiesta mondaile di chip x86 e la capacità produttiva di AMD se faceva girare al 100% le sue fab.
E' sufficiente quello per accorgersi che "mancava qualcosa". ;)
No, perché era sprovvisto delle SSE2, e Intel non poteva sfruttare la massiccia campagna pubblicitaria che mise in piedi per lanciare il P4. Non puoi vendere un P3 alla gente dopo che l'hai bombardata con la storia dei P4 velocissimi "che accelerano la navigazione su internet" (come recitava, all'incirca, la pubblicità ai tempi).
Si, certo. Secondo te Intel non poteva aspettare un anno in un settore in cui aveva un dominio solido quando invece poi attese fino al 2004 (toh! più di un anno) per uscire con una cpu a 64bit in risposta a quella annunciata da AMD nel 1999 (ma uscita nel 2003), tutto questo in un mercato ancora pieno di cpu senza il supporto SSE2.
Cioè con 4 anni di preavviso sull'arrivo dei 64bit di AMD (in cui poteva prepararsi per uscire almeno quasi simultaneamente sul mercato) attese un anno in più dando un vantaggio alla concorrenza.
Invece sul settore dei notebook (in cui dominava e dove la concorrenza non poteva proporre di meglio) invece fu presa dalla frenesia per SSE2 ? :rolleyes:
Ah! Incidentalmente questo ci riporta anche al discorso della capacità produttiva: Intel non avrebbe certo atteso riguardo ai 64bit se AMD anche solo potenzialmente avesse avuto la capacità produttiva per coprire da sola la richiesta mondiale di cpu x86. :read:
cdimauro
10-01-2014, 06:30
Manca ancora l'elemento chiave I NUMERI riguardo la richiesta mondaile di chip x86 e la capacità produttiva di AMD se faceva girare al 100% le sue fab.
E' sufficiente quello per accorgersi che "mancava qualcosa". ;)
Ciò che chiedi non ha senso. AMD non doveva soddisfare l'intero mercato x86, ma soltanto la richiesta che proveniva per i suoi prodotti.
Ed è quel che ha fatto: senza shortage, aumento di prezzi, e aumentando le sue quote di mercato. Il tutto a danno di Intel, che ovviamente le ha perse.
Anche se hai un prodotto eccezionale, non puoi pretendere che da oggi a domani possa prendere immediatamente l'intero mercato, perché il mercato non è pronto per assorbirlo. Nel caso specifico, AMD aveva degli ottimi prodotti, ma questo non significa che Intel non avesse nulla per poterla contrastare. Inoltre quest'ultima poteva contare su una fidelizzazione del marchio che è riuscita abilmente a costruire nel corso degli anni, e che le ha consentito di guadagnare quote di mercato anche soltanto in base a questo.
Per cui AMD ha fatto quel che doveva: crescere e soddisfare la domanda che proveniva per i suoi prodotti, senza alcun problema né rischi né essere costretta a ricorrere a finanziatori esterni, come dimostrano tutti i link che ho postato.
Si, certo. Secondo te Intel non poteva aspettare un anno in un settore in cui aveva un dominio solido
No, per le motivazioni che ho esposto prima, e perché non puoi sapere se un prodotto, Banias, arriverà effettivamente fra un anno. Ci possono essere problemi e ritardi; Timna docet.
A parte questo, la vendita di P4-M dimostra, numeri alla mano, che il mercato per questo processore c'era. Segno che il P3, da solo, non sarebbe stato capace di sostenere la domanda per i prodotti Intel.
quando invece poi attese fino al 2004 (toh! più di un anno) per uscire con una cpu a 64bit in risposta a quella annunciata da AMD nel 1999 (ma uscita nel 2003), tutto questo in un mercato ancora pieno di cpu senza il supporto SSE2.
Cioè con 4 anni di preavviso sull'arrivo dei 64bit di AMD (in cui poteva prepararsi per uscire almeno quasi simultaneamente sul mercato) attese un anno in più dando un vantaggio alla concorrenza.
Questa è una cosa completamente diversa. Per i 64 bit è cosa assodata che i piani di Intel passavano per Itanium. Senza se e senza ma. Questo è un dato di fatto, di cui c'è assoluta certezza.
Per cui a Intel non fregava nulla dei piani di AMD per estendere x86 a 64 bit.
AMD, però, ha avuto un enorme successo con x86-64 (ovviamente DOPO che è stato commercializzato; come per tutti i prodotti, la verifica della bontà avviene una volta che ci si presenta sul mercato), tanto che anche Microsoft ne prese atto e si mise al lavoro su un'apposita versione di Windows (XP x64).
A quel punto i rumor dell'epoca riportano che Intel avrebbe realizzato una sua estensione a 64 bit di x86 (e non erano soltanto rumor: siti come Chip Architect dimostrarono che i nuovi P4 avevano delle modifiche che lasciavano intuire la presenza di un'estensione a 64 bit), ma che avendo bussato alla porta di Microsoft avrebbe ricevuto picche, perché le avrebbe fatto presente di non essere disposta a supportare due estensioni a 64 bit di x86, di averne già realizzata una, e che Intel avrebbe dovuto adeguarsi.
Credo che l'unica concessione dell'eterna alleata (ma anche rivale) a Intel sia stato quello di un annetto di tempo per implementare x86-64, e poter competere con AMD. Infatti Window XP x64 arrivò soltanto un anno dopo, mentre la beta era già molto stabile e funzionante.
Ma quest'ultima parte è frutta di rumor che sono circolati all'epoca, e che si possono ancora recuperare. L'unico dato certo, come già detto, è che il futuro a 64 bit di Intel sarebbe dovuto essere Itanium; ma sappiamo com'è andata a finire con quest'architettura.
Invece sul settore dei notebook (in cui dominava e dove la concorrenza non poteva proporre di meglio) invece fu presa dalla frenesia per SSE2 ? :rolleyes:
Intanto perché le SSE2 c'erano già, e funzionavo molto bene. Era un prodotto vendibile e... fu venduto, infatti.
Poi, come già detto, sottovaluti il marketing di Intel.
Ah! Incidentalmente questo ci riporta anche al discorso della capacità produttiva: Intel non avrebbe certo atteso riguardo ai 64bit se AMD anche solo potenzialmente avesse avuto la capacità produttiva per coprire da sola la richiesta mondiale di cpu x86. :read:
Su questo ho già risposto sopra: AMD doveva rispondere alle richieste di mercato per i suoi prodotti. Non per la totalità. E questo vale anche per quelli a 64 bit, che hanno avuto grande successo, e per i quali è riuscita a sostenere la domanda (nei link trovi dati relativi a questi prodotti).
Ciò che chiedi non ha senso. AMD non doveva soddisfare l'intero mercato x86, ma soltanto la richiesta che proveniva per i suoi prodotti.
Il punto è che visto che AMD non poteva coprire TUTTO il fabbisogno di cpu x86 del mercato, quindi i vari produttori stavano ben attenti a commercializzare anche cpu x86 di Intel anche quando queste erano meno performanti rispetto a quelle AMD (tanto il grosso degli acquirenti non sapeva neanche cosa fosse AMD).
Guardacaso gli unici produttori "con un solo fornitore" tipo Dell compravano da Intel mentre nessuno si fidava ad appoggiarsi solo ad AMD nonostante proponesse le cpu con le migliori prestazioni.
Infatti nel periodo di maggior vantaggio prestazionale delle cpu AMD, Intel lavorava di marketing e leva finanziaria per convincere i suoi clienti a "non esagerare" con le linee di prodotti basati su cpu AMD ed uno dei mantra era "ricordatevi chi vi può sempre e comunque fornire tutte le cpu che potete riuscire a vendere", il tutto seguito da pubblicità su vasta scala per ricordare agli utonti di controllare se sul case c'era il marchio "Intel Inside" ed offertone cpu+chipset ai produttori.
cdimauro
11-01-2014, 07:47
Il punto è che visto che AMD non poteva coprire TUTTO il fabbisogno di cpu x86 del mercato, quindi i vari produttori stavano ben attenti a commercializzare anche cpu x86 di Intel anche quando queste erano meno performanti rispetto a quelle AMD (tanto il grosso degli acquirenti non sapeva neanche cosa fosse AMD).
Guardacaso gli unici produttori "con un solo fornitore" tipo Dell compravano da Intel mentre nessuno si fidava ad appoggiarsi solo ad AMD nonostante proponesse le cpu con le migliori prestazioni.
Il mercato viene regolato dalla domanda e dall'offerta. Non è che i produttori dovessero stare "bene attenti" a vendere CPU Intel. Altrimenti come avrebbe potuto aumentare considerevolmente le sue quote di mercato AMD, come dimostrano i link di cui sopra?
E' chiaro e concordo che AMD non potesse coprire l'intero fabbisogno di CPU x86, ma mi pare anche ovvio che fosse così: Intel non è che fosse sparita; vendeva ugualmente, e tanto, anche grazie al marchio e alla fidelizzazione dell'utenza che ha saputo costruirsi negli anni.
AMD ha visto crescere la domanda dei suoi prodotti, ed è stata in grado di fronteggiarla, come abbiamo visto. Sic et simpliciter.
Infatti nel periodo di maggior vantaggio prestazionale delle cpu AMD, Intel lavorava di marketing e leva finanziaria per convincere i suoi clienti a "non esagerare" con le linee di prodotti basati su cpu AMD ed uno dei mantra era "ricordatevi chi vi può sempre e comunque fornire tutte le cpu che potete riuscire a vendere", il tutto seguito da pubblicità su vasta scala per ricordare agli utonti di controllare se sul case c'era il marchio "Intel Inside" ed offertone cpu+chipset ai produttori.
Il marketing è stato sempre una delle "armi" di Intel, come avevo già detto. Ma vale per qualunque altra azienda: è uno strumento per vendere; i prodotti da soli difficilmente si possono vendere.
Riguardo alle pratiche di concorrenza sleale di Intel, ne siamo bene a conoscenza, ma arrivano dopo il boom di AMD, come si vede anche dalle carte che questa presentò quando intentò causa. Intel, insomma, dopo aver perso considerevoli quote di mercato nei primi anni di splendore di AMD, utilizzò questa "strategia" per cercare di arginare e riprendersi le quote che aveva perso.
Il mercato viene regolato dalla domanda e dall'offerta. Non è che i produttori dovessero stare "bene attenti" a vendere CPU Intel. Altrimenti come avrebbe potuto aumentare considerevolmente le sue quote di mercato AMD, come dimostrano i link di cui sopra?
E' semplice matematica.
Se sai che un fornitore non può garantirti la fornitura di tutti i pezzi richiesti di un componente, ti appoggi anche a qualcun altro.
Intel poteva coprire la richiesta mondiale di cpu x86, AMD no, solo in parte e quindi i produttori hanno agito di conseguenza e si sono tutelati.
AMD ha aumentato le sue quote di mercato, ma non poteva fare affidamento che i clienti passassero al 100% ai suoi prodotti, quindi ha investito per aumentare la sua capacità produttiva ma senza esporsi troppo.
Riguardo alle pratiche di concorrenza sleale di Intel, ne siamo bene a conoscenza, ma arrivano dopo il boom di AMD, come si vede anche dalle carte che questa presentò quando intentò causa. Intel, insomma, dopo aver perso considerevoli quote di mercato nei primi anni di splendore di AMD, utilizzò questa "strategia" per cercare di arginare e riprendersi le quote che aveva perso.
Veramente le pratiche di concorrenza sleale c'erano anche prima, qui trovi un articolo sulle volte in cui Intel ha avuto a che vare con l'antirust:
http://www.pcworld.com/article/142443/article.html
Nel 1990 viene denunciata da Cyrix.
Nel 1991 (ANNi PRIMA del boom di Athlon ed Athlon64) viene denunciata da AMD.
Nel 1992 viene denunciata da Chips and Technologies (produttore di chipset).
E quelle sono solo le cause "pre-successo" arrivate al punto di smuovere l'antritrust.
cdimauro
12-01-2014, 08:05
E' semplice matematica.
Se sai che un fornitore non può garantirti la fornitura di tutti i pezzi richiesti di un componente, ti appoggi anche a qualcun altro.
Intel poteva coprire la richiesta mondiale di cpu x86, AMD no, solo in parte e quindi i produttori hanno agito di conseguenza e si sono tutelati.
AMD ha aumentato le sue quote di mercato, ma non poteva fare affidamento che i clienti passassero al 100% ai suoi prodotti, quindi ha investito per aumentare la sua capacità produttiva ma senza esporsi troppo.
Scusami, ma come fai a sapere che non sono in grado di fornirti i miei prodotti se nemmeno me lo chiedi? Il mercato viene regolato, al solito, dalla domanda e dall'offerta. Se sai che ho dei nuovi prodotti, che sono buoni e li vendo a poco rispetto agli altri, come minimo me lo vieni a chiedere se posso fornirti qualcosa. Se non sono in grado di fornirteli... amen; ti rivolgi al solito fornitore. AMD ha incrementato, e pure considerevolmente, le sue quote di mercato, quindi qualcuno è sicuramente andato a bussare alla sua porta...
Poi è senz'altro vero che AMD non era in grado di coprire l'intero mercato x86 all'epoca, ci mancherebbe che non fosse così. Ma AMD non aveva certo tale pretesa. D'altra parte, e come ho già detto prima, non è che Intel fosse sparita: era ancora lì, aveva i suoi prodotti da vendere, la sua macchina di marketing, e... li vendeva lo stesso.
Anche se hai un buon prodotto non puoi certo eliminare di botto la concorrenza. Basti vedere l'alternarsi di nVidia e Ati nella guerra delle GPU, per prendere un settore diverso, ma affine. Quando nVidia ha introdotto le sue GeForce, non ha eliminato del tutto la concorrenza (Ati in primis). Idem quando Ati ha introdotto R300: non ha certo eliminato nVidia...
Veramente le pratiche di concorrenza sleale c'erano anche prima, qui trovi un articolo sulle volte in cui Intel ha avuto a che vare con l'antirust:
http://www.pcworld.com/article/142443/article.html
Nel 1990 viene denunciata da Cyrix.
Nel 1991 (ANNi PRIMA del boom di Athlon ed Athlon64) viene denunciata da AMD.
Nel 1992 viene denunciata da Chips and Technologies (produttore di chipset).
E quelle sono solo le cause "pre-successo" arrivate al punto di smuovere l'antritrust.
Sono cose completamente diverse. Quel periodo e quelle "litigation" riguardano la "guerra tecnologica" in atto all'epoca. Intel aveva un chiaro vantaggio in termini tecnologici, che non voleva ovviamente condividere con nessuno, e idem per le sue IP, che proteggeva con le unghie e coi denti. Infatti basta leggere le motivazioni per comprenderlo.
Ciò che è accaduto ai tempi del successo di AMD, e di cui stavamo discutendo, è, invece, la "guerra commerciale" che è stata messa in piedi da Intel, e su ben altre basi. D'altra parte AMD non aveva più uno svantaggio tecnologico, per cui non sarebbe potuto essere altrimenti. Anche qui, basta leggere gli incartamenti della causa per capire che si tratta di una situazione nuova e completamente diversa da quella precedente.
In ogni caso e "stranamente" non hai riportato le date, che sono fondamentali per contestualizzare lo scenario e dare una giusta collocazione agli avvenimenti. Anche le date, oltre ai fatti, sono importanti quando si legge e si deve comprendere la storia.
Nello specifico, le date dimostrano quanto avevo già scritto: che Intel, trovatasi davanti all'incredibile successo di AMD, dopo qualche anno in cui perse quote di mercato, decise di mettere in piedi quella strategia, per recuperare ciò che avevo perso (e così fu). Ma sappiamo poi come andò a finire...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.