Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

OPPO Find X9 Pro: il camera phone con teleobiettivo da 200MP e batteria da 7500 mAh
OPPO Find X9 Pro: il camera phone con teleobiettivo da 200MP e batteria da 7500 mAh
OPPO Find X9 Pro punta a diventare uno dei riferimenti assoluti nel segmento dei camera phone di fascia alta. Con un teleobiettivo Hasselblad da 200 MP, una batteria al silicio-carbonio da 7500 mAh e un display da 6,78 pollici con cornici ultra ridotte, il nuovo flagship non teme confronti con la concorrenza, e non solo nel comparto fotografico mobile. La dotazione tecnica include il processore MediaTek Dimensity 9500, certificazione IP69 e un sistema di ricarica rapida a 80W
DJI Romo, il robot aspirapolvere tutto trasparente
DJI Romo, il robot aspirapolvere tutto trasparente
Anche DJI entra nel panorama delle aziende che propongono una soluzione per la pulizia di casa, facendo leva sulla propria esperienza legata alla mappatura degli ambienti e all'evitamento di ostacoli maturata nel mondo dei droni. Romo è un robot preciso ed efficace, dal design decisamente originale e unico ma che richiede per questo un costo d'acquisto molto elevato
DJI Osmo Nano: la piccola fotocamera alla prova sul campo
DJI Osmo Nano: la piccola fotocamera alla prova sul campo
La nuova fotocamera compatta DJI spicca per l'abbinamento ideale tra le dimensioni ridotte e la qualità d'immagine. Può essere installata in punti di ripresa difficilmente utilizzabili con le tipiche action camera, grazie ad una struttura modulare con modulo ripresa e base con schermo che possono essere scollegati tra di loro. Un prodotto ideale per chi fa riprese sportive, da avere sempre tra le mani
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 21-12-2013, 16:56   #21
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
L'utente medio aka utonto non ha bisogno di prestazioni, se cerca qualcosa in più è solo per correre in giro a dirlo agli amici del bar.

Sono più complessi per motivi di marketing, non puoi rilanciare un prodotto vecchio, devi portare delle novità, ma più che a scopo pratico queste novità servono solo per buttare giù paroloni nella scheda delle specifiche così da eccitare l'utonto che non sà nemmeno cosa vogliano dire però quando vede 8 core anzichè 4 si immagina chissà cosa, si gasa e poi lo compra.

Io conosco gente che paragona processori da PC a quelli dello smartphone usando come metro di paragone diretto la frequenza e il num dei cores.
Non possono tutti essere appassionati di tecnologia e conoscitori.

Quello che dico è che la gente vuole avere prodotti sempre più complessi. In particolari i giochi rivestono un ruolo fondamentale. E lì non c'è tanto da girarci attorno: se un gioco gira meglio su una piattaforma piuttosto che su un'altra lo dovrebbe poter capire anche uno che di tecnologia non ne capisce niente.

Da lì nasce la competizione delle aziende.

Poi che queste preferiscano puntare sui miliardi di core per questioni di puro marketing, visto che i grandi numeri attecchiscono meglio sulla massa ignorante (nel senso non dispregiativo del termine), sono d'accordo.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 21-12-2013, 18:09   #22
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non possono tutti essere appassionati di tecnologia e conoscitori.
Io mi informo accuratamente su ogni cosa che compro che sia roba informatica o meno, se qualcuno non ha voglia e gli piace navigare nell'ignoranza sono affari suoi ma non dovrebbe avere diritto alcuno di lamentarsi o esprimere opinioni a riguardo.

Quote:
Quello che dico è che la gente vuole avere prodotti sempre più complessi. In particolari i giochi rivestono un ruolo fondamentale. E lì non c'è tanto da girarci attorno: se un gioco gira meglio su una piattaforma piuttosto che su un'altra lo dovrebbe poter capire anche uno che di tecnologia non ne capisce niente.
I giochi oggi sono molto più semplici del passato, gli enigmi di Tomb Raider e le avventure di Legacy of Kain sono solo sogni del passato, i vecchi RTS dove si doveva costruire e gestire l'economia sono finiti in favore di strategici dove hai già tutto bello che pronto visto che usare il cervello non se ne parla, mentre gli FPS oggi hanno un gameplay molto più lento e mappe complesse per favorire chi non ha skill e campera.
Esempio lampante è il successo di Wii, con i suoi giochini infantili e semplici hanno battuto le console classiche, e io mi chiedo ancora come accidenti si possa preferire Super Mario Bross a Battlefield 4.

Quote:
Da lì nasce la competizione delle aziende.

Poi che queste preferiscano puntare sui miliardi di core per questioni di puro marketing, visto che i grandi numeri attecchiscono meglio sulla massa ignorante (nel senso non dispregiativo del termine), sono d'accordo.
Certo uno che compra legge la schedina delle specifiche che trova al supermercato ma se ogni produttore scrivesse sempre specifiche diverse piazzando sempre lo stesso prodotto, stai pur certo che il 95% dell'utenza manco se ne accorgerebbe.

Ultima modifica di PaulGuru : 21-12-2013 alle 18:12.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 21-12-2013, 18:35   #23
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Io mi informo accuratamente su ogni cosa che compro che sia roba informatica o meno, se qualcuno non ha voglia e gli piace navigare nell'ignoranza sono affari suoi ma non dovrebbe avere diritto alcuno di lamentarsi o esprimere opinioni a riguardo.
Non sono tutti così, lo sai.
Quote:
I giochi oggi sono molto più semplici del passato, gli enigmi di Tomb Raider e le avventure di Legacy of Kain sono solo sogni del passato, i vecchi RTS dove si doveva costruire e gestire l'economia sono finiti in favore di strategici dove hai già tutto bello che pronto visto che usare il cervello non se ne parla, mentre gli FPS oggi hanno un gameplay molto più lento e mappe complesse per favorire chi non ha skill e campera.
Esempio lampante è il successo di Wii, con i suoi giochini infantili e semplici hanno battuto le console classiche, e io mi chiedo ancora come accidenti si possa preferire Super Mario Bross a Battlefield 4.
Io non parlavo del gameplay, ma dell'engine.

Per il resto a me piacciono più i platform che giochi di guerra.
Quote:
Certo uno che compra legge la schedina delle specifiche che trova al supermercato ma se ogni produttore scrivesse sempre specifiche diverse piazzando sempre lo stesso prodotto, stai pur certo che il 95% dell'utenza manco se ne accorgerebbe.
Può darsi. Ma credo che siano in grado di valutare se un gioco è più fluido e/o dettagliato su una piattaforma anziché su un'altra.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 22-12-2013, 00:28   #24
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14736
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non rappresentano il suo core business, e non ha nulla da temere da parte di Intel. [...]
Certo non teme di fallire, ma perdere tutto il mercato PC certo non le fa piacere.
Samsung è di bocca buona, figurati se si fa scrupoli a cedere alla richiesta di Intel. Oltretutto sfornando millemila prodotti, figuriamoci se si preoccupa nel caso in cui uno non vada bene.
Non è neppure strano che non adotti solo prodotti fatti in casa, dato che già lo fa con i SOC ARM come gli snapdragon: sforna così tanta roba che quelli fatti in casa non le bastano.
Rimane un fatto, ed è quello che dicevo: solo produttori su cui Intel può far leva per il mercato PC hanno prodotto tablet con Atom.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Su questo invece non sono d'accordo, perché non mina la capacità di innovazione da parte di AMD.
La mina eccome. Se non vendi non guadagni, e se non guadagni i soldi da investire in ricerca e sviluppo diventano sempre meno.
Pensa che per quanto riguarda bulldozer avevo letto che una delle causa dei consumi elevati era dovuta al fatto che nella progettazione si erano affidati a strumenti automatici (più veloci ed economici) anziché ottimizzare "a mano" il progetto sul silicio, e questo avrebbe portato a problemi elevati di efficienza.
Con più soldi da investire, le cose vanno diversamente.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Ma forse è stato uno sbaglio ancora più grosso per Intel quello di dare in licenza le sue architetture proprio ad AMD, che alla fine è quello che ha fatto la sua fortuna.
Intel lo fece parecchio tempo fa, perchè aveva bisogno di fonderie esterne per rafforzare la produzione.
AMD poi, come hai visto, è stato qualcosa che Intel ha sempre potuto gestire facilmente, anche quando produceva processori migliori. Nonostante tutto AMD rimane comunque una piccola realtà rispetto ad Intel.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
A me sembra che a scherzare qui sia tu. Questa mi sembra decisamente grossa...
Non scherzo affatto, e dato che mi sembra che tu sia una persona che segue questo settore, mi stupisco non poco di questo tuo dubbio.
AMD, da comprimaria, ha sempre dovuto rischiare e innovare (intel vende solo per il nome e gli accordi commerciali, politiche di vendita losche e compilatori taroccati a parte), e questo è facilmente verificabile.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Infatti non è certo una novità per Intel quella di integrare il memory controller nella CPU. [...]
Non è significativo. Non quanto l'introduzione di un dual-core, ad esempio [...]
In ogni caso sbagli: Intel 80860 [...]
Qui stiamo parlando di processori per PC, e il confronto va fatto tra AMD e intel in quella fascia di mercato. Di prodotti commercialmente validi per finire nei PC degli utenti.
Se prendiamo in considerazione altri settori, soluzioni esoteriche, esperimenti falliti, ecc... allora troviamo di tutto. Ma non è di questo che stiamo parlando.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Lo credo bene: ha acquisito Ati per questo. Ed è certamente un passo importante.
Beh, non è che siccome ha acquistato ATI allora deve spingere su questa integrazione, ma ha acquistato ATI per ottenere questo risultato.
ATI è stata pagata più del dovuto, ma è stata essenziale per la nascita di quel progetto a lungo termine che potrebbe fare la fortuna di AMD nei prossimi anni.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Lo avrebbe capito chiunque che sarebbero stati deludenti. Davvero è difficile credere che abbiano commesso un errore così madornale. E ovviamente questa non è certo configurabile come innovazione (cosa c'è di innovativo, poi?), ma come suicidio.
Invece non era affatto chiaro e prima che si vedessero i risultati concreti molta stampa di settore era estremamente ottimista su questi processori. Certo, con il senno di poi son tutti bravi.
Secondo te abbandonare un'architettura sicura e collaudata e riprogettare completamente il processore significa non fare nulla per cercare di innovare? Mah...

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Tipo?
Alcuni li avevo elencati sopra, ma ce ne sono altri. Per esempio mi viene in mente l'introduzione dei 64 bit su x86. Li ha introdotti AMD con le sue AMD64.
Anche in questo caso, sono tutte cose facilmente verificabili.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
[...] per cui si possono realizzare tranquillamente processori x86 senza necessariamente avere una licenza da Intel.
Scusa, potresti spiegare meglio questa affermazione?
A me risulta che le licenze x86 siano tutte fortemente vincolanti e in numero limitato. Puoi citare una fonte che riporti il fatto che chiunque possa produrre CPU x86 senza licenza?

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Infatti. Le è andata di lusso, perché s'è potuta liberare delle fabbriche, cedendole a Globalfoundries, incassando un bel po' di soldi.
Dai, come fai a dire "le è andata di lusso"? In tutta la vicenda AMD è chiaramente la vittima, e l'accordo fatto non la risarcisce certo di anni di politiche scorrette di Intel.

AMD si è liberata delle fonderie semplicemente perchè i costi di queste ultime stanno diventando assolutamente insostenibili per piccole realtà, o hai la clientela di Intel o devi ingrandirti e vendere i prodotti delle tue fonderie ad una clientela più variegata (e difatti GF si è ingrandita parecchio, e anche Intel sta cominciando a stampare chip per terzi).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Con Samsung che domina nel mercato mobile? Mi spieghi che motivo avrebbe di cedere a Intel proprio nel suo settore?
Mi riferivo al fatto che finora i licenziatari di x86 non erano di dimensioni tali da preoccupare realmente Intel.
Se un'azienda come Samsung potesse e decidesse di entrare anche in questo campo (ma Samsung nello specifico dubito che abbia interesse a farlo, il settore mobile oggi è più proficuo e quello PC è in contrazione), ho idea che sarebbe una bella gatta da pelare anche per Intel.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non ci sarebbero i presupposti, perché Intel è già stata costretta a cedere le licenze della sua architettura in passato. Se poi quelle aziende non ne hanno fatto uso, o si sono ritirate, non è certo affar suo.
Un nuovo intervento da parte dell'anti-trust, dunque, non avrebbe alcun senso, oltre a essere totalmente infondato proprio per questo motivo.
Non ci sarebbero i presupposti?
Intel ha una posizione dominante in questo settore, una posizione di cui ha abusato e che è deleteria per la concorrenza e di conseguenza per l'utenza finale.
Io francamente mi chiedo come sia possibile che non siano intervenuti prima.
Magari avrei qualche dubbio sul farlo ora, dato che Intel è in effetti un po' in difficoltà sui nuovi processi produttivi e per il fatto che l'esplosione del mercato mobile sta facendo perdere incisività al mercato dei classici PC.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
"Migliore" in che senso? Certamente non dal punto di vista prestazionale. I numeri sono lì a testimoniarlo.
Dal punto di vista dell'efficienza. Le prestazioni in campo mobile contano molto meno, sono altri i parametri che rendono un SOC migliore di un altro.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Ad esempio su Anandtech trovi un pezzo in cui vengono riportati dei benchmark [...]
Stai dimenticando il vantaggi che Intel ha sul processo produttivo (o per lo meno, che ha avuto finora).
Se parliamo di architetture, la variabile processo produttivo va eliminata dal discorso.

Gli ATOM ora si comportano bene, ma quando poi arrivano sul mercato si confrontano con degli ARM che nel frattempo si sono evoluti e risultano soluzioni più competitive sul mercato.

Guarda cosa ha fatto Appel con l'A7: in una generazione ha fatto un processore che con metà dei core e poco più di metà della frequenza eguaglia e supera uno dei top di gama della generazione precedente, lo snapdragon 800. Se Intel avanza, ARM non sta a guardare.

PS: anche l'A9 è un processore OoO.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Quello che in passato era uno svantaggio che avrebbe dovuto tarpare le ali ed eliminare i CISC, alla fine s'è rivelato il punto di forza che ha consentito all'architettura più "brutta" di fare le scarpe alle altre, eliminando un sacco di rivali.
x86 non è emersa perchè migliore, ma perchè più supportata dal mercato. Il mondo IT è pieno di ottime tecnologie mai decollate.
Per rimanere in campo processori e Intel, questa ha creato Itanium, che doveva essere l'architettura del passaggio ai 64 bit e il non plus ultra della tecnologia. É fallita, fondamentalmente per motivi di mercato.

Le architettura ARM non sono svantaggiate oggi perchè RISC, semplicemente oggi non hanno ancora trovato il posto nel mercato dei processori ad alte prestazioni ma sono dimensionate per il mercato su cui hanno trovato il loro spazio, ossia quello mobile, dove le prestazioni sono secondarie rispetto ai consumi.
Oggi, con le esigenze prestazionali in crescita e l'ingresso nel mercato server le cose potrebbero cominciare a cambiare (ma moderatamente, dato che anche sul mercato server si usano gli ARM per sfruttare le loro caratteristiche, non per farli diventare come gli x86 da HPPC).

Oltretutto gli x86 non sono più CISC da tempo, sono di fatto dei RISC con un layer per istruzioni complesse (ok, non è così semplice, ma è per inquadrare il punto).

Oltretutto il problema delle istruzioni complesse su processori ARM è in parte compensato sia dalla presenza di hardware specializzato (Amiga docet), sia dall'evoluzione delle tecnologie HSA (dai un'occhiata a chi fa parte del consorzio ) che porterà sulla GPU i calcoli di tipo adeguato che necessitano di istruzioni complesse.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 22-12-2013, 05:27   #25
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6170
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Mi pare che proprio il periodo in cui Intel navigava male fu a causa del Pentium 4, mentre AMD col suo Athlon mieteva consensi e vendite. Non mi risultano "shortage" di produzione da parte sua.

Pentium-M arriverà soltanto dopo un bel po'.

Nel frattempo AMD sfornò x86-64 e i suoi Opteron prima e Athlon64 poi, mietendo ancora una volta consensi, sia in ambito desktop che, soprattutto, in quello server. Anche qui non mi risultano shortage.

Per cui AMD le sue occasioni le ha avute, ma non è riuscita a capitalizzare. E anziché sfruttare il vantaggio tecnologico, ha fallito nel presentare i suoi successivi prodotti.

Intel s'è leccata le ferite, e grazie a Pentium-M ha avuto la possibilità di recuperare, e infine sopravanzare AMD. E ricordo che Pentium-M nacque per il settore mobile.

Per cui mi pare che la storia non sia esattamente quella che hai riportato...
Calabar ti ha già risposto ampiamente sugli altri punti, ma quello che hai scritto sopra non è assolutamente esatto.

Innanzitutto nonostante il flop "tecnologico" dei Pentium 4, AMD non fu in grado di sfruttare il vantaggio che aveva con Athlon ed Athlon64 per il semplice motivo che non aveva la capacità produttiva per coprire i quantitativi di cpu x86 richiesti dal mercato.

Peggio ancora, AMD non aveva i mezzi finanziari per investire su un numero sufficienti di fab per coprire la potenziale richiesta e non poteva neanche farsi finanziare da altri per procurarsi nuove fab, ecc. perchè la cosa era estremamente rischiosa.

Il motivo era che Intel aveva già la capacità produttiva per coprire tutto il mercato ed aveva pure già stanziato li investimenti per aggiornare le fab o costruirne di nuove in modo da sfruttare le scale d'integrazione successive.

In poche parole, nel "periodo d'oro di AMD" i produttori di pc dovevano comunque comprare cpu da Intel se volevano coprire le richieste del mercato quindi anche se con minori guadagni, Intel andava ancora avanti alla grande visto che il mercato continuava a tirare e sopratutto era in un a botte di ferro con il vantaggio che aveva in termini di risorse finanziarie e strumenti di pressione diretta ed indiretta.

Non ho scritto che era "monopolista di fatto" tanto per dire, la situazione era quella.
Solo un manangement totalmente incapace avrebbe potuto mettere in pericolo la posizione dominante di Intel, visto che per neutralizzare AMD doveva solo incrementare la spesa in R&D (ed i soldi non erano un problema) ed attendere il primo passo falso del suo molto più piccolo concorrente.

Non ci fu "shortage di produzione" perchè se non c'erano sufficienti cpu AMD i produttori semplicemente acquistavano cpu Intel.

Poi non è che Intel "abbia recuperato con i Pentium M", le linee Pentium 4 e Pentium M sono quasi contemporanee, Pentium M uscì dopo sul mercato ma non era destinato a sostituire i Pentium 4 ed entrambi terminarono di essere prodotti lo stesso anno.

Pentium 4 è uscito nel 2000 ed è rimasto in produzione fino al 2008, utilizzato principalmente su desktop (a parte la variante Pentium 4M uscita nel 2002 usata come "riempitivo" tra i Pentium III per notebook ed il Pentium M).

Pentium M è uscito nel 2003 ed è rimasto in produzione fino al 2008 e fu commercializzato principalmente come cpu per notebook (di solito con marchio Centrino).

Sia Pentium 4 che Pentium M furono poi entrambi sostituiti dagli Intel Core (derivati dai Pentium M) e poi dai Core 2, ecc. ecc.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 22-12-2013, 08:21   #26
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da calabar Guarda i messaggi
Certo non teme di fallire, ma perdere tutto il mercato PC certo non le fa piacere.
Samsung è di bocca buona, figurati se si fa scrupoli a cedere alla richiesta di Intel. Oltretutto sfornando millemila prodotti, figuriamoci se si preoccupa nel caso in cui uno non vada bene.
Non è neppure strano che non adotti solo prodotti fatti in casa, dato che già lo fa con i SOC ARM come gli snapdragon: sforna così tanta roba che quelli fatti in casa non le bastano.
Rimane un fatto, ed è quello che dicevo: solo produttori su cui Intel può far leva per il mercato PC hanno prodotto tablet con Atom.
Come hai già detto tu stesso, Samsung si affida a più fornitori per i suoi prodotti nonostante sia in grado di fare tutto da sola, perché vende tantissimo.

Al momento è Intel che nel settore mobile ha bisogno di vendere i suoi processori, per cui non è nella posizione di poter fare pressioni a Samsung, che in questo mercato occupa una posizione dominante.

In ogni caso ha già subito delle pesanti condanne, per cui ricominciare con una politica di questo tipo le creerebbe decisamente molti più problemi, per cui non le conviene.
Quote:
La mina eccome. Se non vendi non guadagni, e se non guadagni i soldi da investire in ricerca e sviluppo diventano sempre meno.
Senz'altro, ma i soldi di per sé non garantiscono automaticamente innovazione. Basti pensare al Pentium 4 di Intel, ad esempio. Oppure agli ottimi prodotti che ha tirato fuori AMD col suo budget. Era a questo che mi riferivo prima.
Quote:
Pensa che per quanto riguarda bulldozer avevo letto che una delle causa dei consumi elevati era dovuta al fatto che nella progettazione si erano affidati a strumenti automatici (più veloci ed economici) anziché ottimizzare "a mano" il progetto sul silicio, e questo avrebbe portato a problemi elevati di efficienza.
Con più soldi da investire, le cose vanno diversamente.
Scusami, ma perché parli di due cose diverse? Il discorso riguardava l'efficienza a livello architetturale, non l'ottimizzazione del design di un progetto che è stato già definito. L'architettura di Bulldozer è stata fallimentare a livello prestazionale, come ben sappiamo. Poi ha avuto anche problemi di consumo, anch'essi importanti sicuramente, ma sono ALTRI problemi.
Quote:
Intel lo fece parecchio tempo fa, perchè aveva bisogno di fonderie esterne per rafforzare la produzione.
AMD poi, come hai visto, è stato qualcosa che Intel ha sempre potuto gestire facilmente, anche quando produceva processori migliori. Nonostante tutto AMD rimane comunque una piccola realtà rispetto ad Intel.
Intel diede in licenza la sua architettura perché i produttori pretendevano un second source, altrimenti non avrebbero comprati i suoi prodotti. Specialmente in ambito governativo e militare. Questo valeva per tutti, Intel inclusa.

Successivamente ebbe bisogno di delegare parte della produzione ad AMD perché i suoi processori sfondarono, grazie soprattutto al successo dei PC.

Ma col 386 tirò i remi in barca. Questo portò, dopo un po' di anni, ad essere obbligata dall'autorità antitrust a cedere le licenze ad altri produttori di CPU. Oltre ad AMD acquisirono la licenza IBM, National Semiconductor, e mi pare anche un'altra azienda di cui adesso non ricordo il nome.

Per cui Intel ha potuto "gestire" AMD soltanto nella prima fase di vita dei processori x86. Poi divenne un peso e un problema, e cercò di liberarsene.

Poi che AMD fosse più piccola rispetto ad Intel è ovvio. Ma una piccola realtà certamente no.
Quote:
Non scherzo affatto, e dato che mi sembra che tu sia una persona che segue questo settore, mi stupisco non poco di questo tuo dubbio.
AMD, da comprimaria, ha sempre dovuto rischiare e innovare (intel vende solo per il nome e gli accordi commerciali, politiche di vendita losche e compilatori taroccati a parte), e questo è facilmente verificabile.
In tribunale, magari, perché certe accuse che fai sono molto pesanti. Hai prove di tutto ciò? Se sono facilmente verificabili non avrai difficoltà a portarle...
Quote:
Qui stiamo parlando di processori per PC, e il confronto va fatto tra AMD e intel in quella fascia di mercato. Di prodotti commercialmente validi per finire nei PC degli utenti.
Se prendiamo in considerazione altri settori, soluzioni esoteriche, esperimenti falliti, ecc... allora troviamo di tutto. Ma non è di questo che stiamo parlando.
Stavamo parlando di innovazione in generale. Ma anche restringendo il campo ai soli PC, non mi pare che manchino da parte di Intel.
Quote:
Beh, non è che siccome ha acquistato ATI allora deve spingere su questa integrazione, ma ha acquistato ATI per ottenere questo risultato.
Non mi sembra di aver detto il contrario. Era proprio questo l'obiettivo di AMD, infatti.
Quote:
ATI è stata pagata più del dovuto, ma è stata essenziale per la nascita di quel progetto a lungo termine che potrebbe fare la fortuna di AMD nei prossimi anni.
Vedremo in che modo, visto che ormai da qualche anno tutti i produttori di processori propongono sistemi con CPU e GPU integrata.
Quote:
Invece non era affatto chiaro e prima che si vedessero i risultati concreti molta stampa di settore era estremamente ottimista su questi processori. Certo, con il senno di poi son tutti bravi.
La stampa non è tutta la stessa, come pure gli esperti in materia. Già qualche tempo prima che questi processori fossero presentati AMD rese disponibili slide e informazioni sulla nuova architettura. La cosa che balzò all'occhio fu la sezione del decoder, che era lampante essere il suo tallone d'Achille, come poi fu verificato. E idem la condivisione dell'FPU fra i due core.

C'è bisogno di stampa altamente specializzata per capirlo?
Quote:
Secondo te abbandonare un'architettura sicura e collaudata e riprogettare completamente il processore significa non fare nulla per cercare di innovare? Mah...
No, se non porti qualche novità. Riprogettare un processore di per sé non significa nulla. Puoi riprogettare anche per economizzare, come a mio avviso è stato fatto da AMD in questo caso, dove ha tagliato decoder e FPU per ridurre la dimensione e i costi di produzione.

Infatti sul decoder ha fatto marcia indietro. Come te lo spieghi questo?
Quote:
Alcuni li avevo elencati sopra, ma ce ne sono altri. Per esempio mi viene in mente l'introduzione dei 64 bit su x86. Li ha introdotti AMD con le sue AMD64.
Anche in questo caso, sono tutte cose facilmente verificabili.
Permettimi, hai parlato di Nehalem che integra innovazioni già presentate da AMD, e adesso mi vieni a citare i 64 bit? Non so, pensavi che Intel non dovesse integrarli in Nehalem? Lo fa già da parecchi anni, mi pare.

Anche qui vale quanto già detto prima: se sono facilmente verificabili le innovazioni di AMD che sono state introdotto in Nehalem, immagino che non avrai difficoltà a portarne ampia documentazione.

Per comodità ti riporto la tua precedente affermazione:

"Molte delle novità che Intel ha integrato in Nehalem AMD le aveva già sui proprio phenom da anni."

Mi sembra chiaro il contesto e cosa voglia dire la frase.
Quote:
Scusa, potresti spiegare meglio questa affermazione?
A me risulta che le licenze x86 siano tutte fortemente vincolanti e in numero limitato. Puoi citare una fonte che riporti il fatto che chiunque possa produrre CPU x86 senza licenza?
La fonte è il diritto americano: le IP non durano in eterno, ma sono limitate a un periodo di 20 anni (se non ricordo male). Quindi tutte le architetture di Intel fino al primo Pentium possono essere riprodotte e commercializzate da altri senza bisogno di avere alcuna licenza.
Quote:
Dai, come fai a dire "le è andata di lusso"? In tutta la vicenda AMD è chiaramente la vittima, e l'accordo fatto non la risarcisce certo di anni di politiche scorrette di Intel.
Non ho nulla da dire su questo, ma il valore di una licenza x86 completamente libera è enorme. Come pure i 5 anni di cross-licensing delle rispettive IP. Tu sottovaluti la portata di quest'accordo, che va ben oltre la mera questione economica. Per Intel liquidare la causa sborsando 1,2 miliardi di dollari non era certo un problema, con tutta la liquidità di cui dispone.

AMD cullava questo sogno da anni, e finalmente ha avuto l'occasione giusta per realizzarlo.

Ripeto: senza nulla togliere ai danni che ha avuto.
Quote:
AMD si è liberata delle fonderie semplicemente perchè i costi di queste ultime stanno diventando assolutamente insostenibili per piccole realtà, o hai la clientela di Intel o devi ingrandirti e vendere i prodotti delle tue fonderie ad una clientela più variegata (e difatti GF si è ingrandita parecchio, e anche Intel sta cominciando a stampare chip per terzi).
Appunto. Oggi le fonderie costano tantissimo, e AMD ha fatto bene a concentrarsi sulla sola progettazione, delegando ad altri le rogne della produzione. Meglio cercare di fare bene una cosa, coi fondi a disposizione.

Intel è un colosso e se ha aperto ad altri (non concorrenti) probabilmente è perché ha bisogno di sfruttare tutta la sua capacità produttiva, proprio per coprire e in ultima analisi far fruttare i costi delle fabbriche che possiede. Questo è il mio personale pensiero in merito, ma è una cosa che affermo da tempo.
Quote:
Mi riferivo al fatto che finora i licenziatari di x86 non erano di dimensioni tali da preoccupare realmente Intel.
Ci sono state realtà del calibro di IBM in passato, che non era certo piccola, e non ha nulla da invidiare a Intel quanto a innovazione.

Anche National Semiconductor era una grande realtà.

Comunque parlo del periodo in cui Intel cedette le sue licenze.

Oggi il discorso è ben diverso.
Quote:
Se un'azienda come Samsung potesse e decidesse di entrare anche in questo campo (ma Samsung nello specifico dubito che abbia interesse a farlo, il settore mobile oggi è più proficuo e quello PC è in contrazione), ho idea che sarebbe una bella gatta da pelare anche per Intel.
Ho idea di no perché, come già detto, i soldi di per sé non sono una garanzia automatica per l'innovazione.

Samsung possiede già licenze ARM e ha uno stuolo di ingegneri per progettare propri processori. Lo fa già, per essere precisi, ma non mi pare che brillino rispetto alla concorrenza. Il suo interesse primario dovrebbe essere quello di fortificarsi e consolidare la sua posizione nel settore mobile, che è la sua gallina dalle uova d'oro. Invece quanto a innovazione pecca, e non poco.

Per cui dubito fortemente che possa fare meglio di Intel in un settore a lei completamente sconosciuto, e che ha già mietuto vittime, anche illustri.

La realtà è ben diversa: ha cominciato ad affidarsi anche a Intel proprio nel suo settore...
Quote:
Non ci sarebbero i presupposti?
No, e ho anche spiegato il perché. Comunque lo ripeto sotto.
Quote:
Intel ha una posizione dominante in questo settore, una posizione di cui ha abusato e che è deleteria per la concorrenza e di conseguenza per l'utenza finale.
Quindi, per risolvere il problema, l'antitrust dovrebbe assicurare che ci siano altri produttori dotati di licenze x86, in modo che possano competere con Intel e portare concorrenza al mercato. Come da manuale, insomma.

Sorpresa: ci sono già! Dunque un intervento in tal senso è semplicemente impossibile.
Quote:
Io francamente mi chiedo come sia possibile che non siano intervenuti prima.
Perché non possono, se quello che vuoi è che ci siano altri soggetti dotati di licenze x86.

Infatti l'antitrust si è "limitata" a intervenire per risolvere il problema concreto, ossia la pratica di concorrenza sleale.
Quote:
Magari avrei qualche dubbio sul farlo ora, dato che Intel è in effetti un po' in difficoltà sui nuovi processi produttivi e per il fatto che l'esplosione del mercato mobile sta facendo perdere incisività al mercato dei classici PC.
Questo è un altro discorso. La difficoltà dei processi produttivi è conseguenza dell'avvicinamento ai limiti del silicio. Scalare, insomma, non è più semplice come una volta. E questo non riguarda soltanto Intel: con la fisica e la materia devono averci a che fare tutti.

Il mercato dei PC è in calo, e lo sarà ancora, ma non sparirà del tutto. Si arriverà a un livellamento, ma un PC a casa fa sempre comodo. Piuttosto ci saranno tanti altri dispositivi mobile. Nuovo mercato insomma, in cui bisogna entrare perché ci sono numeri molto elevati. L'obiettivo è che un solo consumatore debba avere più dispositivi, e quindi spendere, spendere, spendere.

Certamente in questo contesto è Intel che deve darsi da fare.
Quote:
Dal punto di vista dell'efficienza. Le prestazioni in campo mobile contano molto meno, sono altri i parametri che rendono un SOC migliore di un altro.
Le prestazioni contano nella misura in cui hai a che fare con software sempre più complessi. Altrimenti la corsa ai core, alle frequenze, e ad architetture con più elevato IPC non ci sarebbe.

Per essere chiari, se servisse far girare il vecchio RISCOS di Acorn, e le applicazioni che per esso furono sviluppate, sugli ARM, tutto ciò di cui stiamo parlando non servirebbe. Anche un vecchio ARM3 sarebbe stato più che sufficiente allo scopo.

Software e hardware vanno a braccetto, insomma.

Poi nulla da dire sulle altre cose. I consumi sono molto importanti, e da questo punto di vista Intel ha lavorato tanto, e i risultati si cominciano a vedere.

Ciò che manca al momento è la completa integrazione in un SoC.
Quote:
Stai dimenticando il vantaggi che Intel ha sul processo produttivo (o per lo meno, che ha avuto finora).
Se parliamo di architetture, la variabile processo produttivo va eliminata dal discorso.
Perdonami, ma se parlo, come ho parlato, di prestazioni (peraltro specificando anche su singolo core/thread), mi sembra chiaro che non tenga conto di questa variabile (se in maniera limitata; ovviamente non parlo di processo produttivo a 180nm).
Quote:
Gli ATOM ora si comportano bene, ma quando poi arrivano sul mercato si confrontano con degli ARM che nel frattempo si sono evoluti e risultano soluzioni più competitive sul mercato.
Anche gli Atom si evolvono, e sono sempre più competitivi.
Quote:
Guarda cosa ha fatto Appel con l'A7: in una generazione ha fatto un processore che con metà dei core e poco più di metà della frequenza eguaglia e supera uno dei top di gama della generazione precedente, lo snapdragon 800. Se Intel avanza, ARM non sta a guardare.
E viceversa.
Quote:
PS: anche l'A9 è un processore OoO.
Grazie per la correzione. E' stato un lapsus. Non amo particolarmente le sigle.
Quote:
x86 non è emersa perchè migliore, ma perchè più supportata dal mercato. Il mondo IT è pieno di ottime tecnologie mai decollate.
Per rimanere in campo processori e Intel, questa ha creato Itanium, che doveva essere l'architettura del passaggio ai 64 bit e il non plus ultra della tecnologia. É fallita, fondamentalmente per motivi di mercato.
Lo stesso vale per quella che l'ha preceduta, l'80860 di cui ho postato il link prima.

Ma se ci limitassimo a questo, non renderemmo giustizia alla realtà: anche i processori x86 si sono evoluti e hanno offerto eccellenti prestazioni. Hanno "semplicemente" impiegato molto più tempo rispetto ai RISC, a causa della complessità dell'ISA. Ma una volta trovata la chiave per le prestazioni, non hanno avuto nulla da invidiare ai RISC; tutt'altro...
Quote:
Le architettura ARM non sono svantaggiate oggi perchè RISC, semplicemente oggi non hanno ancora trovato il posto nel mercato dei processori ad alte prestazioni ma sono dimensionate per il mercato su cui hanno trovato il loro spazio, ossia quello mobile, dove le prestazioni sono secondarie rispetto ai consumi.
Oggi, con le esigenze prestazionali in crescita e l'ingresso nel mercato server le cose potrebbero cominciare a cambiare (ma moderatamente, dato che anche sul mercato server si usano gli ARM per sfruttare le loro caratteristiche, non per farli diventare come gli x86 da HPPC).
A8, A9, e A15 sono nati perché espressamente votati alle prestazioni. Quindi ARM sta puntando da tempo anche in questo campo.

Comunque vedremo cosa riuscirà a fare. Nel frattempo la storia ci ricorda che altri RISC, ben più votati alle prestazioni, hanno ceduto il passo a x86...
Quote:
Oltretutto gli x86 non sono più CISC da tempo, sono di fatto dei RISC con un layer per istruzioni complesse (ok, non è così semplice, ma è per inquadrare il punto).
Gli x86 sono e rimangono CISC. Il fatto che l'unità di esecuzione interna sia una sorta di RISC non ha nulla a che vedere l'architettura, che rimane CISC. Infatti questa strategia è stata adottata anche da processori RISC, che fanno uso internamente di un'unità di esecuzione ancora più semplice per l'effettiva esecuzione. Anzi, alcuni RISC fanno anche uso di microcodice per le istruzioni più complesse.

Ma anche qui, la storia dimostra che i CISC hanno mantenuto la loro identità (le caratteristiche peculiari che li hanno sempre contraddistinti), mentre sono stati i RISC a tradire la loro, assomigliando sempre più ai CISC pur di rimanere competitivi.

Thumb di ARM, per fare l'esempio più noto, è un'ISA CISC, non RISC. Inoltre i RISC hanno centinaia di istruzioni ormai, anche molto complesse (e alcune, come già detto, fanno uso di microcodice per l'esecuzione; un autentico abominio se consideriamo perché sono nati i RISC e come funzionavano), e tante richiedono più di un ciclo di clock per la loro esecuzione.
Quote:
Oltretutto il problema delle istruzioni complesse su processori ARM è in parte compensato sia dalla presenza di hardware specializzato (Amiga docet), sia dall'evoluzione delle tecnologie HSA (dai un'occhiata a chi fa parte del consorzio ) che porterà sulla GPU i calcoli di tipo adeguato che necessitano di istruzioni complesse.
Non è che puoi portare tutto su GPU, altrimenti lo si sarebbe fatto già da un bel pezzo, visto che da anni questi elementi sono diventati d'uso più generale.

ARM continua a integrare istruzioni complesse perché sa che servono per rimanere competitiva. C'è poco da girarci attorno.

Ma la sua architettura rimane RISC e, dunque, ha dei limiti ben precisi e invalicabili riguardo al "lavoro utile" che una singola istruzione può realizzare.

La partita fra CISC e RISC si gioca tutto qui. Te ne renderai maggiormente conto quando arriverà AVX3.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 22-12-2013, 08:49   #27
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Calabar ti ha già risposto ampiamente sugli altri punti,
Idem.
Quote:
ma quello che hai scritto sopra non è assolutamente esatto.

Innanzitutto nonostante il flop "tecnologico" dei Pentium 4, AMD non fu in grado di sfruttare il vantaggio che aveva con Athlon ed Athlon64 per il semplice motivo che non aveva la capacità produttiva per coprire i quantitativi di cpu x86 richiesti dal mercato.
Ma hai notizie di shortage di quel periodo? Il nocciolo della questione è proprio questo.
Quote:
Peggio ancora, AMD non aveva i mezzi finanziari per investire su un numero sufficienti di fab per coprire la potenziale richiesta e non poteva neanche farsi finanziare da altri per procurarsi nuove fab, ecc. perchè la cosa era estremamente rischiosa.
AMD aveva già degli investitori, e non credo che avrebbe avuto difficoltà a trovarne altri, vista la bontà dei suoi prodotti e la ricezione a dir poco entusiasta da parte del pubblico e del mercato.
Quote:
Il motivo era che Intel aveva già la capacità produttiva per coprire tutto il mercato ed aveva pure già stanziato li investimenti per aggiornare le fab o costruirne di nuove in modo da sfruttare le scale d'integrazione successive.
Senz'altro, ma le vendite non andavano bene. E di questo ci sono anche ampie notizie dell'epoca.
Quote:
In poche parole, nel "periodo d'oro di AMD" i produttori di pc dovevano comunque comprare cpu da Intel se volevano coprire le richieste del mercato quindi anche se con minori guadagni, Intel andava ancora avanti alla grande visto che il mercato continuava a tirare e sopratutto era in un a botte di ferro con il vantaggio che aveva in termini di risorse finanziarie e strumenti di pressione diretta ed indiretta.
La pressione di cui parli è arrivata dopo, come peraltro ha citato AMD nella sua causa contro Intel.

Ma, ribadisco, mancano informazioni su shortage da parte di AMD.
Quote:
Non ho scritto che era "monopolista di fatto" tanto per dire, la situazione era quella.
Solo un manangement totalmente incapace avrebbe potuto mettere in pericolo la posizione dominante di Intel, visto che per neutralizzare AMD doveva solo incrementare la spesa in R&D (ed i soldi non erano un problema) ed attendere il primo passo falso del suo molto più piccolo concorrente.
Come già detto a calabar, i soldi da soli non bastano per innovare. Servono principalmente buone idee.
Quote:
Non ci fu "shortage di produzione" perchè se non c'erano sufficienti cpu AMD i produttori semplicemente acquistavano cpu Intel.
Mi riferisco allo shortage di AMD, ossia l'incapacità di soddisfare la domanda per i suoi prodotti.

Che poi che Intel potesse vendere le sue CPU al posto di AMD è chiaro, ma all'epoca ebbe una flessione nelle vendite...
Quote:
Poi non è che Intel "abbia recuperato con i Pentium M", le linee Pentium 4 e Pentium M sono quasi contemporanee, Pentium M uscì dopo sul mercato ma non era destinato a sostituire i Pentium 4 ed entrambi terminarono di essere prodotti lo stesso anno.

Pentium 4 è uscito nel 2000 ed è rimasto in produzione fino al 2008, utilizzato principalmente su desktop (a parte la variante Pentium 4M uscita nel 2002 usata come "riempitivo" tra i Pentium III per notebook ed il Pentium M).

Pentium M è uscito nel 2003 ed è rimasto in produzione fino al 2008 e fu commercializzato principalmente come cpu per notebook (di solito con marchio Centrino).
Scusami, ma sei tu stesso a confermare quello che ho scritto. Il Pentium-M arrivò ben TRE anni dopo il Pentium 4. Infatti era un prodotto completamente nuovo, e assolutamente NON contemporaneo a quest'ultimo.

Se il Pentium 4 è rimasto in produzione fino al 2008, è perché il Pentium-M era, per l'appunto, pensato per un altro mercato, quello mobile, ed è servito tempo affinché Intel lo utilizzasse anche nel mercato desktop.
Quote:
Sia Pentium 4 che Pentium M furono poi entrambi sostituiti dagli Intel Core (derivati dai Pentium M) e poi dai Core 2, ecc. ecc.
Infatti. Proprio perché Intel, visti gli ottimi risultati del Pentium-M, decise di puntare tutto su quest'architettura.

Ma prima Intel aveva puntato tutto sui Pentium 4, tant'è che le sue roadmap prevedevano che sarebbe durata anni, e avrebbe persino raggiunto i 10GHz. Poi sappiamo come andò a finire...

Pentium-M fu soltanto una "piacevole" sorpresa, ma anche una gran fortuna, perché le consentì di uscire dal vicolo cieco in cui s'era andata a infilare, e a costruirci sopra il suo seguente successo commerciale.

Nella vita serve anche fortuna...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 22-12-2013, 11:32   #28
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14736
@cdimauro
Mi piacerebbe risponderti ancora punto per punto ma purtroppo la lunghezza della discussione ha superato il tempo che mi è possibile dedicarle.

Mi soffermo solo su tre punti.

Il primo è quando dico "puoi facilmente verificarlo". Non ho il tempo di rispondere, quindi ancor meno ho il tempo di cercarti articoli e fonti. Ma se sei interessato potrai trovarle anche tu facilmente (non lo direi, altrimenti).
Quando parli di "accuse" ad Intel da parte mia, ti correggo e ti faccio notare che non si tratta di accuse, ma di fatti (si, facilmente verificabili ).

Il secondo punto è legato ad interventi delle autorità per la concorrenza.
Avere qualche concorrente di facciata quando di fatto Intel ha il 90% del mercato e può fare il bello e il cattivo tempo in ambito PC non è una condizione che può proteggerla da ulteriori interventi.
Se non si trovano concorrenti interessati e disposti ad investire tanto da fare vera concorrenza ad Intel, la soluzione esiste ed è lo scorporo (non a caso ho citato AT&T, il cui scorporo ha prodotto vantaggi enormi nel mercato telefonico USA).

Rimane il fatto che Intel oggi è monopolista de facto in questo mercato (riprendo il termine di LMCH, che nonstante non sia il più corretto, è quello che a mio parere rende meglio l'idea della situazione) e che questa situazione sia lesiva della concorrenza ai danni del consumatore, e che un intervento che cambiasse le cose sarebbe decisamente positivo.
A mio parere l'antitrust americana non interviene perchè hanno paura dei produttori orientali e preferiscono tenersi Intel così com'è, per mantenere un'azienda americana forte.

Per quanto riguarda la licenza x86 come licenza libera, continuo a non essere convinto.
Che senso avrebbe avuto per AMD rinegoziare la licenza se questa è libera? Evidentemente la cosa non è così semplice, e la licenza è tutt'altro che libera.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 22-12-2013, 15:33   #29
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da calabar Guarda i messaggi
@cdimauro
Mi piacerebbe risponderti ancora punto per punto ma purtroppo la lunghezza della discussione ha superato il tempo che mi è possibile dedicarle.
Non sei obbligato a rispondere subito: puoi farlo quando puoi.
Quote:
Mi soffermo solo su tre punti.

Il primo è quando dico "puoi facilmente verificarlo". Non ho il tempo di rispondere, quindi ancor meno ho il tempo di cercarti articoli e fonti. Ma se sei interessato potrai trovarle anche tu facilmente (non lo direi, altrimenti).
Quando parli di "accuse" ad Intel da parte mia, ti correggo e ti faccio notare che non si tratta di accuse, ma di fatti (si, facilmente verificabili ).
Mi interesso di informatica da quasi 32 anni ormai, e mi tengo abbastanza aggiornato, per cui ho una discreta conoscenza in materia. Il problema è che quanto hai scritto non collima con quanto è accaduto. Anzi, mi sembra un attacco molto generico e diciamo anche un po' infamante nei confronti di Intel. Prova a rileggere quella parte.

E' per questo motivo che chiedevo fonti a supporto delle tue affermazioni.
Quote:
Il secondo punto è legato ad interventi delle autorità per la concorrenza.
Avere qualche concorrente di facciata quando di fatto Intel ha il 90% del mercato e può fare il bello e il cattivo tempo in ambito PC non è una condizione che può proteggerla da ulteriori interventi.
Chi dovrebbe proteggere questo mercato? Se ci sono già delle aziende in possesso di licenze x86 che non usano più, l'unica cosa sensata sarebbe trasferirle ad altre nella speranza che le mettano a frutto.

Ma il concetto fondamentale è che non puoi certo essere sicuro che lo facciano. Perché le aziende sono private, e valutano in che modo investire i proprio soldi, tenendo conto dei fattori di rischio.

Se nessuna azienda oltre AMD (e Via) si vuol esporre, allora dovrebbe essere lo stato (quale? Non viviamo in uno stato unico che amministra l'intero globo) a mettersi sul mercato facendo concorrenza a Intel. Solo che non mi sembra neppure questa una soluzione sensata, visto che parliamo di mercato.

In ogni caso esistono ancora 2 concorrenti attivi di Intel, per cui viene meno la necessità di un intervento dello stato.
Quote:
Se non si trovano concorrenti interessati e disposti ad investire tanto da fare vera concorrenza ad Intel, la soluzione esiste ed è lo scorporo (non a caso ho citato AT&T, il cui scorporo ha prodotto vantaggi enormi nel mercato telefonico USA).
Premesso quanto detto sopra, di cosa tratterebbe e come dovrebbe essere effettuato questo "scorporo"?

L'esempio di AT&T non mi sembra calzante. Per lo meno, non vedo similitudini e applicabilità con quello di cui stiamo discutendo.
Quote:
Rimane il fatto che Intel oggi è monopolista de facto in questo mercato (riprendo il termine di LMCH, che nonstante non sia il più corretto, è quello che a mio parere rende meglio l'idea della situazione) e che questa situazione sia lesiva della concorrenza ai danni del consumatore, e che un intervento che cambiasse le cose sarebbe decisamente positivo.
Ribadisco: è già intervenuta e Intel è stata scippata di un certo numero di licenze della SUA architettura. Non è più un problema di Intel se le altre aziende non riescono a competere o non se ne sono fatte niente delle licenze ricevute. L'antitrust potrebbe passarle ad altre aziende, se fosse realmente questo il problema, ma non vedo cosa c'entri ancora Intel con tutto ciò, dopo che ha già dato...
Quote:
A mio parere l'antitrust americana non interviene perchè hanno paura dei produttori orientali e preferiscono tenersi Intel così com'è, per mantenere un'azienda americana forte.
In tal caso avrebbero potuto farlo le autorità antitrust europea e/o giapponese, tra l'altro aprendo un precedente. Perché non si sono mosse in tal senso se le cose stanno come dici tu? Eppure di tempo ne hanno avuto parecchio per valutare la situazione e prendere dei provvedimenti. Evidentemente non ci sono proprio gli estremi, e le motivazioni credo che siano riconducibili a ciò che ho affermato prima.
Quote:
Per quanto riguarda la licenza x86 come licenza libera, continuo a non essere convinto.
Che senso avrebbe avuto per AMD rinegoziare la licenza se questa è libera? Evidentemente la cosa non è così semplice, e la licenza è tutt'altro che libera.
L'ho già spiegato prima: le licenze libere sono quelle di tutti i processori x86 progettati da Intel per le quali sono scaduti i diritti delle IP che le proteggevano. Persino su Wikipedia si trova riferimento in merito, anche se limitato al 486:

"Open: Partly. For some advanced features, x86 may require license from Intel; x86-64 may require an additional license from AMD. The 80486 processor has been on the market for more than 20 years[1] and so cannot be subject to patent claims. This subset of the x86 architecture is therefore fully open."

Quest'anno dovrebbero essere scaduti quelli del Pentium (commercializzato nel 1993), che tra l'altro è ancor più interessante del 486, visto che gli Atom in-order derivano proprio da quell'implementazione.

Per la legislazione sulle IP negli USA, invece:

"Generally, the term of a new patent is 20 years from the date on which the application for the patent was filed in the United States or, in special cases, from the date an earlier related application was filed, subject to the payment of maintenance fees. U.S. patent grants are effective only within the United States, U.S. territories, and U.S. possessions. Under certain circumstances, patent term extensions or adjustments may be available."

Mi sembra sia chiaro, no?

Ad AMD ha fatto molto comodo avere una licenza x86 completamente libera, perché ovviamente le interessano le IP ben più recenti di quelle di Pentium e predecessori.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 22-12-2013, 20:33   #30
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6170
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Ma hai notizie di shortage di quel periodo? Il nocciolo della questione è proprio questo.
Ti ho spiegato per ben due volte come mai non c'era shortage, i produttori acquistavano comunque da Intel perchè sapevano già che AMD non poteva coprire completamente le loro esigenze.
Solo se i consumatori avessero richiesto solo cpu AMD ci sarebbe stato shortage, ma il grosso dei consumatori che compravano pc in quel periodo spesso credevano che AMD fosse una sottomarca di Intel o peggio.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
AMD aveva già degli investitori, e non credo che avrebbe avuto difficoltà a trovarne altri, vista la bontà dei suoi prodotti e la ricezione a dir poco entusiasta da parte del pubblico e del mercato.
Mi sa che non hai minimamente presente di che cifre si parlava per metter su UNA fab, figurati metter su una capacità produttiva che potesse metter AMD in pari con Intel.


Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Scusami, ma sei tu stesso a confermare quello che ho scritto. Il Pentium-M arrivò ben TRE anni dopo il Pentium 4. Infatti era un prodotto completamente nuovo, e assolutamente NON contemporaneo a quest'ultimo.
Pentium 4 e Pentium M erano stati sviluppati da due team distinti e l'idea era che fossero in produzione circa nello stesso periodo, visto che Pentium 4 era pensato principalmente per desktop/server mentre il Pentium M era esclusivamente per i notebook.
Il fatto che Pentium 4 e Pentium M abbiano cessato la produzione simultaneamente la dovrebbe dir lunga in proposito.

Inoltre il Pentium M era un evoluzione del Pentium III Tualatin, tecnicamente quindi è la linea di core su cui era basato (anche) il Pentium M ad essere uscita prima.
Infatti (guardacaso) il Pentium III Tualatin per notebook restò in produzione fino al 2003 per essere poi sostituito da Pentium M.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 22-12-2013, 21:53   #31
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Ti ho spiegato per ben due volte come mai non c'era shortage, i produttori acquistavano comunque da Intel perchè sapevano già che AMD non poteva coprire completamente le loro esigenze.
Solo se i consumatori avessero richiesto solo cpu AMD ci sarebbe stato shortage, ma il grosso dei consumatori che compravano pc in quel periodo spesso credevano che AMD fosse una sottomarca di Intel o peggio.
OK, tagliamo la testa al toro. Ecco qui un bel po' di link a proposito riguardo ai primi anni del 2000:
http://www.hwupgrade.it/news/cpu/quo...2001_5466.html
http://www.hwupgrade.it/news/cpu/quo...-amd_9245.html
http://www.hwupgrade.it/news/cpu/sit...x86_11161.html
http://www.hwupgrade.it/news/cpu/quo...004_12281.html
http://www.hwupgrade.it/news/cpu/pro...che_13959.html
http://www.hwupgrade.it/news/portati...ato_14593.html

Il primo link è indicativo. Mi spiegherai come avrà fatto AMD ad AUMENTARE NETTAMENTE le sue quote di mercato nella sua miserevole situazione, visto che, parole tue:

"non aveva la capacità produttiva per coprire i quantitativi di cpu x86 richiesti dal mercato"
Quote:
Mi sa che non hai minimamente presente di che cifre si parlava per metter su UNA fab, figurati metter su una capacità produttiva che potesse metter AMD in pari con Intel.
Chissà come avranno fatto i venture capitalist che hanno investito in Globalfoundries, con le fabbriche che costano adesso di gran lunga di più rispetto a una dozzina di anni fa.

Ma immagino che avrai una spiegazione fantasiosa anche per questo...

Anche per il resto del tuo messaggio, tagliamo la testa al toro. Riporto una serie di link alle pagine dell'articolo di Anandtech che analizzò dettagliatamente la nuova piattaforma Centrino:
http://www.anandtech.com/show/1083/2
http://www.anandtech.com/show/1083/3
http://www.anandtech.com/show/1083/4
http://www.anandtech.com/show/1083/5

E adesso passiamo a quello che hai scritto in proposito, alla luce del pezzo di Anand.
Quote:
Pentium 4 e Pentium M erano stati sviluppati da due team distinti e l'idea era che fossero in produzione circa nello stesso periodo, visto che Pentium 4 era pensato principalmente per desktop/server mentre il Pentium M era esclusivamente per i notebook.
Dal primo link:

"The design team looked at the Pentium 4's architecture and quickly concluded that it wouldn't be appropriate for a mobile microprocessor. An extremely long pipeline for a CPU designed to run at very high frequencies was not conducive to building a processor that could run within a 24W power envelope. There were some features that they could borrow from the Pentium 4, but for the most part, the NetBurst architecture was not one that could be considered as the basis for the CPU that would end up known internally as Banias."

Quindi è totalmente falso che Pentium 4 e Banias fossero stati sviluppati nello stesso periodo.
Quote:
Il fatto che Pentium 4 e Pentium M abbiano cessato la produzione simultaneamente la dovrebbe dir lunga in proposito.
Come ti avevo già spiegato, il primo è stato tenuto in vita finché il secondo è riuscito a sostituirlo anche nel mercato desktop.

Per il resto vedi sopra: no, le due cose non sono affatto collegate.
Quote:
Inoltre il Pentium M era un evoluzione del Pentium III Tualatin, tecnicamente quindi è la linea di core su cui era basato (anche) il Pentium M ad essere uscita prima.
Il P3 è stato soltanto il punto di partenza. L'articolo dettagliato di Anand è chiarissimo in proposito.

In particolare, dall'ultimo link:

"There's a difference between making a derivative microprocessor architecture and not re-inventing the wheel; we've already established that Banias is significantly different from the Pentium III, but the Israel design team didn't just synthesize the CPU from scratch in order to be genuinely different than the Pentium III."

Il fatto che Banias fosse partito dal P3 non vuol dire proprio nulla, viste tutte le modifiche effettuate. Come già detto, è stato la base di partenza, ma l'architettura che è stata realizzata è ben diversa, come attesta Anand, e come può constatare chiunque andando a verificare le differenze fra le due architetture.

E nessuno oggi direbbe per un Atom (o Larrabee; tanto è uguale il discorso) che "tecnicamente quindi è la linea di core su cui era basato (anche) il Pentium ad essere uscita prima" per giustificare una primogenitura dei Pentium rispetto agli altri processori di Intel presenti nel mercato quando è uscito l'Atom, appunto...

Peraltro nel pezzo di Anand nemmeno si parla di Tualatin, che potrebbe benissimo essere stato portato avanti mentre Banias veniva sviluppato nel frattempo.
Quote:
Infatti (guardacaso) il Pentium III Tualatin per notebook restò in produzione fino al 2003 per essere poi sostituito da Pentium M.
Questo mi sembra a dir poco lapalissiano, visto che Banias era nato proprio per questo mercato, e ovviamente aveva caratteristiche migliori in tutto rispetto al prodotto che andava a sostituire in quel momento...

Concludendo, prendo in prestito le faccine che hai usato:
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 23-12-2013, 02:54   #32
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6170
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
OK, tagliamo la testa al toro. Ecco qui un bel po' di link a proposito riguardo ai primi anni del 2000:
http://www.hwupgrade.it/news/cpu/quo...2001_5466.html
http://www.hwupgrade.it/news/cpu/quo...-amd_9245.html
http://www.hwupgrade.it/news/cpu/sit...x86_11161.html
http://www.hwupgrade.it/news/cpu/quo...004_12281.html
http://www.hwupgrade.it/news/cpu/pro...che_13959.html
http://www.hwupgrade.it/news/portati...ato_14593.html

Il primo link è indicativo. Mi spiegherai come avrà fatto AMD ad AUMENTARE NETTAMENTE le sue quote di mercato nella sua miserevole situazione, visto che, parole tue:

"non aveva la capacità produttiva per coprire i quantitativi di cpu x86 richiesti dal mercato"
Se ci fai caso, gli articoli che hai linkato dicono che Intel non è mai scesa al di sotto del 70% delle vendite di cpu x86, nel periodo d'oro di AMD ad un certo punto questa si mise ad aumentare i prezzi proprio perchè non poteva spingersi oltre con la produzione.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Chissà come avranno fatto i venture capitalist che hanno investito in Globalfoundries, con le fabbriche che costano adesso di gran lunga di più rispetto a una dozzina di anni fa.
Forse ti sfugge il fatto che AMD ha venduto le sue fab a Globalfoundries e che questa fa tutta produzione per conto terzi (inclusa AMD).
In altre parole Globalfoundries non è in diretta competizione con Intel, si rivolge ad un mercato più vasto (tra i suoi clienti ha STMicroelectronics, Freescale, Qualcomm, ecc.) e può usare i processi produttivi "non più di ultima generazione" per produrre altri chip per roba embedded ecc. e farli fruttare molto più a lungo prima di rivendere i macchinari o dismetterli totalmente.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Anche per il resto del tuo messaggio, tagliamo la testa al toro. Riporto una serie di link alle pagine dell'articolo di Anandtech che analizzò dettagliatamente la nuova piattaforma Centrino:
http://www.anandtech.com/show/1083/2
http://www.anandtech.com/show/1083/3
http://www.anandtech.com/show/1083/4
http://www.anandtech.com/show/1083/5

E adesso passiamo a quello che hai scritto in proposito, alla luce del pezzo di Anand.

Dal primo link:

"The design team looked at the Pentium 4's architecture and quickly concluded that it wouldn't be appropriate for a mobile microprocessor. An extremely long pipeline for a CPU designed to run at very high frequencies was not conducive to building a processor that could run within a 24W power envelope. There were some features that they could borrow from the Pentium 4, but for the most part, the NetBurst architecture was not one that could be considered as the basis for the CPU that would end up known internally as Banias."

Quindi è totalmente falso che Pentium 4 e Banias fossero stati sviluppati nello stesso periodo.

Come ti avevo già spiegato, il primo è stato tenuto in vita finché il secondo è riuscito a sostituirlo anche nel mercato desktop.

Per il resto vedi sopra: no, le due cose non sono affatto collegate.

Il P3 è stato soltanto il punto di partenza. L'articolo dettagliato di Anand è chiarissimo in proposito.

In particolare, dall'ultimo link:

"There's a difference between making a derivative microprocessor architecture and not re-inventing the wheel; we've already established that Banias is significantly different from the Pentium III, but the Israel design team didn't just synthesize the CPU from scratch in order to be genuinely different than the Pentium III."

Il fatto che Banias fosse partito dal P3 non vuol dire proprio nulla, viste tutte le modifiche effettuate. Come già detto, è stato la base di partenza, ma l'architettura che è stata realizzata è ben diversa, come attesta Anand, e come può constatare chiunque andando a verificare le differenze fra le due architetture.

E nessuno oggi direbbe per un Atom (o Larrabee; tanto è uguale il discorso) che "tecnicamente quindi è la linea di core su cui era basato (anche) il Pentium ad essere uscita prima" per giustificare una primogenitura dei Pentium rispetto agli altri processori di Intel presenti nel mercato quando è uscito l'Atom, appunto...

Peraltro nel pezzo di Anand nemmeno si parla di Tualatin, che potrebbe benissimo essere stato portato avanti mentre Banias veniva sviluppato nel frattempo.

Questo mi sembra a dir poco lapalissiano, visto che Banias era nato proprio per questo mercato, e ovviamente aveva caratteristiche migliori in tutto rispetto al prodotto che andava a sostituire in quel momento...
Il tuo ragionamento funzionerebbe se non fosse per il piccolo dettaglio che le nuove cpu non si materializzano automagicamente il giorno in cui inizia la produzione in grandi quantitativi.
Hai presente da quanti ANNI il team statunitense di Intel stava lavorando alle tecnologie ed all'architettura di quello che poi è diventano Pentium 4 ?
E' ovvio che anche il team israeliano del Pentium M avesse informazioni su di esso mentra era in fase di progettazione prima ed implementazione poi, come pure il team statunitense aveva informazioni sul Pentium M.

Buona parte delle peculiarità del Pentium 4 derivano da R&D relativo a multithreading ed ottimizzazione delle cpu superscalari portato avanti ... sperando che le tecnologie produttive fossero pronte in tempo.

Circa nel 1995..2000 c'era parecchia ricerca su come ultra-ottimizzare codice eseguito su cpu VLIW e cpu superscalari con pipeline "lunghe".
Se non ci credi, cerca ad esempio con google "trailblazing percolation scheduling" per vedere che idee giravano in proposito.
Da parte di Intel, Itanium fu lo sviluppo in termini di cpu VLIW di tali idee, mentre il Pentium 4 ne fu lo sviluppo in termini di cpu superscalare.
Il team israeliano invece vide dove si andava a parare e concluse che avrebbe scaldato a bestia e conveniva procedere con un evoluzione del modello superscalare dei Pentium III.

Ma ovviamente quel che sembra funzionare sulla carta o su prototipi su cui viene fatto girare software compilato ad hoc, bisogna vedere come poi si comporta in un implementazione reale su cui far girare una gamma più ampia di software.

Il core Pentium 4 "Willamette" fu fatto uscire con troppa poca cache L2
e a 180nm proprio a causa dell' "ottimismo" in tal senso di Intel e scaldava a bestia.
E l'hyperthreading e cache L2 finalmente decenti arrivarono solo con il successivo "Northwood" a 130nm.

Per il Pentium M invece si attese la disponibilità dei 130nm e si presero pure tutto il tempo necessario per ottimizzare il layout circuitale per evitare che scaldasse troppo (e questo sarebbe stato una sentenza di morte per una cpu pensata espressamente per quelli che allora erano notebook a basso consumo).

Infatti per la messa a punto del processo a 130nm per cpu "per notebook a basso consumo" fu prima prodotto uno shrink del Pentium III (il Tualatin) e solo dopo arrivò il Pentium M.

Era il classico "tic toc" di Intel, ovvero prima fai uno shrink del core precedente e poi per lo stesso processo testato con lo shrink produci la nuova generazione.
Quindi per le cpu per notebook Intel attuò il "Tic" con Pentium III Tualatin e "Toc" con Pentium M.

"Tic" Pentium III e "Toc" Pentium M,
NON
"Tic" Pentium 4 e "Toc" Pentium M.

Infatti la linea Pentium 4 andava avanti in parallelo alla linea "mobile" ed a causa delle rivalità tra i team ci fu pure il tentativo di proporre dei "Pentium 4 Mobile" (i Pentium 4-M) che più che "mobile" erano "desktop replacement che non va troppo spesso in throttling termico".
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 23-12-2013, 09:58   #33
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Se ci fai caso, gli articoli che hai linkato dicono che Intel non è mai scesa al di sotto del 70% delle vendite di cpu x86, nel periodo d'oro di AMD ad un certo punto questa si mise ad aumentare i prezzi proprio perchè non poteva spingersi oltre con la produzione.
Li ho letti, li ho letti tutti. Ma AMD nel primo periodo ebbene un'ascesa notevole, e riuscì a guadagnare quote di mercato consistenti. Qui c'è poco da dire: o hai le capacità produttive, oppure rimani confinato nel tuo recinto.

Nel momento in cui hai guadagnato tanto e continui a guadagnare, se vai in shortage aumenti i prezzi e se te la senti amplii le tue capacità produttive (ma di questo ne ho parlato dopo).
Quote:
Forse ti sfugge il fatto che AMD ha venduto le sue fab a Globalfoundries e che questa fa tutta produzione per conto terzi (inclusa AMD).
In altre parole Globalfoundries non è in diretta competizione con Intel, si rivolge ad un mercato più vasto (tra i suoi clienti ha STMicroelectronics, Freescale, Qualcomm, ecc.) e può usare i processi produttivi "non più di ultima generazione" per produrre altri chip per roba embedded ecc. e farli fruttare molto più a lungo prima di rivendere i macchinari o dismetterli totalmente.
Brutto periodo per i tori:
http://www.hwupgrade.it/news/cpu/amd...nti_26757.html
http://www.hwupgrade.it/news/cpu/amd...any_27416.html
http://www.businessmagazine.it/news/...ano_28098.html
http://www.hwupgrade.it/news/cpu/eff...amd_28207.html
http://www.businessmagazine.it/news/...amd_28259.html
http://www.hwupgrade.it/news/cpu/glo...nno_28463.html
http://www.businessmagazine.it/news/...gia_28506.html

Sinteticamente:
1) il partner commerciale di AMD, ATI Co., già alla costituzione di The Foundry Company deteneva la maggior parte del pacchetto azionario;
2) inizialmente tutta la capacità produttiva era rivolta a soddisfare AMD;
3) erano previsti (e furono poi stanziati i fondi) investimenti per ampliare la catena produttiva;
4) i processi produttivi su cui ha puntava (e ha puntato) la nuova azienda NON erano quelli più vecchi, ma quelli più nuovi per mettersi in competizione con TSMC & co.;
5) no, non puntavano al settore embedded / economico, ma a partner di prestigio e con richieste di ben altra caratura.

E questo nel 2008. Otto anni prima l'operazione sarebbe costata decisamente meno, come già detto.
Quote:
Il tuo ragionamento funzionerebbe se non fosse per il piccolo dettaglio che le nuove cpu non si materializzano automagicamente il giorno in cui inizia la produzione in grandi quantitativi.
Le grandi quantità non sono condizione necessaria alla messa in produzione. Ovviamente questa è la speranza di chi realizza i prodotti, ma sappiamo che non sempre ciò si verifica, e inizialmente ci possono essere shortage di produzione. Scenario non certo raro, peraltro.
Quote:
Hai presente da quanti ANNI il team statunitense di Intel stava lavorando alle tecnologie ed all'architettura di quello che poi è diventano Pentium 4 ?
Ho perfettamente presente, ma mi spiego meglio dopo.
Quote:
E' ovvio che anche il team israeliano del Pentium M avesse informazioni su di esso mentra era in fase di progettazione prima ed implementazione poi, come pure il team statunitense aveva informazioni sul Pentium M.
Se avessi letto il pezzo di Anand avresti compreso che le cose non sono andate così. Riporto alcune parti, sempre per fare la festa ai tori:

"The face of mobile computing actually changed a little over three years ago, when Intel announced a chip they were working on called Timna.
[...]
At the core, Timna was based directly on Intel's Pentium III
[...]
Much of the technology and cost saving techniques that were developed in Israel for Timna ended up being used by other groups at Intel in everything from desktop to server CPUs, so even the Pentium 4s we've got today have a little bit of Timna in them.
[...]
Timna was to feature an integrated memory controller, but at the time it was on the drawing board Intel still had delusions of grandeur about RDRAM being the future of all memory technology by 2001. The high price of RDRAM coupled with the lack of demand for such a low cost chip (OEMs weren't too happy with nonexistent profit margins on sub-$600 PCs), led to pulling the plug on Timna just after the chip was completed.
[...]
Things were so bad for the Israel design team that when they were immediately summoned to begin work on a dedicated mobile processor
[...]
the Timna team didn't spend too much time mourning their loss and quickly began work on designing Intel's first truly mobile processor.
[...]
The design team looked at the Pentium 4's architecture and quickly concluded that it wouldn't be appropriate for a mobile microprocessor.
[...]
There were some features that they could borrow from the Pentium 4, but for the most part, the NetBurst architecture was not one that could be considered as the basis for the CPU that would end up known internally as Banias.
[...]
What was born out of Timna's ashes and the extreme dedication/talent of Intel's Israel design team was a processor that can easily be classified as a Pentium III with a Pentium 4 bus, but wrongly so. What Banias ended up being, was the most interesting microprocessor architecture that we've ever seen…
[...]
If you're picking up on the fact that Banias is significantly different from the Pentium III, then you're on the right track…
[...]
we've already established that Banias is significantly different from the Pentium III"

Penso che sia abbastanza chiaro, no? Ma procediamo con ordine:
1) Timna è stata la base di partenza per Banias;
2) Timna è un progetto che è iniziato ben prima del debutto del Pentium 4; il primo annuncio pubblico è del 1999 (anno in cui è stato commercializzato il Pentium III), quindi vuol dire che Intel ci lavorava già da qualche anno prima (presumibilmente nello stesso periodo in cui lavorava già al P3);
3) anche se il prodotto era finito, Timna è stato cancellato a fine settembre del 2000;
4) il team che si occupava di Timna è POI passato a lavorare a Banias;
5) il team di Banias ha analizzato le caratteristiche del P4 e ne ha prese in prestito alcune (il bus);
6) il P4 è stato commercializzato a novembre del 2000.

Dunque non ci sono gli estremi per sostenere la tua tesi, visto che Banias aveva ben altre radici. Inoltre quando è INIZIATA la lavorazione di Banias il P4 era già bello che pronto. Infatti è stato commercializzato a meno di 2 mesi dalla chiusura del progetto Timna...

Tra l'altro è interessante notare come Timna integrasse già sia il memory controller sia la GPU. E per fortuna che Intel non innova...
Quote:
Buona parte delle peculiarità del Pentium 4 derivano da R&D relativo a multithreading ed ottimizzazione delle cpu superscalari portato avanti ... sperando che le tecnologie produttive fossero pronte in tempo.

Circa nel 1995..2000 c'era parecchia ricerca su come ultra-ottimizzare codice eseguito su cpu VLIW e cpu superscalari con pipeline "lunghe".
Se non ci credi, cerca ad esempio con google "trailblazing percolation scheduling" per vedere che idee giravano in proposito.
Da parte di Intel, Itanium fu lo sviluppo in termini di cpu VLIW di tali idee, mentre il Pentium 4 ne fu lo sviluppo in termini di cpu superscalare.
Sì, ne sono a conoscenza, ma tutto questo non c'entra con Banias. Vedi sopra.
Quote:
Il team israeliano invece vide dove si andava a parare e concluse che avrebbe scaldato a bestia e conveniva procedere con un evoluzione del modello superscalare dei Pentium III.

Ma ovviamente quel che sembra funzionare sulla carta o su prototipi su cui viene fatto girare software compilato ad hoc, bisogna vedere come poi si comporta in un implementazione reale su cui far girare una gamma più ampia di software.
Vedi sopra: il P4 era già finito quando hanno iniziato a lavorare a Banias, per cui potevano già toccarne con mano gli effetti. Né carta né prototipi, quindi.
Quote:
Il core Pentium 4 "Willamette" fu fatto uscire con troppa poca cache L2
e a 180nm proprio a causa dell' "ottimismo" in tal senso di Intel e scaldava a bestia.
E l'hyperthreading e cache L2 finalmente decenti arrivarono solo con il successivo "Northwood" a 130nm.
OK, ma con ciò? Banias è partito DOPO che il P4 era già stato completato, e quando Intel ha prodotto le altre versione del P4, Banias era già (e ancora) in lavorazione...
Quote:
Per il Pentium M invece si attese la disponibilità dei 130nm e si presero pure tutto il tempo necessario per ottimizzare il layout circuitale per evitare che scaldasse troppo (e questo sarebbe stato una sentenza di morte per una cpu pensata espressamente per quelli che allora erano notebook a basso consumo).
Veramente il processo a 130nm fu introdotto da Intel già nel 2001: due anni prima che uscisse Banias, che all'epoca era ancora alacremente in lavorazione. Quindi è ovvio che quando questo processore è stato poi commercializzato fosse basato su questo processo produttivo (peraltro già vecchio).
Quote:
Infatti per la messa a punto del processo a 130nm per cpu "per notebook a basso consumo" fu prima prodotto uno shrink del Pentium III (il Tualatin) e solo dopo arrivò il Pentium M.
Com'è ovvio che sia, ma per una mera questione temporale. Infatti Banias uscì 2 anni dopo: era scontato che utilizzasse il processo a 130nm, come tutti i prodotti Intel. Infatti anche il P4 lo adottò un anno dopo la presentazione di Tualatin. Non ci fu certo bisogno di aspettare quest'ultimo per Banias, perché altrimenti Intel avrebbe potuto benissimo presentare Banias nello stesso periodo in cui sfornò Northwood, no? In realtà Banias non era pronto, ma ancora in lavorazione.
Quote:
Era il classico "tic toc" di Intel, ovvero prima fai uno shrink del core precedente e poi per lo stesso processo testato con lo shrink produci la nuova generazione.
Quindi per le cpu per notebook Intel attuò il "Tic" con Pentium III Tualatin e "Toc" con Pentium M.

"Tic" Pentium III e "Toc" Pentium M,
NON
"Tic" Pentium 4 e "Toc" Pentium M.
Il Tick / Tock risale a un bel po' di anni dopo. In precedenza Intel ha introdotto innovazioni assieme alla presentazione di un nuovo processo produttivo.

I P4, come pure il successore di Banias, Dothan, dimostrano in maniera chiara come Intel NON seguisse il Tick / Tock sia prima che dopo la commercializzazione di Banias.

Per cui, ancora no: la tua tesi di una primogenitura di Tualatin viene a cadere. D'altra parte non c'è neppure alcuna traccia che indichi che Banias fosse basato o avesse preso qualcosa da Tualatin...
Quote:
Infatti la linea Pentium 4 andava avanti in parallelo alla linea "mobile" ed a causa delle rivalità tra i team ci fu pure il tentativo di proporre dei "Pentium 4 Mobile" (i Pentium 4-M) che più che "mobile" erano "desktop replacement che non va troppo spesso in throttling termico".
Ne ho uno nel mio vecchio ThinkPad R40, ma I P4-M non giravano certo a frequenze elevate, proprio per evitare eccessivi surriscaldamenti nonché consumi troppo elevati.

Comunque non sono a conoscenza di rivalità fra i due team.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys

Ultima modifica di cdimauro : 23-12-2013 alle 10:05.
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 24-12-2013, 07:47   #34
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6170
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Li ho letti, li ho letti tutti. Ma AMD nel primo periodo ebbene un'ascesa notevole, e riuscì a guadagnare quote di mercato consistenti. Qui c'è poco da dire: o hai le capacità produttive, oppure rimani confinato nel tuo recinto.
E ti avevo spiegato come mai a causa della posizione di predominio massiccio di Intel quella non era una strada percorribile da AMD se non molto lentamente ed in molti anni, sperando di non fare nessun passo falso.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Nel momento in cui hai guadagnato tanto e continui a guadagnare, se vai in shortage aumenti i prezzi e se te la senti amplii le tue capacità produttive (ma di questo ne ho parlato dopo).
Ai produttori di PC interessava solo vendere i loro prodotti, se AMD non gli poteva fornire le cpu nei quantitativi voluti o se alzava troppo il prezzo, semplicemente acquistavano da Intel.
Questo a causa della posizione di predominio di Intel, che anche se non aveva il top come cpu compensava la cosa con offerte cpu+chipset ai produttori, con tanta pubblicità presso il grande pubblico, ecc. ecc.
Questo perchè aveva sufficienti risorse finanziarie per farlo mentre AMD non poteva fare uno sforzo finanziario equivalente.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
4) i processi produttivi su cui ha puntava (e ha puntato) la nuova azienda NON erano quelli più vecchi, ma quelli più nuovi per mettersi in competizione con TSMC & co.;
5) no, non puntavano al settore embedded / economico, ma a partner di prestigio e con richieste di ben altra caratura.
Ma al tempo stesso può far fruttare meglio e più a lungo gli impianti "vecchi" in modo da avere una miglior redditività.
Non si parla solo di cpu e Soc e nel settore embedded ed automotive c'è parecchia roba che può essere prodotta molto più a lungo con le tecnologie "vecchie".

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
E questo nel 2008. Otto anni prima l'operazione sarebbe costata decisamente meno, come già detto.
Otto anni prima non c'era un mercato fabless o un outsourcing della produzione sufficientemente ampio ed anche Globalfoundries non è che sia nata così spontaneamente, se non c'erano gli investitori arabi con i petrodollari dubito che lo scorporo sarebbe stato possibile.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Penso che sia abbastanza chiaro, no? Ma procediamo con ordine:
1) Timna è stata la base di partenza per Banias;
2) Timna è un progetto che è iniziato ben prima del debutto del Pentium 4; il primo annuncio pubblico è del 1999 (anno in cui è stato commercializzato il Pentium III), quindi vuol dire che Intel ci lavorava già da qualche anno prima (presumibilmente nello stesso periodo in cui lavorava già al P3);
3) anche se il prodotto era finito, Timna è stato cancellato a fine settembre del 2000;
4) il team che si occupava di Timna è POI passato a lavorare a Banias;
5) il team di Banias ha analizzato le caratteristiche del P4 e ne ha prese in prestito alcune (il bus);
6) il P4 è stato commercializzato a novembre del 2000.

Dunque non ci sono gli estremi per sostenere la tua tesi, visto che Banias aveva ben altre radici. Inoltre quando è INIZIATA la lavorazione di Banias il P4 era già bello che pronto. Infatti è stato commercializzato a meno di 2 mesi dalla chiusura del progetto Timna...

Tra l'altro è interessante notare come Timna integrasse già sia il memory controller sia la GPU. E per fortuna che Intel non innova...

Sì, ne sono a conoscenza, ma tutto questo non c'entra con Banias. Vedi sopra.

Vedi sopra: il P4 era già finito quando hanno iniziato a lavorare a Banias, per cui potevano già toccarne con mano gli effetti. Né carta né prototipi, quindi.

OK, ma con ciò? Banias è partito DOPO che il P4 era già stato completato, e quando Intel ha prodotto le altre versione del P4, Banias era già (e ancora) in lavorazione...
E come ti spieghi questi ?
http://www.theregister.co.uk/2007/02...l_timna?page=1
http://www.theregister.co.uk/2007/02...l_timna?page=2
http://www.cpu-world.com/CPUs/Timna/
http://www.bloomberg.com/apps/news?p...d=a2mgYutwVFnM

In particolare
Quote:
Originariamente inviato da articolo di Bloomberg
In Haifa, Rony Friedman was working on a chip for low-cost computers. It was slower than Intel's existing lineup -- but it put out less heat. The chip divided up instructions into parts and carried out the instructions in tandem. The design allowed the chip to run software faster and use less power.

The Israelis thought they'd hit the jackpot. Intel didn't. Otellini canceled the project because the chip worked with a special kind of memory that was too expensive.

``We weren't the mainstream,'' says Friedman, seated in his office in the Haifa design center, about a half hour from Technion. The center is a smaller version of Intel's Santa Clara headquarters down to its rows of gray fabric-lined cubicles.

``At the time, frequency was king,'' Friedman says, referring to clock speed. ``We were on the outside.''

Argue to Death

The trick was to persuade the rest of Intel that the company could sell a slower processor to consumers and PC makers. Winning over Otellini, then head of the chip division, proved a turning point.

``We did it the Israeli way; we argued our case to death,'' Eden recalls. ``You know what an exchange of opinions is in Israel? You come to the meeting with your opinion, and you leave with mine.''

The Israelis' new chip, named Banias after a river in northern Galilee, got a break with Intel's push into notebook computers.
Nei link sopra dicono che essenzialmente Timna a 180nm doveva essere un chip "low cost" con chip grafico e memory controller integrato progettato per usare la RDRAM.
Solo che per varie ragioni RDRAM non fu accettata dal mercato e ne MTH e ne un nuovo memory controller integrato per SDRAM erano soluzioni soddisfacenti.
Risultato: lo stesso team viene dirottato a sviluppare il Banias a 130nm, la cpu "per notebook" che obbligatoriamente deve usare lo stesso FSB del Pentium 4, ma anche se si perdono GC ed MC in compenso la nuova cpu può essere più costosa ( e verrà implementata a 130nm) quindi il team israeliano può reimplementare cose che nel Timna erano state implementate in modo più "economico" o non implementate affatto (ma il modello "alto IPC per ciclo di clock" rimane invariato).

Il Banias era essenzialmente "il Timna alleggerito di GC ed MC integrati e pompato con gli steroidi" ed a sua volta Timna era derivato dai P6, in pratica l'unica cosa in comune con il Pentium 4 era il FSB (perchè dovevano essere compatibili con gli stessi chipset) mentre l'elemento più rilevante del core, ovvero il modello architetturale superscalare che spinge sul microparallelismo ad IPC elevato invece che sulla frequenza di clock era già stato "congelato" durante lo sviluppo del Timna.

Quindi, si, mi ero confuso riguardo l'origine del Banias (stavo andando a memoria su cose del 2000..2003) ma la sua architettura a livello di core non ha per niente preso ispirazione dal Pentium 4.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Il Tick / Tock risale a un bel po' di anni dopo. In precedenza Intel ha introdotto innovazioni assieme alla presentazione di un nuovo processo produttivo.

I P4, come pure il successore di Banias, Dothan, dimostrano in maniera chiara come Intel NON seguisse il Tick / Tock sia prima che dopo la commercializzazione di Banias.
Dothan era essenzialmente un Banias implementato a 90nm con la cache L2 raddoppiata.
Era essenzialmente il tick a 90nm del Banias.
Non è il "tick tock" ufficialmente definito più rigorosamente in seguito, ma come minimo lo schema di fatto è quello.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Comunque non sono a conoscenza di rivalità fra i due team.
Tipo cose come il team statunitense incaricato dello sviluppo della cpu di punta che con il Pentium 4-M tentò di pucciare il biscotto nel settore di competenza del team israeliano ?

O di come poi con la sconfitta dell' approccio "alta frequenza di clock" del team americano, il team israeliano "alto IPC" ha preso il controllo dello sviluppo delle cpu di punta successive ?

Ultima modifica di LMCH : 25-12-2013 alle 21:01. Motivo: corretti un paio di errori grammaticali e chiarito meglio la transizione da Timna a Banias.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 05-01-2014, 16:03   #35
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Causa vacanze e malattia, trovo soltanto adesso il tempo per rispondere.
Quote:
Originariamente inviato da LMCH Guarda i messaggi
E ti avevo spiegato come mai a causa della posizione di predominio massiccio di Intel quella non era una strada percorribile da AMD se non molto lentamente ed in molti anni, sperando di non fare nessun passo falso.
Fermiamoci un attimo. In precedenza avevi scritto questo: "non aveva la capacità produttiva per coprire i quantitativi di cpu x86 richiesti dal mercato".
Alla luce dei dati che ho riportato, e che dimostrano che AMD guadagnò notevoli quote di mercato (ovviamente a danno di Intel), vuol dire che, al contrario, AMD ebbe la capacità produttiva per far fronte al successo dei suoi prodotti.

Non sappiamo se a un certo punto arrivò a esaurire tale capacità, ed è per questo che avevo chiesto dati, mai pervenuti, su eventuali shortage.

Poi possiamo anche speculare (altro non si può, in assenza di dati) che fosse arrivata a saturare le sue linee produttive, e allora è lecito pensare che ciò abbia portato l'azienda, nell'immediato, ad aumentare i prezzi dei suoi prodotti. Anche di questo, però, dovrebbero essere possibile reperire di dati, che però... mancano.

Per finire, a seguito di shortage, o comunque anche in previsione di shortage, AMD poteva giocarsi la carta di ampliare la capacità produttiva. Anche di ciò, però, mancano dati / notizie /rumor a riguardo.

Questi, dunque, i FATTI e la ricostruzione del discorso che si stava facendo. Proseguiamo, dunque, sempre sulla scia delle speculazioni.
Quote:
Ai produttori di PC interessava solo vendere i loro prodotti, se AMD non gli poteva fornire le cpu nei quantitativi voluti o se alzava troppo il prezzo, semplicemente acquistavano da Intel.
Questo a causa della posizione di predominio di Intel, che anche se non aveva il top come cpu compensava la cosa con offerte cpu+chipset ai produttori, con tanta pubblicità presso il grande pubblico, ecc. ecc.
Questo perchè aveva sufficienti risorse finanziarie per farlo mentre AMD non poteva fare uno sforzo finanziario equivalente.
SE AMD fosse stata in quelle condizioni, avrebbe provveduto a un sistematico aumento dei prezzi. E avrebbe anche potuto ampliare la sua catena produttiva cercando investitori, come farà, appunto, qualche anno più tardi.

Ma senza dati a supporto si ricade, anzi si continua, nel campo delle speculazioni...
Quote:
Ma al tempo stesso può far fruttare meglio e più a lungo gli impianti "vecchi" in modo da avere una miglior redditività.
Non si parla solo di cpu e Soc e nel settore embedded ed automotive c'è parecchia roba che può essere prodotta molto più a lungo con le tecnologie "vecchie".
Certamente, però i piani all'epoca erano ben diversi, come riportano copiosamente le fonti che ho fornito.
Quote:
Otto anni prima non c'era un mercato fabless o un outsourcing della produzione sufficientemente ampio ed anche Globalfoundries non è che sia nata così spontaneamente, se non c'erano gli investitori arabi con i petrodollari dubito che lo scorporo sarebbe stato possibile.
Quelli ci sono sempre stati. Comunque 8 anni prima non serviva l'outsourcing, ma ampliare la capacità produttiva di AMD: tanto bastava per gli investitori, visti anche i numeri di AMD. E, ribadisco, l'investimento sarebbe stato anche nettamente inferiore.
Non ho nulla da spiegare, visto che confermano quello che avevo detto.
Quote:
http://www.bloomberg.com/apps/news?p...d=a2mgYutwVFnM

In particolare

Nei link sopra dicono che essenzialmente Timna a 180nm doveva essere un chip "low cost" con chip grafico e memory controller integrato progettato per usare la RDRAM.
Roba "poco evoluta" per l'epoca insomma. Sono cose AMD che farà soltanto una decade dopo, ma sono dettagli irrilevanti, no?
Quote:
Solo che per varie ragioni RDRAM non fu accettata dal mercato
Le ragioni erano semplici: costi spropositati. Uniti, ma in minor misura, a latenze troppo elevate.
Quote:
e ne MTH e ne un nuovo memory controller integrato per SDRAM erano soluzioni soddisfacenti.
In realtà il nuovo MC era bacato, per cui di fatto inutilizzabile.
Quote:
Risultato: lo stesso team viene dirottato a sviluppare il Banias a 130nm, la cpu "per notebook" che obbligatoriamente deve usare lo stesso FSB del Pentium 4, ma anche se si perdono GC ed MC in compenso la nuova cpu può essere più costosa ( e verrà implementata a 130nm) quindi il team israeliano può reimplementare cose che nel Timna erano state implementate in modo più "economico" o non implementate affatto (ma il modello "alto IPC per ciclo di clock" rimane invariato).
Fin qui concordo.
Quote:
Il Banias era essenzialmente "il Timna alleggerito di GC ed MC integrati e pompato con gli steroidi"
In realtà sono partiti da Timna, ma sono arrivati a una soluzione diversa: più complessa, ma più prestante ed efficiente.
Quote:
ed a sua volta Timna era derivato dai P6, in pratica l'unica cosa in comune con il Pentium 4 era il FSB (perchè dovevano essere compatibili con gli stessi chipset) mentre l'elemento più rilevante del core, ovvero il modello architetturale superscalare che spinge sul microparallelismo ad IPC elevato invece che sulla frequenza di clock era già stato "congelato" durante lo sviluppo del Timna.

Quindi, si, mi ero confuso riguardo l'origine del Banias (stavo andando a memoria su cose del 2000..2003) ma la sua architettura a livello di core non ha per niente preso ispirazione dal Pentium 4.
Mai detto questo, infatti. L'unica cosa che ho scritto a chiare lettere è che presero il bus del P4.
Quote:
Dothan era essenzialmente un Banias implementato a 90nm con la cache L2 raddoppiata.
Era essenzialmente il tick a 90nm del Banias.
Non è il "tick tock" ufficialmente definito più rigorosamente in seguito, ma come minimo lo schema di fatto è quello.
E' chiaro che non ci si poteva aspettare la rivoluzione che ci fu con Banias, ma Dothan, oltre al raddoppio della cache (cosa non da poco, specialmente per come funzionava Banias), portava qualcosa d'interessante, specialmente considerando come funzionava l'architettura x86.

Non ci sono, comunque, gli estremi per poter parlare di tick-tock, al pari dei P4 che hanno cambiato processo produttivo, in maniera similare.
Quote:
Tipo cose come il team statunitense incaricato dello sviluppo della cpu di punta che con il Pentium 4-M tentò di pucciare il biscotto nel settore di competenza del team israeliano ?
Cioé? A cosa ti riferisci esattamente? Perché sinceramente non ho colto la citazione.
Quote:
O di come poi con la sconfitta dell' approccio "alta frequenza di clock" del team americano, il team israeliano "alto IPC" ha preso il controllo dello sviluppo delle cpu di punta successive ?
Questo mi pare naturale: fallito un progetto, si va avanti con quello vincente. Non c'era un "piano di rivalsa", insomma.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 06-01-2014, 01:01   #36
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6170
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Fermiamoci un attimo. In precedenza avevi scritto questo: "non aveva la capacità produttiva per coprire i quantitativi di cpu x86 richiesti dal mercato".
Alla luce dei dati che ho riportato, e che dimostrano che AMD guadagnò notevoli quote di mercato (ovviamente a danno di Intel), vuol dire che, al contrario, AMD ebbe la capacità produttiva per far fronte al successo dei suoi prodotti.
Intel aveva più fab di AMD, si o no ?
Secondo te investivano soldi con ANNI di anticipo per costruire più fab giusto per il gusto di farlo ?
Proprio per gli investimenti già fatti, Intel era comunque in grado di coprire il 100% del mercato anche nello step tecnologico successivo, mentre AMD non aveva la liquidità ed il tempo per fare altrettanto nonostante gli Athlon vendessero bene in quel momento.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Cioé? A cosa ti riferisci esattamente? Perché sinceramente non ho colto la citazione.
Pentium 4-M.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Questo mi pare naturale: fallito un progetto, si va avanti con quello vincente. Non c'era un "piano di rivalsa", insomma.
Non ho mai scritto rivalsa. Solo di rivalità.
E per solite ragioni visto che come già detto, il gruppo di sviluppo del P4 venne di fatto sbandato mentre quelli del gruppo di sviluppo del Pentium-M presero le redini dello sviluppo delle generazioni successive.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 06-01-2014, 07:36   #37
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Intel aveva più fab di AMD, si o no ?
Secondo te investivano soldi con ANNI di anticipo per costruire più fab giusto per il gusto di farlo ?
Proprio per gli investimenti già fatti, Intel era comunque in grado di coprire il 100% del mercato anche nello step tecnologico successivo, mentre AMD non aveva la liquidità ed il tempo per fare altrettanto nonostante gli Athlon vendessero bene in quel momento.
Intel e AMD avevano e hanno all'incirca lo stesso modus operandi, per cui investivano in nuove fabbriche sulla base di una politica di rinnovamento o di ampliamento della loro capacità produttiva. Ovviamente il tutto era ed è commisurato alla propria capacità produttiva o alle previsioni.

Faccio presente, comunque, che AMD non era un nano, come si è cercato di far passare in questo thread. E' una realtà più piccola di Intel, ma comunque di un certo spessore e importante, che s'è dedicata pure a settori diversi (uno su tutti: la sua linea di processori RISC 29K, che praticamente monopolizzava il mercato delle stampanti tempo fa), e dunque aveva bisogno di capacità produttiva non soltanto per la sua linea di cloni x86. Dunque più piccola sì, ma nano certamente no.

Ciò precisato, è vero che, a fronte di un improvviso aumento della domanda, ci vuole tempo per programmare un aumento delle fabbriche. Sarebbe da folli negarlo. Ma il punto su cui finora stiamo dibattendo è: ne ebbe realmente bisogno?

I dati raccolti sono i seguenti:
- AMD aumenta velocemente le sue quote di mercato, e riesce a soddisfare la domanda;
- non ci sono notizie di shortage;
- non ci sono notizie di aumento di prezzi;
- non ci sono notizie di costruzioni di nuove fabbriche.

Questi dati, ovviamente, sono correlati, per come ho esposto nel precedente messaggio.

Se si vuol sostenere la tesi che AMD non fu in grado di conquistare più quote di mercato causa mancanza di adeguata capacità produttiva, per almeno una delle ultime tre bisognerebbe recuperare delle notizie. Tutto qui.
Quote:
Pentium 4-M.
OK, adesso ho colto. Non so perché, ieri m'era sfuggito. Bah.

In questo caso non c'era nessuna rivalità col team di Banias, perché il Pentium 4-M è precedente a esso. Fu rilasciato, infatti, ben un anno prima.
Quote:
Non ho mai scritto rivalsa. Solo di rivalità.
E per solite ragioni visto che come già detto, il gruppo di sviluppo del P4 venne di fatto sbandato mentre quelli del gruppo di sviluppo del Pentium-M presero le redini dello sviluppo delle generazioni successive.
Considera che già da parecchi anni ci sono team diversi in seno a Intel che lavorano a microarchitetture diverse, come abbiamo visto ampiamente anche in questi ultimi anni.

Non c'è rivalità in ciò, ma semplicemente si lavora a cose diverse. Anche Banias nasce, infatti, in quest'ottica. Se il suo team è diventato quello principale, è dovuto a una congiuntura: il P4 si rivelò troppo debole (consumi, prestazioni, e impossibilità di scalare per come s'era pensato), mentre Banias, al contrario, si mostrò ben capace di operare su qualunque fronte.

Ma il team del P4, com'è normale, lavorò poi ad altro.

Certamente questo può portare ad attriti e risentimenti nei team. Fa parte della natura umana. Ma in un'azienda grande come Intel c'è sempre spazio per lavorare a cose interessanti che possono poi, nuovamente, portare a soddisfazioni. Si lavora e si va avanti, sperando che quel che si fa diventi la "Next Big Thing".
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 07-01-2014, 00:13   #38
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6170
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Intel e AMD avevano e hanno all'incirca lo stesso modus operandi, per cui investivano in nuove fabbriche sulla base di una politica di rinnovamento o di ampliamento della loro capacità produttiva. Ovviamente il tutto era ed è commisurato alla propria capacità produttiva o alle previsioni.

Faccio presente, comunque, che AMD non era un nano, come si è cercato di far passare in questo thread. E' una realtà più piccola di Intel, ma comunque di un certo spessore e importante, che s'è dedicata pure a settori diversi (uno su tutti: la sua linea di processori RISC 29K, che praticamente monopolizzava il mercato delle stampanti tempo fa), e dunque aveva bisogno di capacità produttiva non soltanto per la sua linea di cloni x86. Dunque più piccola sì, ma nano certamente no.

Ciò precisato, è vero che, a fronte di un improvviso aumento della domanda, ci vuole tempo per programmare un aumento delle fabbriche. Sarebbe da folli negarlo. Ma il punto su cui finora stiamo dibattendo è: ne ebbe realmente bisogno?

I dati raccolti sono i seguenti:
- AMD aumenta velocemente le sue quote di mercato, e riesce a soddisfare la domanda;
- non ci sono notizie di shortage;
- non ci sono notizie di aumento di prezzi;
- non ci sono notizie di costruzioni di nuove fabbriche.

Questi dati, ovviamente, sono correlati, per come ho esposto nel precedente messaggio.

Se si vuol sostenere la tesi che AMD non fu in grado di conquistare più quote di mercato causa mancanza di adeguata capacità produttiva, per almeno una delle ultime tre bisognerebbe recuperare delle notizie. Tutto qui.
Ti avevo già spiegato come mai non poteva esserci shortage (Intel come fonte alternativa di cpu x86).
Inoltre AMD costruì nuove fab (prima a Dresda e poi nello stato di New York) ma come ho scritto prima con i fondi che poteva investire senza fare un salto nel vuoto.
Rimane il fatto che Intel aveva già più fab (sufficienti a coprire la richiesta mondiale di cpu x86) ed aveva già investito anni prima su nuove fab (sufficienti a coprire la crescita di richiesta di cpu x86 a livello mondiale).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
In questo caso non c'era nessuna rivalità col team di Banias, perché il Pentium 4-M è precedente a esso. Fu rilasciato, infatti, ben un anno prima.
Ben sapendo che Pentium-M era già ormai pronto e con i Pentium III Tualatin che coprivano già le richieste di cpu per notebook.
La "fazione americana" voleva dimostrare che il loro design poteva competere almeno sul lato delle prestazioni anche nel settore dei notebook.
Quando poi uscì il Pentium M li prese a schiaffoni si a livellodi consumi più bassi che di prestazioni di punta.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Considera che già da parecchi anni ci sono team diversi in seno a Intel che lavorano a microarchitetture diverse, come abbiamo visto ampiamente anche in questi ultimi anni.

Non c'è rivalità in ciò, ma semplicemente si lavora a cose diverse. Anche Banias nasce, infatti, in quest'ottica. Se il suo team è diventato quello principale, è dovuto a una congiuntura: il P4 si rivelò troppo debole (consumi, prestazioni, e impossibilità di scalare per come s'era pensato), mentre Banias, al contrario, si mostrò ben capace di operare su qualunque fronte.

Ma il team del P4, com'è normale, lavorò poi ad altro.
Se non erro fu sbandato.
Sembri sottovalutare che a gestire lo sviluppo di un prodotto, oltre ai progettisti ci sono anche i manager, quando un progetto fallisce il suo obiettivo per i manager le prospettive di carriera vengono ridimensionate.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 08-01-2014, 19:01   #39
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Ti avevo già spiegato come mai non poteva esserci shortage (Intel come fonte alternativa di cpu x86).
Inoltre AMD costruì nuove fab (prima a Dresda e poi nello stato di New York) ma come ho scritto prima con i fondi che poteva investire senza fare un salto nel vuoto.
Rimane il fatto che Intel aveva già più fab (sufficienti a coprire la richiesta mondiale di cpu x86) ed aveva già investito anni prima su nuove fab (sufficienti a coprire la crescita di richiesta di cpu x86 a livello mondiale).
Va bene, tagliamo la testa al toro anche a questo:

http://www.hwupgrade.it/news/altre/r...-amd_1975.html
http://www.hwupgrade.it/news/altre/r...-dove_967.html
http://www.hwupgrade.it/news/altre/i...7ghz_1377.html
http://www.hwupgrade.it/news/altre/2...-amd_1345.html
http://www.hwupgrade.it/news/cpu/pre...on-4_3714.html
http://www.hwupgrade.it/news/cpu/roa...-amd_5409.html
http://www.hwupgrade.it/news/cpu/acc...-umc_5518.html
http://www.hwupgrade.it/news/cpu/nie...2003_6093.html
http://www.hwupgrade.it/news/cpu/amd...-cpu_6255.html
http://www.hwupgrade.it/news/cpu/amd...tiva_6298.html
http://www.hwupgrade.it/news/cpu/amd...-apc_7049.html
http://www.hwupgrade.it/news/cpu/alc...-umc_7160.html
http://www.hwupgrade.it/news/skmadri...lash_7272.html
http://www.hwupgrade.it/news/cpu/amd...2003_7339.html
http://www.hwupgrade.it/news/cpu/amd...-cpu_9022.html
http://www.hwupgrade.it/news/cpu/int...anno_9093.html
http://www.hwupgrade.it/news/skmadri...lash_9665.html
http://www.hwupgrade.it/news/skmadri...llc_10399.html
http://www.hwupgrade.it/news/cpu/ath...ari_11036.html
http://www.hwupgrade.it/news/cpu/una...amd_11189.html
http://www.hwupgrade.it/news/cpu/nuo...sda_11232.html
http://www.businessmagazine.it/news/...dex_11238.html
http://www.hwupgrade.it/news/cpu/fab...amd_11266.html
http://www.hwupgrade.it/news/cpu/per...-36_11270.html
http://www.businessmagazine.it/news/...pin_11333.html
http://www.hwupgrade.it/news/cpu/k9-...ron_11491.html
http://www.hwupgrade.it/news/cpu/alc...amd_11558.html
http://www.hwupgrade.it/news/cpu/amd...tre_11638.html
http://www.hwupgrade.it/news/cpu/fab...006_11760.html
http://www.hwupgrade.it/news/cpu/alc...ter_11928.html
http://www.hwupgrade.it/news/cpu/ath...ron_12263.html
http://www.hwupgrade.it/news/cpu/nuo...ghz_12440.html
http://www.hwupgrade.it/news/cpu/nuo...sda_12445.html
http://www.hwupgrade.it/articoli/cpu...amd_index.html
http://www.hwupgrade.it/news/cpu/amd...005_12619.html
http://www.hwupgrade.it/news/cpu/pro...osa_12663.html
http://www.hwupgrade.it/news/cpu/aum...-64_12983.html
http://www.hwupgrade.it/news/cpu/avv...amd_12989.html
http://www.hwupgrade.it/news/cpu/leg...ibm_13201.html
http://www.hwupgrade.it/news/cpu/nuo...amd_13300.html
http://www.hwupgrade.it/news/memorie...tri_13342.html
http://www.hwupgrade.it/news/memorie...ung_13576.html

Questi sono tutti i link pertinenti all'argomento della discussione. Per chi fosse interessato, consiglio di leggerli dal primo all'ultimo, perché consentono di comprendere man mano la storia di AMD nel periodo 2001-2004 (ma il primo link riporta informazioni anche sull'ultimo quarto del 2000) riguardo all'introduzione di nuovi processi produttivi, nuove fabbriche, politica dei prezzi, accordi con altre grosse realtà sia per la produzione sia per le nuove fabbriche, diversificazione degli investimenti (memorie flash).

Da quanto sopra sopra, in estrema sintesi, emerge che:
1) la fabbrica di Dresda era già operativa nel 2000, sebbene con scarse capacità produttive;
2) tale fabbrica diventerà punto centrale della produzione di AMD, tanto da venire ulteriormente espansa (Fab36);
3) i volumi di AMD sono progressivamente incrementati (ed è stata proprio la fab di Dresda a provvedervi);
4) non esiste alcuno shortage o comunque AMD non ha mai avuto carenza produttiva;
5) l'UNICO caso di aumento dei prezzi dei processori riguarda ALCUNI processori high-end, causa rese produttive non buone per questi modelli; per il resto i prezzi di AMD sono stati costantemente e considerevolmente sotto quelli dei prodotti di Intel, e dunque grandemente appetibili;
6) in previsione di futuri aumenti dei volumi di vendita, AMD ha stretto un accordo con UMC per la produzione dei suoi processori;
7) AMD s'è permessa il lusso di convertire una fabbrica alla sola produzione di memorie flash (mentre in precedenza produceva anche processori);
8) ha realizzato una joint-venture per la produzione esclusiva di memorie flash (d'altra parte l'avevo già detto che si occupava anche di altro);
9) nella sua politica di espansione si è fatta finanziare da alcuni investitori (banche);
10) last but not least, i die dei suoi processori erano di dimensione inferiore a quelli dei P4 di Intel, per cui erano più convenienti da produrre.

Credo ci siano abbastanza fatti per comprendere come AMD non abbia avuto tarpate le ali da parte di Intel, poiché aveva adeguate capacità produttive per sostenere la sua crescita (come ampiamente dimostrato, numeri alla mano), dovuta ai suoi prodotti che il mercato ha premiato, e soprattutto grazie alla nuovissima fabbrica di Dresda (per la quale ricevette anche un award come migliore fab al mondo; ne parla anche uno dei link).

Intel, invece di sopperire a ipotizzati shortage di AMD... le ha ceduto quote di mercato, come abbiamo visto.

Cadono, dunque, TUTTE le precedenti tesi esposte: che AMD non avesse capacità produttiva, non avesse i mezzi finanziari per sostenere la crescita, che non potesse farsi finanziare, e che i produttori dovessero comprare CPU da Intel per coprire le richieste di mercato.
Quote:
Ben sapendo che Pentium-M era già ormai pronto e con i Pentium III Tualatin che coprivano già le richieste di cpu per notebook.
La "fazione americana" voleva dimostrare che il loro design poteva competere almeno sul lato delle prestazioni anche nel settore dei notebook.
Quando poi uscì il Pentium M li prese a schiaffoni si a livellodi consumi più bassi che di prestazioni di punta.
Come già detto, il P4-M uscì un anno prima di Banias, dunque quest'ultimo era tutt'altro che pronto.
Inoltre il P3 Tualatin non poteva affatto coprire tutto il mercato, per due motivi: il primo è che non aveva a disposizione le nuove SSE2 (motivo per cui i P4 mostravano i muscoli, almeno in ambito multimediale), e il secondo è che Intel aveva messo in piedi una poderosa campagna di marketing puntando tutto sul P4 (per cui i P3 non potevano usufruirne).

D'altra parte il P4 era stato il grande progetto di Intel che avrebbe dovuto coprire tutto il mercato. Era scontato che fosse prevista una declinazione mobile. Infatti è arrivata.
Quote:
Se non erro fu sbandato.
Questo non lo so, ma penso che sia assolutamente plausibile. D'altra parte anche gli ingegneri hanno un cuore...
Quote:
Sembri sottovalutare che a gestire lo sviluppo di un prodotto, oltre ai progettisti ci sono anche i manager, quando un progetto fallisce il suo obiettivo per i manager le prospettive di carriera vengono ridimensionate.
Ne sono perfettamente a conoscenza, e conosco le dinamiche in gioco. Ma, come dicevo, Intel era ed è abbastanza grande da annoverare diversi gruppi di sviluppo per la sua architettura, nelle varie declinazioni.

Per cui i manager di cui sopra, in caso di fallimento del loro progetto, si rimboccano le maniche e si danno da fare per la Next Big Thing.

Peraltro è successo anche a Timna: cancellato, quando era già pronto, tutto il team s'è buttato a capofitto su Banias, e abbiamo visto i risultati...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 09-01-2014, 03:18   #40
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6170
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Va bene, tagliamo la testa al toro anche a questo:

http://www.hwupgrade.it/news/altre/r...-amd_1975.html
http://www.hwupgrade.it/news/altre/r...-dove_967.html
http://www.hwupgrade.it/news/altre/i...7ghz_1377.html
http://www.hwupgrade.it/news/altre/2...-amd_1345.html
http://www.hwupgrade.it/news/cpu/pre...on-4_3714.html
http://www.hwupgrade.it/news/cpu/roa...-amd_5409.html
http://www.hwupgrade.it/news/cpu/acc...-umc_5518.html
http://www.hwupgrade.it/news/cpu/nie...2003_6093.html
http://www.hwupgrade.it/news/cpu/amd...-cpu_6255.html
http://www.hwupgrade.it/news/cpu/amd...tiva_6298.html
http://www.hwupgrade.it/news/cpu/amd...-apc_7049.html
http://www.hwupgrade.it/news/cpu/alc...-umc_7160.html
http://www.hwupgrade.it/news/skmadri...lash_7272.html
http://www.hwupgrade.it/news/cpu/amd...2003_7339.html
http://www.hwupgrade.it/news/cpu/amd...-cpu_9022.html
http://www.hwupgrade.it/news/cpu/int...anno_9093.html
http://www.hwupgrade.it/news/skmadri...lash_9665.html
http://www.hwupgrade.it/news/skmadri...llc_10399.html
http://www.hwupgrade.it/news/cpu/ath...ari_11036.html
http://www.hwupgrade.it/news/cpu/una...amd_11189.html
http://www.hwupgrade.it/news/cpu/nuo...sda_11232.html
http://www.businessmagazine.it/news/...dex_11238.html
http://www.hwupgrade.it/news/cpu/fab...amd_11266.html
http://www.hwupgrade.it/news/cpu/per...-36_11270.html
http://www.businessmagazine.it/news/...pin_11333.html
http://www.hwupgrade.it/news/cpu/k9-...ron_11491.html
http://www.hwupgrade.it/news/cpu/alc...amd_11558.html
http://www.hwupgrade.it/news/cpu/amd...tre_11638.html
http://www.hwupgrade.it/news/cpu/fab...006_11760.html
http://www.hwupgrade.it/news/cpu/alc...ter_11928.html
http://www.hwupgrade.it/news/cpu/ath...ron_12263.html
http://www.hwupgrade.it/news/cpu/nuo...ghz_12440.html
http://www.hwupgrade.it/news/cpu/nuo...sda_12445.html
http://www.hwupgrade.it/articoli/cpu...amd_index.html
http://www.hwupgrade.it/news/cpu/amd...005_12619.html
http://www.hwupgrade.it/news/cpu/pro...osa_12663.html
http://www.hwupgrade.it/news/cpu/aum...-64_12983.html
http://www.hwupgrade.it/news/cpu/avv...amd_12989.html
http://www.hwupgrade.it/news/cpu/leg...ibm_13201.html
http://www.hwupgrade.it/news/cpu/nuo...amd_13300.html
http://www.hwupgrade.it/news/memorie...tri_13342.html
http://www.hwupgrade.it/news/memorie...ung_13576.html

Questi sono tutti i link pertinenti all'argomento della discussione. Per chi fosse interessato, consiglio di leggerli dal primo all'ultimo, perché consentono di comprendere man mano la storia di AMD nel periodo 2001-2004 (ma il primo link riporta informazioni anche sull'ultimo quarto del 2000) riguardo all'introduzione di nuovi processi produttivi, nuove fabbriche, politica dei prezzi, accordi con altre grosse realtà sia per la produzione sia per le nuove fabbriche, diversificazione degli investimenti (memorie flash).

Da quanto sopra sopra, in estrema sintesi, emerge che:
1) la fabbrica di Dresda era già operativa nel 2000, sebbene con scarse capacità produttive;
2) tale fabbrica diventerà punto centrale della produzione di AMD, tanto da venire ulteriormente espansa (Fab36);
3) i volumi di AMD sono progressivamente incrementati (ed è stata proprio la fab di Dresda a provvedervi);
4) non esiste alcuno shortage o comunque AMD non ha mai avuto carenza produttiva;
5) l'UNICO caso di aumento dei prezzi dei processori riguarda ALCUNI processori high-end, causa rese produttive non buone per questi modelli; per il resto i prezzi di AMD sono stati costantemente e considerevolmente sotto quelli dei prodotti di Intel, e dunque grandemente appetibili;
6) in previsione di futuri aumenti dei volumi di vendita, AMD ha stretto un accordo con UMC per la produzione dei suoi processori;
7) AMD s'è permessa il lusso di convertire una fabbrica alla sola produzione di memorie flash (mentre in precedenza produceva anche processori);
8) ha realizzato una joint-venture per la produzione esclusiva di memorie flash (d'altra parte l'avevo già detto che si occupava anche di altro);
9) nella sua politica di espansione si è fatta finanziare da alcuni investitori (banche);
10) last but not least, i die dei suoi processori erano di dimensione inferiore a quelli dei P4 di Intel, per cui erano più convenienti da produrre.

Credo ci siano abbastanza fatti per comprendere come AMD non abbia avuto tarpate le ali da parte di Intel, poiché aveva adeguate capacità produttive per sostenere la sua crescita (come ampiamente dimostrato, numeri alla mano), dovuta ai suoi prodotti che il mercato ha premiato, e soprattutto grazie alla nuovissima fabbrica di Dresda (per la quale ricevette anche un award come migliore fab al mondo; ne parla anche uno dei link).

Intel, invece di sopperire a ipotizzati shortage di AMD... le ha ceduto quote di mercato, come abbiamo visto.

Cadono, dunque, TUTTE le precedenti tesi esposte: che AMD non avesse capacità produttiva, non avesse i mezzi finanziari per sostenere la crescita, che non potesse farsi finanziare, e che i produttori dovessero comprare CPU da Intel per coprire le richieste di mercato.
Gran bel wall of text, ma hai mancato completamente il nocciolo della questione: non hai provato che AMD poteva sopperire alla richiesta mondiale di cpu x86, anzi, quanto riportato sopra dimostra che AMD sapeva benissimo di non poterlo fare e che era troppo rischioso tentare di dare priorità a questo visto che rischiava di esporsi troppo, per questo ha cercato di far fruttare al meglio quello che aveva, anche diversificando o cambiando produzione dove era più conveniente.


Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Come già detto, il P4-M uscì un anno prima di Banias, dunque quest'ultimo era tutt'altro che pronto.
Inoltre il P3 Tualatin non poteva affatto coprire tutto il mercato, per due motivi: il primo è che non aveva a disposizione le nuove SSE2 (motivo per cui i P4 mostravano i muscoli, almeno in ambito multimediale), e il secondo è che Intel aveva messo in piedi una poderosa campagna di marketing puntando tutto sul P4 (per cui i P3 non potevano usufruirne).

D'altra parte il P4 era stato il grande progetto di Intel che avrebbe dovuto coprire tutto il mercato. Era scontato che fosse prevista una declinazione mobile. Infatti è arrivata.
Il P3 Tualatin reggeva benissimo nel settore dei notebook e stava arrivando il Banias le cui prestazioni erano già note internamente ad Intel, eppure nonostante il fatto che il P4 avesse già dimostrato che razza di stufetta era secondo te il team del P4 si incaponì comunque a svilupparne una versione appositamente per i notebook solo per "favorire la diffusione delle SSE2" ?
A me sembra più una questione di rivalità interne ad Intel.
LMCH è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


OPPO Find X9 Pro: il camera phone con teleobiettivo da 200MP e batteria da 7500 mAh OPPO Find X9 Pro: il camera phone con teleobiett...
DJI Romo, il robot aspirapolvere tutto trasparente DJI Romo, il robot aspirapolvere tutto trasparen...
DJI Osmo Nano: la piccola fotocamera alla prova sul campo DJI Osmo Nano: la piccola fotocamera alla prova ...
FUJIFILM X-T30 III, la nuova mirrorless compatta FUJIFILM X-T30 III, la nuova mirrorless compatta
Oracle AI World 2025: l'IA cambia tutto, a partire dai dati Oracle AI World 2025: l'IA cambia tutto, a parti...
NVIDIA cambia strategia? La GPU Feynman ...
Signal respinge le accuse dopo il down A...
Uragano Melissa in arrivo: la tempesta d...
8K o 4K? Ecco perché il tuo occhi...
Mercato auto europeo in crescita nei pri...
Addio SSD e RAM, benvenuti funghi: dagli...
TCL Q6C: tecnologia e design per un TV c...
Corsair MP700 PRO XT al debutto: un SSD ...
Apple Watch Ultra 2 in titanio con GPS +...
Nuova protezione per Windows 11: scansio...
GoPro LIT HERO a 249€ su Amazon: la nuov...
PayPal integra i pagamenti in ChatGPT: c...
Battlefield REDSEC: al via la Stagione 1...
Dark Power 14 è un alimentatore d...
Ufficiale: Amazon taglia 14.000 posti di...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 17:59.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1