|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#21 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4166
|
Quote:
Il problema di Intel è uno solo: il numero spaventoso di transistor necessari per implementare la ISA x86. E gli altrettanti transistor necessari per fare in modo che giri decentemente. Tutto ciò si ripercuote su un numero di transistor enorme solo per la parte dei core. Poi vengono tutte le altre parti, come quelle per la gestione degli stream multimediali e della GPU. Un core di un vecchio Atom, che ha architettura in order (quindi con meno transistor dell'ultima che è OoO), è grande tanto quanto un intero SoC ARM. E un SoC ARM è pensato perché si attivi solo ed esclusivamente quello che serve per risparmiare il più possibile. Tanto che quando guardi un film con il decoder nativo si usano qualche decina di mW. Un SoC x86 con una decina di mW ci alimenta il primo stadio della pipeline anche quando è in idle. Ecco perché tutti i numeri sulla carta di Intel relativi ai vecchi Medfield erano tarocchi. E nessuno lo ha adottato. sbudellaman: "Forse non ti rendi conto che se AMD muore completamente rischia di andare a puttane anche il mercato GPU, in cui è in concorrenza con una certa nvidia... hai presente? Per le gpu la situazione è ben diversa e concorrenza nel suo ambito la fa eccome." Mah, visti i prezzi delle ultime VGA direi anche no. Con AMD che ha tagliato di brutto tutte le sue fasce e nvidia che ancora persevera con costi allucinanti (vedo oltre 500 euro per una 680 realizzata con un chip più piccolo della concorrenza per cui con margine di guadagno decisamente superiore) e a quanto pare vendendo il doppio rispetto ad AMD, direi che anche lì qualcosa non va. Senza dimenticare il mondo professionale dove vende 4 volte tanto e quindi la presenza o meno di AMD non fa alcuna differenza. Sì, certo, senza AMD nvidia potrebbe smettere di impegnarsi il giusto per evitare di fare piastrelle da 1000mm^2 da vendere a qualche decina di migliaia di euro o nel reparto SW dove ancora traina e fa la differenza. Ma quello che chiedo io non è rimanere senza concorrenza. E' avere un concorrente serio che fa davvero bene in tutti i campi. Non uno che per vendere qualcosa deve tagliar i prezzi della metà e poi non avere alcuna rispsrsa da investire nello sviluppo SW. Dove sta la tecnologia concorrente al 3D vision? A Physx? A CUDA? Siamo fortunati che le DirectX sono proprietarie di Microsoft, perché se nvidia avesse avuto anche la possibilità di usare librerie sue (tipo rispolverando le Glide dell'acquisita 3DFX) a questo punto non vi sarebbe nulla da fare già da un bel pezzo. Io voglio concorrenza! Quella vera! E AMD non la sta facendo anche se è in campo. Avere un corridore zoppo in una maratona a 2 non significa avere un concorrente. E' l'equivalente di "vincere facile" e entrambe Intel e nvidia sono contente di quel concorrente che la gente vuole a tutti i costi in pista ma che avrà sempre un piede fasciato (2,5 miliardi di dollari di debito e oltre 5 miliardi di dollari di deficit accumulato!!). Io dico solo, via lo zoppo e dentro uno sano. Lo so che non è facile, ma IBM potrebbe essere quello nel settore CPU contro Intel (là dove i brevetti x86 non potrebbero lasciare il suolo natìo) perché no, Samsung o Intel stessa in quello delle GPU contro nvidia. E allora sì che ci sarebbe da ridere. Oggi invece c'è solo da piangere. |
|
|
|
|
|
|
#22 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4166
|
Quote:
Sempre che l'anno prossimo ci sia qualcosa cer cui Intel abbasserà i prezzi degli i3 altrimenti ci toccherà esulare sui 5 dollari di differenza per i Pentium/Celeron.. Per quanto riguarda nvidia, tutte queste mazzate io non le ho viste. Le percentuali di mercato sono sempre le stesse nel mercato discreto (in quello globale con le integrate i numeri non significano nulla). E nel mercato professionale nvidia continua ad aumentare e a farsi mercati nuovi (HPC) mentre AMD non riesce nemmeno a fare in modo che le SW usino le librerie da lei adottate (non sviluppate, quelle sono state abbandonate da tempo). L'unica vera mazzata ricevuta da nvidia in questi anni è stata la chiusura illegale di Intel nel settore dei chipset che le ha fatto perdere molto fatturato. Tanto era sviluppato il mercato di AMD che nvidia ha deciso di smettere di fare chipset perché farli solo per le motherboard AMD (che non si sono chiuse) non sarebbe stato abbastanza redditizio. Il tutto portando nvidia a investire nel mobile. Per il resto AMD non ha davvero portato nvidia a fare molto sforzo in più rispetto a quello che sarebbe stata la normale routine. Dal G80 a oggi AMD è stata molto indietro. Oggi (no ieri o 10 anni fa) nvidia vende un chip delle dimensioni della vecchia fascia media ad un prezzo superiore alla vecchia fascia enthusiast. Dimmi te che concorrenza c'è stata? E' un miglioramento da far credere che le cose vadano davvero bene? Sul fatto storico di AMD superiore a Intel c'è molto da dire. Nessuno nega che al tempo degli Athlon AMD fosse decisamente superiore e Intel avesse imboccato la strada sbagliata (che è le stessa presa da AMD con Buldozzer oggi) ma non è che AMD ha avuto un colpo di genio e improvvisamente ha creato qualcosa di miracoloso dal suo prprio dipartimento di R&D. La tecnologia che stava alla base del vantaggio dell'Athlon derivava dall'acquisizione degli ingeneri della divisione semiconduttori di DEC (quelli del processore Alpha per intenderci, la migliore architettura sul mercato all'epoca). Un apporto istantaneo di innovazione e conoscenze che hanno permesso ad AMD di avere il vantaggio su Intel. Vantaggio che è durato ben poco, dato che le nuove conoscenze sono poi state disperse negli anni successivi (ci sono voluto 6 anni per fare il Phenom e abbiamo visto tutti cosa ne è uscito). Insomma, la storia dice che AMD non è in grado autonomamente di fare un granché. Uno può accontentarsi, ma deve anche capire quali sono i limiti di questa cosa: ovvero che Intel potrà fare quello che vuole nelle fascia medie-alte-enthusuast e professional per il resto della sua esistenza. A me, personalmente, questa cosa non piace. |
|
|
|
|
|
|
#23 |
|
Senior Member
Iscritto dal: Mar 2009
Messaggi: 6756
|
Dire che amd non è competitiva è un conto. Dire che invece non fa concorrenza in nessun campo e che la sua morte non cambierebbe nulla, è un altro discorso, secondo me errato. Poi si può sparlare quanto si vuole...
__________________
Trattato positivamente con: jhon16, orso232, JacopoSr, cirano76, enrikinter, firestorm90, giulio81 |
|
|
|
|
|
#24 | |
|
Member
Iscritto dal: Jul 2010
Messaggi: 275
|
Quote:
Ti pongo una questione: da quando in un Tablet o in uno Smartphone di ultima generazione le prestazioni sono state un fattore di rilievo? Quello che si chiede principalmente ad un tablet o uno smartphone sono: facilità d'uso,buona autonomia,un buon numero di applicazioni e per ultimo un prezzo adeguato. Finora Intel può contare a suo favore solo sull'autonomia mentre per le applicazioni o sono poche(e per la maggior parte mediocri) e mirate come Office o ereditate dalle versioni PC,le quali però non sono ottimizzate per funzionare su di un device come un tablet e comunque con l'incognita di eventuali problemi di prestazione (chi è che comprerebbe un costoso Tablet Intel,o anche AMD,per giocare a COD o Crysis?). Chi ha prodotti ARM non ha di questi problemi,perché conta su di un ecosistema economico a parte con costi di realizzazione inferiori che gli consentono di guadagnare maggiormente in un mercato che gli appartiene sia per hardware che per software.Utilizzare invece soluzioni Intel significa condividere i guadagni con questi (e eventualmente con microsoft) addossandosi tutti i rischi del caso. Il flop dei Netbook e Ultrabook e del crollo di vendite di PC è già un sintomo di questa situazione. Come ho detto in precedenza per AMD è invece un discorso a parte perché questi hanno già espresso l'intenzione di abbandonare gradualmente il mercato dei processori tradizionali,non essendo più in grado di sostenerne i costi,in favore di quelli ibridi APU (infatti le CPU FX Steamroller secondo i loro piani saranno le ultime prodotte da AMD,in seguito da Excavator in poi produrranno solo processori APU......amen!). AMD già collabora attraverso l'HSA foundation con ARM e alcuni dei suoi affiliati (compresa Qualcomm). Lo scopo è semplice: non avendo i capitali per entrare dalla porta principale nel mondo ARM,attraverso una collaborazione sulla progettazione di soluzioni ibride sia hardware che software,mettendo a disposizione inoltre licenze e brevetti,AMD vuole entrare dalla porta di servizio facendosi assistere e spendere il meno possibile. In pratica forse non vedremo mai smartphone APU o molto più probabilmente non è detto che in futuro eventuali APU con solo core ARM siano marchiate AMD se non come co-licenziataria del Soc. Ultima modifica di PacK8 : 25-10-2012 alle 18:10. |
|
|
|
|
|
|
#25 |
|
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14739
|
@CrapaDiLegno
Ci sono alcuni punti del tuo discorso che non tornano. In particolare: - L'Atom single core ha dimostrato di avere consumi e prestazioni perfettamente paragonabili ai SOC A9 dual core ARM su cui è stata svolta la comparativa. Quindi non mi pare che abbia senso continuare a dire che Intel non può rivaleggiare sui consumi, il prodotto è efficiente e quindi competitivo. Da qui i margini di miglioramento ci sono su entrambi i fronti: i SOC ARM possono passare ad architettura A15 e pp 28nm, Intel può passare ai 22nm trigate (che permettono bassi consumi proprio a basse tensioni, quindi ottimali in questo caso... e in futuro potrebbero usare tecnologie Near Threshold Voltage, di cui ha già dato dimostrazione, che potrebbero darle un ulteriore vantaggio competitivo) e ottimizzare il software per il SOC. - Sul processo produttivo, non esiste un paragone "a parità di nanometri". Intel ha un processo migliore, e questo è un vantaggio competitivo imprescindibile. Quindi anche questo va a far parte dell'equazione. - Sui costi, ciò che conta sono costi di progettazione (e Intel è abbastanza grossa da non avere problemi per questo), rese produttive (e dato che Intel non ha particolare fretta, immagino aspetti siano abbastanza buone) e chip per wafer (non numero di transistor... perchè se i miei transistor sono più piccoli mi costano meno, e a parità di costo posso metterne di più). Quindi non vedo perchè debba essere così tragica per Intel la questione dei costi. - Per quanto riguarda le schede video, non mi pare che nel mercato consumer Nvidia venda il doppio in questo momento. CUDA da un vantaggio ad Nvidia ora perchè è più maturo ma il futuro è OpenCL, il 3D è troppo di nicchia per parlare di vero vantaggio (e anche li AMD ha la sua soluzione, anche se non il pacchetto pronto). Lo so che tu tutte queste mazzate non le hai viste, ma questo non significa che non ci siano state. Dimentichi le schede di cartone, dimentichi le gtx 260 e 280 (chip enormi e costosi) deprezzate brutalmente poco dopo l'uscita, dimentichi tante cose. E per il mercato chipset di Nvidia, spiegami perchè hai usato la parola "illegale", hai prove di questo o è il solito bla bla pro nvidia? E ha deciso di smettere non perchè farli solo per AMD non sarebbe stato redditizio, ma perchè anche AMD stava puntando all'eliminazione dei chipset passando alle APU, e continuare ad investirci non avrebbe avuto senso. E per fortuna, perchè gli ultimi chipset nvidia erano uno schifo e tragici lato driver, e te lo dico da possessore. Ultima modifica di calabar : 25-10-2012 alle 18:40. |
|
|
|
|
|
#26 |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4166
|
@Pack8)
Scusa. ma dove vedi smartphone e tablet dell'ultima generazione che non montano il meglio in termini di SoC disponibili? Vedi nuovi tablet o smarphone fatti con il Tegra2? Eppure il Tegra2 è stato il best buy per lungo tempo con cui hanno praticamente fatto tutti i tablet della scorsa generazione, mica un scartozzino da gettare via. Anche Apple, che non fa pubblicità alle prestazioni pure tanto per far numeri, fa dispositivi nuovi con le ultime incarnazioni più potenti delle precedenti. Forse l'iPad3 monta lo stesso SoC del 2? E' normale che le prestazioni siano il fondamento per avere un dispositivo che fa di più. Schermi più grandi, applicazioni 3D, programmi complessi tutti beneficiano di prestazioni migliori. Non puoi presentarti sul mercato con un oggetto che costa come la concorrenza e avere prestazioni peggiori (a meno che non ti chiami Apple e sei nel mercato medio dei 7"). Altrimenti poi se non vendi non è colpa delle tangenti della concorrenza del fatto che sei un brutto anatroccolo che nessuno ti vuole per ingiustificato motivo. Galaxy S3 e Note 1 e 2, One X XL, Sony S, SL sono solo alcuni telefoni che escono con HW aggiornatissimo. Per far cosa non si sa, ma di certo non hanno risparmiato sulla dotazione. Detto questo, non hai compreso bene tutto il discorso precedente. Il numero dei transistor sono importanti. Perché più transistor = più consumi. E più area. Ora tu dici, sì ma io ho un PP di vantaggio e quindi me ne sbatto. Purtroppo se il tuo PP di vantaggio ti permette di arrivare al pari (se così è, perché non lo sappiamo ancora) della concorrenza, significa che il tuo SoC costa di più. I PP più avanzati costano di più a parità di area rispetto a quelli più vecchi. Ora è vero si chiama Intel con un utile mostruoso e si può permettere di vendere sottocosto per strangolare la concorrenza, ma questo significa che si sta usando un buon prodotto secondo te? O è solo una forzatura del mercato? L'unico vantaggio di avere un SoC x86 quello di usare le applicazioni legacy. Purtroppo però queste non vanno tanto d'accordo con l'interfaccia solo touch (usa Photoshop classico con le dita e poi dimmi). Quindi in definitiva non c'è un vero vantaggio ad avere un SoC x86 nel tablet. Ancora meno nel telefono dove non ci sono applicazioni legacy da usare. Infine la questione "stesse prestazioni o migliori". Di quali risultati parli? Di quelli presentati da Intel? Forse non ti ricordi la presentazione di Medfield. Con il paragone, al tempo, con un bel Cortex-A8. Ah, quanto meraviglioso era il Medfield (anche se consumava poco di più). Io non l'ho visto adottato da nessuna parte. Tu? Ah, già, che sbadati, nel frattempo sono usciti i dual core A9 con PP migliorato e GPU più grandi = medfield una merda paurosa in confronto. Qui si sta ripetendo la stessa cosa: confronto con gli A9, anche se quad, tanto per far vedere i numeri grandi della concorrenza contro cui si combatte, e benchmark mono thread (come quelli Javascript). E già, nessuno sa che già esistono i dual core simil A15 (Qualcomm Krait) che da soli già danno la biada al quad core nvidia proprio nei test Javascript e che tra un po' usciranno i Cortex A15 con PP migliorato che daranno la biada agli stessi core di Qualcomm. E che nell'anno futuro ne vedremo spuntare almeno 5 o 6 declinazioni tra mono, dual, quad core e big.LITTLE con GPU che andranno dalla più scrausa Mali400 alla PowerVR MP4 o 8 e non si sa ancora cosa proporrà in questo caso nvidia. No, facciamo i confronti con la generazione vecchia (e proprio con un SoC che è nato come ponte tra A9 e A15 in attesa che il PP sia pronto, quindi con tutti i compromessi del caso, tanti core, bassa frequenza, 1 solo memory channel, una GPU relativamente piccola) come fatto con Medfield e fingiamo di credere che saranno competitivi in termini di consumi e di prestazioni. Vedremo quanto successo mieteranno questi nuovi Atom. La loro fortuna sarà uguale a quella dei tablet Win8 indipendentemente dalla loro qualità intrinseca per via come detto della compatibilità. Invece sui telefoni scommetto che non li monterà nessuno. Se non 3 modelli in croce (sovvenzionati da Intel stessa) tanto per dimostrare che sono in qualche modo esistiti. Per quanto riguarda l'HSA, se AMD non entra nel mercato embedded non ne trarrà alcun beneficio. Nel mondo dei PC tradizionali l'HSA non ha alcun futuro (che lo usi a fare? Per fare codifiche che si fanno a 1/10 delle risorse con HW ad-hoc? Per craccare chiavi wireless tutto il giorno? Per cosa è buono l'avere a disposizione millemila teraflops sul computer di casa?). Diverso è nel mondo embedded dove si usano chip per fare lavori specifici che trarrebbero notevoli benefici (elaborazione d'immagine e video in primis). Ecco quindi che chi ha mercato embedded è interessato alla questione. Non mi stupirei di vedere anche Canon, Nikon e Sony un giorno in quel consorzio, sempre che loro non abbiano nulla da imparare da esso (essendo loro sicuramente all'avanguardia sotto questo punto di vista). |
|
|
|
|
|
#27 | |
|
Senior Member
Iscritto dal: Jan 2010
Città: Milan
Messaggi: 9802
|
Quote:
mah..non ci credo x microsoft, figurarsi x AMD.. la realtà è che conti alla mano AMD se vuole sopravviviere, con il fatturato che si ritrova, deve tagliare i costi, e purtroppo ultimamente x le aziende "i costi" equivale allo stipendio dei poveri dipententi! sono convinto che nel 2013 avremo un lungo elenco di aziende del settore personal computer che -ahimè- praticheranno questa strada.. |
|
|
|
|
|
|
#28 | ||||||
|
Member
Iscritto dal: Jul 2010
Messaggi: 275
|
Quote:
Quote:
Quote:
Fai bene a nominare il PP: se si pensa al fatto che Intel vuole arrivare ai 10nm già nel 2015,ma quanto dovrà spendere per farlo e per fare cosa? distanziare ancora di più AMD? non serve,già lo fanno da soli,per superare ARM? e per quello che andranno a spendere e che spendono già adesso non era meglio una licenza di questi e buonanotte al secchio? tutto questo in nome del monopolio e quote di mercato?...mah! ![]() Quote:
Quote:
Quote:
Ultima modifica di PacK8 : 25-10-2012 alle 22:11. |
||||||
|
|
|
|
|
#29 | |
|
Senior Member
Iscritto dal: May 2004
Messaggi: 8157
|
Quote:
|
|
|
|
|
|
|
#30 | |
|
Senior Member
Iscritto dal: May 2004
Messaggi: 8157
|
Quote:
Per al questione dei consumi ti consilgio di andare a vedere i consumi perche hai detto falsità un Un SoC x86 nelle condizioni da te citate consuma quanto un soc arm e queste sono misure reali non tabelle buttate li a caso. |
|
|
|
|
|
|
#31 | |
|
Senior Member
Iscritto dal: May 2004
Messaggi: 8157
|
Quote:
Tanto per farti un esempio la cache sram nelle cpu è composta normalmente da 6 transistor negli atom e nelle ultime cpu intel hanno usato celle formate da 8 transistor con uno spazioni occupato sul die del 33% superiore a parità di capacità e questo gli ha permessi di risudde sensibilmente i consumi (per motivi tecnici che trovi documentati ampliamente). Quindi in questo e in altri casi l'aumento dei transistor puo singificare minor consumi, considera chr il futoro Near-threshold voltage di intel che promette di ridurre drasticamente tensioni e consumi passa proprio da un aumento di N volte dei transistor utilizzati con un aumento sensibile dello spazio occupato sul die a parità di funzioni implementate. Quindi più transistor <> più consumi. Se avessi usato la tua spiegazione per parlare con un parsona normale che non ha alba di queste cose mi sta anche bene ma non su un forum di informatica. Ultima modifica di coschizza : 26-10-2012 alle 09:18. |
|
|
|
|
|
|
#32 | |
|
Bannato
Iscritto dal: Jan 2007
Città: Verona... finchè non mi buttano fuori :D
Messaggi: 3224
|
Quote:
è, come hai detto tu, una corsa, non una partita di tennis dove per forza si gioca in due. (non uno, non tre). non è che, affinchè qualcuno entri, amd deve uscire; un terzo competitor potrebbe proporsi anche ora. se non lo fa è perchè nessuno lo ritiene opportuno. |
|
|
|
|
|
|
#33 | |
|
Senior Member
Iscritto dal: May 2004
Messaggi: 8157
|
Quote:
se ti conviene lo fai se no no, ma la convenienza cambia in continuazione. Perche apple è passata da powerpc a x86 a arm, per gli stessi motivi. Se un soc intel ti fa girare android x86 e ti dovessa dare qualcosa di nuovo che gli altri non anno mi chiederei perche non passare a un soc intel allora?. Chi ha detto che il produttivo di intel sia avanti di 2 generazioni? i soc intel sono a 32nm e la concorrenza usa anche lei i 32nm per gli ultimi modelli e ora passera ai 28nm su certi modelli quindi l'intel per ora non è aventi di 2 generazioni ma alla pari o leggermente indietro visto che i 22nm non sono ancora usati per questo mercato per ancora circa 1 anno. Quindi l'opposto di quello che hai detto. |
|
|
|
|
|
|
#34 |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4166
|
@coschizza
Ti contraddici un po'. I 22nm di Intel sono 2 PP avanti rispetto al PP con cui Intel ha fatto i confronti. Sia perché come hai detto tu hanno silicio migliore, e sia perché usano l'HKMG, che sui 28nm non sarà disponibile e SoC a 40nm fatto da TSMC (praticamente tutti tranne quelli di Samsung) sono bulk. Come hai ben detto tu la minore nanometria è accompagnata da altri processi avanzati per Intel che le garantiscono ulteriori vantaggi. Si sta quindi affermando che il vantaggio di Intel è nel processo costruttivo e non nella architettura. Che infatti non regge il passo. Quello che ho visto io, nei test fatti e mostrati da Intel, è che i nuovi Atom sono qualche % più veloci di un Tegra3 nei processi mono threading a 1.3GHz (la velocità più bassa a cui si può trovare il Tegra3). Come detto esistono già architetture migliori, sempre a 40nm, che nell'esecuzione monothreading lasciano nella polvere il Tegra3 che è un SoC "prototipo" con molti compromessi. Vai a vedere quanta banda di memoria ha a disposizione rispetto agli altri SoC, non necessariamente più moderni. Il confronto quindi è fatto usando i dati di un quad core alla minima velocità in test che esaltano le sue carenze (monothreading a poca banda). Inoltre i consumi alla pari ancora non li ho visti (tranne che sulla carta presentata da Intel stessa ovviamente), ma mettiamo anche che lo siano, l'Atom ha una GPU che non fa concorrenza neanche al Tegra2. Vogliamo metterci qualche transistor in più nella GPU? Massì, va mezzo chilometro quadro di SoC e via, a fare concorrenza agli S4 dual core che sono grandi la metà con PP più vecchio. Inoltre è evidente che questi Atom non sono per niente prestanti come Intel vorrebbe, dato che sul Surface Pro ha montato un i5ULV e certamente questo non ha i consumi di un SoC ARM (e sopratutto il prezzo, che non è giustificabile neanche per quel GB in più di memoria). La questione più transistor = più consumi è valida. A meno che non usi i transistor in più per fare qualche cosa di speciale come hai detto tu (o li piazzi per bellezza per fare ricami da vedere nelle foto microscopiche), se hai 100M di transistor per un core, questi consumeranno di più di uno fatto con 100K transistor. Almeno fino a oggi, Atmom serie Z inclusi. Comunque è inutile che stiamo qui a farci pippe su come andranno gli Atom di Intel rispetto ai Cortex A15. Il mercato degli smartphone premierà automaticamente le soluzioni migliori, perché non c'è modo per Intel di sovvenzionare tutto il mercato per far loro abbandonare ARM in suo favore. Al massimo 2 o 3 modelli. Per i tablet invece tutto dipenderà dal successo di Win8 e la sua presunta compatibilità con il resto del parco SW x86 (dico presunta perché come detto non serve a nulla riuscire ad aprire Photoshop su un tablet se poi bisogna usare le dita per fare foto ritocco). Chi vivrà vedrà, ma io, personalmente, dubito che Intel riuscirà a competere con ARM nel mondo mobile a meno che le fonderie terze non incappino in qualche problema insormontabile. @Pack8) Perché mai Intel dovrebbe acquisire la tecnologia ARM e competere in un mercato con ricavi risicatissimi? Non è che fare il SOC migliore in assoluto permette di fare quintali di soldi. Dipende da quanto ti costa a monte. Apple può permettersi il SoC più grande dei circo perché sa cosa vuole, dove deve metterlo e quanti ne venderà, per quanto e a che prezzo. Samsung potrebbe fare lo stesso più o meno, ma il resto dei produttori di SOC deve tenere conto dei bisogni generici dei produttori di telefoni/tablet. Intel sarebbe nelle stesse condizioni, e non è che i 22nm sono economici. Fanno sì risparmiare sulla quantità di silicio, ma a parità di area costano di più dei 40 o 28nm di TSMC. Usare tecnologia di terze parti significa rendere evidente che la propria non funziona, con la conseguente richiesta di spiegazioni da parte degli investitori. Quindi meglio per Intel proporre la propria architettura proprietaria e intestardirsi a tentare di migliorarla (o meglio e tagliuzzarla) per renderla competitiva. Tanto sa che ARM prima o poi vorrà mettere la testa fuori dal mercato limitato dai consumi, e allora lì farà valere tutta la sua forza. Per intanto spendere qualche miliardino in R&D per migliorare i consumi aiuta in maniera generale anche il resto dei prodotti. Sembra che Haswell sotto questo punto di vista farà miracoli. |
|
|
|
|
|
#35 |
|
Member
Iscritto dal: Feb 2012
Messaggi: 146
|
Beh secondo me la mossa amd+arm é la direzione giusta...economicitá...consumi ridotti e un buon know how x quel che riguarda il comparto grafico.... Prima che intel superi Arm in tutto questo ne passerá di acqua sotto i ponti...d'altronde il nemico di un nemico é tuo amico..
|
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 15:02.





















