AMD dubbiosa sull'ingresso di NVIDIA nel mercato x86

AMD dubbiosa sull'ingresso di NVIDIA nel mercato x86

Il CEO di AMD, Dirk Meyer, crede che NVIDIA non avrà molte possibilità di riuscire ad entrare nel mercato di processori x86

di Andrea Bai pubblicata il , alle 12:26 nel canale Processori
NVIDIAAMD
 

Il sito web BusinessWeek ha pubblicato un'intervista a Dirk Meyer, CEO di AMD, il quale ha espresso il proprio parere su alcuni dei temi più caldi che in questo momento toccano da vicino l'azienda di SunnyVale.

Una delle parti più interessanti dell'intervista, nella quale vengono fatti cenni al mutamento del metodo di lavoro a seguito della cessione delle fabbriche produttive e viene ribadita la perplessità che AMD ha nei confronti dei sistemi netbook, è la risposta in cui Meyer esprime il proprio parere in merito al possibile ingresso di NVIDIA nel mercato di processori x86.

Meyer ha dichiarato: "Sono un po' dubbioso sulle capacità di NVIDIA di poter realizzare un chip x86 partendo da zero. Solamente le barriere di proprietà intellettuale sono enormi. Non è qualcosa che si può azionare come un interruttore della luce. E, tra le altre cose, dovrà pagare Intel per questo". NVIDIA, infatti, non dispone di una licenza d'uso del set di istruzioni x86 e nel caso dovesse decidere di entrare in questo segmento di mercato si troverà costretta a contrattare con il colosso dei processori oppure acquisire una società che attualmente abbia i diritti di sviluppo, produzione e commercializzazione dei processori x86, tenendo ben presente, tuttavia, che queste licenze potrebbero comprendere alcune clausole di non trasferibilità a terzi. In altri termini se NVIDIA decidesse di acquisire una società che detiene licenze x86, potrebbe non avere comunque la possibilità di utilizzarle e, in tal caso, dovrà comunque andare incontro ad una fase di trattativa (o di confronto legale) con Intel e/o con altri eventuali detentori di diritti sulla proprietà intellettuale.

Meyer sottolinea inoltre come l'interesse di NVIDIA nel segmento delle soluzioni SoC (come l'attuale Tegra o, nel caso dovesse concretizzarsi, il System-on-Chip x86) sia una cartina al tornasole di quanto, nell'attuale scenario, sia necessaria l'implementazione di CPU e GPU in un singolo pezzo di silicio. Ed è proprio sulla base di questa considerazione che nel corso del 2006 AMD ed ATI hanno deciso di procedere con le operazioni di fusione che hanno portato ad un'unica realtà.

"Non sono sorpreso dall'interesse di NVIDIA nel mercato x86. Conferma l'idea che abbiamo avuto quando abbiamo acquisito ATI Technologies qualche anno fa. Credo sia abbastanza ironico che Jen-Hsun Huang (CEO di NVIDIA), che è un ottimo amico, sottolineasse il fatto che NVIDIA fosse rimasta l'unica compagnia indipendente a realizzare GPU come se fosse una cosa positiva. Dal mio punto di vista non lo è."

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

19 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
killercode12 Marzo 2009, 12:33 #1
Non è l'unico, praticamente tutti credono che avrà vita difficile questa iniziativa di nvidia
tommy78112 Marzo 2009, 12:57 #2
Nvidia non è un pivellino alle prime armi, se decide di entrare nel segmento x86 vuole dire che si è fatta i suoi conti e sa dove e come arrivare ad un determinato traguardo. A mio avviso è auspicabile la scesa in campo di Nvidia, magari a fianco di Via che già costruisce i suoi processori x86 ma che avrebbe solo da guadagnare ad avere un colosso come quello alle spalle.
Animaribelle12 Marzo 2009, 12:58 #3
potrebbe non essere una debolezza... i nuovi ARM cortex a9 multicore sono alle porte, vedremo se Intel saprà competere con loro sul campo delle prestazioni per watt. Se così non dovesse essere, si andrebbe a creare un "ecosistema" interessante. Vedremo i primi netbook ARM/Linux (la prossima relase di Ubuntu sarà ottimizzata anche per queste piattaforme) competere con gli Intel/Win 7 (versione "castrata" a 3 applicazioni simultanee... a meno di pagare o craccare ovviamente :P). Come andrà lo deciderà il mercato...
Personalmente, faccio il tifo per il RISC! ^^
icoborg12 Marzo 2009, 13:02 #4
ah be certo il giudizio dubbioso sull'entrata di un nuovo concorrente sul mercato è sicuramente oggettivo...
leptone12 Marzo 2009, 13:20 #5
IMHO AMD in questi anni non ha sfondato, ma si è garantita di non sparire in futuro a lungo termine. Come a dire: possiamo avere alti e bassi ma ci saremo sempre.
È difficile credere che al tempo dei 939 AMD sia stata a godersi il successo (che poi intel vendev tanto... le sapete ste cose). Intel ora dovrà imparare a migliorare il suo "quad nativo con MC-Hub integrato" nel senso aumentare l'IPC, il througput, e diminuirre le latenze. Forse AMD ha un vantaggio in questo e magari fra 3 o 4 anni sarà di nuovo sopra intel lato CPU.
Si dice ma non credo vero al 100%, che intel mira solo ad aumentare i core. Anche se fra 5 anni moti software saranno tutti multithreading(a parte gli algoritmi che non sono paralellizzabili eccc... la conosciamo tutti questa storia inutile ripeterla), non credo che per i deskptop sarà vantaggiorso avere 16 core, IMHO 4 bastano anche x gli smanettoni. Ora le CPU mobile,desktop, server sono prese dallo stesso progetto, in futuro questo cambierà. Per i server e workstation 16,32,64 core vanno bene, quindi si dovrà dividere la linea server/workstation(x workstation intendo cose tipo dipartimento di fisica non videoediting del fotografo vicino casa che fa i filmini dei matrimoni[con tutto il rispetto è un professionista e uno dei migliori nel suo campo, e usa un dual xeon a 6 core ovvero 12 core]).
Finita la corsa ai MHz, è iniziata quella ai core, ma in ambito desktop ci vuole altro ora, e il GPGPU ha lo stesso difetto: non velocizza ciò che è scalare(non parallelizzabile). Gli ssd fino a un certo punto, un'applicazione che non usa l'hd dopo che l'hai aperta in un nanosecondo sta tutta in ram e non si avvantaggia + dell'SSD. Ci vuole una nuova invenzione.... ma panso che per CPU e I/O fotoniche (credo si chiamano ottici), cose con nanotubi in carbonio e computer quantistici ci saranno i miei nipotini bimbiminkia che ciattano con MSN 80000.
Voi che ne pensate cosa potrà aumentare la potenza delle CPU come quando si passava dai 333MHz ai 1000MHz in 18 mesi(non ricordo ma quello si che era progresso e ci sbalordiva, ricordo ai tempi del dos quando vidi il primo Petnium che arrivò nella mia città allora non c'era nemmeno win95, ma dos6 e win3.1(ambiente operativo allora e non os) e 16MB di RAM col dos erano inutili a meno di un'applicazione scritta ad hoc, per dire gli sprechi o specchi x le allodole ci sono sempre stati)

PS OT chi si ricorda il geoso (qualcosa di simile non ricordo bene) un ambiante operativo x commodore64 con mouse e tutto in bianco e nero io l'ho visto tra 89 e il 91, poteva benissimo essere i giro da molto prima all'epoca il riciclo tecnlogico consumer non era come oggi nel 90 c'era già l'amiga500
Ratatosk12 Marzo 2009, 13:20 #6
Originariamente inviato da: icoborg
ah be certo il giudizio dubbioso sull'entrata di un nuovo concorrente sul mercato è sicuramente oggettivo...


Oggettivamente sì...
Marcus Scaurus12 Marzo 2009, 13:30 #7
@Leptone
Io credo che il futuro passi per multi-core specializzati, non general purpose come quelli attuali (che peraltro non credo spariranno). E l'integrazione della gpu, così come l'idea di Fusion, sono secondo me uno dei passi necessari.
Diciamo pure che il Cell stesso, in qualche modo, con i suoi diversi tipi di core, ne è la testimonianza.

Posso immaginare una cpu Amd/Intel 8core con un paio (o quattro) general purpose, uno dedicato alla virgola mobile, uno o due stile gpu, uno alla fisica ecc. Ovviamente il tutto è fattibile se e solo se i produttori di software si impegnano a sfruttare le nuove potenzialità. E visto quanto ci stanno mettendo per i 64bit o per i multicore beh, non sono molto ottimista...
dantealighieri00012 Marzo 2009, 13:34 #8
quanto ce la godremo...soprattutto quando intel e amd abbasseranno i prezzi per essere più competitivi.

atomo3712 Marzo 2009, 13:40 #9
speriamo che nvidia riesca comunque nel suo intento, un player in più in questo scenario andrà solo a beneficio di noi consumatori!
Gnubbolo12 Marzo 2009, 13:40 #10
concordo col mattone di leptone.

credo che il salto prestazionale lo vedremo con l'abbandono definitivo della piattaforma 32 bit con tutte le sue problematiche di compatibilità all'indietro etc.
poi bisogna ricordarsi che con il web 2 non avrà molta importanza l'hardware dei clients, l'aspetto decisivo sarà il consumo e le dimensioni ( system on a chip )
AMD è stata lungimirante, può competere con Intel.
e ricordatevi che nell'ambito workstation e thin client la Matrox è ancora molto competitiva.
Nvidia tranne per i pc per bambinoni e le workstation rischia il ridimensionamento.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^