I tre più grandi errori di Intel negli ultimi 20 anni secondo il CEO Pat Gelsinger

I tre più grandi errori di Intel negli ultimi 20 anni secondo il CEO Pat Gelsinger

Intel sta cambiando pelle e strategia sotto la guida di Pat Gelsinger. In un video, il CEO ha reso noti quali sono stati secondo lui i tre più grandi errori della società negli ultimi 20 anni circa. Da flop negli smartphone alle GPU per l'IA fino alla produzione. Errori a cui, oggi, sta cercando di porre rimedio.

di pubblicata il , alle 15:11 nel canale Mercato
Intel
 

In un breve video diffuso da Digit, il CEO di Intel Pat Gelsinger ha identificato tre grandi errori compiuti dai suoi predecessori e che hanno portato il colosso statunitense a dover inseguire i concorrenti su alcuni fronti: il primo è stato quello di non perseguire con convinzione il mercato degli smartphone, il secondo la cancellazione del progetto Larrabee e il terzo qualcosa di non meglio specificato - ci spieghiamo più avanti - relativo alle Fab e la produzione.

L'ingresso nel mercato smartphone fu da una parte tardivo e dall'altra un bagno di sangue per il colosso statunitense, un tentativo sotto il brand Atom che non ebbe mai davvero successo e che, anzi, portò miliardi di dollari di perdite operative nella pancia di Intel. La società staccò la spina a quel tentativo nel 2016, dopo anni di tentativi apparentemente poco convinti.

Si poteva fare meglio? Forse sì, forse no, senza dubbio non essere riuscita a trovare uno spazio nel settore ha indubbiamente incrinato la posizione della società, fino ad allora vista da tutti come la regina dei microchip.

Le cronache narrano inoltre di quello che, con il senno di poi, fu uno degli errori più grandi della storia dell'hi-tech: Intel ebbe l'opportunità di realizzare il processore del primo iPhone, ma lasciò perdere per meri calcoli finanziari (ovviamente rivelatisi sbagliati), spalancando quindi le porte al successo di ARM nel settore smartphone. Se oggi l'architettura ARM ha il dominio del settore smartphone e sta entrando di prepotenza in settori che tradizionalmente sono legati a Intel, c'è solo una colpevole: Intel.

L'altro fallimento di Intel citato da Gelsinger, seppur non esplicitamente, riguarda Larrabee. I più appassionati sanno di cosa stiamo parlando, del progetto di GPU - o GPGPU - che puntava a offrire la "programmabilità di una CPU con l'elevato parallelismo di una GPU". Per certi versi un progetto avveniristico, che precorreva i tempi, ma che dopo anni di ritardi e prestazioni insoddisfacenti non trovò la via del mercato: fu cancellato nel 2010 e poi riciclato nelle soluzioni Xeon Phi, non prima però di fare una vittima illustre: Pat Gelsinger.

Fu l'attuale CEO - come abbiamo scritto in un articolo a lui dedicato - a pagare per quell'insuccesso. Se Larrabee avesse avuto più fortuna, forse NVIDIA non starebbe dominando il mercato dell'IA e Intel non si troverebbe a riconcorrere. Chissà, di certo a Gelsinger la cosa non dev'essere andata giù.

Nel video di Digit il CEO ha criticato la scelta di Intel di acquisire cinque società nel settore dell'IA negli anni passati (tra i nomi ipotizzabili ci sono quelli di Nervana, Granulate, Habana Labs, DeepLabs), quando a suo dire se avesse maggiormente puntato su Larrabee le cose sarebbero andate ben diversamente.

Infine, Gelsinger parla di un terzo problema relativo alle cosiddette "fonderie" (foundry), ovvero la filiera produttiva. Non è chiaro cosa intenda precisamente con la frase "we were fondamentally biased to building a great foundry" perché non elabora, ma avanziamo un'ipotesi.

Secondo noi, Gelsinger ritiene che Intel avesse una sorta di pregiudizio nell'aprire le proprie Fab ad altre società, diventando un grande produttore per conto terzi, cosa che adesso la società sta perseguendo proprio sotto la sua guida, rincorrendo il modello di business di TSMC e Samsung.

Intel oggi desidera diventare il produttore per conto terzi di quelle società che non vogliono legarsi mani e piedi all'Asia, ma aspirano ad avere una filiera diversificata e magari anche più vicina ai mercati in cui operano. Per questo Intel sta investendo in nuovi poli produttivi in Europa e Stati Uniti.

Solo il tempo ci dirà se Intel, sotto la guida di Gelsinger, avrà intrapreso le scelte giuste che la porteranno a crescere. Ne è consapevole anche lo stesso CEO, infatti nel breve video non esclude che un suo successore finirà per etichettarlo come "idiota" per non aver colto alcune tendenze e averle abbracciate nel momento giusto.

16 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
cresg8206 Novembre 2023, 15:36 #1
Chissà se tra un 5/6 anni microsoft si comprerà intel.
silvanotrevi06 Novembre 2023, 15:38 #2
E poi c'è il quarto grandissimo errore: aver sviluppato Intel Ark e l'illusione di poter sfidare Amd e Nvidia nel settore delle gpu gaming
coschizza06 Novembre 2023, 15:41 #3
Originariamente inviato da: silvanotrevi
E poi c'è il quarto grandissimo errore: aver sviluppato Intel Ark e l'illusione di poter sfidare Amd e Nvidia nel settore delle gpu gaming


le gpiu intel sono un successo considerando da dove partivano cioè 0 questo è un vanto per intel
silvanotrevi06 Novembre 2023, 15:50 #4
Originariamente inviato da: coschizza
le gpiu intel sono un successo considerando da dove partivano cioè 0 questo è un vanto per intel


Ma quale successo
Prova a giocarci Alan Wake 2 o Starfield e poi ne riparliamo
coschizza06 Novembre 2023, 15:51 #5
Originariamente inviato da: silvanotrevi
Ma quale successo
Prova a giocarci Alan Wake 2 o Starfield e poi ne riparliamo


teoria interessante la tua 2 giochi di 10.000 non funzionano bene quindi tutto a puttane? complimenti ti ricordo che i problemi li hai su tutte le gpu non solo su quelle intel
cignox106 Novembre 2023, 16:20 #6
--E poi c'è il quarto grandissimo errore: aver sviluppato Intel Ark

É davvero troppo, TROPPO presto per dichiarare quel tentativo un fallimento. Francamente, io sono sorpreso che sia pure riuscita ad entrare nel mercato in una sola generazione. Ma tutto dipende dall'architettura: stanno giá tirando fuori il 130% del suo potenziale, e ora dovrebbero crearne una nuova da zero, oppure possono usare questa come base ed incrementarla?
I driver non fanno testo: come ogni software, possono essere costantemente migliorati.

Secondo me tutto dipende da quanto ci crede ed é disposta a crederci. Se fa come con Larrabee, non andrá lontano.
Detto questo, ricordo che chi come me sperava in Larrabee per poter fare grafica (rt, pt) in real time grazie all'architettura x86, era piuttosto scettico che Intel potesse, via x86, fornire prestazioni e consumi analoghi a quello che potevano fare AMD e nVidia.
Mooolto scettici...
benderchetioffender06 Novembre 2023, 17:34 #7
mah dubito che sarebbe andata tanto diversamente con quello che avevano in mano con Atom all'epoca, anche se avessero stretto l'accordo con iPhone: decisamente poco prestante per i consumi
anzi, probabilmente iphone stesso sarebbe stato trascinato in giu dagli atom (ancora oggi non superano le 20h) e si sarebbe aperta pure una ampia breccia per i windows phone con possibilità pure di rendere operativo in poche generazioni anche l'intefaccia ibrida mobile/desktop (che pure ancora oggi non esiste)

una volta svelato iphone, hanno comunque perso vagonate di tempo a lanciarsi sul mercato

Larrabee mi pare che piu che un flop, "ci hanno creduto troppo poco" partendo con un certo anticipo, ma forse non sarebbe cambiato molto lo scenario in ogni caso: credo che al tempo fosse proprio sperimentale lo studio delle AI, forse anche non supportato da bus efficaci per passare alla cpu parallelizzata dati ad una velocità decente per elaborare (a malapena si parlava di SSD, figuriamoci NVME)


ecco, le fonderie si secondo me son state un gran passo falso, come abbiamo visto alla fine dei giochi, prendere in mano e stampare i progetti degli altri non ti permette di copiare paro paro roba brevettata, ma buone idee/approcci possono essere replicati per vie traverse (come infinity fabric di AMD per dirne una)
supertigrotto06 Novembre 2023, 17:34 #8
Larrabee per la grafica su carta poteva essere una bomba concettualmente ma nella realtà non si dimostrò così efficace,il problema è che i mini core x86 avrebbero dovuto girare a mille mila gigahertz per appaiarsi in prestazioni alle unità di elaborazione delle GPU nella grafica,cosa abbastanza impossibile a quei tempi, però,per l'elaborazione dei dati della IA sarebbe stata una architettura perfetta,qui Pat ha ragione,come ha dimostrato IBM,le unità di calcolo delle GPU sono efficaci ma non efficienti, attualmente se si usano le GPU , specialmente le Nvidia, è perché è "pappa pronta" e anche "buonetta" ,in effetti sia Google,sia IBM,sia Microsoft e altri,stanno sviluppando sistemi ad hoc che hanno design architetturali diversi dalle GPU,che siano Nvidia o AMD.
Tony.Montana06 Novembre 2023, 18:44 #9
La 13th gen é stato un nuovo errore a cui porre rimedi: consumi e temperature folli. E che fanno? Se ne escono con quella presa in giro della 14th generazione. Temperature e consumi ancora maggiori XD
Gringo [ITF]06 Novembre 2023, 18:47 #10
E poi c'è il quarto grandissimo errore: aver sviluppato Intel Ark


Se non avessero abbandonato Larrabee sarebbe intel ad aver introdotto per prima il Rendering tramite GPU, per chi ha seguito poco la vicenda era quello uno dei primi risultati di quel tipo di tecnologia.

Quindi smettiamola di fare tutti gli Esperti Qualificati del settore, e i miracoli che stà facendo si vedono, 750% di guadagno in DX9 solo migliorando un Driver, dove tutt'ora AMD ha i suoi limiti se si parla di ottimizzazione di driver, e tutti a tacere di alcuni settaggi driver di nVidia che hanno FOTTUTO LETTERALMENTE il silicio di alcune vecchie schede, per chi continua a dire che "Via Software" non è possibile fare danni.

Oltre al fatto che hanno tolto di mezzo Pat Gelsinger all'epoca si sono tuffati ad inseguire AMD nella Dislocazione della produzione in Taiwan demandando e congelando l'investimento in Fonderie che fin prima veniva regolarmente fatto, mettendo in un "CUL DE SAC" l'intera azienda.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^