Intel Lunar Lake, gli AI PC pronti al balzo: prestazioni IA superiori a 100 TOPS

Intel ha finalmente snocciolato alcuni numeri su Lunar Lake, processore mobile in arrivo entro fine anno: le prestazioni IA saranno decisamente superiori agli attuali Core Ultra Meteor Lake, con un balzo di oltre 3 volte per superare i 100 TOPS. Di questi, 45 saranno garantiti dalla sola NPU.
di Manolo De Agostini pubblicata il 10 Aprile 2024, alle 06:51 nel canale ProcessoriLunar LakeIntelCore
Gaudi 3, Xeon 6 ma anche Lunar Lake, il prossimo microprocessore mobile di Intel in arrivo entro fine anno. Secondo quanto dichiarato a Intel Vision 2024 dal CEO Pat Gelsinger, Lunar Lake offrirà prestazioni di intelligenza artificiale decisamente superiori a quelle garantite dagli attuali Core Ultra "Meteor Lake".
Intel aveva già anticipato un balzo di oltre 3 volte in tal senso, ma finalmente Gelsinger è entrato nei dettagli: la piattaforma supererà i 100 TOPS e, di questi, 45 TOPS saranno ascrivibili alla sola NPU.
È bene ricordare che Intel, con gli attuali Core Ultra, offre fino a 34 TOPS tenendo conto di CPU, GPU e NPU. La sola NPU di Meteor Lake, apprendiamo ora, garantisce circa 10 TOPS.
Il balzo prestazionale è ciò che serve a Intel per soddisfare le richieste di Microsoft, secondo cui è necessario avere una NPU capace di offrire almeno 40 TOPS di potenza per gestire localmente diversi aspetti di Microsoft Copilot. Sempre sul fronte Intel, sappiamo già che il progetto Panther Lake del 2025 accrescerà le prestazioni IA ulteriormente, "fino a raddoppiarle".
L'attuale piattaforma Hawk Point di AMD arriva a fino a 39 TOPS, sempre contando tutte le unità, mentre la sola NPU arriva a 16 TOPS. Il prossimo progetto Strix Point, con NPU basata su architettura XDNA 2, garantirà a detta della società un miglioramento prestazionale di 3 volte. Qualcomm potrebbe fare addirittura meglio di Intel e AMD con Snapdragon X Elite, il chip per notebook in arrivo a metà anno: vuole raggiungere 45 TOPS con la sola NPU, per un totale di 75 TOPS.
Durante il suo intervento, Gelsinger ha dichiarato la società ha già spedito 5 milioni di AI PC (con CPU Core Ultra Meteor Lake) e prevede di consegnare 40 milioni di unità entro fine anno. Si tratta di un buon inizio, soprattutto se rapportato alle aspettative di consegnare 100 milioni di chip per AI PC entro la fine del 2025.
Su LinkedIn, la general manager del Client Computing Group di Intel, Michelle Johnston Holthaus, ha dichiarato che "Lunar Lake non è solo un passo, ma un balzo in avanti per il settore. Lunar Lake è progettato per coloro che richiedono il meglio delle capacità di intelligenza artificiale, che si tratti di deep learning, reti neurali complesse o analisi avanzata dei dati. Il nostro impegno per l'innovazione continua a spingerci in avanti e Lunar Lake è una testimonianza di questo viaggio".
9 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoComunque mi sa che il buon Windows 12 che presumo sarà incentrato sul concetto di PC con IA avanzata, sarà ad esclusiva di questi nuovi processori,per il resto terranno Windows 11 come via di mezzo.
Nel senso... Al momento tu con le reti neurali puoi farci due cose (credo): o addestrarle, o utilizzarle.
Nel primo caso, dubito fortemente che si riesca ad addestrarle solo con la potenza fornita da questo processore, considerato che per addestrarle, anche quelle piccole, occorre fior fiore di acceleratori, rack e storage; nel secondo caso, la stragrande maggioranza dell'utenza che utilizza le reti neurali lo fa attraverso servizi web (dall-e, copilot etc)...
Quindi, o si pensa che in futuro verranno fatti programmi (che attualmente mancano), che utilizzeranno questa potenza in locale (e mi piacerebbe vedere le API e degli esempi in merito, oppure boh? Cosa non capisco?
Nel senso... Al momento tu con le reti neurali puoi farci due cose (credo): o addestrarle, o utilizzarle.
Nel primo caso, dubito fortemente che si riesca ad addestrarle solo con la potenza fornita da questo processore, considerato; nel secondo caso, la stragrande maggioranza dell'utenza che utilizza le reti neurali lo fa attraverso servizi web (dall-e, copilot etc)...
Quindi, o si pensa che in futuro verranno fatti programmi (che attualmente mancano), che utilizzeranno questa potenza in locale (e mi piacerebbe vedere le API e degli esempi in merito, oppure boh? Cosa non capisco?
Credo che l'obiettivo sia poter fare girare in locale motori, magari più piccoli, quando non si è online o comunque se non si vuole/può condividere online il materiale su cui AI deve agire. Inoltre dovrebbe beneficiare la velocità d'interazione.
A quanti serve? Pochi ma se venduta a buon prezzo male non fa
Nel senso... Al momento tu con le reti neurali puoi farci due cose (credo): o addestrarle, o utilizzarle.
Nel primo caso, dubito fortemente che si riesca ad addestrarle solo con la potenza fornita da questo processore, considerato che per addestrarle, anche quelle piccole, occorre fior fiore di acceleratori, rack e storage; nel secondo caso, la stragrande maggioranza dell'utenza che utilizza le reti neurali lo fa attraverso servizi web (dall-e, copilot etc)...
Quindi, o si pensa che in futuro verranno fatti programmi (che attualmente mancano), che utilizzeranno questa potenza in locale (e mi piacerebbe vedere le API e degli esempi in merito, oppure boh? Cosa non capisco?
Stesso mio pensiero..
mi pare davvero poca roba per giustificare un chip apposito.
mi pare davvero poca roba per giustificare un chip apposito.
Un po' presto per dirlo. Le performance del chip non le conosci, le capacità del IA nel 2025 nemmeno. Aspettiamo di vedere cosa ci sarà sul mercato per giudicare
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".