Intel Lunar Lake, gli AI PC pronti al balzo: prestazioni IA superiori a 100 TOPS
Intel ha finalmente snocciolato alcuni numeri su Lunar Lake, processore mobile in arrivo entro fine anno: le prestazioni IA saranno decisamente superiori agli attuali Core Ultra Meteor Lake, con un balzo di oltre 3 volte per superare i 100 TOPS. Di questi, 45 saranno garantiti dalla sola NPU.
di Manolo De Agostini pubblicata il 10 Aprile 2024, alle 06:51 nel canale ProcessoriLunar LakeIntelCore
Gaudi 3, Xeon 6 ma anche Lunar Lake, il prossimo microprocessore mobile di Intel in arrivo entro fine anno. Secondo quanto dichiarato a Intel Vision 2024 dal CEO Pat Gelsinger, Lunar Lake offrirà prestazioni di intelligenza artificiale decisamente superiori a quelle garantite dagli attuali Core Ultra "Meteor Lake".
Intel aveva già anticipato un balzo di oltre 3 volte in tal senso, ma finalmente Gelsinger è entrato nei dettagli: la piattaforma supererà i 100 TOPS e, di questi, 45 TOPS saranno ascrivibili alla sola NPU.

È bene ricordare che Intel, con gli attuali Core Ultra, offre fino a 34 TOPS tenendo conto di CPU, GPU e NPU. La sola NPU di Meteor Lake, apprendiamo ora, garantisce circa 10 TOPS.
Il balzo prestazionale è ciò che serve a Intel per soddisfare le richieste di Microsoft, secondo cui è necessario avere una NPU capace di offrire almeno 40 TOPS di potenza per gestire localmente diversi aspetti di Microsoft Copilot. Sempre sul fronte Intel, sappiamo già che il progetto Panther Lake del 2025 accrescerà le prestazioni IA ulteriormente, "fino a raddoppiarle".

L'attuale piattaforma Hawk Point di AMD arriva a fino a 39 TOPS, sempre contando tutte le unità, mentre la sola NPU arriva a 16 TOPS. Il prossimo progetto Strix Point, con NPU basata su architettura XDNA 2, garantirà a detta della società un miglioramento prestazionale di 3 volte. Qualcomm potrebbe fare addirittura meglio di Intel e AMD con Snapdragon X Elite, il chip per notebook in arrivo a metà anno: vuole raggiungere 45 TOPS con la sola NPU, per un totale di 75 TOPS.
Durante il suo intervento, Gelsinger ha dichiarato la società ha già spedito 5 milioni di AI PC (con CPU Core Ultra Meteor Lake) e prevede di consegnare 40 milioni di unità entro fine anno. Si tratta di un buon inizio, soprattutto se rapportato alle aspettative di consegnare 100 milioni di chip per AI PC entro la fine del 2025.

Su LinkedIn, la general manager del Client Computing Group di Intel, Michelle Johnston Holthaus, ha dichiarato che "Lunar Lake non è solo un passo, ma un balzo in avanti per il settore. Lunar Lake è progettato per coloro che richiedono il meglio delle capacità di intelligenza artificiale, che si tratti di deep learning, reti neurali complesse o analisi avanzata dei dati. Il nostro impegno per l'innovazione continua a spingerci in avanti e Lunar Lake è una testimonianza di questo viaggio".










Cineca inaugura Pitagora, il supercomputer Lenovo per la ricerca sulla fusione nucleare
Mova Z60 Ultra Roller Complete: pulisce bene grazie anche all'IA
Renault Twingo E-Tech Electric: che prezzo!
HONOR 500 Pro, scheda tecnica confermata: Snapdragon 8 Elite e batteria enorme
GeForce NOW si prepara a vivere un mese di novembre 2025 da record: ecco i titoli in arrivo
Exynos 2600: temperature più basse del 30% grazie a una nuova tecnologia per il chip a 2 nm di Samsung
Apple si ispirerà a Nothing? Back cover trasparente per i prossimi iPhone
Da Intel ad AMD, il grande salto di Kulkarni nel cuore della guerra dell'AI
Velocità 12 volte superiore a quella del suono e zero emissioni, ecco l'aereo ipersonico a idrogeno
Una piccola Morte Nera è già sul mercato: il laser Apollo abbatte fino a 200 droni con una sola carica
Sei frodi che minacciano gli utenti nel 2025, e come proteggersi secondo Google
BioShock 4: Take-Two rassicura sullo sviluppo, ma il ritorno della serie resta lontano
Tesla, Musk promette FSD 'quasi pronto' e guida con messaggi al volante entro due mesi
BioWare conferma: il nuovo Mass Effect è in pieno sviluppo e sarà la priorità del team
5 robot aspirapolvere di fascia alta in forte sconto Black Friday: modelli top con lavaggio ad acqua calda, risparmi di centinaia di Euro
Xiaomi Redmi Note 14 5G a 179€ è veramente hot: 8GB di RAM, 256GB di memoria e fotocamera da 108MP con OIS
Veri affari con gli sconti de 15% Amazon Seconda Mano - Warehouse: ancora attiva la promozione di cui in pochi sono a conoscenza









9 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoComunque mi sa che il buon Windows 12 che presumo sarà incentrato sul concetto di PC con IA avanzata, sarà ad esclusiva di questi nuovi processori,per il resto terranno Windows 11 come via di mezzo.
Nel senso... Al momento tu con le reti neurali puoi farci due cose (credo): o addestrarle, o utilizzarle.
Nel primo caso, dubito fortemente che si riesca ad addestrarle solo con la potenza fornita da questo processore, considerato che per addestrarle, anche quelle piccole, occorre fior fiore di acceleratori, rack e storage; nel secondo caso, la stragrande maggioranza dell'utenza che utilizza le reti neurali lo fa attraverso servizi web (dall-e, copilot etc)...
Quindi, o si pensa che in futuro verranno fatti programmi (che attualmente mancano), che utilizzeranno questa potenza in locale (e mi piacerebbe vedere le API e degli esempi in merito, oppure boh? Cosa non capisco?
Nel senso... Al momento tu con le reti neurali puoi farci due cose (credo): o addestrarle, o utilizzarle.
Nel primo caso, dubito fortemente che si riesca ad addestrarle solo con la potenza fornita da questo processore, considerato; nel secondo caso, la stragrande maggioranza dell'utenza che utilizza le reti neurali lo fa attraverso servizi web (dall-e, copilot etc)...
Quindi, o si pensa che in futuro verranno fatti programmi (che attualmente mancano), che utilizzeranno questa potenza in locale (e mi piacerebbe vedere le API e degli esempi in merito, oppure boh? Cosa non capisco?
Credo che l'obiettivo sia poter fare girare in locale motori, magari più piccoli, quando non si è online o comunque se non si vuole/può condividere online il materiale su cui AI deve agire. Inoltre dovrebbe beneficiare la velocità d'interazione.
A quanti serve? Pochi ma se venduta a buon prezzo male non fa
Nel senso... Al momento tu con le reti neurali puoi farci due cose (credo): o addestrarle, o utilizzarle.
Nel primo caso, dubito fortemente che si riesca ad addestrarle solo con la potenza fornita da questo processore, considerato che per addestrarle, anche quelle piccole, occorre fior fiore di acceleratori, rack e storage; nel secondo caso, la stragrande maggioranza dell'utenza che utilizza le reti neurali lo fa attraverso servizi web (dall-e, copilot etc)...
Quindi, o si pensa che in futuro verranno fatti programmi (che attualmente mancano), che utilizzeranno questa potenza in locale (e mi piacerebbe vedere le API e degli esempi in merito, oppure boh? Cosa non capisco?
Stesso mio pensiero..
mi pare davvero poca roba per giustificare un chip apposito.
mi pare davvero poca roba per giustificare un chip apposito.
Un po' presto per dirlo. Le performance del chip non le conosci, le capacità del IA nel 2025 nemmeno. Aspettiamo di vedere cosa ci sarà sul mercato per giudicare
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".