Apple attenderà un chip M2 ''Extreme'' per cambiare il suo Mac Pro?

Apple attenderà un chip M2 ''Extreme'' per cambiare il suo Mac Pro?

Apple aggiornerà il suo Mac Pro entro il 2022? Sono tanti i professionisti che si stanno ponendo questa domanda e la risposta sembra giungere dal solito Gurman che nella consueta newsletter della domenica ha indicato la roadmap dei futuri processori di Apple e dunque ha parlato anche del Mac Pro.

di pubblicata il , alle 12:38 nel canale Apple
iMacMac StudioMac ProApple
 

Apple aggiornerà il suo Mac Pro entro il 2022? Sono tanti i professionisti che si stanno ponendo questa domanda e la risposta sembra giungere dal solito Gurman che nella consueta newsletter della domenica ha indicato la roadmap dei futuri processori di Apple e dunque ha parlato anche del Mac Pro che sappiamo essere rimasto l'unico Mac mosso da processore Intel.

Apple proporrà un Mac Pro con M2 ''Extreme"?

Durante il keynote dello scorso 8 marzo, la società di Tim Cook, ha rilasciato alcune informazioni sulla restante formazione dei Mac e dunque degli Apple Silicon:

  • Il processore M1 Ultra sarà il suo ultimo chip M1
  • iMac da 27 pollici è stato tolto dal catalogo
  • Un nuovo Mac Pro, l'ultimo Mac a passare ad Apple Silicon, arriverà più tardi e non verrà dunque sostituito da Mac Studio.

Ecco dunque che, stando alle dichiarazioni di Apple, il Mac Pro sarà l'ultimo nuovo Mac ad avere Apple Silicon. E sarà anche lui a chiudere sostanzialmente la fase di transizione dai chipset Intel a quelli ''made in Cupertino". Lo stesso Gurman ammette che un iMac Pro non esiste come prodotto e non è nemmeno nei pensieri di Apple che invece proporrà, con molta probabilità, un nuovo Mac Pro con processore M2 di seconda generazione.

Quello che sembra però palese, almeno per Gurman, è il fatto che il nuovo Mac Pro atteso per la fine di questo 2022 potrebbe invece slittare al prossimo 2023. Le strade secondo il giornalista sono due: da una parte Apple potrebbe anticipare e proporre un Mac Pro con chip M1 Ultra duplicato (quindi con prestazioni fino a 40 Core e 128 Core per la parte grafica) oppure aspettare il 2023 e proporre il Mac Pro con un rinnovato chip M2 che potrebbe addirittura prendere il nome di M2 Extreme.

La prima scelta potrebbe chiaramente permette ad Apple di anticipare i tempi e chiudere la transizione da Intel già in questo 2022. Abbiamo visto come il nuovissimo M1 Ultra sia già così potente da rendere gli attuali processori della concorrenza un passo indietro almeno in termini di efficienza e consumi. Apple dunque potrebbe lanciare entro la fine dell'anno un Mac Pro con un M1 Ultra raddoppiato (magari anche senza cambiarne il nome) con appunto 40 Core per la parte CPU e addirittura 128 Core per la GPU.

La seconda scelta invece potrebbe essere quella di attendere il 2023 e proporre agli utenti più professionisti una macchina con un processore di nuovissima generazione (M2 Extreme) capace di raggiungere 48 Core per la CPU e 128 Core per la parte grafica chiaramente con un miglioramento non solo in termini di potenza pura ma anche e soprattutto di gestione dei consumi e dunque della sua pura efficienza.

L'idea dunque che Gurman si prospetta per i prossimi lanci della linea di processori di seconda generazione dovrebbe essere questa:

  • M2: 8 core CPU e 9/10 core GPU
  • M2 Pro: 12 core CPU e 16 core GPU
  • M2 Max: 12 core CPU e 32 core GPU
  • M2 Ultra: 24 core CPU e 48/64 core GPU
  • M2 Extreme: 48 core CPU e 96/128 core GPU
18 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Gringo [ITF]14 Marzo 2022, 12:50 #1
Con la tecnologia Ultra Fusion tutto e possibile, ormai la concorrenza e morta...
.
.
.
.
.
.
.
.....cof. cof..!
Sp3cialFx14 Marzo 2022, 13:34 #2
la cosa interessante è che nessuno rileva che storicamente Apple si è trovata in posizione di vantaggio come questa un sacco di volte, ed è sempre stata incapace di mantenerlo

se analizziamo la questione con un attimo di lucidità (cosa che peraltro mi aspetterei dalla stampa di settore, che evidentemente o non si pone la questione o lo fa ma non è in grado di dare risposte) abbiamo questi elementi:
- M1 è tanto efficiente dal punto di vista energetico quanto inefficiente dal punto di vista del silicio usato:
. M1 16 miliardi di transistor, M1 Pro 33,7 milardi di transistor, M1 Max 57 miliardi di transistor, Ultra 114 miliardi di transistor
. i9 11900K 6 miliardi di transistor (compresa la GPU UHD 750)
. RTX 3080: 28,3 miliardi di transistor
- le performance per core di un M1 sono identiche tra quello base, il Pro, il Max e l'Ultra, e sono identiche a quelle dell'A15
- nonostante l'elevatissimo numero di transistor i core della CPU e della GPU dell'M1 sono relativamente poveri di funzionalità avanzate. Qualche spunto: lato CPU le funzionalità hardware di virtualizzazione, lato GPU si prenda la features list delle DirectX 12 ultimate e si guardi quali di queste sono supportate

fatte queste premesse ne facciamo una ultima: Apple ha una posizione di grandissima forza nei confronti di TSMC dato che le compra più della metà della produzione (per lo meno del processo più avanzato). Di fatto M1 è avanti anni rispetto ai concorrenti proprio sul numero di transistor che può permettersi di impiegare, che è una cosa che deriva da due fattori:
a) l'impiego di un'architettura che è più facile portare su un processo produttivo più evoluto
b) ma soprattutto sul fatto che ha condizioni economiche molto vantaggiose e quindi può permettersi di infilare quantità di transistor impensabili per gli altri player (con UN SINGOLO M1 Ultra ci escono i transistor di quasi 20 i9 oppure di 4 RTX 3080)

capito questo diventa anche facile pronosticare il futuro. In sintesi: ora sono cazzi. Nel senso:
1) migliorare le performance per core ora diventa molto complesso, e abbiamo visto che già non è successo tra l'A15 e l'M1 (nonostante che l'A15 abbia un budget energetico molto più contenuto). Andare a fare altri sacrifici sull'efficienza per transistor ti danno un ritorno irrilevante lato performance, in compenso aumentano i costi di produzione, avresti quindi un rapporto costo / benefici molto svantaggioso
2) implementare le feature più complesse è... complesso. Anche qui il ritorno costo / benefici sarebbe svantaggioso. Un conto è implementare le feature base, consolidate, conosciute; un conto è implementare le feature più avanzate. Altro esempio: i neural engine, che vanno bene solo per l'inferenza (ovvero: per USARE i modelli ma non per farne il training, ovvero per costruirli). Un esempio più vicino al gaming: il ray tracing in hardware. Feature complessa, infatti non c'è

quindi? quindi l'unica strada è aumentare i core, che è quella che sta facendo. Che sappiamo portare beneficio o meno a seconda del tipo di applicazione. Quindi c'è da chiedersi:
- ha le competenze di una Intel, AMD, Nvidia (sommate, dato che sviluppa anche la parte di GPU) che da decenni fanno solo quello e che è il loro core business e hanno pertanto un profondo know how anche delle parti complesse (tant'è che tutte nel loro ambito supportano funzionalità avanzate)
- o ha delle competenze che non sono a quel livello, ha sfruttato il vantaggio commerciale che ha, ma ora salire ulteriormente di livello (ovvero: non solo aumentando i core ma aumentando notevolmente le performance per core e le feature) è fuori dalla portata

la domanda ovviamente è retorica. La conclusione è che anche questa volta accadrà quello che è sempre accaduto, ovvero che dopo il trovarsi in posizione di vantaggio, dopo lo sprint in cui passa davanti a tutti, si ritrova al palo a farsi superare nuovamente dalla concorrenza, che non fa lo scatto da centometrista ma ha più il passo più lento ma più costante del maratoneta

ps: se qualcuno della redazione dovesse reputare interessanti le cose che ho detto e volesse prenderne spunto per fare finalmente un articolo di approfondimento sulla sorpresa M1 (dando la risposta a chi come me si è chiesto "ma come c**** è possibile?!", per poi dover trovare la risposta da solo), che peraltro sarebbe il primo della stampa di settore mondiale, almeno per quelle che sono state le mie ricerche, ovviamente volentieri

ps2: prego astenersi eventuali fanboy che non hanno capito niente di quello che sto dicendo. L'M1 ha notevoli vantaggi. I limiti ci sono ma sono tuttavia molto specifici: se fai training di reti neurali, se vuoi giocare con i giochi con il ray tracing, se vuoi fare virtualizzazione avanzata devi prendere altro. Per tutto il resto vanno molto bene. Io stesso dovevo prendere un mini pc per fare un'applicazione browser-based abbastanza impegnativa lato CPU / GPU (deve far girare solo quella quindi era irrilevante l'os) e alla fine ho optato per un Mac Mini M1 perché oggettivamente vantaggioso. Quella che ho fatto è un'analisi tecnica che cerca di andare al di là dell'hype
pachainti14 Marzo 2022, 14:08 #3
Originariamente inviato da: Sp3cialFx
la cosa interessante è che nessuno rileva che storicamente Apple si è trovata in posizione di vantaggio come questa un sacco di volte, ed è sempre stata incapace di mantenerlo

se analizziamo la questione con un attimo di lucidità (cosa che peraltro mi aspetterei dalla stampa di settore, che evidentemente o non si pone la questione o lo fa ma non è in grado di dare risposte) abbiamo questi elementi:
- M1 è tanto efficiente dal punto di vista energetico quanto inefficiente dal punto di vista del silicio usato:
. M1 16 miliardi di transistor, M1 Pro 33,7 milardi di transistor, M1 Max 57 miliardi di transistor, Ultra 114 miliardi di transistor
. i9 11900K 6 miliardi di transistor (compresa la GPU UHD 750)
. RTX 3080: 28,3 miliardi di transistor
- le performance per core di un M1 sono identiche tra quello base, il Pro, il Max e l'Ultra, e sono identiche a quelle dell'A15
- nonostante l'elevatissimo numero di transistor i core della CPU e della GPU dell'M1 sono relativamente poveri di funzionalità avanzate. Qualche spunto: lato CPU le funzionalità hardware di virtualizzazione, lato GPU si prenda la features list delle DirectX 12 ultimate e si guardi quali di queste sono supportate

fatte queste premesse ne facciamo una ultima: Apple ha una posizione di grandissima forza nei confronti di TSMC dato che le compra più della metà della produzione (per lo meno del processo più avanzato). Di fatto M1 è avanti anni rispetto ai concorrenti proprio sul numero di transistor che può permettersi di impiegare, che è una cosa che deriva da due fattori:
a) l'impiego di un'architettura che è più facile portare su un processo produttivo più evoluto
b) ma soprattutto sul fatto che ha condizioni economiche molto vantaggiose e quindi può permettersi di infilare quantità di transistor impensabili per gli altri player (con UN SINGOLO M1 Ultra ci escono i transistor di quasi 20 i9 oppure di 4 RTX 3080)

capito questo diventa anche facile pronosticare il futuro. In sintesi: ora sono cazzi. Nel senso:
1) migliorare le performance per core ora diventa molto complesso, e abbiamo visto che già non è successo tra l'A15 e l'M1 (nonostante che l'A15 abbia un budget energetico molto più contenuto). Andare a fare altri sacrifici sull'efficienza per transistor ti danno un ritorno irrilevante lato performance, in compenso aumentano i costi di produzione, avresti quindi un rapporto costo / benefici molto svantaggioso
2) implementare le feature più complesse è... complesso. Anche qui il ritorno costo / benefici sarebbe svantaggioso. Un conto è implementare le feature base, consolidate, conosciute; un conto è implementare le feature più avanzate. Altro esempio: i neural engine, che vanno bene solo per l'inferenza (ovvero: per USARE i modelli ma non per farne il training, ovvero per costruirli). Un esempio più vicino al gaming: il ray tracing in hardware. Feature complessa, infatti non c'è

quindi? quindi l'unica strada è aumentare i core, che è quella che sta facendo. Che sappiamo portare beneficio o meno a seconda del tipo di applicazione. Quindi c'è da chiedersi:
- ha le competenze di una Intel, AMD, Nvidia (sommate, dato che sviluppa anche la parte di GPU) che da decenni fanno solo quello e che è il loro core business e hanno pertanto un profondo know how anche delle parti complesse (tant'è che tutte nel loro ambito supportano funzionalità avanzate)
- o ha delle competenze che non sono a quel livello, ha sfruttato il vantaggio commerciale che ha, ma ora salire ulteriormente di livello (ovvero: non solo aumentando i core ma aumentando notevolmente le performance per core e le feature) è fuori dalla portata

la domanda ovviamente è retorica. La conclusione è che anche questa volta accadrà quello che è sempre accaduto, ovvero che dopo il trovarsi in posizione di vantaggio, dopo lo sprint in cui passa davanti a tutti, si ritrova al palo a farsi superare nuovamente dalla concorrenza, che non fa lo scatto da centometrista ma ha più il passo più lento ma più costante del maratoneta

ps: se qualcuno della redazione dovesse reputare interessanti le cose che ho detto e volesse prenderne spunto per fare finalmente un articolo di approfondimento sulla sorpresa M1 (dando la risposta a chi come me si è chiesto "ma come c**** è possibile?!", per poi dover trovare la risposta da solo), che peraltro sarebbe il primo della stampa di settore mondiale, almeno per quelle che sono state le mie ricerche, ovviamente volentieri

ps2: prego astenersi eventuali fanboy che non hanno capito niente di quello che sto dicendo. L'M1 ha notevoli vantaggi. I limiti ci sono ma sono tuttavia molto specifici: se fai training di reti neurali, se vuoi giocare con i giochi con il ray tracing, se vuoi fare virtualizzazione avanzata devi prendere altro. Per tutto il resto vanno molto bene. Io stesso dovevo prendere un mini pc per fare un'applicazione browser-based abbastanza impegnativa lato CPU / GPU (deve far girare solo quella quindi era irrilevante l'os) e alla fine ho optato per un Mac Mini M1 perché oggettivamente vantaggioso. Quella che ho fatto è un'analisi tecnica che cerca di andare al di là dell'hype


Ottima analisi, fa piacere leggere commenti sensati almeno una volta al mese.
TorettoMilano14 Marzo 2022, 14:28 #4
Originariamente inviato da: Sp3cialFx
...


se parlavi di proffitti nel settore pc apple si prende la fetta più grande dei profitti ma questo avviene da ben prima degli m1. un articolo del 2013 https://www.forbes.com/sites/timwor...-the-pc-market/
se parlavi lato tecnico invece non ho capito dove vuoi arrivare, la concorrenza ha pronto nel giro di 1,2 o 3 anni qualcosa per rivaleggiare l'm1?
insane7414 Marzo 2022, 14:34 #5
Originariamente inviato da: Sp3cialFx
...


ottima analisi!

faccio qualche domanda/osservazione spero non troppo stupida:
- le feature mancanti, sono "necessarie"? inteso come "necessarie" ai target cui si rivolgono i computer Apple. Esempio: non c'è il supporto HW al ray tracing. a chi serve? ai gamer? non è mai stato mercato Apple. a chi fa grafica 3D professionalmente? non usa immagino una 3090. al momento c'è ancora il Pro con schede AMD. per il prossimo, bisognerà aspettare per capire se Apple tirerà fuori un Mx Extreme "incollando" due M1 Ultra o tirerà fuori qualcosa di diverso, sempre magari avvantaggiandosi con questi chip "enormi"
- il vantaggio attuale dovuto al numero di transistor/core/performance per watt, non può essere mantenuto aumentando il clock? esempio: su dispositivi come portatili (Air ecc) possono continuare con la linea Mx "liscia" che offre ottima durata della batteria e prestazioni più che adeguate, ma su un "vero" desktop che non dipende dalla batteria e che non sia sottile come un foglio di carta per mero design, non potrebbero pompare sul clock (si, aumentano i consumi e il calore, ma se c'è spazio per dissiparlo potrebbe non essere un gran problema) per mantenere il margine?
marcowave14 Marzo 2022, 14:59 #6
La line up silicon definitiva di apple si sta delineando : mercato consumer MacBook (air) 13, mac mini e imac 24, tutti con M2 entro la fine dell'anno 2022. Mercato PRO: mac studio, macbook pro 14 e 16 e mac pro (per video 3D professionale), tutti con M2 PRO/MAX entro fine 2023. Se fosse cosi entro la fine del 2023 avranno fatto una bella pulizia di prodotti, mi pare tutto molto sensato.
recoil14 Marzo 2022, 15:46 #7
Originariamente inviato da: Sp3cialFx
la domanda ovviamente è retorica. La conclusione è che anche questa volta accadrà quello che è sempre accaduto, ovvero che dopo il trovarsi in posizione di vantaggio, dopo lo sprint in cui passa davanti a tutti, si ritrova al palo a farsi superare nuovamente dalla concorrenza, che non fa lo scatto da centometrista ma ha più il passo più lento ma più costante del maratoneta


hai fatto un'ottima analisi
io credo comunque che la scelta sia stata giusta
si sono staccati da Intel e hanno la loro soluzione in casa con controllo totale di hardware e software

io penso che oltre alle ottimizzazioni sui core, che sono la parte come dici tu più difficile, punteranno molto su ottimizzazione hardware per il software che ci girerà, mettendo accelerazioni come fanno già ora ad esempio per i codec video
in questo modo saranno superati sui puri numeri dalla concorrenza, ma rimarranno competitivi su determinati use case

come discorso ci può stare, compri il Mac per quello use case che serve al tuo lavoro se invece vuoi una cosa più general purpose stai nel mondo PC
paghi un premium per il Mac e diventa un investimento sensato solo se sei coperto a livello applicativo, se no rimani su PC o se sei un consumer non ti interessano le prestazioni pure e quindi scegli in base ad altri parametri

quando c'era Intel ci siamo giustamente lamentati per anni del fatto che l'hw con i PC fosse paragonabile e si pagasse un premium solo per macOS, ora ha più senso
Sp3cialFx14 Marzo 2022, 21:32 #8
grazie per gli apprezzamenti

TorettoMilano: parlavo lato tecnico, intendo dire che Apple ha consumati tutti i margini di ampio miglioramento e adesso diventa difficile anche per lei

insane74: buone domande:
a) le feature mancanti sono necessarie per una ristretta cerchia di utenza. Per il target a cui si rivolge Apple (e non solo, ripeto io non sono in quel target ma per un'esigenza specifica ho optato per un M1) vanno benissimo
b) per quelle che sono le mie conoscenze salire di clock richiede un processo ottimizzato per le performance, mentre il processo utilizzato è ottimizzato per l'efficienza energetica. E credo che i processi ottimizzati per le performance siano indietro di un nodo o due rispetto a quelli ottimizzati per l'efficienza. In soldoni salendo di frequenza dovrebbero usare un processo che permetterebbe loro di usare meno transistor, di fatto vanificando il vantaggio del clock più spinto. Questo però ripeto è quello che ho capito io, da prendersi con le pinze

recoil: la scelta è sicuramente stata estremamente azzeccata e hanno sfruttato splendidamente la posizione di forza che avevano sul piano commerciale con la fonderia più importante del pianeta. Il fatto che ora è complesso migliorare non significa che comunque non rimangano competitivi sotto diversi punti di vista. Ad es. sui numeri puri ci sono già CPU e GPU in grado di superare gli M1 ma pagando pesantemente in termini di consumi. Il vantaggio in termini di efficienza difficilmente lo si colmerà, attualmente i produttori x86 hanno una filosofia che è esattamente agli antipodi di quella di Apple: alta efficienza in termini di performance per transistor, bassa efficienza energetica. Per loro è anche un problema commerciale
RaZoR9314 Marzo 2022, 22:47 #9
Originariamente inviato da: Sp3cialFx

capito questo diventa anche facile pronosticare il futuro. In sintesi: ora sono cazzi. Nel senso:
1) migliorare le performance per core ora diventa molto complesso, e abbiamo visto che già non è successo tra l'A15 e l'M1 (nonostante che l'A15 abbia un budget energetico molto più contenuto). Andare a fare altri sacrifici sull'efficienza per transistor ti danno un ritorno irrilevante lato performance, in compenso aumentano i costi di produzione, avresti quindi un rapporto costo / benefici molto svantaggioso
Questo perché M1 è un A14 con più core.
A14 ha 2 core Firestorm @3.1 GHz e 4 core Icestorm ad alta efficienza.
M1 usa invece 4 core Firestorm @3.2 Ghz e sempre 4 core Icestorm.
In sostanza M1 ha soltanto 2 core in più e 100mhz di boost.
Infatti A15 (che è uscito 1 anno dopo M1) ha tecnicamente core più avanzati e migliori come performance e come performance per watt.

Qui un grafico che mostra come i core "Avalanche" (A15) abbiano performance superiori pur consumando meno rispetto a Firestorm: https://images.anandtech.com/doci/1...Cint-energy.png

M2 sarà basato sui core dell'A15 o, preferibilmente del futuro A16 che arriverà questo Settembre.


Originariamente inviato da: Sp3cialFx
quindi? quindi l'unica strada è aumentare i core, che è quella che sta facendo. Che sappiamo portare beneficio o meno a seconda del tipo di applicazione. Quindi c'è da chiedersi:
- ha le competenze di una Intel, AMD, Nvidia (sommate, dato che sviluppa anche la parte di GPU) che da decenni fanno solo quello e che è il loro core business e hanno pertanto un profondo know how anche delle parti complesse (tant'è che tutte nel loro ambito supportano funzionalità avanzate)
- o ha delle competenze che non sono a quel livello, ha sfruttato il vantaggio commerciale che ha, ma ora salire ulteriormente di livello (ovvero: non solo aumentando i core ma aumentando notevolmente le performance per core e le feature) è fuori dalla portata
Apple progetta CPU dall'A6 del 2012 (primo core full custom). 10 anni. GPU da meno, ma comunque da anni pure quelle. Per arrivare ai livelli attuali Apple ha assunto veterani dell'industria, molti ex architetti Intel e AMD (come Keller). A parte questo si potrebbe dire che Apple spende più in R&D di Intel, AMD e Nvidia messe insieme e una buona parte della spesa è destinata al settore semiconduttori / chip design dato che è chiaramente un essenziale elemento di differenziazione insieme al software.
Impossibile dire cosa sucederà in futuro, ma direi che logicamente e storicamente Apple è ben posizionata.

Trovo inoltre abbastanza superfluo il discorso dei transistor. Prima di tutto è inappropriato fare confronti con SoC complessi e CPU + GPU. I SoC apple includono on die anche altri elementi come NPU, ISP, "Secure Enclave", Audio processing, USB e Thunderbolt controller e nel caso dei Mac anche hardware specializzato per encoding video. Difficile fare confronti 1:1, ma se Apple sceglie di usare più transistor per massimizzare performance per watt non definirei la cosa uso inefficiente del silicio.
LB215 Marzo 2022, 08:10 #10
@ specialfx
da quando hwupgrade sarebbe stampa specializzata di settore? si tratta solo di un sito che traduce contenuti altrui,mette un bel titolo acchiappa click e punta alla pubblicità.

stampa di settore…..che ridere

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^