View Full Version : GPU di M1 Ultra più veloce di una GeForce RTX 3090? Apple pensa di sì, i test dicono di no
Redazione di Hardware Upg
18-03-2022, 07:31
Link alla notizia: https://www.hwupgrade.it/news/skvideo/gpu-di-m1-ultra-piu-veloce-di-una-geforce-rtx-3090-apple-pensa-di-si-i-test-dicono-di-no_105703.html
Apple ha dichiarato durante la conferenza di presentazione di Mac Studio che la GPU del nuovo chip M1 Ultra è più veloce di una GeForce RTX 3090 pur consumano 200 watt in meno. I primi test svolti negli Stati Uniti dicono però che la GPU di NVIDIA è ancora davanti.
Click sul link per visualizzare la notizia.
Se fosse anche solo piu' veloce di una 3070 sarebbe comunque un risultato straordinario, in pochi anni di stanno spazzando via la concorrenza sia lato cpu che gpu.
megamitch
18-03-2022, 07:51
Se fosse anche solo piu' veloce di una 3070 sarebbe comunque un risultato straordinario, in pochi anni di stanno spazzando via la concorrenza sia lato cpu che gpu.
Beh in realtà tantissime cose su MacOS non si possono fare perché non ci sono software per cui non parlerei di “spazzare via” in senso assoluto.
Ho un MacBook Air M1, funziona bene ma non è magico. Funziona altrettanto bene il mio Lenovo T con AMD.
E The Verge, che io ricordi, è sempre stato abbastanza filo Apple...
bonzoxxx
18-03-2022, 08:06
Direi che, al netto dei 2x 3x 4x annunciati da Apple che lasciano il tempo che trovano, le prestazioni del mac studio siano di tutto rispetto anche considerando quanto poco tempo abbiano impiegato per raggiungere questi risultati.
Trovo il tutto ottimo sotto il punto di vista dell'innovazione, davvero ottimo.
Beh in realtà tantissime cose su MacOS non si possono fare perché non ci sono software per cui non parlerei di “spazzare via” in senso assoluto.
Ho un MacBook Air M1, funziona bene ma non è magico. Funziona altrettanto bene il mio Lenovo T con AMD.
Questo é chiaro, sono da sempre dispositivi fatti per essere usati con software specifici ed orientati ad una certa fetta di utenza, ma da un punto di vista puramente prestazionale e progettuale i risultati che stanno tirando fuori dal silicio sono oggettivi ed impressionanti. Se si guarda il rapporto performances per watt la concorrenza impallidisce e te lo dice uno che un po per scelta e un po per lavoro ha abbandonato mac os da tanto tempo.
Spero che Intel ed AMD sappiano essere un po' piu' ispirati perché onestamente di continuare a vedere CPU 8/16 core con TDP da 130w e schede video discrete da 350w per giocare agli spara tutto non mi sembra una grande evoluzione tecnologica.
Beh in realtà tantissime cose su MacOS non si possono fare perché non ci sono software per cui non parlerei di “spazzare via” in senso assoluto.
Ho un MacBook Air M1, funziona bene ma non è magico. Funziona altrettanto bene il mio Lenovo T con AMD.
92 minuti di applausi
autonomia, questo glielo invidio, per il resto posso fare altrimenti
bonzoxxx
18-03-2022, 08:14
Senza considerare che per prossima serie 4000 nvidia si parla di consumi oltre i 500W...
Gringo [ITF]
18-03-2022, 08:16
Se escludiamo la Potenza Bruta, e parliamo di Efficienza sia la GPU di Apple che quella di Intel è superiore alla GPU nVidia, e comunque quello che dice APPLE di solito è LEGGE, quindi si M1 Ultra è superiore alla RTX 3090 TI OC EDITION
PS: Sia Apple che Intel hanno il corrispettivo dei Tensor Core di nVidia nelle loro GPU quindi giocano alla pari in Tecnologia, in attesa che AMD e Cina si mettano in pari... :3 (Apple non ha "Raytracing" Core quello si).
dav1deser
18-03-2022, 08:16
Sarebbe interessante vedere test di efficienza a parità di processo produttivo. Se non ricordo male Apple usa il 5nm di TSMC, che è più avanzato di tutto ciò che viene utilizzato da Amd, Intel e Nvidia.
Chissà, magari a parità di PP il progetto Apple risulterebbe molto più "normale".
demonsmaycry84
18-03-2022, 08:19
con un M1 ho provato un pò di giochi ed è come avere una ps4 a livello di esperienza ludica....il che è tutto un dire con quei consumi...potrei dire che va forse come una 1050ti in giochi tripla AAA...e naturalmente senza fondo per i giochi sullo store che non sono in emulazione rosetta
m1 pro è nettamente un salto avanti ed è come una ps4 pro si riesce a giocare a titoli come metro exodus in 2k dettagli alti ...sempre emulazione rosetta....quindi direi che va come una 2060.... l'esperienza è quella....
tutto questo giocando per ore in mobilita con un performance/watt incredibile sembra di avere un ipad/switch con la potenza di una console...
m1 ultra sembra davvero potente qualcosa intorno ad una 3080 ...aggressivo roba aliena come il prezzo :D
AlexSwitch
18-03-2022, 08:22
E The Verge, che io ricordi, è sempre stato abbastanza filo Apple...
The Verge è una delle poche riviste online, assieme ad ArsTechnica, ad essere imparziale ed oggettiva nelle considerazioni finali delle sue prove. Anche con Apple...
Infatti lo Studio Display, compagno " perfetto " del Mac Studio ( 1700 Euro qui in Italia ), è stato stroncato senza alcun riguardo durante la sua prova ( mancanza di modalità HDR, mancata copertura dello spazio colore AdobeRGB, nessun dimming zonale per neri realistici, videocamera FaceTime HD che restituisce immagini a dir poco pietose anche in condizioni di luce ottimali... ).
biometallo
18-03-2022, 08:25
in pochi anni di stanno spazzando via la concorrenza sia lato cpu che gpu.
Spazzato via chi da dove?:confused: Perché magari intendi una cosa diversa, ma nella mia lingua spazzare via la concorrenza significa conquistare il mercato facendo sparire i rivali dalla scena, invece AMD Nvidia e intel mi pare continuino a vendere più di quanto producano...
Poi sicuramente Apple sta crescendo anche sul versante dei pc desktop, ma al momento mi pare in modo marginale, tanto che ad un controllo veloce MacOS mi pare stazionario al 10%...
Per il resto concordo, anche se la storia del "abbiamo superato la 3090 consumando la meta" fosse una mera sparata del marketing credo che qui nessuno possa negare che nel giro di pochissimo tempo Abbiano raggiunto risultati incredibili, spazzando via anche il pregiudizio che "le cpu arm sono buone solo per gli smartphone" e che perfino un colosso come Intel ci abbia impiegato lustri a tirare fuori una GPU capace di competere con quelle di AMD e Nvidia che in vero non abbiamo ancora visto concretamente
ilariovs
18-03-2022, 08:29
Manolo, anche a me affascina l'M1 Ultra peró l'efficienza è uno degli aspetti da prendere in considerazione. Ed è massimo in contesti PRO/Server dove hai macchine che girano H24 o quasi.
Ma c'è un secondo aspetto fondamentale ossia IL COSTO.
Un 12900K costa 600€ una 3090 2000€.
Mettiamo 1000€ per un 32" 4K 144Hz 1000€ ed altri 1000 per case, ali, MB, RAM, SSD.
Parliamo di una macchina TOP, col prezzo delle GPU ben lontano dagli msrp.
Quanto costa una macchina con M1ultra equivalente?
Spazzato via chi da dove?:confused: Perché magari intendi una cosa diversa, ma nella mia lingua spazzare via la concorrenza significa conquistare il mercato facendo sparire i rivali dalla scena, invece AMD Nvidia e intel mi pare continuino a vendere più di quanto producano...
Poi sicuramente Apple sta crescendo anche sul versante dei pc desktop, ma al momento mi pare in modo marginale, tanto che ad un controllo veloce MacOS mi pare stazionario al 10%...
Per il resto concordo, anche se la storia del "abbiamo superato la 3090 consumando la meta" fosse una mera sparata del marketing credo che qui nessuno possa negare che nel giro di pochissimo tempo Abbiano raggiunto risultati incredibili, spazzando via anche il pregiudizio che "le cpu arm sono buone solo per gli smartphone" e che perfino un colosso come Intel ci abbia impiegato lustri a tirare fuori una GPU capace di competere con quelle di AMD e Nvidia che in vero non abbiamo ancora visto concretamente
Ma nel giro di pochissimo tempo cosa? Rega è dal primo iphone che si fanno il soc in casa e accumulano esperienza... questo "sbarco" è programmato da anni
è improbabile che M1 Ultra arrivi alle performance generali di una 3090, ma usare Geekbench compute è semplicemente inutile perché non porta la GPU dei SoC Apple in full load: https://www.anandtech.com/comments/17024/apple-m1-max-performance-review/760308
Allo stesso tempo è improbabile che giochi pensati per windows, DirectX e GPU AMD/Nvidia con driver ottimizzati riescano ad estrarre le piene performance di una architettura GPU completamente nuova usando API completamente diverse.
Ma nel giro di pochissimo tempo cosa? Rega è dal primo iphone che si fanno il soc in casa e accumulano esperienza... questo "sbarco" è programmato da anni
non è proprio dal primo iPhone che sviluppano in casa ma è chiaro che il progetto parte da lontano e i risultati si vedono tutti.
Per lo studio Display mi aspettavo sinceramente parecchio, ma parecchio di più per 1700€
Fortuna che le alternative non mancano, tranne per i fissati del 5k che rispetta lo scaling di macOS.
megamitch
18-03-2022, 08:40
Questo é chiaro, sono da sempre dispositivi fatti per essere usati con software specifici ed orientati ad una certa fetta di utenza, ma da un punto di vista puramente prestazionale e progettuale i risultati che stanno tirando fuori dal silicio sono oggettivi ed impressionanti. Se si guarda il rapporto performances per watt la concorrenza impallidisce e te lo dice uno che un po per scelta e un po per lavoro ha abbandonato mac os da tanto tempo.
Spero che Intel ed AMD sappiano essere un po' piu' ispirati perché onestamente di continuare a vedere CPU 8/16 core con TDP da 130w e schede video discrete da 350w per giocare agli spara tutto non mi sembra una grande evoluzione tecnologica.
Credo che lato Intel/AMD si debba considerare il supporto software. Se la forza di Intel è che ci gira sopra qualsiasi cosa, la transizione verso ARM è chiaramente più lunga anche solo da programmare rispetto ad una azienda “consumer” come Apple che sostanzialmente ha una fetta molto piccola di mercato.
Avete idea di cosa costerebbe adattare software, magari in ambito enterprise, che gira da anni per passare ad ARM ? Una azienda potrebbe trovare più conveniente consumare più corrente che riscrivere il proprio codice.
Ho visto alcuni progetti di migrazione tecnologica (es eliminazione di codice Cobl) e sono davvero tanti tanti soldi in ballo.
Nel mondo enterprise intel lavora assieme alle aziende, e vanno tenuti conto tutti questi vincoli.
Idem per la parte consumer, il parco installato è sterminato rispetto alle poche macchine Apple
AlexSwitch
18-03-2022, 08:45
Manolo, anche a me affascina l'M1 Ultra peró l'efficienza è uno degli aspetti da prendere in considerazione. Ed è massimo in contesti PRO/Server dove hai macchine che girano H24 o quasi.
Ma c'è un secondo aspetto fondamentale ossia IL COSTO.
Un 12900K costa 600€ una 3090 2000€.
Mettiamo 1000€ per un 32" 4K 144Hz 1000€ ed altri 1000 per case, ali, MB, RAM, SSD.
Parliamo di una macchina TOP, col prezzo delle GPU ben lontano dagli msrp.
Quanto costa una macchina con M1ultra equivalente?
Tanto... davvero tanto...
Il Mac Studio Ultra in configurazione base ( con GPU 48 Core, 64GB di Ram e 1TB storage ) costa la bellezza di 4694 Euro; la versione con GPU 64 Core arriva a costare 5800 Euro!!
Se si vuole completare la WS con il nuovo Studio Display ( 27", 5K, 60Hz, no HDR ) bisogna sborsare altri 1700 Euro.
Hereticus
18-03-2022, 08:51
Ma si potrebbe usare questo "ultra" anche per Gaming, evitando così di avere un PC dedicato, per esempio tramite Steam? Anche se le prestazioni fossero "solo" pari ad una 3080, mi sembrerebbero ottimi risultati
The Verge è una delle poche riviste online, assieme ad ArsTechnica, ad essere imparziale ed oggettiva nelle considerazioni finali delle sue prove. Anche con Apple...
Infatti lo Studio Display, compagno " perfetto " del Mac Studio ( 1700 Euro qui in Italia ), è stato stroncato senza alcun riguardo durante la sua prova ( mancanza di modalità HDR, mancata copertura dello spazio colore AdobeRGB, nessun dimming zonale per neri realistici, videocamera FaceTime HD che restituisce immagini a dir poco pietose anche in condizioni di luce ottimali... ).
Ricordavo male allora :)
Forse era vero un tempo, altrimenti ho preso un abbaglio gigantesco e basta :)
La GPU in M1 è progettata per andare forte in alcuni ambiti che sono quelli tipici di utilizzo dei Mac studi e post produzione, inutile confrontarla nei giochi con AMD o NVIDIA. Secondo me questa analisi è poco significativa. La GPU di M1 Ultra può accedere ad un quantitativo enorme di memoria, fino a 128GByte con ampiezza di banda da 800Gbits. Si possono gestire tanti flussi in color correction 8K o progetti CAD/AR/VR di dimensioni enormi.
AlexSwitch
18-03-2022, 09:01
Ma si potrebbe usare questo "ultra" anche per Gaming, evitando così di avere un PC dedicato, per esempio tramite Steam? Anche se le prestazioni fossero "solo" pari ad una 3080, mi sembrerebbero ottimi risultati
Bhè 5700 Euro per giocare allo stesso livello di un Pc con un Mac che è impossibile da aggiornare, mi sembra un bel controsenso o un immane spreco di soldi. Tieni conto che per quella cifra ti porti a casa solo il Mac, gli accessori come mouse e tastiera, per chi ne avesse bisogno, sono venduti a parte.
Insomma il paragone con la top di gamma nVidia è solamente mero marketing di Apple per sottolineare il potenziale ipoteticamente raggiungibile in ambito grafico con la versione più potente del SoC Ultra.
The Verge è una delle poche riviste online, assieme ad ArsTechnica, ad essere imparziale ed oggettiva nelle considerazioni finali delle sue prove. Anche con Apple...
The Verge è imparziale su Apple come i tg della Nord Corea lo sono con kim jong-un :stordita:
My 2c:
Sì, M1 è una gran bella bestiola, soprattutto per quanto riguarda l'ottimizzazione. Questo è il vantaggio di farsi in casa HW e SW.
Al contrario una comparazione diretta è difficile. Benchmark che girano male gochi non ottimizzati ecc, rendono il confronto difficile.
Fatto sta che intel da diverso tempo sta cercando di ottimizzare x86, togliendo quello che non serve (AVX, BD), ma anche HT che occupa un numero di transistor molto alto, meglio puntare come han fatto adesso su core più piccoli ed efficienti. Sì, come ARM.
Spazzato via chi da dove?:confused: Perché magari intendi una cosa diversa, ma nella mia lingua spazzare via la concorrenza significa conquistare il mercato facendo sparire i rivali dalla scena, invece AMD Nvidia e intel mi pare continuino a vendere più di quanto producano...
Poi sicuramente Apple sta crescendo anche sul versante dei pc desktop, ma al momento mi pare in modo marginale, tanto che ad un controllo veloce MacOS mi pare stazionario al 10%...
Per il resto concordo, anche se la storia del "abbiamo superato la 3090 consumando la meta" fosse una mera sparata del marketing credo che qui nessuno possa negare che nel giro di pochissimo tempo Abbiano raggiunto risultati incredibili, spazzando via anche il pregiudizio che "le cpu arm sono buone solo per gli smartphone" e che perfino un colosso come Intel ci abbia impiegato lustri a tirare fuori una GPU capace di competere con quelle di AMD e Nvidia che in vero non abbiamo ancora visto concretamente
Beh mi sembra sottinteso che per "spazzato via" si intende da un punto di vista dimostrativo, Apple non vende chip, quindi ovvio che non possono spazzare via nessuno da un mercato che non li vede come competitors.
Credo che lato Intel/AMD si debba considerare il supporto software. Se la forza di Intel è che ci gira sopra qualsiasi cosa, la transizione verso ARM è chiaramente più lunga anche solo da programmare rispetto ad una azienda “consumer” come Apple che sostanzialmente ha una fetta molto piccola di mercato.
Avete idea di cosa costerebbe adattare software, magari in ambito enterprise, che gira da anni per passare ad ARM ? Una azienda potrebbe trovare più conveniente consumare più corrente che riscrivere il proprio codice.
Ho visto alcuni progetti di migrazione tecnologica (es eliminazione di codice Cobl) e sono davvero tanti tanti soldi in ballo.
Nel mondo enterprise intel lavora assieme alle aziende, e vanno tenuti conto tutti questi vincoli.
Idem per la parte consumer, il parco installato è sterminato rispetto alle poche macchine Apple
Guarda che passare ad ARM non é un problema, ci sono già offerte server basate su soc ARM da anni.
In ambito enterprise, dove la virtualizzazione delle macchine ormai rappresenta oltre il 90%, se la tua applicazione gira su una VM te ne freghi altamente se stai su un core x86, arm o vattelappesca.
La maggior parte degli OS supportano ARM da anni, sta tranquillo che se domani AMD e intel decidessero di vendere cpu con architetture diverse dal x86 il passaggio sarebbe piu semplice di quanto tu pensi.
Le uniche piattaforme ancora molto ancorate all'architettura della cpu sono quelle desktop/workstation, ma anche qui se si vuole fare il porting del sw si fà senza problemi.
biometallo
18-03-2022, 09:16
Ma nel giro di pochissimo tempo cosa?
Pochissimo tempo dal lancio effettivo sul mercato delle loro cpu arm desktop, e a dire il vero non sono nemmeno i primi a provarci, ma dei notebook mi sa che qui molti ne abbiano perso memoria...
Poi da quanto tempo intel lavora sulle sue gpu? senza scomodare la i740, le varie gpu integrate nei chipset delle schede madri e da bo, il lancio dei Sandy Bridge che si parla di come intel voglia tornare ad essere competitiva in questo ambito, e dopo 10 anni forse ci è riuscita...
AlexSwitch
18-03-2022, 09:19
The Verge è imparziale su Apple come i tg della Nord Corea lo sono con kim jong-un :stordita:
A me non sembra proprio… punti di vista differenti…
leddlazarus
18-03-2022, 09:27
certo che a vedere le prestazioni/Watt l famiglia M1 fa gridare al miracolo.
Non capisco pero' una cosa.
da una parte AMD, Intel ed anche Nvidia che hanno prodotti validi ma parecchio esosi in energia consumata.
Adesso gli M1 fanno altrettanto bene consumando un inezia in confronto.
qui c'è qualcosa che non quadra proprio.
Forse l'efficienza è data proprio dal fatto che sia un SOC con tutto integrato con throughput decisamente piu elevati rispetto a soluzioni tradizionali?
l'unica pecca dei sistemi M1 based è proprio questa: come nascono muoiono, nessun upgrade. Senza parlare ovviamente dei prezzi, che in certi contesti non fanno proprio testo.
dav1deser
18-03-2022, 09:32
certo che a vedere le prestazioni/Watt l famiglia M1 fa gridare al miracolo.
Non capisco pero' una cosa.
da una parte AMD, Intel ed anche Nvidia che hanno prodotti validi ma parecchio esosi in energia consumata.
Adesso gli M1 fanno altrettanto bene consumando un inezia in confronto.
qui c'è qualcosa che non quadra proprio.
Forse l'efficienza è data proprio dal fatto che sia un SOC con tutto integrato con throughput decisamente piu elevati rispetto a soluzioni tradizionali?
l'unica pecca dei sistemi M1 based è proprio questa: come nascono muoiono, nessun upgrade. Senza parlare ovviamente dei prezzi, che in certi contesti non fanno proprio testo.
O semplicemente:
Apple 5nm
AMD 7nm
Nvidia 8nm
Intel 10nm
Le uniche piattaforme ancora molto ancorate all'architettura della cpu sono quelle desktop/workstation, ma anche qui se si vuole fare il porting del sw si fà senza problemi.
Insomma, dipende molto dal software, su software molto complessi o che usano istruzioni particolari a volte ti conviene di più ripartire da un foglio bianco più che provare a convertirlo.
l'unica pecca dei sistemi M1 based è proprio questa: come nascono muoiono, nessun upgrade. Senza parlare ovviamente dei prezzi, che in certi contesti non fanno proprio testo.
A livello aziendale cambiano computer ogni X anni, di rado si fanno upgrade, oggi poi che per lo più si prendono in leasing ancora peggio, upgrade zero, a livello domestico dipende, sicuramente uno che scrive su questo forum fa più upgrade possibili, ma in linea generale tanti quando il pc non li soddisfa più lo cambiano e basta.
biometallo
18-03-2022, 09:40
Beh mi sembra sottinteso che per "spazzato via" si intende da un punto di vista dimostrativo
A me continua a sembrare che Apple non abbia spazzato via nessuno, anche perché come ci fa intendere l'articolo stesso in cima al podio ci sia sempre Nvidia, ma almeno credo di aver capito cosa intendessi dire...
Guarda che passare ad ARM non é un problema, ci sono già offerte server basate su soc ARM da anni.
Server ARM che hanno una quota di mercato di? Perché a me risulta piuttosto marginale e circoscritta ad ambiti specifici dove la potenza di calcolo sia secondaria, mentre altrove regna Epyc.
Poi non credo affatto che passare da un'architettura ad un altra sia facile come lo fai intendere e chi ha comprato questi nuovi computer Apple ne sa sicuramente qualcosa, l'emulazione sicuramente può essere un aiuto, ma sull'altare di essa si vanno a sacrificare parecchie prestazioni, ricordo un commento di non ricordo quale utente che, appena messe le mani sul suo nuovo computer della mela si è reso conto in breve tempo che all'atto pratico era più lento di quello vecchio con cpu Ryzen...
Manolo, anche a me affascina l'M1 Ultra peró l'efficienza è uno degli aspetti da prendere in considerazione. Ed è massimo in contesti PRO/Server dove hai macchine che girano H24 o quasi.
Ma c'è un secondo aspetto fondamentale ossia IL COSTO.
Un 12900K costa 600€ una 3090 2000€.
Mettiamo 1000€ per un 32" 4K 144Hz 1000€ ed altri 1000 per case, ali, MB, RAM, SSD.
Parliamo di una macchina TOP, col prezzo delle GPU ben lontano dagli msrp.
Quanto costa una macchina con M1ultra equivalente?
1. sei stato moooolto ottimista nei prezzi qui sopra. un pc come da te descritto, arrivi a 5500 o più in un lampo, non 4600.. solo MB decente + 12900k + dissi decente sfondi i 1500 immediatamente..
2. una config simile con m1 ultra (escluso i giochi ovviamente) 4400 + display sei grosso modo in quella fascia dei 5500/6000 K
diciamo che guardare i 200-300 euro su 6000 lo ritengo trascurabile.
O semplicemente:
Apple 5nm
AMD 7nm
Nvidia 8nm
Intel 10nmLa differenza fra processi produttivi spiega solo in parte la situazione. Per esempio N5 di TSMC offre soltanto un +15% di performance a iso-power o un -30% in consumi a iso performance rispetto ad N7. Dato ufficiale da TSMC.
A me continua a sembrare che Apple non abbia spazzato via nessuno, anche perché come ci fa intendere l'articolo stesso in cima al podio ci sia sempre Nvidia, ma almeno credo di aver capito cosa intendessi dire...
Beh oh sono opinioni, considerando che Apple si é messa a fare processori e schede video per uso desktop da un paio d'anni, mentre intel, nvidia e soci lo fanno da oltre 30, a me sembra un risultato incredibile.
Ricordiamoci che fino a 3 anni fà ( e mi ci metto dentro pure io) si diceva che i soc arm al massimo andavano bene per far girare whatsapp sul cellulare.
Server ARM che hanno una quota di mercato di? Perché a me risulta piuttosto marginale e circoscritta ad ambiti specifici dove la potenza di calcolo sia secondaria, mentre altrove regna Epyc.
Beh la quota di mercato é data anche dall'offerta.
Ripeto, se domani intel e amd iniziano a proporre piu' soluzioni ARM vedrai che le quote di mercato aumentano e siccome apple sta dimostrando che le soluzioni arm possono essere competitive anche come potenza di calcolo, non mi stupirei se la concorrenza iniziasse ad investirci un sacco di soldi.
In ambito server poi il consumo spesso é anche piu' importante della potenza perché come ho già detto é tutto virtualizzato e i sistemi sono fatti per scalare in maniera dinamica sia vertcalmente che orizzontalmente.
Poi non credo affatto che passare da un'architettura ad un altra sia facile come lo fai intendere e chi ha comprato questi nuovi computer Apple ne sa sicuramente qualcosa, l'emulazione sicuramente può essere un aiuto, ma sull'altare di essa si vanno a sacrificare parecchie prestazioni, ricordo un commento di non ricordo quale utente che, appena messe le mani sul suo nuovo computer della mela si è reso conto in breve tempo che all'atto pratico era più lento di quello vecchio con cpu Ryzen...
Dipende dagli ambiti di utilizzo, quasi tutto cio che é opensource e una gran parte dei maggior software che girano lato server supportano già arm, per il resto é solo una questione di opportunità e di investimenti.
Un sacco di software adobe tanto per fare un esempio hanno una versione android e ios, poi vabbé sarà sicuramente castratissima rispetto a quella desktop ad uso professionale, ma il porting se si vuole si fà, dipende solo dalle quote di mercato appunto.
CrapaDiLegno
18-03-2022, 10:07
certo che a vedere le prestazioni/Watt l famiglia M1 fa gridare al miracolo.
Non capisco pero' una cosa.
da una parte AMD, Intel ed anche Nvidia che hanno prodotti validi ma parecchio esosi in energia consumata.
Adesso gli M1 fanno altrettanto bene consumando un inezia in confronto.
qui c'è qualcosa che non quadra proprio.
Forse l'efficienza è data proprio dal fatto che sia un SOC con tutto integrato con throughput decisamente piu elevati rispetto a soluzioni tradizionali?
l'unica pecca dei sistemi M1 based è proprio questa: come nascono muoiono, nessun upgrade. Senza parlare ovviamente dei prezzi, che in certi contesti non fanno proprio testo.
Proviamo a fare un confronto di n. transistor / prestazioni.
Il chippozzo di Apple integra 114 miliardi di transistor, ragazzi, è grande il doppio del chip della 3090!
Poi sullo stesso package troviamo anche le memorie, com banda e riduzione drastica della latenza.
Senza contare il PP più avanzato.
Stiamo parlando di roba bellissima e avanzatissima, ma che può permettersi solo Apple e i suoi fan. Perché voglio proprio vedere quanti comprerebbero un SoC AMD da 114 miliardi di transistor che costa 4000 euro per farsi una workstation in casa.
Guarda che passare ad ARM non é un problema, ci sono già offerte server basate su soc ARM da anni.
In ambito enterprise, dove la virtualizzazione delle macchine ormai rappresenta oltre il 90%, se la tua applicazione gira su una VM te ne freghi altamente se stai su un core x86, arm o vattelappesca.
La maggior parte degli OS supportano ARM da anni, sta tranquillo che se domani AMD e intel decidessero di vendere cpu con architetture diverse dal x86 il passaggio sarebbe piu semplice di quanto tu pensi.
Le uniche piattaforme ancora molto ancorate all'architettura della cpu sono quelle desktop/workstation, ma anche qui se si vuole fare il porting del sw si fà senza problemi.
Beh, no.
La questione compatibilità con il passato non vale solo come traduzione di istruzioni da una ISA all'altra.
Anche su una VM devi eseguire codice fatto per l'architettura che ci sta sotto. Altrimenti ti girano solo i servizi lato server e nulla più. Ma se io voglio far girare un applicativo mio devo compilarlo per ARM o x86.
E comunque il passaggio a una nuova architettura è decisamente più complesso. x86 storicamente è una architettura "faso-tuto-mi", cioè e core-centrica. Qualsiasi cosa passa per il core della CPU e uscire da esso non è particolarmente facile né agevole (estensione su estensione dell'API che è diventata una roba ormai ingestibile).
L'architettura ARM permette invece di collaborare anche con unità di calcolo esterne distribuendo il lavoro al meglio. Pensiamo a tutte le unità aggiuntive solo nei SoC per cellulari, come i moduli per gestire le fotocamere, le unità di calcolo AI, DSP esterni, unità dedicate alla criptografia etc...
Passare a una nuova architettura non è così semplice. Pensa a Windows che deve andare a gestire tutte le unità esterne, chi fa cosa, quando e per quanto può usarle in un sistema multiasking. Non basta prendere il codice di Windows, farlo passare per un convertitore ISA x86. -> ISA ARM e via, l'OS è pronto.
Ci sono molte differenze: basta pensare all'uso della architettura ibrida, se windows fosse stato pronto per girare su ARM veramente avrebbe adottato il "famoso" scheduler che ha messo su Win11 per supportare ADL già anni e anni fa.
E poi le librerie che devono gestire le funzionalità variabili (questo SoC ha l'unità di gestione AI? Quale? Cosa è in grado di fare? Con che potenza computazionale?) che non devono essere riscritte ogni mese come è solita fare MS, perché qui invece che accumulare versioni su versioni diverse delle stesse librerie per non rompere la compatibilità con i programmi, si finisce per accumulare 10 volte la stessa cosa per nulla.
E poi fornirle queste librerie, standard per tutti, in modo che sia l'OS a decidere chi fa cosa con tutto quanto è a disposizione.
Il passaggio alla fine non è così semplice.
Apple lo ha potuto fare perché suoi sono i SoC, sue sono le librerie, suoi sono gli strumenti di sviluppo e sopratutto suo è tutto l'ambiente in cui un utente/sviluppatore opera, per cui se decide che una certa libreria va sostituita, lo sparuto parco di sviluppatori si adatta o muore. Su Windows non sarebbe possibile: la vastità del parco sviluppatori e possibilità di uso del sistema, il fatto che siano usato come sistemi di supporto a infrastrutture basilari (Apple non è usato per questo scopo), la piena libertà di proporre librerie diverse che fanno quello che si vuole non permettono di tagliare il supporto da un giorno all'altro e quindi di realizzare dei facili progressi tagliando la retro-compatibilità come Apple fa.
CrapaDiLegno
18-03-2022, 10:26
Beh la quota di mercato é data anche dall'offerta.
Ripeto, se domani intel e amd iniziano a proporre piu' soluzioni ARM vedrai che le quote di mercato aumentano e siccome apple sta dimostrando che le soluzioni arm possono essere competitive anche come potenza di calcolo, non mi stupirei se la concorrenza iniziasse ad investirci un sacco di soldi.
In ambito server poi il consumo spesso é anche piu' importante della potenza perché come ho già detto é tutto virtualizzato e i sistemi sono fatti per scalare in maniera dinamica sia vertcalmente che orizzontalmente.
ARM non è per ora nei programmi di AMD e Intel come offerta.
Finché possono andare avanti è sicuramente meglio per loro continuare a vendere in esclusiva l'architettura x86.
Per fare questo Intel si sta attrezzando con gli E-core, che non sono nati per caso o per capriccio, ma sono un tentativo di cercare si arrivare al livellodi ARM in termini di transistor/watt/performance, dalla cui cosa che per ora x86 è decisamente molto lontana.
Se x86 vince come forza bruta perché storicamente nessuno ha veramente investito in maniera seria in una architettura ARM più grande di qualche decina di mm^2 (escludendo quello che ha fatto Apple che è però in un mercato tutto suo dove può vendere roba desktop non espandibile) nel mercato server il discorso è diverso, perché come hai detto tu spesso serve solo avere più VM che avere VM super perfomanti su un singolo core.
Tutti i carichi di lavoro di pagine Web funzionano molto meglio con più core lenti che meno core veloci.
E poi c'è il mercato HPC: lì la potenza la si ottiene iper scalando i singoli core e tenendo in considerazione solo spazio usato e consumi. In questo mercato ARM è a buon punto per entrare con abbastanza forza, basta vedere il super computer costruito in Giappone che è un bel campanello di allarme un po' per tutti, non solo AMD/Intel ma anche per Nvidia e le sue soluzioni discrete esterne che subiscono enormi cali di prestazioni dovuti alle enormi latenze di trasferimento dati.
Ritornando all'uso di core più semplici, Intel ha già il suo E-core mentre AMD ha già dichiarato che arriveranno sistemi basati su qualcosa di molto più semplice del core Zen4 standard nel 2024.
E non sarebbero stati proposti queste soluzioni che invertono la direzione verso la quale sia AMD che Intel hanno perseguito in questi anni, cioè di core sempre più grandi e complessi in grado di aumentare l'IPC al massimo se non si fosse presentato il pericolo ARM con i suoi mini-core-mono-thread dalla grande efficienza.
Dipende dagli ambiti di utilizzo, quasi tutto cio che é opensource e una gran parte dei maggior software che girano lato server supportano già arm, per il resto é solo una questione di opportunità e di investimenti.
Un sacco di software adobe tanto per fare un esempio hanno una versione android e ios, poi vabbé sarà sicuramente castratissima rispetto a quella desktop ad uso professionale, ma il porting se si vuole si fà, dipende solo dalle quote di mercato appunto.
Adobe è quella che nel 2022 ha ancora i SW basato su un singolo thread e gestisce il multi threading e l'accelerazione tramite GPU solo per alcuni effetti selezionati?
AlexSwitch
18-03-2022, 10:30
Proviamo a fare un confronto di n. transistor / prestazioni.
Il chippozzo di Apple integra 114 miliardi di transistor, ragazzi, è grande il doppio del chip della 3090!
Poi sullo stesso package troviamo anche le memorie, com banda e riduzione drastica della latenza.
Senza contare il PP più avanzato.
Stiamo parlando di roba bellissima e avanzatissima, ma che può permettersi solo Apple e i suoi fan. Perché voglio proprio vedere quanti comprerebbero un SoC AMD da 114 miliardi di transistor che costa 4000 euro per farsi una workstation in casa.
Bhè nel die di M1, quindi nel conteggio dei transistor, ci sono anche quelli della GPU, della NPU, degli encoder/decoder per il video... Inoltre la versione Ultra di M1 è composta da due die di M1 Max accoppiati sul chiplet tramite un interposer. Il dato " grezzo " da tenere in considerazione è il conto dei transistor di M1 Max.
Per quanto riguarda il prezzo del singolo SoC, per la versione Ultra, si dovrebbe aggirare sui 1400 Euro con 64GB di Ram installati e con 48 core GPU.
La versione con GPU a 64 core costa sui 1200 Euro in più.
dav1deser
18-03-2022, 10:31
La differenza fra processi produttivi spiega solo in parte la situazione. Per esempio N5 di TSMC offre soltanto un +15% di performance a iso-power o un -30% in consumi a iso performance rispetto ad N7. Dato ufficiale da TSMC.
Si, ok, ma difatti Nvidia e Intel usano dei processi che probabilmente sono inferiori all'N7 di Nvidia.
Poi l'efficienza è un valore difficile da stimare, in quanto l'efficienza varia con la frequenza, se Apple sta nella zona di più alta efficienza del suo processo produttivo e Nvidia (per tenere un po' di leadership) va su frequenze meno ottimali, diventa facile spiegare la differenza di efficienza.
Cioè se fai un grafico FPS/Watt per tutte le Nvidia serie 3xxx molto probabilmente non avresti sempre lo stesso risultato, ma vedresti diversi livelli di efficienza.
Il punto "consumi" è presto spiegato: i core M1 non sono X86, istruzioni che sono di per se energivore, ma core ARM che sono progettati con lo scopo specifico di essere molto efficienti. Del resto X86 è una tecnologia che ormai ha quasi mezzo secolo - ma se si vuole avere la retrocompatibilità con tutto passare ad ARM, o set istruzioni RISC di qualsiasi tipo, non è possibile se non in modo molto sanguinoso.
Probabilmente anche la GPU è progettata per essere efficiente ed i 5nM aiutano molto.
nickname88
18-03-2022, 10:58
;47785061']Se escludiamo la Potenza Bruta, e parliamo di Efficienza sia la GPU di Apple che quella di Intel è superiore alla GPU nVidia, e comunque quello che dice APPLE di solito è LEGGE, quindi si M1 Ultra è superiore alla RTX 3090 TI OC EDITION
PS: Sia Apple che Intel hanno il corrispettivo dei Tensor Core di nVidia nelle loro GPU quindi giocano alla pari in Tecnologia, in attesa che AMD e Cina si mettano in pari... :3 (Apple non ha "Raytracing" Core quello si).
Direi che, al netto dei 2x 3x 4x annunciati da Apple che lasciano il tempo che trovano, le prestazioni del mac studio siano di tutto rispetto anche considerando quanto poco tempo abbiano impiegato per raggiungere questi risultati.
Trovo il tutto ottimo sotto il punto di vista dell'innovazione, davvero ottimo.
Se fosse anche solo piu' veloce di una 3070 sarebbe comunque un risultato straordinario, in pochi anni di stanno spazzando via la concorrenza sia lato cpu che gpu.
La stessa performance di un 12900K ma con 100W in meno ? Anche il 5950X consuma fino a oltre 100W in meno, con Intel non stiamo mica parlando del riferimento perf/watt del settore. :asd:
Apple inoltre usa il 5nm TSMC cosa non da poco :rolleyes:
Quindi dove sarebbe quindi tutta questa innovazione ?
https://tpucdn.com/review/intel-core-i9-12900k-alder-lake-12th-gen/images/power-multithread.png
Senza contare che bisognerebbe vedere la performance in single thread, perchè se ha bisogno di 64 core per registrare il 90% in più di un 16 core .... :rolleyes:
Più potente della 3090 sulla base di Geekbench e un Tomb Raider su cui non c'è alcuna analisi tecnica sulla corretta riproduzione degli effetti ? :rolleyes:
https://tpucdn.com/review/intel-core-i9-12900k-alder-lake-12th-gen/images/power-multithread.png
Senza contare che bisognerebbe vedere la performance in single thread, perchè se ha bisogno di 64 core per registrare il 90% in più di un 16 core .... :rolleyes:
Più potente della 3090 sulla base di Geekbench e un Tomb Raider su cui non c'è alcuna analisi tecnica sulla corretta riproduzione degli effetti ? :rolleyes:Mmm. M1 Ultra usa 60-70W per la CPU in full load, che sono oltre 100W in meno di un 5900X (stando alla stessa immagine da te postata), pur avendo performance superiori.
M1 Ultra usa oltre 200W in meno di un 12900k in full load e senza limitazioni.
dav1deser
18-03-2022, 12:25
Mmm. M1 Ultra usa 60-70W per la CPU in full load, che sono oltre 100W in meno di un 5900X (stando alla stessa immagine da te postata), pur avendo performance superiori.
M1 Ultra usa oltre 200W in meno di un 12900k in full load e senza limitazioni.
Quell'immagine riporta i consumi dell'intero sistema.
megamitch
18-03-2022, 12:39
Beh mi sembra sottinteso che per "spazzato via" si intende da un punto di vista dimostrativo, Apple non vende chip, quindi ovvio che non possono spazzare via nessuno da un mercato che non li vede come competitors.
Guarda che passare ad ARM non é un problema, ci sono già offerte server basate su soc ARM da anni.
In ambito enterprise, dove la virtualizzazione delle macchine ormai rappresenta oltre il 90%, se la tua applicazione gira su una VM te ne freghi altamente se stai su un core x86, arm o vattelappesca.
La maggior parte degli OS supportano ARM da anni, sta tranquillo che se domani AMD e intel decidessero di vendere cpu con architetture diverse dal x86 il passaggio sarebbe piu semplice di quanto tu pensi.
Le uniche piattaforme ancora molto ancorate all'architettura della cpu sono quelle desktop/workstation, ma anche qui se si vuole fare il porting del sw si fà senza problemi.
Ho esperienze di migrazioni non rose e fiori per cui sono un po’ scettico sul fatto che costino poco. Pure migrare versioni Oracle diventa spesso e volentieri un bagno di sangue
Ho esperienze di migrazioni non rose e fiori per cui sono un po’ scettico sul fatto che costino poco. Pure migrare versioni Oracle diventa spesso e volentieri un bagno di sangue
Oracle insieme ad IBM sono le software house piu' grandi in ambito server e sono già dentro ARM da anni.
Oracle forniva i binari dei suoi DB per Sun SPARC 20 anni fà quando le macchine solaris erano molto meno diffuse di quelle arm64 al giorno d'oggi.
La storiella che passare da x86 ad un'altra architettura e viceversa sia difficile è una leggenda metropolitana.
megamitch
18-03-2022, 12:57
Oracle insieme ad IBM sono le software house piu' grandi in ambito server e sono già dentro ARM da anni.
Oracle forniva i binari dei suoi DB per Sun 20 anni fà quando le macchine solaris erano molto meno diffuse di quelle arm64 al giorno d'oggi.
La storiellla che passare da x86 ad un'altra architettura e viceversa sia difficileé una leggenda metropolitana.
Saranno pure dentro ma , almeno nella mia esperienza, fare anche solo un salto di qualche release è un bagno di sangue come costi , figuriamoci cambiare architettura.
Saranno pure dentro ma , almeno nella mia esperienza, fare anche solo un salto di qualche release è un bagno di sangue come costi , figuriamoci cambiare architettura.
Le migrazioni dei SW a pagamento sono sempre un bagno di sangue da una release ad un altra e non dipendono certo dall'architettura hardware.
Hai un problema? Paghi il supporto ...
Del resto X86 è una tecnologia che ormai ha quasi mezzo secolo
La tecnologia ARM è del 1983 ... :fagiano:
La tecnologia ARM è del 1983 ... :fagiano:
e negli ultimi 10 anni si é evoluta moooolto di piu' di quella x86
megamitch
18-03-2022, 13:17
Le migrazioni dei SW a pagamento sono sempre un bagno di sangue da una release ad un altra e non dipendono certo dall'architettura hardware.
Hai un problema? Paghi il supporto ...
Bah mi sembra avventato dire che il software non dipenda dalla architettura hardware.
Quell'immagine riporta i consumi dell'intero sistema.Poco cambia.
Un Macbook Pro con M1 Max usa 34W di Package Power (intero SoC) e 39,7W di Wall Power in full load con CB23 MT.
M1 Ultra è costituito da 2 Max messi insieme quindi i conti sono semplici.
Bah mi sembra avventato dire che il software non dipenda dalla architettura hardware.
Mai detto questo, dico che il sw é già supportato se si usano cpu arm.
https://www.oracle.com/cloud/compute/arm/what-is-arm/
https://www.oracle.com/linux/downloads/linux-arm-downloads.html
megamitch
18-03-2022, 13:55
Mai detto questo, dico che il sw é già supportato se si usano cpu arm.
https://www.oracle.com/cloud/compute/arm/what-is-arm/
https://www.oracle.com/linux/downloads/linux-arm-downloads.html
I miei clienti usano questi
https://www.oracle.com/it/news/announcement/oracle-introduces-next-generation-exadata-x9m-platforms-2021-09-28/
dav1deser
18-03-2022, 13:55
Poco cambia.
Un Macbook Pro con M1 Max usa 34W di Package Power (intero SoC) e 39,7W di Wall Power in full load con CB23 MT.
M1 Ultra è costituito da 2 Max messi insieme quindi i conti sono semplici.
Ma non sai in quei grafici quanto il resto della configurazione sia rilevante, quindi stai comunque confrontando mele con pere.
Ma non sai in quei grafici quanto il resto della configurazione sia rilevante, quindi stai comunque confrontando mele con pere.Seriamente? Il resto della configurazione è una classica mobo con RAM e una GPU in idle. Userà forse 30-40W in idle (esclusa CPU).
dav1deser
18-03-2022, 14:51
Seriamente? Il resto della configurazione è una classica mobo con RAM e una GPU in idle. Userà forse 30-40W in idle (esclusa CPU).
A giudicare da quei numeri e sapendo che 10400F e 5600X entrambi hanno consumi molto prossimi al loro TDP (65W) direi che le piattaforme consumano sui 60W. Che non è certo irrilevante.
A giudicare da quei numeri e sapendo che 10400F e 5600X entrambi hanno consumi molto prossimi al loro TDP (65W) direi che le piattaforme consumano sui 60W. Che non è certo irrilevante.Ecco il consumo IDLE indicato dalla stessa review di cui sopra CPU inclusa:
https://tpucdn.com/review/intel-core-i9-12900k-alder-lake-12th-gen/images/power-idle.png
Cambia il fatto che un 12900k consuma quasi 200W (quasi il triplo) in più?
è vero che un 12900k è più performante su CB23, sicuramente un fattore da considerare, ma in termini di performance per watt siamo su due universi un po' diversi.
dav1deser
18-03-2022, 15:28
Ecco il consumo IDLE indicato dalla stessa review di cui sopra CPU inclusa:
https://tpucdn.com/review/intel-core-i9-12900k-alder-lake-12th-gen/images/power-idle.png
Cambia il fatto che un 12900k consuma quasi 200W (quasi il triplo) in più?
è vero che un 12900k è più performante su CB23, sicuramente un fattore da considerare, ma in termini di performance per watt siamo su due universi un po' diversi.
Se consideri l'aumento di consumi di VRM, alimentatore, e ventole quando la CPU è in full, direi che i 60W che ho ipotizzato sono realistici.
Si, gli ultimi processori intel non sono assolutamente efficienti in full load, già lo si vede nel confronto con AMD. Resta il fatto che fra un 5nm e un 10nm di acqua sotto i ponti ne passa.
Ma le cpu Apple sono ARM based, non devono portarsi dietro tutta la complessità dei set di istruzioni x86, e per Apple non è cosi complesso riconvertire tutti i software professionali per ARM, senza contare rosetta che di certo mette le pezze per quei software non aggiornati.
Ma è palese che un soc ARM avrà sempre un netto vantaggio sui consumi.
Lato GPU considerando l'adozione dei 5nm non mi sembra nulla di eccezionale, anche nvidia passando ai 5nm dovrebbe prendere le performance dell'attuale 3080 già con una 4060, con AD102 si va praticamente verso il 2x3090 (parliamo di quasi un 2x di prestazioni a pari consumi)...
Idem per AMD che in pratica su chippetto come Navi 33 su 128bit ha le stesse unità della 6900xt :sofico:
La GPU in M1 è progettata per andare forte in alcuni ambiti che sono quelli tipici di utilizzo dei Mac studi e post produzione, inutile confrontarla nei giochi con AMD o NVIDIA. Secondo me questa analisi è poco significativa. La GPU di M1 Ultra può accedere ad un quantitativo enorme di memoria, fino a 128GByte con ampiezza di banda da 800Gbits. Si possono gestire tanti flussi in color correction 8K o progetti CAD/AR/VR di dimensioni enormi.
cad su mac? :mc:
se intendi modellazione 3D tipo blender, non c'è paragone in fase di render...
al mac rimane solo la gestione dei flussi video, gli altri ambiti non sono paragonabili...tantomeno se invece di fare i benchmark prestazioni/watt li facciamo prestazioni/euro...
bio
tuttodigitale
18-03-2022, 17:40
ARM non è per ora nei programmi di AMD e Intel come offerta.
mi chiederei il perché se fossi in te....vuoi vedere che i vantaggi non sono enormi....AMD ha messo da parte per il momento l'architettura k12 il fratello gemello di ZEN.
Per fare questo Intel si sta attrezzando con gli E-core, che non sono nati per caso o per capriccio, ma sono un tentativo di cercare si arrivare al livellodi ARM in termini di transistor/watt/performance, dalla cui cosa che per ora x86 è decisamente molto lontana.
il concetto big.Litte è nato con Arm....
Il problema di Intel, ma che hanno tutti i produttori di cpu, è che non è facile aumentare l'ipc senza un aumento vertiginoso della complessità....ricordo ancora che un core K10 era la metà di un SB, pur avendo un FO4 favorevole, non aveva meno delle metà di ipc anche contando il SMT....già da questo è evidente che un'architettura moderna paga le sue maggiori prestazioni con un numero di transistor e consumi notevolmente superiori, che si traducono in un throughput teorico PEGGIORE....non è un caso se Intel per massimizzare il throughput ha pensato di utilizzare per le sue soluzioni Phi, core molto simili a quelli dei primi Pentium...
Inoltre le CPU Rocket Lake, a fronte di un ipc aumentato e frequenze reali significativamente ridotte....abbiano portato un peggioramento drastico delle prestazioni per watt rispetto alle ultime soluzioni skylake...
i core E nascono dall'esigenza primaria di avere prestazioni per watt e per mmq pari o superiori rispetto all'architettura skylake e allo stesso tempo avere prestazioni nel ST di gran lunga superiore (che sono di vitale importanza per incrementare le prestazioni anche nel MT). Questo a parità di processo.
ARM non c'entra niente con i core E.
WillieBipBip
18-03-2022, 18:06
il problema, sopratutto con intel, è che sono rimasti agli anni 90 come concezione di computer. Un tempo davvero c'erano salti di generazione e differenze di potenza anche minime che cambiano tutte le carte in tavola per un certo utilizzo.
Oggi riempiono il mercato di decine di prodotti inutili, ancora schede tecniche e test con roba tecnica che è totalmente inutile, ormai l'unica cosa utile è capire a grandi linee cosa può fare quell'hardware nella vita di tutti i giorni e per il proprio lavoro. Poi ormai tutto l'hardware top di gamma e in parte anche quello di un gradino inferiore possono fare di tutto e di più (poi ancora più in basso abbiamo vagonate inutili di chip buoni solo per Facebook e instagram).
Ormai è inutile farsi le pugnette mentali, i Mac funzionano in una maniera incredibile, i PC funzionano decisamente bene, finisce lì. Poi ovvio se un utente sbaglia totalmente la scelta è un suo problema.
tuttodigitale
18-03-2022, 18:08
Probabilmente anche la GPU è progettata per essere efficiente ed i 5nM aiutano molto.
la nuova punta di diamante nel mercato mobile di AMD in un TDP di 35W, offre secondo test indipendenti 85% delle prestazioni di una gtx1060...e ha "appena" 14 miliardi di transistor.
Dai grafici sembrerebbe che la M1 abbia solo il doppio delle prestazioni di una gtx1060
tutto sommato con 114 miliardi di transistor è deludente avere prestazioni così "scarse"...
nickname88
18-03-2022, 19:05
Mmm. M1 Ultra usa 60-70W per la CPU in full load, che sono oltre 100W in meno di un 5900X (stando alla stessa immagine da te postata), pur avendo performance superiori.
M1 Ultra usa oltre 200W in meno di un 12900k in full load e senza limitazioni.Questo punto in realtà è tutto da vedere.
La slide postata da Apple già è stata smentita sul piano GPU, che per altro sarebbe da verificare ulteriormente.
E anche i risultati di Cinebench R23 appena usciti vedono il 12900K sopra sia in MT che in ST del 20%.
Secondo il grafico Apple invece il loro M1 Ultra come massima performance supera di netto la controparte Intel. Il SoC non è ancora uscito, se fosse confermato sarebbe l'ennesima disinformazione apple.
Sicuramente sarà sempre migliore come performance/watt ma tempo qualche mese dalla sua uscita vedremo Zen4 a parità di PP e con architettura ibrida, qualcosa mi dice che il gap di efficienza sarà ben più risicato di quanto mostrato.
Un 5900X pur avendo performance superiori.Per altro io parlavo di 5950X che consuma meno o uguale al 5900X.
Questo punto in realtà è tutto da vedere.
La slide postata da Apple già è stata smentita sul piano GPU, che per altro sarebbe da verificare ulteriormente.
E anche i risultati di Cinebench R23 appena usciti vedono il 12900K sopra sia in MT che in ST del 20%.
Secondo il grafico Apple invece il loro M1 Ultra come massima performance supera di netto la controparte Intel. Il SoC non è ancora uscito, se fosse confermato sarebbe l'ennesima disinformazione apple.
Sicuramente sarà sempre migliore come performance/watt ma tempo qualche mese dalla sua uscita vedremo Zen4 a parità di PP e con architettura ibrida, qualcosa mi dice che il gap di efficienza sarà ben più risicato di quanto mostrato.
Per altro io parlavo di 5950X che consuma meno o uguale al 5900X.Lasciamo stare le slide promozionali. I benchmark di M1U sono già disponibili e si posiziona fra 5900 e 5950 su R23, consumando molto meno di entrambi. E Cinbench è uno dei peggiori benchmark in generale per l'architettura Apple e testa un singolo tipo di workload.
Usa una suite più seria e molto più variegata come SPEC2017 e scopri che persino l'M1 Pro / Max, che ha la metà dei core dell'Ultra, è competitivo con un 5900X/5950X.
https://images.anandtech.com/graphs/graph17024/117496.png
Riguardo Zen 4, hai ragione, ma il motivo per cui il gap si ridurrà è semplicemente perché Apple non si è sprecata con questo SoC nonostante il nome Ultra. Usa ancora gli stessi core e la stessa architettura dell'M1 uscito 2 anni fa. Apple ha già introdotto una nuova architettura l'anno scorso con A15 e ne introdurrà un'altra ancora più avanzata quest'anno con l'A16 usando i 4 nanometri di TSMC nello stesso periodo di lancio di Zen 4.
Chiaramente però le scelte aziendali hanno deciso di riciclare M1 anche per quest'anno.
nickname88
18-03-2022, 22:24
Lasciamo stare le slide promozionali. I benchmark di M1U sono già disponibili e si posiziona fra 5900 e 5950 su R23, consumando molto meno di entrambi. E Cinbench è uno dei peggiori benchmark in generale per l'architettura Apple e testa un singolo tipo di workload.
Usa una suite più seria e molto più variegata come SPEC2017 e scopri che persino l'M1 Pro / Max, che ha la metà dei core dell'Ultra, è competitivo con un 5900X/5950X.
https://images.anandtech.com/graphs/graph17024/117496.png
Riguardo Zen 4, hai ragione, ma il motivo per cui il gap si ridurrà è semplicemente perché Apple non si è sprecata con questo SoC nonostante il nome Ultra. Usa ancora gli stessi core e la stessa architettura dell'M1 uscito 2 anni fa. Apple ha già introdotto una nuova architettura l'anno scorso con A15 e ne introdurrà un'altra ancora più avanzata quest'anno con l'A16 usando i 4 nanometri di TSMC nello stesso periodo di lancio di Zen 4.
Chiaramente però le scelte aziendali hanno deciso di riciclare M1 anche per quest'anno.Un bench sintetico non può essere mai preso come una fedele rappresentazione della realtà.
Comunque sia la ricerca della performance tramite l'aumento di cores è senza ombra di dubbio la via migliore per l'efficienza che nella ricerca dell'IPC per core, che è quello che più conta in ambito desktop, cui la maggior parte delle applicazioni oltre un tot num di cores non usa.
Questo M1 Ultra ha incrementato il num di cores, avesse invece aumentato la frequenza sarebbero saliti i consumi in modo molto più sproporzionato al guadagno di performance.
WillieBipBip
19-03-2022, 00:19
da quello che ho potuto vedere M1 originale 8 core gpu va meglio di una PS4 Pro (poi va beh la ps4 è di certo più ottimizzata nei giochi in generale, quindi prendendo 100 giochi e confrontandoli magari andrà generalmente meglio) , anche se M1 è dato per la metà come capacità grafiche.
M1 Ultra è più performante di una RTX 3090? la risposta è si e no, dipende da cosa ci si deve fare, dipende dal software, dipende dal contesto di test e così via dicendo. (non a caso nei test fatti su Shadow of the tomb raider sono i medesimi risultati presenti su notebookcheck per il singolo M1 max che sono simili alla 3080 laptop che cambia di 15% circa nel framerate rispetto alla 3080 desktop, M1 ultra è tutta un'altra cosa)
Di certo non sono i programmi di benchmark non aggiornati, test fatti tra directx e altre librerie, o il non considerare il fatto che macOS magari necessita di ulteriori aggiornamenti per sfruttare appieno M1 Ultra (the verge dice che non è molto differente da un M1 max, anche se sono letteralmente due M1 max fusi insieme che vanno il doppio) a decretare chi può dare il meglio da una parte o l'altra.
Stiamo parlando di due SoC fusi insieme in una nuova interfaccia che cerca di spingere al limite le possibilità "dual" come mai prima d'ora, idea vecchia ma risultati nuovi, secondo me nemmeno macOS è ancora adattato al 100% a questo nuovo Apple M1 ultra.
Poi se altri faranno meglio spero solo non serva una centrale nucleare per poterli usare, e l'idrogeno liquido appena fai partire un gioco del 2018....
E' un po' come il discorso elettriche vs benzina, vince una tesla o una mustang modificata?
ThE cX MaN
19-03-2022, 08:15
SSD upgradabile… per la cronaca.
Se vabbè... la GPU di Apple M1 base è simile a una 1050ti/ RX 560, proprio esagerando tallona la 1650 liscia, siamo un pò distanti dalla Rx570/580 di ps4 pro :fagiano:
Già le nuove RDNA2 nelle nuove apu 6000 vanno meglio, è con m1 pro con gpu da 14/16 core che effettivamente si arriva a quel target di 1060/580.
Ma si, dipende dall'uso che devi farne, chi si prende un sistema Apple non lo fa certo per giocarci, c'è tutto il parco software professionali e la maggior parte dei programmi sono convertiti per ARM.
Il vantaggio di M1 base sta nei consumi e nel calore, è un soc che riesce a lavorare agevolmente anche in passivo.
AlexSwitch
19-03-2022, 08:34
da quello che ho potuto vedere M1 originale 8 core gpu va meglio di una PS4 Pro (poi va beh la ps4 è di certo più ottimizzata nei giochi in generale, quindi prendendo 100 giochi e confrontandoli magari andrà generalmente meglio) , anche se M1 è dato per la metà come capacità grafiche.
M1 Ultra è più performante di una RTX 3090? la risposta è si e no, dipende da cosa ci si deve fare, dipende dal software, dipende dal contesto di test e così via dicendo. (non a caso nei test fatti su Shadow of the tomb raider sono i medesimi risultati presenti su notebookcheck per il singolo M1 max che sono simili alla 3080 laptop che cambia di 15% circa nel framerate rispetto alla 3080 desktop, M1 ultra è tutta un'altra cosa)
Di certo non sono i programmi di benchmark non aggiornati, test fatti tra directx e altre librerie, o il non considerare il fatto che macOS magari necessita di ulteriori aggiornamenti per sfruttare appieno M1 Ultra (the verge dice che non è molto differente da un M1 max, anche se sono letteralmente due M1 max fusi insieme che vanno il doppio) a decretare chi può dare il meglio da una parte o l'altra.
Stiamo parlando di due SoC fusi insieme in una nuova interfaccia che cerca di spingere al limite le possibilità "dual" come mai prima d'ora, idea vecchia ma risultati nuovi, secondo me nemmeno macOS è ancora adattato al 100% a questo nuovo Apple M1 ultra.
Poi se altri faranno meglio spero solo non serva una centrale nucleare per poterli usare, e l'idrogeno liquido appena fai partire un gioco del 2018....
E' un po' come il discorso elettriche vs benzina, vince una tesla o una mustang modificata?
E perchè mai macOS non sarebbe ancora ottimizzato? Il multithreading esiste da anni e M1 Ultra è visto come un unico SoC. Quindi macOS sfrutterà le risorse di questa piastrella al pari di M1 liscio, Pro e Max...
Il problema, se così vogliamo chiamarlo, è che macOS sfrutta solamente Metal per la grafica e il resto ( credo che con Monterey OpenGL e OpenCL, deprecate da Mojave, siano state eliminate definitivamente ), ed i driver della GPU di M1 Ultra non sono ottimizzati per il gaming come quelli di nVidia e AMD.
D'altronde il gaming ( serio ) per Apple non è considerato un punto strategico per la sua offerta Macintosh, cosa dimostrata ampiamente dall'offerta di giochi disponibile in cui quelli arcade sono la maggioranza.
AlexSwitch
19-03-2022, 08:39
SSD upgradabile… per la cronaca.
Inaspettatamente... Ma solo quello e solamente con unità Apple ( quindi quasi introvabili e a carissimo prezzo ). Il lato positivo è che se per disgrazia si dovesse fulminare l'SSD a garanzia scaduta sul Mac Studio non si dovrà sostituire tutta la scheda logica e SoC saldato sopra.
Inaspettatamente... Ma solo quello e solamente con unità Apple ( quindi quasi introvabili e a carissimo prezzo ). Il lato positivo è che se per disgrazia si dovesse fulminare l'SSD a garanzia scaduta sul Mac Studio non si dovrà sostituire tutta la scheda logica e SoC saldato sopra.
Già... anche microsoft con l'ultimo surface ha inserito uno sportellino per l'SSD.
Si vede che imprecare da i suoi frutti :fagiano:
megamitch
19-03-2022, 09:20
SSD upgradabile… per la cronaca.
Quindi non era vero che era impossibile garantire le prestazioni dei dischi SSD senza saldarli. Che strano..l
AlexSwitch
19-03-2022, 10:49
Quindi non era vero che era impossibile garantire le prestazioni dei dischi SSD senza saldarli. Che strano..l
Si ma queste sono le minchiate che spara Apple a mo di supercazzola... E lo fa da anni...
Il problema è che nessuno della stampa specializzata gli pianta una una sonora risata in faccia sfanculandoli quando tirano fuori certe perle!!
A dirla tutta anche la Ram unificata potrebbe benissimo essere montata su socket separato dal die del SoC, ma così facendo Apple non potrebbe più farti pagare 230 Euro ogni 8GB aggiuntivi!!
Un bench sintetico non può essere mai preso come una fedele rappresentazione della realtà.
Comunque sia la ricerca della performance tramite l'aumento di cores è senza ombra di dubbio la via migliore per l'efficienza che nella ricerca dell'IPC per core, che è quello che più conta in ambito desktop, cui la maggior parte delle applicazioni oltre un tot num di cores non usa.
Questo M1 Ultra ha incrementato il num di cores, avesse invece aumentato la frequenza sarebbero saliti i consumi in modo molto più sproporzionato al guadagno di performance.?
SPEC include una intera suite di sub benchmark, fra i quali rendering 3D, compiling, video compression, vari task per AI, dinamica molecolare, simulazioni meteo, fluido dinamica, imaging medico, modelli oceanici e atmosferici e manipolazione di immagini.
Questo allo scopo di stressare ogni parte della CPU inclusa cache, controller memoria, capacità di calcoli int e floating point.
Difficile trovare un benchmark più reale e variegato di quello.
WillieBipBip
19-03-2022, 12:38
E perchè mai macOS non sarebbe ancora ottimizzato? Il multithreading esiste da anni e M1 Ultra è visto come un unico SoC. Quindi macOS sfrutterà le risorse di questa piastrella al pari di M1 liscio, Pro e Max...
Il problema, se così vogliamo chiamarlo, è che macOS sfrutta solamente Metal per la grafica e il resto ( credo che con Monterey OpenGL e OpenCL, deprecate da Mojave, siano state eliminate definitivamente ), ed i driver della GPU di M1 Ultra non sono ottimizzati per il gaming come quelli di nVidia e AMD.
D'altronde il gaming ( serio ) per Apple non è considerato un punto strategico per la sua offerta Macintosh, cosa dimostrata ampiamente dall'offerta di giochi disponibile in cui quelli arcade sono la maggioranza.
secondo te Apple ha semplicemente fatto tutto questo per dire "1+1 = tanti core!!! e se ne mettiamo 3 diventano ancora più coreeee" di sicuro il supporto dual è on the go nel sistema visto come unico soc e con bassissima latenza,ma non sappiamo quali siano le funzioni di questa scelta, per dire potremmo magari vedere il funzionamento di un "dual single core" dove il single core di ogni soc funziona in contemporanea all'altro, dando il doppio (o quasi) del risultato del singolo M1 Max anche solo nel single core.
Per la parte grafica è proprio così, le soluzioni dedicate del mondo pc sono più ottimizzate e sopratutto i giochi sono più ottimizzati per i prodotti nvidia e amd , però appunto in altri ambiti o comunque conoscendo i Mac si capisce che pelo più pelo meno M1 ULTRA è un top di gamma sotto tutti i punti di vista, ed un sistema completo ad un prezzo abbastanza normale, che consuma una frazione e che è pure portatile.
WillieBipBip
19-03-2022, 12:43
?
SPEC include una intera suite di sub benchmark, fra i quali rendering 3D, compiling, video compression, vari task per AI, dinamica molecolare, simulazioni meteo, fluido dinamica, imaging medico, modelli oceanici e atmosferici e manipolazione di immagini.
Questo allo scopo di stressare ogni parte della CPU inclusa cache, controller memoria, capacità di calcoli int e floating point.
Difficile trovare un benchmark più reale e variegato di quello.
diciamo che è come fare il test del banco dei rulli su un'auto volante, non è la bontà del test il problema, ma il fatto che siamo di fronte a qualcosa che non era stato fatto così, che come minimo richiede un aggiornamento della piattaforma benchmark se non farne uno apposito per l'M1 ultra, altrimenti leggerà le cpu matematicamente e infatti l'M1 Ultra sembra l' M1 max con più core, ma non è così, se ne hanno messi due è per sfruttarne due, non per avere un M1 max con più core altrimenti avrebbero fatto un M1 max semplicemente con più core.
AlexSwitch
19-03-2022, 13:02
secondo te Apple ha semplicemente fatto tutto questo per dire "1+1 = tanti core!!! e se ne mettiamo 3 diventano ancora più coreeee" di sicuro il supporto dual è on the go nel sistema visto come unico soc e con bassissima latenza,ma non sappiamo quali siano le funzioni di questa scelta, per dire potremmo magari vedere il funzionamento di un "dual single core" dove il single core di ogni soc funziona in contemporanea all'altro, dando il doppio (o quasi) del risultato del singolo M1 Max anche solo nel single core.
Per la parte grafica è proprio così, le soluzioni dedicate del mondo pc sono più ottimizzate e sopratutto i giochi sono più ottimizzati per i prodotti nvidia e amd , però appunto in altri ambiti o comunque conoscendo i Mac si capisce che pelo più pelo meno M1 ULTRA è un top di gamma sotto tutti i punti di vista, ed un sistema completo ad un prezzo abbastanza normale, che consuma una frazione e che è pure portatile.
Ma ti rendi conto di cosa scrivi?
La ragione di questa scelta, visto che M1 Max occupa un mare di silicio, è solamente quella di aggirare l'impossibilità di avere tutti quei transistor in un unico die se non con rese bassissime.
Inoltre spiegami che roba sarebbe un " dual single core " perchè, visto che le CPU multicore esistono da più di un decennio, non si è mai visto farle lavorare come te hai scritto.
Il prezzo sarebbe normale se Apple non ti facesse pagare un occhio e mezzo per la ram ( non ECC ) e lo storage: invece 32GB Apple te li vende ( sul Mac Studio, sugli altri Mac il costo per GB è maggiore ) alla modica cifra di 460 Euro!! Idem con patate per lo storage: 230 Euro per 512GB aggiuntivi!!
Gringo [ITF]
19-03-2022, 19:54
Comunque sicuramente su un lato lo batte il Ryzen....
https://cdn.videocardz.com/1/2022/03/Apple-M1-Ultra-Max-Tech-5.jpg
nickname88
19-03-2022, 22:46
?
SPEC include una intera suite di sub benchmark, fra i quali rendering 3D, compiling, video compression, vari task per AI, dinamica molecolare, simulazioni meteo, fluido dinamica, imaging medico, modelli oceanici e atmosferici e manipolazione di immagini.
Questo allo scopo di stressare ogni parte della CPU inclusa cache, controller memoria, capacità di calcoli int e floating point.
Difficile trovare un benchmark più reale e variegato di quello.
E' sempre un bench sintetico, le realtà non è mai stata rappresentata da questi ultimi ma da test su applicazioni specifiche.
WillieBipBip
20-03-2022, 20:54
Ma ti rendi conto di cosa scrivi?
La ragione di questa scelta, visto che M1 Max occupa un mare di silicio, è solamente quella di aggirare l'impossibilità di avere tutti quei transistor in un unico die se non con rese bassissime.
Inoltre spiegami che roba sarebbe un " dual single core " perchè, visto che le CPU multicore esistono da più di un decennio, non si è mai visto farle lavorare come te hai scritto.
Il prezzo sarebbe normale se Apple non ti facesse pagare un occhio e mezzo per la ram ( non ECC ) e lo storage: invece 32GB Apple te li vende ( sul Mac Studio, sugli altri Mac il costo per GB è maggiore ) alla modica cifra di 460 Euro!! Idem con patate per lo storage: 230 Euro per 512GB aggiuntivi!!
ecco questo è uno dei problemi, ovvero persone come te confondono un dual soc con un singolo chip multicore... il dual single core significa due single core che funzionano insieme (benchmark M1 max è 1700 su geekbench? allora un M1 ultra può fare sui 3000-3500 in dual single core)
Eppure alla fine dei conti un mac studio costa quanto se non meno un PC windows, ormai le differenze di prezzo non esistono anzi per molti prodotti Apple si sta rivelando molto concorrenziale. O vuoi dermi che è meglio spendere 2000€ di 3080 che senza il resto del PC ci puoi fare un fermacarte da 2000€?
AlexSwitch
21-03-2022, 08:22
ecco questo è uno dei problemi, ovvero persone come te confondono un dual soc con un singolo chip multicore... il dual single core significa due single core che funzionano insieme (benchmark M1 max è 1700 su geekbench? allora un M1 ultra può fare sui 3000-3500 in dual single core)
Eppure alla fine dei conti un mac studio costa quanto se non meno un PC windows, ormai le differenze di prezzo non esistono anzi per molti prodotti Apple si sta rivelando molto concorrenziale. O vuoi dermi che è meglio spendere 2000€ di 3080 che senza il resto del PC ci puoi fare un fermacarte da 2000€?
Guarda che sta storia del " dual single core " la citi solamente te... Apple considera M1 Ultra come un unica CPU multicore, sebbene fisicamente sia composta da due die interconnessi. Non lo affermo io, ma Apple!!
Anche Geekbench, per quello che conta come benchmark, vede M1 Ultra come una una singola CPU multicore ed i risultati in single core sono in linea con quelli di M1 " liscio ". Insomma sto benedetto " dual single core " da dove lo tiri fuori?
Hai articoli di prove già fatte in passato visto che, ripeto ancora, di CPU multicore ne esistono a bizzeffe da quasi due decenni? Allora perchè non fare un " triple single core " o un " quad single core "?
Sui prezzi fai attenzione: Apple bastona di brutto su Ram e SSD.
ecco questo è uno dei problemi, ovvero persone come te confondono un dual soc con un singolo chip multicore... il dual single core significa due single core che funzionano insieme (benchmark M1 max è 1700 su geekbench? allora un M1 ultra può fare sui 3000-3500 in dual single core)
Quello che ti sta dicendo AlexSwitch è che dual single core non significa niente, al massimo si potrebbe parlare di dual socket, come le schede madri dei server, ma M1 Ultra è un processore singolo, che sia composto da due M1 Max appiccicati con la loro nuova tecnologia Ultrafusion non comporta differenze in termini di gestione del sistema operativo, l'os vede un unico processore da 20 core e come tale lo fa funzionare...perché lo abbiano costruito così immagino sia per i motivi scritti sempre da AlexSwitch, farne direttamente uno da 20 non conveniva in termini economici e di resa produttiva, quindi meglio fonderne due da 10 e amen.
Eppure alla fine dei conti un mac studio costa quanto se non meno un PC windows, ormai le differenze di prezzo non esistono anzi per molti prodotti Apple si sta rivelando molto concorrenziale. O vuoi dermi che è meglio spendere 2000€ di 3080 che senza il resto del PC ci puoi fare un fermacarte da 2000€?
Mac Studio costa esattamente quanto le altre workstation dello stesso tipo, poi quale convenga prendere dipenderà dalle esigenze delle varie persone...in alcuni ambiti converrà di più, in altri meno.
CrapaDiLegno
21-03-2022, 10:16
mi chiederei il perché se fossi in te....vuoi vedere che i vantaggi non sono enormi....AMD ha messo da parte per il momento l'architettura k12 il fratello gemello di ZEN.
I vantaggi sono invece enormi, solo che per ora AMD e Intel rimangono nella loro bolla monopolistica x86. Uscire da quella bolla che perdura da 40 anni significa far scoppiare tutto senza possibilità di ritorno.
Finche ce la possono fare, ci rimarranno. Poi dovranno uscirne e concorrere con un mercato molto più grande fatto da tanti altri che possono proporre CPU come le loro anche più veloci o più efficienti.
il concetto big.Litte è nato con Arm....
Che non è la questione del discorso: qui si parla di core con SMT e core senza grandi 1/4 e con il 90% delle capacità di calcolo del core SMT.
Il problema di Intel, ma che hanno tutti i produttori di cpu, è che non è facile aumentare l'ipc senza un aumento vertiginoso della complessità....ricordo ancora che un core K10 era la metà di un SB, pur avendo un FO4 favorevole, non aveva meno delle metà di ipc anche contando il SMT....già da questo è evidente che un'architettura moderna paga le sue maggiori prestazioni con un numero di transistor e consumi notevolmente superiori, che si traducono in un throughput teorico PEGGIORE....non è un caso se Intel per massimizzare il throughput ha pensato di utilizzare per le sue soluzioni Phi, core molto simili a quelli dei primi Pentium...
Inoltre le CPU Rocket Lake, a fronte di un ipc aumentato e frequenze reali significativamente ridotte....abbiano portato un peggioramento drastico delle prestazioni per watt rispetto alle ultime soluzioni skylake...
Hai scritto ovvietà che sono così da 40 anni.
Guarda caso solo dopo l'arrivo dei processori per server basati su core ARM Intel ha cominciato ad arricciare il naso e a capire che con quella roba da miliardi di transistor e centinaia di W per maneggiare 2 thread contro invece 2 semplici core ARM non ce la può fare.
Non negli ambiti in cui ARM si sta inserendo con forza.
L'IPC non è tutto.
i core E nascono dall'esigenza primaria di avere prestazioni per watt e per mmq pari o superiori rispetto all'architettura skylake e allo stesso tempo avere prestazioni nel ST di gran lunga superiore (che sono di vitale importanza per incrementare le prestazioni anche nel MT). Questo a parità di processo.
ARM non c'entra niente con i core E.
RocketLake è un problema di implementazione, non di architettura.
IceLake su mobile funziona benissimo nella sua evoluzione rispetto a SkyLake.
AlderLake funziona ancora meglio, ma ovviamente paga in termini di complessità.
Gli E-core sono nati semplicemente perché il supporto all'SMT su architetture che hanno IPC altissimi riduce il ritorno dell'investimento e ne aumenta la complessità, roba non più mantenibile.
Intel ha annunciato prodotti Xeon (non un Atom per il NAS) costituito da soli E-core. Stessa cosa ha detto che farà AMD con una versione ridotta del core Zen4.
Secondo te lo fanno perché così i loro processori destinati ai server di virtualizzazione vanno meglio di quelli precedenti o perché quelli attuali stanno incontrando la concorrenza di quelli many-core basati su ARM e costruiti in casa dagli stessi mega colossi che usano questi server (Amazon, MS, Google)?
Sicuramente sarà sempre migliore come performance/watt ma tempo qualche mese dalla sua uscita vedremo [b]Zen4 a parità di PP e con architettura ibrida[b], qualcosa mi dice che il gap di efficienza sarà ben più risicato di quanto mostrato.
No, non ci sarà alcuna architettura ibrida con Zen4. Ci saranno solo prodotti che avranno core semplificati di Zen4, per mercato server. E monteranno solo quelli, non entrambi i core complessi+semplificati.
secondo te Apple ha semplicemente fatto tutto questo per dire "1+1 = tanti core!!! e se ne mettiamo 3 diventano ancora più coreeee" di sicuro il supporto dual è on the go nel sistema visto come unico soc e con bassissima latenza,ma non sappiamo quali siano le funzioni di questa scelta, per dire potremmo magari vedere il funzionamento di un "dual single core" dove il single core di ogni soc funziona in contemporanea all'altro, dando il doppio (o quasi) del risultato del singolo M1 Max anche solo nel single core.
Ma parliamo di tecnologia o di wanna-be-a-new-Keller?
Certo che ha fatto un M1 Ultra per avere tanti core: come credi che avrebbe potuto farlo altrimenti? Facendo un die da 1500mm^2 che è impossibile da produrre e se anche lo fosse costerebbe qualche decina di migliaia di euro?
"dual single core" è la c@g@ta più fantascientifica mai sentita finora.
Hai idea, anche la minima, di come funziona una CPU?
Non credo proprio, altrimenti non diresti queste cose senza capo né coda.
l'M1 Ultra è un SoC da 20 core (16+4) e così è visto dall'OS. Non ci sono "magie" Apple che possano trasformarlo in qualcosa di migliore, e infatti l'investimento di Apple è stato tutto nel cercare di fare in modo che l'OS lo vedesse così e non vi fossero particolari limitazioni ad usare il die aggiuntivo grazie alla mega interfaccia di collegamento.
Il resto è fantasia peggiore di quella di Harry Potter.
The Verge è una delle poche riviste online, assieme ad ArsTechnica, ad essere imparziale ed oggettiva nelle considerazioni finali delle sue prove. Anche con Apple...
Infatti lo Studio Display, compagno " perfetto " del Mac Studio ( 1700 Euro qui in Italia ), è stato stroncato senza alcun riguardo durante la sua prova ( mancanza di modalità HDR, mancata copertura dello spazio colore AdobeRGB, nessun dimming zonale per neri realistici, videocamera FaceTime HD che restituisce immagini a dir poco pietose anche in condizioni di luce ottimali... ).
non ho letto la recensione ma mentre ero in palestra ho ascoltato il podcast dove sostanzialmente parlavano della stessa cosa
ottime recensioni per M1 Ultra, gran delusione per il display... a un certo punto Patel ha detto proprio "garbage"
ci saranno sicuramente testate più critiche verso Apple ma Verge almeno ultimamente mi sembra piuttosto obiettiva
quello che bisogna tenere presente è che è una testata americana, tante volte la critica principale che facciamo noi a Apple è il prezzo ma da loro costa meno sia in termini assoluti che come potere d'acquisto, per cui un iPhone che da noi costa quasi come uno stipendio per loro è più abbordabile, idem i Mac
chiaro che se ci sono alternative più economiche tanto meglio anche negli USA, ma parlando di cifre più abbordabili i giudizi tengono meno conto dell'aspetto economico
megamitch
21-03-2022, 14:26
non ho letto la recensione ma mentre ero in palestra ho ascoltato il podcast dove sostanzialmente parlavano della stessa cosa
ottime recensioni per M1 Ultra, gran delusione per il display... a un certo punto Patel ha detto proprio "garbage"
ci saranno sicuramente testate più critiche verso Apple ma Verge almeno ultimamente mi sembra piuttosto obiettiva
quello che bisogna tenere presente è che è una testata americana, tante volte la critica principale che facciamo noi a Apple è il prezzo ma da loro costa meno sia in termini assoluti che come potere d'acquisto, per cui un iPhone che da noi costa quasi come uno stipendio per loro è più abbordabile, idem i Mac
chiaro che se ci sono alternative più economiche tanto meglio anche negli USA, ma parlando di cifre più abbordabili i giudizi tengono meno conto dell'aspetto economico
come si giustificherebbe quindi il prezzo del nuovo monitor? La mela sopra ?
tralasciando la pagliacciata di dover spendere 400 euro per poter alzare e abbassare il monitor (che di base parte da 1700). Ci compri un monitor "normale" 4k con 400 euro.....
Perchè uno che ha oltre 2000 euro da spendere in un monitor dovrebbe comprare questo e non un'altra marca ?
come si giustificherebbe quindi il prezzo del nuovo monitor? La mela sopra ?
dicevo in generale su Apple, tante volte sembrano morbidi perché non menzionano il prezzo e parlano solo di aspetti positivi
comunque le critiche più grosse sono verso la webcam più che il display in se che è lo stesso pannello degli iMac e qualitativamente va bene, anche se si poteva sperare in qualcosa di più ma chiaro che avendo quel bestione da 6K non potevano avvicinarsi troppo
questo è posizionato contro LG ultra fine che costa circa il 20% in meno e se veramente risolvono via sw il discorso webcam ha quella, microfono e casse superiori
il problema è che costa già troppo caro quello LG per quanto mi riguarda, per cui anche se Apple valesse di più non riuscirei a giustificare il prezzo, cioè va been che costi 20% più dell'altro ma devono costare meno entrambi
Leggevo che come qualità generale il display va bene, per la fascia di prezzo richiesta. Le mancanze sono l’hdr e poi vabe, non si tolgono o il vizio dei piedistalli in sovrapprezzo. Chicca scoperta oggi, il display ha uno storage interno di 64 giga, pare solo per i futuri aggiornamenti di IOS…che però occupa solo 2 giga
Per la webcam risolvono, sono sicuro, ma che ca…non accorgersene è da folli
bonzoxxx
23-03-2022, 08:48
per la cronaca
https://www.engadget.com/mac-studio-ssd-software-lock-211410274.html
:doh: :doh:
:doh: :doh:
"On its website, Apple states, “Mac Studio storage is not user accessible,” and the company recommends customers configure the computer with enough storage to meet their needs when they buy it"
Il sogno di Steve Jobbs finalmente realtà ! :O
Spero che entro poco trovino il modo di aggirare la cosa. Non perchè ho la minima intenzione di comprare i loro prodotti ma per soddisfazione di veder infrante queste limitazioni assurde. :rolleyes:
"On its website, Apple states, “Mac Studio storage is not user accessible,” and the company recommends customers configure the computer with enough storage to meet their needs when they buy it"
Il sogno di Steve Jobbs finalmente realtà ! :O
Spero che entro poco trovino il modo di aggirare la cosa. Non perchè ho la minima intenzione di comprare i loro prodotti ma per soddisfazione di veder infrante queste limitazioni assurde. :rolleyes:
in che senso "finalmente"? è così da anni
per me la sorpresa è che sia estraibile, pensavo lo avrebbero saldato del tutto come su altri modelli
forse hanno fatto così per consentire a loro stessi di fare un upgrade o più probabilmente una sostituzione in garanzia del componente senza dover mettere un'intera logic board nuova che gli costerebbe di più
caso diverso sarà il Mac Pro che dovrebbe consentire come già ora di installare SSD aggiuntivi quindi in quel caso uno si compra il taglio minimo e poi espande per conto proprio
il problema comunque io trovo sia più che altro la RAM perché per lo storage hai sempre l'opzione NAS o collegato via cavo, perdi un po' di velocità ma se ti serve spazio per archiviare è senz'altro un'opzione specialmente su un computer che sta in ufficio e non ti porti in giro
per la RAM invece sei fregato, in fase di acquisto devi già scegliere un taglio che ti vada bene per eventuali esigenze future e l'upgrade è una bella botta
in che senso "finalmente"? è così da anni
per me la sorpresa è che sia estraibile, pensavo lo avrebbero saldato del tutto come su altri modelli
forse hanno fatto così per consentire a loro stessi di fare un upgrade o più probabilmente una sostituzione in garanzia del componente senza dover mettere un'intera logic board nuova che gli costerebbe di più
caso diverso sarà il Mac Pro che dovrebbe consentire come già ora di installare SSD aggiuntivi quindi in quel caso uno si compra il taglio minimo e poi espande per conto proprio
il problema comunque io trovo sia più che altro la RAM perché per lo storage hai sempre l'opzione NAS o collegato via cavo, perdi un po' di velocità ma se ti serve spazio per archiviare è senz'altro un'opzione specialmente su un computer che sta in ufficio e non ti porti in giro
per la RAM invece sei fregato, in fase di acquisto devi già scegliere un taglio che ti vada bene per eventuali esigenze future e l'upgrade è una bella botta
"Finalmente" nel senso di alla fine, nel senso "daje daje ci sono arrivati". Per me dovrebbe essere TUTTO estraibile e sostituibile. RAM compresa. Ovviamente.
Hai detto bene è estraibile, ma se provvedi di persona anche clonando bit per bit l'ssd originale il sistema (per ora) ti risponde picche.
bonzoxxx
23-03-2022, 10:06
Ragazzi, non capite la loro mentalita', loro sanno cosa sia il meglio per "voi" utenti, lo fanno solo per offrirvi il meglio
Hai perfettamente ragione sono io che non ci sono arrivato, per fortuna c'hanno pensato loro :D :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.