PDA

View Full Version : Apple presenta il nuovo Silicon M1 Ultra: ecco specifiche tecniche e prestazioni


Redazione di Hardware Upg
08-03-2022, 19:27
Link alla notizia: https://www.hwupgrade.it/news/apple/apple-presenta-il-nuovo-silicon-m1-ultra-ecco-specifiche-tecniche-e-prestazioni_105452.html

Prima di svelare al mondo intero il potente Mac Studio, Tim Cook ha presentato il nuovo chip M1 Ultra, il cuore pulsante della prossima generazione di dispositivi Apple. Basato sull'inedita architettura UltraFusion, il SoC offre prestazioni superiori a quelle dei processori desktop più potenti.

Click sul link per visualizzare la notizia.

pengfei
08-03-2022, 19:54
Rispetto al Max top di gamma l'ultra base è un upgrade da 1380 euro, l'ultra versione top da 2540 euro però è una bella bestiola, del resto ha anche un'ottima GPU

io78bis
08-03-2022, 20:12
Rispetto al Max top di gamma l'ultra base è un upgrade da 1380 euro, l'ultra versione top da 2540 euro però è una bella bestiola, del resto ha anche un'ottima GPU

Se mantiene le promesse che dichiara in ambito PRO è un costo recuperato in 1-2 mesi

kakaroth1977
08-03-2022, 20:50
Se vinco il Superenalotto e si puo anche giocare finalmente compro un Macbook che è dal 2002 che desidero un Mac (Powerbook Pro 17)

Fede
08-03-2022, 21:00
Se mantiene le promesse che dichiara in ambito PRO è un costo recuperato in 1-2 mesi
Ma perché non in 26 giorni e due ore scusa, se tanto dobbiamo sparare numeri a muzzo?!

carloUba
08-03-2022, 21:06
Ma perché non in 26 giorni e due ore scusa, se tanto dobbiamo sparare numeri a muzzo?!

Ma poi il bello è "l'ambito PRO", questi non hanno idea di come deve essere una ws in ambito PRO. :D :D :D

Tasslehoff
08-03-2022, 21:50
Ma poi il bello è "l'ambito PRO", questi non hanno idea di come deve essere una ws in ambito PRO. :D :D :DPosso anche essere d'accordo sul fatto che alcune etichette (PRO, GAMING, etc etc) siano abusate, però resta il fatto che ormai il grosso del software è basato su framework ben definiti e che poggiano su progetti estremamente portabili su architetture diverse.

Io un paio di mesi fa ho festeggiato i miei 22 anni di professione nel mondo IT e la tendenza ad avere interfacce web based e basate sui soliti 2 o 3 framework è generalizzata.

Poi certamente ci sarà sempre l'eccezione, ci sarà sempre quello che deve far girare il terminale 5250 o che deve usare Lotus Notes, il gestionalino Zucchetti con datasource ODBC verso database Access o il software della macchina a controllo numerico che gira su OS/2 Warp, però non sono esempi statisticamente rilevanti... :stordita:

Io non sono un utente Apple e non ho mai avuto un MacBook però oggi come oggi farei sicuramente meno fatica a passare a osx rispetto a vent'anni fa, e sarei ben contento se qualche altro produttore (Lenovo sui ThinkPad o Dell sui Latitude) passasse a cpu arm con assorbimenti più contenuti e performance di livello M1.

xarz3
08-03-2022, 21:58
Potessi avere un Mac senza MacOS sarebbe un sogno

Tasslehoff
08-03-2022, 22:00
Potessi avere un Mac senza MacOS sarebbe un sognoSu questo devi solo avere un po' di pazienza, c'è un sacco di gente al lavoro su questo e i risultati raggiunti fin'ora sono incoraggianti.

carloUba
08-03-2022, 22:00
Potessi avere un Mac senza MacOS sarebbe un sogno

Idem, uso quotidianamente macos ed è una sofferenza continua.

quartz
08-03-2022, 22:46
Cavolo ragazzi, per me invece Mac OS è IL motivo per usare un Mac.

Nonostante le prestazioni, l'efficienza e la qualità costruttiva, per me la non espandibilità e l'irreparabilità degli attuali Mac sono i veri dealbreaker.

Per questo continuerò ad andare di Hackintosh per un bel pò ancora.

io78bis
08-03-2022, 23:35
Ma perché non in 26 giorni e due ore scusa, se tanto dobbiamo sparare numeri a muzzo?!

Non sono sparati a caso, se mantiene le promesse negli scenari development, ML e editing video per il mio carico lavorativo attuale rientrerei del sovrapprezzo in quel periodo. Sicuramente uno studio fotografico o montaggio video ben avviato rientra anche in meno tempo. 2 ore devi avere commesse veramente importanti ma dubito sia una realtà con un solo impiegato

Ma poi il bello è "l'ambito PRO", questi non hanno idea di come deve essere una ws in ambito PRO. :D :D :D

Per me una WS PRO dev'essere affidabile performannte. se riesce a farlo facendomi anche risparmiare senza turboventole che partono sotto carichi intensivi direi che è la best buy.

LMCH
09-03-2022, 01:24
Io non sono un utente Apple e non ho mai avuto un MacBook però oggi come oggi farei sicuramente meno fatica a passare a osx rispetto a vent'anni fa, e sarei ben contento se qualche altro produttore (Lenovo sui ThinkPad o Dell sui Latitude) passasse a cpu arm con assorbimenti più contenuti e performance di livello M1.
Per ora mi sa che a livello di integrazione sul package Apple non ha concorrenti almeno per un altro anno o forse due.

Intel, AMD, ARM, Qualcomm, TSMC, Google, Microsoft, Meta ed altri stanno lavorando ad uno standard comune per l'interconnessione dei chiplet tramite interposer.
Questo permetterà di combinare chiplet anche di produttori diversi senza doverli progettare ad hoc
(o almeno con maggiori possibilità di riutilizzo in prodotti differenti).
Mi sa che é a quel punto che ci saranno concorrenti di Apple che proporranno dei "System on Package" con ram, I/O, coprocessori, ecc.

Sp3cialFx
09-03-2022, 05:40
io78bis: il problema degli M1 è che fanno numeri straordinari ma è difficile fare un paragone mele con mele (ahah). Ormai è da un lustri che le cpu / gpu non puntano più solo sui numeri ma puntano sulle feature. Faccio un esempio: le gpu. Un tempo c'era il "supporta le directx n" e lì sapevi che se si la gpu aveva un certo set di feature. Oggi è ancora peggio nel senso che ora le directx 12 hanno il "features level" per cui a seconda del set di feature che la gpu supporta c'è un features level diverso.

Apple da quello che ho visto sacrifica le feature per puntare tutto sui numeri. Il che va benissimo per tante applicazioni. Sul machine learning mi pare di aver capito che i neural engine sono pensati per l'inferenza e non per il training. Inoltre i chip Nvidia supportano un ventaglio di tipi, dall'FP64 all'int4 - e se una A100 in FP64 fa circa 20TFLOPS in int4 fa circa 2,4EFLOPS (exaflops, 2400TFLOPS). Una 3080 la metà.

Insomma, bisogna vedere cosa ti serve.

LMCH: ogni volta che qualcuno non ha mai sentito parlare di qualcosa e Apple usa quel qualcosa, l'ha inventato Apple e gli altri copiano. Il fatto che gli altri lavorino a uno standard è perché è qualcosa che gli altri già fanno (spoiler: fanno anche lo stack dei die facendo passare i segnali in verticale). I/O e coprocessori (gpu comprese) sono nello stesso die dalla notte dei tempi, dove pensi stiano? L'unica differenza di rilievo è che Apple mette la ram nello stesso chip, usando appunto la tecnica dei chiplet, di fatto usando un approccio più simile a quello usato dalle schede video discrete che da quello usato dalle cpu tradizionali. Ma non è da lì che viene il vantaggio che ha. Il vantaggio che ha, e mi fa impressione che non esiste un'analisi tecnica a riguardo, arriva da tutt'altra parte: dato che acquista in volumi giganteschi silicio dalle fonderie (in particolar modo da TSMC) e dato che produce per sé stessa può permettersi di usare più transistor rispetto agli altri.

La risposta la trovi se confronti quanti transistor ha un M1 Max / Ultra e quanti transistor hanno cumulativamente l'i9 e la 3090 con cui vengono confrontati (spoiler: 114 miliardi vs circa 35 miliardi). Il punto è che gli M1 sono ENORMI e possono sacrificare l'efficienza per transistor per avere performance / efficienza energetica. Proprio perché Apple paga relativamente poco i transistor.

Questo è il motivo. L'integrazione la ram eccetera son tutte le minchiate di marketing (che poi vengono ripetute a pappagallo da tutti ogni volta). Non è che non ci siano, per carità, ma non è lì il punto.

Bluknigth
09-03-2022, 05:47
Personalmente sono un po’ deluso.
Pensavo che 15 mesi dopo arrivasse una nuova architettura.
Invece una nuova declinazione di M1 che in realtà sono due M1 “messi insieme con la colla” per citare l’amante abbandonata.
Poi se i numeri delle performance sono quelli dichiarati, tanto di cappello a Apple per la scalabilità dell’architettura.

Però mi sarei aspettato a questo punto un M2 che andasse a ridurre le limitazioni di M1, in termini di interfacce, gestione multi monitor,ecc sui prodotti entry level.

HW2021
09-03-2022, 08:08
A mio avviso Apple non sta offrendo nulla di nuovo, ha solo accorpato in un unico grande SoC più chip aggiungendoci anche i 128 GByte di memoria, cosa che già sta facendo AMD con i processori Zen dotati di 16 o più core ... ovviamente tutto questo peserà parecchio sul costo finale di mercato, del resto è risaputo che i prezzi dei prodotti Apple sono a dir poco esagerarti rapportandoli a ciò che offrono.

Considerate anche che i chip racchiusi nell'unico grande SoC sono prodotti con la tecnologia di 5 nanometri contro i 7 nanometri utilizzati dalle attuali CPU AMD e contro i 10 nanometri effettivi utilizzati da Intel per produrre gli attuali suoi processori; quindi a fortiori l'M1 di Apple consuma meno dei processori desktop della concorrenza

Comunque sul consumo c'è da precisare un particolare che non so perché in nessun articolo viene precisato ... I processori X86 di AMD e Intel si è vero che consumano parecchio ma solo in condizioni di elaborazioni in Full Load e basandomi sulla mia diretta esperienza da quello che ne so attualmente solo se si eseguono rendering 3D o rendering di animazioni 3D viene richiesta al processore la massima potenza di calcolo in Full Load.

Io ho lavorato con i computer MAC in uno studio grafico e mi sono convinto che non valgono per quello che costano e anche oggi mi sto convincendo ancor di più di questo

Non nego che sono dei buoni prodotti ma costano troppo per quel che offrono e con minore spesa si possono realizzare PC decisamente più performanti

mail9000it
09-03-2022, 08:17
dato che acquista in volumi giganteschi silicio dalle fonderie (in particolar modo da TSMC) e dato che produce per sé stessa può permettersi di usare più transistor rispetto agli altri.

La risposta la trovi se confronti quanti transistor ha un M1 Max / Ultra e quanti transistor hanno cumulativamente l'i9 e la 3090 con cui vengono confrontati (spoiler: 114 miliardi vs circa 35 miliardi). Il punto è che gli M1 sono ENORMI e possono sacrificare l'efficienza per transistor per avere performance / efficienza energetica. Proprio perché Apple paga relativamente poco i transistor..

Apple non ha fonderie. Da TSMC non compra silicio ma i wafer con i chip sopra.
I transistor sul wafer li crea TSMC.
Da questo articolo apprendo che Apple si fa il packaging in casa.
Non lo sapevo.

Concordo che l'integrazione della RAM è marginale, il miglioramento significativo sembra il collegamento tra le due cpu. 10.000 linee sono un bel numero ma in effetti non conosco la media degli altri.

L'innovazione di Apple è stata Rosetta. Uno strato software per permettere il passaggio immediato ad una nuova architettura mantenendo la compatibilità con il software precedente.
Su questo hanno investito parecchio e ora ne raccolgono i frutti potendo giocare con l'hardware cosa che nessun'altro può fare in questo momento.
Tanto di cappello.

oatmeal
09-03-2022, 09:05
curioso di leggere le prime recensioni dell'Ultra e dello Studio in generale.
Sulla carta l'ultra pare una belva

ciciolo1974
09-03-2022, 09:09
Idem, uso quotidianamente macos ed è una sofferenza continua.

Scusate, di preciso su cosa siete in sofferenza? Non é polemica, giuro.

Tasslehoff
09-03-2022, 09:42
Per ora mi sa che a livello di integrazione sul package Apple non ha concorrenti almeno per un altro anno o forse due.

Intel, AMD, ARM, Qualcomm, TSMC, Google, Microsoft, Meta ed altri stanno lavorando ad uno standard comune per l'interconnessione dei chiplet tramite interposer.
Questo permetterà di combinare chiplet anche di produttori diversi senza doverli progettare ad hoc
(o almeno con maggiori possibilità di riutilizzo in prodotti differenti).
Mi sa che é a quel punto che ci saranno concorrenti di Apple che proporranno dei "System on Package" con ram, I/O, coprocessori, ecc.Buono a sapersi, grazie dell'info :)

Vul
09-03-2022, 09:52
Piu vedo queste cpu arm all'opera e meno mi sembra sensato stare ancora con questi rottami x86.

Possiedo sia un macbook pro i9 top 2021, che un mac mini m1....Da sviluppatore (principalmente javascript e haskell) il mac mini m1 e' di gran lunga piu performante nei miei utilizzi, reattivo, e consuma poco o nulla.

E' anche di gran lunga piu performante del mio ryzen 5600 desktop (dove ho pero' windows che e' limitato lato file system sull'io di tanti file in parallelo).

Sono davvero dispiaciuto che non possiamo avere queste soc fuori dall'ecosistema apple, ma trovo inevitabile che nei prossimi 5/10 anni qualcuno dovra' iniziare a tirare fuori arm per desktop, perche' non si puo' stare ancora con queste piattaforme x86 che aumentano prestazioni, e di poco dopo anni e anni...

Quando ho visto le ultime cpu intel e i loro scandalosi consumi, generazione dopo generazione, ho capito come sia chiaro che x86 sia alla frutta. Performance e consumi proprio non ci sono piu da tirare fuori qui.

bio82
09-03-2022, 10:22
Quando ho visto le ultime cpu intel e i loro scandalosi consumi, generazione dopo generazione, ho capito come sia chiaro che x86 sia alla frutta. Performance e consumi proprio non ci sono piu da tirare fuori qui.

parlando di performance, escludendo video editing e in parte machine learning, l'M1 max è meno performante di un i9 11900H (un link (https://www.youtube.com/watch?v=i4CuZqXA4BM)giusto per non darti numeri a caso)..

certo, se il tuo scopo è avere una batteria decente non ci sono paragoni..il mio portatile arriva giusto a 4 ore in videoconferenza e non arrivo a 3 ore se sto lavorando con il cad (che accende la scheda video dedicata)..

ma se parli di performance (sempre escludendo chi fa video editing) l'M1 max NON è il portatile più performante in circolazione... tanto meno se passi su una workstation desktop dove non hai problemi di limiti termici.. considerando che la ram è integrata con la cpu e questo aiuta non poco le performance dei mac... di contro ovviamente dimenticati di espandere la ram.. il mio baraccone qua non arriva a 20 ore di batteria ma l'espansione a 128 gb di ram sta arrivando e farlo mi costa dai 3 ai 4 minuti di lavoro (una leva e 2 viti in totale) e una spesa di circa 300 euro contro i 920€ che ti costa sul mac....

non facciamo i fanboys ad oltranza...

bio

ciciolo1974
09-03-2022, 10:37
parlando di performance, escludendo video editing e in parte machine learning, l'M1 max è meno performante di un i9 11900H (un link (https://www.youtube.com/watch?v=i4CuZqXA4BM)giusto per non darti numeri a caso)..

certo, se il tuo scopo è avere una batteria decente non ci sono paragoni..il mio portatile arriva giusto a 4 ore in videoconferenza e non arrivo a 3 ore se sto lavorando con il cad (che accende la scheda video dedicata)..

ma se parli di performance (sempre escludendo chi fa video editing) l'M1 max NON è il portatile più performante in circolazione... tanto meno se passi su una workstation desktop dove non hai problemi di limiti termici.. considerando che la ram è integrata con la cpu e questo aiuta non poco le performance dei mac... di contro ovviamente dimenticati di espandere la ram.. il mio baraccone qua non arriva a 20 ore di batteria ma l'espansione a 128 gb di ram sta arrivando e farlo mi costa dai 3 ai 4 minuti di lavoro (una leva e 2 viti in totale) e una spesa di circa 300 euro contro i 920€ che ti costa sul mac....

non facciamo i fanboys ad oltranza...

bio

Sarebbero da provare in sessioni di render o di real time engine (twinmotion, lumion) per capire quanto possono sostituire i cassoni che usiamo adesso...

Tasslehoff
09-03-2022, 10:42
parlando di performance, escludendo video editing e in parte machine learning, l'M1 max è meno performante di un i9 11900H (un link (https://www.youtube.com/watch?v=i4CuZqXA4BM)giusto per non darti numeri a caso)..

certo, se il tuo scopo è avere una batteria decente non ci sono paragoni..il mio portatile arriva giusto a 4 ore in videoconferenza e non arrivo a 3 ore se sto lavorando con il cad (che accende la scheda video dedicata)..

ma se parli di performance (sempre escludendo chi fa video editing) l'M1 max NON è il portatile più performante in circolazione... tanto meno se passi su una workstation desktop dove non hai problemi di limiti termici.. considerando che la ram è integrata con la cpu e questo aiuta non poco le performance dei mac... di contro ovviamente dimenticati di espandere la ram.. il mio baraccone qua non arriva a 20 ore di batteria ma l'espansione a 128 gb di ram sta arrivando e farlo mi costa dai 3 ai 4 minuti di lavoro (una leva e 2 viti in totale) e una spesa di circa 300 euro contro i 920€ che ti costa sul mac....

non facciamo i fanboys ad oltranza...

bioVedi però, il punto è che per il 90%+ degli utenti anche professionali (insomma chi usa il pc per lavoro) quella differenza in performance è del tutto trascurabile, ed è più significativo tutto quello che si porta dietro un assorbimento più contenuto (e parliamo di una bella differenza), quindi macchina più compatta, zero ventolame, alimentatore più piccolo e leggero, durata della batteria (il che si traduce anche in un ciclo di vita molto più lungo per la batteria, riducendo di molto i cicli di esaurimento e carica completa), il tutto senza di fatto sacrificare nulla in termini di reattività e performance.

Come dicevo prima, ci sarà sempre l'utente che ne fa un uso di nicchia (es CAD, rendering 3d, piuttosto che video o photo editing) ma per il grosso della platea (in cui mi ci infilo io stesso, dato che per il 90% del tempo passo da un terminale a un browser e viceversa) il passaggio ad ARM sarebbe non solo auspicabile ma benedetto.

Dal mio punto di vista (ripeto di non utente Apple ma di potenziale utente ARM) AMD e Intel sembra stiano cercando di spremere x64 fino al pus, ma che alla fine questa architettura abbia raggiunto i suoi limiti.

MadMax of Nine
09-03-2022, 10:48
Dipende cosa devi fare, io con il mac mini M1 4GB ci faccio video editing 4K, rendering real time praticamente con FCPX, preview a qualita' massima al 100%, tutto super fluido, export in tempi ottimi, consumi tipo 15W e silenzio totale.
Stesso lavoro su intel 10, 11, 12th gen o Threadripper 3990X (con hackintosh) e nessuno gli sta dietro, lasciando perdere consumi, ingombri e rumore.

E con un M1 di base che fa tutto quello che voglio nemmeno ci penso ad un upgrade ora, e chissa' per quanto tempo ancora, percio' dell'espandibilita' mi interessa tanto quanto.

Poi ci saranno ambiti diversi, ma questi chip Apple sono bestie sotto tutti i punti di vista

ciciolo1974
09-03-2022, 11:32
Dipende cosa devi fare, io con il mac mini M1 4GB ci faccio video editing 4K, rendering real time praticamente con FCPX, preview a qualita' massima al 100%, tutto super fluido, export in tempi ottimi, consumi tipo 15W e silenzio totale.
Stesso lavoro su intel 10, 11, 12th gen o Threadripper 3990X (con hackintosh) e nessuno gli sta dietro, lasciando perdere consumi, ingombri e rumore.

E con un M1 di base che fa tutto quello che voglio nemmeno ci penso ad un upgrade ora, e chissa' per quanto tempo ancora, percio' dell'espandibilita' mi interessa tanto quanto.

Poi ci saranno ambiti diversi, ma questi chip Apple sono bestie sotto tutti i punti di vista

Il target sembra essere quello, lo vedi anche dai partner presenti al lancio di M1...

nyo90
09-03-2022, 14:02
Comunque sul consumo c'è da precisare un particolare che non so perché in nessun articolo viene precisato ... I processori X86 di AMD e Intel si è vero che consumano parecchio ma solo in condizioni di elaborazioni in Full Load e basandomi sulla mia diretta esperienza da quello che ne so attualmente solo se si eseguono rendering 3D o rendering di animazioni 3D viene richiesta al processore la massima potenza di calcolo in Full Load.

Sembra che il consumo non interessi mai a nessuno, o forse nessuno si prende mai la briga di analizzare veramente una CPU.

Qualche tempo fa, avendo acquistato una nuova CPU e non avendo di meglio da fare, mi sono messo a fare qualche test per vedere come scalava il 5700G in base ai watt di consumo, test che puoi trovare qui https://www.youtube.com/watch?v=BQ4LkwQ6PtI Il video non se l'è filato nessuno, ma è comunque interessante visto che non ho trovato molti test del genere in giro(Molte testate puntano più ai clickbait e al copia e incolla, non pensano sia conveniente investire per qualcosa di ben fatto quando quasi tutti si accontentano e iniziano a fare polemica nei commenti aumentando i click e le impressioni pubblicitarie. E te lo dice uno che scriveva per Tom's Hardware, finché non ha visto la paga netta)

Il risultato è stato che, in ambito gaming, anche a causa della GPU integrata, potevi mettere la CPU anche a 35watt(Rispetto ai circa 90watt che raggiunge da stock) e avere comunque le stesse identiche prestazioni.
La cosa interessante è stata limitare la CPU a 65watt: Praticamente tutte le applicazioni variavano di una virgola, tranne Cinebench che sentiva un 5% in meno di prestazioni.
E al diminuire del consumo stessa cosa, Cinebench risentiva molto più degli altri bench la diminuzione di potenza, con frequenze massime più basse e in generale dimostrando come necessitasse di ogni singolo transistor della CPU.
Al contrario di un qualsiasi videogioco, che sembra sfruttare veramente poco la CPU, in confronto.

Quindi sì, andrebbero testate meglio le CPU per un confronto più alla pari. Ma bisogna comunque ammettere che gli M1 sono una bestia di efficienza:
Il 5700G, discretamente efficiente, in idle spinto(Mouse fermo, senza display, in risparmio energetico, frequenze ram non troppo spinte e alimentatore efficiente) è intorno ai 20watt. Diciamo che, in base alle impostazioni, puoi andare da 16 a 25 watt alla presa di corrente.
Apple per il mini M1 dichiara 6,8watt.
In full load un sistema con il 5700G stock passa i 120watt, se lo limiti a 65 watt e con qualche accortezza qui e lì puoi stare dai 90 ai 110watt.
Apple, per il mini M1 dichiara 39Watt.
7760 punti a Cinebench per l'M1 da 39watt, contro 13201 del 5700G a 120 e passa watt(12602 punti a circa 100watt)

Per quanto possiamo dire che i processori AMD e Intel consumino molto solo in condizione di carichi pesanti, è vero. Possiamo trascurare i 20-25watt in idle e vedere come eccessivi solo i 100-120watt in full, ma l'aumento di consumo di circa 6 volte è praticamente lo stesso dell'M1, che in ogni caso consuma di meno in ogni condizione: In idle consuma di meno, in full consuma di meno e consuma di meno nel rapporto watt prestazioni(5700G 110 punti per watt - M1 199 punti per watt).

Si può puntualizzare che a questi M1 manchino diverse istruzioni e ottimizzazioni, che su certi carichi non rimpiazzino ancora x86, che la potenza bruta ancora non ci sia... Ma se parliamo di consumi e rapporto conusmi/prestazioni non c'è proprio storia, asfaltano senza pietà qualsiasi cosa.

L'unico motivo per cui non dovremo soffermarci troppo sui consumi è il risparmio energetico. Supponiamo di pagare la corrente 30 centesimi per 1000wattora e di fare rendering continui giorno e notte per un valore prefissato X.
Un anno di rendering con M1 costerebbe 102,50€
Un rendering equivalente con 5700G, della durata di meno di un anno visto che la CPU è più veloce in rendering, costerebbe 185,4€
Se veramente facciamo rendering H24 probabilmente quella cifra di corrente non ha così tanta importanza rispetto ad altre caratteristiche, come per esempio la possibilità di fare più rendering nello stesso tempo.
Per un utente normale invece può avere più senso visto che si tratta di risparmio di corrente che non toglie prestazioni o guadagni, ma con carichi più leggeri si tratterebbe di una manciata di euro all'anno, che ha senso in fase di scelta di prodotti dal costo paragonabile, ma che non dovrebbe essere la cosa principale su cui basare un acquisto di questo tipo.

Mi dispiace tanto che l'argomento consumi, in maniera approfondita interessi veramente a pochi e sopratutto che nessuna testata sia interessata a investire per analisi di questo tipo.

Sp3cialFx
09-03-2022, 15:46
...

kudos!

xarz3
09-03-2022, 22:25
Scusate, di preciso su cosa siete in sofferenza? Non é polemica, giuro.

Io personalmente soffro tantissimo la gestione delle finestre. Sono due anni che uso un Mac a lavoro e ancora la odio. Il dock magari é bello ma non funzionale. Non mi frega niente di avere 20 icone di app che a malapena si capisce se sono aperte o meno, mi interessa capire a colpo d occhio come navigare fra le applicazioni e fra più finestre o istanze della stessa app. MacOS pare essere pensato per essere usato solo con gesture e non con i normali mouse.

Inoltre soffro tantissimo la mancanza di una gestione delle finestre multiple sui monitor 4k o widescreen segna del 2022. Ora non so in Monterey ma l idea che non posso fare snapping di singole finestre a 1/2 o 1/4 di schermo senza tool esterni mi fa impazzire, queste sono funzioni che in Windows esistono native da Windows 7 e in Linux più o meno idem.

Inoltre gli shortcut sono così illogici. Selezioni un file e premi invio e ti attiva il rinomina, tipo F2 su Windows, invece di aprire il file. Perché?? Non dico copia Windows... Ma francamente credo che aprire un file sia operazione più comune che rinominarlo