Apple M1 Pro e M1 Max: "dannatamente efficienti" per minare criptovalute, ma...

Apple M1 Pro e M1 Max: "dannatamente efficienti" per minare criptovalute, ma...

Qualcuno ha provato ad usare i nuovi SoC di Apple per minare Ethereum: efficienza ad alti livelli, ma il gioco non vale la spesa

di pubblicata il , alle 13:01 nel canale Apple
Apple
 

I nuovi chip M1 Pro e M1 Max di Apple promettono prestazioni interessanti e, soprattutto, un profilo di consumi particolarmente contenuti. Ecco che nella mente degli utenti più curiosi ed attenti si è fatta largo immediatamente la domanda: "Ma si potranno usare per minare criptovalute?"

Le caratteristiche dei nuovi SoC di Apple sembrano infatti essere promettenti per un impiego a tale scopo. A rispondere agli interrogativi ci ha provto lo YouTuber UFD Tech che ha condotto un esperimento utilizzando un MacBook Pro 16 equipaggiato con M1 Pro. Nel video viene spiegato come utilizzare uno dei binari precompilati già esistenti per il mining su M1, mostrando in seguito le capacità di mining sul network di Ethereum.

Le prove condotte dallo Youtuber hanno mostrato che M1 Pro riesce ad esprimere una capacità di mining di 5 megahash al secondo con un consumo di appena 17 W, ovvero sensibilmente inferiore rispetto a quanto sarebbe possibile con una macchina x86 di pari caratteristiche.

Quanto constatato da UFD Tech va a collimare con le prove condotte da un utente che su Reddit ha affermato di aver raggiunto una capacità di mining di oltre 10 megahash al secondo con un chip M1 Max con 64GB di memoria RAM. "Non è per niente velocissimo, ma è dannatamente efficiente" ha commentato l'utente su Reddit.

Si è trattato ovviamente di una prova più "accademica" che pratica, anche perché l'uso di un MacBook Pro di ultima generazione per il mining di Ethereum non è economicamente conveniente: UFD Tech ha infatti calcolato un profitto netto di poco meno di 13 dollari al mese ai prezzi attuali, che permetterebbe di ripianare il costo d'acquisto del portatile in circa 17 anni.

10 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
[K]iT[o]11 Novembre 2021, 13:12 #1
che peccato...
Gringo [ITF]11 Novembre 2021, 13:14 #2
1/5 dei consumi di una RTX 3090 a parità di potenza computazionale sull'algoritmo non è male, assalteranno i furgoni che trasportano gli M1 Pro
..... Dovranno scortarli come per i portavalori. (si avvicina quasi ad un ASIC...)

Ginopilot11 Novembre 2021, 13:41 #3
Gli utenti piu' curiosi ed attenti?
cronos199011 Novembre 2021, 13:45 #4
Questo topic ha del potenziale... il confluire dei duellanti sulle cryptovalute e di quelli su Apple, si prevedono grandi scintille
agonauta7811 Novembre 2021, 14:15 #5
Ed io che volevo comprarne 10, spero che i miners me ne lascino qualcuno
MikTaeTrioR11 Novembre 2021, 14:40 #6
vista la direzione di totale abbandono della clientela NERD da parte di Apple degli ultimi tempi sono molto contento di questa notizia...

spero che orde di Nerdoni minatori esauriscano sti M1 e li demoliscano in mining fisso...
Sp3cialFx11 Novembre 2021, 17:23 #7
scusate ma al posto che fare gli articoli clickbait e basta metteteci un minimo di contributo vostro con un'analisi critica.

Ad es. una rtx 2080 con 100W fa 40 MH/s, quindi 2,5W per MH/s;
17W per 5 MH/s significa quasi 3,5W per MH/s;
poi in quest'ultimo caso si, si sta parlando del sistema intero,
però ad es. su un pc puoi mettere una cpu low power e più schede in parallelo, quindi immagino si possa contenere parecchio il carico in più per il resto, e stiamo parlando a) di un sistema desktop vs sistema mobile che viene venduto come miracolo di efficienza b) di un sistema che ha una potenza assoluta molto superiore.

Altra considerazione che verrebbe automatica se si fa un minimo di analisi critica: ma se il m1 pro e max sono così performanti sia a livello di cpu che di gpu che di banda sulla ram, com'è possibile che vadano così adagio nel mining?

Attenzione: non è una provocazione da fanboy di qui o di là, è che sugli M1 c'è un totale appiattimento sul marketing di Apple ma non vedo analisi tecniche che cerchino di capire come le performance nei bench (e in una serie di applicazioni reali, per carità siano state tirate fuori "a spese di cosa".

Faccio un esempio: se prendi una scheda video RTX questa supporta un botto di feature in hardware (la più conosciuta è il ray tracing ma c'è veramente un botto di roba che viene supportata in hardware).
La GPU dell'M1 "sacrifica" il supporto a tutta una serie di cose a favore della potenza bruta sulle operazioni più di base (quelle tra l'altro usate nei bench).
Fermo restando che su quelle effettivamente performa molto bene con consumi sicuramente bassi, non si sta raccontando tutta la storia. Ad es. un gioco AAA con tutte le feature che ha su una console di nuova generazione o su un PC con schede RTX serie 2 o 3 non potrà mai girare su un M1 con pari qualità grafica.

Questo ripeto non lo dico per sminuire l'M1 che ha molti meriti, ma mi sembra assurdo che si pensi che non abbia nessun difetto e soprattutto che nessuno faccia approfondimenti a riguardo.

Cioè anche qui: con tutti quei TFLOPS perché mina così lentamente? Qualcuno prima o poi fa un'analisi che non analizzi solo i (sicuramente tanti) punti di forza?

Solo a me interessa capire meglio?
Saturn11 Novembre 2021, 18:13 #8
Originariamente inviato da: Sp3cialFx
scusate ma al posto che fare gli articoli clickbait e basta metteteci un minimo di contributo vostro con un'analisi critica.

Ad es. una rtx 2080 con 100W fa 40 MH/s, quindi 2,5W per MH/s;
17W per 5 MH/s significa quasi 3,5W per MH/s;
poi in quest'ultimo caso si, si sta parlando del sistema intero,
però ad es. su un pc puoi mettere una cpu low power e più schede in parallelo, quindi immagino si possa contenere parecchio il carico in più per il resto, e stiamo parlando a) di un sistema desktop vs sistema mobile che viene venduto come miracolo di efficienza b) di un sistema che ha una potenza assoluta molto superiore.

Altra considerazione che verrebbe automatica se si fa un minimo di analisi critica: ma se il m1 pro e max sono così performanti sia a livello di cpu che di gpu che di banda sulla ram, com'è possibile che vadano così adagio nel mining?

Attenzione: non è una provocazione da fanboy di qui o di là, è che sugli M1 c'è un totale appiattimento sul marketing di Apple ma non vedo analisi tecniche che cerchino di capire come le performance nei bench (e in una serie di applicazioni reali, per carità siano state tirate fuori "a spese di cosa".

Faccio un esempio: se prendi una scheda video RTX questa supporta un botto di feature in hardware (la più conosciuta è il ray tracing ma c'è veramente un botto di roba che viene supportata in hardware).
La GPU dell'M1 "sacrifica" il supporto a tutta una serie di cose a favore della potenza bruta sulle operazioni più di base (quelle tra l'altro usate nei bench).
Fermo restando che su quelle effettivamente performa molto bene con consumi sicuramente bassi, non si sta raccontando tutta la storia. Ad es. un gioco AAA con tutte le feature che ha su una console di nuova generazione o su un PC con schede RTX serie 2 o 3 non potrà mai girare su un M1 con pari qualità grafica.

Questo ripeto non lo dico per sminuire l'M1 che ha molti meriti, ma mi sembra assurdo che si pensi che non abbia nessun difetto e soprattutto che nessuno faccia approfondimenti a riguardo.

Cioè anche qui: con tutti quei TFLOPS perché mina così lentamente? Qualcuno prima o poi fa un'analisi che non analizzi solo i (sicuramente tanti) punti di forza?

Solo a me interessa capire meglio?


Assolutamente no, è quello che ci aspetterebbe di leggere qui dentro.
CrapaDiLegno11 Novembre 2021, 23:07 #9
Originariamente inviato da: Gringo [ITF]
1/5 dei consumi di una RTX 3090 a parità di potenza computazionale sull'algoritmo non è male, assalteranno i furgoni che trasportano gli M1 Pro
..... Dovranno scortarli come per i portavalori. (si avvicina quasi ad un ASIC...)


Devi esserti perso qualche zero da qualche parte se credi che la 3090 in mining faccia 5MH/s consumando 5 volte tanto questo M1.
Rifai bene i calcoli.

Originariamente inviato da: Sp3cialFx
scusate ma al posto che fare gli articoli clickbait e basta metteteci un minimo di contributo vostro con un'analisi critica.

Ad es. una rtx 2080 con 100W fa 40 MH/s, quindi 2,5W per MH/s;
17W per 5 MH/s significa quasi 3,5W per MH/s;
poi in quest'ultimo caso si, si sta parlando del sistema intero,
però ad es. su un pc puoi mettere una cpu low power e più schede in parallelo, quindi immagino si possa contenere parecchio il carico in più per il resto, e stiamo parlando a) di un sistema desktop vs sistema mobile che viene venduto come miracolo di efficienza b) di un sistema che ha una potenza assoluta molto superiore.

Altra considerazione che verrebbe automatica se si fa un minimo di analisi critica: ma se il m1 pro e max sono così performanti sia a livello di cpu che di gpu che di banda sulla ram, com'è possibile che vadano così adagio nel mining?

Attenzione: non è una provocazione da fanboy di qui o di là, è che sugli M1 c'è un totale appiattimento sul marketing di Apple ma non vedo analisi tecniche che cerchino di capire come le performance nei bench (e in una serie di applicazioni reali, per carità siano state tirate fuori "a spese di cosa".

Faccio un esempio: se prendi una scheda video RTX questa supporta un botto di feature in hardware (la più conosciuta è il ray tracing ma c'è veramente un botto di roba che viene supportata in hardware).
La GPU dell'M1 "sacrifica" il supporto a tutta una serie di cose a favore della potenza bruta sulle operazioni più di base (quelle tra l'altro usate nei bench).
Fermo restando che su quelle effettivamente performa molto bene con consumi sicuramente bassi, non si sta raccontando tutta la storia. Ad es. un gioco AAA con tutte le feature che ha su una console di nuova generazione o su un PC con schede RTX serie 2 o 3 non potrà mai girare su un M1 con pari qualità grafica.

Questo ripeto non lo dico per sminuire l'M1 che ha molti meriti, ma mi sembra assurdo che si pensi che non abbia nessun difetto e soprattutto che nessuno faccia approfondimenti a riguardo.

Cioè anche qui: con tutti quei TFLOPS perché mina così lentamente? Qualcuno prima o poi fa un'analisi che non analizzi solo i (sicuramente tanti) punti di forza?

Solo a me interessa capire meglio?


Almeno qualcuno che vuole capire qualcosa di più c'è allora!
Premesso che hai fatto i consti con la serie 2000 di Nvidia e la 3000 è decisamente molto meglio in termini di hashrate/W, azzardando una ipotesi, credo che il test fatto su M1 usi solo ed esclusivamente la CPU non la GPU.
Apple infatti non ha rilasciato le specifiche per sfruttare la GPU al di fuori delle funzioni di libreria che ha messo a disposizione lei stessa per cui non credo che si possa accelerare del codice proprietario con quella.

Per quanti riguarda la qualità di certe notizie, oramai è chiaro che la guerra in atto tra i vari portali ormai è al ribasso. Non si tenta più di avere utenti appassionati che possano trovare qualche spunto interessante nelle notizie, possano fare discussioni di un certo livello che attraggono altri utenti di un certo livello o siano seguiti da utenti che vorrebbero capire qualcosa di più (cit.).
Ormai si va solo a caccia di click per marcare punti e farsi pagare dalla pubblicità. Ieri leggevo su un altro sito uno che si lamentava della lunghezza di una recensione che comparava 2 eReader di ultima generazione. Ormai l'utenza è a quel livello, devi concentrare tutto in 4 righe altrimenti si stufa di leggere. E comunque non capisce nulla lo stesso anche se la frase è breve.
E lo si vede tutti i giorni per strada con gente che va sui social a leggere i tweet e le storie e i commenti e gli stati e le immagini e quante più inutilità possibili e cliccano con il dito come suonassero un pianoforte. 3 secondi al massimo e via, bisogna passare a guardare quello dopo che altrimenti diventa noioso il tutto. Forse lo è perché la qualità del contenuto è nulla proprio.
Sp3cialFx12 Novembre 2021, 11:57 #10
Originariamente inviato da: CrapaDiLegno
Almeno qualcuno che vuole capire qualcosa di più c'è allora!
Premesso che hai fatto i consti con la serie 2000 di Nvidia e la 3000 è decisamente molto meglio in termini di hashrate/W, azzardando una ipotesi, credo che il test fatto su M1 usi solo ed esclusivamente la CPU non la GPU.
Apple infatti non ha rilasciato le specifiche per sfruttare la GPU al di fuori delle funzioni di libreria che ha messo a disposizione lei stessa per cui non credo che si possa accelerare del codice proprietario con quella.


è un'ipotesi anche se mi pare un valore troppo alto per utilizzare solo la CPU (ma non riesco a trovare grandi riferimenti su che performance puoi ottenere da una CPU, quindi prendila con le pinze). Può anche essere che giri sotto OpenCL. Però torniamo al discorso di prima: questo è un approfondimento che dovrebbe fare chi scrive l'articolo (che tra l'altro potrebbe anche provare a contattare la persona che ha fatto il test), non degli utenti nei commenti

Originariamente inviato da: CrapaDiLegno
Per quanti riguarda la qualità di certe notizie, oramai è chiaro che la guerra in atto tra i vari portali ormai è al ribasso. Non si tenta più di avere utenti appassionati che possano trovare qualche spunto interessante nelle notizie, possano fare discussioni di un certo livello che attraggono altri utenti di un certo livello o siano seguiti da utenti che vorrebbero capire qualcosa di più (cit.).
Ormai si va solo a caccia di click per marcare punti e farsi pagare dalla pubblicità. Ieri leggevo su un altro sito uno che si lamentava della lunghezza di una recensione che comparava 2 eReader di ultima generazione. Ormai l'utenza è a quel livello, devi concentrare tutto in 4 righe altrimenti si stufa di leggere. E comunque non capisce nulla lo stesso anche se la frase è breve.
E lo si vede tutti i giorni per strada con gente che va sui social a leggere i tweet e le storie e i commenti e gli stati e le immagini e quante più inutilità possibili e cliccano con il dito come suonassero un pianoforte. 3 secondi al massimo e via, bisogna passare a guardare quello dopo che altrimenti diventa noioso il tutto. Forse lo è perché la qualità del contenuto è nulla proprio.


sono d'accordo su tutta la linea;
in questo caso tuttavia vedo anche la potenzialità per avere click, voglio dire, con tutta la stampa di settore appiattita sul "è meglio su tutto e in tutto" nel momento in cui arrivasse un approfondimento in cui vengono evidenziati meglio i punti di forza (ripeto, è oggettivo che ce ne sono e parecchi) ma anche i limiti (che è inevitabile ci siano: saranno pochi e circoscritti, ma ci sono per forza, è ovvio che tu non possa avere solo vantaggi).

anche perché così se un domani ci troviamo che intel / amd e/o nvidia modificano il loro approccio puntando meno a quelle cose che danno pochi riscontri nei bench (ad es. hyperthreading e ray tracing) per avere più transistor a disposizione da dedicare a ciò che permette di avere numeri più alti... almeno sappiamo la genesi della cosa.

poi dall'analisi di contro magari viene fuori che l'M1 di limiti ne ha davvero pochi ed ha un vantaggio competitivo notevole come sembra (c'è anche da dire che il max ha 57 miliardi di transistor, un x86 + una 2080 penso che arrivino poco più che a metà... benissimo, ma almeno sappiamo PERCHE'

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^