PDA

View Full Version : Apple M1 Pro e M1 Max: "dannatamente efficienti" per minare criptovalute, ma...


Redazione di Hardware Upg
11-11-2021, 12:01
Link alla notizia: https://www.hwupgrade.it/news/apple/apple-m1-pro-e-m1-max-dannatamente-efficienti-per-minare-criptovalute-ma_102397.html

Qualcuno ha provato ad usare i nuovi SoC di Apple per minare Ethereum: efficienza ad alti livelli, ma il gioco non vale la spesa

Click sul link per visualizzare la notizia.

[K]iT[o]
11-11-2021, 12:12
che peccato...

Gringo [ITF]
11-11-2021, 12:14
1/5 dei consumi di una RTX 3090 a parità di potenza computazionale sull'algoritmo non è male, assalteranno i furgoni che trasportano gli M1 Pro
..... Dovranno scortarli come per i portavalori. (si avvicina quasi ad un ASIC...)

:D

Ginopilot
11-11-2021, 12:41
Gli utenti piu' curiosi ed attenti? :doh:

cronos1990
11-11-2021, 12:45
Questo topic ha del potenziale... il confluire dei duellanti sulle cryptovalute e di quelli su Apple, si prevedono grandi scintille :asd:

agonauta78
11-11-2021, 13:15
Ed io che volevo comprarne 10, spero che i miners me ne lascino qualcuno

MikTaeTrioR
11-11-2021, 13:40
vista la direzione di totale abbandono della clientela NERD da parte di Apple degli ultimi tempi sono molto contento di questa notizia...

spero che orde di Nerdoni minatori esauriscano sti M1 e li demoliscano in mining fisso... :D

Sp3cialFx
11-11-2021, 16:23
scusate ma al posto che fare gli articoli clickbait e basta metteteci un minimo di contributo vostro con un'analisi critica.

Ad es. una rtx 2080 con 100W fa 40 MH/s, quindi 2,5W per MH/s;
17W per 5 MH/s significa quasi 3,5W per MH/s;
poi in quest'ultimo caso si, si sta parlando del sistema intero,
però ad es. su un pc puoi mettere una cpu low power e più schede in parallelo, quindi immagino si possa contenere parecchio il carico in più per il resto, e stiamo parlando a) di un sistema desktop vs sistema mobile che viene venduto come miracolo di efficienza b) di un sistema che ha una potenza assoluta molto superiore.

Altra considerazione che verrebbe automatica se si fa un minimo di analisi critica: ma se il m1 pro e max sono così performanti sia a livello di cpu che di gpu che di banda sulla ram, com'è possibile che vadano così adagio nel mining?

Attenzione: non è una provocazione da fanboy di qui o di là, è che sugli M1 c'è un totale appiattimento sul marketing di Apple ma non vedo analisi tecniche che cerchino di capire come le performance nei bench (e in una serie di applicazioni reali, per carità) siano state tirate fuori "a spese di cosa".

Faccio un esempio: se prendi una scheda video RTX questa supporta un botto di feature in hardware (la più conosciuta è il ray tracing ma c'è veramente un botto di roba che viene supportata in hardware).
La GPU dell'M1 "sacrifica" il supporto a tutta una serie di cose a favore della potenza bruta sulle operazioni più di base (quelle tra l'altro usate nei bench).
Fermo restando che su quelle effettivamente performa molto bene con consumi sicuramente bassi, non si sta raccontando tutta la storia. Ad es. un gioco AAA con tutte le feature che ha su una console di nuova generazione o su un PC con schede RTX serie 2 o 3 non potrà mai girare su un M1 con pari qualità grafica.

Questo ripeto non lo dico per sminuire l'M1 che ha molti meriti, ma mi sembra assurdo che si pensi che non abbia nessun difetto e soprattutto che nessuno faccia approfondimenti a riguardo.

Cioè anche qui: con tutti quei TFLOPS perché mina così lentamente? Qualcuno prima o poi fa un'analisi che non analizzi solo i (sicuramente tanti) punti di forza?

Solo a me interessa capire meglio?

Saturn
11-11-2021, 17:13
scusate ma al posto che fare gli articoli clickbait e basta metteteci un minimo di contributo vostro con un'analisi critica.

Ad es. una rtx 2080 con 100W fa 40 MH/s, quindi 2,5W per MH/s;
17W per 5 MH/s significa quasi 3,5W per MH/s;
poi in quest'ultimo caso si, si sta parlando del sistema intero,
però ad es. su un pc puoi mettere una cpu low power e più schede in parallelo, quindi immagino si possa contenere parecchio il carico in più per il resto, e stiamo parlando a) di un sistema desktop vs sistema mobile che viene venduto come miracolo di efficienza b) di un sistema che ha una potenza assoluta molto superiore.

Altra considerazione che verrebbe automatica se si fa un minimo di analisi critica: ma se il m1 pro e max sono così performanti sia a livello di cpu che di gpu che di banda sulla ram, com'è possibile che vadano così adagio nel mining?

Attenzione: non è una provocazione da fanboy di qui o di là, è che sugli M1 c'è un totale appiattimento sul marketing di Apple ma non vedo analisi tecniche che cerchino di capire come le performance nei bench (e in una serie di applicazioni reali, per carità) siano state tirate fuori "a spese di cosa".

Faccio un esempio: se prendi una scheda video RTX questa supporta un botto di feature in hardware (la più conosciuta è il ray tracing ma c'è veramente un botto di roba che viene supportata in hardware).
La GPU dell'M1 "sacrifica" il supporto a tutta una serie di cose a favore della potenza bruta sulle operazioni più di base (quelle tra l'altro usate nei bench).
Fermo restando che su quelle effettivamente performa molto bene con consumi sicuramente bassi, non si sta raccontando tutta la storia. Ad es. un gioco AAA con tutte le feature che ha su una console di nuova generazione o su un PC con schede RTX serie 2 o 3 non potrà mai girare su un M1 con pari qualità grafica.

Questo ripeto non lo dico per sminuire l'M1 che ha molti meriti, ma mi sembra assurdo che si pensi che non abbia nessun difetto e soprattutto che nessuno faccia approfondimenti a riguardo.

Cioè anche qui: con tutti quei TFLOPS perché mina così lentamente? Qualcuno prima o poi fa un'analisi che non analizzi solo i (sicuramente tanti) punti di forza?

Solo a me interessa capire meglio?

Assolutamente no, è quello che ci aspetterebbe di leggere qui dentro.

CrapaDiLegno
11-11-2021, 22:07
;47632504']1/5 dei consumi di una RTX 3090 a parità di potenza computazionale sull'algoritmo non è male, assalteranno i furgoni che trasportano gli M1 Pro
..... Dovranno scortarli come per i portavalori. (si avvicina quasi ad un ASIC...)

:D
Devi esserti perso qualche zero da qualche parte se credi che la 3090 in mining faccia 5MH/s consumando 5 volte tanto questo M1.
Rifai bene i calcoli.

scusate ma al posto che fare gli articoli clickbait e basta metteteci un minimo di contributo vostro con un'analisi critica.

Ad es. una rtx 2080 con 100W fa 40 MH/s, quindi 2,5W per MH/s;
17W per 5 MH/s significa quasi 3,5W per MH/s;
poi in quest'ultimo caso si, si sta parlando del sistema intero,
però ad es. su un pc puoi mettere una cpu low power e più schede in parallelo, quindi immagino si possa contenere parecchio il carico in più per il resto, e stiamo parlando a) di un sistema desktop vs sistema mobile che viene venduto come miracolo di efficienza b) di un sistema che ha una potenza assoluta molto superiore.

Altra considerazione che verrebbe automatica se si fa un minimo di analisi critica: ma se il m1 pro e max sono così performanti sia a livello di cpu che di gpu che di banda sulla ram, com'è possibile che vadano così adagio nel mining?

Attenzione: non è una provocazione da fanboy di qui o di là, è che sugli M1 c'è un totale appiattimento sul marketing di Apple ma non vedo analisi tecniche che cerchino di capire come le performance nei bench (e in una serie di applicazioni reali, per carità) siano state tirate fuori "a spese di cosa".

Faccio un esempio: se prendi una scheda video RTX questa supporta un botto di feature in hardware (la più conosciuta è il ray tracing ma c'è veramente un botto di roba che viene supportata in hardware).
La GPU dell'M1 "sacrifica" il supporto a tutta una serie di cose a favore della potenza bruta sulle operazioni più di base (quelle tra l'altro usate nei bench).
Fermo restando che su quelle effettivamente performa molto bene con consumi sicuramente bassi, non si sta raccontando tutta la storia. Ad es. un gioco AAA con tutte le feature che ha su una console di nuova generazione o su un PC con schede RTX serie 2 o 3 non potrà mai girare su un M1 con pari qualità grafica.

Questo ripeto non lo dico per sminuire l'M1 che ha molti meriti, ma mi sembra assurdo che si pensi che non abbia nessun difetto e soprattutto che nessuno faccia approfondimenti a riguardo.

Cioè anche qui: con tutti quei TFLOPS perché mina così lentamente? Qualcuno prima o poi fa un'analisi che non analizzi solo i (sicuramente tanti) punti di forza?

Solo a me interessa capire meglio?

Almeno qualcuno che vuole capire qualcosa di più c'è allora!
Premesso che hai fatto i consti con la serie 2000 di Nvidia e la 3000 è decisamente molto meglio in termini di hashrate/W, azzardando una ipotesi, credo che il test fatto su M1 usi solo ed esclusivamente la CPU non la GPU.
Apple infatti non ha rilasciato le specifiche per sfruttare la GPU al di fuori delle funzioni di libreria che ha messo a disposizione lei stessa per cui non credo che si possa accelerare del codice proprietario con quella.

Per quanti riguarda la qualità di certe notizie, oramai è chiaro che la guerra in atto tra i vari portali ormai è al ribasso. Non si tenta più di avere utenti appassionati che possano trovare qualche spunto interessante nelle notizie, possano fare discussioni di un certo livello che attraggono altri utenti di un certo livello o siano seguiti da utenti che vorrebbero capire qualcosa di più (cit.).
Ormai si va solo a caccia di click per marcare punti e farsi pagare dalla pubblicità. Ieri leggevo su un altro sito uno che si lamentava della lunghezza di una recensione che comparava 2 eReader di ultima generazione. Ormai l'utenza è a quel livello, devi concentrare tutto in 4 righe altrimenti si stufa di leggere. E comunque non capisce nulla lo stesso anche se la frase è breve.
E lo si vede tutti i giorni per strada con gente che va sui social a leggere i tweet e le storie e i commenti e gli stati e le immagini e quante più inutilità possibili e cliccano con il dito come suonassero un pianoforte. 3 secondi al massimo e via, bisogna passare a guardare quello dopo che altrimenti diventa noioso il tutto. Forse lo è perché la qualità del contenuto è nulla proprio.

Sp3cialFx
12-11-2021, 10:57
Almeno qualcuno che vuole capire qualcosa di più c'è allora!
Premesso che hai fatto i consti con la serie 2000 di Nvidia e la 3000 è decisamente molto meglio in termini di hashrate/W, azzardando una ipotesi, credo che il test fatto su M1 usi solo ed esclusivamente la CPU non la GPU.
Apple infatti non ha rilasciato le specifiche per sfruttare la GPU al di fuori delle funzioni di libreria che ha messo a disposizione lei stessa per cui non credo che si possa accelerare del codice proprietario con quella.

è un'ipotesi anche se mi pare un valore troppo alto per utilizzare solo la CPU (ma non riesco a trovare grandi riferimenti su che performance puoi ottenere da una CPU, quindi prendila con le pinze). Può anche essere che giri sotto OpenCL. Però torniamo al discorso di prima: questo è un approfondimento che dovrebbe fare chi scrive l'articolo (che tra l'altro potrebbe anche provare a contattare la persona che ha fatto il test), non degli utenti nei commenti

Per quanti riguarda la qualità di certe notizie, oramai è chiaro che la guerra in atto tra i vari portali ormai è al ribasso. Non si tenta più di avere utenti appassionati che possano trovare qualche spunto interessante nelle notizie, possano fare discussioni di un certo livello che attraggono altri utenti di un certo livello o siano seguiti da utenti che vorrebbero capire qualcosa di più (cit.).
Ormai si va solo a caccia di click per marcare punti e farsi pagare dalla pubblicità. Ieri leggevo su un altro sito uno che si lamentava della lunghezza di una recensione che comparava 2 eReader di ultima generazione. Ormai l'utenza è a quel livello, devi concentrare tutto in 4 righe altrimenti si stufa di leggere. E comunque non capisce nulla lo stesso anche se la frase è breve.
E lo si vede tutti i giorni per strada con gente che va sui social a leggere i tweet e le storie e i commenti e gli stati e le immagini e quante più inutilità possibili e cliccano con il dito come suonassero un pianoforte. 3 secondi al massimo e via, bisogna passare a guardare quello dopo che altrimenti diventa noioso il tutto. Forse lo è perché la qualità del contenuto è nulla proprio.

sono d'accordo su tutta la linea;
in questo caso tuttavia vedo anche la potenzialità per avere click, voglio dire, con tutta la stampa di settore appiattita sul "è meglio su tutto e in tutto" nel momento in cui arrivasse un approfondimento in cui vengono evidenziati meglio i punti di forza (ripeto, è oggettivo che ce ne sono e parecchi) ma anche i limiti (che è inevitabile ci siano: saranno pochi e circoscritti, ma ci sono per forza, è ovvio che tu non possa avere solo vantaggi).

anche perché così se un domani ci troviamo che intel / amd e/o nvidia modificano il loro approccio puntando meno a quelle cose che danno pochi riscontri nei bench (ad es. hyperthreading e ray tracing) per avere più transistor a disposizione da dedicare a ciò che permette di avere numeri più alti... almeno sappiamo la genesi della cosa.

poi dall'analisi di contro magari viene fuori che l'M1 di limiti ne ha davvero pochi ed ha un vantaggio competitivo notevole come sembra (c'è anche da dire che il max ha 57 miliardi di transistor, un x86 + una 2080 penso che arrivino poco più che a metà)... benissimo, ma almeno sappiamo PERCHE'