View Full Version : Mining ottimizzato di criptovalute: Intel si assicura un brevetto
Redazione di Hardware Upg
01-12-2018, 10:01
Link alla notizia: https://pro.hwupgrade.it/news/scienza-tecnologia/mining-ottimizzato-di-criptovalute-intel-si-assicura-un-brevetto_79462.html
L'azienda di Santa Clara si vede riconosciuta un brevetto che copre una tecnologia in grado di effettuare il mining di criptovalute con un minor consumo energetico, e con ulteriori margini di miglioramento
Click sul link per visualizzare la notizia.
G0r3f3s7
01-12-2018, 17:08
Non ho capito una cippa, basta che mi spostano l'attenzione dal comparto GPU e che tornino ad avere un prezzo umano.
pabloski
01-12-2018, 17:15
Non ho capito una cippa, basta che mi spostano l'attenzione dal comparto GPU e che tornino ad avere un prezzo umano.
non succedera' mai, perche' venuto meno il boom delle criptovalute, sta cominciando il boom del deep learning
non succedera' mai, perche' venuto meno il boom delle criptovalute, sta cominciando il boom del deep learning
Beh mi pare sia roba del tutto differente.
La menata delle criptovalute ha prosciugato il mrcato GPU perchè la fuori era pieno di piccoli minatori che volevano fare soldi. In realtà per la maggioranza di loro si è trattato di mera illusione..
Il deep learning non vedo che presa possa avere sul mercato home delle gpu.. che se ne fa un utente home di un sistema per deep learning?
pabloski
01-12-2018, 19:24
Il deep learning non vedo che presa possa avere sul mercato home delle gpu.. che se ne fa un utente home di un sistema per deep learning?
I nuovi framework stanno spostando le attivita' di computing dal cloud al locale. GIa' adesso i servizi di deep learning di Android e iOS possono girare completamente sullo smartphone.
Per questo dicevo che la domanda di potenza di calcolo crescera' e infatti si stanno attrezzando tutti proponendo varie soluzioni, tra cui NPU, TPU, GPU, FPGA e compagnia.
tallines
01-12-2018, 19:43
Con ste menate....non si va da nessuna parte, le crypto valute......:rolleyes:
I nuovi framework stanno spostando le attivita' di computing dal cloud al locale. GIa' adesso i servizi di deep learning di Android e iOS possono girare completamente sullo smartphone.
Per questo dicevo che la domanda di potenza di calcolo crescera' e infatti si stanno attrezzando tutti proponendo varie soluzioni, tra cui NPU, TPU, GPU, FPGA e compagnia.
No aspetta.. ok posso capire gli smartphone che cercano di essere più autonomi col comuting in locale con specifiche soluzioni hardware.
Anche se poi il cloud serve comunque perchè quando chiedi info a google now deve comunque andarle a pescare in rete tra l'altro.
Ma in ogni caso non vedo cosa possa avere a che fare quasto con le GPU discrete per sistemi desktop.
Se fai mining è un conto, usi la gpu per minare, ma per il "deep learnig" che cosa ottieni? :confused:
fraussantin
02-12-2018, 00:03
Non ho capito una cippa, basta che mi spostano l'attenzione dal comparto GPU e che tornino ad avere un prezzo umano.
non 2 cose distinte.
le gpu servono a minare altre monete che usano altri algoritmi.
pabloski
02-12-2018, 12:20
Ma in ogni caso non vedo cosa possa avere a che fare quasto con le GPU discrete per sistemi desktop.
Perche' fino ad oggi il deep learning e' stato chiuso nei laboratori di ricerca. Ma le prime applicazioni stanno comparendo e si diffonderanno a macchia d'olio.
Arrivera' il momento in cui la gente vorra' l'applicazione per creare i video deepfakes e qualcuno la realizzera' e quell'applicazione avra' bisogno di una potenza da far impallidire gli Xeon piu' carrozzati.
E verra' il momento in cui parleremo al pc come parliamo con amazon echo e anche li' ci vorranno gpu carrozzate per far girare quegli algoitmi.
In buona sostanza il punto e' che le cpu non sono all'altezza del compito e non lo saranno nel prossimo futuro.
Se poi si preferira' la strada degli fpga o delle unita' tensoriali, non lo so. Ma per ora le gpu sono l'unica strada praticabile per un deep learning general purpose.
nickname88
02-12-2018, 13:04
Perche' fino ad oggi il deep learning e' stato chiuso nei laboratori di ricerca. Ma le prime applicazioni stanno comparendo e si diffonderanno a macchia d'olio.
Per quel tipo di utilizzo non andranno di certo a comperare i prodotti GeForce.
Che poi Intel voglia entrare nel mondo delle GPU principalmente per tutto tranne che il gaming non sarebbe una sorpresa.
pabloski
02-12-2018, 14:52
Per quel tipo di utilizzo non andranno di certo a comperare i prodotti GeForce.
Direi di si invece, considerando che la scheda piu' diffusa per il deep learning e' la GTX 1080.
Non a tutti piace farsi fregare spendendo di piu' per una Quadro, che fa le stesse cose di una Geforce.
BulletHe@d
03-12-2018, 11:43
@Pabloski
in campo pc molte cose (vedi l'uso del pc come amazon alexa) è già possibile (cortana ti dice nulla o la usi solo come barra di ricerca.....) ma queste sono piccolezze che una cpu x86/64 le regge senza problemi, il deep Learning serve principalmente nei campi di ricerca e li fa la differenza con cosa lo calcoli e no la gtx1080 viene usata da chi non ha aziende dietro (privati ad esempio) ma tutte le aziende che usano il DL per ricerca seria usano quadro e simili non le GTX proprio per avere garanzie che un prodotto commerciale non ha
@Pabloski
in campo pc molte cose (vedi l'uso del pc come amazon alexa) è già possibile (cortana ti dice nulla o la usi solo come barra di ricerca.....) ma queste sono piccolezze che una cpu x86/64 le regge senza problemi, il deep Learning serve principalmente nei campi di ricerca e li fa la differenza con cosa lo calcoli e no la gtx1080 viene usata da chi non ha aziende dietro (privati ad esempio) ma tutte le aziende che usano il DL per ricerca seria usano quadro e simili non le GTX proprio per avere garanzie che un prodotto commerciale non ha
Stesso pensiero mio.
Il deep learning mica è cortana sul pc.. e sarebbe ridicolo diver comprare una GPU potente per far funzionare Cortana o alexa.. :fagiano:
In sostanza il deep learnig è impiegato ad esempio nei processi di analisi di enormi moli di dati. Una cosa che magari può capitare a determinate aziende che risolvono con una soluzione "economica" con le 1080.
Certamente è totalmente irrilevante per il privato.
nickname88
03-12-2018, 13:06
Direi di si invece, considerando che la scheda piu' diffusa per il deep learning e' la GTX 1080.
A parte che nel deep learning i boost prestazionali più elevati li ottieni con le nuove unità introdotte con Turing ora e con Volta poco prima. E dubito che con delle soluzioni castrate come le GeForce si possa andare lontano. GeForce provvederà a castrare debitamente questo aspetto.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.