PDA

View Full Version : Cryptominer, le schede video in disuso tornano buone per l'intelligenza artificiale


Redazione di Hardware Upg
12-05-2023, 11:51
Link alla notizia: https://www.hwupgrade.it/news/skvideo/cryptominer-le-schede-video-in-disuso-tornano-buone-per-l-intelligenza-artificiale_116684.html

Venuta meno la necessità di GPU per il mining di criptovalute, le aziende che hanno investito ingenti somme in schede video potrebbero trovare una nuova strada nel settore dell'IA. La potenza di calcolo, infatti, verrà reindirizzata verso questo nuovo business in continua espansione.

Click sul link per visualizzare la notizia.

io78bis
12-05-2023, 12:23
L'adozione delle GPU per l'elaborazione dati ha consentito a queste società di acquisire un forte know-how nella manutenzione dei sistemi e, soprattutto, sull'ottimizzazione del consumo energetico.

Peccato che per diventare provider di servizi IA ci sono cose molto più importanti da saper gestire e garantire

riservatezza dei dati
isolamento degli ambienti d'esecuzione

Che con la Blockchain non credo fosse necessario gestire

UtenteHD
12-05-2023, 13:45
Beh Nvidia l'aveva gia' capita sta cosa, infatti aveva dichiarato tempo fa che smetteva con le Crypto e si dedicava all'IA.
Comunque concordo con chi dice che usare le GPU per l'IA non e' il massimo, e' meglio delle attuali CPU, ma dal mio punto di vista delle IA richiederanno delle CPU specifiche, magari comprensive di GPU per altri tipi di calcoli,
Vabbe' siamo solo all'inizio.

phmk
12-05-2023, 15:42
Falliscano ... :D :D :D

supertigrotto
12-05-2023, 15:51
Beh Nvidia l'aveva gia' capita sta cosa, infatti aveva dichiarato tempo fa che smetteva con le Crypto e si dedicava all'IA.
Comunque concordo con chi dice che usare le GPU per l'IA non e' il massimo, e' meglio delle attuali CPU, ma dal mio punto di vista delle IA richiederanno delle CPU specifiche, magari comprensive di GPU per altri tipi di calcoli,
Vabbe' siamo solo all'inizio.
Eccomi!
Quel che dicevo era solo una cosa che ha sempre sostenuto IBM,le GPU sono efficaci ma non efficienti,infatti i tensor core di Google che sono più vecchi delle GPU di Nvidia,si comportano meglio consumando un terzo dell'energia,questo solo per dirne una,ma la cosa che mi ha stupito quando lessi diversi articoli a riguardo, IBM in laboratorio usò dei 6800 leggermente modificati (la cosa migliore è usare gli 8 e 16 bit di indirizzi,il 32 è ritenuto inutile) e dimostrò che si potevano fare le cose in maniera più veloce e consumando anche 10 volte meno.
Ricordo che IBM con whatson ha iniziato con l'intelligenza artificiale molto prima di tanti altri,quindi di esperienza in merito ne ha,anche se non se la tira come certi personaggi che devono venderti per forza la loro scheda da mainframe.....
È uno dei motivi per cui Microsoft e compagnia bella si stanno creando dei chip su misura,basti a vedere quanta corrente si mangia chat gpt per rendersene conto.

Gringo [ITF]
13-05-2023, 10:26
Che bello, chissà che ci sia una richiesta di 10 volte tanto in precendenza così si potranno rivendere le vecchie schede al triplo del prezzo d'acquisto e poi dedicarsi alle console.... perchè ai prezzi attuali il PC e una macchina da gioco per Ricconi Viziati.

mrk-cj94
14-05-2023, 20:52
;48196887']Che bello, chissà che ci sia una richiesta di 10 volte tanto in precendenza così si potranno rivendere le vecchie schede al triplo del prezzo d'acquisto e poi dedicarsi alle console.... perchè ai prezzi attuali il PC e una macchina da gioco per Ricconi Viziati.

eh? :confused: :mbe: