|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: http://www.hwupgrade.it/news/skvideo...dia_25416.html
NVIDIA anticipa il prossimo rilascio, da parte dell'università di Stanford, di un client Folding@Home che sfrutta per le elaborazioni le proprie schede video Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Jan 2006
Messaggi: 4414
|
La cosa veramente interessante è che F@H per nVidia probabilmente vuol dire che hanno fatto un back-end per il linguaggio di programmazione brook.
Cioè che c'è una piattaforma comune e libera per lo sviluppo GPGPU AMD/nVidia ![]() |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Nov 2002
Messaggi: 3076
|
Ottima notizia
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Jun 2002
Messaggi: 320
|
Si consuma tanto ???
Ciao, vorrei sapere se qualcuno e' a conoscenza del carico di lavoro a cui e' sottoposta la vga quando e' in azione questo client ? La GPU lavora al 100% ?
Lo chiedo perche' contribuire alla ricerca penso sia un ottima cosa ma avere una vga che mi assorbe 120W fissi impatterebbe sulla bolletta e vorrei quantificare la spesa. Grazie in anticipo, ciao ciao
__________________
Case CM STACKER, ALIM. EVGA G3 750W, AMD Ryzen 3700X, MB Asus TUF Gaming X570 PLUS, 16GB DDR4 3600, VGA GEFORCE-GTX-1070-GAMING-X-8G, DVD-RW LG, SSD Nvme Crucial P1 1TB + Samsung Spinpoint F3 1TB + Seagate 1TB, Windows 10 PRO 64bit( originale ), Monitor Samsung S34J550W 21:9 3440x1440 freesync + 22" di lato, Logitech G25 + SLI-M Bodnar ![]() |
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Jul 2005
Messaggi: 484
|
Delucidazioni
Vorrei fare alcune domande visto che non sono pratico di vga, o meglio vorrei che mi chiarite delle cose
1 Questa è chiaramente un'applicazione GP-GPU perchè non è un'applicazione di grafica 3D, dove il processore esegue l'applicazione e la GPU fa da coprocessore specializzato elaborando la parte grafica. Allora non capisco come è stato scritto questo programma, normalmente o si usa DirectX(direct3D), o openGL che sono API /Librerie oppure si può accedere alla scheda direttamente tramite il bios della vga, overo quello che fa in binario un programma compilato scritto per openGL/Direct3D, ovvero il programma chiama le librerie dinamiche direct3d/openGL e manda itruzioni in binario al bios della vga. La vga come coprocessore ha un ISA(istruction-set-architecture, insime di istruzioni) che sono accessibili via bios, ma l'acccesso è controllato dal sistema operativo giusto? es. il dos permetteva l'accesso diretto, win no, ma tramite kernel, credo che anche linux lo fornisca tramite kernel. Quindi a parte il discorso complessità se sul sistema è installato il driver che fornisce il controllo del bios della vga(quindi il suo ISA), il codice da far eseguire alla vga si può scrivere si può scrivere in assembley. Mentre normalmente la libreria openGL/Direct3D si intrefaccia al driver che traduce l'istruzione openGL/Direc3D in un serie di istruzioni dell' ISA della GPU? allo stato attuale quali strumenti ci sono per scrivere applicazioni GP-GPU che funzionino su una soloa scheda? e come cambia il discorso per quanto riguarda diverse schede? 2 in futuro si diffonderà l'uso di CUDA e di clos2metal(è questa la controparte ATI)? e se si diffonderanno è prevista una cosa per scrivere aaplicazioni compatibili con entrambi tipo fat-binary (che sono molto diffusi, ci sono applicazioni che contengono + programmi, uno generico e altri per intel, aMD nelle varie versioni)? 3 come è stato scritta questa applicazione SCUSATE SE HO DETTO BAGGIANATE CENSURATEMI, IN MODO CHE ALTRI CAPISCONO CHE CIÒ CHE HO SCRITTO È ERRATO (eventuali link per conoscere meglio determinati argomenti sono graditi) |
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Apr 2008
Città: Sardegna
Messaggi: 438
|
Salve,
io scaricai la versione di f@H tempo fa entuisasta di contribuire alla ricerca, ma devo dire, deluso, che la versione per CPU mi rendeva il pc inutilizzabile, perchè sfrutta la percentuale di cpu inutilizzata facendola lavorare sempre a 100% , il pc si bloccava una voltà si e l'altra pure, per non parlare di quando tentavo di usare programmi di grafica o di modellazione 3d....impossibile.... cmq penso che questa versione destinata alla gpu sia simile, pe cui penso che si avrà una Gpu sempre al 100%..... cmq se non erro 'è una versione del sw che elabora i pacchetti solo quando c'è il salvaschermo inserito, quella è una versione interssante... |
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: May 2007
Messaggi: 375
|
Beh come utilità credo che appunto sia notevole... utilizzare Cpu, Gpu e console inutilizzate è grande... si contribuisce in modo significativo, vista la capacità di calcolo non indifferente a cui si è arrivati oggi... solo che effettivamente la questione dei consumi è non indifferente...
avere una console, una GPu di ultima generazione attiva al 100% significa avere 200-300W di consumo in orario che vanno e considerando il costo attuale... mah... ognuno ci pensi 2 volte prima di lasciare acceso 24/24 con questi programmi... ps nn ho letto da nessuna parte, ma i client supportano anche le configurazioni multi-vga?? sarebbe interessante vedere il boost prestazionale delle varie piattaforme e la scalabilità delle prestazioni... |
![]() |
![]() |
![]() |
#8 | |
Junior Member
Iscritto dal: Apr 2003
Città: PARMA
Messaggi: 13
|
Quote:
Io stò utilizzando un Client Console (fah6-win-x86-console.exe) sulla mia Worstation a lavoro, dotata di un Core2Duo... L'utilizzo della CPU è separato sui due core al 50% e, pur utilizzando un programma di modellazione tridimensionale, non ho rallentamenti o blocchi... Provai tempo fa a lanciare lo stesso Client Console sul Server, dotato di uno Xeon Quad core... Utilizzo della CPU separato sui 4 core al 25% e tempi di elaborazione ben migliori, senza problemi di blocchi o altro... A casa utilizzo il Client Console per GPU ATI.. ho una X1900XT e il discorso è ben diverso... A parte la ventola che alza sensibilmente il regime di rotazione, segno di sforzo, non è possibile giocare a titoli 3D e/o guardare Filmati con flusso HD in maniera fluida.. nessun problema per quanto riguarda filmati MPEG2 o DVD... Comunque, a tempo perso, ben contento di far andare questi Client, sperando possano contribuire veramente a qualcosa di importante (Non è che ho dubbi sulla buona fede del progetto, ma spero siano calcoli ben ponderati)... Tornando [OT], ben contento che anche nVidia entri a far parte di questa grande famiglia, visto il parco macchine dotate di questa poderosa GPU... Ciao e buon weekend a tutti... Luca |
|
![]() |
![]() |
![]() |
#9 | |
Member
Iscritto dal: Jun 2007
Messaggi: 96
|
Quote:
|
|
![]() |
![]() |
![]() |
#10 | |
Senior Member
Iscritto dal: Apr 2008
Città: Sardegna
Messaggi: 438
|
Quote:
![]() vorrei dare il mio piccolo comtributo ala ricerca ma continua a usarmi la cpu fino a l 100%..... ![]() tnx
__________________
iMac 27" Retina 5k 2015 MacBook Pro 15"; MacBook Air 13; iPhone 5. Lumix G6 + 14-42 + 45-150 + svariate lenti vintage |
|
![]() |
![]() |
![]() |
#11 |
Senior Member
Iscritto dal: Mar 2007
Messaggi: 875
|
Innanzitutto mi felicito per la notizia, era ora che anche chi ha nvidia potesse avere questa possibilità.
Poi mi preme fare il punto su alcune "baggianate" letti fin qui: 1. il client GPU del F@H utilizza la gpu ovviamente e necessita anche di un core, questo perché non è possibile demandare tutto alla scheda video. ci vuole cmq la cpu "ad istruirla". questo spiega perché su un dual core vedrete 50% e su un quad 25%. 2. l'utilizzo non è sempre al 100%, visto che è impostabile dall'utente. di solito cmq chi contribuisce lo fa sempre al 100%. 3. questo genere di programmi non impatta minimamente sulle prestazioni, la priorità nello scheduler è bassissima, se nessuno richiede la cpu questa va al 100%, ma appena un altro programma ne ha bisogno, gli viene data la percentuale richiesta e il resto continua ad elaborare. è impossibile che blocchino il pc, io ho sempre avuto boinc e prima il client proprietario del WCG, anche su un pc vetusto e sono sempre andato alla grande, della serie che si può benissimo giocare, fare un divx (in quest'ultimo caso semplicente il client stara praticamente sempre a 0..), ecc. 4. senza overclock spinti, il divario tra cpu in idle e cpu in full non è molto elevato (a parte le ultimissime cpu con gestioni energetiche avanzate), mentre cambia decisamente la storia con le gpu..tra una 9800GTX in idle e in full ci sono almeno 100W e non so se è consigliabile farla andare così 24/7. tant'è che gli stessi sviluppatori dicono di non farlo andare continuativamente. chi ha la sensibilità di capire quanto è importante il calcolo distribuito, dovrebbe essere sensibile anche alla questione ambientale. è importante scaccolare certo, ma bisogna farlo con un occhio di riguardo ai consumi. affiché non ci sia più danno che utile..io stesso ho abbassato il mio quad da 3.6ghz a 3.2ghz, ho perso un 12% in prestazioni, ma risparmiato un 40% in consumi! questo nuovo client nvidia sicuramente lo installerò, ma valuterò quanto farlo andare, visto che ho già boinc che va circa 16 ore al giorno (il tempo che sono sveglio).
__________________
Case: NZXT H710 Black Alimentatore: Corsair RM750X CPU: AMD Ryzen 7 3700X MoBo: Asus ROG Strix X570-F Gaming RAM: Corsair Vengeance RGB PRO Black DDR4-RAM 3600 MHz 4x 8GB GPU: MSI GeForce RTX 3080 Ti Suprim X Scheda Audio: Focusrite Scarlett 2i4 2nd Gen HD: Samsung 970 PRO NVMe M.2 SSD 512 GB Monitor: LG UltraGear Gaming Monitor 34GK950F Studio Monitors: M-Audio BX5-D3 UPS: APC Back-UPS ES 850 |
![]() |
![]() |
![]() |
#12 |
Senior Member
Iscritto dal: May 2008
Messaggi: 339
|
Posso confermare per mia esperienza che i consumi sia in caso di CPU che di GPU aumentano in modo poco significativo, Io ho empiricamente verificato tramite l' uso di un vecchio contatore collegato al pc ( Quad core di ultima generazione con 8Gb di ram ) che il consumo in 24/24 per 365 giorni nel caso di uso solo con emule e con uso di 4 folding che funzionano al 100% è sostanzialmente minimo.
Poche decine di euro di differenza. Cosa del tutto differente nel caso di uso di worstation (4 cpu Xeon di ultma generazione sfruttate al 100% 365giorni 24 su 24) si parla di una donazione di 100 di euro l' anno. Visto l' utilità del progetto vi invito a usarlo, se non potete 24 su 24 perché giustamente vorreste risparmiare (magari perché non avete necessità di tenerlo acceso la notte), anche 12 o 16 ore al giorno per 5 giorni alla settimana può essere un grandissimo aiuto alla ricerca. |
![]() |
![]() |
![]() |
#13 |
Senior Member
Iscritto dal: Mar 2003
Città: Pesaro
Messaggi: 1979
|
Chissà quanti barili di petrolio l'anno vengono bruciati per creare energia per dare corrente ai vostri pc per giocherellare con vattelappesca@home.... magari troveremo gli ufo, ma contribuendo a distruggere l'ambiente...
p.s. prima che il primo fenomeno apra bocca, lo so gli ufo si cercano con seti ![]() p.p.s. la mia non è una critica alla ricerca ma alla efficienza di questo sistema |
![]() |
![]() |
![]() |
#14 | |
Senior Member
Iscritto dal: Sep 2006
Messaggi: 7030
|
Quote:
![]() Prova BOINC e uno dei suoi progetti e dimmi... Cmq sta news sta raccogliendo tantissime baggianate @AndreaG. Lol i barili del petrolio, io sono pro fine del mondo quindi consumo il più possibile ![]() ![]() ![]() ![]() ![]() Close to metal non esiste più, ora la roba per le schede ati si programma in CAL (in sostanza ha cambiato nome e basta ok...però...) @fpg_87: si più o meno... c'è il client multi-gpu però non l'ho mai provato, dovrebbe funzionare ma non ti garantisco nulla
__________________
![]() Ultima modifica di gabi.2437 : 24-05-2008 alle 13:53. |
|
![]() |
![]() |
![]() |
#15 | |
Senior Member
Iscritto dal: Mar 2007
Messaggi: 875
|
Quote:
come dicevo prima, senza particolari overclock, la differenza fra idle e full sarà di un 20% max e quindi: supponiamo che un pc in idle consumi 100W, e con boinc 120W. meglio sprecare 100W con un pc che non fa nulla, o utilizzare 120W per contribuire alla scienza? ![]()
__________________
Case: NZXT H710 Black Alimentatore: Corsair RM750X CPU: AMD Ryzen 7 3700X MoBo: Asus ROG Strix X570-F Gaming RAM: Corsair Vengeance RGB PRO Black DDR4-RAM 3600 MHz 4x 8GB GPU: MSI GeForce RTX 3080 Ti Suprim X Scheda Audio: Focusrite Scarlett 2i4 2nd Gen HD: Samsung 970 PRO NVMe M.2 SSD 512 GB Monitor: LG UltraGear Gaming Monitor 34GK950F Studio Monitors: M-Audio BX5-D3 UPS: APC Back-UPS ES 850 |
|
![]() |
![]() |
![]() |
#16 | |
Senior Member
Iscritto dal: Apr 2008
Città: Sardegna
Messaggi: 438
|
Quote:
con Boinc sto già facendo Rosetta@home e l'ho settato senza nessun problema a mio piacimento...
__________________
iMac 27" Retina 5k 2015 MacBook Pro 15"; MacBook Air 13; iPhone 5. Lumix G6 + 14-42 + 45-150 + svariate lenti vintage |
|
![]() |
![]() |
![]() |
#17 |
Senior Member
Iscritto dal: May 2008
Messaggi: 339
|
Per ridurre l' utilizzo della CPU basta andare Configurazione, poi Advaced.
1.Poi sposti la barra di CPU Usage Percet. A seconda di quanto sposti la barra, si ridurrà l' utilizzo massimo della CPU. p.s Quando puoi riportala al 100% è un peccato tenerla al disotto. Comunque confermo che in genere è inutile abbassarla. perchè non influenza l' utilizzo del PC. Fammi sapere se funziona. |
![]() |
![]() |
![]() |
#18 |
Senior Member
Iscritto dal: Sep 2006
Messaggi: 7030
|
Quel che intendevo dire è che la CPU DEVE essere al 100%
![]() Cioè, il punto è che non dovresti aver bisogno di andar a modificare l'uso massimo di CPU, proprio perchè è già fatto apposta... E anche con BOINC è così, l'hai modificato o lasciato tutto a default?
__________________
![]() |
![]() |
![]() |
![]() |
#19 |
Bannato
Iscritto dal: May 2004
Messaggi: 738
|
Come al solito Hwupgrade omette la parte più rilevante (sempre in ottica stangata finale):
"In rete è apparso anche un grafico, in cui vengono mostrati i risultati in termini di potenza di calcolo ottenibili con le nuove GPU: CPU, PS3 e ATI Radeon HD 3870 vengono letteralmente surclassate dal nuovo core GT200. Una buona notizia per gli utenti che vogliono fornire il proprio contributo e una grandissima novità per Folding@Home: con 70 milioni di GPU in grado di lavorare su codice non grafico (per intenderci, le serie 8 e 9), il progetto potrebbe attingere a nuova linfa vitale, ovvero a qualcosa come 7000 Petaflop di potenza." |
![]() |
![]() |
![]() |
#20 |
Senior Member
Iscritto dal: Sep 2006
Messaggi: 7030
|
Peccato che l'ultima parte sia decisamente fuorviante perchè dice che i 7000petaflops si otterrebbero se tutte le schede partecipassero... vabbè ma per forza, se partecipassero tutte le ati e tutti i processori, sai che boom?
![]()
__________________
![]() |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 20:00.