View Full Version : ha senso acquistare una Nvidia quadro per del foto editing amatoriale?
Ciao a tutti,
Sono in procinto di acquistare una GPU per il pc che mi sto assemblando, l'utilizzo è prettamente da ufficio e per la postproduzione di foto.
Il processore è un and ryzen 7 2700, la MB una gigabyte x570 aorus elite, alimentatore evga 750 G3, 16gb RAM ddr4 3200.
Avendo un monitor che supporta i 10bit vorrei sfruttarlo al meglio.
Per il fotoeditong uso per lo più darktable, Google Nik collection, Adobe lightroom.
Non faccio video editing, se non per qualche molto sporadico video full HD della mia action cam, ma nulla di che.
Uso sia Windows che Linux.
Se non sbaglio Nvidia ha aperto ai driver studio, e quindi al supporto 10bit, anche alle schede non quadro.
Sempre se non sbaglio i programmi di foto editing non sfruttano molto la GPU.
Non gioco al PC da secoli, non lo utilizzerei proprio a questo scopo.
Ora, mi conviene risparmiare sulla GPU per prendere magari altri 16gb di RAM?
Sono indeciso tra la geforce 1060, la quadro p1000, oppure addirittura la p620...
Cosa mi consigliate? Grazie!
celsius100
17-08-2020, 12:57
Ciao
I programmi di grafica usano molto la scheda video x cui ci vuole una buona potenza di calcolo
Le quadro dalla p2000 in giù non le consiglierei ma Visto appunto i driver studio che dovrebbero funzionare abbastanza bene potresti puntare una scheda da Gaming, una 1660 gigabyte o MSI o zotac Biventola direi che andrà bene
Andrebbe bene anche una GTX 1060 Ma si trovano a prezzi alti e comunque sono schede fuori produzione per cui a meno che non ci risparmi €50'60 rispetto a un modello analogo di 1660 Non ne vale la pena
Sicuramente più Oramai è meglio eh Comunque non capisco come mai utilizzi una "vecchia" cpu ryzen serie 2000 sarebbe più indicato un ryzen 3000 che e più veloce
Come alimentatore basterebbe anche lo stesso modello ma da 550 watt tanto il pc consuma poco
Come hdd/ssd cosa usi?
Inviato dal mio SM-G930F utilizzando Tapatalk
Perseverance
17-08-2020, 14:18
Sulle schede gaming avere il supporto 10bit è una cosa, ma avere il segnale 10bit alle uscite è un'altra. Che io sappia le nVidia non quadro hanno sì il supporto ma non escono a 10bit, lo fano a 8bit. Penso siano ancora bloccate via driver. Qualcosa si faceva sulle GTX, ma non ricordo.
https://www.pugetsystems.com/labs/articles/How-to-enable-30-bit-in-Photoshop-1243/
As noted in an earlier article about setting up graphics card software to display 10 bpc output, both workstation class graphics cards (AMD Radeon Pro, & Nvidia Quadro), and consumer class graphics cards (AMD Radeon, Nvidia GeForce) graphics cards give you the ability to set 10 bpc (10-bit per channel R, G, B) for full screen Direct X programs through their driver software to allow a greater number of colors to be displayed for programs that utilize DirectX - again provided you are connected to a 10-bit display.
However professional programs like Adobe Photoshop along with others tend to utilize OpenGL for 10-bit per channel color, and currently only workstation class Nvidia Quadro, or AMD Radeon Pro graphics cards offer 10-bit per channel color through OpenGL.
La Quadro p620 è pari alla WX3200 mi pare, ma io non andrei sotto ad una WX4100. Se poi trovi conferme delle uscite a 10bit anche per le schede gaming allora prendi una di quelle.
Allora come hdd per ora ho un Samsung 970 evo plus attacco M2, ho scelto quel processore semplicemente per esigenze di budget e l'ho pagato metà prezzo... Ma ho scelto una scheda madre sovradimensionata rispetto al processore anche perché così in futuro potrò semplicemente cambiare processore e sono ok, stessa cosa per l'alimentatore.
Sinceramente avevo letto che applicazioni come Photoshop ancora non sfruttano al meglio le GPU caricando maggiormente le CPU/RAM, avevo capito che a sfruttare di più le GPU sono le applicazioni di video editing, che però non uso.
Ma a questo punto è probabile che non ci ho capito molto io 😅
Si mi resta da capire se con una GPU gaming e driver studio i 10bit sono reali o no...
Le quadro servono più che altro per il multi-monitor (maggiori di 4 monitor) o il mosaic (affiancare più monitor per avere un'immagine unica).
Prendi pure una scheda RTX 2060 o se vuoi risparmiare una GTX 1660 SUPER.
Qui c'è la tabella delle funzionalità (codec/decodec) supportate dalle varie schede: https://developer.nvidia.com/video-encode-decode-gpu-support-matrix
Perseverance
17-08-2020, 14:49
Si mi resta da capire se con una GPU gaming e driver studio i 10bit sono reali o no...
Informati bene, mi interessa anche a me. Ad ora io sò che il supporto e l'uscita 10bit sulle schede gaming è possibile solo in DirectX 11 e solo con applicazioni fullscreen come i giochi. Tutto il resto no. Se fosse possibile benvenga!
Qui c'è la tabella delle funzionalità (codec/decodec) supportate dalle varie schede: https://developer.nvidia.com/video-encode-decode-gpu-support-matrix
Si, ma il supporto (e la decodifica) è una cosa, l'uscita col segnale 10bit un'altra.
Le nuove schede (non quadro) li supportano: https://www.juzaphoto.com/topic2.php?l=it&t=3350381
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.