|
|
|
|
Strumenti |
16-08-2018, 09:43 | #41 |
Senior Member
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18372
|
Evidentemente no, se no saremmo sommersi da barrette...
__________________
MSI B550 Gaming Plus - AMD Ryzen 5 5600X - HyperX Fury RGB 32GB 3200 @3600 - Kingston KC3000 1 TB/XPG SX8200 Pro 512 GB - Sapphire Radeon Pure RX 7800 XT - Corsair CX750F RGB - Cooler Master GM32-FQ |
16-08-2018, 10:10 | #42 | ||
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14720
|
Quote:
Cosa succederebbe per esempio se il concorrente facesse uscire una scheda con capacità doppie o triple per il raytracing? Siamo ancora agli inizi e ancora non si sa quale sia il giusto bilanciamento. Nvidia probabilmente ha optato per questa soluzione anche perchè è ancora in grado di imporre uno "standard" e gli sviluppatori software la seguono perchè più diffusa. Quote:
Devo tirar su una nuova macchina senza pretese, se opto per una APU mi tocca spendere una fortuna in memorie, se invece prendo CPU+VGA il salasso è su quest'ultima. Ci fosse una scheda video di fascia bassa e di ultima generazione per 50-60 euro risolverei con quella. |
||
16-08-2018, 10:18 | #43 | |
Senior Member
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18372
|
Quote:
Quoto anche la parte dopo, anche se molti continuano a negare l'evidenza...ormai siamo pieni di "standard" pagati a caro prezzo.
__________________
MSI B550 Gaming Plus - AMD Ryzen 5 5600X - HyperX Fury RGB 32GB 3200 @3600 - Kingston KC3000 1 TB/XPG SX8200 Pro 512 GB - Sapphire Radeon Pure RX 7800 XT - Corsair CX750F RGB - Cooler Master GM32-FQ |
|
16-08-2018, 10:30 | #44 | ||
Senior Member
Iscritto dal: May 2005
Messaggi: 11676
|
Quote:
La parte RT Core è "a se stante" ma è integrato nel processo ibrido di rendering, farla esterna credo che avrebbe complicato le cose nel calcolo ibrido; oltretutto fare una scheda dedicata avrebbe voluto dire anche rallentarne il processo di adozione, e farne aumentare il costo. nelle Pro c'è anche l'nVlink che è un gradino sopra allo SLI/CF e mette i chip direttamente a contatto andando a condividere anche la Vram; rispeto al PC-EX hai una connessione con maggiore banda, dedicata alla sola comunicazione con le GPU e con minori latenze. Altra cosa da tenere a mente con l'RT è la parte Tensor Core, che si occupa del De-Noise Ai; non sono molto separabili le cose perchè tutte concorrono al Raytracing finale. ci sara da vedere solo cosa vorra fare nVidia con le gaming, perchè attualmente il raytracing è impiegabile in vari modi e a vari livelli e magari con le gaming iniziera con una variante piu blanda dedicata solo a qualche pass. il 20 agosto vedremo Quote:
solo tu neghi l'evidenza che si è arrivati a un punto dove le unita dedicate sono necessarie perchè si è arrivati al limite di TDP e al limite di dimensione del silicio e le unita unificate sono inefficienti. te l'ho gia scritto ma ovviamente lo hai ignorato; le unita unificate sono nate per una questione di PRATICITA e perchè era impossibile avere un gioco sempre bilanciato nella tipologia di calcolo, ma sono SEMPRE state meno efficienti ( e sempre lo saranno ), rispetto ad unita dedicate ma che haime, non si possono usare. e come se ti stessi lamentando dell'integrazione del decoder hardware video nella GPU che poteva benissimo essere fatto dagli shader, ma invece di consumare pochi W lo faresti con tutta la GPU visto che l'alternativa è il supporto di AMD, preferisco pagare e avere quache cosa di funzionante subito, non aspettare 5 anni perchè ha lasciato lo "standard" sul groppone degli sviluppatori.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360 Ultima modifica di AceGranger : 16-08-2018 alle 10:47. |
||
16-08-2018, 11:23 | #45 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14720
|
@AceGranger
Mi riferivo al mercato dei videogiochi, dove non c'è ancora nulla e trovare il giusto bilanciamento non è così semplice. Per il mercato professionale, come dicevo, lo sviluppo nasce dalle richieste del settore. Ad ogni modo non credo che per il mercato professionale sarebbe stato un problema l'acquisto di una scheda acceleratrice, chi ha bisogno di quel tipo di prodotti di certo non ha problemi ad acquistarla se esiste un vantaggio (anzi... magari sarebbe felice di farlo perchè non dovrebbe sostituire le Volta appena acquistate a caro prezzo). |
16-08-2018, 11:31 | #46 | ||
Senior Member
Iscritto dal: May 2005
Messaggi: 11676
|
Quote:
è da un paio di anni che si sta iniziando ad utilizzare Unreal/Unity in campo Visual Pro, sia architettonico sia Automotive, l'RT è solo la naturale evoluzione per avere una resa grafica migliore e piu accurata sia in campo gaming che Pro, e soprattutto istantanea. Quote:
una soluzione di questo tipo è nettamente preferibile, visto che poi si tratta comunque di visualizzazioni "ibride" e non pure ray-tracing; con una scheda di questo tipo prendi il meglio da ogni tipo di unita di calcolo; hai una parte dedicata all'RT, una parte dedicata all'Ai e la parte dei CUDA core che possono fare tutto, volendo anche la parte RT e Ai.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360 Ultima modifica di AceGranger : 16-08-2018 alle 11:34. |
||
16-08-2018, 17:18 | #47 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14720
|
@AceGranger
La fai troppo facile. Nel mercato consumer ci vuol poco a cambiare le esigenze a seconda di come si muove il mercato e lo sviluppo di una tecnologia che è nuova in questo settore. Queste andranno bene semplicemente perchè gli sviluppatori baseranno molto del loro lavoro su hardware nVidia, ma ho idea che questo tipo di soluzioni tutto in uno diventeranno presto obsolete, gli equilibri si troveranno nelle prossime generazioni. Per il mondo professionale il motivo per cui le schede acceleratrici per il ray-tracing non hanno avuto grandissima diffusione possono essere molteplici, ma del resto questa è la prima volta che un grande produttore di schede video entra in questo specifico mercato e le cose sarebbero potute andare molto diversamente con una soluzione dedicata. |
16-08-2018, 18:47 | #48 |
Senior Member
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18372
|
@AceGranger
Amd ha un'architettura votata al computing fin dal 2012, non avranno problemi a tirar fuori una soluzione comparabile o migliore per il ray
__________________
MSI B550 Gaming Plus - AMD Ryzen 5 5600X - HyperX Fury RGB 32GB 3200 @3600 - Kingston KC3000 1 TB/XPG SX8200 Pro 512 GB - Sapphire Radeon Pure RX 7800 XT - Corsair CX750F RGB - Cooler Master GM32-FQ |
16-08-2018, 19:01 | #49 |
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
|
16-08-2018, 19:14 | #50 |
Senior Member
Iscritto dal: Aug 2006
Messaggi: 13567
|
Eh sì, però guarda caso Nvidia arriva sempre prima.
__________________
Ryzen 5600 / Prime X370 Pro / 32 GB DDR4 / EVGA Black RTX 3070 / Crucial P5 Plus 1 TB / Crucial MX500 1 TB / Seasonic Focus GX-750 / Dell S2417DG / Edifier R1280T / Synology DS220+ / Pixel 6 / Steam Deck |
17-08-2018, 00:57 | #51 | ||
Senior Member
Iscritto dal: May 2005
Messaggi: 11676
|
Quote:
la soluzione totalmente dedicata, ripeto, avrebbe creato piu problemi che altro, specialmente agli sviluppatori; cosi invece si rimane in ambito DirectX e CUDA. Quote:
riuscira a fare risultati comparabili solo e soltanto se fara delle sue unita dedicate, seno continuera a stare dove sta, sugli scaffali, perchè 8 su 10 continueranno a essere Quadro e 99 su 100 Tesla.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360 Ultima modifica di AceGranger : 17-08-2018 alle 01:05. |
||
17-08-2018, 08:30 | #52 | |
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4079
|
Turing sembra essere molto più simile a Volta di quanto non lo sia quest'ultimo con Pascal, vedi cache L1 data/condivisa unificata, la presenza di un RT engine, core integer dedicati e probabilmente anche la maggior flessibilità nella pianificazione dei thread rispetto a quanto visto in Pascal...
Le modifiche da Volta sembrerebbero limitati alla flessibilità dei Tensor core e probabilmente un maggior numero di unità a funzione fissa per accelerare il RT. Invece, dall'omissione (voluta?) sembrerebbe cbe Turing non abbia un throughput FP16 doppio rispetto a FP32 come VEGA/VOLTA, ma incrementi prestazionali dovuti alla semplice risparmio della banda passante, come quelle viste in Fiji/Polaris, comunque un netto miglioramento rispetto a quanto oggi reso disponibile con Pascal consumer dove si assiste ad un calo di prestazioni di un fattore 10 con l'uso della mezza precisione. Quote:
E poi pare che Volta con l'introduzione di Turing non sia più compatibile con la tecnologia RTX.... dal comunicato stampa di nvidia, in certi frangenti si ha davvero l'impressione che la società californiana confronti Turing con Pascal, per aumentare il numero delle novità rispetto alla precedente (quale?) architettura. Ultima modifica di tuttodigitale : 17-08-2018 alle 08:46. |
|
17-08-2018, 09:32 | #53 | |||
Senior Member
Iscritto dal: May 2005
Messaggi: 11676
|
Quote:
Quote:
Quote:
eh bè ma alla fine Turing è diretto successore di Pascal; di Volta si è visto 1 solo chip e solo Compute.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360 |
|||
17-08-2018, 09:45 | #54 | |||
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14720
|
Quote:
In ambito professionale la scheda è un investimento, la compri quando sei in grado di sfruttarla e ottenerne un vantaggio produttivo. Se dopo una anno devi cambiarla non è un grosso problema, l'hai sfruttata e comprarne un'altra che ti garantisce ulteriori vantaggi non è una spesa ma un altro investimento. Al contrario in ambito gaming, escludendo chi cambia scheda ogni anno per avere sempre il top delle prestazioni, si ha molta più difficoltà a digerire questo cambio di hardware. Se io oggi compro una scheda per gioco (e questa è una spesa, non un investimento, dato che non ne ho un ritorno economico) voglio sperare di poterla utilizzare nei prossimi anni senza particolari patimenti, ma questo è molto difficile che avvenga con una soluzione acerba e integrata, che non mi consente altre soluzioni che sostituire l'intera scheda. Quote:
In ambito tecnico non mi ci spingo, perchè non so valutare se il fatto di stare in schede separate possa creare dei colli di bottiglia. Immagino però che questo potrebbe essere il campo perfetto per l'uso dell'NVlink. Quote:
Le unità dedicate per IA e RT sono aggiunte dell'ultima generazione (considerando Volta come una mezza generazione), immagino che anche AMD adotterà un approccio simile con le nuove schede, a meno che naturalmente non trovi una soluzione che ritiene migliore. Ultima modifica di calabar : 17-08-2018 alle 09:51. |
|||
17-08-2018, 10:45 | #55 | ||
Senior Member
Iscritto dal: May 2005
Messaggi: 11676
|
Quote:
Quote:
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360 |
||
17-08-2018, 14:10 | #56 | ||
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14720
|
Quote:
Le soluzioni integrate hanno comunque un indubbio vantaggio: favoriscono le diffusione di una tecnologia. Se tutte le schede hanno quella funzionalità, gli sviluppatori sono più motivati ad investire risorse in essa. Però ho pensato che in ambito professionale questo potesse avere meno importanza. Quote:
L'architettura in se comunque non dovrebbe essere troppo inefficiente, in rete diversi utenti riescono ad ottenere consumi più che dimezzati con le schede da gioco grazie al "fine tuning" delle tensioni: sembra che AMD abbia utilizzato tensioni elevate pur di buttare sul mercato praticamente tutta la produzione e risparmiare nella fase di testing. Se non ti capita la scheda sfortunata, puoi ottenere risultati interessanti. Ovvio questo non ha senso in campo professionale, per cui mi chiedo quale sia la situazione con le Radeon Instinct: in tale ambito mi aspetterei che AMD facesse un lavoro di selezione migliore. Puoi farmi un esempio di situazione in campo professionale dove emerga chiaramente questa minore efficienza e il problema non sia il supporto software? Non un singolo test ovviamente, dato che un test può adattarsi meglio o peggio ad una certa microarchitettura piuttosto che ad un'altra. |
||
20-08-2018, 10:30 | #57 |
Senior Member
Iscritto dal: Oct 2004
Città: Scandicci
Messaggi: 1313
|
I tuoi amici si abbaglierebbero con una lentezza spaventosa a 30fps!
|
20-08-2018, 10:56 | #58 | |
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Quote:
Che ti piaccia o meno le schede dopo un paio di anni mostrano sempre il limite con i nuovi titoli, come succede ora con le 1070/1080 a 1440p, se poi uno punta a poter avvicinare il 4K ancora peggio. Chi compera schede di quel tipo è perchè vogliono giocare con una certa qualità, non gli basta che il gioco si avvii e si muova qualcosa a schermo e quando i titoli in cui non si è più in grado di farlo o hai cali di frame rate troppo frequenti si cambia. E quando si cambia si sceglie il momento opportuno, ossia poco prima che escano le nuove o subito dopo, altrimenti perde di valore nel mercato, valore che ti serve per assorbire parte del costo della nuova, solitamente anche più della metà del suo costo, alla faccia di chi si lamenta che le schede costino troppo .... tenersi una scheda come dici tu poi alla fine ci perdi ugualmente e di più quando comperi la prossima. Ultima modifica di nickname88 : 20-08-2018 alle 10:59. |
|
08-09-2018, 13:03 | #59 |
Junior Member
Iscritto dal: Sep 2018
Messaggi: 1
|
salve a tutti, sono marco e mi sono appena iscritto nel forum, per lavoro mi occupo di animazione e modellazione 3d, rendering ed illuminazione di scene virtuali, nello specifico i software che utilizzo sono zbrush, maya e arnold come motore di render (che a breve so che darà la possibilità di renderizzare in GPU).
Leggevo che qualcuno diceva di utilizzare, anzichè una quadro, una Rtx serie 20 per il render GPU (e quando parlo di render, non intendo quello volto ai videogames). Io sapevo fin ora che le Quadro rispetto alle Gtx sono molto più stabili; ci sono stati casi in cui ho avuto problemi utilizzando schede grafiche GTX per il gaming, con cui renderizzando tramite GPU, con altri software, ebbi problemi di stabilità, il video presentava problemi di flickering o altri tipi di problemi simili... Senza andare troppo fuori tema, volevo sapere prima di tutto se c'è qualcuno di voi che fa il mio stesso lavoro o simile e cosa sceglierà o ha già scelto, mettendosi difronte a questa scelta che Nvidia ora ci pone (Quadro RTX o RTX). E se sapete le date di uscita della serie Quadro. |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 18:48.