View Full Version : NVIDIA annuncia le prime schede Quadro RTX, con GPU Turing
Redazione di Hardware Upg
14-08-2018, 10:57
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5234/nvidia-annuncia-le-prime-schede-quadro-rtx-con-gpu-turing_index.html
La nuova generazione di schede video NVIDIA debutta ufficialmente con l'annuncio delle prime proposte con chip Turing: si tratta di 3 schede della famiglia Quadro RTX, destinate a sistemi workstation specificamente dedicate al Ray Tracing. A seguire, presumibilmente a breve, anche le prime soluzioni GeForce per il pubblico dei videogiocatori
Click sul link per visualizzare l'articolo.
AceGranger
14-08-2018, 11:28
Visto il live, GPU spettacolari, non c'è altro da aggiungere. Gran cosa che anche sulla "piccola" ci sia l'nVlink.
x la redazione, la RTX 6000 sono 16TFlopf.
nickname88
14-08-2018, 11:55
Quando parleranno dei chip per GeForce ne riparleremo, per ora i Tensor Core su un chip da 760mmq di sicuro avran poco a che fare con i modelli destinati all'ambiente ludico.
AceGranger
14-08-2018, 12:00
Quando parleranno dei chip per GeForce ne riparleremo, per ora i Tensor Core su un chip da 760mmq di sicuro avran poco a che fare con i modelli destinati all'ambiente ludico.
la cosa veramente importante mostrata ieri è l'RT Core, che sara quasi sicuramente anche sulle gaming, anzi, direi senza il quasi.
quindi per fare grafica ray tracing uno si prende una gaming invece che una quadro? (AKA: speraci poco).
AceGranger
14-08-2018, 13:42
quindi per fare grafica ray tracing uno si prende una gaming invece che una quadro? (AKA: speraci poco).
:asd: nulla di diverso da cio che avviene ora; se uno deve fare render GPGPU e non è limitato dai 12 GB di Vram prende le Titan mica le Quadro; le Quadro si usano per le Viewport.
Qualcuno più esperto mi spiega perché Volta è stato saltato praticamente? Era un'architettura di transizione?
Gyammy85
14-08-2018, 14:47
quindi per fare grafica ray tracing uno si prende una gaming invece che una quadro? (AKA: speraci poco).
Per grafica ray tracing si intende il riflessino sull'arma di metro exodus e poco altro eh, ovviamente via unità dedicate perché i cuda cores non si capisce bene che problema abbiano, unità computing che forse fanno solo le addizioni, per le moltiplicazioni servono le unità dedicate...
Qualcuno più esperto mi spiega perché Volta è stato saltato praticamente? Era un'architettura di transizione?
Temo che resterai deluso, perchè nessuno può darti la risposta...
quindi per fare grafica ray tracing uno si prende una gaming invece che una quadro? (AKA: speraci poco).
sempre e comunque bro!
Qualcuno più esperto mi spiega perché Volta è stato saltato praticamente? Era un'architettura di transizione?
volta era solo pascal con l'aggiunta di tensor core.
visto che i tensor core non servono nel gaming (o meglio ci sono altri metodi per calcolare matrici vettoriali e non serve ne un'estensione di vettori così elevata, ne tantomeno cotanta precisione), non aveva senso integrarlo nelle schede consumer (da qui #poorvolta).
ray tracing è una tecnologia più interessante, ma per creare il ray tracing real time, quello necessario per un gioco 3D, ci vuole una potenza computazionale che è di un'ordine superiore a quanto viene proposto oggi (con questa serie con unità dedicate).
quindi, per ora, al massimo può essere un mix tra la tecnologia di rendering normale e quella ray tracing usata per qualche effetto di luce.
logicamente anche il ray tracing, essendo una tecnica basata sul calcolo della riflessione dei raggi di luce, si calcola per matrici ed un vector processor sembrerebbe la cosa più adatta.
la questione, logicamente, è se viene supportata tale tecnologia (proprietaria).
inutile avere un'auto che va ad acqua se abiti sulla luna...
Roland74Fun
14-08-2018, 15:53
Mi domando, anche la successora della GT 1030 supporterà il RT? Fosse così rottamerei prontamente la mia 1030 per una di queste, così potrei giocare magari sempre a 720pLow@30FPS ma con i riflessi di luce tali da abbagliare gli amici che vengono a trovarmi.... :stordita: :stordita:
Gyammy85
14-08-2018, 15:58
Mi domando, anche la successora della GT 1030 supporterà il RT? Fosse così rottamerei prontamente la mia 1030 per una di queste, così potrei giocare magari sempre a 720pLow@30FPS ma con i riflessi di luce tali da abbagliare gli amici che vengono a trovarmi.... :stordita: :stordita:
https://s8.postimg.cc/uv5lukzud/h9xv6c.jpg (https://postimages.org/)
AceGranger
14-08-2018, 16:05
Per grafica ray tracing si intende il riflessino sull'arma di metro exodus e poco altro eh, ovviamente via unità dedicate perché i cuda cores non si capisce bene che problema abbiano, unità computing che forse fanno solo le addizioni, per le moltiplicazioni servono le unità dedicate...
questa è una delle tante minchiate che ti racconti la notte per dormire contento, perchè il raytracing puo essere impiegato in modo parziale in altri 10 modi piu produttivi come per esempio per la global illumination.
i CUDA core, come pure gli sp di AMD, sono semplicemente inefficienti in questo tipo di calcoli e cio ha richiesto hardware dedicato.
la questione, logicamente, è se viene supportata tale tecnologia (proprietaria).
inutile avere un'auto che va ad acqua se abiti sulla luna...
una questione su cui c'è poco da discutere visto che è gia in corso di adozione da parte dei big del settore:
Unity
Unrel Engine
Substance
Autodesk
Gyammy85
14-08-2018, 16:08
questo è una delle tante minchiate che ti racconti la notte per dormire contento, perchè il raytracing puo essere impiegato in modo parziale in altri 10 modi piu produttivi come per esempio per la global illumination.
i CUDA core, come pure gli sp di AMD, sono semplicemente inefficienti in questo tipo di calcoli e cio ha richiesto hardware dedicato.
Io ipotizzo in base alle esperienze passate con pysics, e non scordo che i primi tempi senza scheda nvidia dedicata metro 2033 andava a 5 fps, poi un bel giorno, quasi per magia, anche via software girava bene.
Ah, la global illumination, che amd cerca di portare avanti fin dal 2008 con le dx 10.1...eh, si potrebbero riempire libri…
Comunque non voglio essere polemico, se non altro vedremo cosa ci riserva navi, il primato nel computing non va perso :D
Gyammy85
14-08-2018, 16:12
questa è una delle tante minchiate che ti racconti la notte per dormire contento, perchè il raytracing puo essere impiegato in modo parziale in altri 10 modi piu produttivi come per esempio per la global illumination.
i CUDA core, come pure gli sp di AMD, sono semplicemente inefficienti in questo tipo di calcoli e cio ha richiesto hardware dedicato.
una questione su cui c'è poco da discutere visto che è gia in corso di adozione da parte dei big del settore:
Unity
Unrel Engine
Substance
Autodesk
Ma guarda un pò che sorpresa :asd: :sofico:
AceGranger
14-08-2018, 16:15
Io ipotizzo in base alle esperienze passate con pysics, e non scordo che i primi tempi senza scheda nvidia dedicata metro 2033 andava a 5 fps, poi un bel giorno, quasi per magia, anche via software girava bene.
Ah, la global illumination, che amd cerca di portare avanti fina dal 2008 con le dx 10.1...eh, si potrebbero riempire libri...
certo certo, la fanta global illumination delle dx...
tu ipotizzi e parli sempre di cose di cui hai letto solo il nome :doh: ma che non hai la ben che minima idea di cosa siano :asd:
Ma guarda un pò che sorpresa :asd: :sofico:
ah gia, che a te piacciono solo i game engine che fanno apparire le VEGA meno cesso di quello che sono :asd:
ciciolo1974
14-08-2018, 16:34
:asd: nulla di diverso da cio che avviene ora; se uno deve fare render GPGPU e non è limitato dai 12 GB di Vram prende le Titan mica le Quadro; le Quadro si usano per le Viewport.
Quindi questi tensor core non servono ad "aioutare" i CUDA nel calcolo GPGPU render? (octane nello specifico)
Roland74Fun
14-08-2018, 16:45
...che a te piacciono solo i game engine che fanno apparire le VEGA meno cesso di quello che sono :asd:
Si, però questo è un thread dedicato a Nvidia.... possiamo per favore parlare solo delle nostre schede senza inquinarlo tirando fuori le cose delle altre marche?
Grazie.
Quindi questi tensor core non servono ad "aioutare" i CUDA nel calcolo GPGPU render? (octane nello specifico)
Si, servono per velocizzare il denoiser del raytracing. (optix)
L'immagine viene renderizzata con pochi sample, altrimenti sarebbe impossibile farlo in real-time. Dopodiché tramite algoritmi deep learning l'immagine viene ripulita dal rumore.
Si, però questo è un thread dedicato a Nvidia.... possiamo per favore parlare solo delle nostre schede senza inquinarlo tirando fuori le cose delle altre marche?
Grazie.
Senti da che pulpito, ma se sei venuto a trollare insieme allo scemo del villaggio...:sofico:
Dovete mandare in vacca ogni thread così tanto per sport... :doh:
AceGranger
14-08-2018, 16:53
Quindi questi tensor core non servono ad "aioutare" i CUDA nel calcolo GPGPU render? (octane nello specifico)
nel calcolo diretto non credo, che io sappia, tutti i motori di render attuali sono solo FP32 ( anche perchè a FP16 avresti un decadimento della qualita dovuta ad approssimazioni dell'illuminazione troppo marcate ); con il post de-noise invece credo di si, in quel caso i pixel sono gia stati calcolati in modo accurato e vai solo a "uniformare" i pixel.
credo che per ora varra piu che altro per i game engine; a quanto si è visto dalle slide, tutti e 3 i tipi di Core, i CUDA, l'RT e i Tensor dovrebbero concorrere a calcolare l'immagine finale, ognuno per cio che gli compete;
nel caso specifico pero credo che sara di piu l'RT Core a fare la parte del leone; non hanno ancora spiegato cosa sia in modo dettagliato pero presumo, ( mia personale deduzione ) che si tratti di unita di calcolo specifiche atte solo a calcolare il percorso dei raggi luminosi e dei relativi rimbalzi, mentre il resto dei calcoli vengono svolti dai classici CUDA.
Si, però questo è un thread dedicato a Nvidia.... possiamo per favore parlare solo delle nostre schede senza inquinarlo tirando fuori le cose delle altre marche?
Grazie.
sono piu che in argomento
prego.
Legolas84
14-08-2018, 16:55
Senti da che pulpito, ma se sei venuto a trollare insieme allo scemo del villaggio...:sofico:
Dovete mandare in vacca ogni thread così tanto per sport... :doh:
looool
Ps
Ciao Ren che piacere rivederti da queste parti, era da un pò che non ti leggevo. Curioso di sentire poi la tua analisi/opinione su questa nuova architettura. ;)
l'RT Core a fare la parte del leone; non hanno ancora spiegato cosa sia in modo dettagliato pero presumo, ( mia personale deduzione ) che si tratti di unita di calcolo specifiche atte solo a calcolare il percorso dei raggi luminosi e dei relativi rimbalzi, mentre il resto dei calcoli vengono svolti dai classici CUDA.
Secondo me è una deduzione molto probabile. ;)
Già alcune aziende (non colossi come nvidia) in passano ci hanno provato, ma con scarsi risultati, visto anche l'assenza di una standardizzazione sponsorizzata da Microsoft.
Alcune implementazioni che ho visto oltre al setup dei ray hanno anche parecchie unità atte ad un culling massivo per i raggi che non contribuiscono all'immagine finale.
Se non ricordo male imgtec parlava di un risparmio di area di 40 volte per un unità di hardware (setup) rispetto all'implementazione via shader.
AceGranger
14-08-2018, 17:20
Secondo me è una deduzione molto probabile. ;)
Già alcune aziende (non colossi come nvidia) in passano ci hanno provato, ma con scarsi risultati, visto l'assenza di una standardizzazione sponsorizzata da Microsoft.
Alcune implementazioni che ho visto oltre al setup dei ray hanno anche parecchie unità atte ad un culling massivo per i raggi che non contribuiscono all'immagine finale.
Se non ricordo male imgtec parlava di un risparmio di area di 40 volte per un unità di hardware (setup) rispetto all'implementazione via shader.
si avevo letto e infatti stavo aspettando solo il giorno di vederle nel mercato "consumer".
in questo caso credo che lo standard lo abbia fatto nVidia, perchè alcuni dei suoi algoritmi sono integrati nei motori di render attuali come Vray, e magari si baseranno anche su algoritmi simili agli embree di Intel.
si avevo letto e infatti stavo aspettando solo il giorno di vederle nel mercato "consumer".
in questo caso credo che lo standard lo abbia fatto nVidia, perchè alcuni dei suoi algoritmi sono integrati nei motori di render attuali come Vray, e magari si baseranno anche su algoritmi simili agli embree di Intel.
cmq tanta roba per i professionisti.
Se non spuntano fuori magagne credo sarà un duro colpo per i produttori di CPU/renderfarm. (soprattutto intel)
Stai mettendo da parte i soldi per il regalo di natale ?(uscita Q4 secondo anandtech) ;)
Lo slogan da venditore di pentole recita :
The more GPUs you buy, the more money you save. :sofico:
Quando "giacca di pelle" ha annunciato il prezzo di 10k ed ha detto "ironicamente" che è un furto mi sono ribaltato.:asd:
AceGranger
14-08-2018, 18:31
cmq tanta roba per i professionisti.
Se non spuntano fuori magagne credo sarà un duro colpo per i produttori di CPU/renderfarm. (soprattutto intel)
Stai mettendo da parte i soldi per il regalo di natale ?(uscita Q4 secondo anandtech) ;)
Lo slogan da venditore di pentole recita :
The more GPUs you buy, the more money you save. :sofico:
Quando "giacca di pelle" ha annunciato il prezzo di 10k ed ha detto "ironicamente" che è un furto mi sono ribaltato.:asd:
quast'anno no, ho la casa :(
aspetto l'anno prossimo, l'assestamento dei prezzi, la Titan/Ti, e vedo un po anche come si muovono le software house in particolar modo l'Unreal e Chaos Group, e poi decido cosa prendere, anche perchè oltre all'Ray Tracing e all'RT, con i modelli scansionati inizio a stare un po strettino con la FE, necessito di piu potenza :D
si bè, 10K è effettivamente un furto, pero è la GPU per quelli a cui stanno stretti 48 Gb di Vram, quindi alla fine si tratta di poche realta che di certo se lo possono permettere di prenderle a coppie e andare di nVlink a 96GB.
nickname88
14-08-2018, 20:41
ah gia, che a te piacciono solo i game engine che fanno apparire le VEGA meno cesso di quello che sono :asd:
Stai parlando con uno che ancora non è riuscito a capire la differenza di carico che c'è nell'elaborazione fra il riproduzione un vasto ambiente open world e uno scenario chiuso.
Gyammy85
14-08-2018, 21:16
Stai parlando con uno che ancora non è riuscito a capire la differenza di carico che c'è nell'elaborazione fra il riproduzione un vasto ambiente open world e uno scenario chiuso.
Ma smettila, si parlava tranquillamente del nuovo doom e arrivi tu "eh ma gli open worldddd"
nickname88
14-08-2018, 22:52
Ma smettila, si parlava tranquillamente del nuovo doom e arrivi tu "eh ma gli open worldddd"
E ancora continui a non capire il perchè.
Io ipotizzo in base alle esperienze passate con pysics, e non scordo che i primi tempi senza scheda nvidia dedicata metro 2033 andava a 5 fps, poi un bel giorno, quasi per magia, anche via software girava bene.
Ah, la global illumination, che amd cerca di portare avanti fin dal 2008 con le dx 10.1...eh, si potrebbero riempire libri…
Comunque non voglio essere polemico, se non altro vedremo cosa ci riserva navi, il primato nel computing non va perso :D
Beh... bastava togliere il fumo volumetrico e altri 3/4 effetti pesanti. :rolleyes:
Gyammy85
15-08-2018, 09:08
Beh... bastava togliere il fumo volumetrico e altri 3/4 effetti pesanti. :rolleyes:
Parlavo degli effetti aggiuntivi physics, che richiedevano inizialmente una geforce per andare, in assenza della quale il gioco a andava a 5 fps.
mi ricorda molto il trailer di the division all'e3 del 2013....
poi usci il gioco con rendering tradizionale invece che raytracing.
per capirci era questo...
https://www.youtube.com/watch?v=njfj6KwEAfg&t=74s
sertopica
15-08-2018, 10:58
Ottimo traguardo, di strada da fare ce n'e' ancora taaaaaaanta pero'.
Bisognerebbe notare che poco più di una generazione si è iniziato un percorso inverso da quello intrapreso con il passaggio alle DX10, dove si è passati dai pixel e vertex shader agli shader unificati.
Ora l'introduzione di nuove esigenze di calcolo porta a nuovamente a creare unità di calcolo distinte, e abbiamo ora CUDA core (i "vecchi" shader unificati), i Tensor Cores (per i calcoli di IA) e ora anche gli RT core (per il raytracing).
C'è da chiedersi se nelle prossime architettura si cercherà di integrare questi elementi distinti compiendo di nuovo il passo che si è fatto con gli shader unificati.
Ad ogni modo non me ne preoccuperei troppo, per lo meno in relazione al mercato consumer, dato che nel mercato professionale si avrà sicuramente modo di sfruttare appieno queste caratteristiche, che nascono da esigenze specifiche. Non me ne preoccuperei perchè questi non sono altri che i primissimi esperimenti di una tecnologia destinata a cambiare molto in fretta nei prossimi anni, quindi sicuramente ne vedremo qualche applicazione, ma nulla di davvero irrinunciabile. Quando queste tecnologie si stabilizzeranno allora credo che la questione diventerà molto più interessante per tutti.
Gyammy85
15-08-2018, 19:57
Bisognerebbe notare che poco più di una generazione si è iniziato un percorso inverso da quello intrapreso con il passaggio alle DX10, dove si è passati dai pixel e vertex shader agli shader unificati.
Ora l'introduzione di nuove esigenze di calcolo porta a nuovamente a creare unità di calcolo distinte, e abbiamo ora CUDA core (i "vecchi" shader unificati), i Tensor Cores (per i calcoli di IA) e ora anche gli RT core (per il raytracing).
C'è da chiedersi se nelle prossime architettura si cercherà di integrare questi elementi distinti compiendo di nuovo il passo che si è fatto con gli shader unificati.
Ad ogni modo non me ne preoccuperei troppo, per lo meno in relazione al mercato consumer, dato che nel mercato professionale si avrà sicuramente modo di sfruttare appieno queste caratteristiche, che nascono da esigenze specifiche. Non me ne preoccuperei perchè questi non sono altri che i primissimi esperimenti di una tecnologia destinata a cambiare molto in fretta nei prossimi anni, quindi sicuramente ne vedremo qualche applicazione, ma nulla di davvero irrinunciabile. Quando queste tecnologie si stabilizzeranno allora credo che la questione diventerà molto più interessante per tutti.
Scusa, ma se amd fa la gpu con tanti shader che fanno tutto, nvidia perché mai dovrebbe unificare, dando ragione a amd? Faranno unità dedicate per tutto, perché perdere tempo a progettare una gpu versatile ed efficiente, quando puoi fare un quartiere di piccoli processori per un pò tutto? Una volta si mettevano i chip sulle mb, probabilmente si tornerà a questo, chissà...
@Gyammy85
Francamente non vedo il senso del tuo intervento. AMD ha gli shader che fanno tutto perchè nelle attuali architetture non ha ancora ne hardware dedicato all'IA ne al RayTracing. Quando li avrà (si suppone al prossimo giro) vedremo che strada avrà preso e quale sarà la soluzione migliore.
Se le diverse operazioni necessitano di calcoli di tipo completamente differente credo che in futuro vedremo unità dedicate, se invece sarà possibile adattare un'unica unità di calcolo a svolgere tutte queste operazioni con una buona efficienza, allora si è probabile che si adotti la strada dell'unificazione come è stato per gli shader.
Il vantaggio nell'unificare sta ovviamente nel poter poi ripartire le risorse come si preferisce a seconda del tipo di carico di lavoro, ma se poi le unità unificate sono inefficienti questo vantaggio diventa insufficiente.
Secondo me per promuovere realmente il RayTracing in tempo reale la soluzione migliore è quella della scheda acceleratrice dedicata: le unità integrate mi danno l'idea di "troppo poco" e troppo poco flessibile (una scheda dedicata puoi cambiarla senza sostituire tutto il reparto GPU, e in un momento di evoluzione di questa tecnologia può essere un grande pregio).
AceGranger
15-08-2018, 21:07
Scusa, ma se amd fa la gpu con tanti shader che fanno tutto, nvidia perché mai dovrebbe unificare, dando ragione a amd? Faranno unità dedicate per tutto, perché perdere tempo a progettare una gpu versatile ed efficiente, quando puoi fare un quartiere di piccoli processori per un pò tutto? Una volta si mettevano i chip sulle mb, probabilmente si tornerà a questo, chissà...
le GPU AMD non sono per nulla efficienti ed è per questo che quasi non esistono in ambito Pro e non esistono proprio in ambito Compute;
gli shader di AMD fanno tutto quello che fanno i CUDA Core, e poi si fermano li, punto, mentre nVidia con le unita dedicate riesce ad ottenere risultati di gran lunga migliori.
se AMD non iniziera ad integrare unita dedicate semplicemente non andra da nessuna parte; chi mai le acquistera delle Instinct con 40 TFlops FP16 quando nVidia ne fa 32 via CUDA e altri 125 via Tensor ?
Gyammy85
16-08-2018, 09:33
le GPU AMD non sono per nulla efficienti ed è per questo che quasi non esistono in ambito Pro e non esistono proprio in ambito Compute;
gli shader di AMD fanno tutto quello che fanno i CUDA Core, e poi si fermano li, punto, mentre nVidia con le unita dedicate riesce ad ottenere risultati di gran lunga migliori.
se AMD non iniziera ad integrare unita dedicate semplicemente non andra da nessuna parte; chi mai le acquistera delle Instinct con 40 TFlops FP16 quando nVidia ne fa 32 via CUDA e altri 125 via Tensor ?
Ok ma facciamole uscire prima di dichiarare il fail di amd no? :asd:
hype hype hype hype, e non abbiamo ancora visto un 3dmark :eek: :eek:
omihalcon
16-08-2018, 10:21
@Gyammy85
Secondo me per promuovere realmente il RayTracing in tempo reale la soluzione migliore è quella della scheda acceleratrice dedicata: le unità integrate mi danno l'idea di "troppo poco" e troppo poco flessibile (una scheda dedicata puoi cambiarla senza sostituire tutto il reparto GPU, e in un momento di evoluzione di questa tecnologia può essere un grande pregio).
Sono d'accordo ma questo però si scontra con il business basato sul consumismo attuale.
Preferiranno come al solito la soluzione all-in-one per far spendere un pò di soldi.
Puor parler, visto che non sono aggiornato sulle ultime tecnologie, Tensor Core e RT core aumentano efficienza e prestazioni nel mining?
Mi dispiacerebbe che continui l'inflazione sulle schede discrete in vista delle nuove GPU fascia Gaming.
Sicuramente l'anno scorso sono stati guadagni per i produttori ma crucio del 98% del resto del mondo (godo che adesso le cripto siano giù e che non sia tanto conveniente fare mining).
Per questo aspetto sarebbe più furbo costruire schede ad-hoc come erano le prime Physx .
---della serie vorrei cambiare la VGA ma non è concepibile tornare a prezzi allucinati di qualche mese fa
omihalcon
16-08-2018, 10:22
Ok ma facciamole uscire prima di dichiarare il fail di amd no? :asd:
hype hype hype hype, e non abbiamo ancora visto un 3dmark :eek: :eek:
Va ancora di moda il 3Dmark? :D
Gyammy85
16-08-2018, 10:43
Va ancora di moda il 3Dmark? :D
Evidentemente no, se no saremmo sommersi da barrette...:D
Sono d'accordo ma questo però si scontra con il business basato sul consumismo attuale.
Preferiranno come al solito la soluzione all-in-one per far spendere un pò di soldi.
In realtà sarebbe una soluzione meno a rischio anche per i produttori: con le soluzioni integrate c'è sempre il rischio di sprecare prezioso silicio per qualcosa che poi in realtà potrebbe rivelarsi inadatto.
Cosa succederebbe per esempio se il concorrente facesse uscire una scheda con capacità doppie o triple per il raytracing? Siamo ancora agli inizi e ancora non si sa quale sia il giusto bilanciamento.
Nvidia probabilmente ha optato per questa soluzione anche perchè è ancora in grado di imporre uno "standard" e gli sviluppatori software la seguono perchè più diffusa.
della serie vorrei cambiare la VGA ma non è concepibile tornare a prezzi allucinati di qualche mese fa
Quella dei prezzi delle attuali schede video, insieme a quello delle RAM, sta diventando paradossale.
Devo tirar su una nuova macchina senza pretese, se opto per una APU mi tocca spendere una fortuna in memorie, se invece prendo CPU+VGA il salasso è su quest'ultima. Ci fosse una scheda video di fascia bassa e di ultima generazione per 50-60 euro risolverei con quella.
Gyammy85
16-08-2018, 11:18
In realtà sarebbe una soluzione meno a rischio anche per i produttori: con le soluzioni integrate c'è sempre il rischio di sprecare prezioso silicio per qualcosa che poi in realtà potrebbe rivelarsi inadatto.
Cosa succederebbe per esempio se il concorrente facesse uscire una scheda con capacità doppie o triple per il raytracing? Siamo ancora agli inizi e ancora non si sa quale sia il giusto bilanciamento.
Nvidia probabilmente ha optato per questa soluzione anche perchè è ancora in grado di imporre uno "standard" e gli sviluppatori software la seguono perchè più diffusa.
Calabar alla fine diciamo le stesse cose, io dicevo infatti che la corsa alle unità dedicate è rischiosa, perché se non le usi sprechi silicio. Personalmente, penso che se ora facessero un benchmark amd non ne uscirebbe male, anzi (amd emula un sacco di cose sullo shader core, 64 cu che si mettono a fare raytracing non credo facciano così schifo).
Quoto anche la parte dopo, anche se molti continuano a negare l'evidenza...ormai siamo pieni di "standard" pagati a caro prezzo.
AceGranger
16-08-2018, 11:30
In realtà sarebbe una soluzione meno a rischio anche per i produttori: con le soluzioni integrate c'è sempre il rischio di sprecare prezioso silicio per qualcosa che poi in realtà potrebbe rivelarsi inadatto.
Cosa succederebbe per esempio se il concorrente facesse uscire una scheda con capacità doppie o triple per il raytracing? Siamo ancora agli inizi e ancora non si sa quale sia il giusto bilanciamento.
Nvidia probabilmente ha optato per questa soluzione anche perchè è ancora in grado di imporre uno "standard" e gli sviluppatori software la seguono perchè più diffusa.
in questo caso non credo, perchè la parte RT è stata sviluppata direttamente con le software house e il bilanciamento credo sia stato fatto anche partendo da Volta che aveva la parte Ray-Tracing spalmata sui CUDA.
La parte RT Core è "a se stante" ma è integrato nel processo ibrido di rendering, farla esterna credo che avrebbe complicato le cose nel calcolo ibrido;
oltretutto fare una scheda dedicata avrebbe voluto dire anche rallentarne il processo di adozione, e farne aumentare il costo.
nelle Pro c'è anche l'nVlink che è un gradino sopra allo SLI/CF e mette i chip direttamente a contatto andando a condividere anche la Vram; rispeto al PC-EX hai una connessione con maggiore banda, dedicata alla sola comunicazione con le GPU e con minori latenze.
Altra cosa da tenere a mente con l'RT è la parte Tensor Core, che si occupa del De-Noise Ai; non sono molto separabili le cose perchè tutte concorrono al Raytracing finale.
ci sara da vedere solo cosa vorra fare nVidia con le gaming, perchè attualmente il raytracing è impiegabile in vari modi e a vari livelli e magari con le gaming iniziera con una variante piu blanda dedicata solo a qualche pass.
il 20 agosto vedremo
Calabar alla fine diciamo le stesse cose, io dicevo infatti che la corsa alle unità dedicate è rischiosa, perché se non le usi sprechi silicio. Personalmente, penso che se ora facessero un benchmark amd non ne uscirebbe male, anzi (amd emula un sacco di cose sullo shader core, 64 cu che si mettono a fare raytracing non credo facciano così schifo).
Quoto anche la parte dopo, anche se molti continuano a negare l'evidenza...ormai siamo pieni di "standard" pagati a caro prezzo.
se una singola RTX 6000 è riuscita a far girare la demo di Star Wars che prima girava su 4 Titan V, AMD ne uscirebbe con le ossa rotte.
solo tu neghi l'evidenza che si è arrivati a un punto dove le unita dedicate sono necessarie perchè si è arrivati al limite di TDP e al limite di dimensione del silicio e le unita unificate sono inefficienti.
te l'ho gia scritto ma ovviamente lo hai ignorato; le unita unificate sono nate per una questione di PRATICITA e perchè era impossibile avere un gioco sempre bilanciato nella tipologia di calcolo, ma sono SEMPRE state meno efficienti ( e sempre lo saranno ), rispetto ad unita dedicate ma che haime, non si possono usare.
e come se ti stessi lamentando dell'integrazione del decoder hardware video nella GPU che poteva benissimo essere fatto dagli shader, ma invece di consumare pochi W lo faresti con tutta la GPU :asd:
ormai siamo pieni di "standard" pagati a caro prezzo.
visto che l'alternativa è il supporto di AMD, preferisco pagare e avere quache cosa di funzionante subito, non aspettare 5 anni perchè ha lasciato lo "standard" sul groppone degli sviluppatori.
@AceGranger
Mi riferivo al mercato dei videogiochi, dove non c'è ancora nulla e trovare il giusto bilanciamento non è così semplice. Per il mercato professionale, come dicevo, lo sviluppo nasce dalle richieste del settore.
Ad ogni modo non credo che per il mercato professionale sarebbe stato un problema l'acquisto di una scheda acceleratrice, chi ha bisogno di quel tipo di prodotti di certo non ha problemi ad acquistarla se esiste un vantaggio (anzi... magari sarebbe felice di farlo perchè non dovrebbe sostituire le Volta appena acquistate a caro prezzo).
AceGranger
16-08-2018, 12:31
@AceGranger
Mi riferivo al mercato dei videogiochi, dove non c'è ancora nulla e trovare il giusto bilanciamento non è così semplice. Per il mercato professionale, come dicevo, lo sviluppo nasce dalle richieste del settore.
in questo campo videogiochi e mercato Pro stanno andando a braccetto; non c'è differenza fra il girovagare e sparare agli zombie o girovagare per vedere un arredo e aprire i veri arredi e porte, come non c'è differenza fra il girare fra una citta distrutta per compiere una missione e girovagare per vedere un Masterplan.
è da un paio di anni che si sta iniziando ad utilizzare Unreal/Unity in campo Visual Pro, sia architettonico sia Automotive, l'RT è solo la naturale evoluzione per avere una resa grafica migliore e piu accurata sia in campo gaming che Pro, e soprattutto istantanea.
@AceGranger
Ad ogni modo non credo che per il mercato professionale sarebbe stato un problema l'acquisto di una scheda acceleratrice, chi ha bisogno di quel tipo di prodotti di certo non ha problemi ad acquistarla se esiste un vantaggio (anzi... magari sarebbe felice di farlo perchè non dovrebbe sostituire le Volta appena acquistate a caro prezzo).
in campo pro si sono gia viste soluzioni hardware acceleratrici dedicate al solo ray-tracing ma non hanno mai sfondato, nemmeno nelle grosse produzioni che si fanno i sofware in casa;
una soluzione di questo tipo è nettamente preferibile, visto che poi si tratta comunque di visualizzazioni "ibride" e non pure ray-tracing; con una scheda di questo tipo prendi il meglio da ogni tipo di unita di calcolo; hai una parte dedicata all'RT, una parte dedicata all'Ai e la parte dei CUDA core che possono fare tutto, volendo anche la parte RT e Ai.
@AceGranger
La fai troppo facile. Nel mercato consumer ci vuol poco a cambiare le esigenze a seconda di come si muove il mercato e lo sviluppo di una tecnologia che è nuova in questo settore.
Queste andranno bene semplicemente perchè gli sviluppatori baseranno molto del loro lavoro su hardware nVidia, ma ho idea che questo tipo di soluzioni tutto in uno diventeranno presto obsolete, gli equilibri si troveranno nelle prossime generazioni.
Per il mondo professionale il motivo per cui le schede acceleratrici per il ray-tracing non hanno avuto grandissima diffusione possono essere molteplici, ma del resto questa è la prima volta che un grande produttore di schede video entra in questo specifico mercato e le cose sarebbero potute andare molto diversamente con una soluzione dedicata.
Gyammy85
16-08-2018, 19:47
@AceGranger
Amd ha un'architettura votata al computing fin dal 2012, non avranno problemi a tirar fuori una soluzione comparabile o migliore per il ray
nickname88
16-08-2018, 20:01
@AceGranger
Amd ha un'architettura votata al computing fin dal 2012, non avranno problemi a tirar fuori una soluzione comparabile o migliore per il rayeh certo come no, ci crediamo guarda.
A loro basta uno schiocco di dita.
bagnino89
16-08-2018, 20:14
@AceGranger
Amd ha un'architettura votata al computing fin dal 2012, non avranno problemi a tirar fuori una soluzione comparabile o migliore per il ray
Eh sì, però guarda caso Nvidia arriva sempre prima. :asd:
AceGranger
17-08-2018, 01:57
@AceGranger
La fai troppo facile. Nel mercato consumer ci vuol poco a cambiare le esigenze a seconda di come si muove il mercato e lo sviluppo di una tecnologia che è nuova in questo settore.
Queste andranno bene semplicemente perchè gli sviluppatori baseranno molto del loro lavoro su hardware nVidia, ma ho idea che questo tipo di soluzioni tutto in uno diventeranno presto obsolete, gli equilibri si troveranno nelle prossime generazioni.
Per il mondo professionale il motivo per cui le schede acceleratrici per il ray-tracing non hanno avuto grandissima diffusione possono essere molteplici, ma del resto questa è la prima volta che un grande produttore di schede video entra in questo specifico mercato e le cose sarebbero potute andare molto diversamente con una soluzione dedicata.
guarda, negli ultimi 10 anni ho visto cambiare piu cose in ambito Pro, che nel mercato gaming...
la soluzione totalmente dedicata, ripeto, avrebbe creato piu problemi che altro, specialmente agli sviluppatori; cosi invece si rimane in ambito DirectX e CUDA.
@AceGranger
Amd ha un'architettura votata al computing fin dal 2012, non avranno problemi a tirar fuori una soluzione comparabile o migliore per il ray
votata al computing in quale mondo parallelo :asd: ? è dall'uscita della prima Tesla che in campo computing AMD non se la caga nessuno...
riuscira a fare risultati comparabili solo e soltanto se fara delle sue unita dedicate, seno continuera a stare dove sta, sugli scaffali, perchè 8 su 10 continueranno a essere Quadro e 99 su 100 Tesla.
tuttodigitale
17-08-2018, 09:30
volta era solo pascal con l'aggiunta di tensor core.
Turing sembra essere molto più simile a Volta di quanto non lo sia quest'ultimo con Pascal, vedi cache L1 data/condivisa unificata, la presenza di un RT engine, core integer dedicati e probabilmente anche la maggior flessibilità nella pianificazione dei thread rispetto a quanto visto in Pascal...
Le modifiche da Volta sembrerebbero limitati alla flessibilità dei Tensor core e probabilmente un maggior numero di unità a funzione fissa per accelerare il RT.
Invece, dall'omissione (voluta?) sembrerebbe cbe Turing non abbia un throughput FP16 doppio rispetto a FP32 come VEGA/VOLTA, ma incrementi prestazionali dovuti alla semplice risparmio della banda passante, come quelle viste in Fiji/Polaris, comunque un netto miglioramento rispetto a quanto oggi reso disponibile con Pascal consumer dove si assiste ad un calo di prestazioni di un fattore 10 con l'uso della mezza precisione.
volta era solo pascal con l'aggiunta di tensor core.
visto che i tensor core non servono nel gaming (o meglio ci sono altri metodi per calcolare matrici vettoriali e non serve ne un'estensione di vettori così elevata, ne tantomeno cotanta precisione), non aveva senso integrarlo nelle schede consumer (da qui #poorvolta).
ray tracing è una tecnologia più interessante, ma per creare il ray tracing real time, quello necessario per un gioco 3D, ci vuole una potenza computazionale che è di un'ordine superiore a quanto viene proposto oggi (con questa serie con unità dedicate).
aspetta un attimo. Secondo nvidia i tensor core migliorano le prestazioni del RT, quindi non sarebbero inutili, anzi persino necessari visto la potenza computazionale richiesta.
E poi pare che Volta con l'introduzione di Turing non sia più compatibile con la tecnologia RTX....
dal comunicato stampa di nvidia, in certi frangenti si ha davvero l'impressione che la società californiana confronti Turing con Pascal, per aumentare il numero delle novità rispetto alla precedente (quale?) architettura.
AceGranger
17-08-2018, 10:32
Turing sembra essere molto più simile a Volta di quanto non lo sia quest'ultimo con Pascal, vedi cache L1 data/condivisa unificata, la presenza di un RT engine, core integer dedicati e probabilmente anche la maggior flessibilità nella pianificazione dei thread rispetto a quanto visto in Pascal...
Le modifiche da Volta sembrerebbero limitati alla flessibilità dei Tensor core e probabilmente un maggior numero di unità a funzione fissa per accelerare il RT.
Invece, dall'omissione (voluta?) sembrerebbe cbe Turing non abbia un throughput FP16 doppio rispetto a FP32 come VEGA/VOLTA, ma incrementi prestazionali dovuti alla semplice risparmio della banda passante, come quelle viste in Fiji/Polaris, comunque un netto miglioramento rispetto a quanto oggi reso disponibile con Pascal consumer dove si assiste ad un calo di prestazioni di un fattore 10 con l'uso della mezza precisione.
in Pascal l'FP16 è 1/64; in turing, almeno nelle Pro, i TFLops sicuri saranno 16 + 125 dei Tensor.
aspetta un attimo. Secondo nvidia i tensor core migliorano le prestazioni del RT, quindi non sarebbero inutili, anzi persino necessari visto la potenza computazionale richiesta.
si, teoricamente dovrebbero servire per il denoise, quindi a far uscire prima i frame puliti facendo passare l'RT core al frame successivo.
E poi pare che Volta con l'introduzione di Turing non sia più compatibile con la tecnologia RTX....
mi sembra strano, pero potrebbe anche essere, visto che in Volta i calcoli della GI venivano effettuati con i CUDA Core, mentre oravengono spostati interamente all' RT Core, quindi probabilmente cambiera tutta la parte software.
dal comunicato stampa di nvidia, in certi frangenti si ha davvero l'impressione che la società californiana confronti Turing con Pascal, per aumentare il numero delle novità rispetto alla precedente (quale?) architettura.
eh bè ma alla fine Turing è diretto successore di Pascal; di Volta si è visto 1 solo chip e solo Compute.
guarda, negli ultimi 10 anni ho visto cambiare piu cose in ambito Pro, che nel mercato gaming...
Si tratta però di un mercato diverso.
In ambito professionale la scheda è un investimento, la compri quando sei in grado di sfruttarla e ottenerne un vantaggio produttivo. Se dopo una anno devi cambiarla non è un grosso problema, l'hai sfruttata e comprarne un'altra che ti garantisce ulteriori vantaggi non è una spesa ma un altro investimento.
Al contrario in ambito gaming, escludendo chi cambia scheda ogni anno per avere sempre il top delle prestazioni, si ha molta più difficoltà a digerire questo cambio di hardware. Se io oggi compro una scheda per gioco (e questa è una spesa, non un investimento, dato che non ne ho un ritorno economico) voglio sperare di poterla utilizzare nei prossimi anni senza particolari patimenti, ma questo è molto difficile che avvenga con una soluzione acerba e integrata, che non mi consente altre soluzioni che sostituire l'intera scheda.
la soluzione totalmente dedicata, ripeto, avrebbe creato piu problemi che altro, specialmente agli sviluppatori; cosi invece si rimane in ambito DirectX e CUDA.
Potrebbero anche con una soluzione dedicata, lavorando sull'ecosistema software questa separazione sarebbe potuta essere trasparente per l'utente. In compenso si avrebbe avuto un sistema molto più flessibile con potenza computazionale adatta alle diverse esigenze e facilmente aggiornabile.
In ambito tecnico non mi ci spingo, perchè non so valutare se il fatto di stare in schede separate possa creare dei colli di bottiglia. Immagino però che questo potrebbe essere il campo perfetto per l'uso dell'NVlink.
in campo computing AMD non se la caga nessuno...
Questo più che all'architettura credo sia legato al supporto software.
Le unità dedicate per IA e RT sono aggiunte dell'ultima generazione (considerando Volta come una mezza generazione), immagino che anche AMD adotterà un approccio simile con le nuove schede, a meno che naturalmente non trovi una soluzione che ritiene migliore.
AceGranger
17-08-2018, 11:45
Si tratta però di un mercato diverso.
In ambito professionale la scheda è un investimento, la compri quando sei in grado di sfruttarla e ottenerne un vantaggio produttivo. Se dopo una anno devi cambiarla non è un grosso problema, l'hai sfruttata e comprarne un'altra che ti garantisce ulteriori vantaggi non è una spesa ma un altro investimento.
Al contrario in ambito gaming, escludendo chi cambia scheda ogni anno per avere sempre il top delle prestazioni, si ha molta più difficoltà a digerire questo cambio di hardware. Se io oggi compro una scheda per gioco (e questa è una spesa, non un investimento, dato che non ne ho un ritorno economico) voglio sperare di poterla utilizzare nei prossimi anni senza particolari patimenti, ma questo è molto difficile che avvenga con una soluzione acerba e integrata, che non mi consente altre soluzioni che sostituire l'intera scheda.
Potrebbero anche con una soluzione dedicata, lavorando sull'ecosistema software questa separazione sarebbe potuta essere trasparente per l'utente. In compenso si avrebbe avuto un sistema molto più flessibile con potenza computazionale adatta alle diverse esigenze e facilmente aggiornabile.
In ambito tecnico non mi ci spingo, perchè non so valutare se il fatto di stare in schede separate possa creare dei colli di bottiglia. Immagino però che questo potrebbe essere il campo perfetto per l'uso dell'NVlink.
la vediamo in modo diverso, e da utilizzatore, ti dico che una dedicata sarebbe stato un flop, anche nel mercato Pro, come è stato fino ad ora.
Questo più che all'architettura credo sia legato al supporto software.
Le unità dedicate per IA e RT sono aggiunte dell'ultima generazione (considerando Volta come una mezza generazione), immagino che anche AMD adotterà un approccio simile con le nuove schede, a meno che naturalmente non trovi una soluzione che ritiene migliore.
AMD non ha mai sfondato anche perchè non è mai stata efficiente; CUDA è stato solo il colpo di grazia e nelle 2 ultime generazioni il divario è diventato un abisso.
... ti dico che una dedicata sarebbe stato un flop, anche nel mercato Pro, come è stato fino ad ora.
Quel che è stato fino ad ora non è detto che debba ripetersi: ci possono essere condizioni che cambiano le carte in tavola, e l'ingresso di Nvidia e/o AMD avrebbe potuto farlo a mio parere.
Le soluzioni integrate hanno comunque un indubbio vantaggio: favoriscono le diffusione di una tecnologia. Se tutte le schede hanno quella funzionalità, gli sviluppatori sono più motivati ad investire risorse in essa.
Però ho pensato che in ambito professionale questo potesse avere meno importanza.
AMD non ha mai sfondato anche perchè non è mai stata efficiente;
Consumi troppo elevati dici?
L'architettura in se comunque non dovrebbe essere troppo inefficiente, in rete diversi utenti riescono ad ottenere consumi più che dimezzati con le schede da gioco grazie al "fine tuning" delle tensioni: sembra che AMD abbia utilizzato tensioni elevate pur di buttare sul mercato praticamente tutta la produzione e risparmiare nella fase di testing. Se non ti capita la scheda sfortunata, puoi ottenere risultati interessanti.
Ovvio questo non ha senso in campo professionale, per cui mi chiedo quale sia la situazione con le Radeon Instinct: in tale ambito mi aspetterei che AMD facesse un lavoro di selezione migliore.
Puoi farmi un esempio di situazione in campo professionale dove emerga chiaramente questa minore efficienza e il problema non sia il supporto software? Non un singolo test ovviamente, dato che un test può adattarsi meglio o peggio ad una certa microarchitettura piuttosto che ad un'altra.
teknobrain
20-08-2018, 11:30
I tuoi amici si abbaglierebbero con una lentezza spaventosa a 30fps! ;)
nickname88
20-08-2018, 11:56
Si tratta però di un mercato diverso.
In ambito professionale la scheda è un investimento, la compri quando sei in grado di sfruttarla e ottenerne un vantaggio produttivo. Se dopo una anno devi cambiarla non è un grosso problema, l'hai sfruttata e comprarne un'altra che ti garantisce ulteriori vantaggi non è una spesa ma un altro investimento.
Al contrario in ambito gaming, escludendo chi cambia scheda ogni anno per avere sempre il top delle prestazioni, si ha molta più difficoltà a digerire questo cambio di hardware. Se io oggi compro una scheda per gioco (e questa è una spesa, non un investimento, dato che non ne ho un ritorno economico) voglio sperare di poterla utilizzare nei prossimi anni senza particolari patimenti, ma questo è molto difficile che avvenga con una soluzione acerba e integrata, che non mi consente altre soluzioni che sostituire l'intera scheda.
Capisco che per te è un mondo sconosciuto e ti basi sulle esperienze di chi ha solitamente pretese zero o basse ma chi cambia scheda non lo fa per sfizio.
Che ti piaccia o meno le schede dopo un paio di anni mostrano sempre il limite con i nuovi titoli, come succede ora con le 1070/1080 a 1440p, se poi uno punta a poter avvicinare il 4K ancora peggio.
Chi compera schede di quel tipo è perchè vogliono giocare con una certa qualità, non gli basta che il gioco si avvii e si muova qualcosa a schermo e quando i titoli in cui non si è più in grado di farlo o hai cali di frame rate troppo frequenti si cambia.
E quando si cambia si sceglie il momento opportuno, ossia poco prima che escano le nuove o subito dopo, altrimenti perde di valore nel mercato, valore che ti serve per assorbire parte del costo della nuova, solitamente anche più della metà del suo costo, alla faccia di chi si lamenta che le schede costino troppo .... tenersi una scheda come dici tu poi alla fine ci perdi ugualmente e di più quando comperi la prossima.
salve a tutti, sono marco e mi sono appena iscritto nel forum, per lavoro mi occupo di animazione e modellazione 3d, rendering ed illuminazione di scene virtuali, nello specifico i software che utilizzo sono zbrush, maya e arnold come motore di render (che a breve so che darà la possibilità di renderizzare in GPU).
Leggevo che qualcuno diceva di utilizzare, anzichè una quadro, una Rtx serie 20 per il render GPU (e quando parlo di render, non intendo quello volto ai videogames).
Io sapevo fin ora che le Quadro rispetto alle Gtx sono molto più stabili; ci sono stati casi in cui ho avuto problemi utilizzando schede grafiche GTX per il gaming, con cui renderizzando tramite GPU, con altri software, ebbi problemi di stabilità, il video presentava problemi di flickering o altri tipi di problemi simili...
Senza andare troppo fuori tema, volevo sapere prima di tutto se c'è qualcuno di voi che fa il mio stesso lavoro o simile e cosa sceglierà o ha già scelto, mettendosi difronte a questa scelta che Nvidia ora ci pone (Quadro RTX o RTX). E se sapete le date di uscita della serie Quadro.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.