View Full Version : GeForce RTX 3090 in test, Nvidia Ampere all'ennesima potenza
Redazione di Hardware Upg
24-09-2020, 14:00
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5834/geforce-rtx-3090-in-test-nvidia-ampere-all-ennesima-potenza_index.html
GeForce RTX 3090 Founders Edition è la scheda video al top di gamma della nuova offerta Ampere di Nvidia. Equipaggiata con una GPU ancora più potente di quella del modello GeForce RTX 3080 e con ben 24 GB di memoria GDDR6X, RTX 3090 non solo è la scheda video gaming più veloce al mondo ma anche un ottimo prodotto per i content creator.
Click sul link per visualizzare l'articolo.
yurassik
24-09-2020, 14:16
Grazie per avermi tolto la scimmia dalla spalla 😂😂😂
ilariovs
24-09-2020, 14:19
Una scheda interessante, secondo me, per chi lavora con software professionale che sfruttano le GPU Nvidia e poi ci gioca pure.
A parte un proplayer a cui un 10% può tornare comodo (in 4K in 2k è pure meno)non penso valga l'esborso rispetto alla 3080.
In soldoni se con questa scheda ci si lavora (che sia software pro o gioco è lo stesso) è un conto altrimenti la 3080 mi sembra molto meglio come scelta.
dado1979
24-09-2020, 14:21
Completamente fuori dal mercato.
HwWizzard
24-09-2020, 14:28
Tutto ovvio, la scheda maggiormente bilanciata come prezzo/prestazioni sarà la 3070. La 3080 serve a stare a livello o un pelino sopra AMD mentre la 3090 serve a chi ha bisogni compulsivi di avercelo più lungo.
Ovviamente chiamo fuori da questi ultimi chi con le GPU ci lavora e viste le prestazioni ammortizzerà l'esborso in poco tempo.
A questo punto aspettiamo AMD, la 3070 oramai si capisce dove si posiziona, se saranno aggressivi con i prezzi forse la 3080 dovrà scendere, altrimenti ci vogliono sempre 900Eur per avere una scheda TOP e per giocare in 4K, a 1440p la 3070 o ti prendi una 2080Ti usata a 300Eur che sarà il suo valore all'uscita della 3070.
Completamente fuori dal mercato.
dal mercato gaming sicuro. per fare altro è sicuramente un investimento importante (come lo sarà stato la 2080ti per chi l'ha comprata per lavoro) ma che da i suoi frutti sulle prestazioni.
disponibilità dal 2021, vero? :asd:
Grazie della recensione. Potete gentilmente aggiungere un test con Sisoft Sandra per l'FP64 e DGEMM? Non c'e' nemmeno una nota a riguardo... es. se il rapporto FP32/FP64 e' 1:64 o 1:32, etc.
Altro test, potete fare una conmparazione per il rendering di Blender 2.90 con il Threadripper 3970X o 3990X, intendo i valori assoluti? Anche perche' a questo punto come stazione di rendering potrebbe avere un senso la singola 3090 con Optix, rispetto magari a una workstation con Threadripper 3990X o anche dual EPYC 7742.
nickname88
24-09-2020, 14:46
Completamente fuori dal mercato.
Meno male che sono fuori mercato ( di prezzo e di fatto visto che latitano ), fanno e faranno fatica a soddisfare la domanda, pensa se fossero costate meno :asd:
StylezZz`
24-09-2020, 14:57
Chissà quanti acquisteranno questa scheda per giocarci, senza sapere che va pochissimo in più rispetto la 3080 costando il doppio :doh:
Scheda completamente deludente e sovraprezzata, per un margine prestazione decisamente risicato rispetto alla RTX 3080 in ambito gaming.
In ambito professionale forse ha un senso ma non sono il più indicato per poterlo dire.
La maggior quantità di ram nei titoli testati non si traduce in un vantaggio sostanziale, all'atto pratico (a dire il vero nemmeno quei cuda core in più si vedono più di tanto). Con i titoli futuri sarà da vedere se quella ram in più sarà utile o meno, ma in questo momento è evidente che non fa granchè differenza, cosi come sospetto che non ci sarà tanta differenza tra le RTX 3080 10 gb e le tanto chiacchierate RTX 3080 20 gb. Ai posteri l'ardua sentenza.
In questo momento comprare questa scheda significa buttare i propri soldi a meno che qualcuno non trovi sensato spendere più del doppio rispetto ad una RTX 3080 per fare 10 fps in più (spesso anche meno) in 4K.
Attendiamo le RTX 3070, 3060 e sopratutto la risposta di AMD per vedere qualche proposta più interessante.
coschizza
24-09-2020, 15:17
Scheda completamente deludente e sovraprezzata, per un margine prestazione decisamente risicato rispetto alla RTX 3080 in ambito gaming.
In ambito professionale forse ha un senso ma non sono il più indicato per poterlo dire.
La maggior quantità di ram nei titoli testati non si traduce in un vantaggio sostanziale, all'atto pratico (a dire il vero nemmeno quei cuda core in più si vedono più di tanto). Con i titoli futuri sarà da vedere se quella ram in più sarà utile o meno, ma in questo momento è evidente che non fa granchè differenza, cosi come sospetto che non ci sarà tanta differenza tra le RTX 3080 10 gb e le tanto chiacchierate RTX 3080 20 gb. Ai posteri l'ardua sentenza.
In questo momento comprare questa scheda significa buttare i propri soldi a meno che qualcuno non trovi sensato spendere più del doppio rispetto ad una RTX 3080 per fare 10 fps in più (spesso anche meno) in 4K.
Attendiamo le RTX 3070, 3060 e sopratutto la risposta di AMD per vedere qualche proposta più interessante.
ti darei ragione se parlassimo di una scheda da gioco ma non essendo una scheda da gioco non è ne deludente ne sovra prezzata anzi costa ben poco rispetto alla quadro di pari categoria
Gran bella bestiola in ogni caso
Non potevo non esimermi da un commento: ma ci girerà Crysis Remastered con i settaggi Can it run Crysis?
IMHO scherzi a parte, una grande sk video che aprirà finalmente le porte ai 4k nativi come lo furono le predecessori ai tempi della risoluzione 1080p...
Ma oggi come oggi ancora non ci sono giochi che potrebbero sfruttarla appieno
Ricordo con nostalgia quanto ti prendevi del pazzo per aver acquistato una 8800GTS/GTX. Erano enormi, consumavano tantissimo, scaldavano come non mai e con i loro 96/128 cuda core erano dei mostri di potenza, a un prezzo elevatissimo.
Al di là della potenza ormai sembrano dei giocattolini. Schede piccoline, che consumano poco e scaldano poco, in confronto a questi termosifoni che vendono adesso :eek:
ti darei ragione se parlassimo di una scheda da gioco ma non essendo una scheda da gioco non è ne deludente ne sovra prezzata anzi costa ben poco rispetto alla quadro di pari categoria
Può darsi che in ambito professionale sia utile, ma non mi pare che la stiano presentando come "anti-quadro" e di fatto l'avevano già mandata a Linus tech ed altri per fargli fare dei test con il gaming ad 8K. Tral'altro la scheda è stata sponsorizzata come "prima scheda a permettere di giocare ad 8K" ed in certi titoli a quanto pare fa pure un pò fatica come prevedibile.
E' una scheda da gioco, che può dire la sua anche in altri ambiti, ma da qui a negare che non sia da gioco e che quindi non può essere paragonata alle altre schede ce ne passa.
Tutto sommato ad Nvidia frega poco se a comprarsela saranno più i professionisti dove l'incremento prestazionale sulla RTX 3080 può avere senso,
o quella nicchia di "enthusiast gamer" che pagherebbero qualsiasi cifra per un 10-15% di prestazioni, gli stessi che in passato si compravano lo Sli di schede top.
In entrambi i casi fa' "immagine" e margine di guadagno, anche se su volumi modesti.
Ma anche nel settore pro:
https://www.pugetsystems.com/labs/articles/NVIDIA-GeForce-RTX-3080-10GB-RTX-3090-24GB-Review-Roundup-1899/
si spende il doppio per non avere il doppio se non in rare eccezioni.
Ed in alcuni casi, non avendo bisogno dello SLi, sarà meglio avere 2x RTX 3080 anzichè una RTX 3090.
Marko#88
24-09-2020, 16:33
Non potevo non esimermi da un commento: ma ci girerà Crysis Remastered con i settaggi Can it run Crysis?
IMHO scherzi a parte, una grande sk video che aprirà finalmente le porte ai 4k nativi come lo furono le predecessori ai tempi della risoluzione 1080p...
Ma oggi come oggi ancora non ci sono giochi che potrebbero sfruttarla appieno
Scusa ma cosa stai dicendo? Va un 5/10% più di una 3080, quello che gira in una gira nell'altra... questa non apre le porte a niente, è una 3080 un filo più veloce al doppio del prezzo.
StylezZz`
24-09-2020, 16:46
Che poi Crysis Remastered è il gioco peggiore da prendere come esempio, nemmeno con 4x3090 girerebbe decentemente causa scarsa ottimizzazione del gioco.
Wilfrick
24-09-2020, 17:06
Mah, in ambito rendering (Octane, ma non solo) è utile solo se davvero si usano oltre i 10 GB di memoria, che non sono subito usati per il render, si devono creare scene davvero complesse. Se si rimane sotto quella soglia piuttosto che spendere 1800 per una 3090 meglio prendere due 3080 e si ottiene il dimezzamento netto dei tempi... consumano certamente di più ma asfaltano la 3090.
come scheda gaming non ha alcun senso, ma resta una flagship con altri motivi (commerciali) e comunque un prodotto adatto ad una certa clientela (senza esagerare perché arriveranno le Quadro per la fascia professionale).
Peccato che la redazione di HWUpgrade sia "povera" e non l'abbia provata in quello che è lo scenario pubblicizzato: il GAMING 8K (sonore risate :D :D :D )
A parte i 15/20mila euro di monitor necessario, altrove (Gamers nexus e non solo) l'hanno fatto ed i risultati sono esilaranti.
Prestazioni penose (i 30 FPS scricchiolanti...) e molti titoli che neppure ci arrivano a quella risoluzione.
Therinai
24-09-2020, 18:19
come scheda gaming non ha alcun senso, ma resta una flagship con altri motivi (commerciali) e comunque un prodotto adatto ad una certa clientela (senza esagerare perché arriveranno le Quadro per la fascia professionale).
Peccato che la redazione di HWUpgrade sia "povera" e non l'abbia provata in quello che è lo scenario pubblicizzato: il GAMING 8K (sonore risate :D :D :D )
A parte i 15/20mila euro di monitor necessario, altrove (Gamers nexus e non solo) l'hanno fatto ed i risultati sono esilaranti.
Prestazioni penose (i 30 FPS scricchiolanti...) e molti titoli che neppure ci arrivano a quella risoluzione.
Ma infatti, perché non si parla di 8K? Le slide di nvidia preannunciavano l'avvento dell'8K :asd:
Wilfrick
24-09-2020, 19:59
come scheda gaming non ha alcun senso, ma resta una flagship con altri motivi (... un prodotto adatto ad una certa clientela (senza esagerare perché arriveranno le Quadro per la fascia professionale)...
No, le quadro vanno bene per il CAD. Gli engine su GPU invece sono molto più efficienti sulle normali "schedine per giocare". Con il prezzo di una quadro ti fai un computer pieno di 3080 e le quadro non ti vedono nemmeno con il telescopio.
Ricordo con nostalgia quanto ti prendevi del pazzo per aver acquistato una 8800GTS/GTX. Erano enormi, consumavano tantissimo, scaldavano come non mai e con i loro 96/128 cuda core erano dei mostri di potenza, a un prezzo elevatissimo.
Al di là della potenza ormai sembrano dei giocattolini. Schede piccoline, che consumano poco e scaldano poco, in confronto a questi termosifoni che vendono adesso :eek:
E' logico che la corsa al clock pià alto è arrivato quasi al capolinea per una questione di fisica (a meno che non adatteranno il raffreddamento a idrogeno liquido per i pc), per venderti hardware aggiungono pezzi come i piatti dell'hard disk a più strati, il che si traduce in più cores, più efficienza con meno nanometri, più effetti speciali (come ray tracing). Poi si inventeranno altri effetti, ancora più vram, risoluzioni sempre più alte, più cores ancora e così via in un loop infinito a costi sempre più alti, ormai una scheda video ti costa come l'intero pc, anzi, ormai la soglia è stata ampiamente superata.
Potessi tornerei alla GTX 1070, a mio avviso la migliore scheda nvidia che abbia mai avuto, per forza maggiore sono con una 1660 Ti che ne è la sua evoluzione ma che comunque fa girare tutto in fhd togliendo qualche effetto inutile qua e la. :D
è possibile avere le prestazioni per Folding at Home?
Grazie
Molto utile in ambito lavorativo, soprattutto se sbatti la scheda in testa al datore di lavoro o i colleghi se rompono le palle.
No, le quadro vanno bene per il CAD. Gli engine su GPU invece sono molto più efficienti sulle normali "schedine per giocare". Con il prezzo di una quadro ti fai un computer pieno di 3080 e le quadro non ti vedono nemmeno con il telescopio.
ah adesso le Quadro vanno bene solo per il CAD :doh:
È evidente che non sai di cosa stai parlando... :boh:
Scusate l'ot, alla serie 5700 AMD hanno messo il turbo? In alcuni casi è appaiata alla 2080s e mediamente è poco sotto la 2080 🤔
Wilfrick
24-09-2020, 23:45
ah adesso le Quadro vanno bene solo per il CAD :doh:
È evidente che non sai di cosa stai parlando... :boh:
Beh, invece è evidente che sia tu a non sapere di cosa stai parlando e non comprendi nemmeno quello che ho scritto: ho parlato di rendering su GPU, se sai cosa sia. Riscrivo, vediamo se capisci meglio: allo stesso prezzo di una quadro ti prendi più schede "gaming" ottenendo una velocità di rendering che la quadro se la sogna.
Scusate l'ot, alla serie 5700 AMD hanno messo il turbo? In alcuni casi è appaiata alla 2080s e mediamente è poco sotto la 2080
che non lo sai?
quando esce la 3070 non c'è manco bisogno che AMD faccia uscire una scheda concorrente che tanto ha già la 5700 xt. :sofico:
quindi il chip della 3080 consumerebbe 190W, ma la scheda ocnsumerebbe 340, mentre il chip della 3090 consumerebbe 200-210W, una 20ina di watt in più, e la scheda continuerebbe a fare 340-345... con più del doppio dei chip della 3080 e andando, anche se di una sciocchezza, di più?
a sto punto ad nvidia conviene aumentare la RAM a 128GB, magari torna ad un livello di consumo "normale", visto che più RAM ci mette, meno consuma la scheda.
ora mi chiedo: ma lo fate per screditare GPU-Z, confermando che quelli che la gente vede sono solo numerini a caso, o dobbiamo credere che siete come quelli che usano GPU-Z, che lo usano veramente per vedere il consumo della scheda?
perchè la cos sta diventando seria, dopo la seconda volta che lo fate.
un'incongruenza del genere Corsini non l'avrebbe mai lasciata su queste pagine.
rimango basito e attendo spiegazioni.
Beh, invece è evidente che sia tu a non sapere di cosa stai parlando e non comprendi nemmeno quello che ho scritto: ho parlato di rendering su GPU, se sai cosa sia. Riscrivo, vediamo se capisci meglio: allo stesso prezzo di una quadro ti prendi più schede "gaming" ottenendo una velocità di rendering che la quadro se la sogna.
per i ragazzini che prendono il diploma di laurea in architettura, o per quelli che cominciano a lavorare nel campo...
ma per un vero professionista, soprattutto per qui professionisti a cui serve che il lavoro venga svolto nel modo sempre corretto (e che le quadro se le scarica e 2 al mese), le cose son ben diverse...
il resto delle persone che la usano per quello che dici te non lo definirei un professionista (quantomeno non uno buono).
se esistono le quadro e vendono schede di media prestazione al prezzo doppio di queste 3090, e se le vendono anche bene, significa che il settore richiede caratteristiche che queste schede non potranno mai darti a quel prezzo, quindi non sono schede per professionisti e non si possono minimamente accostare a queste.
poi, se le vuoi usare per modificare gli occhi rossi sulle tue foto e se riesci a farlo anche su quelle di qualcuno alzandoci pure la mancetta, è un'altro discorso, ma queste sono schede gaming che possono anche fare altro, ma che non vengono certo usate da professionisti.
Driver video NVIDIA: GeForce 456.16 beta / 456.38 WQHL (RTX 3090)
Driver video AMD: Radeon 20.8.3
quindi la 3080 e le altre schede 2000 non sono state ritestate con i driver ufficiali (e scaricabili dal sito nvidia), ma con quelli beta (e non reperibili al pubblico) usciti con la review della 3080?
neppure un test su una scheda a caso delle 2000 o la 3080 per confermare i numeri?
mhm...
io sono malfidato, ma certo fate di tutto per far sorgere sospetti nella gente che vi legge.
Manolo De Agostini
25-09-2020, 04:49
Driver video NVIDIA: GeForce 456.16 beta / 456.38 WQHL (RTX 3090)
Driver video AMD: Radeon 20.8.3
quindi la 3080 e le altre schede 2000 non sono state ritestate con i driver ufficiali (e scaricabili dal sito nvidia), ma con quelli beta (e non reperibili al pubblico) usciti con la review della 3080?
neppure un test su una scheda a caso delle 2000 o la 3080 per confermare i numeri?
mhm...
io sono malfidato, ma certo fate di tutto per far sorgere sospetti nella gente che vi legge.
Non cambia nulla in termini prestazionali, fidati (ma non lo farai, sei malfidato come dici tu... :D :D :D ).
Manolo De Agostini
25-09-2020, 05:06
Scusate l'ot, alla serie 5700 AMD hanno messo il turbo? In alcuni casi è appaiata alla 2080s e mediamente è poco sotto la 2080 🤔
Alcuni giochi della suite girano meglio del previsto sulle Radeon (con driver recenti), e questo sposta un po' il valore delle GPU AMD in avanti. La suite, per forza di cose, evolverà nei prossimi mesi, quindi potrebbero esserci cambiamenti anche importanti.
Manolo De Agostini
25-09-2020, 05:16
quindi il chip della 3080 consumerebbe 190W, ma la scheda ocnsumerebbe 340, mentre il chip della 3090 consumerebbe 200-210W, una 20ina di watt in più, e la scheda continuerebbe a fare 340-345... con più del doppio dei chip della 3080 e andando, anche se di una sciocchezza, di più?
a sto punto ad nvidia conviene aumentare la RAM a 128GB, magari torna ad un livello di consumo "normale", visto che più RAM ci mette, meno consuma la scheda.
ora mi chiedo: ma lo fate per screditare GPU-Z, confermando che quelli che la gente vede sono solo numerini a caso, o dobbiamo credere che siete come quelli che usano GPU-Z, che lo usano veramente per vedere il consumo della scheda?
perchè la cos sta diventando seria, dopo la seconda volta che lo fate.
un'incongruenza del genere Corsini non l'avrebbe mai lasciata su queste pagine.
rimango basito e attendo spiegazioni.
A parte che la recensione è firmata a quattro mani... e quindi fai la tua deduzione, ma stiamo già pensando di attuare dei cambiamenti a quella parte. Comunque quanto rilevato nel consumo dell'intera scheda è in linea con altre testate.
Beh, invece è evidente che sia tu a non sapere di cosa stai parlando e non comprendi nemmeno quello che ho scritto: ho parlato di rendering su GPU, se sai cosa sia. Riscrivo, vediamo se capisci meglio: allo stesso prezzo di una quadro ti prendi più schede "gaming" ottenendo una velocità di rendering che la quadro se la sogna.
E qui ribadisco: non sai di che parli :rolleyes:
Il motivo per cui un professionista prende una Quadro sono soprattutto I DRIVERS. Tu non hai idea di cosa siano i drivers certificati, vero ?
Tra l’altro hai scritto “CAD” :doh:
vabbè ma che parlo a fare... :rolleyes:
A parte che la recensione è firmata a quattro mani... e quindi fai la tua deduzione, ma stiamo già pensando di attuare dei cambiamenti a quella parte. Comunque quanto rilevato nel consumo dell'intera scheda è in linea con altre testate.
Ma il tool di Nvidia per la misurazione non l’avete ricevuto/richiesto ?
Bell'articolo, sarebbe stato interessante anche un test con un path tracer real time: visto che, in prospettiva, il gaming si spera sia destinato a quello, sarebbe stato interessante sapere quanto questa scheda si avvicina all'obbiettivo rispetto ad una 2080..
cronos1990
25-09-2020, 07:30
Letto rapidamente l'articolo.
Questi test hanno un problema di fondo: la 3090 è dichiaratamente (da parte di Nvidia) studiata per l'8K, per cui andrebbero fatti test comparativi a questa risoluzione. Anche perchè altrimenti avere 24GB di memoria è del tutto inutile in 4K.
Parte di questi risultati, a mio avviso, dipendono dal fatto che la scheda non viene usata nel suo vero campo d'applicazione; probabilmente avremmo un gap prestazionale maggiore.
mattxx88
25-09-2020, 07:39
Letto rapidamente l'articolo.
Questi test hanno un problema di fondo: la 3090 è dichiaratamente (da parte di Nvidia) studiata per l'8K, per cui andrebbero fatti test comparativi a questa risoluzione. Anche perchè altrimenti avere 24GB di memoria è del tutto inutile in 4K.
Parte di questi risultati, a mio avviso, dipendono dal fatto che la scheda non viene usata nel suo vero campo d'applicazione; probabilmente avremmo un gap prestazionale maggiore.
dai cronos non facciamoci prendere in giro ulteriormente, chi è il pollo che ci ha creduto veramente?
gia in 4k non coprono bene tutti gli scenari...
HwWizzard
25-09-2020, 07:40
Letto rapidamente l'articolo.
Questi test hanno un problema di fondo: la 3090 è dichiaratamente (da parte di Nvidia) studiata per l'8K, per cui andrebbero fatti test comparativi a questa risoluzione. Anche perchè altrimenti avere 24GB di memoria è del tutto inutile in 4K.
Parte di questi risultati, a mio avviso, dipendono dal fatto che la scheda non viene usata nel suo vero campo d'applicazione; probabilmente avremmo un gap prestazionale maggiore.
Per vedere che tra 12 e 18 FPS c’è il 50% di differenza... quale sarebbe l’utilità di questo confronto a parte far incassare a nVidia 1000€ per 14Gb di vram???
cronos1990
25-09-2020, 07:46
Signori miei, non è questione di prenderci in giro. E' banalmente andare dietro le dichiarazioni del produttore, non della testata PRO Nvidia o del sedicente youtuber che le glorifica come se fossero Dio disceso dai cieli.
E' Nvidia stessa che ha dichiarato apertamente che la 3090 è una scheda della serie Titan (quindi non indirizzata direttamente ai videogiocatori) e studiata per essere usata in 8K.
Per cui mi sembra il minimo che una qualunque testata che ne effettui dei test la provi in questo scenario. Altrimenti sarebbe come testare una Ferrari mentre gira al centro di Milano.
Se poi il vostro interesse è puramente videoludico, non c'è neanche da stare a pensarci: la top vera di gamma per questo specifico ambito è la 3080, cioè l'evoluzione (sempre secondo dichiarazioni Nvidia) della 2080Ti, e in attesa di un'eventuale evoluzione in una 3080Ti.
Signori miei, non è questione di prenderci in giro. E' banalmente andare dietro le dichiarazioni del produttore, non della testata PRO Nvidia o del sedicente youtuber che le glorifica come se fossero Dio disceso dai cieli.
E' Nvidia stessa che ha dichiarato apertamente che la 3090 è una scheda della serie Titan (quindi non indirizzata direttamente ai videogiocatori) e studiata per essere usata in 8K.
Per cui mi sembra il minimo che una qualunque testata che ne effettui dei test la provi in questo scenario. Altrimenti sarebbe come testare una Ferrari mentre gira al centro di Milano.
Se poi il vostro interesse è puramente videoludico, non c'è neanche da stare a pensarci: la top vera di gamma per questo specifico ambito è la 3080, cioè l'evoluzione (sempre secondo dichiarazioni Nvidia) della 2080Ti, e in attesa di un'eventuale evoluzione in una 3080Ti.
cio non toglie che chiamandola 3090 e non titan un po' tutti, e penso pure tu, ci aspettavamo delle performance leggermente migliori in 4k
Manolo De Agostini
25-09-2020, 08:01
Ma il tool di Nvidia per la misurazione non l’avete ricevuto/richiesto ?
Sì ce l'abbiamo, ed è proprio a quello che ci affideremo in futuro - ahimè è arrivato in un momento di "vacanze" e ci ho dedicato solo pochissimo tempo, prima di metterlo "a sistema" volevo semplicemente approfondirne l'uso.
cronos1990
25-09-2020, 08:04
cio non toglie che chiamandola 3090 e non titan un po' tutti, e penso pure tu, ci aspettavamo delle performance leggermente migliori in 4kQuello è marketing. Basta vedere in quanti qui, appena annunciate le nuove schede Nvidia, hanno pensato di comprarsi la 3090... ma con la serie precedente quelle stesse persone che puntavano al top di gamma parlavano della 2080Ti, non della Titan.
Sinceramente non ho mai preso in considerazione l'idea di vedere all'opera questa scheda in 4K, per quello c'è appunto la 3080 (e in realtà in molti scenari forse già basta la 3070).
Poi certo, quando ho visto l'articolo mi aspettavo meglio, anche se il dubbio mi era già nato nelle prime righe quando la tabella mostrava le caratteristiche tecniche (di fatto rispetto alla 3080 cambia poco, quantitativo di RAM a parte). Le frequenze di clock rispetto alla 3080 poi mi fanno pensare che gestire questa scheda non sia affatto semplice per la stessa Nvidia, in Boost Clock è più lenta perfino della vecchia Titan.
Resta il fatto che lo scenario per la quale questa scheda è stata creata NON è quello dei test qui sopra. Il che non vuol dire che in 8K vola rispetto alle altre. L'unica supposizione che si può fare è che i 10GB della 3080 sono adeguati per il 4K anche se un pò al limite, ma potenzialmente sono un collo di bottiglia non da poco per risoluzioni in 8K, e in quel caso i 24 GB (altrimenti sovradimensionati oltremodo per il 4K) fanno la loro parte.
Letto rapidamente l'articolo.
Questi test hanno un problema di fondo: la 3090 è dichiaratamente (da parte di Nvidia) studiata per l'8K, per cui andrebbero fatti test comparativi a questa risoluzione. Anche perchè altrimenti avere 24GB di memoria è del tutto inutile in 4K.
Parte di questi risultati, a mio avviso, dipendono dal fatto che la scheda non viene usata nel suo vero campo d'applicazione; probabilmente avremmo un gap prestazionale maggiore.
in effetti come ho già detto sarebbe stato bello vedere qualche prova ad 8K, ma su altre testate ne hanno fatte e se si esclude Doom Eternal (quell'engine è fatto proprio bene) i risultati in 8K sono davvero penosi al limite del giocabile, con difficoltà a tenere i 30 FPS.
Gaming 8K era una minkiata di marketing e si poteva immaginare.
Quanto costa un display 8K ? dai 4/5000€ in su (ho visto roba a 30000€)...
Manolo De Agostini
25-09-2020, 09:41
@ redazione: la 5700xt nel summary segna percentuali superiori a radeon vii e rtx 2080 e nel grafico è posta sotto.
Sistemato, grazie.
Wilfrick
25-09-2020, 10:15
per i ragazzini che prendono il diploma di laurea in architettura, o per quelli che cominciano a lavorare nel campo...
ma per un vero professionista, soprattutto per qui professionisti a cui serve che il lavoro venga svolto nel modo sempre corretto (e che le quadro se le scarica e 2 al mese), le cose son ben diverse...
il resto delle persone che la usano per quello che dici te non lo definirei un professionista (quantomeno non uno buono).
se esistono le quadro e vendono schede di media prestazione al prezzo doppio di queste 3090, e se le vendono anche bene, significa che il settore richiede caratteristiche che queste schede non potranno mai darti a quel prezzo, quindi non sono schede per professionisti e non si possono minimamente accostare a queste.
poi, se le vuoi usare per modificare gli occhi rossi sulle tue foto e se riesci a farlo anche su quelle di qualcuno alzandoci pure la mancetta, è un'altro discorso, ma queste sono schede gaming che possono anche fare altro, ma che non vengono certo usate da professionisti.
Ascolta, tu non sai cosa sia il rendering su GPU altrimenti non parleresti così. Non parlo di realtime. Non parlo di visuzlizzazione dei modelli 3d. Parlo di rendering fotorealistico, parlo di path tracing, parlo di render unbiased. Hai mai fatto rendering con Octane? Lo hai mai fatto professionalmente per i clienti, per industrie che fatturano centinaia di milioni? Si? Allora sai la differenza di velocità di una quadro e di una normale schedina per ragazzini come tu dici? Vuoi fare il vero pro? ok, tieni un computer con una quadro su cui creai la scena, lì ti serve la velocità in openGL ma il render finale lo fai su una (o più) normale 30x0. Non a caso le renderfarm per rendering su GPU hanno server con impilate 10 1080ti (e sarebbe pure ora che aggiornassero). Ma lasciamo perdere, questo è un sito dove oltre ai giochi ed il "sentito dire" non si va.
Dai ragazzi non sappiamo cosa abbia studiato l'uno o l'altro
O che livello di conoscenza si abbia in una specifica materia
Spesso mi è capitato che semplicemente le parole o i discorsi venissero fraintesi quando invece si diceva cose simili o comunque non diametralmente opposte
Ascolta, tu non sai cosa sia il rendering su GPU altrimenti non parleresti così. Non parlo di realtime. Non parlo di visuzlizzazione dei modelli 3d. Parlo di rendering fotorealistico, parlo di path tracing, parlo di render unbiased. Hai mai fatto rendering con Octane? Lo hai mai fatto professionalmente per i clienti, per industrie che fatturano centinaia di milioni? Si? Allora sai la differenza di velocità di una quadro e di una normale schedina per ragazzini come tu dici? Vuoi fare il vero pro? ok, tieni un computer con una quadro su cui creai la scena, lì ti serve la velocità in openGL ma il render finale lo fai su una (o più) normale 30x0. Non a caso le renderfarm per rendering su GPU hanno server con impilate 10 1080ti (e sarebbe pure ora che aggiornassero). Ma lasciamo perdere, questo è un sito dove oltre ai giochi ed il "sentito dire" non si va.
ascolta, mia moglie ha due lauree in architettura e per fare rendering usavo le matrox.
forse è meglio che non continuiate a pubblicizzare queste schede per cose per cui non sono adatte.
sono per ragazzini troppo cresciuti e troppo creduloni, non certo per professionisti.
Sì ce l'abbiamo, ed è proprio a quello che ci affideremo in futuro - ahimè è arrivato in un momento di "vacanze" e ci ho dedicato solo pochissimo tempo, prima di metterlo "a sistema" volevo semplicemente approfondirne l'uso.
logicamente è inutile sperare che si ricontrollino i consumi di queste schede, visto che difficilmente le avrete ancora in redazione.
Non cambia nulla in termini prestazionali, fidati (ma non lo farai, sei malfidato come dici tu... :D :D :D ).
bhè, sono malfidato a ragione, Manolo, e proprio per queste uscite.
proprio perchè chiedete sempre fiducia, ma dimostrate sempre di non meritarla.
Dai ragazzi non sappiamo cosa abbia studiato l'uno o l'altro
O che livello di conoscenza si abbia in una specifica materia
Spesso mi è capitato che semplicemente le parole o i discorsi venissero fraintesi quando invece si diceva cose simili o comunque non diametralmente opposte
io non so (e non mi importa) che cosa abbia studiato lui.
ma so cosa HO STUDIATO IO, e lui ha esordito scrivendo (testuali parole):
No, le quadro vanno bene per il CAD.
Questa, come la vuoi vedere, è una sciocchezza immane.
Questi ALCUNI dei software per i quali Nvidia fornisce drivers certificati (in questo campo è essenziale):
Adobe Premiere Rush
Adobe Premiere Pro
Blender Cycles
V-Ray 5 GPU for Maya
Flicker Free
BorisFX Optics
Octane Renderer 2018
FlightSafety VITAL TAP
ma sono decine e decine le applicazioni supportate.
A parte che la recensione è firmata a quattro mani... e quindi fai la tua deduzione, ma stiamo già pensando di attuare dei cambiamenti a quella parte. Comunque quanto rilevato nel consumo dell'intera scheda è in linea con altre testate.
purtroppo l'ho già fatta la mia deduzione, Manolo.
non è importante sapere che domani ci dirai anche chi è stato l'operaio che fatto la manutenzione ordinaria della stazione di saldatura automatica dov'è passata questa scheda, ma che oggi tu e Corsini avete scritto una incongruenza di degna rilevanza (visto che avete dato adito a certi elementi di sostenere verità del tutto false già dalla precedente prova), quando, a rigor di logica, era inutile mettere un dato ed un grafico che ne confermasse l'inesattezza (senza nemmeno introdurre i dibbi che solleva il plotting delle 2080 TI).
la critica ci sta tutta e mostra la poca serietà nel presentare al pubblico i vostri dati analitici.
il fatto che poi siamo in prossimità delle vacanze non giustifica nulla, in quanto non escono schede di nuova generazione ogni settimana e quindi non si è scusati per essere stati frivoli.
semplicemente non ci andavi in vacanza e facevi un buon lavoro, o lo posticipavi quando lo potevi fare decentemente.
queste recensioni non sono fatte affatto bene.
Ragazzi scusate ma non riesco a trovare una comparativa tra una 3080 o 3090 liscia e una 3080 o 90 con overclock spinto/moderato. Ho solo trovato comparative ,piuttosto inutili a mio avviso, di stesse schede ma marche diverse .
Ma non ha senso scannarsi per queste cose
E' indiscutibile che le Quadro siano la vera fascia professionale, perché i drivers sono certificati e questo significa che devono garantire impeccabile compatibilità con i suddetti software
Le Geforce sono da gioco
Titan, come la 3090 sono forse una via di mezzo, ma hanno venduto quest'ultima come la soluzione per il gioco ad 8k
Tornando alla Titan però è venduta per "ricerca e sviluppo", chiaramente non ai livelli di Tesla che ha la stessa prospettiva ma in ambito server / supercomputer
Poi non toglie che le si possano usare quasi tutte nei vari settori ma a volte la differenza la fa proprio la certificazione
Ciononostante un professionista magari individuale può anche decidere per mantenere il budget ridotto di scendere a compromessi rinunciando a queste ultime
Insomma riassumendo mi pare che anche in questo caso entrambe le opinioni non sono scorrette
Ho editato per una forma migliore dato che sono a lavoro ed un po' di fretta :p
coschizza
25-09-2020, 12:26
Ragazzi scusate ma non riesco a trovare una comparativa tra una 3080 o 3090 liscia e una 3080 o 90 con overclock spinto/moderato. Ho solo trovato comparative ,piuttosto inutili a mio avviso, di stesse schede ma marche diverse .
https://www.youtube.com/watch?v=Xgs-VbqsuKo&ab_channel=GamersNexus
Ma non ha senso scannarsi per queste cose
E' indiscutibile che le Quadro siano la vera fascia professionale, perché i drivers sono certificati e questo significa che devono garantire impeccabile compatibilità con i suddetti software
Le Geforce sono da gioco
Titan, come la 3090 sono forse una via di mezzo, ma hanno venduto quest'ultima come la soluzione per il gioco ad 8k
Tornando alla Titan però è venduta per "ricerca e sviluppo", chiaramente non ai livelli di Tesla che ha la stessa prospettiva ma in ambito server / supercomputer
Poi non toglie che le si possano usare quasi tutte nei vari settori ma a volte la differenza la fa proprio la certificazione
Ciononostante un professionista magari individuale può anche decidere per mantenere il budget ridotto di scendere a compromessi rinunciando a queste ultime
Insomma riassumendo mi pare che anche in questo caso entrambe le opinioni non sono scorrette
Ho editato per una forma migliore dato che sono a lavoro ed un po' di fretta :p
Ma tu hai ragione, ma quando io scrivo una cosa (che ha una base provata) ed un altro interviene dicendo "NO..." e poi sostenendo una sciocchezza, io argomento la mia posizione. Che poi non è LA MIA posizione, ma quella della Casa stessa che vende le Quadro con un certo target in mente.
Si, ma c'è sempre un però ed è quel però dei professionisti magari indipendenti che non necessitano di certificazioni e possono usare anche una Geforce. Questo non li rende meno professionali. Si tratta di scelte, a volte imposte dal budget o da quella che si ritiene efficienza ottimale. Tutto qui!
Si, ma c'è sempre un però ed è quel però dei professionisti magari indipendenti che non necessitano di certificazioni e possono usare anche una Geforce. Questo non li rende meno professionali. Si tratta di scelte, a volte imposte dal budget o da quella che si ritiene efficienza ottimale. Tutto qui!
questo nessuno lo discute.
Io ho discusso lo scrivere NO SI USANO LE QUADRO SOLO PER IL CAD come fosse un dogma.
Si, ma c'è sempre un però ed è quel però dei professionisti magari indipendenti che non necessitano di certificazioni e possono usare anche una Geforce. Questo non li rende meno professionali. Si tratta di scelte, a volte imposte dal budget o da quella che si ritiene efficienza ottimale. Tutto qui!
se lavori con il trattamento dell'immagine per fini essenzialmente estetici lo puoi anche fare, ma se tratti con dati essenziali, non puoi esimerti dall'avere una garanzia in tal senso.
qui invece si mette tutto sullo stesso piano.
se fai ponti e crollano non puoi giustificarti sul fatto che il tuo sistema non rispondeva ottimamente... se invece ci sono piccole imperfezioni in una fotografia photoshoppata, alla fine farai solo una brutta figura perchè risulti poco accurato, ma nulla di grave.... non ammazzi nessuno.
Quello che non riesco a capire e' se il prodotto e' adatto a 8K oppure no; se ho capito bene il minimo per il gaming "accettabile" sono 60fps. Esistono schermi 8K con piu' di 60fps? Esistono monitor 5K a 144Hz, ma 8K ce ne sono? Questo perlomeno ipotizzando di utilizzare uno schermo unico a 8K, ma si possono avere degli 8K "ibridi", per esempio per i simulatori di volo, due schermi 4K affiancati, verticalmente sono sempre 4K, ma orizzontalmente sono 8K.
Ora raddoppiando la risoluzione, da 4 a 8K, il numero di pixel, e quindi l'area, quadruplica; quindi coi conti della serva, ci vorrebbe una scheda che sia 4 volte piu' potente di una scheda che sia abbastanza potente 4K con un certo margine. Rispetto alla 3080, ha solo un 20% in piu' di core. In molti test, salvo quelli in cui specificamente i 24GB di RAM anziche' 10GB si fanno sentire, questo 20% e' quello che viene fuori dai benchmark, certo non il 400%. Forse in NVLINK si raddoppia (ammesso che il gioco lo supporti) ma per il 400%, come devi fare? Combinare piu' sistemi NVLink per un offloading GPU? Per esempio in un simulatore, il sistema A genera l'immagine di destra, e il sistema B quella di sinistra.
Ottima per password crack con appositi programmi :D :D :D
se lavori con il trattamento dell'immagine per fini essenzialmente estetici lo puoi anche fare, ma se tratti con dati essenziali, non puoi esimerti dall'avere una garanzia in tal senso.
qui invece si mette tutto sullo stesso piano.
se fai ponti e crollano non puoi giustificarti sul fatto che il tuo sistema non rispondeva ottimamente... se invece ci sono piccole imperfezioni in una fotografia fotoshoppata, alla fine farai solo una brutta figura perchè risulti poco accurato, ma nulla di grave.... non ammazzi nessuno.
Se ti riferisci a me, no, ho solo detto che ci sono più sfumature o, se vogliamo chiamarle diversamente, utilizzi. Quindi non sto dicendo assolutamente il contrario: come hai appena ribadito c'è caso e caso e siamo d'accordo. Idem riguardo le certificazioni/garanzie, altrimenti non avrebbero senso di esistere.
Ma anche l'altro Max non ha torto avendo riportato ciò che è riportato sul sito Nvidia e su alcune testate di tecnologia.
Quello che non riesco a capire e' se il prodotto e' adatto a 8K oppure no
ad 8K nativi no.
Con DLSS in alcuni giochi si.
Se ti riferisci a me, no, ho solo detto che ci sono più sfumature o, se vogliamo chiamarle diversamente, utilizzi. Quindi non sto dicendo assolutamente il contrario: come hai appena ribadito c'è caso e caso e siamo d'accordo. Idem riguardo le certificazioni/garanzie, altrimenti non avrebbero senso di esistere.
Ma anche l'altro Max non ha torto avendo riportato ciò che è riportato sul sito Nvidia e su alcune testate di tecnologia.
ma infatti Max(IT) ha perfettamente ragione: sta dicendo che i soliti informati che stanno spingendo questa scheda, nei commenti, come una soluzione sostituibile ad una soluzione professionale, quando non lo è affatto, quando è la stessa nvidia che la promuove per il gaming (a 8 fantasiosi K).
l'unica cosa su cui è in errore è che i programmi che ha elencato non ce ne è uno solo con driver certificati per soluzioni gaming, come non lo sono i driver Studio di nvidia.
sono esclusivamente testati ma non certificati, ma questo non aumenta di un solo grammo la garanzia nell'uso di queste schede in ambiti diversi che dal videoludico.
una certificazione completa su un solo programma costa decine di migliaia di dollari e centinaia di ore di lavoro.... pensa a rifarle ogni volta che cambiano questi driver, per ogni programma.
la differenza di costo tra una quadro ed una gaming è essenzialmente quella, ma se fanno le quadro e i professionisti comprano le quadro, significa che essenzialmente è quello che cerca il mercato: garanzie di calcolo assolute e certificate.
ce poi molte funzioni e dll siano anche usate sulle gaming, non fa altro che far dire al produttore che, tutto sommato, i driver possono non avere problemi con i sistemi e con i loro sosftware, ma non che la scheda ti dia l'assoluta garanzia che funzioni sempre a dovere (che faccia sempre il suo lavoro in maniera impeccabile. che faccia i conti fatti bene).
e ti assicuro che son due cose assai diverse.
l'unica cosa su cui è in errore è che i programmi che ha elencato non ce ne è uno solo con driver certificati per soluzioni gaming, come non lo sono i driver Studio di nvidia.
sono esclusivamente testati ma non certificati, ma questo non aumenta di un solo grammo la garanzia nell'uso di queste schede in ambiti diversi che dal videoludico.
una certificazione completa su un solo programma costa decine di migliaia di dollari e centinaia di ore di lavoro.... pensa a rifarle ogni volta che cambiano questi driver, per ogni programma.
la differenza di costo tra una quadro ed una gaming è essenzialmente quella, ma se fanno le quadro e i professionisti comprano le quadro, significa che essenzialmente è quello che cerca il mercato: garanzie di calcolo assolute e certificate.
ce poi molte funzioni e dll siano anche usate sulle gaming, non fa altro che far dire al produttore che, tutto sommato, i driver possono non avere problemi con i sistemi e con i loro sosftware, ma non che la scheda ti dia l'assoluta garanzia che funzioni sempre a dovere (che faccia sempre il suo lavoro in maniera impeccabile. che faccia i conti fatti bene).
e ti assicuro che son due cose assai diverse.
veramente io non ho mai parlato delle soluzione "gaming" certificate :wtf:
Io facevo riferimento ai drivers per la Quadro, non certo per la GeForce.
Uno dei motivi per cui una Quadro costa molto più di un equivalente GeForce sono proprio i drivers.
Wilfrick
25-09-2020, 16:43
Vabbé, dire che sono più di 25 anni che lavoro facendo solo ed esclusivamente video 3d per qualsiasi tipo di azienda dalle piccolissime alle multinazionali non serve a niente, quindi metto un link che spero faccia capire meglio il mio punto di vista:
https://render.otoy.com/octanebench/results.php?sort_by=avg&singleGPU=1
La mia frase a proposito dell'utilizzo delle quadro solo per il cad probabilmente è stata infelice ma l'ho scritta riguardo al rendering, non era il punto del mio discorso e come hai visto non ho nemmeno continuato a parlare di quello. Io per rendering3D intendo la generazione di immagini tridimensionali fatte da software quali maya, max, cinema4d, belnder, ecc. che fino a pochi anni fa erano calcolate da cpu, mentre adesso (da qualche anno) possono essere renderizzate da engine su gpu, uno fra tutti Octane. Il fatto che una quadro non dia errori, driver certificati, miglior fedeltà dell'immagine e quant'altro è in questo caso (in questo caso dico) abbastanza irrilevante perchè si parla solo di calcoli puri e non si hanno errori strani su una gf rispetto ad una quadro, e questo lo posso dire in quanto attualmente spremo a dovere una 2080 con octane, ma ho usato anche server con le 10 1080ti di cui ho parlato. In questo caso l'unica cosa davvero rilevante è la velocità. Se guardate la tabella una quadro 8000 renderizza più o meno con la medesima velocità di una 2080ti, solo che la prima ha un prezzo di 7000 euro, la seconda di 1200. Nessuno vieta di farsi una renderfarm di quadro, ma è controproducente e non conosco nessuno del settore che abbia optato per questa soluzione. Di sicuro se si impilano 4 GF con ventoloni che innondano il case di aria calda al posto di quelle con la piccola ventola progettate per essere usate in spazi piccoli e che espellono l'aria esternamente, vi si bruciano in due mezze giornate di lavoro, ma non è colpa delle schede ma della scelta sconsiderata dell'utente. Certo che per determinate applicazioni in cui sono necessarie le garanzie fornite dalle quadro, queste servono, chi lo nega, ma non è questo il caso. Poi se per rendering intendete altro allora stiamo parlando di cose diverse (ma io l'ho specificato più volte che intendo rendering 3d unbiased su GPU). Comunque non insisto, ho cercato di spiegare meglio che potevo e più di così non posso fare, colpa mia che non mi sono fatto capire ed ho cominciato una discussione evidentemente inutile, qui mi fermo.
Vabbé, dire che sono più di 25 anni che lavoro facendo solo ed esclusivamente video 3d per qualsiasi tipo di azienda dalle piccolissime alle multinazionali non serve a niente, quindi metto un link che spero faccia capire meglio il mio punto di vista:
https://render.otoy.com/octanebench/results.php?sort_by=avg&singleGPU=1
La mia frase a proposito dell'utilizzo delle quadro solo per il cad probabilmente è stata infelice ma l'ho scritta riguardo al rendering, non era il punto del mio discorso e come hai visto non ho nemmeno continuato a parlare di quello. Io per rendering3D intendo la generazione di immagini tridimensionali fatte da software quali maya, max, cinema4d, belnder, ecc. che fino a pochi anni fa erano calcolate da cpu, mentre adesso (da qualche anno) possono essere renderizzate da engine su gpu, uno fra tutti Octane. Il fatto che una quadro non dia errori, driver certificati, miglior fedeltà dell'immagine e quant'altro è in questo caso (in questo caso dico) abbastanza irrilevante perchè si parla solo di calcoli puri e non si hanno errori strani su una gf rispetto ad una quadro, e questo lo posso dire in quanto attualmente spremo a dovere una 2080 con octane, ma ho usato anche server con le 10 1080ti di cui ho parlato. In questo caso l'unica cosa davvero rilevante è la velocità. Se guardate la tabella una quadro 8000 renderizza più o meno con la medesima velocità di una 2080ti, solo che la prima ha un prezzo di 7000 euro, la seconda di 1200. Nessuno vieta di farsi una renderfarm di quadro, ma è controproducente e non conosco nessuno del settore che abbia optato per questa soluzione. Di sicuro se si impilano 4 GF con ventoloni che innondano il case di aria calda al posto di quelle con la piccola ventola progettate per essere usate in spazi piccoli e che espellono l'aria esternamente, vi si bruciano in due mezze giornate di lavoro, ma non è colpa delle schede ma della scelta sconsiderata dell'utente. Certo che per determinate applicazioni in cui sono necessarie le garanzie fornite dalle quadro, queste servono, chi lo nega, ma non è questo il caso. Poi se per rendering intendete altro allora stiamo parlando di cose diverse (ma io l'ho specificato più volte che intendo rendering 3d unbiased su GPU). Comunque non insisto, ho cercato di spiegare meglio che potevo e più di così non posso fare, colpa mia che non mi sono fatto capire ed ho cominciato una discussione evidentemente inutile, qui mi fermo.
se sei nel settore, sai chi è KPF.
Beh loro la render farm con le Quadro RTX ce l'hanno eccome. A certi livelli il budget di poche decine di migliaia di euro è ZERO, e progettando palazzi e grattacieli, meglio non lasciare nulla al caso, non credi ?
https://www.kpf.com/
Poi nessuno nega che si possano usare ANCHE altre soluzioni, a seconda delle esigenze, cosi come soluzioni "miste".
Il mio commento iniziale era in critica al tuo "NO le Quadro si usano solo per il CAD", totalmente errato.
Ma torniamo al punto: ognuno ha le sue esigenze. Nel momento in cui si fa un acquisto con cognizione di causa (ovvero conoscendo bene le proprie esigenze) non c'è più discussione. Indipendentemente da come presenta nvidia le proprie schede o dai drivers certificati, che possono essere necessari o meno.
Per questo non ha granché senso scannarsi solo perché si ha due punti di vista leggermente differenti o chiamiamoli percorsi di studio e/o lavorativi, che possiamo alla fine considerarli pari sempre tenendo conto della relatività del discorso.
Wilfrick
25-09-2020, 17:14
Lo hai detto tu stesso, "progettando". Io ho mai parlato di progettare? Non confondere il render 3d con la progettazione, come ho detto il primo lo puoi fare con qualsiasi schedina, il secondo, come tu continui ad affermare e confermo, no, ma preferisco non parlare di progettazione perchè non è il mio campo (ma guarda che l'ho detto e ridetto a cosa mi riferivo però). Lasciamo perdere gli studi di una certa dimensione, altrimenti comprendiamo pure ILM e Weta, ma sono altre realtà. Qui si parla se una 3090 può essere considerata di livello professionale. Io continuo a sostenere si per quanto riguarda il rendering 3D. Per la progettazione? Ovvio che no. Fai sia progettazione che rendering? Allora di sicuro vai su quadro. Ma se solo rendering allora puoi evitare.
Allora se vogliamo analizzare le parole posso concordare sul "livello professionale" inquanto si può considerare una scheda di "pari" o "simile" livello, che però a tutti gli effetti
https://www.nvidia.com/it-it/geforce/graphics-cards/30-series/rtx-3090/
non si può dire che sia una "scheda professionale".
Può andare bene per certi professionisti? Si. E' professionale? Ni. Ponendosi nel mezzo tra la scheda gaming e quella professionale, non si dovrebbe considerare ne l'una ne l'altra cosa :D Ma poi a conti fatti..
..Nvidia la descrive come esperienza di gioco definitiva, senza mai utilizzare la parola professionale in tutta la pagina. Se non professionista, ma riferendosi a chi gioca e fa streaming :D
Ascolta, tornando seri, ho capito il tuo punto di vista ma cerca anche tu di capire cosa stanno dicendo gli altri e che non ha senso impuntarsi su posizioni particolarmente statiche. Torniamo tutti amiconi e pace fatta.
Lo hai detto tu stesso, "progettando". Io ho mai parlato di progettare? Non confondere il render 3d con la progettazione, come ho detto il primo lo puoi fare con qualsiasi schedina, il secondo, come tu continui ad affermare e confermo, no, ma preferisco non parlare di progettazione perchè non è il mio campo (ma guarda che l'ho detto e ridetto a cosa mi riferivo però). Lasciamo perdere gli studi di una certa dimensione, altrimenti comprendiamo pure ILM e Weta, ma sono altre realtà. Qui si parla se una 3090 può essere considerata di livello professionale. Io continuo a sostenere si per quanto riguarda il rendering 3D. Per la progettazione? Ovvio che no. Fai sia progettazione che rendering? Allora di sicuro vai su quadro. Ma se solo rendering allora puoi evitare.
fatto cosi il discorso ha un significato diverso. Ma il tuo punto di partenza se ti rileggi era ben diverso...
La 3090 può essere una scheda "professionale" ? Certo che si. Per assurdo la sua classe è proprio quella "a metà", ed ha molto più senso come prodotto per lavorare che per giocare... come del resto la serie Titan fa da tempo (e vista come Titan, è addiritura "economica" data la quantità di VRAM offerta per soli 1500€).
Poi ci sarà chi la prende per giocare a Fortnite, ma alla fine il mondo PC è bello anche per questo: ognuno è libero di scegliere l'hardware che vuole.
Allora se vogliamo analizzare le parole posso concordare sul "livello professionale" inquanto si può considerare una scheda di "pari" o "simile" livello, che però a tutti gli effetti
https://www.nvidia.com/it-it/geforce/graphics-cards/30-series/rtx-3090/
non si può dire che sia una "scheda professionale".
Può andare bene per certi professionisti? Si. E' professionale? Ni. Ponendosi nel mezzo tra la scheda gaming e quella professionale, non si dovrebbe considerare ne l'una ne l'altra cosa :D Ma poi a conti fatti..
..Nvidia la descrive come esperienza di gioco definitiva, senza mai utilizzare la parola professionale in tutta la pagina. Se non professionista, ma riferendosi a chi gioca e fa streaming :D
Ascolta, tornando seri, ho capito il tuo punto di vista ma cerca anche tu di capire cosa stanno dicendo gli altri e che non ha senso impuntarsi su posizioni particolarmente statiche. Torniamo tutti amiconi e pace fatta.
il termine "professionale" in campo informatico è spesso abusato.
Io posso fare un uso "professionale" di hardware gaming, aprendomi un piccolo studio dove faccio lavoretti che mi fanno portare a casa la pagnotta ed allo stesso tempo posso fare un uso ludico di hardware che è pensato per altro... nulla lo vieta.
E certe classificazioni fanno ridere.
Quando monto un filmato 4K delle vacanze, per esempio, ho bisogno di tutta la potenza di elaborazione che posseggo, quando magari ci sono professionisti che fatturano 10000€ al mese usando hardware meno prestante del mio.
il termine "professionale" in campo informatico è spesso abusato.
Io posso fare un uso "professionale" di hardware gaming, aprendomi un piccolo studio dove faccio lavoretti che mi fanno portare a casa la pagnotta ed allo stesso tempo posso fare un uso ludico di hardware che è pensato per altro... nulla lo vieta.
E certe classificazioni fanno ridere.
Quando monto un filmato 4K delle vacanze, per esempio, ho bisogno di tutta la potenza di elaborazione che posseggo, quando magari ci sono professionisti che fatturano 10000€ al mese usando hardware meno prestante del mio.
Ed è qui che entra il gioco la questione certificazione. Comunque ci siamo capiti!
ps
Un professionista del videoediting difficilmente lavora con hw scarso, sia per le anteprime che in timeline abusate devono comunque essere fluide, sia soprattutto per i tempi di rendering. Solitamente questi dopo un po' cominciano ad essere fondamentali. Poco nelle piccole produzioni, infinitamente nelle grandi.
Ed è qui che entra il gioco la questione certificazione. Comunque ci siamo capiti!
ps
Un professionista del videoediting difficilmente lavora con hw scarso, sia per le anteprime che in timeline abusate devono comunque essere fluide, sia soprattutto per i tempi di rendering. Solitamente questi dopo un po' cominciano ad essere fondamentali. Poco nelle piccole produzioni, infinitamente nelle grandi.
beh, senza arrivare ad "hardware scarso", l'esempio che ho fatto sopra non è inventato: è un mio conoscente, che a tempo perso aiuto nell'aggiornamento del suo parco hardware, che ha un piccolo studio dove i PC li abbiamo svecchiati l'ultima volta 4 anni fa. Sono buone macchine ma inferiori al mio Ryzen in firma ad esempio.
Eppure con il Ryzen "cazzeggio", mentre lui ed il suo socio guadagnano da vivere con quelli. Ma quando per gioco ci mettiamo a montare i video sul mio PC... beh va meglio dei loro naturalmente :p
beh, senza arrivare ad "hardware scarso", l'esempio che ho fatto sopra non è inventato: è un mio conoscente, che a tempo perso aiuto nell'aggiornamento del suo parco hardware, che ha un piccolo studio dove i PC li abbiamo svecchiati l'ultima volta 4 anni fa. Sono buone macchine ma inferiori al mio Ryzen in firma ad esempio.
Eppure con il Ryzen "cazzeggio", mentre lui ed il suo socio guadagnano da vivere con quelli. Ma quando per gioco ci mettiamo a montare i video sul mio PC... beh va meglio dei loro naturalmente :p
Chiaro, puntualizzavo solamente! Io stesso ho lavorato in condizioni pietose. La posizione attuale non fa testo perché ho portato un mio pc :D
Therinai
25-09-2020, 18:38
Scusate mi sono perso nel discorso: alla fine per giocare a ci gira crysis è meglio la 3090, la quadro o la matrox?
MiKeLezZ
25-09-2020, 18:40
Completamente fuori dal mercato.Non è per i poveri, ti assicuro che molta gente non ha problemi a comprarsela anche a prezzi maggiori. Per chi vuole giocare comunque basta e avanza la 3080. Scelta azzeccatissima.
F1R3BL4D3
25-09-2020, 18:55
Scusate mi sono perso nel discorso: alla fine per giocare a ci gira crysis è meglio la 3090, la quadro o la matrox?
A breve potresti avere la risposta a questa domanda. Tranne per la Matrox. :p
Scusate mi sono perso nel discorso: alla fine per giocare a ci gira crysis è meglio la 3090, la quadro o la matrox?
La Matrox
Therinai
25-09-2020, 19:02
Ma se 4K sono pochi e 8K troppi, perché non ci si fa un monitor da 6,5K?
Ma se 4K sono pochi e 8K troppi, perché non ci si fa un monitor da 6,5K?
Esattamente chi ha detto che 4K sono pochi ? :mbe:
Cioè ma voi avete tutti il PC collegato ad un 65” ??? :wtf:
veramente io non ho mai parlato delle soluzione "gaming" certificate :wtf:
Io facevo riferimento ai drivers per la Quadro, non certo per la GeForce.
Uno dei motivi per cui una Quadro costa molto più di un equivalente GeForce sono proprio i drivers.
scusa se ho mal interpretato quel post.
infatti sono quelli la differenza, ma molti non lo vogliono capire o lo vogliono semplicemente nascondere.
Vabbé, dire che sono più di 25 anni che lavoro facendo solo ed esclusivamente video 3d per qualsiasi tipo di azienda dalle piccolissime alle multinazionali non serve a niente, quindi metto un link che spero faccia capire meglio il mio punto di vista:
https://render.otoy.com/octanebench/results.php?sort_by=avg&singleGPU=1
La mia frase a proposito dell'utilizzo delle quadro solo per il cad probabilmente è stata infelice ma l'ho scritta riguardo al rendering, non era il punto del mio discorso e come hai visto non ho nemmeno continuato a parlare di quello. Io per rendering3D intendo la generazione di immagini tridimensionali fatte da software quali maya, max, cinema4d, belnder, ecc. che fino a pochi anni fa erano calcolate da cpu, mentre adesso (da qualche anno) possono essere renderizzate da engine su gpu, uno fra tutti Octane. Il fatto che una quadro non dia errori, driver certificati, miglior fedeltà dell'immagine e quant'altro è in questo caso (in questo caso dico) abbastanza irrilevante perchè si parla solo di calcoli puri e non si hanno errori strani su una gf rispetto ad una quadro, e questo lo posso dire in quanto attualmente spremo a dovere una 2080 con octane, ma ho usato anche server con le 10 1080ti di cui ho parlato. In questo caso l'unica cosa davvero rilevante è la velocità. Se guardate la tabella una quadro 8000 renderizza più o meno con la medesima velocità di una 2080ti, solo che la prima ha un prezzo di 7000 euro, la seconda di 1200. Nessuno vieta di farsi una renderfarm di quadro, ma è controproducente e non conosco nessuno del settore che abbia optato per questa soluzione. Di sicuro se si impilano 4 GF con ventoloni che innondano il case di aria calda al posto di quelle con la piccola ventola progettate per essere usate in spazi piccoli e che espellono l'aria esternamente, vi si bruciano in due mezze giornate di lavoro, ma non è colpa delle schede ma della scelta sconsiderata dell'utente. Certo che per determinate applicazioni in cui sono necessarie le garanzie fornite dalle quadro, queste servono, chi lo nega, ma non è questo il caso. Poi se per rendering intendete altro allora stiamo parlando di cose diverse (ma io l'ho specificato più volte che intendo rendering 3d unbiased su GPU). Comunque non insisto, ho cercato di spiegare meglio che potevo e più di così non posso fare, colpa mia che non mi sono fatto capire ed ho cominciato una discussione evidentemente inutile, qui mi fermo.
fai video; capisci la differenza?
se un frame risulta con qualche artefatto, alla fine, al massimo e se non sono pignoli, non ti chiamano per il successivo lavoro.
la vera differenza di driver certificati è che non danno interferenza nel sistema, non solo che non ti causino blocchi, non solo che calcolano bene il loro lavoro, ma che non diano interferenza con altri programmi, anch'essi certificati.
non a caso si cerca di usare le WS solo con il programma che serve per il lavoro che sono tenute a fare; uno per WS.
ma se ti servono diversi programmi, dovrai assicurarti che non ci siano interferenze.
A breve potresti avere la risposta a questa domanda. Tranne per la Matrox. :p
oggi le matrox utilizzano chip nvidia, quindi non è detto che non lo possa fare... su un video wall, magari.
il fatto che non abbia quel 25-30% di prestazioni in più della 3080 è deludente imo
a quel prezzo e con un misero 10% di gap in gaming è roba per content creators e poco altro
tuttodigitale
29-09-2020, 10:45
fatto cosi il discorso ha un significato diverso. Ma il tuo punto di partenza se ti rileggi era ben diverso...
La 3090 può essere una scheda "professionale" ? Certo che si. Per assurdo la sua classe è proprio quella "a metà", ed ha molto più senso come prodotto per lavorare che per giocare... come del resto la serie Titan fa da tempo (e vista come Titan, è addiritura "economica" data la quantità di VRAM offerta per soli 1500€).
Poi ci sarà chi la prende per giocare a Fortnite, ma alla fine il mondo PC è bello anche per questo: ognuno è libero di scegliere l'hardware che vuole.
Aspetta un attimo, non è che la 3090 non abbia senso come scheda, perchè se guardiamo bene sono i solo 10GB di VRAM della 3080 ad essere un fattore negativo. Questa scelta renderà obsoleta la scheda prima ancora che la potenza del chip inizi ad essere deficitaria.
Sono i 1500 euro che rende (con disponibilità economiche normali) più sensato investirle in una scheda video con cui si ha un ritorno economico.
dire TITAN non vuol dire nulla:
1. la prima Titan aveva anche il FP64 completamente abilitato con il doppio della ram (che prima era a discrezione dello OEM, e per un periodo abbiamo visto schede AMD con lo stesso quantitativo di VRAM se non più elevato)
2. Con Maxwell le TITAN sono diventate semplicemente delle GEforce con il doppio della VRAM.
3. Con l'arrivo di VEGA FE, anche le TITAN vedono ottimizzazioni che erano riservate alle quadro, solo con i driver, stando a quanto dichiarato da nvidia, le prestazioni erano aumentate di 3 volte.
4. Le successive Titan,, hanno ottimizzazioni specifiche, che non si trovano su HW di livello inferiore.
5. Questa quindi, alla luce di quanto sopra non può essere considerata una TITAN, così come siamo abituati a vederla negli ultimi anni, se i driver sono i medesimi delle altre geforce. (che poi è LA differenza che contraddistingue le quadro e le geforce da.....sempre).
dire TITAN non vuol dire nulla
Poco ma sicuro!
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.