View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series
Cutter90
21-04-2021, 19:59
Ho letto i post sulle temperature, la mia TUF in overclock tra @2085-2115 con ram a +900 PL 112 e overvolt +50% non supera GPUtemp a 59°-61° con ventole tra 1750rpm e 1850rpm. Non mi pare una pessima dissipazione.
Eh beh. Hai una 3070. Temperature non paragonabili a una 3090
Con utilizzo do 450-470 watt arrivo a 75 gradi dopo un oretta con ventole all 80%. Confido che le temperature non aumentino molto d estate grazie al mio mostruoso airflow nel case
MikkiClock
21-04-2021, 20:00
Si è buona, ma le 3070 devono dissipare molta meno potenza, e anche le Gddr6 anzichè le X, fanno la loro parte.
Giusta osservazione, ma anche le 3080 tuf sono ottime sotto il profilo della dissipazione.
MikkiClock
21-04-2021, 20:07
Per la tuf 3080 vedi link.
https://www.youtube.com/watch?v=ojfeV-kD85c
Graphite600T
21-04-2021, 20:15
Giusta osservazione, ma anche le 3080 tuf sono ottime sotto il profilo della dissipazione.
Negativo. La 3070 facendo molti meno watt va bene per quel dissipatore
Jeetkundo
21-04-2021, 21:14
ma a che cosa giochi? io quando lanciavo metro exodus, red dead redemption e compagnia bella con la ventola al 100% a 350w (senza downvolt) andavo a 80+ gradi, ora con la strix a 350w con il profilo ventola 1/1
ovvero:
https://i.imgrpost.com/imgr/2021/04/21/Immagine.png (https://imgrpost.com/image/UEuOo)
mi fa 60 gradi con ventola quindi al 60%
oppure 70/80 gradi (esagerando) quando si ciuccia tutti i 480w (sempre senza downwolt), non è più inverno ma a trieste fa ancora fresco, ne riparilamo questa estate quando capperò a 420w :P
Doom Eternal a 4k e framerate fino a 140, Quake 2 rtx, Control 4k (DLSS con Rtx), direi che per sviluppare calore basta e avanza :D
Ho 3 profili, di solito sui giochi esosi uso 80% ventola. Gli 80 gradi non li ho mai visti, solo con Abe Soulstorm (caso stranissimo) ho raggiunto una temperatura di 77 gradi , ho risolto creando un profilo che tiene la vga 1750-1770mhz a 800mv (pare stabile). Su tutti gli altri giochi citati ho 850mv e 1800mhz.
Comunque non sto difendendo questa scheda, l'ho detto io stesso che è la meno performante di tutte. Però non mi sembra corretto far passare il messaggio che "ci si può cucinare la pasta o la pizza", tutto qui :D
MikkiClock
21-04-2021, 21:21
[QUOTE=Graphite600T;47374753]Negativo. La 3070 facendo molti meno watt va bene per quel dissipatore[/QUOTE
Hai aperto quel link? 61° e spiccioli. Il dissi della 3080 se non sbaglio ha due pipeline in più della 3070.
Cutter90
21-04-2021, 21:48
Doom Eternal a 4k e framerate fino a 140, Quake 2 rtx, Control 4k (DLSS con Rtx), direi che per sviluppare calore basta e avanza :D
Ho 3 profili, di solito sui giochi esosi uso 80% ventola. Gli 80 gradi non li ho mai visti, solo con Abe Soulstorm (caso stranissimo) ho raggiunto una temperatura di 77 gradi , ho risolto creando un profilo che tiene la vga 1750-1770mhz a 800mv (pare stabile). Su tutti gli altri giochi citati ho 850mv e 1800mhz.
Comunque non sto difendendo questa scheda, l'ho detto io stesso che è la meno performante di tutte. Però non mi sembra corretto far passare il messaggio che "ci si può cucinare la pasta o la pizza", tutto qui :D
Si ma a 1750 mhz sei molto basso. Perdi frame. Seriamente, vai come una 3080 XD
oZonoRobotics
21-04-2021, 22:06
Doom Eternal a 4k e framerate fino a 140, Quake 2 rtx, Control 4k (DLSS con Rtx), direi che per sviluppare calore basta e avanza :D
doom eternal ultra incubo 4k immagino ti faccia più di 144 fps se a 6880x2880 fa comunque 100 frame puliti
https://i.imgrpost.com/imgr/2021/04/21/Doom-Eternal-Screenshot-2021.04.18---10.11.49.21.png (https://imgrpost.com/image/UQdXh)
quindi non usi il 99% della vga
control immagino ne faccia meno anche con dlss quindi si li usi il 99% della vga a meno che per via del cap dei 350w non ti si downclocchi, boh ti dico, io ti parlo della mia esperienza
forse a me scaldava di più e tagliava fino a 1550mhz perchè tendo a fare ste maialate con il dsr
io se avessi il monitor 4k avrei già provato a lanciarlo ad 8k, e se avessi il monitor 8k a 16k lol
demonangel
22-04-2021, 00:02
[QUOTE=Graphite600T;47374753]Negativo. La 3070 facendo molti meno watt va bene per quel dissipatore[/QUOTE
Hai aperto quel link? 61° e spiccioli. Il dissi della 3080 se non sbaglio ha due pipeline in più della 3070.
La tuf ha un ottimo dissipatore lato chip Gpu..e aveva un ottimo rapporto qualità prezzo al lancio. Ma Asus non ha fatto nessun miracolo. Ha messo due aree di dissipazione separate per la GPU e le Vram. Guadagna ottimi gradi appunto sulla GPU a discapito di Vram pesantemente al limite termico.
Altri brand hanno optato per dissipazione unica a vantaggio dell'equilibrio termico dei componenti.
Ma non è una top gamma...non le si può chiedere di compiere prodigi.
Jeetkundo
22-04-2021, 00:02
Si ma a 1750 mhz sei molto basso. Perdi frame. Seriamente, vai come una 3080 XD
La vga in downvolt sta a 1800-1815 circa, solo in quel caso estremo di Abe (non su Metro Exodus o Control) l'ho dovuta abbassare. Potrei riprovare a testare i 1850-1900 ma appena comprata non ero riuscito a tenerli stabili, evidentemente il wattaggio non basta.
Se la uso stock sale fino a 1950 (a 1 e passa di voltaggio) ma è chiaro che non li regge (droppava a 1750 per poi risalire), tanto vale restare sempre a 1800 mhz fissi e scaldare un pò meno no?
Dici che quindi a 1800mhz vado come una 3080? Vabbè dai non penso che mi lasci di tanto una 3080, quanti fps farà in più rispetto alla mia, 5-10? E poi parli di una 3080 stock o OC? Se hai qualche comparativa linka, sono interessato.
doom eternal ultra incubo 4k immagino ti faccia più di 144 fps se a 6880x2880 fa comunque 100 frame puliti
quindi non usi il 99% della vga
control immagino ne faccia meno anche con dlss quindi si li usi il 99% della vga a meno che per via del cap dei 350w non ti si downclocchi, boh ti dico, io ti parlo della mia esperienza
forse a me scaldava di più e tagliava fino a 1550mhz perchè tendo a fare ste maialate con il dsr
io se avessi il monitor 4k avrei già provato a lanciarlo ad 8k, e se avessi il monitor 8k a 16k lol
Ah beh se spari giochi a 8k ci credo che scaldi :D
Ho comunque lanciato Doom Eternal un paio di minuti fa, ovviamente la temp è bassa perché l'ho tenuto giusto per fare lo screen.
Le impostazioni sono tutto al massimo 4k + HDR (infatti credo che si veda sbiadito lo screen), come puoi vedere la percentuale di utilizzo è intorno al 98% e gli fps sono sopra i 130 (io ho comunque un cap a 140 da rivatuner). In queste condizioni non ho mai raggiunto gli 80 gradi, son rimasto sempre intorno ai 70.
Per onor della cronaca senza HDR il gioco utilizza la vga al 90-94% (in quella sezione di livello), io però ho sempre usato l'HDR nelle 29 ore di gioco effettuate (piu' avanti recupero le due espansioni).
https://i.ibb.co/rQHqNdC/DOOMEternalx64vk-2021-04-22-00-42-45-405.png (https://ibb.co/rQHqNdC)
amon.akira
22-04-2021, 00:53
[QUOTE=MikkiClock;47374835]
La tuf ha un ottimo dissipatore lato chip Gpu..e aveva un ottimo rapporto qualità prezzo al lancio. Ma Asus non ha fatto nessun miracolo. Ha messo due aree di dissipazione separate per la GPU e le Vram. Guadagna ottimi gradi appunto sulla GPU a discapito di Vram pesantemente al limite termico.
Altri brand hanno optato per dissipazione unica a vantaggio dell'equilibrio termico dei componenti.
Ma non è una top gamma...non le si può chiedere di compiere prodigi.
veramente proprio lato vram da il meglio la tuf, mediamente mi tengo intorno a 80° vram, difficile fare meglio c'è chi gira sopra i 90 e chi sopra i 100
oZonoRobotics
22-04-2021, 03:47
Dici che quindi a 1800mhz vado come una 3080?
su youtube trovi dei video ma non ti fanno vedere come girano le due schede, ti mettono "i numerini" e basta quindi non so quanto siano attendibili, comunque a 4k sicuramente la 3090 è difficile che vada meno secondo me, a risoluzioni minori non so...
Cutter90
22-04-2021, 06:46
La vga in downvolt sta a 1800-1815 circa, solo in quel caso estremo di Abe (non su Metro Exodus o Control) l'ho dovuta abbassare. Potrei riprovare a testare i 1850-1900 ma appena comprata non ero riuscito a tenerli stabili, evidentemente il wattaggio non basta.
Se la uso stock sale fino a 1950 (a 1 e passa di voltaggio) ma è chiaro che non li regge (droppava a 1750 per poi risalire), tanto vale restare sempre a 1800 mhz fissi e scaldare un pò meno no?
Dici che quindi a 1800mhz vado come una 3080? Vabbè dai non penso che mi lasci di tanto una 3080, quanti fps farà in più rispetto alla mia, 5-10? E poi parli di una 3080 stock o OC? Se hai qualche comparativa linka, sono interessato.
Ah beh se spari giochi a 8k ci credo che scaldi :D
Ho comunque lanciato Doom Eternal un paio di minuti fa, ovviamente la temp è bassa perché l'ho tenuto giusto per fare lo screen.
Le impostazioni sono tutto al massimo 4k + HDR (infatti credo che si veda sbiadito lo screen), come puoi vedere la percentuale di utilizzo è intorno al 98% e gli fps sono sopra i 130 (io ho comunque un cap a 140 da rivatuner). In queste condizioni non ho mai raggiunto gli 80 gradi, son rimasto sempre intorno ai 70.
Per onor della cronaca senza HDR il gioco utilizza la vga al 90-94% (in quella sezione di livello), io però ho sempre usato l'HDR nelle 29 ore di gioco effettuate (piu' avanti recupero le due espansioni).
https://i.ibb.co/rQHqNdC/DOOMEternalx64vk-2021-04-22-00-42-45-405.png (https://ibb.co/rQHqNdC)
Basta che fai un bench di qualche gioco con 1750-1800 (bench integrati, tipo valhalla). Oppure un time spy e lo confrontiamo.
Capisci anche tu che acquistare una 3090 per farla andare come una 3080 non ha davvero il minimo senso. Dato che già costa il doppio, almeno quegli fps in più che fa rispetto alla 3080 sarebbero da conservare. Altrimenti prendevi una 3080 no?
Thunder-74
22-04-2021, 06:47
Riprendiamo discorso nVidia RTX IO.....
MICROSOFT INTRODUCE L'API DIRECTSTORAGE PER PC, COMPATIBILE CON PCIE 3.0 E DX12
Con il rilascio di Xbox Series S / X, Microsoft è stata in grado di lavorare su tecnologie di gestione dello storage più moderne quando si utilizzano macchine da gioco, in particolare implementando DirectStorage. Questa è una revisione completa sullo spostamento dei dati dalla ROM alla RAM e quindi alla GPU VRAM quando diventa necessario. Tuttavia, il sistema attuale non è più efficiente come in passato, poiché i dati vengono decompressi dalla CPU mentre attraversano la DRAM, creando sempre più un collo di bottiglia. Il DirectStorage permette quindi di eliminare il calcolo effettuato dal processore per trasferire direttamente i dati nella memoria della scheda grafica, che lascia la GPU per eseguire la decompressione, compito dove è diventato più
https://www.comptoir-hardware.com/images/stories/_software/api/directstorage_comparaison.jpg
Ebbene, la tecnologia non dovrebbe tardare ad arrivare sui nostri PC ora, secondo Microsoft durante una conferenza per gli sviluppatori. In effetti, l'anteprima è prevista per questa estate, che potrebbe prevedere l'arrivo sui nostri computer della versione 21H2 di Windows 10. Teoricamente, lo strumento sarà disponibile per tutti i titoli DirectX 12 - idealmente, con GPU in DirectX 12 Ultimate secondo Raymonde - senza manipolazione da parte dei progettisti di videogiochi, poiché è una caratteristica specifica del sistema operativo.
I vantaggi sulla carta sono interessanti: tempi di caricamento più rapidi, picchi di latenza di gioco ridotti o caricamento delle texture ancora più veloce per risparmiare VRAM. Quindi non ci resta che aspettare ancora qualche mese per vedere quali saranno i vantaggi per gli utenti ordinari. Ah e piccola ciliegina sulla torta: un SSD NVMe in PCIe 3.0 sarà sufficiente per utilizzare questa API, non sarà necessario investire in PCIe 4.0 attualmente. (fonte: Reddit)
oZonoRobotics
22-04-2021, 06:52
Altrimenti prendevi una 3080 no?
no lol
penso che più di qualcuno tipo me ha preso la 3090 vista l'impossibilità di prendere la 3080...
Cutter90
22-04-2021, 07:04
no lol
penso che più di qualcuno tipo me ha preso la 3090 vista l'impossibilità di prendere la 3080...
Ma la 3090 anche ora costa molto di più di una 3080..... così come nei primi mesi dal suo rilascio. Cioè, ma quanto gli avete dato?
Cutter90
22-04-2021, 07:05
Riprendiamo discorso nVidia RTX IO.....
MICROSOFT INTRODUCE L'API DIRECTSTORAGE PER PC, COMPATIBILE CON PCIE 3.0 E DX12
Con il rilascio di Xbox Series S / X, Microsoft è stata in grado di lavorare su tecnologie di gestione dello storage più moderne quando si utilizzano macchine da gioco, in particolare implementando DirectStorage. Questa è una revisione completa sullo spostamento dei dati dalla ROM alla RAM e quindi alla GPU VRAM quando diventa necessario. Tuttavia, il sistema attuale non è più efficiente come in passato, poiché i dati vengono decompressi dalla CPU mentre attraversano la DRAM, creando sempre più un collo di bottiglia. Il DirectStorage permette quindi di eliminare il calcolo effettuato dal processore per trasferire direttamente i dati nella memoria della scheda grafica, che lascia la GPU per eseguire la decompressione, compito dove è diventato più
https://www.comptoir-hardware.com/images/stories/_software/api/directstorage_comparaison.jpg
Ebbene, la tecnologia non dovrebbe tardare ad arrivare sui nostri PC ora, secondo Microsoft durante una conferenza per gli sviluppatori. In effetti, l'anteprima è prevista per questa estate, che potrebbe prevedere l'arrivo sui nostri computer della versione 21H2 di Windows 10. Teoricamente, lo strumento sarà disponibile per tutti i titoli DirectX 12 - idealmente, con GPU in DirectX 12 Ultimate secondo Raymonde - senza manipolazione da parte dei progettisti di videogiochi, poiché è una caratteristica specifica del sistema operativo.
I vantaggi sulla carta sono interessanti: tempi di caricamento più rapidi, picchi di latenza di gioco ridotti o caricamento delle texture ancora più veloce per risparmiare VRAM. Quindi non ci resta che aspettare ancora qualche mese per vedere quali saranno i vantaggi per gli utenti ordinari. Ah e piccola ciliegina sulla torta: un SSD NVMe in PCIe 3.0 sarà sufficiente per utilizzare questa API, non sarà necessario investire in PCIe 4.0 attualmente. (fonte: Reddit)
Sembra tanta roba. stiamo a vedere come si sviluppa la cosa:D
Jeetkundo
22-04-2021, 07:11
Basta che fai un bench di qualche gioco con 1750-1800 (bench integrati, tipo valhalla). Oppure un time spy e lo confrontiamo.
Capisci anche tu che acquistare una 3090 per farla andare come una 3080 non ha davvero il minimo senso. Dato che già costa il doppio, almeno quegli fps in più che fa rispetto alla 3080 sarebbero da conservare. Altrimenti prendevi una 3080 no?Ok magari proviamo un timespy (credo che ci fosse una versione che lo lancia a 4k), ti contatto via pm in giornata.
Mi pare comunque strano che per 200mhz (non so a quanto tu la tenga ma mettiamo 2000) una 3090 sia uguale o inferiore ad una 3080. Nelle review c'era sempre una differenza di fps tra due modelli stock.
Sul prezzo e l'acquisto: l'ho presa perché c'era solo quella e, con il senno di poi, sono anche contento. A novembre 2020 pagata 1420 euro spese incluse da Amazzone spagnola (ero da marzo 2020 senza scheda, ho venduto una 2080ti). Oggi la zotac 3090 la vedo a 2500 euro :D
Inviato dal mio LYA-L09 utilizzando Tapatalk
Cutter90
22-04-2021, 07:18
Ok magari proviamo un timespy (credo che ci fosse una versione che lo lancia a 4k), ti contatto via pm in giornata.
Mi pare comunque strano che per 200mhz (non so a quanto tu la tenga ma mettiamo 2000) una 3090 sia uguale o inferiore ad una 3080. Nelle review c'era sempre una differenza di fps tra due modelli stock.
Sul prezzo e l'acquisto: l'ho presa perché c'era solo quella e, con il senno di poi, sono anche contento. A novembre 2020 pagata 1420 euro spese incluse da Amazzone spagnola (ero da marzo 2020 senza scheda, ho venduto una 2080ti). Oggi la zotac 3090 la vedo a 2500 euro :D
Inviato dal mio LYA-L09 utilizzando Tapatalk
Sinceramente non so quanto possa fare una 3080 in time spy, ne a stock ne in oc. Magari se qualche anima pia condivide i suoi risultati qui facciamo meglio:)
mattxx88
22-04-2021, 07:30
raga mi ricordate velocemente un buon cavo DP? non ricordo più che modello ho nel mio pc
edit: a post, ho fatto prendere il kabel direkt 8k
oZonoRobotics
22-04-2021, 07:30
Ma la 3090 anche ora costa molto di più di una 3080..... così come nei primi mesi dal suo rilascio. Cioè, ma quanto gli avete dato?
io 2459 euro usata su amazon, ma il discorso che faccio io è proprio che di 3080 strix viste pochissime su a****n vendute a non meno di 2000, su keepa.com puoi trovare lo storico...
mentre su negozietti satelliti o caseking tedesco mai, arrivano sempre i modelli "primo prezzo" se di primo prezzo possiamo parlare e vanno comunque via nel giro di poche ore... io avevo fatto il pc pensando che a marzo 2020 sarebbero uscite le 3000 e invece ora mi ritrovo con il pc già vecchio! quindi o compravo questa ora oppure se ne riparlava prossimo anno se andrà bene, alla fine non sono pentito, è un trattore, devo prendere un cavo in fibra per collegarlo alla tv 4k in salotto e vedere come gira l'8k hahhahahhah
fraussantin
22-04-2021, 07:40
io 2459 euro usata su amazon, ma il discorso che faccio io è proprio che di 3080 strix viste pochissime su a****n vendute a non meno di 2000, su keepa.com puoi trovare lo storico...
Penso che keepa non faccia in tempo neanche a vederle le RTX vendute direttamente da Amazon con prezzi "regolari".
Cutter90
22-04-2021, 07:55
io 2459 euro usata su amazon, ma il discorso che faccio io è proprio che di 3080 strix viste pochissime su a****n vendute a non meno di 2000, su keepa.com puoi trovare lo storico...
mentre su negozietti satelliti o caseking tedesco mai, arrivano sempre i modelli "primo prezzo" se di primo prezzo possiamo parlare e vanno comunque via nel giro di poche ore... io avevo fatto il pc pensando che a marzo 2020 sarebbero uscite le 3000 e invece ora mi ritrovo con il pc già vecchio! quindi o compravo questa ora oppure se ne riparlava prossimo anno se andrà bene, alla fine non sono pentito, è un trattore, devo prendere un cavo in fibra per collegarlo alla tv 4k in salotto e vedere come gira l'8k hahhahahhah
Di 3080 ne esistono una marea di modelli, mica solo la stix. Del resto, si, ora c'è ben poco da fare. MA ne primi 2-3 mesi se ne trovavano, anche di 3080. Certo, bisognava avere fortuna e gli agganci giusti :D
oZonoRobotics
22-04-2021, 07:59
Di 3080 ne esistono una marea di modelli, mica solo la stix
sono fanboy rog se non si fosse capito ahhahahahaha
Penso che keepa non faccia in tempo neanche a vederle le RTX vendute direttamente da Amazon con prezzi "regolari".
in realtà a prezzi regolari non ci son mai state :P
io 2459 euro usata su amazon
https://media0.giphy.com/media/3cB7aOM6347PW/giphy.gif
TigerTank
22-04-2021, 09:24
Di 3080 ne esistono una marea di modelli, mica solo la stix. Del resto, si, ora c'è ben poco da fare. MA ne primi 2-3 mesi se ne trovavano, anche di 3080. Certo, bisognava avere fortuna e gli agganci giusti :D
Sì infatti...o comunque nei primi mesi anche chi ha ripiegato su una 3090 perchè non si trovavano già le 3080 ha speso meno di quel che dovrebbe spendere ora nel beccare una rara 3080 :doh:
Le 3090 invece, lasciamo perdere....prezzi che ormai sono da schede realmente pro o da scooters :sofico:
nickname88
22-04-2021, 09:45
io 2459 euro usata su amazon
Hai dato 2500 euro per una 3090 .... usata ? :eek:
TigerTank
22-04-2021, 10:07
Riprendiamo discorso nVidia RTX IO.....
MICROSOFT INTRODUCE L'API DIRECTSTORAGE PER PC, COMPATIBILE CON PCIE 3.0 E DX12
Con il rilascio di Xbox Series S / X, Microsoft è stata in grado di lavorare su tecnologie di gestione dello storage più moderne quando si utilizzano macchine da gioco, in particolare implementando DirectStorage. Questa è una revisione completa sullo spostamento dei dati dalla ROM alla RAM e quindi alla GPU VRAM quando diventa necessario. Tuttavia, il sistema attuale non è più efficiente come in passato, poiché i dati vengono decompressi dalla CPU mentre attraversano la DRAM, creando sempre più un collo di bottiglia. Il DirectStorage permette quindi di eliminare il calcolo effettuato dal processore per trasferire direttamente i dati nella memoria della scheda grafica, che lascia la GPU per eseguire la decompressione, compito dove è diventato più
https://www.comptoir-hardware.com/images/stories/_software/api/directstorage_comparaison.jpg
Ebbene, la tecnologia non dovrebbe tardare ad arrivare sui nostri PC ora, secondo Microsoft durante una conferenza per gli sviluppatori. In effetti, l'anteprima è prevista per questa estate, che potrebbe prevedere l'arrivo sui nostri computer della versione 21H2 di Windows 10. Teoricamente, lo strumento sarà disponibile per tutti i titoli DirectX 12 - idealmente, con GPU in DirectX 12 Ultimate secondo Raymonde - senza manipolazione da parte dei progettisti di videogiochi, poiché è una caratteristica specifica del sistema operativo.
I vantaggi sulla carta sono interessanti: tempi di caricamento più rapidi, picchi di latenza di gioco ridotti o caricamento delle texture ancora più veloce per risparmiare VRAM. Quindi non ci resta che aspettare ancora qualche mese per vedere quali saranno i vantaggi per gli utenti ordinari. Ah e piccola ciliegina sulla torta: un SSD NVMe in PCIe 3.0 sarà sufficiente per utilizzare questa API, non sarà necessario investire in PCIe 4.0 attualmente. (fonte: Reddit)
Intressante, speriamo bene non sia come altre features Microsoft che alla fine disattivi perchè portano più rogne che vantaggi(come la game mode o il gpu scheduling) :D
Thunder-74
22-04-2021, 10:18
Sinceramente non so quanto possa fare una 3080 in time spy, ne a stock ne in oc. Magari se qualche anima pia condivide i suoi risultati qui facciamo meglio:)
3080 in OC
https://i.imgur.com/uKs8ffyl.jpg
Jeetkundo
22-04-2021, 10:25
Sinceramente non so quanto possa fare una 3080 in time spy, ne a stock ne in oc. Magari se qualche anima pia condivide i suoi risultati qui facciamo meglio:)
In attesa dei vostri feedback ho cercato un pò di info su internet. Ho preso le recensioni di Nexthwardware della 3090 Zotac trinity e della 3080 oc strix Asus (la migliore 3080 o quasi).
Su Timespy Extreme Async ON il graphic score è:
- 9664 per la 3090 Zotac stock
- 8966 per la 3080 oc strix (stock, 1905-1935mhz boost)
In overclock la 3080 oc strix (+90mhz sul core e +700 sulle ram | "frequenza media operativa di 2130mhz con picchi di 2175) ottiene invece 9706 punti, nel dettaglio
Graphic test 1: 61,66 fps
Graphic test 2: 56,95 fps
-----------------------------------------------------------------------
Driver 461.40 | ResizeBar: non attiva | Time Spy Extreme
Ecco i risultati dei miei test. Quello stock ha avuto una media di 1735mhz, come frequenza di punta 1965 mhz. Score grafico: 9248 punti.
Graphic test 1: 59,32 fps
Graphic test 2: 53,79 fps
https://www.3dmark.com/spy/19855719
Ecco i risultati con il profilo 1800-1815mhz a 850mv. Score grafico: 9389 punti.
Graphic test 1: 59,57 fps
Graphic test 2: 55,15 fps
https://www.3dmark.com/3dm/60926855?
Infine i risultati con un OC al volo, +100mhz sul core e +500 sulle RAM, voltaggio a fondoscala da MSI. Punta massima 2040mhz. Score Grafico: 9649 punti.
Graphic test 1: 61,61 fps
Graphic test 2: 56,35 fps
https://www.3dmark.com/3dm/60927775?
------------------------------------------------------------------------------
Conclusioni provvisorie in attesa di test degli utenti 3080:
- la migliore delle 3080 in OC bello sostenuto (2100mhz e passa) supera di 2 fps e mezzo una 3090 stock (non una delle migliori);
- il vantaggio della 3080 in OC quasi si azzera su una 3090 OC (parlo sempre del mio modello).
Jeetkundo
22-04-2021, 10:42
3080 in OC
https://i.imgur.com/uKs8ffyl.jpg
Eh vabbè dai ma qui hai sparato una strix moddata a liquido, non vale :D
Comunque con TimeSpy base lo score grafico è 18072. Se scrivi anche gli fps dei test 1 e 2 vediamo quanto cambia.
Graphics test 1
119.52 FPS
Graphics test 2
102.30 FPS
Puoi fare anche un test con Extreme?
Thunder-74
22-04-2021, 10:46
Eh vabbè dai ma qui hai sparato una strix moddata a liquido, non vale :D
Comunque con TimeSpy base lo score grafico è 18072. Se scrivi anche gli fps dei test 1 e 2 vediamo quanto cambia.
Graphics test 1
119.52 FPS
Graphics test 2
102.30 FPS
Puoi fare anche un test con Extreme?
Questo c'ho :fagiano:
https://i.imgur.com/TatunkT.jpg
Come posso lo faccio in extreme ;)
Questo test lo feci un po' di mesi fa...
Cutter90
22-04-2021, 10:47
In attesa dei vostri feedback ho cercato un pò di info su internet. Ho preso le recensioni di Nexthwardware della 3090 Zotac trinity e della 3080 oc strix Asus (la migliore 3080 o quasi).
Su Timespy Extreme Async ON il graphic score è:
- 9664 per la 3090 Zotac stock
- 8966 per la 3080 oc strix (stock, 1905-1935mhz boost)
In overclock la 3080 oc strix (+90mhz sul core e +700 sulle ram | "frequenza media operativa di 2130mhz con picchi di 2175) ottiene invece 9706 punti, nel dettaglio
Graphic test 1: 61,66 fps
Graphic test 2: 56,95 fps
-----------------------------------------------------------------------
Driver 461.40 | ResizeBar: non attiva | Time Spy Extreme
Ecco i risultati dei miei test. Quello stock ha avuto una media di 1735mhz, come frequenza di punta 1965 mhz. Score grafico: 9248 punti.
Graphic test 1: 59,32 fps
Graphic test 2: 53,79 fps
https://www.3dmark.com/spy/19855719
Ecco i risultati con il profilo 1800-1815mhz a 850mv. Score grafico: 9389 punti.
Graphic test 1: 59,57 fps
Graphic test 2: 55,15 fps
https://www.3dmark.com/3dm/60926855?
Infine i risultati con un OC al volo, +100mhz sul core e +500 sulle RAM, voltaggio a fondoscala da MSI. Punta massima 2040mhz. Score Grafico: 9649 punti.
Graphic test 1: 61,61 fps
Graphic test 2: 56,35 fps
https://www.3dmark.com/3dm/60927775?
------------------------------------------------------------------------------
Conclusioni provvisorie in attesa di test degli utenti 3080:
- la migliore delle 3080 in OC bello sostenuto (2100mhz e passa) supera di 2 fps e mezzo una 3090 stock (non una delle migliori);
- il vantaggio della 3080 in OC quasi si azzera su una 3090 OC (parlo sempre del mio modello).
Riusciresti a fare il time spy normale nel caso? E' più "comune".
Detto questo più che i bench come questo sono interessanti ingame. Perchè ingame quei 1800 mhz fissi ti fanno perdere svariati fps rispetto allo stock e all'oc. Avevo dimostrato in horizon che tra un undervolt di 1800 fisso e un oc come il mio con + 120+500 (mi pare) si perdevano qualcosa come 8-10 fps in 4k. 8-10 fps che sono a grandi linee proprio la differenza tra una 3090 e una 3080
Ecco il confronto che feci
https://i.imgrpost.com/imgr/2021/01/26/Horizon-Zero-Dawn-Complete-Edition-Screenshot-2021.01.26---18.31.53.27.md.png (https://imgrpost.com/image/D1Wyb)
https://i.imgrpost.com/imgr/2021/01/26/Horizon-Zero-Dawn-Complete-Edition-Screenshot-2021.01.26---18.33.47.05.md.png (https://imgrpost.com/image/D1Vdn)
Cutter90
22-04-2021, 11:00
Eh vabbè dai ma qui hai sparato una strix moddata a liquido, non vale :D
Comunque con TimeSpy base lo score grafico è 18072. Se scrivi anche gli fps dei test 1 e 2 vediamo quanto cambia.
Graphics test 1
119.52 FPS
Graphics test 2
102.30 FPS
Puoi fare anche un test con Extreme?
Ah eccolo. E infatti è basso. Una 3080 nemmeno tanto tirata fa uguale. Io stock faccio 20000 con la Aorus. Chiaramente ventole al 100%, vero?
Jeetkundo
22-04-2021, 11:04
Riusciresti a fare il time spy normale nel caso? E' più "comune".
Detto questo più che i bench come questo sono interessanti ingame. Perchè ingame quei 1800 mhz fissi ti fanno perdere svariati fps rispetto allo stock e all'oc. Avevo dimostrato in horizon che tra un undervolt di 1800 fisso e un oc come il mio con + 120+500 (mi pare) si perdevano qualcosa come 8-10 fps in 4k. 8-10 fps che sono a grandi linee proprio la differenza tra una 3090 e una 3080
Ecco il confronto che feci
https://i.imgrpost.com/imgr/2021/01/26/Horizon-Zero-Dawn-Complete-Edition-Screenshot-2021.01.26---18.31.53.27.md.png (https://imgrpost.com/image/D1Wyb)
https://i.imgrpost.com/imgr/2021/01/26/Horizon-Zero-Dawn-Complete-Edition-Screenshot-2021.01.26---18.33.47.05.md.png (https://imgrpost.com/image/D1Vdn)Si ho fatto anche quello base, 18072 punti (guarda un paio di post sopra). Ho fatto extreme per sfruttare al massimo la vga a 4k.
Sui giochi sarebbe sicuramente più interessante (e realistico) fare qualche test ma servirebbe un test integrato che abbiamo entrambi, horizon ad esempio non ce l'ho :/
Così ad occhio possiamo dire che le migliori 3080 in OC (1900-2000mhz) raggiungono o superano (5-7 fps) le 3090 base (1800mhz circa)
Ah eccolo. E infatti è basso. Una 3080 nemmeno tanto tirata fa uguale. Io stock faccio 20000 con la Aorus. Chiaramente ventole al 100%, vero?
A proposito ma tu 20k punti con che frequenze operative li ottieni? Hai gli fps dei test 1 e 2?
No la ventola la tengo a 80 o 86%. Non ho provato a metterla al 100% ma non penso che cambi molto :)
Inviato dal mio LYA-L09 utilizzando Tapatalk
Cutter90
22-04-2021, 11:16
Si ho fatto anche quello base, 18072 punti (guarda un paio di post sopra). Ho fatto extreme per sfruttare al massimo la vga a 4k.
Sui giochi sarebbe sicuramente più interessante (e realistico) fare qualche test ma servirebbe un test integrato che abbiamo entrambi, horizon ad esempio non ce l'ho :/
Così ad occhio possiamo dire che le migliori 3080 in OC (1900-2000mhz) raggiungono o superano (5-7 fps) le 3090 base (1800mhz circa)
A proposito ma tu 20k punti con che frequenze operative li ottieni? Hai gli fps dei test 1 e 2?
No la ventola la tengo a 80 o 86%. Non ho provato a metterla al 100% ma non penso che cambi molto :)
Inviato dal mio LYA-L09 utilizzando Tapatalk
Diciamo che si fa con el ventole al 100% per ottenere qualcosa in più.
http://www.3dmark.com/spy/16084616
Ecco qua
Graphics Test 1 130.98 fps
Graphics Test 2 114.82 fps
Cos'hai come gioco con bench? Ma che poi in realtà basterebbe anche un punto specifico ingame, come appunto il mio ad horizon
Thunder-74
22-04-2021, 11:24
scusate, ma non ho resistito... :D :oink:
https://i.imgur.com/qjEGB9k.jpg
mattxx88
22-04-2021, 11:26
Eh vabbè dai ma qui hai sparato una strix moddata a liquido, non vale :D
Comunque con TimeSpy base lo score grafico è 18072. Se scrivi anche gli fps dei test 1 e 2 vediamo quanto cambia.
Graphics test 1
119.52 FPS
Graphics test 2
102.30 FPS
Puoi fare anche un test con Extreme?
3090 a liquido
https://i.ibb.co/KySccTJ/3090.png (https://ibb.co/SvGDDFz)
https://i.ibb.co/DCfKxjp/30902.png (https://ibb.co/R0THxJy)
ed erano ancora i driver vecchi, devo provare coi nuovi che su port royal mi ha dato 400+ pt
Jeetkundo
22-04-2021, 11:27
Diciamo che si fa con el ventole al 100% per ottenere qualcosa in più.
http://www.3dmark.com/spy/16084616
Ecco qua
Graphics Test 1 130.98 fps
Graphics Test 2 114.82 fps
Cos'hai come gioco con bench? Ma che poi in realtà basterebbe anche un punto specifico ingame, come appunto il mio ad horizon
Scusa ma avevo capito che tu avessi una 3080, invece vedo che hai una 3090 Aorus Extreme e pure con il bios da 500w. Non posso mica competere con te! :D :D :D
3090 a liquido
https://i.ibb.co/KySccTJ/3090.png (https://ibb.co/SvGDDFz)
Eeeeh vabbè dai, non ha senso volete distruggermi. :D Ho una 3090 ad aria entry level oh! :D
mattxx88
22-04-2021, 11:34
no macche, non ce paragone chiaro con gpu aria vs acqua.
avevo capito volessi vedere un confronto con na 3080 a liquido
Cutter90
22-04-2021, 11:38
3090 a liquido
https://i.ibb.co/KySccTJ/3090.png (https://ibb.co/SvGDDFz)
https://i.ibb.co/DCfKxjp/30902.png (https://ibb.co/R0THxJy)
ed erano ancora i driver vecchi, devo provare coi nuovi che su port royal mi ha dato 400+ pt
Infatti, anche io è un bel po' che non benchio.... anche se ora fa più caldo ovviamente. Chissà se con il risezable bar cambia qualcosa?!?!
https://www.3dmark.com/spy/17726079
Io ad aria con la 3090 bios da 500 watt con OC mi fermo ai piedi dei 22.000. Solo 1000 in meno è onestissimo. Ma sono estremante contento ovviamente
Giusto per curiosità hai anche i due valori degli fps?
amon.akira
22-04-2021, 14:01
Scusa ma avevo capito che tu avessi una 3080, invece vedo che hai una 3090 Aorus Extreme e pure con il bios da 500w. Non posso mica competere con te! :D :D :D
Eeeeh vabbè dai, non ha senso volete distruggermi. :D Ho una 3090 ad aria entry level oh! :D
questa una normalissima 3080 ad aria limitata a 350watt
timespy con quality in nvidia panel (https://www.3dmark.com/spy/19434224)
con performance arrivo a 19mila gs
Jeetkundo
22-04-2021, 14:18
questa una normalissima 3080 ad aria limitata a 350watt
timespy con quality in nvidia panel (https://www.3dmark.com/spy/19434224)
con performance arrivo a 19mila gsVedo che tiene sempre i 2000mhz anche questa. Non credo sia la normalità, soprattutto per questa serie. Anche la tua sarà un modello selezionato, non di certo entry level.
Inviato dal mio LYA-L09 utilizzando Tapatalk
Cutter90
22-04-2021, 15:03
Vedo che tiene sempre i 2000mhz anche questa. Non credo sia la normalità, soprattutto per questa serie. Anche la tua sarà un modello selezionato, non di certo entry level.
Inviato dal mio LYA-L09 utilizzando Tapatalk
Le 3080 salgono di più delle 3090. Di un circa 100 mhz. Quindi non si può fare un paragone diretto. Ma per una 3080 2000mhz sono normalissimi
oZonoRobotics
22-04-2021, 15:36
https://media0.giphy.com/media/3cB7aOM6347PW/giphy.gif
è la mia reazione di quando vidi la 2080ti strix appena uscita a 1650 euro su a****n infatti la lasciai la avendo la 1080ti, visto che andava "poco" di più, sto giro ho il 100% in più di prestazioni e il passaggio si sente
Hai dato 2500 euro per una 3090 .... usata ? :eek:
scommetto che avete smesso da un po' di guardare i prezzi
se disponibili 3500, altrimenti su certi shop son listate a 2500 ma mai disponibili, alla fine l'ho pagata 500 euro in più del prezzo che avevano dato appena uscite, che poi è aumentato dagli ab vista la scarsità... siccome 3699 su a****n non glieli davo nemmeno io, o prendevo questa oppure buonanotte
comunque usata come nuova, aveva ancora le pellicole da tirar via, buon per voi se l'avete pagata msrp... io è da settembre che cercavo sui canali tradizionali....
ho ammortizzato vendendo a 600 euro la 1080ti che avevo prima... a sto giro è andata così...
comunque cambiando discorso sono arrivato a casa un'ora fa e motogp dava 1 ora per lo sblocco del download ed è ancora fermo la
nickname88
22-04-2021, 16:23
è la mia reazione di quando vidi la 2080ti strix appena uscita a 1650 euro su a****n infatti la lasciai la avendo la 1080ti, visto che andava "poco" di più, sto giro ho il 100% in più di prestazioni e il passaggio si sente
scommetto che avete smesso da un po' di guardare i prezzi
se disponibili 3500, altrimenti su certi shop son listate a 2500 ma mai disponibili, alla fine l'ho pagata 500 euro in più del prezzo che avevano dato appena uscite, che poi è aumentato dagli ab vista la scarsità... siccome 3699 su a****n non glieli davo nemmeno io, o prendevo questa oppure buonanotte
comunque usata come nuova, aveva ancora le pellicole da tirar via, buon per voi se l'avete pagata msrp... io è da settembre che cercavo sui canali tradizionali....
ho ammortizzato vendendo a 600 euro la 1080ti che avevo prima... a sto giro è andata così...
comunque cambiando discorso sono arrivato a casa un'ora fa e motogp dava 1 ora per lo sblocco del download ed è ancora fermo la
Caspita ! E io che pensavo di aver subito un estorsione pagando mille per una 3080 nuova TUF causa ricatto telefonico da parte di N3xt. :stordita:
Graphite600T
22-04-2021, 16:29
Caspita ! E io che pensavo di aver subito un estorsione pagando mille per una 3080 nuova TUF causa ricatto telefonico da parte di N3xt. :stordita:
Io ho avuto la fortuna di prendere un preassemblato con 5900x e 3080 a 2k e vendere tutto il resto compreso il 5800x(che già avevo) a 1800€ così mi sono costati ben poco
oZonoRobotics
22-04-2021, 16:36
Caspita ! E io che pensavo di aver subito un estorsione pagando mille per una 3080 nuova TUF causa ricatto telefonico da parte di N3xt. :stordita:
la tuf anche un mio amico l'ha ordinata il 17 settembre su d**ko a 844 se non sbaglio e non l'ha ancora ricevuta... magari tra 3 mesi finiscono i lockdown e si sgonfia la bolla, magari no... se uno non può aspettare, compra... la solita legge di domanda e offerta :P
scatolone
22-04-2021, 16:36
Io ho avuto la fortuna di prendere un preassemblato con 5900x e 3080 a 2k e vendere tutto il resto compreso il 5800x(che già avevo) a 1800€ così mi sono costati ben poco
Io tra una cosa e l'altra alla fine sono passato da una 2070FE a una 6900XT e da 2700X a 3900 senza cacciare un'euro, ho dovuto fare diversi giri ma ne è valsa la pena :D
Jeetkundo
22-04-2021, 17:02
Le 3080 salgono di più delle 3090. Di un circa 100 mhz. Quindi non si può fare un paragone diretto. Ma per una 3080 2000mhz sono normalissimi
Bhe allora mi vendo questa a 2600 euro e compro una strix 3080 a 2000 no? :D
nickname88
22-04-2021, 17:13
la tuf anche un mio amico l'ha ordinata il 17 settembre su d**ko a 844 se non sbaglio e non l'ha ancora ricevuta... magari tra 3 mesi finiscono i lockdown e si sgonfia la bolla, magari no... se uno non può aspettare, compra... la solita legge di domanda e offerta :P
Guarda che anche io l'ho ordinata a 899 la mia scheda attuale a Dicembre.
Il problema è che quando poi la scheda arriva, ti chiamano al telefono e ti fanno un nuovo prezzo, e ti dicono che se accetti bene, altrimenti perdi il posto in coda.
Al dragone non la riceverai mai, sono ancora in coda io sulla Gigabyte che era quella meno affollata e sono ancora 44esimo, la TUF aveva a Febbraio più di 300 utenti in coda.
oZonoRobotics
22-04-2021, 17:24
Guarda che anche io l'ho ordinata a 899 la mia scheda attuale a Dicembre.
Il problema è che quando poi la scheda arriva, ti chiamano al telefono e ti fanno un nuovo prezzo, e ti dicono che se accetti bene, altrimenti perdi il posto in coda.
Al dragone non la riceverai mai, sono ancora in coda io sulla Gigabyte che era quella meno affollata e sono ancora 44esimo, la TUF aveva a Febbraio più di 300 utenti in coda.
si, i posti che scali in coda sono in realtà quelli che rinunciano,
hanno sbloccato motogp, c'è qualcuno che lo sta scaricando?
Iceman69
22-04-2021, 18:40
Le 3080 salgono di più delle 3090. Di un circa 100 mhz. Quindi non si può fare un paragone diretto. Ma per una 3080 2000mhz sono normalissimi
Mica tanto, o meglio dipende come li conti, se vuoi 2000mhz veri, senza continui cali per tagli di potenza o calore devi avere una scheda che salga parecchio e riesca a tenere i 2000mhz a 0,85v e ce ne sono poche così.
Io ho avuto una suprim 3080 e pur essendo una buona scheda senza tagli e con temperature sensate la dovevo tenere a 1950, solo 30mhz in più rispetto alla strix 3090 che ho adesso, quindi alla fine non è che come frequenze ci sia poi tanta differenza tra 3080 e 3090 (almeno per la mi esperienza). Ovvio con ventole che non superano i 1500 giri e temperature intorno ai 70 C°. che nel mio caso vuol dire 370/380w di potenza utilizzata.
system450
22-04-2021, 18:48
io 2459 euro usata su amazon
Ho capito che uno dei suoi soldi fa ciò che vuole, ma così si alimentano ancora gli scalper... no... non ci siamo proprio !!!
Continuando così andrà sempre peggio... :doh: :doh: :doh:
Cutter90
22-04-2021, 19:02
Mica tanto, o meglio dipende come li conti, se vuoi 2000mhz veri, senza continui cali per tagli di potenza o calore devi avere una scheda che salga parecchio e riesca a tenere i 2000mhz a 0,85v e ce ne sono poche così.
Io ho avuto una suprim 3080 e pur essendo una buona scheda senza tagli e con temperature sensate la dovevo tenere a 1950, solo 30mhz in più rispetto alla strix 3090 che ho adesso, quindi alla fine non è che come frequenze ci sia poi tanta differenza tra 3080 e 3090 (almeno per la mi esperienza). Ovvio con ventole che non superano i 1500 giri e temperature intorno ai 70 C°. che nel mio caso vuol dire 370/380w di potenza utilizzata.
Dipende chiaramente da che percentuale tieni le ventole. Ma le 3080 salgono un po di più di frequenze, questo si può ben notare anche dai bench.
Io a 70 gradi sto sopra i 2000 "tranquillo " ad esempio. Ventole all 80%
oZonoRobotics
22-04-2021, 19:53
Ho capito che uno dei suoi soldi fa ciò che vuole, ma così si alimentano ancora gli scalper... no... non ci siamo proprio !!!
Continuando così andrà sempre peggio... :doh: :doh: :doh:
eh, se non avessi saltato la 2080ti probabilmente non avrei comprato niente, ma, non avendo il dlss a 3440x1440 ormai ero committed... scapler o non scalper, in futuro assomiglierà a mad max :P
oZonoRobotics
22-04-2021, 20:43
3840x2160 200% rendering
https://i.imgrpost.com/imgr/2021/04/22/Motogp21-Screenshot-2021.04.22---21.06.51.89.md.png (https://imgrpost.com/image/UQQ7H)
https://i.imgrpost.com/imgr/2021/04/22/Motogp21-Screenshot-2021.04.22---21.08.33.85.md.png (https://imgrpost.com/image/UQneC)
https://i.imgrpost.com/imgr/2021/04/22/Motogp21-Screenshot-2021.04.22---21.08.22.05.md.png (https://imgrpost.com/image/UQu28)
3840x2160 100% rendering
https://i.imgrpost.com/imgr/2021/04/22/Motogp21-Screenshot-2021.04.22---19.33.45.66.md.png (https://imgrpost.com/image/UQcDN)
https://i.imgrpost.com/imgr/2021/04/22/Motogp21-Screenshot-2021.04.22---19.33.55.90.md.png (https://imgrpost.com/image/UQgNn)
purtroppo a me non va in 3440x1440... mi sembra strano però che non abbia supporto al 21/9 nativamente...
Iceman69
22-04-2021, 20:55
Dipende chiaramente da che percentuale tieni le ventole. Ma le 3080 salgono un po di più di frequenze, questo si può ben notare anche dai bench.
Io a 70 gradi sto sopra i 2000 "tranquillo " ad esempio. Ventole all 80%
Io per stare sopra i 2000 dovrei metterla a 480w, il che vorrebbe dire temperature folli o rumore insopportabile, quindi niente, la tengo a 380 e mi accontento di 1920Mhz a 0,875v (con saltuari tagli di potenza nei giochi più impegnativi).
Cutter90
22-04-2021, 22:26
Io per stare sopra i 2000 dovrei metterla a 480w, il che vorrebbe dire temperature folli o rumore insopportabile, quindi niente, la tengo a 380 e mi accontento di 1920Mhz a 0,875v (con saltuari tagli di potenza nei giochi più impegnativi).
Va beh, ma 1920 è ottimo lo stesso
Thunder-74
23-04-2021, 07:15
Secondo quanto riferito, Nvidia sta lavorando a una versione giocabile della demo RTX "Marbles at Night"
https://overclock3d.net/gfx/articles/2021/04/22221427188s.jpg
Sembra che Nvidia sia vicina al rilascio di una versione pubblica della sua demo tecnologica RTX "Marbles at Night", trasformando una delle demo tecnologiche più belle dell'azienda in un gioco completamente giocabile.
Marbles at Night è una delle vetrine più efficaci di Nvidia della sua tecnologia RTX, che utilizza ray tracing e DLSS per creare immagini di qualità cinematografica CGI in tempo reale. Finora, Nvidia ha mostrato questa demo con entrambe le schede grafiche Turing e Ampere, dimostrando i vantaggi del set di funzionalità RTX di Nvidia. Tuttavia, Nvidia non ha rilasciato al pubblico la sua demo tecnologica, impedendo ai giocatori di mettere alla prova le affermazioni di Nvidia sulla riproduzione in tempo reale.
Durante l' evento di lancio della serie GeForce RTX 30 a settembre, il CEO di NVIDIA Jensen Huang ha svelato una versione più stimolante del progetto NVIDIA Marbles RTX: allestire la scena di notte e illustrare l'effetto di centinaia di luci dinamiche e animate.
Marbles at Night è una demo basata sulla fisica creata con luci dinamiche con ray tracing e oltre 100 milioni di poligoni. Costruito in NVIDIA Omniverse e in esecuzione su una singola GPU GeForce RTX 3090, il risultato finale ha mostrato centinaia di diverse sorgenti luminose di notte, con ogni biglia che riflette le luci in modo diverso e tutto accade in tempo reale.
Secondo The FPS Review, Nvidia potrebbe essere vicina al rilascio della demo tecnica "Marbles at Night" come gioco giocabile. Citando quello che sembra essere un Tweet (ora cancellato), l'account Twitter Omniverse di Nvidia avrebbe affermato che gli sviluppatori di Nvidia sono "un bug" di distanza dal rilasciare "Marbles At Night" come demo giocabile per gli utenti di Nvidia RTX
VIDEO (https://youtu.be/NgcYLIvlp_k)
sertopica
23-04-2021, 07:30
^ Ah vedi! Sta arrivando la demo. :D
Finalmente ho trovato una presentazione piu' esaustiva riguardante il DLSS 2.0, consiglio una lettura per fugare ogni dubbio su come funziona: http://behindthepixels.io/assets/files/DLSS2.0.pdf e https://www.gdcvault.com/play/1026697
In pratica se prima allenavano la rete neurale in base a immagini prese da giochi, ora il dlss 2 basa il proprio funzionamento sui pixel e vettori selezionati da dare in pasto al taau e regalare un'immagine il piu' stabile possibile. In pratica il dlss 2 e' slegato dal gioco che lo supporta e funziona universalmente.
edit2: segnalo anche sta tech demo https://www.techpowerup.com/download/nvidia-unreal-engine-4-rtx-dlss-demo/
scorpion73
23-04-2021, 08:29
differenze con MotoGP 20?
Crysis90
23-04-2021, 13:02
io 2459 euro usata su amazon
Tu stai male. :asd: :doh:
StrixyRoG
23-04-2021, 13:22
sono fanboy rog se non si fosse capito ahhahahahaha
Non abbastanza se il tuo PC è quello in firma :D
Ho anche una new entry per tenere tutto sotto controllo, almeno posso vedere come si comporta la scheda in tutte le sue parti.
https://i.postimg.cc/cJzH4sWY/photo-2021-04-22-20-20-06.jpg
TigerTank
23-04-2021, 13:30
Certo che più fan di "StrixyROG" non ce n'è! :sofico:
Thunder-74
23-04-2021, 15:06
Certo che più fan di "StrixyROG" non ce n'è! :sofico:
in firma non vedo il monitor.... chissà se ha un Rog :fagiano:
FrancoBit
23-04-2021, 15:09
in firma non vedo il monitor.... chissà se ha un Rog :fagiano:
Magari ha un Aorus, potreste scambiarli per completare il puzzle :D
Thunder-74
23-04-2021, 15:10
Magari ha un Aorus, potreste scambiarli per completare il puzzle :D
Stile scambio figurine :D
oZonoRobotics
23-04-2021, 15:23
Tu stai male. :asd: :doh:
disse l'uomo che avrà avuto la 3080 al day one :P comunque fidati che stavo peggio senza :P si parla di un miglioramento della situazione prezzi nel 2022 e io non potevo più aspettare
Non abbastanza se il tuo PC è quello in firma :D
rilancio dicendoti che sono riuscito a comprare il proiettorino con il logo della rog hahhahahahh e ho comprato pure le cuffiette in ear della rog per il cellulare... avevo le centurion per il pc ma le ho rese perchè secondo me pessime :P
ah, dimenticavo, il tocco di classe:
https://i.imgrpost.com/imgr/2021/04/23/004.md.png (https://imgrpost.com/image/UnCQb)
è il logetto trovato nella mobo :P
prossimo aquisto: ROG Chariot RGB
speriamo che non spacchi la schiena visto che con la mia attuale sedia d'ufficio da 149 euro non succede:P
Thunder-74
23-04-2021, 15:54
disse l'uomo che avrà avuto la 3080 al day one :P comunque fidati che stavo peggio senza :P si parla di un miglioramento della situazione prezzi nel 2022 e io non potevo più aspettare
rilancio dicendoti che sono riuscito a comprare il proiettorino con il logo della rog hahhahahahh e ho comprato pure le cuffiette in ear della rog per il cellulare... avevo le centurion per il pc ma le ho rese perchè secondo me pessime :P
ah, dimenticavo, il tocco di classe:
https://i.imgrpost.com/imgr/2021/04/23/004.md.png (https://imgrpost.com/image/UnCQb)
è il logetto trovato nella mobo :P
prossimo aquisto: ROG Chariot RGB
speriamo che non spacchi la schiena visto che con la mia attuale sedia d'ufficio da 149 euro non succede:P
fatti pagare....
oZonoRobotics
23-04-2021, 16:19
fatti pagare....
:P
DonPontillo
24-04-2021, 01:52
ciao ragazzi
sono da poco possessore di una misera 3060 :D vedendo con che giocattoli giocate... ahahahah... non posso permettermi di fare a chi ce l'ha più grande
in ogni caso... provavo un po di OC (si chiama ancora così ormai che fare OC vuol dire solo abilitare profili xmp e spostare delle barre verdi in un software stesso da OS?)
è il posto giusto per confrontare un po di temps e frequenze?
grazie... ciaoo
thunderforce83
24-04-2021, 07:43
ciao ragazzi
sono da poco possessore di una misera 3060 :D vedendo con che giocattoli giocate... ahahahah... non posso permettermi di fare a chi ce l'ha più grande
in ogni caso... provavo un po di OC (si chiama ancora così ormai che fare OC vuol dire solo abilitare profili xmp e spostare delle barre verdi in un software stesso da OS?)
è il posto giusto per confrontare un po di temps e frequenze?
grazie... ciaoo
beh se non ci racconti che modello hai preso,PL,ecc la vedo difficile darti una mano :) comunque considera che i modelli piu' leggeri dovrebbero arrivare tranquillamente a 2100mhz, suppongo...
Crysis90
24-04-2021, 07:56
disse l'uomo che avrà avuto la 3080 al day one
No, l'ho presa a metà Novembre e l'ho pagata un terzo di quanto hai pagato tu la 3090 (870 euro).
:O :read:
DonPontillo
24-04-2021, 08:55
ho preso quello che c'era... una pny xlr8 3060 itx monofan :D
si... mi fa +310 core... e ho chiuso un passmark con le mem a +1000... non credo sia rock solid
le freq stock sono un pelo più alte delle consigliate nvidia...
https://i.ibb.co/GPN4v7p/IMG-20210423-WA0056.jpg (https://ibb.co/GPN4v7p) https://i.ibb.co/0K9gRGh/IMG-20210424-WA0002.jpg (https://ibb.co/0K9gRGh) https://i.ibb.co/YTvsTty/IMG-20210423-WA0061.jpg (https://ibb.co/YTvsTty)
Alienware_GR
24-04-2021, 09:17
la tuf anche un mio amico l'ha ordinata il 17 settembre su d**ko a 844 se non sbaglio e non l'ha ancora ricevuta... magari tra 3 mesi finiscono i lockdown e si sgonfia la bolla, magari no... se uno non può aspettare, compra... la solita legge di domanda e offerta :P
Quando arriverà il suo momento gli diranno che il prezzo è cambiato e se la vuole c'è al nuovo prezzo.
La TUF mi pare sia 1300 col prezzo nuovo.
nickname88
24-04-2021, 09:42
Quando arriverà il suo momento gli diranno che il prezzo è cambiato e se la vuole c'è al nuovo prezzo.
La TUF mi pare sia 1300 col prezzo nuovo.
Non è detto che il prezzo nuovo sia quello del loro listino.
A me al telefono han proposto una cifra che era una via di mezzo fra il prezzo iniziale e quello in cui stava nel loro listino.
thunderforce83
24-04-2021, 09:58
ho preso quello che c'era... una pny xlr8 3060 itx monofan :D
si... mi fa +310 core... e ho chiuso un passmark con le mem a +1000... non credo sia rock solid
le freq stock sono un pelo più alte delle consigliate nvidia...
https://i.ibb.co/GPN4v7p/IMG-20210423-WA0056.jpg (https://ibb.co/GPN4v7p) https://i.ibb.co/0K9gRGh/IMG-20210424-WA0002.jpg (https://ibb.co/0K9gRGh) https://i.ibb.co/YTvsTty/IMG-20210423-WA0061.jpg (https://ibb.co/YTvsTty)
non dovresti avere problemi con le temperature nonostante e' una schedina piccola e mono ventola ma comunque io mi concentrerei piu' sul motore grafico, una volta trovato il settaggio migliore inizierei ad alzare un po' la memoria anche se serve veramente a poco, quello che fa' la differenza anche se in percentuale minima e' il core clock. cerca di tirarlo al massimo facendo una curva di downvolt su afterburner.
29Leonardo
24-04-2021, 10:36
ho preso quello che c'era... una pny xlr8 3060 itx monofan :D
si... mi fa +310 core... e ho chiuso un passmark con le mem a +1000... non credo sia rock solid
le freq stock sono un pelo più alte delle consigliate nvidia...
https://i.ibb.co/GPN4v7p/IMG-20210423-WA0056.jpg (https://ibb.co/GPN4v7p) https://i.ibb.co/0K9gRGh/IMG-20210424-WA0002.jpg (https://ibb.co/0K9gRGh) https://i.ibb.co/YTvsTty/IMG-20210423-WA0061.jpg (https://ibb.co/YTvsTty)
Ma è un banchetto o un poggia tablet riadattato? Anche se dubito la seconda data la forma :D
Ragazzi è già la seconda volta che mi becco durante la sessione di un gioco una schermata nera che mi blocca tutto e non posso fare altro che riavviare il computer dal pulsante del case, la vga è una 3070, mi devo preoccupare? soluzioni?
DonPontillo
24-04-2021, 11:36
Ma è un banchetto o un poggia tablet riadattato? Anche se dubito la seconda data la forma :D
è un poggia monitor di ikea
https://www.hwupgrade.it/forum/showthread.php?t=2939075
le temp in effetti restano basse ma con ventola al 50/60%... e non è silenziosissima
si... credo che a parità di voltaggio stock (è limitato via hardware giusto?) io abbia già hittato il limite... pare di capire che +290...+ 300 sia rock solid
oZonoRobotics
24-04-2021, 15:39
No, l'ho presa a metà Novembre e l'ho pagata un terzo di quanto hai pagato tu la 3090 (870 euro).
:O :read:
guarda che ovviamente dicevo nel senso che è facile parlare quando la scheda ce l'hai e l'hai pagata il giusto nel momento giusto, il problema è arrivare in questo momento e scendere a compromessi perchè non ce la si fa più, è inutile dire l'ho pagata un terzo, magari io, non ho potuto, ho preso per sfinimento... fine...
volevo giocare a cyberpunk e a tutto il resto e ora ci posso giocare, si può dare un prezzo?
https://www.youtube.com/watch?v=-OSBn-P4XOg&ab_channel=oZonoRobotics
demonangel
24-04-2021, 17:09
No, l'ho presa a metà Novembre e l'ho pagata un terzo di quanto hai pagato tu la 3090 (870 euro).
:O :read:
Se l'hai presa come me da Amazon italia... €878
Avevo preso anche una Rog Strix a 989, ma quella l'ho girato a un'amico perchè non entrava nel case
Thunder-74
24-04-2021, 17:54
ho preso quello che c'era... una pny xlr8 3060 itx monofan :D
si... mi fa +310 core... e ho chiuso un passmark con le mem a +1000... non credo sia rock solid
le freq stock sono un pelo più alte delle consigliate nvidia...
https://i.ibb.co/GPN4v7p/IMG-20210423-WA0056.jpg (https://ibb.co/GPN4v7p) https://i.ibb.co/0K9gRGh/IMG-20210424-WA0002.jpg (https://ibb.co/0K9gRGh) https://i.ibb.co/YTvsTty/IMG-20210423-WA0061.jpg (https://ibb.co/YTvsTty)
Consiglio, evitate di usare furmark, non serve a testare la stabilità, ma solo a stressare la circuiteria di alimentazione ;)
DonPontillo
24-04-2021, 19:21
Consiglio, evitate di usare furmark, non serve a testare la stabilità, ma solo a stressare la circuiteria di alimentazione ;)
grazie... si ne sono a conoscenza... che stress test consigli che mi tenga la vga impegnata mentre pastrocchio con gli slider di AB?
(il vantaggio del furmark in approccio iniziale di OC è che scopri qual'è il limite di freq sicuramente invalicabile senza OV... perché comincia a farti vedere artefatti senza far crashare i driver... e sai che probabilmente se fuori soglia rocksolid di un 50Hz...o giù di li... ma cmq serve a farti un idea dei limiti e delle temp...)
amon.akira
24-04-2021, 19:43
grazie... si ne sono a conoscenza... che stress test consigli che mi tenga la vga impegnata mentre pastrocchio con gli slider di AB?
(il vantaggio del furmark in approccio iniziale di OC è che scopri qual'è il limite di freq sicuramente invalicabile senza OV... perché comincia a farti vedere artefatti senza far crashare i driver... e sai che probabilmente se fuori soglia rocksolid di un 50Hz...o giù di li... ma cmq serve a farti un idea dei limiti e delle temp...)
un bel giro in moto per nightcity :asd:
terranux
24-04-2021, 20:21
grazie... si ne sono a conoscenza... che stress test consigli che mi tenga la vga impegnata mentre pastrocchio con gli slider di AB?
(il vantaggio del furmark in approccio iniziale di OC è che scopri qual'è il limite di freq sicuramente invalicabile senza OV... perché comincia a farti vedere artefatti senza far crashare i driver... e sai che probabilmente se fuori soglia rocksolid di un 50Hz...o giù di li... ma cmq serve a farti un idea dei limiti e delle temp...)
ma con furmark arrivi a vedere gli artefatti?
TigerTank
24-04-2021, 20:33
ma con furmark arrivi a vedere gli artefatti?
Ci sono probabilità che arrivi a vedere direttamente la scheda danneggiata :D
Thunder-74
24-04-2021, 20:45
grazie... si ne sono a conoscenza... che stress test consigli che mi tenga la vga impegnata mentre pastrocchio con gli slider di AB?
(il vantaggio del furmark in approccio iniziale di OC è che scopri qual'è il limite di freq sicuramente invalicabile senza OV... perché comincia a farti vedere artefatti senza far crashare i driver... e sai che probabilmente se fuori soglia rocksolid di un 50Hz...o giù di li... ma cmq serve a farti un idea dei limiti e delle temp...)
In furmark non raggiunge neanche le freq boost 4.0 di nVidia .
Comunque i miglior test di stabilità sono giochi con Raytracing attivo, in modo da usare tutto il chip . Su tutti control , metro e via di seguito . Tra i bench time spy è uno tra quelli più rognosi
Inviato dal mio iPhone X utilizzando Tapatalk
system450
24-04-2021, 21:57
No, l'ho presa a metà Novembre e l'ho pagata un terzo di quanto hai pagato tu la 3090 (870 euro).
:O :read:
E' inutile che ti vanti, perché se non riescono a venderne di schede grafiche per gaming, della tua 3080 te ne farai ben poco in futuro visto che di giochi nuovi non ne usciranno...
In furmark non raggiunge neanche le freq boost 4.0 di nVidia .
Comunque i miglior test di stabilità sono giochi con Raytracing attivo, in modo da usare tutto il chip . Su tutti control , metro e via di seguito . Tra i bench time spy è uno tra quelli più rognosi
Inviato dal mio iPhone X utilizzando Tapatalk
Timespy è veramente un mattone e ciuccia elettricità come se non ci fosse un domani: è il Metro Exodus o il RDR2 dei test! :D
Ad esempio la mia 3090 monta un chip selezionato di fabbrica quindi la posso tranquillamente spingere fino a frequenze anche piuttosto alte in giochi tipo CoD Modern Warfare o Black Ops (di sicuro arrivo a 2140 Mhz con RTX e con o senza DLSS attivo, di più non ho provato perché tanto si entra in un limite inutile per l'utilizzo quotidiano), con Timespy o Metro invece arrivo al mio Power Limit (470W da bios di fabbrica) a poco più di 2000 Mhz e perciò lì mi fermo!
oZonoRobotics
24-04-2021, 22:08
Timespy è veramente un mattone e ciuccia elettricità come se non ci fosse un domani: è il Metro Exodus o il RDR2 dei test! :D
Ad esempio la mia 3090 monta un chip selezionato di fabbrica quindi la posso tranquillamente spingere fino a frequenze anche piuttosto alte in giochi tipo CoD Modern Warfare o Black Ops (di sicuro arrivo a 2140 Mhz con RTX e con o senza DLSS attivo, di più non ho provato perché tanto si entra in un limite inutile per l'utilizzo quotidiano), con Timespy o Metro invece arrivo al mio Power Limit (470W da bios di fabbrica) a poco più di 2000 Mhz e perciò lì mi fermo!
io ho visto che tra 1900 e 2000mhz cambia il 3/4% e quindi lascio stock con pl per arrivare a 400w giusto per
io ho visto che tra 1900 e 2000mhz cambia il 3/4% e quindi lascio stock con pl per arrivare a 400w giusto per
Con una 3080/3090 e con i giochi attuali non cambia nulla, almeno alla mia risoluzione (1440p)...ho sempre fps più che a sufficienza in tutto quello che gli do in pasto quindi l'ho messa tranquilla e beata a 1800Mhz e ho regolato le ventole in modo da stare o ferme o al minimo fino a 65/70°C. A volte manco la sento che c'è mentre gioco...
Cutter90
24-04-2021, 22:24
Timespy è veramente un mattone e ciuccia elettricità come se non ci fosse un domani: è il Metro Exodus o il RDR2 dei test! :D
Ad esempio la mia 3090 monta un chip selezionato di fabbrica quindi la posso tranquillamente spingere fino a frequenze anche piuttosto alte in giochi tipo CoD Modern Warfare o Black Ops (di sicuro arrivo a 2140 Mhz con RTX e con o senza DLSS attivo, di più non ho provato perché tanto si entra in un limite inutile per l'utilizzo quotidiano), con Timespy o Metro invece arrivo al mio Power Limit (470W da bios di fabbrica) a poco più di 2000 Mhz e perciò lì mi fermo!
Cioè, tu stai ingame fisso a 2140 mhz con utilizzo al 100% con la 3090 ad aria? Nemmeno se lo vedo:D
Cioè, tu stai ingame fisso a 2140 mhz con utilizzo al 100% con la 3090 ad aria? Nemmeno se lo vedo:D
Qui stavo a 2120Mhz se non ricordo male...dopo 5 minuti di gioco è sceso a 2100 per la temperatura:
https://www.youtube.com/watch?v=mABOm9zM6ts
E ci posso mettere sopra altri 70W...in questo gioco ho provato fino a 2140Mhz e non ho avuto problemi (con RTX e DLSS) ma ripeto, era solo per provare visto che si va verso un limite non confortevole per l'utilizzo quotidiano.
terranux
24-04-2021, 22:54
Qui stavo a 2120Mhz se non ricordo male...dopo 5 minuti di gioco è sceso a 2100 per la temperatura:
https://www.youtube.com/watch?v=mABOm9zM6ts
E ci posso mettere sopra altri 70W...in questo gioco ho provato fino a 2140Mhz e non ho avuto problemi (con RTX e DLSS) ma ripeto, era solo per provare visto che si va verso un limite non confortevole per l'utilizzo quotidiano.
o dove l'hai trovato questo mostro di scheda?
o dove l'hai trovato questo mostro di scheda?
Francia a novembre. Le GS della Gainward sono chip selezionati a priori e sulle Phantom GS (che sta per Golden Sample) hanno sempre montato la prima scelta. La seconda scelta finisce sulle Phoenix GS mentre la terza scelta va su tutte le altre.
Cioè, tu stai ingame fisso a 2140 mhz con utilizzo al 100% con la 3090 ad aria? Nemmeno se lo vedo:D
Fatto il video...faccio solo un po' fatica a centrare la frequenza esatta perché è molto variabile in base alla temperatura: ;)
https://www.youtube.com/watch?v=qr559LQVCyg
Comunque ripeto: in CoD sono 400W e ci rientro nel PL per queste frequenze, in Metro o RDR2 no.
sertopica
25-04-2021, 06:50
Fatto il video...faccio solo un po' fatica a centrare la frequenza esatta perché è molto variabile in base alla temperatura: ;)
https://www.youtube.com/watch?v=qr559LQVCyg
Comunque ripeto: in CoD sono 400W e ci rientro nel PL per queste frequenze, in Metro o RDR2 no.
Non per rovinarti la festa, ma dovresti controllare la frequenza della gpu (core effective clock) con hwinfo, che da' risultati piu' accurati e veritieri.
Cutter90
25-04-2021, 07:36
Fatto il video...faccio solo un po' fatica a centrare la frequenza esatta perché è molto variabile in base alla temperatura: ;)
https://www.youtube.com/watch?v=qr559LQVCyg
Comunque ripeto: in CoD sono 400W e ci rientro nel PL per queste frequenze, in Metro o RDR2 no.
Infatti come immaginavo non usa la scheda al 100%, sta tra i 90 e i 95, anche se non ne capisco il motivo. Cod è un gioco particolare, non è un buon test
Prova un qualsiasi altro: rdr2, Cyberpunk, valhalla, horizon ecc
Tra l altro non ho mai provato a fare warzone su pc. Se ho tempo lo provo
Non per rovinarti la festa, ma dovresti controllare la frequenza della gpu (core effective clock) con hwinfo, che da' risultati piu' accurati e veritieri.
Non mi rovini nessuna festa, non è che ci tengo particolarmente a sta cosa :D
Comunque per quello che vale le frequenze sono queste anche sul panello Nvidia Experience e su GPU-Z...
Infatti come immaginavo non usa la scheda al 100%, sta tra i 90 e i 95, anche se non ne capisco il motivo. Cod è un gioco particolare, non è un buon test
Prova un qualsiasi altro: rdr2, Cyberpunk, valhalla, horizon ecc
Tra l altro non ho mai provato a fare warzone su pc. Se ho tempo lo provo
Su Cod mai visto il 100% fisso da nessuno pure se gira a 1800Mhz, RDR2 ti ho già detto che è impossibile fare quelle frequenze perché si arriva al PL molto prima, Valhalla e Horizon non li ho e Cyberpunk lo devo ancora provare....
Ripper89
25-04-2021, 08:11
Non per rovinarti la festa, ma dovresti controllare la frequenza della gpu (core effective clock) con hwinfo, che da' risultati piu' accurati e veritieri.
GPU_Z non è altrettanto valido per monitorare voltaggio, freq e consumo ?
sertopica
25-04-2021, 09:03
Non mi rovini nessuna festa, non è che ci tengo particolarmente a sta cosa :D
Comunque per quello che vale le frequenze sono queste anche sul panello Nvidia Experience e su GPU-Z...
GPU_Z non è altrettanto valido per monitorare voltaggio, freq e consumo ?
Da quello che ho capito hwinfo e' l'unico che mostra la frequenza reale della gpu sotto carico, fra l'altro basta attivare l'osd come si fa in afterburner e comparare i due valori indicati quando si e' ingame. Ci potrebbero ballare pure 100MHz di differenza a volte. Questo dipende anche da come si e' overcloccata e/o downvoltata la scheda.
Da quello che ho capito hwinfo e' l'unico che mostra la frequenza reale della gpu sotto carico, fra l'altro basta attivare l'osd come si fa in afterburner e comparare i due valori indicati quando si e' ingame. Ci potrebbero ballare pure 100MHz di differenza a volte. Questo dipende anche da come si e' overcloccata e/o downvoltata la scheda.
Nelle recensioni vedo comunque usare medie estrapolate da GPU-Z e AB quindi il valore di hwinfo non potrebbe essere parametrato con quello che risulta nella maggior parte dei dati pubblicati.
sertopica
25-04-2021, 09:46
Nelle recensioni vedo comunque usare medie estrapolate da GPU-Z e AB quindi il valore di hwinfo non potrebbe essere parametrato con quello che risulta nella maggior parte dei dati pubblicati.
E perche' no? Evidentemente hwinfo riesce ad estrapolare informazioni piu' accurate sulle frequenze operative. Se gi altri tool utilizzati mostrano risultati differenti e sono utilizzati piu' spesso, non significa automaticamente che hwinfo dia info false, anche perche' e' l'unico tool che da' accesso ad una serie di parametri che altri software non danno.
E perche' no? Evidentemente hwinfo riesce ad estrapolare informazioni piu' accurate sulle frequenze operative. Se gi altri tool utilizzati mostrano risultati differenti e sono utilizzati piu' spesso, non significa automaticamente che hwinfo dia info false, anche perche' e' l'unico tool che da' accesso ad una serie di parametri che altri software non danno.
Non è una questione di correttezza di informazioni. E' sicuramente una informazione in più ma è di valore limitato. Se tutti usiamo AB o GPU-Z per rilevare le frequenze delle schede, recensioni comprese, il parametro di riferimento deve essere quello dato da questi software. Se tutti utilizzassimo invece un sistema di riferimento diverso che abbassa i valori non cambierebbe comunque nulla perché tanto lo scarto sarebbe uguale per tutti.
Comunque ho installato Argus Monitor per poter regolare le ventole del case in base al carico della GPU e non della cpu ed è tutto un altro mondo. Ora la scheda non supera i 75° (0.9v -1950 mhz, circa 280 watt di consumo in titoli non rt) con ventole della GPU sui 1700 RPM e il computer è silenzioso. Non ha senso avere le ventole del case tarate sulla temperatura della cpu, è troppo fredda, non si riesce a distinguere quando la GPU è sotto sforzo e quando è in idle. Finito il periodo di prova lo comprerò sicuramente. Evidentemente prima la scheda era completamente in mancanza di aria.
Ora che ho tarato le ventole voglio vedere quanto posso spingermi rimanendo su una velocità delle ventole accettabile. È vero che giocando in 60 fps 4k non ho avuto particolari problemi di prestazioni, anzi mi sembra di essere cpu limited a volte (horizon e cyberpunk). Potrebbe essere colpa dell'ultimo aggiornamento Microsoft, speriamo che venga corretto in fretta.
Prova un qualsiasi altro: rdr2, Cyberpunk, valhalla, horizon ecc
Tra l altro non ho mai provato a fare warzone su pc. Se ho tempo lo provo
Ho visto che ce la faccio anche su Cyberpunk anche se sono vicino al PL e quindi rischio di vedere calata la frequenza ogni tanto...Comunque fino a 2145Mhz con ray tracing ultra lo reggo.
https://www.youtube.com/watch?v=TwMSjXpElP8
terranux
25-04-2021, 11:19
Ho visto che ce la faccio anche su Cyberpunk anche se sono vicino al PL e quindi rischio di vedere calata la frequenza ogni tanto...Comunque fino a 2145Mhz con ray tracing ultra lo reggo.
https://www.youtube.com/watch?v=TwMSjXpElP8
c'è poco da dire. e và
dovresti controllare la frequenza della gpu (core effective clock) con hwinfo, che da' risultati piu' accurati e veritieri.
Sono andato a leggermi come dovrebbe funzionare questo conteggio di hwinfo. In pratica è la media della frequenza di tutti i core della gpu negli ultimi 2000ms (con impostazioni a default): non sono paragonabili le misurazioni con altri programmi.
Cutter90
25-04-2021, 12:06
Ho visto che ce la faccio anche su Cyberpunk anche se sono vicino al PL e quindi rischio di vedere calata la frequenza ogni tanto...Comunque fino a 2145Mhz con ray tracing ultra lo reggo.
https://www.youtube.com/watch?v=TwMSjXpElP8
Ma che roba strana. Come fai a non fare il.100% nemmeno qui? Tra l altro per fare un confronto fallo in 4k. Riesci? Se no lo faccio io in 2k.
Ma quanto l hai pagata?
Ma che roba strana. Come fai a non fare il.100% nemmeno qui? Tra l altro per fare un confronto fallo in 4k. Riesci? Se no lo faccio io in 2k.
Ma quanto l hai pagata?
Il 100% difficilmente l'ho visto...di solito si vedono punte fino al 98-99%. Comunque se guardi dei video sul Tubo più o meno il funzionamento è per tutti uguale, punto percentuale in più od in meno...
Video a caso a 1440p:
https://www.youtube.com/watch?v=CIKYCQQ9gP0
L'ho pagata 1750€
Edit: per l'utilizzo comunque della GPU magari rispetto ai video postati bisognerebbe considerare tante variabili tipo la frequenza della mia RAM (2 o 4 banchi, CAS, frequenza etc), l'uso o meno del Resizable Bar, eventuali OC della CPU (sulla mia ho cappato il PBO ad un wattaggio abbastanza basso e quindi magari influisce sulla frequenza)..
Cutter90
25-04-2021, 13:17
Il 100% difficilmente l'ho visto...di solito si vedono punte fino al 98-99%. Comunque se guardi dei video sul Tubo più o meno il funzionamento è per tutti uguale, punto percentuale in più od in meno...
Video a caso a 1440p:
https://www.youtube.com/watch?v=CIKYCQQ9gP0
L'ho pagata 1750€
Edit: per l'utilizzo comunque della GPU magari rispetto ai video postati bisognerebbe considerare tante variabili tipo la frequenza della mia RAM (2 o 4 banchi, CAS, frequenza etc), l'uso o meno del Resizable Bar, eventuali OC della CPU (sulla mia ho cappato il PBO ad un wattaggio abbastanza basso e quindi magari influisce sulla frequenza)..
Si si intendevo 99% cmq. 1750? Ma com è possibile? Cioè addirittura più economica della mia e della strix. Ok, magari lato dissipatore è un pò peggio, non lo so, ma un chip del genere come possono venderlo di listino a meno? Bah
Ma sei stabile con quella frequenza? Cioè, ci puoi fare un ora?
Quanto hai dato di OC ad afterburner nel core clock?
sertopica
25-04-2021, 13:21
Sono andato a leggermi come dovrebbe funzionare questo conteggio di hwinfo. In pratica è la media della frequenza di tutti i core della gpu negli ultimi 2000ms (con impostazioni a default): non sono paragonabili le misurazioni con altri programmi.
In realta' si chiama gpu effective clock, mi sono sbagliato, quello e' relativo alla cpu e purtroppo non si trovano informazioni a riguardo. Non so se funzioni effettivamente come il core effective clock. :/
amon.akira
25-04-2021, 13:28
In realta' si chiama gpu effective clock, mi sono sbagliato, quello e' relativo alla cpu e purtroppo non si trovano informazioni a riguardo. Non so se funzioni effettivamente come il core effective clock. :/
entrambi a me segna quasi uguali 2025mhz clock, effective clock 2023,8mhz
Si si intendevo 99% cmq. 1750? Ma com è possibile? Cioè addirittura più economica della mia e della strix. Ok, magari lato dissipatore è un pò peggio, non lo so, ma un chip del genere come possono venderlo di listino a meno? Bah
L'ho presa prima della "carestia" e ce ne erano diverse in Francia dove l'ho acquistata ad un prezzo non gonfiato. Il fatto è che qui in Italia (e in Europa in genere) si mettono tutti in fila per Asus/MSI/Gigabyte ma non è che ci stanno solo loro che sanno assemblare schede video.
PS: per i prodotti delle marche sopra citate si paga non poco anche il nome e la pubblicità che si fanno.
Cutter90
25-04-2021, 14:13
L'ho presa prima della "carestia" e ce ne erano diverse in Francia dove l'ho acquistata ad un prezzo non gonfiato. Il fatto è che qui in Italia (e in Europa in genere) si mettono tutti in fila per Asus/MSI/Gigabyte ma non è che ci stanno solo loro che sanno assemblare schede video.
PS: per i prodotti delle marche sopra citate si paga non poco anche il nome e la pubblicità che si fanno.
Dunque. HO inserito i tuoi stessi identici parametri ingame, che tra parentesi sono "pessimi". Nel senso che il dlss su auto non va bene, ci sono tante impostazioni da ottimizzare, ma va beh...
https://i.imgrpost.com/imgr/2021/04/25/Cp2077-2k---Imgur.md.jpg (https://imgrpost.com/image/UDZcj)
Ci sono due cose che non mi tornano affatto. Sono al tuo stesso identico punto della mappa, che puoi vedere l'utilizzo CPU al 33% ?Il mio oscillava tra il 50 e il 70 %. a quanto l'avevi impostata la densità folla?
Seconda cosa: come fa la tua scheda a tirare 450 watt in queste condizioni? Come puoi vedere la mia nemmeno arriva a 400 watt sui 500 watt disponibili. Altra cosa, che profilo hai delle ventole? Perchè io ho molti gradi in meno.
Altra cosa ancora: io arrivo a 2055 costanti. se vado più su crasha. Però non è affatto un buon test, perchè infatti la mia scheda a stento supera il 90% di utilizzo. Scusa se ti faccio tante domande, ma sono interessato
Il test andrebbe fatto il 4k. In 4k la scheda mi lavora al 99% e assorbe 440-460 watt, come dovrebbe. Quindi così non riesco a fare un confronto.
discorso marche... beh, semplicemente, solitamente sono universalmente riconosciute come le migliori. Gaynward non è mai stato un marchio tra i top, per cui mi sembra molto strano ecco :)
scatolone
25-04-2021, 14:37
discorso marche... beh, semplicemente, solitamente sono universalmente riconosciute come le migliori. Gaynward non è mai stato un marchio tra i top, per cui mi sembra molto strano ecco :)
Negli anni passati Gainward con la serie Golden Sample è sempre stata una buona scelta, veniva nominata molto spesso, negli ultimi anni con l'ingresso di nuovi competitor ha perso appeal, direi dopo le Pascal.
Dunque. HO inserito i tuoi stessi identici parametri ingame, che tra parentesi sono "pessimi". Nel senso che il dlss su auto non va bene, ci sono tante impostazioni da ottimizzare, ma va beh...
https://i.imgrpost.com/imgr/2021/04/25/Cp2077-2k---Imgur.md.jpg (https://imgrpost.com/image/UDZcj)
Ci sono due cose che non mi tornano affatto. Sono al tuo stesso identico punto della mappa, che puoi vedere l'utilizzo CPU al 33% ?Il mio oscillava tra il 50 e il 70 %. a quanto l'avevi impostata la densità folla?
Seconda cosa: come fa la tua scheda a tirare 450 watt in queste condizioni? Come puoi vedere la mia nemmeno arriva a 400 watt sui 500 watt disponibili. Altra cosa, che profilo hai delle ventole? Perchè io ho molti gradi in meno.
Altra cosa ancora: io arrivo a 2055 costanti. se vado più su crasha. Però non è affatto un buon test, perchè infatti la mia scheda a stento supera il 90% di utilizzo. Scusa se ti faccio tante domande, ma sono interessato
Il test andrebbe fatto il 4k. In 4k la scheda mi lavora al 99% e assorbe 440-460 watt, come dovrebbe. Quindi così non riesco a fare un confronto.
discorso marche... beh, semplicemente, solitamente sono universalmente riconosciute come le migliori. Gaynward non è mai stato un marchio tra i top, per cui mi sembra molto strano ecco :)
1-il DLSS è su auto perché altrimenti il ray tracing non può essere su ultra nelle impostazioni rapide e tu ti dovresti leggere voce per voce per vedere cosa ho cambiato per fare il test uguale al mio;
2-Tutte le altre impostazioni sono a default non avendo mai cambiato nulla, quindi la densità folla sta su "alta";
3-Le mie ventole non considerarle, stanno col profilo personalizzato che uso per i 1800Mhz, non avevo voglia di stare a spippolare ancora su AB: fa conto che salgono volendo di un altro 30-35%;
4-Al 90% di utilizzo invece del mio 97% ci sta che consumi una cinquantina di watt in meno ma se crashi a 2055Mhz probabilmente il limite del tuo chip è intorno a quel livello;
5-Gainward fa schede da 35 anni, di solito Nvidia. L'azienda mi pare sia tedesca anche se di proprietà orientale (stesso gruppo di Palit, PNY e altre). Già avuta in passato e posso dire che usano ottima componentistica e ottimo firmware con dual bios, fan stop etc. Mai un problema e ottimo servizio post vendita.
TigerTank
25-04-2021, 14:44
Negli anni passati Gainward con la serie Golden Sample è sempre stata una buona scelta, veniva nominata molto spesso, negli ultimi anni con l'ingresso di nuovi competitor ha perso appeal, direi dopo le Pascal.
Io sono molto soddisfatto della mia 2080 Phantom GS....e ci ho flashato pure il bios della GLH :D
Palit, Gainward e PNY su vari modelli di vga sono migliorati molto...e non mi stupirebbe che siano superiori in qualità a vari modelli di altre marche più blasonate.
A questo giro mi sembra che non siano proprio apparse Gainward in Italia su Amazon o simili.
Io sono molto soddisfatto della mia 2080 Phantom GS....e ci ho flashato pure il bios della GLH :D
Palit, Gainward e PNY su vari modelli di vga sono migliorati molto...e non mi stupirebbe che siano superiori in qualità a vari modelli di altre marche più blasonate.
A questo giro mi sembra che non siano proprio apparse Gainward in Italia su Amazon o simili.
Ce le avevano qui un paio di GS e qualcun'altra "liscia" fino a qualche giorno fa ma mi sa che le hanno vendute tutte...dicono a 2900€ l'una le Golden Sample :eek:
https://www.youtube.com/watch?v=nLiPeirvBb4
TigerTank
25-04-2021, 18:27
Ce le avevano qui un paio di GS e qualcun'altra "liscia" fino a qualche giorno fa ma mi sa che le hanno vendute tutte...dicono a 2900€ l'una le Golden Sample :eek:
https://www.youtube.com/watch?v=nLiPeirvBb4
Delirio totale :sofico:
Delirio totale :sofico:
Averlo saputo prima lo "svaligiavo" il negozio dove ho preso la mia.:D
Ragazzi scusate se rinnovo la domanda riguardo alla schermata nera che ho avuto con la mia 3070, in una settimana due schermate nere e vorrei sapere se devo fare reso finche sono in tempo o no, perfavore qualche dritta o risposta?
Ragazzi scusate se rinnovo la domanda riguardo alla schermata nera che ho avuto con la mia 3070, in una settimana due schermate nere e vorrei sapere se devo fare reso finche sono in tempo o no, perfavore qualche dritta o risposta?
Con che cosa le hai avute? Stock o overclock?
Con che cosa le hai avute? Stock o overclock?
Stock, tutti e due volte computer avviato da poco, avvio il gioco e dopo pochi minuti schermata nera,l'unico rimmedio riavviare il pc manualmente, poi magari ci gioco per ore e non succede nulla.
Stock, tutti e due volte computer avviato da poco, avvio il gioco e dopo pochi minuti schermata nera,l'unico rimmedio riavviare il pc manualmente, poi magari ci gioco per ore e non succede nulla.
Che gioco? I driver come stanno messi? Hai provato magari ad installarli puliti dopo una passata con DDU? Lo fa su più giochi il difetto?
Che gioco? I driver come stanno messi? Hai provato magari ad installarli puliti dopo una passata con DDU?
Driver ultimi, il gioco è division2 e ma non credo sia importante perchè gogglando a chi è capitato succede un pò con tutti i giochi, ma quello che vorrei capire dalle esprienze altrui se è problema hw quindi reso o è solo una questione sw.
Driver ultimi, il gioco è division2 e ma non credo sia importante perchè gogglando a chi è capitato succede un pò con tutti i giochi, ma quello che vorrei capire dalle esprienze altrui se è problema hw quindi reso o è solo una questione sw.
L'importante è cercare di risalire la causa ed un buon punto di partenza e cercare nel registro eventi di sistema qual'è la causa dell'errore quando è successo il crash...
L'importante è cercare di risalire la causa ed un buon punto di partenza e cercare nel registro eventi di sistema qual'è la causa dell'errore quando è successo il crash...
Nel registro degli eventi vedo errori critici nei giorni passati per un arresto anomalo ma stavo assemblando il pc , a quanto pare devo aspettare che me lo faccia di nuovo per andare a vedere cosa dice evento? speravo fosse un problema conosciuto qui, ma a quanto pare...
Thunder-74
25-04-2021, 20:01
Se hai modo, provala su un altro pc , anche di un amico
Inviato dal mio iPhone X utilizzando Tapatalk
Se hai modo, provala su un altro pc , anche di un amico
Inviato dal mio iPhone X utilizzando Tapatalk
Purtroppo non ho modo, anchè perche far girare schede del genere su qualsiasi pc è impossibile, comunque il solo fatto che qui capiti solo a me è abbastanza allarmante, forse dovrei procedere col reso finche sono in tempo.
amon.akira
25-04-2021, 21:39
Purtroppo non ho modo, anchè perche far girare schede del genere su qualsiasi pc è impossibile, comunque il solo fatto che qui capiti solo a me è abbastanza allarmante, forse dovrei procedere col reso finche sono in tempo.
solite cose, usi riser prolunghe...hai 2cavi splittati? prova a cambiare posizione o ricollegarli, provata altra porta video? provato con il resto del sistema stock?
good luck :P
terranux
25-04-2021, 21:51
Nel registro degli eventi vedo errori critici nei giorni passati per un arresto anomalo ma stavo assemblando il pc , a quanto pare devo aspettare che me lo faccia di nuovo per andare a vedere cosa dice evento? speravo fosse un problema conosciuto qui, ma a quanto pare...
ma vedi anche qualcosa in errore . cioè il secondo della scaletta?
solite cose, usi riser prolunghe...hai 2cavi splittati? prova a cambiare posizione o ricollegarli, provata altra porta video? provato con il resto del sistema stock?
good luck :P
Allora il cavo splittato è della mia corsair RM750 originale e non ho altri cavi, con altra porta video no per problemi di spazio sulla moder board(b550).
Ma cosa intendi col resto del sistema stock?
ma vedi anche qualcosa in errore . cioè il secondo della scaletta?
No, ho una serie di errori molto frequenti che riguarda i permessi di accesso ad una certificazione dcom o qualcosa del genere ma nulla che riguardi la scheda video.
Ps: ragazzi quello che devo capire e forse l'ho già capito, è che non è problema conosciuto da tutti in questo forum, il che per diventa allarmante, ma la cosa cambia quando faccio delle ricerche su google e ne saltano fuori a bizzeffe, solo che non si capisce alla fine di che problema si tratta.
Magistercris
26-04-2021, 06:43
Il tuo problema specifico non è conosciuto semplicemente perché le cause possono essere innumerevoli e nessuno può darti una risposta risolutiva assoluta senza adeguate diagnosi.
Il tuo.problema può derivare dai driver mal installati sia video sia della scheda madre, da alimentatore, da un aggiornamento windows mal riuscito...si può succedere, o da casini software che potresti avere.
Dato che è random non è detto che derivi dalla scheda video e facile che te la rimandino indietro cosi come è.
Devi fare prove più profonde. In primis togli tutte le schede e periferiche non necessarie: audio, dischi di back up, ecc. Lasci solo mb scheda video e disco di sistema. Dopo aver salvato i dati principali su altro disco. Fai bel formattone e installi tutto di nuovo. E a questo punto puoi iniziare la vera diagnosi del sistema con prove e simulazioni. Poi si vede step by step.
Thunder-74
26-04-2021, 07:06
Il tuo problema specifico non è conosciuto semplicemente perché le cause possono essere innumerevoli e nessuno può darti una risposta risolutiva assoluta senza adeguate diagnosi.
Il tuo.problema può derivare dai driver mal installati sia video sia della scheda madre, da alimentatore, da un aggiornamento windows mal riuscito...si può succedere, o da casini software che potresti avere.
Dato che è random non è detto che derivi dalla scheda video e facile che te la rimandino indietro cosi come è.
Devi fare prove più profonde. In primis togli tutte le schede e periferiche non necessarie: audio, dischi di back up, ecc. Lasci solo mb scheda video e disco di sistema. Dopo aver salvato i dati principali su altro disco. Fai bel formattone e installi tutto di nuovo. E a questo punto puoi iniziare la vera diagnosi del sistema con prove e simulazioni. Poi si vede step by step.
quoto
Il tuo problema specifico non è conosciuto semplicemente perché le cause possono essere innumerevoli e nessuno può darti una risposta risolutiva assoluta senza adeguate diagnosi.
Il tuo.problema può derivare dai driver mal installati sia video sia della scheda madre, da alimentatore, da un aggiornamento windows mal riuscito...si può succedere, o da casini software che potresti avere.
Dato che è random non è detto che derivi dalla scheda video e facile che te la rimandino indietro cosi come è.
Devi fare prove più profonde. In primis togli tutte le schede e periferiche non necessarie: audio, dischi di back up, ecc. Lasci solo mb scheda video e disco di sistema. Dopo aver salvato i dati principali su altro disco. Fai bel formattone e installi tutto di nuovo. E a questo punto puoi iniziare la vera diagnosi del sistema con prove e simulazioni. Poi si vede step by step.
Ti ringrazio per la esaudiente spiegazione ma ho un problema, il 24 marzo mi scade il termine per il reso su amazon, e sinceramente mi sembrano pochini due giorni per reinstallare tutto e aspettare che il fatto si verifichi, sei daccordo?
E comunque per il problema conosciuto intendevo questo, prova a fare un ricerca su google usando black screen rtx 3070 come parole di ricerca, decine e decine di post ma alla fine almeno io non ho capito quale è la causa di tutto questo.
Ad esempio sono due giorni che la cosa non succede e fila tutto liscio, vai a capire, cosi nella mia ignoranza ho pensato fosse un problema dei driver sarebbe successo di nuovo ma nada, che vuoi che ti dica.
scorpion73
26-04-2021, 08:09
Ti ringrazio per la esaudiente spiegazione ma ho un problema, il 24 marzo mi scade il termine per il reso su amazon, e sinceramente mi sembrano pochini due giorni per reinstallare tutto e aspettare che il fatto si verifichi, sei daccordo?
E comunque per il problema conosciuto intendevo questo, prova a fare un ricerca su google usando black screen rtx 3070 come parole di ricerca, decine e decine di post ma alla fine almeno io non ho capito quale è la causa di tutto questo.
Ad esempio sono due giorni che la cosa non succede e fila tutto liscio, vai a capire, cosi nella mia ignoranza ho pensato fosse un problema dei driver sarebbe successo di nuovo ma nada, che vuoi che ti dica.
Se giochi con rivatuner acceso il problema è quello. Rivatuner fa di questi casini spesso e volentieri.
Mi è capitato lo stesso problema un paio di volte: disinstallato Rivatuner (o non avviato in game) e problema risolto.
Se giochi con rivatuner acceso il problema è quello. Rivatuner fa di questi casini spesso e volentieri.
Mi è capitato lo stesso problema un paio di volte: disinstallato Rivatuner (o non avviato in game) e problema risolto.
No guarda, non l'ho mai usato riva e non ne sarei nemmeno capace.
Ho avuto anche io questo problema, sembra comune sulle 3070. Visto che non lo faceva in game ma solo in idle avevo deciso di tenerla data la situaziome attuale poi sono passato a una 3080. Se fosse un problema software nvidia l'avrebbe già risolto. Ho la tieni così o la mandi in garanzia.
Per la cronaca la 3080 è una roccia (tocco ferro)
Graphite600T
26-04-2021, 09:09
No guarda, non l'ho mai usato riva e non ne sarei nemmeno capace.
Ho letto la storia. Problema comune delle 3070. Tienila e formatta
fraussantin
26-04-2021, 09:16
No guarda, non l'ho mai usato riva e non ne sarei nemmeno capace.Ho letto la storia. Problema comune delle 3070. Tienila e formattaIo un paio di tentativi li farei :
Aggiornare BIOS e vbios
Mettere tutto a stock anche le RAM togliendo XMP.
E testare...
Se lo rifa
Proverei a installare msi afterburner e farei un downclock di 100 o 200 megahertz e cmq gli impedirei di andare oltre i 2000 ( ricordando quel che venne fuori al lancio con le 3080)
Diversamente tocca fare rma e son tempi tristi per farlo.
mattxx88
26-04-2021, 09:25
Ho letto la storia. Problema comune delle 3070. Tienila e formatta
quoto
privarmi di una gpu oggi prima di aver provato tutto quanto sia possibile provare per farla andare, anche no
Thunder-74
26-04-2021, 10:20
Ti ringrazio per la esaudiente spiegazione ma ho un problema, il 24 marzo mi scade il termine per il reso su amazon, e sinceramente mi sembrano pochini due giorni per reinstallare tutto e aspettare che il fatto si verifichi, sei daccordo?
E comunque per il problema conosciuto intendevo questo, prova a fare un ricerca su google usando black screen rtx 3070 come parole di ricerca, decine e decine di post ma alla fine almeno io non ho capito quale è la causa di tutto questo.
Ad esempio sono due giorni che la cosa non succede e fila tutto liscio, vai a capire, cosi nella mia ignoranza ho pensato fosse un problema dei driver sarebbe successo di nuovo ma nada, che vuoi che ti dica.
Stai Tranquillo per discorso reso.. anche se superi i termini, Amazon ti tutela. O ti manda una VGA in sostituzione, o ti rimborsa comunque, qualora il prodotto non risultasse disponibile. Questo vale fino a due anno dall'acquisto.
Consiglio... non mandarla in RMA visti i tempi, fai tutti i dovuti controlli ,perche un problema che si presenta in modo sporadico, fa pensare a qualche problema più software che HW della VGA. Se fosse rotta, il problema si presenterebbe quasi sempre. Ne ho visti tanti di casi, e spesso le cause dipendevano da altro... Alimentatore, cavo video, software/windows... questo è il brutto del mondo PC, ma se ne viene a capo ;)
StrixyRoG
26-04-2021, 10:22
Ti ringrazio per la esaudiente spiegazione ma ho un problema, il 24 marzo mi scade il termine per il reso su amazon, e sinceramente mi sembrano pochini due giorni per reinstallare tutto e aspettare che il fatto si verifichi, sei daccordo?
E comunque per il problema conosciuto intendevo questo, prova a fare un ricerca su google usando black screen rtx 3070 come parole di ricerca, decine e decine di post ma alla fine almeno io non ho capito quale è la causa di tutto questo.
Ad esempio sono due giorni che la cosa non succede e fila tutto liscio, vai a capire, cosi nella mia ignoranza ho pensato fosse un problema dei driver sarebbe successo di nuovo ma nada, che vuoi che ti dica.
Stai in una botte di ferro, nei due anni di garanzia sostituiscono o rimborsano, quindi fai tutte le prove del caso con calma per venirne a capo ;)
nickname88
26-04-2021, 10:23
Scusate
Qualcuno con la 3080TUF ha per caso provato l'aggiornamento del bios con l'ultimo col resize bar ?
Lo chiedo perchè sul forum di techpowerup tutti quelli che han aggiornato scaricando l'eseguibile dal sito Asus han tutti briccato la VGA e han dovuto usare NVFlash o passare la secondo bios.
Bene, grazie mille ragazzi, comincerò con un bel formattone che con la mobo che ho è già un altro problema(la mia asus b550 gaming non riconosce la chiavetta flash per far partire windows :mc: ), ma in qualche modo farò.
Scusate
Qualcuno con la 3080TUF ha per caso provato l'aggiornamento del bios con l'ultimo col resize bar ?
Lo chiedo perchè sul forum di techpowerup tutti quelli che han aggiornato scaricando l'eseguibile dal sito Asus han tutti briccato la VGA e han dovuto usare NVFlash o passare la secondo bios.
Se leggi il thread uno aveva il cavo pci fuso e un altro aveva il il bios in modalità legacy. Se fosse vera una cosa del genere il twitter di Asus sarebbe esploso.
https://www.techpowerup.com/forums/threads/tuf-3080-official-update-tool-bricked-deleted-1-2-bios.276050/
Aspetta di avere qualche conferma extra qui ma mi pare che non sappiano quello che stanno facendo e stiano dando la colpa al bios.
La mia l'ho aggiornata e non si è brikkata.
Resize Bar operativo e nessun problema
amon.akira
26-04-2021, 11:22
Scusate
Qualcuno con la 3080TUF ha per caso provato l'aggiornamento del bios con l'ultimo col resize bar ?
Lo chiedo perchè sul forum di techpowerup tutti quelli che han aggiornato scaricando l'eseguibile dal sito Asus han tutti briccato la VGA e han dovuto usare NVFlash o passare la secondo bios.
sulla mia ho sia il vbios asus tuf rez bar e quello gigabyte aorus extreme rez bar flashato...tutto ok con entrambi, a un amico con 3080tuf idem ho flashato il vbios nuovo senza problemi
Magistercris
26-04-2021, 11:29
Scusate
Qualcuno con la 3080TUF ha per caso provato l'aggiornamento del bios con l'ultimo col resize bar ?
Lo chiedo perchè sul forum di techpowerup tutti quelli che han aggiornato scaricando l'eseguibile dal sito Asus han tutti briccato la VGA e han dovuto usare NVFlash o passare la secondo bios.
Anch'io nessun problema con il nuovo Bios.
In ogni caso hai anche il paracadute del doppio Bios!!
herasymcuk
26-04-2021, 11:59
Ragazzi è già la seconda volta che mi becco durante la sessione di un gioco una schermata nera che mi blocca tutto e non posso fare altro che riavviare il computer dal pulsante del case, la vga è una 3070, mi devo preoccupare? soluzioni?
Sarà mica l'aggiornento di windows (ora corretto) KB5001330? Hai visto se da regedit hai il fix?
Sarà mica l'aggiornento di windows (ora corretto) KB5001330? Hai visto se da regedit hai il fix?
Questo aggiornamento lo vedo installato, lo devo disinstallare?
Scusa ma non ho capito nulla su (regedit?) e fix, di che si tratta/ pottresti darmi un link?
nickname88
26-04-2021, 12:43
La mia l'ho aggiornata e non si è brikkata.
Resize Bar operativo e nessun problema
sulla mia ho sia il vbios asus tuf rez bar e quello gigabyte aorus extreme rez bar flashato...tutto ok con entrambi, a un amico con 3080tuf idem ho flashato il vbios nuovo senza problemi
Anch'io nessun problema con il nuovo Bios.
In ogni caso hai anche il paracadute del doppio Bios!!
Ma avete aggiornato attraverso l'eseguibile sul sito Asus ?
Questa : https://www.asus.com/it/Motherboards-Components/Graphics-Cards/TUF-Gaming/TUF-RTX3080-O10G-GAMING/HelpDesk_Download/
amon.akira
26-04-2021, 12:58
Ma avete aggiornato attraverso l'eseguibile sul sito Asus ?
Questa : https://www.asus.com/it/Motherboards-Components/Graphics-Cards/TUF-Gaming/TUF-RTX3080-O10G-GAMING/HelpDesk_Download/
sia con eseguibile asus sia manualmente con nvflash
Dattofree
26-04-2021, 13:54
Scusate
Qualcuno con la 3080TUF ha per caso provato l'aggiornamento del bios con l'ultimo col resize bar ?
Lo chiedo perchè sul forum di techpowerup tutti quelli che han aggiornato scaricando l'eseguibile dal sito Asus han tutti briccato la VGA e han dovuto usare NVFlash o passare la secondo bios.
Nessun brick di nessun tipo su nessuna Asus. Chi ha problemi sono sempre persone che fanno cavolate fidati. Se fosse una cosa comune sarebbe un bagno di sangue Asus.
Questo aggiornamento lo vedo installato, lo devo disinstallare?
Scusa ma non ho capito nulla su (regedit?) e fix, di che si tratta/ pottresti darmi un link?
Guarda qua
https://www.hwupgrade.it/news/sistemi-operativi/windows-10-un-fix-di-emergenza-per-i-problemi-prestazionali-in-gaming_97229.html
Per verificare che il fox sia stato installato devi controllare questa chiave di registro:
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\FeatureManagement\Overrides\4\1837593227
e verificare che "EnabledState" abbia valore "1".
herasymcuk
26-04-2021, 16:21
Questo aggiornamento lo vedo installato, lo devo disinstallare?
Scusa ma non ho capito nulla su (regedit?) e fix, di che si tratta/ pottresti darmi un link?
Le schermate nere di cui parlavi, sono uno dei sintomi di questo aggiornamento windows farlocco. Lo hanno sistemato lato server...ma non tutti hanno ricevuto la fix.
Comunque, come detto dall'utente qua sopra...controlla nel registro questa voce:
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\FeatureManagement\Overrides\4\1837593227
e verifica che "EnabledState" abbia tra parentesi il valore "1".
guant4namo
26-04-2021, 17:09
Questo aggiornamento lo vedo installato, lo devo disinstallare?
Scusa ma non ho capito nulla su (regedit?) e fix, di che si tratta/ pottresti darmi un link?
Come ti hanno anche detto i due utenti sopra , devi avere il tutto come da foto di seguito:
https://i.postimg.cc/9wQfmmp9/fixwi.png (https://postimg.cc/9wQfmmp9)
Ma avete aggiornato attraverso l'eseguibile sul sito Asus ?
Questa : https://www.asus.com/it/Motherboards-Components/Graphics-Cards/TUF-Gaming/TUF-RTX3080-O10G-GAMING/HelpDesk_Download/Aggiornato attraverso eseguibile. Nessun problema.
Come ti hanno anche detto i due utenti sopra , devi avere il tutto come da foto di seguito:
https://i.postimg.cc/9wQfmmp9/fixwi.png (https://postimg.cc/9wQfmmp9)
Le schermate nere di cui parlavi, sono uno dei sintomi di questo aggiornamento windows farlocco. Lo hanno sistemato lato server...ma non tutti hanno ricevuto la fix.
Comunque, come detto dall'utente qua sopra...controlla nel registro questa voce:
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\FeatureManagement\Overrides\4\1837593227
e verifica che "EnabledState" abbia tra parentesi il valore "1".
Guarda qua
https://www.hwupgrade.it/news/sistemi-operativi/windows-10-un-fix-di-emergenza-per-i-problemi-prestazionali-in-gaming_97229.html
Per verificare che il fox sia stato installato devi controllare questa chiave di registro:
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\FeatureManagement\Overrides\4\1837593227
e verificare che "EnabledState" abbia valore "1".
Siete meravigliosi ragazzi, grazie mille, ho controllato il registro come mi avete indicato e risulta installato il fix, quindi posso stare tranquillo adesso ?
E nel caso mettiamo un amico che non ha ricevuto questa fix, cosa si deve fare ? esiste un modo per installarlo manualmente?
guant4namo
27-04-2021, 00:26
Secondo voi, è fondamentale attivare la voce cerchiata nella foto di seguito?
Ci sono migliorie o non cambia niente? ;) :)
https://i.postimg.cc/5X5H3MLr/IMP-GPU.png (https://postimg.cc/5X5H3MLr)
Cutter90
27-04-2021, 07:28
Secondo voi, è fondamentale attivare la voce cerchiata nella foto di seguito?
Ci sono migliorie o non cambia niente? ;) :)
https://i.postimg.cc/5X5H3MLr/IMP-GPU.png (https://postimg.cc/5X5H3MLr)
Booh. io l'ho sempre lasciata attiva, ma non so di preciso cosa faccia
Thunder-74
27-04-2021, 07:34
Booh. io l'ho sempre lasciata attiva, ma non so di preciso cosa faccia
Riporto un articolo trovato...
Pianificazione GPU con accelerazione hardware
La Pianificazione GPU risale all'introduzione dei primi Windows Display Driver Model (WDDM) permettendo alle applicazioni di poter inviare il loro lavoro alla GPU senza mettersi in fila, ma con un sistema più intelligente fatto assegnano priorità variabili a seconda del tipo di programma utilizzato. Detto in altre parole molto semplici, per lasciare ai giochi ed alle applicazioni di grafica la priorità nell'utilizzo della scheda video. L'unico problema era un certo ritardo nell'interazione tra GPU e CPU, che resta comunque il componente centrale di elaborazione dati .
Comunque sia, con l'aggiornamento di Windows 10 di Maggio 2020, è stato introdotto un nuovo pianificatore GPU disattivato per impostazione predefinita, ma attivabile dall'utente che permette, con l'hardware e i driver giusti, di poter scaricare la maggior parte della programmazione grafica su un processore di pianificazione dedicato basato sulla GPU.
Secondo alcuni test, con questa opzione attivata in un computer di alto livello e con una scheda video potente, si può ottenere un guadagno tra 1-2 fotogrammi al secondo durante l'esecuzione di un gioco, che non è molto, ma, se non ci sono controindicazioni, può andare bene.
E' il GPU Scheduling e ci sono pareri contrastanti in merito alla sua utilità.
Ad alcuni non porta alcun beneficio, ad altri un peggioramento delle prestazioni in pieno W10 style.
herasymcuk
27-04-2021, 07:47
Siete meravigliosi ragazzi, grazie mille, ho controllato il registro come mi avete indicato e risulta installato il fix, quindi posso stare tranquillo adesso ?
E nel caso mettiamo un amico che non ha ricevuto questa fix, cosa si deve fare ? esiste un modo per installarlo manualmente?
Lato fix sei ok. Per chi non lo avesse ricevuto e riscontra problemi nei giochi può disinstallare l'aggiornamento in questione o aspettare il roll-out del fix.
Lato fix sei ok. Per chi non lo avesse ricevuto e riscontra problemi nei giochi può disinstallare l'aggiornamento in questione o aspettare il roll-out del fix.
Grande, incrociando le dita non è più successo.
TigerTank
27-04-2021, 09:10
Secondo voi, è fondamentale attivare la voce cerchiata nella foto di seguito?
Ci sono migliorie o non cambia niente? ;) :)
https://i.postimg.cc/5X5H3MLr/IMP-GPU.png (https://postimg.cc/5X5H3MLr)
Riporto un articolo trovato...
Pianificazione GPU con accelerazione hardware
La Pianificazione GPU risale all'introduzione dei primi Windows Display Driver Model (WDDM) permettendo alle applicazioni di poter inviare il loro lavoro alla GPU senza mettersi in fila, ma con un sistema più intelligente fatto assegnano priorità variabili a seconda del tipo di programma utilizzato. Detto in altre parole molto semplici, per lasciare ai giochi ed alle applicazioni di grafica la priorità nell'utilizzo della scheda video. L'unico problema era un certo ritardo nell'interazione tra GPU e CPU, che resta comunque il componente centrale di elaborazione dati .
Comunque sia, con l'aggiornamento di Windows 10 di Maggio 2020, è stato introdotto un nuovo pianificatore GPU disattivato per impostazione predefinita, ma attivabile dall'utente che permette, con l'hardware e i driver giusti, di poter scaricare la maggior parte della programmazione grafica su un processore di pianificazione dedicato basato sulla GPU.
Secondo alcuni test, con questa opzione attivata in un computer di alto livello e con una scheda video potente, si può ottenere un guadagno tra 1-2 fotogrammi al secondo durante l'esecuzione di un gioco, che non è molto, ma, se non ci sono controindicazioni, può andare bene.
Sembra che l'HAGS ora sia meglio di prima per cui io direi di lasciarlo attivo. Se poi capitassero situazioni strane con qualche gioco, si può sempre provare a disattivarlo se non si risolve altrove.
LINK (https://www.youtube.com/watch?v=cPw0X3X-1p0). Qui testato con un 5600X e una 3070.
Alla fine è un pò come la storia della R.Bar, benefici o eventuali problemi dipendono dai singoli giochi.
Più che altro imho sarebbe da verificare se la somma di più "tiraggi" (HAGS + R.BAR + latenza Ultra, ecc...) non finisca per comportare qualche effetto collaterale.
Thunder-74
27-04-2021, 09:20
Sembra che l'HAGS ora sia meglio di prima per cui io direi di lasciarlo attivo. Se poi capitassero situazioni strane con qualche gioco, si può sempre provare a disattivarlo se non si risolve altrove.
LINK (https://www.youtube.com/watch?v=cPw0X3X-1p0). Qui testato con un 5600X e una 3070.
Alla fine è un pò come la storia della R.Bar, benefici o eventuali problemi dipendono dai singoli giochi.
Più che altro imho sarebbe da verificare se la somma di più "tiraggi" (HAGS + R.BAR + latenza Ultra, ecc...) non finisca per comportare qualche effetto collaterale.
stesso mio pensiero...
nickname88
27-04-2021, 09:39
sia con eseguibile asus sia manualmente con nvflash
Aggiornato attraverso eseguibile. Nessun problema.
Nessun brick di nessun tipo su nessuna Asus. Chi ha problemi sono sempre persone che fanno cavolate fidati. Se fosse una cosa comune sarebbe un bagno di sangue Asus.Ok ma a parte il resizable bar il nuovo bios introduce qualcosa di nuovo sotto il profilo della gestione ventole ? Parlo ovviamente per quel che riguardo il profilo stock.
Più che altro vorrei sapere se hanno fixato il limite dei 350W e adesso la 3080 tuf arriva a 370W. Si può flashare un altro BIOS con PL più alto su questa scheda?
guant4namo
27-04-2021, 11:34
Sembra che l'HAGS ora sia meglio di prima per cui io direi di lasciarlo attivo. Se poi capitassero situazioni strane con qualche gioco, si può sempre provare a disattivarlo se non si risolve altrove.
LINK (https://www.youtube.com/watch?v=cPw0X3X-1p0). Qui testato con un 5600X e una 3070.
Alla fine è un pò come la storia della R.Bar, benefici o eventuali problemi dipendono dai singoli giochi.
Più che altro imho sarebbe da verificare se la somma di più "tiraggi" (HAGS + R.BAR + latenza Ultra, ecc...) non finisca per comportare qualche effetto collaterale.
Grazie mille per la risposta, in serata provvedo ad attivarlo e farò dei testu su Apex Legends con il mio pc in firma. :) ;)
amon.akira
27-04-2021, 17:19
Più che altro vorrei sapere se hanno fixato il limite dei 350W e adesso la 3080 tuf arriva a 370W. Si può flashare un altro BIOS con PL più alto su questa scheda?
non c'è nulla da fixare è il pcie che ti limita un po, per esempio a me fa 8pin 150w 8pin 150w e pcie 55watt dei 75nominali.
dylandog_666
27-04-2021, 21:02
Ciao,
Qualcuno ha liquidato la propria 3080? Vorrei confrontarmi un po'sui voltaggi,core,ecc...
ragazzi ho attivato HAGS e devo dire che le prestazioni migliorano...ho testato Grid 2019 sul benchmark interno e ho + 2-3 frame...
HAGS attivo 119,39 fps
HAGS disattivato 117,20 fps
anche se di poco ma il miglioramento c'è....inoltre ho attivo anche il resizable bar e al momento non ho nessun conflitto.
nickname88
28-04-2021, 14:09
Ok ma a parte il resizable bar il nuovo bios introduce qualcosa di nuovo sotto il profilo della gestione ventole ? Parlo ovviamente per quel che riguardo il profilo stock.
Voi con la TUF e che avete aggiornato all'ultimo bios per caso riuscite a rispondere a questa domanda ? :)
Cutter90
28-04-2021, 14:16
ragazzi ho attivato HAGS e devo dire che le prestazioni migliorano...ho testato Grid 2019 sul benchmark interno e ho + 2-3 frame...
HAGS attivo 119,39 fps
HAGS disattivato 117,20 fps
anche se di poco ma il miglioramento c'è....inoltre ho attivo anche il resizable bar e al momento non ho nessun conflitto.
Il "problem" è che sembra variare da gioco a gioco. Personalemnte me ne frego e lascio tutto attivo
Il "problem" è che sembra variare da gioco a gioco. Personalemnte me ne frego e lascio tutto attivo
si anch'io....;)
HAGS crea problemi enormi di performance su alcuni programmi tipo obs.
I vantaggi sono risibili a fronte di potenziali grosse incompatibilità e cali prestazionali anche importanti (non basta vedere la media degli fps, bisogna vedere i minimi).
Ecco perché molti consigliano di lasciarlo disattivato.
Voi con la TUF e che avete aggiornato all'ultimo bios per caso riuscite a rispondere a questa domanda ? :)Per quanto mi riguarda, non mi risulta.
bronzodiriace
28-04-2021, 18:59
Voi con la TUF e che avete aggiornato all'ultimo bios per caso riuscite a rispondere a questa domanda ? :)
nulla di nuovo a dirti il vero a parte il r.b.
Anche perchè il precedente bios comunque risolveva il problema del 0db
nickname88
28-04-2021, 19:02
Anche perchè il precedente bios comunque risolveva il problema del 0db
E che problema era ?
bronzodiriace
28-04-2021, 19:13
E che problema era ?
non si fermavano le ventole sotto una certa temperatura, ma non capitava a tutti.
amon.akira
28-04-2021, 20:50
Metro Exoduss Enhanced edition vs 2019 (https://www.youtube.com/watch?v=NbpZCSf4_Yk&t=2435s)
by digitalfoundry buona visione, free upgrade... secondo giro dovuto direi :D
mikael84
28-04-2021, 23:32
Metro Exoduss Enhanced edition vs 2019 (https://www.youtube.com/watch?v=NbpZCSf4_Yk&t=2435s)
by digitalfoundry buona visione, free upgrade... secondo giro dovuto direi :D
Dai JHH esci questi 5nm (samsung).:)
https://i.postimg.cc/xXHYz66J/ada-lovelace.png (https://postimg.cc/xXHYz66J)
Dai JHH esci questi 5nm (samsung).:)
https://i.postimg.cc/xXHYz66J/ada-lovelace.png (https://postimg.cc/xXHYz66J)
Finalmente!!! quinto giro per me!:D :D :D
Metro Exoduss Enhanced edition vs 2019 (https://www.youtube.com/watch?v=NbpZCSf4_Yk&t=2435s)
by digitalfoundry buona visione, free upgrade... secondo giro dovuto direi :D
Finalmente!!! quinto giro per me!:D :D :D :D
Cutter90
29-04-2021, 06:42
Metro Exoduss Enhanced edition vs 2019 (https://www.youtube.com/watch?v=NbpZCSf4_Yk&t=2435s)
by digitalfoundry buona visione, free upgrade... secondo giro dovuto direi :D
Una roba pazzesca. Tutto il gioco in full rt. E ancora una volta il dlss in performance mode (1080p interna) è migliore del 4k nativo con il TAA. Una roba folle
Tra la 3080 e la 6800 xt in RT ci sono 20, no dico, 20 fps in 1440p a vantaggio della 3080. E senza usare il dlss. Che mazzata
Thunder-74
29-04-2021, 07:03
in questi giorni sono di trasloco e quindi poco social... non so se già postato...
presenteranno 3090 e 3080 con capacità ridotte per il Mining, inseme alla 3080ti già con tale limite.
I chip sono identificati con un "2" finale
https://i.imgur.com/JuAzwtl.jpg
FONTE (https://videocardz.com/newz/nvidia-geforce-rtx-30-lite-hash-rate-series-to-begin-shipping-mid-may)
scorpion73
29-04-2021, 08:17
Una roba pazzesca. Tutto il gioco in full rt. E ancora una volta il dlss in performance mode (1080p interna) è migliore del 4k nativo con il TAA. Una roba folle
Tra la 3080 e la 6800 xt in RT ci sono 20, no dico, 20 fps in 1440p a vantaggio della 3080. E senza usare il dlss. Che mazzata
Dominio assoluto, che mette in evidenza l'imbarazzante gap tecnologico fra AMD e Nvidia sul tema RT.
In raster le nuove AMD vanno bene, ma una scheda con prestazioni così imbarazzanti in RT nel 2021 francamente non vale i soldi che costa. IMHO ovviamente.
TigerTank
29-04-2021, 08:22
Metro Exoduss Enhanced edition vs 2019 (https://www.youtube.com/watch?v=NbpZCSf4_Yk&t=2435s)
by digitalfoundry buona visione, free upgrade... secondo giro dovuto direi :D
Ottimo, se poi è "free upgrade" ben venga. Ho già Exodus + expansion pass su Epic :cool:
Servirebbe solo una bella 4080, visto che ormai spero poco nelle ampère, ipotetica seconda generazione inclusa come da post di thunder :sofico:
Dominio assoluto, che mette in evidenza l'imbarazzante gap tecnologico fra AMD e Nvidia sul tema RT.
In raster le nuove AMD vanno bene, ma una scheda con prestazioni così imbarazzanti in RT nel 2021 francamente non vale i soldi che costa. IMHO ovviamente.
Ed è uina bruttissima cosa perchè se manca totalmente la concorrenza, calano drasticamente le possibilità di una rinormalizzazione dei prezzi delle prossime vga nvidia.
fraussantin
29-04-2021, 08:27
Dominio assoluto, che mette in evidenza l'imbarazzante gap tecnologico fra AMD e Nvidia sul tema RT.
In raster le nuove AMD vanno bene, ma una scheda con prestazioni così imbarazzanti in RT nel 2021 francamente non vale i soldi che costa. IMHO ovviamente.Su questo non avevamo dubbi , mava detto che é la prima architettura AMD a supportarlo e i giochi sono palesemente pensati per girare su Nvidia.
Potrebbe anche darsi che con la prossima architettura AMD trovi il sistema per boostare RT e non dico raggiungere Nvidia ( lei andrà sicuramente avanti ) ma cmq avvicinarsi notevolmente.
Quello che rende Nvidia preferibile é il dlss.
Se riescono a sviluppare quello 3.0 quasi universale é la fine dei giochi. Non ci sarà più competizione.
Vedremo e speriamo che AMD riesca a tirare fuori il suo metodo
Una roba pazzesca. Tutto il gioco in full rt. E ancora una volta il dlss in performance mode (1080p interna) è migliore del 4k nativo con il TAA. Una roba folle
Tra la 3080 e la 6800 xt in RT ci sono 20, no dico, 20 fps in 1440p a vantaggio della 3080. E senza usare il dlss. Che mazzata
DLSS2.1 lavora meglio della nativa con TAA applicato, in quality mode riduce notevolmente il flickering degli oggetti distanti. Il confronto con DLSS1.0 evidenzia ancora una volta i passi in avanti fatti da questa tecnologia.
Breve riflessioni su RT:
Chi dice che del RT non sia così d'impatto e non gliene frega niente, mente. Prima di comprare la 3080 ho bazzicato qua e là nei vari topic e i detrattori della tecnologia scrivevano: si ma AMD ha più potenza in raster, è quella che conta, in RT ci sono ancora pochi giochi, bla bla bla.
Poi escono Cyberpunk che a detta di tutti con RT è un altro gioco, esce questo remake di Metro dove che è graficamenter migliore dell'originale, e in futuro sicuramente ne usciranno delgi altri.
Forse si è sottostimato l'importanza di questa tecnologia?
Dominio assoluto, che mette in evidenza l'imbarazzante gap tecnologico fra AMD e Nvidia sul tema RT.
In raster le nuove AMD vanno bene, ma una scheda con prestazioni così imbarazzanti in RT nel 2021 francamente non vale i soldi che costa. IMHO ovviamente.
Quindi in sostanza stai dicendo che le prestazioni in RT ottenibili nei giochi fino al livello corrispondente ad una 2080TI è imbarazzante...senza considerare che in raster puro spesso e volentieri AMD sta davanti e, guardando i prezzi medi, costano pure meno? :muro:
Quindi in sostanza stai dicendo che le prestazioni in RT ottenibili nei giochi fino al livello corrispondente ad una 2080TI è imbarazzante...senza considerare che in raster puro spesso e volentieri AMD sta davanti e, guardando i prezzi medi, costano pure meno? :muro:
Scusa che c'entra la serie 2080? Devi paragonare le ultime schede uscite, serie 3000 Nvidia e 6000 AMD. Che poi con DLSS giochi bene anche su 2080
Cutter90
29-04-2021, 09:08
Quindi in sostanza stai dicendo che le prestazioni in RT ottenibili nei giochi fino al livello corrispondente ad una 2080TI è imbarazzante...senza considerare che in raster puro spesso e volentieri AMD sta davanti e, guardando i prezzi medi, costano pure meno? :muro:
Guarda che una 2080 ti in rt va di più di una 6800 xt attivando il dlss.....
Cutter90
29-04-2021, 09:10
DLSS2.1 lavora meglio della nativa con TAA applicato, in quality mode riduce notevolmente il flickering degli oggetti distanti. Il confronto con DLSS1.0 evidenzia ancora una volta i passi in avanti fatti da questa tecnologia.
Breve riflessioni su RT:
Chi dice che del RT non sia così d'impatto e non gliene frega niente, mente. Prima di comprare la 3080 ho bazzicato qua e là nei vari topic e i detrattori della tecnologia scrivevano: si ma AMD ha più potenza in raster, è quella che conta, in RT ci sono ancora pochi giochi, bla bla bla.
Poi escono Cyberpunk che a detta di tutti con RT è un altro gioco, esce questo remake di Metro dove che è graficamenter migliore dell'originale, e in futuro sicuramente ne usciranno delgi altri.
Forse si è sottostimato l'importanza di questa tecnologia?
Ma che la direzione fosse questa era chiaro da almeno 1 anno e mezzo. Il ray tracing, se applicato come in Control, Metro o cp2077 cambia completamente il gioco, graficamente parlando.
Scusa che c'entra la serie 2080? Devi paragonare le ultime schede uscite, serie 3000 Nvidia e 6000 AMD. Che poi con DLSS giochi bene anche su 2080
Ha scritto che AMD nel 2021 ha prestazioni imbarazzanti in RT o sbaglio? Il livello di AMD raggiunto nella sua prima release arriva massimo alle prestazioni ottenibili da una 2080TI quindi vedi tu...
Guarda che una 2080 ti in rt va di più di una 6800 xt attivando il dlss.....
Aspettiamo che AMD rilasci la sua versione come dichiarato più volte o a priori Nvidia "uber alles"?
Cutter90
29-04-2021, 09:20
Ha scritto che AMD nel 2021 ha prestazioni imbarazzanti in RT o sbaglio? Il livello di AMD raggiunto nella sua prima release arriva massimo alle prestazioni ottenibili da una 2080TI quindi vedi tu...
Nemmeno. Perchè con il dlss amd le prende anche dalla 2000...
Aspettiamo che AMD rilasci la sua versione come dichiarato più volte o a priori Nvidia "uber alles"?
Eh si ho capito. Ma tu giochi nel futuro o guardiamo il presente? No perchè il dlss c'è da 2 anni buoni ormai eh
Nemmeno. Perchè con il dlss amd le prende anche dalla 2000...
Eh si ho capito. Ma tu giochi nel futuro o guardiamo il presente? No perchè il dlss c'è da 2 anni buoni ormai eh
Puoi guardare quello che vuoi ma fino a che non hanno buttato fuori il DLSS 2.0 questa tecnologia non era un granché. E te lo dico avendola provata sin dal giorno della sua uscita su una 2080TI.
Cutter90
29-04-2021, 09:30
Puoi guardare quello che vuoi ma fino a che non hanno buttato fuori il DLSS 2.0 questa tecnologia non era un granché. E te lo dico avendola provata sin dal giorno della sua uscita su una 2080TI.
Eh, lo so bene, da ex possessore d1 della stessa 2080 ti. Però ora c'è e si fanno i conti con quello, non ti pare?
nickname88
29-04-2021, 09:32
Una roba pazzesca. Tutto il gioco in full rt. E ancora una volta il dlss in performance mode (1080p interna) è migliore del 4k nativo con il TAA. Una roba folle
Tra la 3080 e la 6800 xt in RT ci sono 20, no dico, 20 fps in 1440p a vantaggio della 3080. E senza usare il dlss. Che mazzataMi sembra strano che tutta l'illuminazione sia gestita in RT.
Dove viene detto ?
Gli unici giochi totalmente RT da quel che so sono MineCraft e Quake 2 e non sono per niente leggeri, specie quest'ultimo.
Metro addirittura sembra che in questa enhanced anzichè essere molto più pesante se fosse stato in full RT, fa invece più frames.
Cutter90
29-04-2021, 09:36
Mi sembra strano che tutta l'illuminazione sia gestita in RT.
Dove viene detto ?
Gli unici giochi totalmente RT da quel che so sono MineCraft e Quake 2 e non sono per niente leggeri, specie quest'ultimo.
Metro addirittura sembra che in questa enhanced anzichè essere molto più pesante se fosse stato in full RT, fa invece più frames.
Global illumination in rt, fonti emissive in rt, riflessi e ombre in rt. Si può mettere altro in rt? :D
Poi escono Cyberpunk che a detta di tutti con RT è un altro gioco, esce questo remake di Metro dove che è graficamenter migliore dell'originale, e in futuro sicuramente ne usciranno delgi altri.
Forse si è sottostimato l'importanza di questa tecnologia?
Si è vero che su Cyberpunk il RT migliora tantissimo l'esperienza visiva ma bisognerebbe anche considerare che Cyberpunk imho è anche l'esempio lampante di come lo sviluppatore o Nvidia (non so a chi dei due dare la colpa ma tant'è) non dovrebbe "dimenticarsi" che esiste anche altro: ad esempio basta guardare i riflessi di luce in RT sull'acqua del mare o nei vetri degli edifici...in RT ON tutto effetto "wow" in RT OFF...nulla di nulla. Il mare sembra un blob grigio che neanche 15 anni fa nei giochi faceva così pena.
nickname88
29-04-2021, 09:44
Global illumination in rt, fonti emissive in rt, riflessi e ombre in rt. Si può mettere altro in rt? :D
Non lo so, tuttavia il fatto che sotto le voci come "Global illumination" ( piuttosto che le altre ) appaia l'opzione denominata RT non poi detto che sia interamente riprodotto col ray tracing o se va semplicemente ad abilitare un profilo ibrido, che in questo caso sarebbe stato solo migliorato.
In teoria se l'illuminazione fosse nativa RT dovrebbe essere maggiormente un mattone.
Quì invece addirittura migliora il frame rate, va bene l'ottimizzazione ma sembrerebbe un po' come avvistare la Madonna.
Eh, lo so bene, da ex possessore d1 della stessa 2080 ti. Però ora c'è e si fanno i conti con quello, non ti pare?
Assolutamente d'accordo. Era giusto per dire che imho anche una 6800XT, ad esempio, è tutt'altro che imbarazzante come scheda video del 2020/21. :D
Jeetkundo
29-04-2021, 09:49
Mi sembra strano che tutta l'illuminazione sia gestita in RT.
Dove viene detto ?
Gli unici giochi totalmente RT da quel che so sono MineCraft e Quake 2 e non sono per niente leggeri, specie quest'ultimo.
Metro addirittura sembra che in questa enhanced anzichè essere molto più pesante se fosse stato in full RT, fa invece più frames.Ci sono alcuni compromessi, ora era senza sub e non ho capito il 100% ma mi è sembrato di sentire di una limitazione dell'rtgi "only the first bounce of light is visible in the first frame after a change of light occurs", ne parla a 27 min e 43 circa.
Inviato dal mio LYA-L09 utilizzando Tapatalk
Cutter90
29-04-2021, 09:50
Non lo so, tuttavia il fatto che sotto le voci come "Global illumination" ( piuttosto che le altre ) appaia l'opzione denominata RT non poi detto che sia interamente riprodotto col ray tracing o se va semplicemente ad abilitare un profilo ibrido, che in questo caso sarebbe stato solo migliorato.
In teoria se l'illuminazione fosse nativa RT dovrebbe essere maggiormente un mattone.
Quì invece addirittura migliora il frame rate, va bene l'ottimizzazione ma sembrerebbe un po' come avvistare la Madonna.
Sembrerebbe sia in rt la gi. Tutta. Tra il rt non è nemmeno disattivabile sulle rtx da quanto ho capito
Anche cp 2077 se non sbaglio a folle ha tutta la GI in rt
Credo che in ogni caso si parli del primo "rimbalzo" della luce sulla superficie. Cioè, non è la realtà XD
Cutter90
29-04-2021, 09:51
Assolutamente d'accordo. Era giusto per dire che imho anche una 6800XT, ad esempio, è tutt'altro che imbarazzante come scheda video del 2020/21. :D
Ma si si, era solo il fatto in rt.
Ale55andr0
29-04-2021, 09:53
https://wccftech.com/metro-exodus-pc-enhanced-edition-release-date-nvidia-rtx-3080-amd-rx-6800-xt/
"Basically, NVIDIA’s GeForce RTX 3080 performs about as well at 1440p and ultra ray tracing settings as the AMD’s RX 6800 XT does at normal settings. With both running at 1440p and ultra settings, the RTX 3080 outperforms the RX 6800 XT by as much as 50 percent"
nickname88
29-04-2021, 09:53
Si è vero che su Cyberpunk il RT migliora tantissimo l'esperienza visiva ma bisognerebbe anche considerare che Cyberpunk imho è anche l'esempio lampante di come lo sviluppatore o Nvidia (non so a chi dei due dare la colpa ma tant'è) non dovrebbe "dimenticarsi" che esiste anche altro: ad esempio basta guardare i riflessi di luce in RT sull'acqua del mare o nei vetri degli edifici...in RT ON tutto effetto "wow" in RT OFF...nulla di nulla. Il mare sembra un blob grigio che neanche 15 anni fa nei giochi faceva così pena.
Quello che tu chiedi implica maggiore lavoro, aldilà di quello che può essere uno sponsor Nvidia o meno.
Quindi a qualcuno capita di scegliere di farlo o tutto in raster o tutto in modo ibrido dove però appunto se disabiliti il RT ottieni il risultato che vedi.
L'ideale sarebbe mandare in pensione per sempre il raster per gli sviluppatori e tirare fuori qualcosa di realmente prestante lato HW per Nvidia/AMD.
Graphite600T
29-04-2021, 10:03
ragazzi col pc in firma RDR 2 e Flight Simulator fanno fatica.... ma che? praticamente ho già una scheda vecchia?
nickname88
29-04-2021, 10:07
ragazzi col pc in firma RDR 2 e Flight Simulator fanno fatica.... ma che? praticamente ho già una scheda vecchia?
Io RDR2 lo gioco in 4K con setting ottimizzato di HardwareUnboxing ( ed è murata a 1860Mhz ) e non si schioda dai 60fps manco a martellate. FS almeno in 4K con la 3080 i 60fps non li fai e mai li farai senza forse scendere a compromessi seri.
Tuttavia alla tua risoluzione almeno RDR2 dovrebbe volare anche se maxato. :read:
Cutter90
29-04-2021, 10:20
ragazzi col pc in firma RDR 2 e Flight Simulator fanno fatica.... ma che? praticamente ho già una scheda vecchia?
FS si può ottimizzare molto bene abbassando qualche dettagli la cui differenza è zero
Graphite600T
29-04-2021, 10:24
FS si può ottimizzare molto bene abbassando qualche dettagli la cui differenza è zero
Su FS ho utilizzo gpu mai sopra il 60\70% e mi gira tra i 40 e i 60 fps... la cpu sta sui 20\30% ... RDR2 senza AA gira tra i 55 e i 70 (3440x1440) ....
Jeetkundo
29-04-2021, 10:25
ragazzi col pc in firma RDR 2 e Flight Simulator fanno fatica.... ma che? praticamente ho già una scheda vecchia?
Serve una 4090, pazienta un pò :D
ragazzi col pc in firma RDR 2 e Flight Simulator fanno fatica.... ma che? praticamente ho già una scheda vecchia?
Flight Simulator è un caso a parte: è proprio programmato male. Già il fatto che abbiano scelto ancora le dx11 e che in 4K ed in 2K, con una 3090 ad esempio, i frame siano più o meno gli stessi fa capire che la distribuzione del carico di lavoro sulla CPU (con conseguente crollo dell'impiego della GPU) faccia da collo di bottiglia a tutto l'insieme.
ragazzi col pc in firma RDR 2 e Flight Simulator fanno fatica.... ma che? praticamente ho già una scheda vecchia?
Ad oggi non esiste una scheda per far girare bene RDR2 in 4k. E' un titolo ottimizzato per schede del futuro :D :D :D :D
Io RDR2 lo gioco in 4K con setting ottimizzato di HardwareUnboxing ( ed è murata a 1860Mhz ) e non si schioda dai 60fps manco a martellate. FS almeno in 4K con la 3080 i 60fps non li fai e mai li farai senza forse scendere a compromessi seri.
Tuttavia alla tua risoluzione almeno RDR2 dovrebbe volare anche se maxato. :read:
Ad oggi non esiste una scheda per far girare bene RDR2 in 4k. E' un titolo ottimizzato per schede del futuro :D :D :D :D
ragazzi col pc in firma RDR 2 e Flight Simulator fanno fatica.... ma che? praticamente ho già una scheda vecchia?
tutto in una pagina :asd:
Cutter90
29-04-2021, 11:12
https://www.youtube.com/watch?v=Kq5mH7loGSI
Qui c'è un video che mostra ogni impostazione cosa fa. Molti settaggi hanno differenze pari allo zero tra lato e ultra. in 4k con una 3080 i 60 fps sono alla portata di quasi ogni situazione
Graphite600T
29-04-2021, 11:18
tutto in una pagina :asd:
Ma tu sei un maestro. Grazie a tutti stasera quando torno a casa provo
P.S. RDR2 mi fa 60\70 80 in qualche caso ma vedendo online in 4k si scende anche a 40 fps con una 3080 tutto maxato ovviamente. Per quello che "vedo" pensavo facesse un pò di più purtroppo sugli engine rockstar pesa molto la vegetazione che è molto molto bella.
nickname88
29-04-2021, 11:27
FS si può ottimizzare molto bene abbassando qualche dettagli la cui differenza è zero
Certamente ma ottenere i 60fps costanti almeno con una 3080 è una chimera a meno di usare risoluzioni basse e ci sarebbero comunque cali importanti in determinate location pure con quelle.
Un conto è volare in un paesaggio spoglio, magari pure nella visuale interna, li puoi fare i 60fps anche facili a seconda del settings.
Un altro conto è volare a bassa quota sopra una grande metropoli in particolari condizioni meteo e di luce, lì crolla tanto.
Ci vorrebbe il DLSS. :read: :D :D
Cutter90
29-04-2021, 11:44
Certamente ma ottenere i 60fps costanti almeno con una 3080 è una chimera a meno di usare risoluzioni basse e ci sarebbero comunque cali importanti in determinate location pure con quelle.
Un conto è volare in un paesaggio spoglio, magari pure nella visuale interna, li puoi fare i 60fps anche facili a seconda del settings.
Un altro conto è volare a bassa quota sopra una grande metropoli in particolari condizioni meteo e di luce, lì crolla tanto.
Ci vorrebbe il DLSS. :read: :D :D
Eh va beh, ho capito. Ma ottimizzando si sale moltissimo con i frame, è un po' che non ci gioco in realtà.
herasymcuk
29-04-2021, 11:50
FS si può ottimizzare molto bene abbassando qualche dettagli la cui differenza è zero
FS è ad oggi ottimizzato malissimo. Hanno voluto spingere su gli upgrade, dimenticandosi delle fondamenta. Prima con una rtx 2070 super mi girava in 1440p con settings spinti.....ora con una 3090 (seppur in 4k) fa fatica....e crasha improvvisamente. Non solo....ma l'ulitizzo della gpu è sempre del 100% con temperature di 73°/75°...
herasymcuk
29-04-2021, 11:51
Su FS ho utilizzo gpu mai sopra il 60\70% e mi gira tra i 40 e i 60 fps... la cpu sta sui 20\30% ... RDR2 senza AA gira tra i 55 e i 70 (3440x1440) ....
Leggi sopra...a me tiene impegnata la mia 3090 al 100%....
scorpion73
29-04-2021, 12:00
Quindi in sostanza stai dicendo che le prestazioni in RT ottenibili nei giochi fino al livello corrispondente ad una 2080TI è imbarazzante...senza considerare che in raster puro spesso e volentieri AMD sta davanti e, guardando i prezzi medi, costano pure meno? :muro:
Si, visto che stiamo parlando di schede di fascia alta nel 2021.. e la 2080ti è una scheda del 2018...
La top di gamma amd ha prestazioni se va bene al massimo come la medium attuale di Nvidia (in DLSS le prende anche da quella e ancora non ha presentato nulla della sua soluzione alternativa).
Per me, è imbarazzante, se vi sta bene compratela pure.
Ovviamente, come detto anche da Cutter, sto parlando di RT, in raster vanno molto bene.
Ma nel 2021 una scheda che va bene solo in raster e ha quella differenza in RT, per me, non vale i soldi che costa.
Poi ripeto, se vi piace compratela pure, non è mica un crimine, ci mancherebbe.
Poi, costa meno se riesci a prenderla da AMD.. se prendi le custom costa uno sproposito uguale...
scorpion73
29-04-2021, 12:22
Ed è uina bruttissima cosa perchè se manca totalmente la concorrenza, calano drasticamente le possibilità di una rinormalizzazione dei prezzi delle prossime vga nvidia.
Non puoi che trovarmi d'accordo.
Una AMD concorrenziale sotto le nuove frontiere tecnologiche fermerebbe questa follia dei prezzi quindi io sarei il primo ad essere contento se fosse così.
scorpion73
29-04-2021, 12:25
Su questo non avevamo dubbi , mava detto che é la prima architettura AMD a supportarlo e i giochi sono palesemente pensati per girare su Nvidia.
Potrebbe anche darsi che con la prossima architettura AMD trovi il sistema per boostare RT e non dico raggiungere Nvidia ( lei andrà sicuramente avanti ) ma cmq avvicinarsi notevolmente.
Quello che rende Nvidia preferibile é il dlss.
Se riescono a sviluppare quello 3.0 quasi universale é la fine dei giochi. Non ci sarà più competizione.
Vedremo e speriamo che AMD riesca a tirare fuori il suo metodo
Il DLSS è l'arma vincente, non c'è dubbio.
Ma, se dobbiamo essere onesti fino in fondo, e può essere vero (anzi, è vero) quel che dici sul fatto che i giochi siano pensati per Nvidia, è anche vero che a mio avviso è proprio una questione anche di potenza, dove AMD è palesemente sotto (RT ovviamente), quindi anche pensandoli non con Nvidia in testa non ci sarebbe comunque storia.
Per andare bene AMD alla prossima Gen dovrebbe competere direttamente con la serie 4 (non con la 3, sennò rimarrebbe comunque una Gen indietro) ed avere la sua architettura simil-DLSS, in Hardware, perché quello che si sta prospettando adesso per AMD (se mai arriverà) è una soluzione che si basa comunque sugli shader perché AMD non ha hardware per questo tipo di operazioni sulla attuale generazione, quindi occorrerà valutare bene costi e benefici.
Faccio presente che, da quel che leggevo in giro e se non mi sbaglio, in RDNA3 esisteranno dei core sul modello dei Tensor pensati apposta per questa cosa, fattore assente con le attuali schede (mentre nvidia li aveva fin dalla prima serie di schede con supporto RT).
Mi auguro che questo sia vero e che ci sia battaglia, altrimenti, come diceva frauss, se arriva il DLSS 3 si chiuderà definitivamente ogni orizzonte.
Leggi sopra...a me tiene impegnata la mia 3090 al 100%....
In mezzo al nulla si ma se si vola sopra le grandi città l'utilizzo della GPU scende di un botto.
Graphite600T
29-04-2021, 13:07
In mezzo al nulla si ma se si vola sopra le grandi città l'utilizzo della GPU scende di un botto.
Confermo.... purtroppo è male ottimizzato a quanto pare....
Graphite600T
29-04-2021, 13:08
Il DLSS è l'arma vincente, non c'è dubbio.
Ma, se dobbiamo essere onesti fino in fondo, e può essere vero (anzi, è vero) quel che dici sul fatto che i giochi siano pensati per Nvidia, è anche vero che a mio avviso è proprio una questione anche di potenza, dove AMD è palesemente sotto (RT ovviamente), quindi anche pensandoli non con Nvidia in testa non ci sarebbe comunque storia.
Per andare bene AMD alla prossima Gen dovrebbe competere direttamente con la serie 4 (non con la 3, sennò rimarrebbe comunque una Gen indietro) ed avere la sua architettura simil-DLSS, in Hardware, perché quello che si sta prospettando adesso per AMD (se mai arriverà) è una soluzione che si basa comunque sugli shader perché AMD non ha hardware per questo tipo di operazioni sulla attuale generazione, quindi occorrerà valutare bene costi e benefici.
Faccio presente che, da quel che leggevo in giro e se non mi sbaglio, in RDNA3 esisteranno dei core sul modello dei Tensor pensati apposta per questa cosa, fattore assente con le attuali schede (mentre nvidia li aveva fin dalla prima serie di schede con supporto RT).
Mi auguro che questo sia vero e che ci sia battaglia, altrimenti, come diceva frauss, se arriva il DLSS 3 si chiuderà definitivamente ogni orizzonte.
Per quanto riguarda Fidelity FX riguarda solo le illuminazioni e quindi RT? Corretto?
Thunder-74
29-04-2021, 13:15
GeForce 466.27 WHQL LINK (https://www.guru3d.com/files-details/geforce-466-27-whql-driver-download.html)
his new Game Ready Driver provides support for the Metro Exodus PC Enhanced Edition, which adds additional ray-traced effects and NVIDIA DLSS 2.0 for greater performance and improved image quality. Additionally, this release also provides optimal support for Mass Effect Legendary Edition and Resident Evil Village, along with support for 5 new G-SYNC Compatible displays.
Fixed Issues in this Release
[NVIDIA Reflex][Rainbow Six Siege]: Fixed a number of performance-related issues related to NVIDIA Reflex and Rainbow Six Siege.
[HDMI 2.1:] In-game FPS may be capped to the display refresh rate when "Vertical sync" is set to Off [3285334].
[Rigid Gems][Prepar3D]: The applications may crash or fail to launch.[3285067/32868163]
Windows 10 Issues
Yellow bang with Error Code 10 appears by the NVIDIA Platform Controllers and Framework Properties in Device Manager after Express or Custom driver installation without reboot.[200716134] Reboot the system to clear the error, otherwise Dynamic Boost cannot be enabled.
[Mortal Shell]: Unusual increase in the brightness occurs when Shadow Quality is set to Low or Medium. [200724762] To work around, set the Shadow Quality to High or Ultra.
[Call of Duty: Black Ops Cold War]: The game may crash on GeForce GTX 10 series GPUs. [200719668]
[World of Warcraft: Shadowlands]: Random flicker may occur in certain locations in the game [3206341]
[Batman Arkham Knight]: The game crashes when turbulence smoke is enabled. [3202250]
[Steam VR game]: Stuttering and lagging occur upon launching a game while any GPU hardware monitoring tool is running in the background. [3152190]
YouTube: Video playback stutters while scrolling down the YouTube page. [3129705]
scorpion73
29-04-2021, 13:46
Per quanto riguarda Fidelity FX riguarda solo le illuminazioni e quindi RT? Corretto?
Non solo il RT.
https://www.amd.com/en/technologies/radeon-software-fidelityfx
Ragazzi, ma la ventola della mia TUF 3060TI OC quando gioco fa davvero troppo rumore per i miei gusti, se faccio downvolt dovrebbe rallentare i giri, visto che dovrebbe scaldare meno, e quindi far meno rumore?
amon.akira
29-04-2021, 14:17
Ragazzi, ma la ventola della mia TUF 3060TI OC quando gioco fa davvero troppo rumore per i miei gusti, se faccio downvolt dovrebbe rallentare i giri, visto che dovrebbe scaldare meno, e quindi far meno rumore?
si, oppure se le temperature sono buone potresti semplicemente farti una curva personalizzata più bassa, magari perdendo solo qualche grado.
fraussantin
29-04-2021, 14:19
Ragazzi, ma la ventola della mia TUF 3060TI OC quando gioco fa davvero troppo rumore per i miei gusti, se faccio downvolt dovrebbe rallentare i giri, visto che dovrebbe scaldare meno, e quindi far meno rumore?
dal momento che undervolti , con il solito programma ti puoi anche gestire la ventola.
mikael84
29-04-2021, 14:47
Su questo non avevamo dubbi , mava detto che é la prima architettura AMD a supportarlo e i giochi sono palesemente pensati per girare su Nvidia.
Potrebbe anche darsi che con la prossima architettura AMD trovi il sistema per boostare RT e non dico raggiungere Nvidia ( lei andrà sicuramente avanti ) ma cmq avvicinarsi notevolmente.
Quello che rende Nvidia preferibile é il dlss.
Se riescono a sviluppare quello 3.0 quasi universale é la fine dei giochi. Non ci sarà più competizione.
Vedremo e speriamo che AMD riesca a tirare fuori il suo metodo
Finchè il BVH e il denoising sono lato shader è un problema (in questi 3 passaggi, vengono sprecate tonnellate di cicli per trovare il triangolo per l'intersezione).
Ha scritto che AMD nel 2021 ha prestazioni imbarazzanti in RT o sbaglio? Il livello di AMD raggiunto nella sua prima release arriva massimo alle prestazioni ottenibili da una 2080TI quindi vedi tu...
Si ma nell'ibrido, non nel full, dove i picchi nvidia sono ben superiori.
Se confrontiamo i numeri una 6800xt arriva a circa 45TF (con BVH shader), una 3080 a circa 80TF (90tf senza INT), ecco perchè spesso viene doppiata o quasi.
https://i.postimg.cc/GHjc0kQZ/full-rt.png (https://postimg.cc/GHjc0kQZ)
nickname88
29-04-2021, 15:06
P.S. RDR2 mi fa 60\70 80 in qualche caso ma vedendo online in 4k si scende anche a 40 fps con una 3080 tutto maxato ovviamente.
C'è sicuramente qualche opzione killer frame.
Utilizza il setting di HardwareUnboxing, io in 4K fisso a 60fps inchiodato ovunque per ora.
h4xor 1701
29-04-2021, 15:28
ragazzi col pc in firma RDR 2 e Flight Simulator fanno fatica.... ma che? praticamente ho già una scheda vecchia?
FS2020 visto la sua complessità è da considerarsi un caso particolare, è un titolo che usa particolarmente molto la CPU. Al momento poi gira in DX11 che è tutto tranne che ideale e necessità ancora di parecchia ottimizzazione.
Al momento del lancio su Xbox contemporaneamente uscirà su PC la patch DX12, che migliorerà di molto il framerate, inoltre prima o poi introdurranno il DLSS che farà miracoli e mi aspetto da esso addirittura dei miglioramenti di resa grafica.
A me sulla mia build in firma mi gira tutto Ultra in 4K, senza V-Sync ad una media di 40-50fps
Graphite600T
29-04-2021, 15:35
C'è sicuramente qualche opzione killer frame.
Utilizza il setting di HardwareUnboxing, io in 4K fisso a 60fps inchiodato ovunque per ora.
Sì sicuramente ma anche io arrivo anche a 80 in certe scene... speravo in qualcosa di più da una 3080 in 3440x1440
Si ma nell'ibrido, non nel full, dove i picchi nvidia sono ben superiori.
Se confrontiamo i numeri una 6800xt arriva a circa 45TF (con BVH shader), una 3080 a circa 80TF (90tf senza INT), ecco perchè spesso viene doppiata o quasi.
https://i.postimg.cc/GHjc0kQZ/full-rt.png (https://postimg.cc/GHjc0kQZ)
Certo ma il full RT ora come ora lo vedo come un "esercizio di stile" per far vedere che esiste ma è fine a se stesso: non è sfruttabile per un gioco moderno da nessuna scheda a meno che non si abbia bisogno o comunque si accetti una grafica alla Minecraft o alla Quake II RTX. L'ibrido, d'altro canto, è quello che ci accompagnerà ancora per un bel po' di tempo e le prestazioni AMD per me sono accettabili.
https://www.guru3d.com/articles-pages/amd-radeon-rx-6800-xt-review,27.html
Il game changer per ora è il DLSS (altrimenti manco la 3090 garantirebbe prestazioni sufficienti in 2K per gli ultimissimi titoli tipo CP2077) e purtroppo AMD ci sta ancora lavorando alla propria versione. La nota positiva, da quel che si legge in giro, è che dovrebbe essere una tecnologia aperta alla stregua del FreeSync e quindi implementabile da tutti gli sviluppatori nei propri giochi .
si, oppure se le temperature sono buone potresti semplicemente farti una curva personalizzata più bassa, magari perdendo solo qualche grado.
dal momento che undervolti , con il solito programma ti puoi anche gestire la ventola.
Perfetto, grazie!
scorpion73
29-04-2021, 15:58
Certo ma il full RT ora come ora lo vedo come un "esercizio di stile" per far vedere che esiste ma è fine a se stesso: non è sfruttabile per un gioco moderno da nessuna scheda a meno che non si abbia bisogno o comunque si accetti una grafica alla Minecraft o alla Quake II RTX. L'ibrido, d'altro canto, è quello che ci accompagnerà ancora per un bel po' di tempo e le prestazioni AMD per me sono accettabili.
Vero quello che dici, il DLSS c'è apposta per questo ma i giochi come metro, control o cyberpunk aumenteranno adesso e su quelli il RT è fatto bene e fa la differenza in modo veramente notevole rispetto al raster puro.
Tutto vero tranne l'ultimo pezzo dell'ultima frase, riferito al RT ovviamente.
Insomma, il video di Metro sta li a dimostrarlo... su certe scene fa 40fps.. e non hai modo di migliorarli se non abbassando la qualità perché il DLSS non c'è... e quando arriverà la controparte AMD, essendo tutta incentrata sugli shader, sarà molto da verificare..
Se per te su una top di gamma di oggi (stiamo parlando di top di gamma e non di fascia media, paragonare una top di gamma a una 2080ti che ormai è fascia media non ha senso, la devi paragonare alla sua diretta concorrente che è la 3080 e non la 3070 o la 2080ti) un settaggio non su max o in alternativa 40fps sono accettabili, ok.... mi chiedo allora, e tengo a specificare onde evitare incomprensioni che non lo dico con l'intenzione di giudicare acquisto alcuno ma solo in riferimento alla tua posizione sul tema, come mai ti sia preso una 3090 invece di quella.
mikael84
29-04-2021, 16:17
Certo ma il full RT ora come ora lo vedo come un "esercizio di stile" per far vedere che esiste ma è fine a se stesso: non è sfruttabile per un gioco moderno da nessuna scheda a meno che non si abbia bisogno o comunque si accetti una grafica alla Minecraft o alla Quake II RTX. L'ibrido, d'altro canto, è quello che ci accompagnerà ancora per un bel po' di tempo e le prestazioni AMD per me sono accettabili.
https://www.guru3d.com/articles-pages/amd-radeon-rx-6800-xt-review,27.html
Diciamo che quei titoli sono e rimarranno una chimera, ma basta abusare di RT per ritrovarci li. Basta pompare RT a dovere e la situazione torna simil full.
https://i.postimg.cc/xk75Pfst/cyber-rtx.png (https://postimg.cc/xk75Pfst)
RT 3060ti: 36+12TF circa (48)@1900
RT 6900xt: circa 48/50 (25 per intersezione)
Questo però dipende dagli scenari, ce ne sono stati vari, come tomb raider, dove una 1080ti in 1440 era avanti ad una 2060 super.
L'ibrido classico, visto anche sui test, è 2,8/,3 x flops sulle nvidia.;)
Il game changer per ora è il DLSS (altrimenti manco la 3090 garantirebbe prestazioni sufficienti in 2K per gli ultimissimi titoli tipo CP2077) e purtroppo AMD ci sta ancora lavorando alla propria versione. La nota positiva, da quel che si legge in giro, è che dovrebbe essere una tecnologia aperta alla stregua del FreeSync e quindi implementabile da tutti gli sviluppatori nei propri giochi .
Mah, o si inventa qualcosa software sui giochi pro, come il prox FC6, oppure se ne parlerà con RDNA3, dove probabilmente punterà all'approccio alla nvidia.
Se ci fai caso, con CDNA (il compute di AMD simil tesla), hanno modificato i vettori per poter fare operazioni matriciali. Un Vettore modificato, può fare op 4x a precisione 16 bit.:)
scorpion73
29-04-2021, 16:20
Diciamo che quei titoli sono e rimarranno una chimera, ma basta abusare di RT per ritrovarci li. Basta pompare RT a dovere e la situazione torna simil full.
https://i.postimg.cc/xk75Pfst/cyber-rtx.png (https://postimg.cc/xk75Pfst)
42fps della 3090 vs 22fps della 6900XT... senza DLSS ovviamente
entrambi ben lungi dalla soglia della giocabilità, ma a 40fps ancora qualcosa fai, a 22fps spegni il PC....
solo che da una parte hai l'arma di riserva da subito (dlss) dall'altra a sta gen ti attacchi, e come ripeto dubito fortemente che esca qualcosa di veramente competitivo visto che manca la parte hardware...
Vero quello che dici, il DLSS c'è apposta per questo ma i giochi come metro, control o cyberpunk aumenteranno adesso e su quelli il RT è fatto bene e fa la differenza in modo veramente notevole rispetto al raster puro.
Tutto vero tranne l'ultimo pezzo dell'ultima frase, riferito al RT ovviamente.
Insomma, il video di Metro sta li a dimostrarlo... su certe scene fa 40fps.. e non hai modo di migliorarli se non abbassando la qualità perché il DLSS non c'è... e quando arriverà la controparte AMD, essendo tutta incentrata sugli shader, sarà molto da verificare..
Se per te su una top di gamma di oggi (stiamo parlando di top di gamma e non di fascia media, paragonare una top di gamma a una 2080ti che ormai è fascia media non ha senso, la devi paragonare alla sua diretta concorrente che è la 3080 e non la 3070 o la 2080ti) un settaggio non su max o in alternativa 40fps sono accettabili, ok.... mi chiedo allora, e tengo a specificare onde evitare incomprensioni che non lo dico con l'intenzione di giudicare acquisto alcuno ma solo in riferimento alla tua posizione sul tema, come mai ti sia preso una 3090 invece di quella.
Molto semplice, mi sono preso la 3090 perché mi servivano i Cuda e tanta Vram. Detto ciò, se dovessi seguire il tuo ragionamento dove dici che non è accettabile sopportare su una top di gamma settaggi non al massimo o 40fps, dovrei liberarmi subito della mia scheda visto che ad esempio su FS2020 o RDR2 volendo si riesce a scendere anche sotto a quel frame rate...
scorpion73
29-04-2021, 16:24
Molto semplice, mi sono preso la 3090 perché mi servivano i Cuda e tanta Vram. Detto ciò, se dovessi seguire il tuo ragionamento dove dici che non è accettabile sopportare su una top di gamma settaggi non al massimo o 40fps, dovrei liberarmi subito della mia scheda visto che ad esempio su FS2020 o RDR2 volendo si riesce a scendere anche sotto a quel frame rate...
A quale risoluzione ci scendi sotto quei frame?
Gioca su un FPS (o le sezioni fps) come Metro a 40fps poi mi dici come giochi (e stiamo parlando di 1440p, non di 4K)... e comunque ripeto, li' non hai modo per migliorare se non abbassando la qualità, su Nvidia ce l'hai... dai il paragone è attualmente inesistente... magari con RDNA3 le cose cambiano... e me lo auguro anche io capiscimi bene..
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.