PDA

View Full Version : [Thread Ufficiale] nVidia Turing RTX 2080/2080ti


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 [91] 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108

NAP.
10-12-2019, 18:36
È colpa delle scatolette, finché i giichi verranno sviluppati con loro in mente, averr il ray tracing sarà difficile, ci vuole una nuova gen di console.

P. S. MA vaff... Proprio ieri ho installato gli uktimi driver ed oggi ne escono altri

Thunder-74
10-12-2019, 18:48
È colpa delle scatolette, finché i giichi verranno sviluppati con loro in mente, averr il ray tracing sarà difficile, ci vuole una nuova gen di console.

P. S. MA vaff... Proprio ieri ho installato gli uktimi driver ed oggi ne escono altri


Aspettati un driver nuovo ogni volta che esce un titolo relativamente importante...


Inviato dal mio iPhone X utilizzando Tapatalk

TigerTank
10-12-2019, 20:22
Io slimmati e installati sopra ai precedenti con installazione pulita :D

NAP.
10-12-2019, 21:07
Ma usando nvslimmer al minimo, ci si libera della telemetry? Tra i servizi vedo ancora un nvidia display container

Thunder-74
10-12-2019, 21:20
Ma usando nvslimmer al minimo, ci si libera della telemetry? Tra i servizi vedo ancora un nvidia display container



Usa questo che ti descrive ogni elemento selezionato e se vuoi ti identifica e scarica il drivers più nuovo

https://www.techpowerup.com/download/techpowerup-nvcleanstall/



Inviato dal mio iPhone X utilizzando Tapatalk

razor820
10-12-2019, 21:43
Ho da poco installato Pac-Man Champions 2 da steam ma non riesco proprio a farlo andare.. Provo ad aggiornare o driver? :D

fabietto27
10-12-2019, 22:00
Ho da poco preso due pappine dal Barcellona...bevo il cianuro?

Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk

XEV
10-12-2019, 22:27
Ho da poco installato Pac-Man Champions 2 da steam ma non riesco proprio a farlo andare.. Provo ad aggiornare o driver? :D

che vergogna, 700 euro di vga e non va pacman. Meno male che ho rinunciato alla serie 2xxx. :asd:
Ho avuto la fortuna di sentirti in diretta su discord; eppure io lo dissi.. immagina se non parte :asd: :asd: :asd:

mattxx88
10-12-2019, 23:46
Mi pare se ne parlasse qualche pagina fa, siccome avevo fatto anche io la genialata di provare quella merda di armoury crate, stasera ho dato un bel piallone generale al SO e riscontrato un sensibile aumento di performance della vga rispetto a prima
Ho installato al volo solo rdr2, domani provo anche altro
Notte a todos!

rob-roy
11-12-2019, 07:56
Si ma è assurdo che si debba formattare per liberarsi di Armory Crate dai....
Possibile che non si possa "semplicemente" disinstallare?

Lo chiedo perchè non ho nessuna voglia di rifare tutto a 2 settimane dall'installazione pulita...:mbe:

razor820
11-12-2019, 08:57
Ho da poco preso due pappine dal Barcellona...bevo il cianuro?

Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk



Ho perso 500 euro per quelle due pappine...

NAP.
11-12-2019, 09:02
Usa questo che ti descrive ogni elemento selezionato e se vuoi ti identifica e scarica il drivers più nuovo

https://www.techpowerup.com/download/techpowerup-nvcleanstall/



Inviato dal mio iPhone X utilizzando TapatalkEcco non sapevo di questo, onestamente reinstallare i driver è un processo borioso, ma grazie, sarà per il prossimo, sapete comunque se usando nvslimmer al minimo (core, hd audio, usb c) ci si libera della telemetry

TigerTank
11-12-2019, 09:06
Ci vorrebbero proprio delle utility di terze parti e open che riescano a gestire i devices di più produttori, bypassando software proprietari discutibili e plugins problematici (come quello Corsair per Aura che carica di brutto la cpu).

Ecco non sapevo di questo, onestamente reinstallare i driver è un processo borioso, ma grazie, sarà per il prossimo, sapete comunque se usando nvslimmer al minimo (core, hd audio, usb c) ci si libera della telemetry

Io Nvslimmer lo setto così:

http://i.imgur.com/29gLnDQm.jpg (https://imgur.com/29gLnDQ)

Poi faccio apply e quindi direttamente install.

NAP.
11-12-2019, 11:07
Ngx core non so cos'è, ma io non l'ho installato, rispetto a te,ho fatto un'installazione simile alla tua ma omettendo quel NGX core

fabietto27
11-12-2019, 11:24
Ti sei fottuto il ray tracing 😱

Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk

Thunder-74
11-12-2019, 11:25
Ngx core non so cos'è, ma io non l'ho installato, rispetto a te,ho fatto un'installazione simile alla tua ma omettendo quel NGX core

sono i drivers per poter usare correttamente i tensor cores... se vuoi attivare il DLSS sono necessari..
Comunque segnalo altra esclusiva PS4 che uscirà per PC

Predator: Hunting Grounds


LINK (https://www.overclock3d.net/news/software/sony_s_predator_hunting_grounds_is_coming_to_ps4_and_pc_next_year/1)

Alekos Panagulis
11-12-2019, 13:35
Ci vorrebbero proprio delle utility di terze parti e open che riescano a gestire i devices di più produttori, bypassando software proprietari discutibili e plugins problematici (come quello Corsair per Aura che carica di brutto la cpu).



Io Nvslimmer lo setto così:

http://i.imgur.com/29gLnDQm.jpg (https://imgur.com/29gLnDQ)

Poi faccio apply e quindi direttamente install.Scusa, ma che problema c'è nell'installazione dei driver completi? Perché usare nvslimmer?

Inviato dal mio Mi 9T utilizzando Tapatalk

Thunder-74
11-12-2019, 14:30
Scusa, ma che problema c'è nell'installazione dei driver completi? Perché usare nvslimmer?

Inviato dal mio Mi 9T utilizzando Tapatalk

così eviti di installare componenti che non servono o rallentano il pc. Tipo telemetria che serve a nVidia per avere delle info in merito a crash o funzionamento della VGA, oppure driver per la gestione dello streaming dati necessario all'uso di nvidia shield o il suo joypad. O ancora inibire Ansel e Shadowplay. Si possono avere miglioramenti dell'ordine del 5%, ma soprattutto installare nel proprio pc le cose che si necessitano, senza imbottirlo di drivers inutili o di monitoraggi remoti.... non è poco...

fabietto27
11-12-2019, 14:53
Eh sì....non ce lo vedo Kingpin a benchare col GeForce experience installato...

Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk

mikael84
11-12-2019, 16:08
Test MechWarrior 5

https://i.postimg.cc/sQ97Ks3k/postimage.png (https://postimg.cc/sQ97Ks3k)

Thunder-74
11-12-2019, 16:36
Io non trovo un senso a Nvslimmer... mah..

Installazione pulita;

Spunta su:

-Driver;
-Ngx core;
-Physx;
-Usb type-C.

Fine.

(almeno per me)



Il senso l ho spiegato nel post precedente. Come fai tu ti vengono installate tanti componenti inutili se non hai nVidia shield , se non usi Ansel, se non usi shadow play , se non vuoi dare supporto ad nVidia con alla telemetria, se non stai usando un portatile con Optimus ecc... io trovo il senso nel farlo.



Inviato dal mio iPhone X utilizzando Tapatalk

gaevulk
11-12-2019, 16:41
Ci vorrebbero proprio delle utility di terze parti e open che riescano a gestire i devices di più produttori, bypassando software proprietari discutibili e plugins problematici (come quello Corsair per Aura che carica di brutto la cpu).



Io Nvslimmer lo setto così:

http://i.imgur.com/29gLnDQm.jpg (https://imgur.com/29gLnDQ)

Poi faccio apply e quindi direttamente install.

Tiger,ho impostato Nvslimmer come nel tuo screen,pero' poi al momento di avviare l'installazione mi ha avviato il programma di installazione tradizionale di nvidia e da li ho messo la spunta come al solito su installazione pulita ed avviato la procedura,funziona cosi oppure ho sbagliato qualcosa?

Thunder-74
11-12-2019, 16:45
Tiger,ho impostato Nvslimmer come nel tuo screen,pero' poi al momento di avviare l'installazione mi ha avviato il programma di installazione tradizionale di nvidia e da li ho messo la spunta come al solito su installazione pulita ed avviato la procedura,funziona cosi oppure ho sbagliato qualcosa?



È ok, dopo che fai applica , crea un pacchetto temporaneo con i soli drivers selezionati ;)


Inviato dal mio iPhone X utilizzando Tapatalk

gaevulk
11-12-2019, 16:46
È ok, dopo che fai applica , crea un pacchetto temporaneo con i soli drivers selezionati ;)


Inviato dal mio iPhone X utilizzando Tapatalk
oK,GRAZIE ;)
Ora che ci sono,vorrei chiedervi cosa ne pensate del low latency da driver,e' un opzione che porta dei miglioramenti secondo voi?

Thunder-74
11-12-2019, 16:50
oK,GRAZIE ;)
Ora che ci sono,vorrei chiedervi cosa ne pensate del low latency da driver,e' un opzione che porta dei miglioramenti secondo voi?



A mio avvio si. Lo tengo fisso per tutti i titoli


Inviato dal mio iPhone X utilizzando Tapatalk

gaevulk
11-12-2019, 17:00
A mio avvio si. Lo tengo fisso per tutti i titoli


Inviato dal mio iPhone X utilizzando Tapatalk
Beh,allora e' da provare su Iracing.

Alekos Panagulis
11-12-2019, 17:13
così eviti di installare componenti che non servono o rallentano il pc. Tipo telemetria che serve a nVidia per avere delle info in merito a crash o funzionamento della VGA, oppure driver per la gestione dello streaming dati necessario all'uso di nvidia shield o il suo joypad. O ancora inibire Ansel e Shadowplay. Si possono avere miglioramenti dell'ordine del 5%, ma soprattutto installare nel proprio pc le cose che si necessitano, senza imbottirlo di drivers inutili o di monitoraggi remoti.... non è poco...

Ah bhe, allora ha senso.
Quindi per me che ho i driver "interi" quale sarebbe la procedura?
Immagino disinstallare tutto con DDU e poi installare i driver slimmati.

TigerTank
11-12-2019, 17:19
A mio avvio si. Lo tengo fisso per tutti i titoli


Idem, al momento lo sto tenendo su Ultra direttamente nel profilo generale.

Ah bhe, allora ha senso.
Quindi per me che ho i driver "interi" quale sarebbe la procedura?
Immagino disinstallare tutto con DDU e poi installare i driver slimmati.

Sì esatto, io ho sovrascritto perchè già i precedenti erano slimmati ma nel tuo caso meglio prima procedere ad una pulizia completa tramite DDU in modalità provvisoria.
Comunque volendo nvslimmer dà anche la possibilità di creare un repack avviabile.

NAP.
11-12-2019, 17:48
Lol non sapevo che fossero i driver per il raytracing, non me li aspettavo certo nel miscellanea. Poco male, visto che sono usciti i nuovi driver vorrà dire che rifarò l'installazione pulita con i driver ngx core per gli ultimi e via. Sapete niente della telemetry usando nvslimmer?

mattxx88
11-12-2019, 17:53
Lol non sapevo che fossero i driver per il raytracing, non me li aspettavo certo nel miscellanea. Poco male, visto che sono usciti i nuovi driver vorrà dire che rifarò l'installazione pulita con i driver ngx core per gli ultimi e via. Sapete niente della telemetry usando nvslimmer?

Io uso il tool di techpowerup, spiega a cosa serve ogni voce cosi sei libero di scegliere cosa togliere o mettere

https://www.techpowerup.com/download/techpowerup-nvcleanstall/

PlayerGiocatore
11-12-2019, 17:54
..

Una curiosità sulla risoluzione, aumentare la risoluzione di 200p, in percentuale quante risorse consuma alla scheda video?

TigerTank
11-12-2019, 18:03
Lol non sapevo che fossero i driver per il raytracing, non me li aspettavo certo nel miscellanea. Poco male, visto che sono usciti i nuovi driver vorrà dire che rifarò l'installazione pulita con i driver ngx core per gli ultimi e via. Sapete niente della telemetry usando nvslimmer?

A meno di roba nascosta per bene e autoinstallante, dovrebbe essere esclusa. Infatti anche verificando con Autoruns64, non mi pare di vedere voci relative a telemetrie e simili.

thunderforce83
11-12-2019, 18:16
ragazzi mi sbaglio o i prezzi di tutta la linea 2xxx e' aumentata a dismisura? stavo guardando per una 2070/2080 per mio fratello ma praticamente mi ritrovo i prezzi piu' alti del lancio...che cavolo succede? nvidia ha deciso di stoppare la produzione in vista della prossima generazione oppure c'e' qualcosa che io non so?:O

NAP.
11-12-2019, 18:30
Parlando di driver e impostazioni volevo chiederevi se è meglio attivare la voce power a maximum performace o ad optimal power? Ovviamente con maximum performance la sceda non va in idle, ma forse è più stabile in OC dico bene? Voi come vi regolate?

mikael84
11-12-2019, 18:31
ragazzi mi sbaglio o i prezzi di tutta la linea 2xxx e' aumentata a dismisura? stavo guardando per una 2070/2080 per mio fratello ma praticamente mi ritrovo i prezzi piu' alti del lancio...che cavolo succede? nvidia ha deciso di stoppare la produzione in vista della prossima generazione oppure c'e' qualcosa che io non so?:O

Le super serie x70 le trovi in abbondanza ed a poco, le 2080 s, solo su shop dubbi a prezzi assurdi.;)

NAP.
11-12-2019, 18:33
Io uso il tool di techpowerup, spiega a cosa serve ogni voce cosi sei libero di scegliere cosa togliere o mettere



https://www.techpowerup.com/download/techpowerup-nvcleanstall/Rispetto ad nvslimmer cosa cambia? È più pulita? Cioè pulisce meglio i driver? Perché stabilito che per un'installazione minimale mi basterà mettere la spunta ad ngxcore stavolta, l'importante è che il driver resti leggero e minimale a tutto vantaggio delle prestazioni, visto che di tutta quella roba non uso niente

Alekos Panagulis
11-12-2019, 18:36
Ho appena pulito e installato i driver con nvslimmer. Effettivamente non ho più quelle fastidiose sovraimpressioni quando avvio un giuoco.
Ho notato però che l'indicatore Gsync ora è diverso: prima c'era una scritta verde piccolissima in alto a destra, e una più grande bianca a sinistra. Ora c'è solo quella a destra. Il gsync funziona ugualmente?

Edit: mi manca questa

https://www.howtogeek.com/wp-content/uploads/2016/09/img_57cf56b00da25.jpg

mattxx88
11-12-2019, 19:05
Rispetto ad nvslimmer cosa cambia? È più pulita? Cioè pulisce meglio i driver? Perché stabilito che per un'installazione minimale mi basterà mettere la spunta ad ngxcore stavolta, l'importante è che il driver resti leggero e minimale a tutto vantaggio delle prestazioni, visto che di tutta quella roba non uso niente

Si sono uguali i software, prima usavo anche io nvslimmer
Questi di techpowerup semplicemente ti mettono la descrizione a fianco di ogni voce spiegandoti cosa fa tale cosa

PlayerGiocatore
11-12-2019, 20:11
Una curiosità sulla risoluzione, aumentare la risoluzione di 200p, in percentuale quante risorse consuma alla scheda video?

Qualcuno sa rispondermi a questa semplice domanda.

cica88
11-12-2019, 20:14
….

Con Vulkan c'è una scritta piccola verde in alto a destra (RDR2) con i giochi d3d c'è la scritta grossa bianca a sinistra.

Alekos Panagulis
11-12-2019, 20:21
Con Vulkan c'è una scritta piccola verde in alto a destra (RDR2) con i giochi d3d c'è la scritta grossa bianca a sinistra.Ah ok, grazie.

Inviato dal mio Mi 9T utilizzando Tapatalk

]NeSsuNo[
11-12-2019, 20:31
Qualcuno sa rispondermi a questa semplice domanda.

Io personalmente non ho capito cosa intendi.

mattxx88
11-12-2019, 20:33
Qualcuno sa rispondermi a questa semplice domanda.

puoi fare una stima a spanne, non precisa cmq.

Per il resto è una semplice proporzione:

se il fhd esempio è 1920x1080= 2.073.600 di pixel
aggiungendo 200file di pixel hai 1920x1280= 2.457.600‬ di pixel

poi fai 2.457.000 - 2.073.600 = 384.000 pixel in più
384.000/2.073.600= 0,19 (arrotondato)
0,19*100= 19% in più di pixel da muovere, a spanne ti serve questo tot di potenza in più

Se non è quello che intendevi, cancella quanto sopra :D

Thunder-74
11-12-2019, 20:50
Qualcuno sa rispondermi a questa semplice domanda.

Edit
Rileggendo anche la risposta sopra, ho capito ora cosa intendi...
200p ...

Tipo passaggio da una 16:9 a un 21:9?


Inviato dal mio iPhone X utilizzando Tapatalk

NAP.
11-12-2019, 22:41
Ho appena pulito e installato i driver con nvslimmer. Effettivamente non ho più quelle fastidiose sovraimpressioni quando avvio un giuoco.
Ho notato però che l'indicatore Gsync ora è diverso: prima c'era una scritta verde piccolissima in alto a destra, e una più grande bianca a sinistra. Ora c'è solo quella a destra. Il gsync funziona ugualmente?

Edit: mi manca questa

https://www.howtogeek.com/wp-content/uploads/2016/09/img_57cf56b00da25.jpgIo quella scritta non l'ho mai avuta pensa tuSi sono uguali i software, prima usavo anche io nvslimmer
Questi di techpowerup semplicemente ti mettono la descrizione a fianco di ogni voce spiegandoti cosa fa tale cosaOk grazie proverò con questo allora

mikael84
11-12-2019, 22:59
Qualcuno sa rispondermi a questa semplice domanda.

In che senso? Cit.:p
200p, forse ti riferisci al 2x sul DSR?

NAP.
11-12-2019, 23:29
Parlando di driver e impostazioni volevo chiederevi se è meglio attivare la voce power a maximum performace o ad optimal power? Ovviamente con maximum performance la sceda non va in idle, ma forse è più stabile in OC dico bene? Voi come vi regolate?Up

PlayerGiocatore
11-12-2019, 23:58
puoi fare una stima a spanne, non precisa cmq.

Per il resto è una semplice proporzione:

se il fhd esempio è 1920x1080= 2.073.600 di pixel
aggiungendo 200file di pixel hai 1920x1280= 2.457.600‬ di pixel

poi fai 2.457.000 - 2.073.600 = 384.000 pixel in più
384.000/2.073.600= 0,19 (arrotondato)
0,19*100= 19% in più di pixel da muovere, a spanne ti serve questo tot di potenza in più

Se non è quello che intendevi, cancella quanto sopra :D

Più o meno questo intendo però con pixel aumentati sia lato verticale che orizzontale, specificando meglio con gioco stessi settaggi passare da 720p a 1080p quanto prende sulla GPU in percentuale, o passare da 960x544 a 1280x720 quanto prende in percentuale sulla scheda, a prescindere dalla sua potenza.

NAP.
12-12-2019, 04:51
Ragazzi una domanda, ma secondo voi usare ka scheda a 1.081mv con Oc a 2100 e da pazzi?
Ho reinstallato i driver usando nvcleanistall con installazione minimal e dopo aver updated vortex (il client nexus per le mod) ho notato degli artefatti su quest'ultimo. È un problema forse dell'ultimo update di vortex? O mi sto fottendo la scheda?

TigerTank
12-12-2019, 07:58
Io quella scritta non l'ho mai avuta pensa tuOk grazie proverò con questo allora

perchè devi attivare l'opzione nel menu a tendina "Schermo" del pannello dei drivers.

Parlando di driver e impostazioni volevo chiederevi se è meglio attivare la voce power a maximum performace o ad optimal power? Ovviamente con maximum performance la sceda non va in idle, ma forse è più stabile in OC dico bene? Voi come vi regolate?

Io ormai lascio il valore predefinito(optimal power) che se è il predefinito un motivo ci sarà :D
Ho provato in passato a settare più volte maximum performance ma non ho mai visto miracoli, per cui...

rob-roy
12-12-2019, 08:06
Siccome devo usare una scheda Zotac dotata (purtroppo) degli odiosi RGB....
Secondo voi posso usare il tool Zotac Spectra invece di MSI Afterburner?

Perchè mi permetterebbe di mitigare il faro blu attuale con il logo Zotac Gaming...:stordita:

aled1974
12-12-2019, 08:46
oppure scolleghi fisicamente il led della gpu :D

ciao ciao

NAP.
12-12-2019, 10:24
perchè devi attivare l'opzione nel menu a tendina "Schermo" del pannello dei drivers.







Io ormai lascio il valore predefinito(optimal power) che se è il predefinito un motivo ci sarà :D

Ho provato in passato a settare più volte maximum performance ma non ho mai visto miracoli, per cui...È attiva ovviamente, o mi sfugge qualcosa? Hai screenshot?

NAP.
12-12-2019, 11:04
perchè devi attivare l'opzione nel menu a tendina "Schermo" del pannello dei drivers.







Io ormai lascio il valore predefinito(optimal power) che se è il predefinito un motivo ci sarà :D

Ho provato in passato a settare più volte maximum performance ma non ho mai visto miracoli, per cui...Io prima usavo adaptive, chiedevo solo nel caso in cui fornisse più stabilità in OC, come nel caso della CPU di cui si diaattivano in power state, cmq si a livello prestazionale credo cambi poco visto che i punteggi nei bench sono uguali

Thunder-74
12-12-2019, 12:00
Io prima usavo adaptive, chiedevo solo nel caso in cui fornisse più stabilità in OC, come nel caso della CPU di cui si diaattivano in power state, cmq si a livello prestazionale credo cambi poco visto che i punteggi nei bench sono uguali

ricordo che con impostazione "ottimale", un tempo si avevano alcuni problemi di riattivazione del profilo 3d della scheda, rimanendo di fatto bloccata con profilo 2d. Si consigliava di impostare "adattiva" per tale motivo e io ho continuato a fare così. Possibilissimo che ora sia stato risolto il tutto.

bagnino89
12-12-2019, 12:07
ricordo che con impostazione "ottimale", un tempo si avevano alcuni problemi di riattivazione del profilo 3d della scheda, rimanendo di fatto bloccata con profilo 2d. Si consigliava di impostare "adattiva" per tale motivo e io ho continuato a fare così. Possibilissimo che ora sia stato risolto il tutto.

Per esempio, a me con Prestazioni elevate tutte le GPU che ho avuto restavano con frequenza core e memorie a palla anche sul desktop. Sempre usato Adattivo senza problemi.

Thunder-74
12-12-2019, 12:41
Per esempio, a me con Prestazioni elevate tutte le GPU che ho avuto restavano con frequenza core e memorie a palla anche sul desktop. Sempre usato Adattivo senza problemi.

si corretto come comportamento. ;)

segnalo che Alphacool produrrà un AIO per GPU. Non sembra male

https://cdn.wccftech.com/wp-content/uploads/2019/12/3LhxgywZmR7mipgtbMVM6k-970-80-740x467.png

https://cdn.wccftech.com/wp-content/uploads/2019/12/ELgtZlnWkAAeKjy.png

LINK (https://wccftech.com/alphacool-eiswolf-aurora-all-in-one-liquid-cooler-for-graphics-cards-unveiled/)

TigerTank
12-12-2019, 12:52
Esteticamente non è il top ma è interessante l'idea di un fullcover "modulare". Vedremo nel 2020 quale sarà l'effettiva compatibilità con le varie schede....e quanto lo prezzeranno ;)

razor820
12-12-2019, 14:02
Ma è completo? Dissipa anche i vrm?

NAP.
12-12-2019, 15:01
Ok rimetto adattivo allora, e per la questione voltaggi?

razor820
12-12-2019, 15:25
Ok rimetto adattivo allora, e per la questione voltaggi?



Mai toccato la gestione dell alimentazione da Windows.. non serve a una mazza, anzi ti aumenta il consumo elettrico anche a desktop..
Come già detto precedentemente sopra dagli altri utenti

Thunder-74
12-12-2019, 15:28
Ma è completo? Dissipa anche i vrm?



Ho timore che per renderlo più compatibile possibile , vada a raffreddare gpu e vram collocate tendenzialmente nella stessa posizione per tutte le vga dello stesso modello
I vrm invece differiscono nelle custom per numero, disposizione, forma.
Se guardi la foto, il contatto del wb sembrerebbe così ...
Comunque al CES 2020 verrà presentato... (dal 7 al 10 gennaio)

Inviato dal mio iPhone X utilizzando Tapatalk

razor820
12-12-2019, 15:38
Ahh se è universale sarà sicuramente come dici tu...
Ad ora dei wb per gpu in circolazione quelli che mi ha di più incuriosito resta la nuova linea hydro dei corsair.. E rispetto agli altri brand il prezzo è abbastanza competitivo.

Bisogna solamente trovare un utente del forum che l’abbia provato personalmente

NAP.
12-12-2019, 16:17
Parlavo dei voltaggi della gpu da afterburner, se tenerla ad 1.081mv la può rovinare considerando che sono a liquido e se pure le temperature non sono proprio basse ma cmq non vado in throttling

razor820
12-12-2019, 17:06
Le gpu penso che possano tranquillamente arrivare a 90 gradi. Ma teoricamente meglio farle stare sui 75-80 gradi in full load

mikael84
12-12-2019, 17:28
Parlavo dei voltaggi della gpu da afterburner, se tenerla ad 1.081mv la può rovinare considerando che sono a liquido e se pure le temperature non sono proprio basse ma cmq non vado in throttling

Sino ad 1,093/6v non succede nulla, il vrm è piombato. Devi solo verificare che ci siano dei miglioramenti tramite test.
1,081v è mediamente 1,05v dopo vdroop.

Le gpu penso che possano tranquillamente arrivare a 90 gradi. Ma teoricamente meglio farle stare sui 75-80 gradi in full load

L'over tensione in questi casi (anche se minima), può aumentare i valori VRM, sopratutto in schede mal raffredate.
Anche le ram dopo il range di 95°, fanno partire artefatti, o stuttering, a volte anche marcato.
Peccato che anche nvidia, come fa AMD non mostri i valori.

PlayerGiocatore
12-12-2019, 18:40
Più o meno questo intendo però con pixel aumentati sia lato verticale che orizzontale, specificando meglio con gioco stessi settaggi passare da 720p a 1080p quanto prende sulla GPU in percentuale, o passare da 960x544 a 1280x720 quanto prende in percentuale sulla scheda, a prescindere dalla sua potenza.

Qualcuno?

TigerTank
12-12-2019, 18:43
Più o meno questo intendo però con pixel aumentati sia lato verticale che orizzontale, specificando meglio con gioco stessi settaggi passare da 720p a 1080p quanto prende sulla GPU in percentuale, o passare da 960x544 a 1280x720 quanto prende in percentuale sulla scheda, a prescindere dalla sua potenza.

Impossibile dare una risposta in quanto poi dipende da quanto un gioco va a pesare in più con l'aumento dei pixel complessivi e relativo motore di gioco, settaggi grafici, filtri e quant'altro.
Si può solo dire "pesa di più" o prendi le varie recensioni e per un gioco X vai a vedere le differenze tra le varie risoluzioni di test.
Da aggiungere anche quanto il processore eventualmente influisca sulla cosa.

NAP.
12-12-2019, 22:21
Ah ok sono massimo sopra i 60 vado tranquillo allora non mi sono voluto spingere fino al limite quindi va bene

razor820
12-12-2019, 22:26
L'over tensione in questi casi (anche se minima), può aumentare i valori VRM, sopratutto in schede mal raffredate.

Anche le ram dopo il range di 95°, fanno partire artefatti, o stuttering, a volte anche marcato.

Peccato che anche nvidia, come fa AMD non mostri i valori.


Ma alcune schede evga tramite il software precisionX non dovrebbe misurare anche la temp delle Vrm a parte?

mikael84
12-12-2019, 22:55
Ah ok sono massimo sopra i 60 vado tranquillo allora non mi sono voluto spingere fino al limite quindi va bene

Si, male andando alla lunga crasha.

Ma alcune schede evga tramite il software precisionX non dovrebbe misurare anche la temp delle Vrm a parte?

Solitamente le classified e le lightning avevano i sensori vrm, overtensione ram ed anche la frequenza di commutazione in hz.
Asus invece da sempre misurava solo il Vrm1 GPU.
Non so le Evga normali:)
La KFA2 invece permette l'overtensione delle ram.

NAP.
12-12-2019, 23:17
Volevo chiederle se confrontarmi con voi riguardo una cosa, capita anche a voi con superposition di avere il puntatore del mouse che stuttera quando aprite il menu?

In più ho notato un problema con fallout 4,ossia che la gpu non lavora al 100% in alcune aree sebbene credo possa essere colpa delle mod

NAP.
12-12-2019, 23:20
Si, male andando alla lunga crasha.







Solitamente le classified e le lightning avevano i sensori vrm, overtensione ram ed anche la frequenza di commutazione in hz.

Asus invece da sempre misurava solo il Vrm1 GPU.

Non so le Evga normali:)

La KFA2 invece permette l'overtensione delle ram.Ho dei CTD in Fallout 4 ma non è il migliore dei test imho visto che è pieno di mod e da pure altri problemi, in Superposition non da problemi (al momento non ho altro con cui verificare gioco solo a Fallout 4) e il test di afterburner, se affidabile mi da oltre il 90% di confident level che è il massimo

mikael84
12-12-2019, 23:28
Ho dei CTD in Fallout 4 ma non è il migliore dei test imho visto che è pieno di mod e da pure altri problemi, in Superposition non da problemi (al momento non ho altro con cui verificare gioco solo a Fallout 4) e il test di afterburner, se affidabile mi da oltre il 90% di confident level che è il massimo

Con superposition nessun problema a livello puntatore.
Riguardo la stabilità relativa a clock e tensione, devi, oltre alla stabilità, vedere se, effettivamente hai dei guadagni sui medi, minimi e massimi.
Purtroppo non sempre il massimo clock è il meglio (sopratutto su questo vrm piombato). Se hai un medio migliore ma un minimo inferiore, scendi di clock e tensione.
Se invece è tutto ok, lascia pure tutto così, saranno solo i giochi a dirti se sei veramente stabile, considerando che a lungo andare possono manifestarsi cali di tensione più ampi.

NAP.
13-12-2019, 01:42
Non capisco quindi da dove derivi questo problema col puntatore, ricordo cge lo avevo anche con ka vecchia pascal (1080liscia).
Sui valori minimi/massimi non ci avevo pensato, ho cmq un punteggio più alto che credo come indicatore dovrebbe valere qualcosa o sbaglio?
Più basso però da quando ho i nuovi driver con lo sharpening, credo che impattino sulle orestazione del bench, stao intorno ai 7600punti orima ora a 7450

Thunder-74
13-12-2019, 07:10
Scusate l'ot, ma se Microsoft dice il vero....

Hanno presentato la nuova Xbox (Scarlett) e il trailer di Hellblade II che a detta loro è con l'engine del gioco in tempo reale.... ditemi voi cosa ne pensate...

VIDEO (https://youtu.be/qJWI4bkD9ZM)

NAP.
13-12-2019, 08:13
Onestamente a guardare hellblade2 mi sembra un buon salto generazionale, ho visto delle landscape che RDR2 è di 5 generazioni fa, al contrario del trailer su Halo dell'e3 scorso che mi aveva alquanto deluso. Cmq niente che le nostre 2080 non possano gestire, alle brutte si compra Ampere

Thunder-74
13-12-2019, 08:22
Onestamente a guardare hellblade2 mi sembra un buon salto generazionale, ho visto delle landscape che RDR2 è di 5 generazioni fa, al contrario del trailer su Halo dell'e3 scorso che mi aveva alquanto deluso. Cmq niente che le nostre 2080 non possano gestire, alle brutte si compra Ampere


Alla fine bisogna sempre fare il tifo per le scatolette, se vogliamo sperare che anche il pc faccia un netto miglioramento nella resa grafica ...
Le premesse ci sono, dai :)


Inviato dal mio iPhone X utilizzando Tapatalk

Alekos Panagulis
13-12-2019, 08:37
Scusate l'ot, ma se Microsoft dice il vero....

Hanno presentato la nuova Xbox (Scarlett) e il trailer di Hellblade II che a detta loro è con l'engine del gioco in tempo reale.... ditemi voi cosa ne pensate...

VIDEO (https://youtu.be/qJWI4bkD9ZM)Ovviamente ci sarà un downgrade grafico pauroso. È sempre così. Notevole cmq.

Inviato dal mio Mi 9T utilizzando Tapatalk

TigerTank
13-12-2019, 08:49
Scusate l'ot, ma se Microsoft dice il vero....

Hanno presentato la nuova Xbox (Scarlett) e il trailer di Hellblade II che a detta loro è con l'engine del gioco in tempo reale.... ditemi voi cosa ne pensate...

VIDEO (https://youtu.be/qJWI4bkD9ZM)

Ovviamente ci sarà un downgrade grafico pauroso. È sempre così. Notevole cmq.

Inviato dal mio Mi 9T utilizzando Tapatalk

Vero, purtroppo di trailers e presentazioni non ci si può mai fidare più di tanto. Non sarebbe la prima volta che poi il tutto si rivela una demo/cinematica pensata ad hoc rispetto agli esiti reali.
In ogni caso beh, ci si augura che nuova console = innalzamento degli standard di riferimento per i nuovi giochi, con conseguente riflesso anche sui titoli pc(porting in primis e direi ormai maggioranza dei casi).

mikael84
13-12-2019, 11:24
Non capisco quindi da dove derivi questo problema col puntatore, ricordo cge lo avevo anche con ka vecchia pascal (1080liscia).
Sui valori minimi/massimi non ci avevo pensato, ho cmq un punteggio più alto che credo come indicatore dovrebbe valere qualcosa o sbaglio?
Più basso però da quando ho i nuovi driver con lo sharpening, credo che impattino sulle orestazione del bench, stao intorno ai 7600punti orima ora a 7450

Superposition permette di visualizzare anche i minimi.
Ad esempio, se prima facevi min.38 e mid 52, dopo l'OC fai 39 e mid 53 sei ok. Se fai 53 mid, ma min. 36, hai trovato instabilità, che nei giochi ti può ortare qualche problema.:)

Onestamente a guardare hellblade2 mi sembra un buon salto generazionale, ho visto delle landscape che RDR2 è di 5 generazioni fa, al contrario del trailer su Halo dell'e3 scorso che mi aveva alquanto deluso. Cmq niente che le nostre 2080 non possano gestire, alle brutte si compra Ampere

Per capire quanto sarà performante la GPU console (salvo qualche affinamento), basta prendere le medie e calcolare un +12% circa, la stessa che intercorre tra 5700 liscia e 5700xt.
Nei casi migliori tallonerà una 2080 super, nei peggiori una 2070 super.

Alla fine bisogna sempre fare il tifo per le scatolette, se vogliamo sperare che anche il pc faccia un netto miglioramento nella resa grafica ...
Le premesse ci sono, dai :)


Inviato dal mio iPhone X utilizzando Tapatalk

Sarà sicuramente decurtato, però, dopo anni di magra, il salto sarà davvero molto elevato.
Da considerare che i giochi vengono pensati per un chip, che all'uscita era mediamente più scarso di una GTX 580, GTX 660 e cpu da tablet, ora i livelli sono da 3700x (meno clock) e una simil 2080/s.:)

al135
13-12-2019, 16:03
sono rimasto sbalordito delle prestazioni di due 2080 in nvlink
su red dead redemption 2 (in 2k da 53 fps max quality a 105 fps)
e su outer worlds (in 2k da 65 fps max quality a 110 fps)
praticamente quasi un 100% di performance in piu
:sofico:

razor820
13-12-2019, 16:23
What?? Possibile? Mi sembra assurda questa cosa.. fino ad ora ha funzionato una cacca questo genere di cose, almeno nei giochi..

Qualche video ?

al135
13-12-2019, 16:31
What?? Possibile? Mi sembra assurda questa cosa.. fino ad ora ha funzionato una cacca questo genere di cose, almeno nei giochi..

Qualche video ?

be non tutti i giochi sono compatibili con lo "sli" pero' fortunatamente alcuni, dei piu pesanti si. forse sul tubo trovi qualcosa. ah anche tomb raider idem... :cool:

illidan2000
13-12-2019, 16:33
sono rimasto sbalordito delle prestazioni di due 2080 in nvlink
su red dead redemption 2 (in 2k da 53 fps max quality a 105 fps)
e su outer worlds (in 2k da 65 fps max quality a 110 fps)
praticamente quasi un 100% di performance in piu
:sofico:

due mosche bianche in un mare di petrolio nero

al135
13-12-2019, 16:35
due mosche bianche in un mare di petrolio nero

anche borderlands e fallout funziona, saro' fortunato io praticamente nei titoli che gioco ho trovato sempre vantaggio :D :D :D :D
ah anche su bf5 e metro 2033 (sempre in dx11) funziona
in poche parole funziona in molti giochi pesanti almeno i piu importanti in dx11. in dx12 ho notato solo su rd2 funziona ma non ho fatto altri test

razor820
13-12-2019, 16:59
Ma due 2080 con slot 2,8 soffocano :D
Intendo devono per forza essere liquidate o no?

al135
13-12-2019, 17:00
Ma due 2080 con slot 2,8 soffocano :D
Intendo devono per forza essere liquidate o no?

sono liquidate le mie, sono due msi ek sea hawk :cool:
il top sarebbe stato mettere due TI al posto di due 2080 ma poi mi serviva un reattore :D

razor820
13-12-2019, 17:03
Eh ma già con due 2080 allo stesso prezzo di una 2080ti ma ottieni il 30% come minimo di prestazioni maggiori in quei determinati giochi e ancora più facilmente rivendibili....

Problema che liquidarle è una rottura. Se ne vanno altri 400 euri nel mio caso.
Altrimenti ci avrei fatto un pensierino ad un’altra 2080

al135
13-12-2019, 17:06
Eh ma già con due 2080 allo stesso prezzo di una 2080ti ma ottieni il 30% come minimo di prestazioni maggiori in quei determinati giochi e ancora più facilmente rivendibili....

Problema che liquidarle è una rottura. Se ne vanno altri 400 euri nel mio caso.
Altrimenti ci avrei fatto un pensierino ad un’altra 2080

considera che su rd2 il gioco attualmente piu pesante con la 2080ti (che uso per il vr) faccio il 18% in piu di performance. poco, troppo poco per poterlo tirare. 65 fps contro 53 circa. cmq rimane poco giocabile. invece cosi ne faccio circa 100-110

razor820
13-12-2019, 17:23
Ma devono essere della stessa marca le gpu? Un alimentatore da 850w con la configurazione mia in firma basta?

Alekos Panagulis
13-12-2019, 17:28
Il pensiero di due 2080 in SLI mi ha sempre stuzzicato, ma alla fine mi incazzerei troppo per il mancato supporto a questo o quel gioco...

mikael84
13-12-2019, 17:52
Ma devono essere della stessa marca le gpu? Un alimentatore da 850w con la configurazione mia in firma basta?

Le GPU devono essere solo della stessa serie, quindi x80 lisce nel tuo caso.
L'unica che devi evitare è la zotac, che almeno sino alla generazione precedente non permetteva SLI con brand diversi.

Thunder-74
13-12-2019, 17:55
Ma devono essere della stessa marca le gpu? Un alimentatore da 850w con la configurazione mia in firma basta?

non devono essere per forza della stessa marca. In passato solo le Zotac avevano problemi ad essere messe in SLi con altre marche.
La freq. viene adattata ad entrambe in automatico, prendendo come riferimento quella più bassa delle due. Mentre la freq. della Vram non viene toccata.
850w possono bastare per 2 2080

Le GPU devono essere solo della stessa serie, quindi x80 lisce nel tuo caso.
L'unica che devi evitare è la zotac, che almeno sino alla generazione precedente non permetteva SLI con brand diversi.

;)

al135
13-12-2019, 17:56
Ma devono essere della stessa marca le gpu? Un alimentatore da 850w con la configurazione mia in firma basta?

io ho un 860w e ci sguazzo :)
le gpu vanno bene anche di marche diverse, certo se uguali o simili (come frequenze) è anche meglio perche prende quella con clock piu basso

Thunder-74
13-12-2019, 18:04
io ho un 860w e ci sguazzo :)
le gpu vanno bene anche di marche diverse, certo se uguali o simili (come frequenze) è anche meglio perche prende quella con clock piu basso

ti andrebbe di postare una foto dello sli ? :)

al135
13-12-2019, 18:29
ti andrebbe di postare una foto dello sli ? :)

OPS NON LE HO RIMPICCIOLITE PERDONATEMI AAHH

https://i.imgur.com/GfcbsCy.jpg

https://i.imgur.com/OfiaXvL.jpg

razor820
13-12-2019, 19:07
Quanti radiatori hai?

Thunder-74
13-12-2019, 19:22
OPS NON LE HO RIMPICCIOLITE PERDONATEMI AAHH

https://i.imgur.com/GfcbsCy.jpg

https://i.imgur.com/OfiaXvL.jpg



Bello!! Lo Sli liquidato ha un fascino incredibile e con i tubi rigidi la build acquista ancor più bellezza ... complimenti . Se lo Sli fosse supportato come meriterebbe, avrei già acquistato la seconda 2080... :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

al135
13-12-2019, 20:35
Quanti radiatori hai?

Ho due radiatori da 240, più che sufficienti dato che le 2080 msi dissipano benissimo il calore :) considera in full load non superano mai i 50 gradi!

al135
13-12-2019, 20:37
Bello!! Lo Sli liquidato ha un fascino incredibile e con i tubi rigidi la build acquista ancor più bellezza ... complimenti . Se lo Sli fosse supportato come meriterebbe, avrei già acquistato la seconda 2080... :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

Ma guarda dipende che giochi fai, considera che per i motori grafici più pesanti molto spesso è supportato, finora l’unico dove non son riuscito a farlo funzionare è stato the division ! Però vabe con una riesco comunque a giocare più che bene :)

NAP.
14-12-2019, 06:30
Superposition permette di visualizzare anche i minimi.

Ad esempio, se prima facevi min.38 e mid 52, dopo l'OC fai 39 e mid 53 sei ok. Se fai 53 mid, ma min. 36, hai trovato instabilità, che nei giochi ti può ortare qualche problema.:)







Per capire quanto sarà performante la GPU console (salvo qualche affinamento), basta prendere le medie e calcolare un +12% circa, la stessa che intercorre tra 5700 liscia e 5700xt.

Nei casi migliori tallonerà una 2080 super, nei peggiori una 2070 super.







Sarà sicuramente decurtato, però, dopo anni di magra, il salto sarà davvero molto elevato.

Da considerare che i giochi vengono pensati per un chip, che all'uscita era mediamente più scarso di una GTX 580, GTX 660 e cpu da tablet, ora i livelli sono da 3700x (meno clock) e una simil 2080/s.:)Tu se posso quanto fai nei minimi e massimi? Sempre se hai una 2080liscia

demonangel
14-12-2019, 09:53
[QUOTE=al135;46532844]OPS NON LE HO RIMPICCIOLITE PERDONATEMI AAHH



I miei sinceri complimenti, te li meriti, bellisima Build

mikael84
14-12-2019, 11:06
Tu se posso quanto fai nei minimi e massimi? Sempre se hai una 2080liscia

Ho il chip cut, una 2070 super, non la 2080 liscia.:)

fireradeon
14-12-2019, 11:10
Bello!! Lo Sli liquidato ha un fascino incredibile e con i tubi rigidi la build acquista ancor più bellezza ... complimenti . Se lo Sli fosse supportato come meriterebbe, avrei già acquistato la seconda 2080... :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

Tanto bello quanto inutile. Lo SLI nel 2019 ormai quasi 2020 non si può vedere. :muro:

razor820
14-12-2019, 12:41
Eh ma tanto inutile non tanto... Certo se si gioca con Pac-Man ok, ma se con una scheda da 1400 euri non riesci a fare girare red2 a 55fps uno ci comincia a fare un pensierino..

Specialmente se i valori sono quelli descritti dall utente più sopra

Alekos Panagulis
14-12-2019, 12:50
Ovvio, 100 frames in RDR2 fanno molta gola. Ma uno deve aver un monitor 2k almeno 120hz. Io gioco con il C9 e quando finalmente uscirà la prima gpu con hdmi 2.1 sarà l'ora di cacciare i soldi veri, per spingere il framerate più in alto possibile in 4k.

al135
14-12-2019, 13:02
Tanto bello quanto inutile. Lo SLI nel 2019 ormai quasi 2020 non si può vedere. :muro:

cmq si chiama NVLINK per le serie nuove ed è molto piu performante dello sli.
inutile anche no, ci sono dei giochi dove va... altri dove è inutile e non serve,
pero' su rdr2 riesco a fare piu di 100 fps quando prima ne facevo 50 ed è un autentico spettacolo per gli occhi :D
idem outer worlds e metro. ma poi dipende a quello che giochi... se fai counterstrike o altra roba vecchia puoi stare pure con una 960 :D

TigerTank
14-12-2019, 13:32
Eh ma tanto inutile non tanto... Certo se si gioca con Pac-Man ok, ma se con una scheda da 1400 euri non riesci a fare girare red2 a 55fps uno ci comincia a fare un pensierino..

Specialmente se i valori sono quelli descritti dall utente più sopra

Naaaa imho nessun gioco ormai merita una tale spesa, nemmeno RDR2, anzi soprattutto RDR2 che già è un mattone estremo senza parlare di ray tracing :D
Visti i prezzi delle schede attuali, a maggior ragione tanto vale sacrificare qualche opzione grafica e farsene bastare una piuttosto che arrivare addirittura al raddoppio spendendo un botto di soldi per far girare un mattone maxato. E le 2080Ti in primis probabilmente già il prossimo anno perderanno un sacco di valore come usato se uscirà una 3080 che andrà di più o peggio ancora una 3070 che ci si avvicinerà.
Per non parlare poi delle ulteriori eventuali spese per liquidare il tutto visto che in uno Sli ad aria la scheda superiore soffre non poco.
No, imho ormai non ne vale minimamente la pena....e direi anche che Nvidia non lo meriterebbe visto il grande divario tra hype dx12 e ray tracing prima ed effettiva realtà oggi, dove le 2 schede non le puoi manco usare per goderti il ray tracing(che paradossalmente è il contesto dove farebbero più comodo) :)

al135
14-12-2019, 13:44
Naaaa imho nessun gioco ormai merita una tale spesa, nemmeno RDR2, anzi soprattutto RDR2 che già è un mattone estremo senza parlare di ray tracing :D
Visti i prezzi delle schede attuali, a maggior ragione tanto vale sacrificare qualche opzione grafica e farsene bastare una piuttosto che arrivare addirittura al raddoppio spendendo un botto di soldi per far girare un mattone maxato. E le 2080Ti in primis probabilmente già il prossimo anno perderanno un sacco di valore come usato se uscirà una 3080 che andrà di più o peggio ancora una 3070 che ci si avvicinerà.
Per non parlare poi delle ulteriori eventuali spese per liquidare il tutto visto che in uno Sli ad aria la scheda superiore soffre non poco.
No, imho ormai non ne vale minimamente la pena....e direi anche che Nvidia non lo meriterebbe visto il grande divario tra hype dx12 e ray tracing prima ed effettiva realtà oggi, dove le 2 schede non le puoi manco usare per goderti il ray tracing(che paradossalmente è il contesto dove farebbero più comodo) :)

Diciamo che se metti un impianto a liquido in una certa maniera non stai a guardare molto il resto.. ti dico che il mio impianto tra connettori e roba varia ci avrò speso oltre 1500 euro...il costo delle due 2080 praticamente :D :D sono sfizi... se vuoi ottimizzare ne basta una e abbassi la grafica... sono io che sono fissato probabilmente :D:D:D

TigerTank
14-12-2019, 14:07
Diciamo che se metti un impianto a liquido in una certa maniera non stai a guardare molto il resto.. ti dico che il mio impianto tra connettori e roba varia ci avrò speso oltre 1500 euro...il costo delle due 2080 praticamente :D :D sono sfizi... se vuoi ottimizzare ne basta una e abbassi la grafica...

Tu alla fine hai fatto una scelta comunque intelligente, nel senso che sapendo già di liquidare(complimenti x l'impianto, è stupendo!) hai almeno preso 2 vga ad hoc. L'unico contro è che forse un domani saranno un pelino più difficili da rivendere.
Più che altro il problema è raddoppiare con una custom uguale ad una prima presa in precedenza, per poi dover mettere un paio di wubbi(se esistenti), backplates e annessi :)

Diciamo che tra generazione "sperimentale" ancora priva di ray tracing mgu in gaming e probabilità di nuove vga nel 2020, non lo vedo conveniente. Con la prossima generazione si vedrà :)

al135
14-12-2019, 14:09
Tu alla fine hai fatto una scelta comunque intelligente, nel senso che sapendo già di liquidare(complimenti x l'impianto, è stupendo!) hai almeno preso 2 vga ad hoc. L'unico contro è che forse un domani saranno un pelino più difficili da rivendere.
Più che altro il problema è raddoppiare con una custom uguale ad una prima presa in precedenza, per poi dover mettere un paio di wubbi(se esistenti), backplates e annessi :)

Diciamo che tra generazione "sperimentale" ancora priva di ray tracing mgu in gaming e probabilità di nuove vga nel 2020, non lo vedo conveniente. Con la prossima generazione si vedrà :)

si infatti sono molto curioso di vedere all opera la prossima generazione.. serie 3000 va a finire che la scimmia mi urli in testa di sostituirle :D :D :D :D

razor820
14-12-2019, 14:26
Naaaa imho nessun gioco ormai merita una tale spesa, nemmeno RDR2, anzi soprattutto RDR2 che già è un mattone estremo senza parlare di ray tracing :D
Visti i prezzi delle schede attuali, a maggior ragione tanto vale sacrificare qualche opzione grafica e farsene bastare una piuttosto che arrivare addirittura al raddoppio spendendo un botto di soldi per far girare un mattone maxato. E le 2080Ti in primis probabilmente già il prossimo anno perderanno un sacco di valore come usato se uscirà una 3080 che andrà di più o peggio ancora una 3070 che ci si avvicinerà.
Per non parlare poi delle ulteriori eventuali spese per liquidare il tutto visto che in uno Sli ad aria la scheda superiore soffre non poco.
No, imho ormai non ne vale minimamente la pena....e direi anche che Nvidia non lo meriterebbe visto il grande divario tra hype dx12 e ray tracing prima ed effettiva realtà oggi, dove le 2 schede non le puoi manco usare per goderti il ray tracing(che paradossalmente è il contesto dove farebbero più comodo) :)



Si in questo caso ti quoto in tutto.
Già solo di wb se ne vanno 400 euri.

Li dipende soprattutto da quanto è profonda la tasca dei pantaloni.. :D
E se avessi un bel gruzzoletto non ci penserei nemmeno una volta a fare quest operazione pur sapendo che in uscita delle nuove 30xx andrei a perdere almeno il 50% tra schede e materiali per il liquido

Arrow0309
14-12-2019, 15:07
Raga, il driver migliore per RDR2 online?
Perché avevo i 441.34 ma poi ho aggiornato sia il gioco all'ultima patch ma messi pure sti ultimi 441.66 (pure slimmati bene e previa pulizia con DDU in provvisoria).
Gli fps sono calati di un boato, e non sono l'unico.
Ma volevo appunto sapere se succede anche a voi e / o quale sia il miglior driver (sto usando il Vulkan) :fagiano: :stordita:

al135
14-12-2019, 15:11
Raga, il driver migliore per RDR2 online?
Perché avevo i 441.34 ma poi ho aggiornato sia il gioco all'ultima patch ma messi pure sti ultimi 441.66 (pure slimmati bene e previa pulizia con DDU in provvisoria).
Gli fps sono calati di un boato, e non sono l'unico.
Ma volevo appunto sapere se succede anche a voi e / o quale sia il miglior driver (sto usando il Vulkan) :fagiano: :stordita:

Se hai una singola scheda dx12 altrimenti vulkan

Arrow0309
14-12-2019, 16:15
Se hai una singola scheda dx12 altrimenti vulkan

Scusa ma il dx12 non andava a fps inferiori?
Testato precedentemente alle prime patch ed andava tipo 8 fps in meno.
A volte stutterava, si (il Vulkan)
Ma poi avevano risolto (tra patch e driver).
Ora e' tutto peggiorato di nuovo :doh:
Vabbe' riprovo con sti dx12

frankjr1
14-12-2019, 16:16
Ovvio, 100 frames in RDR2 fanno molta gola. Ma uno deve aver un monitor 2k almeno 120hz. Io gioco con il C9 e quando finalmente uscirà la prima gpu con hdmi 2.1 sarà l'ora di cacciare i soldi veri, per spingere il framerate più in alto possibile in 4k.

Al momento preferisci quindi giocarlo in 1440p a 120hz oppure lasci in 4k e ti accontenti dei 60hz? Penso che cmq in 4k difficilmente si tengano i 60fps con quel giocone
Io francamente la differenza tra i 60fps e i 100fps la noto ok, ma non sento di dire che è come dalla notte al giorno

Giocarlo in 4k a 60hz penso sia cmq assolutamente piu che apprezzabile

Come si comporta l'LG C9 in 1440p? si nota molto la differenza dal 4k come resa grafica?

Crysis76
14-12-2019, 18:39
@al135 ottima conf ,ne ho assemblata una per un cliente con 2 2080ti su piattaforma amd4 c0n il 3950x e posso assicurare che tirano abbestia nei game . lui gioca con i simulatori di guida e prima di spendere una cifra spropositata si è informato bene che avrebbero funzionato con i sim

TigerTank
14-12-2019, 20:51
Si in questo caso ti quoto in tutto.
Già solo di wb se ne vanno 400 euri.

Li dipende soprattutto da quanto è profonda la tasca dei pantaloni.. :D
E se avessi un bel gruzzoletto non ci penserei nemmeno una volta a fare quest operazione pur sapendo che in uscita delle nuove 30xx andrei a perdere almeno il 50% tra schede e materiali per il liquido

Di sicuro con la prossima generazione ci saranno 2 punti piuttosto importanti: la 4K da gaming e la speranza di molti appunto nel ray tracing in mgpu.
Per cui direi 2 validi motivi per cui uno Sli supportato il più possibile sarebbe gradito ai players più estremi :D

mikael84
14-12-2019, 23:02
Di sicuro con la prossima generazione ci saranno 2 punti piuttosto importanti: la 4K da gaming e la speranza di molti appunto nel ray tracing in mgpu.
Per cui direi 2 validi motivi per cui uno Sli supportato il più possibile sarebbe gradito ai players più estremi :D

Segnalo un particolare, Micron non le ha ancora annunciate, ci vorrà forse tempo per vederle nel loro database, ma sta pruducendo delle MT61-14B a doppia densità. Le MT61-14A sono le classiche.
Considerando che mancano ancora vari mesi per Ampere, potrebbe essersi risolto il problema della doppia densità, quindi su bus da 256bit possiamo aspettarci 16gb (con 95$ di costi aggiuntivi, meno per produzione).:fagiano:

Con le prossime console sempre più dx12, vulkan, RT in caso di nvlink, avere molta memoria sarebbe l'ideale.
Probabilmente aumenterà anche la BW nvlink, fondamentale per il RT.:)

matthi87
15-12-2019, 09:00
@al135 ottima conf ,ne ho assemblata una per un cliente con 2 2080ti su piattaforma amd4 c0n il 3950x e posso assicurare che tirano abbestia nei game . lui gioca con i simulatori di guida e prima di spendere una cifra spropositata si è informato bene che avrebbero funzionato con i sim



Mi sa che allora si è informato proprio male. L’unico sim di guida che supporta lo SLI in qualche modo è Assetto Corsa Competizione grazie all’ Unreal 4. iRacing, rFactor 2, Automobilista e Assetto Corsa hanno tutti motori vecchi che lo SLI manco lo contemplano.

Project Cars 2 non lo considero un simulatore come gli altri.


Inviato dal mio iPhone utilizzando Tapatalk

razor820
15-12-2019, 09:53
E vabbè certo quale sarebbe il senso di far supportare lo sli con giochi obsoleti con assettocorsa e compagnia, visto che i requisiti sono alla portata di tutti..

al135
15-12-2019, 10:48
Scusa ma il dx12 non andava a fps inferiori?
Testato precedentemente alle prime patch ed andava tipo 8 fps in meno.
A volte stutterava, si (il Vulkan)
Ma poi avevano risolto (tra patch e driver).
Ora e' tutto peggiorato di nuovo :doh:
Vabbe' riprovo con sti dx12

si hanno patchato con la dx12 fai qualche fps in piu :)

al135
15-12-2019, 13:04
@al135 ottima conf ,ne ho assemblata una per un cliente con 2 2080ti su piattaforma amd4 c0n il 3950x e posso assicurare che tirano abbestia nei game . lui gioca con i simulatori di guida e prima di spendere una cifra spropositata si è informato bene che avrebbero funzionato con i sim

grazie :)
si è sempre meglio informarsi soprattutto in base a cosa si gioca... lo sli non è adatto se si gioca con gli emulatori ps1 :D
ci avevo pensato a fare due 2080ti al posto delle 2080... ma avendo avuto problemi con le 2080ti in passato (2 resi) ho evitato... oltre al fatto che avrei probabilmente dovuto mettere forse un rad in piu. :sofico:

Alekos Panagulis
15-12-2019, 15:15
Al momento preferisci quindi giocarlo in 1440p a 120hz oppure lasci in 4k e ti accontenti dei 60hz? Penso che cmq in 4k difficilmente si tengano i 60fps con quel giocone
Io francamente la differenza tra i 60fps e i 100fps la noto ok, ma non sento di dire che è come dalla notte al giorno

Giocarlo in 4k a 60hz penso sia cmq assolutamente piu che apprezzabile

Come si comporta l'LG C9 in 1440p? si nota molto la differenza dal 4k come resa grafica?

La risposta alla tua domanda non è semplice.
In alcuni giochi preferisco 1440@120hz, in altri 4k@60hz.
In RDR2, ad esempio, in 2k l'immagine è brutta, priva di dettaglio, blurrata, con gli alberi in lontananza sfocati. Più o meno come appare sulla Ps4 pro.
In Anthem, Metro Exdous e BV5 invece, preferisco di gran lunga giocare in 1440p@120hz. Sarà perché in questi tre giochi in 4k girano a 30 fps, ed è necessario attivare il DLSS per avere una esperienza di gioco accettabile...quindi in questo caso non sto facendo un confronto fra 4k@60hz e 1440p@120hz, ma fra 4k con DLSS e 1440p.
Gioco per gioco, è necessario provare quale delle due soluzione sia preferibile, secondo i propri gusti.

Arrow0309
15-12-2019, 18:59
si hanno patchato con la dx12 fai qualche fps in piu :)

Nope, sempre in meno
Provato per bene sia coi bench che online.
Tipo 5-6 fps in più medi (anche nel benchmark) con il Vulkan.

al135
15-12-2019, 19:50
Nope, sempre in meno
Provato per bene sia coi bench che online.
Tipo 5-6 fps in più medi (anche nel benchmark) con il Vulkan.

Strano devono aver cambiato qualcosa, prima della patch me ne faceva qualcuno in più, ora meno. Bo!

frankjr1
15-12-2019, 20:49
La risposta alla tua domanda non è semplice.
In alcuni giochi preferisco 1440@120hz, in altri 4k@60hz.
In RDR2, ad esempio, in 2k l'immagine è brutta, priva di dettaglio, blurrata, con gli alberi in lontananza sfocati. Più o meno come appare sulla Ps4 pro.
In Anthem, Metro Exdous e BV5 invece, preferisco di gran lunga giocare in 1440p@120hz. Sarà perché in questi tre giochi in 4k girano a 30 fps, ed è necessario attivare il DLSS per avere una esperienza di gioco accettabile...quindi in questo caso non sto facendo un confronto fra 4k@60hz e 1440p@120hz, ma fra 4k con DLSS e 1440p.
Gioco per gioco, è necessario provare quale delle due soluzione sia preferibile, secondo i propri gusti.

Grazie, beh complimenti per il tuo C9, penso che sia veramente molto versatile come prodotto, ottimo per il gaming, gsync compatibile e 4k futuribili a 120hz, e visione dei film super, beh se ne avessero fatto uno da 32 o max 40 pollici sarebbe gia mio

Teamprotein
16-12-2019, 10:27
Qual è la temperatura massima da non superare con una 2080ti?

DJurassic
16-12-2019, 12:56
La risposta alla tua domanda non è semplice.
In alcuni giochi preferisco 1440@120hz, in altri 4k@60hz.
In RDR2, ad esempio, in 2k l'immagine è brutta, priva di dettaglio, blurrata, con gli alberi in lontananza sfocati. Più o meno come appare sulla Ps4 pro.
In Anthem, Metro Exdous e BV5 invece, preferisco di gran lunga giocare in 1440p@120hz. Sarà perché in questi tre giochi in 4k girano a 30 fps, ed è necessario attivare il DLSS per avere una esperienza di gioco accettabile...quindi in questo caso non sto facendo un confronto fra 4k@60hz e 1440p@120hz, ma fra 4k con DLSS e 1440p.
Gioco per gioco, è necessario provare quale delle due soluzione sia preferibile, secondo i propri gusti.

No vabbè questa si commenta da sola. :asd:

Le cose sono 2. O il C9 ha un pessimo upscaling oppure non hai mai davvero giocato a RDR2 su PS4 pro.

Alekos Panagulis
16-12-2019, 13:42
No vabbè questa si commenta da sola. :asd:

Le cose sono 2. O il C9 ha un pessimo upscaling oppure non hai mai davvero giocato a RDR2 su PS4 pro.

Vuoi che ti mandi la foto della mia PS4 pro sotto la TV e copia dell'acquisto di RDR2 per PS4?
Che ragione avrei di invertarmi console e giochi che non ho?
Stai flammando, occhio.

opposing
16-12-2019, 13:48
Scusate, io ho cambiato la mia MSI RTX 2070 Armor con una MSI RTX 2080TI VENTUS, sulla 2070 quando utilizzavo il pc le ventole erano ferme e si attivavano solamente quando avviavo qualche gioco, mentre su questa 2080TI ho notato che le ventole girano sempre a prescindere anche quando la scheda è in IDLE... è una cosa normale? Qualcuno che la possiede può confermare? Grazie.

DJurassic
16-12-2019, 14:36
Vuoi che ti mandi la foto della mia PS4 pro sotto la TV e copia dell'acquisto di RDR2 per PS4?
Che ragione avrei di invertarmi console e giochi che non ho?
Stai flammando, occhio.

nessun flame. Era scontanto che tu avessi sia il gioco che la console, di conseguenza ne deriva che il tuo TV ha un upscaling delle immagini pessimo se addirittura un gioco PC risulta essere praticamente uguale alla versione console. Nemmeno impegnandosi l'immagine potrebbe altrimenti risultare impastata come quella PS4 Pro.

Io ho un KD65A1 Oled e RDR2 in 2K upscalato è anni luce migliore di quello che ho visto sullo stesso TV da sorgente PS4 Pro. Ma qualsiasi gioco lo è non solo questo.

Inoltre su PC hai svariate opzioni utili ad aumentare la nitidezza che su console non hai (incluso un uso migliore del TAA), quindi pur ottenendo risultati non all'altezza ne hai di modi per migliorare la qualità.

bagnino89
16-12-2019, 15:10
nessun flame. Era scontanto che tu avessi sia il gioco che la console, di conseguenza ne deriva che il tuo TV ha un upscaling delle immagini pessimo se addirittura un gioco PC risulta essere praticamente uguale alla versione console. Nemmeno impegnandosi l'immagine potrebbe altrimenti risultare impastata come quella PS4 Pro.

Io ho un KD65A1 Oled e RDR2 in 2K upscalato è anni luce migliore di quello che ho visto sullo stesso TV da sorgente PS4 Pro. Ma qualsiasi gioco lo è non solo questo.

Inoltre su PC hai svariate opzioni utili ad aumentare la nitidezza che su console non hai (incluso un uso migliore del TAA), quindi pur ottenendo risultati non all'altezza ne hai di modi per migliorare la qualità.

E pensare che io ho sempre considerato un orrore giocare al di fuori della risoluzione nativa. :asd:

Ed infatti ho odiato le PS3/360 per questo. Ma con le nuove console, le risoluzioni di rendering sono ancora più variabili.

Alekos Panagulis
16-12-2019, 15:17
nessun flame. Era scontanto che tu avessi sia il gioco che la console, di conseguenza ne deriva che il tuo TV ha un upscaling delle immagini pessimo se addirittura un gioco PC risulta essere praticamente uguale alla versione console. Nemmeno impegnandosi l'immagine potrebbe altrimenti risultare impastata come quella PS4 Pro.

Io ho un KD65A1 Oled e RDR2 in 2K upscalato è anni luce migliore di quello che ho visto sullo stesso TV da sorgente PS4 Pro. Ma qualsiasi gioco lo è non solo questo.

Inoltre su PC hai svariate opzioni utili ad aumentare la nitidezza che su console non hai (incluso un uso migliore del TAA), quindi pur ottenendo risultati non all'altezza ne hai di modi per migliorare la qualità.

Io non ho scritto "praticamente uguale", ho scritto "più o meno".
Cmq non ho avuto modo di provare l'immagine ps4 pro vs PC simultaneamente, poiché quando ho comprato RDR2 per pc avevo venduto da poche ore la versione console.
Fatto sta che, sul mio TV, Rdr2 in 2k è impastato. In 4k è incomparabilmente più nitido, quindi nemmeno usando tool come lo sharpening di Nvidia o il TAA ci si avvicina.
Sarà il mio C9? Può darsi. In ogni caso non mi piace molto giocare a risoluzione non nativa, se non - come ho spiegato - in quei titoli in cui sono costretto ad usare il DLSS per problemi di performace (dovuto alla pesantezza del ray tracing). Quindi, blurrato per blurrato, meglio 2k@120hz (che si traducono nei fatti in 80-90 frames).

al135
16-12-2019, 15:46
Io non ho scritto "praticamente uguale", ho scritto "più o meno".
Cmq non ho avuto modo di provare l'immagine ps4 pro vs PC simultaneamente, poiché quando ho comprato RDR2 per pc avevo venduto da poche ore la versione console.
Fatto sta che, sul mio TV, Rdr2 in 2k è impastato. In 4k è incomparabilmente più nitido, quindi nemmeno usando tool come lo sharpening di Nvidia o il TAA ci si avvicina.
Sarà il mio C9? Può darsi. In ogni caso non mi piace molto giocare a risoluzione non nativa, se non - come ho spiegato - in quei titoli in cui sono costretto ad usare il DLSS per problemi di performace (dovuto alla pesantezza del ray tracing). Quindi, blurrato per blurrato, meglio 2k@120hz (che si traducono nei fatti in 80-90 frames).

ti confermo che anche sul mio e7 lg (del 2017) oled faceva la stessa cosa (attaccandoci il pc)... credo che sia qualcosa con l'upscaling anche se nessun upscaling 2->4 puo' arrivare ad un immagine qualitativa 4k nativa. ... a risoluzione nativa (4k) infatti andava molto meglio e immagine perfetta

Thunder-74
16-12-2019, 16:33
Scusate, ma è normale che un pannello 4K scali male a 2560x1440 ... sarà meno impastato se scalate direttamente alla fHD visto il rapporto 1:4 dei pixel . Sicuro che su un monitor 2560x1440 RDR2 si vedrà meglio che non su una tv 4K... accettare un segnale non vuol dire gestirlo come se fosse nativo ;)


Inviato dal mio iPhone X utilizzando Tapatalk

GabrySP
16-12-2019, 20:58
l'ingresso PC del C9 va usato solo ed esclusivamente in ycbcr444 8-bit
qualsiasi altra impostazione produce banding e impastamenti vari.

è un bug mai corretto, che LG si porta dietro fin dai primi OLED :muro:

Alekos Panagulis
16-12-2019, 22:37
l'ingresso PC del C9 va usato solo ed esclusivamente in ycbcr444 8-bit
qualsiasi altra impostazione produce banding e impastamenti vari.

è un bug mai corretto, che LG si porta dietro fin dai primi OLED :muro:

Non lo sapevo. Il fatto di avere il profilo RGB influisce sulla qualità dell'upscaling?

TigerTank
17-12-2019, 12:38
Scusate, ma è normale che un pannello 4K scali male a 2560x1440 ... sarà meno impastato se scalate direttamente alla fHD visto il rapporto 1:4 dei pixel . Sicuro che su un monitor 2560x1440 RDR2 si vedrà meglio che non su una tv 4K... accettare un segnale non vuol dire gestirlo come se fosse nativo ;)


Inviato dal mio iPhone X utilizzando Tapatalk

Nelle vacanze di Natale provo a vedere come si comporta la mia, che dovrebbe andare a 2560x1440@120Hz se usata come monitor.
Ma di sicuro meglio la FullHD@4K per via del rapporto preciso, d'altronde cosa che credo già facciamo in molti con lo streaming di Netflix e simili quando la fonte è appunto FullHD.

EDIT: @Alekos
QUESTA (https://www.nvidia.com/en-us/geforce/news/g-sync-compatible-2019-lg-tv-available-now//) l'hai letta? Se vedi non toccano nulla nel pannello nvidia a livello di colore ma danno dei consigli di setting per la tv.

frankjr1
17-12-2019, 13:56
Nelle vacanze di Natale provo a vedere come si comporta la mia, che dovrebbe andare a 2560x1440@120Hz se usata come monitor.
Ma di sicuro meglio la FullHD@4K per via del rapporto preciso, d'altronde cosa che credo già facciamo in molti con lo streaming di Netflix e simili quando la fonte è appunto FullHD.

EDIT: @Alekos
QUESTA (https://www.nvidia.com/en-us/geforce/news/g-sync-compatible-2019-lg-tv-available-now//) l'hai letta? Se vedi non toccano nulla nel pannello nvidia a livello di colore ma danno dei consigli di setting per la tv.

se riesci, puoi provare anche come ti va la funzione GPU scaling dei driver recenti? non ho capito ancora bene se quella funzione realmente MIGLIORA l'upscaling

GabrySP
17-12-2019, 14:05
Non lo sapevo. Il fatto di avere il profilo RGB influisce sulla qualità dell'upscaling?

influisce su tutto, quindi sicuramente influisce anche sul upscaling

il caso peggiore sono le zone in cui ci sono diverse tonalità dello stesso colore nello spazio di pochi pixel (erba, fogliame e cose del genere)
nelle altre parti dell'immagine non cambia nulla se upscalato o meno (nel senso che rimane la stessa quantità di banding)

al135
17-12-2019, 14:10
io aspetto gli oled 2020 lg per capire se cambiare il tv in sala, un lg b7v del 2017 ...

Alekos Panagulis
17-12-2019, 14:12
Nelle vacanze di Natale provo a vedere come si comporta la mia, che dovrebbe andare a 2560x1440@120Hz se usata come monitor.
Ma di sicuro meglio la FullHD@4K per via del rapporto preciso, d'altronde cosa che credo già facciamo in molti con lo streaming di Netflix e simili quando la fonte è appunto FullHD.

EDIT: @Alekos
QUESTA (https://www.nvidia.com/en-us/geforce/news/g-sync-compatible-2019-lg-tv-available-now//) l'hai letta? Se vedi non toccano nulla nel pannello nvidia a livello di colore ma danno dei consigli di setting per la tv.

Vista ora, ma non dice nulla di che. Spiega solo i semplici passi per attivare il Gsync.
Cmq sto facendo qualche ricerca sul web e su altri forum specializzati. Non ho trovato conferma rispetto a quanto sostenuto dall'amico GabrySP. Qualcuno usa RGB full, qualcuno ycbcr 4:4:4 8bit, qualcun altro preferisce usare 4:2:2 12 bit.
Cmq siamo OT, continuiamo nel thread degli Oled.

TigerTank
17-12-2019, 15:22
se riesci, puoi provare anche come ti va la funzione GPU scaling dei driver recenti? non ho capito ancora bene se quella funzione realmente MIGLIORA l'upscaling

Magari chi usa già una tv come monitor potrebbe provare a vedere le differenze. A me pare una sorta di equivalente del DLSS con il ray tracing.

Mi ero segnato questa nota:

How to Enable GPU Upscale​

You can use your GPU to render at a lower resolution and scale to native for higher performance. To set up image sharpening globally for all games, go to the NVIDIA Control Panel > Manage 3D Settings > Global Settings > Image Sharpening > and select "GPU Scaling"

Once upscaling is enabled, all resolutions at or below your native resolution will be upscaled by the GPU. For instance, if you have a 2560x1440 display, but set your game resolution to 1920x1080 because the game is too demanding for your current GPU, we’ll upscale the game’s graphics to 2560x1440 using a high-quality scaler, and then add a dose of sharpening to improve clarity of upscaled images.

In pratica su tv 4K genererebbe un 4K a risparmio sulla base della risoluzione più bassa settata nel gioco.

@Alekos: nel caso in cui a 2560x1440(per usufruire dei 120Hz) upscala male, hai provato a settare i drivers nvidia a "senza proporzionamento"? Cioè 2560x1440 reali in 1:1 con le bande nere intorno. Su una 55" l'immagine dovrebbe comunque essere bella grandina :D
In teoria usando questo sistema si dovrebbe poter provare anche a settare una 21:9 custom da 3440x1440 con effetto ultrawide.

Alekos Panagulis
17-12-2019, 15:29
@Aleikos: nel caso in cui a 2560x1440(per usufruire dei 120Hz) upscala male, hai provato a settare i drivers nvidia a "senza proporzionamento"? Cioè 2560x1440 reali in 1:1 con le bande nere intorno. Su una 55" l'immagine dovrebbe comunque essere bella grandina :D
In teoria usando questo sistema si dovrebbe poter provare a settare una 21:9 custom da 3440x1440 con effetto ultrawide.

What? :mbe:
Non ci penso proprio! :banned:

TigerTank
17-12-2019, 15:38
What? :mbe:
Non ci penso proprio! :banned:

Ahahahah eh il pcista in caso di situazioni problematiche deve sapersi riadattare :D
Comunque se con qualche mattone ti va di fare un pò di prove con l'opzione gpu scaling, facci sapere ;)

Alekos Panagulis
17-12-2019, 15:56
Ahahahah eh il pcista in caso di situazioni problematiche deve sapersi riadattare :D
Comunque se con qualche mattone ti va di fare un pò di prove con l'opzione gpu scaling, facci sapere ;)

Proverò!

Thunder-74
18-12-2019, 10:10
NVIDIA svela la tecnologia Raytracing in arrivo su Ring of Elysium, Boundary e altri giochi


Ring of Elysium (VIDEO (https://youtu.be/ptHhbnuQj9U))


Boundary:

https://cdn.wccftech.com/wp-content/uploads/2019/12/1-RTXON-1030x579.jpg



Bright Memory Infinite: (VIDEO (https://youtu.be/UG9MkMRBV1w))


Project X:

https://cdn.wccftech.com/wp-content/uploads/2019/12/project-x-kv-1030x579.jpg


Convallaria:

https://cdn.wccftech.com/wp-content/uploads/2019/12/Convallaria-Screenshot-1211201902-1030x579.jpg https://cdn.wccftech.com/wp-content/uploads/2019/12/Convallaria-Screenshot-1211201903-1030x579.jpg

FIST: (VIDEO (https://youtu.be/RL0kxMio84M))


Xuan-Yuan Sword VII: (VIDEO (https://youtu.be/ApcPmu8oyrE))


FONTE (https://wccftech.com/nvidia-unveils-raytracing-technology-coming-to-ring-of-elysium-boundary-and-other-games/)

al135
18-12-2019, 10:27
NVIDIA svela la tecnologia Raytracing in arrivo su Ring of Elysium, Boundary e altri giochi


Ring of Elysium (VIDEO (https://youtu.be/ptHhbnuQj9U))


Boundary:

https://cdn.wccftech.com/wp-content/uploads/2019/12/1-RTXON-1030x579.jpg



Bright Memory Infinite: (VIDEO (https://youtu.be/UG9MkMRBV1w))


Project X:

https://cdn.wccftech.com/wp-content/uploads/2019/12/project-x-kv-1030x579.jpg


Convallaria:

https://cdn.wccftech.com/wp-content/uploads/2019/12/Convallaria-Screenshot-1211201902-1030x579.jpg https://cdn.wccftech.com/wp-content/uploads/2019/12/Convallaria-Screenshot-1211201903-1030x579.jpg

FIST: (VIDEO (https://youtu.be/RL0kxMio84M))


Xuan-Yuan Sword VII: (VIDEO (https://youtu.be/ApcPmu8oyrE))


FONTE (https://wccftech.com/nvidia-unveils-raytracing-technology-coming-to-ring-of-elysium-boundary-and-other-games/)

gioco nello spazio + OLED
:oink: :oink: :oink: :oink:

TigerTank
18-12-2019, 11:10
Il parco giochi da preparare per l'arrivo della serie 3000! :D
Mmm Convallaria solito problema...dagli screenshots sopra purtroppo sembra che pur di esaltare il ray tracing sforino un pò troppo nel "tutto lindo e pulito" al punto da diventare troppo irreale :D

Alekos Panagulis
18-12-2019, 11:19
Si però raga, non si può. Già sto male all'idea che l'anno prossimo ci saranno da tirare fuori altre 1300 euro. Cercherò di resistere ma so già che la scimmia alla fine vincerà.
Amd deve tornare ad essere competitiva, Nvidia ci sta massacrando.


Inviato dal mio Mi 9T utilizzando Tapatalk

FrancoBit
18-12-2019, 11:24
Certo che nel mondo RTX è tutto vetro e marmo. Piove sempre poi :Prrr:

TigerTank
18-12-2019, 12:40
Si però raga, non si può. Già sto male all'idea che l'anno prossimo ci saranno da tirare fuori altre 1300 euro. Cercherò di resistere ma so già che la scimmia alla fine vincerà.
Amd deve tornare ad essere competitiva, Nvidia ci sta massacrando.


Nessuno ti obbliga. Sinceramente se così fosse, prenderò di nuovo una X80 e amen :D

al135
18-12-2019, 12:47
Nessuno ti obbliga. Sinceramente se così fosse, prenderò di nuovo una X80 e amen :D

La scimmia obbliga eccome! Decide tutto lei :O

razor820
18-12-2019, 13:49
Io ancora sono perplesso riguardo al progetto a lungo termine della tecnologia rtx.. credo che avrà vita breve, specialmente quando usciranno le nuove consolle e finalmente ci sarà uno stravolgimento grafico in generale.. Quindi se ancora ci sono grossi problemi con la risoluzione 2160p a 60fps su molti titoli con rtx disattivato, con i nuovi motori grafici quante serie 30xx dovremmo avere in sli per ottenere un risultato decente in 4K con rtx attivato?

djmatrix619
18-12-2019, 14:06
Certo che nel mondo RTX è tutto vetro e marmo. Piove sempre poi :Prrr:

Come nei Need For Speed... cosí possono mostrare i magnifici riflessi da woaaaaah!

al135
18-12-2019, 14:34
Io ancora sono perplesso riguardo al progetto a lungo termine della tecnologia rtx.. credo che avrà vita breve, specialmente quando usciranno le nuove consolle e finalmente ci sarà uno stravolgimento grafico in generale.. Quindi se ancora ci sono grossi problemi con la risoluzione 2160p a 60fps su molti titoli con rtx disattivato, con i nuovi motori grafici quante serie 30xx dovremmo avere in sli per ottenere un risultato decente in 4K con rtx attivato?

la tecnologia rtx delle schede permette di avere hardware dedicato per il ray tracing che effettivamente risulta essere molto pesante da gestire... credo che per diversi sara' cosi. le nuove console non saranno altro che console con hardware del 2018, quindi non ci saranno chissa quali stravolgimenti... probabilmente avremo una maggior resa grafica in 4k e rtx attivato nel giro di un paio d'anni...

fraussantin
18-12-2019, 14:36
scaldate le rtx

https://www.youtube.com/watch?v=-_4QaWbntUQ

Peter.B
18-12-2019, 14:37
Si però raga, non si può. Già sto male all'idea che l'anno prossimo ci saranno da tirare fuori altre 1300 euro. Cercherò di resistere ma so già che la scimmia alla fine vincerà.
Amd deve tornare ad essere competitiva, Nvidia ci sta massacrando.


Inviato dal mio Mi 9T utilizzando Tapatalk

Io invece sono abbastanza sicuro che la 3080 Ti la vedremo nel 2021 e il prossimo anno uscirà la 3080, in oltre c'è sempre la speranza che la serie 3000 arrivi ad un prezzo un po' più basso della 2000.

FrancoBit
18-12-2019, 14:52
Io ho una coda di scimmie alla porta di casa, comunque per quanto mi riguarda dovrò prima fare upgrade alla piattaforma (i7-7700k).
Per la scheda video penso che aspetterò fino al 2021, primo perchè non ho intenzione di farmi spennare per pagare hardware praticamente inutilizzato (parlo dei TensorCores), secondo perchè dovrò affrontare una bella spesa per rinnovare anche l'impianto a liquido oltre all'idea di beccare ryzen 4000 (con x670) verso il periodo natale 2020.

Peter.B
18-12-2019, 14:57
Io alla 3080 passo sicuro, più che altro perché la mia 2080 so che crollerà per il 4K ed è la risoluzione a cui gioco, non ho dubbi però che riuscirebbe a durare ancora altri due anni in 2K, ma ormai in 2K non ci voglio giocare più. Comunque, prima devo sganciare per la nuova piattaforma con 3900X e 32GB 3600MHz, che sicuramente mi terranno botta per tutta la prossima generazione di giochi, quindi su quel fronte sono parato. Cosa cerco ora dalla prossima 3080, sicuramente 16GB di VRAM, e un 30% di performance sull'attuale Ti, con questi parametri il 4K me lo dovrei assicurare per i prossimi 3 anni.

mattxx88
18-12-2019, 15:00
Io alla 3080 passo sicuro, più che altro perché la mia 2080 so che crollerà per il 4K ed è la risoluzione a cui gioco, non ho dubbi però che riuscirebbe a durare ancora altri due anni in 2K, ma ormai in 2K non ci voglio giocare più. Comunque, prima devo sganciare per la nuova piattaforma con 3900X e 32GB 3600MHz, che sicuramente mi terranno botta per tutta la prossima generazione di giochi, quindi su quel fronte sono parato. Cosa cerco ora dalla prossima 3080, sicuramente 16GB di VRAM, e un 30% di performance sull'attuale Ti, con questi parametri il 4K me lo dovrei assicurare per i prossimi 3 anni.

secondo me una 2080Ti + 30% delle performance e sperare di durare 3 anni in 4k, la fai troppo ottimistica

Hai visto cosa sta preparando la nextgen di console? e siamo appena agli albori, nel 2021/2 secondo me vedremo bei mattonazzi

al135
18-12-2019, 15:01
Io alla 3080 passo sicuro, più che altro perché la mia 2080 so che crollerà per il 4K ed è la risoluzione a cui gioco, non ho dubbi però che riuscirebbe a durare ancora altri due anni in 2K, ma ormai in 2K non ci voglio giocare più. Comunque, prima devo sganciare per la nuova piattaforma con 3900X e 32GB 3600MHz, che sicuramente mi terranno botta per tutta la prossima generazione di giochi, quindi su quel fronte sono parato. Cosa cerco ora dalla prossima 3080, sicuramente 16GB di VRAM, e un 30% di performance sull'attuale Ti, con questi parametri il 4K me lo dovrei assicurare per i prossimi 3 anni.

io aspetto a passetto per le due 3080 msi sea hawk ek :D :D :D

Alekos Panagulis
18-12-2019, 15:03
Io invece sono abbastanza sicuro che la 3080 Ti la vedremo nel 2021 e il prossimo anno uscirà la 3080, in oltre c'è sempre la speranza che la serie 3000 arrivi ad un prezzo un po' più basso della 2000.

Aspetta e spera.
La serie 3000 avrà un prezzo umano solo se Amd sarà competitiva.
Avete presente il flop che è stata Radeon VII? Bene, quello è il motivo per cui Nvidia ci ha spennato.

mikael84
18-12-2019, 15:06
Io ancora sono perplesso riguardo al progetto a lungo termine della tecnologia rtx.. credo che avrà vita breve, specialmente quando usciranno le nuove consolle e finalmente ci sarà uno stravolgimento grafico in generale.. Quindi se ancora ci sono grossi problemi con la risoluzione 2160p a 60fps su molti titoli con rtx disattivato, con i nuovi motori grafici quante serie 30xx dovremmo avere in sli per ottenere un risultato decente in 4K con rtx attivato?

Considera che le console dai dati saranno delle 2080/s se ben sfruttate, quindi 3060 l'anno prossimo. Ed i primi giochi di nuova gen, saranno pochi, e nel 2022 debutteranno i chip MCM sino ad 8196 cuda.
Diciamo che il salto serve, altrimenti le prossime schede sui crossgen, su alcune risoluzioni saranno inutili.:)

Io alla 3080 passo sicuro, più che altro perché la mia 2080 so che crollerà per il 4K ed è la risoluzione a cui gioco, non ho dubbi però che riuscirebbe a durare ancora altri due anni in 2K, ma ormai in 2K non ci voglio giocare più. Comunque, prima devo sganciare per la nuova piattaforma con 3900X e 32GB 3600MHz, che sicuramente mi terranno botta per tutta la prossima generazione di giochi, quindi su quel fronte sono parato. Cosa cerco ora dalla prossima 3080, sicuramente 16GB di VRAM, e un 30% di performance sull'attuale Ti, con questi parametri il 4K me lo dovrei assicurare per i prossimi 3 anni.

Ora che pure Micron ha lanciato la doppia densità, se si rimane a 256bit la serie x80 avrà 16gb, mentre la serie x80ti 22/24.
Sempre che per non passino ai bus maggiorati, che sarebbe ormai vitale.

FrancoBit
18-12-2019, 15:07
Noto che comunque per la parte CPU-MAIN-RAM la maggior parte migrerà su AMD, che bello avere la possibilità di scegliere. Vorrei questa possibilità anche per il comparto video, ma nel breve la vedo ancora dura x AMD.

Peter.B
18-12-2019, 15:07
Voglio illudermi di tempi migliori :mc: però Nvidia ci ha spennato ancora prima di Radeon VII, a ottobre-novembre 2018 ricordiamo tutti quanto costavano le 2080/Ti, con gli 850 euro che spesi per la liscia, fossero stati altri tempi avrei preso la Ti, e invece paghiamo una mancata concorrenza che dura da troppo tempo.

rob-roy
18-12-2019, 15:09
Sono lontani i tempi della 8800 GT con prestazioni quasi TOP a prezzo basso...:(

Ma allora esisteva ATI (pace all'anima sua)
AMD non ce la farà mai a recuperare il gap secondo me, perchè ha investito solo in ambito CPU.

Peter.B
18-12-2019, 15:12
Ora che pure Micron ha lanciato la doppia densità, se si rimane a 256bit la serie x80 avrà 16gb, mentre la serie x80ti 22/24.
Sempre che per non passino ai bus maggiorati, che sarebbe ormai vitale.

Voglio dare per scontato che Nvidia ci venderà la x80 con 16GB, ci mancherebbe pure, ora come ora solo la Radeon VII ne ha tanta, però crollerà anche lei visto che ha la potenza di calcolo della 2080. Certo, c'è anche da dire che per il primo anno i giochi saranno cross-gen, meno esosi in richieste, quindi potrebbero pure non uscire chissà che mattonazzi, cosa che mi aspetto nel 2021 inoltrato in poi ovviamente. In effetti mi sta proprio ora venendo il dubbio di cambiare GPU l'anno prossimo o aspettare il 2021 dove i giochi inizieranno a farsi davvero più pesanti, magari prendendo la futura Ti, se torneranno alla tempistica di Pascal.

Alekos Panagulis
18-12-2019, 15:27
Sono lontani i tempi della 8800 GT con prestazioni quasi TOP a prezzo basso...:(

Ma allora esisteva ATI (pace all'anima sua)
AMD non ce la farà mai a recuperare il gap secondo me, perchè ha investito solo in ambito CPU.

Prima o poi succederà. Nessuno poteva immaginare solo 2 anni fa che AMD avrebbe umiliato Intel.

rob-roy
18-12-2019, 15:32
Prima o poi succederà. Nessuno poteva immaginare solo 2 anni fa che AMD avrebbe umiliato Intel.

AMD però ci ha messo anni a raggiungere e superare intel.
In ambito VGA la vedo ancora indietro purtroppo...e ormai è dai tempi della 7970 che prende sberle da nvidia.

Peter.B
18-12-2019, 15:35
Dopo la 7970 il nulla, certo anche Nvidia tirò fuori una serie 700 scadente ma si riprese alla grande con la serie 900 e fino ad ora sta andando alla grande.

rob-roy
18-12-2019, 15:43
Quindi dall'acquisizione da parte di AMD.
E' ormai chiaro come AMD non abbia le risorse per competere su due fronti, quindi OK le CPU,ma le GPU solo come seconda fascia.

mikael84
18-12-2019, 15:48
Sono lontani i tempi della 8800 GT con prestazioni quasi TOP a prezzo basso...:(

Ma allora esisteva ATI (pace all'anima sua)
AMD non ce la farà mai a recuperare il gap secondo me, perchè ha investito solo in ambito CPU.

AMD se avesse veramente voluto, avrebbe potuto dare una tranvata ad nvidia devastante già da questa serie.:)
Con 15-20mm2 in più (un 425mm2 nvidia circa) e l'adozione delle HC16 di samsung, poteva lanciare una simil 2080s al prezzo delle 5700xt.

Nvidia sarebbe andata in crisi totale.

Voglio dare per scontato che Nvidia ci venderà la x80 con 16GB, ci mancherebbe pure, ora come ora solo la Radeon VII ne ha tanta, però crollerà anche lei visto che ha la potenza di calcolo della 2080. Certo, c'è anche da dire che per il primo anno i giochi saranno cross-gen, meno esosi in richieste, quindi potrebbero pure non uscire chissà che mattonazzi, cosa che mi aspetto nel 2021 inoltrato in poi ovviamente. In effetti mi sta proprio ora venendo il dubbio di cambiare GPU l'anno prossimo o aspettare il 2021 dove i giochi inizieranno a farsi davvero più pesanti, magari prendendo la futura Ti, se torneranno alla tempistica di Pascal.

Molto dipenderà da quanto viaggerà la x80 liscia e dalle rese per il chippone.
Riguardo la memoria, molto dipenderà dai bus.
Ricordiamoci che le gpu gaming deriveranno dalle quadro.
Con le prime tesla HPC di marzo, dovremmo capire qualcosa in più.

mattxx88
18-12-2019, 15:50
per non parlare del fatto che è sempre meglio muoversi con i piedi di piombo ora con nvidia, sta serie fra chip A/non A, schede morte come farfalle, versioni S che nessuno si aspettava (che fossi io possessore di una 2080 avrei ancora l'ano arrossato), prezzi imbarazzanti, nah ne han fatte di cotte e di crude per dargli fiducia al day1

Alekos Panagulis
18-12-2019, 15:50
AMD se avesse veramente voluto, avrebbe potuto dare una tranvata ad nvidia devastante già da questa serie.:)
Con 15-20mm2 in più (un 425mm2 nvidia circa) in più e l'adozione delle HC16 di samsung, poteva lanciare una simil 2080s al prezzo delle 5700xt.

Nvidia sarebbe andata in crisi totale.



Molto dipenderà da quanto viaggerà la x80 liscia e dalle rese per il chippone.
Riguardo la memoria, molto dipenderà dai bus.
Ricordiamoci che le gpu gaming deriveranno dalle quadro.
Con le prime tesla HPC di marzo, dovremmo capire qualcosa in più.Ah quindi secondo te Amd non ha voluto. Secondo quale logica?

Inviato dal mio Mi 9T utilizzando Tapatalk

mikael84
18-12-2019, 15:59
per non parlare del fatto che è sempre meglio muoversi con i piedi di piombo ora con nvidia, sta serie fra chip A/non A, schede morte come farfalle, versioni S che nessuno si aspettava (che fossi io possessore di una 2080 avrei ancora l'ano arrossato), prezzi imbarazzanti, nah ne han fatte di cotte e di crude per dargli fiducia al day1

Sulle Super me l'aspettavo, ne parlavo sempre. In quanto a sto giro hanno lanciato una miriade di scarti, con AMD che doveva ancora rispondere.
La 2080 super è il chip full della quadro, mai successo che nel x04 nvidia lanciasse già un chip decurtato.
Mentre la 2070 super, era un chip già venduto come tesla.:)

Ah quindi secondo te Amd non ha voluto. Secondo quale logica?

Inviato dal mio Mi 9T utilizzando Tapatalk

Non c'è una vera logica, saranno state strategie loro. Probabilmente hanno puntato all'IPC della x70 e via.
Tuttavia bastava solo un chip un pelino più grande, dalle spese die irrisorie (quasi nulle) per portare una simil 2080/s a 400 euro.
15/20mm2 di chip.

Diverso dalla 2080ti dove si dovevano affidare alle hbm2, ed un chip ben più massiccio.

mattxx88
18-12-2019, 16:25
Sulle Super me l'aspettavo, ne parlavo sempre. In quanto a sto giro hanno lanciato una miriade di scarti, con AMD che doveva ancora rispondere.
La 2080 super è il chip full della quadro, mai successo che nel x04 nvidia lanciasse già un chip decurtato.
Mentre la 2070 super, era un chip già venduto come tesla.:)

eh ma te che hai un bel pò di competenza in materia... io da consumatore "standard" son caduto dalle nuvole
E mi brucerebbe non poco vedermi uscire una 2080TiS, o meglio, mi sarebbe bruciato, perchè ormai arrivati alle porte del 2020 possono lanciare quello che vogliono, non guardo ad altro che la nuova serie

al135
18-12-2019, 16:26
eh ma te che hai un bel pò di competenza in materia... io da consumatore "standard" son caduto dalle nuvole
E mi brucerebbe non poco vedermi uscire una 2080TiS

a me no, anzi magari, me rivendo prima che esce la 2080ti e me faccio la super :sofico:
l'anno scorso sono stato con l'integrata per qualche settimana, la gloriosissima intel hd e riuscivo a fare 90fps a cod black ops in 2k :asd:

razor820
18-12-2019, 16:32
Se non vuoi perdere tanti soldi dovresti restare con L integrata per mesi... :D
Perché dubito quando si saprà l’uscita delle 30xx gli utenti spenderebbero l’equivalente di una 3080 nuova per una 2080ti usata...

Io ho fatto sempre così, o vendo molto prima i vendo molto dopo... Ma in corrispondenza dell’uscita di un nuovo prodotto. Così come per altri prodotti

al135
18-12-2019, 16:42
Se non vuoi perdere tanti soldi dovresti restare con L integrata per mesi... :D
Perché dubito quando si saprà l’uscita delle 30xx gli utenti spenderebbero l’equivalente di una 3080 nuova per una 2080ti usata...

Io ho fatto sempre così, o vendo molto prima i vendo molto dopo... Ma in corrispondenza dell’uscita di un nuovo prodotto. Così come per altri prodotti

si, pero' considera che ho testato che molta gente non è ben informata e compra per diversi motivi, per la fretta di accaparrarsi la scheda etetc...
diciamo con un pizzico di fortuna ce la fai :D

Alekos Panagulis
18-12-2019, 16:56
Non c'è una vera logica, saranno state strategie loro. Probabilmente hanno puntato all'IPC della x70 e via.
Tuttavia bastava solo un chip un pelino più grande, dalle spese die irrisorie (quasi nulle) per portare una simil 2080/s a 400 euro.
15/20mm2 di chip.

Diverso dalla 2080ti dove si dovevano affidare alle hbm2, ed un chip ben più massiccio.

Sinceramente faccio fatica a credere a questa interpetazione. Soprattutto, farebbero fatica a crederci gli azionisti di AMD. Vallo a dire a loro che AMD avrebbe potuto fare investimenti "irrisori", "quasi nullli", per sfornare un chip che - piazzato a 400 euro - avrebbe distrutto Nvidia :asd:
Fantascienza.

Peter.B
18-12-2019, 16:59
Se non vuoi perdere tanti soldi dovresti restare con L integrata per mesi... :D
Perché dubito quando si saprà l’uscita delle 30xx gli utenti spenderebbero l’equivalente di una 3080 nuova per una 2080ti usata...

Io ho fatto sempre così, o vendo molto prima i vendo molto dopo... Ma in corrispondenza dell’uscita di un nuovo prodotto. Così come per altri prodotti

In effetti se prenderò la 3080 mi farebbe comodo rivendere la 2080, ma a vedere quando, in effetti per non doverla rivendere a due spicci ci sarebbe da rivenderla mesi prima...

FrancoBit
18-12-2019, 17:12
Sinceramente faccio fatica a credere a questa interpetazione. Soprattutto, farebbero fatica a crederci gli azionisti di AMD. Vallo a dire a loro che AMD avrebbe potuto fare investimenti "irrisori", "quasi nullli", per sfornare un chip che - piazzato a 400 euro - avrebbe distrutto Nvidia :asd:
Fantascienza.

Be gli azionisti AMD quest'anno hanno di chè festeggiare (18$ a inizio anno - 42,60$ oggi), eccome :D . Poi da un punto di vista prestazionale sono d'accordo, ma Mikael84 lo leggo sempre con piacere xchè ha una super competenza. Magari non vogliono scaricare tutti i colpi contemporaneamente, potrebbero iniziare a dedicarsi alle GPU quando la parte CPU sarà meno frenetica nello sviluppo, nel frattempo affinano senza fare particolari colpi.

mikael84
18-12-2019, 17:51
eh ma te che hai un bel pò di competenza in materia... io da consumatore "standard" son caduto dalle nuvole
E mi brucerebbe non poco vedermi uscire una 2080TiS, o meglio, mi sarebbe bruciato, perchè ormai arrivati alle porte del 2020 possono lanciare quello che vogliono, non guardo ad altro che la nuova serie

Lo capisco, tempo fa avevo preso la 780 3 settimane prima della TI.:)

Sinceramente faccio fatica a credere a questa interpetazione. Soprattutto, farebbero fatica a crederci gli azionisti di AMD. Vallo a dire a loro che AMD avrebbe potuto fare investimenti "irrisori", "quasi nullli", per sfornare un chip che - piazzato a 400 euro - avrebbe distrutto Nvidia :asd:
Fantascienza.

Il fatto è che ad AMD interessava solo una mid per la fascia medio bassa, e non concorre su più fronti.

Tuttavia, elettronicamente la differenza è di 4 DCU (ovvero 512 shader).
Questi shader stanno in circa 15 mm2

Quindi il die passava da 251 (400mm2 nvidia) a 265 circa (430 nvidia), ovvero stamparlo quasi nulla. A questo aggiungici ovviamente qualche transistor per alimentare gli shader (poca roba).
Tutto qua.
Ecco che volendo AMD poteva facilmente tenere la 2080/s a prezzi ridicoli per una simile serie.
Totalmente diverso per la versione 2080ti.

Chiaro che da copione odierno, se avesse fatto un chip di base simil 2080/s, te lo avrebbe fatto pagare 200 euro in più, ormai si va a rincorsa.;)

frankjr1
18-12-2019, 18:29
ma un 3d dove potersi sfogare, e scrivere tutto quello che la scimmia chiede... c'è già?
forse è utile, na roba tipo alcolisti anonimi che si raccontano :cry:

Io c'ho una belva di scimmia, che attende il primo 32" ips 4k 144hz g sync flat FALD dolby vision HDR.
praticamente il PA32UCG ma con gsync, che costerebbe 10k credo

non la ferma nessuno sta scimmia!!!!!

illidan2000
19-12-2019, 08:51
ma un 3d dove potersi sfogare, e scrivere tutto quello che la scimmia chiede... c'è già?
forse è utile, na roba tipo alcolisti anonimi che si raccontano :cry:

Io c'ho una belva di scimmia, che attende il primo 32" ips 4k 144hz g sync flat FALD dolby vision HDR.
praticamente il PA32UCG ma con gsync, che costerebbe 10k credo

non la ferma nessuno sta scimmia!!!!!

si, siamo un po' dipendenti dall'hardware in effetti....

FrancoBit
19-12-2019, 08:58
Giusto ieri scrivevop che sarei stato tranquillo fino a dicembre 2020. Bene ieri mi chiama un amico, che finalmente si è deciso a cambiare l'ormai vetusta 980, mi chiede consiglio, puntava alla 2070 super. Mi fermo e penso che la mia 2080 gaming OC è praticamente l'unico modello al mondo a cui non posso piazzare un waterblock "ufficialmente" compatibile. Così gli dico, "prendi la mia, te la sgancio a 550€"! Lui accetta, io mi fiondo on line e ordino la DUAL-RTX2080S-O8G-EVO il waterblock quantum rgb della ek, backplate e le robine per inserirla nel loop. E oggi son qui a fare F5 sulla pagina dello shop, pronto a rompergli i marroni pregando di poter andare già sabato a ritirare il tutto. Oltretutto ha le memorie samsung ;-)

TigerTank
19-12-2019, 09:14
Giusto ieri scrivevop che sarei stato tranquillo fino a dicembre 2020. Bene ieri mi chiama un amico, che finalmente si è deciso a cambiare l'ormai vetusta 980, mi chiede consiglio, puntava alla 2070 super. Mi fermo e penso che la mia 2080 gaming OC è praticamente l'unico modello al mondo a cui non posso piazzare un waterblock "ufficialmente" compatibile. Così gli dico, "prendi la mia, te la sgancio a 550€"! Lui accetta, io mi fiondo on line e ordino la DUAL-RTX2080S-O8G-EVO il waterblock quantum rgb della ek, backplate e le robine per inserirla nel loop. E oggi son qui a fare F5 sulla pagina dello shop, pronto a rompergli i marroni pregando di poter andare già sabato a ritirare il tutto. Oltretutto ha le memorie samsung ;-)

Cioè in pratica hai speso non poco di differenza per fare un "sidegrade" a fine generazione :D
Questa sì che è scimmia :sofico:

FrancoBit
19-12-2019, 09:46
Cioè in pratica hai speso non poco di differenza per fare un "sidegrade" a fine generazione :D
Questa sì che è scimmia :sofico:

Lo so sono patologico, ma è da 13 mesi che volevo liquidare la scheda video azzz. Per forza di cose me la dovrò tener almento fino al 2021 visto che dovrò prima cambiare piattaforma x passare a amd. Speriamo di tenerla a bada per un po' :mc:

Teamprotein
19-12-2019, 10:14
.

illidan2000
19-12-2019, 16:10
si, siamo un po' dipendenti dall'hardware in effetti....
Lo so sono patologico, ma è da 13 mesi che volevo liquidare la scheda video azzz. Per forza di cose me la dovrò tener almento fino al 2021 visto che dovrò prima cambiare piattaforma x passare a amd. Speriamo di tenerla a bada per un po' :mc:
:sofico:

Thunder-74
19-12-2019, 17:18
Per chi dice che PhysX è morto...

NVIDIA PhysX 5.0 In arrivo nel 2020, supporta FEM per la fisica deformabile

PhysX 5.0 è stato annunciato da NVIDIA come disponibile "presto nel 2020". Secondo i produttori di GeForce, questa nuova versione dell'SDK del middleware per la fisica ( che è diventata open source circa un anno fa ) introduce il supporto per un "framework di simulazione delle particelle unificato".

Inoltre, tra le nuove funzionalità elencate da NVIDIA per PhysX 5.0, c'è la tecnica di simulazione FEM che AMD sta usando anche nel suo FEMFX annunciato di recente . Sembra che i giochi stiano per ottenere molta fisica deformabile.


VIDEO (https://youtu.be/QuKBZlRFpiA)

mattxx88
19-12-2019, 17:33
Per chi dice che PhysX è morto...

NVIDIA PhysX 5.0 In arrivo nel 2020, supporta FEM per la fisica deformabile

PhysX 5.0 è stato annunciato da NVIDIA come disponibile "presto nel 2020". Secondo i produttori di GeForce, questa nuova versione dell'SDK del middleware per la fisica ( che è diventata open source circa un anno fa ) introduce il supporto per un "framework di simulazione delle particelle unificato".

Inoltre, tra le nuove funzionalità elencate da NVIDIA per PhysX 5.0, c'è la tecnica di simulazione FEM che AMD sta usando anche nel suo FEMFX annunciato di recente . Sembra che i giochi stiano per ottenere molta fisica deformabile.


VIDEO (https://youtu.be/QuKBZlRFpiA)

Tutto figo e bello, ma se poi la lista giochi che lo supporta (ha supportato, durante questi anni) è QUESTA (https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support)(ammesso e non concesso sia affidabile come elenco)... parliamo di 1 o 2 giochi l'anno :stordita:

Thunder-74
19-12-2019, 17:55
Tutto figo e bello, ma se poi la lista giochi che lo supporta (ha supportato, durante questi anni) è QUESTA (https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support)(ammesso e non concesso sia affidabile come elenco)... parliamo di 1 o 2 giochi l'anno :stordita:

La cosa che mi fa pensare che forse avrà un uso più intenso è questa:

...tra le nuove funzionalità elencate da NVIDIA per PhysX 5.0 c'è la tecnica di simulazione FEM che AMD sta usando anche nel suo FEMFX annunciato di recente...

EDIT:


Deliver Us The Moon gains Ray-Traced Effects and DLSS Support - RTX On

Oggi, Deliver us the Moon ha ottenuto il supporto per le funzionalità RTX di Nvidia, utilizzando Unreal Engine 4. Con l'aiuto di Nvidia, Deliver Us The Moon ha ottenuto il supporto per raytracing e DLSS, con Nvidia che promette la sua migliore implementazione di DLSS fino ad oggi.
Con l'hardware grafico RTX di Nvidia, Deliver Us to The Moon ora supporta i riflessi opachi ray-tracing, i riflessi trasparenti ray-tracing e le ombre ray-tracing. Queste modifiche possono avere un effetto trasformativo sul gioco e con DLSS il gioco può funzionare a 4K 60FPS su un RTX 2080 Ti con impostazioni massime.

VIDEO (https://youtu.be/BybhhJpgz6k)

FrancoBit
20-12-2019, 13:16
Ragazzi, domanda da nubbione.
Ho staccato stamattina la scheda video per consegnarla al mio amico, senza disinstallare i driver e senza disinstallare MSI afterburner (coi settaggi salvati sul profilo e ovviamente avvio all'apertura di Win). Quando domani attaccherò la scheda nuova, se non facessi nulla prima (non ho tempo e voglia di mettere hdmi all'uscita dell'integrata) potrebbe causare problemi il fatto di non aver disinstallato i driver e MSI afterburner? Cioè con una scheda diversa non è che i parametri di afterburner subentrano sulla nuova, dovrebbe "accorgersi" che la scheda è un'altra giusto? Scusate ma ho sto pensiero,
grazie

mattxx88
20-12-2019, 13:34
Ragazzi, domanda da nubbione.
Ho staccato stamattina la scheda video per consegnarla al mio amico, senza disinstallare i driver e senza disinstallare MSI afterburner (coi settaggi salvati sul profilo e ovviamente avvio all'apertura di Win). Quando domani attaccherò la scheda nuova, se non facessi nulla prima (non ho tempo e voglia di mettere hdmi all'uscita dell'integrata) potrebbe causare problemi il fatto di non aver disinstallato i driver e MSI afterburner? Cioè con una scheda diversa non è che i parametri di afterburner subentrano sulla nuova, dovrebbe "accorgersi" che la scheda è un'altra giusto? Scusate ma ho sto pensiero,
grazie

Nah, quando flasho bios diversi alla mia gpu spesso mi sono dimenticato di disattivare l'oc di afterburner e non è mai successo nulla
al max gli devi ridare l'oc se era via curva

NAP.
20-12-2019, 13:34
Tutto sbagliato, dovevi disinstallare i driver ed almeno resettare afterburner dicendogli di non avviarsi con windows

mattxx88
20-12-2019, 13:35
Tutto sbagliato, dovevi disinstallare i driver ed almeno resettare afterburner dicendogli di non avviarsi con windows

eccolo :rolleyes:
hai mai provato?

TigerTank
20-12-2019, 13:38
La cosa che mi fa pensare che forse avrà un uso più intenso è questa:

...tra le nuove funzionalità elencate da NVIDIA per PhysX 5.0 c'è la tecnica di simulazione FEM che AMD sta usando anche nel suo FEMFX annunciato di recente...

EDIT:


Deliver Us The Moon gains Ray-Traced Effects and DLSS Support - RTX On

Oggi, Deliver us the Moon ha ottenuto il supporto per le funzionalità RTX di Nvidia, utilizzando Unreal Engine 4. Con l'aiuto di Nvidia, Deliver Us The Moon ha ottenuto il supporto per raytracing e DLSS, con Nvidia che promette la sua migliore implementazione di DLSS fino ad oggi.
Con l'hardware grafico RTX di Nvidia, Deliver Us to The Moon ora supporta i riflessi opachi ray-tracing, i riflessi trasparenti ray-tracing e le ombre ray-tracing. Queste modifiche possono avere un effetto trasformativo sul gioco e con DLSS il gioco può funzionare a 4K 60FPS su un RTX 2080 Ti con impostazioni massime.

VIDEO (https://youtu.be/BybhhJpgz6k)

A me più che altro viene da pensare alla potenza grafica necessaria a muovere su 4K in primis(e magari pure da gaming) un titolo mattone con physx avanzato e ray tracing completo :sofico:
Per il resto solità abilità sensazionalistica di marketing...perchè la frase che ho messo in grassetto è paradossale. Il DLSS non è "4K 60fps" ma una sua approssimazione :D

FrancoBit
20-12-2019, 13:39
Nah, quando flasho bios diversi alla mia gpu spesso mi sono dimenticato di disattivare l'oc di afterburner e non è mai successo nulla
al max gli devi ridare l'oc se era via curva

Ok grazie mille, ovviamente appena monto e avvio, piallo drivers e MSI, thanxx

FrancoBit
20-12-2019, 13:40
Tutto sbagliato, dovevi disinstallare i driver ed almeno resettare afterburner dicendogli di non avviarsi con windows

Spero di no dai, ero di fretta e non ci ho pensato d'oh

Thunder-74
20-12-2019, 14:01
A me più che altro viene da pensare alla potenza grafica necessaria a muovere su 4K in primis(e magari pure da gaming) un titolo mattone con physx avanzato e ray tracing completo :sofico:
Per il resto solità abilità sensazionalistica di marketing...perchè la frase che ho messo in grassetto è paradossale. Il DLSS non è "4K 60fps" ma una sua approssimazione :D



Escamotage per lasciare dettato il 4K, ma stare effettivamente ad una res più bassa :D

Discorso afterburner lasciato con il setting attivo all avvio....

.... zero problemi, anche quando l oc fosse spinto e non sostenuto dalla nuova scheda grafica, non verrebbe applicato fino a quando non esegui un gioco/bench/programma ecc. Che porta la scheda al profilo 3D. Quindi hai tutto il tempo di aprire AB e portare a default il setting ;)


Inviato dal mio iPhone X utilizzando Tapatalk

FrancoBit
20-12-2019, 14:07
Nah, quando flasho bios diversi alla mia gpu spesso mi sono dimenticato di disattivare l'oc di afterburner e non è mai successo nulla
al max gli devi ridare l'oc se era via curva

Escamotage per lasciare dettato il 4K, ma stare effettivamente ad una res più bassa :D

Discorso afterburner lasciato con il setting attivo all avvio....

.... zero problemi, anche quando l oc fosse spinto e non sostenuto dalla nuova scheda grafica, non verrebbe applicato fino a quando non esegui un gioco/bench/programma ecc. Che porta la scheda al profilo 3D. Quindi hai tutto il tempo di aprire AB e portare a default il setting ;)


Inviato dal mio iPhone X utilizzando Tapatalk

Perfetto grazie a tutti!
Scusate ho FATTO CASINO col multiquote, però ho capito come si usa

Sharksg
20-12-2019, 15:46
Ciao a tutti ragazzi dopo l'incubo che ho avuto del cpu limit con il mio i7 7700k... Ho preso i7 9700k :D dovevo farlo.. Era diventato un incubo :eek: volevo chiedervi solo una cosa Anke se fuori OT...ma tra una mobo da gaming o una mobo base ad esempio MSI Z390 A-PRO.. potrebbe influire sul lato prestazioni?? O non cambia niente? Perché dovrei scegliere solo la mobo è attualmente ho solo 100€...grazie :)

Thunder-74
20-12-2019, 16:23
Ciao a tutti ragazzi dopo l'incubo che ho avuto del cpu limit con il mio i7 7700k... Ho preso i7 9700k :D dovevo farlo.. Era diventato un incubo :eek: volevo chiedervi solo una cosa Anke se fuori OT...ma tra una mobo da gaming o una mobo base ad esempio MSI Z390 A-PRO.. potrebbe influire sul lato prestazioni?? O non cambia niente? Perché dovrei scegliere solo la mobo è attualmente ho solo 100€...grazie :)


Le prestazioni sono identiche con tutte le schede madri o comunque variazioni non apprezzabili. Ad oggi molto viene demandato alla cpu compresa la gestione della ram. Quello che varia su una scheda madre è sopratutto la sezione di alimentazione che in caso di oc spinto, non trascurerei. Sopratutto con cpu 8 cores o superiore. Parliamo di quantità e tipo di fasi per garantire corrente stabile e temperature decenti. Il resto sono fronzoli che dipendono dalle necessità del singolo utente: quantità usb, Wi-Fi , scheda lan, chip audio ecc.


Inviato dal mio iPhone X utilizzando Tapatalk

Sharksg
20-12-2019, 16:42
Le prestazioni sono identiche con tutte le schede madri o comunque variazioni non apprezzabili. Ad oggi molto viene demandato alla cpu compresa la gestione della ram. Quello che varia su una scheda madre è sopratutto la sezione di alimentazione che in caso di oc spinto, non trascurerei. Sopratutto con cpu 8 cores o superiore. Parliamo di quantità e tipo di fasi per garantire corrente stabile e temperature decenti. Il resto sono fronzoli che dipendono dalle necessità del singolo utente: quantità usb, Wi-Fi , scheda lan, chip audio ecc.


Inviato dal mio iPhone X utilizzando Tapatalk

Ok, proprio quello che pensavo:) il procio mi arriva domani, per la mobo aspetto dopo natale vedo se posso andare oltre i 100€ in modo da prendere una mobo buona:)

Alekos Panagulis
20-12-2019, 22:14
Ok, proprio quello che pensavo:) il procio mi arriva domani, per la mobo aspetto dopo natale vedo se posso andare oltre i 100€ in modo da prendere una mobo buona:)

Un 9700k? Con l'abbondanza di thread e core a buon mercato da parte di AMD?

Sharksg
21-12-2019, 08:12
Un 9700k? Con l'abbondanza di thread e core a buon mercato da parte di AMD?

A me interessa il gaming e non lavorarci... Amd in games va ancora qualcosina in meno... Preferisco Intel :D

MorrisADsl
21-12-2019, 08:34
Scelta comprensibile, lo fatta anche io. Se uno vuole cavare più frame possibili non ce altra soluzione al momento.

Inviato dal mio SM-N960F utilizzando Tapatalk

Sharksg
21-12-2019, 11:20
Scelta comprensibile, lo fatta anche io. Se uno vuole cavare più frame possibili non ce altra soluzione al momento.

Inviato dal mio SM-N960F utilizzando Tapatalk

Si esatto... Attenzione ritengo le cpu AMD ottime in generale su tutto.. ma io che ho una gpu dal oltre 1000€ perché dovrei perdere qualche frame? Anzi cerco di avere più frame possibili... Ma tu hai ancora i7 7700k? :D solo curiosità visto la scimmia che mi ero messo di cambiarlo per forza :D

razor820
21-12-2019, 12:35
Non è una questione di perdere frame.. anche con una Titan rtx, se quel gioco è cpu bound e sfrutta determinate istruzioni della cpu a favore di un brand, a pari di schede video potrai avere più frame con Intel che con amd. Esempi banali di giochi che si trovano meglio con cpu Intel se ne trovano a bizzeffe su YouTube..

Black"SLI"jack
21-12-2019, 12:57
I bench su YouTube o quelli presi dalla review web, cmq sono da tenere in considerazione ma con le dovute attenzioni. Anche perché spesso i risultati sono completamente diversi a parità di setup.

Molto dipende anche da come sono configurate le varie configurazioni hw. Nel senso che far risultare una piattaforma meglio dell'altra ci vuole poco, come al contempo farle risultare parimerito.

Dipende anche poi dalla risoluzione che uno usa e soprattutto quali settings grafici vengono applicati. Ci sono video dove inneggiano ai settings ultra mega uber sti c...i, poi guardi il video e vedi settings misti.

Sicuramente ci sono games che prediligono più una architettura rispetto all'altra, come frequenze più o meno elevate. Personalmente passare da un 5960x@4ghz ad un 9900k@5ghz, mantenendo a parità la stessa vga con stesse frequenze, gli unici guadagni forse più evidenti sono stati nei frame minimi ma solo in certe situazioni, però parlo di risoluzione 4k maxata. Poi per il resto fatico a vederne la differenza.

Aggiungo una nota. Ho un 3900x e x570 in arrivo, quindi tempo permettendo lo testerò ben bene con la mia 2080ti.
Inviato dal mio LYA-L09 utilizzando Tapatalk

Kostanz77
21-12-2019, 13:06
I bench su YouTube o quelli presi dalla review web, cmq sono da tenere in considerazione ma con le dovute attenzioni. Anche perché spesso i risultati sono completamente diversi a parità di setup.

Molto dipende anche da come sono configurate le varie configurazioni hw. Nel senso che far risultare una piattaforma meglio dell'altra ci vuole poco, come al contempo farle risultare parimerito.

Dipende anche poi dalla risoluzione che uno usa e soprattutto quali settings grafici vengono applicati. Ci sono video dove inneggiano ai settings ultra mega uber sti c...i, poi guardi il video e vedi settings misti.

Sicuramente ci sono games che prediligono più una architettura rispetto all'altra, come frequenze più o meno elevate. Personalmente passare da un 5960x@4ghz ad un 9900k@5ghz, mantenendo a parità la stessa vga con stesse frequenze, gli unici guadagni forse più evidenti sono stati nei frame minimi ma solo in certe situazioni, però parlo di risoluzione 4k maxata. Poi per il resto fatico a vederne la differenza.

Aggiungo una nota. Ho un 3900x e x570 in arrivo, quindi tempo permettendo resterò ben bene con la mia 2080ti.
Inviato dal mio LYA-L09 utilizzando Tapatalk



io sono passato a 3800X da 8700K e sfrutta senza problemi la 2080Ti, anzi per esempio alcuni giochi come BFV mi girano meglio


Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro

Spoiker
21-12-2019, 13:51
io sono passato a 3800X da 8700K e sfrutta senza problemi la 2080Ti, anzi per esempio alcuni giochi come BFV mi girano meglio


Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro

be' un 3800x e a maggior ragione un 3900x sono delle BOMBE!

se uno vuole il top… anche se secondo me già un 3600x in game va benone!

MorrisADsl
21-12-2019, 14:19
Si esatto... Attenzione ritengo le cpu AMD ottime in generale su tutto.. ma io che ho una gpu dal oltre 1000€ perché dovrei perdere qualche frame? Anzi cerco di avere più frame possibili... Ma tu hai ancora i7 7700k? :D solo curiosità visto la scimmia che mi ero messo di cambiarlo per forza :DCiao. devo aggiornare la firma... guarda rispetto al i7 7700k ho notato miglioramenti abbastanza sostanziosi. La 2080ti lavora mooolto meglio.

Inviato dal mio SM-N960F utilizzando Tapatalk

Sharksg
21-12-2019, 20:35
Ciao. devo aggiornare la firma... guarda rispetto al i7 7700k ho notato miglioramenti abbastanza sostanziosi. La 2080ti lavora mooolto meglio.

Inviato dal mio SM-N960F utilizzando Tapatalk

Ah okok, beh credo che i7 9700k é attualmente il migliore processore da gaming in circolazione.... Addirittura ho visto in rete che fa 2-3 frame in più rispetto un i9 9900k

Amorph
21-12-2019, 21:23
io sono passato a 3800X da 8700K e sfrutta senza problemi la 2080Ti, anzi per esempio alcuni giochi come BFV mi girano meglio


Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro

io sono passato da 7900X a 3950X, con 2080ti, sono pienamente soddisfatto dell'upgrade non tanto nei giochi dove va come prima forse un poco meglio, ma con i programmi che uso per lavoro dove la differenza è come dal giorno alla notte tra il vecchio 10core e questo 16core, rispetto al 7900X poi scalda molto meno nonostante l'avevo deliddato l'intel

MorrisADsl
21-12-2019, 23:07
Ah okok, beh credo che i7 9700k é attualmente il migliore processore da gaming in circolazione.... Addirittura ho visto in rete che fa 2-3 frame in più rispetto un i9 9900kSi in alcuni test su determinati giochi e davanti qualche frame. Io ho fatto una scelta future proof. Nel caso si riesca in futuro a sfruttare più risorse del 9900ks sarei già a posto.

Inviato dal mio SM-N960F utilizzando Tapatalk

mikael84
21-12-2019, 23:09
Ah okok, beh credo che i7 9700k é attualmente il migliore processore da gaming in circolazione.... Addirittura ho visto in rete che fa 2-3 frame in più rispetto un i9 9900k

Il 9700k attualmente è la migliore CPU gaming, sopratutto occata.
Il 9900k ha il problema di non essere sfruttato, quindi è difficile collocarlo.
La 2080ti, è un chip collabrodo, fa acqua da tutte le parti ingegneristicamente, la sua vera forza sta nello sfruttare tutti gli shader, quindi o la si utilizza in 4k, RT, oppure spesso, non si riesce a sfruttare al meglio.
Il vero problema, per chi utilizza pannelli a 1440p ad alto refresh, è dato da certi motori come l'unreal engine, o altri particolarmente ostici a certe CPU, ecco che il 9700k riesce a dare quel boost in più nei minimi, nei medi, in qualsiasi motore grafico, anche di serie b.

Sharksg
22-12-2019, 06:45
Si in alcuni test su determinati giochi e davanti qualche frame. Io ho fatto una scelta future proof. Nel caso si riesca in futuro a sfruttare più risorse del 9900ks sarei già a posto.

Inviato dal mio SM-N960F utilizzando Tapatalk

Morris e allora aggiorna la firma no?:D

Thunder-74
22-12-2019, 09:23
Ah okok, beh credo che i7 9700k é attualmente il migliore processore da gaming in circolazione.... Addirittura ho visto in rete che fa 2-3 frame in più rispetto un i9 9900k

casi in cui la Hyper Threading non viene sfruttato bene e causa perdite di performances. In questi casi se lo si disattiva , il 9900k diventa a tutti gli effetti un 9700k, ma se la perdita di frames è in quest'ordine, direi che non conviene neanche sbattersi nell'attivare e disattivare HT.

Predator_1982
22-12-2019, 11:24
Ciao a tutti ragazzi dopo l'incubo che ho avuto del cpu limit con il mio i7 7700k... Ho preso i7 9700k :D dovevo farlo.. Era diventato un incubo :eek: volevo chiedervi solo una cosa Anke se fuori OT...ma tra una mobo da gaming o una mobo base ad esempio MSI Z390 A-PRO.. potrebbe influire sul lato prestazioni?? O non cambia niente? Perché dovrei scegliere solo la mobo è attualmente ho solo 100€...grazie :)

perchè hai optato per il 9700K? Avrebbe avuto molto più senso acquistare un bel Ryzen 3000. Io, per esempio, son passato dal 7700K al 3700X e i benefici sono tangibili a 360 gradi.

Amorph
22-12-2019, 11:37
perchè hai optato per il 9700K? Avrebbe avuto molto più senso acquistare un bel Ryzen 3000. Io, per esempio, son passato dal 7700K al 3700X e i benefici sono tangibili a 360 gradi.

si, anche perché tanto andava ugualmente sostituita anche la mobo

Kostanz77
22-12-2019, 12:11
edit

Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro

Alekos Panagulis
22-12-2019, 14:52
Infatti. Mi stupisco che ci sia qualcuno che nel dicembre 2019 compri un processore energivoro e inefficiente e una piattaforma morta. I soldi sono vostri e li buttate come volete per carità. Ma siamo in un forum tecnico e le cose vanno dette per come stanno.



Inviato dal mio Mi 9T utilizzando Tapatalk
https://uploads.tapatalk-cdn.com/20191222/0c1e00e9ceb369c9a98547f8d0380ae9.jpg

Sharksg
22-12-2019, 14:59
perchè hai optato per il 9700K? Avrebbe avuto molto più senso acquistare un bel Ryzen 3000. Io, per esempio, son passato dal 7700K al 3700X e i benefici sono tangibili a 360 gradi.

Perché in gaming spingono ancora un pó di piú....e poi oltre al gaming non mi interessa nient'altro:) e penso che un i7 9700k se occato sará una bella bestiolina;)

Peter.B
22-12-2019, 15:02
Va specificato che Intel resta preferibile in ambito gaming solo se proprio si è patiti con l'alto refresh e si vuole spremere fino all'ultimo un monitor 144/165 Hz, visto che già i Ryzen in frequenze permettono di arrivare senza problemi fino a 120 Hz o poco più.

Sharksg
22-12-2019, 15:04
Infatti. Mi stupisco che ci sia qualcuno che nel dicembre 2019 compri un processore energivoro e inefficiente e una piattaforma morta. I soldi sono vostri e li buttate come volete per carità. Ma siamo in un forum tecnico e le cose vanno dette per come stanno.



Inviato dal mio Mi 9T utilizzando Tapatalk
]

Questi sono risultati in 4K...anke un i3 andrebbe uguale ad un i9:D io gioco in QHD e giá qui le differenze sarebbero più sostanziose;)

Sharksg
22-12-2019, 15:07
Va specificato che Intel resta preferibile in ambito gaming solo se proprio si è patiti con l'alto refresh e si vuole spremere fino all'ultimo un monitor 144/165 Hz, visto che già i Ryzen in frequenze permettono di arrivare senza problemi fino a 120 Hz o poco più.

Ecco questo è il mio caso...amo fare competizioni con giochi sparatutto ed in quel caso vorrei più frame possibili anke con settaggi grafici maxxati...

Peter.B
22-12-2019, 15:08
E allora in quel caso va bene ancora optare per Intel, visto che alla lunga ancora vince su AMD, ma è preferibile AMD per chiunque non voglia andare oltre un 120 Hz, come il sottoscritto. Chiunque sia interessato a voler giocare nel prossimo futuro in 4K può benissimo andare di AMD e lasciar perdere Intel.

Sharksg
22-12-2019, 15:13
E allora in quel caso va bene ancora optare per Intel, visto che alla lunga ancora vince su AMD, ma è preferibile AMD per chiunque non voglia andare oltre un 120 Hz, come il sottoscritto. Chiunque sia interessato a voler giocare nel prossimo futuro in 4K può benissimo andare di AMD e lasciar perdere Intel.

Ecco concordo:) anke se questo è il mio pensiero, perchè accontentarsi di avere qualche frame in meno se si dispone di una gpu da 1300€?? Uno prende intel e và al sicuro:D con tutti questi soldi già 5 fps in meno farebbero gola...

mikael84
22-12-2019, 15:16
Infatti. Mi stupisco che ci sia qualcuno che nel dicembre 2019 compri un processore energivoro e inefficiente e una piattaforma morta. I soldi sono vostri e li buttate come volete per carità. Ma siamo in un forum tecnico e le cose vanno dette per come stanno.



Non è propriamente così, spesso bisogna valutare a 360°.
Infatti come ho scritto prima, la 2080ti ha un sistema di sfruttamento shader molto complesso per via del back end a 6 TPC.

Il 9700k attualmente è la migliore CPU gaming, sopratutto occata.
Il 9900k ha il problema di non essere sfruttato, quindi è difficile collocarlo.
La 2080ti, è un chip collabrodo, fa acqua da tutte le parti ingegneristicamente, la sua vera forza sta nello sfruttare tutti gli shader, quindi o la si utilizza in 4k, RT, oppure spesso, non si riesce a sfruttare al meglio.
Il vero problema, per chi utilizza pannelli a 1440p ad alto refresh, è dato da certi motori come l'unreal engine, o altri particolarmente ostici a certe CPU, ecco che il 9700k riesce a dare quel boost in più nei minimi, nei medi, in qualsiasi motore grafico, anche di serie b.

Qua un'esempio.
1440p e 3700x
clicca
https://i.postimg.cc/V5K7nYsd/pop.png (https://postimg.cc/V5K7nYsd)


2080ti non sfruttata e minimi uguali alla 2070s

--------
9700k stock

https://i.postimg.cc/GT3dNb64/lio.png (https://postimg.cc/GT3dNb64)

Si passa da 69 minimi a 81, e la 2080ti produce dei medi superiori anche la 2080s, quindi risulta meglio sfruttata.

Di giochi come questo è pieno, sopratutto nei vari unreal.
Ho scelto questo gioco, perchè discusso nei post scorsi.

Chiudo OT sulle CPU;)

Peter.B
22-12-2019, 15:26
Ecco concordo:) anke se questo è il mio pensiero, perchè accontentarsi di avere qualche frame in meno se si dispone di una gpu da 1300€?? Uno prende intel e và al sicuro:D con tutti questi soldi già 5 fps in meno farebbero gola...

E' una GPU che la si prende per il 4K o per il 2K ad alto refresh, visto che la richiesta di calcolo è assai simile tra le due soluzioni, solo che nel primo caso va bene andare di CPU AMD, nel secondo caso bisogna valutare un Intel.

MorrisADsl
22-12-2019, 15:52
Io parlando per me ho una caratteristica che è il non accontentarsi. Se posso cavare anche solo una manciata di frame per avvicinarmi il più possibile ai 144hz 1440p sono contento.

Inviato dal mio SM-N960F utilizzando Tapatalk

Sharksg
22-12-2019, 16:21
Io parlando per me ho una caratteristica che è il non accontentarsi. Se posso cavare anche solo una manciata di frame per avvicinarmi il più possibile ai 144hz 1440p sono contento.

Inviato dal mio SM-N960F utilizzando Tapatalk

Bravo! Concordo....io se usavo il pc anche oltre al gaming, allora optavo per una cpu a 360° che mi permetteva di usarla al meglio su tutto..esempio un AMD visto la maggioranza dei thread, ma se voglio solo giocare è normale che scelgo componenti top per il gaming...intel il top:)

Amorph
22-12-2019, 16:23
8 core-thread mi sembrano pochi ormai, visto l'andazzo non credo ci vorrà tanto prima che saranno limitanti

MorrisADsl
22-12-2019, 16:25
8 core-thread mi sembrano pochi ormai, visto l'andazzo non credo ci vorrà tanto prima che saranno limitantiInfatti. La mia paura e stata quella.

Inviato dal mio SM-N960F utilizzando Tapatalk

Amorph
22-12-2019, 16:26
Infatti. La mia paura e stata quella.

Inviato dal mio SM-N960F utilizzando Tapatalk

si, a oggi prenderei come minimo un 8/16

Peter.B
22-12-2019, 16:29
Un 4/8 è ormai obsoleto, un 6/6 durerà ancora poco, un 8/8 ha uno strano rapporto, non lo preferirei assolutamente, concordo che l'8/16 è la miglior scelta in vista per i prossimi anni. Io mi sono messo un po' avanti e sono andato direttamente di 12/24.

Amorph
22-12-2019, 16:32
Un 4/8 è ormai obsoleto, un 6/6 durerà ancora poco, un 8/8 ha uno strano rapporto, non lo preferirei assolutamente, concordo che l'8/16 è la miglior scelta in vista per i prossimi anni. Io mi sono messo un po' avanti e sono andato direttamente di 12/24.

hai fatto bene, io 16/32 che per lavoro sono una manna dal cielo e per gioco dureranno parecchio

Peter.B
22-12-2019, 16:33
Un 3900/3950X si faranno senza problemi tutti i prossimi 6 anni della next gen, affiancati da delle buone RAM da 32GB, e si dorme tranquilli, l'unica cosa che si dovrà aggiornare è la GPU, tanto per cambiare.

FreeMan
22-12-2019, 18:22
stop OT

>bYeZ<

Peter.B
24-12-2019, 17:05
Ho voluto rigiocare un po' con la mia 2080, e portando il voltaggio a 975 e la frequenza a 2030MHz, in game a Witcher 3 in 4K raggiungo i 60-62 gradi a 1995MHz di frequenza. Molto buono.

TigerTank
24-12-2019, 17:09
Ho voluto rigiocare un po' con la mia 2080, e portando il voltaggio a 975 e la frequenza a 2030MHz, in game a Witcher 3 in 4K raggiungo i 60-62 gradi a 1995MHz di frequenza. Molto buono.

Sì sì pure io la tengo spesso a 2000MHz@950mV. Tanto a meno di liquidare è inutile tirarle perchè poi tagliano, per cui...

Buon Natale a tutti! :cincin:

Peter.B
24-12-2019, 17:13
Sì sì pure io la tengo spesso a 2000MHz@950mV. Tanto a meno di liquidare è inutile tirarle perchè poi tagliano, per cui...

Ho ancora salvato il profilo Extreme su MSI, frequenza di picco 2115MHz, in game si va da 2040 a 2055, ovviamente overvoltata, intorno i 70-72 gradi in questo periodo, ma è roba inutile, non guadagni alcun fps rispetto un 2000MHz, ovviamente. Ho undervoltato solo perché mi è venuta la fissa delle basse temperature e ora la GPU sopra i 68 gradi mi dà fastidio LOL

The_SaN
24-12-2019, 17:30
Sì sì pure io la tengo spesso a 2000MHz@950mV. Tanto a meno di liquidare è inutile tirarle perchè poi tagliano, per cui...

Buon Natale a tutti! :cincin:

La VRAM a quanto la tieni per curiosità?
Adesso con il grande caldo (e le feste) sto pensando di fare un po' di tweaking sulla mia :D

TigerTank
24-12-2019, 18:21
La VRAM a quanto la tieni per curiosità?
Adesso con il grande caldo (e le feste) sto pensando di fare un po' di tweaking sulla mia :D

+400 da afterburner, non voglio esagerare :)

Thunder-74
24-12-2019, 18:52
https://uploads.tapatalk-cdn.com/20191224/fdbc3d30c2d6720e8515193a9b796291.jpg

Inviato dal mio iPhone X utilizzando Tapatalk