View Full Version : [Thread Ufficiale] nVidia Turing RTX 2080/2080ti
Se non hai la versione 1809 di win 10 è normale
Inviato dal vivavoce della mia Daf Variomatic
https://imgur.com/2Li2zaZ
ho la 1809
Boo io ho provato pure a reinstallare i driver ma la voce nvidia dlss rimane oscurata.bah
Inviato dal mio LG-H870 utilizzando Tapatalk
A quanto ho capito il DLSS si può usare solo su quei due demo scriptati e su cui non si possono modificare le impostazioni
A quanto ho capito il DLSS si può usare solo su quei due demo scriptati e su cui non si possono modificare le impostazioni
in che senso non ti seguo,come faccio a sapere che sto usando il dlss?
a quanto pare non sono il solo
https://www.reddit.com/r/nvidia/comments/9x9lpq/have_a_2080_yet_i_cant_enable_dlss_in_the_ff/
in che senso non ti seguo,come faccio a sapere che sto usando il dlss?
a quanto pare non sono il solo
https://www.reddit.com/r/nvidia/comments/9x9lpq/have_a_2080_yet_i_cant_enable_dlss_in_the_ff/
Come ho riportato sopra : We only have two demos to go on, neither of which are games we can jump in and freely play. Instead, they are fully canned, on-rails benchmarks
Trad.
Abbiamo solo due demo per provare, in nessuno dei quali si può giocare liberamente. Invece sono benchmark chiusi su rotaie.
Come ho scritto sopra : We only have two demos to go on, neither of which are games we can jump in and freely play. Instead, they are fully canned, on-rails benchmarks
Trad.
Abbiamo solo due demo per provare, in nessuno dei quali si può giocare liberamente. Invece sono benchmark chiusi su rotaie.
ho capito che non è una demo ma solo un benchmark ma vedendo su techpowerup loro hanno libero accesso alla selezione del DLSS nelle impostazioni custom.
io invece ho la voce oscurata pur avendo l ultima versione di win 10 e gli ultimi driver.
Arrow0309
15-11-2018, 15:33
ho capito che non è una demo ma solo un benchmark ma vedendo su techpowerup loro hanno libero accesso alla selezione del DLSS nelle impostazioni custom.
io invece ho la voce oscurata pur avendo l ultima versione di win 10 e gli ultimi driver.
Dicono che c'è stato un aggiornamento proprio ieri, stasera controllo anch'io che ho la 1809 da parecchie sett, fresh install.
Dicono che c'è stato un aggiornamento proprio ieri, stasera controllo anch'io che ho la 1809 da parecchie sett, fresh install.
si si,l ho fatto pure io ieri pomeriggio,quindi non capisco quale sia il problema:muro:
Sembra che la Aorus Extreme sia arrivata dove l'avevo preordinata in Svizzera ed e disponibile al pick and pay. Che faccio la ritiro o aspetto la strix da amazon? ... Sono molto indeciso.
Ci sono review della Aorus 2080ti?
Il prezzo è ottimo....
Inviato dal mio SM-G960F utilizzando Tapatalk
Un po' di acqua fredda :
https://www.techspot.com/article/1712-nvidia-dlss/
But the no-AA image does produce noticeably sharper and clearer texture quality...
And this begins to highlight one of the key issues with Final Fantasy XV’s anti-aliasing techniques: they are rubbish.
Ancora :
We only have two demos to go on, neither of which are games we can jump in and freely play. Instead, they are fully canned, on-rails benchmarks, and it could be easier for Nvidia to optimize their AI network for these rather than for a dynamic game. So what we’re seeing here could be better DLSS image quality than in a real game output.
E l' affondo finale :
Native 1800p rendering delivers nearly identical performance to DLSS in the Infiltrator demo: DLSS is about 2 percent faster in average framerates, and 6 percent faster in 1% lows. Of course, DLSS is a good 37 percent faster than 4K in average framerates, but the key thing here is DLSS is nearly visually identical to 1800p while also providing near identical performance.
Non c'è nessuna doccia fredda.
A parte che l'articolo è di settembre, ma non importa, si giudica quello che si ha.
Un benchmark di FF in cui a parità di grafica (in realtà il DLSS è superiore, ma facciamo finta di no) il DLSS garantisce un framerate nettamente superiore.
Stop, nulla di più e nulla di meno.
Vale per questo benchmark e basta.
ho capito che non è una demo ma solo un benchmark ma vedendo su techpowerup loro hanno libero accesso alla selezione del DLSS nelle impostazioni custom.
io invece ho la voce oscurata pur avendo l ultima versione di win 10 e gli ultimi driver.
Ma tu hai i benchmark nVidia ?
appleroof
15-11-2018, 16:10
Ragazzi, ma vogliamo parlare del DLSS????
Giudicate da soli, non voglio dire nulla.
DLSS la prima, TAA la seconda. Tutto al massimo su una 2080ti.
cut
a parità di resa visiva le prestazioni sono molto più alte con il DLSS, pare ottimo
Ma tu hai i benchmark nVidia ?
ho scaricato il benchmark dal sito ufficiale
http://benchmark.finalfantasyxv.com/na/
TigerTank
15-11-2018, 16:41
Non resta che sperare che anche nei giochi sia effettivamente la stessa cosa che in questa demo/bench preconfezionata :)
E confronti nativa + AA di postproduzione leggero(smaa), nativa + TAA, DLSS.
Giovamas
15-11-2018, 16:59
2080 con monitor wqhd 144Hz.
quotone :cool: è una gran bella accoppiata
Eschelon
15-11-2018, 17:34
Ragazzi scusate sono in una fase che forse, ripeto forse dovrei sostituire la mia attuale gtx 970 perchè ha probabilmente qualche problema ormai da tempo (sto facendo alcuni test con un'altra scheda di prestazioni molto basse), così nel caso stavo pensando di far l'upgrade (giocando tra i 1080p principalmente su monitor ma potrei optare anche per la tv in alcuni casi che raggiunge i 4k ma mi accontenterei dei 1440p o in futuro in un upgrade anche del monitor non lo so) con una 2070. Ma ho letto che la serie 2000 soffre di alcuni problemi hw, è vero? E se si quali?
Insomma vorrei capire se ne vale la pena oppure andare sulla 1080.
Beh... sarà pure un barbatrucco, ma sta di fatto che almeno in questa demo di FFXV DLSS restituisce un incremento del +33-35% circa di frame, dove passi a 90 fps con Dlss, con TAA sei a circa 66-67 fps.
La qualità non si perde, o almeno, io non mi sono reso conto della differenza, l'ho fatto girare più volte e sembra buono, anzi, più che buono da quel che vedo, come resa a video molto fedele all'originale 4k TAA.
Scheda a default, quasi +34% di gap:
4k DlSS (9570 pt)
https://thumb.ibb.co/hgPcc0/Dlss.jpg (https://ibb.co/hgPcc0)
4k TAA (7177 pt)
https://thumb.ibb.co/fehVx0/TAA.jpg (https://ibb.co/fehVx0)
Sembra davvero ottimo questo DLSS, alla fine la caratteristica più interessante delle RTX.
Sembra davvero ottimo questo DLSS, alla fine la caratteristica più interessante delle RTX.
quali giochi lo supportano - supporteranno?
quali giochi lo supportano - supporteranno?
Ark: Survival Evolved
Atomic Heart
Dauntless
Final Fantasy 15
Fractured Lands
Hitman 2
Islands of Nyne
Justice
JX3
Mechwarrior 5: Mercenaries
PlayerUnknown's Battlegrounds
Remnant: From the Ashes
Serious Sam 4: Planet Badass
Shadow of the Tomb Raider
The Forge Arena
We Happy Few
Darksiders III di Gunfire Games e THQ Nordic
Deliver Us The Moon: Fortuna di KeokeN Interactive
Fear the Wolves di Vostok Games e Focus Home Interactive
Hellblade: Senua's Sacrifice di Ninja Theory
KINETIK di Hero Machine Studios
Outpost Zero di Symmetric Games e tinyBuild Games
Overkill's The Walking Dead di Overkill Software e Starbreeze Studios
SCUM di Gamepires e Devolver Digital
Stormdivers di Housemarque
fraussantin
15-11-2018, 18:58
Non ho seguito molto la cosa ,.ma tra il tu106 non è lo scarto del tu104 , ma un chip a se a cui hanno spento volutamente una fila di core e tolto un po di i core per il raytracing e dlss , oppure no ?
E la.2060 sarà tu108?
viper-the-best
15-11-2018, 19:50
Ciao ragazzi
Ho un monitor Samsung C32HG70 con HDR, e una 1070 Ti. Sapevo già che usare l'HDR con le verdi serie 1000 faceva pena con monitor di questo tipo (mentre con le Vega dovrebbe essere ok), qualcuno sa se con le Turing la situazione è migliorata?
Mi quoto, qualcuno sa come vanno queste RTX con i monitor HDR tipo Samsung o LG?
ho provato ad installare win su un altro hdd direttamente la versione 1809 e anche li la voce "nvidia dlss" rimane oscurata...sara' destino che sto bench non lo debba provare col dlss:muro:
https://preview.ibb.co/cFdAfL/Cattura.png (https://ibb.co/fLpGLL)
Iceman69
15-11-2018, 20:51
Se a qualcuno interessa su Amazon c'è disponibile la Asus rtx 2080 ti strix…
Il prezzo però è imbarazzante...
zardonicco
15-11-2018, 21:28
Sicuramente ma un unico dubbio: i tensor core non si occupano del denoise?
Come possono occuparsi anche del DLSS?
Ovviamente non so quanto vengano occupati a fare una cosa piuttosto che un'altra.
E' questa la domanda principale infatti.
Se a qualcuno interessa su Amazon c'è disponibile la Asus rtx 2080 ti strix…
Il prezzo però è imbarazzante...
Non è realmente disponibile. E comunque stai guardando L amazzone sbagliato...guarda quello spagnolo ;)
Inviato dal mio iPad utilizzando Tapatalk
Sembra che la Aorus Extreme sia arrivata dove l'avevo preordinata in Svizzera ed e disponibile al pick and pay. Che faccio la ritiro o aspetto la strix da amazon? ... Sono molto indeciso.
Ci sono review della Aorus 2080ti?
Il prezzo è ottimo....
Inviato dal mio SM-G960F utilizzando Tapatalk
Dopo aver visto un po’ di review della 2080 liscia sta scheda è un cesso....
Vabbè la lascio lì. che nervoso però, una 2080ti finalmente a portata di mano...
Inviato dal mio iPad utilizzando Tapatalk
demonangel
15-11-2018, 22:14
Boo io ho provato pure a reinstallare i driver ma la voce nvidia dlss rimane oscurata.bah
Inviato dal mio LG-H870 utilizzando Tapatalk
Io Ho la build 17184 e il Dls è attivabile nella demo FFXV
Io Ho la build 17184 e il Dls è attivabile nella demo FFXV
leggendo in giro pare che funzioni solo sulle FE e non sulle custom,ho trovato su reddit gente con la gigabyte,asus ed msi trio come la mia che gli da la voce oscurata.tant è vero che nelle info di sistema la mia come le altre custom rilevano semplicemente "nvidia rtx 2080" senza numeri accanto,mentre le FE rilevano anche dei numeri .cmq stranissima sta cosa.:(
mikael84
15-11-2018, 23:01
Non ho seguito molto la cosa ,.ma tra il tu106 non è lo scarto del tu104 , ma un chip a se a cui hanno spento volutamente una fila di core e tolto un po di i core per il raytracing e dlss , oppure no ?
E la.2060 sarà tu108?
No, a sto giro il TU06 è un chip completamente diverso.
TU06 è praticamente il TU02 dimezzato + il collegamento per i 256bit (che occupa buona parte dello spazio)
La 2060, dovrebbe essere identificata con la sigla TF06 o TF07.
Se la basi su 06, essendo priva di RT, quindi 4mm2 per TPC, dovresti poterla ricavare dal TU06.
La versione base, dovrebbe partire da 1536cc/ e 192bit 6gb (probabile 2060)/2050ti).
fraussantin
15-11-2018, 23:13
No, a sto giro il TU06 è un chip completamente diverso.
TU06 è praticamente il TU02 dimezzato + il collegamento per i 256bit (che occupa buona parte dello spazio)
La 2060, dovrebbe essere identificata con la sigla TF06 o TF07.
Se la basi su 06, essendo priva di RT, quindi 4mm2 per TPC, dovresti poterla ricavare dal TU06.
La versione base, dovrebbe partire da 1536cc/ e 192bit 6gb (probabile 2060)/2050ti).
Ecco grazie , in rete trovavo cose controverse.
Perchè tf?
Cmq nvidia come smaltisce gli scarti a sto giro? Immagino che usciranno delle altre vs "difettate "a prezzi diversi .
mikael84
15-11-2018, 23:28
Ecco grazie , in rete trovavo cose controverse.
Perchè tf?
Cmq nvidia come smaltisce gli scarti a sto giro? Immagino che usciranno delle altre vs "difettate "a prezzi diversi .
Perchè ho sbagliato digitando:p , dovrebbe essere TU16 (o 116) senza RT.
Se vogliono mantenere i 256bit e quindi 8gb devono smontare la 2070, altrimenti, sarà la classica 2 GPC + collegamento extra per i 192 bit e 6gb.
Prestazioni da 1070. Smontando la 2070, si riesce a prendere anche la 1070ti.
La 2060 è ancora un mistero attualmente, purtroppo questi chip non seguono più lo standard.
fraussantin
16-11-2018, 00:11
Perchè ho sbagliato digitando:p , dovrebbe essere TU16 (o 116) senza RT.
Se vogliono mantenere i 256bit e quindi 8gb devono smontare la 2070, altrimenti, sarà la classica 2 GPC + collegamento extra per i 192 bit e 6gb.
Prestazioni da 1070. Smontando la 2070, si riesce a prendere anche la 1070ti.
La 2060 è ancora un mistero attualmente, purtroppo questi chip non seguono più lo standard.Non mi tornano le prestazioni però , se fosse una tu106 anche senza rt andrebbe cmq come la 2070 ..Potrebbe essere un tu104 segato a metà ... Come poi è sempre stato? ..
Cmq gli rtx core sono appena sufficenti sulla 2070 che su low fanno 60 fps su bf5.. dubito che sulla 2060 abbia un minimo senso metterceli.
Thunder-74
16-11-2018, 06:07
leggendo in giro pare che funzioni solo sulle FE e non sulle custom,ho trovato su reddit gente con la gigabyte,asus ed msi trio come la mia che gli da la voce oscurata.tant è vero che nelle info di sistema la mia come le altre custom rilevano semplicemente "nvidia rtx 2080" senza numeri accanto,mentre le FE rilevano anche dei numeri .cmq stranissima sta cosa.:(
Andiamo bene... ora guarda se ci deve essere una discriminante del software...
Inviato dal mio iPhone X utilizzando Tapatalk
Predator_1982
16-11-2018, 07:29
leggendo in giro pare che funzioni solo sulle FE e non sulle custom,ho trovato su reddit gente con la gigabyte,asus ed msi trio come la mia che gli da la voce oscurata.tant è vero che nelle info di sistema la mia come le altre custom rilevano semplicemente "nvidia rtx 2080" senza numeri accanto,mentre le FE rilevano anche dei numeri .cmq stranissima sta cosa.:(
addirittura. e che senso ha?:mbe:
Andiamo bene... ora guarda se ci deve essere una discriminante del software...
Inviato dal mio iPhone X utilizzando Tapatalk
ovviamente sono solo supposizione fatte da me e da altri utenti su reddit,però la cosa è moooolto strana:confused:
fraussantin
16-11-2018, 09:21
Alla fine tutto tace solo risposte vaghe, la faranno passare in sordina, chissà cosa c'è dietro, le memorie non sembrano essere visto che anche le samsung .... Kaputt:confused:
https://www.tomshw.it/hardware/problemi-geforce-rtx-2080-ti-fe-componenti-difettosi-sulle-prime-schede/
Una evga XC ha preso fuoco LOL:
https://www.hardocp.com/news/2018/11/14/evga_2080_ti_xc_catches_fire_in_spectacular_fashion/Si ma quella sembra che siano stato moddato non so cosa.
È presa fuoco di lato .
Alla fine tutto tace solo risposte vaghe, la faranno passare in sordina, chissà cosa c'è dietro, le memorie non sembrano essere visto che anche le samsung .... Kaputt:confused:
https://www.tomshw.it/hardware/problemi-geforce-rtx-2080-ti-fe-componenti-difettosi-sulle-prime-schede/
Una evga XC ha preso fuoco LOL:
https://www.hardocp.com/news/2018/11/14/evga_2080_ti_xc_catches_fire_in_spectacular_fashion/
"Guarda che bello questo RT! Persino il case ora mi riflette la luce del caminetto"
TigerTank
16-11-2018, 09:36
Andiamo bene... ora guarda se ci deve essere una discriminante del software...
Sempre più open :D
Peccato che nella demo di FFXV il DlSS si possa testare solo in 4k.
E' ancora da inquadrare bene questo DLSS, purtroppo non è più una tecnica applicabile da drivers come il dsr ma ci pone in una condizione di totale dipendenza dalle implementazioni nei singoli giochi da parte degli sviluppatori. Non resta che vedere la resa effettiva sul campo, al di là delle demo.
Alla fine tutto tace solo risposte vaghe, la faranno passare in sordina, chissà cosa c'è dietro, le memorie non sembrano essere visto che anche le samsung .... Kaputt:confused:
https://www.tomshw.it/hardware/problemi-geforce-rtx-2080-ti-fe-componenti-difettosi-sulle-prime-schede/
Una evga XC ha preso fuoco LOL:
https://www.hardocp.com/news/2018/11/14/evga_2080_ti_xc_catches_fire_in_spectacular_fashion/
A me qualcosa non torna...se non sono le ram ma il pcb, boh...come già detto anche schede custom e 2070(pcb differente) hanno avuto problemi.
Se si escludessero ddr6 e pcb...resterebbe solo una costante che racchiuderebbe il tutto, la gpu stessa. :stordita:
maxmix65
16-11-2018, 09:39
Ecco la nuova foto del Capo si intitola FE: My skin burns :D :D
https://i.postimg.cc/bDDhLbkQ/my-skin-burns.jpg (https://postimg.cc/bDDhLbkQ)
Questa invece in modalita' Custom Ultra Mega Overclock
https://i.postimg.cc/S2pBL5Qp/fsffr-WERS.jpg (https://postimg.cc/S2pBL5Qp)
fraussantin
16-11-2018, 09:51
Sempre più open :D
E' ancora da inquadrare bene questo DLSS, purtroppo non è più una tecnica applicabile da drivers come il dsr ma ci pone in una condizione di totale dipendenza dalle implementazioni nei singoli giochi da parte degli sviluppatori. Non resta che vedere la resa effettiva sul campo, al di là delle demo.
A me qualcosa non torna...se non sono le ram ma il pcb, boh...come già detto anche schede custom e 2070(pcb differente) hanno avuto problemi.
Se si escludessero ddr6 e pcb...resterebbe solo una costante che racchiuderebbe il tutto, la gpu stessa. :stordita:
https://forums.evga.com/m/tm.aspx?m=2882377
O veramente qualche componente secondario.
Cosa c'è li sotto ?
https://uploads.tapatalk-cdn.com/20181116/26025991e72959c16f5ebdb0e6a7f17b.jpg
Nvidia 2080 RTX Samsung Note edition :O
paolouchiha
16-11-2018, 10:02
Nvidia 2080 RTX Samsung Note edition :O
Ecco aspettavo qualcuno che lo scrivesse :Prrr:
Predator_1982
16-11-2018, 10:03
https://forums.evga.com/m/tm.aspx?m=2882377
O veramente qualche componente secondario.
Cosa c'è li sotto ?
https://uploads.tapatalk-cdn.com/20181116/26025991e72959c16f5ebdb0e6a7f17b.jpg
penso ci sia un resistor SMD, ho visto sul pcb che è siglato come 1R0. In pratica un resistore
TigerTank
16-11-2018, 10:07
https://forums.evga.com/m/tm.aspx?m=2882377
O veramente qualche componente secondario.
Cosa c'è li sotto ?
https://uploads.tapatalk-cdn.com/20181116/26025991e72959c16f5ebdb0e6a7f17b.jpg
E' dove c'è quel ritaglio a U in basso, sul lato posteriore del pcb.
https://www.techpowerup.com/reviews/MSI/GeForce_RTX_2080_Ti_Duke/images/back.jpg
Ma in tal caso a me sembra una qualche problematica singola e non inerente a quella generale. O a quest'ora ci sarebbe stata la fiera degli screenshots con bruciature :D
EDIT: QUI (https://images.hardocp.com/images/news/1542219331zldrbbvmfj_1_3_l.jpg) si vede il danno da sopra.
paolouchiha
16-11-2018, 10:08
penso ci sia un resistor SMD, ho visto sul pcb che è siglato come 1R0
Questo spero sia meno diffuso come problema... se mi prende fuoco la gpu e non sono in casa... non è il massimo (magari lascio a scaricare o lo uso in rdp)
leggendo in giro pare che funzioni solo sulle FE e non sulle custom,ho trovato su reddit gente con la gigabyte,asus ed msi trio come la mia che gli da la voce oscurata.tant è vero che nelle info di sistema la mia come le altre custom rilevano semplicemente "nvidia rtx 2080" senza numeri accanto,mentre le FE rilevano anche dei numeri .cmq stranissima sta cosa.:(
Io ho una 2080ti Zotac, funziona senza problemi.
Predator_1982
16-11-2018, 10:39
Si esatto c'è un Smd sul retro (l'altro è davanti vicino alle chockes) credo sia partito quello, facendo danni anche alla chokes rd 1818, ho guardato bene qui:
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_Founders_Edition/5.html
https://thumb.ibb.co/mo9hC0/Cattura.png (https://ibb.co/mo9hC0)
beh, diciamo che adesso c'è psicosi in giro...a mio parere che un resistore parta può anche starci a livello statistico. Sicuramente la GPU è molto esigente e molti componenti sono sottoposti ad un lavoro notevole, in fase di progetto si sarà tenuto conto e dimensionato la componentistica di conseguenza. Che un componente presenti dei difetti di produzioni tali per cui parta dopo poco purtroppo rientra nella normalità. la circuiteria di questi pcb è parecchio complessa.
Secondo me Nvidia avrebbe dovuto:
1) richiamare i primi lotti di schede prodotte (anche se funzionanti) e sostituirle con quelle in nuova produzione
2) fare degli stress test su un campione di schede richiamate per capire con i suoi ingegneri cosa si verifica e se non ci sono problemi su più fronti
paolouchiha
16-11-2018, 10:48
Io ho una 2080ti Zotac, funziona senza problemi.
l'hai presa subito appena uscita?
Predator_1982
16-11-2018, 10:48
Ma si....è ovvio che sia un caso isolato, era tanto per parlare:D
Il pcb della FE è abbastanza buono s e non overkill questo lo si sa dal d1:D basta vedere i vrm rinforzati in abbondanza a sto giro per rendersene conto, nulla a che vedere con lo scempio visto su gtx 1080 FE, se vi ricordate era roba da far ridere.
GP104 era decisamente meno schizzinoso :) e di conseguenza il pcb parecchio più "semplice"
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080/images/front.jpg
TigerTank
16-11-2018, 10:53
Nella stessa fonte postata è stata aggiunta anche una Asus 2080Ti Turbo che sarebbe bruciata all'incirca nella stessa posizione.
https://holland.pk/uptow/i4/f3d8d829165fb26ae78118ba4176820f.jpg
Comunque sì...in tal caso penso anch'io siano casi isolati ma ormai c'è parecchia preoccupazione in giro...e direi che sia anche lecita quando spendi certe cifre. :doh:
Cavolo stavo per prendere una 2080 XC ma mi hanno ammazzato temporaneamente la scimmia :asd:
Predator_1982
16-11-2018, 10:57
Gtx 1080 un mosfet a fase:doh: :doh: per carità, meno male che almeno con la 1080ti si sono degnati di farlo in grazia di Dio irrobustendolo con i dualfet (cosa che non aveva manco la prima titan x pascal su gp102:doh: 1329 euro di scheda)
già questo però la dice lunga sull'inadeguatezza del pp utilizzato per turing..sono gpu che imho dovevano nascere a 7nm
scorpion73
16-11-2018, 11:04
Cavolo stavo per prendere una 2080 XC ma mi hanno ammazzato temporaneamente la scimmia :asd:
Prenditi una FTW: hanno PCB custom, dovrebbe essere stato rivisto e siccome è più grande noto che c'è anche più spazio fra i singoli componenti, soprattutto fra processore e RAM (almeno per la 2080TI).
Se dovessi prendere una scheda attualmente opterei per quella: costa di più ma secondo me ha un PCB più adatto in termini di grandezza alla dissipazione del calore perché meno "compresso", e a questo giro secondo me sta cosa serve e non poco.
Io ho messo quella scheda in advise per quanto ritorna in stock (sempre che non siano le tre di notte come l'ultima volta) in modo tale che poi quando è disponibile se mi gira la prendo.
Continuo comunque ad avere molti dubbi se prendere questa gen o aspettare la serie 3000: inizialmente avevo questa idea ma poi sentendo mikael che dice che i 7nm arriveranno nel 2020, beh, non è poco tempo... dall'altra parte questa serie è molto incasinata, con prestazioni in RT boh che lasciano un po' il senso di incompiuto almeno a prima botta e non so se vale i soldi da spendere...
mattxx88
16-11-2018, 11:05
Immagini agghiaccianti, credo resterò a guardare fino a 2019 inoltrato :stordita:
AceGranger
16-11-2018, 11:07
già questo però la dice lunga sull'inadeguatezza del pp utilizzato per turing..sono gpu che imho dovevano nascere a 7nm
erano previste sui 10nm Samsung; hanno dovuto ripiegare sui 12nm per rinvio da parte di Samsung; i 7nm erano troppo lontani; e imho credo lo siano tutt'ora.
l'hai presa subito appena uscita?
Si, ci ha messo un mese ad arrivare ma sì, presa subito.
athlon xp 2400
16-11-2018, 11:10
suvvia basta fare RMA
https://www.hwupgrade.it/news/skvideo/nvidia-ammette-il-problema-ci-sono-geforce-rtx-2080ti-difettose_79190.html
:sofico:
TigerTank
16-11-2018, 11:11
già questo però la dice lunga sull'inadeguatezza del pp utilizzato per turing..sono gpu che imho dovevano nascere a 7nm
In pratica 12nm tirati all'estremo prima del cambio di pp e nuove features sperimentali. Serie di transizione ma costosa e problematica verso la 3000 che ci si augura sia un punto di arrivo per entrambe le cose.
Vabbè...intanto la satira va al galoppo :asd:
LINK (https://hardforum.com/data/attachment-files/2018/11/172758_2080tiLOL.jpg)
Prenditi una FTW: hanno PCB custom, dovrebbe essere stato rivisto e siccome è più grande noto che c'è anche più spazio fra i singoli componenti, soprattutto fra processore e RAM (almeno per la 2080TI).
Se dovessi prendere una scheda attualmente opterei per quella: costa di più ma secondo me ha un PCB più adatto in termini di grandezza alla dissipazione del calore perché meno "compresso", e a questo giro secondo me sta cosa serve e non poco.
Io ho messo quella scheda in advise per quanto ritorna in stock (sempre che non siano le tre di notte come l'ultima volta) in modo tale che poi quando è disponibile se mi gira la prendo.
Continuo comunque ad avere molti dubbi se prendere questa gen o aspettare la serie 3000: inizialmente avevo questa idea ma poi sentendo mikael che dice che i 7nm arriveranno nel 2020, beh, non è poco tempo... dall'altra parte questa serie è molto incasinata, con prestazioni in RT boh che lasciano un po' il senso di incompiuto almeno a prima botta e non so se vale i soldi da spendere...
No no, con la FTW si arriverebbe a quasi 1000€ per una X80 :doh:
Oltretutto pure con le FTW non sono rose e fiori...guarda quel che è emerso circa la 2080Ti FTW e le temperature strane.
Piuttosto se le cose non si chiariscono entro 1-2 mesi, ripiego su una 1080Ti e amen...
mikael84
16-11-2018, 11:40
Non mi tornano le prestazioni però , se fosse una tu106 anche senza rt andrebbe cmq come la 2070 ..Potrebbe essere un tu104 segato a metà ... Come poi è sempre stato? ..
Cmq gli rtx core sono appena sufficenti sulla 2070 che su low fanno 60 fps su bf5.. dubito che sulla 2060 abbia un minimo senso metterceli.
No, se il progetto 2060 riguarda il TU06, disabilitano quel chip, magari anzichè 6 TPC x GPC, passano a 5, in modo da garantire almeno 1920cc, i 256 bit e 8gb, e levano la parte RT, inutile e troppo costosa per tale fascia.
Altrimenti rimane l'ipotesi classica, 2 GPC con 6 TPC per 1536cc e 192bit/6gb ram.
Con l'ultima soluzione, le prestazioni saranno da 1070 circa x 250mm2.
Con la prima, chip da 325 circa e prestazioni da 1070ti circa.
Il chip da 250mm2 TU117, potrebbe essere anche destinato ad una eventuale 2050ti
E' dove c'è quel ritaglio a U in basso, sul lato posteriore del pcb.
Ma in tal caso a me sembra una qualche problematica singola e non inerente a quella generale. O a quest'ora ci sarebbe stata la fiera degli screenshots con bruciature :D
si vede il danno da sopra.
Si esatto c'è un Smd sul retro (l'altro è davanti vicino alle chockes) credo sia partito quello, facendo danni anche alla chokes rd 1818, ho guardato bene qui:
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_Founders_Edition/5.html
https://thumb.ibb.co/mo9hC0/Cattura.png (https://ibb.co/mo9hC0)
Resistenze di shunt praticamente, zona PEX e relattivi induttori.
Un rimedio facile facile per aumentare tensione (anche se qua devi pure levare le resistenze da caduta intorno al core) ed eliminare definitivamente il PL.
I casi di fusione, possono riguardare anche l'utilizzo di vari furmark a PL elevati.
Bisogna sempre capire il perchè.
Cmq questo succedeva anche con le vecchie 460, poi mai più ripetuto, solo che li saltavano mediamente i mosfet principali.
appleroof
16-11-2018, 11:54
cut
Continuo comunque ad avere molti dubbi se prendere questa gen o aspettare la serie 3000: inizialmente avevo questa idea ma poi sentendo mikael che dice che i 7nm arriveranno nel 2020, beh, non è poco tempo... dall'altra parte questa serie è molto incasinata, con prestazioni in RT boh che lasciano un po' il senso di incompiuto almeno a prima botta e non so se vale i soldi da spendere...
Stessa situazione
Mi ricordo di qualcuno qui sul forum che non voleva prendere le 1080ti perché il pcb era troppo scarno :D
Adesso tutti a rimpiangere la vecchia gen.
Dopo tutto mi sembra che tra i possessori qui sul forum molti se la stiano godendo senza problemi, me compreso, e che quelle fallate siano state sostituite da Nvidia senza batter ciglio, non capisco il clima catastrofico di alcuni. Se dovesse partire anche la mia vado di RMA senza problemi.
Anche le Tesla prendono fuoco...eppure se avessi i soldi la prenderei al volo.
TigerTank
16-11-2018, 12:47
Beh chiaro che nel singolo ce la si gode, perlomeno finchè funziona bene e chi già le ha prese ovviamente spera che tutto continui ad andare bene. E chi ha preso la FE come te, magari può prenderla a cuor leggero circa il fatto che comunque in caso di rma si rifà direttamente ad nvidia.
Ma è anche palese che non si possa sempre giustificare tutto e farselo andare bene, per cui credo che semplicemente molti, tra cui chi deve ancora comprare in primis, desiderino che la situazione prima si chiarisca, piccola o grande che sia :)
Per ora è stata ammessa pubblicamente l'esistenza di un problema concreto, ma ancora non si sa cosa riguardi di preciso e che entità abbia, visto che a quanto pare saltano anche esemplari di batch successivi e con vram samsung.
scorpion73
16-11-2018, 12:48
Mi ricordo di qualcuno qui sul forum che non voleva prendere le 1080ti perché il pcb era troppo scarno :D
Adesso tutti a rimpiangere la vecchia gen.
Dopo tutto mi sembra che tra i possessori qui sul forum molti se la stiano godendo senza problemi, me compreso, e che quelle fallate siano state sostituite da Nvidia senza batter ciglio, non capisco il clima catastrofico di alcuni. Se dovesse partire anche la mia vado di RMA senza problemi.
Anche le Tesla prendono fuoco...eppure se avessi i soldi la prenderei al volo.
A questo punto scusa ma la domanda sorge lecita: meglio una FE o una Custom? Tu hai preso la FE ma, discorso a parte delle componenti fallate, il punto è dato dalle temperature... Tu che rilevazioni hai sulla tua FE?
scorpion73
16-11-2018, 12:49
C'era bisogno:O
https://videocardz.com/press-release/manli-announces-geforce-rtx-2080-ti-2070-with-blower-fan
Questa non prende fuoco: fonde direttamente la plastica e ci troviamo con un vaso cinese nel case :D :D
È meglio una 2070 con un monitor WQHD 144hz scheda (618 euro monitor 500 euro )o una 2080 con un monitor 4k (scheda 818 euro monitor 320euro o)?Io gioco sempre con i titoli maxati.
Entrambe costano uguale
2080 con monitor wqhd 144Hz.
quotone :cool: è una gran bella accoppiata
Anche se ho un 4790K a 4,4 ghz ?Mi limita troppo?
Predator_1982
16-11-2018, 13:22
Anche se ho un 4790K a 4,4 ghz ?Mi limita troppo?
secondo me se giochi in 4K non molto, a risoluzioni più basse sicuramente. Già fa da tappo il mio 7700K..
Giovamas
16-11-2018, 13:37
Anche se ho un 4790K a 4,4 ghz ?Mi limita troppo?
mia esperienza. Io avevo un 6700k sfigato. chiodo a 4500. Ora 8086k @5Ghz@1,32 ma regge alzando il vcore anche 5,1/5,2. bene. non ho notato differenze in gaming ma solo sui vari cinebench, realbench, etc etc ;) :) valuta che gioco solo agli rpg (ora so facendo una run sui DA) quindi differenze percettibili ancora minori
fraussantin
16-11-2018, 13:42
No, se il progetto 2060 riguarda il TU06, disabilitano quel chip, magari anzichè 6 TPC x GPC, passano a 5, in modo da garantire almeno 1920cc, i 256 bit e 8gb, e levano la parte RT, inutile e troppo costosa per tale fascia.
Altrimenti rimane l'ipotesi classica, 2 GPC con 6 TPC per 1536cc e 192bit/6gb ram.
Con l'ultima soluzione, le prestazioni saranno da 1070 circa x 250mm2.
Con la prima, chip da 325 circa e prestazioni da 1070ti circa.
Il chip da 250mm2 TU117, potrebbe essere anche destinato ad una eventuale 2050ti
Resistenze di shunt praticamente, zona PEX e relattivi induttori.
Un rimedio facile facile per aumentare tensione (anche se qua devi pure levare le resistenze da caduta intorno al core) ed eliminare definitivamente il PL.
I casi di fusione, possono riguardare anche l'utilizzo di vari furmark a PL elevati.
Bisogna sempre capire il perchè.
Cmq questo succedeva anche con le vecchie 460, poi mai più ripetuto, solo che li saltavano mediamente i mosfet principali.Vista la 590 ha più senso la seconda ipotesi per tenere il costo basso e prestazioni in linea.
E se il prossimo anno amd esce qualcosa di decente faranno una 1070ti con il tu104 cuttato e avranno già pronta la risposta.
Cmq sempre più convinto di aver fatto bene a prendere la 2070 evga con clock sobrio e consumi contenuti. ( e 3 anni di garanzia ) non vedo l'ora arrivi.
TigerTank
16-11-2018, 13:43
Anche se ho un 4790K a 4,4 ghz ?Mi limita troppo?
Magari poi nel 2019 fai un upgrade anche di quello, ma intanto ti sistemi bene come monitor-vga :)
Magari poi nel 2019 fai un upgrade anche di quello, ma intanto ti sistemi bene come monitor-vga :)
nel 2019 ci saranno i 7nm, avrei aspettato e alla grande.....
scorpion73
16-11-2018, 13:47
Io sto facendo il contrario: intanto ho preso l'I9-9900K che sto montando e poi dopo acquisterò la VGA.
Quando però non lo so, diciamo che seguo il buon TigerTank nelle tempistiche :D
TigerTank
16-11-2018, 14:06
nel 2019 ci saranno i 7nm, avrei aspettato e alla grande.....
Ne dubito...secondo me nel 2019 ci saranno probabile Titan e 2060, sviluppo e pezze per RT e DLSS sui nuovi titoli, rumors, hype, miracoli annunciati ed eventuali soluzioni a nuovo pp ma non per gaming, ma imho si va al 2020 come schede reali.
Intanto meglio che sistemino le cose con le attuali :D
Secondo me arriva prima AMD con i 7nm...e spero in modo efficace.
Io sto facendo il contrario: intanto ho preso l'I9-9900K che sto montando e poi dopo acquisterò la VGA.
Quando però non lo so, diciamo che seguo il buon TigerTank nelle tempistiche :D
Tu sei messo bene...e con una 1080Ti nel case imho puoi prendertela comoda :)
secondo me se giochi in 4K non molto, a risoluzioni più basse sicuramente. Già fa da tappo il mio 7700K..
Il problema è che a 4K@60 è la 2080 che arranca a meno di rinunce sulle impostazioni.
Quindi a wqhd con la 2070 Il processore 4790k mi tappa, a 4k lo fa la scheda video 2080 , che cosa dovrei fare?
fraussantin
16-11-2018, 14:36
Il problema è che a 4K@60 è la 2080 che arranca a meno di rinunce sulle impostazioni.
Quindi a wqhd con la 2070 Il processore 4790k mi tappa, a 4k lo fa la scheda video 2080 , che cosa dovrei fare?Prendi il qhd e metti il cap a 60 fps
Predator_1982
16-11-2018, 14:39
Il problema è che a 4K@60 è la 2080 che arranca a meno di rinunce sulle impostazioni.
Quindi a wqhd con la 2070 Il processore 4790k mi tappa, a 4k lo fa la scheda video 2080 , che cosa dovrei fare?
le soluzioni che hai non sono molte. Se vuoi giocare a 4k con prestazioni maggiori devi andare di 2080Ti e potresti pure rinviare l'upgrade della cpu. Comunque anche la 2080 se la cava bene in 4k a patto di non usare gli effetti DXR, scendendo giusto a qualche piccolo compromesso. C'è anche da dire però che pure la 2080Ti con i calcoli RT crolla miseramente.
mikael84
16-11-2018, 14:52
Vista la 590 ha più senso la seconda ipotesi per tenere il costo basso e prestazioni in linea.
E se il prossimo anno amd esce qualcosa di decente faranno una 1070ti con il tu104 cuttato e avranno già pronta la risposta.
Cmq sempre più convinto di aver fatto bene a prendere la 2070 evga con clock sobrio e consumi contenuti. ( e 3 anni di garanzia ) non vedo l'ora arrivi.
Hai fatto benissimo, gran bella scelta, sopratutto per te che vieni da una 970.;)
Le 2060/2060ti saranno risposte ai 7nm di AMD, la 590 è un no sense totale per la concorrenza, è come se ti portassi una 1060 a 2050, per prendere una 1070 dovrebbe clockare 2600 circa + ram.
Ne dubito...secondo me nel 2019 ci saranno probabile Titan e 2060, sviluppo e pezze per RT e DLSS sui nuovi titoli, rumors, hype, miracoli annunciati ed eventuali soluzioni a nuovo pp ma non per gaming, ma imho si va al 2020 come schede reali.
Intanto meglio che sistemino le cose con le attuali :D
Secondo me arriva prima AMD con i 7nm...e spero in modo efficace.
Titan (probabile) - 2060-2050ti-2050 e HPC Ampere 7nm (chip FP64) :)
TigerTank
16-11-2018, 14:55
Il problema è che a 4K@60 è la 2080 che arranca a meno di rinunce sulle impostazioni.
Quindi a wqhd con la 2070 Il processore 4790k mi tappa, a 4k lo fa la scheda video 2080 , che cosa dovrei fare?
2080 e schermo 1440p 144Hz (gsync?).
Se il 4790K fa un pò da tappo? Poco importa...meglio appunto che una 2080 che arranca in 4K, perchè comunque nel primo caso avrai sempre la futura carta da giocare dell'upgrade di configurazione.
Guarda QUI (https://www.youtube.com/watch?v=SNaTJrJkvyQ), BF5 con tale config. e settato ad ultra. Come al solito scalando intelligentemente qualcosa si guadagnano un bel pò di fps, soprattutto su titoli come questo dove la dinamicità è primaria.
Altrimenti aspetta e aggiorna tutto quando avrai budget anche per il sistema. IMHO.
c'è anche da dire però che pure la 2080Ti con i calcoli RT crolla miseramente.
Sì, infatti con la 2080ti risolverei l'inghippo ma 1300 euro sono tanti per una scheda video, considerando che questa serie rtx è prematura e di passaggio viste le prestazioni in raytracing.
2080 e schermo 1440p 144Hz (gsync?)..
Grazie a tutti dei consigli.:) :) :)
scorpion73
16-11-2018, 15:05
e con una 1080Ti nel case imho puoi prendertela comoda :)
Infatti è per questo che sono dubbioso sulla VGA: se non conto la tecnologia RTX per me che non gioco a 4K, ma a 1440P, l'upgrade non ha veramente senso perché la 1080TI rulla di brutto tutto e non ha nessun problema di frame rates.
Non ho in pianificazione un upgrade del monitor a 4K, non ho budget né sinceramente mi inscimmia, quindi non avendo problemi di giocabilità l'unico motivo che mi spingerebbe ad un upgrade sono le nuove tecnologie (DLSS + RTX).
Ma la 2080TI mi ha abbastanza deluso sul fronte RTX e mi sembra veramente strano che dovremo stare tutto il 2019 con queste prestazioni claudicanti (in RTX parlo ovviamente).... fra l'altro prodotte da un forno crematorio che per andare vuole una centrale dell'ENEL....
FrancoBit
16-11-2018, 15:13
Infatti è per questo che sono dubbioso sulla VGA: se non conto la tecnologia RTX per me che non gioco a 4K, ma a 1440P, l'upgrade non ha veramente senso perché la 1080TI rulla di brutto tutto e non ha nessun problema di frame rates.
Non ho in pianificazione un upgrade del monitor a 4K, non ho budget né sinceramente mi inscimmia, quindi non avendo problemi di giocabilità l'unico motivo che mi spingerebbe ad un upgrade sono le nuove tecnologie (DLSS + RTX).
Ma la 2080TI mi ha abbastanza deluso sul fronte RTX e mi sembra veramente strano che dovremo stare tutto il 2019 con queste prestazioni claudicanti (in RTX parlo ovviamente).... fra l'altro prodotte da un forno crematorio che per andare vuole una centrale dell'ENEL....
Ti posso dire che io ho preso la 2080 per fare l'upgrade alla mia gloriosissima 980ti extreme ed. Volevo appunto fare l'upgrade avendo una scheda ormai anziana di due generazioni, quindi l'ho fatto per questo. Fino all'acquisto tentennavo tra la 2080 e la 1080ti (da liquidare in futuro in entrambi i casi). Ho scelto la 2080 solo per avere la più nuova, ho pensato che magari in futuro con ottimizzazioni varie fosse meglio della 1080ti. Per quanto riguarda l'rtx, da subito, sapevo che non sarebbe servito a niente, al massimo per "provare a vedere com'è", in quanto da subito erano usciti i rumors sulle prestazioni azzoppate. Questo solo per dirti che l'aspetto "RTX", per questa generazione non può (secondo me) dare soddisfazioni a noi gamers di fascia alta in maniera soddisfacente. Dovresti accettare dei compromessi che non vale la pena accettare, vedi framerate imbarazzanti e chissà quali altri sk@zzi verranno fuori
Il problema è che a 4K@60 è la 2080 che arranca a meno di rinunce sulle impostazioni.
Quindi a wqhd con la 2070 Il processore 4790k mi tappa, a 4k lo fa la scheda video 2080 , che cosa dovrei fare?
Attualmente sono ancora col 4790k @4,8Ghz, 2080ti e monitor 1440p 165Hz G-Sync. Va che è una bomba onestamente…
Battlefield V con RT attivo va uguale ai test che sto vedendo in giro.
La demo di FFXV con DLSS idem… ci sono onestamente pochi giochi cpu limited, giusto gli ultimi giochi Ubisoft tipo AC e FC. Ma di cosa parliamo? 15-20 fps in più (e sono casi limite!) su 100+ fps??? Un bel chissene ci sta…
Eventualmente opterò per una serie 9 intel quando si troverà a prezzi umani, ma saranno sempre soldi buttati in proporzione. Investimento su GPU tutta la vita per il gaming.
scorpion73
16-11-2018, 15:17
Ti posso dire che io ho preso la 2080 per fare l'upgrade alla mia gloriosissima 980ti extreme ed. Volevo appunto fare l'upgrade avendo una scheda ormai anziana di due generazioni, quindi l'ho fatto per questo. Fino all'acquisto tentennavo tra la 2080 e la 1080ti (da liquidare in futuro in entrambi i casi). Ho scelto la 2080 solo per avere la più nuova, ho pensato che magari in futuro con ottimizzazioni varie fosse meglio della 1080ti. Per quanto riguarda l'rtx, da subito, sapevo che non sarebbe servito a niente, al massimo per "provare a vedere com'è", in quanto da subito erano usciti i rumors sulle prestazioni azzoppate. Questo solo per dirti che l'aspetto "RTX", per questa generazione non può (secondo me) dare soddisfazioni a noi gamers di fascia alta in maniera soddisfacente. Dovresti accettare dei compromessi che non vale la pena accettare, vedi framerate imbarazzanti e chissà quali altri sk@zzi verranno fuori
Ma concordo pienamente con quel che dici, e per questo io, avendo una 1080TI, non ho fatto l'upgrade....
Se devo spendere 1500 euro li spendo per una scheda che mi soddisfi su quelle che sono le sue feature peculiari, cosa che la RTX attualmente non fa.
Quindi, non avendo problemi di frame rates, se i prossimi giochi non evidenzieranno miglioramenti (e dubito che lo faranno, anzi, secondo me Metro evidenzierà tutti i limiti di prestazioni di questa tecnologia in questa gen) attenderò sereno la serie 3000.... Tanto dubito che la 1080TI scenderà sotto i 60fps nei prossimi giochi in 1440p...
Però una cosa la volevo chiedere a chi ha sta scheda: sui test vedo che nonostante i 60fps (che a volte crollano anche sotto tale soglia a 1080P) sembra comunque che l'immagine scatti, ci sia stuttering, ma solo con RTX attivo.. è vera sta cosa o sono i filmati su youtube che fanno sto scherzo?
Sono riuscito a far funzionare il DLSS,metodo vecchia scuola,scaricata ultima iso gia aggiornata alla 1809 e ora magicamente funziona.vacci a capire qualcosa
Inviato dal mio LG-H870 utilizzando Tapatalk
Thunder-74
16-11-2018, 17:11
Ma concordo pienamente con quel che dici, e per questo io, avendo una 1080TI, non ho fatto l'upgrade....
Se devo spendere 1500 euro li spendo per una scheda che mi soddisfi su quelle che sono le sue feature peculiari, cosa che la RTX attualmente non fa.
Quindi, non avendo problemi di frame rates, se i prossimi giochi non evidenzieranno miglioramenti (e dubito che lo faranno, anzi, secondo me Metro evidenzierà tutti i limiti di prestazioni di questa tecnologia in questa gen) attenderò sereno la serie 3000.... Tanto dubito che la 1080TI scenderà sotto i 60fps nei prossimi giochi in 1440p...
Però una cosa la volevo chiedere a chi ha sta scheda: sui test vedo che nonostante i 60fps (che a volte crollano anche sotto tale soglia a 1080P) sembra comunque che l'immagine scatti, ci sia stuttering, ma solo con RTX attivo.. è vera sta cosa o sono i filmati su youtube che fanno sto scherzo?
Il problema sono le dx12. Per attivare il RT per forza devi stare sotto dx12 e queste sono indigeste con il frostbyte a quanto pare...
Inviato dal mio iPhone X utilizzando Tapatalk
Il problema sono le dx12. Per attivare il RT per forza devi stare sotto dx12 e queste sono indigeste con il frostbyte a quanto pare...
Inviato dal mio iPhone X utilizzando TapatalkIo non ho ancora capito come mai ste benedette dx12 diano sempre problemi....non erano state create apposta per offrire maggiori prestazioni?a me pare il contrario.gli sviluppatori dovrebbero capire che ormai le dx11 sono vecchie e cominciare a sviluppare tutto in dx12 a modo.
Inviato dal mio LG-H870 utilizzando Tapatalk
Thunder-74
16-11-2018, 17:35
Io non ho ancora capito come mai ste benedette dx12 diano sempre problemi....non erano state create apposta per offrire maggiori prestazioni?a me pare il contrario.gli sviluppatori dovrebbero capire che ormai le dx11 sono vecchie e cominciare a sviluppare tutto in dx12 a modo.
Inviato dal mio LG-H870 utilizzando Tapatalk
Manco ora che abbiamo una gpu Full dx12 come turing vanno bene quelle API BOHHH, in dx12 perdi frame rispetto a dx11, è cosi anche su BF1 (a cui si aggiunge lo stuttering)
Piccola nota, su vulkan con wolfenstein2 ho un consumo elevato ed una temperatura che va su di 3-4 gradi rispetto ad altri giochi (stile The witcher 3 per intenderci) sono rimasto incredulo, pensare che facendolo girare con 1080ti era il gioco dove quest'ultima consumava e scaldava meno..
Ora si spiega il +65/70% dalla 1080ti in questo gioco, l'architettura lavora al massimo, in compenso framerate pazzesco: ci sono zone dove si va oltre i 300-350 fps in 1440p
Io credo perchè il motore grafico FrostByte è nato con le DX11. Non se sia oneroso in termini di tempo e quindi soldi, adeguarlo per le DX12. Anche se poi girava bene con Mantle di AMD (vedi BF4) che per certi versi è simile alle dx12...
Ad esempio Tomb raider, sia l'ultimo che il precedente, girano benissimo in DX12
Io credo perchè il motore grafico FrostByte è nato con le DX11. Non se sia oneroso in termini di tempo e quindi soldi, adeguarlo per le DX12. Anche se poi girava bene con Mantle di AMD (vedi BF4) che per certi versi è simile alle dx12...
Ad esempio Tomb raider, sia l'ultimo che il precedente, girano benissimo in DX12A me rise of the TR in dx12 crea artefatti grafici tipo luci lampeggianti,questa cosa me lo faceva pure con la 1070ti,e pure prestazionalmente andava meglio in dx11.
L ultimo l ho giocato su one x prima di venderla quindi su pc ancora non l ho provato.
Inviato dal mio LG-H870 utilizzando Tapatalk
Manco ora che abbiamo una gpu Full dx12 come turing vanno bene quelle API... BOHHH... in dx12 perdi frame rispetto a dx11, è cosi anche su BF1 (in più si aggiunge lo stuttering)
Piccola nota, su vulkan con wolfenstein2 ho un consumo elevato ed una temperatura che va su di 3-4 gradi rispetto ad altri giochi (stile The witcher 3 per intenderci) sono rimasto incredulo, facendolo girare su 1080ti era il gioco dove quest'ultima consumava e scaldava meno..
Ora si spiega il +65/70% dalla 1080ti in questo gioco, l'architettura lavora al massimo, in compenso framerate pazzesco: ci sono zone dove si va oltre i 250-300 fps in 1440p
Credo che il motivo di tali temperature su Wolfenstein sia dovuto al fatto che ora con le Turing la GPU sia sfruttata molto meglio rispetto a Pascal, quindi consumi più elevati (e temp di conseguenza).
Inoltre penso che il crollo che abbiano le Turing attivando il RTX non sia dovuto esclusivamente alle unità di calcolo che "non ce la fanno", quanto più al fatto che la cache venga messa sotto torchio pesantemente gestendo sia il rendering raster che il raytracing, occupando tutta la cache disponibile.
Le future generazioni credo implementeranno sempre più cache in rapporto allo spazio occupato dal die, cioè più cache e meno unità di calcolo/cm2.
Cache is the way to go quando devi gestire il raytracing, richiede un numero molto elevato di accessi alla memoria veloce questo tipo di operazioni.
Beh chiaro che nel singolo ce la si gode, perlomeno finchè funziona bene e chi già le ha prese ovviamente spera che tutto continui ad andare bene. E chi ha preso la FE come te, magari può prenderla a cuor leggero circa il fatto che comunque in caso di rma si rifà direttamente ad nvidia.
Ma è anche palese che non si possa sempre giustificare tutto e farselo andare bene, per cui credo che semplicemente molti, tra cui chi deve ancora comprare in primis, desiderino che la situazione prima si chiarisca, piccola o grande che sia :)
Per ora è stata ammessa pubblicamente l'esistenza di un problema concreto, ma ancora non si sa cosa riguardi di preciso e che entità abbia, visto che a quanto pare saltano anche esemplari di batch successivi e con vram samsung.
Condivido le preoccupazioni per chi deve comprare e per chi ha comprato.
A questo punto scusa ma la domanda sorge lecita: meglio una FE o una Custom? Tu hai preso la FE ma, discorso a parte delle componenti fallate, il punto è dato dalle temperature... Tu che rilevazioni hai sulla tua FE?
Non sembra sia un problema legato unicamente alle temperature, una delle FE fallate era sotto liquido, la mia sotto liquido sta a 43 gradi sotto bench, quindi non so dirti cosa sia meglio
Io non ho ancora capito come mai ste benedette dx12 diano sempre problemi....non erano state create apposta per offrire maggiori prestazioni?a me pare il contrario.gli sviluppatori dovrebbero capire che ormai le dx11 sono vecchie e cominciare a sviluppare tutto in dx12 a modo.
Inviato dal mio LG-H870 utilizzando Tapatalk
Solamente sistemi in bottleneck beneficiano delle DX12 (per questo lo volevo su Odyssey) altrimenti non ci sono vantaggi rispetto le 11 o addirittura, su alcuni engine, fanno anche peggiorare le performance. Credo sia comunque un problema momentaneo, tempo che gli sviluppatori sapranno implementarlo meglio e si dovranno vedere vantaggi, soprattutto su come verranno sfruttate le CPU
Dopo oltre due mesi dall'ordine della MSI 2080 Ti Trio X non ci credevo quasi più, quello che doveva essere uno sfizio "cotto e mangiato" è diventato un delirio di attese spasmodiche e refresh compulsivi in attesa di una top di gamma qualsiasi (o quasi insomma: Aorus, Strixx, FTW3 o simili ben accette), ed oggi finalmente sono riuscito a dirottare l'ordine su una Strix OC, che risulta attualmente spedita... uff... spero bene...
Ad ogni modo dovrebbe arrivare lunedì, negli stessi giorni potrebbe arrivarmi anche la termocamera, se a qualcuno può interessare potrei fare qualche test specifico su richiestra, considerate però che potrei compararla fisicamente solo con una Aorus 1080 e come dati a parità di config ho anche qualcosa di uno sli di 1080 miste avuto per poche settimane, il sistema è quello del bench in firrma.
Eventualmente ho anche il superposition advanced, quindi anche test in 4k/8k con shader extreme o a piacimento...
Considerate però che per il momento non ho intenzione nè di smontarla nè di testare altri bios.
ps: certo è un peccato che proprio mo è saltato fuori un bios da 400w per la trio, ma tanto finchè rimane una scheda "virtuale" può anche avere 6 connettori da 8pin, 48fasi, due turbocompressori e le gomme slick, ma non serve a granchè.
Arrow0309
16-11-2018, 20:31
Condivido le preoccupazioni per chi deve comprare e per chi ha comprato.
Non sembra sia un problema legato unicamente alle temperature, una delle FE fallate era sotto liquido, la mia sotto liquido sta a 43 gradi sotto bench, quindi non so dirti cosa sia meglio
Ma perché, hai problemi?
Ma perché, hai problemi?
No, anzi è una bestia, finalmente il mio monitor 21:9 non si lamenta più :p
Mi dispiace per chi si blocca nell’acquisto a causa del casino creato sulle schede fallate.
Arrow0309
16-11-2018, 20:58
No, anzi è una bestia, finalmente il mio monitor 21:9 non si lamenta più :p
Mi dispiace per chi si blocca nell’acquisto a causa del casino creato sulle schede fallate.
Ottimo, dai fotosega anzi
Abbiamo tutti una bella scusa se crepa pure per OC spinto :p
Poi sono cmq 3 anni di garanzia :cool:
Domani inizio il lavoretto (upgrade) liquido col Vector ma anche alcuni extra (terzo rad 280UT60, nuovo top vasca EK per D5, altri 2 sganci rapidi per la 2080 ti dedicati, tubi nuovi 10/16 Primoflex LRT Onyx black, piastra direct die guard per la cpu senza Ihs, pulizia wb cpu e rinfresco col liquido nuovo ~50%).
Faccio con calma, mi devono ancora arrivare delle viti per la pompa (kit alphacool decoupling) lunedi quando credo di aver finito con lo spurgo completamente.
Giusto in tempo per BF5 il 20 :sofico:
Arrow0309
16-11-2018, 21:11
Quindi, via coi postprocessing:
Chromatic Aberration
Film Grain
Vignette
Lens Distortion
E RTX on a tutta birra in BFV :sbav:
https://forums.geforce.com/default/topic/1080010/geforce-rtx-20-series/battlefield-v-dxr-faq/
Raga ma per questo benchmark FFXV servono gli ultimissimi driver o vanno bene anche i precedenti whql?
Dopo oltre due mesi dall'ordine della MSI 2080 Ti Trio X non ci credevo quasi più, quello che doveva essere uno sfizio "cotto e mangiato" è diventato un delirio di attese spasmodiche e refresh compulsivi in attesa di una top di gamma qualsiasi (o quasi insomma: Aorus, Strixx, FTW3 o simili ben accette), ed oggi finalmente sono riuscito a dirottare l'ordine su una Strix OC, che risulta attualmente spedita... uff... spero bene...
Ad ogni modo dovrebbe arrivare lunedì, negli stessi giorni potrebbe arrivarmi anche la termocamera, se a qualcuno può interessare potrei fare qualche test specifico su richiestra, considerate però che potrei compararla fisicamente solo con una Aorus 1080 e come dati a parità di config ho anche qualcosa di uno sli di 1080 miste avuto per poche settimane, il sistema è quello del bench in firrma.
Eventualmente ho anche il superposition advanced, quindi anche test in 4k/8k con shader extreme o a piacimento...
Considerate però che per il momento non ho intenzione nè di smontarla nè di testare altri bios.
ps: certo è un peccato che proprio mo è saltato fuori un bios da 400w per la trio, ma tanto finchè rimane una scheda "virtuale" può anche avere 6 connettori da 8pin, 48fasi, due turbocompressori e le gomme slick, ma non serve a granchè.
Ottimo cavolo! Dove sei riuscito a prenderla alla fine? Prezzo? Hai preso la a11g o la o11g?
A me sarebbe arrivata la aorus extreme, ma dopo L’orrore della 2080 aorus liscia ho preferito non andarla a ritirare. Non ci sono review di quella scheda è la cosa mi puzza molto....peccato però avrei potuto avere una 2080ti nel caso ora a meno di 1300 euro....
Attendo anche io una strix a11g dalla amazzone non appena sarà disponibile. Vedremo.
Inviato dal mio iPad utilizzando Tapatalk
Iceman69
16-11-2018, 21:58
Dopo oltre due mesi dall'ordine della MSI 2080 Ti Trio X non ci credevo quasi più, quello che doveva essere uno sfizio "cotto e mangiato" è diventato un delirio di attese spasmodiche e refresh compulsivi in attesa di una top di gamma qualsiasi (o quasi insomma: Aorus, Strixx, FTW3 o simili ben accette), ed oggi finalmente sono riuscito a dirottare l'ordine su una Strix OC, che risulta attualmente spedita... uff... spero bene...
Ad ogni modo dovrebbe arrivare lunedì, negli stessi giorni potrebbe arrivarmi anche la termocamera, se a qualcuno può interessare potrei fare qualche test specifico su richiestra, considerate però che potrei compararla fisicamente solo con una Aorus 1080 e come dati a parità di config ho anche qualcosa di uno sli di 1080 miste avuto per poche settimane, il sistema è quello del bench in firrma.
Eventualmente ho anche il superposition advanced, quindi anche test in 4k/8k con shader extreme o a piacimento...
Considerate però che per il momento non ho intenzione nè di smontarla nè di testare altri bios.
ps: certo è un peccato che proprio mo è saltato fuori un bios da 400w per la trio, ma tanto finchè rimane una scheda "virtuale" può anche avere 6 connettori da 8pin, 48fasi, due turbocompressori e le gomme slick, ma non serve a granchè.
Fatto stessa cosa, per la modica cifra di 1.440 euro, ma non ne potevo più di aspettare, a me dovrebbe arrivare martedì/mercoledì al pic&pay.
Ottimo cavolo! Dove sei riuscito a prenderla alla fine? Prezzo? Hai preso la a11g o la o11g?
A me sarebbe arrivata la aorus extreme, ma dopo L’orrore della 2080 aorus liscia ho preferito non andarla a ritirare. Non ci sono review di quella scheda è la cosa mi puzza molto....peccato però avrei potuto avere una 2080ti nel caso ora a meno di 1300 euro....
Attendo anche io una strix a11g dalla amazzone non appena sarà disponibile. Vedremo.
Inviato dal mio iPad utilizzando Tapatalk
Da ePrice, la OC, O11G, 1543€, avevo già pagato l'MSI Trio X da oltre due mesi lì(con i famosi 100€ di sconto), devo dargli altri 180€ in contrassegno in questo caso :muro: ma ormai ci stavo perdendo la speranza, ed alla prima NON-AMP ho ceduto (con tutto il rispetto per i suoi possessori, ma proprio non sono riuscito a farmela piacere). É stata disponibile per poche ore ;) Ma insomma dai, dovremmo essere in dirittura d'arrivo, vedrai che arriveranno queste settimane, magari anche a prezzi più decenti.
Onestamente io avrei preso anche l'Aorus, di recensioni ne stanno due in giro, della liscia, e parecchio discordanti fra di loro, onestamente sono entrambe abbastanza grossolane (le recensioni) e non mi sembrano molto realistici i risultati dell'ultima già citata, mi rendo perfettamente conto che puoi preferire attendere di avere più dati a disposizione, ad ogni modo non ci sono recensioni della Ti in giro per il semplice fatto che la scheda non è uscita, e su questo in realtà la GB a mio avviso è stata anche onesta, non ha fatto uscire schede "per finta" (o solo per i reviewer) come l'msi, ciò che è uscito (wf e gaming) è poi realmente arrivato sul mercato, cmq fra un paio di settimane credo che si capirà meglio, in giro vedo stime che variano fra il 20 ed il 30 novembre per l'Aorus.
Fatto stessa cosa, per la modica cifra di 1.440 euro, ma non ne potevo più di aspettare, a me dovrebbe arrivare martedì/mercoledì al pic&pay.
Ottimo! Poi anche tu con l'8700k, potremmo fare belle comparative :cool:
Io se tutto va bene la monto Lunedì notte.
LurenZ87
17-11-2018, 06:35
Ma su questo thread non c'è nessun "bavbone" con una RTX 2070??? :stordita:
Inviato dal mio SM-G960F utilizzando Tapatalk
fraussantin
17-11-2018, 06:41
Ma su questo thread non c'è nessun "bavbone" con una RTX 2070??? :stordita:
Inviato dal mio SM-G960F utilizzando TapatalkIo l'ho ordinata l'altro ieri , poi sono iniziate ad esplodere pure queste ... Porto sfiga io ...?
LurenZ87
17-11-2018, 07:01
Io l'ho ordinata l'altro ieri , poi sono iniziate ad esplodere pure queste ... Porto sfiga io ...?LOL, io volevo sapere come si comportavano non come esplodevano :asd:
Inviato dal mio SM-G960F utilizzando Tapatalk
MI SPIEGATE cosa andate a fare sopra i 24 fps????
tanto L'occhio um4n0 non ccapta piu nullllla !!111!!
e poi bo l'ho scritto su google ed è uscito sto thread del 2000 e mi sto pisciando sotto :asd:
https://www.nexthardware.com/forum/schede-video-e-acceleratori/4429-ma-se-locchio-umano-oltre-i-25-fps-non-capta-pi%F9-nulla-2.html
amon.akira
17-11-2018, 10:59
MI SPIEGATE cosa andate a fare sopra i 24 fps????
tanto L'occhio um4n0 non ccapta piu nullllla !!111!!
e poi bo l'ho scritto su google ed è uscito sto thread del 2000 e mi sto pisciando sotto :asd:
https://www.nexthardware.com/forum/schede-video-e-acceleratori/4429-ma-se-locchio-umano-oltre-i-25-fps-non-capta-pi%F9-nulla-2.html
vabbe a questi se gli accendi un accendino d avanti si spaventano :asd:
per i più folli della folla segnalo che su eP sono comparse disponibili sia la Trio che la Strix, da venditori terzi con arrivi rispettivamente il 21 ed il 23, ad oltre 1.7k€.
Ora, anche chissenefrega di queste singole "offerte", però vuol dire che qualcosa comincia a muoversi.
Personalmente spero che non mi pentirò di aver dirottato sulla Strix, il pcb sembra nettamente superiore alla Trio (anche se le 16+3 fasi sono sempre finte, con controller da 10, ma almeno dissiperanno), l'unica rosicata (prezzo e "questione di principio" per l'attesa a parte) è questo fantomatico bios da 400w per la trio. Spero che l'asus apra un pochino i rubinetti.
Qualcono comunque ha idea se in giro sono stati testati altri bios sulla Strix?
Teoricamente su quelle con pbc proprietario non si dovrebbe poter flashare altro, poi sulla trio è stato dimostrato il contrario (complice forse anche il fatto che le differenze reali del pcb sono quasi solo estetiche), da altri forum avete idea se sia stato tentato sulla Strix o sulla FTW3? Su quest'ultima con l'originale da 373w non ce ne dovrebbe essere granchè bisogno, ma potrebbe essere utile come informazione se mai qualcuno avesse tentato, visto che entrambe in teoria hanno il doppio bios, anche se non ho ben capito se sull'asus si tratta di un semplice profilo per le ventole o di un bios vero e proprio con cui poter "giocare"...
E' vero sui motori DX11, ma sui motori DX12 probabilmente lo scenario sarà quello che oggi prova45 avverte su Wolfeinstein: il divario fra le architetture DX11 (Pascal) e quelle DX12 (Vega/Turing) crescerà. I complottisti diranno che nVIDIA azzoppa le prestazioni delle vecchie architetture via driver, chi ha comprato Vega si godrà il suo #finewine, mentre chi ha una Pascal... boh, io dico solo che difficilmente ci saranno momenti migliori di questo per vendere.
E se davvero iniziano ad uscire titoli AAA nei quali DLSS = +20% gratis (in aggiunta ai benefici architetturali del supporto nativo ai nuovi motori DX12) le 2070 saranno schede fantastiche.
Sono abbastanza sicuro che tra non molto le Pascal si ritroveranno azzoppate, ma proprio per il fatto che non è un'architettura pronta per le DX12, ampliando lo stacco tra queste e Vega/Turing. Certo, riguardo Turing, accoppiata DX12+DLSS è devastante per Pascal.
Arrow0309
17-11-2018, 11:59
Sono abbastanza sicuro che tra non molto le Pascal si ritroveranno azzoppate, ma proprio per il fatto che non è un'architettura pronta per le DX12, ampliando lo stacco tra queste e Vega/Turing. Certo, riguardo Turing, accoppiata DX12+DLSS è devastante per Pascal.
LEGACYYYY! :asd: :asd:
fraussantin
17-11-2018, 12:05
Sono abbastanza sicuro che tra non molto le Pascal si ritroveranno azzoppate, ma proprio per il fatto che non è un'architettura pronta per le DX12, ampliando lo stacco tra queste e Vega/Turing. Certo, riguardo Turing, accoppiata DX12+DLSS è devastante per Pascal.Beh azzoppate non direi.
Il fatto che la serie nuova abbia una tecnologia in più non significa che la vecchia non possa continuare a lavorare bene come lo ha fatto fino ad ora.
Maxwell ancora oggi funziona bene come funzionava ai suoi tempi nvidia non gli ha spezzato nessuna gamba .
Segnalo altra review della aorus 2080 da parte di hardware.info.
Sostanzialmente conferma quanto già emerso altrove, tutta piena di lucine, bella, rumorosa e calda.
Inviato dal mio iPad utilizzando Tapatalk
thunderforce83
17-11-2018, 12:25
per i più folli della folla segnalo che su eP sono comparse disponibili sia la Trio che la Strix, da venditori terzi con arrivi rispettivamente il 21 ed il 23, ad oltre 1.7k€.
Ora, anche chissenefrega di queste singole "offerte", però vuol dire che qualcosa comincia a muoversi.
Personalmente spero che non mi pentirò di aver dirottato sulla Strix, il pcb sembra nettamente superiore alla Trio (anche se le 16+3 fasi sono sempre finte, con controller da 10, ma almeno dissiperanno), l'unica rosicata (prezzo e "questione di principio" per l'attesa a parte) è questo fantomatico bios da 400w per la trio. Spero che l'asus apra un pochino i rubinetti.
Qualcono comunque ha idea se in giro sono stati testati altri bios sulla Strix?
Teoricamente su quelle con pbc proprietario non si dovrebbe poter flashare altro, poi sulla trio è stato dimostrato il contrario (complice forse anche il fatto che le differenze reali del pcb sono quasi solo estetiche), da altri forum avete idea se sia stato tentato sulla Strix o sulla FTW3? Su quest'ultima con l'originale da 373w non ce ne dovrebbe essere granchè bisogno, ma potrebbe essere utile come informazione se mai qualcuno avesse tentato, visto che entrambe in teoria hanno il doppio bios, anche se non ho ben capito se sull'asus si tratta di un semplice profilo per le ventole o di un bios vero e proprio con cui poter "giocare"...
hai fatto benissimo a prendere la strix rispetto al bidone della msi...almeno per quanto mi riguarda non la prenderei mai la trio...il problema e' che costa tanto ma sul mercato credo che a livello di raffreddamento,rumorosita' e qualita' sia imbattibile...
Sono abbastanza sicuro che tra non molto le Pascal si ritroveranno azzoppate, ma proprio per il fatto che non è un'architettura pronta per le DX12, ampliando lo stacco tra queste e Vega/Turing. Certo, riguardo Turing, accoppiata DX12+DLSS è devastante per Pascal.
'nsomma stiamo parlando di Pascal (iterazione 1080Ti) che mi tiene rock solid 144 Hz a 1080P in DX12
su BFV e Turing che fa anche 180 HZ alla stessa risoluzione, quindi non mi pare proprio un problema.
Quando i giochi su Pascal faranno fatica a stare a 60HZ ne potremo parlare, ma per quel tempo avremo la serie 4000 e il ray tracing sarà la norma su luci ombre e riflessi e le Turing saranno altrettanto inutili.
Il Ray Tracing 1Gigaraysssss la killer feature di Turing, si è rivelata la sua disfatta più grande, schede da 1.5K che girano come un 980Ti per solo 2 riflessi, figuriamoci con il Ray Tracing applicato come dio comanda.
Non ci sono scuse per questa generazione, è un pacco, e nessuno ne sentiva il bisogno, fatto salvo chi gioca in 4k senza Ray Tracing, ma anche quì ci sarebbe da disquisire, perchè per fare un Downsampling da 16K nemmeno una turing serve anulla e per giocare su 34" in 4k tanto vale stare su un 24 a 1080P in DS da 4k che si vede 10 volte meglio e non servono filtri di nessun tipo e nemmeno scomodare le IA per quel pastrocchio di DLSS.
Ma su questo thread non c'è nessun "bavbone" con una RTX 2070??? :stordita:
Inviato dal mio SM-G960F utilizzando Tapatalk
Mi ero candidato io a prenderne una ma ormai penso che prenderò una 2080.
devo far girare l'economia per far salire il PIL
Io l'ho ordinata l'altro ieri , poi sono iniziate ad esplodere pure queste ... Porto sfiga io ...?
puoi mandarmi il link di dove lo hai letto?
fraussantin
17-11-2018, 12:50
puoi mandarmi il link di dove lo hai letto?
esplodere era per dire ovviamente, hanno il problema dei quadrati verdi o smettono di funzionare. riguarda le founders e alcune custom un po di tutte le marche.
cmq sul forum nvidia
TigerTank
17-11-2018, 12:57
hai fatto benissimo a prendere la strix rispetto al bidone della msi...almeno per quanto mi riguarda non la prenderei mai la trio...il problema e' che costa tanto ma sul mercato credo che a livello di raffreddamento,rumorosita' e qualita' sia imbattibile...
ma poi le Trio mica erano state ritirate perchè avevano trovato una gabola a livello di pcb(rimozione del power balancing)? :D
Comunque per chi parlava di dx12 + DLSS, è vero che quest'ultimo farà una certa differenza. Bisogna solo sperare che sia efficace come visto per ora solo in una demo e che sia effettivamente implementato su più giochi possibili...perchè ad esempio per quel che mi riguarda gran parte dei titoli della lista ufficiale attuale non mi interessa per nulla :D
thunderforce83
17-11-2018, 13:55
ma poi le Trio mica erano state ritirate perchè avevano trovato una gabola a livello di pcb(rimozione del power balancing)? :D
Comunque per chi parlava di dx12 + DLSS, è vero che quest'ultimo farà una certa differenza. Bisogna solo sperare che sia efficace come visto per ora solo in una demo e che sia effettivamente implementato su più giochi possibili...perchè ad esempio per quel che mi riguarda gran parte dei titoli della lista ufficiale attuale non mi interessa per nulla :D
ma infatti...se poi consideri che a livello di garanzia fanno ancora piu' pena e per finire consumano di piu' inutilmente visto il terzo connettore bypassato per fare scena e la ventolina monca rispetto alle altre due...preferisco le schede chinatown sinceramente:D
le msi liquid sono ben altra roba pero'...veramente belle ed anche performanti
esplodere era per dire ovviamente
Mica pensavo che esplodesse davvero, :sofico: :D :D :D
Anche se, leggendo in giro, quasi quasi non mi stupirei.
Più che altro, il link che mi hai inviato non si apre. Se puoi ridarmene un altro sarebbe meglio, per favore.
Grazie
fraussantin
17-11-2018, 14:09
Mica pensavo che esplodesse davvero, :sofico: :D :D :D
Anche se, leggendo in giro, quasi quasi non mi stupirei.
Più che altro, il link che mi hai inviato non si apre. Se puoi ridarmene un altro sarebbe meglio, per favore.
Grazie
non te lo avevo mandato XD
https://forums.geforce.com/default/topic/1080048/geforce-rtx-20-series/my-rtx-2070-is-now-dead-when-its-a-good-safe-time-to-buy-a-new-rtx-/
https://forums.geforce.com/default/topic/1079020/geforce-rtx-20-series/rtx-2070-failures-post-personal-first-hand-experiences-here/2/
ma ce ne sono altri se cerchi
Segnalo altra review della aorus 2080 da parte di hardware.info.
Sostanzialmente conferma quanto già emerso altrove, tutta piena di lucine, bella, rumorosa e calda.
Inviato dal mio iPad utilizzando Tapatalk
Peccato, non l'ho ancora vista ma non ci credevo e non ci volevo credere vista la qualità delle Aorus pascal (e di altra roba che gb tira fuori ultimamente), non credevo possibile una caduta di stile tale, per le lucine cmq sono anche d'accordo, per quanto io utilizzi l'rgp "a tutto spiano" nel case (cosa che comprendo esser criticabile/soggettiva/opinabile), l'implementazione sulle nuove Aorus mi pare più eccessiva e pacchiana che innovativa.
ma poi le Trio mica erano state ritirate perchè avevano trovato una gabola a livello di pcb(rimozione del power balancing)? :D
Comunque per chi parlava di dx12 + DLSS, è vero che quest'ultimo farà una certa differenza. Bisogna solo sperare che sia efficace come visto per ora solo in una demo e che sia effettivamente implementato su più giochi possibili...perchè ad esempio per quel che mi riguarda gran parte dei titoli della lista ufficiale attuale non mi interessa per nulla :D
ma infatti...se poi consideri che a livello di garanzia fanno ancora piu' pena e per finire consumano di piu' inutilmente visto il terzo connettore bypassato per fare scena e la ventolina monca rispetto alle altre due...preferisco le schede chinatown sinceramente:D
le msi liquid sono ben altra roba pero'...veramente belle ed anche performanti
mah, in realtà al riguardo non c'è niente, se non la lamentala di un tizio sul forum msi che rimanda al teardown di buildzoid che in realtà critica soltanto i nuovi power balancer, quindi non esagererei sulle ipotesi al riguardo al primo post fuori luogo che si trova in giro per il globo, ma soprattuto: Le MSI a liquido (La Sea Hawk EK nella fattispecie, quella con il wb EK appunto) è basata sul medesimo pcb della Trio, mentre quella ibrida sull'fe come la Duke.
Poi che sia un pcb quantomeno "bizzarro" o cmq nato strano, forse pronto per prossime serie Lightening se metteranno anche quella valanga di filtri per cui è predisposto ma che non si sono posti il problema di montare e magari rendendo anche indipendente il terzo connettore di alimentazione, che allo stato attuale va in passtrough sul secondo, puramente estetico quindi a meno che non si dispone di un assurdo mix di alimentatori scrausi :mbe:, è fuori dubbio.
LurenZ87
17-11-2018, 14:10
Quasi quasi sta pazzia la faccio anche io...
Voi che dite, per una RTX 2070 meglio una EVGA XC Ultra oppure una MSi Gaming Z???
Inviato dal mio SM-G960F utilizzando Tapatalk
TigerTank
17-11-2018, 14:33
Quasi quasi sta pazzia la faccio anche io...
Voi che dite, per una RTX 2070 meglio una EVGA XC Ultra oppure una MSi Gaming Z???
Considerata la situazione attuale, io direi che avere una buona garanzia sia fondamentale, quindi shop nvidia, evga o amazon in primis.
Però sinceramente la 2070 FE io la trovo troppo overpriced rispetto ad altre alternative.
Frauss ha preso da poco la 2070 Black a 519 direttamente dallo shop evga ma c'è anche la XC che dovrebbe avere il pcb della 2080.
Orkozzio
17-11-2018, 14:52
A mio parere meglio da xc... Ha un anno in più di garanzia già di base e evga è cmq valida :)
Ho già preso il monitor wqhd come mi avete detto.
Quindi cosa mi consigliate tra una MSI 2070 a 618 euro e una gigabyte 2080 a 818?
La prima mi sembra troppo sopra sovrappezzata mentre la seconda costa tanto.
In futuro quale venderò meglio? Vorrei comprare una nuova scheda ad ogni generazione aggiungendoci massimo un 200 euro.
Potrei farlo con la con la 2070 ma non con la 2080, visto che l'usato si deprezza della metà.
'nsomma stiamo parlando di Pascal (iterazione 1080Ti) che mi tiene rock solid 144 Hz a 1080P in DX12
su BFV e Turing che fa anche 180 HZ alla stessa risoluzione, quindi non mi pare proprio un problema.
Quando i giochi su Pascal faranno fatica a stare a 60HZ ne potremo parlare, ma per quel tempo avremo la serie 4000 e il ray tracing sarà la norma su luci ombre e riflessi e le Turing saranno altrettanto inutili.
Il Ray Tracing 1Gigaraysssss la killer feature di Turing, si è rivelata la sua disfatta più grande, schede da 1.5K che girano come un 980Ti per solo 2 riflessi, figuriamoci con il Ray Tracing applicato come dio comanda.
Non ci sono scuse per questa generazione, è un pacco, e nessuno ne sentiva il bisogno, fatto salvo chi gioca in 4k senza Ray Tracing, ma anche quì ci sarebbe da disquisire, perchè per fare un Downsampling da 16K nemmeno una turing serve anulla e per giocare su 34" in 4k tanto vale stare su un 24 a 1080P in DS da 4k che si vede 10 volte meglio e non servono filtri di nessun tipo e nemmeno scomodare le IA per quel pastrocchio di DLSS.
Non spacciare per verità quella che è la tua personalissima opinione, peraltro basata mi pare sul pregiudizio e sul sentito dire.
Qua di pacchi non ce ne sono, in casa ho sia pascal che turing e non esiste al monto pensare di preferire pascal a turing.
Va di più, sempre, figuriamoci quando sfrutteranno l'architettura molto più avanzata.
Il RT che sembrava dovesse fare 12 fps a 1080p invece ha pure il coraggio di funzionare a 4k in un gioco totalmente non ottimizzato. E' poi bello vedere come, dopo avere attivato il RT, tornare indietro diventi così fastidioso, è tutto meno realistico, vedi subito che è "sbagliato". Ricordiamo poi che nessuno costringe ad usarlo, sembra che improvvisamente i turinghisti debbano attivarlo se non lo vogliono. Gli altri invece, ahimè, non possono.
Il DLSS che definisci pastrocchio in realtà garantisce qualità dell'immagine superiore e prestazioni molto più alte.
Ora, ve bene tutto, ma cerchiamo di dire qualcosa che abbia una attinenza con la realtà.
Ci si può lamentare del prezzo, ma tolto questo turing è superbo.
Non spacciare per verità quella che è la tua personalissima opinione, peraltro basata mi pare sul pregiudizio e sul sentito dire.
Qua di pacchi non ce ne sono, in casa ho sia pascal che turing e non esiste al monto pensare di preferire pascal a turing.
Va di più, sempre, figuriamoci quando sfrutteranno l'architettura molto più avanzata.
Il RT che sembrava dovesse fare 12 fps a 1080p invece ha pure il coraggio di funzionare a 4k in un gioco totalmente non ottimizzato. E' poi bello vedere come, dopo avere attivato il RT, tornare indietro diventi così fastidioso, è tutto meno realistico, vedi subito che è "sbagliato". Ricordiamo poi che nessuno costringe ad usarlo, sembra che improvvisamente i turinghisti debbano attivarlo se non lo vogliono. Gli altri invece, ahimè, non possono.
Il DLSS che definisci pastrocchio in realtà garantisce qualità dell'immagine superiore e prestazioni molto più alte.
Ora, ve bene tutto, ma cerchiamo di dire qualcosa che abbia una attinenza con la realtà.
Ci si può lamentare del prezzo, ma tolto questo turing è superbo.
Punti di vista. :D Ma non è la mia personalissima opinione, e non parlo per sentito dire, leggo guardo recensioni e soprattutto provo le cose. E si da il caso che abbia modo di provare quando voglio una 2080Ti. E comunque non siamo qui per fare informazione e tutto quello che si scrive sono opinioni, puoi credere o no. Siamo liberi, per ora.
Ps. Superbo lo sarebbe stato se fosse andato come una 1080 ti in rt e il doppio in dx11. Così è normale avanzamento con un prodotto fatto di fretta su un pp che non era il suo.
Punti di vista. :D Ma non è la mia personalissima opinione, e non parlo per sentito dire, leggo guardo recensioni e soprattutto provo le cose. E si da il caso che abbia modo di provare quando voglio una 2080Ti.
Ps. Superbo lo sarebbe stato se fosse andato come una 1080 ti in rt e il doppio in dx11. Così è normale avanzamento con un prodotto fatto di fretta su un pp che non era il suo.
Guarda, pur con tutta la buona volontà ma mi risulta difficile crederlo dai commenti che fai.
Detto questo non è che cambi molto essere pro o contro, sul mercato si trova di tutto per tutte le tasche, ed ognuno può trovare la scheda che più si adatta alle sue esigenze.
fraussantin
17-11-2018, 15:27
Punti di vista. :D Ma non è la mia personalissima opinione, e non parlo per sentito dire, leggo guardo recensioni e soprattutto provo le cose. E si da il caso che abbia modo di provare quando voglio una 2080Ti. E comunque non siamo qui per fare informazione e tutto quello che si scrive sono opinioni, puoi credere o no. Siamo liberi, per ora.
Ps. Superbo lo sarebbe stato se fosse andato come una 1080 ti in rt e il doppio in dx11. Così è normale avanzamento con un prodotto fatto di fretta su un pp che non era il suo.Resta indiscusso che il passaggio tra pascal e turing non è sensato a meno di non essere un appassionato o di voler upgradare di fascia magari per il 4k.
Ma per chi deve comprarsi una vga oggi , fusioni a parte , Turing è scelta migliore , anche perchè le pascal al momento sono anche più care.
TigerTank
17-11-2018, 15:29
Non spacciare per verità quella che è la tua personalissima opinione, peraltro basata mi pare sul pregiudizio e sul sentito dire.
Qua di pacchi non ce ne sono, in casa ho sia pascal che turing e non esiste al monto pensare di preferire pascal a turing.
Va di più, sempre, figuriamoci quando sfrutteranno l'architettura molto più avanzata.
Il RT che sembrava dovesse fare 12 fps a 1080p invece ha pure il coraggio di funzionare a 4k in un gioco totalmente non ottimizzato. E' poi bello vedere come, dopo avere attivato il RT, tornare indietro diventi così fastidioso, è tutto meno realistico, vedi subito che è "sbagliato". Ricordiamo poi che nessuno costringe ad usarlo, sembra che improvvisamente i turinghisti debbano attivarlo se non lo vogliono. Gli altri invece, ahimè, non possono.
Il DLSS che definisci pastrocchio in realtà garantisce qualità dell'immagine superiore e prestazioni molto più alte.
Ora, ve bene tutto, ma cerchiamo di dire qualcosa che abbia una attinenza con la realtà.
Ci si può lamentare del prezzo, ma tolto questo turing è superbo.
Beh però non esageriamo neppure con le lodi :D
Se si vuole fare un quadro realistico della situazione, direi che:
-sono più prestanti di pascal, ma questa è la normalità di una nuova serie di schede.
-l'RT è promettente ma terribilmente pesante e parziale. per ora si sono visti solo i riflessi in BF5.
-il DLSS è promettente ma al momento visto solo in una demo. Da vedere come si comporta nei giochi.
-le 2080Ti in primis sono affette da qualche problemino di troppo, ancora senza delle risposte precise circa le cause. E c'è chi sta facendo delle analisi a riguardo. Questo (https://www.youtube.com/watch?v=JIRfPlC15uc) è fresco fresco di oggi :)
Superbo non è il termine che userei, piuttosto direi temporaneamente acerbo.
Beh però non esageriamo neppure con le lodi :D
Se si vuole fare un quadro realistico della situazione, direi che:
-sono più prestanti di pascal, ma questa è la normalità di una nuova serie di schede.
-l'RT è promettente ma terribilmente pesante e parziale. per ora si sono visti solo i riflessi in BF5.
-il DLSS è promettente ma al momento visto solo in una demo. Da vedere come si comporta nei giochi.
-le 2080Ti in primis sono affette da qualche problemino di troppo, ancora senza delle risposte precise circa le cause. E c'è chi sta facendo delle analisi a riguardo. Questo (https://www.youtube.com/watch?v=JIRfPlC15uc) è fresco fresco di oggi :)
Superbo non è il termine che userei, piuttosto direi temporaneamente acerbo.
Ah ah ah, in effetti ho un po' esagerato per amore di discussione. :D :D
Resto comunque molto positivamente stupito dal RT (buggato per stessa ammissione degli sviluppatori, che non usa nemmeno i tensor core per il denoise e così via. Ma comunque il tutto all'interno di un titolo, Battlefield, che è palesemente non finito nel suo complesso, allucinante come lo abbiano fatto uscire così, veramente allucinante). E davvero mi risulta difficile farne a meno dopo averlo provato, non pensavo.
Quanto al DLSS è vero, andrà provato sul campo in una demo non preconfezionata, ma stando alla demo i risultati sono veramente oltre ogni aspettativa. Posso credere che al primo titolo "vero" Nvidia se ne esca con una qualità (inteso anche come prestazioni) peggiore, quando tutti la aspetteranno al varco? Non penso proprio possano essere così ingenui (dopotutto bastava NON rilasciare il bench di FF), ma chissà, tutto è possibile.
Sul resto delle feature di turing direi che non è il caso di parlarne, vedremo il supporto, ma basta implementarle negli engine più importanti e non ci saranno grossi problemi (a breve dovrebbe uscire una patch per Wolfenstein, e sono curioso di misurare il boost prestazionale del NAS).
Com'è la MSI ventus 2080?Ha un leggero Overclock di serie ed è quella che costa di meno.
Non trovo review online.
Ecco un'altra 2070 in rma con il solito problema degli artefatti.
Non se ne salva nessuna, non solo le 2080 ti
https://www.amazon.com/gp/customer-reviews/R2VPPAAX6L3II5/ref=cm_cr_dp_d_rvw_ttl?ie=UTF8&ASIN=B07J4VJX6L
Per chi si chiedeva del CPU limited con 2080/Ti usando una CPU ormai datata come un 4790k, faccio sapere che con un 4770k 4.2 GHz e 2080 l'uso della GPU su Far Cry 5 non arriva in modo fisso neanche al 70% scendendo anche ad un 55-60% nelle situazioni più concitate. Niente di strano, son schede che son limited anche con un 7700k. IMHO bisogna stare con CPU 6/12 o 8/16.
Per chi si chiedeva del CPU limited con 2080/Ti usando una CPU ormai datata come un 4790k, faccio sapere che con un 4770k 4.2 GHz e 2080 l'uso della GPU su Far Cry 5 non arriva in modo fisso neanche al 70% scendendo anche ad un 55-60% nelle situazioni più concitate. Niente di strano, son schede che son limited anche con un 7700k. IMHO bisogna stare con CPU 6/12 o 8/16.Certo a 1080p sicuramente,ma infatti son schede che imho vanno usate in 4k,al limite in 1440p,ma non di certo a 1080p a meno che non si usi il RT.
Inviato dal mio LG-H870 utilizzando Tapatalk
Per chi si chiedeva del CPU limited con 2080/Ti usando una CPU ormai datata come un 4790k, faccio sapere che con un 4770k 4.2 GHz e 2080 l'uso della GPU su Far Cry 5 non arriva in modo fisso neanche al 70% scendendo anche ad un 55-60% nelle situazioni più concitate. Niente di strano, son schede che son limited anche con un 7700k. IMHO bisogna stare con CPU 6/12 o 8/16.
Ciao, grazie ero uno degli interessati.
Per favore, potresti provare a scalare la risoluzione a 1440 tramite il pannello DSR nvidia?
Far Cry 5 lo sto proprio giocando in 1440p tutto ad Ultra con TAA. Insomma, meglio cambiare CPU appena possibile :P
fraussantin
17-11-2018, 17:46
Per chi si chiedeva del CPU limited con 2080/Ti usando una CPU ormai datata come un 4790k, faccio sapere che con un 4770k 4.2 GHz e 2080 l'uso della GPU su Far Cry 5 non arriva in modo fisso neanche al 70% scendendo anche ad un 55-60% nelle situazioni più concitate. Niente di strano, son schede che son limited anche con un 7700k. IMHO bisogna stare con CPU 6/12 o 8/16.Ma cmq al cap 60 fps ci arrivi?
Ma cmq al cap 60 fps ci arrivi?
Si, anche se a volte si può notare un drop che va sotto i 60. Un bel bottleneck, con i titoli Ubisoft è molto più accentuato che con altri giochi.
SPARTANO93
17-11-2018, 18:03
I giochi Ubisoft sono sempre i peggiori per la cpu...
Inviato dal mio SM-G930F utilizzando Tapatalk
Far Cry 5 lo sto proprio giocando in 1440p tutto ad Ultra con TAA. Insomma, meglio cambiare CPU appena possibile :P
Gira sui 75 frame, non ho mai visto un calo in tutto il video
Far Cry 5 | i7 4790K@4.8 | GTX 1080 FTW2 OC | 1440P ULTRA (https://youtu.be/jvmp4FmNGqU)
https://youtu.be/1OqK4CYxQHI
I giochi Ubisoft sono sempre i peggiori per la cpu...
Inviato dal mio SM-G930F utilizzando Tapatalk
Pare un loro marchio di fabbrica, vedi anche WD 2, gli ultimi due AC e Wildlands anche se quest'ultimo è meno problematico di Odyssey/Origins.
Pare un loro marchio di fabbrica
Il tuo PC va come quello nel video?
Il tuo PC va come quello nel video?
Ho abbassato lo scaling della distanza, visto che il mio era al massimo, e in effetti l'uso della GPU aumenta, ma faccio una media di fps anche superiore, però dipende da zona a zona. Il fatto che sia a 4.8GHz spiega come faccia a stare con la GPU sfruttata al massimo.
LurenZ87
17-11-2018, 19:00
Considerata la situazione attuale, io direi che avere una buona garanzia sia fondamentale, quindi shop nvidia, evga o amazon in primis.
Però sinceramente la 2070 FE io la trovo troppo overpriced rispetto ad altre alternative.
Frauss ha preso da poco la 2070 Black a 519 direttamente dallo shop evga ma c'è anche la XC che dovrebbe avere il pcb della 2080.
Grazie :)
A mio parere meglio da xc... Ha un anno in più di garanzia già di base e evga è cmq valida :)
Mi potete inviare il link dello shop di EVGA??? :)
Inviato dal mio SM-G960F utilizzando Tapatalk
fraussantin
17-11-2018, 19:01
Si, anche se a volte si può notare un drop che va sotto i 60. Un bel bottleneck, con i titoli Ubisoft è molto più accentuato che con altri giochi.La mia piccolina allora sarà proprio impiccata .col 4690k. :(
Prima del prossimo natale(2019) non potrò cambiare cpu a meno di non trovare un 4790 a 3 soldi... E ammesso vhe serva a qualcosa.
Bah anche a prendere un r7 ci vuole minimo 600 euro , ma non basteranno.
https://youtu.be/ewiFtgfK0KY
Anche qualche 2070 con pcb custom e non reference tira le cuoia..
Solito problema, stessa morte 2070/2080/2080ti.
primo commento RTX = Ready To 'Xplode.:rotfl:
bagnino89
17-11-2018, 19:19
Per chi si chiedeva del CPU limited con 2080/Ti usando una CPU ormai datata come un 4790k, faccio sapere che con un 4770k 4.2 GHz e 2080 l'uso della GPU su Far Cry 5 non arriva in modo fisso neanche al 70% scendendo anche ad un 55-60% nelle situazioni più concitate. Niente di strano, son schede che son limited anche con un 7700k. IMHO bisogna stare con CPU 6/12 o 8/16.
Tutto ciò a 1440p? Ammazza...
Tutto ciò a 1440p? Ammazza...
Con alcuni titoli si, con altri, tipo Inquisition che sto rigiocando, nessun problema, GPU usata al massimo.
La mia piccolina allora sarà proprio impiccata .col 4690k. :(
Prima del prossimo natale(2019) non potrò cambiare cpu a meno di non trovare un 4790 a 3 soldi... E ammesso vhe serva a qualcosa.
Bah anche a prendere un r7 ci vuole minimo 600 euro , ma non basteranno.
Io aspetto i Ryzen 3000, poi cambio subito, ma già lo sapevo eh, normale sia così quando non aggiorni una CPU di cinque anni con una GPU nuova, poi mettici che i giochi che ho testato sono pure i più problematici, forte bottleneck anche in AC Origins, ma quel titolo riesce ad essere problematico anche con un 8700k...
TigerTank
17-11-2018, 20:16
Ah ah ah, in effetti ho un po' esagerato per amore di discussione. :D :D
Resto comunque molto positivamente stupito dal RT (buggato per stessa ammissione degli sviluppatori, che non usa nemmeno i tensor core per il denoise e così via. Ma comunque il tutto all'interno di un titolo, Battlefield, che è palesemente non finito nel suo complesso, allucinante come lo abbiano fatto uscire così, veramente allucinante). E davvero mi risulta difficile farne a meno dopo averlo provato, non pensavo.
Quanto al DLSS è vero, andrà provato sul campo in una demo non preconfezionata, ma stando alla demo i risultati sono veramente oltre ogni aspettativa. Posso credere che al primo titolo "vero" Nvidia se ne esca con una qualità (inteso anche come prestazioni) peggiore, quando tutti la aspetteranno al varco? Non penso proprio possano essere così ingenui (dopotutto bastava NON rilasciare il bench di FF), ma chissà, tutto è possibile.
Sul resto delle feature di turing direi che non è il caso di parlarne, vedremo il supporto, ma basta implementarle negli engine più importanti e non ci saranno grossi problemi (a breve dovrebbe uscire una patch per Wolfenstein, e sono curioso di misurare il boost prestazionale del NAS).
Sì infatti il tutto anche per me è molto promettente, solo che l'RT(nella sua completezza di effetti luci ed ombre) avrà sicuramente bisogno di molto tempo per arrivare ad un buon livello di equilibrio tra ottimizzazioni e risorse richieste da un lato e potenza delle vga dall'altro.
Per il DLSS aspettiamo i giochi, perchè una demo alla fine è un qualcosa di breve, definito e a binario unico, più semplice da confezionare :)
Non è questione di ingenuità ma di marketing.
Comunque direi che la cosa primaria ora sia che si risolva questa storia delle vga che muoiono.
scorpion73
17-11-2018, 20:41
https://forums.evga.com/BFV-DXR-HDR-Gaming-on-2080-Ti-FTW3-ULTRA-m2882812.aspx
Video di BF V con RTX calibrato direttamente dai ragazzi di EVGA.
4K con 70% di scaling, max setting e credo LOW come DXR.
60fps costanti dal video. Non male.
VGA di riferimento la FTW3.
https://forums.evga.com/BFV-DXR-HDR-Gaming-on-2080-Ti-FTW3-ULTRA-m2882812.aspx
Video di BF V con RTX calibrato direttamente dai ragazzi di EVGA.
4K con 70% di scaling, max setting e credo LOW come DXR.
60fps costanti dal video. Non male.
VGA di riferimento la FTW3.Niente male direi contando che lo scaling al 70% equivale a 3200x1800p e la differenza dal 4k nativo non è poi cosi marcata...anzi.
Inviato dal mio LG-H870 utilizzando Tapatalk
]NeSsuNo[
17-11-2018, 21:44
Niente male direi contando che lo scaling al 70% equivale a 3200x1800p e la differenza dal 4k nativo non è poi cosi marcata...anzi.
Inviato dal mio LG-H870 utilizzando Tapatalk
Il 70% non dovrebbe fare 2688x1512?
EDIT: Riedito tutto perché lo scaling su Battlefield sembra particolare, c'era un comando da console per vedere la risoluzione reale ma non so se funziona più, e non ho Battlefield V per provare.
NeSsuNo[;45891194']Il 70% non dovrebbe fare 2688x1512?Sull ombra della guerra il 69% di 4k c è scritto 3200x1800. Poi nn so
Edit:facendo il calcolo a mano tornerebbe 2688x1512 effettivamente.allora mi sa che hanno sbagliato sull ombra della guerra.
Inviato dal mio LG-H870 utilizzando Tapatalk
Orkozzio
17-11-2018, 22:33
Grazie :)
Mi potete inviare il link dello shop di EVGA??? :)
Inviato dal mio SM-G960F utilizzando Tapatalk
Scrivi nella barra della ricerca evga eu e divertiti!:D
sertopica
17-11-2018, 23:19
https://forums.evga.com/BFV-DXR-HDR-Gaming-on-2080-Ti-FTW3-ULTRA-m2882812.aspx
Video di BF V con RTX calibrato direttamente dai ragazzi di EVGA.
4K con 70% di scaling, max setting e credo LOW come DXR.
60fps costanti dal video. Non male.
VGA di riferimento la FTW3.
Proprio costanti no. Ho visto cali anche di quasi 10 fps, soprattutto all'interno dell'edificio tirato a lucido con la cera.
bagnino89
17-11-2018, 23:44
Con alcuni titoli si, con altri, tipo Inquisition che sto rigiocando, nessun problema, GPU usata al massimo.
Inquisition, fortunatamente, è molto poco dipendente dalla CPU, a differenza di FC5 e Origins.
VR Filippo72
18-11-2018, 06:20
Per chi si chiedeva del CPU limited con 2080/Ti usando una CPU ormai datata come un 4790k, faccio sapere che con un 4770k 4.2 GHz e 2080 l'uso della GPU su Far Cry 5 non arriva in modo fisso neanche al 70% scendendo anche ad un 55-60% nelle situazioni più concitate. Niente di strano, son schede che son limited anche con un 7700k. IMHO bisogna stare con CPU 6/12 o 8/16.
In attesa di passare ad un i9 9900k, sto usando una asus dual fan 2080ti abbinata ad un i7 4770k overcloccato a 4.4.
Rispetto alla mia precedente scheda (1080ti), c'è stato un incremento delle prestazioni (in tutti i giochi) quasi nullo, segno evidente che la cpu fa da pesante collo di bottiglia. Differenze le noto solo nei benchmark tipo Superposition, 3d mark, Final fantasy XV.
La scheda per il momento va benissimo
Giovamas
18-11-2018, 08:16
Com'è la MSI ventus 2080?Ha un leggero Overclock di serie ed è quella che costa di meno.
Non trovo review online.
Ecco un'altra 2070 in rma con il solito problema degli artefatti.
Non se ne salva nessuna, non solo le 2080 ti
https://www.amazon.com/gp/customer-reviews/R2VPPAAX6L3II5/ref=cm_cr_dp_d_rvw_ttl?ie=UTF8&ASIN=B07J4VJX6L
se riesci vai di strix. magari come me becchi un'offerta.
Giovamas
18-11-2018, 08:19
Inquisition, fortunatamente, è molto poco dipendente dalla CPU, a differenza di FC5 e Origins.
allora non sono il solo a giocarci di nuovo. è una bel vedere con la nuova scheda :D
fraussantin
18-11-2018, 08:50
domandina lecita , ho scaricato evga precision , siccome mi hanno chiesto con che vga lo userei , ma mica invalida la garanzia di evga? ( col fatto che serve anche per fare oc)
In attesa di passare ad un i9 9900k, sto usando una asus dual fan 2080ti abbinata ad un i7 4770k overcloccato a 4.4.
Rispetto alla mia precedente scheda (1080ti), c'è stato un incremento delle prestazioni (in tutti i giochi) quasi nullo, segno evidente che la cpu fa da pesante collo di bottiglia. Differenze le noto solo nei benchmark tipo Superposition, 3d mark, Final fantasy XV.
La scheda per il momento va benissimo ciao a temperature come sei messo:)
VR Filippo72
18-11-2018, 09:26
ciao a temperature come sei messo:)
Con un profilo ventola abbastanza aggressivo le temperature sono ottime, max 65, dopo sessioni intense di giochi e benchmark.
Per il momento memorie e voltaggio gpu non le ho toccate, ho messo al massimo il PL (120%) e sto usando molto l'utilissimo undervolt
scorpion73
18-11-2018, 09:35
Proprio costanti no. Ho visto cali anche di quasi 10 fps, soprattutto all'interno dell'edificio tirato a lucido con la cera.
E' vero me ne sono accorto dopo, ma comunque mi è sembrato sempre giocabile, tranne forse in un punto dove ho visto che scattava un pò.
In ogni caso, considerando che era più del full hd, mi sembra comunque un risultato notevole per le premesse che c'erano e che ci sono.
TigerTank
18-11-2018, 09:54
domandina lecita , ho scaricato evga precision , siccome mi hanno chiesto con che vga lo userei , ma mica invalida la garanzia di evga? ( col fatto che serve anche per fare oc)
Certo che no :D
La garanzia la invalidi se fai modifiche hardware strane o se la bruci caricando bios moddati e simili. Ma non certo usando un software di gestione, oltretutto proprietario. Neppure con MSI afterburner invalidi la garanzia.
Comunque mi auguro davvero che il problema della morìa di schede non stia nella gpu, visto che muoiono non solo le 2080Ti, non solo le references e non solo le Micron.
Cosa che sarebbe dura da dichiarare ufficialmente, a differenza di una colpa da parte di altra componentistica.
Il punto è che questo andrebbe stranamente a braccetto con la proporzionalità dei modelli coinvolti visto che il problema affligge maggiormente le 2080Ti. Più complessa/meno cuttata la gpu e più si alza la % di failure?
Mi auguro non sia così o meglio che non lancino la Titan :asd:
Andreabarretta
18-11-2018, 09:55
Comunque, ricordiamoci che stanno saltando anche le 2070 con pcb custom, che scaldano molto meno ,quindi comincio ad avere dei dubbi che siano le memorie,e più facile che ci sia qualcos'altro.
fraussantin
18-11-2018, 10:04
Comunque, ricordiamoci che stanno saltando anche le 2070 con pcb custom, che scaldano molto meno ,quindi comincio ad avere dei dubbi che siano le memorie,e più facile che ci sia qualcos'altro.
no le ram a sto punto non penso semplicemente perchè si rompono pure le le samsung. forse il controller ? o le vrm stesse?
Certo che no :D
La garanzia la invalidi se fai modifiche hardware strane o se la bruci caricando bios moddati e simili. Ma non certo usando un software di gestione, oltretutto proprietario. Neppure con MSI afterburner invalidi la garanzia.
Comunque mi auguro davvero che il problema della morìa di schede non stia nella gpu, visto che muoiono non solo le 2080Ti, non solo le references e non solo le Micron.
Cosa che sarebbe dura da dichiarare ufficialmente, a differenza di una colpa da parte di altra componentistica.
Il punto è che questo andrebbe stranamente a braccetto con la proporzionalità dei modelli coinvolti visto che il problema affligge maggiormente le 2080Ti. Più complessa/meno cuttata la gpu e più si alza la % di failure?
Mi auguro non sia così o meglio che non lancino la Titan :asd:
ci ho pensato anche io , ma a guardarli i componenti sui pcb più o meno sono quelli delle reference , a meno di non prendere gpu ultra pompose.
se fosse una mal valutazione sugli scarti però le gpu non overclokkate dovrebbero reggere .. boh vedremo
TigerTank
18-11-2018, 10:49
ci ho pensato anche io , ma a guardarli i componenti sui pcb più o meno sono quelli delle reference , a meno di non prendere gpu ultra pompose.
se fosse una mal valutazione sugli scarti però le gpu non overclokkate dovrebbero reggere .. boh vedremo
Infatti, speriamo bene.
QUI (https://www.youtube.com/watch?v=JIRfPlC15uc), dopo i test, ha trovato comica la questione "alcune schede sfruggite al controllo qualità" visto comunque il bollino "QC passed" presente anche su quelle che a seguito di semplici test hanno manifestato tali problemi.
Quindi più che sfuggite ai test di qualità, praticamente test di scarso livello, perchè qualche pezzo fallato può sempre capitare ma tale circostanza è un pò più grave e di sicuro con dei buoni test(a scheda collegata e non solo visuale) molte di queste schede non sarebbero arrivate sul mercato.
Circa le cause mi pare che escluda il calore in sè o windows, parla di "manifacturing level issue", "assembly problem" o "silicon problem"(gpu o vram).
bagnino89
18-11-2018, 10:55
In attesa di passare ad un i9 9900k, sto usando una asus dual fan 2080ti abbinata ad un i7 4770k overcloccato a 4.4.
Rispetto alla mia precedente scheda (1080ti), c'è stato un incremento delle prestazioni (in tutti i giochi) quasi nullo, segno evidente che la cpu fa da pesante collo di bottiglia. Differenze le noto solo nei benchmark tipo Superposition, 3d mark, Final fantasy XV.
La scheda per il momento va benissimo
Risoluzione?
bronzodiriace
18-11-2018, 11:17
Si, anche se a volte si può notare un drop che va sotto i 60. Un bel bottleneck, con i titoli Ubisoft è molto più accentuato che con altri giochi.
Proa ad utilizzare time resolution e fare l'unpark dei core della tua cpu.
scorpion73
18-11-2018, 11:25
Infatti, speriamo bene.
QUI (https://www.youtube.com/watch?v=JIRfPlC15uc), dopo i test, ha trovato comica la questione "alcune schede sfruggite al controllo qualità" visto comunque il bollino "QC passed" presente anche su quelle che a seguito di semplici test hanno manifestato tali problemi.
Quindi più che sfuggite ai test di qualità, praticamente test di scarso livello, perchè qualche pezzo fallato può sempre capitare ma tale circostanza è un pò più grave e di sicuro con dei buoni test(a scheda collegata e non solo visuale) molte di queste schede non sarebbero arrivate sul mercato.
Circa le cause mi pare che escluda il calore in sè o windows, parla di "manifacturing level issue", "assembly problem" o "silicon problem"(gpu o vram).
Per me è un problema di GPU a sto punto.... se saltano anche le 2070 è una questione proprio di progettazione...
Boh ero andato in fissa con la FTW3 e adesso nel nuovo PC mi trovo una GTX 1050ti, visto che la 1080ti l'ho dovuta mettere nel PC di mio figlio perché a lui la GTX 1050ti non bastava più (essere padre è fare anche queste rinunce... :asd: :asd: )
Fatto sta che mi serve una scheda grafica nuova adesso per l'I9 e avevo puntato quella, ma sono tremendamente in dubbio....
fraussantin
18-11-2018, 11:47
Per me è un problema di GPU a sto punto.... se saltano anche le 2070 è una questione proprio di progettazione...
Boh ero andato in fisssa con la FTW3 e adesso nel nuovo PC mi trovo una GTX 1050ti, visto che la 1080ti l'ho dovuta mettere nel PC di mio figlio perché a lui la GTX 1050ti non bastava più (essere padre è fare anche queste rinunce... :asd: :asd: )
Fatto sta che mi serve una scheda grafica nuova adesso per l'I9 e avevo puntato quella, ma sono tremendamente in dubbio....
Come detto sopra non è detto , alla fine tutte condividono molta componentistica , che magari è uscita dallo stesso "scatolone" .
Se fosse il chip sarebbe un bel guaio..
In attesa di passare ad un i9 9900k, sto usando una asus dual fan 2080ti abbinata ad un i7 4770k overcloccato a 4.4.
Rispetto alla mia precedente scheda (1080ti), c'è stato un incremento delle prestazioni (in tutti i giochi) quasi nullo, segno evidente che la cpu fa da pesante collo di bottiglia. Differenze le noto solo nei benchmark tipo Superposition, 3d mark, Final fantasy XV.
La scheda per il momento va benissimo
Assolutamente, io gioco comunque benissimo nonostante il bottleneck, anche ad Origins, figurati. Non vedo l'ora di passare a Zen 2.
allora non sono il solo a giocarci di nuovo. è una bel vedere con la nuova scheda :D
Nonostante sia di fine 2014 è ancora tanta roba visivamente.
VR Filippo72
18-11-2018, 12:18
Risoluzione?
2560x1080, ma uso moltissimo la VR e la scheda è stata acquistata anche in ottica Pimax 5k+
bagnino89
18-11-2018, 12:26
2560x1080, ma uso moltissimo la VR e la scheda è stata acquistata anche in ottica Pimax 5k+Azz.
Comunque c'è poco da fare, le 2080/Ti sono pensate per alte risoluzioni, 4k o qualcosa in meno... A quanto pare anche in 1440p le CPU odierne fanno fatica a stargli dietro.
mikael84
18-11-2018, 12:35
Infatti, speriamo bene.
QUI (https://www.youtube.com/watch?v=JIRfPlC15uc), dopo i test, ha trovato comica la questione "alcune schede sfruggite al controllo qualità" visto comunque il bollino "QC passed" presente anche su quelle che a seguito di semplici test hanno manifestato tali problemi.
Quindi più che sfuggite ai test di qualità, praticamente test di scarso livello, perchè qualche pezzo fallato può sempre capitare ma tale circostanza è un pò più grave e di sicuro con dei buoni test(a scheda collegata e non solo visuale) molte di queste schede non sarebbero arrivate sul mercato.
Circa le cause mi pare che escluda il calore in sè o windows, parla di "manifacturing level issue", "assembly problem" o "silicon problem"(gpu o vram).
Ma di quadro morte, nulla? Condividono lo stesso chip, solo con le samsung a doppio MC.
Curioso il fatto che downclockando le ram, le schede che davano problemi non ne hanno più dato, ed anche più curioso che la quadro basata su GT106, monti le ddr6 a 13gb/s.
Questo chip è stato appena rilasciato.
Il TU106 non è neppure un chip di scarto.
Eh, ormai i giochi che usano più di quattro core non sono pochi...
...cmq boh valuta anche l'offerta AMD, il 9900k costa (e scalda) un porcocane (quindi per overcloccarlo poi spendi altri soldi per soluzioni di dissipazione over the top).
Io l'altro ieri ho comprato una Asus Prime x470 + ryzen 2700 a 180 + 180 euro... come ram ho usato delle DDR4 da 115 euro pensate per Intel che sono state lette a 3000CL15 senza battere ciglio, e come dissipatore alla fine ho tenuto quello standard perchè tanto non scalda più granchè.
Poi ok a volte smanettare è parte del piacere stesso e in tal caso nulla da dire :D ma con un budget simile a quello della piattaforma Intel probabilmente potresti prenderci la piattaforma AMD + monitor 4k.
...che ti porterebbe ad avere le stesse identiche prestazioni di uno che ha il 9900k, ma una resa visiva nettamente migliore.
Io infatti ho riflettuto se prendere già ora una CPU Intel come il nuovo i7 o l'i9, ma alla fine trovo che la soluzione AMD sia più conveniente come rapporto prezzo/prestazioni, e quindi aspetto Zen 2, che pare sarà proprio un bel salto in avanti rispetto a Zen 1.
Io infatti ho riflettuto se prendere già ora una CPU Intel come il nuovo i7 o l'i9, ma alla fine trovo che la soluzione AMD sia più conveniente come rapporto prezzo/prestazioni, e quindi aspetto Zen 2, che pare sarà proprio un bel salto in avanti rispetto a Zen 1.Sono nella stessa tua situazione. Dopo 5 anni e mezzo di onorato servizio con zen 2 sarà tempo di pensionare il mio 5820k se AMD non si dà la zappa sui piedi.
Altro che 600 euro per quell'altoforno del 9900k.
Inviato dal mio SM-G960F utilizzando Tapatalk
Sono nella stessa tua situazione. Dopo 5 anni e mezzo di onorato servizio con zen 2 sarà tempo di pensionare il mio 5820k se AMD non si dà la zappa sui piedi.
Altro che 600 euro per quell'altoforno del 9900k.
Inviato dal mio SM-G960F utilizzando Tapatalk
Assolutamente, certo, son 6/7 mesi di attesa, ma IMHO ne vale la pena.
nagashadow
18-11-2018, 13:41
ragazzi giocando in 2k a 144hz ha senso passare da 1080 ti ad una rtx 2080?
la 2080 in % di quanto é piu potente rispetto alla 1080 ti?
grazie
ragazzi giocando in 2k a 144hz ha senso passare da 1080 ti ad una rtx 2080?
la 2080 in % di quanto é piu potente rispetto alla 1080 ti?
grazie
E' una 1080 Ti, la può staccare col tempo di un 5% circa, IMHO, grazie ai driver (Turing gira ancora su driver acerbi che ancora portano a vari difetti e crash) e un utilizzo migliore delle DX12 (tali API sono ancora utilizzate marginalmente e anche male) dove Turing è equipaggiata meglio di Pascal in questo senso.
TigerTank
18-11-2018, 13:48
Ma di quadro morte, nulla? Condividono lo stesso chip, solo con le samsung a doppio MC.
Curioso il fatto che downclockando le ram, le schede che davano problemi non ne hanno più dato, ed anche più curioso che la quadro basata su GT106, monti le ddr6 a 13gb/s.
Questo chip è stato appena rilasciato.
Il TU106 non è neppure un chip di scarto.
Mike tu che sei esperto, guarda QUI (http://www.coolpc.com.tw/phpBB2/viewtopic.php?t=253720).
E' in giappocinese ma ci sono un bel pò di foto di teardown delle RTX 6000 e 5000.
Thunder-74
18-11-2018, 14:12
Se vi interessa, sto testando il mio 9900k a 5ghz su tutti i cores , con voltaggio 1,32v. Ho sopra un h110 (aio da 280). In game le temp sono accettabilissime, 60/65 gradi. È quando si vanno ad usare le istruzioni AVX; che salgono. Per queste, quando usa il pc per altri scopi oltre al gaming, ho impostato su scheda madre un offset di meno 300mhz per tali istruzioni, così tutto gira a 4700 e amen. Ovviamente ho disattivato le limitazioni TDP di Intel dei 95w.
Inviato dal mio iPad utilizzando Tapatalk
mikael84
18-11-2018, 14:17
Mike tu che sei esperto, guarda QUI (http://www.coolpc.com.tw/phpBB2/viewtopic.php?t=253720).
E' in giappocinese ma ci sono un bel pò di foto di teardown delle RTX 6000 e 5000.
Praticamente cambia solo la posizione dei connettori di alimentazione, ed un pin in meno (levato) su GT102 RTX6000.
A parte quello, montano le samsung HC14 da 2gb a canale.
Il resto è identico, a partire dai controller.
L'unica vera differenza, se vogliamo è che sono i chip più puri.
Ciao ragazzi non sto seguendo tantissimo le nuove GPU,ma siccome Gioco su una TV OLED 4 k con una GTX 1070,
Volevo valutare un upgrade visto che inizio a faticare con 30fps fissi ad ultra su alcuni giochi.
Escludendo bla rtx 2080ti che è fuori badget,se prendo una rtx 2070 faccio un bel upgrade?
O meglio andare su una rtx 2080?
Ci sono problemi con queste nuove GPU?
In attesa di passare ad un i9 9900k, sto usando una asus dual fan 2080ti abbinata ad un i7 4770k overcloccato a 4.4.
Rispetto alla mia precedente scheda (1080ti), c'è stato un incremento delle prestazioni (in tutti i giochi) quasi nullo, segno evidente che la cpu fa da pesante collo di bottiglia. Differenze le noto solo nei benchmark tipo Superposition, 3d mark, Final fantasy XV.
La scheda per il momento va benissimo
È normale che inizia a faticare ilun 4770k, magari se giochi in 4k nativi perdi pochi FPS ma in risoluzione più basse si perde abbastanza...
amon.akira
18-11-2018, 15:23
E' una 1080 Ti, la può staccare col tempo di un 5% circa, IMHO, grazie ai driver (Turing gira ancora su driver acerbi che ancora portano a vari difetti e crash) e un utilizzo migliore delle DX12 (tali API sono ancora utilizzate marginalmente e anche male) dove Turing è equipaggiata meglio di Pascal in questo senso.
Hellblade 1440 (https://tpucdn.com/reviews/Zotac/GeForce_RTX_2070_AMP_Extreme/images/hellblade_2560-1440.png)
Wolfenstein 2 4k (https://tpucdn.com/reviews/Zotac/GeForce_RTX_2070_AMP_Extreme/images/wolfenstein-2_3840-2160.png)
Performance 4k (https://tpucdn.com/reviews/Zotac/GeForce_RTX_2070_AMP_Extreme/images/relative-performance_3840-2160.png)
diciamo un +10% medio, poi nei titoli pro turing la 2080 non la vede proprio la ti...altro che futuro +5%
Ciao ragazzi non sto seguendo tantissimo le nuove GPU,ma siccome Gioco su una TV OLED 4 k con una GTX 1070,
Volevo valutare un upgrade visto che inizio a faticare con 30fps fissi ad ultra su alcuni giochi.
Escludendo bla rtx 2080ti che è fuori badget,se prendo una rtx 2070 faccio un bel upgrade?
O meglio andare su una rtx 2080?
Ci sono problemi con queste nuove GPU?Pure io gioco su oled 4k e posso dirti che in alcuni giochi tipo shadow TR e l ombra della guerra per mantenere i 60fps rock solid mi sono dovuto accontentare di giocare a 3200x1800p ovviamente i giochi tutti maxati.
La 2070 mi pare un po sottotono per il 4k,la vedo piu per un 1440p.
Se invece ti accontenti dei 30 fps(ma allora giocare su pc avrebbe poco senso imho)allora puo bastare anche la 2070.
Inviato dal mio LG-H870 utilizzando Tapatalk
Secondo me non ti basta nemmeno la 2080 per il 4k.Ci sono novità per quanto riguarda le schede rotte?
Secondo me non ti basta nemmeno la 2080 per il 4k.Ci sono novità per quanto riguarda le schede rotte?Se vuoi giocare tutto maxato a 4k 60 rock solid ci vuole la 2080ti e a volte non credo basti neppure quella.
Inviato dal mio LG-H870 utilizzando Tapatalk
Hellblade 1440 (https://tpucdn.com/reviews/Zotac/GeForce_RTX_2070_AMP_Extreme/images/hellblade_2560-1440.png)
Wolfenstein 2 4k (https://tpucdn.com/reviews/Zotac/GeForce_RTX_2070_AMP_Extreme/images/wolfenstein-2_3840-2160.png)
Performance 4k (https://tpucdn.com/reviews/Zotac/GeForce_RTX_2070_AMP_Extreme/images/relative-performance_3840-2160.png)
diciamo un +10% medio, poi nei titoli pro turing la 2080 non la vede proprio la ti...altro che futuro +5%
Ma sicuramente, mi son tenuto basso di proposito, in titoli da poco usciti già la stacca abbastanza, vedi Tomb Raider. E' un architettura ancora tutta da spremere, poi conta pure il DLSS dove si potrà usare.
Secondo me non ti basta nemmeno la 2080 per il 4k.Ci sono novità per quanto riguarda le schede rotte?
Con dei compromessi è già una scheda da 4K, volendo, però è una risoluzione ancora molto pesante da gestire, diciamo che non riesci a tenertela bene per 3 anni, a differenza del 1440p che già una 1070 ancora tiene bene con gli ultimi titoli. La 2080, IMHO, nasce per il 1440p a medio-alto refresh maxato.
Pure io gioco su oled 4k e posso dirti che in alcuni giochi tipo shadow TR e l ombra della guerra per mantenere i 60fps rock solid mi sono dovuto accontentare di giocare a 3200x1800p ovviamente i giochi tutti maxati.
La 2070 mi pare un po sottotono per il 4k,la vedo piu per un 1440p.
Se invece ti accontenti dei 30 fps(ma allora giocare su pc avrebbe poco senso imho)allora puo bastare anche la 2070.
Inviato dal mio LG-H870 utilizzando Tapatalk
un piccolo ot, ma anche a voi Shadow of The Tomb Raider in HDR su Oled sembra peggio che in sdr? Ho provato fatto anche prove varie (422, 10, 12bpc @30Hz etc), ma, con 1080, perdo una tale quantità di dettagli sulle scene scure da preferire l'sdr. questo con i 399.24 però, non avevo provato con la serie 400.
ps: io cmq personalmente per 4k rimarrei con la 1080 Ti vs 2080 liscia, con alcuni titoli se si cazzeggia un po' si riescono a finire tranquillamente gli 8GB di Vram già adesso, quando avevo uno sli di 1080 ad esempio con GTAV riuscivo a fargli usare tutti e 16 i GB di vram in 4k con "un po'" di msaa e tutto maxato, difatti per me le taglie di vram invariate sono una delle delusioni più grandi di questa generazione.
Poi le considerazioni sono varie ed anche soggettive, ma personalmente il salto non lo farei se non vs Ti.
https://preview.ibb.co/fPZQn0/SLI-VRAM-GTAV.png (https://ibb.co/gf0LLL)
Pure io gioco su oled 4k e posso dirti che in alcuni giochi tipo shadow TR e l ombra della guerra per mantenere i 60fps rock solid mi sono dovuto accontentare di giocare a 3200x1800p ovviamente i giochi tutti maxati.
La 2070 mi pare un po sottotono per il 4k,la vedo piu per un 1440p.
Se invece ti accontenti dei 30 fps(ma allora giocare su pc avrebbe poco senso imho)allora puo bastare anche la 2070.
Inviato dal mio LG-H870 utilizzando Tapatalk
Lo so' che come dici tu a poco senso,ma per giocare a 60fps ad ultra ci vuole una 2080ti,se devo calare i dettagli tanto vale che uso la Xbox One x...
Nn voglio spendere 1300 euro ovviamente ho anche la console...
Lo so' che come dici tu a poco senso,ma per giocare a 60fps ad ultra ci vuole una 2080ti,se devo calare i dettagli tanto vale che uso la Xbox One x...
Nn voglio spendere 1300 euro ovviamente ho anche la console...Io ad esempio con la 2080 tomb raider l ho impostato a 3200x1800p tutto maxato e reggo i 60 rock solid e la qualita d immagine è vicinissima al 4k nativo.
Cmq per quanto riguarda l HDR io lo vedo benissimo sul 65c8,niente crash black e i dettagli in penombra si vedono benissimo.
Inviato dal mio LG-H870 utilizzando Tapatalk
Kostanz77
18-11-2018, 18:13
un piccolo ot, ma anche a voi Shadow of The Tomb Raider in HDR su Oled sembra peggio che in sdr? Ho provato fatto anche prove varie (422, 10, 12bpc @30Hz etc), ma, con 1080, perdo una tale quantità di dettagli sulle scene scure da preferire l'sdr. questo con i 399.24 però, non avevo provato con la serie 400.
ps: io cmq personalmente per 4k rimarrei con la 1080 Ti vs 2080 liscia, con alcuni titoli se si cazzeggia un po' si riescono a finire tranquillamente gli 8GB di Vram già adesso, quando avevo uno sli di 1080 ad esempio con GTAV riuscivo a fargli usare tutti e 16 i GB di vram in 4k con "un po'" di msaa e tutto maxato, difatti per me le taglie di vram invariate sono una delle delusioni più grandi di questa generazione.
Poi le considerazioni sono varie ed anche soggettive, ma personalmente il salto non lo farei se non vs Ti.
https://preview.ibb.co/fPZQn0/SLI-VRAM-GTAV.png (https://ibb.co/gf0LLL)
penso che molti giochi occupino(memoria allocata)quasi tutta la VRAM, anche quella che non gli serve ......a prescindere dal quantitativo di memoria che possiede a bordo la scheda video
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
In attesa di passare ad un i9 9900k, sto usando una asus dual fan 2080ti abbinata ad un i7 4770k overcloccato a 4.4.
Rispetto alla mia precedente scheda (1080ti), c'è stato un incremento delle prestazioni (in tutti i giochi) quasi nullo, segno evidente che la cpu fa da pesante collo di bottiglia. Differenze le noto solo nei benchmark tipo Superposition, 3d mark, Final fantasy XV.
La scheda per il momento va benissimociao mi sembra strano che a parita di cpu non vedi la differenza nei giochi tra la 1080ti e la 2080ti , la seconda deve andare di piu strano:confused: comunque la asus dual 2080 ti la consiglieresti:) grazie
penso che molti giochi occupino(memoria allocata)quasi tutta la VRAM, anche quella che non gli serve ......a prescindere dal quantitativo di memoria che possiede a bordo la scheda video
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
Dipende dai motori ma in questo caso specifico, GTA V, la VRAM occupata è esattamente quella stimata dalla schermata delle opzioni grafiche, con 8GBdi VRAM a 4K non si può maxare tutto in quel caso (neanche con 11...), o cmq si può fare ignorando i limiti ma con dei cali prestazionali significativi.
Cmq era giusto un esempio di un titolo dove effettivamente possono servire più di 8GB di vram, il concetto era che, a mio avviso, ci sono anche dei contro a passare da una 1080ti ad una 2080 liscia, non solo pro.
mikael84
18-11-2018, 22:52
un piccolo ot, ma anche a voi Shadow of The Tomb Raider in HDR su Oled sembra peggio che in sdr? Ho provato fatto anche prove varie (422, 10, 12bpc @30Hz etc), ma, con 1080, perdo una tale quantità di dettagli sulle scene scure da preferire l'sdr. questo con i 399.24 però, non avevo provato con la serie 400.
ps: io cmq personalmente per 4k rimarrei con la 1080 Ti vs 2080 liscia, con alcuni titoli se si cazzeggia un po' si riescono a finire tranquillamente gli 8GB di Vram già adesso, quando avevo uno sli di 1080 ad esempio con GTAV riuscivo a fargli usare tutti e 16 i GB di vram in 4k con "un po'" di msaa e tutto maxato, difatti per me le taglie di vram invariate sono una delle delusioni più grandi di questa generazione.
Poi le considerazioni sono varie ed anche soggettive, ma personalmente il salto non lo farei se non vs Ti.
Il doppio MC purtroppo ce l'ha solo Samsung, e viene utilizzato dalle quadro.
Per crearlo con hynix/micron dovresti utilizzare quello a conchiglia sui 2 lati, anche questo è utilizzato solo nella RTX 8000 che raggiunge i 48gb.;)
Con i 7nm si spera, che finalmente tutte le ram siano a doppio MC, ovvero 16gb su un 256bit.
Cmq con GTA5, non è che utilizzavi 16gb, ma 7,3gb, la ram nello SLI non si somma, piuttosto causa un lieve aumento della stessa.
In 4k l'MSAA non serve a nulla, devasta le rop's ed incremente la vram per nulla, a meno di non avere pannelli giganteschi, è bene levarlo, magari utilizzando un reshade, che ti cambia il gioco a livello visivo.
GTA5 in 4k dovrebbe assestarsi sui 6gb così.;)
Il doppio MC purtroppo ce l'ha solo Samsung, e viene utilizzato dalle quadro.
Per crearlo con hynix/micron dovresti utilizzare quello a conchiglia sui 2 lati, anche questo è utilizzato solo nella RTX 8000 che raggiunge i 48gb.;)
Con i 7nm si spera, che finalmente tutte le ram siano a doppio MC, ovvero 16gb su un 256bit.
Cmq con GTA5, non è che utilizzavi 16gb, ma 7,3gb, la ram nello SLI non si somma, piuttosto causa un lieve aumento della stessa.
In 4k l'MSAA non serve a nulla, devasta le rop's ed incremente la vram per nulla, a meno di non avere pannelli giganteschi, è bene levarlo, magari utilizzando un reshade, che ti cambia il gioco a livello visivo.
GTA5 in 4k dovrebbe assestarsi sui 6gb così.;)
Hai ragione, GTA V segna erroneamente l'utilizzo di tutta la vram in sli (o meglio la usa si ma semplicemente perchè l'alloca in entrambe le schede), ci ero cascato, meglio così, vorrà dire che queste generazioni non sono già così spremute come avevo erroneamente pensato.
Scusate quindi la precedente opinione fuorviante. ;) :)
Che poi la condivisione della vram in sli è una feature utilizzabile si con l'nvlink, ma non con lo sli su nvlink come sulle rtx gaming (nè tantomeno con il "vecchio" sli), malgrado ciò fosse risaputo dal lancio delle touring mi ero fatto illudere di qualche workaround da una mera visualizzazione grafica fuorviante :fagiano:
fraussantin
19-11-2018, 07:03
Secondo me non ti basta nemmeno la 2080 per il 4k.Ci sono novità per quanto riguarda le schede rotte?Stanno iniziando a saltare alcune 2070 windforce, quelle che si vedevano in rete a 500 euro un po ovunque ..
Bah speriamo bene.
Ma quello store che citano molti stranieri nei vari forum : neweggs è affidabile e vende da noi ?(giusto per conoscenza )
Cmq ai tratta di pochi casi e son sicuro che a chi capita lo posta ovunque.
Ps ma qui sul forum è saltata a nessuno la gpu ?
Predator_1982
19-11-2018, 07:14
Sono nella stessa tua situazione. Dopo 5 anni e mezzo di onorato servizio con zen 2 sarà tempo di pensionare il mio 5820k se AMD non si dà la zappa sui piedi.
Altro che 600 euro per quell'altoforno del 9900k.
Inviato dal mio SM-G960F utilizzando Tapatalk
io credo saranno ottimi processori a 7nm, mi sa tanto che non appena usciti pensionerò il mio i7-7700k
Giovamas
19-11-2018, 08:06
Ps ma qui sul forum è saltata a nessuno la gpu ?
mi pare una 2080ti a Beatl ed una 2080 a Robhanamici.
tranieri nei vari forum : neweggs è affidabile e vende da noi ?(giusto per conoscenza )
Newegg è affidabile, vende da noi ma al prezzo indicato devi aggiungere l'iva e le spedizioni che per forza di cose non sono mai sotto i 20 dollari.
Giovamas
19-11-2018, 09:11
La 2080, IMHO, nasce per il 1440p a medio-alto refresh maxato.
esatto. 1440p / 120/144 Hz e dettagli alti. ed è un bel vedere :)
esatto. 1440p / 120/144 Hz e dettagli alti. ed è un bel vedere :)Bhe dipende dalle esigenze,io ad esempio preferisco godermela sull oled 65 stravaccato sul divano in 4k hdr a 60 fissi,ovviamente in qualche gioco occorrono dei compromessi tipo scaler a risoluzione piu bassa o dettagli alti.cmq è molto soggettiva la cosa.
Inviato dal mio LG-H870 utilizzando Tapatalk
scorpion73
19-11-2018, 10:04
Per tornare sul tema delle 2080Ti, il problema delle temperature dei banchi di GDDR6 sopra il chip e a destra del chip sulla FTW3 sembra possa essere mitigato di parecchio applicando dei pad termici fra la front plate ed il dissipatore nelle aree dove la front plate è attaccata alle memorie in modo che il calore possa essere dissipato non solo tramite la placca ma anche tramite il dissipatore.
Sul forum EVGA, un utente che ha effettuato questo tentativo con un fujipoly 11 ha guadagnato circa 10°C, quindi presumo che con il pad Gelid che ha più o meno la stessa termoconduttività (essendo 12 è anche un poco superiore) si possano avere risultati analoghi.
Sorprende che EVGA non abbia fatto sta cosa di fabbrica, ma EVGA con i pad ci si fa male da sola, non è la prima volta che succede, però se questo consente di passare da 76°C a 66°C ben venga farlo a casa...
scorpion73
19-11-2018, 10:17
Altra feature in rampa di lancio
https://www.tomshw.it/hardware/wolfenstein-ii-pronto-a-sfruttare-lnvidia-adaptive-shading-delle-gpu-turing/
Predator_1982
19-11-2018, 10:23
Altra feature in rampa di lancio
https://www.tomshw.it/hardware/wolfenstein-ii-pronto-a-sfruttare-lnvidia-adaptive-shading-delle-gpu-turing/
lo hanno implementato comunque su un gioco che già con la 1080 sul mio pc volava, comunque interessante anche questa feature in ottica risparmio risorse...ma esisterà mai un gioco che utilizzerà tutte queste tecnologie al day one..?? La verità è che, per come lavorano oggi come oggi le s.h, i giochi prima di ricevere ottimizzazioni degne di nota li si finisce 3 volte
TigerTank
19-11-2018, 10:23
Altra feature in rampa di lancio
https://www.tomshw.it/hardware/wolfenstein-ii-pronto-a-sfruttare-lnvidia-adaptive-shading-delle-gpu-turing/
Qualcosa mi dice che il nuovo Doom volerà leggero come una piuma :D
E al contrario il nuovo Metro sarà un bel mattonazzo. Avremo gli opposti :asd:
appleroof
19-11-2018, 10:28
Qualcosa mi dice che il nuovo Doom volerà leggero come una piuma :D
E al contrario il nuovo Metro sarà un bel mattonazzo. Avremo gli opposti :asd:
Ma perché hanno lo stesso motore? :eek:
TigerTank
19-11-2018, 10:32
Ma perché hanno lo stesso motore? :eek:
Vulkan, considerato come turing gestisca bene queste API ho idea che il nuovo Doom possa pure essere meglio del primo, che già volava :)
Se poi sfrutterà anche tale feature, meglio ancora!
appleroof
19-11-2018, 10:34
Vulkan, considerato come turing gestisca bene queste API ho idea che il nuovo Doom possa pure essere meglio del primo, che già volava :)
Se poi sfrutterà anche tale feature, meglio ancora!
Ah ok, non seguo tanto ma mi pareva comunque strano :D
TigerTank
19-11-2018, 10:45
Ah ok, non seguo tanto ma mi pareva comunque strano :D
Wolfenstein 2 se non sbaglio usa l'ID Tech 6 come il primo Doom, per cui se aggiungono tale feature potrebbe essere che Doom Eternal con l'ID Tech 7 l'abbia già integrata in partenza, chissà :)
Io spero che come grafica-pesantezza sia come il primo, davvero cosa ottima a livello di ottimizzazione.
Jeetkundo
19-11-2018, 11:00
Per tornare sul tema delle 2080Ti, il problema delle temperature dei banchi di GDDR6 sopra il chip e a destra del chip sulla FTW3 sembra possa essere mitigato di parecchio applicando dei pad termici [cut]
Io scarterei questo modello a prescindere, con quello che si paga devo pure stare a smontare e ad aggiungermi io i pad termici? :D
scorpion73
19-11-2018, 11:07
Io scarterei questo modello a prescindere, con quello che si paga devo pure stare a smontare e ad aggiungermi io i pad termici? :D
Assolutamente no, ma per chi già ce l'ha può essere utile farlo...
TigerTank
19-11-2018, 11:30
Imho visto che i problemi non le hanno solo le reference, tanto vale pigliare o le FE direttamente da Nvidia(tranne la 2070) almeno ci si rifà a loro, una evga "normale" (XC o Black) o una scheda su amazon "venduto e spedito da".
E incrociare le dita ma con alle spalle una buona situazione di garanzia. Inutile andare sulle custom più costose se saltano fuori cose ridicole come il power balancing sulla Trio o i pad sulla FTW.
O aspettare.
Qualcosa mi dice che il nuovo Doom volerà leggero come una piuma :D
E al contrario il nuovo Metro sarà un bel mattonazzo. Avremo gli opposti :asd:
L'engine di Metro è sempre stato molto pesante, ma è proprio con engine del genere che ci vorrebbero API come Vulkan/DX12. Wolfenstein 2 per resa visiva e performance è tra le cose migliori uscite in questi ultimi anni, ma proprio perché l'engine usato è molto sofisticato e supporta le nuove API.
scorpion73
19-11-2018, 11:41
Imho visto che i problemi non le hanno solo le reference, tanto vale pigliare o le FE direttamente da Nvidia(tranne la 2070) almeno ci si rifà a loro, una evga "normale" (XC o Black) o una scheda su amazon "venduto e spedito da".
E incrociare le dita ma con alle spalle una buona situazione di garanzia. Inutile andare sulle custom più costose se saltano fuori cose ridicole come il power balancing sulla Trio o i pad sulla FTW.
O aspettare.
Tiger, per prendere una XC almeno prendere una XC Ultra, per lo meno stai meglio come dissipazione rispetto alla FE ad una differenza di costo non abissale.
La FTW3 secondo me è la migliore scheda come PCB: non capisco proprio come mai le memorie su quella scheda abbiano questa differenza di calore: secondo me è una differenza che sta su tutte le schede, non so le FE al limite se ce l'hanno, perché non mi ricordo se hanno la front plate o se è tutto un monoblocco dissipante... solo che non avendo i sensori separati sulle RAM a differenza della FTW3 nessuno se ne accorge...
Giovamas
19-11-2018, 15:04
Bhe dipende dalle esigenze,io ad esempio preferisco godermela sull oled 65 stravaccato sul divano in 4k hdr a 60 fissi,ovviamente in qualche gioco occorrono dei compromessi tipo scaler a risoluzione piu bassa o dettagli alti.cmq è molto soggettiva la cosa.
Inviato dal mio LG-H870 utilizzando Tapatalk
certo. soggettiva è la parola giusta. e ti dirò che a volte mi viene voglia di provare cosa succeda sul mio 65 (non ho un OLED cmq una gran tv imho).. ma niente mi piace come il buon monitor. Peccato che mi sta facendo bestemmiare il mio con i driver
fraussantin
19-11-2018, 16:04
Edit
TigerTank
19-11-2018, 16:37
Tiger, per prendere una XC almeno prendere una XC Ultra, per lo meno stai meglio come dissipazione rispetto alla FE ad una differenza di costo non abissale.
La FTW3 secondo me è la migliore scheda come PCB: non capisco proprio come mai le memorie su quella scheda abbiano questa differenza di calore: secondo me è una differenza che sta su tutte le schede, non so le FE al limite se ce l'hanno, perché non mi ricordo se hanno la front plate o se è tutto un monoblocco dissipante... solo che non avendo i sensori separati sulle RAM a differenza della FTW3 nessuno se ne accorge...
Sono stato generico in base anche all'opzione della messa a liquido, dove imho tanto vale investire piuttosto la differenza di prezzo nel fullcover reference.
Per il resto boh...considerato che le custom non hanno vantaggi in oc(che poi si dovrebbe piuttosto parlare di ottimizzazione frequenza-voltaggio-PL), che il pcb reference a questo giro è praticamente un custom e che le cause dei problemi non riguarderebbero la temperatura, la differenza di prezzo della FTW(2080Ti sono quasi 200€ in più della FE) varrebbe solo per i sensori.
Sono stato generico in base anche all'opzione della messa a liquido, dove imho tanto vale investire piuttosto la differenza di prezzo nel fullcover reference.
Per il resto boh...considerato che le custom non hanno vantaggi in oc(che poi si dovrebbe piuttosto parlare di ottimizzazione frequenza-voltaggio-PL), che il pcb reference a questo giro è praticamente un custom e che le cause dei problemi non riguarderebbero la temperatura, la differenza di prezzo della FTW(208Ti sono quasi 200€ in più della FE) varrebbe solo per i sensori.
quoto FE e fullcover tutta la vita
Giocattolone arrivato!
https://preview.ibb.co/jofeX0/20181119-151348.jpg (https://ibb.co/fS3cKf)
Giocattolino arrivato!
https://preview.ibb.co/fPQDs0/20181119-181842.jpg (https://ibb.co/kAvref)
Appena ho modo monto, con il clima di terrore attorno a queste schede... speriamo bene!
ps: certo un'adesivetto potevano anche mettercelo nella scatola, che pulciari. Stanno due stretch per cavi un supporto ottico ed un manuale generico ancor più inutile del supporto ottico, e basta. Vabbè l'importante è la scheda, ovviamente, ma un po' di contorno non guasterebbe vista la fascia.
Iceman69
19-11-2018, 18:13
Giocattolone arrivato!
Giocattolino arrivato!
Appena ho modo monto, con il clima di terrore attorno a queste schede... speriamo bene!
ps: certo un'adesivetto potevano anche mettercelo nella scatola, che pulciari. Stanno due stretch per cavi un supporto ottico ed un manuale generico ancor più inutile del supporto ottico, e basta. Vabbè l'importante è la scheda, ovviamente, ma un po' di contorno non guasterebbe vista la fascia.
A me dovrebbe arrivare mercoledì. Facci sapere come va la tua, sono curioso ...
Kostanz77
19-11-2018, 18:22
Giocattolone arrivato!
https://preview.ibb.co/jofeX0/20181119-151348.jpg (https://ibb.co/fS3cKf)
Giocattolino arrivato!
https://preview.ibb.co/fPQDs0/20181119-181842.jpg (https://ibb.co/kAvref)
Appena ho modo monto, con il clima di terrore attorno a queste schede... speriamo bene!
ps: certo un'adesivetto potevano anche mettercelo nella scatola, che pulciari. Stanno due stretch per cavi un supporto ottico ed un manuale generico ancor più inutile del supporto ottico, e basta. Vabbè l'importante è la scheda, ovviamente, ma un po' di contorno non guasterebbe vista la fascia.
È la Ti?
Bhe dipende dalle esigenze,io ad esempio preferisco godermela sull oled 65 stravaccato sul divano in 4k hdr a 60 fissi,ovviamente in qualche gioco occorrono dei compromessi tipo scaler a risoluzione piu bassa o dettagli alti.cmq è molto soggettiva la cosa.
Inviato dal mio LG-H870 utilizzando Tapatalk
Vero, dipende dalle esigenze di ognuno, volendo ora come ora una 2080 può bastare per il 4k, ma è già un po' ai limiti, e non invecchierà bene da qui a tre anni (considero tre anni il ciclo di vita di una GPU prima di stare ad alti compromessi). Tra tre anni invece, scommetto che in 1440p andrà bene come ora va ancora molto bene una 980 o una 390x in 1080p, tanto per capirci. Per standardizzare il 4k io credo che ci voglia una GPU che faccia, rispetto a 2080/Ti, circa 40/50 fps in più, performance che dovremmo avere tra tre anni.
TigerTank
19-11-2018, 18:37
Vero, dipende dalle esigenze di ognuno, volendo ora come ora una 2080 può bastare per il 4k, ma è già un po' ai limiti, e non invecchierà bene da qui a tre anni (considero tre anni il ciclo di vita di una GPU prima di stare ad alti compromessi). Tra tre anni invece, scommetto che in 1440p andrà bene come ora va ancora molto bene una 980 o una 390x in 1080p, tanto per capirci. Per standardizzare il 4k io credo che ci voglia una GPU che faccia, rispetto a 2080/Ti, circa 40/50 fps in più, performance che dovremmo avere tra tre anni.
RTX OFF = vanno benone(tralasciando questione morìa).
RTX ON = non pretendere troppo e aspetta la serie 3000.
:D
NVIDIA RTX 2080 Ti DELISTED - Is a RECALL Coming?
https://youtu.be/mUpLU7JrTvA
È tutto vero, ho visto il sito ufficiale Nvidia e non le vendono più. sono finite tutte perché le hanno mandate in rma :D :D :D
In tutto questo sta arrivando la mia 2080, spero di non aver fatto la c@xxata del secolo :doh: :sperem:
TigerTank
19-11-2018, 18:43
NVIDIA RTX 2080 Ti DELISTED - Is a RECALL Coming?
https://youtu.be/mUpLU7JrTvA
È tutto vero, ho visto il sito ufficiale Nvidia e non le vendono più. sono finite tutte perché le hanno mandate in rma :D :D :D
In tutto questo sta arrivando la mia 2080, spero di non aver fatto la c@xxata del secolo :doh: :sperem:
In effetti l'altro giorno ho visto questo (https://forums.geforce.com/default/topic/1080376/geforce-rtx-20-series/rtx-2080-ti-gone-from-nvidia-store/) ma ho voluto considerarlo solo un effetto della pandemia.
Però ora vedo che sta succendo anche questo (https://forums.geforce.com/default/topic/1079840/geforce-rtx-20-series/10-days-without-news-from-nvidia-for-my-rma-18-days-now-/) e direi che non sia cosa bella il fatto che inizino pure ritardi nella gestione rma.
Se la produzione è quella che è per la complessità del chip e si aggiunge anche una certa % di esemplari fallati da sostituire...di sicuro prima di un restock sarebbe onesto provvedere agli rma :D
Io invece ho ordinato la seconda 2080ti FE l’8/11 ed ancora devono spedire
Dovrebbe essere uscita la patch di Wolfenstein.
Io non ho il gioco, se qualcuno può provare, sarei curioso.
NVIDIA RTX 2080 Ti DELISTED - Is a RECALL Coming?
https://youtu.be/mUpLU7JrTvA
È tutto vero, ho visto il sito ufficiale Nvidia e non le vendono più. sono finite tutte perché le hanno mandate in rma :D :D :D
In tutto questo sta arrivando la mia 2080, spero di non aver fatto la c@xxata del secolo :doh: :sperem:
Secondo voi si estende alle 2070 questa problematica o finora tutto ok?
EDIT o meglio, intendevo ci sono stati RMA di 2070 che si sappia?
fraussantin
19-11-2018, 20:15
Secondo voi si estende alle 2070 questa problematica o finora tutto ok?
EDIT o meglio, intendevo ci sono stati RMA di 2070 che si sappia?Si ci sono stati.
Sono pochi , riguardano alcune reference , altre gigsbyte e un paio di asus.
Almeno leggendo nei vari forum internazionali .
scorpion73
19-11-2018, 20:50
Sono stato generico in base anche all'opzione della messa a liquido, dove imho tanto vale investire piuttosto la differenza di prezzo nel fullcover reference.
Per il resto boh...considerato che le custom non hanno vantaggi in oc(che poi si dovrebbe piuttosto parlare di ottimizzazione frequenza-voltaggio-PL), che il pcb reference a questo giro è praticamente un custom e che le cause dei problemi non riguarderebbero la temperatura, la differenza di prezzo della FTW(2080Ti sono quasi 200€ in più della FE) varrebbe solo per i sensori.
Se liquidi si sono d'accordo con te anche perché la XC ultra ha il PCB della reference.
Io però non ho il liquido allo stato per le VGA e quindi siccome la devo prendere ad aria a sto giro devo prendere una soluzione di raffreddamento adeguata alla mole.
Ecco perché punto almeno la XC Ultra o meglio la FTW che ha PCB migliore con RAM più distanti dalla GPU e raffreddamento migliore, quindi più longevità dei componenti.
A liquido sono d'accordo con te ....
TigerTank
19-11-2018, 20:58
Vedi un pò tu, io di solito sono pro-evga ma se mi tira fuori una scheda da quasi 1500€ che poi presenta problemi di vram bollenti al punto da richiedere un cambio dei pad...allora mi scatta la critica :D
E sperando che non sia così pure sulle altre :doh:
scorpion73
19-11-2018, 21:03
Vedi un pò tu, io di solito sono pro-evga ma se mi tira fuori una scheda da quasi 1500€ che poi presenta problemi di vram bollenti al punto da richiedere un cambio dei pad...allora mi scatta la critica :D
E sperando che non sia così pure sulle altre :doh:
A parte che io non sto comprando nulla al momento, non voglio buttare soldi nel secchio fino a che non è chiaro che sta succedendo con sti chip, ma non avendo il liquido tu allora che faresti scusa...
O prendi la XC Ultra, ma ha il PCB reference e ne stanno morendo a iosa come tutte quelle che hanno il PCB reference, oppure cerchi di andare su qualcosa di meglio e lo metti a posto con due pad, se quella è la cura mi sembra il minore dei mali (non sono da sostituire, sono da aggiungere sopra la front plate in modo da creare un contatto fra questa e il dissipatore anche nella zona delle memorie, visto che in quella zona ci passano le heatpipe)
Sono d'accordo con te sul discorso dei 1500 euro, ma l'altra nel costa 1300 e, oltre a scaldare di più, muore lo stesso.
Che poi non sai le memorie quando vanno su di calore li' perché non ci sono i sensori, magari scaldano ancora di più...
Con sta moria di schede di altre marche non ne voglio sentire parlare perché l'unica che dà assistenza certa e diretta è EVGA e quella è da considerare... il resto sono tutte scommesse o tempi biblici...
TigerTank
19-11-2018, 22:13
Sì su questo concordo. Il punto è che muoiono non solo le reference e pure schede tenute rigorosamente a default o addirittura liquidate(vedi beatl).
E pure la FTW3, la punta della serie, ha questi strani problemi di temp. alte sulle vram.
Fai bene ad aspettare in attesa di chiarimenti, non sei il solo :)
È la Ti?
Yep!
https://i.postimg.cc/xckcrLV5/TuTiStri.gif (https://postimg.cc/xckcrLV5)https://i.postimg.cc/zbSTgKGK/Tu-Ti-Stri-Bios1.gif (https://postimg.cc/zbSTgKGK)https://i.postimg.cc/gLz8qjx5/Tu-Ti-Stri-Bios2.gif (https://postimg.cc/gLz8qjx5)
allora, per chi fosse interessato è arrivata con:
Memorie Micron
Bios 260/325W, come da precedenti avvistamenti ed upload su TPU, 90.02.0B.40.38
Full stock (bios P, tutto @default) con cpu@daily (8700k 5.1-5.0-3.2-14-2, di solito vado a 5.3-5.0-3.6-14 in bench) 13252 (https://www.3dmark.com/spy/5094620) al 3dM TimeSpy, come base di partenza direi che ci si può stare
in bench il clock della gpu in boost @default ha sfiorato 1950, ma ho fatto solo un paio di bench al volo senza monitorare accuratamente.
per ora funziona, sgraaaat, mo magari provo "addirittura" un qualche gioco :)
idle single monitor con qualche stupidaggine aperta a non far niente, case chiuso, bios P con ventole in automatico e ventoleria del case con profilo fisso medio/basso (750/1150rpm)
https://i.postimg.cc/dLTtNvGS/38s.png (https://postimg.cc/dLTtNvGS)
da quì semplicemente chiudendo le applicazioni di troppo sono andato di Time Spy Extreme Stress Test, non passato al 96.6% partendo dall'idle precedente (http://prntscr.com/lkh2pm), quello che può interessare è che, a parte i primi loop con variazioni dovute alla salita della temperature, dal terzo al ventesimo loop la temperatura si è attestata sui 61° con ventole al 50% decisamente sopportabili. La lettura dei valori massimi post test con GPU-Z è stata la seguente:
https://i.postimg.cc/Y9v8XsPL/Tu-Ti-Stri-Stock-post3dmtsest.gif (https://postimages.org/)
con il bios P il profilo delle ventole sembra comunque non troppo aggressivo, posso immaginare che il Q sia veramente discreto, durante il Time Spy Stress Test non ho avvertito quasi alcuna variazione dopo un piccolo assestamente iniziale. Ho poi testato la ventola al 100% per valutarne la rumorosità per eventuali sessioni di bench ad aria future: 3500rpm, si sente per bene, anche se ne ho di ben più acute e decisamente più rumorose, si piazza su di un livello di "fastidiosità soggettiva media".
piccolissimo valore aggiunto: su mb asus Aura Sync si ciappa, giustamente, anche lei, e tutto l'albero di natale va d'accordo. Ne avrei fatto volentieri a meno in cambio di una scheda due mesi fa, ma tant'è, le festività si avvicinano:
https://i.postimg.cc/hzwp29qw/20181119-232749.jpg (https://postimg.cc/hzwp29qw) https://i.postimg.cc/0b7cCMXW/20181119-232908.jpg (https://postimg.cc/0b7cCMXW) https://i.postimg.cc/c6pFYMht/20181119-233058.jpg (https://postimg.cc/c6pFYMht) https://i.postimg.cc/V5r7dHqc/20181120-002007.jpg (https://postimg.cc/V5r7dHqc) https://i.postimg.cc/y3Zntk1N/20181120-002230.jpg (https://postimg.cc/y3Zntk1N)
certo che il clima di terrore dietro queste schede ha fatto si che abbia perso una serata a testare solo i valori di stock, cosa che altrimenti dubito avrei mai fatto, vaaaabbè spero continui così, e che poi possa svulazzare un po' più libera...
:)
Bel lavoro Ciosko. Ora immagino farai le ore molto piccole, beh goditi la scheda. Complimenti :)
VR Filippo72
20-11-2018, 12:12
ciao mi sembra strano che a parita di cpu non vedi la differenza nei giochi tra la 1080ti e la 2080ti , la seconda deve andare di piu strano:confused: comunque la asus dual 2080 ti la consiglieresti:) grazie
In effetti neanche io mi sarei aspettato un tale collo di bottiglia con i7 4770k, purtroppo è così, non avevo fretta di acquistare la 2080ti ma mi è capitata capitata un'occasione irripetibile.
La Asus Dual fan va molto bene, boosta di base a 1965, ha un buon PL (120) e ottime performances come temperature e rumorosità, in undervolt va una meraviglia.
Unica negatività la Dual fan non ha lucette e led vari
athlon xp 2400
20-11-2018, 12:36
In effetti neanche io mi sarei aspettato un tale collo di bottiglia con i7 4770k, purtroppo è così, non avevo fretta di acquistare la 2080ti ma mi è capitata capitata un'occasione irripetibile.
La Asus Dual fan va molto bene, boosta di base a 1965, ha un buon PL (120) e ottime performances come temperature e rumorosità, in undervolt va una meraviglia.
Unica negatività la Dual fan non ha lucette e led vari
e' pur sempre una cpu del 2013 :O
Io me l'aspettavo eccome un certo bottleneck con il 4770k, anche pesante, parliamo di una CPU di 5 anni fa, il ciclo di vita di una CPU di alta fascia, in gaming, se ci fate caso, è nell'ordine dei 5 anni. Bisogna tenere anche conto che alcuni giochi possono fare la differenza non solo per semplice frequenza/numero di core, ect, ma anche per architettura, come dimenticare Rise of The Tomb Raider, che performava particolarmente meglio su Skylake piuttosto che su Haswell.
fraussantin
20-11-2018, 13:29
arrivata la piccolina(evga2070black) , e pare funzionare XD!!( non è male come inizio XD).
solamente il led sta spento , ora non è che mi metto a piangere per il led , ma dato che c`'e mi piaceva capire se è un difetto.
con cosa si accendono di solito da driver?con evga precision non si saccende
bagnino89
20-11-2018, 13:39
arrivata la piccolina(evga2070black) , e pare funzionare XD!!( non è male come inizio XD).
solamente il led sta spento , ora non è che mi metto a piangere per il led , ma dato che c`'e mi piaceva capire se è un difetto.
con cosa si accendono di solito da driver?con evga precision non si saccende
Si accende solo per segnalare una rottura :O
fraussantin
20-11-2018, 13:43
Si accende solo per segnalare una rottura :O
allora è meglio se sta spento XD
( scherzavi vero ?)
bagnino89
20-11-2018, 13:44
allora è meglio se sta spento XD
( scherzavi vero ?)
Sì che scherzavo :asd:
Goditela... Quanto fa in Superposition 1080p extreme?
fraussantin
20-11-2018, 13:45
Sì che scherzavo :asd:
Goditela... Quanto fa in Superposition 1080p extreme?
ah non lo so devo fare tutte le prove del caso ... un po alla volta
ps spe nella povery edition il led non c'è avevo capito male ... anima in pace non mi interessa era solo per capire
Mazza se tira Su SOTTR, partiamo con un paio di test:D
Test su 8700k 51 molti/50 cache 4133 c16, risoluzione 2560x1440, t ambiente 18-19 gradi.
Prima con un modesto oc (non sono al max le memorie tirano a +1000)
Questo primo test è un caso isolato rispetto agli altri postati di seguito, giusto per sapere quanto va spremuta in oc
Tutto Ultra con HBAO+DX12
2070-2085 mhz, Pl max 120%, memorie 15.6 gpbs (+800) ventole al 100% temp max 63-64 gradi
Fps medi 114
https://thumb.ibb.co/hvse0L/SOTTR-2018-11-20-13-39-54-799.jpg (https://ibb.co/hvse0L) https://thumb.ibb.co/ct5A70/SOTTR-2018-11-20-13-39-58-175.jpg (https://ibb.co/ct5A70)
Tutto Ultra con BTAO DX12
2070-2085 mhz, Pl max 120%, memorie 15.6 gpbs (+800) ventole al 100% temp max come sopra più o meno, ci ballano 2 gradi, il test precedente come già detto è stato fatto in condizioni (termiche) diverse
Fps Medi 120 abbiamo guadagnato +8%
https://thumb.ibb.co/nmo8uf/SOTTR-2018-11-20-13-48-33-603.jpg (https://ibb.co/nmo8uf) https://thumb.ibb.co/mW8V70/SOTTR-2018-11-20-13-48-36-687.jpg (https://ibb.co/mW8V70)
Ora passiamo all'uso daily UNDERVOLT con un regime delle ventole più parsimonioso.
Tutto Ultra con BTAO DX12
1920-1905mhz, 0.85v, Pl default 100%, memorie 15 Gpbs (+500) ventole al 70% temp max 55-56 gradi
Fps medi 111 andiamo quasi pari alla gpu overcloccata con hbao+ attivo, ma con consumi e temperature nettamente inferiori, già qui perdiamo quasi una decina di gradi, ricordando che le ventole qui sono al 70% e non al 100%
https://thumb.ibb.co/ghBa70/SOTTR-2018-11-20-14-02-05-872.jpg (https://ibb.co/ghBa70) https://thumb.ibb.co/imPHLL/SOTTR-2018-11-20-14-02-07-254.jpg (https://ibb.co/imPHLL)
Ultimo test per completezza undervolt con ventole al massimo (non consiglio fan al 100%:D :D ) giusto per rendere l'idea di quandi gradi si perdano a parità di condizioni
Tutto Ultra con BTAO DX12
1920-1905mhz, 0.85v, Pl default 100%, memorie 15 Gpbs (+500) ventole al 100% temp max 55-56 gradi
Fps medi 111 perdiamo più di 12 gradi rispetto alla prova con la scheda in oc con BTAO, perdendo un +8% di performance.
https://thumb.ibb.co/m07REf/SOTTR-2018-11-20-14-07-46-390.jpg (https://ibb.co/m07REf) https://thumb.ibb.co/hgwWfL/SOTTR-2018-11-20-14-07-48-042.jpg (https://ibb.co/hgwWfL)
OT come fai a visualizzare i W della cpu e della vga nell'osd?
bagnino89
20-11-2018, 13:51
ah non lo so devo fare tutte le prove del caso ... un po alla volta
ps spe nella povery edition il led non c'è avevo capito male ... anima in pace non mi interessa era solo per capire
Senza LED saranno almeno 5-10 FPS in meno... :p
Sulla mia i LED non si possono spegnere, se si potesse fare lo farei :asd:
Devi impostarlo con hwinfo64 (ovviamente devi prima scaricarlo:D ) ti lascio una guida veloce :
https://www.youtube.com/watch?v=zo1YpqFwBZ4
grazie più tardi ci provo:D
fraussantin
20-11-2018, 14:12
Senza LED saranno almeno 5-10 FPS in meno... :p
Sulla mia i LED non si possono spegnere, se si potesse fare lo farei :asd:Lol , si dei led non mi frega nulla , ma meglio senza led che con il led rotto xD
TigerTank
20-11-2018, 14:12
Ragazzi grazie per i post di test o di presentazione/mini-recensione delle nuove schedozze acquisite. Molto interessanti.
Ovviamente con l'augurio che continuino a funzionare bene.
Quella di prova45 poi, a quest'ora ormai dovrebbe avere il bollino "QC passed" a livello platinum da super rodaggio :sofico:
@Frauss: ottimo, goditela :)
Circa i led...ma è vero che sulle FE diventa anche rosso?
LINK (https://imgur.com/5DeZbSA)
X-ray guru
20-11-2018, 14:52
Circa i led...ma è vero che sulle FE diventa anche rosso?
Sì, 10 secondi prima di prenere fuoco. :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.