View Full Version : [Thread Ufficiale] nVidia Turing RTX 2080/2080ti
thunderforce83
21-12-2018, 19:48
Ciao Fabio, bentornato :D
Su amazon c'è la Zotac triventola a 1380€. Disponibile subito con il Prime e consegna alla vigilia.
sull amazonia spagnola l ho bloccata a 1230 (la trio) e mi sembra veramente un prezzo fantastico per la fascia in cui si trova questa scheda..adesso infatti e' gia' risalita a 1310...
thunderforce83
21-12-2018, 19:51
perdeonatemi ma la zotac proprio non la digerisco come linea..a parte che ha pcb reference e non mi piace manco questo, ma mi sono imposto di prendere una delle top quindi: strix,aorus,ftw3,o trio appunto
Scheda montata e testata velocemente senza fare nulla se non impostare filtro ad alta qualità nei driver.
Superposition 1080p extreme 9222 tutto stock. +80% secco sulla scheda in sign undervoltata. Scheda limitata da PL praticamente per tutto il tempo. Partita da 1980mhz circa e arrivata a 1890/1900 a fine bench.
Temp con ventola auto altine, la lasciano salire a 75gradi poi la tengono stabile con velocità massima ventole 1450rpm (47% circa mi pare) ma ancora non ho montato il ventolone da 200 in estrazione laterale. Scheda inudibile.
Viste le morie di schede la tengo qualche giorno così per vedere che non abbia problemi a default poi passo al downvolt e vediamo cosa ne tiro fuori!
Memorie Micron.
PS. Mi sembra di essere tornato nel 1998 con questo control panel :/
Finisco di sistemare il case e il ventolame e poi si gioca un po'!
https://i.postimg.cc/NK8Qx3cb/20181221-190245.jpg (https://postimg.cc/NK8Qx3cb)
https://i.postimg.cc/944J2hQY/20181221-195314.jpg (https://postimg.cc/944J2hQY)
https://i.postimg.cc/K1pJCzxY/20181221-195324.jpg (https://postimg.cc/K1pJCzxY)
EDIT: Ventolozzo laterale montato, stesso test di prima 73 gradi e ventola a 1320 rpm sempre tutto auto e scheda inudibile sulle ventole del case.
Domani provo un po' a giocare con le ventole. Secondo me ha ampio margine tra temp/silenziosità.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
thunderforce83
21-12-2018, 21:06
Scheda montata e testata velocemente senza fare nulla se non impostare filtro ad alta qualità nei driver.
Superposition 1080p extreme 9222 tutto stock. +80% secco sulla scheda in sign undervoltata. Scheda limitata da PL praticamente per tutto il tempo. Partita da 1980mhz circa e arrivata a 1890/1900 a fine bench.
Temp con ventola auto altine, la lasciano salire a 75gradi poi la tengono stabile con velocità massima ventole 1450rpm (47% circa mi pare) ma ancora non ho montato il ventolone da 200 in estrazione laterale. Scheda inudibile.
Viste le morie di schede la tengo qualche giorno così per vedere che non abbia problemi a default poi passo al downvolt e vediamo cosa ne tiro fuori!
Memorie Micron.
PS. Mi sembra di essere tornato nel 1998 con questo control panel :/
Finisco di sistemare il case e il ventolame e poi si gioca un po'!
https://i.postimg.cc/NK8Qx3cb/20181221-190245.jpg (https://postimg.cc/NK8Qx3cb)
https://i.postimg.cc/944J2hQY/20181221-195314.jpg (https://postimg.cc/944J2hQY)
https://i.postimg.cc/K1pJCzxY/20181221-195324.jpg (https://postimg.cc/K1pJCzxY)
EDIT: Ventolozzo laterale montato, stesso test di prima 73 gradi e ventola a 1320 rpm sempre tutto auto e scheda inudibile sulle ventole del case.
Domani provo un po' a giocare con le ventole. Secondo me ha ampio margine tra temp/silenziosità.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
mmm interessante...quasi quasi inizia proprio a piacermi questa trio nonostante all inizio l ho trattata male:D
Eschelon
21-12-2018, 21:13
Ma di quanto si aumenta da afterburner il core clock di base? L'ho messo subito a +100 e basemark gpu al lancio del benchmark andava in crash mentre settandolo a +25 è partito per dire.
amon.akira
21-12-2018, 22:15
Ma di quanto si aumenta da afterburner il core clock di base? L'ho messo subito a +100 e basemark gpu al lancio del benchmark andava in crash mentre settandolo a +25 è partito per dire.
io consiglio sempre la curva con ctrl+f oppure con l icona a sinistra della barra core clock, poichè cosi facendo alzi solo la parte finale del boost che è quello che a noi interessa, eliminando possibili instabilità a punti intermedi.
ecco un esempio della mia
https://i.imgur.com/suXbO66.png
Giovamas
21-12-2018, 22:32
Non è vero...la mia funziona benissimo :sofico:
ciao carissimo!:)
Ma di quanto si aumenta da afterburner il core clock di base? L'ho messo subito a +100 e basemark gpu al lancio del benchmark andava in crash mentre settandolo a +25 è partito per dire.
Giocato un’oretta buona a dragon age inquisition e devo ammettere che la scheda è totalmente inudibile, toppa i 75 gradi e poi aumenta la ventola per tenerla li. 1500rpm massimi al 45 percento. Domani gioco un po’ con una curva custom in maniera tale da tenerla più fresca lasciandola comunque non fastidiosa.
Tutta a stock è più silenziosa della Vega, non sembra ma la ventola da 120 del radiatore in alcuni frangenti era decisamente più rumorosa. (Si parla sempre di rumore a livelli molto bassi e per nulla fastidioso in nessun gioco ma lo si percepiva distintamente sopra le ventole del case).
La cosa che mi manca è il freesync. Con dragon age temevo il peggio ma sto gioco in dx11 maxato ammazzava la Vega(a causa della uber-tessellation), il boost con la 2080ti è tale che mi cappa quasi sempre i 100hz e il minimo che ho visto è stato 86fps, quindi non ne sento la mancanza per nulla. Ma con altri giochi non è così e dovrò creare delle custom resolution a 70 e 80hz per evitare il microstuttering.
Speriamo escano presto sti maledetti monitor ultrawide con gsync hdr.
Inviato dal mio iPad utilizzando Tapatalk
Preferisci tenere una scheda fissa a 75 gradi pur di non sentire un pò di rumore? Solo io vivo nell'ansia se supera i 50 gradi d'inverno? :sofico:
Vabbè ma ok tutto ma non è che sono scemi loro se impostano così la scheda eh. Comunque non ho detto che sta bene così, domani iniziò a giocare un po’ con i settings e credo ci sia ampio margine per aumentare le ventole prima che siano udibili realmente, la scheda è davvero silenziosa. Senza contare il downvolt, ma prima voglio assicurarmi non crepi nel giro di qualche giorno altrimenti poi non si capisce più niente tra crasi causati da downvolt eccessivo e possibili problemi.
Stasera l’ho usata solo stock che volevo giocare e basta (sono verso il finale di DA).
Inviato dal mio iPad utilizzando Tapatalk
Giovamas
22-12-2018, 07:21
Giocato un’oretta buona a dragon age inquisition e devo ammettere che la scheda è totalmente inudibile, toppa i 75 gradi e poi aumenta la ventola per tenerla li. 1500rpm massimi al 45 percento. Domani gioco un po’ con una curva custom in maniera tale da tenerla più fresca lasciandola comunque non fastidiosa.
Tutta a stock è più silenziosa della Vega, non sembra ma la ventola da 120 del radiatore in alcuni frangenti era decisamente più rumorosa. (Si parla sempre di rumore a livelli molto bassi e per nulla fastidioso in nessun gioco ma lo si percepiva distintamente sopra le ventole del case).
La cosa che mi manca è il freesync. Con dragon age temevo il peggio ma sto gioco in dx11 maxato ammazzava la Vega(a causa della uber-tessellation), il boost con la 2080ti è tale che mi cappa quasi sempre i 100hz e il minimo che ho visto è stato 86fps, quindi non ne sento la mancanza per nulla. Ma con altri giochi non è così e dovrò creare delle custom resolution a 70 e 80hz per evitare il microstuttering.
Speriamo escano presto sti maledetti monitor ultrawide con gsync hdr.
Inviato dal mio iPad utilizzando Tapatalk
io prendo a breve l'omen x5. il mio in sign non mi piace faccio il reso passare una risoluzione più bassa non l'ho digerito. Bello il gioco. io sto rifacendo il 2. finalmente delle belle boss figth nei dlc. ne ho fatta una più difficile imho del nameless king. bello il gioco e la scheda. di quella del mio amico invece si sono perse le tracce. sempre spedita... forse la portano con la slitta:D
piperprinx
22-12-2018, 07:26
Così poco sale?
Che temp?
E quanto aggiungi di freq alla gpu?
A me col bios di "soli" 338W (Evga Ultra) mi tiene i 2070 - 2085 a vdef.
uso curva automatica. Sale anche di piu' ma non sono stato a sbattermi.
2070 mi arriva con la stessa curva solo di temperatura alzando le ventole dell'aio, ma preferisco tenerle al minimo, non si sentono manco girare.
La differenza e' sulle temperature, con il tuo custom stai sotto a memoria di 10-15 gradi, io con roba pesante come odyssey arrivo a 59, tu se non sbaglio sei sotto i 50, sono due-tre step da 15 Mhz.
maxmix65
22-12-2018, 08:22
Vabbè ma ok tutto ma non è che sono scemi loro se impostano così la scheda eh. Comunque non ho detto che sta bene così, domani iniziò a giocare un po’ con i settings e credo ci sia ampio margine per aumentare le ventole prima che siano udibili realmente, la scheda è davvero silenziosa. Senza contare il downvolt, ma prima voglio assicurarmi non crepi nel giro di qualche giorno altrimenti poi non si capisce più niente tra crasi causati da downvolt eccessivo e possibili problemi.
Stasera l’ho usata solo stock che volevo giocare e basta (sono verso il finale di DA).
Inviato dal mio iPad utilizzando Tapatalk
Certo che se la scheda si crepa perche' fai una curva personalizzata della ventola per tenerla piu' fresca mi sembra eccessivo..
Io non ho mai tenuto le ventole in auto poi ho una decina di ventole nel pc e gioco con le cuffie isolanti ..il rumore non e' un problema almeno nel mio caso..
Se riesci ad abbassare le temp taglia meno le frequenze
Eschelon
22-12-2018, 08:50
io consiglio sempre la curva con ctrl+f oppure con l icona a sinistra della barra core clock, poichè cosi facendo alzi solo la parte finale del boost che è quello che a noi interessa, eliminando possibili instabilità a punti intermedi.
ecco un esempio della mia
https://i.imgur.com/suXbO66.png
Si devo cmq aumentarlo il clock e di quanto? Se avvio il grafico delle curve sembra bloccato, forse devo sbloccare o switchare qualcosa nella config del software
La cosa che mi manca è il freesync. Con dragon age temevo il peggio ma sto gioco in dx11 maxato ammazzava la Vega(a causa della uber-tessellation), il boost con la 2080ti è tale che mi cappa quasi sempre i 100hz e il minimo che ho visto è stato 86fps, quindi non ne sento la mancanza per nulla. Ma con altri giochi non è così e dovrò creare delle custom resolution a 70 e 80hz per evitare il microstuttering.
Speriamo escano presto sti maledetti monitor ultrawide con gsync hdr.
Inviato dal mio iPad utilizzando Tapatalk
Beh io al momento gioco, o meglio posso giocare, solo a 1080p e 60hz :fagiano:
Devo acquistare pure io un monitor, ma qui la scelta è più ardua di tutto il resto (in base al budget cmq)
thunderforce83
22-12-2018, 09:11
ragazzi qualcuno mi spiega perche' la msi trio ha 17 fasi 3 connettori (8x2 1x6)
consuma mediamente 50watt in piu' a medio carico rispetto alle altre 2080ti...insomma perche' questo pcb custom per aggiungere solo una fase in piu' rispetto alla reference mentre tutte le altre custom hanno almeno 19 fasi...insomma alcune scelte in fase di ingegnerizzazione non le capisco proprio anche se poi all' atto pratico se vediamo i confronti sembra quella che va' piu' forte tra tutte anche se di pochissimi fps
Certo che se la scheda si crepa perche' fai una curva personalizzata della ventola per tenerla piu' fresca mi sembra eccessivo..
Io non ho mai tenuto le ventole in auto poi ho una decina di ventole nel pc e gioco con le cuffie isolanti ..il rumore non e' un problema almeno nel mio caso..
Se riesci ad abbassare le temp taglia meno le frequenzeNon hai capito, parlavo del downvolt, e comunque non è che crepa per quello, ma visto che la ho usata un paio d'ore se inizio già a downvoltare poi non si capisce più un tubo se crasha per troppo downvolt o perché è fallata di suo. Prima La testo qualche giorno stock.
La curva ventola non avevo voglia di farla perché volevo andare avanti con DA:I e non avevo su afterburner dato che con AMD avevo tutto l'occorrente nei driver. Oggi la faccio.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
ragazzi qualcuno mi spiega perche' la msi trio ha 17 fasi 3 connettori (8x2 1x6)
consuma mediamente 50watt in piu' a medio carico rispetto alle altre 2080ti...insomma perche' questo pcb custom per aggiungere solo una fase in piu' rispetto alla reference mentre tutte le altre custom hanno almeno 19 fasi...insomma alcune scelte in fase di ingegnerizzazione non le capisco proprio anche se poi all' atto pratico se vediamo i confronti sembra quella che va' piu' forte tra tutte anche se di pochissimi fpsIl terzo connettore è quasi fake, è collegato al secondo 8 PIN. Quindi non dico inutile ma poco ci manca.
È la più performante solo perché ha di fabbrica 1750mhz, infatti credo che la top in assoluto sia la Aorus Extreme che ha 1775mhz (vado a memoria). Nulla che non puoi raggiungere a manina anche sulle altre.
Il problema è che consumano e scaldano decisamente di più, per la trio non e un grosso problema in quanto ha un dissipatore eccellente e ventole molto silenziose, per la aorus......beh....i pareri in giro li avete visti.
Per questo sono convinto che sta trio se non e condannata o già tirata per i capelli (chip sfigato) in downvolt darà soddisfazioni.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
Ragazzi ma si guadagna di più con la frequenza del core o memorie?
La mia rtx 2070 sale poco la fpu max 2040 invece le memorie arrivano 8500
Inviato dal mio JSN-L21 utilizzando Tapatalk
thunderforce83
22-12-2018, 11:03
Il terzo connettore è quasi fake, è collegato al secondo 8 PIN. Quindi non dico inutile ma poco ci manca.
È la più performante solo perché ha di fabbrica 1750mhz, infatti credo che la top in assoluto sia la Aorus Extreme che ha 1775mhz (vado a memoria). Nulla che non puoi raggiungere a manina anche sulle altre.
Il problema è che consumano e scaldano decisamente di più, per la trio non e un grosso problema in quanto ha un dissipatore eccellente e ventole molto silenziose, per la aorus......beh....i pareri in giro li avete visti.
Per questo sono convinto che sta trio se non e condannata o già tirata per i capelli (chip sfigato) in downvolt darà soddisfazioni.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
in effetti e' una stranezza questo consumo piu' elevato a parita' di potenza erogata rispetto alle altre...ma comunque alla fine questo pcb custom con 17fasi ( una piu' della reference) che senso avrebbe? cioe' non so se i condensatori sono piu' potenti o cose simili ma altrimenti non ci vedo proprio la convenienza a costruire una scheda ex novo per aggiungere una fase:eek:
AceGranger
22-12-2018, 11:26
Preferisci tenere una scheda fissa a 75 gradi pur di non sentire un pò di rumore? Solo io vivo nell'ansia se supera i 50 gradi d'inverno? :sofico:
le QUADRO stanno mediamente a 80° :stordita:
amon.akira
22-12-2018, 12:13
le QUADRO stanno mediamente a 80° :stordita:
con la 290 msi stavo sempre a 85°+, d inverno mi manca amd. :asd:
AceGranger
22-12-2018, 12:22
Sono ottime d'inverno per risparmiare sul riscaldamento :D
Viceversa ci perdi d'estate dove serve l'aria condizionata a palla :fagiano:
il calore che ti ritrovi nella stanza è uguale, solo che in un caso hai un dissipatore/ventola che tengono la temperatura del chip piu bassa, ma il calore che poi finisce nella stanza è lo stesso :fagiano:; quello che conta è il consumo non la temperatura fittizia della GPU :stordita:
il calore che ti ritrovi nella stanza è uguale, solo che in un caso hai un dissipatore/ventola che tengono la temperatura del chip piu bassa, ma il calore che poi finisce nella stanza è lo stesso :fagiano:; quello che conta è il consumo non la temperatura fittizia della GPU :stordita:
Thanks
Thunder-74
22-12-2018, 12:41
Il terzo connettore è quasi fake, è collegato al secondo 8 PIN. Quindi non dico inutile ma poco ci manca.
È la più performante solo perché ha di fabbrica 1750mhz, infatti credo che la top in assoluto sia la Aorus Extreme che ha 1775mhz (vado a memoria). Nulla che non puoi raggiungere a manina anche sulle altre.
Il problema è che consumano e scaldano decisamente di più, per la trio non e un grosso problema in quanto ha un dissipatore eccellente e ventole molto silenziose, per la aorus......beh....i pareri in giro li avete visti.
Per questo sono convinto che sta trio se non e condannata o già tirata per i capelli (chip sfigato) in downvolt darà soddisfazioni.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
La più occata in assoluto out of box, è la Zotac AMP Extreme: 1815 mhz e 14400 mhz sulle memorie ;)
TigerTank
22-12-2018, 12:49
Ancora sul DLSS:
https://www.youtube.com/watch?v=PkELfMIqb78#action=share
Notare le assi in legno del ponte del motoscafo a 0:25 e l'automobile a 0:30...
Bah, non trovo il senso di questo video.
Paragona una "povera" 1080Ti sparata a 4K + TAA contro una 2080Ti che a 4K sta usufruendo del DLSS.
E sinceramente mi colpisce di più che una 1080Ti con TAA dia un esito risicato ma comunque giocabile(arriva a superare i 40fps), piuttosto che una 2080Ti la quale nonostante il DLSS faccia solo quel framerate (75-85fps).
Preferisco altri tipi di comparative più equilibrate/sensate :D
Ho trovato già il limite della mia rtx 2070...
Nn c'è proprio gusto a fare overcloxk a queste schede.. 😭😭😭.
Mi manca tanto la 970..
Da Pascal in poi zeroo divertimento
Inviato dal mio JSN-L21 utilizzando Tapatalk
Queste schede sono proprio nate male a livello di progettazione.
Il die ed il memory controller presentano difetti evidenti.
Tu dici che è questo che porta alla rottura?
Se è progettata male posso capire un crash ma non una distruzione hardware a buone temperature.
Iceman69
22-12-2018, 13:48
in effetti e' una stranezza questo consumo piu' elevato a parita' di potenza erogata rispetto alle altre...ma comunque alla fine questo pcb custom con 17fasi ( una piu' della reference) che senso avrebbe? cioe' non so se i condensatori sono piu' potenti o cose simili ma altrimenti non ci vedo proprio la convenienza a costruire una scheda ex novo per aggiungere una fase:eek:
In teoria la trio dovrebbe erogare 300w contro i 260w delle altre a default, per questo scalda e consuna di più, se porto la mia strix a 300w le temperature diventano molto simili a quelle della trio.
thunderforce83
22-12-2018, 14:16
In teoria la trio dovrebbe erogare 300w contro i 260w delle altre a default, per questo scalda e consuna di più, se porto la mia strix a 300w le temperature diventano molto simili a quelle della trio.
beh allora vedremo..mi frega poco di 50watt in piu' mentre gioco ma per lo meno che sia affidabile e silenziosa...e con l arrivo dell estate non si squagli come la mia vecchia aorus 1080ti che con 399watt di consumo di picco arrivava quasi a 90gradi(per tutti quelli che si ostinano ancora prendere in considerazione la vecchia architettura)
Iceman69
22-12-2018, 14:20
beh allora vedremo..mi frega poco di 50watt in piu' mentre gioco ma per lo meno che sia affidabile e silenziosa...e con l arrivo dell estate non si squagli come la mia vecchia aorus 1080ti che con 399watt di consumo di picco arrivava quasi a 90gradi(per tutti quelli che si ostinano ancora prendere in considerazione la vecchia architettura)
Già, la ho avuta anche io e ho fatto il reso proprio per le temperature senza senso, per poi prendere la strix 1080 ti, tutta un'altra scheda.
thunderforce83
22-12-2018, 14:25
Già, la ho avuta anche io e ho fatto il reso proprio per le temperature senza senso, per poi prendere la strix 1080 ti, tutta un'altra scheda.
infatti ho in preorder sull amazonia sia la strix dal 3novembre e qualche giorno fa ho aggiunto la trio per via del prezzo molto interessante(1230euro). Infatti l' aorus non la prendo proprio in considerazione sia perche' ho notato che hanno lasciato quasi del tutto invariato lo schema del dissipatore oltre al fatto che a questo giro e' veramente orrenda...a prova di bimbominchia o di cinese ubriaco che progetta desing muscoloso e riplorevole al tempo stesso :D :sofico:
Giovamas
22-12-2018, 14:35
io dopo avere sperimentato la stryx difficilmente considererò un altro brand nell'architettura successiva 3xxx o quel che sarà. glaciale
Arrow0309
22-12-2018, 14:46
Scheda montata e testata velocemente senza fare nulla se non impostare filtro ad alta qualità nei driver.
Superposition 1080p extreme 9222 tutto stock. +80% secco sulla scheda in sign undervoltata. Scheda limitata da PL praticamente per tutto il tempo. Partita da 1980mhz circa e arrivata a 1890/1900 a fine bench.
Temp con ventola auto altine, la lasciano salire a 75gradi poi la tengono stabile con velocità massima ventole 1450rpm (47% circa mi pare) ma ancora non ho montato il ventolone da 200 in estrazione laterale. Scheda inudibile.
Viste le morie di schede la tengo qualche giorno così per vedere che non abbia problemi a default poi passo al downvolt e vediamo cosa ne tiro fuori!
Memorie Micron.
PS. Mi sembra di essere tornato nel 1998 con questo control panel :/
Finisco di sistemare il case e il ventolame e poi si gioca un po'!
https://i.postimg.cc/NK8Qx3cb/20181221-190245.jpg (https://postimg.cc/NK8Qx3cb)
https://i.postimg.cc/944J2hQY/20181221-195314.jpg (https://postimg.cc/944J2hQY)
https://i.postimg.cc/K1pJCzxY/20181221-195324.jpg (https://postimg.cc/K1pJCzxY)
EDIT: Ventolozzo laterale montato, stesso test di prima 73 gradi e ventola a 1320 rpm sempre tutto auto e scheda inudibile sulle ventole del case.
Domani provo un po' a giocare con le ventole. Secondo me ha ampio margine tra temp/silenziosità.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
Nice, sagga cosi' tanto di dover usare il bracket in dotazione?
Giocato un’oretta buona a dragon age inquisition e devo ammettere che la scheda è totalmente inudibile, toppa i 75 gradi e poi aumenta la ventola per tenerla li. 1500rpm massimi al 45 percento. Domani gioco un po’ con una curva custom in maniera tale da tenerla più fresca lasciandola comunque non fastidiosa.
Tutta a stock è più silenziosa della Vega, non sembra ma la ventola da 120 del radiatore in alcuni frangenti era decisamente più rumorosa. (Si parla sempre di rumore a livelli molto bassi e per nulla fastidioso in nessun gioco ma lo si percepiva distintamente sopra le ventole del case).
La cosa che mi manca è il freesync. Con dragon age temevo il peggio ma sto gioco in dx11 maxato ammazzava la Vega(a causa della uber-tessellation), il boost con la 2080ti è tale che mi cappa quasi sempre i 100hz e il minimo che ho visto è stato 86fps, quindi non ne sento la mancanza per nulla. Ma con altri giochi non è così e dovrò creare delle custom resolution a 70 e 80hz per evitare il microstuttering.
Speriamo escano presto sti maledetti monitor ultrawide con gsync hdr.
Inviato dal mio iPad utilizzando Tapatalk
E quale monitor uw gsync HDR avresti in mente?
Perché sapevo che l'X35 per esempio e' stato rimandato (in qualche modo) per via del panello VA che presenta i suoi noti limiti.
Altro?
Sempre 2k uw (3440x1440) o superiore 4k uw (più esoso del 4K ma una buona sfida per le nostre 2080ti)?
Beh agli fps non ci avevo neanche fatto caso... :D
Mi aveva fatto impressione come le assi di legno del motoscafo fossero molto più belle col DLSS, e di come l'automobile che si vede poco dopo fosse stata "sbagliata" di brutto dal DLSS (tutta chiara invece che bicolore).Basta che fanno qualche gioco per provarlo realmente..
Final fantasy mai giocato quindi. Nn mi interessa
Uscirà la patch per tomb raider?
Inviato dal mio JSN-L21 utilizzando Tapatalk
fraussantin
22-12-2018, 15:13
Basta che fanno qualche gioco per provarlo realmente..
Final fantasy mai giocato quindi. Nn mi interessa
Uscirà la patch per tomb raider?
Inviato dal mio JSN-L21 utilizzando TapatalkPiù che altro lo dovrebbero adattare al 1440p.
TigerTank
22-12-2018, 15:16
Beh agli fps non ci avevo neanche fatto caso... :D
Mi aveva fatto impressione come le assi di legno del motoscafo fossero molto più belle col DLSS, e di come l'automobile che si vede poco dopo fosse stata "sbagliata" di brutto dal DLSS (tutta chiara invece che bicolore).
Mi sa che deve maturare, alla fine è ancora supporto beta :)
Per il resto...a me il più delle volte non piacciono nemmeno TAA e simili, blurrano troppo. Finisco per usare il reshade con SMAA maxato ed eventuale lumasharpen di compensazione in caso il tutto non mi sembri abbastanza "a fuoco" :D
Secondo me comunque il vero trampolino di lancio dell'RT ed eventuale DLSS sarà Metro a febbraio 2019.
Teardown (https://www.youtube.com/watch?v=sgv1kWIhViQ) della Titan. Esteticamente a me piace un sacco, al di là di quel che si può criticare circa problemi e altro, quel design FE pulito e senza fronzoli imho è molto bello.
Anzi io avrei fatto addirittura la bp liscia e satinata, senza quelle scanalature :)
Arrow0309
22-12-2018, 15:28
Basta che fanno qualche gioco per provarlo realmente..
Final fantasy mai giocato quindi. Nn mi interessa
Uscirà la patch per tomb raider?
Inviato dal mio JSN-L21 utilizzando Tapatalk
Più che altro lo dovrebbero adattare al 1440p.
Anch'io lo potrei provare sul Qled 4K ma dateci un'altro gioco :O
Si, anche SOTTR va bene
Nice, sagga cosi' tanto di dover usare il bracket in dotazione?
E quale monitor uw gsync HDR avresti in mente?
Perché sapevo che l'X35 per esempio e' stato rimandato (in qualche modo) per via del panello VA che presenta i suoi noti limiti.
Altro?
Sempre 2k uw (3440x1440) o superiore 4k uw (più esoso del 4K ma una buona sfida per le nostre 2080ti)?
E la scheda più mastodontica che io abbia mai visto xD sinceramente non in maniera esagerata ma un po’ si, onde evitare problemi ho messo il bracket. Tanto con il case chiuso avendo la finestra alta manco si vede.
Non mi convince molto come è fatto il bracket invece, dato il peso e la forma del dissipatore poggia solo su uno dei due sostegni che fa piegare il bracket verso il basso leggermente e rende inutile il secondo sostegno. Dalla foto si vede che il bracket non è parallelo alla scheda ma piegato verso il basso leggermente.
Proprio quelli intendevo. Tocca aspettare. Ma nessun VA al mondo può funzionare senza artefatti a 200hz quindi possono anche rimandarlo altri 10 anni. I tempi di risposta sono troppo lenti. Senza contare che a quella frequenza avresti anche il problema di banda e non puoi usare la gamma rgb completa come accade sull’x27 a 4K. Io lo prendo per i 144hz o alla peggio cappo a 120 se a 144 il ghosting rimane elevato. Quello che realmente mi interessa è l’hdr1000 e ovviamente il gsync.
Inviato dal mio iPad utilizzando Tapatalk
Arrow0309
22-12-2018, 17:58
E la scheda più mastodontica che io abbia mai visto xD sinceramente non in maniera esagerata ma un po’ si, onde evitare problemi ho messo il bracket. Tanto con il case chiuso avendo la finestra alta manco si vede.
Non mi convince molto come è fatto il bracket invece, dato il peso e la forma del dissipatore poggia solo su uno dei due sostegni che fa piegare il bracket verso il basso leggermente e rende inutile il secondo sostegno. Dalla foto si vede che il bracket non è parallelo alla scheda ma piegato verso il basso leggermente.
Proprio quelli intendevo. Tocca aspettare. Ma nessun VA al mondo può funzionare senza artefatti a 200hz quindi possono anche rimandarlo altri 10 anni. I tempi di risposta sono troppo lenti. Senza contare che a quella frequenza avresti anche il problema di banda e non puoi usare la gamma rgb completa come accade sull’x27 a 4K. Io lo prendo per i 144hz o alla peggio cappo a 120 se a 144 il ghosting rimane elevato. Quello che realmente mi interessa è l’hdr1000 e ovviamente il gsync.
Inviato dal mio iPad utilizzando Tapatalk
Capito.
Circa il monitor io aspetterei con un po' di fiducia qualche nuovo Samsung microled nel 2019 - 2020 e magari 4K ultrawide. Ok HDR10 ma per avere sia G-sync (nuovo modulo hdmi 2.1 /dp 1.4 o 1.5) e un prezzo accettabile la vedo lunga veramente.
Tocchiamo il ferro.
Edit:
Potresti provare con questo LG (https://www.lg.com/it/monitor/lg-34GK950F-B) a 144hz e HDR ma sempre senza gsync.
Dopo una giornata di test e sprumuta come un arancia ecco i risultati..
Non male per una 2070..
Sto mettendo a dura prova questa scheda Con le memorie a +1350 speriamo non si fonde🤣🤣🤣https://uploads.tapatalk-cdn.com/20181223/f9b23755d5256312ac2c0c12f99f4270.jpghttps://uploads.tapatalk-cdn.com/20181223/20a392ef717cb71de7fcf5d8a88353d3.jpg
Inviato dal mio JSN-L21 utilizzando Tapatalk
Giovamas
23-12-2018, 08:24
posto anche io uno screen SP extreme. ho tirato un po' le memorie dato che a +700 non fanno una piega (fatti i dovuti riti, è un mese che sono messe così. ok non gioco a cose pesantissime Dragon Age/Pillars però... :) ). quindi memorie a +1000 e clock a 2100/085. è fredda. veramente. se c'era la 2080ti strix l'avrei presa ottime schede. peccato per il mio Benq ancora ho il nervoso
https://i.ibb.co/RYPhnxv/Superposition-Benchmark-v1-0-7815-1545553028.png (https://ibb.co/RYPhnxv)
Guka occhio alle memorie le fondi
TigerTank
23-12-2018, 09:30
posto anche io uno screen SP extreme. ho tirato un po' le memorie dato che a +700 non fanno una piega (fatti i dovuti riti, è un mese che sono messe così. ok non gioco a cose pesantissime Dragon Age/Pillars però... :) ). quindi memorie a +1000 e clock a 2100/085. è fredda. veramente. se c'era la 2080ti strix l'avrei presa ottime schede. peccato per il mio Benq ancora ho il nervoso
https://i.ibb.co/RYPhnxv/Superposition-Benchmark-v1-0-7815-1545553028.png (https://ibb.co/RYPhnxv)
Guka occhio alle memorie le fondi
Ottimo punteggio, io se faccio girare le mie ottengo sui 7400 punti :)
A gennaio vedo un pò cosa fare.
posto anche io uno screen SP extreme. ho tirato un po' le memorie dato che a +700 non fanno una piega (fatti i dovuti riti, è un mese che sono messe così. ok non gioco a cose pesantissime Dragon Age/Pillars però... :) ). quindi memorie a +1000 e clock a 2100/085. è fredda. veramente. se c'era la 2080ti strix l'avrei presa ottime schede. peccato per il mio Benq ancora ho il nervoso
https://i.ibb.co/RYPhnxv/Superposition-Benchmark-v1-0-7815-1545553028.png (https://ibb.co/RYPhnxv)
Guka occhio alle memorie le fondiSi sui benck le ho tirate tanto.. Reggono a 1350 perfettamente
In game le abbasso intorno a 1000mhz.
Se la fondo pazienza 🤣🤣🤣, prenderò una rtx 2080 x ché sarebbe più indicata per me.
Con qualche rinuncia farei 60fps in 4k.
Con la rtx 2070 devo upscalare almeno al 90%.
Cmq ragazzi io che gioco su tv oled hdr ho notato che rispetto alla 1070 l'hdr è gestito diversamente, a parte ad essere migliore come luminosità ecc quando giocavo ad odyssey facevo fatica a vedere il sole...
Adesso in tutte le condizioni vedo il sole che acceca...
Ottimo su questo contesto
Inviato dal mio JSN-L21 utilizzando Tapatalk
Stamattina altra sessione di un oretta a Dragon Age e col nuovo profilo la temp massima è stato 71 gradi al 60%/2100rpm della ventola.
Scheda leggermente udibile ma suono assolutamente non fastidioso come sempre con MSI. Ha la stessa impronta sonora della ottima 980ti twin frozr senza nessuna frequenza acuta o fastidiosa.
C e ancora spazio per scendere senza problemi senza contare il downvolt.
Davvero soddisfatto al momento contando che questa scheda ha già un overclock >=+100 rispetto ad altre. Se non mi muore a 1260 euro (+cashback) direi molto molto bene.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
Giovamas
23-12-2018, 14:13
Ottimo punteggio, io se faccio girare le mie ottengo sui 7400 punti :)
A gennaio vedo un pò cosa fare.
si infatti. sei messo piuttosto bene in fondo. magari vedi se entra qualche 2080 in offerta in amazon da gennaio.. ;)
Arrow0309
23-12-2018, 21:59
https://www.gamersnexus.net/hwreviews/3418-nvidia-titan-rtx-review-overclocking-gaming-power-thermals
Scaricato e provato al volo là demo dei mesh shaders.
Fatto un benchmark e tutto stock ho 88.9 fps di media a 3440x1440.
La quantità di asteroidi a schermo è realmente impressionante.
Inviato dal mio iPad utilizzando Tapatalk
Arrow0309
24-12-2018, 08:58
Era ora!
https://www.techpowerup.com/250889/kfa2-goes-all-white-with-geforce-rtx-2080-ti-hof
https://www.techpowerup.com/img/xswG4KSHdKNBRou7.jpg
Arrow0309
24-12-2018, 10:55
Domandone: come collego la scheda ad un monitor che supporta il DVI DL per i 144hz? Qualcuno di voi ha avuto lo stesso problema? Potevano lasciarla la porta... che diamine!
Non ti hanno dato l'adattatore dp to dvi?
Io c'e' l'ho (nvidia FE) ma sinceramente non so se vale per 144hz, 2k?
Cmq hai un monitor a 144hz che non e' dp?
Che e', un coreano?
Il nabbo di turno
24-12-2018, 11:38
https://videocardz.com/79446/nvidia-geforce-gtx-2050-1150-could-feature-896-cuda-cores
Jeetkundo
24-12-2018, 12:28
Era ora!
https://www.techpowerup.com/250889/kfa2-goes-all-white-with-geforce-rtx-2080-ti-hof
https://www.techpowerup.com/img/xswG4KSHdKNBRou7.jpg1899€ :/
Sent from my MI 6 using Tapatalk
bronzodiriace
24-12-2018, 13:52
1899€ :/
Sent from my MI 6 using Tapatalk
che poi quell'euro in meno è psicologico, pensi "vabbè non è 1900" prima di cliccare sul carrello
Prezzo onesto comunque.
Nvidia sta riuscendo li dove nessuno ha mai osato.
Considerate le cifre tra poco usciamo a parlare di auto.
che poi quell'euro in meno è psicologico, pensi "vabbè non è 1900" prima di cliccare sul carrello
Prima di cliccare sul carrello devi controllare di avere ancora disponibilità sulla carta di credito :fagiano:
Prezzo onesto comunque.
R E G A L A T A :O
Nvidia sta riuscendo li dove nessuno ha mai osato.
Considerate le cifre tra poco usciamo a parlare di auto.
Vediamo quando cominceranno a venderle a rate :sofico:
"In dodici comode rate mensili TAN 0%" :stordita:
bronzodiriace
24-12-2018, 14:17
Prima di cliccare sul carrello devi controllare di avere ancora disponibilità sulla carta di credito :fagiano:
R E G A L A T A :O
Vediamo quando cominceranno a venderle a rate :sofico:
"In dodici rate mensili TAN 0%" :stordita:
Manca il tocco finale:
Conversione Dollaro Euro e i 2000 sono serviti :ave:
Crysis90
24-12-2018, 14:17
1899€ :/
Sent from my MI 6 using Tapatalk
Molto economica. :D :D :D
bronzodiriace
24-12-2018, 14:21
A quei prezzi e se turing sta vendendo, Huang sta facendo il camino di Natale senza legna ma con le banconote.
E' pazzesco pensare al lasso di tempo che intercorrerà tra i 1200 euro delle ti e la prossima uscita AMD.
Tutto orrendo.
fraussantin
24-12-2018, 14:34
ma lo fa anche a voi che il pannello nvidia se andate in impostaszioni giochi installati , macina per decine di minuti prima di mostrare i giochi instalalti?
Sto giocando a Shadow of The Tomb Raider, mi sta garbando un sacco, ma del resto sono un gran fan della serie, tuttavia ho notato che rispetto a Rise, c'è un evidente downgrade grafico.
Ho provato Battlefield 5 con la rtx 2070 in overclock riesco ad avere 60fps in 4k abbassando da Ultra ad alta qualche opzione ombre ecc..
Ma attivando i Raytracing va tutto a scatti s impalla per alcuni secondi.. Frame rate da 35 a 1fps e sinceramente con HDr attivato nn penso abbiano un effetto particolare...
Va beh con la rtx 2070 di sicuro nn userò il Ray ma ero curioso..
Inviato dal mio JSN-L21 utilizzando Tapatalk
ma lo fa anche a voi che il pannello nvidia se andate in impostaszioni giochi installati , macina per decine di minuti prima di mostrare i giochi instalalti?No a me va fluido e veloce..
Prova a reinstallare i driver..
Inviato dal mio JSN-L21 utilizzando Tapatalk
LUIGI_RDSRL
24-12-2018, 16:13
Dopo una giornata di test e sprumuta come un arancia ecco i risultati..
Non male per una 2070..
Sto mettendo a dura prova questa scheda Con le memorie a +1350 speriamo non si fonde🤣🤣🤣https://uploads.tapatalk-cdn.com/20181223/f9b23755d5256312ac2c0c12f99f4270.jpghttps://uploads.tapatalk-cdn.com/20181223/20a392ef717cb71de7fcf5d8a88353d3.jpg
Inviato dal mio JSN-L21 utilizzando Tapatalk
volevo chiedere se questo punteggio per un i7 4820k 16gb ddr3 1600 asus strikx 2080 sia corretto
https://onedrive.live.com/?cid=8CD9853E4A06D0D3&id=8CD9853E4A06D0D3%21702&parId=root&o=OneUp
questo perchè stavo vedendo con vari giochi qualche problema con gli fps.
fraussantin
24-12-2018, 16:20
No a me va fluido e veloce..
Prova a reinstallare i driver..
Inviato dal mio JSN-L21 utilizzando TapatalkL'ho installato passando da ddu 2 settimane fa... Boh
Aspetterò la prossima vs e poi reinstallo da 0
Thunder-74
24-12-2018, 16:45
Manca il tocco finale:
Conversione Dollaro Euro e i 2000 sono serviti :ave:
Che poi non è la versione LAB ....
Inviato dal mio iPad utilizzando Tapatalk
TigerTank
24-12-2018, 17:09
A quei prezzi e se turing sta vendendo, Huang sta facendo il camino di Natale senza legna ma con le banconote.
E' pazzesco pensare al lasso di tempo che intercorrerà tra i 1200 euro delle ti e la prossima uscita AMD.
Tutto orrendo.
Eh già.
A parte il fatto che comunque il tutto è molto elitario come tipologia di prodotto...ma se lo fanno è perchè c'è domanda.
Perlomeno le vga si sfruttano per giocare, c'è molto di peggio.
Ad esempio si vendono parecchi telefonini da quasi 1000€ giusto per "moda"...che poi molti usano giusto per le innovativissime features ipertecnologiche per farsi i selfie e per stare connessi ai social tipo i Borg al loro Cubo :asd:
O parliamo magari anche delle necessarie mobo top di fascia "mainstream" da 500€ e più :asd:
Ma se le fanno è perchè c'è chi le compra...e non intendo gli overclockers seri che vanno di azoto :D
In ogni caso...il mercato delle vga non è certo in uno dei suoi periodi migliori. Mancano alternative...e i risultati li stiamo vedendo tutti.
P.S. Aspettiamo pure la kingpin.
ma lo fa anche a voi che il pannello nvidia se andate in impostaszioni giochi installati , macina per decine di minuti prima di mostrare i giochi instalalti?
A me una decina di secondi, ma solo se tolgo la spunta dalla casella e carica quindi tutta la lista dei profili inclusi nei drivers.
fabietto27
24-12-2018, 19:17
A quei prezzi e se turing sta vendendo, Huang sta facendo il camino di Natale senza legna ma con le banconote.
Vero..può persino farsi il giacchino in pelle umana.
ma lo fa anche a voi che il pannello nvidia se andate in impostaszioni giochi installati , macina per decine di minuti prima di mostrare i giochi instalalti?
No....3 secondi...Pascal Rulez Again:sofico:
Che poi non è la versione LAB ....
Buongustaio...sappiamo che aspetti quella!
P.S. Aspettiamo pure la kingpin.
Al massimo aspetto Vince in pizzeria a sto giro.
ma lo fa anche a voi che il pannello nvidia se andate in impostaszioni giochi installati , macina per decine di minuti prima di mostrare i giochi instalalti?
Il pannello nvidia macina decine di minuti a prescindere.
Rispetto a quello AMD fa piangere.
Scherzi a parte no, non lo trovò più lento del resto dell interfaccia. Ci mette giusto quei 3/4 secondi a caricare la lista.
Inviato dal mio iPad utilizzando Tapatalk
fraussantin
24-12-2018, 21:02
Il pannello nvidia macina decine di minuti a prescindere.
Rispetto a quello AMD fa piangere.
Scherzi a parte no, non lo trovò più lento del resto dell interfaccia. Ci mette giusto quei 3/4 secondi a caricare la lista.
Inviato dal mio iPad utilizzando TapatalkFino a poco fa laggava quei 3 secondi per tutto regolari , ma ultimamente va troppo lento.
Boh ..
Arrow0309
24-12-2018, 21:05
Manca il tocco finale:
Conversione Dollaro Euro e i 2000 sono serviti :ave:
Che poi non è la versione LAB ....
Inviato dal mio iPad utilizzando Tapatalk
Il prezzo e' alle stelle, si ma non sono dollari.
E' il prezzo in euro iva compresa, KFA2 e' il marchio europeo della Galax, e'una KFA2 HOF pure abbastanza introvabile.
bronzodiriace
25-12-2018, 07:22
Il prezzo e' alle stelle, si ma non sono dollari.
E' il prezzo in euro iva compresa, KFA2 e' il marchio europeo della Galax, e'una KFA2 HOF pure abbastanza introvabile.
Nel link parla di dollari.
A meno che in euro non costi meno, già si conosce il prezzo e quindi in dollari corrisponde ad un prezzo più alto.
Thunder-74
25-12-2018, 09:37
Ma la pazzia oggi non è prendere un modello super custom da 1700/1800 euro, ma è proprio prendere una Turing... una situazione inconcepibile a mio avviso...
Inviato dal mio iPhone X utilizzando Tapatalk
Arrow0309
25-12-2018, 10:42
Nel link parla di dollari.
A meno che in euro non costi meno, già si conosce il prezzo e quindi in dollari corrisponde ad un prezzo più alto.
Dove?
Il link era questo (https://www.techpowerup.com/250889/kfa2-goes-all-white-with-geforce-rtx-2080-ti-hof)
Quoto
"Available now, the KFA2 GeForce RTX 2080 Ti HOF is priced at 1,899€ (including VAT)."
A trovarla però, io non sono riuscito, sul principale distributore tedesco MindFactory risulta out of stock e non c'è manco il prezzo.
Auguri di buon natale a tutti!!!
Inviato dal mio ONEPLUS A6013 utilizzando Tapatalk
mikael84
25-12-2018, 11:15
Auguri di buon natale:)
Arrow0309
25-12-2018, 11:42
https://www.controcampus.it/wp-content/uploads/2018/12/Buon-Natale-2018.jpg
Gilgamessh
25-12-2018, 12:05
Dove lo posso trovare? Non sono uno sviluppatore e non ne ho accesso da Nvidia.
Grazie!
Scaricato e provato al volo là demo dei mesh shaders.
Fatto un benchmark e tutto stock ho 88.9 fps di media a 3440x1440.
La quantità di asteroidi a schermo è realmente impressionante.
Inviato dal mio iPad utilizzando Tapatalk
Giovamas
25-12-2018, 13:16
Buon Natale ragazzi
bronzodiriace
25-12-2018, 13:52
Dove?
Il link era questo (https://www.techpowerup.com/250889/kfa2-goes-all-white-with-geforce-rtx-2080-ti-hof)
Quoto
"Available now, the KFA2 GeForce RTX 2080 Ti HOF is priced at 1,899€ (including VAT)."
A trovarla però, io non sono riuscito, sul principale distributore tedesco MindFactory risulta out of stock e non c'è manco il prezzo.
Hai ragione, ho preso dollari per euro.
1900 euro comunque rimane, per una custom, un prezzo troppo alto.
Salendo di altri duecento euro si sfiora il territorio titan
TigerTank
25-12-2018, 14:07
Auguri di buon natale:)
Auguri a tutti voi :)
Buon natale a tutti
Inviato dal mio JSN-L21 utilizzando Tapatalk
Buon Natale a tutti e un ottimo RMA alle vostre schede :D
Buon Natale a tutti ragazzi.
Jeetkundo
25-12-2018, 18:21
Buon Natale :)
Sent from my MI 6 using Tapatalk
Dove lo posso trovare? Non sono uno sviluppatore e non ne ho accesso da Nvidia.
Grazie!Mi sono registrato come dev. (In fondo lo sono anche se non uso Nvidia xD)
Se vuoi ti uppo la demo ma ci metterà una nottata senza fibra, sono 2gb di pacchetto.
E Buon natale a tutti!!!!!
Inviato dal mio ZTE A2017G utilizzando Tapatalk
ROBHANAMICI
25-12-2018, 20:37
Auguri buon Natale.
Il nabbo di turno
25-12-2018, 21:20
https://videocardz.com/79452/gigabyte-submits-geforce-rtx-2060-6gb-4gb-and-3gb-variants-to-eec
fraussantin
25-12-2018, 21:28
https://videocardz.com/79452/gigabyte-submits-geforce-rtx-2060-6gb-4gb-and-3gb-variants-to-eecPura follia ..
Che casino ci sarà sugli store e su trovaprezzi
Il nabbo di turno
25-12-2018, 21:29
Pura follia ..
Che casino ci sarà sugli store e su trovaprezzi
Io sono convinto che pasquale è ancora tra noi...
Il nabbo di turno
25-12-2018, 21:55
http://sg.h2gaming.vn/asus-rog-strix-rtx-2060-6gb-o6g-gddr6-192-bits12nm-overclock
demonangel
25-12-2018, 22:05
Mille auguri di Buon Natale ragazzi!!!
http://sg.h2gaming.vn/asus-rog-strix-rtx-2060-6gb-o6g-gddr6-192-bits12nm-overclock
Sito affidabilissimo immagino, sopratutto per un RMA veloce :sofico:
fraussantin
25-12-2018, 22:37
http://sg.h2gaming.vn/asus-rog-strix-rtx-2060-6gb-o6g-gddr6-192-bits12nm-overclock400 dollari in vietnam non ha senso.
Da noi costerebbe 500 euro e cozzerebbe con le povery ediscion della 2070.
Secondo me è più probabile che queste 2060 andranno dai 200 ai 400 euro max( 450 proprio pre le versioni al"luci"nanti. ) a seconda dei giga e delle versioni.
Di più non ha senso.
renton82
25-12-2018, 22:54
https://youtu.be/vhTGts2Ad_M
secondo voi quale è la peggiore 2080ti in commercio, quella che non comprerete mai, troppo facile dire la migliore:D
In ritardo, ma Buon Natale a tutti :)
Thunder-74
26-12-2018, 08:29
secondo voi quale è la peggiore 2080ti in commercio, quella che non comprerete mai, troppo facile dire la migliore:D
Tutte quelle che si rompono, le altre sono le migliori....
Inviato dal mio iPhone X utilizzando Tapatalk
fraussantin
26-12-2018, 08:32
secondo voi quale è la peggiore 2080ti in commercio, quella che non comprerete mai, troppo facile dire la migliore:D
https://www.asus.com/it/Graphics-Cards/TURBO-RTX2080TI-11G/
TigerTank
26-12-2018, 09:09
secondo voi quale è la peggiore 2080ti in commercio, quella che non comprerete mai, troppo facile dire la migliore:D
Le blower plasticose con i sigilli :D
Tutte quelle che si rompono, le altre sono le migliori....
:sofico:
Questo (https://www.youtube.com/watch?v=daQZxUSXcng) video è divertente come satira ma anche premonitore, essendo uscito prima delle turing e relativi problemi di failure. :asd:
Teamprotein
26-12-2018, 09:38
Ragazzi avrei trovato una zotac 2080ti a 1199€ come la vedete?
Faccio la pazzia e pensiono la strix 1080ti?
Arrow0309
26-12-2018, 10:27
https://www.guru3d.com/articles_pages/zotac_gaming_geforce_rtx_2080_ti_amp_extreme_review,1.html
Si torna ai condensatori solidi (2 x fase) e monta memorie Samsung (in oc a +1000 easy).
Buone prestazioni "out of the box".
Simile alle altre in OC.
Arrow0309
26-12-2018, 10:29
secondo voi quale è la peggiore 2080ti in commercio, quella che non comprerete mai, troppo facile dire la migliore:D
MSI Ventus
Teamprotein
26-12-2018, 10:49
Io me la terrei stretta.
cioè?
la strix o la zotac? :D
fraussantin
26-12-2018, 10:53
cioè?
la strix o la zotac? :DLa 1080ti.
Non ha molto senso il passaggio alle morenti turing.
Io aspetterei un refresh a 7 nm .. o 5 chissà ..
TigerTank
26-12-2018, 11:26
Ragazzi avrei trovato una zotac 2080ti a 1199€ come la vedete?
Faccio la pazzia e pensiono la strix 1080ti?
Tienitela stretta, almeno fino a quando ci sarà qualche chiarimento circa la situazione 2080Ti.
Ok che tirano e ok l'RT...ma imho per ora troppo rischio di passare da una vga che va a meraviglia ad una che ti muore di punto in bianco, soprattutto senza una garanzia decente alle spalle.
Oltretutto la garanzia Zotac per i primi 2 anni si rifà solo allo shop di acquisto.
cyberpunk2020
26-12-2018, 11:56
Buongiorno a tutti .....
Che 2080ti comprereste per liquidarla???
Non so assolutamente cosa prendere !!!
Un consiglio ????
Inviato dal mio LG-H815 utilizzando Tapatalk
Arrow0309
26-12-2018, 12:25
Buongiorno a tutti .....
Che 2080ti comprereste per liquidarla???
Non so assolutamente cosa prendere !!!
Un consiglio ????
Inviato dal mio LG-H815 utilizzando Tapatalk
EVGA XC Ultra oppure Gainward Phoenix GS per design reference + wubbo EK nickel (oppure Watercool Heatkiller o Aquacomputer con active bp)
Oppure Strix (A o O) + wubbo Bitspower o EVGA FTW3 e aspetti il loro wb.
Per le ultime 2 custom forse arriverà anche il loro wb EK (come già successo nel passato)
Dopo una settimana che possiedo la rtx 2070 xc ultra ci sono delle cose che mi hanno sorpreso.
Primo che la scheda in overclock riesce a tenere 60fps in 4k sia in assassin odyssey e Battlefield 5 tutto su ultra abbassando ad alto qualche opzione come ombre, nubi volumetriche e antialiansing su basso,
La cosa strana che il. 4790k a 4800mhz fa fatica a tenere i60fps spesso è al 100% e la scheda scende sotto il 90%
Inviato dal mio JSN-L21 utilizzando Tapatalk
SPARTANO93
26-12-2018, 13:09
Dopo una settimana che possiedo la rtx 2070 xc ultra ci sono delle cose che mi hanno sorpreso.
Primo che la scheda in overclock riesce a tenere 60fps in 4k sia in assassin odyssey e Battlefield 5 tutto su ultra abbassando ad alto qualche opzione come ombre, nubi volumetriche e antialiansing su basso,
La cosa strana che il. 4790k a 4800mhz fa fatica a tenere i60fps spesso è al 100% e la scheda scende sotto il 90%
Inviato dal mio JSN-L21 utilizzando TapatalkOdissey in particolare è un mattone per la cpu ... è normale
Inviato dal mio SM-G930F utilizzando Tapatalk
piperprinx
26-12-2018, 13:43
Dopo una settimana che possiedo la rtx 2070 xc ultra ci sono delle cose che mi hanno sorpreso.
Primo che la scheda in overclock riesce a tenere 60fps in 4k sia in assassin odyssey e Battlefield 5 tutto su ultra abbassando ad alto qualche opzione come ombre, nubi volumetriche e antialiansing su basso,
La cosa strana che il. 4790k a 4800mhz fa fatica a tenere i60fps spesso è al 100% e la scheda scende sotto il 90%
Inviato dal mio JSN-L21 utilizzando Tapatalk
Odyssey è pesantissimo per la cpu, io in 4k@60 con il 4790k avevo microstuttering anche con 2080 ti, risolti passando a 8086k. E vedo dei 100% sui sei core anche lì, ma non stuttera.
fraussantin
26-12-2018, 14:00
I giochi ubisoft recenti hanno il denuvo criptato in una VM.
Serve almeno un 8600 per farlo andare decentemente.
Però va detto che son fluidi anche a 30 fps.
Con g sync da 50 in su non si nota differenze.
I giochi ubisoft recenti hanno il denuvo criptato in una VM.
Serve almeno un 8600 per farlo andare decentemente.
vabbeh... siamo al nonsense più assoluto... :doh:
SPARTANO93
26-12-2018, 14:20
I giochi ubisoft recenti hanno il denuvo criptato in una VM.
Serve almeno un 8600 per farlo andare decentemente.
Però va detto che son fluidi anche a 30 fps.
Con g sync da 50 in su non si nota differenze.A me con 30fps è ingiocabile, ho trovato la giusta fluidità con gli fps bloccati a 55 e gsync attivo
Inviato dal mio SM-G930F utilizzando Tapatalk
fraussantin
26-12-2018, 14:55
A me con 30fps è ingiocabile, ho trovato la giusta fluidità con gli fps bloccati a 55 e gsync attivo
Inviato dal mio SM-G930F utilizzando TapatalkBeh è questione anche di abitudine.
Io l'ho giocato per metà a 30 fps con lq 970 senza nessun problema. Poi sono passato a 50 -60 ( il lock lo avevo messo a 60 ) con la 2070 e certo va meglio .
Invece fc5 a sotto i 50 anche con gsync è un problema per me.
Arrow0309
26-12-2018, 15:19
Uscita la nuova beta MSI AB v4.6.0 beta 10:
https://forums.guru3d.com/threads/rtss-6-7-0-beta-1.412822/page-80#post-5620815
"· Added NVIDIA Turing GPU architecture support:
o Added voltage control for reference design NVIDIA GeForce RTX 20x0 series graphics cards
o Advanced GPU Boost control for NVIDIA GeForce RTX 20x0 series graphics cards. Extended voltage/frequency curve editor on GeForce RTX 20x0 family graphics cards allows you to tune additional piecewise power/frequency floor and temperature/frequency floor curves. Control points on those new curves allow you to control GPU Boost power and thermal throttling algorithms more precisely than traditional power limit and thermal limit sliders
o Hardware abstraction layer has been revamped to provide support for multiple independent fans per GPU due to introducing dual fan design on reference design NVIDIA GeForce RTX 20x0 series graphics cards and due to introducing native dual fan control in NVAPI. Both fans of NVIDIA GeForce RTX 20x0 can be monitored independently in hardware monitoring module now and can be controlled synchronically in manual mode
o Added NVIDIA Scanner technology support
· Added Monolithic Power Systems MP2884A and MP2888A voltage controllers support
· Added core, memory, auxiliary PEXVDD and auxiliary 1V8 voltage control for custom design MSI RTX 2080Ti Lightning series graphics cards with MP2888A + MP2888A +uP1816 voltage regulators
· Added VRM and VRM2 temperature monitoring for custom design MSI RTX 2080Ti Lightning series graphics cards
· Improved hardware monitoring module:
o Added thermal offset for CPU temperature monitoring on AMD Ryzen 7 2700X processors
o Similar CPU temperatures are now cloned for all cores on AMD CPUs to provide more convenient and unified On-Screen Display layout between Intel and AMD CPUs
o “Pagefile usage” graph in hardware monitoring module has been renamed to “Commit charge”
o Added group operation notifier to the caption of active hardware monitoring graphs list in “Monitoring” tab in the application properties. The notifier is informing you that you can apply a setting to all or to multiple selected hardware monitoring graphs when you hold group operation key (i.e. <crap> or <Ctrl>) and hover mouse cursor over the setting that can be applied to multiple hardware monitoring graphs at once (e.g. “Show in On-Screen Display”)
o Added “Select by group” and “Select by type” commands to context menu of active hardware monitoring graphs list in “Monitoring” tab in the application properties. New commands allow selecting the graphs of exactly the same type (e.g. CPU1-CPU8 usage graphs on eight core CPU) or the graphs with the same OSD/LCD group name (for example, GPU clock, GPU power, GPU usage and the rest graphs with “GPU” group name). Such commands allow you to show similar items (e.g. all CPU usages) in On-Screen Display with a single click or rename a group for all child graphs in the single pass
o Multi group edit mode is automatically selected now for group name edit field when you enable "Override group name" option while holding <Ctrl> key. You may still manually toggle this mode with <Ctrl>+<M> hotkey anytime when editing the group name
o On-Screen Display item type (i.e. text, graph or combination of both) is now displayed in “Properties” column of active hardware monitoring graphs list in “Monitoring” tab in the application properties
o Added programmable hotkey for clearing monitoring history
o Added “Apply” button to application properties window. Now you may iteratively customize monitoring module without closing the properties to see the result on each step. Please take a note that some properties (e.g. application language) cannot be applied until you completely close properties window by design of application
o Improved On-Screen Display layout editor:
§ System reserved variable slots 250-255 are now displayed as system variables in the layout editor
§ Added embedded graphs support. Embedded graphs can be displayed directly in the text in a separate column, it can be convenient for displaying per-core CPU usages
§ Added embedded graph width adjustment variable to the “Graph” property node
§ Added new “Graph placement” property node. You can use it to place each graph on top of text, on bottom or make it embedded in in text column
§ Added new variables to “Separators” property node. Now you may define independent separators for the graphs located on top of text part, for the text part and for the graphs located on bottom of text part.
§ Slightly altered interpretation of prolog and epilog separators. Please take a note that prolog separator is no longer automatically appended with new line symbol, so you must specify it manually when necessary and epilog separator is now displayed below the bottom group of graphs
§ The list of hardware monitoring items in “Add item(s)” dialog window is alphabetically sorted now
§ Added macroses for embedding any data from monitoring module into OSD text (e.g. prolog). You may use macroses to display anything available in the monitoring module, e.g. %CPU temperature%
§ Improved On-Screen Display hypertext formatting performance due to more optimal macro replace strategy
§ Revamped “modern web” layout. New layout is demonstrating new text formatting features including big custom framerate counter, custom embedded background and On-Screed Display header, custom benchmark and system time indicators and embedded CPU and GPU usage graphs
§ On-Screen Display layouts are saved in monitoring profiles now
o Improved HwInfo plugin:
§ Added UPS load, power, input voltage and charge level data sources to default plugin configuration
· Improved voltage/frequency editor:
o Voltage/frequency editor window is now available on AMD GPUs. On AMD platform it allows you to edit core frequencies and voltages independently per each P-State:
§ Similar to NVIDIA GPUs, you may either adjust each point frequency or voltage independently with both mouse and keyboard or hold <Shift> and drag single point to apply similar frequency or voltage offset to all P-states
§ Read only P-States are currently not tracked, which means that you can try to adjust the frequency and voltage for it but it will be ignored when applying the curve
§ P-States locking functionality is not implemented yet
o Slightly increased default voltage range for voltage/frequency curve. Now you may lock voltage to lower values if you’re using voltage/frequency editor to downvolt and reduce power consumption on your NVIDIA GPU. Power users may customize the range further, the voltage and frequency limits are fully adjustable via the configuration file
o Now you may press <F5> key in the editor window to reread the curve from hardware. This feature can be useful when adjusting the curve in changing thermal environment
o Voltage and frequency axes are dynamically scales now, so the captions do not overlap when window is too small
· Improved hardware control shared memory interface. During the past years, external applications like MSI Remote Server were using this interface for tuning GPU hardware settings remotely from external applications. The improvements are intended to allow connecting external stress testing and automatic overclocking related applications to MSI Afterburner via this interface:
o Now voltage/frequency curve on NVIDIA Pascal and newer NVIDIA GPU architectures is accessible via hardware control shared memory interface
o New hardware control shared memory interface command allows MSI Afterburner to load hardware settings from external application without immediately applying new settings to GPU
o Added notification message, allowing external applications to notify MSI Afterburner about new command written to hardware control shared memory. Without the notification, MSI Afterburner is executing external commands on each hardware polling iteration like before. Please refer to SDK and MACMSharedMemorySample source code to see notification message usage example
o Added hardware identification info to GPU entries in hardware control shared memory. Hardware identification info allows external applications to reconcile own enumerated devices with logical GPUs enumerated by MSI Afterburner
o Now hardware control shared memory is refreshed on delayed fan speed readback events
· New bundled MSI Overclocking Scanner application in now included in MSI Afterburner distributive:
o MSI Overclocking Scanner is currently supported on NVIDIA GTX 10x0 and NVIDIA RTX 20x0 series graphics cards under 64-bit operating systems only. On such systems you may activate the scanner with dedicated button from the main application window or directly from voltage/frequency curve editor window
o MSI Overclocking Scanner is powered by NVIDIA Scanner technology, which is using proprietary algorithms to quickly and reliably test manually overclocked GPU stability or find the maximum stable GPU overclocking in automatic mode with a single click. The scanner is using embedded NVIDIA test load to stress GPU. The scanner provides you two functional modes:
§ In test mode MSI Overclocking Scanner is stress-testing your manual GPU overclocking settings during approximately 5 minutes. The result is returned as GPU stability confidence level (0% - unstable, 100% - stable)
§ In scan mode MSI Overclocking Scanner is stress-testing and slowly increasing clocks on voltage/frequency curve points and this way automatically detecting the maximum stable GPU overclocking. The result is returned as modified voltage/frequency curve and average GPU overclocking in MHz
· Added framerate limiter compatibility settings group to “On-Screen Display” tab to the application properties. The settings include programmable hotkeys for globally disabling, enabling or toggling framerate limiting techniques of RivaTuner Statistics Server. The settings are intended to provide a way to dynamically enable or disable scanline sync technology based framarate limiting without altering application profiles, however you may use it to toggle traditional framerate limter as well
· Fixed kernel mode hardware access interface fix for AMD Vega GPUs. HBM temperature, GPU power and GPU voltage are no longer returning bogus values when kernel mode hardware access interface is enabled on AMD Vega series graphics cards
· Hardcoded voltage/frequency curve clock multiplier implementation has been replaced with heuristic multiplier detection in order to provide unified voltage/frequency curve control implementation for NVIDIA Pascal and newer NVIDIA GPU architectures
· Improved realtime voltage/frequency curve editor GUI scaling. Now GUI is scaled property when adjusting skin scaling with open voltage/frequency curve editor window
· Improved report window, fan curve editor window, monitoring window and voltage/frequency curve editor scaling for scaling ratios greater than 100%
· Multilanguage user interface library is DPI aware now. Main window skinned interface is no longer being scaled by OS and no longer looks blurred by default when greater than 100% DPI is selected. Now main skinned window interface can be manually zoomed with skin scaling slider in “User interface” tab, and the properties are automatically scaled by OS according to selected DPI
· Added new skin scaling mode for power users. New mode provides better scaling performance at the expense of some scaling image quality loss
· Skin scaling implementation is now asynchronous, so increasing skin scaling ratio doesn’t increase GUI update time and doesn’t decrease GUI response time
· Skin scaling slider range has been extended from 75%-150% to 75%-200%
· RivaTuner Statistics Server has been upgraded to v7.2.1"
Download:
- http://msi-afterburner.guru3d.com/MSIAfterburnerSetup460Beta10Build14218.rar
Odyssey è pesantissimo per la cpu, io in 4k@60 con il 4790k avevo microstuttering anche con 2080 ti, risolti passando a 8086k. E vedo dei 100% sui sei core anche lì, ma non stuttera.Si però anche battefiled fa fatica..
oppure shadow tomb raider se lo provo a 1440p la scheda non supera il 75%..
In pratica se giocassi in 1440p il 4790k nn è in grado di sfruttare al 100% una rtx-2070
Inviato dal mio JSN-L21 utilizzando Tapatalk
fraussantin
26-12-2018, 16:20
Si però anche battefiled fa fatica..
oppure shadow tomb raider se lo provo a 1440p la scheda non supera il 75%..
In pratica se giocassi in 1440p il 4790k nn è in grado di sfruttare al 100% una rtx-2070
Inviato dal mio JSN-L21 utilizzando TapatalkGioca a tw3 moddato e vedi come fonde xD..
Cmq sto giocando dishonored 2 a la gpu mi sta al 100 % lockano il gioco a 120 fps , anzi spesso droppa a 100 .
Tendenzialmente in qhd la mia cpu fa da tappo nei freeroaming e nei giochi ottimizzati male.
Gioca a tw3 moddato e vedi come fonde xD..
Cmq sto giocando dishonored 2 a la gpu mi sta al 100 % lockano il gioco a 120 fps , anzi spesso droppa a 100 .
Tendenzialmente in qhd la mia cpu fa da tappo nei freeroaming e nei giochi ottimizzati male.Ovvio che a
Con giochi pesanti questo per fortuna non succede.. Ma poi ho il problema di pochi fps🤣🤣🤣..
La cosa curiosa che va bene quando un gioco è pesante quindi nn posso giocare a 60fps per la gpu...
Ma quando la scheda riesce a tenerli con qualche rinuncia poi ci si mette pure il processore 😭😭😭..
Inviato dal mio JSN-L21 utilizzando Tapatalk
cyberpunk2020
26-12-2018, 23:18
EVGA XC Ultra oppure Gainward Phoenix GS per design reference + wubbo EK nickel (oppure Watercool Heatkiller o Aquacomputer con active bp)
Oppure Strix (A o O) + wubbo Bitspower o EVGA FTW3 e aspetti il loro wb.
Per le ultime 2 custom forse arriverà anche il loro wb EK (come già successo nel passato)Grazieee non sapevo proprio cosa prendere !
Cmq solo con deaign reference le altre non mi interessano !
Grazieeeee
Inviato dal mio LG-H815 utilizzando Tapatalk
Stiamo parlando di un processore un pò datato. Io lo avevo poi sono passato all 8700 e la musica cambia e di molto. Ricorda che anche i pc sono cambiati parecchio. Vedi ddr4 contro la 3....Certo ovviamente,ha già oltre 4 anni..
al di fuori del Gaming per uso personale è ancora un mostro..
Magari mi aspettavo che faticasse con una rtx 2080 e non già con la rtx 2070..
Ma questo ovviamente dipende anche Dall ottizzazione dei giochi..
Cmq per ora nono sostituisco perché gioco a 60fps..In 4k..
Per un 1440p magari sarei limitato se volessi fps elevati..
Ha più senso che cambi la 2070🤣🤣 con la2080.. Almeno mi garantisce 60fps a dettagli alti in quasi tutti i giochi
Inviato dal mio JSN-L21 utilizzando Tapatalk
Dipende molto dalle risoluzioni come dicevi. In FHD il mio 7700 si piegava in due già con la 1070ti. Sempre a palla mentre la scheda video viaggiava massimo all'80%. Non per niente costano un rene i vari 9700 e compagnia bella. La differenza la noti quando il software che usi porta a limite la cpu. Nel caso specifico i giochi. Prova Battlefield V tutto al massimo e fammi sapere :D Battefiled l'ho provato in singleplayer non ho avuto particolari problemi, ma Cmq ci sono alcuni punti dove ho cali di fps dovuti alla CPU.
Il peggiore è Cmq assassin creed sembra un test stress😭😭😭 CPU quasi sempre al 100%
Inviato dal mio JSN-L21 utilizzando Tapatalk
Ma la garanzia amazon crucca da noi funziona allo stesso modo? Basta una mail in caso di rma?
maxmix65
27-12-2018, 19:34
Ma la garanzia amazon crucca da noi funziona allo stesso modo? Basta una mail in caso di rma?
Si
Ho visto la msi aero. Rispetto l Armor quanti frame ci sono? Oppure è questione di pochi punti nei bench?
Salve, domani dovrebbero consegnarmi la asus 2080, l'ho presa per sostituire la 1070ti.... È la Versione 2 ventole... Che frequenze di partenza posso impostare per l’overclok?
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
Ma la garanzia amazon crucca da noi funziona allo stesso modo? Basta una mail in caso di rma?
Sni, solita efficienza generale, però ri-spedisci a tue spese (e sono care come spedizioni, per restituire un NAS che è morto dopo qualche mese ho speso 29€) e loro ti rimborsano le s.s. appena gli mandi la copia delle ricevuta e il totale rimborso una volta che hanno ricevuto indietro e verificato il prodotto
Temo di non avere molte opzioni... RMA e speriamo che arrivi con le memorie Samsung.
Non penso sia possibile farsi ridare il denaro.
Però cominciano a girarmi le pelotas! :(
Ma è la seconda che ti parte o sbaglio?! :fagiano:
Fino a ieri cmq funzionava benissimo :(
beh... con l'hardware, è tipico passare dal "va perfettamente" al "è rotto" senza troppi preavvisi. Basta che salti un componente e non va più nulla... :(
Arrow0309
27-12-2018, 22:08
Eh, sì, sarebbe la seconda... ma finchè non vedo gli Space Invaders non getto la spugna... però la fifa c'è!
Sempre 2080 ti FE?
Mi spiace ma aspetta di vedere se e' veramente fallata anche questa.
Occata? Temp regolari?
In bocca al lupo
Dipende dove l'hai presa.
Ma in ogni caso se non sono in grado di fornire un prodotto funzionante non si può chiedere un rimborso?
Minchia roba da class action.
Roba da pazzi davvero, nessuna risposta / soluzione ufficiale e altroché ritiro del prodotto, pare che si stanno preparando a rilasciare pure nuovi modelli tra i custom top di gamma tipo la MSI Lightning. :O
Arrow0309
27-12-2018, 22:10
Questa è quella del preorder... viene da Digital River (ovvero il rivenditore di nvidia). Il rimborso lo fanno nei primi 30 giorni, ma credo che in questo caso posso solo fare l'RMA.
Cmq continua a farlo anche dopo DDU e reinstallazione dei driver, col bios stock... :(
Downcloccando la scheda ritardo il problema, ma non risolvo... ora provo a farla stare con le ventole a 66% in downlock e vediamo se tener basse le temperature aiuta.
Fino a ieri cmq funzionava benissimo :(
Che seriale ha questa?
Era nuova nuova?
TigerTank
27-12-2018, 22:14
Temo di non avere molte opzioni... RMA e speriamo che arrivi con le memorie Samsung.
Non penso sia possibile farsi ridare il denaro.
Però cominciano a girarmi le pelotas! :(
Boh cmq non fasciamoci la testa prima che sia rotta, space invaders 'sto giro non ne vedo. Mò inizio a darci giù di DDU e riflasho il bios originale che m'ero tenuto da parte...
Eh infatti è strano come problema...non sembra il classico problema da vga che sta per salutare definitivamente. Ma qualche casotto a livello software...
Giovamas
27-12-2018, 22:30
però con il downclock ha rallentato il problema. la cosa non mi piace: un casino sui driver dovrebbe essere scollegato dai tempi del presentarsi del crash.. auguri Dellin speriamo che risolvi. però davvero roba da class action...:muro:
Sni, solita efficienza generale, però ri-spedisci a tue spese (e sono care come spedizioni, per restituire un NAS che è morto dopo qualche mese ho speso 29€) e loro ti rimborsano le s.s. appena gli mandi la copia delle ricevuta e il totale rimborso una volta che hanno ricevuto indietro e verificato il prodotto
Capito. Tu quindi compreresti una scheda video di questo livello dai crucchi? Ho visto delle 2080 a buon prezzo diciamo...
Qualcuno lo ha fatto davvero? E la scheda va ancora?
- Beatl
- no :rolleyes:
Comunque io avevo già letto di casi di schede in fase pre-mortem (cioè diventate instabili ai clock di default) che "miglioravano" col downclock (salvo comunque morire definitivamente poco tempo dopo)
Insomma... la "degradazione progressiva" non mi è nuova per le rtx, ecco...
fraussantin
27-12-2018, 22:46
Roba da pazzi davvero, nessuna risposta / soluzione ufficiale e altroché ritiro del prodotto, pare che si stanno preparando a rilasciare pure nuovi modelli tra i custom top di gamma tipo la MSI Lightning. :O
ma secondo me non parlano proprio per evitare un rma preventivo di massa..
se ti dicono che il lotto xy del componente z è potenzialmente fallato la gente inizia a smontare le schede per vedere cosa ha lui .. e rma pure se funziona a costo di spaccarla con furmark XD
io sto avendo un po di flick su alcune ombre in diversi giochi . su far cry e odyssey davo la colpa a ubilol , ma ora pure in dishonored 2 .. la cosa mi puzza.. ma è un qualche bug dei dirver , come avevo letto , oppure no ? ( con la 970 non avevo probelmi , ma usavo dei driver vecchiotti)
Per il momento io non ho ancora visto artefatti a parte qualche popup in dragon age inquisition ma niente che possa far pensare a problemi.
In war thunder tutto perfetto ma non lo considero dato che la gpu praticamente sta a prendersi un caffè nel mentre...
Nei vari superposition che ho fatto girare ogni tanto e nella demo del mesh shaders anche li non ho adocchiato nulla. Però la mia è ancora troppo giovane....
C è un modo per vedere la revisione del chip senza aprirla? Il famoso K da 1 a 6? Es TU102-300A-Kx-A1
Ho già installato l’ultimissimo bios da msi, quello che finisce in 103.
Inviato dal mio iPad utilizzando Tapatalk
Xandileo
27-12-2018, 23:16
Per quanto riguarda le stranezze che avevo segnalato qualche pagina fa pure io, aggiorno la situazione.
In effetti, dall'ultimo aggiornamento Tomb Raider in DX12 non ne vuole sapere di partire ma in DX 11 va una meraviglia quindi avranno fatto qualche casino... sono sconcertato. Per scrupolo ho provato altri drivers della serie 416 e non cambia nulla. DDU e installazione pulita di nuovo dei 417.35 alla fine.
Permane un problema che è cominciato proprio dopo il primo crash in avvio di Tomb Raider con conseguente errore DXGI DEVICE HUNG ed è piuttosto fastidioso. In pratica, a caso, alla chiusura random per esempio di un file word o un semplice file di testo editato da notepad, all’avvio di un programma a caso, schermo nero e si chiude tutto, come quando Explorer.exe smette di funzionare. Ma non segnala nulla se non a volte un errore runtime 229 random. Non ho processi che rimangono aperti in idle il mio SO è bello pulito. Quando sto a desktop a mouse fermo la cpu va rapidamente a 0 su tutti i core. Nessun malware o virus
Temperature Max 42 gradi sotto sforzo della cpu
Che diavolaccio può essere visto che la gpu non sembra proprio esserne responsabile.......
Interessante.
Ho provato a vedere come girava ARK survival evolved. Manco sono passati 2 minuti gioco crashato con D3D Device Removed e crash che mi ha ucciso il pc. CPU che continuava a fare spike di frequenza task manager inutilizzabile che si impastava ho dovuto riavviare da riga di comando e appena fatto il riavvio BSOD page fault in non Paged area.
Riavviato riprovato e più nessun problema, ho girovagato 10 minuti.
Poi ho googlato l’errore è credo che sia più raro che il gioco funzioni e non lo dia che altro. Quindi in teoria non dovrebbe essere una problema della gpu. Mi ero preso malissimo....
Edit: sembra un baco proprio dell’UE4 con tanto di baco aperto. Il workaround è aumentare il delay del timeout di attesa dei driver prima di rimuovere il device da chiave di registro :/
Inviato dal mio iPad utilizzando Tapatalk
Da oggi sia AC:Odissey che Battletech (le mie droghe attuali) si piantano dopo circa 10 minuti di gioco sul PC in firma.
La cosa buffa è che in realtà non è crashato niente: se premo i tasti sento i rumori del gioco che continua a funzionare, e se faccio alt tab torno ad un desktop funzionante.
Mi devo preoccupare? :|Giochi in HDr?
Inviato dal mio JSN-L21 utilizzando Tapatalk
fraussantin
28-12-2018, 07:17
Ti garantisco che a quei livelli ci vogliono pochissimi giorni per scoprire il problema. Io lavoro in un grande gruppo che realizza componenti per auto. Dalla prima rottura del primo componente alla risoluzione del problema sono passati 15 giorni (in un nostro caso). Semplicemente perchè quando si ha il progetto sotto mano basta scomporlo nuovamente e ritestare le componenti. Ogni singola parte ha dei robot che eseguono i checking e danno risposte precise. Se Nvidia rimane sul vago e non dice nulla di particolare significa solo che il difetto ha colpito una parte ben precisa della produzione e che si può risolvere facilmente sostituendole senza creare allarmismi. Quante volte senti in TV dei richiami delle auto? A volte si scopre il difetto senza che questo si manifesti perchè comunque in fabbrica quei componenti continuano a girare in test per molto tempo.Il problema è che anche le 2070 si rompono e sono state prodotte dopo.
Se il componente x è rotto non vuol dire che è lui ader essere difettoso. Potrebbe essere un altro a causarne la rottura.
Ps poi le auto sono una cosa , se un guasto mette a rischio la sicurezza è normale che si fanno allerte.
Se si rompe una scheda video mica rischiano una denuncia per negligenza sua sicurezza.
Se fosse il die rotto devono testarlo vedere dove si è rotto e capire cosa lo ha rotto.( Lo space invaders è un sintomo dei die imho neppure delle ram è sopra la schermata non nella schermata. )
O se è colpa del die stesso vanno testati 1x1 prima di saldarli sul pcb.( silicio impuro, o i metalli che ci mettono impuri che non reggono)
Se fosse un errore di progettazione salterebbero tutti.
Ti garantisco che a quei livelli ci vogliono pochissimi giorni per scoprire il problema. Io lavoro in un grande gruppo che realizza componenti per auto. Dalla prima rottura del primo componente alla risoluzione del problema sono passati 15 giorni (in un nostro caso). Semplicemente perchè quando si ha il progetto sotto mano basta scomporlo nuovamente e ritestare le componenti. Ogni singola parte ha dei robot che eseguono i checking e danno risposte precise. Se Nvidia rimane sul vago e non dice nulla di particolare significa solo che il difetto ha colpito una parte ben precisa della produzione e che si può risolvere facilmente sostituendole senza creare allarmismi. Quante volte senti in TV dei richiami delle auto? A volte si scopre il difetto senza che questo si manifesti perchè comunque in fabbrica quei componenti continuano a girare in test per molto tempo.
Se il problema è un componente esterno è facile
Se il problema è sul die stai fresco che tra riprogettare e ritestare se ne vanno almeno 6 mesi
Il problema è che anche le 2070 si rompono e sono state prodotte dopo.
Se il componente x è rotto non vuol dire che è lui ader essere difettoso. Potrebbe essere un altro a causarne la rottura.
Ps poi le auto sono una cosa , se un guasto mette a rischio la sicurezza è normale che si fanno allerte.
Se si rompe una scheda video mica rischiano una denuncia per negligenza sua sicurezza.
Se fosse il die rotto devono testarlo vedere dove si è rotto e capire cosa lo ha rotto.( Lo space invaders è un sintomo dei die imho neppure delle ram è sopra la schermata non nella schermata. )
O se è colpa del die stesso vanno testati 1x1 prima di saldarli sul pcb.( silicio impuro, o i metalli che ci mettono impuri che non reggono)
Se fosse un errore di progettazione salterebbero tutti.Se nn sbaglio la 2070 che si rompono sono quelle che hanno il pcb della 2080.
Io ho la 2070 xc ultra che monta il pcb della 2080, per il momento la tengo in overclock a 2055mhz il processore e 8200mhz le memorie e nn ho Nessun problema.
La mia viene da un lotto nuovo immagino xche ho aspettato tanto per riceverla.. Nn vorrei che già qualcosa hanno fatto...
Inviato dal mio JSN-L21 utilizzando Tapatalk
fraussantin
28-12-2018, 08:08
Se nn sbaglio la 2070 che si rompono sono quelle che hanno il pcb della 2080.
Io ho la 2070 xc ultra che monta il pcb della 2080, per il momento la tengo in overclock a 2055mhz il processore e 8200mhz le memorie e nn ho Nessun problema.
La mia viene da un lotto nuovo immagino xche ho aspettato tanto per riceverla.. Nn vorrei che già qualcosa hanno fatto...
Inviato dal mio JSN-L21 utilizzando TapatalkSi rompono anche le fe che hanno il pcb ridotto. ( Identico alla mia evga black.)
Ma non vuol dire nulla la componentistica per la maggior parte è la stessa.
Giovamas
28-12-2018, 08:12
la situazione sta diventando grottesca.
Grottesca è la parola giusta. se non costassero tutti questi soldi ci sarebbe anche da ridere. La mia va bene... ma è incredibile che lato driver ci siano falle tipo quella che affligge i Benq serie XL (ci ribatto ma lo trovo scandaloso)
TigerTank
28-12-2018, 09:17
Sta di fatto che siamo arrivati alla fine del 2018 e siamo qui ancora a rimuginare sulle stesse ipotesi e paure perchè non si sa ancora nulla di certo a livello ufficiale. E di sicuro molte fonti di informazione stanno in campana per non finire su qualche libro nero visto che magari campano anche di sample da recensire.
Comunque sullo shop Nvidia è tornata disponibile la 2080Ti...sarebbe bello sapere se le cose andranno avanti spudoratamente in quanto ad esemplari che muoiono o se quelle attualmente in vendita siano una nuova revisione o simile...
TigerTank
28-12-2018, 09:28
beh insomma da ridere neanche se costassero 200€.
il problema non è che costano tanto, quella è la beffa, il problema è che si stanno rompendo davvero tutte ma che non ci sono prese di posizione o spiragli di soluzione, si va di rma ad oltranza e si pensa che il problema siano le ram..
Eh già....a questo (https://forums.geforce.com/default/topic/1091678/geforce-rtx-20-series/rtx-2080ti-asus-rog-strix-artifacts-errors/) sta partendo una 2080Ti Strix(anche se non testerei mai una mia vga con Furmark...).
Considerato che le fanno a 1600€ e passa, io reagirei parecchio male.
Io purtroppo sono sempre più convinto che i problemi partano proprio dalla gpu. E' l'unica costante rimasta in tutte le schede, visto che muoiono esemplari con diversi pcb e pure con vram samsung.
Giovamas
28-12-2018, 09:31
beh insomma da ridere neanche se costassero 200€.
il problema non è che costano tanto, quella è la beffa, il problema è che si stanno rompendo davvero tutte ma che non ci sono prese di posizione o spiragli di soluzione, si va di rma ad oltranza e si pensa che il problema siano le ram..
si infatti hai ragione.. da ridere non c'è proprio nulla (e secondo me le ram non c'entrano come giustamente nota Tiger. facendo i dovuti scongiuri le mia sono settimane che sono a +700. Micron. e problemi zero. e leggendo il forum di geforce ci sono anche 2080 schiantate). Il problema ci può stare ma è la mancanza di presa di posizione che fa incavolare. Ricordo ancora il richiamo totale dei P90 dell'Intel. prima si arroccò su una posizione indifendibile e poi richiamò tutte le cpu. pian piano faranno così?
djmatrix619
28-12-2018, 09:39
Ma sono le memorie Samsung il problema?
in questo caso posso dire di essere felicemente un barbone! :asd:
Classified
28-12-2018, 10:03
ma poi scusate, io non sono tanto addentro a questioni tecniche, ma queste rtx di fatto non sono le quadro più o meno tagliuzzate (o flashate di bios) ma con gli stessi componenti? quelle non si stanno rompendo? (relativamente al venduto che chiaramente non sarà uguale)
Sono delle versioni rimaneggiate, quindi come qualità del silicio sicuramente peggiori. Penso che per alzare le rese il più possibile (sono chip molto grandi, ne hanno sicuramente bisogno) abbiano esagerato validando chip con problemi più estesi rispetto al taglio laser effettuato.
Cmq stavo pensando di sostituire la mia rtx 2070 con una rtx 2080..
Quanto guadagnerei in % prestazionali in 4k?
Gioco su tv oled mi accontento di rinunciare a qualcosa...
Visto che posso sostituirla su Amazon una valida 2080 economica quale sarebbe?
Inviato dal mio JSN-L21 utilizzando Tapatalk
sertopica
28-12-2018, 10:11
Ma sono le memorie Samsung il problema?
Apparentemente l'intera progettazione del pcb e delle sue componenti potrebbe essere il problema. Non solo le schede con memorie Samsung sono partite.
Classified
28-12-2018, 10:14
Senza avere una % delle rotture parliamo da mesi di nulla. Sappiamo benissimo che sul web trovi chi viene a lamentarsi di una cosa e non tutti gli altri che la utilizzano senza problemi. Non sappiamo i volumi di vendita e non sappiamo dei guasti. Se fossero tutte fallate le avrebbero ritirate o bloccata la vendita.
Ci sono decine di post sui vari forum del pianeta, compreso quello nvidia, una cosa che non si era mai vista prima. Non basta per dare percentuali ma è più che sufficiente per verificare che il problema è importante o avremmo avuto questo tipo di post nelle stesse quantità anche con le serie precedenti.
L'unico caso simile che io ricordi, ma era comunque più contenuto, fu quello di G86 o G84 che scoppiava nei portatili.
Iceman69
28-12-2018, 10:24
Giusto per buttare acqua sul fuoco io ormai è più di un mese che ho la 2080 ti strix, usandola per più di 4 ore al giorno sempre tiratissima con giochi o test per trovare il giusto compromesso tra prestazioni e temperatura, e per ora non si è verificato il minimo problema, anzi, mi sembra leggermente migliorata in overclock (parliamo di 15/30 MHz).
Certo io la ho settata in modo che sia sempre intorno ai 70 gradi e non di più, con memorie a +700 (reggono anche i +800, ma per sicurezza...) e non uso Furmark, però lavora sempre intorno ai 2 GHz al 99%, quindi non la risparmio.
Qui nel forum, a parte 3/4 persone che ne hanno rotta anche più di una, non mi sembra ci sia questa moria stile epidemia di peste (e il fatto che ne abbiano rotta più di una mi fa pensare che non dipenda proprio solo dalla GPU...).
Sicuramente i casi di rottura sono stati sopra la media, anche per prodotti tecnicamente nuovi, ma Nvidia ha già risposto circa i problemi sui controlli qualitativi che non hanno funzionato.
Classified
28-12-2018, 10:25
hai ragione ma è anche vero che si stanno lamentando in molti, il forum non fa statistica ma a memoria una cosa del genere mai successa.
non ci si può nascondere dietro un dito, queste rtx ad oggi sono a memoria tra le schede che si stanno guastando di più, siamo secondo me ai livelli dei chip mobile (acer, hp ed altri) di qualche tempo fa (sempre nvidia, le 7800/8800 mi pare) che si dissaldavano e dove in america hanno fatto e vinto la class action, mentre in italia fuori dalla garanzia, patate.
Erano G86 e G84, ma in quel caso a parte chi conosceva la vicenda percepiva solo la rottura del portatile senza sapere a cosa fosse dovuta, qui si rompe una scheda, quindi è facile dare la colpa alla scheda senza dubbi di sorta.
TigerTank
28-12-2018, 10:33
Giusto per buttare acqua sul fuoco io ormai è più di un mese che ho la 2080 ti strix, usandola per più di 4 ore al giorno sempre tiratissima con giochi o test per trovare il giusto compromesso tra prestazioni e temperatura, e per ora non si è verificato il minimo problema, anzi, mi sembra leggermente migliorata in overclock (parliamo di 15/30 MHz).
Certo io la ho settata in modo che sia sempre intorno ai 70 gradi e non di più, con memorie a +700 (reggono anche i +800, ma per sicurezza...) e non uso Furmark, però lavora sempre intorno ai 2 GHz al 99%, quindi non la risparmio.
Qui nel forum, a parte 3/4 persone che ne hanno rotta anche più di una, non mi sembra ci sia questa moria stile epidemia di peste (e il fatto che ne abbiano rotta più di una mi fa pensare che non dipenda proprio solo dalla GPU...).
Sicuramente i casi di rottura sono stati sopra la media, anche per prodotti tecnicamente nuovi, ma Nvidia ha già risposto circa i problemi sui controlli qualitativi che non hanno funzionato.
Evidentemente a te è andata bene, ma di sicuro posteresti in modo molto diverso se iniziasse ad avere problemi, come hanno fatto altri :D
C'è pure gente che ha dovuto cambiare 2 o 3 schede(e non parliamo di shop furbi di terze parti), segno che non sono in grado comunque di dare alcuna certezza di funzionamento nemmeno per le sostitute.
Le risposta di Nvidia è stata molto concisa ed elusiva e parlava di "pochi esemplari FE sfuggiti al QC" mentre la realtà è stata ben diversa.
Comunque come ho scritto sopra, le 2080Ti FE sono ritornate disponibili alla vendita. Vedremo cosa succederà in quanto ad esperienze dei nuovi acquirenti-avventurieri :)
P.S. Quoto su furmark....imho lì te la vai proprio a cercare :asd:
Il nabbo di turno
28-12-2018, 10:36
https://pbs.twimg.com/media/DvfVCoUUUAInr2l.jpg:large
terranux
28-12-2018, 10:46
Senza avere una % delle rotture parliamo da mesi di nulla. Sappiamo benissimo che sul web trovi chi viene a lamentarsi di una cosa e non tutti gli altri che la utilizzano senza problemi. Non sappiamo i volumi di vendita e non sappiamo dei guasti. Se fossero tutte fallate le avrebbero ritirate o bloccata la vendita.
esatto nessuno di noi può sapere quante ne vendono e quante se ne rompono. ma secondo me chi compra queste schede frequenta i forum,e la situazione non è bella... mi fanno ridere quelli che dicono ne vendano moltissime e solo una piccola parte ha dei problemi! Ma chi glielo ha detto? A logica ne vendono poche e se ne rompono tante...a logica.
Gente sto provando la mia trio a PL massimo.
Ho rifatto un po' di bench con Total war Britannia e superposition vari ma sinceramente oltre alla stabilità delle frequenze, dove non scende più sotto i 1950 contro i 1920 circa, non ne trovo i vantaggi a oarte 30W in più e qualche percentuale di ventola aggiuntiva.
+90 punti circa in 4k optimized
+70 punti circa in 1080p Extreme
+1 fps in arrotondamento in Total war. (Su 76 di media) ma qui può essere semplice differenza tra un test e l'altro.
Mah....la tengo a 300W che scalda un po' meno a sto punto. La alzo a 110 giusto per benchare, cosa di cui non mi importa nulla xD
Ha molto più senso su altre VGA meno spinte con PL molto più bassi tipo la FE, ma questa di base avendo già 300W i guadagni sono ridicoli a fronte di calore e consumo maggiore.
PS ormai uso Daily la mia curva custom che la tiene sui 70 gradi.
PPS il PL aumentato tornerà utile quando mi cimenterò nel downvolt a sto punto.
Inviato dal mio SM-G960F utilizzando Tapatalk
Arrow0309
28-12-2018, 11:20
Si sapessero le cause almeno, si sono fatte un sacco di ipotesi e in alcune si potrebbe fare qualcosa per preservare la scheda come nell'ipotesi delle memorie che si scaldano.
Ma senza certezze c'è poco da fare.
Ho letto qualcuno qui che la voleva liquidare proprio nella speranza id non incappare nel problema.
Qualcuno lo ha fatto davvero? E la scheda va ancora?
Io si, faccio da beta tester con la FE, gioco sempre in oc temp massima 40.
Vediamo che succede.
fraussantin
28-12-2018, 11:22
Cmq secondo me prima o poi esce fuori qualche geek pazzo in rete che analizza in maniera maniacale una rtx rotta e ci dice cosa è e a quel punto nvidia dovrá parlare.
Classified
28-12-2018, 11:27
Cmq secondo me prima o poi esce fuori qualche geek pazzo in rete che analizza in maniera maniacale una rtx rotta e ci dice cosa è e a quel punto nvidia dovrá parlare.
Se il problema è elettronico il geek non può scoprirlo. Se il problema fosse la difficoltà a sopportare temperature normali ad aria e ampiamente entro specifica ci vorrebbe un campione un po' più ampio del solo Arrow0309 e vedere quante/se sono esplose sotto liquido, se di quelle fredde non se ne sono rotte la risposta è quella.
Classified
28-12-2018, 11:28
Nvidia è un'azienda leader mondiale di schede video. Ne venderanno a caterve! Non sappiamo quante ma di certo ne vendono tantissime. Tieni anche presente che lato Amd la concorrenza è nulla praticamente. Se mettiamo insieme i post dei forum quanti utenti hai letto? 100? 1000?
Quanti ne hai letti con la 1080Ti fiammata? E con la 1080? E' facile fare le proporzioni.
Thunder-74
28-12-2018, 11:31
Cmq secondo me prima o poi esce fuori qualche geek pazzo in rete che analizza in maniera maniacale una rtx rotta e ci dice cosa è e a quel punto nvidia dovrá parlare.
Solo una persona non coinvolta nelle logiche nVidia, potrà farlo.
Io penso a tutte le case produttrici danneggiate da un chip buggato... ci vanno a rimettere anche l'affidabilità legata al proprio marchio. Non sarà un caso che a tre mesi di distanza, alcuni modelli di punta presentati, non sono in vendita.
Se il problema fosse di PCB, credo che a questo punto avremmo visto parecchie alternative allontanarsi dal progetto principale nVidia... sono curioso di vedere come sarà la futura MSI Lightning...
Arrow0309
28-12-2018, 11:31
Vi vorrei indicare il caso di un'utente su overclock.net che è arrivato alla sua quarta MSI 2080ti.
Dopo due Ventus e un'altra Duke (tutte in RMA rotte) ora ha la Hawk X EK (al liquido).
La sua impressione è che si sono rotte (anche presto) forzandole in oc col pl maxato sul bios da 380w (e temp da aria ovv).
Vediamo la Hawk X quanto gli dura.
Io per quanto mi riguarda ho trovato lo sweet spot a 2085 - 2070 / 7500 vdef col bios Evga XC Ultra da 338W e PL max.
Classified
28-12-2018, 11:38
si però scusate, ok che in passato ste schede si cloccavano a morte e pace ma dico io, sapendo quanto sono delicatine, tu ne prendi 4 e tutte e 4 le sfondi a 380w, allora sei str.....zo :ciapet:
:asd: :muro:
The Void
28-12-2018, 11:39
Cmq secondo me prima o poi esce fuori qualche geek pazzo in rete che analizza in maniera maniacale una rtx rotta e ci dice cosa è e a quel punto nvidia dovrá parlare.
Cambiando un pò il discorso ma riallacciandomi nel "Nvidia dovrà parlare" , io da fiero possessore di Nvidia dal 2011 oramai vorrei che qualcuno li forzasse a dire pubblicamente perchè hanno fatto sta stronzata del RT quando lo sanno benissimo pure i muri che si possono fare effetti simili al raytracing con 1\10 della potenza di calcolo necessaria, su engine vecchi di decadi e senza spendere oltre 1000 di scheda video:
https://i.imgur.com/s9MLAVn.jpg
https://i.imgur.com/xh3g7EC.jpg
amon.akira
28-12-2018, 11:41
la mia fa 10giorni ma è tutto perfetto, mi ha pure evidenziato una piccola instabilità sulla cpu con BFV (BSOD) che ho fixato con altri 10mV. Vedremo come prosegue, come compie un mese gli do +500 alla ram :P
Arrow0309
28-12-2018, 11:43
si però scusate, ok che in passato ste schede si cloccavano a morte e pace ma dico io, sapendo quanto sono delicatine, tu ne prendi 4 e tutte e 4 le sfondi a 380w, allora sei str.....zo :ciapet:
Come non quotarti.
Ma il suo beta tester da vera cavia ci aiuta a capire qualche c@zzo.
Tutte a design reference poi.
la mia fa 10giorni ma è tutto perfetto, mi ha pure evidenziato una piccola instabilità sulla cpu con BFV (BSOD) che ho fixato con altri 10mV. Vedremo come prosegue, come compie un mese gli do +500 alla ram :P
Si, è noto in mp per trovarti instabilità cpu in oc (se non RS).
amon.akira
28-12-2018, 11:45
Cambiando un pò il discorso ma riallacciandomi nel "Nvidia dovrà parlare" , io da fiero possessore di Nvidia dal 2011 oramai vorrei che qualcuno li forzasse a dire pubblicamente perchè hanno fatto sta stronzata del RT quando lo sanno benissimo pure i muri che si possono fare effetti simili al raytracing con 1\10 della potenza di calcolo necessaria, su engine vecchi di decadi e senza spendere oltre 1000 di scheda video:
si è già discusso ed è stato mostrato piu e piu volte da un po tutti gli sviluppatori i limiti dei SSR e delle porcherie delle cube maps, questo solo considerando i riflessi, ma l RT non è solo riflessi, tomb raider avrà le ombre, ci sarà l AO e la GI in altri...tutte situazioni in cui si deve migliorare, questo è lo starter point.
si però scusate, ok che in passato ste schede si cloccavano a morte e pace ma dico io, sapendo quanto sono delicatine, tu ne prendi 4 e tutte e 4 le sfondi a 380w, allora sei str.....zo :ciapet:Fortuna che le cambiano🤣🤣🤣.
Io Controllerei anche l'alimentatore...
4 schede assurdo
Inviato dal mio JSN-L21 utilizzando Tapatalk
VR Filippo72
28-12-2018, 12:08
Sarebbe interessante fare un minisondaggio sul forum per capire qual'è l'attuale
stato di salute di queste Touring.
Io possiedo da circa 3 mesi una Asus Dual 2080 ti OC, la sto utilizzando sempre in undervolt, con frequenza massima 1995 e memoria default, toccando ferro non ho mai avuto il benchè minimo problema.
Posso portare anche la testimonianza di 2 miei amici possessori di una Zotac AMP 2080ti (3 mesi di vita) e di una Founders 2080 ti ( 1 mese di vita), giocano a frequenze default, anche loro zero problemi.
TigerTank
28-12-2018, 12:49
Sono delle versioni rimaneggiate, quindi come qualità del silicio sicuramente peggiori. Penso che per alzare le rese il più possibile (sono chip molto grandi, ne hanno sicuramente bisogno) abbiano esagerato validando chip con problemi più estesi rispetto al taglio laser effettuato.
Stessa cosa che penso anch'io, eliminando le variabili (pcb e vram) resta solo la gpu...e secondo me hanno messo a mercato esemplari che non ci sarebbero dovuti arrivare. Altro che QC scarso su pochi esemplari.
Io sinceramente in tanti anni di passione per pc è la prima volta che vedo un fenomeno di failure così esteso, al di là della normalità classica circa il fatto che in tutti i settori dell'elettronica, nonostante una QC dichiarata, possa capitare che non tutte le ciambelle escano con il buco.
Il problema è che purtroppo non sarebbe la prima volta che nvidia pecca di trasparenza...vedasi la storia vram delle gtx970 e relative polemiche emerse allora.
Secondo me hanno osato troppo con questo processo produttivo e semplicemente molti esemplari non reggono, chi prima, chi dopo.
Iceman69
28-12-2018, 12:53
la mia fa 10giorni ma è tutto perfetto, mi ha pure evidenziato una piccola instabilità sulla cpu con BFV (BSOD) che ho fixato con altri 10mV. Vedremo come prosegue, come compie un mese gli do +500 alla ram :P
Domanda da possessore di 2080ti strix, vedo dala tua firma che la tieni a 1950 0.912mV, ma 1950 è quanto ti arriva sotto stress o quanto hai impostato sulla curva dell'OCscanner?
Anche il la tengo a 1950, ma a 0.956mV (Power 115% per non essere PW limited) e con impostato sulla curva 2010, poi con i vari tagli arriva a 1950 (4 tagli per temperatura che si stabilizza intorno ai 70 C° con ventola che varia i suoi giri in base al gioco).
Arrow0309
28-12-2018, 13:18
03238181XXXXXX
....niente, continua a crashare. In generale downcloccare/powerlimitare/sventolare ritarda, ma il crash arriva lo stesso.
Fondamentalmente ogni post che ho fatto stasera è stato subito dopo un crash... :D
Mò le cambio computer e poi vediamo che succede... però in 4k non credo che la 2080 ce la farà senza qualche rinuncia grafica. Mi sparerò tutti i flashpoint di Battletech nell'attesa dell'RMA!
E' strano che t'hanno mandato anche la seconda volta una dei batch "precedenti" (03238, noti per possibili fault), a me sin dall'inizio mi hanno mandato una 2080 ti FE batch: 032401xxxxxxx
Ne venderanno a caterve! Non sappiamo quante ma di certo ne vendono tantissime.
Vendono tantissime schede da 2000 euro ?
E tutte a gente che non posta mai su Internet per raccontarlo ?
Permettimi di dubitare
E comunque se c' è una cosa che fa drizzare le antenne sono i casi di morte seriale, se ti si rompe una scheda è un caso, se ti si rompe pure quella sostitutiva è preoccupante.
Quanti ce ne sono che ne hanno rotte due o tre di seguito ?
Normalmente sono casi rarissimi e invece ne troviamo a pacchi che postano, è sintomo inequivocabile di un tasso di rottura ben superiore al solito.
amon.akira
28-12-2018, 13:34
Domanda da possessore di 2080ti strix, vedo dala tua firma che la tieni a 1950 0.912mV, ma 1950 è quanto ti arriva sotto stress o quanto hai impostato sulla curva dell'OCscanner?
Anche il la tengo a 1950, ma a 0.956mV (Power 115% per non essere PW limited) e con impostato sulla curva 2010, poi con i vari tagli arriva a 1950 (4 tagli per temperatura che si stabilizza intorno ai 70 C° con ventola che varia i suoi giri in base al gioco).
l ho regolata in base a timespy che in linea di massima è quello che assorbe piu watt, ma ci sono anche casi simili ingame ovviamente.
con il tdp a 125% si arriva max a 330watt di picco, la mia curva inizia da 1950 e max scendo a 1905 se supero i 65° ed avviene il terzo taglio di temperatura, altrimenti normalmente sono solo 2tagli, quindi 1920mhz.
ricapitolando con tdp 125% quindi max wattaggio e 912mv su timespy ho solo per 1secondo durante il graphic test2 un taglio da tdp, quindi sono al limite con i watt a 1950mhz, preferisco tenerla cosi senza tagli da tdp in tutte le situazioni che spingerla di piu e tenerla piu ballerina e piu calda.
graphic score timespy 14.900punti a memorie default, cosi ti regoli con il punteggio.
tu con 950mv e 115% dovresti essere molto powerlimit su timespy o in casi simili.
Sarebbe interessante fare un minisondaggio sul forum per capire qual'è l'attuale
stato di salute di queste Touring.
Io possiedo da circa 3 mesi una Asus Dual 2080 ti OC, la sto utilizzando sempre in undervolt, con frequenza massima 1995 e memoria default, toccando ferro non ho mai avuto il benchè minimo problema.
Posso portare anche la testimonianza di 2 miei amici possessori di una Zotac AMP 2080ti (3 mesi di vita) e di una Founders 2080 ti ( 1 mese di vita), giocano a frequenze default, anche loro zero problemi.
sei l esempio lampante che a chi funziona di solito non lo va a dire sul forum, anche perchè dovrebbe essere la norma diciamo XD
mie testimonianze di amici, 2x 2080 e 1x 2070 vive e vegete da 1-2mesi
fraussantin
28-12-2018, 13:40
ma voi come avete fatto ad aviare ff15DEMO in dx12? a me parte in dx11 e niente dlss
Arrow0309
28-12-2018, 13:47
l ho regolata in base a timespy che in linea di massima è quello che assorbe piu watt, ma ci sono anche casi simile ingame ovviamente.
con il tdp a 125% si arriva max a 330watt di picco, la mia curva inizia da 1950 e max scendo a 1905 se supero i 65° ed avviene il terzo taglio di temperatura, altrimenti normalmente sono solo 2tagli, quindi 1920mhz.
ricapitolando con tdp 125% quindi max wattaggio e 912mv su timespy ho solo per 1secondo durante il graphic test2 un taglio da tdp, quindi sono al limite con i watt a 1950mhz, preferisco tenerla cosi senza tagli da tdp in tutte le situazioni che spingerla di piu e tenerla piu ballerina e piu calda.
graphic score timespy 14.900punti a memorie default, cosi ti regoli con il punteggio.
tu con 950mv e 115% dovresti essere molto powerlimit su timespy o in casi simili.
sei l esempio lampante che a chi funziona di solito non lo va a dire sul forum, anche perchè dovrebbe essere la norma diciamo XD
mie testimonianze di amici, 2x 2080 e 1x 2070 vive e vegete da 1-2mesi
Si, ma non si possono pagare queste cifre per le ti senza avere la soddisfazione di un lieve oc, anche meno di quello che facevi sulla ex 1080 ti / Txp (sopratutto se al liquido).
Certo, ci vuole un buon senso e magari si va a rischio coi OC spinti a manetta sui bios da 380W (e oltre) pl max + ov nella luce di tutte ste rogne che compaiono come i funghi ogni giorno (a qualcuno).
Ma non mi dire che dopo aver pagato £1100 (più una cifra considerevole sul liq) mi devo "accontentare" di 19xx freq (che mi sale a def col pl max) quando gioco a 2070 @39C. :O
amon.akira
28-12-2018, 13:51
Si, ma non si possono pagare queste cifre per le ti senza avere la soddisfazione di un lieve oc, anche meno di quello che facevi sulla ex 1080 ti / Txp (sopratutto seal liquido).
Certo, ci vuole un buon senso e magari si va a rischio coi OC spinti a manetta sui bios da 380W (e oltre) pl max + ov nella luce di tutte ste rogne che compaiono come i funghi ogni giorno (a qualcuno).
Ma non mi dire che dopo aver pagato £1100 (più una cifra considerevole sul liq) mi devo "accontentare" di 19xx freq (che mi sale a def col pl max) quando gioco a 2070 @39C. :O
no no se ero al liquido la sfondavo, purtroppo ad aria bisogna essere realisti, sopratutto se si vuole un rumore accettabile, putroppo consumano e io ho a disposizione 330watt max, e non voglio flashare bios esterni sopratutto se poi con il dissi ad aria non riuscirei mai a tenere a bada 380watt ora, figurati d estate.
infatti non dico che non bisogna occarle per non romperle, anzi jensen è stato il primo a dire che erano fatte per l overclock.
mikael84
28-12-2018, 14:11
Stessa cosa che penso anch'io, eliminando le variabili (pcb e vram) resta solo la gpu...e secondo me hanno messo a mercato esemplari che non ci sarebbero dovuti arrivare. Altro che QC scarso su pochi esemplari.
Io sinceramente in tanti anni di passione per pc è la prima volta che vedo un fenomeno di failure così esteso, al di là della normalità classica circa il fatto che in tutti i settori dell'elettronica, nonostante una QC dichiarata, possa capitare che non tutte le ciambelle escano con il buco.
Il problema è che purtroppo non sarebbe la prima volta che nvidia pecca di trasparenza...vedasi la storia vram delle gtx970 e relative polemiche emerse allora.
Secondo me hanno osato troppo con questo processo produttivo e semplicemente molti esemplari non reggono, chi prima, chi dopo.
E' la GPU e relativo MC/ram. E' un problema di progettazione del chip, non afflige tutte le GPU ma buona parte.
Anche alcune Titan v sono state sbagliate.
Per chi parla di scarti, la 2070 non è scarto, ma chip puro.
La 2080ti essendo molto complessa va inevitabilmente incontro a più problemi.
E' successa una cosa analoga ad AMD con le 290, gran parte di schede fallate con continui black screen.
Classified
28-12-2018, 14:19
Per chi parla di scarti, la 2070 non è scarto, ma chip puro.
E non sarà un caso che la 2070 abbia una % di morte più bassa
fraussantin
28-12-2018, 14:23
E non sarà un caso che la 2070 abbia una % di morte più bassa
magari .. ne stanno crepando un sacco , forse quella che muore meno e la 2080 , ma anche di quelle ne son decedute.
ps
@micheal84 la 2070 è un chip intero , ma potrebbe essere di ii scelta rispetto alle quadro, e di 3 scelta quello marchiato A
amon.akira
28-12-2018, 14:28
così x scrupolo
timespy con +500mem
https://www.3dmark.com/3dm/31743867
praticamente il graphic test uno se l è tirato tutto a 1935mhz e il secondo a 1920mhz
320watt picco
TigerTank
28-12-2018, 14:31
E' la GPU e relativo MC/ram. E' un problema di progettazione del chip, non afflige tutte le GPU ma buona parte.
Anche alcune Titan v sono state sbagliate.
Per chi parla di scarti, la 2070 non è scarto, ma chip puro.
La 2080ti essendo molto complessa va inevitabilmente incontro a più problemi.
E' successa una cosa analoga ad AMD con le 290, gran parte di schede fallate con continui black screen.
Esatto :)
E non sarà un caso che la 2070 abbia una % di morte più bassa
magari .. ne stanno crepando un sacco , forse quella che muore meno e la 2080 , ma anche di quelle ne son decedute.
ps
@micheal84 la 2070 è un chip intero , ma potrebbe essere di ii scelta rispetto alle quadro, e di 3 scelta quello marchiato A
Semmai sarebbe da dire che stranamente quelle che stanno morendo di più sono le 2 al top come schede da gaming in quanto a chip, 2080Ti e 2070.
In attesa di vedere che succede con le Titan...anche se a confronto saranno ben più elitarie come numeri di vendita, soprattutto a un tale prezzo, forse appetibile solo a chi cerca una soluzione pro senza andare a spendere le cifre delle Quadro.
mikael84
28-12-2018, 14:33
E non sarà un caso che la 2070 abbia una % di morte più bassa
Saltano anche loro, eccome se saltano.
magari .. ne stanno crepando un sacco , forse quella che muore meno e la 2080 , ma anche di quelle ne son decedute.
ps
@micheal84 la 2070 è un chip intero , ma potrebbe essere di ii scelta rispetto alle quadro, e di 3 scelta quello marchiato A
Nella quadro relativa, hanno stranamente optato per una soluzione differente lato ram. Hanno impostato il clock delle ddr6 a 13gb/s e lavora a clock infimi.
Nelle varianti TU104/102, i chip sono puri, con l'unica differenza del MC a 2gb Samsung.
mikael84
28-12-2018, 14:47
così x scrupolo
timespy con +500mem
https://www.3dmark.com/3dm/31743867
praticamente il graphic test uno se l è tirato tutto a 1935mhz e il secondo a 1920mhz
320watt picco
+28% alla Titan xp più occata che ho nel database 3dmark (quella di EDORAM).:)
fraussantin
28-12-2018, 14:55
Se le schede guaste fossero poche sarebbe matematicamente quasi impossibile che chi ne ha mandata una guasta in rma ne riceve un'altra guasta a meno che non si chiama Fantozzi o Paperino.
Invece è successo qui a più di un utente se non ricordo male ed è successo ad parecchi utenti sul forum Nvidia.
Se la matematica non è un opinione le schede difettose sono più che "poche scappate a l QT"Va anche detto che l'utente medio la tiene a default e magari gioca in vsync in 1080p @60.
Il forumer medio in tempo 2 settimane gli ci ha già fatto passare più watt che l'utente medio in un anno xD ..
Questo non giustifica nulla è chiaro.
Nvidia ha fatto una megaporcata.
amon.akira
28-12-2018, 14:57
Se le schede guaste fossero poche sarebbe matematicamente quasi impossibile che chi ne ha mandata una guasta in rma ne riceve un'altra guasta a meno che non si chiama Fantozzi o Paperino.
Invece è successo qui a più di un utente se non ricordo male ed è successo ad parecchi utenti sul forum Nvidia.
Se la matematica non è un opinione le schede difettose sono più che "poche scappate a l QT"
tutto giusto, però è anche vero il contrario...se a uno gli si rompono 4schede di fila e altresi impossibile che ad altri 4utenti la scappottino senza un rma.
in teoria dovrebbe saltare a me o a qualcuno dei miei amici, spero di no ma vedremo :P
l'utente medio (che viaggia in full HD a 69 hz) non comprerà MAI una scheda della famiglia rtx! L'acquirente di queste schede è un utente di livello alto-enthusiast, nel 90% dei casi (ma minimo!)
Inviato dal mio Mi MIX 2S utilizzando Tapatalk
fraussantin
28-12-2018, 15:38
l'utente medio (che viaggia in full HD a 69 hz) non comprerà MAI una scheda della famiglia rtx! L'acquirente di queste schede è un utente di livello alto-enthusiast, nel 90% dei casi (ma minimo!)
Inviato dal mio Mi MIX 2S utilizzando TapatalkBeh non è così... Almeno fuori dai forum . Spesso le mettono perchè fa figo con gli amici e su twich.
Sarebbe come dire che l'utente che compra una bmw o un audi è uno che va sempre a manetta. E poi spesso sono quelli che fanno le code ...
fraussantin
28-12-2018, 15:47
Ti do ragione, avere l'ultima vga costosa è un po' come avere l'ultimo ifon, o vestire firmato, fa figo e fai vedere agli altri che la tua vita va alla grande... in generale va così da sempre.Ho un amico , con cui uscivo ai tempi .. si fece un 6700 e una 1080 per giocare a solo a lineage... Non ti dico altro.
mikael84
28-12-2018, 15:57
alla faccia... in supermegadownvolt, appena 0.912v, riesce comunque a segnarti 320watt :sofico:
del tipo che a 1 volt o vicino allo stock immagino che sfonderebbe di sicuro i 400watt per quei clock o poco più :sofico:
Il 3dmark di picco spara un sacco di corrente. E' davvero molto esoso.:)
amon.akira
28-12-2018, 16:21
Il 3dmark di picco spara un sacco di corrente. E' davvero molto esoso.:)
per parcondicio last light 4k mi ha segnato 320watt di picco, mentre bfv 285w 1440p rt ultra
Il nabbo di turno
28-12-2018, 17:05
https://videocardz.com/79485/nvidia-geforce-rtx-2060-pictured-launches-january-7th
Beh non è così... Almeno fuori dai forum .
Ti do ragione, avere l'ultima vga costosa è un po' come avere l'ultimo ifon, o vestire firmato, fa figo e fai vedere agli altri che la tua vita va alla grande...
mah... con i prezzi delle top di ora sono convinto che sono ben pochi gli utenti che spendono certe cifre senza "conoscenza" di quello che fanno...
L'utente medio non compra una scheda da 500€ a salire.
ecco... manco secondo me...
P.S. non esiste utente medio o utente comune...esiste solo utente che ha i soldi e utente che non li ha.
Esiste anche l'utente che ha i soldi, ma preferisce non spenderli (secondo lui) inutilmente ;)
fraussantin
28-12-2018, 17:19
Esiste anche l'utente che ha i soldi, ma preferisce non spenderli (secondo lui) inutilmente ;)Certo che esiste ma è in via di estinzione almeno in campo gaming altrimenti l'rbg non esisterebbe
Certo che esiste ma è in via di estinzione almeno in campo gaming altrimenti l'rbg non esisterebbe
ok ok... è solo per far capire che l'affermazione "se non compri l'ifooon vuol dire che sei povero" è quanto di più sbagliato possa esserci... E' quello che vorrebbero farti credere, ma spesso è viceversa... ;)
demonangel
28-12-2018, 17:31
alla faccia... in supermegadownvolt, appena 0.912v, riesce comunque a segnarti 320watt :sofico:
del tipo che a 1 volt o vicino allo stock immagino che sfonderebbe di sicuro i 400watt per quei clock o poco più :sofico:
Guarda...io la tengo a 0.75v con frequenze che al terzo taglio la portano a 1905mhz a 75° (di norma se ne sta uno step più alto a 1920).
E così ciuccio tutti i 320W della FE
Immagino sia colpa delle VRAM a +1000per sti superconsumi, ma fatti i test è meglio avere VRAM elevata e Core Clock elevato.
amon.akira
28-12-2018, 17:38
Guarda...io la tengo a 0.75v con frequenze che al terzo taglio la portano a 1905mhz a 75° (di norma se ne sta uno step più alto a 1920).
E così ciuccio tutti i 320W della FE
Immagino sia colpa delle VRAM a +1000per sti superconsumi, ma fatti i test è meglio avere VRAM elevata e Core Clock elevato.
a 0.75 hai un clock di +470mhz se la tieni a 1950mhz, o hai la scheda del mastro fondaio fatta in esclusiva o ci sarà un errore XD
Iceman69
28-12-2018, 17:41
l ho regolata in base a timespy che in linea di massima è quello che assorbe piu watt, ma ci sono anche casi simili ingame ovviamente.
con il tdp a 125% si arriva max a 330watt di picco, la mia curva inizia da 1950 e max scendo a 1905 se supero i 65° ed avviene il terzo taglio di temperatura, altrimenti normalmente sono solo 2tagli, quindi 1920mhz.
ricapitolando con tdp 125% quindi max wattaggio e 912mv su timespy ho solo per 1secondo durante il graphic test2 un taglio da tdp, quindi sono al limite con i watt a 1950mhz, preferisco tenerla cosi senza tagli da tdp in tutte le situazioni che spingerla di piu e tenerla piu ballerina e piu calda.
graphic score timespy 14.900punti a memorie default, cosi ti regoli con il punteggio.
tu con 950mv e 115% dovresti essere molto powerlimit su timespy o in casi simili.
Ho provato lo stess test di Time Spy Extreme, nessun calo per Powerlimit e consumo massimo 279w fisso a 1950 con temperatura a 70 C° e ventole al 60%. Test passato con il 98,4% di punteggio, quindi ottimo.
Probabilmente il consumo è diverso da chip a chip un po' come per le CPU, ma non sono abbastanza tecnico per dare una spiegazione più chiara.
http://i65.tinypic.com/121efz7.jpg
amon.akira
28-12-2018, 17:42
Ho provato lo stess test di Time Spy Extreme, nessun calo per Powerlimit e consumo massimo 279w fisso a 1950 con temperatura a 70 C° e ventole al 60%. Test passato con il 98,4% di punteggio, quindi ottimo.
Probabilmente il consumo è diverso da chip a chip un po' come per le CPU, ma non sono abbastanza tecnico per dare una spiegazione più chiara.
punteggio graphic score?
fai un timespy liscio non extreme, io ho solo quello
mikael84
28-12-2018, 17:47
per parcondicio last light 4k mi ha segnato 320watt di picco, mentre bfv 285w 1440p rt ultra
Ci stanno, anche il clock in rapporto alla tensione, mediamente non è male.
https://videocardz.com/79485/nvidia-geforce-rtx-2060-pictured-launches-january-7th
1070ti all'incirca (medie pro e contro).
Molto dipenderà dalla BW scesa a 336.
La 2080 passa la 2070 del 20/22% (oltre è dovuto al clock) con il 27% sulle ALU e il 33% fronte rop's.
La 2070 passerebbe la 2060 del 20% sulle ALU e 9% rop's (44 elaborate).
Il ratio computazionale è quindi leggermente inferiore del 20/22%, però si aggiunge il crollo della BW, che sicuramente comporterà delle perdite in alcuni giochi e bench.
Guarda...io la tengo a 0.75v con frequenze che al terzo taglio la portano a 1905mhz a 75° (di norma se ne sta uno step più alto a 1920).
E così ciuccio tutti i 320W della FE
Immagino sia colpa delle VRAM a +1000per sti superconsumi, ma fatti i test è meglio avere VRAM elevata e Core Clock elevato.
Forse intendevi 0,95 :)
Iceman69
28-12-2018, 17:55
punteggio graphic score?
fai un timespy liscio non extreme, io ho solo quello
http://i67.tinypic.com/ae5ysn.jpg
Con memorie a +700
demonangel
28-12-2018, 18:03
a 0.75 hai un clock di +470mhz se la tieni a 1950mhz, o hai la scheda del mastro fondaio fatta in esclusiva o ci sarà un errore XD
Scusa, 0.975v
https://thumbs2.imgbox.com/9f/2a/cBrpHgz1_t.jpg (http://imgbox.com/cBrpHgz1)
amon.akira
28-12-2018, 18:16
http://i67.tinypic.com/ae5ysn.jpg
Con memorie a +700
l ho vista dal quote sennò non si vede, questa a 1950 fissi +700mem in linea il punteggio e ottima invece per i watt se sono 280w max, ci stanno -40watt di chip piu riuscito? se ci fosse un asic visibile la mia sarebbe un 70 e la tua un 85, però a parità di volt la tua dovrebbe reggere clock piu alto se il chip è piu riuscito...strana sta cosa
altra spiegazione potrebbe essere il pcb m ero dimenticato che era una strix una la tua :P, mikael che ne pensi? :boh:
Iceman69
28-12-2018, 18:30
l ho vista dal quote sennò non si vede, questa a 1950 fissi +700mem in linea il punteggio e ottima invece per i watt se sono 280w max, ci stanno -40watt di chip piu riuscito? se ci fosse un asic visibile la mia sarebbe un 70 e la tua un 85, però a parità di volt la tua dovrebbe reggere clock piu alto se il chip è piu riuscito...strana sta cosa
altra spiegazione potrebbe essere il pcb m ero dimenticato che era una strix una la tua :P, mikael che ne pensi? :boh:
In realtà è così, se la tua già a 0.912 consuma tutti o quasi i watt vuol dire che fisso a 2 GHz non puoi arrivarci, mentre io la mia riesco a tenerla senza problemi (temperature a parte) a 2 Ghz fissi.
Però abbiamo le stesse frequenze con gli stessi mV, in questo sono gemelle … strano
amon.akira
28-12-2018, 18:38
In realtà è così, se la tua già a 0.912 consuma tutti o quasi i watt vuol dire che fisso a 2 GHz non puoi arrivarci, mentre io la mia riesco a tenerla senza problemi (temperature a parte) a 2 Ghz fissi.
Però abbiamo le stesse frequenze con gli stessi mV, in questo sono gemelle … strano
ho provato per curiosità a 115% anzichè 125% ovviamente sono arrivato a cap 298watt, il micro taglio sul graphic test 2 c'è stato tipo 1sec a 1875mhz poi sempre a 1920 con solo -30mhz di temperatura. e il punteggio ovviamente era li li
300watt vs 320watt (https://www.3dmark.com/compare/spy/5575861/spy/5458859)
mikael84
28-12-2018, 18:43
In realtà è così, se la tua già a 0.912 consuma tutti o quasi i watt vuol dire che fisso a 2 GHz non puoi arrivarci, mentre io la mia riesco a tenerla senza problemi (temperature a parte) a 2 Ghz fissi.
Però abbiamo le stesse frequenze con gli stessi mV, in questo sono gemelle … strano
Hai lasciato andare anche la demo? Quella può causare dei picchi più elevati.
Se si prova il firestrike con la demo ovviamente
ho provato per curiosità a 115% anzichè 125% ovviamente sono arrivato a cap 298watt, il micro taglio sul graphic test 2 c'è stato tipo 1sec a 1875mhz poi sempre a 1920 con solo -30mhz di temperatura. e il punteggio ovviamente era li li
300watt vs 320watt (https://www.3dmark.com/compare/spy/5575861/spy/5458859)
Tra silicio ci possono essere delle varie diversita chiaramente, però bisogna vedere bene.
Lui ha la pro, magari ha saltato la demo, piuttosto stressante, nel caso provate il firestrike, sempre con la demo.
amon.akira
28-12-2018, 18:48
Hai lasciato andare anche la demo? Quella può causare dei picchi più elevati.
Se si prova il firestrike con la demo ovviamente
Tra silicio ci possono essere delle varie diversita chiaramente, però bisogna vedere bene.
Lui ha la pro, magari ha saltato la demo, piuttosto stressante, nel caso provate il firestrike, sempre con la demo.
si io sono vincolato alla demo + test...però ripeto solo nel graphic test 2 evidenzio i cali da tdp, infatti a 300watt perdo quel 0.9% rispetto al fulltdp
Iceman69
28-12-2018, 19:01
Hai lasciato andare anche la demo? Quella può causare dei picchi più elevati.
Se si prova il firestrike con la demo ovviamente
Tra silicio ci possono essere delle varie diversita chiaramente, però bisogna vedere bene.
Lui ha la pro, magari ha saltato la demo, piuttosto stressante, nel caso provate il firestrike, sempre con la demo.
La demo di firestrike è leggerissima, mischia GPU e CPU in D11, la GPU mi resta addirittura a 1965, sono molto più pesanti gli stess test Extreme di time spy e Ultra di fire strike, in entrambi il consumo non supera mai i 280w, provato anche a 0.912 e il consumo massimo è stato 250w.
http://i67.tinypic.com/244r8nl.jpg
Temo che senza la pro akira non possa fare i test per bene per vedere a quanto arriva di consumo e frequenza, a me scende a 1950 dopo almeno 15 passaggi di time spy extreme, prima varia tra i 1980 e i 1965, con consumi inferiori, dato che questi salgono con il salire del calore.
Thunder-74
28-12-2018, 19:52
Io cmq non demordo:
cut..
...e con questa ho provato tutta la gamma RTX :D
Asus Strix 2080 con memorie Samsung 'sto giro, in attesa dell'RMA.
Cmq la 2080 in 4k Odissey non lo regge senza tweaking prestazionale. Il gsync aiuta molto per fortuna, ma si conferma come il gioco (per ora l'unico) nel quale il valore aggiunto della Ti è chiaramente percepibile.
Hai tutta la mia stima per il coraggio dimostrato ...
hai il pci-e a 2.0 ?! :stordita:
paolox86
28-12-2018, 20:57
Il trucco è avere due schede, così puoi usarne una mentre l'altra è in RMA! :D
Eh già, visto che nessuno più fa lo SLI hanno trovato il modo di appioppartene due ugualmente
Inviato dal mio iPhone utilizzando Tapatalk
sertopica
28-12-2018, 21:25
hai il pci-e a 2.0 ?! :stordita:
Risparmio energetico.
Crysis90
28-12-2018, 21:27
Eh già, visto che nessuno più fa lo SLI hanno trovato il modo di appioppartene due ugualmente
:eek: :asd: :asd: :asd:
Oggi mi è arrivata la Asus 2080 dual oc!
amon.akira
28-12-2018, 22:04
Tra silicio ci possono essere delle varie diversita chiaramente, però bisogna vedere bene.
Lui ha la pro, magari ha saltato la demo, piuttosto stressante, nel caso provate il firestrike, sempre con la demo.
ho fatto qualche altro test, e tralasciando la qualità del silicio ho notato una cosa strana, oltre al classico taglio di temp (che poi non è mai preciso e non so da cosa dipende... va di 10gradi in 10gradi ma a volte inizia a tipo 40-50-60 e a volte tipo 44-54-64 per dire) o di tdp, sembra che i tagli che vedevo prima erano causati da una mancanza di voltaggio, può essere? ho provato con successo a 1980 0.912mV e mi ha tenuto 1950 nel graphic test2 dove prima per un secondo perdevo mhz da 1920->1905 a 906mV pensando fosse un limite di watt.
ora resto cosi e vediamo se ingame sono stabile.
hwinfo (https://i.imgur.com/QWyzNOu.png)
timespy 1980mhz (https://www.3dmark.com/spy/5578762)
scopro con piacere (non lo sapevo) che hwinfo mi mostra la temp dei vrm :D
Visto che nn ero convinto che il mio 4790k nn reggeva la 2070..cioè scheda al70% in 1440p e cali anche in 4k, ho deciso di fare il delid portarlo a 5ghz ma niente..
Ricordo di avere 2 banchi di ram buone fury e 2 crucial economiche... Tolgo le crucial ora la scheda sta sempre al 99% anche a 1440p..
Ma strano erano settate a stock 1600"mhz senza nessun tipo di overclock..
Inviato dal mio JSN-L21 utilizzando Tapatalk
Iceman69
28-12-2018, 23:13
ho fatto qualche altro test, e tralasciando la qualità del silicio ho notato una cosa strana, oltre al classico taglio di temp (che poi non è mai preciso e non so da cosa dipende... va di 10gradi in 10gradi ma a volte inizia a tipo 40-50-60 e a volte tipo 44-54-64 per dire) o di tdp, sembra che i tagli che vedevo prima erano causati da una mancanza di voltaggio, può essere? ho provato con successo a 1980 0.912mV e mi ha tenuto 1950 nel graphic test2 dove prima per un secondo perdevo mhz da 1920->1905 a 906mV pensando fosse un limite di watt.
ora resto cosi e vediamo se ingame sono stabile.
hwinfo (https://i.imgur.com/QWyzNOu.png)
timespy 1980mhz (https://www.3dmark.com/spy/5578762)
scopro con piacere (non lo sapevo) che hwinfo mi mostra la temp dei vrm :D
Per i tagli confermo che anche a me a volte taglia a 50-70-80, altre volte a 45-55-65; molto strano.
Per il test di stabilità devi usare qualcosa che cicli, far girare una volta il benchmark non ti fa capire se sei stabile o no. La certezza la hai se fai 20 cicli di time spy stress test extreme e lo passi con uno score superiore a 97%.
mikael84
28-12-2018, 23:18
ho fatto qualche altro test, e tralasciando la qualità del silicio ho notato una cosa strana, oltre al classico taglio di temp (che poi non è mai preciso e non so da cosa dipende... va di 10gradi in 10gradi ma a volte inizia a tipo 40-50-60 e a volte tipo 44-54-64 per dire) o di tdp, sembra che i tagli che vedevo prima erano causati da una mancanza di voltaggio, può essere? ho provato con successo a 1980 0.912mV e mi ha tenuto 1950 nel graphic test2 dove prima per un secondo perdevo mhz da 1920->1905 a 906mV pensando fosse un limite di watt.
ora resto cosi e vediamo se ingame sono stabile.
hwinfo (https://i.imgur.com/QWyzNOu.png)
timespy 1980mhz (https://www.3dmark.com/spy/5578762)
scopro con piacere (non lo sapevo) che hwinfo mi mostra la temp dei vrm :D
Si è naturale 15mhz, 15mv.
Riguardo ai sensori VRM, Asus, gli ha quasi sempre avuti. Io ho avuto Asus vecchiotte, 780/780ti/970(2), sempre avuti:)
Asus, insieme alla classified (quest'ultima segnava anche frequenza di commutazione, tensione ram etc).
Per i tagli confermo che anche a me a volte taglia a 50-70-80, altre volte a 45-55-65; molto strano.
Per il test di stabilità devi usare qualcosa che cicli, far girare una volta il benchmark non ti fa capire se sei stabile o no. La certezza la hai se fai 20 cicli di time spy stress test extreme e lo passi con uno score superiore a 97%.
I benchmark servono in ambito stabilità a darti una base su cui partire, però in game, se il silicio non è almeno un 70+, la tensione effettiva, tende a crollare, causandoti crash. Si può essere stabili a 2ghz, e crashare dopo 2 minuti a 1970.
Dipende molto dal silicio.
Consiglio di prendere il valore, ed affinarlo sui giochi più insidiosi a livello di LLC, come Tomb raider, Tw3.
amon.akira
28-12-2018, 23:22
Per i tagli confermo che anche a me a volte taglia a 50-70-80, altre volte a 45-55-65; molto strano.
Per il test di stabilità devi usare qualcosa che cicli, far girare una volta il benchmark non ti fa capire se sei stabile o no. La certezza la hai se fai 20 cicli di time spy stress test extreme e lo passi con uno score superiore a 97%.
non gli ho fatti ciclici ma ne ho fatti parecchi, ma come sempre ingame se avrò qualche instabilità gli darò qualche millivolt in piu e pace :)
per ora son soddisfatto, credo che rimarrò così...forse prima mi faceva qualche scherzetto perchè avevo un clock non preciso tipo anzichè +135 un +136 ma l avevo fatto perchè la curva nonostante fosse piatta mi pigliava uno step a 1v...ora non l ha fatto, c'è da dire che ora ho messo l ultimo afterburner il beta10.
fraussantin
28-12-2018, 23:28
Visto che nn ero convinto che il mio 4790k nn reggeva la 2070..cioè scheda al70% in 1440p e cali anche in 4k, ho deciso di fare il delid portarlo a 5ghz ma niente..
Ricordo di avere 2 banchi di ram buone fury e 2 crucial economiche... Tolgo le crucial ora la scheda sta sempre al 99% anche a 1440p..
Ma strano erano settate a stock 1600"mhz senza nessun tipo di overclock..
Inviato dal mio JSN-L21 utilizzando TapatalkStrana sta cosa , secondo te con le mie 2 fury economiche a 1600 sono castrato sul 4690?
mikael84
28-12-2018, 23:28
...cmq anche la 2080 liscia regge Odissey in 4k a 60hz, a patto di fare un minimo di lavoro sui dettagli grafici.
Con la 2080ti lo si riesce a maxare (con AA basso) mentre con la 2080 c'è da fare tweaking, ma il risultato resta cmq maestoso.
Fondamentalmente ho messo a medio ombre, nebbia ed occlusione ambientale. La profondità di campo l'ho messa a basso (tanto non è che ci faccio veramente caso a quanto è precisa la sfocatura degli oggetti fuori campo...) e il risultato IMHO resta cmq di livello molto alto.
Presumo che la stessa cosa valga con la 1080ti.
Con AC odyssey, oltre all'AA che al massimo va impostato su basso (+ reshade), bisogna abbassare le nubi volumetriche di una tacca (15/20% di performance), tutto il resto porta ad un massimo del 2%.
Forse le ombre 3/4%.:)
...cmq anche la 2080 liscia regge Odissey in 4k a 60hz, a patto di fare un minimo di lavoro sui dettagli grafici.
Con la 2080ti lo si riesce a maxare (con AA basso) mentre con la 2080 c'è da fare tweaking, ma il risultato resta cmq maestoso.
Fondamentalmente ho messo a medio ombre, nebbia ed occlusione ambientale. La profondità di campo l'ho messa a basso (tanto non è che ci faccio veramente caso a quanto è precisa la sfocatura degli oggetti fuori campo...) e il risultato IMHO resta cmq di livello molto alto.
Presumo che la stessa cosa valga con la 1080ti.Cmq é la nebbia che pesa tantissimo ad ac odyssey..
Ci sono alcune opzioni Che portano zero migliorie grafiche ma dimezza o le prestazioni..
Inviato dal mio JSN-L21 utilizzando Tapatalk
Strana sta cosa , secondo te con le mie 2 fury economiche a 1600 sono castrato sul 4690?Penso che c'era qualche incompatibilità tra i banchi di marca diversa.. Ma timing è frequenza erano uguali
Ma che scheda video hai? A che risoluzione?
Non so per un i5.. Ma nei giochi attuali per il mio i7 la ram ddr3 a 1600mhz castra parecchio.
Inviato dal mio JSN-L21 utilizzando Tapatalk
mikael84
28-12-2018, 23:32
La demo di firestrike è leggerissima, mischia GPU e CPU in D11, la GPU mi resta addirittura a 1965, sono molto più pesanti gli stess test Extreme di time spy e Ultra di fire strike, in entrambi il consumo non supera mai i 280w, provato anche a 0.912 e il consumo massimo è stato 250w.
http://i67.tinypic.com/244r8nl.jpg
Temo che senza la pro akira non possa fare i test per bene per vedere a quanto arriva di consumo e frequenza, a me scende a 1950 dopo almeno 15 passaggi di time spy extreme, prima varia tra i 1980 e i 1965, con consumi inferiori, dato che questi salgono con il salire del calore.
Mi piacerebbe mettere le mani sul tuo silicio per fare varie prove.:)
La demo di firestrike, già sulla 1080 ad 1v mi sfora alla grande i 230watt, mentre su mattoni alla AC, ad esempio sta sui 130-150watt.:p
fraussantin
28-12-2018, 23:34
Cmq tenete conto che a 1440p@60 aa basso ( ma 0 aliasing a vista )nuvole alte( o medie non ricordo) e resto maxato
Tenevo 60 fps ovunque tranne nelle città dove mi droppata la cpu.
Penso che per la 2070 non ci sarebbero stati problemi visto come se ne stava a riposo nei drop.
Penso che c'era qualche incompatibilità tra i banchi di marca diversa.. Ma timing è frequenza erano uguali
Ma che scheda video hai? A che risoluzione?
Non so per un i5.. Ma nei giochi attuali per il mio i7 la ram ddr3 a 1600mhz castra parecchio.
Inviato dal mio JSN-L21 utilizzando Tapatalk
2070
..
Quindi l'idea di trovare un i7 usato me la faccio passare , dovrei anche cambiare le ram e poi forse non mi cambierebbe quasi nulla lo stesso.
amon.akira
29-12-2018, 01:42
Mi piacerebbe mettere le mani sul tuo silicio per fare varie prove.:)
La demo di firestrike, già sulla 1080 ad 1v mi sfora alla grande i 230watt, mentre su mattoni alla AC, ad esempio sta sui 130-150watt.:p
niente sono dovuto tornare al mio 1950, firestrike era instabile...il suo silicio sarà sopra la media, oppure il mio sotto :P
cmq su firestrike dove lui fa 250watt, io 273watt +23watt
credo di aver capito come funzionano i tagli temp, ho visto che vanno a scalini
esempio i mV vanno di +6 a step, se uno step fa i tagli a 40-50-60 etc.., quello successivo lo fa a 45-55-65 e l altro ancora riprende da 40 e cosi via... ora ho messo 918mv cosi ho altri 5gradi di gioco.
Sarebbe interessante fare un minisondaggio sul forum per capire qual'è l'attuale
stato di salute di queste Touring.
Io possiedo da circa 3 mesi una Asus Dual 2080 ti OC, la sto utilizzando sempre in undervolt, con frequenza massima 1995 e memoria default, toccando ferro non ho mai avuto il benchè minimo problema.
Posso portare anche la testimonianza di 2 miei amici possessori di una Zotac AMP 2080ti (3 mesi di vita) e di una Founders 2080 ti ( 1 mese di vita), giocano a frequenze default, anche loro zero problemi.
Anch'io Zotac Amp ti e nessun problema dal 16 ottobre, pc acceso 24/7, 3 ore al giorno in media di giochi, curva originale, overclock non eccessivo con +80 sul core e +200 sulle memorie (da afterburner), speriamo bene :tie:
sertopica
29-12-2018, 07:20
Con AC odyssey, oltre all'AA che al massimo va impostato su basso (+ reshade), bisogna abbassare le nubi volumetriche di una tacca (15/20% di performance), tutto il resto porta ad un massimo del 2%.
Forse le ombre 3/4%.:)
Purtroppo mettendo l'AA su basso o medio si attiva la ricostruzione temporale quindi l'immagine non e' a res nativa. Ubisoft tuttavia non ha speso parole a riguardo. Io personalmente lo noto e preferisco giocare a una res poco sotto i 4k (upscaling 140% partendo da 2k) abbassando solo le nuvole. Certo posso dire ciao ai 60 fps ma e' comunque godibile (a parte quando si accende la torcia).
Comunque...
https://nvidia.custhelp.com/app/answers/detail/a_id/4758?linkId=100000004487661
Nuovi hotfix, se non sbaglio qualcuno aveva problemi con i monitor benq:
- Black screen when resuming from monitor sleep on some DisplayPort monitors
- Windows 7: FPS drop when G-sync is used with V-sync in games
- Shadow of the Tomb Raider: Fixes occasional application crash in DirectX 12 mode
- Fixes black screen on BenQ XL2730 monitor using 144Hz refresh rate
- Fixes lockup when resuming from sleep on MSI GT83 notebook
Giovamas
29-12-2018, 08:23
Comunque...
https://nvidia.custhelp.com/app/answers/detail/a_id/4758?linkId=100000004487661
Nuovi hotfix, se non sbaglio qualcuno aveva problemi con i monitor benq:
- Black screen when resuming from monitor sleep on some DisplayPort monitors
- Windows 7: FPS drop when G-sync is used with V-sync in games
- Shadow of the Tomb Raider: Fixes occasional application crash in DirectX 12 mode
- Fixes black screen on BenQ XL2730 monitor using 144Hz refresh rate
- Fixes lockup when resuming from sleep on MSI GT83 notebook
Già ;) . vediamo se hanno risolto il problema. il black screen c'è a 144 ma per farlo funzionare occorre un altro monitor da collegare (io uso lo stesso usando i suoi due ingressi) e tenerli collegati entrambi. se stacchi il non Benq oppure se stacchi il cavo hdmi dal tuo benq verso la vga... BAM!
questo è al momento l'unica cosa da fare. Più un antani di un workaround
https://forums.geforce.com/default/topic/1084427/geforce-drivers/benq-xl-2730-and-black-screens-on-417-22-your-workarround-not-a-100-fix/
provo i tuoi driver grazie :)
Thunder-74
29-12-2018, 09:23
Il trucco è avere due schede, così puoi usarne una mentre l'altra è in RMA! :D
hahaha ottima soluzione ;)
Però mi raccomando, devi provare anche la RTX 2060 :D
TigerTank
29-12-2018, 09:59
hahaha ottima soluzione ;)
Però mi raccomando, devi provare anche la RTX 2060 :D
Dovrebbero fare qualche promozione tipo i detersivi.
2 RTX al prezzo di una :sofico:
Poi beh...se uno se ne ritrova 2 fallate meglio che si faccia esorcizzare :asd:
Per curiosità, quanti Watt di consumo massimo segna GPU-Z per una RTX 2070 ottimizzata (undervolt e magari un pò di overclock) su un run di Time Spy?
VR Filippo72
29-12-2018, 11:05
Anch'io Zotac Amp ti e nessun problema dal 16 ottobre, pc acceso 24/7, 3 ore al giorno in media di giochi, curva originale, overclock non eccessivo con +80 sul core e +200 sulle memorie (da afterburner), speriamo bene :tie:
Grazie per l'informazione
Cmq tenete conto che a 1440p@60 aa basso ( ma 0 aliasing a vista )nuvole alte( o medie non ricordo) e resto maxato
Tenevo 60 fps ovunque tranne nelle città dove mi droppata la cpu.
Penso che per la 2070 non ci sarebbero stati problemi visto come se ne stava a riposo nei drop.
2070
..
Quindi l'idea di trovare un i7 usato me la faccio passare , dovrei anche cambiare le ram e poi forse non mi cambierebbe quasi nulla lo stesso.Se decidi di restare con la 2070 con un I 7 a 4800mhz guadagni molto rispetto al tuo i5.. Se lo fai per 100 euro o meno va bene..
Altrimenti un bel 9600k..
Inviato dal mio JSN-L21 utilizzando Tapatalk
Nuovi hotfix, se non sbaglio qualcuno aveva problemi con i monitor benq:
- Black screen when resuming from monitor sleep on some DisplayPort monitors
- Windows 7: FPS drop when G-sync is used with V-sync in games
- Shadow of the Tomb Raider: Fixes occasional application crash in DirectX 12 mode
- Fixes black screen on BenQ XL2730 monitor using 144Hz refresh rate
- Fixes lockup when resuming from sleep on MSI GT83 notebook
toh... eppure fino a ieri nvidia diceva che era colpa dei monitor... :O
maxmix65
29-12-2018, 12:29
toh... eppure fino a ieri nvidia diceva che era colpa dei monitor... :O
Io ci metterei anche win10 tanto per gradire..con gli ultimi update e con le patch spectre ecc..
Giovamas
29-12-2018, 12:54
toh... eppure fino a ieri nvidia diceva che era colpa dei monitor... :O
Infatti non c'entra un piffero il monitor. il monitor funziona perfettamente se lo attacco al laptop della mia compagna che ha lo stesso mio win10 o alla ps4. e se torno indietro ai 34.. nessun problema tutto funziona bene, non so cosa hanno combinato a partire da questi driver.
fraussantin
29-12-2018, 15:36
Oggi sul monitor appena acceso il pc mi è apparsa una riga verticale al margine dx larca circa 3 mm...
Non era un riga di pixel rotti ma era una porzione di immagine esattamente quella che sta al centro dello schermo. spostando delle cartelle si vedevano muoversi anche in quella parte. ( non so se mi sono spiegato bene)
Spengendo il monitor e riaccendendolo sparito il problema.
Non penso sia la gpu , ma potrebbe essere qualche cosa che riguarda il gsync?
Edit in pratica mi fa come a lui solo dall'altra parte dello schermo
https://forums.overclockers.co.uk/threads/odd-issue-with-acer-predator-xb271hu.18811223/
https://uploads.tapatalk-cdn.com/20181229/ec7fc7933c1bcf638dde0f75132342fd.jpg
Niente è un difetto del monitor , ho trovato un sacco di topic a riguardo.
Iceman69
29-12-2018, 15:41
Mi piacerebbe mettere le mani sul tuo silicio per fare varie prove.:)
La demo di firestrike, già sulla 1080 ad 1v mi sfora alla grande i 230watt, mentre su mattoni alla AC, ad esempio sta sui 130-150watt.:p
Se provi a dirmi io, nei limiti del possibile, faccio qualche prova.
Comunque il fatto che consumi poco non ha impatti particolarmente positivi sulle prestazioni, comunque il massimo che posso tenerla è +90 sul core e +700 sulle memorie, con temperature intorno ai 70 C°. così Time Spy mi fa 15600 punti, si imposto +125 di power arrivo a più punti, ma con temperature troppo alte per i miei gusti.
Kostanz77
29-12-2018, 17:36
come vanno gli ultimi driver su BFV?
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
sertopica
29-12-2018, 17:38
toh... eppure fino a ieri nvidia diceva che era colpa dei monitor... :O
Finche' qualcuno non lo risolve ci si rimbalza sempre la colpa a vicenda... :D
system450
29-12-2018, 18:08
L'utente medio non compra una scheda da 500€ a salire.
Tenerla a stock e giocare vsync 1080p non sembra influire sulla vita della scheda.
Ma poi compri una 2080ti per giocare 1080p con vsync?
Ah aspetta.. forse a BFV con RT si :asd:
Io una 1080ti e la uso a 1080p con vsync...
Crysis90
29-12-2018, 18:41
Io una 1080ti e la uso a 1080p con vsync...
Come comprare una Ferrari e tenerla sempre in seconda marcia. :D :Prrr: :Prrr:
Io una 1080ti e la uso a 1080p con vsync...
ehm... ok... ma hai 3 pc in firma e ti definiresti "utente medio"?! :asd:
Non lo sei (indipendentemente dal fatto che giochi in fullHD, come faccio pure io, e che NON sono un utente medio) ;)
ps: che poi secondo me la 1080ti ad oggi è perfetta proprio per il fullHD (allo stramax e con AA, ovviamente) :O
fraussantin
29-12-2018, 20:11
Quindi potevi comprarti una 1070, non sarebbe cambiato nulla se non al tuo portafogli.
Si, ma con un monitor 144hz.
Oh dopo tutto system450 non ha il monitor in firma, se ha un 144hz allora è un altro paio di maniche.
Il mio post rispondeva a fraussantin che aveva chiaramente scritto a 60hz :DMah... Esistono anche supersampling antialiasing decenti o non volersi rompere per trovare il setting corretto.
Fc5 in ss a 2 ( quindi 4k ) la 2070 mi faticava , ma è l'unico sistema decente per guardare quel gioco.
Quindi potevi comprarti una 1070, non sarebbe cambiato nulla se non al tuo portafogli.
Si, ma con un monitor 144hz.
Oh dopo tutto system450 non ha il monitor in firma, se ha un 144hz allora è un altro paio di maniche.
Il mio post rispondeva a fraussantin che aveva chiaramente scritto a 60hz :DEd io che giocavo in 4k con la 1070.
30pfs ma tutto maxato🤣🤣.
Ovviamente non giochi online come battefiled.. Ma assassin tomb raider ecc
Inviato dal mio JSN-L21 utilizzando Tapatalk
Xandileo
29-12-2018, 21:15
https://nvidia.custhelp.com/app/answers/detail/a_id/4758?linkId=100000004487661
Nuovi hotfix, se non sbaglio qualcuno aveva problemi con i monitor benq:
- Black screen when resuming from monitor sleep on some DisplayPort monitors
- Windows 7: FPS drop when G-sync is used with V-sync in games
- Shadow of the Tomb Raider: Fixes occasional application crash in DirectX 12 mode
- Fixes black screen on BenQ XL2730 monitor using 144Hz refresh rate
- Fixes lockup when resuming from sleep on MSI GT83 notebook
Mhhh.... driver aggiornati, Tomb Raider in dx12 crash ancora all’avvio con stesso errore DEVICE HUNG
Vado a leggere su Guru3d e confermano altri utenti che anche per loro continua a crashare
Ci speravo
Peccato
Il nabbo di turno
29-12-2018, 21:37
https://videocardz.com/79505/nvidia-geforce-rtx-2060-pricing-and-performance-leaked
La migliore rtx di tutti i tempi fin'ora uscita, peccato che nessuno qui se la caghi perchè troppo impegnato a spataccare sulle memorie una scheda da gioco da 1300 euro :asd:
fraussantin
29-12-2018, 21:44
Scusa ma in battlefiled si può usare RT e DLSS insieme?Secondo me è un fake. Manco c'è dlss su bf e in 1080p.
Questa poi Battlefield V: RT On + DLSS Off: 65 FPS
Non è credibile.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.