View Full Version : [Thread Ufficiale] nVidia Turing RTX 2080/2080ti
gadducci
19-01-2019, 16:54
scusate raga quindi le 2080 ti founder edition conviene ora???
Arrow0309
19-01-2019, 17:17
Il mio sistema (con la 2080 ti) sta facendo capricci, a parte per i crash su Hunt oggi (poco fa) mi ha freezato al logon di Windows, appena prima di inserire il pin, l'immagine non ha nemmeno preso forma bene ma e' rimasta di un blu chiaro.
Poi si e' riavviato da solo.
E' la seconda volta che lo fa da quando ho questa 2080ti FE, la prima penso un mese e mezzo fa tipo, avevo la ram in OC a 4000 quindi ho pensato fossero loro e li ho rimesse a 3200 (valori Xmp) rimaste anche oggi cosi' (un po di tempo fa li avevo riportate a 4000 ma poi col primo freeze su Hunt in oc le ho rimesse a def. xmp).
Di sto punto o e' la cpu anche se era stabile 4h in RealBench a ram massima (e da domani parto con una sequenza di vari sessioni di prime95) :mc:
Oppure e' sta benedetta FE, vediamo vi tengo informati. :fagiano: :stordita:
Il mio sistema (con la 2080 ti) sta facendo capricci, a parte per i crash su Hunt oggi (poco fa) mi ha freezato al logon di Windows, appena prima di inserire il pin, l'immagine non ha nemmeno preso forma bene ma e' rimasta di un blu chiaro.
Poi si e' riavviato da solo.
E' la seconda volta che lo fa da quando ho questa 2080ti FE, la prima penso un mese e mezzo fa tipo, avevo la ram in OC a 4000 quindi ho pensato fossero loro e li ho rimesse a 3200 (valori Xmp) rimaste anche oggi cosi'.
Di sto punto o e' la cpu anche se era stabile 4h in RealBench a ram massima (e da domani parto con una sequenza di vari sessioni di prime95) :mc:
Oppure e' sta benedetta FE, vediamo vi tengo informati. :fagiano: :stordita:
:eek: speriamo non sia la scheda
fabietto27
19-01-2019, 17:25
Perché la maggior parte degli utenti che hanno il medesimo mio modello di GPU o inferiori in termini di qualità costruttiva e dissipazione hanno ottenuto valori di overcloking soprattutto nelle RAM ben superiori...parlo di +1000mhz circa. E pure per il Core Clock circa +160.
Ovviamente quando giocherò mi terrò più basso, era solo una soddisfazione di vedere le potenzialità su una RTX da 1500€:doh:
Perdonami...ma non pensi che una vga (La tua) che ha una resa dello 0.011% sul core e dello 0,020% sulle memorie in meno rispetto alla migliore che hai citato sia semplicemente nella normalità delle differenze fra una Vga e l'altra?Ogni scheda video fa storia a sè.
Fino a Maxwell le vga erano meno blindate e la maggior efficacia in OC la faceva l'Asic,ed il Delta prestazionale fra una gpu e l'altra era molto più marcato.
La tua non è da record ma non è sicuramente un cesso.Per un OC più accurato devi usare Msi Afterburner in modalità Curva,non slide.Ma quasi sicuramente otterrai solo una limatura.Altrimenti devi metterla sotto liquido o sotto azoto perchè l'unica cosa che fa salire le moderne vga da Pascal in poi è solo il freddo o le mod Hardware.
Arrow0309
19-01-2019, 17:29
Perdonami...ma non pensi che una vga (La tua) che ha una resa dello 0.011% sul core e dello 0,020% sulle memorie in meno rispetto alla migliore che hai citato sia semplicemente nella normalità delle differenze fra una Vga e l'altra?Ogni scheda video fa storia a sè.
Fino a Maxwell le vga erano meno blindate e la maggior efficacia in OC la faceva l'Asic,ed il Delta prestazionale fra una gpu e l'altra era molto più marcato.
La tua non è da record ma non è sicuramente un cesso.Per un OC più accurato devi usare Msi Afterburner in modalità Curva,non slide.Ma quasi sicuramente otterrai solo una limatura.Altrimenti devi metterla sotto liquido o sotto azoto perchè l'unica cosa che fa salire le moderne vga da Pascal in poi è solo il freddo o le mod Hardware.
Quoto pienamente, che dire anch'io ho speso i stessi soldi tra la FE e wubbo EK + bp e se sotto liquido (addirittura) ho risultati inferiori ai suoi non e' che devo mettermi a piangere ora, e' sempre stato una lotteria ma come giustamente dici il vero OC oggi porta risultati solo sotto azoto, per il resto cambia solo qualche puntino nei benchmark :O
Aggiungo che le loro Strix hanno uno dei bios più penosi, limitatissime in pl max a soli 325W la loro unica speranza e' di poter flashare sopra quello della Matrix (stesso design) sperando che abbia almeno 375 - 380W pl max:
https://www.techpowerup.com/vgabios/207409/207409
@RyoHazuki79 questo bios di sopra e' quello della Strix OC, se hai la liscia da soli 280W max ti consiglio di metterlo essendo il poco che puoi fare.
E se ancora sei stabile ai valori che avevi postato io farei pure una preghierina al Padre Eterno o alla Madonna che te la conservino cosi' ;)
fabietto27
19-01-2019, 17:31
Il mio sistema (con la 2080 ti) sta facendo capricci, a parte per i crash su Hunt oggi (poco fa) mi ha freezato al logon di Windows, appena prima di inserire il pin, l'immagine non ha nemmeno preso forma bene ma e' rimasta di un blu chiaro.
Poi si e' riavviato da solo.
E' la seconda volta che lo fa da quando ho questa 2080ti FE, la prima penso un mese e mezzo fa tipo, avevo la ram in OC a 4000 quindi ho pensato fossero loro e li ho rimesse a 3200 (valori Xmp) rimaste anche oggi cosi' (un po di tempo fa li avevo riportate a 4000 ma poi col primo freeze su Hunt in oc le ho rimesse a def. xmp).
Di sto punto o e' la cpu anche se era stabile 4h in RealBench a ram massima (e da domani parto con una sequenza di vari sessioni di prime95) :mc:
Oppure e' sta benedetta FE, vediamo vi tengo informati. :fagiano: :stordita:
:stordita:
https://thumbs2.imgbox.com/7d/3b/PUKFa581_t.jpg (http://imgbox.com/PUKFa581)
Quoto pienamente, che dire anch'io ho speso i stessi soldi tra la FE e wubbo EK + bp e se sotto liquido (addirittura) ho risultati inferiori ai suoi non e' che devo mettermi a piangere ora, e' sempre stato una lotteria ma come giustamente dici il vero OC oggi porta risultati solo sotto azoto, per il resto cambia solo qualche puntino nei benchmark :O
se ti si rompe e fai sostituzione ti mandano una con samsung a quanto pare
gadducci
19-01-2019, 17:44
Me presa di prendere 2080 ti founder edition dal sito nvidia faccio una cazzata?
Arrow0309
19-01-2019, 17:45
:stordita:
https://thumbs2.imgbox.com/7d/3b/PUKFa581_t.jpg (http://imgbox.com/PUKFa581)
░░░░░░░░░░░█▀▀░░█░░░░░░
░░░░░░▄▀▀▀▀░░░░░█▄▄░░░░
░░░░░░█░█░░░░░░░░░░▐░░░
░░░░░░▐▐░░░░░░░░░▄░▐░░░
░░░░░░█░░░░░░░░▄▀▀░▐░░░
░░░░▄▀░░░░░░░░▐░▄▄▀░░░░
░░▄▀░░░▐░░░░░█▄▀░▐░░░░░
░░█░░░▐░░░░░░░░▄░█░░░░░
░░░█▄░░▀▄░░░░▄▀▐░█░░░░░
░░░█▐▀▀▀░▀▀▀▀░░▐░█░░░░░
░░▐█▐▄░░▀░░░░░░▐░█▄▄░░░
░░░▀▀▄░░░░░░░░▄▐▄▄▄▀░░░
░░░░░░░░░░░░░░░░░░░░░░░
se ti si rompe e fai sostituzione ti mandano una con samsung a quanto pare
Sto ancora sperando che duri un'altro po in modo da poter avere una lieve garanzia che sia non devo aspettare un'eternità per la RMA ma anche di avere una 2080ti FE aggiornata e con ste Samsung :fagiano:
Meno soggetta alla prematura morte
███████▀▀▀░░░░░░░▀▀▀███████
████▀░░░░░░░░░░░░░░░░░▀████
███│░░░░░░░░░░░░░░░░░░░│███
██▌│░░░░░░░░░░░░░░░░░░░│▐██
██░└┐░░░░░░░░░░░░░░░░░┌┘░██
██░░└┐░░░░░░░░░░░░░░░┌┘░░██
██░░┌┘▄▄▄▄▄░░░░░▄▄▄▄▄└┐░░██
██▌░│██████▌░░░▐██████│░▐██
███░│▐███▀▀░░▄░░▀▀███▌│░███
██▀─┘░░░░░░░▐█▌░░░░░░░└─▀██
██▄░░░▄▄▄▓░░▀█▀░░▓▄▄▄░░░▄██
████▄─┘██▌░░░░░░░▐██└─▄████
█████░░▐█─┬┬┬┬┬┬┬─█▌░░█████
████▌░░░▀┬┼┼┼┼┼┼┼┬▀░░░▐████
█████▄░░░└┴┴┴┴┴┴┴┘░░░▄█████
███████▄░░░░░░░░░░░▄███████
██████████▄▄▄▄▄▄▄██████████
█████
fabietto27
19-01-2019, 17:54
░░░░░░░░░░░█▀▀░░█░░░░░░
░░░░░░▄▀▀▀▀░░░░░█▄▄░░░░
░░░░░░█░█░░░░░░░░░░▐░░░
░░░░░░▐▐░░░░░░░░░▄░▐░░░
░░░░░░█░░░░░░░░▄▀▀░▐░░░
░░░░▄▀░░░░░░░░▐░▄▄▀░░░░
░░▄▀░░░▐░░░░░█▄▀░▐░░░░░
░░█░░░▐░░░░░░░░▄░█░░░░░
░░░█▄░░▀▄░░░░▄▀▐░█░░░░░
░░░█▐▀▀▀░▀▀▀▀░░▐░█░░░░░
░░▐█▐▄░░▀░░░░░░▐░█▄▄░░░
░░░▀▀▄░░░░░░░░▄▐▄▄▄▀░░░
░░░░░░░░░░░░░░░░░░░░░░░
Se la schiacci magari ti porta fortuna e non si rompe :D :D :D
Me presa di prendere 2080 ti founder edition dal sito nvidia faccio una cazzata?
Se ti mandano una di quelle nuove, si spera proprio di no!...
Se poi pensi che prima ho letto di uno che ha comprato una 2080ti FE adesso per avere le memorie samsung e rivendere la 2080ti micron che aveva preso al day one e perfettamente funzionante (rimettendoci, ovviamente), tu hai fatto una mossa sensata...
RyoHazuki79
19-01-2019, 18:07
Buona sera a tutti! In un mio post precedente avevo chiesto gentilmente consigli su come overclokare al meglio la mia ASUS STRIX 2080 TI OC, ma senza risposte di rilievo.
Sto usando il software ASUS GPU Tweak II 1.9.4.4 e al momento sono riuscito ad ottenere un OC stabile (ovvero senza crash di Firestrike e TimeSpy) a +140Mhz sul Core Clock e +700Mhz sulle memorie.
Ho portato Voltaggio, Power Target e Temperature al max, ma provando ad aumentare oltre con i valori sopra citati i benchmark crashano.
Leggendo diverse recensioni questa scheda è stata portata di media a +1000 MHz per le ram e +150 per il Core.
Dove sbaglio? É un problema di scheda sfigata? Di GPU Tweak II?
Grazie a chi mi aiuterà a fatti e non parole:help:
a dir la verità avevo le ram del 2700x a default, adesso va nettamente meglio, comunque certo scrivi pure ;)
Vedi sopra il quote del mio post ;)
RyoHazuki79
19-01-2019, 18:16
Quoto pienamente, che dire anch'io ho speso i stessi soldi tra la FE e wubbo EK + bp e se sotto liquido (addirittura) ho risultati inferiori ai suoi non e' che devo mettermi a piangere ora, e' sempre stato una lotteria ma come giustamente dici il vero OC oggi porta risultati solo sotto azoto, per il resto cambia solo qualche puntino nei benchmark :O
Aggiungo che le loro Strix hanno uno dei bios più penosi, limitatissime in pl max a soli 325W la loro unica speranza e' di poter flashare sopra quello della Matrix (stesso design) sperando che abbia almeno 375 - 380W pl max:
https://www.techpowerup.com/vgabios/207409/207409
@RyoHazuki79 questo bios di sopra e' quello della Strix OC, se hai la liscia da soli 280W max ti consiglio di metterlo essendo il poco che puoi fare.
E se ancora sei stabile ai valori che avevi postato io farei pure una preghierina al Padre Eterno o alla Madonna che te la conservino cosi' ;)
Ho già la ASUS STRIX 2080 Ti OC ;) , quindi non la liscia.
Il Power Limit della mia arriva a 125% , superiore ad esempio alla Gigabyte RTX 2080 ti Gaming OC che prima dei vari BIOS update era ferma a 111%
Arrow0309
19-01-2019, 18:45
Ho già la ASUS STRIX 2080 Ti OC ;) , quindi non la liscia.
Il Power Limit della mia arriva a 125% , superiore ad esempio alla Gigabyte RTX 2080 ti Gaming OC che prima dei vari BIOS update era ferma a 111%
Non vuol dire niente, ecco sempre dal link del bios di sopra cosi' capisci:
Board power limit
Target: 260.0 W
Limit: 325.0 W
Adj. Range: -62%, +25% (quindi il tuo PL massimo a 125% = 325W)
Il Bios della Galax OC che uso io per esempio ha 300W target e 380W pl (127%).
https://www.techpowerup.com/vgabios/204557/kfa2-rtx2080ti-11264-180910
Ecco un'altro esempio, la Aorus Xtreme:
https://www.techpowerup.com/vgabios/205776/gigabyte-rtx2080ti-11264-181009
Board power limit
Target: 300.0 W
Limit: 366.0 W
Adj. Range: -67%, +22%
Purtroppo la Asus per contenere temp e rumore facendo finta di essere la migliore 2080 ti ha usato il pl base (target) della FE a 260W e non uno da 300W come avrebbe dovuto fare.
Ecco anche il bios delle scheda video più cazzuta, sempre ad aria, la Galax / KFA2 HOF:
https://www.techpowerup.com/vgabios/204869/galax-rtx2080ti-11264-180927
Ben 450W di pl max, ed e' lo stesso bios anche sulle HOF semplici, non OC Labs Edition:
https://i.postimg.cc/bpF1ZfqJ/Capture.jpg
Quindi, come sta la Asus Strix?
RyoHazuki79
19-01-2019, 18:59
Non vuol dire niente, ecco sempre dal link del bios di sopra cosi' capisci:
Board power limit
Target: 260.0 W
Limit: 325.0 W
Adj. Range: -62%, +25% (quindi il tuo PL massimo a 125% = 325W)
Il Bios della Galax OC che uso io per esempio ha 300W target e 380W pl (127%).
https://www.techpowerup.com/vgabios/204557/kfa2-rtx2080ti-11264-180910
Ecco un'altro esempio, la Aorus Xtreme:
https://www.techpowerup.com/vgabios/205776/gigabyte-rtx2080ti-11264-181009
Board power limit
Target: 300.0 W
Limit: 366.0 W
Adj. Range: -67%, +22%
Purtroppo la Asus per contenere temp e rumore facendo finta di essere la migliore 2080 ti ha usato il pl base (target) della FE a 260W e non uno da 300W come avrebbe dovuto fare.
Ecco anche il bios delle scheda video più cazzuta, sempre ad aria, la Galax / KFA2 HOF:
https://www.techpowerup.com/vgabios/204869/galax-rtx2080ti-11264-180927
Ben 450W di pl max, ed e' lo stesso bios anche sulle HOF semplici, non OC Labs Edition:
https://i.postimg.cc/bpF1ZfqJ/Capture.jpg
Quindi, come sta la Asus Strix?
Capisco, ma posso mettere il BIOS di un altra scheda nella STRIX? Non vorrei che se non va a buon fine o altro sputtano 1500€ di GPU :rolleyes:
Thunder-74
19-01-2019, 19:07
Ho già la ASUS STRIX 2080 Ti OC ;) , quindi non la liscia.
Il Power Limit della mia arriva a 125% , superiore ad esempio alla Gigabyte RTX 2080 ti Gaming OC che prima dei vari BIOS update era ferma a 111%
Poi un'altra cosa, tu riporti il delta aggiunto in mhz dicendo che altre schede anche meno di qualità, salgono di più... commetti un errore se pensi al delta aggiuntivo, perchè la tua parte già con un boost più alto di base. Devi sempre prendere in considerazione il boost che raggiungi in senso assoluto.
Considera che le 2080ti si attestano come boost 4.0, ovvero quello che leggi in game/benchmark , sui 2055/2100mhz , i chip più :ciapet: possono arrivare a "toccare i 2175mhz, ma certo non si mantengono costanti per via dei tagli di PL e temp. Quindi se riesci ad aria a mantenere una freq. tra i 2000/2075 mhz, va benissimo ;)
Poi i 10/30 mhz fatti in più in recensioni, lasciano il tempo che trovano come ti ha spiegato Tiger.... gli danno chip binnati o fanno anche test al volo senza stare a vedere quanto sono stabili.
kira@zero
19-01-2019, 19:08
Capisco, ma posso mettere il BIOS di un altra scheda nella STRIX? Non vorrei che se non va a buon fine o altro sputtano 1500€ di GPU :rolleyes:
Il flash del bios va sempre a rischio e pericolo, ma si recupera sempre se non va a buon fine nel 99% dei casi basta avere un altra vga o un vga integrata, anche io oggi ho messo il bios di cui parla Arrow sulla mia gaming oc 2080ti a liquido e va perfettamente. LA mia aveva un PL massimo di 360w prima adesso taglia meno in oc ;)
Arrow0309
19-01-2019, 19:13
Capisco, ma posso mettere il BIOS di un altra scheda nella STRIX? Non vorrei che se non va a buon fine o altro sputtano 1500€ di GPU :rolleyes:
Tecnicamente lo puoi, su overclock.net hanno provato ma e' cmq sconsigliabile inoltre per esempio hanno messo il bios delle Galax da 380W sulla Strix e non sale in full lo stesso ai 380W massimi ma rimane sempre ai valori suoi di 325W (più o meno).
Quindi niente, l'unica vostra speranza e' il bios della Matrix quando uscirà in quanto il pcb e' lo stesso (anche vrm).
Quando sara' lo postero' (seguo il 3d su ocn).
Aspettiamo che fanno altri da cavia prima. ;)
Poi un'altra cosa, tu riporti il delta aggiunto in mhz dicendo che altre schede anche meno di qualità, salgono di più... commetti un errore se pensi al delta aggiuntivo, perchè la tua parte già con un boost più alto di base. Devi sempre prendere in considerazione il boost che raggiungi in senso assoluto.
Considera che le 2080ti si attestano come boost 4.0, ovvero quello che leggi in game/benchmark , sui 2055/2100mhz , i chip più :ciapet: possono arrivare a "toccare i 2175mhz, ma certo non si mantengono costanti per via dei tagli di PL e temp. Quindi se riesci ad aria a mantenere una freq. tra i 2000/2075 mhz, va benissimo ;)
E' altrettanto vero, purtroppo (per me) :stordita:
Thunder-74
19-01-2019, 19:17
Tecnicamente lo puoi, su overclock.net hanno provato ma e' cmq sconsigliabile inoltre per esempio hanno messo il bios delle Galax da 380W sulla Strix e non sale in full lo stesso ai 380W massimi ma rimane sempre ai valori suoi di 325W (più o meno).
Quindi niente, l'unica vostra speranza e' il bios della Matrix quando uscirà in quanto il pcb e' lo stesso (anche vrm).
Quando sara' lo postero' (seguo il 3d su ocn).
Aspettiamo che fanno altri da cavia prima. ;)
E' altrettanto vero, purtroppo (per me) :stordita:
Di la verità Arrow, che sotto sotto, "masochisticamente" parlando, speri che i problemi siano dati dalla VGA, così fai RMA nella speranza di avere una GPU più :ciapet: :D ... è pur sempre un modo per vedere il bicchiere mezzo pieno ;)
Arrow0309
19-01-2019, 19:18
Il flash del bios va sempre a rischio e pericolo, ma si recupera sempre se non va a buon fine nel 99% dei casi basta avere un altra vga o un vga integrata, anche io oggi ho messo il bios di cui parla Arrow sulla mia gaming oc 2080ti a liquido e va perfettamente. LA mia aveva un PL massimo di 360w prima adesso taglia meno in oc ;)
:cincin: :cincin:
Niente, la mia crasha sempre in oc a +90 / 500 sotto sto Hunt (dopo un po).
Provato poco fa anche con l'utility della Galax, Xtreme Tuner for RTX che (dicono) lavora molto bene in overvolt bloccando la gpu in P0.
Messo i stessi clock e lo slider del voltaggio a +1000 (mv) su un massimo di 1500.
Stesso crash. :muro:
Pazienza, con la curva grafica non sono bravo, mi accontenterò di +75 (2070 - 2055)
Di la verità Arrow, che sotto sotto, "masochisticamente" parlando, speri che i problemi siano dati dalla VGA, così fai RMA nella speranza di avere una GPU più :ciapet: :D
E vedi uno po :p
Senno' la vendo cosi' "perfetta" e senza segni di Space Invaders :D
Io mi ricordo che con la mia gtx970 windforce oc da 1245mhz, con BIOS modificato era stabile a 1620mhz.
Quello si che era un ottimo overclock😂
Inviato dal mio JSN-L21 utilizzando Tapatalk
kira@zero
19-01-2019, 19:26
Io mi ricordo che con la mia gtx970 windforce oc da 1245mhz, con BIOS modificato era stabile a 1620mhz.
Quello si che era un ottimo overclock😂
Inviato dal mio JSN-L21 utilizzando Tapatalk
Con la serie gtx9xx era un altra storia :sofico:
Filodream
19-01-2019, 19:41
E' arrivata in anticipo la mia 2080ti Phoenix GS, straordinariamente di sabato.
https://i.imgur.com/ZNvZXVpl.jpg
https://i.imgur.com/8MGQpqYl.jpg
Si presenta bene esteticamente, struttura davvero solida. Scocca del dissipatore in lamiera spessa che arriva super-impellicolata.
https://i.imgur.com/5i1xlHEl.png
Memorie Samsung.
L'inizio è buono, adesso vediamo. :stordita:
kira@zero
19-01-2019, 19:47
E' arrivata in anticipo la mia 2080ti Phoenix GS, straordinariamente di sabato.
https://i.imgur.com/ZNvZXVpl.jpg
https://i.imgur.com/8MGQpqYl.jpg
Si presenta bene esteticamente, struttura davvero solida. Scocca del dissipatore in lamiera spessa che arriva super-impellicolata.
https://i.imgur.com/5i1xlHEl.png
Memorie Samsung.
L'inizio è buono, adesso vediamo. :stordita:
bella mi piace proprio questo modello, qualche test test in oc?
Arrow0309
19-01-2019, 19:54
E' arrivata in anticipo la mia 2080ti Phoenix GS, straordinariamente di sabato.
https://i.imgur.com/ZNvZXVpl.jpg
https://i.imgur.com/8MGQpqYl.jpg
Si presenta bene esteticamente, struttura davvero solida. Scocca del dissipatore in lamiera spessa che arriva super-impellicolata.
https://i.imgur.com/5i1xlHEl.png
Memorie Samsung.
L'inizio è buono, adesso vediamo. :stordita:
Ottima scheda, non si trovava prima senno' l'avrei presa. :stordita:
Se mi confermi pure te la bontà in OC la vado a cercare prima o poi, tanto il wubbo c'e' l'ho. :cool:
Arrow0309
19-01-2019, 19:55
Intanto, sempre a Hunt Showdown (oc +75 ora) guardate che roba :fagiano:
https://i.postimg.cc/qtcvNgtH/Clipboard03.jpg (https://postimg.cc/qtcvNgtH)
kira@zero
19-01-2019, 20:06
Intanto, sempre a Hunt Showdown (oc +75 ora) guardate che roba :fagiano:
https://i.postimg.cc/qtcvNgtH/Clipboard03.jpg (https://postimg.cc/qtcvNgtH)
2055mhz fissi non si schioda proprio :oink:
TigerTank
19-01-2019, 20:34
Ottima scheda, non si trovava prima senno' l'avrei presa. :stordita:
Se mi confermi pure te la bontà in OC la vado a cercare prima o poi, tanto il wubbo c'e' l'ho. :cool:
Arrow occhio che purtroppo ha il bollino di garanzia :D
E' arrivata in anticipo la mia 2080ti Phoenix GS, straordinariamente di sabato.
...
Molto bella anche quella :cool:
Presumo che anche nel tuo caso il led sia collegato alla temperatura della scheda. Ottima cosa le Samsung, mi sa che molti son corsi ai ripari su 2080Ti e 2070, nel dubbio che fossero proprio le Micron a saltare! :sofico:
kira@zero
19-01-2019, 20:48
Arrow occhio che purtroppo ha il bollino di garanzia :D
Molto bella anche quella :cool:
Presumo che anche nel tuo caso il led sia collegato alla temperatura della scheda. Ottima cosa le Samsung, mi sa che molti son corsi ai ripari su 2080Ti e 2070, nel dubbio che fossero proprio le Micron a saltare! :sofico:
Ha il bollino su una vite?
Arrow0309
19-01-2019, 20:53
2055mhz fissi non si schioda proprio :oink:
Si, ma sto gioco consuma uno sproposito, perché sono fatti con il :ciapet:
Non mi meraviglio nemmeno, sta ancora in v0.5xx :O
Arrow occhio che purtroppo ha il bollino di garanzia :D
Molto bella anche quella :cool:
Presumo che anche nel tuo caso il led sia collegato alla temperatura della scheda. Ottima cosa le Samsung, mi sa che molti son corsi ai ripari su 2080Ti e 2070, nel dubbio che fossero proprio le Micron a saltare! :sofico:
E' vero
Anche se:
http://www.gainward.com/support/docs_uk/Warranty_Policy_En.pdf
Che poi qui in UK se riuscissi a trovarla da certi shop non sarebbe neanche un problema (se ne fregano dei sigilli come e' giusto che sia), a trovarla pero'
Mah, mi tengo questa intanto, finché va :stordita:
--- cut
Ben 450W di pl max, ed e' lo stesso bios anche sulle HOF semplici, non OC Labs Edition:
((IMMAGINE))
Quindi, come sta la Asus Strix?
Hai per caso un link del database delle varie versioni di turing, come dall'immagine che hai postato? Grazie in anticipo!
Arrow0309
19-01-2019, 20:59
Hai per caso un link del database delle varie versioni di turing, come dall'immagine che hai postato? Grazie in anticipo!
Trovi tutto in prima pag (op) qui sul 3d 2080 ti owners su ocn:
https://www.overclock.net/forum/69-nvidia/1706276-official-nvidia-rtx-2080-ti-owner-s-club.html
Ma mi consigliate voi di passare al 4k avendo una 2080? Toccherà cambiarla già il prossimo anno però, già ora su qualche titolo non è possibile maxare dettagli..mmm:rolleyes:
Thunder-74
19-01-2019, 22:52
Ma mi consigliate voi di passare al 4k avendo una 2080? Toccherà cambiarla già il prossimo anno però, già ora su qualche titolo non è possibile maxare dettagli..mmm:rolleyes:
Per maxare in 4K serve una 2080ti, ciò non toglie che si possa trovare un ottimo compromesso con una 2080 e un settaggio sapiente delle opzioni dei giochi
Inviato dal mio iPhone X utilizzando Tapatalk
Per maxare in 4K serve una 2080ti, ciò non toglie che si possa trovare un ottimo compromesso con una 2080 e un settaggio sapiente delle opzioni dei giochi
Inviato dal mio iPhone X utilizzando Tapatalk
Dipende dai giochi, per dirti puoi maxare Andromeda ma non un Watch Dogs 2, dipende dai giochi insomma. Se passo al 4k ora già so che il prossimo anno dovrò vedere di rivendere la 2080 per la 3080 che andrà ancora meglio della Ti in 4k.
Eschelon
19-01-2019, 23:23
Ma mi consigliate voi di passare al 4k avendo una 2080? Toccherà cambiarla già il prossimo anno però, già ora su qualche titolo non è possibile maxare dettagli..mmm:rolleyes:
Ma dipende anche se punti piú all'alta risoluzione o all'alto framerate, io personalmente ho scelto la seconda (in attesa del monitor), e prima che mi arrivasse la 2080, accompagnata quindi dal 1440p (in attesa del monitor) con refresh rate >=144Hz
Thunder-74
19-01-2019, 23:38
Dipende dai giochi, per dirti puoi maxare Andromeda ma non un Watch Dogs 2, dipende dai giochi insomma. Se passo al 4k ora già so che il prossimo anno dovrò vedere di rivendere la 2080 per la 3080 che andrà ancora meglio della Ti in 4k.
La mia considerazione si basa sui titoli attuali più pesanti . Ovvio che titoli più leggeri possono girare su schede meno performanti di una 2080ti, come pure è ovvio che i futuri giochi potranno non girare a 60fps in 4K maxati, su una 2080ti... è sempre stato così ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Ma dipende anche se punti piú all'alta risoluzione o all'alto framerate, io personalmente ho scelto la seconda (in attesa del monitor), e prima che mi arrivasse la 2080, accompagnata quindi dal 1440p (in attesa del monitor) con refresh rate >=144Hz
Mai importato dell'alto refresh, peraltro un 1440p a 144 o 165 Hz non è meno esigente in termini di GPU di un 4k a 60 Hz..
gadducci
19-01-2019, 23:52
Quindi se acquisti ora le ti founder ti danno quelle con le nuove memorie che non hanno problemi.
Eschelon
19-01-2019, 23:58
Mai importato dell'alto refresh, peraltro un 1440p a 144 o 165 Hz non è meno esigente in termini di GPU di un 4k a 60 Hz..
Ognuno la vede come preferisce, i 144Hz sono una bella cosa (accompagnati da freesync/gsync), poi ci son compromessi e compromessi in un senso o nell'altro.
È facile che tra 1 anno magari usciranno giochi pesanti che maxati in 4k con una 2080 ti andranno a 40/45fps magari perchè pure ottimizzati male (come spesso accade) come altri che ti andranno a 70 o piú. A me personalmente da fastidio in genere, quindi ripeto, questione di "gusti".
Quindi se acquisti ora le ti founder ti danno quelle con le nuove memorie che non hanno problemi.
Ma perchè è assodato quindi che le samsung non danno problemi?? Io non letto letto niente a tal proposito
Quindi se acquisti ora le ti founder ti danno quelle con le nuove memorie che non hanno problemi.
Non sono le memorie a causare i problemi, c'è (o c'era, si spera) qualcos'altro. Tra qualche settimana si capirà se i problemi sono definitivamente risolti, lo spero per gli utenti!
raybantracing
20-01-2019, 00:19
Quoto pienamente, che dire anch'io ho speso i stessi soldi tra la FE e wubbo EK + bp e se sotto liquido (addirittura) ho risultati inferiori ai suoi non e' che devo mettermi a piangere ora, e' sempre stato una lotteria ma come giustamente dici il vero OC oggi porta risultati solo sotto azoto, per il resto cambia solo qualche puntino nei benchmark :O
Aggiungo che le loro Strix hanno uno dei bios più penosi, limitatissime in pl max a soli 325W la loro unica speranza e' di poter flashare sopra quello della Matrix (stesso design) sperando che abbia almeno 375 - 380W pl max:
https://www.techpowerup.com/vgabios/207409/207409
@RyoHazuki79 questo bios di sopra e' quello della Strix OC, se hai la liscia da soli 280W max ti consiglio di metterlo essendo il poco che puoi fare.
E se ancora sei stabile ai valori che avevi postato io farei pure una preghierina al Padre Eterno o alla Madonna che te la conservino cosi' ;)
quanto fai tu? che dici che lui ha risultati migliori?
Se ti mandano una di quelle nuove, si spera proprio di no!...
Se poi pensi che prima ho letto di uno che ha comprato una 2080ti FE adesso per avere le memorie samsung e rivendere la 2080ti micron che aveva preso al day one e perfettamente funzionante (rimettendoci, ovviamente), tu hai fatto una mossa sensata...
che significa quelle nuove? che hanno le "nuove" di nuovo?
Arrow0309
20-01-2019, 01:54
quanto fai tu? che dici che lui ha risultati migliori?
che significa quelle nuove? che hanno le "nuove" di nuovo?
+75/+500 stabili a vdef
Nuovo bios e memorie Samsung.
kira@zero
20-01-2019, 02:14
Mi sono scimmiato con Heaven engine. Mi dite che score fate con la rtx 2080ti in FHD? Va bene anche la rtx 2080 e la 2070. Immagino l'abbiate provato in tanti :fagiano:
in fullhd con quali impostazini?
kira@zero
20-01-2019, 03:36
tutto al massimo. Nella versione che ho scaricato si possono settare pochissime cose per portarlo al massimo come filtro 8x, full screen e ultra se non sbaglio.
Ho questo di ieri, fotografato con il cell, é la 2080ti a default boost 1985mhz ( fisso) e ram a 1400mhz
https://i.postimg.cc/fTWkv7Yj/IMG-20190118-WA0092.jpg (https://postimg.cc/XXhVjCHp)
Premetto che il 2700x non riesce a tirarla bene a dovere questa bestia di gpu a 1080p neanche ad unigine heaven.
Questo é della 2070 a default che avevo però a 1440p sempre con 2700x
https://i.postimg.cc/76pdZNwv/20190106-031832.jpg (https://postimg.cc/BLBMhHjN)
image sharing (https://postimages.org/it/)
La 2070 in fullhd tutto maxato fá intorno ai 124/123 fps quella che avevo io con un boost a 1995mhz massimo e 1905mhz minimo e 14000mhz sulle memorie.
TigerTank
20-01-2019, 08:08
E' vero
Anche se:
http://www.gainward.com/support/docs_uk/Warranty_Policy_En.pdf
Che poi qui in UK se riuscissi a trovarla da certi shop non sarebbe neanche un problema (se ne fregano dei sigilli come e' giusto che sia), a trovarla pero'
Mah, mi tengo questa intanto, finché va :stordita:
Ma sì, secondo me sì Arrow. Sostituire la tua con un'altra solo per le Samsung non so quanto ne valga la pena.
Anche perchè se appunto i problemi non sono legati alle vram ma alla gpu stessa, rischieresti magari di dar via una vga che funziona bene per una problematica.
Nel tuo caso mal che vada fai rma e magari te ne mandano una con le Samsung :D
Ha il bollino su una vite?
Sì, su una delle 4 viti attorno alla gpu. Purtroppo Palit e Gainward sono tra quelle che li piazzano.
Mai importato dell'alto refresh, peraltro un 1440p a 144 o 165 Hz non è meno esigente in termini di GPU di un 4k a 60 Hz..
Diciamo però che il vantaggio del 1440p da gaming è che comunque in caso di mattoni estremi scendi di framerate ma stando sopra ai 60fps. Con il 4K invece hai il maggiore vincolo di base della risoluzione.
Nel senso che un 1440p a 80fps invece che 144-165 sarebbe sempre meglio di un 4K a 30-35fps invece che 60. Imho.
Discorso ottimizzazioni a parte, come scritto da Thunder.
Giovamas
20-01-2019, 08:17
Non sono le memorie a causare i problemi, c'è (o c'era, si spera) qualcos'altro. Tra qualche settimana si capirà se i problemi sono definitivamente risolti, lo spero per gli utenti!
quoto anche secondo me le memorie non c'entrano nulla. bravo;)
Giovamas
20-01-2019, 08:32
il mio timespy nella conf. daily. +90/+800 con curva ventola soft diciamo. voltaggio a +20
https://i.ibb.co/n65988c/ts-2019.jpg (https://ibb.co/n65988c)
ROBHANAMICI
20-01-2019, 09:50
tutto al massimo. Nella versione che ho scaricato si possono settare pochissime cose per portarlo al massimo come filtro 8x, full screen e ultra se non sbaglio.
Sui 3840 con la rtx 2080 tutto maxato fullhd +105/+700 sulla mia gpu ultimi driver nvidia https://i.postimg.cc/c6BQ7dzs/unigine-heaven-rtx-2080-ultimi-driver-nvidia.png (https://postimg.cc/c6BQ7dzs)
RyoHazuki79
20-01-2019, 09:59
Mmmmm ecco i risultati della mia GPU:mbe:
Pareri? :cry:
https://i.postimg.cc/Dz85ShRX/1.jpg
https://i.postimg.cc/g2cgP8D4/2.jpg
Thunder-74
20-01-2019, 10:05
Mmmmm ecco i risultati della mia GPU:mbe:
Pareri? :cry:
Cut..
Perché piangi? Sei in linea come punteggio , è la cpu che non ti fa ottenere un punteggio complessivo più alto o ti Lima qualcosa sul punteggio della gpu.
kira@zero
20-01-2019, 10:14
Mmmmm ecco i risultati della mia GPU:mbe:
Pareri? :cry:
https://i.postimg.cc/Dz85ShRX/1.jpg
https://i.postimg.cc/g2cgP8D4/2.jpg
A me pare buona poi oltretutto sei ad aria, lo score in alto é quello complessivo, quindi tiene conto della cpu e con il 7700k quei punti fa su per giù
Arrow0309
20-01-2019, 11:09
Ma sì, secondo me sì Arrow. Sostituire la tua con un'altra solo per le Samsung non so quanto ne valga la pena.
Anche perchè se appunto i problemi non sono legati alle vram ma alla gpu stessa, rischieresti magari di dar via una vga che funziona bene per una problematica.
Nel tuo caso mal che vada fai rma e magari te ne mandano una con le Samsung :D
Sì, su una delle 4 viti attorno alla gpu. Purtroppo Palit e Gainward sono tra quelle che li piazzano.
Diciamo però che il vantaggio del 1440p da gaming è che comunque in caso di mattoni estremi scendi di framerate ma stando sopra ai 60fps. Con il 4K invece hai il maggiore vincolo di base della risoluzione.
Nel senso che un 1440p a 80fps invece che 144-165 sarebbe sempre meglio di un 4K a 30-35fps invece che 60. Imho.
Discorso ottimizzazioni a parte, come scritto da Thunder.
Si carissimo hai ragione, ormai vado cosi', ieri sera ho giocato al mattone di Hunt fino a tardi con 75/500 vdef senza crash.
Discorso 4K sono d'accordo, certo se hai la possibilità di un secondo monitor / tv (buona) 4k 60hz si può provare a certi titoli in HDR e dalla poltrona col pad (fra un po inizio SOTTR cosi') :)
Mmmmm ecco i risultati della mia GPU:mbe:
Pareri? :cry:
[ ... cut ... ]
Non si capisce il gpu score.
Edit:
Ho ingrandito l'immagine e pare sui 16k o appena sopra, buono ma a quel overclock si può fare di più (bios con più pl e cpu / ram OC)
Ecco il mio a "soli" +90 e bios da 380W:
https://i.postimg.cc/5j7HgjfS/Clipboard01.jpg (https://postimg.cc/5j7HgjfS)
quoto anche secondo me le memorie non c'entrano nulla. bravo;)
ok, certo... anche schede con samsung sono morte... pare però che di quelle del terzo lotto (03248xxxxxx) non ne siano ancora morte... ora, queste hanno tutte mem samsung e un bios diverso... probabilmente avranno pure cambiato/affinato altro... ;)
ok, certo... anche schede con samsung sono morte... pare però che di quelle del terzo lotto (03248xxxxxx) non ne siano ancora morte... ora, queste hanno tutte mem samsung e un bios diverso... probabilmente avranno pure cambiato/affinato altro... ;)
avranno sistemato altri problemi non meglio precisati
la mia RTX 2070 morta aveva le Samsung.
ecco, appunto... https://digilander.libero.it/arosati76/mrgreen.gif
avranno sistemato altri problemi non meglio precisati
Si spera... altrimenti si cominceranno a vedere cadaveri anche di queste...
VEGETA78
20-01-2019, 11:34
il mio timespy nella conf. daily. +90/+800 con curva ventola soft diciamo. voltaggio a +20
https://i.ibb.co/n65988c/ts-2019.jpg (https://ibb.co/n65988c)
A che frequenza benca la gpu con +90? Hai un punteggio molto alto della cpu eri a 5ghz?
ok, certo... anche schede con samsung sono morte... pare però che di quelle del terzo lotto (03248xxxxxx) non ne siano ancora morte... ora, queste hanno tutte mem samsung e un bios diverso...
E dopo che persino nvidia ha cambiato bios alle sue vga per l'affidabilità, continuate imperterriti a fare casini con i bios scambiandoli allegramente?
Siete proprio masochisti.........
RyoHazuki79
20-01-2019, 11:49
Si carissimo hai ragione, ormai vado cosi', ieri sera ho giocato al mattone di Hunt fino a tardi con 75/500 vdef senza crash.
Discorso 4K sono d'accordo, certo se hai la possibilità di un secondo monitor / tv (buona) 4k 60hz si può provare a certi titoli in HDR e dalla poltrona col pad (fra un po inizio SOTTR cosi') :)
Non si capisce il gpu score.
Edit:
Ho ingrandito l'immagine e pare sui 16k o appena sopra, buono ma a quel overclock si può fare di più (bios con più pl e cpu / ram OC)
Ecco il mio a "soli" +90 e bios da 380W:
https://i.postimg.cc/5j7HgjfS/Clipboard01.jpg (https://postimg.cc/5j7HgjfS)
Credo che la differenza di punteggio sia dovuto che hai una CPU più prestante.
Ora mi torna tutto ;)
Diciamo però che il vantaggio del 1440p da gaming è che comunque in caso di mattoni estremi scendi di framerate ma stando sopra ai 60fps. Con il 4K invece hai il maggiore vincolo di base della risoluzione.
Nel senso che un 1440p a 80fps invece che 144-165 sarebbe sempre meglio di un 4K a 30-35fps invece che 60. Imho.
Discorso ottimizzazioni a parte, come scritto da Thunder
Eh infatti, il 4k è ancora troppo per le GPU attuali, con il 1440p si sta decisamente più larghi, ma come al solito il problema è la scimmia:mc:
Eh infatti, il 4k è ancora troppo per le GPU attuali, con il 1440p si sta decisamente più larghi, ma come al solito il problema è la scimmia:mc:Io sono disperato per il 4k🤣🤣🤣.
Uso la tv come monitor son 12 anni che nn ho un monitor.. Ma nel 2016 sono passato al 4k.
Problema che avevo una 1070 e giocavo a 30fps ora ho la 2070 ma nn è che ho risolto il problema 😂😂😂.
La potenza non l'ho mai sentita sulle schede, cerro giocare su un 55 pollici hdr è uno spettacolo a livello visivo, ma ci sono compromessi grandi..
1 si gioca solo col Pad e solo ad alcuni titoli stile console,
2 se nn hai 60fps fissi è stuttering continuo.
Alcuni giochi li ho settati a 30 hertz 30fps motion plus attivo.. Così è fluido ma 30 fps con interpolazione attività ti manda circa 60ms di input lag
1200 euro per una ti non li spendo, ho preferito comprare un oled con quell' importo.
Inviato dal mio JSN-L21 utilizzando Tapatalk
Io sono disperato per il 4k🤣🤣🤣.
Uso la tv come monitor son 12 anni che nn ho un monitor.. Ma nel 2016 sono passato al 4k.
Problema che avevo una 1070 e giocavo a 30fps ora ho la 2070 ma nn è che ho risolto il problema 😂😂😂.
La potenza non l'ho mai sentita sulle schede, cerro giocare su un 55 pollici hdr è uno spettacolo a livello visivo, ma ci sono compromessi grandi..
1 si gioca solo col Pad e solo ad alcuni titoli stile console,
2 se nn hai 60fps fissi è stuttering continuo.
Alcuni giochi li ho settati a 360 hertz 30fps motion plus attivo.. Così è fluido ma 30 fps con interpolazione attività ti manda circa 60ms di input lag
Inviato dal mio JSN-L21 utilizzando Tapatalk
Credo proprio che la mia scimmia sia scaturita proprio dal fatto che mi son stancato dei monitor piccoli 27-32, e punto a un bel 43, insomma le dimensioni contano (cit.) :asd: prenderei proprio una tv come monitor, sarebbe la prima volta, mi interessa questa nuova esperienza, ma con il 4k ci sono appunto compromessi :rolleyes: Un bel dilemma.
bronzodiriace
20-01-2019, 13:08
Credo proprio che la mia scimmia sia scaturita proprio dal fatto che mi son stancato dei monitor piccoli 27-32, e punto a un bel 43, insomma le dimensioni contano (cit.) :asd: prenderei proprio una tv come monitor, sarebbe la prima volta, mi interessa questa nuova esperienza, ma con il 4k ci sono appunto compromessi :rolleyes: Un bel dilemma.
Guarda per come la vedo io ti posso dare ragione, il problema di fondo è che per i 4k hai bisogno del g-sync. Da li non si torna indietro.
[K]iT[o]
20-01-2019, 13:18
Una TV su una scrivania non ha senso, provata e da solo fastidio, l'effetto wow iniziale c'è ma finisce lì. Servono solo se stai lontano. Per l'immersione in gaming piuttosto meglio un 21:9, anche se il supporto è ancora limitato.
sertopica
20-01-2019, 13:45
Credo proprio che la mia scimmia sia scaturita proprio dal fatto che mi son stancato dei monitor piccoli 27-32, e punto a un bel 43, insomma le dimensioni contano (cit.) :asd: prenderei proprio una tv come monitor, sarebbe la prima volta, mi interessa questa nuova esperienza, ma con il 4k ci sono appunto compromessi :rolleyes: Un bel dilemma.
Fatti un monitor curvo a sto punto, non hai i pixel del 4k (prestazioni migliori) ed in piu' sei molto piu' immerso nel gioco.
iT[o];46017143']Una TV su una scrivania non ha senso, provata e da solo fastidio, l'effetto wow iniziale c'è ma finisce lì. Servono solo se stai lontano. Per l'immersione in gaming piuttosto meglio un 21:9, anche se il supporto è ancora limitato.
Mai piaciuti gli ultrawide, resto fedele ai 16:9, preferisco la proporzione. Che dire, con il 4k ci sono ancora troppi compromessi, da vedere le nuove GPU 2020-2021 se finalmente riusciranno a dare potenza a sufficienza :rolleyes:
Fatti un monitor curvo a sto punto, non hai i pixel del 4k (prestazioni migliori) ed in piu' sei molto piu' immerso nel gioco.
Cambierò solo con un 4k da 43'', ormai è deciso, son solo limitato da una potenza grafica di per sé stretta a questa risoluzione, magari conviene aspettare un altro anno o due.
TigerTank
20-01-2019, 14:58
Eh ci vuola ancora un pò perchè il 4K si standardizzi per bene.
Anche perchè è vero che escono nuove vga...ma anche nuovi giochi mattone che alzano il livello prestazionale necessario a parità di risoluzione.
Con l'RT poi non ne parliamo :)
Eh ci vuola ancora un pò perchè il 4K si standardizzi per bene.
Anche perchè è vero che escono nuove vga...ma anche nuovi giochi mattone che alzano il livello prestazionale necessario a parità di risoluzione.
Con l'RT poi non ne parliamo :)
Vero, giochi sempre più mattoni, mi chiedo se non stia diventando necessario lavorare un minimo di ottimizzazione anche su PC, per quanto questo sia davvero limitante, però insomma, è evidente che si sta andando verso titoli di grande complessità, pensare di colmare il gap solo con potenza bruta sta diventando un cane che si morde la coda, a maggior ragione se c'è l'interesse a standardizzare il 4k, parlo almeno nella fascia medio-alta/alta, non dico la media.
Proprio seguendo il tuo ragionamento si dovrebbe andare indietro con tecnologie che adattano alle risoluzioni maggiori e non con schermi sempre maggiori. Ora tu immagina il prossimo step a 5k o 8k. Cosa servirà per farci girare il prossimo Metro (non questo in uscita)? Quindi meglio nuove tecnologie che aumentino i dettagli e gli effetti e non la corsa alle risoluzioni. Non per niente dalle indagini su Steam le persone giocano quasi tutte a risoluzioni = o minori al FHD.
Si gioca ancora molto poco anche in 1440p, quindi la media degli utenti è fissa per lo più a 1080p probabilmente con monitor da 24'' nella maggioranza dei casi. Riguardo la corsa al 4K è ormai inevitabile, l'ha iniziata Sony quando presentò la Pro, prima di allora tutto questo parlare del 4K non c'era assolutamente, neanche nel mondo PC gaming, nonostante i giochi iniziarono ad essere testati in 4K a partire dal 2015 utilizzando la 980 Ti e la Fury X.
Io di inevitabile non ci vedo nulla. Per permettere a tutti di avere monitor 4k da sfrutturare con i giochi da pc devi aumentare di non so quante volte esponenzialmente la potenza delle schede video. Cosa impossibile se pensi che il top di gamma Nvidia costa ben oltre i 1000 euro e quello di AMD non ha nemmeno il prezzo ufficiale. Il mercato gaming è composto da giocatori disposti a spendere una tantum per una console o al massimo 200/300 euro di scheda video, non 3000 di pc. In parole povere nei prossimi 5 anni dovresti avere schede di fascia medio/bassa che reggono benissimo il 4k spendendo come dicevo al massimo 300 euro. Calcolando che usciranno nel frattempo televisori a 8k... :asd: :asd:
Inevitabile mi riferivo al mondo console, PS5 promette o si crede lo faccia, il 4K nativo, uscirà intorno alla fine del 2020. Tutto il tempo hanno Nvidia/AMD nel vendere GPU molto potenti, ma hanno bisogno di un boost notevole, per dire, rispetto alla 2080 di ora, per star tranquilli, una nuova GPU dovrebbe andare il 45-50% meglio. Probabile ci si arrivi nel 2021, l'unica incognita sono i giochi stessi, in realtà ci metti poco a fregare una GPU anche potentissima, quindi è, per l'ennesima volta, auspicabile che le SH migliorino il porting su PC.
Arrow0309
20-01-2019, 15:56
Mi sapete dire (per un amico) se la Gainward 2060 Phoenix GS oppure la Palit 2070 Dual se prese dal amazone tedesco possono ricevere anche uno dei 2 giochi BF5 o Anthem?
http://www.gainward.com/main/event/2019/abf5/index_de.php
http://eu.palit.com/event/promote/2019/abf5/de.php
TigerTank
20-01-2019, 16:11
Proprio seguendo il tuo ragionamento si dovrebbe andare indietro con tecnologie che adattano alle risoluzioni maggiori e non con schermi sempre maggiori. Ora tu immagina il prossimo step a 5k o 8k. Cosa servirà per farci girare il prossimo Metro (non questo in uscita)? Quindi meglio nuove tecnologie che aumentino i dettagli e gli effetti e non la corsa alle risoluzioni. Non per niente dalle indagini su Steam le persone giocano quasi tutte a risoluzioni = o minori al FHD.
In teoria ognuno dovrebbe adattare il tipo di monitor alle proprie possibilità circa il budget per il comparto video e lo stile in cui gioca.
Mi sapete dire (per un amico) se la Gainward 2060 Phoenix GS oppure la Palit 2070 Dual se prese dal amazone tedesco possono ricevere anche uno dei 2 giochi BF5 o Anthem?
http://www.gainward.com/main/event/2019/abf5/index_de.php
http://eu.palit.com/event/promote/2019/abf5/de.php
No Arrow...la promozione vale solo per i rivenditori autorizzati.
Se su amazon non appare un qualcosa di specifico nel prodotto in questione allora significa che non partecipa alla cosa.
Per la germania trovi i rivenditori nella lista della pagina tedesca di nvidia: LINK (https://www.nvidia.com/de-de/geforce/campaigns/battlefield-v-anthem-bundle/?nvid=nv-int-70547#cid=Internal_GEFORCE_DE_Anthem_Bundle_CES_2019_CORPSFG).
Inevitabile mi riferivo al mondo console, PS5 promette o si crede lo faccia, il 4K nativo, uscirà intorno alla fine del 2020. Tutto il tempo hanno Nvidia/AMD nel vendere GPU molto potenti, ma hanno bisogno di un boost notevole, per dire, rispetto alla 2080 di ora, per star tranquilli, una nuova GPU dovrebbe andare il 45-50% meglio. Probabile ci si arrivi nel 2021, l'unica incognita sono i giochi stessi, in realtà ci metti poco a fregare una GPU anche potentissima, quindi è, per l'ennesima volta, auspicabile che le SH migliorino il porting su PC.Possiedo anchea one x, ci sono diversi giochi in 4k nativo, un esempio shadow tomb raider gira a 30fps 4k nativo dettagli alti e ci sono tanti altri giochi. Rdr2 ecc.. La one x ha una CPU scarsa.
Ryse tomb raider su xbox o pc è uguale, forza horizon manca un po' di antialiasing..
Le nuove console saranno sicuramente pronti per il 4k poi magari per fare 60fps con qualche ambra o dettaglio in più ci sarà rtx 2080ti a 2000euro circa...
Basterebbe una 2080 per il 4k se tutto venisse ottimizzato ma poi a cosa servirebbero le altre schede?, quando ci sarà anche lo standard dei 4k 120hertz magicamente Aumenteranno le prestazioni
Inviato dal mio JSN-L21 utilizzando Tapatalk
Kostanz77
20-01-2019, 17:08
sono tentato da un pannello 3440x1440p non so a questo punto se G-Sync o Free-Sync.....ma prima devo vendere il mio Rog PG278QR
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
Possiedo anchea one x, ci sono diversi giochi in 4k nativo, un esempio shadow tomb raider gira a 30fps 4k nativo dettagli alti e ci sono tanti altri giochi. Rdr2 ecc.. La one x ha una CPU scarsa.
Ryse tomb raider su xbox o pc è uguale, forza horizon manca un po' di antialiasing..
Le nuove console saranno sicuramente pronti per il 4k poi magari per fare 60fps con qualche ambra o dettaglio in più ci sarà rtx 2080ti a 2000euro circa...
Basterebbe una 2080 per il 4k se tutto venisse ottimizzato ma poi a cosa servirebbero le altre schede?, quando ci sarà anche lo standard dei 4k 120hertz magicamente Aumenteranno le prestazioni
Inviato dal mio JSN-L21 utilizzando Tapatalk
Se si ottimizzasse basterebbe anche meno di una 2080 per il 4K, ma nel momento in cui non hai un codice che comunica con un hardware specifico, si sviluppano tutti i limiti del caso, allocamento scarso di risorse per esempio, quindi un hardware non viene mai spremuto al 100% oppure un hardware che viene usato male. Su PC non si può fare altro che aspettare roba più potente e basta.
Arrow0309
20-01-2019, 19:10
Raga il SOTTR in 4K sul mio qled Q7F e' da urlo (in HDR), colori molto meglio rispetto al Predator IPS.
Prestazioni pure non e' male;
https://i.postimg.cc/R6bvZcqs/Clipboard01.jpg (https://postimg.cc/R6bvZcqs)
Stesso OC +75/500. Ovv maxato a manina (tranne il blur) :p :Prrr:
Come vi sembra?
Raga il SOTTR in 4K sul mio qled Q7F e' da urlo (in HDR), colori molto meglio rispetto al Predator IPS.
Prestazioni pure non e' male;
https://i.postimg.cc/R6bvZcqs/Clipboard01.jpg (https://postimg.cc/R6bvZcqs)
Stesso OC +75/500. Ovv maxato a manina (tranne il blur) :p :Prrr:
Come vi sembra?Non so se possiedi anche assassin creed, ma se lo provo in hdr è impressionante molto meglio di sottr.... io li ho entrambi.
Odyssey è il top che abbia mai visto su tv per qualità visiva e implementazione dell'hdr
Inviato dal mio JSN-L21 utilizzando Tapatalk
Odyssey è uno dei giochi (e open world) migliori graficamente sul mercato, se la gioca con RDR2 su diversi aspetti, superandolo in qualche dettaglio. Si potrebbe definirlo un titolo "next gen".
Giovamas
20-01-2019, 19:46
A che frequenza benca la gpu con +90? Hai un punteggio molto alto della cpu eri a 5ghz?
si a 5ghz su tutti i core (AVX 0 cache 4,7). la gpu sta a 2100/2085
TigerTank
20-01-2019, 19:59
Stasera sul sito della Palit 2080 Superjetstream ho letto questo.
"The color lighting from RGB LED can be changed in accordance with graphics temperature. The temperature can easily be identified by different colors from the external appearance of the graphics card. Gamers can choose from 16.8 million colors to suit their own style and preferences. *The LED Lighting effect can be controlled by ThunderMaster Utility. "
Di default se non ho capito male, i led della Palit(e presumo della mia) dovrebbero cambiare in verde-blu-giallo e rosso a seconda della temperatura.
Però diversamente da quanto scritto sopra...al momento non c'è alcuna possibilità di personalizzazione di colori e quant'altro, come si fa ad esempio con l'Aura di Asus. Mi auguro introducano tale feature visto che la dichiarano...così potrei impostare il rosso invece del verde :fagiano:
fraussantin
20-01-2019, 21:05
https://multiplayer.it/notizie/quake-2-primo-gioco-completamente-ray-tracing.html
Ottima occasione per rigiocarsi quel capolavoro
Arrow0309
20-01-2019, 21:14
Non so se possiedi anche assassin creed, ma se lo provo in hdr è impressionante molto meglio di sottr.... io li ho entrambi.
Odyssey è il top che abbia mai visto su tv per qualità visiva e implementazione dell'hdr
Inviato dal mio JSN-L21 utilizzando Tapatalk
Certo che c'e' l'ho, giocato sul Predator X34P ma non sono arrivato manco a meta'
Presto lo provo in 4K HDR :Prrr:
TigerTank
20-01-2019, 21:34
https://multiplayer.it/notizie/quake-2-primo-gioco-completamente-ray-tracing.html
Ottima occasione per rigiocarsi quel capolavoro
Il mio primo gioco su pc insieme al primo Half-Life! :D
alla fine tra problemi di affidabilita', paura di essere cpu limited etc etc .. ho deciso di optare per una evga 1080ti .. e piu' avanti vedremo!
Continuo comunque a seguirvi! :)
[K]iT[o]
20-01-2019, 22:21
Stasera sul sito della Palit 2080 Superjetstream ho letto questo.
"The color lighting from RGB LED can be changed in accordance with graphics temperature. The temperature can easily be identified by different colors from the external appearance of the graphics card. Gamers can choose from 16.8 million colors to suit their own style and preferences. *The LED Lighting effect can be controlled by ThunderMaster Utility. "
Di default se non ho capito male, i led della Palit(e presumo della mia) dovrebbero cambiare in verde-blu-giallo e rosso a seconda della temperatura.
Però diversamente da quanto scritto sopra...al momento non c'è alcuna possibilità di personalizzazione di colori e quant'altro, come si fa ad esempio con l'Aura di Asus. Mi auguro introducano tale feature visto che la dichiarano...così potrei impostare il rosso invece del verde :fagiano:
Sicuro? Lo porta anche qua http://www.palit.com/palit/thundermaster.php?lang=en
fabietto27
20-01-2019, 22:43
sono tentato da un pannello 3440x1440p non so a questo punto se G-Sync o Free-Sync.....ma prima devo vendere il mio Rog PG278QR
Inviato dal mio iPhone XS MAX utilizzando Tapatalk ProQuando provi il 21:9 ti dai del pirla per non averlo preso prima eheh.
Inviato dal mio SM-G930F utilizzando Tapatalk
Kostanz77
20-01-2019, 22:47
Quando provi il 21:9 ti dai del pirla per non averlo preso prima eheh.
Inviato dal mio SM-G930F utilizzando Tapatalk
tanto la mia Strix 2080 dovrebbe reggerlo bene......adesso decido se mettere in vendita il PG278QR
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
Arrow0309
20-01-2019, 23:50
@FroZen, non posso non postarla, e' stata troppo bella (e giocando contro quelli di prestigio) :Prrr: :p
:sofico: :sofico: :sofico:
https://i.postimg.cc/GtCjDRwz/IMG-20190120-233927.jpg (https://i.postimg.cc/8Gnqw9yQ/IMG-20190120-233927.jpg)
TigerTank
21-01-2019, 08:04
iT[o];46017977']Sicuro? Lo porta anche qua http://www.palit.com/palit/thundermaster.php?lang=en
Stasera provo con quell'ultima versione del software Palit, magari funziona anche con le Gainward. Grazie!
FrancoBit
21-01-2019, 08:15
Raga il SOTTR in 4K sul mio qled Q7F e' da urlo (in HDR), colori molto meglio rispetto al Predator IPS.
Prestazioni pure non e' male;
https://i.postimg.cc/R6bvZcqs/Clipboard01.jpg (https://postimg.cc/R6bvZcqs)
Stesso OC +75/500. Ovv maxato a manina (tranne il blur) :p :Prrr:
Come vi sembra?
Ti chiedo una cosa, tu l'hdr in quel caso lo attivi da Windows oppure dalla funzione del televisore? Io ho avuto problemi impostandolo da Win10,
grazie
[K]iT[o]
21-01-2019, 08:26
Stasera provo con quell'ultima versione del software Palit, magari funziona anche con le Gainward. Grazie!
Ho visto che Gainward ha anche fatto un software nuovo dopo i drivers 415, guarda anche qua http://www.gainward.com/main/download.php?lang=en
@FroZen, non posso non postarla, e' stata troppo bella (e giocando contro quelli di prestigio) :Prrr: :p
:sofico: :sofico: :sofico:
https://i.postimg.cc/GtCjDRwz/IMG-20190120-233927.jpg (https://i.postimg.cc/8Gnqw9yQ/IMG-20190120-233927.jpg)
abbiamo un campione!
venerdì notte io e mio fratello ci siamo presi dei fucking idiots e con merito da un team mentre camperavamo fuori da alice farm in attesa del banish :asd: mamma mia che figura di merda :asd: alle 3 di notte avevo un po' l'occhio pigro :Prrr:
TigerTank
21-01-2019, 08:32
iT[o];46018224']Ho visto che Gainward ha anche fatto un software nuovo dopo i drivers 415, guarda anche qua http://www.gainward.com/main/download.php?lang=en
Grazie, stasera guardo.
Dovrebbe esserci una cosa simile:
http://i.imgur.com/8z3kG2Vl.jpg (https://imgur.com/8z3kG2V)
Quindi o spegni, o lasci i colori predefiniti in base a temperatura(non modificabili), o setti un colore fisso o metti l'effetto "arcobaleno" :D
Vedo un pò...sperando che funzioni senza dover lasciare attiva l'utility, non mi piace molto come idea avendo già in background MSI Afterburner...che è di gran lunga migliore come software di gestione(OSD compreso) rispetto a questi Expert Tool 2 / Thundermaster, che sono un pò più "spartani".
Magari a me non compariva nulla in entrambi i software per precedente versione o perchè facevano conflitto con altro. O magari perchè ho provato prima di riavviare dopo installazione dei drivers nvidia.
fabietto27
21-01-2019, 08:42
tanto la mia Strix 2080 dovrebbe reggerlo bene......adesso decido se mettere in vendita il PG278QR
Inviato dal mio iPhone XS MAX utilizzando Tapatalk ProMa penso proprio di sì...io con la 1080ti grossi sacrifici grafici non ne devo fare....almeno fino a Metro Exodus.
Inviato dal mio SM-G930F utilizzando Tapatalk
appleroof
21-01-2019, 09:17
Quando provi il 21:9 ti dai del pirla per non averlo preso prima eheh.
Inviato dal mio SM-G930F utilizzando Tapatalk
👏👏👏👏😁
Arrow0309
21-01-2019, 09:26
Ti chiedo una cosa, tu l'hdr in quel caso lo attivi da Windows oppure dalla funzione del televisore? Io ho avuto problemi impostandolo da Win10,
grazie
Da Windows 10.
La tv (Samsung) in firma impostata come game console (sempre per pc Gaming) e lo abilità in automatico l'HDR (devi solo abilitare le "hdmi uhd color" su tutte le porte hdmi).
abbiamo un campione!
venerdì notte io e mio fratello ci siamo presi dei fucking idiots e con merito da un team mentre camperavamo fuori da alice farm in attesa del banish :asd: mamma mia che figura di merda :asd: alle 3 di notte avevo un po' l'occhio pigro :Prrr:
Ahhahah, io ho fatto tardi sabato notte ma non mi è andata bene in quick, ieri sera però mitica, avevo come pistola la Caldwell Conversion Chain Pistol che con l'abilità Fanning (https://huntshowdown.gamepedia.com/Fanning) era diventata automatica :Prrr:
Ho ammazzati due così, te lo devo di? :asd:
Best close range weapon con sta trait :sofico:
Speriamo non mi muoia al prossimo round :D
TigerTank
21-01-2019, 09:29
Ma penso proprio di sì...io con la 1080ti grossi sacrifici grafici non ne devo fare....almeno fino a Metro Exodus.
La 1080Ti alla fine finora si è rivelata l'acquisto migliore. Chi l'ha presa poi in quel periodo in cui i prezzi sono stati molto buoni prima dei decolli, ha fatto doppiamente bene :)
����������
Credo proprio che nel corso del 2019 ci farò un pensierino anch'io.
Un 4K da 60Hz non mi interessa...e quelli da gaming raggiungeranno condizioni economiche e di gestione ideali forse alla prossima gen. di vga...
Avendo già aggiornato config. e vga, nel 2019 punto eventualmente a SSD e monitor :D
Già quello di Arrow ad esempio sta su amazon a 899€. O magari ci sarà qualche freesync interessante e più economico con piena compatibilità al gsync.
Teamprotein
21-01-2019, 10:04
Ieri ho installato gpu z e così ho scoperto che la mia zotac monta mem Samsung il che è una bene.... Me lo confermate?
Sto leggendo per il fatto del 4k sinceramente ho provato sulla mia Samsung da 50 pollici per carità si vede da dio in 4k ma sinceramente abituato a giocare framerate superiore a 60 mi sembra tutto lento :D.
Indubbiamente ac odissey e bfv in 4k nativo é uno spettacolo.
Passerò al 4k definitivo quando usciranno monitor 4k almeno con 100/120hz e gsync a prezzi umani.
Giovamas
21-01-2019, 10:11
tanto la mia Strix 2080 dovrebbe reggerlo bene......adesso decido se mettere in vendita il PG278QR
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
Lo regge tranquillo. Non è un 4K ;) ci sto facendo una mezza idea anche io. Anzi più di mezza :) mi piace molto l'asus xg35vq lo sto tenendo d'occhio. freesync ma va bene lo stesso per me. vedremo
paolox86
21-01-2019, 10:30
Io con la 2080 ho fatto la pazzia di prendere un monitor 4K, vediamo un po’ come si comporta di media. Altrimenti farò il reso con Amazon e prenderò una TI, anche se volevo resistere fino alla prossima generazione
@FroZen, non posso non postarla, e' stata troppo bella (e giocando contro quelli di prestigio) :Prrr: :p
:sofico: :sofico: :sofico:
https://i.postimg.cc/GtCjDRwz/IMG-20190120-233927.jpg (https://i.postimg.cc/8Gnqw9yQ/IMG-20190120-233927.jpg)
ti aspetto qui comunque ;)
https://www.hwupgrade.it/forum/showthread.php?t=2827592
maxmix65
21-01-2019, 13:03
a chi interessa tra due giorni in live RTX 2080 Ti LIGHTNING
https://www.youtube.com/watch?v=_iJQBvu-0t8
A chi interessa la 2080Ti Matrix
https://www.youtube.com/watch?v=iwNBPD9Wf_c
Giovamas
21-01-2019, 13:07
La 1080Ti alla fine finora si è rivelata l'acquisto migliore. Chi l'ha presa poi in quel periodo in cui i prezzi sono stati molto buoni prima dei decolli, ha fatto doppiamente bene :)
si. se avevo la 1080ti rimanevo con quella. per la top aspetto la prossima generazione (2020) sperando che amd e magari intel facciano un po' di sana concorrenza. questo almeno i miei buoni propositi. tu pensa che sto rifacendo una run a Mass Effect cambiando un po' di cose dalla mia run standard (romance con Tali, salvataggio del Russo anzichè Ash, base collettori distrutta).. ci fosse un gioco che mi piaccia anche nel futuro imminente.. solo uno!. è questo il mio vero problema!
Edit PS grazie per la dritta gentile come sempre :)
maxmix65
21-01-2019, 13:10
review RTX 2080 Ti Lightning Z
https://www.bit-tech.net/reviews/tech/graphics/msi-geforce-rtx-2080-ti-lightning-z-review/1/
TigerTank
21-01-2019, 13:28
si. se avevo la 1080ti rimanevo con quella. per la top aspetto la prossima generazione (2020) sperando che amd e magari intel facciano un po' di sana concorrenza. questo almeno i miei buoni propositi. tu pensa che sto rifacendo una run a Mass Effect cambiando un po' di cose dalla mia run standard (romance con Tali, salvataggio del Russo anzichè Ash, base collettori distrutta).. ci fosse un gioco che mi piaccia anche nel futuro imminente.. solo uno!. è questo il mio vero problema!
Edit PS grazie per la dritta gentile come sempre :)
Di nulla! :)
Io sto rigiocando a Stalker SOC con la mod Autumn Aurora 2.1 + reshade...e la 2080 a 144fps non sta per nulla al risparmio :D
Thunder-74
21-01-2019, 14:29
Comunque la butto lì per chi non avesse G-Sync o FreeSync... ovvero barbone come il sottoscritto :fagiano: .. dopo averlo accantonato al suo debutto, ho riprovato ultimamente il Fast Sync e devo dire che va molto bene anche in Sli. Ho notato che prima, per non avere stuttering, bisognava "avere" almeno il doppio dei frames rispetto alla freq. nativa del monitor, (es. 60hz -- almeno 120 frames), ora no... non sarà il top, ma sempre meglio del V-sync..
Comunque la butto lì per chi non avesse G-Sync o FreeSync... ovvero barbone come il sottoscritto :fagiano: .. dopo averlo accantonato al suo debutto, ho riprovato ultimamente il Fast Sync e devo dire che va molto bene anche in Sli. Ho notato che prima, per non avere stuttering, bisognava "avere" almeno il doppio dei frames rispetto alla freq. nativa del monitor, (es. 60hz -- almeno 120 frames), ora no... non sarà il top, ma sempre meglio del V-sync..
E' un'ottima opzione se non si ha un g-sync o freesync, permette anche su un 60 Hz di non avere tearing se il gioco ti gira anche 80-90 fps.
fraussantin
21-01-2019, 14:35
E' un'ottima opzione se non si ha un g-sync o freesync, permette anche su un 60 Hz di non avere tearing se il gioco ti gira anche 80-90 fps.In teoria ci sarebbe anche il sync di rivatuner loro dicono funziona , io non ci sono mai riuscito a farlo andare bene. ( Dura pochi minuti e poi salta. )
review RTX 2080 Ti Lightning Z
https://www.bit-tech.net/reviews/tech/graphics/msi-geforce-rtx-2080-ti-lightning-z-review/1/
508...... e non dico altro :asd:
è stata sempre molto bella la serie lightning.
In teoria ci sarebbe anche il sync di rivatuner loro dicono funziona , io non ci sono mai riuscito a farlo andare bene. ( Dura pochi minuti e poi salta. )
Quello non ho mai provato, però ho provato su un monitor 60 Hz, sia il sync veloce di Nvidia che quello di AMD, e funzionano molto bene, niente tearing anche oltre i 90 fps, poi mi pare che torni a vedersi se si superano circa i 100 frame.
Thunder-74
21-01-2019, 14:52
508...... e non dico altro :asd:
è stata sempre molto bella la serie lightning.
Ad aria è totalmente inutile viste le temp che raggiunge (come una FE), a liquido un po' meno, giusto con LN2 trova senso a mio avviso
Ad aria è totalmente inutile viste le temp che raggiunge (come una FE), a liquido un po' meno, giusto con LN2 trova senso a mio avviso
inutili gia da diverse serie ma il fascino rimane sempre
Thunder-74
21-01-2019, 15:30
inutili gia da diverse serie ma il fascino rimane sempre
concordo :mano:
X-ray guru
21-01-2019, 15:53
Il nuovo BIOS per le 2080ti FE supporta solo le memorie Samsung o anche le Micron?
Si trova sulla rete?
Grazie!
fabietto27
21-01-2019, 16:01
Ragazzi una cortesia....a,qualcuno è capitato che con l'ultima beta di AB le voci sono correttamente speziate in verticale mentre in orizzontale i caratteri sono tutti attaccati senza spazio tipo carico gpu temp gpu e voltaggio tutti insieme senza spazio.
Grazie.
Inviato dal mio SM-G930F utilizzando Tapatalk
paolox86
21-01-2019, 16:03
Se hai l'adaptive sync (freesync2 incluso, appena provato e funziona!) si gioca piuttosto bene a dire il vero.
Se non l'hai, è una merda: lascia stare... vai di TI (che cmq sopra i 60 ci sta) o upgrada a monitor adattivo, ne vale la pena.
Ne ho preso uno con il FreeSync infatti, LG 27UK650. Spero che sia 100 % compatibile con Nvidia
Arrow0309
21-01-2019, 16:13
La 1080Ti alla fine finora si è rivelata l'acquisto migliore. Chi l'ha presa poi in quel periodo in cui i prezzi sono stati molto buoni prima dei decolli, ha fatto doppiamente bene :)
Credo proprio che nel corso del 2019 ci farò un pensierino anch'io.
Un 4K da 60Hz non mi interessa...e quelli da gaming raggiungeranno condizioni economiche e di gestione ideali forse alla prossima gen. di vga...
Avendo già aggiornato config. e vga, nel 2019 punto eventualmente a SSD e monitor :D
Già quello di Arrow ad esempio sta su amazon a 899€. O magari ci sarà qualche freesync interessante e più economico con piena compatibilità al gsync.
Vai di gsync Tiger, un gsync è sempre più veloce come input lag rispetto ad un qualsiasi Freesync.
Direi che non trovi niente meglio del X34P(non ancora), amazon poi. ;)
Il nuovo BIOS per le 2080ti FE supporta solo le memorie Samsung o anche le Micron?
Si trova sulla rete?
Grazie!
Ma per fare cosa? Sempre 320 w max.
Cmq c'è su Techpowerup da un pezzo.
Io mi sono trovato bene anche con quello della XC Ultra, Evga da 338W. Ma in BF5.
Nei titoli pesanti o Timespy tagli per pl a go-go.
Quindi sono tornato al bios Galax da 380w che terrò come bios invernale / riscalda stanza :D
L'Evga 338W rimane estivo :p
Dopo quasi 3 mesi anche io faccio parte dei possessori della serie 2080TI, arrivata fresca fresca.
https://i.postimg.cc/301j1ghv/PHOTO-2019-01-21-17-16-38.jpg (https://postimg.cc/301j1ghv)
Ora devo trovare il tempo di sostituire la scheda e le ventole dei radiatori e il suo svuotamento.
TigerTank
21-01-2019, 16:38
Comunque la butto lì per chi non avesse G-Sync o FreeSync... ovvero barbone come il sottoscritto :fagiano: .. dopo averlo accantonato al suo debutto, ho riprovato ultimamente il Fast Sync e devo dire che va molto bene anche in Sli. Ho notato che prima, per non avere stuttering, bisognava "avere" almeno il doppio dei frames rispetto alla freq. nativa del monitor, (es. 60hz -- almeno 120 frames), ora no... non sarà il top, ma sempre meglio del V-sync..
Ciao Thunder, questo (https://youtu.be/fC74lXdJrFM?t=415) è per te. Guarda cosa appare! :D
Vai di gsync Tiger, un gsync è sempre più veloce come input lag rispetto ad un qualsiasi Freesync.
Direi che non trovi niente meglio del X34P(non ancora), amazon poi. ;)
Sicuro che dovevi quotare me? :D
Io il gsync ce l'ho da 3 anni...il pensierino era sul 21:9, come il tuo.
Vedrò nel corso dell'anno. :fagiano:
Dopo quasi 3 mesi anche io faccio parte dei possessori della serie 2080TI, arrivata fresca fresca.
https://i.postimg.cc/301j1ghv/PHOTO-2019-01-21-17-16-38.jpg (https://postimg.cc/301j1ghv)
Ora devo trovare il tempo di sostituire la scheda e le ventole dei radiatori e il suo svuotamento.
Bella storia anche l'hydrocopper.
In bocca al lupo...e che monti Samsung :)
alexxx19
21-01-2019, 16:38
io ho trovato da amazon warehouse una 2080ti gaming oc a 980 eur...
vediamo quanto ci mette ad esplodere quando arriva :asd: :asd:
X-ray guru
21-01-2019, 16:44
io ho trovato da amazon warehouse una 2080ti gaming oc a 980 eur...
vediamo quanto ci mette ad esplodere quando arriva :asd: :asd:
Se senti che il coil wine fa tic-tac, sai perché. :D
appleroof
21-01-2019, 16:45
cut
Credo proprio che nel corso del 2019 ci farò un pensierino anch'io.
Un 4K da 60Hz non mi interessa...e quelli da gaming raggiungeranno condizioni economiche e di gestione ideali forse alla prossima gen. di vga...
Avendo già aggiornato config. e vga, nel 2019 punto eventualmente a SSD e monitor :D
Già quello di Arrow ad esempio sta su amazon a 899€. O magari ci sarà qualche freesync interessante e più economico con piena compatibilità al gsync.
Ti dico Tiger, un altro mondo i 21:9, sono un tre anni che ci godo (e che mi ci godo pure il gsync) e non credo torno più ai 16:9
poi la risoluzione è anche più gestibile dei 4k (vabbè, a meno che vuoi i 100fps fissi che nel mio caso sono il massimo rispetto agli Hz del monitor)
sul supporto al wide non ho provato mai un gioco che non lo abbia, al limite in qualcuno passi a 16:9 nelle cutscene, nulla di tragico (e spesso fixabile, come in TW3 al tempo)
TigerTank
21-01-2019, 16:47
io ho trovato da amazon warehouse una 2080ti gaming oc a 980 eur...
vediamo quanto ci mette ad esplodere quando arriva :asd: :asd:
Magari va benone ed è semplicemente di uno che l'ha madata indietro perchè gli son venute le paranoie da failure :sofico:
Ti dico Tiger, un altro mondo i 21:9, sono un tre anni che ci godo (e che mi ci godo pure il gsync) e non credo torno più ai 16:9
poi la risoluzione è anche più gestibile dei 4k (vabbè, a meno che vuoi i 100fps fissi che nel mio caso sono il massimo rispetto agli Hz del monitor)
sul supporto al wide non ho provato mai un gioco che non lo abbia, al limite in qualcuno passi a 16:9 nelle cutscene, nulla di tragico (e spesso fixabile, come in TW3 al tempo)
Ci credo apple, grazie del parere! :D
Chissà che bello è pure con ETS2 in quanto a visuale della cabina di guida. Ho acquistato da poco l'ultimo DLC sui paesi baltici.
appleroof
21-01-2019, 16:52
Magari va benone ed è semplicemente di uno che l'ha madata indietro perchè gli son venute le paranoie da failure :sofico:
Ci credo apple, grazie del parere! :D
Chissà che bello è pure con ETS2 in quanto a visuale della cabina di guida. Ho acquistato da poco l'ultimo DLC sui paesi baltici.
spettacolare :D
io negli ultimi mesi mi sono dedicato più ad ATS, ho preferito i musoni americani :cool:
devi comunque metterlo alla giusta distanza per apprezzare il maggiore campo visivo :)
Arrow0309
21-01-2019, 17:03
...
Sicuro che dovevi quotare me? :D
Io il gsync ce l'ho da 3 anni...il pensierino era sul 21:9, come il tuo.
Vedrò nel corso dell'anno. :fagiano:
...
Certo che quotavo a te.
E so che hai il gsync in firma da un po'.
Ma appunto dicevo e visto che i uw sono un po' più bassi di refresh meglio sempre il gsync.
Guardati su TFT Central la rece dell'ultimo LG 34" nano IPS (144hz) Freesync che ha lo stesso panello del fratello gsync a soli 120hz.
Guarda in basso il lag di entrambi:
http://www.tftcentral.co.uk/reviews/lg_34gk950g.htm
Thunder-74
21-01-2019, 17:35
Ciao Thunder, questo (https://youtu.be/fC74lXdJrFM?t=415) è per te. Guarda cosa appare! :D
cut...
fantastica!!! :D
paolox86
21-01-2019, 18:06
E' uguale al mio :)
Non so se sia 100% compatibile, ma una volta attivato il freesync2 nelle opzioni del monitor ha cominciato a funzionare bene con la mia 2080 (è una MSI).
Perfetto allora, anche io stessa accoppiata. Poi vabbè, non avendo mai visto all’opera un monitor GSync sarà senza dubbio una piacevole novità
Teamprotein
21-01-2019, 19:55
mi sono regalato battlefield V che dire da sbavo un grafica da paura lo sto giocando in 1440 tutto su ultra con framerate ampiamente sopra 90 fps. :eek:
nicola1283
21-01-2019, 20:04
mi sono regalato battlefield V che dire da sbavo un grafica da paura lo sto giocando in 1440 tutto su ultra con framerate ampiamente sopra 90 fps. :eek:
ciao dovresti farne molti di + con una 2080 ti
TigerTank
21-01-2019, 20:23
Certo che quotavo a te.
E so che hai il gsync in firma da un po'.
Ma appunto dicevo e visto che i uw sono un po' più bassi di refresh meglio sempre il gsync.
Guardati su TFT Central la rece dell'ultimo LG 34" nano IPS (144hz) Freesync che ha lo stesso panello del fratello gsync a soli 120hz.
Guarda in basso il lag di entrambi:
http://www.tftcentral.co.uk/reviews/lg_34gk950g.htm
Grazie! :)
Degli LG sto sentendo parlare bene, su amazon c'era pure il 32GK850G gsync a 700€ che imho non è male considerato che è un 32".
Ottimi valori, pure 0% overshoot.
fantastica!!! :D
:D
Comunque, con le ultime versioni delle utility Gainward/Palit, la gestione led funziona! :D
http://i.imgur.com/fvkkuA4l.jpg (https://imgur.com/fvkkuA4)
Unica cosa è che non voglio che stia in background quando c'è già Afterburner, per cui devo aprirla e chiuderla per attivare il cambio di colore...ma fortunatamente resta tale anche chiudendola.
Non sono fanatico di led ma è una piccola soddisfazione aggiunta...e prediligo ancora il mono-colore alle luci "arlecchine".
Eschelon
21-01-2019, 20:29
Grazie! :)
Comunque, con le ultime versioni delle utility Gainward/Palit, la gestione led funziona! :D
http://i.imgur.com/fvkkuA4l.jpg (https://imgur.com/fvkkuA4)
Unica cosa è che non voglio che stia in background quando c'è già Afterburner, per cui devo aprirla e chiuderla per attivare il cambio di colore...ma fortunatamente resta tale anche chiudendola.
Non sono fanatico di led ma è una piccola soddisfazione aggiunta...e prediligo ancora il mono-colore alle luci "arlecchine".
Ah però.
Ma che utility hai usato tiger? :fagiano:
paolox86
21-01-2019, 20:30
ciao dovresti farne molti di + con una 2080 ti
Forse con RTX su ultra è in linea, visto l’impatto sulle prestazioni
TigerTank
21-01-2019, 20:34
Ah però.
Ma che utility hai usato tiger? :stordita:
Ultima versione di ExperTool (LINK (http://www.gainward.com/support/vga/Setup32_EXPERTool_NV_10_22.zip)), ma volendo pure il Thundermaster di Palit dovrebbe funzionare.
Mi sa che sono identici, cambia solo la grafica :D
Grazie [K]iT[o].
P.S. Già che ci sono segnalo la nuova versione del Reshade 4.1.0 (https://reshade.me/).
Arrow0309
21-01-2019, 20:39
Grazie! :)
Degli LG sto sentendo parlare bene, su amazon c'era pure il 32GK850G gsync a 700€ che imho non è male considerato che è un 32".
Ottimi valori, pure 0% overshoot.
A differenza dei IPS like AHVA di AU Optronics che montano tutti i 27" gsync 144/165 hz "ips" sui uw 21:9, tutti anche i Dell da 60hz ci stanno sempre i LG AH-IPS.
Ovv i ultimi due Acer Predator X34P e Alienware AW3418DW montano l'ultima versione del panello LG a 100hz nativo e 120 in oc (rispetto ai 60 nativi di prima).
Poi c'e' questo nuovo panello nano ips presente sui due LG 34GK950G e rispettivamente LG 34GK950F, stesso panello 144hz nativo ma ridotto per via del modulo gsync a 100hz /120hz (oc) sul 34GK950G, proprio come sul mio X34P.
Neanche le differenze di colori / glow e poco blb non mi sembrano abbastanza da giustificare la spesa extra.
Fai te, io contino ad apprezzare pienamente il mio dopo aver anche provato a fondo X34A, Z35P e PG348Q.
OT out ;)
Teamprotein
21-01-2019, 20:46
Forse con RTX su ultra è in linea, visto l’impatto sulle prestazioni
si su ultra anche rtx
Eschelon
21-01-2019, 20:46
Ultima versione di ExperTool (LINK (http://www.gainward.com/support/vga/Setup32_EXPERTool_NV_10_22.zip))...
E io ho installato questa, ma da dove si setta?
amon.akira
21-01-2019, 20:49
piccolo ot
provai il 32GK850G ma la sua copertura opaca (matte) mi ha fatto desistere, perdevo troppo sui neri... per me solo glossy o semiglossy. per il resto era ottimo.
alexxx19
21-01-2019, 21:26
Magari va benone ed è semplicemente di uno che l'ha madata indietro perchè gli son venute le paranoie da failure :sofico:
Eh infatti lo spero pure io :D
TigerTank
21-01-2019, 21:52
E io ho installato questa, ma da dove si setta?
Guarda in mezzo, c'è il tastino "LED" tra temperatura gpu e percentuale ventola :D
Eschelon
21-01-2019, 21:55
Guarda in mezzo, c'è il tastino "LED" tra temperatura gpu e percentuale ventola :D
Ah vero, figo, non l'avrei mai visto :D
Thanks
fabietto27
21-01-2019, 22:42
Azz....e pensare che ho quasi 300 ore a Fallaut 4 in ultrawide eheh
Inviato dal mio SM-G930F utilizzando Tapatalk
Ragazzi qualcuno con la 2080ti mi posterebbe la sua curva di downvolt o il cap frequenza/voltaggio della sua VGA?
Ho iniziato a giochicchiare con la mia gaming x trio che però è già cloccata alla morte di suo quindi cappa i 300W senza problemi e in Daily non voglio spingermi oltre ad aria altrimenti diventa un po' troppo fastidiosa.
Al momento ho cappato a 2015mhz/0.956 e passa timespy. Sembra che abbia guagnato circa 65mhz di media rimanendo nei 300W di TDP e una manciata di punti al timespy (400 circa). Il tutto senza inficiare al momento le temp.
Praticamente mi oscilla tra 1945 e 1990 durante il timespy contro i 1870/1920 di prima.
Chiaramente sarà da provare poi sul campo giocando.
Qualsiasi consiglio è bene accetto se sto facendo cappellate dato che non ho mai avuto Pascal e non ho mai usato questo metodo di OC/UV.
https://uploads.tapatalk-cdn.com/20190121/2e6365481d64ab32888a610424aac2b6.jpg
Inviato dal mio SM-G960F utilizzando Tapatalk
Cmq non date per "irrinunciabile" il 34" ultrawide a 100+ hz: anche io pensavo di non poter vivere senza quando presi il CF791... :D ma più vado avanti e più mi convinco che i 32" non siano affatto un compromesso!
L'effetto immersione è del tutto simile (il monitor è più grande del tuo campo visivo, quindi ti senti dentro la scena) ma al tempo stesso ci sono anche meno pixel che sono *fuori* dalla tua focus zone... e quindi non ti ritrovi a muovere la testa per vedere gli oggetti negli angoli. Insomma, hai una awareness sensibilmente migliore.
Inoltre ci sono una serie di vantaggini di compatibilità (niente di così sostanziale da spostare la scelta, però è bello averli) nei giochi alla Fallout4 che non supportano nativamente l'ultrawide. A 60hz sei talmente standard che neanche serve il driver a windows... upscalare o downscalare da/per il fullhd si fa facile con risultati tuttosommato accettabili quando serve... quando accendi il pc le scritte del bios le vedi invece di dover premere CANC alla cieca in attesa che il monitor venga inzializzato... tutte cazzatine, per carità, però son comode a volte.
Insomma, gli ultrawide son monitor bellissimi - ma dategliela una chance ai 32", potrebbero sorprendervi! :)
Il 32" è un taglio ideale per uso scrivania, lo uso da più di due anni, grande immersività, peccato che ora ho la scimmia per fare un altro salto in dimensioni e puntare ad un 43" lmao
amon.akira
22-01-2019, 12:49
Boh, a me pare un buon risultato... poi vabbè la mia è morta :| ma anche col bios da 380W sopra i 2050 non salivo (nei bench dopo un po' le temp mi facevano scendere dato che era una povera FE ad aria).
2015 a 0,956 con 300W mi pare ottimo insomma!
strabiliante se è cut-free
strabiliante se è cut-freeEh purtroppo no, si stabilizza a massimo 1980mhz (credo sia un drop dovuto alle temperature). E quando cappa il PL droppa a 1965 fino a 1930 a seconda dell'engine. In timespy avevo i risultati postati ieri, in superposition 1080p Extreme invece è stabilissima attorno ai 1965/1980mhz.
Per ora gioco con queste impostazioni così da vedere se è stabile anche fuori da qualche loop di bench.
Inviato dal mio SM-G960F utilizzando Tapatalk
mattxx88
22-01-2019, 14:02
Cmq non date per "irrinunciabile" il 34" ultrawide a 100+ hz: anche io pensavo di non poter vivere senza quando presi il CF791... :D ma più vado avanti e più mi convinco che i 32" non siano affatto un compromesso!
L'effetto immersione è del tutto simile (il monitor è più grande del tuo campo visivo, quindi ti senti dentro la scena) ma al tempo stesso ci sono anche meno pixel che sono *fuori* dalla tua focus zone... e quindi non ti ritrovi a muovere la testa per vedere gli oggetti negli angoli. Insomma, hai una awareness sensibilmente migliore.
Inoltre ci sono una serie di vantaggini di compatibilità (niente di così sostanziale da spostare la scelta, però è bello averli) nei giochi alla Fallout4 che non supportano nativamente l'ultrawide. A 60hz sei talmente standard che neanche serve il driver a windows... upscalare o downscalare da/per il fullhd si fa facile con risultati tuttosommato accettabili quando serve... quando accendi il pc le scritte del bios le vedi invece di dover premere CANC alla cieca in attesa che il monitor venga inzializzato... tutte cazzatine, per carità, però son comode a volte.
Insomma, gli ultrawide son monitor bellissimi - ma dategliela una chance ai 32", potrebbero sorprendervi! :)
concordo su tutta la linea, sono passato da 21:9 all'LG 32GK850G e non mi manca per nulla :D
Teamprotein
22-01-2019, 14:15
Ragazzi non capisco cosa servano i vari bios da 300/380w da poter flashare?
E
TigerTank
22-01-2019, 14:22
Ragazzi non capisco cosa servano i vari bios da 300/380w da poter flashare?
E
A far tagliare/cappare meno le schede di PL, soprattutto se a liquido.
A far tagliare/cappare meno le schede di PL, soprattutto se a liquido.
Io direi anche a bruciare le VGA.
Praticamente tutti quelli che hanno flashato bios di schede diverse le hanno poi rotte.
Non capisco perchè ci si ostina a consigliarlo........
VR Filippo72
22-01-2019, 14:52
Anche io ci andrei molto cauto con questa smania di sostituire i bios originali. Rischiate di bruciare una scheda da 1200-1500 euro, per avere 1 fps in più ?
Io sto bello tranquillo con la mia 2080ti (bios originale) da più di 3 mesi, di potenza ne ha fin troppa
TigerTank
22-01-2019, 15:16
Circa la mia il produttore stesso ha alzato il PL da tipo 111-112% a 128%, che corrisponderebbero a circa 288W.
Sto vedendo che è ben equilibrato, tanto la scheda scala comunque di uno o due step in base temperatura.
Le Ti invece sono sicuramente più esose.
Comunque stamattina qualcuno mi ha fatto notare che rispetto alla scorsa settimana la mia scheda su amazon è salita di colpo di 100€... :stordita:
Per una volta ho visto giusto a cogliere l'attimo :asd: :sperem:
Circa la mia il produttore stesso ha alzato il PL da tipo 111-112% a 128%, che corrispondono a circa 275W.
Sto vedendo che è ben equilibrato, tanto la scheda scala comunque di uno o due step in base temperatura.
Le Ti invece sono sicuramente più esose.
Ecco infatti, sostituire il bios originale con una nuova revisione del bios originale (testato dal produttore della scheda) è la cosa corretta da fare, ma in questo forum c'è gente che ha flashato il famoso bios Galax (famoso per distruggere le schede :D ) su delle founder edition e poi si è sorpreso che la scheda si è sfondata...
Chi è causa del suo mal pianga se stesso....
Io intanto sto a 2010 stabili come la roccia con la mia trio 2080ti con bios originale.
Arrow0309
22-01-2019, 15:50
La verità sta (sempre) nel mezzo e ognuno deve fare i conti col suo setup (aria o liquido) e con quello che vuole fare (overclock, oc e overvolt, oc spinto e shunt mode o downvolt e/o green power addirittura).
Vi ricordo che il bios da 380w viene da una semplice Galax dual fan / dual slot.
E che (a mio avviso) nessuno l'ha bruciata a temp Ok (quindi liquido).
Sconsiglio inoltre l'uso del Bios senza un buon ali da 1000w gold e che non ha protezioni per assorbimento di corrente sulle 12v (oltre un certo amperaggio).
TigerTank
22-01-2019, 15:56
Ecco infatti, sostituire il bios originale con una nuova revisione del bios originale (testato dal produttore della scheda) è la cosa corretta da fare, ma in questo forum c'è gente che ha flashato il famoso bios Galax (famoso per distruggere le schede :D ) su delle founder edition e poi si è sorpreso che la scheda si è sfondata...
Chi è causa del suo mal pianga se stesso....
Io intanto sto a 2010 stabili come la roccia con la mia trio 2080ti con bios originale.
Diciamo che non sarebbe consigliabile farlo con la scheda ad aria :)
La tua comunque è già bella pompatina di suo.
La FE è 260/320W, le Trio viaggiano a 300W di base, con PL max a 330W per la Trio liscia e addirittura 406W per la X.
I bios con pl elevato e le power mod ci sono ormai da diverse generazioni. Dire che i problemi siano legati a quello è per lo meno un discorso superficiale.
Le sezioni di alimentazione di queste schede sono iper-sovradimensionate ( 13-16 fasi da 60-70A). Semmai un discorso intelligente è quello legato al tipo di dissipazione ( ad aria un bios con pl elevato lascia il tempo che trova) ed all' efficienza che si perde totalmente superando 1v.
TigerTank
22-01-2019, 16:02
I bios con pl elevato e le power mod ci sono ormai da diverse generazioni. Dire che i problemi son legati a quello è per lo meno un discorso superficiale.
Le sezioni di alimentazione di queste schede sono iper-sovradimensionate ( 13-16 fasi da 60-70A). Semmai un discorso intelligente è quello legato al tipo di dissipazione ( ad aria un bios con pl elevato lascia il tempo che trova) ed all' efficienza che si perde totalmente superando 1v.
Più che altro in passato erano gli overvolt sconsiderati ad ammazzare le schede :D
Soprattutto con la complicità di simpatici strumenti tipo Furmark.
Credo sia per questo che Nvidia ha cominciato a blindare le schede.
X-ray guru
22-01-2019, 16:22
Se non si fanno modifiche all'hardware, le schede video delle ultime generazioni svampano perché lo dovevano fare per i fatti loro o perché si sono fatte cavolate nel cambio dissipatori: liquido, condensa o/o azoto liquido che finiscono sui componenti; anche contatti termici fatti male in componenti senza sensori e meccanismi di difesa.
Oppure tensioni e correnti ai vari chip che alla lunga li fanno collassare per elettromigrazione. Questo però non è più possibile nelle ultime generazioni, senza modifiche hardware
Thunder-74
22-01-2019, 16:26
Diciamo che non sarebbe consigliabile farlo con la scheda ad aria :)
La tua comunque è già bella pompatina di suo.
La FE è 260/320W, le Trio viaggiano a 300W di base, con PL max a 330W per la Trio liscia e addirittura 406W per la X.
Tiger quello da 406w non è un bios ufficiale. Mi chiedo come abbiano fatto a modificarlo...
Inviato dal mio iPhone X utilizzando Tapatalk
Thunder-74
22-01-2019, 16:28
I bios con pl elevato e le power mod ci sono ormai da diverse generazioni. Dire che i problemi son legati a quello è per lo meno un discorso superficiale.
Le sezioni di alimentazione di queste schede sono iper-sovradimensionate ( 13-16 fasi da 60-70A). Semmai un discorso intelligente è quello legato al tipo di dissipazione ( ad aria un bios con pl elevato lascia il tempo che trova) ed all' efficienza che si perde totalmente superando 1v.
In verità il bios da 380w della Galax è presente sul modello dual fan con pcb reference...
Inviato dal mio iPhone X utilizzando Tapatalk
TigerTank
22-01-2019, 16:39
Tiger quello da 406w non è un bios ufficiale. Mi chiedo come abbiano fatto a modificarlo...
Ah ecco, ok i 3 connettori di alimentazione ma mi sembrava fin troppo :D
Comunque QUI (https://www.overclock.net/forum/69-nvidia/1706276-official-nvidia-rtx-2080-ti-owner-s-club.html) c'è la wikipedia delle Turing :sofico:
X-ray guru
22-01-2019, 16:56
Tiger quello da 406w non è un bios ufficiale. Mi chiedo come abbiano fatto a modificarlo...
Inviato dal mio iPhone X utilizzando Tapatalk
Dalla "bibbia" linkata da Tiger, il BIOS da 406 W è di una MSI con PCB personalizzato con 3 connettori del +12 V (8+8+6 pin)
In verità il bios da 380w della Galax è presente sul modello dual fan con pcb reference...
Inviato dal mio iPhone X utilizzando Tapatalk
Porta un aumento prestazionale ad aria? No, perché la scheda downclocka per via della temperatura.
Comunque non era quello il punto del mio discorso.
Thunder-74
22-01-2019, 17:49
Ah ecco, ok i 3 connettori di alimentazione ma mi sembrava fin troppo :D
Comunque QUI (https://www.overclock.net/forum/69-nvidia/1706276-official-nvidia-rtx-2080-ti-owner-s-club.html) c'è la wikipedia delle Turing :sofico:
Dalla "bibbia" linkata da Tiger, il BIOS da 406 W è di una MSI con PCB personalizzato con 3 connettori del +12 V (8+8+6 pin)
Ragazzi mi volete "uccellare?" se ci cliccate vi manda al download del bios da 406w :D :D
https://i.imgur.com/e3sgPi1.png
Porta un aumento prestazionale ad aria? No, perché la scheda downclocka per via della temperatura.
Comunque non era quello il punto del mio discorso.
Mi riferivo al fatto che dicevi che poteva essere un bios per PCB con sezione di alimentazione sovradimensionato. Comunque anche per una VGA ad aria , un bios del genere aiuta a non avere minor tagli di PL. ;)
Mi riferivo al fatto che dicevi che poteva essere un bios per PCB con sezione di alimentazione sovradimensionato. Comunque anche per una VGA ad aria , un bios del genere aiuta a non avere minor tagli di PL. ;)
Il pcb reference, quello da 13 fasi per il vcore e 3 per le memorie, è già sovradimensionato. A quello mi riferivo.
Il downclock che hai ad aria non lo risolvi con un pl più alto. Tenendo la temperatura controllata ( il primo downclock è sui 40 gradi) l' aumento di power limit permette alla scheda di boostare più in alto.
Thunder-74
22-01-2019, 18:01
Il pcb reference, quello da 13 fasi per il vcore e 3 per le memorie, è già sovradimensionato. A quello mi riferivo.
I bin che perdi ad aria non li risolvi con un pl più alto.
Perdonami, leggendo dal cell, avevo capito che ti riferissi al fatto che bios con pl più alto, fossero studiati ad hoc per modelli VRM Custom, invece facevi un discorso generale sul fatto che il progetto Turing già prevede una rivisitazione "muscolosa" di tale sezione. Ok :mano:
Discorso tagli per le temperature per via della dissi ad aria, d'accordo non li recuperi con un PL maggiore, ma almeno puoi far in modo che questi partano da una freq. più alta, se comunque un maggior PL ti permette di salire di freq., non trovi?
Perdonami, leggendo dal cell, avevo capito che ti riferissi al fatto che bios con pl più alto, fossero studiati ad hoc per modelli VRM Custom, invece facevi un discorso generale sul fatto che il progetto Turing già prevede una rivisitazione "muscolosa" di tale sezione. Ok :mano:
Sì, esatto è quello che intendevo.
Discorso tagli per le temperature per via della dissi ad aria, d'accordo non li recuperi con un PL maggiore, ma almeno puoi far in modo che questi partano da una freq. più alta, se comunque un maggior PL ti permette di salire di freq., non trovi?
Ho riscritto la seconda parte per evitare fraintendimenti. Partendo dall' assunto che il clock impostato rimane lo stesso indipendetemente dal PL e che questo decresce di circa 15mhz ogni 10 gradi a partire dai 40 perché un aumento del power limit dovrebbe influenzare positivamente la frequenza di boost?
Thunder-74
22-01-2019, 18:14
Sì, esatto è quello che intendevo.
Ho riscritto la seconda parte per evitare fraintendimenti. Partendo dall' assunto che il clock impostato rimane lo stesso indipendetemente dal PL e che questo decresce di circa 15mhz ogni 10 gradi a partire dai 40 perché un aumento del power limit dovrebbe influenzare positivamente la frequenza di boost?
Non consideri i tagli dovuti ad un superamento dell'assorbimento massimo.
se imposti un oc e superi il PL massimo previsto, la freq. scende per rimanere all'interno del Wattaggio massimo previsto. Quindi al taglio dovuto per temperature, puoi incorrere anche ad un eventuale o più tagli dovuti al PL, dato che l'assorbimento della scheda non è fisso in base alla freq. impostata, ma varia al variare delle condizioni di calcolo richieste dal motore di gioco o benchmark
paolox86
22-01-2019, 19:17
Ragazzi oggi mi è veramente preso un colpo, ad un certo punto dopo un riavvio ricevo il temuto messaggio “no signal”. Prima cosa che ho pensato è stata: “eccoci, una space invaders edition!!” Anche se di artefatti o difetti non ne ho mai visti. Ovviamente non demordo alla prima difficoltà e faccio alcuni tentativi tra cui cambiare le porte hdmi e provare anche con il cavo display port ma niente... provo allora a riavviare usando la vga integrata nella cpu e tutto funziona.
Disperato e sempre più convinto di dovere procedere alla sostituzione provo anche a togliere la scheda dallo slot, avviare il sistema è in seguito a reinserirla per vedere se fosse un problema di riconoscimento da parte della mobo ma niente....
ultimissimo tentativo, provo un altro monitor con un altro cavo display port (quello attuale è un 4K che possiedo solo da 2 giorni) e il segnale torna!!
Allora è il cavo!! Provo quindi con quel cavo a ricollegare il monitor 4K e funziona tutto!
Quindi per concludere, sapendo che non tutti i cavi hdmi e display port sono uguali per specifiche e qualità, perché mi hanno funzionato entrambi per 2 giorni e poi no? Perché i cavi inseriti nella confezione di un monitor 4K hdr 10 bit non sono del tutto compatibili? Oppure devo comunque preoccuparmi per la vga?
Arrow0309
22-01-2019, 19:53
Finalmente ho il mio bel colore verde nvidia sui led rgb della 2080ti (EK Vector) indipendentemente dalla mobo (che gira insieme alle ventole frontali per cazzi suoi) :D :sofico: :D
https://i.postimg.cc/j5XCyGnK/IMG-20190122-193853.jpg (https://i.postimg.cc/PXzLG83c/IMG-20190122-193853.jpg)
Grazie ad un piccolo controller rgb XSPC con alimentazione sata e 2x output: :cool:
https://i.postimg.cc/ydBkgVdv/IMG-20190122-193804.jpg (https://i.postimg.cc/gzPwBKD8/IMG-20190122-193804.jpg)
Grazie ad un piccolo controller rgb XSPC con alimentazione sata e 2x output: :cool:
https://i.postimg.cc/ydBkgVdv/IMG-20190122-193804.jpg (https://i.postimg.cc/gzPwBKD8/IMG-20190122-193804.jpg)
bellissimo, mi puoi linkare il modello di quel controller?
questo? (https://www.amazon.it/XSPC-5060175588913-Xspc-controller-SATA/dp/B0735FWQ14/ref=sr_1_4?ie=UTF8&qid=1548187055&sr=8-4&keywords=xspc+rgb)
Arrow0309
22-01-2019, 19:59
bellissimo, mi puoi linkare il modello di quel controller?
questo? (https://www.amazon.it/XSPC-5060175588913-Xspc-controller-SATA/dp/B0735FWQ14/ref=sr_1_4?ie=UTF8&qid=1548187055&sr=8-4&keywords=xspc+rgb)
Si, l'ho preso da ebay.co.uk (https://www.ebay.co.uk/itm/XSPC-RGB-SATA-Controller-4pin-12V/202308583929?ssPageName=STRK%3AMEBIDX%3AIT&_trksid=p2057872.m2749.l2649) ;)
Avevo prima preso uno della Barrow ma non funzionava il telecomando (e non aveva i pulsanti) e nemmeno aveva l'attacco RGB 12v come la mobo ma uno strano, sempre 4pin ma tipo pwm delle ventole.
Rimandato subito indietro.
Si, l'ho preso da ebay.co.uk (https://www.ebay.co.uk/itm/XSPC-RGB-SATA-Controller-4pin-12V/202308583929?ssPageName=STRK%3AMEBIDX%3AIT&_trksid=p2057872.m2749.l2649) ;)
ne compro subito uno, mi potrebbe servire in futuro:)
questo lo preferisco perchè ha i tastini, lo imposto sul colore che voglio e sono apposto
Non consideri i tagli dovuti ad un superamento dell'assorbimento massimo.
se imposti un oc e superi il PL massimo previsto, la freq. scende per rimanere all'interno del Wattaggio massimo previsto. Quindi al taglio dovuto per temperature, puoi incorrere anche ad un eventuale o più tagli dovuti al PL, dato che l'assorbimento della scheda non è fisso in base alla freq. impostata, ma varia al variare delle condizioni di calcolo richieste dal motore di gioco o benchmark
Faccio un esempio pratico: imposto un boost fino a 1950mhz a voltaggio stock ( 1.04v circa). Inizio il mio bench a 30 gradi e durante il corso di quest' ultimo la temp si assesta a 75 gradi. In questo momento la frequenza di boost è ormai arriva a 1875mhz .
Aumentando il power limit ( con il bios da 380w) io ho alzato la temperatura di esercizio riducendo il boost che è dipendente dalla temperatura. Ho quindi detto alla scheda che può assorbire di più, il che sarebbe un bene a temperatura controllata ma non nel nostro caso.
Per questo dico che il power limit alto ad aria è controproducente.
Arrow0309
22-01-2019, 20:09
ne compro subito uno, mi potrebbe servire in futuro:)
questo lo preferisco perchè ha i tastini, lo imposto sul colore che voglio e sono apposto
Non ho nemmeno dovuto premere un solo tastino, e' venuta col colore verde nvidia out of the box, era per me proprio :D :asd: :p :Prrr:
Non ho nemmeno dovuto premere un solo tastino, e' venuta col colore verde nvidia out of the box, era per me proprio :D :asd: :p :Prrr:
che fortuna!:sofico:
i due canali sono associati vero? non credo siano indipendenti
Duncandg
22-01-2019, 21:12
https://imgur.com/a/TPL1kBJ
In attesa del bridge asus per lo SLI
https://imgur.com/a/TPL1kBJ
In attesa del bridge asus per lo SLI
2080 o 2080ti? mi sembrano un pò troppo vicine però non sarà un male per le temperature?
Duncandg
22-01-2019, 21:26
2080ti, compenso con un mare di ventole nel case.
2frontali
2sotto
1 da 200mm in estrazione sopra
1 dietro
Aggiornata anche la macchina, passato da
Intel i7 7700k a i7 9700k
da asus z270f a z390f
sempre 32gb di ram
2080ti, compenso con un mare di ventole nel case.
2frontali
2sotto
1 da 200mm in estrazione sopra
1 dietro
Aggiornata anche la macchina, passato da
Intel i7 7700k a i7 9700k
da asus z270f a z390f
sempre 32gb di ram
più che altro in una situazione del genere e all'atto pratico, fa molto più la differenza una ventola posta proprio davanti alle 2 vga che spinga aria nel mezzo alle 2 e/o una sul lato del case sempre a spingere aria sulle 2 vga...il ricircolo del case lì fa ben poco, specialmente alla scheda superiore
TigerTank
22-01-2019, 21:36
2080ti, compenso con un mare di ventole nel case.
2frontali
2sotto
1 da 200mm in estrazione sopra
1 dietro
Aggiornata anche la macchina, passato da
Intel i7 7700k a i7 9700k
da asus z270f a z390f
sempre 32gb di ram
Imho config. squilibrata...
Prima di tutto uno SLi con 2 schede da più di 2 slot...quella soprà soffrirà parecchio la mancata aspirazione.
2 2080Ti su 2 slot a 8X? Schede che probabilmente soffriranno già di qualche cap in partenza a "default" a seconda dei giochi. Meglio se aggiornavi ad una config. X con 2 slot 16X.
Guarda QUI (https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/).
Thunder-74
22-01-2019, 21:37
Faccio un esempio pratico: imposto un boost fino a 1950mhz a voltaggio stock ( 1.04v circa). Inizio il mio bench a 30 gradi e durante il corso di quest' ultimo la temp si assesta a 75 gradi. In questo momento la frequenza di boost è ormai arriva a 1875mhz .
Aumentando il power limit ( con il bios da 380w) io ho alzato la temperatura di esercizio riducendo il boost che è dipendente dalla temperatura. Ho quindi detto alla scheda che può assorbire di più, il che sarebbe un bene a temperatura controllata ma non nel nostro caso.
Per questo dico che il power limit alto ad aria è controproducente.
Ovviamente bisogna vedere caso per caso. Ci sono modelli di vga ad aria che dissipano meglio di altri, vedi la Strix che non arriva a 65 gradi, Profilo ventole impostato, areazione del case, temperatura ambiente, se il pc lo si tiene sotto ad un tavolo o in una situazione più aperta tipo sopra la scrivania, dove il pescaggio dell’aria fresca migliora. In condizioni ottimali, anche ad aria, io credo che si possa essere agevolati da un PL più alto, poi per carità, non voglio convincere nessuno. :)
Inviato dal mio iPhone X utilizzando Tapatalk
Arrow0309
22-01-2019, 22:00
più che altro in una situazione del genere e all'atto pratico, fa molto più la differenza una ventola posta proprio davanti alle 2 vga che spinga aria nel mezzo alle 2 e/o una sul lato del case sempre a spingere aria sulle 2 vga...il ricircolo del case lì fa ben poco, specialmente alla scheda superiore
Imho config. squilibrata...
Prima di tutto uno SLi con 2 schede da più di 2 slot...quella soprà soffrirà parecchio la mancata aspirazione.
2 2080Ti su 2 slot a 8X? Schede che probabilmente soffriranno già di qualche cap in partenza a "default" a seconda dei giochi. Meglio se aggiornavi ad una config. X con 2 slot 16X.
Guarda QUI (https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/).
Quoto, poi ci vuole il liquido da OVERKILL + un'ali come questo: :p
https://www.evga.com/products/product.aspx?pn=220-T2-1600-X1
Kostanz77
22-01-2019, 22:00
2080ti, compenso con un mare di ventole nel case.
2frontali
2sotto
1 da 200mm in estrazione sopra
1 dietro
Aggiornata anche la macchina, passato da
Intel i7 7700k a i7 9700k
da asus z270f a z390f
sempre 32gb di ram
cambia case
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
fabietto27
22-01-2019, 22:02
Imho config. squilibrata...
Prima di tutto uno SLi con 2 schede da più di 2 slot...quella soprà soffrirà parecchio la mancata aspirazione.
2 2080Ti su 2 slot a 8X? Schede che probabilmente soffriranno già di qualche cap in partenza a "default" a seconda dei giochi. Meglio se aggiornavi ad una config. X con 2 slot 16X.
Guarda QUI (https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/).C'è già stato uno splendido che ha fatto Sli con schede tri slot!Ah già! Ero io ahahah.
Purtroppo la superiore messa così viene ammazzata proprio.
Taglierà di brutto e quella sotto le andrà dietro.Io sulla r5e almeno avevo un dito di spazio.Qui neanche quello.
Sinceramente è un po' complicarsi la vita.Parlo sempre perché avendo toppato di brutto io ,mi spiace vedere ripetuto il mio errore oltretutto con un esborso molto maggiore.
Inviato dal mio SM-G930F utilizzando Tapatalk
Thunder-74
22-01-2019, 22:16
Fatto anch’io Sli con schede attaccate senza spazio tra loro... la prima soffriva troppo... avevo messo anche una Noctua industrial 3000, un aereo in decollo che migliorava un pochino, ma comunque non riuscivo più di tanto a farla respirare.. L’unica è liquidare.
Inviato dal mio iPhone X utilizzando Tapatalk
Duncandg
22-01-2019, 23:10
Imho config. squilibrata...
Prima di tutto uno SLi con 2 schede da più di 2 slot...quella soprà soffrirà parecchio la mancata aspirazione.
2 2080Ti su 2 slot a 8X? Schede che probabilmente soffriranno già di qualche cap in partenza a "default" a seconda dei giochi. Meglio se aggiornavi ad una config. X con 2 slot 16X.
Guarda QUI (https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/).
Stasera stavo usando come banco di prova Wildlands.
In 4k dettagli ultra, senza toccar nulla, mantenevo i 60fps fissi in game. Benchmark, compreso.
Temperatura della prima scheda video 63 gradi con picco non oltre i 65.
Considerato che parliamo di un titolo non propriamente user friendly direi che non mi posso lamentare.
sertopica
23-01-2019, 05:28
Il problema e' l'estate... 3000 euro di vga vogliono vivere in una magione (possibilmente con piscina=liquido :D ), non in un monolocale. :asd:
(PS: anche la CPU secondo me fara' un po' da bottleneck ma non troppo, a 5GHz non dovresti avere grossi problemi).
Duncandg
23-01-2019, 06:57
Il problema e' l'estate... 3000 euro di vga vogliono vivere in una magione (possibilmente con piscina=liquido :D ), non in un monolocale. :asd:
(PS: anche la CPU secondo me fara' un po' da bottleneck ma non troppo, a 5GHz non dovresti avere grossi problemi).
Stanza climatizzata :D :D
Teamprotein
23-01-2019, 07:18
Dico solo una cosa 3000 e passa euro di vga messe in questa configurazione sono soldi buttati imho.
La domanda sorge spontanea l ali ce la fara..... Altra domanda 3000€ per giocare "solo" in 4k :)
Ognuno coi i suoi soldi fa quel che vuole ma con uno sli da 3000 e passa euro liquidare è quasi d'obbilgo.
fraussantin
23-01-2019, 07:58
https://imgur.com/a/TPL1kBJ
In attesa del bridge asus per lo SLIComplimenti per la configurazione , ma un piccolo consiglio , visto che sei a spendere prendi un bel case più grande perchè li veramente rischi di cuocerci la pizza.
Ma non robe da centordicimilaeuro. Anche robe economiche .
TigerTank
23-01-2019, 08:05
Fatto anch’io Sli con schede attaccate senza spazio tra loro... la prima soffriva troppo... avevo messo anche una Noctua industrial 3000, un aereo in decollo che migliorava un pochino, ma comunque non riuscivo più di tanto a farla respirare.. L’unica è liquidare.
Ex-soluzione spartana by Tiger, con giusto 4 fascette da elettricista :asd:
http://i.imgur.com/TTq2eYam.jpg (https://imgur.com/TTq2eYa)
Stasera stavo usando come banco di prova Wildlands.
In 4k dettagli ultra, senza toccar nulla, mantenevo i 60fps fissi in game. Benchmark, compreso.
Temperatura della prima scheda video 63 gradi con picco non oltre i 65.
Considerato che parliamo di un titolo non propriamente user friendly direi che non mi posso lamentare.
Sì per carità, le prestazioni di picco le hai in ogni caso, però diciamo che una situazione 9700K + z390 + singola 2080Ti sarebbe stata ottima mentre con 2 schede come quelle bisogna salire di fascia per avere il giusto equilibrio e magari divertirsi a fare dell'oc, visto il modello di scheda :)
Comunque io spero tanto che a partire dal nuovo Metro il supporto all'RT venga esteso anche alle configurazioni SLi....altrimenti sai che fregatura se uno ha appunto configurazioni come la tua...ma l'RT si può attivare solo su singola vga... :mc:
Duncandg
23-01-2019, 09:17
Ex-soluzione spartana by Tiger, con giusto 4 fascette da elettricista :asd:
http://i.imgur.com/TTq2eYam.jpg (https://imgur.com/TTq2eYa)
Sì per carità, le prestazioni di picco le hai in ogni caso, però diciamo che una situazione 9700K + z390 + singola 2080Ti sarebbe stata ottima mentre con 2 schede come quelle bisogna salire di fascia per avere il giusto equilibrio e magari divertirsi a fare dell'oc, visto il modello di scheda :)
Comunque io spero tanto che a partire dal nuovo Metro il supporto all'RT venga esteso anche alle configurazioni SLi....altrimenti sai che fregatura se uno ha appunto configurazioni come la tua...ma l'RT si può attivare solo su singola vga... :mc:
Non sono un'amante del liquido e lo SLi di 2080 TI è stato uno sfizio. Stavo leggendo l'articolo da te riportato poc'anzi.Quello relativo alla differenza tra pci 8x e 16x. Si parla di un 2% di differenza a 3840x2160.
Discorso analogo per l'OC, ho smesso quando questo forum era ancora agli albori :)
Piccolo OT: Sono felice che finalmente Intel abbia risolto i problemi di spike sui processori. Dopo aver afflitto serie 6,7 e 8 ora siamo arrivati ad una conclusione.
ps: Non è per la cifra, ma un bridge potevano anche includerlo.
Teamprotein
23-01-2019, 10:02
Non sono un'amante del liquido e lo SLi di 2080 TI è stato uno sfizio. Stavo leggendo l'articolo da te riportato poc'anzi.Quello relativo alla differenza tra pci 8x e 16x. Si parla di un 2% di differenza a 3840x2160.
Discorso analogo per l'OC, ho smesso quando questo forum era ancora agli albori :)
Piccolo OT: Sono felice che finalmente Intel abbia risolto i problemi di spike sui processori. Dopo aver afflitto serie 6,7 e 8 ora siamo arrivati ad una conclusione.
ps: Non è per la cifra, ma un bridge potevano anche includerlo.
Ciao ho un paio di cose da chiederti:
Come mai uno sli cosi potente a che risoluzione giocheresti e sopratutto su che monitor?
Duncandg
23-01-2019, 10:26
Ciao ho un paio di cose da chiederti:
Come mai uno sli cosi potente a che risoluzione giocheresti e sopratutto su che monitor?
3840x2160@60Hz
Punto ai 60 FPS granitici, su configurazione ultra.
Monitor: Asus PB287Q
TigerTank
23-01-2019, 10:47
Non ho capito come fa a tenerle ferme. Ok le fascette per fermarle tra loro ma ci vuole un'anima di ferro per ancorarle altrimenti si muovono e toccano ovunque. Scusate l'OT.
Era una soluzione temporanea, non avendo spazio utile accanto al lato corto delle vga. Inizialmente avevo direttamente un pannello in plexy laterale moddato con 2 ventole(vedi firma) ma mi si era crepato durante il trasloco...
Fascette ben strette tra le 2 ventole e idem come ancoraggio al case. Non si muoveva nulla, anche perchè non erano sparate al massimo ma sui 900-1000 giri, giusto per far arrivare aria fresca diretta tra le 2 schede. Quella sopra si abbassava di 5-6°C.
Altrimenti mi sarei costruito un supporto a L in metallo. :)
Teamprotein
23-01-2019, 10:54
3840x2160@60Hz
Punto ai 60 FPS granitici, su configurazione ultra.
Monitor: Asus PB287Q
Capito il non riuscirei mai a tornare a giocare a 60fps seppur fissi :D per di più senza gsync o freesync :mbe:
Ovviamente bisogna vedere caso per caso. Ci sono modelli di vga ad aria che dissipano meglio di altri, vedi la Strix che non arriva a 65 gradi, Profilo ventole impostato, areazione del case, temperatura ambiente, se il pc lo si tiene sotto ad un tavolo o in una situazione più aperta tipo sopra la scrivania, dove il pescaggio dell’aria fresca migliora. In condizioni ottimali, anche ad aria, io credo che si possa essere agevolati da un PL più alto, poi per carità, non voglio convincere nessuno. :)
Inviato dal mio iPhone X utilizzando Tapatalk
Sì sì, certo. C' è aria ed aria, lo stesso vale per il liquido.
Teamprotein
23-01-2019, 11:47
3840x2160@60Hz
Punto ai 60 FPS granitici, su configurazione ultra.
Monitor: Asus PB287Q
Scusa fammi capire tu hai speso 3200€ di vga per giocare in 4k su un monitor 28 pollici senza gsync :muro:
Scusa ma non trovo il senso di tutto ciò :D
gadducci
23-01-2019, 13:00
Palit 2080ti pro oc che ne pensate??? e' valida?
TigerTank
23-01-2019, 13:13
Palit 2080ti pro oc che ne pensate??? e' valida?
Se è quella su amazon dovrebbe essere la OC, quindi quella con PL a 330W e non 280W come la liscia. Non dovrebbe essere male, l'importante è appunto prenderla con la giusta garanzia.
Pcb reference e gpu A.
gadducci
23-01-2019, 13:21
Se è quella su amazon dovrebbe essere la OC, quindi quella con PL a 330W e non 280W come la liscia. Non dovrebbe essere male, l'importante è appunto prenderla con la giusta garanzia.
Pcb reference e gpu A.
su ollo store l'ho vista ... e' affidabile quel sito?
Kostanz77
23-01-2019, 13:21
Scusa fammi capire tu hai speso 3200 di vga per giocare in 4k su un monitor 28 pollici senza gsync :muro:
Scusa ma non trovo il senso di tutto ciò :D
Quoto, uno Sli così merita altro tipo di monitor....
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
Una spesa del genere meriterebbe tipo un 43" 4k a 120 Hz, che non esiste.
gadducci
23-01-2019, 13:59
Se è quella su amazon dovrebbe essere la OC, quindi quella con PL a 330W e non 280W come la liscia. Non dovrebbe essere male, l'importante è appunto prenderla con la giusta garanzia.
Pcb reference e gpu A.
E come si fa a saperlo??
Kostanz77
23-01-2019, 14:20
Una spesa del genere meriterebbe tipo un 43" 4k a 120 Hz, che non esiste.
ma anche un 3440x1440p 120 hz G-Sync è meglio di quel monitor
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
Thunder-74
23-01-2019, 14:20
io credo che Duncandg si sia pentito di aver scritto del suo acquisto su questo thread :D
Dai, intanto un'ottima base ce l'ha, poi a cambiar monitor/case farà sempre in tempo ;)
pazzoide76
23-01-2019, 14:28
Ciao a tutti.
Mio fratello ha intenzione di comprarsi una 2080 senza svenarsi troppo ed ha individuato due possibili alternative.
La prima scheda è la MSI GEFORCE RTX 2080 Ventus 8G mentre la seconda scheda è la Palit GeForce RTX 2080 Dual.
Purtroppo in rete non si trovano recensioni quindi non riesco a capire la bontà dei prodotti.
Qualcuno di voi le possiede?
Come vi trovate?
Cosa ne pensate?
Grazie mille
Kostanz77
23-01-2019, 14:32
io credo che Duncandg si sia pentito di aver scritto del suo acquisto su questo thread :D
Dai, intanto un'ottima base ce l'ha, poi a cambiar monitor/case farà sempre in tempo ;)
qui non si perdona niente 😂
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
fabietto27
23-01-2019, 14:36
qui non si perdona niente 😂
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro🤣🤣🤣🤣
Inviato dal mio SM-G930F utilizzando Tapatalk
X-ray guru
23-01-2019, 14:45
Dalla mia esperienza con liquido della 2080ti FE, se fai uno SLI di queste due schede, ti ci vuole un impianto a liquido con un radiatore di un camion e ventole stile turbofan di un motore a reazione.
Oppure come reservoir la vasca da bagno riempita d'acqua, così da avere una capacità termica enorme.
ma anche un 3440x1440p 120 hz G-Sync è meglio di quel monitor
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
Eh si. Comunque i 4k ad alto refresh usciranno a breve, ottimi prodotti per chi ha SLI con GPU di fascia alta/estrema.
Come come come
l'RT su SLI non funziona?
Ammazza oh, sempre meglio
Thunder-74
23-01-2019, 16:04
Come come come
l'RT su SLI non funziona?
Ammazza oh, sempre meglio
Chi l'ha detto?
Sì per carità, le prestazioni di picco le hai in ogni caso, però diciamo che una situazione 9700K + z390 + singola 2080Ti sarebbe stata ottima mentre con 2 schede come quelle bisogna salire di fascia per avere il giusto equilibrio e magari divertirsi a fare dell'oc, visto il modello di scheda :)
Comunque io spero tanto che a partire dal nuovo Metro il supporto all'RT venga esteso anche alle configurazioni SLi....altrimenti sai che fregatura se uno ha appunto configurazioni come la tua...ma l'RT si può attivare solo su singola vga... :mc:
voilà
io credo che Duncandg si sia pentito di aver scritto del suo acquisto su questo thread :D
Dai, intanto un'ottima base ce l'ha, poi a cambiar monitor/case farà sempre in tempo ;) Vero😅😅😅.
Bene consigliare.. Però ognuno fa le sua valutazioni e spende i suoi soldi come vuole.
Poi ci sono io che gioco con una rtx 2070 con 4k oled hdr 55pollici😂😂😂
Inviato dal mio JSN-L21 utilizzando Tapatalk
fabietto27
23-01-2019, 16:17
Chi l'ha detto?Nvidia
https://www.nvidia.com/object/configuring-gpu-ray-tracing.html
Inviato dal mio SM-G930F utilizzando Tapatalk
amon.akira
23-01-2019, 16:17
voilà
ah sto punto io farei un topic "Chiedilo al Tiger" :asd:
Thunder-74
23-01-2019, 16:20
voilà
No dai, è un'ipotesi di Tiger perchè ancora sul campo non è stato provato uno Sli in RT.
Diciamo che, essendo il RT dipendente dal DX12, la speranza è che sempre più titoli DX12, possano supportare il mGPU o il canonico SLi.
fabietto27
23-01-2019, 16:24
No dai, è un'ipotesi di Tiger perchè ancora sul campo non è stato provato uno Sli in RT.
Diciamo che, essendo il RT dipendente dal DX12, la speranza è che sempre più titoli DX12, possano supportare il mGPU o il canonico SLi.No Thunder...Leggi il link che ho postato Sopra è Nvidia che spiega perché la miglior esperienza di RT si ha disabilitando lo Sli....ma lo avevano detto subito.
Mi spiace per il tuo Sli di Matrix.
Inviato dal mio SM-G930F utilizzando Tapatalk
Eschelon
23-01-2019, 16:30
Era una soluzione temporanea, non avendo spazio utile accanto al lato corto delle vga. Inizialmente avevo direttamente un pannello in plexy laterale moddato con 2 ventole(vedi firma) ma mi si era crepato durante il trasloco...
Fascette ben strette tra le 2 ventole e idem come ancoraggio al case. Non si muoveva nulla, anche perchè non erano sparate al massimo ma sui 900-1000 giri, giusto per far arrivare aria fresca diretta tra le 2 schede. Quella sopra si abbassava di 5-6°C.
Altrimenti mi sarei costruito un supporto a L in metallo. :)
Ma le 2 ventole sparavano addosso l'aria o la buttavano fuori? Mi viene il dubbio adesso perchè io ho il ventolone del pannello laterale del mio case che di fabbrica è montato nel verso proprio per gettar dentro l'aria (ovviamente è in corrispondenza della vga), non so se è meglio o peggio.
Ovviamente c'è da considerare tutta la faccenda del riciclo con le altre ventole.
Thunder-74
23-01-2019, 16:30
No Thunder...Leggi il link che ho postato Sopra è Nvidia che spiega perché la miglior esperienza di RT si ha disabilitando lo Sli....ma lo avevano detto subito.
Mi spiace per il tuo Sli di Matrix.
Inviato dal mio SM-G930F utilizzando Tapatalk
Si letto, ne estraggo un pezzo:
L'utilizzo di più GPU è la prossima grande considerazione, poiché i professionisti della creatività vogliono i loro risultati il più rapidamente possibile. La maggior parte dei renderer supporta più GPU e, in tal caso, nessuno di essi richiede SLI. In realtà, di solito si consiglia di disabilitare SLI per la migliore operazione di ray tracing (un fatto importante da ricordare per i possessori di schede dual-GPU con SLI integrata). La velocità della corsia PCI-X di solito ha un impatto minimo o nullo sulle prestazioni del ray tracing, poiché la larghezza di banda del bus anche di una x4 è raramente soddisfatta, quindi non preoccuparti di posizionare schede aggiuntive negli slot più lenti.
ma questo non vuol dire che non vengano usate entrambe le schede. In mGPU sotto DX12, il ponte SLi non serve e le schede vengono viste come due risorse distinte alle quali attingere. Anche il MAC fa la stessa cosa, ad esempio ho provato il sistema MacOS con le mie due 980ti e renderizzavo immagini 4 volte più velocemente del MAC Pro da 12K € :fagiano:
L'articolo si riferisce ad un uso professionale e non al gaming, quindi non possiamo escludere che in SLi DX12 il RT funzioni....
PS: SLI di Matrix hahahha.. Fabié qui è tanto se prendo una 2080ti ;)
Devo solo mettere la pasta per il resto ci ha pensato EVGA.
https://i.postimg.cc/8jNhZHk0/IMG-0036.jpg (https://postimg.cc/8jNhZHk0)
gadducci
23-01-2019, 17:14
nessuno mi ha risposto... ma cosa hanno in meno nvdia 2080 ti founder etion
rispetto al asus palit msi???
ho visto sul sito 2080 ti fe la vendono a 1269€ aiutatemi non so quale prendere :D
Arrow0309
23-01-2019, 17:23
Devo solo mettere la pasta per il resto ci ha pensato EVGA.
https://i.postimg.cc/8jNhZHk0/IMG-0036.jpg (https://postimg.cc/8jNhZHk0)
Nice! :cool:
Mi chiarisci una cosa (che avevo letto da qualche parte su ocn), sto wubbo e' uguale e si può usare sia sulle XC (Ultra) che sulle FTW3?
nessuno mi ha risposto... ma cosa hanno in meno nvdia 2080 ti founder etion
rispetto al asus palit msi???
ho visto sul sito 2080 ti fe la vendono a 1269€ aiutatemi non so quale prendere :D
Niente, vanno lo stesso.
Diciamo solo che se overclocchi un bel po il dissi della FE potrebbe risultare non il massimo e/o con le ventole a manetta (o curva ventole bella pompata) anche rumoroso assai.
Per un oc lieve o default (+ pl max per esempio) vanno bene, la mia anche e' FE ma l'ho liquidata dopo un paio di settimane.
Nice! :cool:
Mi chiarisci una cosa (che avevo letto da qualche parte su ocn), sto wubbo e' uguale e si può usare sia sulle XC (Ultra) che sulle FTW3?f
Solo per le XC, XC Ultra e Black. Per la FTW è diverso il WB.
Thunder-74
23-01-2019, 18:15
LA Colorful ha fatto una cosa intelligente... vendere un modello senza dissipatore per chi vuole liquidare... lo dovrebbero fare tutte.
https://cdn.videocardz.com/1/2019/01/Colorful-RTX-2080-Vulcan-PCB.jpg
LINK (https://videocardz.com/newz/colorful-offers-geforce-rtx-2080-without-cooling-solution)
gadducci
23-01-2019, 18:35
Nice! :cool:
Mi chiarisci una cosa (che avevo letto da qualche parte su ocn), sto wubbo e' uguale e si può usare sia sulle XC (Ultra) che sulle FTW3?
Niente, vanno lo stesso.
Diciamo solo che se overclocchi un bel po il dissi della FE potrebbe risultare non il massimo e/o con le ventole a manetta (o curva ventole bella pompata) anche rumoroso assai.
Per un oc lieve o default (+ pl max per esempio) vanno bene, la mia anche e' FE ma l'ho liquidata dopo un paio di settimane.
a sto punto mi prendo FE che e' anche piu' piccola delle custom
Qualcuno ha esperienza di rma con alternate.it ? Hanno la lightning z disponibile.
gadducci
23-01-2019, 20:58
Valuta anche da Amazon la 2080Ti di EVGA a 1200 euro. Io sto ancora aspettando l'RMA della mia FE svampata...
questa evga e' meglio della palit oc? che ho visto sempre su amazon?
TigerTank
23-01-2019, 21:10
No dai, è un'ipotesi di Tiger perchè ancora sul campo non è stato provato uno Sli in RT.
Diciamo che, essendo il RT dipendente dal DX12, la speranza è che sempre più titoli DX12, possano supportare il mGPU o il canonico SLi.
"I have 2x2080Ti. And I can run BFV with DX12 and RTX enabled with SLI turned on. My second card does no work though. It basically is running in single GPU mode. "
Fonte (https://forums.geforce.com/default/topic/1080392/geforce-rtx-20-series/bf5-sli-with-rtx-on-/3/) :O :D
E poi non vi pare strano che dal lancio di BF5 non si siano visti video di "propaganda" da hype-marketing-ultra-pumped-edition dove avrebbero esaltato fin dal day one la cosa, se funzionante? :D
Vedremo con Metro, che in moltissimi aspettano, ma anche lì, io di video dimostrativi con 2x2080TI + strabiìlio di ray tracing mica ne ho visti.
Direi "For now, it just don't work" :sofico:
Ste dx12 sono un delirio.
QUi ci vuole uno con 2 schede che ci faccia un pò di test. :D
Ma le 2 ventole sparavano addosso l'aria o la buttavano fuori? Mi viene il dubbio adesso perchè io ho il ventolone del pannello laterale del mio case che di fabbrica è montato nel verso proprio per gettar dentro l'aria (ovviamente è in corrispondenza della vga), non so se è meglio o peggio.
Ovviamente c'è da considerare tutta la faccenda del riciclo con le altre ventole.
Buttano dentro, credo sia chiaro dalla foto :D
O meglio, buttavano...ora con il passaggio alla singola scheda ho tolto tutto e rimesso la paratia laterale del case con un nuovo pannello in plexy che mi feci spedire dalla Phanteks.
TigerTank
23-01-2019, 21:26
Valuta anche da Amazon la 2080Ti di EVGA a 1200 euro. Io sto ancora aspettando l'RMA della mia FE svampata...
Occhio però che quella è la versione "basic", con gpu non A e PL da 250/280.
AceGranger
23-01-2019, 21:28
"I have 2x2080Ti. And I can run BFV with DX12 and RTX enabled with SLI turned on. My second card does no work though. It basically is running in single GPU mode. "
Fonte (https://forums.geforce.com/default/topic/1080392/geforce-rtx-20-series/bf5-sli-with-rtx-on-/3/) :O :D
E poi non vi pare strano che dal lancio di BF5 non si siano visti video di "propaganda" da hype-marketing-ultra-pumped-edition dove avrebbero esaltato fin dal day one la cosa, se funzionante? :D
Vedremo con Metro, che in moltissimi aspettano, ma anche lì, io di video dimostrativi con 2x2080TI + strabiìlio di ray tracing mica ne ho visti.
Direi "For now, it just don't work" :sofico:
Ste dx12 sono un delirio.
Buttano dentro, credo sia chiaro dalla foto :D
O meglio, buttavano...ora con il passaggio alla singola scheda ho tolto tutto e rimesso la paratia laterale del case.
mia personale opinione,
per fare uno SLI in Ray-Tracing secondo me devono obbligatoriamente abilitare l'nVlink e utilizzare la memoria condivisa in modo tale da ridurre lag per avere cosi abbastanza banda per il trasferimento dei dati del calcolo dei raggi; questa cosa comportera un lavoro abbastanza profondo sui game engine e presumo anche che per fare cio l'RT dovra essere integrato nel game-engine, cosa che attualmente non è.
BF5 si basa sul frostbyte, e alla fine è ancora per la maggiore il frostbyte sviluppato anni fa con AMD; non per altro l'RT viene calcolato fuori extra game-engine.
Lato tecnico credo anche che ci sara l'obbligo per la parte RT di stare tutta in VRAM senza possibilita di swap, ma non credo ci saranno problemi in questo senso visto che nella peggiore delle situazioni si avranno i 6+6GB della 2060
TigerTank
23-01-2019, 21:38
mia personale opinione,
per fare uno SLI in Ray-Tracing secondo me devono obbligatoriamente abilitare l'nVlink e utilizzare la memoria condivisa in modo tale da ridurre lag per avere cosi abbastanza banda per il trasferimento dei dati del calcolo dei raggi; questa cosa comportera un lavoro abbastanza profondo sui game engine e presumo anche che per fare cio l'RT dovra essere integrato nel game-engine, cosa che attualmente non è.
BF5 si basa sul frostbyte, e alla fine è ancora per la maggiore il frostbyte sviluppato anni fa con AMD; non per altro l'RT viene calcolato fuori extra game-engine.
Lato tecnico credo anche che ci sara l'obbligo per la parte RT di stare tutta in VRAM senza possibilita di swap, ma non credo ci saranno problemi in questo senso visto che nella peggiore delle situazioni si avranno i 6+6GB della 2060
Sì, concordo...ecco perchè tralasciando BF5, spero che con l'arrivo del nuovo Metro si veda qualche novità concreta in tal senso.
Anche perchè credo che non siano pochi quelli che si sono già fatti 2 2080 o 2080Ti con la speranza di poter pompare a dovere anche l'RT.
@Delling: comprensibile....spero si risolva tutto quanto prima.
Ho trovato questa scheda a 720 euro su eprice è buona???
EVGA - VGA GeForce RTX 2080 XC Ultra Gaming 8 GB
TigerTank
23-01-2019, 21:54
Ma in teoria usando il port royal di 3dmarco non si dovrebbe poter capire se scala o meno?
...cmq gli adattatori nvlink su Amazon son esauriti, prossimo refill il 2 Gennaio. Sgrunt.
Nel Port Royal funziona...ma è un bench.
Il problema è appunto il sapere quando arriverà nei giochi l'mgpu + rt...perchè è con quelli che al massimo varrebbe la pena a livello enthusiast di prendere 2 2080/2080TI...non certo per un bench, salvo professionisti della scalata al record mondiale :D
E' tutto nelle mani degli sviluppatori.
Però appunto è preoccupante il fatto che per Metro non sia ancora uscito nulla (o forse non ho visto io) che parli/dimostri appunto qualcosa circa mgpu + rt.
Misterxxx1
23-01-2019, 21:54
RTX 2060 Stock vs RTX 2060 Overclocked RTX 2070 Stock Tested in 7 Games | FRAME-RATE TEST COMPARISON
https://youtu.be/xIt0ZnwJgFw
La Evga è un ottima azienda.
Quindi anche se è un dual ventola va bene uguale?? Io non liquido e non overcloccko.
Thunder-74
23-01-2019, 22:24
Tiger , ma il tipo che ha provato BF5 in Sli in DX12 con RT, tralascia un piccolo particolare... BFV attualmente non supporta lo Sli ... solo modificando il profilo DX11 , si riesce ad attivarlo. :fagiano:
Attualmente nVidia/Dice stanno lavorando su un problema, ovvero che in SLi gli effetti particellari vanno a pallino... spariscono le foglie svolazzanti, le raffiche di neve...
Certo è che se poi veramente Il RT non fosse utilizzabile in SLi, sarebbe una grave pecca... anche perché ad esempio Metro ne avrà parecchio bisogno...
Inviato dal mio iPhone X utilizzando Tapatalk
Di questa invece che mi dite? Mi sembra che le gigabyte muoiano più spesso?
Gigabyte RTX 2080 Gaming OC
fraussantin
23-01-2019, 23:14
Un paio di lotti di gigabyte 2070 crepavano tutte.
Cmq una marca vale l'altra , ma non ti affidare a shop senza sostituzione diretta. Il rischio è alto cmq.
Arrow0309
23-01-2019, 23:26
Bella l'idea di vendere il PCB senza waterblock.
Però mi fa strano questa frase:
"Yes, this is not the first cooler-less graphics card from Colorful. From what I learned from the manufacturer, these cards are often sold directly to Internet Cafes, which prefer to put waterblocks on higher-end systems (it limits the heat in the room)."
Solo a me sembra nonsense? Cioè, il calore prodotto dalla gpu sempre quello è... il watercooling ti permette solo di spostarlo nel radiatore per poi poterlo dissipare su un'area più ampia, ma dubito che la stanza si scaldi di meno!
Ahhahhhahah, quoto, poi non avendo impianti overkill (e ovv più di un pc) semmai possono risparmiare sui riscaldamenti d'inverno. :p
Ho trovato questa scheda a 720 euro su eprice è buona???
EVGA - VGA GeForce RTX 2080 XC Ultra Gaming 8 GB
Quindi anche se è un dual ventola va bene uguale?? Io non liquido e non overcloccko.
E' ottima, a me piace, il dissi mi sembra di ottima fattura.
https://hexus.net/media/uploaded/2018/9/2544684a-ff28-438b-bc3c-8d8695242fe3.jpg
Inoltre tieni presente che (solo) sulla XC Ultra viene messo il dissi 3 slot, anche a 2 "sole" ventole hai dissipazione con contro ca##i.
E se lo stesso identico dissi (XC Ultra) va bene per la 2080 ti che riscalda di più va benissimo sulla 2080, a quel prezzo io la prenderei sopratutto perché e' top di gamma a design reference ma anche perché sei coperto da buona garanzia.
Thunder-74
24-01-2019, 05:49
Ragazzi volevo far presente, per chi non lo sapesse, che sul sito EVGA USA, è stata introdotta a listino una seconda 2080ti FTW3 ( non ho visto se anche per la 2080), ma con freq. base. 1545mhz. Ha lo stesso pcb custom della versione overclockata (1755mhz), ma penso con chip non A. Quindi attenzione se siete interessati al modello top.
La top riporta la scritta ULTRA e questo è il suo P/N 11G-P4-2487-KR
Quella "economica" P/N 11G-P4-2483-KR
EDIT:
per la 2080 sembra esistere solo la versione ULTRA P/N: 08G-P4-2287-KR
Inviato dal mio iPhone X utilizzando Tapatalk
Teamprotein
24-01-2019, 07:07
Ieri sera ho cominciato a trovare il compromesso tra voltaggio e frequenza della mia zotac per ora ho testato una mezz'ora di AC odissey e 3dmark settando 1950mhz a 0.950v con ventole al 56% restano silenziose e le temperature si attestano tra i 53 e i 57 gradi la frequenza taglia e rimane fissa a 1935mhz.
Voglio provare appena ho tempo a scendere a 0. 935v sempre a 1950mhz.
Aspetto vostre opinioni
fabietto27
24-01-2019, 07:43
In quel range hai il compromesso ottimale fra voltaggio temperature e tagli...Il grosso del lavoro lo hai fatto...da qui in avanti sono solo limature.Vedrai che ti troverai bene ad usarla così.Come Pascal del resto.
Inviato dal mio SM-G930F utilizzando Tapatalk
TigerTank
24-01-2019, 07:47
Tiger , ma il tipo che ha provato BF5 in Sli in DX12 con RT, tralascia un piccolo particolare... BFV attualmente non supporta lo Sli ... solo modificando il profilo DX11 , si riesce ad attivarlo. :fagiano:
Attualmente nVidia/Dice stanno lavorando su un problema, ovvero che in SLi gli effetti particellari vanno a pallino... spariscono le foglie svolazzanti, le raffiche di neve...
Certo è che se poi veramente Il RT non fosse utilizzabile in SLi, sarebbe una grave pecca... anche perché ad esempio Metro ne avrà parecchio bisogno...
Port Royal dimostra che la combinazione mgpu+rt sarebbe tranquillamente utilizzabile...il punto però è QUANDO si inizierà a vedere la cosa nei giochi, perchè in BF5 credo proprio non funzioni e come scritto ieri sera, io tra i millemila video su metro exodus, non ne ho ancora visto uno che "esalti" la resa dell'RT utilizzando 2 Turing in mgpu.
Il che al momento mi fa sospettare che non vedremo tale combinazione nemmeno su quel titolo.
Magari implementare la cosa nei giochi da parte degli sviluppatori si sta rivelando ben più difficile che in un breve bench.
Altro esempio (https://forums.evga.com/3D-Mark-Port-Royal-ray-tracing-benchmark-questions-m2909539.aspx).
Q:"Curious if anyone else has used it yet? I’ve been having fun with it, and I noticed that NVLINK works with the ray tracing benchmark.
Why is this? Why doesn’t SLI / NVLINK work in BFV with ray tracing? Yet it works in the benchmark? "
A:"The answer is simply. It's because the developers of bfv haven't/aren't implementing mgpu for bfv."
Servirebbe qualcuno con 2 schede che faccia anche qui delle prove in merito.
Poi beh...riuscire a sfruttare lo Sli con dei workaround tipo il passare in dx11 è altro discorso ma mi pare chiaro che lo scopo primario di certi investimenti corposi nelle Turing sarebbe l'utilizzo in dx12 di mgpu + rt. :D
Altrtimenti tanto vale evitare di farsi prendere in giro e limitarsi ad una sola scheda.
gadducci
24-01-2019, 08:00
Questa qui NE6208TS20LC-150A palit
ha la GPU A???
TigerTank
24-01-2019, 08:02
Questa qui NE6208TS20LC-150A palit
ha la GPU A???
QUI (https://www.overclock.net/forum/69-nvidia/1706276-official-nvidia-rtx-2080-ti-owner-s-club.html) trovi tutto ;)
Link compresi per le "wikipedia" delle altre sorelle.
GamingPro OC | 2 Fan | 2.5 Slot | 292mm | RGB | 16 Power Phases | 1650 MHz Boost | 260/330 W | Reference PCB
GPU A.
Thunder-74
24-01-2019, 08:19
No Thunder, il punto è che Port Royal dimostra che la combinazione mgpu+rt sarebbe tranquillamente utilizzabile...il punto però è QUANDO si inizierà a vedere la cosa nei giochi, perchè in BF5 credo proprio non funzioni e come scritto ieri sera, io tra i millemila video su metro exodus, non ne ho ancora visto uno che "esalti" la resa dell'RT utilizzando 2 Turing in mgpu.
Il che al momento mi fa sospettare che non vedremo tale combinazione nemmeno su quel titolo.
Magari implementare la cosa nei giochi da parte degli sviluppatori si sta rivelando ben più difficile che in un breve bench.
Altro esempio (https://forums.evga.com/3D-Mark-Port-Royal-ray-tracing-benchmark-questions-m2909539.aspx).
Q:"Curious if anyone else has used it yet? I’ve been having fun with it, and I noticed that NVLINK works with the ray tracing benchmark.
Why is this? Why doesn’t SLI / NVLINK work in BFV with ray tracing? Yet it works in the benchmark? "
A:"The answer is simply. It's because the developers of bfv haven't/aren't implementing mgpu for bfv."
Servirebbe qualcuno con 2 schede che faccia anche qui delle prove in merito.
Poi beh...riuscire a sfruttare lo Sli con dei workaround tipo il passare in dx11 è altro discorso ma mi pare chiaro che lo scopo primario di certi investimenti corposi nelle Turing sarebbe l'utilizzo in dx12 di mgpu + rt. :D
Altrtimenti tanto vale evitare di farsi prendere in giro e limitarsi ad una sola scheda.
Sarebbe necessario rivedere il motore di gioco profondamente, per poter implementare il mGPU in DX12. Non so quanto questo sia negli obiettivi delle SH.
L'unico titolo ad oggi che potrebbe far chiarezza in merito all'utilizzo in game di due RTX con RT, sarebbe Shadows of the Tomb Raider, dato che in DX12 le due schede vanno alla grande... non so perchè ancora non sia stato rilasciato l'aggiornamento per il RT....
Tutto questo ci lascia sempre più quella sensazione di stato embrionale/alpha del RT...
fraussantin
24-01-2019, 08:23
Ancor non capisco la scelta di nvidia di buttarsi su bf12 per rtx
È il gioco meno indicato sotto ogni aspetto per quella tecnologia. Ultimamente non me ne combinano una giusta.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.