View Full Version : [Thread Ufficiale] nVidia Turing RTX 2080/2080ti
sertopica
25-11-2018, 16:27
Lol....ma questo è uno screenshot del primo Call of Duty del 2003...il Pegasus Bridge :asd:
Però qui parliamo di capolavoro di gioco anche senza bisogno di effetti megaultra.
Altro che battlefield "minestra riscaldata più volte".
Indovinato!
Non ho scelto sto screenshot a caso... :D
Ovvio che il Fail è riferito alle schede e non alla tecnologia in se, perché se andrà bene tra 5 anni, oggi è un Fail clamoroso.
Inutile dire che è il futuro, che forse è pronto tra 3 generazioni, oggi è inattuabile e per giunta inutile e superfluo, ma invidia forte del suo nome riesce comunque a piazzare ste schede nel settore gaming, è indubbio che dal punto di vista aziendale sono dei fenomeni, ma potrebbero pagarla alla lunga.
Vedremo.
Inviato dal mio HUAWEI VNS-L31 utilizzando Tapatalk
bhe in qualche maniera però bisognava pure iniziare a presentare qualcosa se si vuole introdurla o pensi che sarebbe stato possibile/meglio presentare così di punto in bianco la serie "3xxx"-"4xxx" con il triplo (moltiplicatore tirato lì a caso) delle unità dedicate al RT attuali della 2080ti, senza un percorso di crescita graduale sia della parte hardware che software, dato che gli sviluppatori avranno man mano modo di metterci mano in questi anni grazie alla presenza dell'hw per poterlo fare?
In senso lato, mi ricorda un pò il discorso delle HBM introdotte da AMD, svantaggiose da morire fronte costi/tempi di produzione e quantitativi di Gb raggiungibili limitati con la prima Fury (4Gb) per via dei limiti tecnologici del tempo, ma non è detto che grazie al loro esordio "impopolare" di allora, in questi anni non diverranno invece un ottima scelta per soppiantare anche le gddr 6/7 (se raggiungono il loro limite tecnologico) in ambito consumer...come sempre da qualche punto (seppur svantaggioso/pessimo inizialmente) bisogna pur cominciare
è integrato nelle dx 12 quindi penso proprio sia uno standard.
quando sento parlare di gen future mi chiedo quale sarà il processo produttivo in questione , visto che siamo quasi in fondo ma ancora non si vede niente di diverso dal silicio all'orizzonte
si ma manca l'hardware, sia concorrenziale sia nelle scatolette.
bisogna vedere se le sh spingeranno li anche perche poi se sono solamente 2 schede sul mercato a supportare il real time, i giochi che supporteranno tale tecnologia potrebbero essere veramente pochi.
bagnino89
25-11-2018, 16:43
sarebbe da ridere se amd uscisse un chip delle stesse dimensioni della 2080ti a 999 euro e solo con gpu core ...ecco ... allora nvidia potrebbe tebnntennare un po
Già, ma tanto AMD non lo farà.
fraussantin
25-11-2018, 17:01
si ma manca l'hardware, sia concorrenziale sia nelle scatolette.
bisogna vedere se le sh spingeranno li anche perche poi se sono solamente 2 schede sul mercato a supportare il real time, i giochi che supporteranno tale tecnologia potrebbero essere veramente pochi.
questo solo il tempo ce lo dirà.
il dlss lo stanno implementando in decine giochi , anche perchè è più facile da mettere.
per il ray tracing vedremo . sulle console non credo proprio se ne parlerà , hanno venduto a cani e porci tv 4k e ti pare che con la ps5 tornano al 1080p?
quindi navii dubito avrà rt core o robe simili.
per il mondo pc nvidia ha il controllo quasi totale del mercato , da oggi con l' appoggio di microsoft ( meglio tardi che mai ).. son quasi certo che i giochi sponsorizzati nvidia avranno rtx , utile o inutile che sia.
bronzodiriace
25-11-2018, 18:02
è integrato nelle dx 12 quindi penso proprio sia uno standard.
quando sento parlare di gen future mi chiedo quale sarà il processo produttivo in questione , visto che siamo quasi in fondo ma ancora non si vede niente di diverso dal silicio all'orizzonte
senza considerare il fatto che svettando le classifiche di ogni bench si fidelizza
Utilizzeranno l'Ununpentio scoperto da Bob Lazar nel 1989 :stordita:
Thunder-74
25-11-2018, 18:22
Vorrei spezzare una lancia in favore del RT sul Battlefield 5, quando qualche post fa si diceva che introduceva l’effetto “unto”... no questo effetto è proprio presente sempre, anche senza RT... non capisco perché il bagnato debba essere rappresentato in questo modo... mah...
Inviato dal mio iPhone X utilizzando Tapatalk
Ale55andr0
25-11-2018, 18:42
sarebbe da ridere se amd uscisse un chip delle stesse dimensioni della 2080ti a 999 euro e solo con gpu core ...ecco ... allora nvidia potrebbe tebnntennare un po
molto più probabile esca nel duemilaventordici la R9 690 con polaris over(over)cloccato e ancora delle miserabili, miserrime, memorie 8gbps e 250w di tdp. Per la fascia alta navi che dopo una anno di attesa per vederla andrà come una 2080 liscia costando uguale e consumando di più.
Direi che scherzi a parte lato gpu amd c'è da piangere, e da ridere giusto a farsi segoni mentali a base di niente :fagiano:
quant'è bello essere stupidi... la Strix ha effettivamente due bios differenti!
vi scrivo brevemente, ho appena flashato il bios Q (la curva ventola del P mi piace proprio tanto, voglio tenermela), con il "classico" Galax 380W, fra poco faccio tutti i test del caso, tocca ad esempio vedere se ancora funzionano tutti gli output (la Strix ha 2dp + 2hdmi, non 3+1 come le altre)
aggiorno dopo cena, ciao
Ale55andr0
25-11-2018, 18:44
'mazza oh... che stroncatura!... https://digilander.libero.it/arosati76/usd5kj.gif
io è dalla prima demo di RT (metro exodus) che lo dico: a che cazzo serve sta roba ancora non l'ho capito, io vedo solo un calo dei frame MOSTRUOSO e spesso un'immagine indistinguibile o addirittura peggiore che con rt off
bagnino89
25-11-2018, 19:04
molto più probabile esca nel duemilaventordici la R9 690 con polaris over(over)cloccato e ancora delle miserabili, miserrime, memorie 8gbps e 250w di tdp. Per la fascia alta navi che dopo una anno di attesa per vederla andrà come una 2080 liscia costando uguale e consumando di più.
Direi che scherzi a parte lato gpu amd c'è da piangere, e da ridere giusto a farsi segoni mentali a base di niente :fagiano:
:asd:
A voi a quanto boosta una 2080? Che temperatura raggiungete in full e in idle?
Vorrei spezzare una lancia in favore del RT sul Battlefield 5, quando qualche post fa si diceva che introduceva l’effetto “unto”... no questo effetto è proprio presente sempre, anche senza RT...
ah beh, complimentoni vivissimi ai programmatori! :O
quant'è bello essere stupidi... la Strix ha effettivamente due bios differenti!
vi scrivo brevemente, ho appena flashato il bios Q (la curva ventola del P mi piace proprio tanto, voglio tenermela), con il "classico" Galax 380W, fra poco faccio tutti i test del caso, tocca ad esempio vedere se ancora funzionano tutti gli output (la Strix ha 2dp + 2hdmi, non 3+1 come le altre)
aggiorno dopo cena, ciao
Cioè la strix ha la possibilità di scegliere due differenti bios, ho capito bene? Uno sarà più spinto ed uno più conservativo ...
Al di là del flash di un altro bios, quali sono le differenze fra i due bios stock?
Voi che dite, quale è con RTX e quale no?
https://i.postimg.cc/BLJXf33t/1.jpg (https://postimg.cc/BLJXf33t)
https://i.postimg.cc/xJgq0Zj5/2.jpg (https://postimg.cc/xJgq0Zj5)
la seconda è in RTX
Voi che dite, quale è con RTX e quale no?
https://i.postimg.cc/BLJXf33t/1.jpg (https://postimg.cc/BLJXf33t)
https://i.postimg.cc/xJgq0Zj5/2.jpg (https://postimg.cc/xJgq0Zj5)
la 2... si vedono i riflessi del fuoco sul punte... ma anche l'1 non è male, eh! :p
(cioé... non è che senza RT non si possano più fare riflessi, ecco!)
Iceman69
25-11-2018, 20:33
Cioè la strix ha la possibilità di scegliere due differenti bios, ho capito bene? Uno sarà più spinto ed uno più conservativo ...
Al di là del flash di un altro bios, quali sono le differenze fra i due bios stock?
Nessuna, cambia solo il profilo della ventola, per il resto sono identici, infatti non ne vedo l'utilità dato che sia con MSI afterburner che con l'utility Asus si può fare la stessa cosa. Però con due bios se ne rovini uno hai sempre l'altro ...
Breve resoconto del flash del bios Galax 380W sulla Strix, se volete maggiori dettagli chiedete.
PRO:
Ci sono almeno altri 30mV (edit 1: correto, avevo scritto 300) con cui giocare (edit 2:intendo giocare con la curva del clock, non video-giocare, tanto per evitare ulteriori fraintendimenti)
Si riescono quindi ad ottenere al volo clock stabili over 2GHz, altrimenti difficilmente possibili
L'Asus Aura continua a funzionare
Tutto sommato avendo due bios a disposizione la cosa risulta piuttosto pratica
CONTRO:
i display output vanno a farsi benedire, la scheda riconoscerà 1 DP, 1HDMI, 2DVI(!!!) ed 1 Type-C, al posto di 2DP, 2HDMI ed 1 Type-C, i display sugli hdmi, ora riconosciuti come dvi, saranno limitati a 1080p.
La scheda scalderà mediamente di più, anche la curva di clock di default tenderà ad utilizzare voltaggi ben superiori a quelli necessari.
il boost ottenibile non è poi così tanto, sicuramente non abbastanza per perdere 1 output (1 DP non funzionerà proprio più, almeno nel mio caso) e limitare i restanti (i 4k sugli hdmi ve li sognate)
il profilo ventola predefinito non gestirà benissimo le tre ventole, conviene poi crearsene uno ad hoc, nel mio caso la ventola centrale restava ferma a basse temperature, ad alte temperature segnavano 1700rpm mi pare, ma non credo che la centrale fosse allineata(non ho controllato cosa segnasse ab come fan 2, mea culpa), cmq a parità di voltaggi ed rpm il bios originale P dissipava molto meglio, i seguenti test li ho fatti quindi con una curva personalizzata e/o al 100%.
in sostanza, con la Strix abbiamo due bios e può esser divertente giocarci, però il pcb risulta non del tutto compatibile con i bios per FE e derivate, nel mio caso credo che lo lascerò, e se mai mi verrà voglia di fare una sessione di solo bench ci giocherò un po', c'è parecchio da perder tempo con la curva per ottenere delle accoppiate di voltaggi e clock soddisfacenti, ad ogni modo nel breve test, prima di tornare al bios P (per riacquisire gli output perduti) ho potuto benchare stabilmente ad 1.050v, cosa assolutamente irrealizzabile con il pl originale, e stare quindi più o meno stabilmente intorno ai 2100MHz.
É però assolutamente limitante nell'utilizzo giornaliero, a meno che non abbiate un solo monitor DP e/o gli altri non si fermino a 1080p.
Spero proprio che l'asus tiri fuori qualcosa di decente, evitando quindi che altri come me si mettano a provare bios esotici sul loro hw.
La questione degli output, così è come dovrebbero essere:
https://i.ibb.co/RQp7v8T/Screenshot-399.png (https://imgbb.com/)
e così è come risultano con il bios galax:
https://i.ibb.co/xgVq4HH/Screenshot-396.png (https://imgbb.com/)
https://i.ibb.co/3sdmVKF/Strix380-W-Output.png (https://ibb.co/b3m5Ytv)https://i.ibb.co/2F79mRM/Screenshot-398.png (https://imgbb.com/)https://i.ibb.co/51t692D/Screenshot-397.png (https://imgbb.com/)
Tralasciando tutto ciò che c'è nel mezzo, un bench con bios galax@default:
https://i.ibb.co/RDFHcm8/Screenshot-392.png (https://ibb.co/QKgmMR0)
Ed il meglio che sono riuscito a fare al volo.
https://i.ibb.co/gMmRcKx/Screenshot-395.png (https://ibb.co/JRmsSJ9)
si può fare ben di meglio, lo so, ma cmq in configurazione cpu/ram daily come questa con bios P non andavo oltre i 9776
https://i.ibb.co/Wy886qN/Strix380.png (https://imgbb.com/)https://i.ibb.co/gmXmtpD/Stralax.png (https://imgbb.com/)
ps: da considerare comunque che con il bios p originale si può comunque giocare giornalmente con una config da 9600pt all'sp1080e, quindi insomma, il gioco non vale la candela.
Detto ciò sarei comunque molto contento se l'asus facesse uscire qualcosa di più appropiato per la propria portabandiera.
djmatrix619
25-11-2018, 21:04
Altri due screen, per vedere le differenze tra qualitá DXR ULTRA e LOW. Non faró DXR OFF perché non mi pagano e non ho voglia (devo restartare il gioco per farlo, e non comincerei dallo stesso punto in ogni caso, tempo perso).
Cliccate per maggiori dettagli. Ci sono le stats ingame in altro a sx.
BF5 - DXR LOW - 3440x1440p:
https://i.imgur.com/VpLMOjS.png (https://imgur.com/LzXqvF2)
BF5 - DXR ULTRA - 3440x1440p:
https://i.imgur.com/KBoOA3y.png (https://imgur.com/mGem7G0)
Crysis90
25-11-2018, 21:09
Altri due screen, per vedere le differenze tra qualitá DXR ULTRA e LOW. Non faró DXR OFF perché non mi pagano e non ho voglia (devo restartare il gioco per farlo, e non comincerei dallo stesso punto in ogni caso, tempo perso).
Cliccate per maggiori dettagli. Ci sono le stats ingame in altro a sx.
BF5 - DXR LOW - 3440x1440p:
https://i.imgur.com/VpLMOjS.png (https://imgur.com/LzXqvF2)
BF5 - DXR ULTRA - 3440x1440p:
https://i.imgur.com/KBoOA3y.png (https://imgur.com/mGem7G0)
E dove 'sta la differenza?!?! :D :Prrr: :rolleyes:
sgrinfia
25-11-2018, 21:15
E dove 'sta la differenza?!?! :D :Prrr: :rolleyes:
Sui margini dell immagine ,su alto gli effetti arrivano anche sui margini ,invece su basso sono solo accentrati .
boh... a parte una "predominante magenta" forse più accentuata nella prima, mi sembrano praticamente identiche... :fagiano:
Cioè la strix ha la possibilità di scegliere due differenti bios, ho capito bene? Uno sarà più spinto ed uno più conservativo ...
Al di là del flash di un altro bios, quali sono le differenze fra i due bios stock?
è uno switch fisico posto sul pcb, a due posizioni P e Q (performance & quiet)
a detta di tutti cambia solo il profilo della ventola, la cosa nei giorni scorsi mi aveva convinto addirittura che non fossero neanche realmente due bios distinti, invece a quanto pare si, cambiano anche le versioni:
https://i.ibb.co/W3pbKrG/Q-Bios.png (https://imgbb.com/)https://i.ibb.co/ZSpMTN4/P-Bios.png (https://imgbb.com/)
hanno cmq il medesimo pl, che è la cosa che realmente conta su queste tu102
Ora, il Q fino ad oggi non l'avevo mai impostato e l'ho provato per pochi minuti prima di flasharci sopra il galax, avrei dovuto salvarmi la curva di clock originale per vedere se differiva, ma cmq non credo, per il resto ha si un profilo 0db per la ventola, in base alle recensioni medie si sta a 10° circa in più (73 contro 63, in situazioni simili con clock simili) con il Q rispetto al P, che comunque per i miei gusti è abbastanza tranquillo, a full load con il P solitamente le ventole vanno al 50% (1800rpm, più che sopportabili), insomma è comunque bello avere una scheda dual bios per poterci "giocare", peccato però che abbia una configurazione di output che non condivide con nessun'altra scheda con pl maggiorato.
amon.akira
25-11-2018, 21:53
Credo cambi solo il numero sei sample utilizzati nel raytracing, quindi dovrebbe cambiare la nitidezza dei riflessi ma non quanto e cosa si riflette.
What are the real differences between low, medium, high, and ultra DXR settings?
Yasin Uludağ: Right now the differences are:
Low: 0.9 smoothness cut-off and 15.0 per cent of screen resolution as maximum ray count.
Med: 0.9 smoothness cut-off and 23.3 per cent of screen resolution as maximum ray count.
High: 0.5 smoothness cut-off and 31.6 per cent of screen resolution as maximum ray count.
Ultra: 0.5 smoothness cut-off and 40.0 per cent of screen resolution as maximum ray count.
Thunder-74
25-11-2018, 22:01
è uno switch fisico posto sul pcb, a due posizioni P e Q (performance & quiet)
a detta di tutti cambia solo il profilo della ventola, la cosa nei giorni scorsi mi aveva convinto addirittura che non fossero neanche realmente due bios distinti, invece a quanto pare si, cambiano anche le versioni:
https://i.ibb.co/W3pbKrG/Q-Bios.png (https://imgbb.com/)https://i.ibb.co/ZSpMTN4/P-Bios.png (https://imgbb.com/)
hanno cmq il medesimo pl, che è la cosa che realmente conta su queste tu102
Ora, il Q fino ad oggi non l'avevo mai impostato e l'ho provato per pochi minuti prima di flasharci sopra il galax, avrei dovuto salvarmi la curva di clock originale per vedere se differiva, ma cmq non credo, per il resto ha si un profilo 0db per la ventola, in base alle recensioni medie si sta a 10° circa in più (73 contro 63, in situazioni simili con clock simili) con il Q rispetto al P, che comunque per i miei gusti è abbastanza tranquillo, a full load con il P solitamente le ventole vanno al 50% (1800rpm, più che sopportabili), insomma è comunque bello avere una scheda dual bios per poterci "giocare", peccato però che abbia una configurazione di output che non condivide con nessun'altra scheda con pl maggiorato.
Ci sarebbe la gigabyte che configura le porte in modo differente dallo standard (non se se come la strix) e adotta un bios da 366w
Ti metto il link
https://www.techpowerup.com/vgabios/204064/gigabyte-rtx2080ti-11264-180921
Inviato dal mio iPhone X utilizzando Tapatalk
Credo cambi solo il numero sei sample utilizzati nel raytracing, quindi dovrebbe cambiare la nitidezza dei riflessi ma non quanto e cosa si riflette.
Possibile che abbia capito male io, ma in base ad alcune analisi (quella di gn in particolare (https://www.youtube.com/watch?v=jaUP4LucmZM)) mi pareva di capire che cambiasse anche il fattore di "asperità" (orribile traduzione di "roughness"), cioè ogni superficiè riflette la luce a diverso modo, con l'rtx su low non tutte le superfici riflettono come ad ultra. Degli screens con superfici di metallo forse sarebbero più esplicativi.
cmq... io non sono in grado di spiegare la cosa, il link (https://www.youtube.com/watch?v=jaUP4LucmZM) forse è stato già postato ma se non l'avete visto è interessante.
Vedremo come andrà lo SLI di strix .. fra le due schede ci stanno 2,5 cm di spazio .. 4 ventole in estrazione (3 al top e 1 dietro) e 3 ventole in immissione che sparano aria fresca sulle schede .. il tutto in un cosmos C700M..
Vedremo
Ci sarebbe la gigabyte che configura le porte in modo differente dallo standard (non se se come la strix) e adotta un bios da 366w
Ti metto il link
https://www.techpowerup.com/vgabios/204064/gigabyte-rtx2080ti-11264-180921
Inviato dal mio iPhone X utilizzando Tapatalk
Ti ringrazio, ci avevo già pensato ma la gaming è una FE, con i medesimi outputs.
Pensavo più che altro che magari un futuro bios dell'aorus potrà essere utile, ma in realtà potrebbe solo complicare ulteriormente le cose, in quel caso saranno 3DP +3HDMI ed 1TC, che funzioneranno in modalità combo, cioè 2DP fissi, e 2DP o HDMI a seconda di cosa si sceglie, potenzialmente quindi esiste la possibilità che possa funzionare in modalità 2DP + 2HDMI, ma insomma c'è da aspettare che la scheda arrivi realmente sul mercato (per ora c'è solo la liscia, e della Ti non ho visto neanche il bios), che abbia un buon PL (per tradizione Aorus dovrebbe, anche a discapito di altro), e poi magari proverò.
Altrimenti, sempre mandando a quel paese gli hdmi, quasi quasi potrei provare anche il bios da 400W che è saltato fuori per la Trio X, tanto alla fine si è capito che quella funziona come una FE in tutto e per tutto, quello ce l'ho salvato, se avrò tempo, modo e sangue freddo magari un tentativo lo farò.
poi, in estrema razio c'è l'hof da 450W, ma se non si ha notizia di nessuno che l'abbia provato (così come neanche del 400 msi su altre schede in realtà) non so che danni possa fare :fagiano: (sull'hof scherzo ovviamente, fino a prova contraria, non dovrebbe funzionare su altre schede)
Comunque io per ora di schede 2DP 2HDMI non ne ho trovate altre con buon PL, se ne conoscete qualcuna vi sarei grato se me la segnalaste.
Vedremo come andrà lo SLI di strix .. fra le due schede ci stanno 2,5 cm di spazio .. 4 ventole in estrazione (3 al top e 1 dietro) e 3 ventole in immissione che sparano aria fresca sulle schede .. il tutto in un cosmos C700M..
Vedremo
Su piattaforma mainstream ti avrei ultra-sconsigliato la cosa, ma se sulla Rampage V hai modo di mettere la seconda sul quarto slot forse la situazione, con un airflow decente, non sarà così drammatica.
Io nella mia precedente breve esperienza di SLI ho imparato che anche mezzo cm può fare la differenza, cmq 2.5 potrebbero essere sufficienti, ho visto e provato di peggio (schede che si toccavano proprio, non lo consiglio decisamente)
Thunder-74
25-11-2018, 22:45
Ok , se hai già valutato ;)
Io starei attento con bios superiori ai 375/380... i 300w vengono presi dai due connettori da 8 pin, il resto dallo slot pcie e sovraccaricarlo non è un bene.
Inviato dal mio iPhone X utilizzando Tapatalk
Ok , se hai già valutato ;)
Io starei attento con bios superiori ai 375/380... i 300w vengono presi dai due connettori da 8 pin, il resto dallo slot pcie e sovraccaricarlo non è un bene.
Inviato dal mio iPhone X utilizzando Tapatalk
si, la speranza è che il power balancer nv funzioni a dovere, e che sul pcie non passi più del dovuto (5A? non ricordo, qualcosa del genere), che poi su 2x8pin potrebbero andare tranquillamente anche più di 300W
ma tanto nel mio caso il problema non si pone, al max potrò fare qualche sessione di bench con quei bios se proprio non ho di meglio da fare ed in daily uso ho una curva che evita anche il pl di 325W.
cmq ho detto un'inesattezza sull'aorus, la modalità combo sarà 1dp ed 1hdmi + 2x DP/HDMI, vabbè insomma non dovrebbe andar bene neanche quella.
Quindi la speranza rimane quella di un update da parte dell'Asus, perchè comunque il concetto è che la scheda potrebbe e dovrebbe dare di più anche per un utilizzo giornaliero, ma mi sa che non c'è molto da sperarci.
ps: un'ultima considerazione, anche se mi rendo conto che sto un po' monopolizzando il thread e me ne scuso, non è che voglio un bios con pl maggiore solo per la bramosia di più w e/o per usarne poi realmente 380/400 o quello che è, semplicemente i 325 sulla strix sono troppo, troppo pochi, anche per il gaming ci può essere biosogno di una manciata di mhz in più, cosa che ad 1.018v di massimale non è possibile, basterebbe avere qualcosa con cui poter stare anche a 2070 stabili, probabilmente chiedo troppo, ma per come è venduta questa scheda non dovrebbe esser così.
Dopodichè ove non necessario sono felicissimo di dargli quanto meno voltaggio possibile, anche perchè come già fatto notare da altri, sotto i 300w sono schede tremendamente efficienti (come performances per w), nell'assurdo. Dopo gli incrimenti diventano irrisori a discapito di consumi esponenzialmente maggiori. Ma non mi interessa andare ad 1.1v, 1.093 o quello che è come vedo fare in giro, semplicemente trovo che le strix siano esageratamente limitate anche per l'utilizzo quotidiano.
A tal proposito rinnovo comunque la mia richieta, qual'è la sintesi dei vostri undervolt?
il mio attuale profilo gaming come già accennato è 0.956/1980 (0.962/2025 in altri casi, nel primo comunque il pl non lo tocco mai e poi mai), ma per giochi meno esigenti tipo fc5 vorrei farmi anche una curva più "economica", per quanto abbia già notato che quando non c'è proprio alcun bisogno di tutta questa potenza, ma molto molto meno tipo in borderlands 2 4k60 la scheda va in modalità 1350/0.7v (0.731 forse, non ricordo i dettagli), che forse non è neanche considerabile 3d mode.
insomma vorrei avere diversi profili fra cui scegliere, peccato che fra essi, per titoli molto esosi, non ci possa essere nulla sopra 1.018v allo stato attuale.
La differenza non è palese ok, ma a me piace questo RTX. :)
AceGranger
26-11-2018, 03:21
Una tecnologia nuova non puo' ridurre i costi di sviluppo dopo che gli sviluppatori sono esperti decennali del metodo precedente.
questo non è del tutto vero.
gli sviluppatori sono gia "esperti" di RT, NESSUN asset ( che sia un modello di auto, persona, pianta, casa etc. etc. o texture, mapping etc .etc. ) viene modellato/texturizzato all'interno di un Game Engine; lo sviluppatore parte sempre da elementi che sono creati in software che sono Ray Tracing e utilizzano materiali BPR, vedasi 3D Max, Maya, Substance Designer e Substance Painter ( questi sono i software base del mercato videoludico ) e quindi deve sempre avvenire una conversione fra quello che viene realizzato in fase di creazione che è RT nel raster dei Game Engine.
Attualmente si sta cercando di arrivare ad avere un materiale standard, multi-software e fisicamente corretto che sia sempre lo stesso, dalla fase di creazione all'import nel Game Engine; l'RT fa parte di questa filiera perchè permette, con stesso materiale, di avere lo stesso tipo di calcolo e quindi una resa "identica" a cio che si vede durante la fase di creazione; non è nemmeno un caso che i motori di render dei sofware di creazione stanno approdando come plugin all'interno dei Game Engine...
lo scopo principale insomma è usare il meno possibile il Material Editor dei Game Engine ( che fa letteralmente ribrezzo rispetto a quello dei software di creazione degli asset ) e lavorare solo una volta in fase di creazione dell'asset.
Per la parte Luci e Riflessioni c'è un discorso piu complesso ma la sostanza non cambia.
Attualmente Epyc ha da poco lanciato un tool ad abbonamento che aiuta la conversione fra software di modellazione e Unreal Engine, con l'RT adottata di base, ci sarebbe una conversione 1:1 quasi perfetta e si dovrebbero fare anche pochi aggiustamenti sulle luci; prima avverra il passaggio e meglio sara per tutti, sicuramente si arrivera ad una resa grafica nettamente superiore.
tuttavia non credo che avverra mai un abbattimento dei costi, si semplifichera la vita agli sviluppatori ma il tempo in guadagnato verra impiegato nel migliorare la qualita.
sertopica
26-11-2018, 05:10
Sui margini dell immagine ,su alto gli effetti arrivano anche sui margini ,invece su basso sono solo accentrati .
Non solo, su Ultra vengono reitresizzate anche ulteriori superfici che su low vengono per cosi' dire risparmiate. E poi si', la qualita' dei samples e piu' alta, quindi i riflessi risulteranno meno spixellati.
Ti ringrazio, ci avevo già pensato ma la gaming è una FE, con i medesimi outputs.
Pensavo più che altro che magari un futuro bios dell'aorus potrà essere utile, ma in realtà potrebbe solo complicare ulteriormente le cose, in quel caso saranno 3DP +3HDMI ed 1TC, che funzioneranno in modalità combo, cioè 2DP fissi, e 2DP o HDMI a seconda di cosa si sceglie, potenzialmente quindi esiste la possibilità che possa funzionare in modalità 2DP + 2HDMI, ma insomma c'è da aspettare che la scheda arrivi realmente sul mercato (per ora c'è solo la liscia, e della Ti non ho visto neanche il bios), che abbia un buon PL (per tradizione Aorus dovrebbe, anche a discapito di altro), e poi magari proverò.
Altrimenti, sempre mandando a quel paese gli hdmi, quasi quasi potrei provare anche il bios da 400W che è saltato fuori per la Trio X, tanto alla fine si è capito che quella funziona come una FE in tutto e per tutto, quello ce l'ho salvato, se avrò tempo, modo e sangue freddo magari un tentativo lo farò.
poi, in estrema razio c'è l'hof da 450W, ma se non si ha notizia di nessuno che l'abbia provato (così come neanche del 400 msi su altre schede in realtà) non so che danni possa fare :fagiano: (sull'hof scherzo ovviamente, fino a prova contraria, non dovrebbe funzionare su altre schede)
Comunque io per ora di schede 2DP 2HDMI non ne ho trovate altre con buon PL, se ne conoscete qualcuna vi sarei grato se me la segnalaste.
Su piattaforma mainstream ti avrei ultra-sconsigliato la cosa, ma se sulla Rampage V hai modo di mettere la seconda sul quarto slot forse la situazione, con un airflow decente, non sarà così drammatica.
Io nella mia precedente breve esperienza di SLI ho imparato che anche mezzo cm può fare la differenza, cmq 2.5 potrebbero essere sufficienti, ho visto e provato di peggio (schede che si toccavano proprio, non lo consiglio decisamente)
Si tra i due slot PCI ci sono 8 cm.. la scheda è spessa 5,5 cm quindi ci stanno 2,5 centimetri fra le due schede...
vedremo
scorpion73
26-11-2018, 07:29
Si tra i due slot PCI ci sono 8 cm.. la scheda è spessa 5,5 cm quindi ci stanno 2,5 centimetri fra le due schede...
vedremo
beatl dove hai preso la Strix?
beatl dove hai preso la Strix?
Dragone, ma deve ancora arrivare
scorpion73
26-11-2018, 07:49
Infatti è dove eventualmente pensavo di prenderla io, così sto bene anche come garanzia.
Mi piace molto questa scheda, a sto giro più della FTW3 come PCB e struttura.
Mi sembra robusta e ben progettata, ho solo un dubbio: ma i VRM a sinistra della GPU sono raffreddati a dovere?
EDIT: dalla recensione di Guru3D sembra che sta scheda non abbia problemi di calore, a differenza di altri PCB custom come la FTW3 sulle RAM
TigerTank
26-11-2018, 07:52
Voi che dite, quale è con RTX e quale no?
https://i.postimg.cc/BLJXf33t/1.jpg (https://postimg.cc/BLJXf33t)
https://i.postimg.cc/xJgq0Zj5/2.jpg (https://postimg.cc/xJgq0Zj5)
Al momento presumo che in ray tracing ci sia solo quel che in più si vede nella seconda e non presente nella prima, proprio perche RTX ON = ibrido tra rasterizzazione ed RT vero e proprio.
Fosse tutto RT probabilmente si andrebbe a 10-20fps in fullHD con una 2080Ti :asd:
Comunque per quel che mi riguarda...per ora meglio un buon framerate a 1440p o 4K piuttosto che andare a lumaca per qualche riflesso che poi giocando finisci per notare di rado. Non è certo come vedere uno screenshot o una demo.
Altri due screen, per vedere le differenze tra qualitá DXR ULTRA e LOW. Non faró DXR OFF perché non mi pagano e non ho voglia (devo restartare il gioco per farlo, e non comincerei dallo stesso punto in ogni caso, tempo perso).
Cliccate per maggiori dettagli. Ci sono le stats ingame in altro a sx.
BF5 - DXR LOW - 3440x1440p:
https://i.imgur.com/VpLMOjS.png (https://imgur.com/LzXqvF2)
BF5 - DXR ULTRA - 3440x1440p:
https://i.imgur.com/KBoOA3y.png (https://imgur.com/mGem7G0)
Sì ma al momento questi confronti in BF5 dicono poco perchè è risaputo che i preset di settaggio dell'RT siano ancora da sistemare :)
In ogni caso, se il LOW è il vero LOW, imho direi che sia già di buona qualità e si possa tranquillamente risparmiare in risorse.
Infatti è dove eventualmente pensavo di prenderla io, così sto bene anche come garanzia.
Mi piace molto questa scheda, a sto giro più della FTW3 come PCB e struttura.
Mi sembra robusta e ben progettata, ho solo un dubbio: ma i VRM a sinistra della GPU sono raffreddati a dovere?
EDIT: dalla recensione di Guru3D sembra che sta scheda non abbia problemi di calore, a differenza di altri PCB custom come la FTW3 sulle RAM
Si sembra una ottima scheda
A tal proposito rinnovo comunque la mia richieta, qual'è la sintesi dei vostri undervolt?
Attualmente così su una Zotac 2080ti Amp con bios della EVGA XC Ultra.
0.900 - 1950
0.875 - 1920
0.850 - 1890
0.800 - 1785
Occhio ad impostare le curve a temperature gaming, oppure la curva potrà salire o scendere a seconda delle temperature (=la curva sale o scende a seconda delle temp, non si può evitare, ma se la imposti alle temperature desiderate dovresti essere a posto)
Quanto ai bios, ho fatto varie prove sia col bios Zotac (300W), sia con quello della XC Ultra (330W) che con quello della FTW3 (366W).
Tra i 300W ed i 330W sostanzialmente non mi è cambiato nulla in termini di OC, ma il bios della XC ha un profilo ventole fantastico (fan stop, curva silenziosa) cui è difficile rinunciare (la Zotac ha un profilo troppo aggressivo e rumoroso, che non serve a nulla).
Il bios della FTW3 è quello che mi ha dato un po' più di mhz (diciamo 30mhz quando va bene, spesso solo 15mhz oppure addirittura nulla) a scapito però di rumorosità molto più elevata rispetto alla XC, e niente fan stop. Sicuramente i mhz in più sono dovuti alle temperature raggiunte un po' più basse, tutto qui.
Altra cosa che ho notato, un oc troppo spinto della memoria diventa controproducente, i punteggi calano, e non capisco il perchè (ho tenuto d'occhio il PL ed i W consumati, non viene sforato nulla).
Attualmente ho messo a +800, devo provare ancora a scendere.
TigerTank
26-11-2018, 08:19
Si sembra una ottima scheda
1500€ e arrivo "presunto" per il 21 dicembre...magari nel frattempo escono tipo le evga con il wubbo :sofico:
Comunque c'è una penuria pazzesca di schede :mc:
beatl se ti interessa c'è a listino anche la Aorus con il wubbo a 1600€, presunto arrivo al 30 novembre.
1500€ e arrivo "presunto" per il 21 dicembre...magari nel frattempo escono tipo le evga con il wubbo :sofico:
Comunque c'è una penuria pazzesca di schede :mc:
beatl se ti interessa c'è a listino anche la Aorus con il wubbo a 1600€, presunto arrivo al 30 novembre.
Io la vedo per il 6 dicembre ...:confused:
raybantracing
26-11-2018, 08:51
Ragazzi ma allora vale la pena di prendere queste rtx anche solo per giocare ai "giochi non rtx"?
Ho sentito che nemmeno Battlefield supporta lo SLI quando rtx è attivo :(
TigerTank
26-11-2018, 09:05
Io la vedo per il 6 dicembre ...:confused:
6 dicembre quella ad aria, io intendevo quella con il wubbo fullcover. Data al 30 novembre per la spedizione. Però per il 30 novembre ci sarebbe anche la Strix "Advanced".
6 dicembre quella ad aria, io intendevo quella con il wubbo fullcover. Data al 30 novembre per la spedizione. Però per il 30 novembre ci sarebbe anche la Strix "Advanced".
Ah ok ...
Predator_1982
26-11-2018, 09:11
Che rtx oggi non fosse pronto era chiaro fin da quando fu annunciato che funzionava solo in full HD.
Ma se davvero riduce i costi di sviluppo non c'è molto da temere sul futuro della tecnologia.
Inviato dal mio SM-G960F utilizzando Tapatalk
il fatto che gli effetti DXR siano "godibili" solo in full hd dimostra più che altro che è l'hw attuale a non essere abbastanza potente più che la tecnologia non pronta. Vero invece che, allo stato attuale, si è dimostrata acerba anche la sua implementazione su BF V.
Comunque sia, ieri ho giocato un po' a BF V (a me la serie BF piace parecchio), e devo dire che con DXR su low garantiscono un frame rate più che accettabile ( 80/90 a 1080p nella maggior parte delle situazioni). Dato che io francamente non bado molto ai numeretti quando gioco mi starebbe più che bene anche un frame rate intorno ai 60 in full hd con DXR su medio. Capisco comunque che la maggior parte di voi pretende molto di più.
I riflessi nelle pozzanghere aldilà di tutto sono davvero fighi e mi hanno consentito in diverse occasioni di accorgermi di un nemico appostato prima che lui vedesse me. :D :D
Black"SLI"jack
26-11-2018, 09:31
Ragazzi ma allora vale la pena di prendere queste rtx anche solo per giocare ai "giochi non rtx"?
Ho sentito che nemmeno Battlefield supporta lo SLI quando rtx è attivo :(
dipende da cosa ha i adesso come vga, a quale risoluzione giochi.
nel senso che se giochi a 1080p/1440p (considera pure il 3440x1440), ma hai già una scheda tipo gtx1080/vega64 o superiore, puoi passare tranquillamente. se poi sfrutti anche un monitor g-sync/free-sync a maggior ragione.
discorso diverso invece se giochi in 4k. anche se per avere i 60 fissi, in certi mattoni, con settaggi maxati, serve una 2080ti.
Cmq BFV è superbuggato,in dx12 nella campagna se si viene uccisi e il gioco ricarica la partita le prestazioni vengono dimezzate con uso gpu fisso al 99%,tocca riavviare il gioco,in dx11 questo problema non c è però a volte capita che si disattivi l HDR e poi muovendosi con il pg si riattivi.bah.sempre peggio sti giochi.
Inviato dal mio LG-H870 utilizzando Tapatalk
Si tra i due slot PCI ci sono 8 cm.. la scheda è spessa 5,5 cm quindi ci stanno 2,5 centimetri fra le due schede...
vedremo
detto ciò, io personalmente ti avrei comunque consigliato due FTW3, ma tanto mi pare di capire che sei fidelizzato ad Asus, spero non rimarrai deluso come me dall'impossibilità di overclockare la strix entro frequenze definibili tali, seppur leggere.
Se comunque vorrai utilizzarle con una curva simile a quella che ti ho inviato non dovrebbero scaldare come le varie fe con galax bios in giro, ma forse restare in temini accettabili anche in sli, altrimenti potrai comunque overvoltarle molto, molto di più.
Infatti è dove eventualmente pensavo di prenderla io, così sto bene anche come garanzia.
Mi piace molto questa scheda, a sto giro più della FTW3 come PCB e struttura.
Mi sembra robusta e ben progettata, ho solo un dubbio: ma i VRM a sinistra della GPU sono raffreddati a dovere?
EDIT: dalla recensione di Guru3D sembra che sta scheda non abbia problemi di calore, a differenza di altri PCB custom come la FTW3 sulle RAM
Ragazzi si, la scheda in teoria viaggia su temperature più che accettabili, ma per ram e vrms il discorso è che semplicemente sulla Strix non puoi sapere a quanto stanno, e spesso ignorare è meglio.
Detto ciò c'è moltas psicosi in giro al riguardo, è stato dimostrato da più fonti che sia la ram che i vrm (soprattutto nel caso della strix o simili, vedasi l'analisi di "Buildzoid" al riguardo) potrebbero campare senza patemi anche dissipate poco o niente.
Detto ciò ribadisco, da possessore di Strix consiglio la FTW3.
Le temps sulla Strix sono grandiose, confrontate con altre Ti, ma considerate anche che la gpu in oc medio-bassi nelle varie recensioni, viaggia mediamente a 300mV in meno, che non sono affatto pochi.
Quindi si le schede rimangono relativamente "fresche", ma ciò è dovuto, oltre alla bontà di pcb/heatsink/fan curve etc, anche al semplice fatto che i clock e soprattutto i voltaggi raggiunti sono mediamente ben inferiori o comunque ottenuti con tensioni minori.
Qualora la cosa possa interessarvi potrei, nei prossimi giorni, fare delle comparative tra bios galax (preso come esempio di bios qualunque con pl maggiorato) ed original P in merito alla differenza di resa termica in diversi scenari.
I primi test al volo fatti ieri cmq mostravano incrementi fino a 5° tra oc ad 1.01v ed 1.05 c.ca.
Attualmente così su una Zotac 2080ti Amp con bios della EVGA XC Ultra.
0.900 - 1950
0.875 - 1920
0.850 - 1890
0.800 - 1785
Occhio ad impostare le curve a temperature gaming, oppure la curva potrà salire o scendere a seconda delle temperature (=la curva sale o scende a seconda delle temp, non si può evitare, ma se la imposti alle temperature desiderate dovresti essere a posto)
Quanto ai bios, ho fatto varie prove sia col bios Zotac (300W), sia con quello della XC Ultra (330W) che con quello della FTW3 (366W).
Tra i 300W ed i 330W sostanzialmente non mi è cambiato nulla in termini di OC, ma il bios della XC ha un profilo ventole fantastico (fan stop, curva silenziosa) cui è difficile rinunciare (la Zotac ha un profilo troppo aggressivo e rumoroso, che non serve a nulla).
Il bios della FTW3 è quello che mi ha dato un po' più di mhz (diciamo 30mhz quando va bene, spesso solo 15mhz oppure addirittura nulla) a scapito però di rumorosità molto più elevata rispetto alla XC, e niente fan stop. Sicuramente i mhz in più sono dovuti alle temperature raggiunte un po' più basse, tutto qui.
Altra cosa che ho notato, un oc troppo spinto della memoria diventa controproducente, i punteggi calano, e non capisco il perchè (ho tenuto d'occhio il PL ed i W consumati, non viene sforato nulla).
Attualmente ho messo a +800, devo provare ancora a scendere.
Ti ringrazio per le info, le utilizzerò come riferimenti per test simili.
I drop di 15MHz per il resto li conosco fin troppo bene, nel migliore dei casi sono riuscito a limitarmi ad uno solo (1980 to 1965 a 0.956, sempre sotto i 54°, il primo drop è sulla quarantina se non erro, se non si toccano limiti di altro genere come pl, vl etc).
Ragazzi ma allora vale la pena di prendere queste rtx anche solo per giocare ai "giochi non rtx"?
Ho sentito che nemmeno Battlefield supporta lo SLI quando rtx è attivo :(
La questione è molto soggettiva, ma allo stato attuale credo di non essere il solo a pensare che ha senso prendere la Ti soprattutto se si gioca a 4K@60Hz, dove alternative reali non ve ne sono, soprattutto senza RTX, per le altre versioni dipende da molte cose, soprattutto da che scheda monti attualmente, a quale risoluzione/refresh giochi, se sei particolarmente insoddisfatto delle tue attuali performances, dal resto della config, dal budget etc etc.
ma resta il fatto che le schede rendono meglio anche in rasterizzazione "normale", in rtx semplicemente funzionano, mentre le altre proprio no.
Per lo sli su RTX io per ora non ho visto nulla al riguardo, mi pareva di capire che cmq il supporto ufficiale per lo sli su bf5 è limitato alle dx11, quindi per ora su rtx nada de nada, sempre a meno che qualcuno non abbia creato un profilo ad hoc o se non hai particolare fortuna smanettando con nv profiles ispector o simili, anche in questo caso sarei felicissimo di sbagliarmi.
6 dicembre quella ad aria, io intendevo quella con il wubbo fullcover. Data al 30 novembre per la spedizione. Però per il 30 novembre ci sarebbe anche la Strix "Advanced".
La advanced, in teoria, dovrebbe avere il pl ulteriormente limitato a 312w, ma in quel caso non dovrebbe essere un grande problema flasharlo con quello dell'oc, magari verifica giusto che abbia anche lei il dual bios.
scorpion73
26-11-2018, 10:29
6 dicembre quella ad aria, io intendevo quella con il wubbo fullcover. Data al 30 novembre per la spedizione. Però per il 30 novembre ci sarebbe anche la Strix "Advanced".
Quale è la differenza fra RTX 2080 Ti ROG STRIX O11G e RTX 2080 Ti ROG STRIX A11G?
Sinceramente dal sito non lo riesco a capire, sarà che mi sfugge qualche dettaglio...
Ciosko che versione hai tu?
scorpion73
26-11-2018, 10:43
Ragazzi si, la scheda in teoria viaggia su temperature più che accettabili, ma per ram e vrms il discorso è che semplicemente sulla Strix non puoi sapere a quanto stanno, e spesso ignorare è meglio.
Detto ciò c'è moltas psicosi in giro al riguardo, è stato dimostrato da più fonti che sia la ram che i vrm (soprattutto nel caso della strix o simili, vedasi l'analisi di "Buildzoid" al riguardo) potrebbero campare senza patemi anche dissipate poco o niente.
Detto ciò ribadisco, da possessore di Strix consiglio la FTW3.
Le temps sulla Strix sono grandiose, confrontate con altre Ti, ma considerate anche che la gpu in oc medio-bassi nelle varie recensioni, viaggia mediamente a 300mV in meno, che non sono affatto pochi.
Io parto dal fatto che misuro la scheda a stock: non ho mai overcloccato la GPU e non lo voglio fare nemmeno stavolta, quindi parto da una analisi "a stock".
Prima analisi è il PCB: la Asus usa dei componenti di primissima qualità, migliori di quelli nvidia a leggere le recensioni, mentre la FTW3 mi sembra che erediti molti componenti dalla FE (in primis i VRM), al di là del numero di fasi.
Inoltre se guardi il PCB i VRM stanno molto più distanti dai chip delle memorie sulla Strix mentre sulla FTW3 sono attaccati come sulla FE; questo secondo me incide parecchio sul calore sottoposto all'area del PCB dove risiedono le memorie, oltre al discorso corrente che genera campi magnetici.
VRM distanti da GPU e memorie secondo me non è un fattore secondario da considerare: non so quante Strix sono morte ma sul forum EVGA si inizia a leggere di FTW3 non funzionanti o con problemi al di là del mero calore delle memorie.
Inoltre sempre guardando il PCB noto che le memorie del banco superiore sono molto lontane sulla FTW3 dal bordo del PCB, e la cosa TEMO (ma è solo un mio sentore) che provochi ristagno di calore perché l'aria difficilmente raggiunge il bordo del PCB e sale, cosa che non accade sulla Strix.
E' vero che non sai per contro le temperature delle RAM ma su Guru3D ci sono le analisi con le thermal cam che non sembrano riscontrare problemi di calore in quelle zone, forse anche per la maggiore distanza dai VRM
Quindi non guardando solo il PL per l'overclock, ma anche quelli che sono secondo me criteri più importanti per la stabilità della scheda, a mio parere la Strix è progettata meglio della FTW3.
L'unico, e ripeto unico dubbio sono i VRM a sinistra della GPU, che sulla Strix non sono a contatto diretto col dissipatore.
Inoltre la FTW3 ha pad termici sul backplate che aiutano a dissipare il calore e che la strix non ha, ma che penso si possano aggiungere in caso senza problemi sotto le aree di vrm e ram, ma anche qui tocca vedere se lo spessore lo consente. ciosko sai dirmi quanto è lo spazio fra pcb e backplate?
Mi piacerebbe sapere le vs opinioni sul merito.
Attualmente così su una Zotac 2080ti Amp con bios della EVGA XC Ultra.
0.900 - 1950
0.875 - 1920
0.850 - 1890
0.800 - 1785
Occhio ad impostare le curve a temperature gaming, oppure la curva potrà salire o scendere a seconda delle temperature (=la curva sale o scende a seconda delle temp, non si può evitare, ma se la imposti alle temperature desiderate dovresti essere a posto)
Quanto ai bios, ho fatto varie prove sia col bios Zotac (300W), sia con quello della XC Ultra (330W) che con quello della FTW3 (366W).
Tra i 300W ed i 330W sostanzialmente non mi è cambiato nulla in termini di OC, ma il bios della XC ha un profilo ventole fantastico (fan stop, curva silenziosa) cui è difficile rinunciare (la Zotac ha un profilo troppo aggressivo e rumoroso, che non serve a nulla).
Il bios della FTW3 è quello che mi ha dato un po' più di mhz (diciamo 30mhz quando va bene, spesso solo 15mhz oppure addirittura nulla) a scapito però di rumorosità molto più elevata rispetto alla XC, e niente fan stop. Sicuramente i mhz in più sono dovuti alle temperature raggiunte un po' più basse, tutto qui.
Altra cosa che ho notato, un oc troppo spinto della memoria diventa controproducente, i punteggi calano, e non capisco il perchè (ho tenuto d'occhio il PL ed i W consumati, non viene sforato nulla).
Attualmente ho messo a +800, devo provare ancora a scendere.
Cosa intendi per impostare la curva in gaming?
Predator_1982
26-11-2018, 11:55
Molto bene su intel
https://www.techspot.com/review/1754-battlefield-5-cpu-multiplayer-bench/
ennesimo refresh 14nm++++++++ 10 core LOL
http://www.pcgameshardware.de/Ice-Lake-Codename-267358/News/Intel-Comet-Lake-S-10-Kerner-Konter-AMD-Zen-2-1270030/
infatti io continuerò per il momento a tenermi stretto il mio bel 7700k
scorpion73
26-11-2018, 12:03
https://digiworthy.com/2018/11/12/nvidia-7nm-gpu/
AceGranger
26-11-2018, 13:08
https://digiworthy.com/2018/11/12/nvidia-7nm-gpu/
ah bè ma quello "si sapeva" gia; le Tesla V100 stanno arrivando a 2 anni di vita, a breve arriveranno le sostitute.
scorpion73
26-11-2018, 13:28
Si certo ma presumo che se sostituiranno quelle entro fine anno avremo anche un refresh della parte gaming... che sia ampere o refresh di turing non lo so, ma presumo che avremo schede ritarate con meno fame energetica.
Non avrebbe senso per loro continuare con questo processo a 12nm...
I padelloni hanno rese poco convenienti e con tutte le morie che ci sono secondo me si affretteranno a porre rimedio
fraussantin
26-11-2018, 13:43
Si certo ma presumo che se sostituiranno quelle entro fine anno avremo anche un refresh della parte gaming... che sia ampere o refresh di turing non lo so, ma presumo che avremo schede ritarate con meno fame energetica.
Non avrebbe senso per loro continuare con questo processo a 12nm...
I padelloni hanno rese poco convenienti e con tutte le morie che ci sono secondo me si affretteranno a porre rimedioNon penso che prima del 2020 inoltrato cambino la serie gaming . E non è escluso che la prossima serie sia un refresh di turing solo ottimizzato e a frequenze più alte.
Questa storia del ray tracing è come un cane che si morde la coda, sia perché si punta al 4K e l'era del 1080p sta tramontando, e il ray attuale risulta un macigno in 1080p e non in 4K, sia perché è vero che si va avanti nell'innovazione tecnologica e nello sviluppo di nuova potenza computazionale, ma come è sempre stato, anche i giochi vanno avanti, e si fanno sempre più pesanti. Io che punto al gaming 4K (che insieme all'HDR davvero offre una nuova esperienza visiva evidente), credo che sto ray tracing non lo vedrò molto presto, ma neanche tra tre/cinque anni.
mikael84
26-11-2018, 14:33
Si certo ma presumo che se sostituiranno quelle entro fine anno avremo anche un refresh della parte gaming... che sia ampere o refresh di turing non lo so, ma presumo che avremo schede ritarate con meno fame energetica.
Non avrebbe senso per loro continuare con questo processo a 12nm...
I padelloni hanno rese poco convenienti e con tutte le morie che ci sono secondo me si affretteranno a porre rimedio
Non penso che prima del 2020 inoltrato cambino la serie gaming . E non è escluso che la prossima serie sia un refresh di turing solo ottimizzato e a frequenze più alte.
Alzare solo il clock non serve a nulla, per schede così, sopratutto per calcoli PF64 e RT.
Volta è arrivata al limite con i 7TPC per GPC, ad 8 GPC perdi la metà delle rop's in viaggio.
Probabile che Ampere prossimo chip HPC, sia costruito ad 8 GPC (6144cc fp32/3072 fp64 e 768 tensor core), oppure 8 TPC/GPC.
Il post Turing, probabilmente inizialmente sarà un Pascal 2,0, ovvero, 1 TPC x GPC più clock.
Esempio la 2080 ha 6 GPC con internamente 4 TPC e 32 pixel elaborate via SFU, la 3080 potrebbe utilizzare lo stesso schema in modo da garantire 5 TPC/GPC in modo da raggiungere max 3840cc più clock, un fattore che la porterebbe sopra la 2080ti.
Aumentare solo il clock, porterebbe minori consumi ma prestazioni inferiori alla 2080ti, mi viene impensabile vedere una 3080 più scarsa della top attuale, considerando che a cambio nodo, già la x70 stava sopra la top precedente.
Anche qua, per la top di gamma, non è totalmente da escludere il passaggio agli 8 GPC, in modo da garantire per la quadro, 64gb di ram a modalità conchiglia e 16gb per la gaming.
TigerTank
26-11-2018, 14:34
Questa storia del ray tracing è come un cane che si morde la coda, sia perché si punta al 4K e l'era del 1080p sta tramontando, e il ray attuale risulta un macigno in 1080p e non in 4K, sia perché è vero che si va avanti nell'innovazione tecnologica e nello sviluppo di nuova potenza computazionale, ma come è sempre stato, anche i giochi vanno avanti, e si fanno sempre più pesanti. Io che punto al gaming 4K (che insieme all'HDR davvero offre una nuova esperienza visiva evidente), credo che sto ray tracing non lo vedrò molto presto, ma neanche tra tre/cinque anni.
Dimentichi la questione marketing e utili. Non fosse per questo avrebbero potuto tranquillamente prendersela con più calma e lanciare le nuove schede in un contesto leggermente più maturo e meno problematico.
O lasciare l'RT in fase di testing interno fino alla serie 3000, facendo uscire comunque queste schede a 12nnm ma ancora come GTX. Le avrebbero vendute comunque, tra mancata concorrenza e fame di prestazioni su 4K.
scorpion73
26-11-2018, 14:40
Tiger hai deciso poi cosa fare con le VGA?
Passi a 1080ti attendendo la serie 3000 o ti butti su una 2080?
Dimentichi la questione marketing e utili. Non fosse per questo avrebbero potuto tranquillamente prendersela con più calma e lanciare le nuove schede in un contesto leggermente più maturo e meno problematico.
O lasciare l'RT in fase di testing interno fino alla serie 3000, facendo uscire comunque queste schede a 12nnm ma ancora come GTX. Le avrebbero vendute comunque, tra mancata concorrenza e fame di prestazioni su 4K.
Per me dovevano aspettare la seria a 7 nm, quindi 2020, avrebbero avuto così un sistema decisamente fatto meglio, anche se 4K+ray tracing non si può proprio fare, per risultare fattibile ci vorrebbe una GPU che va tipo il doppio della Ti di ora, cosa che non è possibile neanche quando passeranno ai 7 nm.
mikael84
26-11-2018, 14:44
Questa storia del ray tracing è come un cane che si morde la coda, sia perché si punta al 4K e l'era del 1080p sta tramontando, e il ray attuale risulta un macigno in 1080p e non in 4K, sia perché è vero che si va avanti nell'innovazione tecnologica e nello sviluppo di nuova potenza computazionale, ma come è sempre stato, anche i giochi vanno avanti, e si fanno sempre più pesanti. Io che punto al gaming 4K (che insieme all'HDR davvero offre una nuova esperienza visiva evidente), credo che sto ray tracing non lo vedrò molto presto, ma neanche tra tre/cinque anni.
La questione è elementare, nvidia deve vendere gli scarti delle quadro. Essendo in assoluto monopolio tutto gli è concesso.;)
Cmq da qualche parte bisognava partire, purtroppo per ora a discapito di prezzi e prestazioni.
Dimentichi la questione marketing e utili. Non fosse per questo avrebbero potuto tranquillamente prendersela con più calma e lanciare le nuove schede in un contesto leggermente più maturo e meno problematico.
O lasciare l'RT in fase di testing interno fino alla serie 3000, facendo uscire comunque queste schede a 12nnm ma ancora come GTX. Le avrebbero vendute comunque, tra mancata concorrenza e fame di prestazioni su 4K.
I cut delle quadro non potevi buttarli però :) Essendo sola nel mercato poi....
Smontare i chip avrebbe richiesto altri 3 chip. Prima le quadro erano solitamente le gaming.
Ti saresti ritrovato con, chip Tesla HPC, quadro e gaming
Cmq da qualche parte bisognava partire, purtroppo per ora a discapito di prezzi e prestazioni.
Pessimo tempismo, perché già standardizzare il 4K è un serio problema computazionale (peggio che su console, per ovvia mancanza di ottimizzazione software), figuriamoci lavorare pure sul fronte del ray tracing.
TigerTank
26-11-2018, 15:04
I cut delle quadro non potevi buttarli però :) Essendo sola nel mercato poi....
Smontare i chip avrebbe richiesto altri 3 chip. Prima le quadro erano solitamente le gaming.
Ti saresti ritrovato con, chip Tesla HPC, quadro e gaming
Quindi in pratica il mercato gaming attuale è solo conseguenza di quello pro, dove ovviamente usano l'RT per tutt'altre cose mentre su gaming sta a livello sperimentale :D
Quindi in pratica il mercato gaming attuale è solo conseguenza di quello pro, dove ovviamente usano l'RT per tutt'altre cose mentre su gaming sta a livello sperimentale :D
Io personalmente, ho sempre visto le GPU da gaming come scarto di quelle Pro.
AceGranger
26-11-2018, 15:10
Si certo ma presumo che se sostituiranno quelle entro fine anno avremo anche un refresh della parte gaming... che sia ampere o refresh di turing non lo so, ma presumo che avremo schede ritarate con meno fame energetica.
Non avrebbe senso per loro continuare con questo processo a 12nm...
I padelloni hanno rese poco convenienti e con tutte le morie che ci sono secondo me si affretteranno a porre rimedio
non è cosi automatica la cosa, anche perchè fra Volta 14nm e Turing ne è passata di acqua sotto i ponti...
vedendo come stanno alnciando le GPU Turing ho idea anche io che non arriveranno prima del 2020.
fraussantin
26-11-2018, 15:24
Io personalmente, ho sempre visto le GPU da gaming come scarto di quelle Pro.Beh son 2 cose che devono coesistere.
L'una serve all'altra per sostenere i costi necessari allo sviluppo.
fraussantin
26-11-2018, 15:26
Quindi Turing non è un'architettura pensata principalmente per il gaming. :)Quello che mi chiedo io è se turing non ce l fa a muovere 2 raggi in bf come fanno le quadro a renderizzare film o cose del genere in tempo reale ?
Nei film il fotogramma dopo è certo, nei giochi no
Almeno per ora :asd:
fraussantin
26-11-2018, 15:31
Nei film il fotogramma dopo è certo, nei giochi no
Almeno per ora :asd:Ma scusa il rendering dei raggi con calma e tranquillità lo facevano pure prima queste dovrebbero farlo in tempo reale.
AceGranger
26-11-2018, 16:04
Ma scusa il rendering dei raggi con calma e tranquillità lo facevano pure prima queste dovrebbero farlo in tempo reale.
non lo fai con una singola GPU....
ma anche con le 2080Ti, basta prenderne 4 e fare 2 coppie di SLI, ti ritrovi con 2 "macro GPU" da 22 Gb di Vram l'una; in ambito pro è normale dividere il lavoro su piu GPU, il problema è in game che non investono piu in questo senso e oltre le 2 GPU scalano malissimo.
tralasciando il costo, l'RT attualemnte è uguale a quando uscirono i primi 4K o i primi 1440p, semplicemente si andava di SLI, attualmente è piu problematico ma il tutto si risolverebeb con 2 GPU, come si è sempre fatto all'uscita di un salto di questo tipo.
Thunder-74
26-11-2018, 16:12
The new version is: 417.01 WHQL
https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/
Game Ready
Provides the optimal gaming experience for Darksiders III.
Application SLI Profiles
Added or updated the following SLI profiles:
Artifact
Fixed Issues
Monitor refresh rates higher than 30 Hz cannot be applied on 4k monitors. [2423614]
Frame Rate Limiter 2 may not work. [2423316]
[Turing GPUs]: Event ID 14 error may occur if CSM is disabled in the system BIOS. [2434721]
[GeForce TX 650]: Shadowplay recordings are corrupted. [2416982]
[G-Sync]: G-sync may not disengage after exiting games. [2418574]
[GeForce Experience][Ansel]: Ansel images appear incomplete when the resolution is set to 30x or greater. [2082395]
Windows 10 Issues
[GeForce GTX 1080Ti]: Random DPC watchdog violation error when using multiple GPUs on motherboards with PLX chips. [2079538]
[Firefox]: Cursor shows brief corruption when hovering on certain links in Firefox. [2107201]
Display corruption may occur on higher refresh rate DisplayPort monitors upon resume from sleep mode. [2438988]
[G-Sync]: Random flickering occurs when connecting G-sync monitor + non-G-Sync HDMI monitor with G-Sync enabled. [2399845
Inviato dal mio iPhone X utilizzando Tapatalk
AceGranger
26-11-2018, 16:16
Sono ansioso di vedere i bench di BF5 in SLI con RTX per vedere quanto scala.
ma attualmente va il multi GPU normale ?
teoricamente, li calcoli RT dovrebbero scalare quasi perfettamente, bisogna vedere il resto.
Fixed Issues
Frame Rate Limiter 2 may not work. [2423316]
Esiste veramente questo Frame Rate Limiter 2? come si attiva?
io son sempre passato da nvidiaProfileInspector ma con risultati molto altalenanti :muro:
TigerTank
26-11-2018, 16:25
Questo era abbastanza evidente fin da subito :)
Sì beh ma diciamo mai in un modo così evidente, eclatante e limitante(ma pagato a caro prezzo) come ora.
Inoltre, come ha scritto già Mike diversi giorni fà...sorgerebbe spontanea la domanda "se le 2080Ti sono scarti delle Quadro, saranno defunte anche delle Quadro?" :D
Sono ansioso di vedere i bench di BF5 in SLI con RTX per vedere quanto scala.
Sempre se sia possibile la combinazione dx12 + Sli + RT :D
Anch'io sono curioso di vedere se in SLi l'efficacia degli RT e Tensor Cores si somma o meno. Speriamo non sia come per le vram :D
Però boh...strano che non abbiano fatto in modo di esordire con gli esiti di un ray tracing spinto da uno SLi di 2080Ti.
ROBHANAMICI
26-11-2018, 16:33
The new version is: 417.01 WHQL
https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/
Game Ready
Provides the optimal gaming experience for Darksiders III.
Application SLI Profiles
Added or updated the following SLI profiles:
Artifact
Fixed Issues
Monitor refresh rates higher than 30 Hz cannot be applied on 4k monitors. [2423614]
Frame Rate Limiter 2 may not work. [2423316]
[Turing GPUs]: Event ID 14 error may occur if CSM is disabled in the system BIOS. [2434721]
[GeForce TX 650]: Shadowplay recordings are corrupted. [2416982]
[G-Sync]: G-sync may not disengage after exiting games. [2418574]
[GeForce Experience][Ansel]: Ansel images appear incomplete when the resolution is set to 30x or greater. [2082395]
Windows 10 Issues
[GeForce GTX 1080Ti]: Random DPC watchdog violation error when using multiple GPUs on motherboards with PLX chips. [2079538]
[Firefox]: Cursor shows brief corruption when hovering on certain links in Firefox. [2107201]
Display corruption may occur on higher refresh rate DisplayPort monitors upon resume from sleep mode. [2438988]
[G-Sync]: Random flickering occurs when connecting G-sync monitor + non-G-Sync HDMI monitor with G-Sync enabled. [2399845
Inviato dal mio iPhone X utilizzando Tapatalk
Lol ci mancavano, ora dovremmo essere al completo :D
Thunder-74
26-11-2018, 16:44
Sono ansioso di vedere i bench di BF5 in SLI con RTX per vedere quanto scala.
Non esserlo... lo Sli in dx12 non va su BF5... probabilmente il primo bench lo vedremo con tomb raider visto che li lo Sli in dx12 va... manca la patch per il RT...
Inviato dal mio iPhone X utilizzando Tapatalk
AceGranger
26-11-2018, 16:47
Non esserlo... lo Sli in dx12 non va su BF5... probabilmente il primo bench lo vedremo con tomb raider visto che li lo Sli in dx12 va... manca la patch per il RT...
Inviato dal mio iPhone X utilizzando Tapatalk
ah ecco, mi pareva che fosse il frosbyte a mancare del supporto.
Thunder-74
26-11-2018, 16:48
Tomb Raider usa il mGPU delle DX12, non lo SLI/CF, almeno nel capitolo precedente, mi aspetto facciano uguale visto che il motore grafico non penso lo abbiano rifatto da capo solo per togliere delle features già sviluppate :)
Si giusto, dicevo Sli per semplificare ;)
Credo che se il RT si avvarrà delle due schede, non farà differenza se in Sli o mGPU... spero...
Inviato dal mio iPhone X utilizzando Tapatalk
Thunder-74
26-11-2018, 16:49
Si giusto, dicevo Sli per semplificare ;)
Credo che se il RT si avvarrà delle due schede, non farà differenza se in Sli o mGPU... spero...
Edit: ti confermo mGPU anche per il nuovo capitolo.
Inviato dal mio iPhone X utilizzando Tapatalk
Inviato dal mio iPhone X utilizzando Tapatalk
TigerTank
26-11-2018, 17:06
Ne dubito. Con le Quadro hanno usato i die migliori, cosa che riduce quel rischio, e visto l'ambito in cui devono lavorare è sicuro che ci siano stati più attenti. Oltretutto sulle RTX6000 quelle montano il blower che sulle geforce hanno abbandonato e hanno 45W di TDP in più della reference, che di certo non possono dipendere solo dalla memoria in più.
Se così fosse significherebbe che il problema risieda nella gpu stessa e non nelle vram o in un qualche componente del pcb. Si vedrà.
Queste sono le RTX6000 e 5000...
http://i.imgur.com/Wl1neVxm.jpg (https://imgur.com/Wl1neVx)
http://i.imgur.com/iUEX5N6m.jpg (https://imgur.com/iUEX5N6)
LINK (http://www.coolpc.com.tw/phpBB2/viewtopic.php?t=253720)
La 6000 si avvicina parecchio alla 2080Ti.
Se non l'hanno fatto probabilmente è perché è ancora più un casino del solito e le latenze renderebbero il gioco impossibile, anche se probabilmente anche dire ai giocatori "vi servono 3000€ per giocare decentemente" non sarebbe comunque stata una gran mossa :D
Più a livello pratico che di costi perchè comunque di sicuro al mondo esiste un pò di gente che ha già 2 2080 TI nel case :)
fraussantin
26-11-2018, 17:46
Figata l'orientamento dei connettori pci delle quadro, avessero fatto cosi anche con le GTX FE, la risultante un design impeccabile!! solo la 2070 ha il connettore posto in quella posizione, purtroppo a livello di collegamento hanno fatto una ''grezzata'':doh: a causa del pcb corto hanno allungato saldando cavi.
Per averli cosi, meglio tenerli in posizione standard LOL
https://i.ibb.co/zFhyDJg/rtx-2070-fe-09-94f9d9aa53109d949773298d1bfc92780.jpg (https://ibb.co/zFhyDJg)La 2070 fe ha il pcb corto come alcune reference ( tipo la evga )
Evga lo ha saldato sul pcb ma rimane a mezza scheda , loro han preferito allungarlo .. onestamente non vedo il problema , tanto quelle fasi vanno ad unirsi lo stesso sul pcb invece che volanti.
Poi si potrebbe discutere sul fatto che con 700 euro quasi un pcb lungo gli ci rientrava , ma vabbe ...
Kostanz77
26-11-2018, 17:57
Intanto sono usciti i nuovi driver 417.01
ROBHANAMICI
26-11-2018, 17:59
Si parla già di qualche problemuccio
Open Issues:
* Display corruption may occur on higher refresh rate DisplayPort monitors upon resume from sleep mode.
Kostanz77
26-11-2018, 18:13
Si parla già di qualche problemuccio
Open Issues:
* Display corruption may occur on higher refresh rate DisplayPort monitors upon resume from sleep mode.
con i nuovi driver?
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
ROBHANAMICI
26-11-2018, 18:15
yes con i nuovi.
Black"SLI"jack
26-11-2018, 19:07
Se volete sapere dove sono finite un po' di rtx guardatevi sto video.
https://www.youtube.com/watch?v=geL9d40DXwY&app=desktop
Notare la perla di montare delle CPU xeon broadwell-e che personalmente al massimo userei sul muletto che fa da free as :asd:
Inviato dal mio BLA-L09 utilizzando Tapatalk
Quale è la differenza fra RTX 2080 Ti ROG STRIX O11G e RTX 2080 Ti ROG STRIX A11G?
Sinceramente dal sito non lo riesco a capire, sarà che mi sfugge qualche dettaglio...
Ciosko che versione hai tu?
Io ho la OC, O11G.
La A è la Advanced edition, la O la OC edition, in qualche mercato (non in italia credo) dovrebbe esserci anche una versione "liscia", le differenze sono:
RTX 2080 Ti - ROG Strix Gaming OC edition - O11G 1665 MHz Boost - Bios 260-325W PN 90YV0CC0-M0NM00 (https://www.asus.com/Graphics-Cards/ROG-STRIX-RTX2080TI-O11G-GAMING/)
RTX 2080 Ti - ROG Strix Gaming Advanced edition - A11G 1590 MHz Boost OC Mode, 1575MHz in Gaming Mode - Bios 260-312W (da verificare) - PN 90YV0CC1-M0NM00 (https://www.asus.com/Graphics-Cards/ROG-STRIX-RTX2080TI-A11G-GAMING/)
RTX 2080 Ti -ROG Strix Gaming - "Liscia" - 1560MHz Boost OC Mode, 1545MHz in Gaming Mode - Bios 250-312W (da verificare) - PN 90YV0CC2-M0NM00 (https://www.asus.com/Graphics-Cards/ROG-STRIX-RTX2080TI-11G-GAMING/)
Ora, c'è da considerare che i clock "OC Mode" espressi sono ottenibili con il profilo "OC" tramite sw Asus GPU Tweak II, un semplice preset, nel caso della O11G ad esempio il boost clock reale da bios senza override software è di 1650MHz, che l'asus da specifiche definisce "Gaming mode", non è l'unico brand ad adottare questa strategia commerciale, che io sappia almeno MSI e GB fanno lo stesso tramite i propri sw (Aorus Engine nel caso di GB e su alcune schede msi utilizzava un'altra utility simile che non è afterburner)
Per il resto non ho modo di assicurarti che il pcb sia lo stesso al 100% su tutte e tre, anche se con estrema probabilità dovrebbe esserlo.
Nel mio caso cmq la OC è stata l'unica scheda disponibile su eP dopo due mesi di ordine, quindi anche volendo non c'era tanta scelta.
Io parto dal fatto che misuro la scheda a stock: non ho mai overcloccato la GPU e non lo voglio fare nemmeno stavolta, quindi parto da una analisi "a stock".
Prima analisi è il PCB: la Asus usa dei componenti di primissima qualità, migliori di quelli nvidia a leggere le recensioni, mentre la FTW3 mi sembra che erediti molti componenti dalla FE (in primis i VRM), al di là del numero di fasi.
Inoltre se guardi il PCB i VRM stanno molto più distanti dai chip delle memorie sulla Strix mentre sulla FTW3 sono attaccati come sulla FE; questo secondo me incide parecchio sul calore sottoposto all'area del PCB dove risiedono le memorie, oltre al discorso corrente che genera campi magnetici.
VRM distanti da GPU e memorie secondo me non è un fattore secondario da considerare: non so quante Strix sono morte ma sul forum EVGA si inizia a leggere di FTW3 non funzionanti o con problemi al di là del mero calore delle memorie.
Inoltre sempre guardando il PCB noto che le memorie del banco superiore sono molto lontane sulla FTW3 dal bordo del PCB, e la cosa TEMO (ma è solo un mio sentore) che provochi ristagno di calore perché l'aria difficilmente raggiunge il bordo del PCB e sale, cosa che non accade sulla Strix.
E' vero che non sai per contro le temperature delle RAM ma su Guru3D ci sono le analisi con le thermal cam che non sembrano riscontrare problemi di calore in quelle zone, forse anche per la maggiore distanza dai VRM
Quindi non guardando solo il PL per l'overclock, ma anche quelli che sono secondo me criteri più importanti per la stabilità della scheda, a mio parere la Strix è progettata meglio della FTW3.
L'unico, e ripeto unico dubbio sono i VRM a sinistra della GPU, che sulla Strix non sono a contatto diretto col dissipatore.
Inoltre la FTW3 ha pad termici sul backplate che aiutano a dissipare il calore e che la strix non ha, ma che penso si possano aggiungere in caso senza problemi sotto le aree di vrm e ram, ma anche qui tocca vedere se lo spessore lo consente. ciosko sai dirmi quanto è lo spazio fra pcb e backplate?
Mi piacerebbe sapere le vs opinioni sul merito.
la prossima volta che apro il case misuro con un calibro, ad occhio sui 2mm, non sembra proprio un bp dissipante cmq, nelle zone più calde è appositamente forato, la zona dx è occupata in buona parte dal logo rgb etc.
Per il resto posso rinnovare l'offerta di fare qualche test specifico su richiesta, nei limiti del ragionevole e del quando posso, con la camera termica: ho la flir one, ultra economica, ma pur sempre flir, ci devo ancora fare "amicizia" però, devo più che altro capire come tararla per una superficie come quella del backplate, le uniche foto fatte al volo in full load con oc mi sembravano fin troppo fresche per essere realistiche, eccovene un paio:
https://i.ibb.co/BzCGNzt/flir-20181125-T205031.jpg (https://ibb.co/X2CD82b)
https://i.ibb.co/1rJNgrw/flir-20181125-T205303.jpg (https://ibb.co/R34KF3V)
Queste le ho fatte ieri durante il test con il bios da 380W, in full load con un voltaggio inarrivabile con il bios standard, quindi nella peggiore delle condizioni (vabbè, a fine superposition, non proprio la peggiore delle condizioni, ma insomma...)
Ora, se considerate che il dissipatore del disco secondario m.2, che non fa assolutamente niente, risulta essere la cosa più calda della seconda foto e che nella prima i 47.9° sono il massimo che sono riuscito a registrare in assoluto, o va tutto fin troppo meravigliosamente... o mi sa tanto che ho qualche regolazione da fare, se avete anche qualche sw da consigliarmi, o qualche idea su come posso integrare la scala dei valori nell'immagine e/o la misurazione multi punto, ve ne sarei grato, che l'ho usata ieri per la prima volta sono ancora un po' spaesato.
Per quanto riguarda i componenti del pcb della Strix si, anche a fidarsi dell'analisi di Buildzoid (di cui ammetto di fidarmi parecchio), dovrebbe essere al top, peccato che l'nv limiti gli aib per alcuni versi, impedendo ad esempio l'utilizzo di doubler, controller in modalità da più di 10 fasi, etc.
Arrow0309
26-11-2018, 19:57
Domanda veloce, quale è la porta dp da usare default per il monitor singolo sulla 2080ti FE?
O non importa?
Domanda veloce, quale è la porta dp da usare default per il monitor singolo sulla 2080ti FE?
O non importa?
Per la FE non saprei dirtelo al 100%, dovrebbero essere uguali(?), posso dirti che io come porta "primaria" uso quella "più esterna" (la più lontana dal pcie, sulla base del pcb), che è anche l'unica che non si è sp***anata in alcun modo flashando il bios galax sulla strix, in entrambi i casi risulta essere l'output n.1
Si parla già di qualche problemuccio
Open Issues:
* Display corruption may occur on higher refresh rate DisplayPort monitors upon resume from sleep mode.
Ormai è diventato un classico con Turing lmao
Ma le 2080 hanno gli stessi "problemi" delle ti? Che modello consigliate da tenere ad aria niente liquido purtroppo.
Inviato dal mio SM-G920F utilizzando Tapatalk
thunderforce83
26-11-2018, 20:58
Ragazzi... ma ste schede quando arriverrano a prezzi decenti ed in quantita'?:D
io ho rimandato la 2080 strix indietro e sto aspettando la 2080ti sempre strix, la migliore scheda mai vista in funzione, ma a che prezzo! Per la precisione aspetto la advanced e speriamo arrivi presto che ho almeno 2/3 giochi che mi aspettano! :sofico: :oink: :ciapet:
Ma le 2080 hanno gli stessi "problemi" delle ti? Che modello consigliate da tenere ad aria niente liquido purtroppo.
Inviato dal mio SM-G920F utilizzando Tapatalk
Non ci sono casi realmente, forse qualcuno, ma son casi isolati.
mikael84
26-11-2018, 22:50
Se così fosse significherebbe che il problema risieda nella gpu stessa e non nelle vram o in un qualche componente del pcb. Si vedrà.
Queste sono le RTX6000 e 5000...
La 6000 si avvicina parecchio alla 2080Ti.
Più a livello pratico che di costi perchè comunque di sicuro al mondo esiste un pò di gente che ha già 2 2080 TI nel case :)
Alcuni lotti di vram sono nate male, molti hanno risolto downclockando, però ci sono dei problemi che vanno oltre.
Il chip puro o no cambia poco, ad esempio la 2070 è pura. Un QC scarsetto a sto giro, stanno cercando solo di vendere gli scarti delle quadro in un modo o nell'altro.:)
La 6000 è la Ti in versione uncut e con il doppio di RAM
La 8000 (che non sembra sia stata commercializzata ma solo presentata) è la 6000 con il doppio di RAM.
Quel che non ho capito è se la 6000 usa gli stessi IC della Ti ma in clamshell o se usa quelli a densità doppia. La 8000 userà sicuramente quelli a doppia densità in clamshell.
La 6000 come la 5000 utilizza le samsung a doppia densità, 25BM-HC14.
La 8000 a conchiglia.;)
Solo la quadro TU106 utilizza le classiche ma a 13gb/s.
scorpion73
26-11-2018, 23:32
Io ho la OC, O11G.
Per quanto riguarda i componenti del pcb della Strix si, anche a fidarsi dell'analisi di Buildzoid (di cui ammetto di fidarmi parecchio), dovrebbe essere al top, peccato che l'nv limiti gli aib per alcuni versi, impedendo ad esempio l'utilizzo di doubler, controller in modalità da più di 10 fasi, etc.
Su eprezzo non me la fa proprio vedere a catalogo.
L'ho trovata a 1500 dal dragone; avevo sentito dire bene di quel negozio, poi ho letto sulla rete commenti poco lusinghieri sull'assistenza tecnica; io ci presi qualche cosa tempo fa ma non ho mai avuto bisogno di assistenza.
La Strix mi piace tanto, molto più della FTW3, ma mi frena l'assistenza....
raybantracing
26-11-2018, 23:41
Si sa niente su quando le rtx torneranno disponibili?
Adesso che ero deciso a prenderle sono finite.
Cmq con gli ultimi driver ho notato un incremento prestazionale notevole in DXR su BFV.ora riesco a giocare a 2880x1620p(scaler al 75%) tutto ultra con DXR basso a 60 fps GRANITICI.
Direi tanta roba rispetto a prima.
Inviato dal mio LG-H870 utilizzando Tapatalk
Predator_1982
27-11-2018, 05:25
Cmq con gli ultimi driver ho notato un incremento prestazionale notevole in DXR su BFV.ora riesco a giocare a 2880x1620p(scaler al 75%) tutto ultra con DXR basso a 60 fps GRANITICI.
Direi tanta roba rispetto a prima.
Inviato dal mio LG-H870 utilizzando Tapatalk
Nel changelog non fanno minimamente riferimento a ottimizzazioni lato DXR su BF V, magari è solo il risultato di una installazione pulita dei drivers
Nel changelog non fanno minimamente riferimento a ottimizzazioni lato DXR su BF V, magari è solo il risultato di una installazione pulita dei driversBoo non saprei,so soltanto che prima mi andava mooolto peggio.
Inviato dal mio LG-H870 utilizzando Tapatalk
Sono 3 giorni che spremo la mia gigabyte 2080 ti... Sono pienamente soddisfatto... Un mostro... La uso a 3440x1440.... Unico appunto la temperatura che sale a 79 gradi in full... Oggi modifico il profilo delle ventole usandole in modo più aggressivo.... Ho la windforce 3x presa da amazon...
TigerTank
27-11-2018, 08:11
Nel changelog non fanno minimamente riferimento a ottimizzazioni lato DXR su BF V, magari è solo il risultato di una installazione pulita dei drivers
In compenso su Steam è apparso quel misterioso "Artifact"...ed è un gioco di carte :asd:
Predator_1982
27-11-2018, 09:38
In compenso su Steam è apparso quel misterioso "Artifact"...ed è un gioco di carte :asd:
beh almeno su un gioco di carte sai che figurone implementare gli effetti DXR!!! :D :D :D
Sono 3 giorni che spremo la mia gigabyte 2080 ti... Sono pienamente soddisfatto... Un mostro... La uso a 3440x1440.... Unico appunto la temperatura che sale a 79 gradi in full... Oggi modifico il profilo delle ventole usandole in modo più aggressivo.... Ho la windforce 3x presa da amazon...
Con la temperatura ambiente di questi giorni, 79°C mi sembrano parecchi.
Magari devi migliorare il flusso d’aria all’interno del case.
Predator_1982
27-11-2018, 09:42
Boo non saprei,so soltanto che prima mi andava mooolto peggio.
Inviato dal mio LG-H870 utilizzando Tapatalk
buono a sapersi, stasera provo pure io e vediamo se la sensazione è la stessa che hai tu
scorpion73
27-11-2018, 10:16
Ribadisco: a che serve il profilo SLI su un gioco di carte? :mbe:
Magari è un gioco tipo battlechess... battlecarte :D
bagnino89
27-11-2018, 10:26
Ribadisco: a che serve il profilo SLI su un gioco di carte? :mbe:
Finisci le partite prima se invece di fare 150 FPS, ne fai 300.
TigerTank
27-11-2018, 10:37
Nono, visto che non l'avevo mai sentito ho cercato e ho trovato solo quel gioco di carte e pensando che non potesse essere quello ad avere il nuovo profilo SLI ho chiesto che gioco fosse perché immaginavo fosse un altro.
Ribadisco: a che serve il profilo SLI su un gioco di carte? :mbe:
A giocare in coppia! :sofico: :ciapet:
Raga mi hanno mandato il codice di BFV che avevo richiesto ad eprezzo.sinceramente non pensavo me lo mandassero e ho gia acquistato il gioco.
Se a qualcuno interessa mi contatti in pvt che ve lo regalo:)
Edit:gia dato mi spiace
Inviato dal mio LG-H870 utilizzando Tapatalk
illidan2000
27-11-2018, 10:58
Sono 3 giorni che spremo la mia gigabyte 2080 ti... Sono pienamente soddisfatto... Un mostro... La uso a 3440x1440.... Unico appunto la temperatura che sale a 79 gradi in full... Oggi modifico il profilo delle ventole usandole in modo più aggressivo.... Ho la windforce 3x presa da amazon...
e la rumorosità?
Breve resoconto del flash del bios Galax 380W sulla Strix, se volete maggiori dettagli chiedete.
PRO:
[LIST]
Ci sono almeno altri 300mV con cui giocare
Non facciamo disinformazione, sia il bios stock che quel bios arrivano ad 1.093v. Tra l' altro noto dai tuoi screen ( 1.068v) che non hai ancora capito come accedere all' overvolt: no, non basta spostare la levetta.
QUei bios andranno anche benissimo per i bench ma nell' uso quotidiano, qualsiasi uso quotidiano, non servono assolutamente a nulla.
Quello in particolare è anche dannoso
https://www.tomshw.de/wp-content/uploads/2018/10/05-PEG-Limit.png
Attendo articoloni a Studio Aperto, o forse no? :asd:
da quanto leggo meno voltaggio dai e meglio è, l'unico a soffrirne sarà l'e-peen da bench leggermente più piccolo....
e la rumorosità?
Assolutamente sopportabile... Avevo la g1 1080 prima... I livelli acustici sono i medesimi...
Non facciamo disinformazione, sia il bios stock che quel bios arrivano ad 1.093v. Tra l' altro noto dai tuoi screen ( 1.068v) che non hai ancora capito come accedere all' overvolt: no, non basta spostare la levetta.
QUei bios andranno anche benissimo per i bench ma nell' uso quotidiano, qualsiasi uso quotidiano, non servono assolutamente a nulla.
Quello in particolare è anche dannoso
https://www.tomshw.de/wp-content/uploads/2018/10/05-PEG-Limit.png
Come scritto numerosissimi post fa l'overvolt l'ho testato e deciso di non utilizzarlo in quanto controproducente con pl così basso.
Con il bios della strix non si riescono a tenere quei voltaggi, non è che siano bloccati, è che vai in pl ben prima, fammi uno screen in cui tieni 1.050v con il bios della strix su superposition o time spy extreme stress test (i due che uso come esempi nelle prove) gentilmente.
TigerTank
27-11-2018, 12:44
Con queste schede mi sa che è più conveniente tenere il più possibile una X frequenza andando di downvolt per ridurre i tagli da PL e temperatura, piuttosto che overvoltare e occare :D
Come scritto numerosissimi post fa l'overvolt l'ho testato e deciso di non utilizzarlo in quanto controproducente con pl così basso.
Con il bios della strix non si riescono a tenere quei voltaggi, non è che siano bloccati, è che vai in pl ben prima, fammi uno screen in cui tieni 1.050v con il bios della strix su superposition o time spy extreme stress test (i due che uso come esempi nelle prove) gentilmente.
Il post che ho quotato (https://www.hwupgrade.it/forum/showpost.php?p=45908256&postcount=7143)è quello in cui hai postato il risultato col bios galax 380w. Con 380w di PL l' overvolt avrebbe portato benefici. Ciò non significa che 380w eliminino il muro del PL in ogni scenario, semplicemente permettono alla scheda di imbattersi in quest' ultimo meno volte: questo è poi lo scopo dei bench.
Non so da dove tu abbia tirato fuori quel " 300mV" che è praticamente la differenza di voltaggio tra idle e carico.
Thunder-74
27-11-2018, 14:03
Proviamo questi 417.01, i precedenti 416.94 erano abbastanza buoni, i 416.81 con qualche problema di troppo, mentre i 416.64 da dimenticare LOL
in config 8+8 mi fermerei al bios da 360w (dovrebbe bastare) anche sotto oc spinti, almeno si rientra in specifica, per il pci-e 16x più che altro.
Dal grafico di Igor vedo 6A e non sono un bene qualora si arrivi al picco massimo, meglio stare sui 66w / 5.5A.
Assolutamente ... se ne sono viste di schede madri saltare per questo...
Iniziamo bene 2070 gigabyte link (https://www.youtube.com/watch?v=ewiFtgfK0KY)
Iniziamo bene 2070 gigabyte link (https://www.youtube.com/watch?v=ewiFtgfK0KY)
:eek: ecco dove sono ste schede, questo se ne è mangiato un bancale solo lui
Predator_1982
27-11-2018, 18:35
Proviamo questi 417.01, i precedenti 416.94 erano abbastanza buoni, i 416.81 con qualche problema di troppo, mentre i 416.64 da dimenticare LOL
comunque confermo, BF V con questi drivers ha un framerate decisamente più stabile. Sto giocando a 1080p tutto su ultra e DXR medium
Arrow0309
27-11-2018, 19:24
comunque confermo, BF V con questi drivers ha un framerate decisamente più stabile. Sto giocando a 1080p tutto su ultra e DXR medium
Io ho appena finito col liquido e provavo un po a BF5 in OC (3440x1440, DXR low) ed era stupendo, pure il framerate buono, dopo tipo 20-25 min mi e' crashato col:
https://i.postimg.cc/d11gqSDC/Capture-1.jpg
E' l'oc che non regge (2100, +120 e mem +500) o crash driver del cavolo?
Ho i 416.94 e bios stock.
:eek: ecco dove sono ste schede, questo se ne è mangiato un bancale solo lui
lo volevo scrivere :D
Successo oggi pure a me in dx12 scheda a default.quindi penso sia sempre il solito errore alla tomba Raider in dx12.
Poi sempre in dx12 ho notato un altro bug, cioè un calo di prestazioni netto dopo che nella campagna si viene uccisi e il gioco ricarica la partita e a volte succede pure nel multiplayer,motivo per cui ho rimesso dx11 4k tutto maxato.Io ho appena finito col liquido e provavo un po a BF5 in OC (3440x1440, DXR low) ed era stupendo, pure il framerate buono, dopo tipo 20-25 min mi e' crashato col:
https://i.postimg.cc/d11gqSDC/Capture-1.jpg
E' l'oc che non regge (2100, +120 e mem +500) o crash driver del cavolo?
Ho i 416.94 e bios stock.
Inviato dal mio ONEPLUS A6013 utilizzando Tapatalk
fraussantin
27-11-2018, 19:56
Successo oggi pure a me in dx12 scheda a default.quindi penso sia sempre il solito errore alla tomba Raider in dx12.
Poi sempre in dx12 ho notato un altro bug, cioè un calo di prestazioni netto dopo che nella campagna si viene uccisi e il gioco ricarica la partita e a volte succede pure nel multiplayer,motivo per cui ho rimesso dx11 4k tutto maxato.
Inviato dal mio ONEPLUS A6013 utilizzando TapatalkHo giocato 10 mn a bf5 in dx12 e l'ho vista pure io .
A me crasha sul desktop diretto su rainbow six siege nessun errore, asd.
ora provo questi nuovi drivers.
scorpion73
27-11-2018, 20:54
Seconda review della FTW3
https://www.overclock3d.net/reviews/gpu_displays/evga_rtx_2080ti_ftw3_ultra_review/1
pagando meno meglio una zotac amp liscia, non sarà bellissima ma funziona bene, unica pecca le ventole in idle:muro:
30 secondi per mettere il bios della evga xc ultra, ventole in idle ferme e scheda in generale ultra silenziosa.
Direi un passaggio obbligato, si guadagnano anche 30W di PL.
scorpion73
27-11-2018, 22:35
LOL certo che è brutta forte, quella specie di armor sembra una gabbia antisqualo..
Se dovessi prendere una custom cosi onerosa e costosa, preferirei mille volte una Strix oc O11g oppure una A11g, altrimenti, pagando meno meglio una zotac amp liscia, non sarà bellissima ma funziona bene, unica pecca le ventole in idle:muro:
La strix è sempre bella, unica custom che si pùo ancora guardare, parlo di 2080/2080ti, guardando le 2070, le msi gaming x/z sono carine.
Si esteticamente fa abbastanza schifo, la strix è la più bella.
Come detto più volte, però, IMHO con queste schede la fa da padrone la garanzia rispetto all'estetica... quindi per preferire la Strix devi trovare uno shop che faccia una garanzia veloce modello EVGA, e sinceramente non lo so se si trova o quale può essere. chi ne conosce uno mi msg in privato pls....
Da un punto di vista tecnico, bilancia il fatto che sulla FTW3, oltre alla presenza dei sensori, i VRM sono raffreddati direttamente dal dissipatore (la Strix ha a contatto diretto solo quelli a dx della GPU ma non quelli a sx che poggiano sulla front plate) e ha anche i pad sul backplate, cosa che la Strix non ha.
Di contro la Strix ha componentistica migliore e non ha il problema delle RAM calde, almeno stando a quanto si vede su Guru3D dalla thermal cam... anche se sinceramente non ho capito se le RAM calde sulla FTW3 siano un difetto o siano la norma, nel senso che non ho capito se le abbiano le schede difettose o se sia proprio una cosa di progettazione (magari per il PCB più grande e la vicinanza maggiore ai VRM rispetto al PCB dell Strix).
Il post che ho quotato (https://www.hwupgrade.it/forum/showpost.php?p=45908256&postcount=7143)è quello in cui hai postato il risultato col bios galax 380w. Con 380w di PL l' overvolt avrebbe portato benefici. Ciò non significa che 380w eliminino il muro del PL in ogni scenario, semplicemente permettono alla scheda di imbattersi in quest' ultimo meno volte: questo è poi lo scopo dei bench.
Non so da dove tu abbia tirato fuori quel " 300mV" che è praticamente la differenza di voltaggio tra idle e carico.
Allora, sui 300mV hai ragione, ho aggiunto uno zero di troppo, intendevo 30. Correggo il precedente post.
- Gli "Almeno" (non "esattamente nè "massimo", almeno.), 30mV (si, TRENTA e non TRECENTO, mi sono sognato uno zero, ci si poteva arrivare) sono stati tirati fuori dai brevi test con il bios 380W in base al fatto che con il bios originale mediamente il voltaggio che si riesce a tenere stabile e costante al massimo overclock(Sempre in UNI-SP e 3dM-TSE-ST), con il mio esemplare, è di 1.02v c.ca (1.018 o inferiori il più delle volte, anche di più in qualche picco, in alcune circostanze anche a 1.025 per qualche secondo di fila), mentre con il 380W, senza OV per i motivi di cui sopra e sotto, mi sono attestato subito intorno a 1.050v stabili, escludendo i picchi ambo i lati.
- Anche con il suddetto Bios Galax 380W, nei pochi e brevi test effettuati, con Over Volt 100% ho ottenuto risultati peggiori che senza, come con il bios stock si arrivava semplicemente prima in PL ed a parità di clock impostato ho ottenuto maggior instabilità. Quindi, ho proseguito i pochi test restanti senza overvolt.
- Anche con il BIOS da 380W si arriva con estrema facilità in Power Limit, il pl è solo marginalmente aumentato, ma ben lontano dall'essere eliminato. Detto ciò comunque concordo che TDP maggiori non siano assolutamente consigliabili, cosa che non ho mai fatto, ma la gpu è pronta ad assorbirne più di 380, qualora gliene si dia la possibilità, è un dato di fatto.
- Come già scritto i test con il 380W sono stati pochi e l'ho relegato appunto ad un eventuale risorsa per soli bench fini a se stessi, ben lontana da un'utilizzo giornaliero a causa, anche e non solo, dei problemi creati agli output, e relativa fretta di confermare che la situazione fosse ripristinabile e ripristinata al 100%.
- Quando dico 30mV (si, TRENTA, NON TRECENTO) in più per "giocare" non intendo "videogiocare" ma giocare con la curva di clock e con l'oc della scheda in generale, con la quale, come già scritto, occorre probabilmente impiegare parecchio tempo per ottenere dei risultati soddisfacienti, dopodichè con estrema probabilità si potrebbe ottenere ben di meglio di quanto ho potuto fare io in poco più di un'ora.
Credevo che quei pochi test potessero essere utili a chi ha o potrebbe avere una Strix come il sottoscritto, per evitare gli stessi errori, per sapere in anticipo a cosa si può andare in contro a grandi linee (soprattutto la questione output, che ci si può aspettare si, e di fatto è la prima cosa che ho verificato, ma magari non tutti danno per scontato), per poter fare di meglio e via dicendo, ma evidentemente mi sbagliavo.
Buona notte.
Thunder-74
28-11-2018, 06:03
Personalmente ciosko ti ringrazio. I tuoi post sono stati tra quelli, in questo thread, a dare informazioni utili a chi una Turing non la possiede. Credo che chiunque qui perda tempo a riportare esperienze dirette, debba essere ringraziato, visto che non viene retribuito per questo. ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Allora, sui 300mV hai ragione, ho aggiunto uno zero di troppo, intendevo 30. Correggo il precedente post.
- Gli "Almeno" (non "esattamente nè "massimo", almeno.), 30mV (si, TRENTA e non TRECENTO, mi sono sognato uno zero, ci si poteva arrivare) sono stati tirati fuori dai brevi test con il bios 380W in base al fatto che con il bios originale mediamente il voltaggio che si riesce a tenere stabile e costante al massimo overclock(Sempre in UNI-SP e 3dM-TSE-ST), con il mio esemplare, è di 1.02v c.ca (1.018 o inferiori il più delle volte, anche di più in qualche picco, in alcune circostanze anche a 1.025 per qualche secondo di fila), mentre con il 380W, senza OV per i motivi di cui sopra e sotto, mi sono attestato subito intorno a 1.050v stabili, escludendo i picchi ambo i lati.
- Anche con il suddetto Bios Galax 380W, nei pochi e brevi test effettuati, con Over Volt 100% ho ottenuto risultati peggiori che senza, come con il bios stock si arrivava semplicemente prima in PL ed a parità di clock impostato ho ottenuto maggior instabilità. Quindi, ho proseguito i pochi test restanti senza overvolt.
- Anche con il BIOS da 380W si arriva con estrema facilità in Power Limit, il pl è solo marginalmente aumentato, ma ben lontano dall'essere eliminato. Detto ciò comunque concordo che TDP maggiori non siano assolutamente consigliabili, cosa che non ho mai fatto, ma la gpu è pronta ad assorbirne più di 380, qualora gliene si dia la possibilità, è un dato di fatto.
- Come già scritto i test con il 380W sono stati pochi e l'ho relegato appunto ad un eventuale risorsa per soli bench fini a se stessi, ben lontana da un'utilizzo giornaliero a causa, anche e non solo, dei problemi creati agli output, e relativa fretta di confermare che la situazione fosse ripristinabile e ripristinata al 100%.
- Quando dico 30mV (si, TRENTA, NON TRECENTO) in più per "giocare" non intendo "videogiocare" ma giocare con la curva di clock e con l'oc della scheda in generale, con la quale, come già scritto, occorre probabilmente impiegare parecchio tempo per ottenere dei risultati soddisfacienti, dopodichè con estrema probabilità si potrebbe ottenere ben di meglio di quanto ho potuto fare io in poco più di un'ora.
Credevo che quei pochi test potessero essere utili a chi ha o potrebbe avere una Strix come il sottoscritto, per evitare gli stessi errori, per sapere in anticipo a cosa si può andare in contro a grandi linee (soprattutto la questione output, che ci si può aspettare si, e di fatto è la prima cosa che ho verificato, ma magari non tutti danno per scontato), per poter fare di meglio e via dicendo, ma evidentemente mi sbagliavo.
Buona notte.
Guarda, come dice il buon Thunder i tuoi post sono stati, almeno per me, di grande interesse
Giovamas
28-11-2018, 09:10
qui se non mettono a posto la situazione con i Benq Zowie è un casino.. con i 417 la situazione è peggiorata. black screen durante l'installazione. Benq ed nvidia si rimpallano il problema. Se per qualche motivo riesci ad entrare in windows non regge i 144hz (ad esempio superposition funziona solo a 60hz, altrimenti black screen) Tutto mi sarei aspettato eccetto questo.. se volete cambiare monitor evitate i benq. Amo questo marchio ma ora sono arrabbiato...
https://forums.geforce.com/default/topic/1080081/geforce-drivers/benq-and-black-screens-multiple-monitors-and-no-144hz-refresh-fix-with-416-94/2/
TigerTank
28-11-2018, 09:21
Personalmente ciosko ti ringrazio. I tuoi post sono stati tra quelli, in questo thread, a dare informazioni utili a chi una Turing non la possiede. Credo che chiunque qui perda tempo a riportare esperienze dirette, debba essere ringraziato, visto che non viene retribuito per questo. ;)
Quoto, c'è chi si è sbattuto e ha postato dei test interessanti, condividendo tempo e passione.
E relativa conclusione che per il gaming queste schede non siano da spremere ma da ottimizzare come status voltaggio-frequenze-tagli. In pratica siamo passati dal "tirare" allo "starci dentro". :D
Ma già lo vedo con le mie piccole attuali. Rendono al meglio lansciando la frequnza gpu a default ma calando il voltaggio tramite curva(da 1,030V circa a 0,950V), piuttosto che lasciarle a vdef tirando di frequenza, con relativi tagli più consistenti.
albero77
28-11-2018, 10:09
qui se non mettono a posto la situazione con i Benq Zowie è un casino.. con i 417 la situazione è peggiorata. black screen durante l'installazione. Benq ed nvidia si rimpallano il problema. Se per qualche motivo riesci ad entrare in windows non regge i 144hz (ad esempio superposition funziona solo a 60hz, altrimenti black screen) Tutto mi sarei aspettato eccetto questo.. se volete cambiare monitor evitate i benq. Amo questo marchio ma ora sono arrabbiato...
https://forums.geforce.com/default/topic/1080081/geforce-drivers/benq-and-black-screens-multiple-monitors-and-no-144hz-refresh-fix-with-416-94/2/
si certo stai fresco...se aspetti che nvidia risolva. io sto ancora aspettando e sono fermo ai 382.xx. benq non ha responsabilità.
Non ho capito una cosa sull'undervolting.
Se ben ricordo era stato suggerito di farlo a temperature raggiunte sotto carico. Sbaglio? Ma come fare? bench in loop per una 15ina di minuti e poi lavoro sulla curva?
Thanks
TigerTank
28-11-2018, 10:42
Non ho capito una cosa sull'undervolting.
Se ben ricordo era stato suggerito di farlo a temperature raggiunte sotto carico. Sbaglio? Ma come fare? bench in loop per una 15ina di minuti e poi lavoro sulla curva?
Thanks
Io avevo semplicemente aperto la curva con ctrl+F, e nel mio caso impostato il punto a 2000MHz x 1,000V (poi successivamente quello a 0,950V, come le uso ora), salvato il profilo in afterburner, dove sullo slide "Core Clock" ti appare la voce "Curve" e stop :D
Fino all'upgrade le tengo così...e vram a +400.
Io avevo semplicemente aperto la curva con ctrl+F, e nel mio caso impostato il punto a 2000MHz x 1,000V (poi successivamente quello a 0,950V, come le uso ora), salvato il profilo in afterburner, dove sullo slide "Core Clock" ti appare la voce "Curve" e stop :D
Fino all'upgrade le tengo così...e vram a +400.
ok grazie.. appena arrivano le schede smanetto un po'
Allora, sui 300mV hai ragione, ho aggiunto uno zero di troppo, intendevo 30. Correggo il precedente post.
- Gli "Almeno" (non "esattamente nè "massimo", almeno.), 30mV (si, TRENTA e non TRECENTO, mi sono sognato uno zero, ci si poteva arrivare) sono stati tirati fuori dai brevi test con il bios 380W in base al fatto che con il bios originale mediamente il voltaggio che si riesce a tenere stabile e costante al massimo overclock(Sempre in UNI-SP e 3dM-TSE-ST), con il mio esemplare, è di 1.02v c.ca (1.018 o inferiori il più delle volte, anche di più in qualche picco, in alcune circostanze anche a 1.025 per qualche secondo di fila), mentre con il 380W, senza OV per i motivi di cui sopra e sotto, mi sono attestato subito intorno a 1.050v stabili, escludendo i picchi ambo i lati.
- Anche con il suddetto Bios Galax 380W, nei pochi e brevi test effettuati, con Over Volt 100% ho ottenuto risultati peggiori che senza, come con il bios stock si arrivava semplicemente prima in PL ed a parità di clock impostato ho ottenuto maggior instabilità. Quindi, ho proseguito i pochi test restanti senza overvolt.
- Anche con il BIOS da 380W si arriva con estrema facilità in Power Limit, il pl è solo marginalmente aumentato, ma ben lontano dall'essere eliminato. Detto ciò comunque concordo che TDP maggiori non siano assolutamente consigliabili, cosa che non ho mai fatto, ma la gpu è pronta ad assorbirne più di 380, qualora gliene si dia la possibilità, è un dato di fatto.
- Come già scritto i test con il 380W sono stati pochi e l'ho relegato appunto ad un eventuale risorsa per soli bench fini a se stessi, ben lontana da un'utilizzo giornaliero a causa, anche e non solo, dei problemi creati agli output, e relativa fretta di confermare che la situazione fosse ripristinabile e ripristinata al 100%.
- Quando dico 30mV (si, TRENTA, NON TRECENTO) in più per "giocare" non intendo "videogiocare" ma giocare con la curva di clock e con l'oc della scheda in generale, con la quale, come già scritto, occorre probabilmente impiegare parecchio tempo per ottenere dei risultati soddisfacienti, dopodichè con estrema probabilità si potrebbe ottenere ben di meglio di quanto ho potuto fare io in poco più di un'ora.
Credevo che quei pochi test potessero essere utili a chi ha o potrebbe avere una Strix come il sottoscritto, per evitare gli stessi errori, per sapere in anticipo a cosa si può andare in contro a grandi linee (soprattutto la questione output, che ci si può aspettare si, e di fatto è la prima cosa che ho verificato, ma magari non tutti danno per scontato), per poter fare di meglio e via dicendo, ma evidentemente mi sbagliavo.
Buona notte.
C'è un problema alla base di tutto il tuo discorso: tu non accedi alla frequenza di boost corrispondente a quel voltaggio per le temperature. Così come pascal il gpu boost 3.0 ( credo sulle turing si chiami 4.0, posso sbagliarmi) si relaziona direttamente con la temperatura.
Alzando il PL hai aumentato l' assorbimento ma hai semplicemente reso la scheda meno efficiente perché la frequenza di boost ha risposto all' aumento di temperatura causato dall' aumento di assorbimento.
Nel tuo post manca un test fondamentale: risultato con bios stock ad oc massimo e risultato nelle stesse condizioni con bios 380w. La differenza ci sarebbe a 30 gradi, non a 70.
Tra l' altro la strix non ha il pcb delle founders quindi perdi già un po' di efficienza facendo questo cross-flash.
Quello che intendo dire, per riassumere, è che il PL è l' ultimo dei problemi ad aria e con bios di un' altra scheda. Ti imbatti senza dubbio ma influisce meno della temperatura.
Questa è interessante per valutare le varie custom:
Per i miei gusti la migliore è la ASUS Dual OC
io l'ho avuta e ho fatto reso su Amazon. le temperature non sono all'altezza (soprattutto in ragione del fatto che occupa tre slot). silenziosa per carità, ma se poi devo mettere le ventole a palla per non sfondare sistematicamente gli 82 gradi in ac odyssey allora non ci siamo.
e la situazione non era migliorata cambiando la pasta termica.
sono passato alla evga xc ultra. stesso ingombro/rumorosità ma un delta di 11 gradi a parità di condizioni. mica poco
Giovamas
28-11-2018, 11:44
si certo stai fresco...se aspetti che nvidia risolva. io sto ancora aspettando e sono fermo ai 382.xx. benq non ha responsabilità.
si infatti .. lo penso anche io che Benq non ha colpe. infatti il problema è iniziato con le ultime due release dei drivers. il monitor funziona bene e cosa importante a me piace tantissimo
Giovamas
28-11-2018, 11:45
io l'ho avuta e ho fatto reso su Amazon. le temperature non sono all'altezza (soprattutto in ragione del fatto che occupa tre slot). silenziosa per carità, ma se poi devo mettere le ventole a palla per non sfondare sistematicamente gli 82 gradi in ac odyssey allora non ci siamo.
e la situazione non era migliorata cambiando la pasta termica.
sono passato alla evga xc ultra. stesso ingombro/rumorosità ma un delta di 11 gradi a parità di condizioni. mica poco
sarò di parte ma la strix per me è il top :) mai oltre i 60...
TigerTank
28-11-2018, 12:47
Ma infatti ho scritto "per i miei gusti" perché è una scelta personale. Delle temperature me ne sbatto, se lavora in specifica va bene, se non lavora in specifica si rompe e me la cambiano :D
I miei parametri di scelta, in ordine di importanza, sono 1. "silenzio", 2. "silenzio", 3. "silenzio" e 4. "prezzo", tanto ho il case chiuso quindi l'estetica è irrilevante e le prestazioni si differenziano di quantità risibili fra modelli diversi della stessa GPU :>
Il problema della Strix è che imho a questo giro il sovrapprezzo medio richiesto per tali modelli non è giustificato da alcunchè, essendo venuta meno la questione "pcb custom una spanna sopra al reference scarno".
E già con le pascal la questione "pcb custom per overvolt più stabili ed estesi".
Ma infatti ho scritto "per i miei gusti" perché è una scelta personale. Delle temperature me ne sbatto, se lavora in specifica va bene, se non lavora in specifica si rompe e me la cambiano :D
I miei parametri di scelta, in ordine di importanza, sono 1. "silenzio", 2. "silenzio", 3. "silenzio" e 4. "prezzo", tanto ho il case chiuso quindi l'estetica è irrilevante e le prestazioni si differenziano di quantità risibili fra modelli diversi della stessa GPU :>
idem estetica irrilevante anche per me.
e silenzio come criterio guida proprio come nel tuo caso. ecco perchè sottolineavo il fatto che con la xc ultra (a parità di prezzo perlomeno... e su amazon ballavano solo 10 euro al momento del mio acquisto) ho avuto silenziosità senza il compromesso della temperatura. il dissi funziona talmente bene che posso tenere le ventole quasi al minimo.
è chiaro che se te ne freghi delle temp puoi impostare al minimo qualsiasi scheda, ma se il prezzo è lo stesso perchè rinunciare/accettare compromessi ? :)
amon.akira
28-11-2018, 13:25
sarò di parte ma la strix per me è il top :) mai oltre i 60...
Tranquillo non sei di parte, l ho vista in azione è proprio un mostro di tech, quelle ventole sono inudibili a 2000giri e le temp glaciali nonostante i 306watt.
Riporto un esperienza di un mio amico, potrebbe essere utile a qualcuno. Gli è arrivata la 2080 Palit "Gaming Pro" da diginet a 715€, ma in realtà è una Palit 2080 Dual (senza backplate), ora li contatterà perlomeno per un rimborso parziale o sostituzione.
Cmq testata brevemente, riporto alcuni dati
1 passata di timespy
1.050mv stock clock
1950mhz, cap tdp 240watt, 2000giri, 72gradi
Curva 1.000mv clock 2000mhz
1980mhz, cap tdp 240watt, 2000giri, 72gradi
dovevo provarla a 0.950mv ma non ho avuto tempo.
Ragazzi tra una rtx2070 gaming Z a 580euro ed una rtx 2080 ventus a 750euri cosa conviene comprare?
Gioco in 4k c'è molto gap? Ho letto che questo modello della rtx2070 è ottima con PCB differenze ed overclok notevole
Costa circa il 30% in più per circa il 30% in più di prestazioni media a 4K. Conviene/non conviene è una scelta tua, assumendo che se fai la domanda il tuo budget arriva almeno a 750€.
https://i.postimg.cc/bwMHYDrd/screenshot-224.png
Diciamo 700euro..ma la più economica è quella per ora.
Non capisco se la gaming Z ha qualcosa in più oppure tanto vale la gigabyte a520 euro della rtx2070.
4k per ora lo Gioco con la 1070 a 30fps quindi di sicuro avrò un bel incremento.
Ho appena comprato One x per giocare a rdr2..se esagero il divorzio è Pronto 😂😂😂
mikael84
28-11-2018, 14:09
Posso dirti con certezza che con quella differenza di prezzo non prederei mai la Gaming Z, ma andrei con la gigabyte.
Detto questo in quella recensione sul pool di titoli a 4K la 1070 (FE) fa 41, la 2070 (custom) ne fa 54. Un incremento su cui IO non spenderei mai più di 500. Però come già dicevo cosa conviene o meno è una scelta personale :>
Quella è una turbinata oscena che scende sino a 1600, da non prendere proprio come esempio.:p
Questa è una custom.
https://i.postimg.cc/wxfhgKhf/2070-strix.png
TPU non rifà i test, quindi non mi fido, CB oltre a fare i test di tutto quel che mette nei grafici usa una suite di giochi attualizzata e non giochi di tre anni fa e quando decido di comprare una GPU nuova al massimo è per giochi di un anno/anno e mezzo fa, non certo per quelli che ho già giocato in ritardo (perché li prendo patchati e funzionanti decentemente solo 9/12 mesi dopo) con la GPU precedente :>
Quindi si può fare una media fra i due, ma per il mio profilo di utilizzo le medie di TPU non hanno senso.
infatti, la sola 1080ti dal lancio alle ultime release di drivers ce una sostanziale differenza di prestazioni, sperando che sia applicata anche alle turing le cose potrebbero cambiare come spesso accade con nvidia.
amon.akira
28-11-2018, 14:33
Quella è una turbinata oscena che scende sino a 1600, da non prendere proprio come esempio.:p
Questa è una custom.
ma le review delle ref o turbo sono sempre state usate per non buttar giu piu del dovuto le schede passate, su strada un utente "medio" di 1080ti la tiene in underclock e undervolt, su strada un utente medio di 2070 la tiene in oc senza badare alle temp, ed è proprio li che si avvicinano maggiormente.
esempio una 2070 arriva mediamente a 9200 timespy, una 1080ti 9700-9800 se non vuole essere calda e rumorosa.
mikael84
28-11-2018, 14:36
Mamma mia che scheda inutile le 2070, prestazioni raster = a 1080OC max +10% , prestazioni RT insufficienti/inutili e dimensioni Die da 1080ti, uno spreco di silicio e costi assurdo. Magari nel Pro spacca.
Nel gaming bastava mantenere l'attuale lineup aggiungendo 2080 e 2080ti, al più se volevi pushare le vendite con un nome nuovo rimarchiavi gp104 e gp102 in gtx 2060/ti e 2070 e stavi a posto per almeno 1 anno allo stesso prezzi attuale.
1060 aka gtx2050ti → 200/250€
1070 aka gtx2060 → 350€
1080 aka gtx2060ti → 450€
1080ti 2°cut aka gtx2070 → 600€ (2° cut giusto da stare un po piu' distante da 2080)
Bah, peggio ancora sarà la 2060 nel 2019, come o meno di 1070...
Scheda inutile no, è vero che in certi titoli non distanzia la 1080, ma in certi si avvicina alla 1080ti, in altri la batte pure, ed è una GPU con un'architettura migliore che è destinata a prendere il largo, per 180watt.
Questo è sempre raster.
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/18.html
Costa a partire dalle 500 euro.
Ciò che devo concordare però, è che un chip simile, potevano pure spogliarlo e magari posizionarlo un centone sotto, e lanciare anche un cut (2060ti).
Il problema è che tale scheda è destinata anche alle quadro.
fraussantin
28-11-2018, 14:48
Mamma mia che scheda inutile le 2070, prestazioni raster = a 1080OC max +10% , prestazioni RT insufficienti/inutili e dimensioni Die da 1080ti, uno spreco di silicio e costi assurdo. Magari nel Pro spacca.
Nel gaming bastava mantenere l'attuale lineup aggiungendo 2080 e 2080ti, al più se volevi pushare le vendite con un nome nuovo rimarchiavi gp104 e gp102 in gtx 2060/ti e 2070 e stavi a posto per almeno 1 anno allo stesso prezzi attuale.
1060 aka gtx2050ti → 200/250€
1070 aka gtx2060 → 350€
1080 aka gtx2060ti → 450€
1080ti 2°cut aka gtx2070 → 600€ (2° cut giusto da stare un po piu' distante da 2080)
Bah, peggio ancora sarà la 2060 nel 2019, come o meno di 1070...Talmente inutile che va mediamente più forte di qualunque amd sul mercato con i driver ancora beta sorteggiati al lancio dei dadi...
E costa pure di meno ..sia della vega 64 che della 1080 xD
mikael84
28-11-2018, 15:05
Ecco appunto:O
p.s i test di TPU furono eseguiti con gli ultimi driver (dell'epoca review 2070) per quanto riguarda le RTX 2080/Ti driver press release 411.51, mentre per le altre maxwell-pascal si fermano tutt'oggi agli ottimi 399.24.
https://postimg.cc/TK8W0mLk
Non sono test in batteria del 15-18, vengono ripetuti con cadenza frequente anche per schede ormai legacy.
Cbase non è di certo la Bibbia, di cagxt3 ne fanno parecchie pure loro con tanto di sbagli grossolani, ormai la qualità è quella che è XD
ma le review delle ref o turbo sono sempre state usate per non buttar giu piu del dovuto le schede passate, su strada un utente "medio" di 1080ti la tiene in underclock e undervolt, su strada un utente medio di 2070 la tiene in oc senza badare alle temp, ed è proprio li che si avvicinano maggiormente.
esempio una 2070 arriva mediamente a 9200 timespy, una 1080ti 9700-9800 se non vuole essere calda e rumorosa.
Infatti, a livello shader, raggiunge l'equivalente dei 3200cc di Pascal, lo si nota anche nel superposition, oltre che nel timespy. Purtroppo ha qualche collo di bottiglia via rop's e geometria rispetto alla TI, di conseguenza z-cull intasato. 6 tpc a raster pesano, sono 2 triangoli per ciclo.
Ci sono giochi dove supera la 1080ti, e non potrà fare altro che migliore, ricordiamoci della 970 vs 780ti.
Purtroppo non in tutti giochi scala come dovrebbe, questo la limita un tantino nelle medie globali.
Una 1080 per fare un 15% medio deve lavorare a 2100/11gb/s sempre
Riguardo cbase, piace molto anche perchè utilizza clock molto elevati.
TigerTank
28-11-2018, 15:08
Scheda inutile no, è vero che in certi titoli non distanzia la 1080, ma in certi si avvicina alla 1080ti, in altri la batte pure, ed è una GPU con un'architettura migliore che è destinata a prendere il largo, per 180watt.
Questo è sempre raster.
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/18.html
Costa a partire dalle 500 euro.
Ciò che devo concordare però, è che un chip simile, potevano pure spogliarlo e magari posizionarlo un centone sotto, e lanciare anche un cut (2060ti).
Il problema è che tale scheda è destinata anche alle quadro.
La 2070 resta comunque una buona scelta per chi viene da generazioni precedenti alle Pascal e non vuole spendere troppo per una 2080 o una 2080Ti.
Considerati i valori di TDP e le prestazioni delle 1080/1080Ti, imho la 2070 ha un buon rapporto prestazioni-tdp(185W).
mikael84
28-11-2018, 15:14
Scusa mike ma che gioco è? mai sentito :D immagino sia uno di quei giochi che sceglie TPU per "magheggiare" le uber medie...
Infatti io quello dico, a livello di ingegnerizzazione 2060 e 2070 sono scelte sbagliate lato gaming nel senso che spendi soldi e tempo in R&D quanto hai già da più di 2 anni chip che hanno le stesse performance per le stesse dimensioni, del tdp francamente... anche perchè in quei watt la 2070 è underclock di 100mhz su 2080, come il tdp ridicolo delle 2080ti stock, underclock di quasi 200mhz... poi si va in cerca dei bios da 380watt... :rolleyes:
mah.
Hellblade è un gran bel gioco:)
https://multiplayer.it/recensioni/186933-hellblade-senuas-sacrifice-la-realta-della-propria-mente.html
La 2070 nasce per via delle quadro, è naturale sia un chip pensato così, e paradossalmente è un chip troppo grande per un solo canale di collegamento.
Sui consumi sta poco sotto i 200 a 1860 medi con una tensione altina 1,065v, non è neppure tanto male a livello pratico.:)
Scusa mike ma che gioco è? mai sentito :D immagino sia uno di quei giochi che sceglie TPU per "magheggiare" le uber medie...
Infatti io quello dico, a livello di ingegnerizzazione 2060 e 2070 sono scelte sbagliate lato gaming nel senso che spendi soldi e tempo in R&D quanto hai già da più di 2 anni chip che hanno le stesse performance per le stesse dimensioni, del tdp francamente... anche perchè in quei watt la 2070 è underclock di 100mhz su 2080, come il tdp ridicolo delle 2080ti stock, underclock di quasi 200mhz... poi si va in cerca dei bios da 380watt... :rolleyes:
mah.
gioco a parte, è un titolo basato sull'ue4, molto utilizzato.
mikael84
28-11-2018, 15:27
La 2070 resta comunque una buona scelta per chi viene da generazioni precedenti alle Pascal e non vuole spendere troppo per una 2080 o una 2080Ti.
Considerati i valori di TDP e le prestazioni delle 1080/1080Ti, imho la 2070 ha un buon rapporto prestazioni-tdp(185W).
Esatto, diciamo che piano piano si sta allineando a quanto previsto, sulle 500 non è poi così malvagia, considerando che la 1080ti ormai è andata, come anche i prezzi.
Quello che non capisco io è perchè nvidia faccia pagare un chip grande quanto gp102, che quindi gli costa uguale anzi di più per averlo dovuto sviluppare su carta e prodotto ex-novo e che per giunta va meno di gp102 quando bastava reciclcare gp102 magari fare leggero cut e farlo pagar quanto fai pagare oggi la 2070... boh
Si grid, ma è un no sense, secondo te, nvidia ti vendeva le ultime 1080ti rimaste, con un leggero cut, rimarchiate da 2070, e consumi ai livelli della 2080ti stock?:p
Senza considerare che ormai, l'architettura cambia, ed è giusto così alla fine.
Con 2304 shader e 48 rop's, riesci a raggiungerla e alcune volte batterla, la strada è quella giusta.
Considera anche un fattore principale, la 2070, si chiama quadro RTX4000:)
E' tutto li il problema.
AceGranger
28-11-2018, 15:35
gioco a parte, è un titolo basato sull'ue4, molto utilizzato.
l'Unreal Engine non va bene perchè le AMD vanno male :O
Si grid, ma è un no sense, secondo te, nvidia ti vendeva le ultime 1080ti rimaste, con un leggero cut, rimarchiate da 2070, e consumi ai livelli della 2080ti stock?:p
Senza considerare che ormai, l'architettura cambia, ed è giusto così alla fine.
Con 2304 shader e 48 rop's, riesci a raggiungerla e alcune volte batterla, la strada è quella giusta.
Considera anche un fattore principale, la 2070, si chiama quadro RTX4000:)
E' tutto li il problema.
ma sopratutto deve spingere con i Tensor Core in tutte le fasce, perchè se l'RT è relegato alla fascia alta, il DLSS e il De-Noise nVidia lo vuole diffondere in ogni fascia ( il de-noise è utile sulle Quadro anche di fascia bassa )
l'Unreal Engine non va bene perchè le AMD vanno male :O
ma sopratutto deve spingere con i Tensor Core in tutte le fasce, perchè se l'RT è relegato alla fascia alta, il DLSS e il De-Noise nVidia lo vuole diffondere in ogni fascia ( il de-noise è utile sulle Quadro anche di fascia bassa )
non intendevo assolutamente tirare in ballo amd.
Volevo solo dire che l@UE4 è usato in molti giochi, tutto li :D
Hellblade cmq è un bel gioco.
mikael84
28-11-2018, 15:51
l'Unreal Engine non va bene perchè le AMD vanno male :O
ma sopratutto deve spingere con i Tensor Core in tutte le fasce, perchè se l'RT è relegato alla fascia alta, il DLSS e il De-Noise nVidia lo vuole diffondere in ogni fascia ( il de-noise è utile sulle Quadro anche di fascia bassa )
Infatti ho come il presentimento che le versioni di fascia bassa, come le 2060, integrino i tensor.
Anche quelle alla fine, verrano vendute come quadro.
La 2070 resta comunque una buona scelta per chi viene da generazioni precedenti alle Pascal e non vuole spendere troppo per una 2080 o una 2080Ti.
Considerati i valori di TDP e le prestazioni delle 1080/1080Ti, imho la 2070 ha un buon rapporto prestazioni-tdp(185W).Il problema e che nn ho budget per una rtx 2080,i meglio nn voglio spendere 800euro😂.
Vengo da una gtx1070 ed ho visto che la gtx1080 costa ancora sui 500 euro e provando a comprare una GTX 1080ti usata costa di più del dayone nuova
Quindi spendere 600/650 per una 1080ti usata a fine garanzia è un rischio.. quindi l'unica alternativa è la rtx2070 nuova e incrociamo le dita per il futuro magari DLSS MI aiuterà
Inviato dal mio MIX utilizzando Tapatalk
AceGranger
28-11-2018, 15:52
non intendevo assolutamente tirare in ballo amd.
Volevo solo dire che l@UE4 è usato in molti giochi, tutto li :D
Hellblade cmq è un bel gioco.
l'UE4 è attualmente uno dei migliori Game Engine in circolazione.
fraussantin
28-11-2018, 16:16
Esiste un sistema per vedere consumi in real time in uso di queste rtx ?con rivatuner riesco a vedere solo pa cpu .. ( ovviamente indicativo non credo sia quello esatto)
TigerTank
28-11-2018, 16:29
Il problema e che nn ho budget per una rtx 2080,i meglio nn voglio spendere 800euro.
Vengo da una gtx1070 ed ho visto che la gtx1080 costa ancora sui 500 euro e provando a comprare una GTX 1080ti usata costa di più del dayone nuova
Quindi spendere 600/650 per una 1080ti usata a fine garanzia è un rischio.. quindi l'unica alternativa è la rtx2070 nuova e incrociamo le dita per il futuro magari DLSS MI aiuterà
Ti dirò che io sto prendendo tempo per vedere un pò la situazione, ma ti posso dire che in ottica di "parcheggio" su queste turing di transizione, se avessi avuto una singola 1070 nel case avrei appunto pensato di prendere una buona 2070 e amen.
Tanto il 4K mi interesserà solo quando gli schermi da gaming avranno raggiunto condizioni umane. Non certo ora dove chiedono 2500€ per un 27" :doh:
Kostanz77
28-11-2018, 16:30
si troveranno anche nei pressi delle 650/680.
ma non credo proprio
Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro
l'UE4 è attualmente uno dei migliori Game Engine in circolazione.
Ah lo so bene, lo uso
AceGranger
28-11-2018, 16:45
Ah lo so bene, lo uso
archviz o sviluppatore game ?
bagnino89
28-11-2018, 16:49
Talmente inutile che va mediamente più forte di qualunque amd sul mercato con i driver ancora beta sorteggiati al lancio dei dadi...
E costa pure di meno ..sia della vega 64 che della 1080 xD
Eh ma c'è tanto silicio inutile :asd:
Scusa mike ma che gioco è? mai sentito :D immagino sia uno di quei giochi che sceglie TPU per "magheggiare" le uber medie...
:eek:
Direi più "esperienza" che gioco...
Solo pane e Wolfenstein 2, eh? Vulkan e DX12 con AC al massimo livello! :asd:
per cortesia chiudiamo qua il discorso sull'unreal engine che so no ci ritroviamo ad ogni post ANCHE il pianto di gyammy :D
:asd:
mikael84
28-11-2018, 17:00
Esiste un sistema per vedere consumi in real time in uso di queste rtx ?con rivatuner riesco a vedere solo pa cpu .. ( ovviamente indicativo non credo sia quello esatto)
Scarica hwinfo64, e vedi tutto.
Vai su voce sensor e metti il parametro in osd.
Con quel programma vedi tutto di ogni componente.;)
archviz o sviluppatore game ?
Game development, sono grafico 3d (max. Zbrush ecc ecc)
fraussantin
28-11-2018, 17:13
Scarica hwinfo64, e vedi tutto.
Vai su voce sensor e metti il parametro in osd.
Con quel programma vedi tutto di ogni componente.;)Grazie !
Arrow0309
28-11-2018, 17:39
Niente, la mia 2080ti FE anche sotto liquido e con ottime temp se ci metto +120/500 dopo un po a BF5 crasha il driver col messaggino sul desktop.
Beh che a molti (avete detto) che crasha in dx12 e BF5 anche a default.
Ma a me con oc a +100/500 non crasha.
Ricordo che anche prima ad aria l'oc stabile era sempre quello (ovv le freq ridotte per la temp).
Dite che con +volt o voltaggio più stabile e/o bios da 380 ci riesco a stabilizzare l'oc a +120?
Ti dirò che io sto prendendo tempo per vedere un pò la situazione, ma ti posso dire che in ottica di "parcheggio" su queste turing di transizione, se avessi avuto una singola 1070 nel case avrei appunto pensato di prendere una buona 2070 e amen.
Tanto il 4K mi interesserà solo quando gli schermi da gaming avranno raggiunto condizioni umane. Non certo ora dove chiedono 2500€ per un 27" :doh:Il mio problema è che ho solo una TV OLED,chi mi conosce sa che nn ho mai avuto monitor😂😂😂.
Sono in 4k dal 2016..
Inviato dal mio MIX utilizzando Tapatalk
mikael84
28-11-2018, 17:57
Grazie !
Figurati;)
anch'io uso hwinfo64, ma mi segna male il vcore cpu, 1.15v quando invece da bios è 1.29v a pieno carico (come mi segna cpu-z). boh
Strano, mai avuto un valore sballato con questo programma, non so che dirti. Il mio è precisissimo, o meglio lo è sempre stato. ;)
Esiste un sistema per vedere consumi in real time in uso di queste rtx ?con rivatuner riesco a vedere solo pa cpu .. ( ovviamente indicativo non credo sia quello esatto)
" cd C:\Program Files\NVIDIA Corporation\NVSMI\ "
poi
" nvidia-smi -i 0 --loop-ms=1000 --format=csv,noheader --query-gpu=power.draw "
Senza la virgolette :)
Esiste un sistema per vedere consumi in real time in uso di queste rtx ?con rivatuner riesco a vedere solo pa cpu .. ( ovviamente indicativo non credo sia quello esatto)
hwinfo64 + msi ab
ci sono un sacco di guide anche sul tubo
Eh ma c'è tanto silicio inutile :asd:
ma se fa 3fps in più di una vga di due anni fa :O (cit.)
TigerTank
28-11-2018, 18:43
Trovato per caso...è in "ostrogoto" ma chissà se ne ha beccata qualcuna fallata :asd:
LINK (https://www.youtube.com/watch?v=geL9d40DXwY)
Cavolo 10 2080Ti, ci viene fuori un'auto :sofico:
Mi chiedo come peschino aria... :mc:
amon.akira
28-11-2018, 18:49
Hellblade è un gran bel gioco:)
https://multiplayer.it/recensioni/186933-hellblade-senuas-sacrifice-la-realta-della-propria-mente.html
lol, nel topic amd riecheggia strange brigade, che lo scoperto li non sapevo esistesse :asd:
raybantracing
28-11-2018, 18:49
si sa niente di quanto rimetteranno le FE disponibili?
bagnino89
28-11-2018, 19:13
Ma scusate, e parlo seriamente, ma perchè un engine come UE dev'essere considerato ottimo se su una delle due architetture gira male quando invece altri engine le due architettura sono equilibrate?
Se UE gira male su amd non può essere considerato un ottimo engine, cioè fossero tutti così gli engine vorrebbe dire che l'architettura amd ha grossi problemi e quindi ne avrebbe le colpe, ma se è l'unico engine in cui gira mediamente peggio che solitamente vuol dire che non è un ottimo engine, e senza le battutine o le frecciatine o i fanatismi vari, è una cosa oggettiva.
Evidentemente Nvidia ha lavorato a stretto giro con quelli di Epic, valorizzando di più l'architettura verde... Ma non è questo il thread giusto per parlarne.
:asd:
1 il paragone con amd non c'entra nulla, si stava paragonando con 2 gpu della stessa casa produttrice, 1080 e 1080ti
2 ha un die size grosso 450mmq!
3 a stento arriva alle prestazioni di una gpu uscita 2 anni passati fa con le stesse dimensioni ~470mmq gp102 ma al lancio costa mediamente meno.
4 a stento supera una gpu uscita 2 anni passati fa con un die size più piccolo di 1.5x ~310mmq gp104 e costa mediamente uguale.
5 a stento supera una gpu uscita 1 anno passato fa con le stesse dimensioni ~480mmq ma al lancio costa mediamente uguale
6 beh dai, almeno consuma meno e risparmio quei 10 euro l'anno di bolletta.
7 senza considerare i considerevoli problemi di stabilità e affidabilità della serie rtx2000, un dato oggettivo.
Ma capisco che quando si inizia a parlare in un modo vagamente tecnico, neanche poi tanto si parla di cose basilari, si inizia a buttarla in vacca.
Mah...
Io fossi in te cercherei seriamente di mettermi in contatto col CDA di Nvidia, magari depongono Mr. Black Leather Jacket e mettono te come AD. :asd:
Dai su, scherzi a parte... Ma perché continui a ripetere sempre le stesse cose? Queste considerazioni che contributo apportano a questo thread, che dovrebbe essere dedicato a chi le schede le ha e le usa? Boh.
Niente, la mia 2080ti FE anche sotto liquido e con ottime temp se ci metto +120/500 dopo un po a BF5 crasha il driver col messaggino sul desktop.
Beh che a molti (avete detto) che crasha in dx12 e BF5 anche a default.
Ma a me con oc a +100/500 non crasha.
Ricordo che anche prima ad aria l'oc stabile era sempre quello (ovv le freq ridotte per la temp).
Dite che con +volt o voltaggio più stabile e/o bios da 380 ci riesco a stabilizzare l'oc a +120?Allora innanzitutto l oc a +100 ha poco senso perché le frequenze vanno di 15mhz quindi impostando + 100 o +90 è identica la cosa,semmai prova +105.cmq ho notato che i voltaggi(almeno nella mia trio)sono un po strani, cioé sotto 50 gradi parte a 1.068mv , poi da 50 a 55 gradi va ad 1.043mv,sopra i 55 va a 1.050mv e poi intorno ai 60 gradi fa un po come vuole a volte sta a 1.043mv a volte torna a 1.068mv.insomma un gran casino e ancora non ci ho capito un bel niente su come funge sto c...o di voltaggio.alla fine ho trovato la stabilità totale facendo +105/+350. E mi accontento così.nel tuo caso visto che sei a liquido avrai temp molto piu basse delle mie quindi ti converrebbe vedere in full load quanto voltaggio ha la scheda e regolare la curva di OC. però se non vuoi sbatterti piu di tanto prova a mettere +105 al posto di 120.
Inviato dal mio ONEPLUS A6013 utilizzando Tapatalk
Black"SLI"jack
28-11-2018, 21:18
Premetto che devo finire di fare delle verifiche. Ma potrei avere la 2080ti in panne. Spiego meglio. Non ho alcun tipo di artefatto. Accendo il pc, inizio a giocare, 45/60 minuti si riavvia il pc. Kernel panic error. Nessun log che possa aiutare.
Inizio con l'escludere l'ali. Cambio l'evga 1200w p2 con un cooler master 1000w 80+ bronze che ho di scorta. È vecchiotto ma ancora tiene botta. Stesso problema. Quindi rimonto l'evga. Meno male che sono su banchetto.
Penso alla mobo/CPU. Tolgo l'oc (scrauso). Stesso problema.
Provo ad indagare più a fondo. Stress test Xtu su CPU e valley unigine in loop sulla vga. Stesso problema.
E qui noto che il problema lo fa sempre più frequente. Come se nel momento in cui si scalda la gpu, vada in protezione e mi faccia riavviare il pc. Più la finestra tra un test e l'altro è breve e più velocemente si riavvia il pc.
Ok. Pensando cmq ad un problema della mobo, tiro fuori l'artiglieria pesante. Gtx 480. Sparata in oc a 880mhz (potrei pure un 920mhz :asd) e 1,138v, sotto furmark. Dopo 20/30 ancora nulla. 0 riavvii ed Enel che ringrazia.
Ora a questo punto, il dubbio che la vga abbia problemi si fa più pressante, però come detto 0 di 0 artefatti. Ovviamente gpu non in oc, tutta a default. Temp massima vista 62 gradi.
Voglio provarla su altro pc. Purtroppo il pc 2 in firma è full liquid, quindi andrò a spolverare un fiammante q6600 :asd:
Voglio capire se il problema si ripresenta. Altra prova che voglio fare è reinstallare da 0 e pulito Windows 10 sulla macchina ufficiale, per escludere strani problemi lato software che destabilizzato la scheda. Forse farò prima questo di test. Farò anche un test di undervolt per capire se la vga ha problemi in fase di erogazione corrente. Ieri sera durante una prova, MSI mi ha segnalato più volte che il power limit era salito oltre il 120%. Peccato che la zotac ha PL 115%.
Altrimenti via di assistenza. Però il comportamento è assai strano. Sinceramente preferirei che sia la vga e che non sia la mobo/CPU (5960x e r5e) che al momento non vorrei cambiare assolutamente in attesa dell'anno prossimo con ryzen/tr serie 3000.
Inviato dal mio BLA-L09 utilizzando Tapatalk
Thunder-74
28-11-2018, 21:24
Trovato per caso...è in "ostrogoto" ma chissà se ne ha beccata qualcuna fallata :asd:
LINK (https://www.youtube.com/watch?v=geL9d40DXwY)
Cavolo 10 2080Ti, ci viene fuori un'auto :sofico:
Mi chiedo come peschino aria... :mc:
un "miliardo" di schede video e 32gb di DDR :fagiano:
TigerTank
28-11-2018, 21:51
un "miliardo" di schede video e 32gb di DDR :fagiano:
:D
Io comunque ho dovuto togliere i 417.01.
Non so con le Turing ma sto giocando ad un titolo che non è nemmeno nuovo(i 2 Homeworld Remastered) e dopo un pò che giocavo partiva uno stuttering mostruoso. Rimessi i 416.94 e tutto ok. :stordita:
@Black: cavolo mi spiace :muro:
Black"SLI"jack
28-11-2018, 22:00
Grazie tiger, intanto ho già aperto pratica su eprice. Vediamo l'evolversi.
Nel frattempo ho fatto test con scheda totalmente a default, quindi PL a 100% e si è cmq riavviato.
Non è un grosso problema. Tanto ho cmq la 1080 sul 34" Rog che tira ancora alla grande.
Inviato dal mio BLA-L09 utilizzando Tapatalk
Con queste schede mi sa che è più conveniente tenere il più possibile una X frequenza andando di downvolt per ridurre i tagli da PL e temperatura, piuttosto che overvoltare e occare :D
Rendono al meglio lansciando la frequnza gpu a default ma calando il voltaggio tramite curva(da 1,030V circa a 0,950V), piuttosto che lasciarle a vdef tirando di frequenza, con relativi tagli più consistenti.
Come faccio per downvoltare? La stabilità la testo con lo stress test di 3Dmark?
sono disponibili su trovaprezzi a circa 730/740 spedite che non sono un affare ma sono comunque meno di 800. Bisogna aspettare febbraio/marzo e secondo me si troveranno anche nei pressi delle 650/680.
Ma non si era detto di comprare da store affidabili per l'rma per la questione memorie, fermo restando che ognuno è libero di fare ciò che vuole?
Grazie tiger, intanto ho già aperto pratica su eprice. Vediamo l'evolversi.
Nel frattempo ho fatto test con scheda totalmente a default, quindi PL a 100% e si è cmq riavviato.
Non è un grosso problema. Tanto ho cmq la 1080 sul 34" Rog che tira ancora alla grande.
Inviato dal mio BLA-L09 utilizzando Tapatalk
che modello hai di ti ? è inutile che si giri intorno ,le 2080ti sono difettose!sul fronte 2080 lisce e 2070 che aria tira?
Arrow0309
28-11-2018, 22:39
Trovato per caso...è in "ostrogoto" ma chissà se ne ha beccata qualcuna fallata :asd:
LINK (https://www.youtube.com/watch?v=geL9d40DXwY)
Cavolo 10 2080Ti, ci viene fuori un'auto :sofico:
Mi chiedo come peschino aria... :mc:
Porca paletta ma hai visto le 8x Delta in full speed a 11000 rpm? :asd: :asd:
Inizia da questo minuto: :asd: :rotfl:
https://youtu.be/geL9d40DXwY?t=1351
Lo hanno pure in vendita :D :doh: :fagiano:
PS:
E te ti chiedevi come pescavano aria :asd:
Allora innanzitutto l oc a +100 ha poco senso perché le frequenze vanno di 15mhz quindi impostando + 100 o +90 è identica la cosa,semmai prova +105.cmq ho notato che i voltaggi(almeno nella mia trio)sono un po strani, cioé sotto 50 gradi parte a 1.068mv , poi da 50 a 55 gradi va ad 1.043mv,sopra i 55 va a 1.050mv e poi intorno ai 60 gradi fa un po come vuole a volte sta a 1.043mv a volte torna a 1.068mv.insomma un gran casino e ancora non ci ho capito un bel niente su come funge sto c...o di voltaggio.alla fine ho trovato la stabilità totale facendo +105/+350. E mi accontento così.nel tuo caso visto che sei a liquido avrai temp molto piu basse delle mie quindi ti converrebbe vedere in full load quanto voltaggio ha la scheda e regolare la curva di OC. però se non vuoi sbatterti piu di tanto prova a mettere +105 al posto di 120.
Inviato dal mio ONEPLUS A6013 utilizzando Tapatalk
Ooooo key, la prossima volta provo direttamente col +105 (domani sera ormai, stasera mi vedo un'altro ep di Narcos Mexico poi basta) :p
In seguito vedrò di approfondire la cosa al livello curva voltaggio / clock ed eventuale bios più potente ma già cosi' non e' male, 2070 / 7500 costanti e 40 gradi mi stanno dando soddisfazioni (anche se e' presto ancora)
Premetto che devo finire di fare delle verifiche. Ma potrei avere la 2080ti in panne. Spiego meglio. Non ho alcun tipo di artefatto. Accendo il pc, inizio a giocare, 45/60 minuti si riavvia il pc. Kernel panic error. Nessun log che possa aiutare.
Inizio con l'escludere l'ali. Cambio l'evga 1200w p2 con un cooler master 1000w 80+ bronze che ho di scorta. È vecchiotto ma ancora tiene botta. Stesso problema. Quindi rimonto l'evga. Meno male che sono su banchetto.
Penso alla mobo/CPU. Tolgo l'oc (scrauso). Stesso problema.
Provo ad indagare più a fondo. Stress test Xtu su CPU e valley unigine in loop sulla vga. Stesso problema.
E qui noto che il problema lo fa sempre più frequente. Come se nel momento in cui si scalda la gpu, vada in protezione e mi faccia riavviare il pc. Più la finestra tra un test e l'altro è breve e più velocemente si riavvia il pc.
Ok. Pensando cmq ad un problema della mobo, tiro fuori l'artiglieria pesante. Gtx 480. Sparata in oc a 880mhz (potrei pure un 920mhz :asd) e 1,138v, sotto furmark. Dopo 20/30 ancora nulla. 0 riavvii ed Enel che ringrazia.
Ora a questo punto, il dubbio che la vga abbia problemi si fa più pressante, però come detto 0 di 0 artefatti. Ovviamente gpu non in oc, tutta a default. Temp massima vista 62 gradi.
Voglio provarla su altro pc. Purtroppo il pc 2 in firma è full liquid, quindi andrò a spolverare un fiammante q6600 :asd:
Voglio capire se il problema si ripresenta. Altra prova che voglio fare è reinstallare da 0 e pulito Windows 10 sulla macchina ufficiale, per escludere strani problemi lato software che destabilizzato la scheda. Forse farò prima questo di test. Farò anche un test di undervolt per capire se la vga ha problemi in fase di erogazione corrente. Ieri sera durante una prova, MSI mi ha segnalato più volte che il power limit era salito oltre il 120%. Peccato che la zotac ha PL 115%.
Altrimenti via di assistenza. Però il comportamento è assai strano. Sinceramente preferirei che sia la vga e che non sia la mobo/CPU (5960x e r5e) che al momento non vorrei cambiare assolutamente in attesa dell'anno prossimo con ryzen/tr serie 3000.
Inviato dal mio BLA-L09 utilizzando Tapatalk
Azzzzz, mi spiace
Imho e' la vga in qualche modo, aspettiamo gli aggiornamenti dopo il format
Io per quanto mi riguarda (da un po di anni) metto il pl a manetta prima di accendere un qualsiasi gioco, anche il Solitario :p
Facci sapere come evolve la faccenda
Come faccio per undervoltare? La stabilità la testo con lo stress test di 3Dmark?
Ma non si era detto di comprare da store affidabili per l'rma per la questione memorie, fermo restando che ognuno è libero di fare ciò che vuole?
soltanto amazon ha una politica speciale per gli rma,però sappiamo tutti che al momento ha prezzi sballati
Porca paletta ma hai visto le 8x Delta in full speed a 11000 rpm? :asd: :asd:
Inizia da questo minuto: :asd: :rotfl:
https://youtu.be/geL9d40DXwY?t=1351
Lo hanno pure in vendita :D :doh: :fagiano:
PS:
E te ti chiedevi come pescavano aria :asd:
OMG :eek:
sembra una F1 :sofico:
fraussantin
28-11-2018, 22:52
soltanto amazon ha una politica speciale per gli rma,però sappiamo tutti che al momento ha prezzi sballati
no alche altri store sono abbastanza efficenti , certo bisogna evitare vat player o store che comprano chissadove.
eprice se venduto diretto , evga , ak , next ecc sono sicuramente seri.
certo amazon è il top sopratutto per tempistiche , ma si fa anche pagare...
edit https://www.nvidia.it/object/wheretobuy-online-it.html questi penso siano affidabili di certo
no alche altri store sono abbastanza efficenti , certo bisogna evitare vat player o store che comprano chissadove.
eprice se venduto diretto , evga , ak , next ecc sono sicuramente seri.
certo amazon è il top sopratutto per tempistiche , ma si fa anche pagare...
edit https://www.nvidia.it/object/wheretobuy-online-it.html questi penso siano affidabili di certo
perdona l'ignoranza !esistono altri store che in caso di rma ti mandano il corriere a casa a SPESE LORO?in caso di altri problemi ti possono fare il rimborso nell'arco dei 2 anni?in caso di doa spediscono o rimborsano al momento che fai la segnalazione?ovviamente per le schede con garanzia aggiuntiva oltre 2 anni vale altro discorso!prova a fare rma con qualche sigillo rotto presso qualche rivenditore,perchè spesso molti liquidano fregandosene delle regole.ho visto passare in garanzia cose ad amazon che io da informatico non avrei mai fatto passare,qualche mese fa un cliente mi ha portato il notebook con il display rotto(spaccato da urto o pressione),mi parlava di macchia e in seguito al mio rifiuto di risolvere il problema con la magia ha chiesto il rimborso ad amazon e ha risolto il problema
Ma scusate, e parlo seriamente, ma perchè un engine come UE dev'essere considerato ottimo se su una delle due architetture gira male quando invece altri engine le due architettura sono equilibrate?
Se UE gira male su amd non può essere considerato un ottimo engine, cioè fossero tutti così gli engine vorrebbe dire che l'architettura amd ha grossi problemi e quindi ne avrebbe le colpe, ma se è l'unico engine in cui gira mediamente peggio che solitamente vuol dire che non è un ottimo engine, e senza le battutine o le frecciatine o i fanatismi vari, è una cosa oggettiva.
con ottimo engine non puoi solamente puntare il dito sul : gira male su amd e gira bene su nvidia.
Io ci lavoro e come tool di sviluppo è uno dei migliori, se non il migliore per il game development.
In piu è abbastanza economico se decidi di svilupparci ed è molto ma molto supportato e viene aggiornato costantemente.
Riguardo il girare meglio o peggio su determinate piattaforme, credo che la pantomina che sia fatto appositamente cosi non rispecchi la reltà.
Essendo un engine scritto 20 anni fa è stato si aggiornato e migliorato, ma tutto richiede tempo e dubito fortemente che epic lo faccia di proposito, visto che viene usato anche su console dove c'è praticamente solo hardware amd.
Se qualcuno vorrae sarà capace di scrivere u nuovo motore grafico che sfrutti a dovere tutto il potenziale delle cpu/gpu odierne e a venire tanto di cappello, ma non è ne cosi semplice ne cosi economico il da farsi.
se ci fai caso engine piu recenti tendono a ridurre il gap amd/intel e amd/nvidia semplicemente perche sono scritti su basi piu recenti, mi sembra abbastanza semplice il concetto.
scorpion73
29-11-2018, 05:42
perdona l'ignoranza !esistono altri store che in caso di rma ti mandano il corriere a casa a SPESE LORO?in caso di altri problemi ti possono fare il rimborso nell'arco dei 2 anni?in caso di doa spediscono o rimborsano al momento che fai la segnalazione?ovviamente per le schede con garanzia aggiuntiva oltre 2 anni vale altro discorso!prova a fare rma con qualche sigillo rotto presso qualche rivenditore,perchè spesso molti liquidano fregandosene delle regole.ho visto passare in garanzia cose ad amazon che io da informatico non avrei mai fatto passare,qualche mese fa un cliente mi ha portato il notebook con il display rotto(spaccato da urto o pressione),mi parlava di macchia e in seguito al mio rifiuto di risolvere il problema con la magia ha chiesto il rimborso ad amazon e ha risolto il problema
Quoto, ad oggi i migliori si chiamano Amazon ed EVGA, però EVGA la devi mandare a spese tue in Germania che costa almeno 70 euro se la spedisci assicurata con un corriere che non ci gioca a pallavolo.
Allo stato per la 2080TI ho due scelte:
- La Strix da Amazon, ma se la fa pagare 1680 euro, che però mi sembrano veramente tanti rispetto ai 1500 di eprezzo
- La FTW3 da EVGA, che costa spedita 1492 euro.
Subito dopo viene eprezzo, che sulla Strix ha prezzi allineati a quelli di mercato, che se venduto direttamente da loro sono seri ma anche li' il corriere come da norma lo paghi tu (ma costa meno che inviarlo in Germania) e poi hai i tempi di attesa delle RMA.
Non so se con eprezzo puoi spedire usando il pick & pay anche in caso di RMA risparmiando quindi il corriere, se fosse sarebbe un plus, ma i tempi di attesa penso siano quelli.
In giro sulla rete invece ho letto opnioni molto discordanti e a volte poco lusinghiere su altri store che invece mi sembravano abbastanza noti e classificati da molti come seri, quindi per le 2080ti preferisco evitare...
Se non evito proprio la 2080ti... :D
Giovamas
29-11-2018, 07:11
Subito dopo viene eprezzo, che sulla Strix ha prezzi allineati a quelli di mercato, che se venduto direttamente da loro sono seri ma anche li' il corriere come da norma lo paghi tu (ma costa meno che inviarlo in Germania) e poi hai i tempi di attesa delle RMA.
Non so se con eprezzo puoi spedire usando il pick & pay anche in caso di RMA risparmiando quindi il corriere, se fosse sarebbe un plus, ma i tempi di attesa penso siano quelli.
In giro sulla rete invece ho letto opnioni molto discordanti e a volte poco lusinghiere su altri store che invece mi sembravano abbastanza noti e classificati da molti come seri, quindi per le 2080ti preferisco evitare...
Se non evito proprio la 2080ti... :D
lascia perdere gli altri store per cifre così importanti. amazon evga shop o eprezzo imho. ascolta da eprezzo puoi usufruire del servizio pick & pay e l'rma la gestiscono loro così come il reso entro i 14 giorni (provato con il monitor pg279. era inguardabile e lo ridiedi indietro il giorno dopo accredito immediato o quasi). io di norma gli acquisti importanti li faccio da loro. se hai pazienza magari come me peschi il -100 :)
Amazon Spagna mi ha detto che il mio ordine è in preparazione alla spedizione anche se sul sito risulta ancora in presale. Balla o verità? Forse e ora di ricaricare la prepagata...
Inviato dal mio SM-G960F utilizzando Tapatalk
Thunder-74
29-11-2018, 07:19
Quoto, ad oggi i migliori si chiamano Amazon ed EVGA, però EVGA la devi mandare a spese tue in Germania che costa almeno 70 euro se la spedisci assicurata con un corriere che non ci gioca a pallavolo.
Allo stato per la 2080TI ho due scelte:
- La Strix da Amazon, ma se la fa pagare 1680 euro, che però mi sembrano veramente tanti rispetto ai 1500 di eprezzo
- La FTW3 da EVGA, che costa spedita 1492 euro.
Subito dopo viene eprezzo, che sulla Strix ha prezzi allineati a quelli di mercato, che se venduto direttamente da loro sono seri ma anche li' il corriere come da norma lo paghi tu (ma costa meno che inviarlo in Germania) e poi hai i tempi di attesa delle RMA.
Non so se con eprezzo puoi spedire usando il pick & pay anche in caso di RMA risparmiando quindi il corriere, se fosse sarebbe un plus, ma i tempi di attesa penso siano quelli.
In giro sulla rete invece ho letto opnioni molto discordanti e a volte poco lusinghiere su altri store che invece mi sembravano abbastanza noti e classificati da molti come seri, quindi per le 2080ti preferisco evitare...
Se non evito proprio la 2080ti... :D
Io tre anni fa lo feci per una VGA in DOA presa su eprice. Misi tutto nel pick & pay e 15 giorni di attesa... zero costi spedizione
Giovamas
29-11-2018, 07:20
a proposito di monitor.. telenovela benq xl2730. magari a qualcuno interessa quindi condivido. per attivare i 144 hz o, meglio, per fare funzionare i 417 ho dovuto nell'ordine:
1) collegare un cavo hdmi dalla strix al monitor oltre al collegamento con il cavo dp. quindi due cavi. win 10 sente due monitor. allora il black screen dopo un hard reset va via.
2) e qui sta il bello. ho dovuto creare in win10 una risoluzione personalizzata a 143 Hz ed applicarla. in tal caso tutto funziona. motivo sconosciuto. un antani degno del miglior Mascetti
3) come stacco il cavo hdmi il segnale sparisce e devo fare un reset. se non lo riattacco.... black screen. comunque ora va.
con i nuovi driver sarà sicuramente una nuova storia. sto sinceramente pensando di passare il Benq a mio figlio che lo voleva per la Play e prendermi un gsync che non ho mai avuto
spero a qualcuno serva come esperienza
ecco un bench con i nuovi driver. la scheda è una bestia...
https://i.ibb.co/5nrJjZ9/Superposition-Benchmark-v1-0-7774-1543474865.png (https://ibb.co/5nrJjZ9)
Black"SLI"jack
29-11-2018, 07:22
Porca paletta ma hai visto le 8x Delta in full speed a 11000 rpm? :asd: :asd:
Inizia da questo minuto: :asd: :rotfl:
https://youtu.be/geL9d40DXwY?t=1351
Lo hanno pure in vendita :D :doh: :fagiano:
PS:
E te ti chiedevi come pescavano aria :asd:
Ooooo key, la prossima volta provo direttamente col +105 (domani sera ormai, stasera mi vedo un'altro ep di Narcos Mexico poi basta) :p
In seguito vedrò di approfondire la cosa al livello curva voltaggio / clock ed eventuale bios più potente ma già cosi' non e' male, 2070 / 7500 costanti e 40 gradi mi stanno dando soddisfazioni (anche se e' presto ancora)
Azzzzz, mi spiace
Imho e' la vga in qualche modo, aspettiamo gli aggiornamenti dopo il format
Io per quanto mi riguarda (da un po di anni) metto il pl a manetta prima di accendere un qualsiasi gioco, anche il Solitario :p
Facci sapere come evolve la faccenda
Se vieni a lavorare con me nei datacenter, ci sono prodotti enterprise server che anche senza quelle delta fanno un bordello della Madonna. Ti consiglio i Cisco ucs blade e perché no pure i vecchi blade H ibm/Lenovo. Ma ci metto pure qualche storage tipo i NetApp eseries. Tutti dei 747 in pista di rullaggio. :asd:
Tornando invece alla mia vga, ci riflettevo ieri sera dopo i post. Quasi sicuro sia lei. Ma è qualcosa legato alla sezione di alimentazione. Come qualche componente che scaldandosi porta al riavvio brutale del pc. Per il PL credo di non aver mai lascia nessuna scheda con tale impostazione a default :D
Stasera faccio il test con il q6600, se regge :asd:. Intanto ho già scritto ad eprice. Spero di poter sfruttare il Pick&pay per consegna della scheda, mi sembrava che si potesse fare, chiederò. Se poi mi fanno reso totale e rendono il cash, vediamo se riprendere o meno una 2080ti.
Scheda valida per il 4k come ho sempre scritto. Però sono io che sul tv 4k non riesco proprio a giocare. Sento la mancanza del g-sync del roggone 34". Allo stesso modo se piazzo la musica 2080ti sula Rog (3440x1440) su molti giochi diventa eccessiva quasi sprecata, anche puntando ai 100hz. Perché anche la 1070 prima e la 1080 adesso li tirano maxati senza problemi. Poi per certi mattonazzi che appunto il g-sync.
Vedremo.
Inviato dal mio BLA-L09 utilizzando Tapatalk
fraussantin
29-11-2018, 07:22
Quoto, ad oggi i migliori si chiamano Amazon ed EVGA, però EVGA la devi mandare a spese tue in Germania che costa almeno 70 euro se la spedisci assicurata con un corriere che non ci gioca a pallavolo.
Allo stato per la 2080TI ho due scelte:
-
In rma non possono addebitarti le spese visto che sono i produttori stessi.. cmq 70 euro dove?
https://uploads.tapatalk-cdn.com/20181129/3765ae5b552b5a6c569d6242ef352b65.jpg
Edit
Effettivamente per l'invio non specificano nulla , ho chiesto a loro cmq , ma sarebbe la prima volta che mi capita con un produttore diretto di dover spedire a spese mie. ( Honor, oneplus ,google , mai pagato nulla )
Cmq la spedizione con poste costa 35 euro assicurata fino a 3k , e il ritorno è specificato che è a spese loro.
Vi terrò aggiornati..
Giovamas
29-11-2018, 07:28
Grazie tiger, intanto ho già aperto pratica su eprice. Vediamo l'evolversi.
Nel frattempo ho fatto test con scheda totalmente a default, quindi PL a 100% e si è cmq riavviato.
Non è un grosso problema. Tanto ho cmq la 1080 sul 34" Rog che tira ancora alla grande.
Inviato dal mio BLA-L09 utilizzando Tapatalk
maremma impestata... mi spiace veramente :(
PS qualche volta ti chiedo qualcosa sul roggone mi interessa:)
@Black .. mi spiace per la scheda :cry:
Arrow0309
29-11-2018, 08:24
Se vieni a lavorare con me nei datacenter, ci sono prodotti enterprise server che anche senza quelle delta fanno un bordello della Madonna. Ti consiglio i Cisco ucs blade e perché no pure i vecchi blade H ibm/Lenovo. Ma ci metto pure qualche storage tipo i NetApp eseries. Tutti dei 747 in pista di rullaggio. :asd:
Tornando invece alla mia vga, ci riflettevo ieri sera dopo i post. Quasi sicuro sia lei. Ma è qualcosa legato alla sezione di alimentazione. Come qualche componente che scaldandosi porta al riavvio brutale del pc. Per il PL credo di non aver mai lascia nessuna scheda con tale impostazione a default :D
Stasera faccio il test con il q6600, se regge :asd:. Intanto ho già scritto ad eprice. Spero di poter sfruttare il Pick&pay per consegna della scheda, mi sembrava che si potesse fare, chiederò. Se poi mi fanno reso totale e rendono il cash, vediamo se riprendere o meno una 2080ti.
Scheda valida per il 4k come ho sempre scritto. Però sono io che sul tv 4k non riesco proprio a giocare. Sento la mancanza del g-sync del roggone 34". Allo stesso modo se piazzo la musica 2080ti sula Rog (3440x1440) su molti giochi diventa eccessiva quasi sprecata, anche puntando ai 100hz. Perché anche la 1070 prima e la 1080 adesso li tirano maxati senza problemi. Poi per certi mattonazzi che appunto il g-sync.
Vedremo.
Inviato dal mio BLA-L09 utilizzando Tapatalk
Mi piacerebbe venire a lavorare con te nei datacenter ma purtroppo devo ancora restare qui in UK per ancora un po (seppur lontano dai miei). :stordita:
In quanto per la 2080ti sovradimensionata per un 34" 3440x1440 e 100 - 120hz io non la vedo così, i unici due giochi che sto giocando ora rullano più o meno ai stessi fps, ACO maxato tra i 60-95fps e BF5 (RTX low, qualche post processing disabilitato) tra i 50 - 85fps.
Il BF5 non l'ho mai testato con la TitanX Pascal (il precedente BF1 in dx12 aveva microstuttering e stuttering nonostante fps altini) ma sotto Assassin's Odyssey ho visto un miglioramento tangibile.
Ovv (più o meno) stessi clock in oc gpu. ;)
In rma non possono addebitarti le spese visto che sono i produttori stessi.. cmq 70 euro dove?
https://uploads.tapatalk-cdn.com/20181129/3765ae5b552b5a6c569d6242ef352b65.jpg
Edit
Effettivamente per l'invio non specificano nulla , ho chiesto a loro cmq , ma sarebbe la prima volta che mi capita con un produttore diretto di dover spedire a spese mie. ( Honor, oneplus ,google , mai pagato nulla )
Cmq la spedizione con poste costa 35 euro assicurata fino a 3k , e il ritorno è specificato che è a spese loro.
Vi terrò aggiornati..
io parlavo appunto delle spese d'invio non di ritorno che nel 99% dei casi è a spese loro.la questione del costo del pacco bisogna essere furbi e fare vari preventivi,io di recente ho inviato a corsair in olanda a 28€ circa con ups e altri corrieri mi chiedevano anche 60 euro.
TigerTank
29-11-2018, 08:56
Come faccio per downvoltare? La stabilità la testo con lo stress test di 3Dmark?
Cerca indietro, prova45 aveva fatto delle prove dettagliate a riguardo. Non so se con le turing si faccia nello stesso identico modo delle pascal, ma devi usare la curva di afterburner (ctrl+f).
Qualche possessore che ha già smanettato in tal senso ti potrà dare consigli più approfonditi.
Porca paletta ma hai visto le 8x Delta in full speed a 11000 rpm? :asd: :asd:
Inizia da questo minuto: :asd: :rotfl:
https://youtu.be/geL9d40DXwY?t=1351
Lo hanno pure in vendita :D :doh: :fagiano:
PS:
E te ti chiedevi come pescavano aria :asd:
Eheheh però le vga sono tremendamente appiccicate tra loro, forse in quel caso le vecchie blower sono meglio come espulsione dell'aria.
Comunque anche a me sono venute in mente le F1 in passaggio al rettilineo :asd:
Belll'impatto visivo quel mucchio di 10 2080Ti.
soltanto amazon ha una politica speciale per gli rma,però sappiamo tutti che al momento ha prezzi sballati
Eh lasciamo perdere va che purtroppo anche con amazon va a fortuna.
Sto tribolando non poco per la nuova mobo...alla faccia del nuovo, acquistato con il Prime e venduto e spedito da amazon :doh:
con ottimo engine non puoi solamente puntare il dito sul : gira male su amd e gira bene su nvidia.
Io ci lavoro e come tool di sviluppo è uno dei migliori, se non il migliore per il game development.
In piu è abbastanza economico se decidi di svilupparci ed è molto ma molto supportato e viene aggiornato costantemente.
Riguardo il girare meglio o peggio su determinate piattaforme, credo che la pantomina che sia fatto appositamente cosi non rispecchi la reltà.
Essendo un engine scritto 20 anni fa è stato si aggiornato e migliorato, ma tutto richiede tempo e dubito fortemente che epic lo faccia di proposito, visto che viene usato anche su console dove c'è praticamente solo hardware amd.
Se qualcuno vorrae sarà capace di scrivere u nuovo motore grafico che sfrutti a dovere tutto il potenziale delle cpu/gpu odierne e a venire tanto di cappello, ma non è ne cosi semplice ne cosi economico il da farsi.
se ci fai caso engine piu recenti tendono a ridurre il gap amd/intel e amd/nvidia semplicemente perche sono scritti su basi piu recenti, mi sembra abbastanza semplice il concetto.
Ok quindi da profano dico che l'UE4 è una mxxxa :O
Sarà anche più facile per voi sviluppatori, avrà una pletora maggiore di persone che lo maneggiano ma se il risultato è quello.....
Cerca indietro, prova45 aveva fatto delle prove dettagliate a riguardo. Non so se con le turing si faccia nello stesso identico modo delle pascal, ma devi usare la curva di afterburner (ctrl+f).
Qualche possessore che ha già smanettato in tal senso ti potrà dare consigli più approfonditi.
Eheheh però le vga sono tremendamente appiccicate tra loro, forse in quel caso le vecchie blower sono meglio come espulsione dell'aria.
Comunque anche a me sono venute in mente le F1 in passaggio al rettilineo :asd:
Comunque stica...bello quel mucchio di 10 2080Ti.
Eh lasciamo perdere va che purtroppo anche con amazon va a fortuna.
Sto tribolando non poco per la nuova mobo...alla faccia del nuovo, acquistato con il Prime e venduto e spedito da amazon :doh:
in che senso stai tribolando?di solito ti mandano il corriere a ritirare e ti fanno la sostituzione o il rimborso!
TigerTank
29-11-2018, 09:25
in che senso stai tribolando?di solito ti mandano il corriere a ritirare e ti fanno la sostituzione o il rimborso!
Quello sì...peccato che la prima mi sia arrivata in condizioni pietose perchè affidata alle poste per cui subito mandata indietro :doh:
E ora sto aspettando la sostituta...anch'essa affidata alle poste nonostante il mio appello perchè fosse spedita tramite corriere vista la natura del prodotto.
Quindi diciamo che mi girano perchè cosa non dipendente da eventuali difetti intrinsechi ma da una gestione pessima della spedizione. In pratica è dal 19 novembre che sono in ballo e la sostituta dovrebbe arrivare lunedì. :mc:
Mai capitata una cosa del genere...e meno male che perlomeno si tratta di una mobo e non di una Turing.
Quello sì...peccato che la prima mi sia arrivata in condizioni pietose perchè affidata alle poste per cui subito mandata indietro :doh:
E ora sto aspettando la sostituta...anch'essa affidata alle poste nonostante il mio appello perchè fosse spedita tramite corriere vista la natura del prodotto.
Quindi diciamo che mi girano perchè cosa non dipendente da eventuali difetti intrinsechi ma da una gestione pessima della spedizione. In pratica è dal 19 novembre che sono in ballo e la sostituta dovrebbe arrivare lunedì. :mc:
Mai capitata una cosa del genere...e meno male che perlomeno si tratta di una mobo e non di una Turing.
perdonami allora non stai tribolando con amazon ma con le poste!pensa se dovevi tribolare per farti riconoscere soltanto l'rma,le poste sono pessime come corriere e purtroppo hanno stretto una convenzione con amazon!
TigerTank
29-11-2018, 09:36
perdonami allora non stai tribolando con amazon ma con le poste!pensa se dovevi tribolare per farti riconoscere soltanto l'rma,le poste sono pessime come corriere e purtroppo hanno stretto una convenzione con amazon!
Sì ma è assurdo che affidino spedizioni delicate riguardanti l'hardware alle poste(e pure recidivi)...per cui sbagliano loro in primis a gestire il canale :doh:
Manco fosse roba da poco e usata del marketplace. Ok garanzia e reso ma è sempre comunque tempo perso per cose assurde.
Comunque chiudo OT, augurando solo che non succedano cose del genere con prodotti tipo queste costose schede video.
fraussantin
29-11-2018, 09:37
Non è amazon logistic sia meglio ... Randellano i pacchi al di la del cancello o li lasciano davanti alle porte e gli imballi fanno defecare
Certo con amazon non perdi soldi quello è vero .
Però è anche vero che evga sugli alimentatori se mi fa pagare 30 euro per la garanzia dopo un tot di anni rende quasi sconveniente fare rma ...
Onestamente ê la prima che trovo...
Black"SLI"jack
29-11-2018, 09:37
@Black .. mi spiace per la scheda :cry:
grazie.
Mi piacerebbe venire a lavorare con te nei datacenter ma purtroppo devo ancora restare qui in UK per ancora un po (seppur lontano dai miei). :stordita:
In quanto per la 2080ti sovradimensionata per un 34" 3440x1440 e 100 - 120hz io non la vedo così, i unici due giochi che sto giocando ora rullano più o meno ai stessi fps, ACO maxato tra i 60-95fps e BF5 (RTX low, qualche post processing disabilitato) tra i 50 - 85fps.
Il BF5 non l'ho mai testato con la TitanX Pascal (il precedente BF1 in dx12 aveva microstuttering e stuttering nonostante fps altini) ma sotto Assassin's Odyssey ho visto un miglioramento tangibile.
Ovv (più o meno) stessi clock in oc gpu. ;)
Diciamo che la maggior parte dei giochi in 3440x1440, una 2080ti è sovradimensionata. come avevo scritto ovviamente ci sono le eccezioni. BF5 con dxr attivati ovvio che è altra questione. infatti servirebbe un 1080p :asd:.
il dxr in bf5 l'ho provato ma sinceramente non mi ha colpito, se non per la pesantezza. senza considerare i problemi del frostbite con le dx12. in dx11 vola pure con la 1080 tutto maxato. ovvio meno fps, ma è anche vero che la 1080 prestazionalmente è all'incirca metà della 2080ti. altri titoli che gioco sono già a 100fps praticamente fissi con la 1080, con la 2080ti non noterei differenze. the division altro titolo che gioco effettivamente con la 2080ti gira assai meglio in wqhd, ma rientra nei mattonazzi.
scorpion73
29-11-2018, 09:47
In rma non possono addebitarti le spese visto che sono i produttori stessi.. cmq 70 euro dove?
https://uploads.tapatalk-cdn.com/20181129/3765ae5b552b5a6c569d6242ef352b65.jpg
Edit
Effettivamente per l'invio non specificano nulla , ho chiesto a loro cmq , ma sarebbe la prima volta che mi capita con un produttore diretto di dover spedire a spese mie. ( Honor, oneplus ,google , mai pagato nulla )
Cmq la spedizione con poste costa 35 euro assicurata fino a 3k , e il ritorno è specificato che è a spese loro.
Vi terrò aggiornati..
Guarda, io ho fatto RMA qualche mese fa per una 1080ti, e il trasporto a EVGA l'ho dovuto pagare io.
Ho pagato 70 euro con UPS assicurato preso via Packlink
In rma non possono addebitarti le spese visto che sono i produttori stessi.. cmq 70 euro dove?
https://uploads.tapatalk-cdn.com/20181129/3765ae5b552b5a6c569d6242ef352b65.jpg
Edit
Effettivamente per l'invio non specificano nulla , ho chiesto a loro cmq , ma sarebbe la prima volta che mi capita con un produttore diretto di dover spedire a spese mie. ( Honor, oneplus ,google , mai pagato nulla )
Cmq la spedizione con poste costa 35 euro assicurata fino a 3k , e il ritorno è specificato che è a spese loro.
Vi terrò aggiornati..
per esperienza personale, evga mi ha fatto pagare le spese di spedizione per mandare la scheda indietro, circa 30 euro con ups (devi pima inviare, subito dopo essere arrivata spediscono). Amazon che però era nelle prime 2 settimane di acquisto, ha organizzato il corriere per il ritiro.
In ogni caso ambedue super eccellenti.
TigerTank
29-11-2018, 09:56
Condivido perchè la trovo stupenda :asd:
http://i.imgur.com/f8idQunl.jpg (https://imgur.com/f8idQun)
scorpion73
29-11-2018, 09:56
lascia perdere gli altri store per cifre così importanti. amazon evga shop o eprezzo imho. ascolta da eprezzo puoi usufruire del servizio pick & pay e l'rma la gestiscono loro così come il reso entro i 14 giorni (provato con il monitor pg279. era inguardabile e lo ridiedi indietro il giorno dopo accredito immediato o quasi). io di norma gli acquisti importanti li faccio da loro. se hai pazienza magari come me peschi il -100 :)
Si si ma infatti, ho sempre preso solo da uno di questi tre shop.
Solo che attualmente la Strix è esaurita altrimenti avrei preso quella.
Vorrei un PCB custom nella speranza che ci siano meno probabilità di essere difettosi, anche se mi pare che sia di Strix che di FTW3 morte purtroppo se ne stanno vedendo.
Temo anche io a questo punto che siano i chip difettosi.
Condivido perchè la trovo stupenda :asd:
http://i.imgur.com/f8idQunl.jpg (https://imgur.com/f8idQun)
:asd: :asd: :asd: :asd:
Attenzione a quello che leggi sui forum. UE4 è un middleware disponibile da 4/5 anni, non 20.
L’ue4 lo hanno cominciato a scrivere nel 2003 o giù di lì. Da Sweeney solamente per molti anni, secondo alcuni. Che poi il middleware lo diano a tutti da 5 anni è un’altra storia.
Per il discorso rma evga posso solamente dire che se la scheda si rompe subito il pickup lo fanno loro, almeno così fu con me per una 980 Classified. Ora vado a memoria, mi pare entro un mese, ma non ci giurerei, poi ci si arrangia.
Thunder-74
29-11-2018, 10:48
In rma non possono addebitarti le spese visto che sono i produttori stessi.. cmq 70 euro dove?
cut...
Edit
Effettivamente per l'invio non specificano nulla , ho chiesto a loro cmq , ma sarebbe la prima volta che mi capita con un produttore diretto di dover spedire a spese mie. ( Honor, oneplus ,google , mai pagato nulla )
Cmq la spedizione con poste costa 35 euro assicurata fino a 3k , e il ritorno è specificato che è a spese loro.
Vi terrò aggiornati..
Io ho inviato alimentatore in RMA alla Corsair tempo fa, le spese le ho pagate io. Il ritorno a spese loro.
AceGranger
29-11-2018, 10:56
Io ho inviato alimentatore in RMA alla Corsair tempo fa, le spese le ho pagate io. Il ritorno a spese loro.
è sempre cosi, lo dice la normativa europea;
le spese di spedizione sono sempre a carico dell'acquirente;sia che lo mandi dal venditore sia che lo mandi direttamente alla casa madre; se poi trovi il venditore/casa madre che ti offre il servizio gratuito è un suo plus, tipo Amazon.
Arrow0309
29-11-2018, 10:59
grazie.
Diciamo che la maggior parte dei giochi in 3440x1440, una 2080ti è sovradimensionata. come avevo scritto ovviamente ci sono le eccezioni. BF5 con dxr attivati ovvio che è altra questione. infatti servirebbe un 1080p :asd:.
il dxr in bf5 l'ho provato ma sinceramente non mi ha colpito, se non per la pesantezza. senza considerare i problemi del frostbite con le dx12. in dx11 vola pure con la 1080 tutto maxato. ovvio meno fps, ma è anche vero che la 1080 prestazionalmente è all'incirca metà della 2080ti. altri titoli che gioco sono già a 100fps praticamente fissi con la 1080, con la 2080ti non noterei differenze. the division altro titolo che gioco effettivamente con la 2080ti gira assai meglio in wqhd, ma rientra nei mattonazzi.
È così, certo che è così, ma conta pure i titoli in uscita (ti nomino solo Metro). :p
Cioè, tu quando aggiorni il comparto grafico high end pensi al passato o al domani? :wtf:
AceGranger
29-11-2018, 11:05
Game development, sono grafico 3d (max. Zbrush ecc ecc)
good :eek: cosi magari avro qualcuno con cui cambiare pareri in futuro.
ho iniziato a usarlo un po per archviz ma ho il piccolo problema che devo fare l'unwrap di tutte le librerie e alcune rimodellarle in low poli... perche faccio in fretta a raggiungere i 3-4 milioni di poligoni solo con una stanza, esendo abituato a lavorare solo di proxy non mi ero mai posto il problema del numero di poligoni :stordita:.
fortuna che almeno quelle che ho fatto in fotogrammetria sono gia unwrappate.
Lo stavo testando con la plugin di Vray che ora permette un import diretto e veloce.
spero che a breve mettano in scaletta il supporto all'RT delle Turing
Black"SLI"jack
29-11-2018, 11:19
È così, certo che è così, ma conta pure i titoli in uscita (ti nomino solo Metro). :p
Cioè, tu quando aggiorni il comparto grafico high end pensi al passato o al domani? :wtf:
penso quasi sempre al futuro, ma tengo di conto anche l'attuale. un bf5 uscito adesso, tolta la questione del rtx on/off, cmq la 1080 lo tira maxato con ottimo frame rate in 3440x1440 e in multi ovviamente vado di tuning per evitare problemi di prestazioni (ma è una cosa che ho sempre fatto fin da bf 1942). ma il discorso vale anche per altri giochi appena usciti o cmq in uscita che mi interessano. so che metro sarà un bel mattone, come so che the division 2 lo sarà nuovamente. ma allo stesso tempo ci sono giochi come devil may cry 5, o resident evil 2 che sicuramente non avranno fatica a girare sulla 1080. ma gli esempi ce ne sono tanti altri. sono appassionato di giochi di guida (similarcade o simulativi), ho titoli che con la 1070 avevo frame rate elevati, e con la 1080 la situazione è solo migliorata e se prima non tenevo i 100 fissi adesso si.
ripeto la 2080ti la vedo come scheda per il 4k uhd. per il wqhd, tolti i mattoni e l'rtx, personalmente è sprecata. ma al contempo in 4k sento la mancanza del g-sync in quei giochi dove cmq non riesce a tenere i 60 fissi.
esasperato dall'eterno spostamento di date della msi 2080ti trio dopo quasi 3 mesi di attesa mi sono arreso e mi son fatto mandare la zotac amp.
Speriamo bene, scelta fatta anche in caso di rottura, zotac è più presente sul mercato rispetto le altre
col culo che ho si rompera subito
Black"SLI"jack
29-11-2018, 11:23
non te la gufare però :D :asd:
la mia sta zotac sta dando problemi, ma se leggi i miei post precedenti è un difetto totalmente diverso da quelli di morte delle 2080ti.
non te la gufare però :D :asd:
la mia sta zotac sta dando problemi, ma se leggi i miei post precedenti è un difetto totalmente diverso da quelli di morte delle 2080ti.
boh a me sembra che la % di schede imperfette, sia maggiore in questa serie, rispetto a 1080 e 1080ti.
Le ho avuto entrambe, con la 1080 ho patito 2 mesi prima di averla e spulciavo di tutto e le schede rotte erano veramente poche
è sempre cosi, lo dice la normativa europea;
le spese di spedizione sono sempre a carico dell'acquirente;sia che lo mandi dal venditore sia che lo mandi direttamente alla casa madre; se poi trovi il venditore/casa madre che ti offre il servizio gratuito è un suo plus, tipo Amazon.
infatti per questo si discuteva che amazon è l'unico shop che non da problemi nel post vendita!
voglio essere chiaro avendo quasi tre decadi di esperienza in merito e spesso leggo tante baggianate:
con amazon:
1)non hai problemi per la spedizione perchè è tutto a carico loro
2)non hai problemi a dover dimostrare che il prodotto è rotto perchè in ogni caso o ti fanno il reso o te lo cambiano,questa cosa non è da poco perchè quando ti trovi in zona grigia ,cioè quando la rottura è tollerabile loro in ogni caso non ti fanno storie(tipo pixel rotti,coil whine ecc..)
3)infine non si hanno problemi nemmeno quando il problema è causato dall'utente sbadato
con altri shop:
1)spedizione nel 99,9% dei casi a tuo carico
2)possibile spedizione di ritorno a tuo carico in pochi casi
3)spesso problemi per riconoscere il guasto se non palese
3)tempi tecnici biblici
4)anche problemi di malafede!
casa madre:
1)per molti prodotti quasi uguale ad amazon,per esempio io spedisco spesso notebook e non mi hanno fatto mai storie,le spese di spedizione sono a loro carico e anche se l'utente ha fatto qualche danno di solito chiudono qualche occhio.
2)per quanto riguarda le schede video è inutile girarci intorno se levi i sigilli per mettere a liquido per regola la garanzia la perdi,di regola se vuoi mettere a liquido devi prendere una scheda video gia pronta,però con la casa madre spesso non ci sono problemi e quindi chiudono gli occhi se invece dovessero sorgere problemi con uno shop terzo potrebbe non andare bene!
In ultimo e non di poco conto mi è successo qualche mese fa che mi è arrivato lo scatolo vuoto senza l'ssd di dentro e chiamando amazon mi ha risolto il problema rispedendo tutto,il pacco era integro e il postino non si è preso nessuna responsabilità,se proprio vogliamo trovare un difetto ad amazon allora ho da ridire per quanto riguarda certi imballaggi di prodotti piccoli ,sono di facile manomissione ,e infine l'utilizzo delle poste come corriere!
AceGranger
29-11-2018, 11:45
infatti per questo si discuteva che amazon è l'unico shop che non da problemi nel post vendita!
voglio essere chiaro avendo quasi tre decadi di esperienza in merito e spesso leggo tante baggianate:
con amazon:
1)non hai problemi per la spedizione perchè è tutto a carico loro
2)non hai problemi a dover dimostrare che il prodotto è rotto perchè in ogni caso o ti fanno il reso o te lo cambiano,questa cosa non è da poco perchè quando ti trovi in zona grigia ,cioè quando la rottura è tollerabile loro in ogni caso non ti fanno storie(tipo pixel rotti,coil whine ecc..)
3)infine non si hanno problemi nemmeno quando il problema è causato dall'utente sbadato
con altri shop:
1)spedizione nel 99,9% dei casi a tuo carico
2)possibile spedizione di ritorno a tuo carico in pochi casi
3)spesso problemi per riconoscere il guasto se non palese
3)tempi tecnici biblici
4)anche problemi di malafede!
casa madre:
1)per molti prodotti quasi uguale ad amazon,per esempio io spedisco spesso notebook e non mi hanno fatto mai storie,le spese di spedizione sono a loro carico e anche se l'utente ha fatto qualche danno di solito chiudono qualche occhio.
2)per quanto riguarda le schede video è inutile girarci intorno se levi i sigilli per mettere a liquido per regola la garanzia la perdi,di regola se vuoi mettere a liquido devi prendere una scheda video gia pronta,però con la casa madre spesso non ci sono problemi e quindi chiudono gli occhi se invece dovessero sorgere problemi con uno shop terzo potrebbe non andare bene!
In ultimo e non di poco conto mi è successo qualche mese fa che mi è arrivato lo scatolo vuoto senza l'ssd di dentro e chiamando amazon mi ha risolto il problema rispedendo tutto,il pacco era integro e il postino non si è preso nessuna responsabilità,se proprio vogliamo trovare un difetto ad amazon allora ho da ridire per quanto riguarda certi imballaggi di prodotti piccoli ,sono di facile manomissione ,e infine l'utilizzo delle poste come corriere!
si concordo, alla fine Amazon e quella che, tirando le somme, globalmente conviene di piu, specialmente al salire del valore dell'hardware.
se proprio vogliamo trovare un difetto ad amazon allora ho da ridire per quanto riguarda certi imballaggi di prodotti piccoli ,sono di facile manomissione ,e infine l'utilizzo delle poste come corriere!
per i pacchi credo facciano tutto a statistica, nel senso che gli conviene cosi, in modo tale da non avere un nuovo "standard" di pacco e usano i soliti 2-3 tipi, e alla fine le manomissioni saranno in % poche e visto che tanto le gestiscono bene è un "non problema".
per le Poste, fortunatamente io stando a Milano non li vedo da un pezzo, vedo solo Amazon Logistics e, ora che sono ufficialmente diventati operatori postali, spero riescano a UCCIDERE quelli delle poste e SDA.
non te la gufare però :D :asd:
la mia sta zotac sta dando problemi, ma se leggi i miei post precedenti è un difetto totalmente diverso da quelli di morte delle 2080ti.
statisticamente oggi comprare una 2080 ti ci sono percentuali considerevoli che potresti avere problemi,volendo essere estremista nella casistica ci sono due tipologia di utenti ,l'utente che ha tempo sufficiente per giocare e quindi il problema si presenta in tempi brevi,spedisci in rma e il gioco è finito,e utenti come me che non hanno nemmeno il tempo di andare in bagno figuriamoci per giocare,però che quando arrivano quelle festività si chiudono in casa e fanno il pc rosso fino a far uscire il fumo,io pur desiderando la 2080 ti ripiegherò sulla 2080 perchè ho una fifa tremenda e non potendo giocare resterei sempre con il dubbio,sarebbe intelligente da parte mia prendere una vga con garanzia aggiuntiva ma purtroppo ho un debole questa volta per le strix e so di sbagliare,sono troppi anni che sto rimandando il cambio scheda video e non resisto piu,queste turing andrebbero saltate a livello di logica con tutte le problematiche stanno portando.
Black"SLI"jack
29-11-2018, 11:54
mi ha risposto adesso eprice. rma aperto e autorizzato. ho due possibilità sostituzione o rimborso. uhm….. ho una certa indecisione…… :muro: :muro: :muro:
spese corriere a carico loro. ben specificato.
scorpion73
29-11-2018, 12:09
statisticamente oggi comprare una 2080 ti ci sono percentuali considerevoli che potresti avere problemi,volendo essere estremista nella casistica ci sono due tipologia di utenti ,l'utente che ha tempo sufficiente per giocare e quindi il problema si presenta in tempi brevi,spedisci in rma e il gioco è finito,e utenti come me che non hanno nemmeno il tempo di andare in bagno figuriamoci per giocare,però che quando arrivano quelle festività si chiudono in casa e fanno il pc rosso fino a far uscire il fumo,io pur desiderando la 2080 ti ripiegherò sulla 2080 perchè ho una fifa tremenda e non potendo giocare resterei sempre con il dubbio,sarebbe intelligente da parte mia prendere una vga con garanzia aggiuntiva ma purtroppo ho un debole questa volta per le strix e so di sbagliare,sono troppi anni che sto rimandando il cambio scheda video e non resisto piu,queste turing andrebbero saltate a livello di logica con tutte le problematiche stanno portando.
Mah, da quel che vedo anche le 2080 lisce hanno parecchie esperienze di fail.
Basta che vai anche sul forum EVGA e lo vedi.
Sono d'accordo con te quando dici che le Turing andrebbero saltate, il problema però è che potresti farlo se sai che nel 2019 escono i 7nm; anche fosse settembre, le salterei a pié pari... ma fino al 2020 a chi serve una scheda nuova che fa? Si compra Pascal, con quel che costa e EOL?
Devi per forza andare su Turing non c'è niente da fare.
E a quel punto vale il discorso che fai tu, e per questo io parlavo di EVGA, anche se la FTW3 non mi piace per niente perché ha le memorie troppo calde e il PCB non mi piace. Però ha una garanzia d'acciaio e questo a sto giro conta come n.1.
Anche io a sto giro ho un debole per la Strix, vedrò cosa fare sono fortemente indeciso, ma se Strix sarà sarà Amazon o Eprice.
good :eek: cosi magari avro qualcuno con cui cambiare pareri in futuro.
ho iniziato a usarlo un po per archviz ma ho il piccolo problema che devo fare l'unwrap di tutte le librerie e alcune rimodellarle in low poli... perche faccio in fretta a raggiungere i 3-4 milioni di poligoni solo con una stanza, esendo abituato a lavorare solo di proxy non mi ero mai posto il problema del numero di poligoni :stordita:.
fortuna che almeno quelle che ho fatto in fotogrammetria sono gia unwrappate.
Lo stavo testando con la plugin di Vray che ora permette un import diretto e veloce.
spero che a breve mettano in scaletta il supporto all'RT delle Turing
L’unwrap e il retopology da modelli di risoluzione più alta è un processo molto semplice :D. Che software usi?
Inoltre dovresti vedere che tipo di textures vanno bene per il viz nei modelli lopoly (nm, displacement ecc ecc). L’rtx hai detto che ci stanno già lavorando,
Probabile arrivi già tra 2-3 release, almeno spero
bronzodiriace
29-11-2018, 12:39
Condivido perchè la trovo stupenda :asd:
http://i.imgur.com/f8idQunl.jpg (https://imgur.com/f8idQun)
:asd:
MA veramente pixelizzano così i riflessi in rt?
bronzodiriace
29-11-2018, 12:42
statisticamente oggi comprare una 2080 ti ci sono percentuali considerevoli che potresti avere problemi,volendo essere estremista nella casistica ci sono due tipologia di utenti ,l'utente che ha tempo sufficiente per giocare e quindi il problema si presenta in tempi brevi,spedisci in rma e il gioco è finito,e utenti come me che non hanno nemmeno il tempo di andare in bagno figuriamoci per giocare,però che quando arrivano quelle festività si chiudono in casa e fanno il pc rosso fino a far uscire il fumo,io pur desiderando la 2080 ti ripiegherò sulla 2080 perchè ho una fifa tremenda e non potendo giocare resterei sempre con il dubbio,sarebbe intelligente da parte mia prendere una vga con garanzia aggiuntiva ma purtroppo ho un debole questa volta per le strix e so di sbagliare,sono troppi anni che sto rimandando il cambio scheda video e non resisto piu,queste turing andrebbero saltate a livello di logica con tutte le problematiche stanno portando.
La 2080ti va presa solo da shop tipo amazon oppure evga per questioni eventuali reso. Io attualmente prenderei una 2080ti solo da chi mi sostituisce il prodotto in quattro e quattro otto oppure soldi indiietro.
Altrimenti, in altri shop per la questione garanzia o direttamente al produttore ti puoi rifare a questo video https://www.youtube.com/watch?v=nRGJDb-30C8
Mah, da quel che vedo anche le 2080 lisce hanno parecchie esperienze di fail.
Basta che vai anche sul forum EVGA e lo vedi.
Sono d'accordo con te quando dici che le Turing andrebbero saltate, il problema però è che potresti farlo se sai che nel 2019 escono i 7nm; anche fosse settembre, le salterei a pié pari... ma fino al 2020 a chi serve una scheda nuova che fa? Si compra Pascal, con quel che costa e EOL?
Devi per forza andare su Turing non c'è niente da fare.
E a quel punto vale il discorso che fai tu, e per questo io parlavo di EVGA, anche se la FTW3 non mi piace per niente perché ha le memorie troppo calde e il PCB non mi piace. Però ha una garanzia d'acciaio e questo a sto giro conta come n.1.
Anche io a sto giro ho un debole per la Strix, vedrò cosa fare sono fortemente indeciso, ma se Strix sarà sarà Amazon o Eprice.
ho detto che ripiegavo su 2080 per non spendere la cifra della ti,lo so che anche le 2080 lisce stanno facendo una brutta fine,in conclusione da esperto del settore dovrei saltare questa generazione,questa è una generazione maledetta,per non parlare delle concause prezzo spropositato e mining dell'anno scorso!è da un po che sto attenzionando delle 1070
AceGranger
29-11-2018, 13:16
L’unwrap e il retopology da modelli di risoluzione più alta è un processo molto semplice :D. Che software usi?
retopology per i modelli da scansione uso instant mesh, unwrap metto i seams a mano e poi uso Unwrap Pro plugin per 3Dax; ho anche Unwrella ma se preferisco fare a mano che cosi ho piu controllo in PS.
per i modelli fatti da me generalmente faccio il doppio modello mentre modello, partendo dal Low poi ricavo l'Hi Poly, solo che molti modelli vecchi non ho il low poly e non ho ancora provato a fare il retopology e molte volte, per quelli piu veloci, li rifaccio a mano, perchè il retopology la maggior parte delle volte su modelli precisi fa sempre danni allucinanti ( pretopo automatico )
L’rtx hai detto che ci stanno già lavorando,
Probabile arrivi già tra 2-3 release, almeno spero
si, leggendo in giro ci stanno lavorando, pero non è ancora comparso nella roadmap; vedremo un po.
Ma anche le rtx2070 soffrono di questi problemi?
Oppure sono esenti?
Siccome nn ho seguito tutte la discussione il problema è causato dalle temperature delle memorie giusto?
Inviato dal mio MIX utilizzando Tapatalk
Ma anche le rtx2070 soffrono di questi problemi?
Oppure sono esenti?
Siccome nn ho seguito tutte la discussione il problema è causato dalle temperature delle memorie giusto?
Inviato dal mio MIX utilizzando Tapatalk
la verità è che si suppongono tante cose ma in realtà nessuno tranne nvidia sa perchè stanno morendo prematuramente le schede,anche le 2070 e le 2080 sono affette dal problema ma a quanto pare la 2080ti è quella messa peggio,da notare anche la scarsa disponibilità di 2080ti,quello che non capisco è che un personaggio del calibro di der8uer ha detto che per lui le percentuali di rma sono nella norma e dopo un po nvidia ha ammesso un problema,inutile illuderci questa generazione andrebbe saltata direttamente!
Arrow0309
29-11-2018, 14:21
mi ha risposto adesso eprice. rma aperto e autorizzato. ho due possibilità sostituzione o rimborso. uhm….. ho una certa indecisione…… :muro: :muro: :muro:
spese corriere a carico loro. ben specificato.
azzzzzzz, bella domanda. io accetterei quasi il rimborso
E prenderei una EVGA XC Ultra, FTW3 o direttamente Hydro Copper (se aspetti un'altro po) :fagiano:
Anche le Gainward Phoenix GS
scorpion73
29-11-2018, 14:30
azzzzzzz, bella domanda. io accetterei quasi il rimborso
E prenderei una EVGA XC Ultra, FTW3 o direttamente Hydro Copper (se aspetti un'altro po) :fagiano:
Anche le Gainward Phoenix GS
Oppure una Strix
TigerTank
29-11-2018, 14:32
azzzzzzz, bella domanda. io accetterei quasi il rimborso
E prenderei una EVGA XC Ultra, FTW3 o direttamente Hydro Copper (se aspetti un'altro po) :fagiano:
Anche le Gainward Phoenix GS
Ma secondo me potrebbe anche tranquillamente aspettare di vedere se arrivano le XC Black (sua omonima :D ) o XC Gaming...tanto lui di sicuro liquida per cui inutile che vada di Ultra.
Oppure una Strix
Strix non ti giochi la garanzia se piazzi il fullcover?
Io comunque penso che visto il lancio travagliato di queste Turing e la poca chiarezza circa i problemi, Nvidia non meriti di essre premiata con l'acquisto di schede che viaggino verso le 1500€.
X-ray guru
29-11-2018, 14:34
Non so se con eprezzo puoi spedire usando il pick & pay anche in caso di RMA risparmiando quindi il corriere, se fosse sarebbe un plus, ma i tempi di attesa penso siano quelli.
Anche in caso di RMA, puoi portare l'oggetto da un qualsiasi Pick&Pay, anche non imballato ma nella sua scatola originale.
fraussantin
29-11-2018, 14:53
Ma anche le rtx2070 soffrono di questi problemi?
Oppure sono esenti?
Siccome nn ho seguito tutte la discussione il problema è causato dalle temperature delle memorie giusto?
Inviato dal mio MIX utilizzando TapatalkSono iniziati dopo che l'ho presa , io. XD
Ma con tutte le mie paranoie del caso sto seguendo 4,5 forum esteri a riguardo e ci saranno stati al messimo una decina ci casi ... E alcuni secondo me erano solo problemi di driver.
Il problema c'è , ma non è grave al momento .
Cmq se aspetti un paio di mesi e compri da negozi diretti ( quindi ti assicuri lotti nuovi ) dovresti stare tranquillo.
Ps la mia l'ho spremura per 2 ore adesso a far cry 5 in drs al massimo del tdp ... 64 gradi max e 176w .. per ora 0 problemi ...
...e fu la mia gufata .... :asd:
thunderforce83
29-11-2018, 14:53
Premetto che devo finire di fare delle verifiche. Ma potrei avere la 2080ti in panne. Spiego meglio. Non ho alcun tipo di artefatto. Accendo il pc, inizio a giocare, 45/60 minuti si riavvia il pc. Kernel panic error. Nessun log che possa aiutare.
Inizio con l'escludere l'ali. Cambio l'evga 1200w p2 con un cooler master 1000w 80+ bronze che ho di scorta. È vecchiotto ma ancora tiene botta. Stesso problema. Quindi rimonto l'evga. Meno male che sono su banchetto.
Penso alla mobo/CPU. Tolgo l'oc (scrauso). Stesso problema.
Provo ad indagare più a fondo. Stress test Xtu su CPU e valley unigine in loop sulla vga. Stesso problema.
E qui noto che il problema lo fa sempre più frequente. Come se nel momento in cui si scalda la gpu, vada in protezione e mi faccia riavviare il pc. Più la finestra tra un test e l'altro è breve e più velocemente si riavvia il pc.
Ok. Pensando cmq ad un problema della mobo, tiro fuori l'artiglieria pesante. Gtx 480. Sparata in oc a 880mhz (potrei pure un 920mhz :asd) e 1,138v, sotto furmark. Dopo 20/30 ancora nulla. 0 riavvii ed Enel che ringrazia.
Ora a questo punto, il dubbio che la vga abbia problemi si fa più pressante, però come detto 0 di 0 artefatti. Ovviamente gpu non in oc, tutta a default. Temp massima vista 62 gradi.
Voglio provarla su altro pc. Purtroppo il pc 2 in firma è full liquid, quindi andrò a spolverare un fiammante q6600 :asd:
Voglio capire se il problema si ripresenta. Altra prova che voglio fare è reinstallare da 0 e pulito Windows 10 sulla macchina ufficiale, per escludere strani problemi lato software che destabilizzato la scheda. Forse farò prima questo di test. Farò anche un test di undervolt per capire se la vga ha problemi in fase di erogazione corrente. Ieri sera durante una prova, MSI mi ha segnalato più volte che il power limit era salito oltre il 120%. Peccato che la zotac ha PL 115%.
Altrimenti via di assistenza. Però il comportamento è assai strano. Sinceramente preferirei che sia la vga e che non sia la mobo/CPU (5960x e r5e) che al momento non vorrei cambiare assolutamente in attesa dell'anno prossimo con ryzen/tr serie 3000.
Inviato dal mio BLA-L09 utilizzando Tapatalk
mi dispiace per il problema che hai avuto mio caro black ma forse e' il medesimo che ho avuto io con la 2080 strix...alla fine probabilemente era un problema di sistema operativo con qualche kernel rovinato da varie installazioni..infatti anche a me di punto in bianco si bloccava mentre dopo aver effettuato un'installazione pulita di windows10 e' andata alla perfezione.
Black"SLI"jack
29-11-2018, 14:54
azzzzzzz, bella domanda. io accetterei quasi il rimborso
E prenderei una EVGA XC Ultra, FTW3 o direttamente Hydro Copper (se aspetti un'altro po) :fagiano:
Anche le Gainward Phoenix GS
ecco appunto, al momento non so proprio cosa fare. le Gainward hanno i sigilli, quindi le escludo. le evga ok la garanzia ma a quanto pare ne stanno morendo diverse. le hydro copper manco morto.
Oppure una Strix
anche no, grazie.
Anche in caso di RMA, puoi portare l'oggetto da un qualsiasi Pick&Pay, anche non imballato ma nella sua scatola originale.
in questo caso, basta chiamare il corriere e fissare il ritiro. meglio ancora.
Black"SLI"jack
29-11-2018, 14:56
mi dispiace per il problema che hai avuto mio caro black ma forse e' il medesimo che ho avuto io con la 2080 strix...alla fine probabilemente era un problema di sistema operativo con qualche kernel rovinato da varie installazioni..infatti anche a me di punto in bianco si bloccava mentre dopo aver effettuato un'installazione pulita di windows10 e' andata alla perfezione.
nel mio caso non si blocca il pc. si riavvia proprio come se andasse via la corrente. ovviamente 0 logs. per questo dubito che provando la scheda su altro pc o reinstallando il so si risolva.
Arrow0309
29-11-2018, 15:08
ecco appunto, al momento non so proprio cosa fare. le Gainward hanno i sigilli, quindi le escludo. le evga ok la garanzia ma a quanto pare ne stanno morendo diverse. le hydro copper manco morto.
anche no, grazie.
in questo caso, basta chiamare il corriere e fissare il ritiro. meglio ancora.
Anche no per le Gainward, semplicemente liquidandola non significa perdere la garanzia.
Ecco dal loro sito i casi dove la perdi:
http://www.gainward.com/main/support_detail.php?id=3
Black"SLI"jack
29-11-2018, 15:16
però la Gainward ha solo 2 anni di garanzia. la zotac cmq ne ha 5.
X-ray guru
29-11-2018, 15:24
in questo caso, basta chiamare il corriere e fissare il ritiro. meglio ancora.
Esatto, ma in questo caso paghi e devi fargli trovare un pacco ben fatto.
Io ho portato giusto ieri una mobo Asus ROG ad un P&P di Milano, usando solo la sua scatola, senza pagare un centesimo e senza sbattermi per imballaggi vari.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.