View Full Version : [Thread ufficiale GP104 Pascal]Geforce GTX 1080 - GTX 1070
slide1965
23-01-2017, 23:59
quindi dici che mi conviene restare con x79 e trovarmi (sperando di trovarla:muro: ) una rampage come la mia?
slide1965
24-01-2017, 00:16
credo che non arriverò a domani sera:D ..nel senso che gia domani vorrei fare il replace .
Di asus come la mia ne avrei trovate un paio usate ma non mi fido molto...
mi sa che son ca....
prevedo un bagno di sangue
slide1965
24-01-2017, 00:44
mi sa che mi tocca:cry:
:confused: ho letto mi pare che alcune msi 1070 gaming x hanno le memorie micron, che se non sbaglio, gestiscono male la memoria e si risolve con l'update credo del bios; è vero? se si è una cosa grave?
E il fratello maggiore cioè la 1080 ha anche lei problemi delle memorie?
Legolas84
24-01-2017, 06:32
Non ho sentito di problemi sulle 1080....
Inviato dal mio iPhone utilizzando Tapatalk Pro
Jianlucah
24-01-2017, 08:19
tu hai quella a 2 o 3 ventole?
Questa qui: https://www.zotac.com/us/product/graphics_card/zotac-geforce-gtx-1070-amp-edition (ad occhio dovrebbe essere la stessa che hai te).
mircocatta
24-01-2017, 09:07
"usb over current dectected" e riavii a nastro ,le ho provate tutte... non c'e verso:muro: mi sa che dopo 4 anni di onorato servizio la mobo (asus rampage iv extreme) stia tirando gli ultimi:rolleyes:,
Ho bisogno del vostro consiglio...... cambio solo la mobo e vedo di trovare un altra gemella della mia,o intanto che ci sono cambio tutto,mobo, ram e cpu?
ne vale la pena a livello di prestazioni?
La cpu è un 3930k che lavora stabile a 4,7 in oc(sotto liquido), le ram sono delle vecchie corsair platinum ddr3.
Che faccio?
grazie;)
cambi mobo e aspetti zen e vedi cosa ti offrirà il mercato :) imho
Questa qui: https://www.zotac.com/us/product/graphics_card/zotac-geforce-gtx-1070-amp-edition (ad occhio dovrebbe essere la stessa che hai te).
è quella che ho anche io vai sul sicuro, ha anche un backplate fantastico!
Legolas84
24-01-2017, 10:01
Ehi ehi ehi aspetta...
Urgono info su questo gioco... è tipo il vecchio re2 cupo e horror oppure è un action tipo gli ultimi?
Devo valutare se lasciarlo sullo scaffale o no...
Inviato dal mio iPhone utilizzando Tapatalk Pro
scorpion90
24-01-2017, 10:06
una domanda per chi ha la kfa2 gtx 1070 ex:
quale versione bios avete?
la mia è arrivata ieri con questa versione 86.04.50.00.85 e all'avvio c'è scritto versione bios v5956
ma sul sito kfa ci sono versioni precedenti
Legolas84
24-01-2017, 10:15
Sisi guarderò anche le rece ma quello che mi interessa di più sono le opinioni di chi ci gioca...
Se si torna alle origini del 2 potrei prenderlo... :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
ROBHANAMICI
24-01-2017, 13:37
promette bene insomma, bene :)
ROBHANAMICI
24-01-2017, 13:46
:asd: :asd:
ROBHANAMICI
24-01-2017, 15:03
accipicchiola pure ottimizzato bene, invogliato più che mai a prenderlo a questo punto.
deadbeef
24-01-2017, 16:19
Già che siamo in tema:
http://www.guru3d.com/articles_pages/resident_evil_7_pc_graphics_performance_benchmark_review,7.html
qualcosa non mi torna in 4k...
shagrat1983
24-01-2017, 19:26
come prezzo qualita' e' meglio la zotac amp a 427, la evga ftw a 447 o la gigabyte g1 a 444?
ps: la 1070 intendo.
blindwrite
24-01-2017, 20:27
una domanda per chi ha la kfa2 gtx 1070 ex:
quale versione bios avete?
la mia è arrivata ieri con questa versione 86.04.50.00.85 e all'avvio c'è scritto versione bios v5956
ma sul sito kfa ci sono versioni precedenti
io adesso ho su l'86.04.50.00.5C, che dovrebbe essere quello della EXOC senza fan stop, con aggiornamento per le memorie micron, però non ricordo più quello originale quale sia...
Legolas84
24-01-2017, 21:01
Ragazzi usciti nuovi driver whql... novità per lo SLI tra cui molti nuovi profili ottimizzati! Anche un profilo per civ6 (porca zozza mi hanno ascoltato... rompere le palle sul forum serve!!!)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Kostanz77
24-01-2017, 22:37
Ragazzi usciti nuovi driver whql... novità per lo SLI tra cui molti nuovi profili ottimizzati! Anche un profilo per civ6 (porca zozza mi hanno ascoltato... rompere le palle sul forum serve!!!)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Miglioramenti in altri giochi oltre a RE7?
Inviato dal mio iPhone 7 utilizzando Tapatalk Pro
Legolas84
24-01-2017, 23:20
Si c'è un bel po di roba nella release note...
Inviato dal mio iPhone utilizzando Tapatalk Pro
nickname88
25-01-2017, 08:08
Ottimo, qualcuno li ha già provati questi ultimi drivers ?
Specie con BF1 .... :)
TigerTank
25-01-2017, 08:50
Ragazzi usciti nuovi driver whql... novità per lo SLI tra cui molti nuovi profili ottimizzati! Anche un profilo per civ6 (porca zozza mi hanno ascoltato... rompere le palle sul forum serve!!!)
Era ora! Troppe incazzature circa gli Sli, soprattutto dopo che ci hanno rifilato i nuovi bridge :D
Ora mi auguro che sia una nuova strada intrapresa e non un'eccezione.
Duncandg
25-01-2017, 10:51
Una domanda,
consigliate o meno, per giocare in 4k, uno sli di Asus 1080 Strix?
Con due dovrei aver maggior stabilità in termine di frame a dettagli ultra, giusto?
raga l'installazione del GeForce experience la consigliate o no? :)
Legolas84
25-01-2017, 11:39
Qualcuno è riuscito a trovare dei bench di resident evil 7 affidabili e fatti con gli ultimi driver???
Non si capisce niente... guru 3D sembra aver fatto un casino creando un caso mediatico :asd:.....
Inviato dal mio iPhone utilizzando Tapatalk Pro
illidan2000
25-01-2017, 11:41
ho visto che le 1080 kfa2 exoc a prezzi bassini....
qual è la magagna?
MrBrillio
25-01-2017, 11:50
Una domanda,
consigliate o meno, per giocare in 4k, uno sli di Asus 1080 Strix?
Con due dovrei aver maggior stabilità in termine di frame a dettagli ultra, giusto?
Lassa stare lo sli fidati. .tieniti i soldi per la ti o comunque quello che esce più avanti
Inviato dal mio GT-I9300 utilizzando Tapatalk
raga l'installazione del GeForce experience la consigliate o no? :)
non serve a una mazza
non serve a una mazza
No...
E no :D
grazie :D come aggiorno i driver allora? mi è arrivata una notifica di un aggiornamento driver
illidan2000
25-01-2017, 11:57
grazie :D come aggiorno i driver allora? mi è arrivata una notifica di un aggiornamento driver
vai sul sito ufficiale nvidia e scarichi...
Qualcuno è riuscito a trovare dei bench di resident evil 7 affidabili e fatti con gli ultimi driver???
Non si capisce niente... guru 3D sembra aver fatto un casino creando un caso mediatico :asd:.....
Inviato dal mio iPhone utilizzando Tapatalk Pro
A parte i tedeschi e Guru3D mbriachi, non c'è nulla tra la review serie
MadMax of Nine
25-01-2017, 11:59
Stavo pensando di liquidare la 1080 ma anche la Ti mi attira, secondo voi il waterblock sarà diverso ? (E di aspettare l'uscita della Ti)
Duncandg
25-01-2017, 12:02
Perchè siete cosi negativi verso lo sli? Chiedo perchè non l'ho mai fatto...
vai sul sito ufficiale nvidia e scarichi...
Si ma come so quando c'è una nuova versione dei driver? Scusami sono inespertissimo al massimo come avrai notato :asd::asd:
Inviato dal mio iPhone utilizzando Tapatalk
Legolas84
25-01-2017, 12:46
Perchè siete cosi negativi verso lo sli? Chiedo perchè non l'ho mai fatto...
Se vuoi ascoltare me, io ho uno SLI di 1080 dal lancio....
Allora, lo SLI di Pascal ha un bug noto grosso come una casa che si verifica SOLO e SOLO se abbinato al G-Sync e si traduce in un basso uso delle gpu e quindi perdita di frame. (non tutti i game ne sono afflitti, ma svariati si).
Se non si abbina a G-Sync lo SLI funziona perfettamente, e a livello di profili è pienamente supportato da NVIDIA al punto che anche in questa release di driver sono stati inseriti e aggiornata svariati profili SLI.
Questa è la reale situazione dello SLI.
Riguardo al bug NVIDIA ci sta lavorando ma afferma che c'è molto lavoro da fare e non ha ancora una data certa di rilascio del Fix.
Tuttavia ci sono giochi in cui il bug si risolve, ad esempio in The Witcher 3 togliendo l'AA del gioco e impostando FXAA da pannello NVIDIA le gpu lavorano oltre il 90% anche con g-sync attivo.....
Legolas84
25-01-2017, 12:58
Ah dimenticavo le DX12 per ora non supportano il multi-gpu, quindi non ci sono profili per giochi in DX12. In verità non esistono nemmeno veri giochi DX12 ma solo giochi patchati che quindi funzionano anche in DX11 (e li hanno i profili).
Attualmente non ha senso giocare i giochi in DX12 perchè a livello di qualità grafica non offrono niente di più delle DX11... offrono solo un boost di prestazioni ma solo su hardware AMD (perchè in DX11 AMD non è sfruttata al 100%).
In futuro le promesse sono di un diffuso supporto al multi gpu anche con schede diverse in DX12.... ma per ora non si è visto nulla....
"Sempre in movimento il futuro è" direbbe yoda :asd:
illidan2000
25-01-2017, 13:28
Si ma come so quando c'è una nuova versione dei driver? Scusami sono inespertissimo al massimo come avrai notato :asd::asd:
Inviato dal mio iPhone utilizzando Tapatalk
basta che bazzichi un po' qui sul forum, o vai a vedere una volta ogni tanto :D
Legolas84
25-01-2017, 13:34
Ragazzi finalmente dopo tanto lavoro ho finito la mia build...
https://uploads.tapatalk-cdn.com/20170125/0933531fa0eac6323c6d749958cb64c6.jpg
https://uploads.tapatalk-cdn.com/20170125/c393dc94695777729ab002c73bd9e981.jpg
https://uploads.tapatalk-cdn.com/20170125/3aac356486eae96a42e785789a0d6501.jpg
Ora deve solo arrivarmi il vetro nuovo che questo era rigato ma la forma finale è questa :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
basta che bazzichi un po' qui sul forum, o vai a vedere una volta ogni tanto :D
ok grazie :D ho installati mi sa i 376.33 spero di essere al passo coi tempi :asd::asd:
TigerTank
25-01-2017, 13:37
Ah dimenticavo le DX12 per ora non supportano il multi-gpu, quindi non ci sono profili per giochi in DX12. In verità non esistono nemmeno veri giochi DX12 ma solo giochi patchati che quindi funzionano anche in DX11 (e li hanno i profili).
Attualmente non ha senso giocare i giochi in DX12 perchè a livello di qualità grafica non offrono niente di più delle DX11... offrono solo un boost di prestazioni ma solo su hardware AMD (perchè in DX11 AMD non è sfruttata al 100%).
In futuro le promesse sono di un diffuso supporto al multi gpu anche con schede diverse in DX12.... ma per ora non si è visto nulla....
"Sempre in movimento il futuro è" direbbe yoda :asd:
Ti quoto, in caso di multigpu tanto vale settare le dx11, se possibile e se ovviamente con quelle c'è supporto. ;)
Con le dx12 ha maggiori difficoltà di gestione anche chi ha realizzato PrecisionX e Afterburner.
MrBrillio
25-01-2017, 14:53
Perchè siete cosi negativi verso lo sli? Chiedo perchè non l'ho mai fatto...
Per esperienza..qui dentro in molti lo abbiamo fatto e poi abbiamo rivenduto una delle 2 vga.
Questa volta personalmente non ritengo le prestazioni dello SLi tali da giustificare il prezzo di 2 schede. Non che in passato lo SLi fosse a buon mercato eh, ma questa volta mi ha deluso ampiamente.
E poi come ti dicevano..tieni conto che in dx12 il supporto è pressochè assente.
X-ray guru
25-01-2017, 14:53
Ah dimenticavo le DX12 per ora non supportano il multi-gpu, quindi non ci sono profili per giochi in DX12.
Attualmente non ha senso giocare i giochi in DX12 perchè a livello di qualità grafica non offrono niente di più delle DX11... offrono solo un boost di prestazioni ma solo su hardware AMD (perchè in DX11 AMD non è sfruttata al 100%).
Piccola precisazione. :)
Qualche raro gioco supporta lo SLI anche in DX12, come per esempio l'ultimo Tomb Raider. Il multi-GPU è un'altra cosa e non si stava parlando di questo, ma di SLI. :)
Diciamo anche che il DX12 di Nvidia non è implementato proprio benissimo? ;)
Legolas84
25-01-2017, 15:08
Piccola precisazione. :)
Qualche raro gioco supporta lo SLI anche in DX12, come per esempio l'ultimo Tomb Raider. Il multi-GPU è un'altra cosa e non si stava parlando di questo, ma di SLI. :)
Diciamo anche che il DX12 di Nvidia non è implementato proprio benissimo? ;)
Il multi-gpu è ogni forma di rendering usando più di una gpu e le dx12 dovrebbero aiutare sia lo SLI che il CrossFire in questo senso... anche se per ora sono state parole al vento.
Poi scusa che intendi con le DX12 di NVIDIA non sono implementate bene?
majinbu7
25-01-2017, 16:05
Ragazzi finalmente dopo tanto lavoro ho finito la mia build...
cut...
Ora deve solo arrivarmi il vetro nuovo che questo era rigato ma la forma finale è questa :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Veramente bella Legolas, complimenti.
Posso solo chiederti quanto misura in larchezza e profondità la tua Hydra desk?
Legolas84
25-01-2017, 16:08
Veramente bella Legolas, complimenti.
Posso solo chiederti quanto misura in larchezza e profondità la tua Hydra desk?
grazie... ;) è 150x70.... e tra le mod che gli ho applicato ha anche il top alto solamente 10cm.....
Imho è fondamentale per mantenere un buon comfort di utilizzo.... tanto poi tutti i supporti per vaschette me li sono autocostruiti e si alloggiano comunque benissimo ;)
grazie... ;) è 150x70.... e tra le mod che gli ho applicato ha anche il top alto solamente 10cm.....
Imho è fondamentale per mantenere un buon comfort di utilizzo.... tanto poi tutti i supporti per vaschette me li sono autocostruiti e si alloggiano comunque benissimo ;)
Molto bella, complimenti :D
Ragazzi finalmente dopo tanto lavoro ho finito la mia build...
Ora deve solo arrivarmi il vetro nuovo che questo era rigato ma la forma finale è questa :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Molto bello, complimenti!
Legolas84
25-01-2017, 16:22
grazie ragazzi ;) :)
X-ray guru
25-01-2017, 16:32
Il multi-gpu è ogni forma di rendering usando più di una gpu e le dx12 dovrebbero aiutare sia lo SLI che il CrossFire in questo senso... anche se per ora sono state parole al vento.
Poi scusa che intendi con le DX12 di NVIDIA non sono implementate bene?
La funzione multi-gpu nelle DX12 è intesa da Microsoft come la possibilità di usare contemporaneamente diverse GPU, anche di marca diversa, con i loro relativi driver.
SLI e CF sono soluzioni proprietarie sviluppate da Nvidia e AMD per accoppiare 2 o più GPU identiche e farle lavorare in parallelo.
Per quanto riguarda le DX12 da parte di Nvidia, sappiamo tutti che allo stato attuale della sua implementazione da parte dei motori dei giochi, la funzione che più aiuta le prestazioni è l'async compute e che l'hardware di Nvidia fino a Maxwell compreso ha delle latenze mostruose nello switch tra due context diversi, cosa che l'architettura GCN di AMD fa in un ciclo di clock.
Con Pascal hanno un po' migliorato con uno scheduler migliore, ma sono ancora lontani da GCN.
Quindi non è tanto AMD che funziona male in DX11, ma Nvidia che non ha seguito le linee guida di DX12, contando su una superiorità di prestazioni a livello di forza bruta.
Sul web ci sono decine di articoli che spiegano ciò che ho riassunto. :)
Legolas84
25-01-2017, 16:35
La funzione multi-gpu nelle DX12 è intesa da Microsoft come la possibilità di usare contemporaneamente diverse GPU, anche di marca diversa, con i loro relativi driver.
SLI e CF sono soluzioni proprietarie sviluppate da Nvidia e AMD per accoppiare 2 o più GPU identiche e farle lavorare in parallelo.
Per quanto riguarda le DX12 da parte di Nvidia, sappiamo tutti che allo stato attuale della sua implementazione da parte dei motori dei giochi, la funzione che più aiuta le prestazioni è l'async compute e che l'hardware di Nvidia fino a Maxwell compreso ha delle latenze mostruose nello switch tra due context diversi, cosa che l'architettura GCN di AMD fa in un ciclo di clock.
Con Pascal hanno un po' migliorato con uno scheduler migliore, ma sono ancora lontani da GCN.
Quindi non è tanto AMD che funziona male in DX11, ma Nvidia che non ha seguito le linee guida di DX12, contando su una superiorità di prestazioni a livello di forza bruta.
Sul web ci sono decine di articoli che spiegano ciò che ho riassunto. :)
ahhhhhh perfetto.... mi linki gli articoli?
Perchè da quanto sapevo io non è proprio così che stanno le cose, quindi mi sa che devo informarmi meglio.... e con me molti altri tra cui sicuramente Mikael e Ren....
resto in attesa ;)
Ps
Mi riferisco all'inefficienza di NVIDIA in DX12.... la prima parte, ovviamente è come dici.... ed anche SLI e Crossfire sono multi-gpu... quindi dicevamo la stessa cosa... il multi-gpu inteso come usare vga di marche diverse penso non funzionerà mai bene
Legolas84
25-01-2017, 16:38
Non è proprio così.
No aspetta, fagli postare decine di articoli.
Poi li leggiamo e ci facciamo aiutare da Mikael e Ren a capirli...
Magari siamo tutti noi che sbagliamo e lui ha ragione.
Diamogli il beneficio del dubbio.
Ps
Mi riferisco all'inefficienza di NVIDIA in DX12....
che nvidia non guadagni nulla o quasi in directx 12 (per quel che c'è oggi di patchato in directx 12, meglio specificare) è un dato di fatto...ho provato sia bf1, the division e ROTR in directx 11 e directx 12 (per curiosità) e in directx 12 va uguale o un filo peggio su pascal, giocare in directx 11 al momento è la strada migliore su nvidia
Se poi parliamo dell'inutilità di usare per forza/ostinatamente delle directx 12 (ad oggi) quando non si ha nessun incremento come qualità visiva e l'unico vantaggio prestazionale lo riesca ad avere amd, dato che con le directx 11 non riusciva a dare il massimo al contrario di nvidia, c'è poco da discutere
Legolas84
25-01-2017, 16:47
che nvidia non guadagni nulla o quasi in directx 12 (per quel che c'è oggi di patchato in directx 12, meglio specificare) è un dato di fatto...ho provato sia bf1, the division e ROTR in directx 11 e directx 12 (per curiosità) e in directx 12 va uguale o un filo peggio su pascal, giocare in directx 11 al momento è la strada migliore su nvidia
Se poi parliamo dell'inutilità di usare per forza/ostinatamente delle directx 12 (ad oggi) quando non si ha nessun incremento come qualità visiva e l'unico vantaggio prestazionale lo riesca ad avere amd, dato che con le directx 11 non riusciva a dare il massimo al contrario di nvidia, c'è poco da discutere
Esatto è proprio così che stanno le cose....
Resa DX11 NVIDIA --> 100% / AMD --> 80%
Resa DX12 NVIDIA --> 100% / AMD --> 100%
Non è NVIDIA che va male in DX12.... NVIDIA va come dovrebbe sia in DX11 che in DX12.... AMD invece va meno di quanto potrebbe in DX11 a causa di un'architettura inefficiente, e recupera in DX12 grazie soprattutto agli Async Compute che vanno a eliminare gran parte degli stati di idle dei vari componenti della GPU....
Ma aspettiamo invece le decine di articoli che dicono che invece il problem è di NVIDIA....
A livello di qualità le DX12 ad oggi sono completamente inutili.... a livello di prestazioni sono inutili su NVIDIA, mentre sono una manna dal cielo per AMD.....
bagnino89
25-01-2017, 17:06
Non penso che i sostenitori di AMD sarebbero d'accordo con quest'analisi...
Esatto è proprio così che stanno le cose....
Resa DX11 NVIDIA --> 100% / AMD --> 80%
Resa DX12 NVIDIA --> 100% / AMD --> 100%
Non è NVIDIA che va male in DX12.... NVIDIA va come dovrebbe sia in DX11 che in DX12.... AMD invece va meno di quanto potrebbe in DX11 a causa di un'architettura inefficiente, e recupera in DX12 grazie soprattutto agli Async Compute che vanno a eliminare gran parte degli stati di idle dei vari componenti della GPU....
Ma aspettiamo invece le decine di articoli che dicono che invece il problem è di NVIDIA....
A livello di qualità le DX12 ad oggi sono completamente inutili.... a livello di prestazioni sono inutili su NVIDIA, mentre sono una manna dal cielo per AMD.....
bhe diciamo che per il 90% è corretto quanto ha scritto X-ray guru, cito:
"...Nvidia che non ha seguito le linee guida di DX12..." "...sappiamo tutti che allo stato attuale della sua implementazione da parte dei motori dei giochi, la funzione che più aiuta le prestazioni è l'async compute...."
alla fine è così, nvidia anche con pascal non ha mostrato grande interesse a sfruttare l'async se non con un "arrangiamento" che non rende niente di più di quanto già non faccia in directx 11, ci si aspetta che lo faccia con Volta magari tra 1 anno, quando le directx 12 dovrebbero incominciare veramente ad avere un senso di esistere anche nei vari titoli che usciranno, si spera...
l'unica cosa "sbagliata" nella sua considerazione è pensare "...non è tanto AMD che funziona male in DX11..." perchè in realtà è vero il contrario...AMD ha trovato il bandolo della matassa appunto nell'async accoppiato alle nuove librerie che gli permettono di esprimere le vere potenzialità dei suoi prodotti, gli stessi prodotti che in directx 11 nello stesso titolo "vanno meno" ergo "funzionano male in directx 11"
Non penso che i sostenitori di AMD sarebbero d'accordo con quest'analisi...
sinceramente sarei curioso di vedere che altra possibile visione ci sia della stessa realtà a questo punto...
Legolas84
25-01-2017, 17:13
A quanto dicono Mikael e Ren l'async su Pascal non servirebbe a niente.... visto che non ci sono tutti quegli stati di idle da mitigare.....
Tu hai una GPU che lavora al 70% perchè il 30% è in idle che aspetta che l'altra parte finisca il lavoro prima di attivarsi. Poi arrivano gli Async, e quel 30% che stava in idle ora può lavorare insieme al 70% perchè grazie a motori dedicati poi il lavoro viene rimesso insieme e ordinato.
Poi hai un'altra GPU.... lavora tutta al 100%..... che te ne fai di Async?
Il boost di AMD è dato da questo..... NVIDIA non boosta per lo stesso motivo.
Legolas84
25-01-2017, 17:15
Non penso che i sostenitori di AMD sarebbero d'accordo con quest'analisi...
Be ma infatti non capisco perchè bisogna sempre incaponirsi se la realtà è questa.... è come se io mi ostinassi a dire che il fatto che i giochi vengono sviluppati su console aiuti in modo intrinseco AMD....
Difendere e sostenere un marchio dicendo assurdità è una cosa senza senso...
bagnino89
25-01-2017, 17:22
Mi sembra che i sostenitori di AMD siano più dell'opinione che con DirectX 12 ci sia stato un aumento di prestazioni per le loro schede, non un recupero di un gap. Che sono schede come il vino, più invecchiano più vanno meglio...
Mi sembra che i sostenitori di AMD siano più dell'opinione che con DirectX 12 ci sia stato un aumento di prestazioni per le loro schede, non un recupero di un gap. Che sono schede come il vino, più invecchiano più vanno meglio...
ok, quindi è più una questione di vedere/considerare il bicchiere mezzo pieno o mezzo vuoto osservando sempre lo stesso bicchiere pieno d'acqua per metà
comunque trovo davvero difficoltà anche ad abbracciare quella visione, stando le cose come ha spiegato legolas (teoria che ho sempre condiviso seguendo l'analisi di mikael), lo vedo come un gap recuperato e non un plus guadagnato da una resa di prestazioni già pari al 100% in directx 11...se alcune unità ti stanno in idle e ti sei dovuta ingegnare lato hw e librerie per far lavorare a pieno la tua soluzione senza tempi/unità "morte" non vedo come tu possa considerare questo un plus e non un semplice gap recuperato, valli a capire...
bagnino89
25-01-2017, 18:00
Non sono espertissimo in merito, francamente non saprei. A volte mi chiedo se, rispetto a qualche anno fa, hanno migliorato il frametime rispetto ad Nvidia... Ricordo bene quando avevo una 7870 che era avvertibile una sorta di microstuttering, quando passai ad una 660 invece non ve ne era traccia. Chissà... Scusate l'ot.
X-ray guru
25-01-2017, 18:04
Forse non mi sono espresso bene: io non sto parlando di prestazioni complessive, sto dicendo che AMD sa sfruttare meglio le DX12 con il suo design hardware.
Ovvero che Nvidia si è strafregata di cambiare il suo design hardware per andar dietro alle lineguida di DX12, tanto di potenza ne ha sempre avuta da vendere rispetto ad AMD.
Se poi volete leggere qualcosa, cominciate da qui:
https://www.extremetech.com/extreme/213519-asynchronous-shading-amd-nvidia-and-dx12-what-we-know-so-far
Comunque non voglio aizzare gli animi, è una mia visione tecnico-estetica sull'implementazione di certe funzioni di DX12. :)
X-ray guru
25-01-2017, 18:17
No ma ti sei spiegato bene anche prima e che non è proprio così come hai detto. In DX12 nvidia guadagna niente perché in dx11 già lavora al 100% architettura alla mano. AMD si è solo salvata in calcio d'angolo diciamo, visto che in dx11 lavora molto peggio di nvidia (generalmente).
Correggo la mia affermazione: AMD lavorava molto peggio di nvidia in dx11. Ora sta recuperando un bel po' bench alla mano :D
Diciamo che sono due architetture completamente diverse e che AMD riesce ad interpretare meglio le lineguida di DX12, pur avendo alla fine meno potenza di Nvidia? :cincin:
La funzione multi-gpu nelle DX12 è intesa da Microsoft come la possibilità di usare contemporaneamente diverse GPU, anche di marca diversa, con i loro relativi driver.
SLI e CF sono soluzioni proprietarie sviluppate da Nvidia e AMD per accoppiare 2 o più GPU identiche e farle lavorare in parallelo.
Prima delle DX12 era previsto solo il mGPU implicito, implicito in quanto le API vedevano una sola GPU ed erano i driver che gestivano tutti gli aspetti legati al rendering, sincronizzazione, sottomissione batch, utilizzo memoria ecc...
Con le DX12 è stato introdotto il mGPU esplicto, esplicito in quanto le API danno accesso diretto a tutte le GPU ed è il programmatore che gestisce come usare la memoria, sottomettere i batch di rendering, ecc...
L'mGPU esplicito può essere omogeneo ed eterogeneo, nel primo caso le GPU sono identiche, nel secondo no.
Quindi mi sembra che la definizione di Legolas sia azzeccata, Tomb Raider che hai citato supporta mGPU implicito in DX11 (SLI e xFire), e mGPU esplicito omogeno in DX12 ;)
https://blogs.msdn.microsoft.com/directx/2016/07/08/rise-of-the-tomb-raider-explicit-directx-12-multigpu-and-a-peek-into-the-future/
slide1965
25-01-2017, 22:47
appena installato una mobo Asus strix z270E munita di quattro PCIe 3.0 x1 e tre PCIe 3.0 x16 funzionanti rispettivamente in modalità x16, x8 e x4, il problema è che i x1 sono messi in modo tale da essere praticamente inutilizzabili, per cui avendo messo ovviamente la 1080 nel primo dei 3 x16 disponibili , sono costretto a mettere la scheda audio e la scheda usb nei 2 slot x16 restanti invece di usare i x1.
Alla fine di sto papiro la domanda è:
la 1080 mi va a x16 lo stesso ?
Grazie
slide1965
25-01-2017, 23:21
Guarda sto leggendo le specifiche sul manuale ma sembra essere stato redatto da uno sotto acido pesante , non si capisce una fava .
Cioè , che io nel secondo slot x16 ci metta una schedina audio del menga o una super mega Titan uber mega mila mod dici che è uguale, alla fine mi fa andare la 1080 a x8?
Per non parlare di un eventuale x4 dato che (non supporta il triple sli per cui il x8x8x4 non c'è) anche il terzo x16 ho dovuto occupare con una minischeda usb 3.0.
Se è così domani mattina gliela riporto indietro seduta stante
slide1965
25-01-2017, 23:37
Chiarissimo e ti ringrazio adesso provo , nel frattempo , sempre approfondendo ho letto che il terzo e ultimo slot pcie x16, essendo pilotato dal PCH e non dalla CPU, deve condividere la propria banda con lo slot PCI-E x1 poco sopra .
Poco che andiamo avanti e salta fuori che la scheda video mi va a -16:rolleyes:
Ora io dico ......
ma è mai possibile mettere i x1 allla pene di segugio, cosa li mettono a fare se devono piazzarli così ????
MadMax of Nine
25-01-2017, 23:58
Tanti la banda del PCI 3.0 non la saturi nemmeno a 8x, se cerchi hanno fatto vari bench
Appena presa, primo benchmark senza OC. Palit GTX 1080 GameRock. Che ve ne pare?
http://i67.tinypic.com/ayx1sl.png
slide1965
26-01-2017, 01:37
Onde evitare dubbi in qualche modo ho fatto stare la scheda audio e la schedina usb negli slot 1x (anche se è una mezza maialata per via della vicinanza delle varie schede).
Provato con gpuz, la 1080 va a 16x, sicuramente anche se lasciavo tutto come prima e andava a 8x manco me ne accorgevo ma diciamo che per mania di perfezione preferisco leggere il numero 16.:cool: :rolleyes:
Mi hai fatto venire voglia di fare un bench anche a me , fra poco posto i risultati
https://imagizer.imageshack.com/img923/1429/OqtdPO.jpg
Onde evitare dubbi in qualche modo ho fatto stare la scheda audio e la schedina usb negli slot 1x (anche se è una mezza maialata per via della vicinanza delle varie schede).
Provato con gpuz, la 1080 va a 16x, sicuramente anche se lasciavo tutto come prima e andava a 8x manco me ne accorgevo ma diciamo che per mania di perfezione preferisco leggere il numero 16.:cool: :rolleyes:
Mi hai fatto venire voglia di fare un bench anche a me , fra poco posto i risultati
sempre 100% anche ad 8x
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080_PCI_Express_Scaling/24.html
Appena presa, primo benchmark senza OC. Palit GTX 1080 GameRock. Che ve ne pare?
http://i67.tinypic.com/ayx1sl.png
70° per questa vga sono tanti; fixa le ventole al 50 55% e non arrivi a 60° forse.
TigerTank
26-01-2017, 09:59
A quanto dicono Mikael e Ren l'async su Pascal non servirebbe a niente.... visto che non ci sono tutti quegli stati di idle da mitigare.....
Tu hai una GPU che lavora al 70% perchè il 30% è in idle che aspetta che l'altra parte finisca il lavoro prima di attivarsi. Poi arrivano gli Async, e quel 30% che stava in idle ora può lavorare insieme al 70% perchè grazie a motori dedicati poi il lavoro viene rimesso insieme e ordinato.
Poi hai un'altra GPU.... lavora tutta al 100%..... che te ne fai di Async?
Il boost di AMD è dato da questo..... NVIDIA non boosta per lo stesso motivo.
Nel marasma di parole lette a me sembra semplicemente che:
-con le dx12 le amd hanno finalmente espresso un maggior potenziale.
-con le dx12 al momento i supporti multigpu sono carenti.
Fine :D
Io sinceramente per ora dello Sli non mi lamento...con i giochi dx11 supportati che ho giocato/sto giocando va bene e non ho rilevato problematiche particolari.
Poi certo ci sono giochi che non hanno supporto a priori ma anche per quello ho evitato di cedere alla scimmia del 21:9, rimandandolo a tempi migliori, sia come vga che come pannelli.
Certo nonostante frequenza alta e gsync a volte può comunque capitare del micro stuttering ma questo succede anche con la vga singola quando un gioco non è perfettamente ottimizzato e si "incarta" un pò.
In dx12 vedrò più avanti, probabilmente quando ci saranno i veri giochi dx12 nativi e ottimizzati avremo già le Volta nei cases :sofico:
70° per questa vga sono tanti; fixa le ventole al 50 55% e non arrivi a 60° forse.
Quoto, di fabbrica queste schede sono fin troppo conservative.
Legolas84
26-01-2017, 10:45
Ragazzi, sono felice.... ho piegato DeusEX Mankind Divided :asd:
Ora tutto al massimo (tutto intendo tutto anche quello che in tutte le config ammazza i frame) a 3440x1440 faccio minimo 60FPS max 90FPS.... :asd:
Per chi ha lo SLI aprite NVIDIA Inspector e cambiate lo SLI compatibility bits (DX10+DX11) con questo valore: 0x2C0120F5 (Overwatch)....
Non chiedetemi perchè ma con il profilo SLI di Overwatch, Deus EX MD VOLAAAA!!! :D
Legolas84
26-01-2017, 10:46
ah, importante... questo gioco non soffre del bug G-sync + SLI PASCAL.... quindi buon SLI a tutti :D
Legolas84
26-01-2017, 13:04
Nuovi test di su Resident Evil 7 su piattaforma x99:
http://cdn.wccftech.com/wp-content/uploads/2017/01/RE7.1440.jpg
Inoltre profilo SLI rilasciato con ultimi driver e perfettamente funzionante:
https://www.youtube.com/watch?v=LvzlGdnueDY
Dal minuto 3 si vedono le prestazioni e i frame che raddoppiano ;)
TigerTank
26-01-2017, 13:16
Ragazzi, sono felice.... ho piegato DeusEX Mankind Divided :asd:
Ora tutto al massimo (tutto intendo tutto anche quello che in tutte le config ammazza i frame) a 3440x1440 faccio minimo 60FPS max 90FPS.... :asd:
Per chi ha lo SLI aprite NVIDIA Inspector e cambiate lo SLI compatibility bits (DX10+DX11) con questo valore: 0x2C0120F5 (Overwatch)....
Non chiedetemi perchè ma con il profilo SLI di Overwatch, Deus EX MD VOLAAAA!!! :D
ah, importante... questo gioco non soffre del bug G-sync + SLI PASCAL.... quindi buon SLI a tutti :D
Inoltre profilo SLI rilasciato con ultimi driver e perfettamente funzionante:
https://www.youtube.com/watch?v=LvzlGdnueDY
Dal minuto 3 si vedono le prestazioni e i frame che raddoppiano ;)
Grazie amico, queste sono cose belle da leggere, anche perchè sinceramente vorrei arrivare a Volta con le schede attuali :D
MrBrillio
26-01-2017, 13:19
Dal minuto 3 si vedono le prestazioni e i frame che raddoppiano ;)
Eh sarebbe bello se iniziassero a fixare come si deve i profili..altro che vega o volta..se lo sli di 1080 andasse come dio comanda, ci sarebbe potenza tale da gestire il mio 3440x1440 per almeno un paio di anni decentemente :(
Legolas84
26-01-2017, 13:19
Grazie amico, queste sono cose belle da leggere, anche perchè sinceramente vorrei arrivare a Volta con le schede attuali :D
Ma sai, lo SLI non è affatto morto imho... c'è quel bug da correggere questo è sicuro, e continuerò a battermi per questo.
Però è evidente come sia un bug isolato solo ad alcuni titoli.
In effetti attualmente l'unico gioco che mi da problemi in SLI è Civilization 6.... con un low gpu usage che mi fa scendere i minimi a 67FPS.... ben inteso sono sempre sopra i 60 eh.... però mi farebbe piacere averlo fisso a 100 :D
Ma sai, lo SLI non è affatto morto imho... c'è quel bug da correggere questo è sicuro, e continuerò a battermi per questo.
Però è evidente come sia un bug isolato solo ad alcuni titoli.
In effetti attualmente l'unico gioco che mi da problemi in SLI è Civilization 6.... con un low gpu usage che mi fa scendere i minimi a 67FPS.... ben inteso sono sempre sopra i 60 eh.... però mi farebbe piacere averlo fisso a 100 :D
Noooooooo ma allora non lo vuoi capire!!!!!! Noooooooooooo!!!! No no no e poi noooooooooo Oooooooohhhhhhh!!!
Il dual gpu è morto, defunto, risorto e rimorto! :O
Legolas84
26-01-2017, 13:22
Noooooooo ma allora non lo vuoi capire!!!!!! Noooooooooooo!!!! No no no e poi noooooooooo Oooooooohhhhhhh!!!
Il dual gpu è morto, defunto, risorto e rimorto! :O
looool.... be io attualmente sono di nuovo soddisfatto.... ho avuto una settimana di incazzatura, ma ora fixando a parte Civ 6 ho di nuovo prestazioni overpower.... :asd:
MrBrillio
26-01-2017, 13:25
looool.... be io attualmente sono di nuovo soddisfatto.... ho avuto una settimana di incazzatura, ma ora fixando a parte Civ 6 ho di nuovo prestazioni overpower.... :asd:
Dipende dai titoli a cui giochi, ma soprattutto da come saranno i prossimi in uscita. Perchè se lo scenario è quello visto sui titoli DX12 possiamo tranquillamente iniziare a preparare il funerale allo SLi/CF :D
Legolas84
26-01-2017, 13:31
Dipende dai titoli a cui giochi, ma soprattutto da come saranno i prossimi in uscita. Perchè se lo scenario è quello visto sui titoli DX12 possiamo tranquillamente iniziare a preparare il funerale allo SLi/CF :D
Per ora va bene, almeno per me che ad esempio Battlefield non lo cago nemmeno di striscio... :asd:
Per il futuro anche le DX12 promettevano un multigpu universale e più semplice... ma chissà vedremo per ora giochi veri in DX12 non se ne vedono....
Sempre in movimento il futuro è (cit.) :D
TigerTank
26-01-2017, 13:42
Ma sai, lo SLI non è affatto morto imho... c'è quel bug da correggere questo è sicuro, e continuerò a battermi per questo.
Però è evidente come sia un bug isolato solo ad alcuni titoli.
In effetti attualmente l'unico gioco che mi da problemi in SLI è Civilization 6.... con un low gpu usage che mi fa scendere i minimi a 67FPS.... ben inteso sono sempre sopra i 60 eh.... però mi farebbe piacere averlo fisso a 100 :D
Esatto :)
Noooooooo ma allora non lo vuoi capire!!!!!! Noooooooooooo!!!! No no no e poi noooooooooo Oooooooohhhhhhh!!!
Il dual gpu è morto, defunto, risorto e rimorto! :O
Diciamo che hai i suoi momenti buoni e altri meno, ha i suoi titoli buoni e altri meno :D
Ecco perchè secondo me è un plus per spingere i settaggi ma allo stesso tempo bisognerebbe evitare configurazioni troppo dipendenti dal buon funzionamento dello Sli per dei risultati minimi accettabili. Questo in una visione a 360°.
mikael84
26-01-2017, 14:40
Forse non mi sono espresso bene: io non sto parlando di prestazioni complessive, sto dicendo che AMD sa sfruttare meglio le DX12 con il suo design hardware.
Ovvero che Nvidia si è strafregata di cambiare il suo design hardware per andar dietro alle lineguida di DX12, tanto di potenza ne ha sempre avuta da vendere rispetto ad AMD.
Se poi volete leggere qualcosa, cominciate da qui:
https://www.extremetech.com/extreme/213519-asynchronous-shading-amd-nvidia-and-dx12-what-we-know-so-far
Comunque non voglio aizzare gli animi, è una mia visione tecnico-estetica sull'implementazione di certe funzioni di DX12. :)
I vantaggi di AMD sulle DX12, sono pensati più che altro che cercare di tenere quasi sempre occupato lo shader core primario, anche se alcuni giochi mostrano problemi i latenze, tanto da dover essere costretti ad utilizzare l dx11.
Avere Async hardware permette di gestire 128 code mantenendo un valore sulle rop's e latenze ottimali, nonchè di avere la possibilità di calcolare automaticamente calcoli paralleli rispetto allo shader core.
Tutto queste serve più che altro per limitare il problema drawcall sulle vecchie AMD, visto che non riescono a sfruttare i vari core della CPU.
Con Polaris AMD ha pensato bene di levare 4 ACE ed inserire al posto di esse due HWS, con risultati ottimi.
Nvidia deve destreggiarsi su latenze, rop's meno sfruttate ed un'architettura quasi sempre ben sfruttata.
X-ray guru
26-01-2017, 14:57
Prima delle DX12 era previsto solo il mGPU implicito, implicito in quanto le API vedevano una sola GPU ed erano i driver che gestivano tutti gli aspetti legati al rendering, sincronizzazione, sottomissione batch, utilizzo memoria ecc...
Con le DX12 è stato introdotto il mGPU esplicto, esplicito in quanto le API danno accesso diretto a tutte le GPU ed è il programmatore che gestisce come usare la memoria, sottomettere i batch di rendering, ecc...
L'mGPU esplicito può essere omogeneo ed eterogeneo, nel primo caso le GPU sono identiche, nel secondo no.
Quindi mi sembra che la definizione di Legolas sia azzeccata, Tomb Raider che hai citato supporta mGPU implicito in DX11 (SLI e xFire), e mGPU esplicito omogeno in DX12 ;)
https://blogs.msdn.microsoft.com/directx/2016/07/08/rise-of-the-tomb-raider-explicit-directx-12-multigpu-and-a-peek-into-the-future/
Ben spiegato, grazie.
Nvidia deve destreggiarsi su latenze, rop's meno sfruttate ed un'architettura quasi sempre ben sfruttata.
Grazie anche a te.
Mi sembra che alla fine di castronerie grosse non ne ho scritte, come sembrava dalla levata di scudi di alcuni, forse con gli occhiali un po' troppo tinti di verde. :)
Legolas84
26-01-2017, 23:48
Mi sembra che alla fine di castronerie grosse non ne ho scritte, come sembrava dalla levata di scudi di alcuni, forse con gli occhiali un po' troppo tinti di verde. :)
Perchè in quello che ha scritto Mikael ci leggi quello che hai scritto tu? :asd:
A me sembra solo che abbia confermato quanto ti hanno detto tutti... Anche perchè se lo diciamo è proprio perchè ce lo ha spiegato lui ;)
chiedo a chi ha vga Nvidia e ultimi driver usciti in settimana, prima sono riuscito a fare una partita veloce, mappa blitz nella sala da ballo, bandiera c dentro il salone i colori sono tutti tendenti al bianco, lampadari, pavimento e anche gli elmetti di certe classi.... qualcuno potrebbe dirmi se ha lo stesso problema? non ho avuto tempo per ritrovare poi.... cmq mi sono accorto subito
Inviato dal mio Nexus 5
Kostanz77
27-01-2017, 05:51
chiedo a chi ha vga Nvidia e ultimi driver usciti in settimana, prima sono riuscito a fare una partita veloce, mappa blitz nella sala da ballo, bandiera c dentro il salone i colori sono tutti tendenti al bianco, lampadari, pavimento e anche gli elmetti di certe classi.... qualcuno potrebbe dirmi se ha lo stesso problema? non ho avuto tempo per ritrovare poi.... cmq mi sono accorto subito
Inviato dal mio Nexus 5
ma che gioco?? BF1?
Inviato dal mio iPhone 7 utilizzando Tapatalk Pro
Scusate l'ignoranza :stordita: , se prendo la msi 1070 gaming x come faccio a sapere che ha le memorie micron?
L'update del bios è una cosa complicata o è semplice e veloce?
chiedo a chi ha vga Nvidia e ultimi driver usciti in settimana, prima sono riuscito a fare una partita veloce, mappa blitz nella sala da ballo, bandiera c dentro il salone i colori sono tutti tendenti al bianco, lampadari, pavimento e anche gli elmetti di certe classi.... qualcuno potrebbe dirmi se ha lo stesso problema? non ho avuto tempo per ritrovare poi.... cmq mi sono accorto. gioco bf1, scusate non lo avevo scritto subito<br />
<br />
Inviato dal mio Nexus 5
Inviato dal mio Nexus 5
guant4namo
27-01-2017, 11:23
Ciao ragazzi,
quale è la migliore GTX 1080 senza coil whine in commercio?
Sul range prezzo tra i 400/500 euro?
alewillywonka
27-01-2017, 11:49
Ciao ragazzi,
quale è la migliore GTX 1080 senza coil whine in commercio?
Sul range prezzo tra i 400/500 euro?
Esistono 1080 a quel prezzo?????????????
MadMax of Nine
27-01-2017, 12:51
Io vorrei capire come mai dite che la 1080 non è una scheda per i 4K, io ci gioco a questa risoluzione e mi trovo benissimo, se gli fps su tutti i giochi non sono a 60 ma 45 io sinceramente non ne faccio un dramma, o al massimo se voglio i 60 fissi abbasso un pelo certi dettagli e il risultato è comunque migliore di abbassare la risoluzione
TigerTank
27-01-2017, 13:02
Io vorrei capire come mai dite che la 1080 non è una scheda per i 4K, io ci gioco a questa risoluzione e mi trovo benissimo, se gli fps su tutti i giochi non sono a 60 ma 45 io sinceramente non ne faccio un dramma, o al massimo se voglio i 60 fissi abbasso un pelo certi dettagli e il risultato è comunque migliore di abbassare la risoluzione
Si intende una visione a 360° per un gaming da almeno 60fps senza sacrificare troppo(tralasciando eventuali filtri mattone ammazza framerate).
I 4K saranno gestibili dalle Volta.
guant4namo
27-01-2017, 13:26
Esistono 1080 a quel prezzo?????????????
:D :D :D Pensavo esistessero ed invece.... :rolleyes:
guant4namo
27-01-2017, 13:27
E' un momento del piffero per comprare una 1080 (c'è la 1080Ti prevista a Marzo, AMD Vega previsto entro Giugno, e cmq la 1080 non è una scheda da 4k - che verosimilmente è l'obiettivo minimo di qualsiasi scheda video di fascia alta del 2017). Costasse meno avrebbe senso, ma a 650 euro per una versioni base... e poi neanche ti permette di giocare in 4k se l'anno prossimo compri uno dei (bellissimi) monitor che stanno uscendo di questi tempi... ekekkaiser...
...meglio giocare in fullhd ancora per un po' con una delle (ottime) schede da 250 euro che ci sono in giro adesso IMHO, e fare il salto di risoluzione più avanti.
Grazie della risposta.
Quindi se un cristiano qualunque volesse farsi un pc nuovo, aggiornato al top con gli ultimi componenti e volesse giocare anche in 4k, dovrebbe aspettare ancora un pò? Quanto però?
MadMax of Nine
27-01-2017, 13:38
Si intende una visione a 360° per un gaming da almeno 60fps senza sacrificare troppo(tralasciando eventuali filtri mattone ammazza framerate).
I 4K saranno gestibili dalle Volta.
È anche questione personale, nei giochi pesanti con il blur se sei a 45 o 90 non cambia nulla, come da ultra a high molte volte il cambio è impercettibile è sicuramente meno vistoso che da 4K a 1440p
È anche questione personale, nei giochi pesanti con il blur se sei a 45 o 90 non cambia nulla, come da ultra a high molte volte il cambio è impercettibile è sicuramente meno vistoso che da 4K a 1440p
Ma se a te piace nessuno ti vieta di giocare in 4k a 10 fps a dettagli medi con una scheda da 600 Euro, la 1080 rimane pero' una scheda da 1440p come ti ha suggerito Tiger riassumendone i motivi, con lo stesso ragionamento anche la 1070 va bene per i 4k.
Edit: Per non parlare di futuribilita' perche' gia' adesso ci son titoli che la fanno piegare a 1440p
MadMax of Nine
27-01-2017, 14:09
Ma se a te piace nessuno ti vieta di giocare in 4k a 10 fps a dettagli medi con una scheda da 600 Euro, la 1080 rimane pero' una scheda da 1440p come ti ha suggerito Tiger riassumendone i motivi, con lo stesso ragionamento anche la 1070 va bene per i 4k.
Edit: Per non parlare di futuribilita' perche' gia' adesso ci son titoli che la fanno piegare a 1440p
Probabilmente abbiamo schede differenti :) io la uso in 4K ad Ultra senza mai scendere sotto i 45fps nei titoli nuovi e con i 60 fissi nei vecchi, da qua a dire che non va bene per i 4K ce ne passa :read:
Poi certi giochi (vedi Tomb Raider) vanno peggio a 1440p con AA che a 4K senza AA, Metro LL va uguale a 4K senza AA che a 1440p con AA
Legolas84
27-01-2017, 14:12
Metti the witcher 3 tutto al massimo, 4K poi fatti un giro alla palude del gobbo e dicci quanto fai di minimi ;)
Inviato dal mio iPhone utilizzando Tapatalk Pro
mikael84
27-01-2017, 14:23
Probabilmente abbiamo schede differenti :) io la uso in 4K ad Ultra senza mai scendere sotto i 45fps nei titoli nuovi e con i 60 fissi nei vecchi, da qua a dire che non va bene per i 4K ce ne passa :read:
Poi certi giochi (vedi Tomb Raider) vanno peggio a 1440p con AA che a 4K senza AA, Metro LL va uguale a 4K senza AA che a 1440p con AA
Occhio a non confondere i filtri. Tomb raider non usa MSAA ma SSAA, ciò significa che su un 1440p e 2x renderizzi a 7,3mpixel ed a 4x in 5k.
Il 4k con una 1080 è ancora impensabile per avere un'esperienza ottimale, salvo non volersi accontentarsi di FPS bassi o scendere a compromessi in alcuni giochi.:)
Diciamo che è un'ottima scheda per il 1440p, poi chi si accontenta di andare oltre bene, ma ancora non è del tutto in grado di gestire un 4k.:)
Ma se a te piace nessuno ti vieta di giocare in 4k a 10 fps a dettagli medi con una scheda da 600 Euro, la 1080 rimane pero' una scheda da 1440p come ti ha suggerito Tiger riassumendone i motivi, con lo stesso ragionamento anche la 1070 va bene per i 4k.
Edit: Per non parlare di futuribilita' perche' gia' adesso ci son titoli che la fanno piegare a 1440p
Quoto appieno.
MadMax of Nine
27-01-2017, 14:43
Metti the witcher 3 tutto al massimo, 4K poi fatti un giro alla palude del gobbo e dicci quanto fai di minimi ;)
Inviato dal mio iPhone utilizzando Tapatalk Pro
Witcher 3 non mi da problemi, nemmeno se carico tutto al masismo (Senza AA), non mi sembra di essre mai sceso sotto i 40, sicuramente nessuno scatto o comportamenti da farmi abbassare la risoluzione.
Occhio a non confondere i filtri. Tomb raider non usa MSAA ma SSAA, ciò significa che su un 1440p e 2x renderizzi a 7,3mpixel ed a 4x in 5k.
Il 4k con una 1080 è ancora impensabile per avere un'esperienza ottimale, salvo non volersi accontentarsi di FPS bassi o scendere a compromessi in alcuni giochi.:)
Diciamo che è un'ottima scheda per il 1440p, poi chi si accontenta di andare oltre bene, ma ancora non è del tutto in grado di gestire un 4k.:)
Quoto appieno.
Per AA intendo in generale, ma scusa, voi quando giocate guardate l'esperienza di gioco o il contatore degli fps ?
Perciò voi avete tutti monitor 4K, ma visto che va lenta li usate a 1440p, e quello che dite è frutto di esperienza personale e non da chiacchere da bar giusto ? ;)
pazzoide76
27-01-2017, 14:48
Oggi mi sono arrivati i pad termici EVGA.
Addirittura me ne hanno spediti due
Ma nel pacchetto dei driver a parte quest'ultimi c'è altro?
Qualche funzione tipo streaming, screenshot, cattura video o robe del genere?
Che vuol dire? Esiste da anni geforce experience per quello.
Non lo sapevo, mai avuto nvidia!
MadMax of Nine
27-01-2017, 16:15
Ma nel pacchetto dei driver a parte quest'ultimi c'è altro?
Qualche funzione tipo streaming, screenshot, cattura video o robe del genere?
Di importante c'è Gamestream, usi il pc con la GTX come server di streaming e ti puoi collegare da altre postazioni tipo Mac, Raspberry Pi e anche smartphone con Moonlight, a me ha rivoluzionato la vita :D
Witcher 3 non mi da problemi, nemmeno se carico tutto al masismo (Senza AA), non mi sembra di essre mai sceso sotto i 40, sicuramente nessuno scatto o comportamenti da farmi abbassare la risoluzione.
Per AA intendo in generale, ma scusa, voi quando giocate guardate l'esperienza di gioco o il contatore degli fps ?
Perciò voi avete tutti monitor 4K, ma visto che va lenta li usate a 1440p, e quello che dite è frutto di esperienza personale e non da chiacchere da bar giusto ? ;)
Io lo dico da tempo..da quando ho smesso di usare programmi che monitorano gli fps in gioco, il mio hardware è diventato di colpo più performante e longevo :D :D :D
Inviato dal mio ASUS_T00Q utilizzando Tapatalk
MadMax of Nine
27-01-2017, 16:59
Io lo dico da tempo..da quando ho smesso di usare programmi che monitorano gli fps in gioco, il mio hardware è diventato di colpo più performante e longevo :D :D :D
Inviato dal mio ASUS_T00Q utilizzando Tapatalk
Haha sacra verità ! :D
nickname88
27-01-2017, 18:15
Io lo dico da tempo..da quando ho smesso di usare programmi che monitorano gli fps in gioco, il mio hardware è diventato di colpo più performante e longevo :D :D :D
Inviato dal mio ASUS_T00Q utilizzando Tapatalk
Io non ho bisogno di contatori di FPS, se scendo sotto i 60fps sul mio monitor me ne accorgo.
Affermare che con cali sui 40 il gioco è ancora fluido è errato, che poi qualcuno lo ritenga accettabile è un altro paio di maniche. ;)
Io a 1440p non ho dovuto faticare a trovare titoli che mettessero in difficoltà la mia 1080, il 4K va bene solo se ci si accontenta, poi personalmente anche con il 4K l'AA per me ci vuole.
bagnino89
27-01-2017, 18:57
Io non ho bisogno di contatori di FPS, se scendo sotto i 60fps sul mio monitor me ne accorgo.
Affermare che con cali sui 40 il gioco è ancora fluido è errato, che poi qualcuno lo ritenga accettabile è un altro paio di maniche. ;)
Io a 1440p non ho dovuto faticare a trovare titoli che mettessero in difficoltà la mia 1080, il 4K va bene solo se ci si accontenta, poi personalmente anche con il 4K l'AA per me ci vuole.
Dici sul serio? AA anche col 4k? Per gli FPS sono d'accordo, io mi accorgo al volo anche di minimi cali...
Ciao a tutti, ho da poco una GTX 1080 G1.
Quando gioco dopo pochi minuti (qualsiasi titolo) mi si spegne il PC completamente e si riavvia, l'ho montata oggi insieme al nuovo monitor 1440p.
Ho provato a fare uno stress test con furmark e non succede nulla, funziona tutto.
Quale dite che può essere il problema?
Legolas84
28-01-2017, 16:19
Furmark dovrebbero vietarlo
Inviato dal mio iPhone utilizzando Tapatalk Pro
athlon xp 2400
28-01-2017, 16:29
Fatto una volta X prova poi stop benck !
Voglio dying light 2 se mai uscirà
A me sembra un problema di alimentazione. Che alimentatore hai? E poi non usare furmark che ti bruci la scheda!
L'alimentatore è in firma Enermax 720 W. Anche io ho pensato a quello perché pare tutto un problema di alimentazione ma la G1 ha addirittura solo un connettore ad 8 pin mentre la 780 di prima ne aveva 2.
Sono riuscito solo a fare alcune brevi prove dalle quali potrebbe essere emerso un altro motivo.
Ho 3 schermi, su due estendo il desktop, sul terzo lo duplico.
Solo che il primario (1440p) viene duplicato su un 1600x900 e sospetto che magari non riesce a sopportare uno scaling così alto e per qualche motivo manda il computer ai pazzi, potrebbe essere?
A volte mi crasha tutto e mi torna al desktop con errore riguardante la vga, altre volte invece si spenge proprio.
Ho provato a disattivare quel display e fatte alcune prove veloci senza avere problemi, devo comunque testare a fondo ma sicuramente non è un difetto della scheda.
Che programma mi consigliate per stress test?
Legolas84
28-01-2017, 19:08
Gioca a The Witcher 3..... come stress test è fantastico....
Gioca a The Witcher 3..... come stress test è fantastico....
Si ok ma lo dovrei reinstallare, non c'è qualche semplice software che mi permetta di fare uno stress test senza stare lì a giocare?
Legolas84
28-01-2017, 19:32
Firestrike o Gamespy in loop... però imho the witcher non ha rivali....
Inviato dal mio iPhone utilizzando Tapatalk Pro
athlon xp 2400
28-01-2017, 19:37
Bastano 10 minuti
ragazzi scusate l'ot qualcuno ferrato in water cooling potrebbe darmi una mano qui, anche solo qualche dritta andrebbe bene.:)
http://www.hwupgrade.it/forum/showthread.php?t=2802330
Legolas84
28-01-2017, 19:59
Posta qui:
http://www.hwupgrade.it/forum/showthread.php?t=1731984&page=4049
Posta qui:
http://www.hwupgrade.it/forum/showthread.php?t=1731984&page=4049
grazie :D
Firestrike o Gamespy in loop... però imho the witcher non ha rivali....
Inviato dal mio iPhone utilizzando Tapatalk Pro
Con i test non succede nulla, va tutto bene. Invece se gioco a Just Cause 3 il PC si spegne a random, non riesco a capire cosa sia.
Funziona tutto bene, poi di punto in bianco bum.
Dal pannello di controllo di Gigabyte vedo che la scheda arriva a 1949 MHz di clock mentre dichiarato è 1856 se non erro. Ci sono le varie impostazioni di clock e quella selezionata è la gaming mode. Magari la scheda è instabile a clock superiori a quello dichiarato, non so.
Devo provare a stressarla meno, però con altri titoli, provati brevemente non ho avuto questi problemi, solo con Fallout 4 una volta sola all'avvio.
Non capisco quale sia il problema, sembra l'alimentazione ma è davvero strano. La temperatura non è di sicuro, sta massimo sui 66°. :boh:
Con i test non succede nulla, va tutto bene. Invece se gioco a Just Cause 3 il PC si spegne a random, non riesco a capire cosa sia.
Funziona tutto bene, poi di punto in bianco bum.
[cut]
Devo provare a stressarla meno, però con altri titoli, provati brevemente non ho avuto questi problemi, solo con Fallout 4 una volta sola all'avvio.
Non capisco quale sia il problema, sembra l'alimentazione ma è davvero strano. La temperatura non è di sicuro, sta massimo sui 66°. :boh:
Non c'e' niente di particolarmente strano, quando la PSU comincia a partire fa ste cose qua in genere.
L'ultima PSU che ho cambiato faceva riavviare il PC sui Menu di Fifa (uncapped).
Non c'e' niente di particolarmente strano, quando la PSU comincia a partire fa ste cose qua in genere.
L'ultima PSU che ho cambiato faceva riavviare il PC sui Menu di Fifa (uncapped).
Quindi dici che il problema è l'alimentatore e non la VGA?
Con 3DMark non succede nulla forse perché dovrei tenerlo più a lungo, ho provato anche ad abbassare il clock e il power consumption sta sotto l'80% con Just Cause 3, appena arrivo in zone più movimentate e comincio a fare esplodere cose mi si spegne d'improvviso tutto e poi si riavvia.
Spider-Mans
29-01-2017, 17:29
Ciao a tutti, ho da poco una GTX 1080 G1.
Quando gioco dopo pochi minuti (qualsiasi titolo) mi si spegne il PC completamente e si riavvia, l'ho montata oggi insieme al nuovo monitor 1440p.
Ho provato a fare uno stress test con furmark e non succede nulla, funziona tutto.
Quale dite che può essere il problema?
Lascia stare discorsi di ali se prima non escludi che il problema sia un altro
Fai questo semplice test
La tua 1080 l'hai messa sullo slot PCIe 1 giusto?
Prova a metterla nel secondo slot pcie ..quello che di solito va a 8x ma di fatto cambia mezzo frame o nulla...e vedi se si spegne....se non si spegne hai un caso non raro di incompatibilità sul primo slot...successo anche a me... non vuol dire che il primo slot sia guasto ....visto che la scheda madre non è cambiata giusto?
Lo so è fastidioso spostarla la scheda ma solo così sarai sicuro che non sia l alimentatore
Lascia stare discorsi di ali se prima non escludi che il problema sia un altro
Fai questo semplice test
La tua 1080 l'hai messa sullo slot PCIe 1 giusto?
Prova a metterla nel secondo slot pcie ..quello che di solito va a 8x ma di fatto cambia mezzo frame o nulla...e vedi se si spegne....se non si spegne hai un caso non raro di incompatibilità sul primo slot...successo anche a me... non vuol dire che il primo slot sia guasto ....visto che la scheda madre non è cambiata giusto?
Lo so è fastidioso spostarla la scheda ma solo così sarai sicuro che non sia l alimentatore
Ok, farò la prova. Si la mobo è la stessa.
A volte invece di spegnersi mi da un errore dxgi_error_device_hung dicendo che la scheda video è stata rimossa o qualcosa del genere.
Quindi dici che il problema è l'alimentatore e non la VGA?
Con 3DMark non succede nulla forse perché dovrei tenerlo più a lungo, ho provato anche ad abbassare il clock e i power consumption sta sotto l'80% con Just Cause 3, appena arrivo in zone più movimentate e comincio a fare esplodere cose mi si spegne d'improvviso tutto e poi si riavvia.
Quale sia il problema da qua non posso saperlo anche perche' non ho seguito il tuo troubleshooting, dico solo che sarebbe un evento compatibile con problemi alla psu senza stranezze di sorta.
Diciamo che potrebbe essere la PSU ma non escludere il resto senza aver testato ogni componente.
athlon xp 2400
29-01-2017, 18:12
Potrebbe essere anche là modo la prima cosa da provare però è la psu prova a fartelo prestare da qualche amico
Purtroppo non ho modo di farmi prestare un alimentatore da nessuno e non ne ho altri, dovrei acquistarne uno nuovo per sapere se è quello.
Comunque sia non capisco perché con i test di 3D Mark non succeda nulla, c'è modo di mandarli in loop per un certo tempo con la versione base?
Spider-Mans
29-01-2017, 18:31
Purtroppo non ho modo di farmi prestare un alimentatore da nessuno e non ne ho altri, dovrei acquistarne uno nuovo per sapere se è quello.
Comunque sia non capisco perché con i test di 3D Mark non succeda nulla, c'è modo di mandarli in loop per un certo tempo con la versione base?
Ma fai il mio test... easy...se non si spegne..allora il problema non è alimentatore
Scheda madre escluderei...visto che la precedente scheda grafica non ti dava sto problema
Se nel secondo slot pcie non si spegne il pc....allora... scheda grafica incompatibile sul primo slot o difettata...my 2 cents
A me stavano per farmi cambiare scheda madre e ali... per fortuna ho deciso di fare Questo test :ciapet: ...la scheda grafica sul primo slot mi mandava il pc in shutdown..ossia si spegneva solo in full game.. mentre in idle zero problemi...
athlon xp 2400
29-01-2017, 18:50
Secondo me è comq un difetto dello slot in quel caso non regge carichi con elevati watt..
Spider-Mans
29-01-2017, 18:53
Secondo me è comq un difetto dello slot in quel caso non regge carichi con elevati watt.. escluderei..salvo che non abbia rovinato lo slot fisicamente ora quando ha cambiato la scheda grafica.
La 1080 non consuma così tanto di più delle Maxwell... ora non so che scheda avesse...ma dubito che fosse la 950 gtx
Ma fai il mio test... easy...se non si spegne..allora il problema non è alimentatore
Scheda madre escluderei...visto che la precedente scheda grafica non ti dava sto problema
Se nel secondo slot pcie non si spegne il pc....allora... scheda grafica incompatibile sul primo slot o difettata...my 2 cents
A me stavano per farmi cambiare scheda madre e ali... per fortuna ho deciso di fare Questo test :ciapet: ...la scheda grafica sul primo slot mi mandava il pc in shutdown..ossia si spegneva solo in full game.. mentre in idle zero problemi...
escluderei..salvo che non abbia rovinato lo slot fisicamente ora quando ha cambiato la scheda grafica.
La 1080 non consuma così tanto di più delle Maxwell... ora non so che scheda avesse...ma dubito che fosse la 950 gtx
Si non credo sia lo slot, funzionava tutto fino a 2 giorni fa con la 780. Avevo una GTX 780 Windforce Rev 2.0 con due connettori da 8 pin. Credo che come consumi siamo lì.
Comunque ho messo in stress per 40 minuti con il tool di GPU-Z la scheda, nessun problema, tutto liscio.
Non potrebbe essere anche il gioco che ha qualche bug? :mbe:
Un bug che ti spegne il pc? Non credo proprio :sofico:
Devo provare qualche altro titolo mattone ma non capisco perché con i benchmark o i test non succeda nulla.
Oggi sono riuscito a giocare per parecchio a JC3, pensavo fosse sparito il bug, invece bum, di nuovo.
Un bug che ti spegne il pc? Non credo proprio :sofico:
AGGIORNAMENTO:
ragazzi ho fatto mezz'ora di The Witcher 3 andando in posti diversi e in posti che mi ricordavo fossero pesanti, son stato nelle città, boschi, laghi, mare, ho girato a destra e a manca, in cavallo e a piedi e....nulla.
GPU usata anche più di JC3, usata al 99% con consumo massimo, clock al massimo, tutto su ultra a 1440p.
Tutto liscio, nessun crash, nessuno spegnimento. Come si spiega? :mbe:
athlon xp 2400
29-01-2017, 20:31
Butta jc3
Butta jc3
L'ho testato, tutto al minimo tranne la risoluzione, tutto su OFF. Dopo 15 minuti, forse meno, PC spento. :mbe:
Mai visto che un gioco potesse causare un problema simile. :mbe:
mircocatta
29-01-2017, 22:53
Imbarazzante! 😱
Provato un valley o heaven in loop? Lo butti su con supersampling e vedi se si presenta il problema
Inviato dal mio HTC One M9 utilizzando Tapatalk
Legolas84
29-01-2017, 23:00
Bo stranissimo, prova a vedere se sui forum americano qualcuno ha lo stesso problema...
Inviato dal mio iPhone utilizzando Tapatalk Pro
Imbarazzante! 😱
Provato un valley o heaven in loop? Lo butti su con supersampling e vedi se si presenta il problema
Inviato dal mio HTC One M9 utilizzando Tapatalk
Valley o heaven sono sempre test 3D Mark? Sulla versione free non so se si possono mettere in loop.
Stasera provo. Comunque non riesco proprio a capire dove sia il problema.
Se faccio test come anche quello semplice di gpu-z o altri come 3D Mark funziona tutto. Con TW3 lo stesso e monitorando la scheda viene sfruttata completamente. Con JC3 invece è un continuo con tutto al minimo mentre con la vecchia scheda andava senza problemi.
Se fosse un guasto o un'incompatibilità non dovrebbe darmi problemi con qualsiasi applicazione grafica pesante?
Ho pure provato a pulire dai driver e ho installato una versione più vecchia senza successo. Farò anche la prova del secondo slot ma ho una scheda audio che dovrei spostare per farlo e mi ci vuole tempo.
Magari è il gsync. Proverò a disattivarlo ma ho fatto ricerche e non ho trovato nulla se non gli stessi consigli che mi avete dato qui.
Uno aveva lo stesso mio problema ma con qualsiasi applicazione 3D pesante il che è più palesemente un guasto.
Devo provare altri titoli ma la scheda come ho detto sembra andare.
Il punto è che pazienza per JC3 anche se mi fa incavolare ma non so se più in là mi ritrovo lo stesso problema su altre applicazioni.
Inviato dal mio LG-H815 utilizzando Tapatalk
athlon xp 2400
30-01-2017, 07:34
Valley o heaven sono sempre test 3D Mark? Sulla versione free non so se si possono mettere in loop.
Stasera provo. Comunque non riesco proprio a capire dove sia il problema.
Se faccio test come anche quello semplice di gpu-z o altri come 3D Mark funziona tutto. Con TW3 lo stesso e monitorando la scheda viene sfruttata completamente. Con JC3 invece è un continuo con tutto al minimo mentre con la vecchia scheda andava senza problemi.
Se fosse un guasto o un'incompatibilità non dovrebbe darmi problemi con qualsiasi applicazione grafica pesante?
Ho pure provato a pulire dai driver e ho installato una versione più vecchia senza successo. Farò anche la prova del secondo slot ma ho una scheda audio che dovrei spostare per farlo e mi ci vuole tempo.
Magari è il gsync. Proverò a disattivarlo ma ho fatto ricerche e non ho trovato nulla se non gli stessi consigli che mi avete dato qui.
Uno aveva lo stesso mio problema ma con qualsiasi applicazione 3D pesante il che è più palesemente un guasto.
Devo provare altri titoli ma la scheda come ho detto sembra andare.
Il punto è che pazienza per JC3 anche se mi fa incavolare ma non so se più in là mi ritrovo lo stesso problema su altre applicazioni.
Inviato dal mio LG-H815 utilizzando Tapatalk
hai gia formattato si?
prova a aggiornare i driver chipset o bios mobo nn si sa mai
hai gia formattato si?
prova a aggiornare i driver chipset o bios mobo nn si sa mai
Non ho formattato perché non ho il tempo di farlo, per me la formattazione è ogni volta molto dolorosa ma i driver sono tutti aggiornati e il PC è stato formattato da poco.
Non c'è installata spazzatura o altro.
athlon xp 2400
30-01-2017, 08:01
Non ho formattato perché non ho il tempo di farlo, per me la formattazione è ogni volta molto dolorosa ma i driver sono tutti aggiornati e il PC è stato formattato da poco.
Non c'è installata spazzatura o altro.
hai provato a reinstallare il gioco?
hai provato a reinstallare il gioco?
No, infatti è l'unica prova che mi rimane da fare, stasera lo faccio ma prima di domani mi sa che Steam non lo riscarica tutto, dovrò aspettare.
Nel frattempo non so cosa provare per stressare la VGA, potrei provare Crysis 3 ma mi sa che dovrei riscaricare anche quello.
Il fatto è che sono passato da 1680x1050 + GTX 780 a 1440p GTX 1080 e magari il gioco ne ha risentito per qualche motivo (anche se mi sembra parecchio strano).
Però mi sembra strano che causi un problema del genere. Allo stesso modo però come è possibile che TW3 con i grafici di monitoring che mi indicavano Power Consumption e Usage al 99% non succeda nulla per mezzora se il problema fosse di alimentazione o di compatibilità?
Vi torna il discorso o mi sfugge qualcosa?
No, infatti è l'unica prova che mi rimane da fare, stasera lo faccio ma prima di domani mi sa che Steam non lo riscarica tutto, dovrò aspettare.
Nel frattempo non so cosa provare per stressare la VGA, potrei provare Crysis 3 ma mi sa che dovrei riscaricare anche quello.
Il fatto è che sono passato da 1680x1050 + GTX 780 a 1440p GTX 1080 e magari il gioco ne ha risentito per qualche motivo (anche se mi sembra parecchio strano).
Però mi sembra strano che causi un problema del genere. Allo stesso modo però come è possibile che TW3 con i grafici di monitoring che mi indicavano Power Consumption e Usage al 99% non succeda nulla per mezzora se il problema fosse di alimentazione o di compatibilità?
Vi torna il discorso o mi sfugge qualcosa?
Quando anni fa passai da una x1900xt 256MB ad un 8800gtx ho avuto problemi analoghi, andava con tutti i giochi ma con TDU la 8800 mi faceva spegnere il pc, eppure consumava poco più di 10W rispetto alla prima.
Cambiando ali ho risolto, il fatto che il pc non si spegne con TW3 e altri titoli non è sufficiente per escludere la psu, e questo perché anche se giochi diversi mediamente fanno consumare la gpu allo stesso modo, è possibile che provochino picchi di richieste di corrente differenti, mettendo quindi in crisi un alimentatore apparentemente perfetto.
Quanti anni ha il tuo enermax ?
Quando anni fa passai da una x1900xt 256MB ad un 8800gtx ho avuto problemi analoghi, andava con tutti i giochi ma con TDU la 8800 mi faceva spegnere il pc, eppure consumava poco più di 10W rispetto alla prima.
Cambiando ali ho risolto, il fatto che il pc non si spegne con TW3 e altri titoli non è sufficiente per escludere la psu, e questo perché anche se giochi diversi mediamente fanno consumare la gpu allo stesso modo, è possibile che provochino picchi di richieste di corrente differenti, mettendo quindi in crisi un alimentatore apparentemente perfetto.
Quanti anni ha il tuo enermax ?
Più o meno 10 anni, è tanto che ce l'ho e mi ha sempre servito bene con un sacco di configurazioni.
A questo punto dovrei considerare un 850 W ma non so dove dirigermi come marca e modello.
Considera che ho 6 HDD + 1 nel cassettino, 2 SSD, 2 Masterizzatori DVD, Raffreddamento a liquido, 12 porte USB occupate (tutte quelle disponibili sul pannello posteriore della motherboard) e in una c'è un HUB con altre tre cose collegate, la scheda audio con un frontalino collegato più una scheda audio esterna (tra le usb elencate), ho 2 mouse e 2 tastiere, 3 controller midi e altre cose ma tutta roba che assorbe pochissimo.
Potrebbe essere che essendoci parecchie cose attaccate faccia fatica, ma il dubbio mi viene perché prima andava bene, forse era già al limite prima ed è bastato mettere la GTX 1080 per mandarlo ai pazzi. Quanto assorbe di potenza più di una GTX 780?
Alla VGA ho attaccati 3 schermi ma quelli ovviamente sono alimentati a parte.
Potrei provare a non mettere tutto sulla stessa presa di casa magari ma dubito che si saturi una presa elettrica con un PC, di corrente saremo sui 3-4 Ampere e la presa arriva a 10 Ampere.
JC3 dai grafici da un utilizzo e consumo minore rispetto a TW3.
Ho pensato anche io a qualche spike di corrente che mandi in protezione il PC, in effetti JC3 va tranquillamente, quando però entro in un insediamento e comincio a far esplodere tutto mi esplode il PC, questo tutte le volte che ho provato anche con settaggi minimi (quindi riducendo ancora il carico sulla GPU, di molto rispetto a TW3).
La scheda funziona bene e non sembra avere il comportamento di una scheda guasta (artefatti, surriscaldamento ecc ecc...), inoltre in tutti i test (che probabilmente non causano spike di corrente) funziona regolarmente quindi in effetti sembra più un problema di alimentazione.
Senza sborsare una fortuna quale potrebbe essere un alimentatore modulare superiore a questo che possa sopportare tutto il carico?
Chiedo qui dato che è inerente il consumo della GTX 1080 che tutti voi montate.
Alimentatore.....
Prendi un evga scontato o un antec hcp da 850 e per altri dieci anni sei a posto
Alimentatore.....
Prendi un evga scontato o un antec hcp da 850 e per altri dieci anni sei a posto
EVGA ce n'è uno solo a 850 o più modelli? Ricordi il nome esatto del modello?
Spider-Mans
30-01-2017, 12:40
Per me non è l ali.. witcher3 e molto piu esoso di just cause3..pero hai mille cose collegate al tuo pc.. prova a staccare qualcosa di superluo e vedi un po...
Comunque cambiare con un ali nuovo non e malsana come idea.. evga g2 da 850 watt o 750 watt
Se non hai esigenze di sli..altrimenti vai sui 1000 watt
La serie G2 ...Uno dei migliori... e garanzia lunghissima diretta evga..ce lho da sei mesi col pc nuovo..scelto dopo giornate passate a leggere recensioni su vari tipi di ali...
Rece:
http://www.jonnyguru.com/modules.php?name=NDReviews&op=Story&reid=377
Se lo compri direttamente dallo store eu evga puoi sfruttare lo sconto del 20% se utilizzi la loro funzione meter per calcolare quanto il tuo pc consuma..almemo sei mesi fa cera lo sconto ... e comunque i prezzi dello store ufficiale sono migliori spesso...rispetto ai negozi retail
Per concludere l'OT i vari Corsair Rmx sono pari se non meglio dei EVGA menzionati e a volte si trovano a prezzo piu' competitivo (garanzia sempre 10 anni diretti), in entrambi i casi caschi comunque benissimo :)
Legolas84
30-01-2017, 13:13
Io per esperienza personale mi sono sempre trovato benissimo con Seasonic ed Enermax :)
Inviato dal mio iPhone utilizzando Tapatalk Pro
veltosaar
30-01-2017, 13:24
Ragazzi, mi aiutate a fare chiarezza?
Per la 1080 strix, trovo 3 modelli.
Uno ha clock base. Una è definita Advanced e una OC.
Che differenze ci sono?
ROG STRIX-GTX1080-8G-GAMING (https://www.asus.com/it/Graphics-Cards/ROG-STRIX-GTX1080-8G-GAMING/overview/)
ROG STRIX-GTX1080-A8G-GAMING (https://www.asus.com/it/Graphics-Cards/ROG-STRIX-GTX1080-A8G-GAMING/overview/)
ROG STRIX-GTX1080-O8G-GAMING (https://www.asus.com/it/Graphics-Cards/ROG-STRIX-GTX1080-O8G-GAMING/overview/)
Per me non è l ali.. witcher3 e molto piu esoso di just cause3..pero hai mille cose collegate al tuo pc.. prova a staccare qualcosa di superluo e vedi un po...
Comunque cambiare con un ali nuovo non e malsana come idea.. evga g2 da 850 watt o 750 watt
Se non hai esigenze di sli..altrimenti vai sui 1000 watt
La serie G2 ...Uno dei migliori... e garanzia lunghissima diretta evga..ce lho da sei mesi col pc nuovo..scelto dopo giornate passate a leggere recensioni su vari tipi di ali...
Rece:
http://www.jonnyguru.com/modules.php?name=NDReviews&op=Story&reid=377
Se lo compri direttamente dallo store eu evga puoi sfruttare lo sconto del 20% se utilizzi la loro funzione meter per calcolare quanto il tuo pc consuma..almemo sei mesi fa cera lo sconto ... e comunque i prezzi dello store ufficiale sono migliori spesso...rispetto ai negozi retail
con 750W ci si gestisce un intero sistema con sli di gtx 1080 in tutta tranquillità (margine), 550 sono più che sufficenti in singola con 650w già si abbonda, basta che sia un ali di qualità (come sempre)
TigerTank
30-01-2017, 13:40
Ragazzi, mi aiutate a fare chiarezza?
Per la 1080 strix, trovo 3 modelli.
Uno ha clock base. Una è definita Advanced e una OC.
Che differenze ci sono?
ROG STRIX-GTX1080-8G-GAMING (https://www.asus.com/it/Graphics-Cards/ROG-STRIX-GTX1080-8G-GAMING/overview/)
ROG STRIX-GTX1080-A8G-GAMING (https://www.asus.com/it/Graphics-Cards/ROG-STRIX-GTX1080-A8G-GAMING/overview/)
ROG STRIX-GTX1080-O8G-GAMING (https://www.asus.com/it/Graphics-Cards/ROG-STRIX-GTX1080-O8G-GAMING/overview/)
Probabilmente cambia solo il clock di fabbrica :)
Comunque lascerei perdere questi modelli, costano ancora più di 700€ senza manco avere situazioni particolari di garanzia.
A questo punto piglia una Palit Gamerock/Jetstream da Tao a poco più di 600€ + Polizza "Acquisti sicuri" da 20€. O porta pazienza e aspetta di vedere se calano i prezzi quando escono le 1080Ti.
Spider-Mans
30-01-2017, 14:00
con 750W ci si gestisce un intero sistema con sli di gtx 1080 in tutta tranquillità (margine), 550 sono più che sufficenti in singola con 650w già si abbonda, basta che sia un ali di qualità (come sempre)
Si ok ma non sai domani che vga avrai..meglio essere piu larghi..un ali ti dura anni...e non ha senso sfruttare un ali al 80-90% di assorbimento...
Tutti consigliano che ė soluzione ideale avere un ali che abbia un wattaggio doppio rispetto al reale consumo per una efficienza energetica migliore...
.. pooi ognuno spende come crede..e magari fa lo sli con un 600
Grazie a tutti per i consigli anche se adesso mi trovo comunque confuso su un sacco di modelli e su che Wattaggio cercare. :D
Per me non è l ali.. witcher3 e molto piu esoso di just cause3..pero hai mille cose collegate al tuo pc.. prova a staccare qualcosa di superluo e vedi un po...
Comunque cambiare con un ali nuovo non e malsana come idea.. evga g2 da 850 watt o 750 watt
Se non hai esigenze di sli..altrimenti vai sui 1000 watt
La serie G2 ...Uno dei migliori... e garanzia lunghissima diretta evga..ce lho da sei mesi col pc nuovo..scelto dopo giornate passate a leggere recensioni su vari tipi di ali...
Rece:
http://www.jonnyguru.com/modules.php?name=NDReviews&op=Story&reid=377
Se lo compri direttamente dallo store eu evga puoi sfruttare lo sconto del 20% se utilizzi la loro funzione meter per calcolare quanto il tuo pc consuma..almemo sei mesi fa cera lo sconto ... e comunque i prezzi dello store ufficiale sono migliori spesso...rispetto ai negozi retail
Ok però qui si parla magari di spike di corrente, non di utilizzo costante, infatti se parliamo di utilizzo medio ho potuto vedere che, come già detto, JC3 consuma meno di TW3.
Però si può applicare lo stesso discorso allo slot, come fa ad essere difettoso o non compatibile se con TW3 o altri test non ho avuto problemi? :confused:
Il punto è che essendo randomico il comportamento non riesco a focalizzarmi su quale possa essere il problema e non posso stare ad acquistare componenti finché non trovo il guasto.
slide1965
30-01-2017, 14:29
Ho un buono da utilizzare , qualcuno sa se i wb della 1080 strix saranno compatibili con la 1080Ti?
slide1965
30-01-2017, 15:44
Effettivamente :sofico:
mircocatta
30-01-2017, 16:19
Entro pure io :D
io entrerei volentieri nel tuo avatar altroché
X-ray guru
30-01-2017, 16:38
Perchè in quello che ha scritto Mikael ci leggi quello che hai scritto tu? :asd:
A me sembra solo che abbia confermato quanto ti hanno detto tutti... Anche perchè se lo diciamo è proprio perchè ce lo ha spiegato lui ;)
Ha ammesso che anche Nvidia deve lavorare sulle latenze e sulle ROP. Nel mio orizzonte degli eventi significa che hanno anche loro delle ottimizzazioni da fare in DX12. :)
Grazie ai vostri consigli ho individuato due alimentatori
Corsair CP-9020093-EU Serie RMx Alimentatore ATX/EPS da 850 Watt, Completamente Modulare con Certificazione 80 Plus Gold, Nero
EVGA SuperNOVA 850 G2 Alimentatore ATX, 850W, Nero
Andrei sugli 850 per massimizzare e farmelo durare un bel po', SLI non credo che lo farò mai e direi che uno di questi due basta e avanza.
Poiché sono a casa mercoledì e avrei fretta di farmelo arrivare per testare quanto prima il tutto prenderei il secondo spedito con prime sull'amazzone per 155 euro, effettivamente è un buon prezzo e forse vale la pena tentare.
AGGIORNAMENTO
Ho testato il PC con Heaven, nemmeno 5 minuti e bum, pc spento. A questo punto credo sia l'alimentazione davvero.
Da quello che vedo comunque la GTX 1080 G1 dovrebbe consumare meno della GTX 780 che avevo prima, 214 W contro 283 W con un utilizzo massimo.
Forse il problema è che invece di due connettori ne ha uno solo e quindi grava solo su una linea. Può essere?
Tra i sintomi di problemi all'alimentazione ovviamente si trova:
Bad 3D performance
Crashing games
Spontaneous reset or imminent shutdown of the PC
Freezing during gameplay
PSU overload can cause it to break down
Che ovviamente sono le cose successe a me.
Adesso provo a mettere lo slot PCI-E su cui è montata la scheda su 2.0 per vedere se ci sono cambiamenti.
mircocatta
30-01-2017, 19:15
Da quello che vedo comunque la GTX 1080 G1 dovrebbe consumare meno della GTX 780 che avevo prima, 214 W contro 283 W con un utilizzo massimo.
Forse il problema è che invece di due connettori ne ha uno solo e quindi grava solo su una linea. Può essere?
Tra i sintomi di problemi all'alimentazione ovviamente si trova:
Bad 3D performance
Crashing games
Spontaneous reset or imminent shutdown of the PC
Freezing during gameplay
PSU overload can cause it to break down
Che ovviamente sono le cose successe a me.
Adesso provo a mettere lo slot PCI-E su cui è montata la scheda su 2.0 per vedere se ci sono cambiamenti.
non hai un altro slot pci express da provare? o la 780 che avevi prima?
non hai un altro slot pci express da provare? o la 780 che avevi prima?
Si, li ho, la 780 andava però, fino a due giorni fa.
Ora faccio quel test, poi provo a cambiare slot.
Da quello che vedo comunque la GTX 1080 G1 dovrebbe consumare meno della GTX 780 che avevo prima, 214 W contro 283 W con un utilizzo massimo.
Forse il problema è che invece di due connettori ne ha uno solo e quindi grava solo su una linea. Può essere?
Possibile, prima avevi circa 210-220W suddivisi tra due connettori da 150W, ora hai 140-150W erogati da un solo connettore da 150W ;)
Possibile, prima avevi circa 210-220W suddivisi tra due connettori da 150W, ora hai 140-150W erogati da un solo connettore da 150W ;)
Infatti, il secondo ingresso da 8 pin era attaccato (con adattatore) ad un molex che prendeva dall'alimentazione di altre cose.
Credo anche io sia quello il problema, probabilmente con una 8+6 non avrei problemi ma la G1 ha un solo connettore da 8 pin.
L'alimentatore che comprerei da voi consigliatomi ha praticamente tutta la potenza su una sola linea, molto meglio.
Comunque ragazzi, test fatti:
- Vecchia scheda, nessun problema, funziona perfettamente (tra l'altro devo fare qualche up sul thread di vendita);
- 1080 su secondo slot: heaven va liscio, comincio a credere sia colpa dello slot, poi provo JC3 e crash, provo un altro gioco e si spegne il PC, quindi stesso comportamento.
Tra l'altro ho notato in alcuni frangenti scatti pesantissimi, non giustificabili su una scheda del genere, questo prima che si spegnesse tutto.
Quindi? Mi date un verdetto? Velocemente (per favore) che nel caso faccio l'ordine, grazie. :)
Ma io è dal tuo primo post che dico che è l'alimentatore. Mi sembrava fin troppo chiaro visto che un alimentatore che sta per partire fa esattamente quello che sta succedendo a te. Poi se hai già escluso tutto il resto che verdetto vuoi? Compra sto alimentatore :sofico:
:D Anche io pensavo che fosse quello ma volevo comunque fare giustamente queste prove, se fosse stato lo slot sarebbe stata una rottura.
Ho chiesto un verdetto comunitario, il tuo lo so già. :D
Spider-Mans
30-01-2017, 22:31
Infatti, il secondo ingresso da 8 pin era attaccato (con adattatore) ad un molex che prendeva dall'alimentazione di altre cose.
Credo anche io sia quello il problema, probabilmente con una 8+6 non avrei problemi ma la G1 ha un solo connettore da 8 pin.
L'alimentatore che comprerei da voi consigliatomi ha praticamente tutta la potenza su una sola linea, molto meglio.
Comunque ragazzi, test fatti:
- Vecchia scheda, nessun problema, funziona perfettamente (tra l'altro devo fare qualche up sul thread di vendita);
- 1080 su secondo slot: heaven va liscio, comincio a credere sia colpa dello slot, poi provo JC3 e crash, provo un altro gioco e si spegne il PC, quindi stesso comportamento.
Tra l'altro ho notato in alcuni frangenti scatti pesantissimi, non giustificabili su una scheda del genere, questo prima che si spegnesse tutto.
Quindi? Mi date un verdetto? Velocemente (per favore) che nel caso faccio l'ordine, grazie. :)
Se lo fa anche sul secondo slot..allora il problema ė ali o scheda grafica....per avere certezza dovresti provare la scheda grafica su un altro pc...comunque cambia ali cosi hai uno nuovo e piu prestante...se il problema persiste sara la scheda grafica :stordita:
Su laptop piu o meno si hanno stesse prestazione del desktop?
Se lo fa anche sul secondo slot..allora il problema ė ali o scheda grafica....per avere certezza dovresti provare la scheda grafica su un altro pc...comunque cambia ali cosi hai uno nuovo e piu prestante...se il problema persiste sara la scheda grafica :stordita:
Purtroppo non posso provare la scheda grafica su un altro PC, spero quindi sia l'alimentatore, nel caso comunque ho la possibilità di cambiare la scheda grafica e male male la cambio.
Ad ogni modo penso che il discorso sia proprio quello della singola linea di alimentazione e il comportamento pare quello di alimentazione non sufficiente.
Probabilmente avessi una 1080 con doppia linea di alimentazione non avrei avuto lo stesso problema.
Se una scheda grafica è danneggiata è più probabile che si vedano artefatti o ci siano comportamenti simili mentre non ho avuto situazioni del genere, poi tutto è possibile.
TW3 ad esempio è andato liscio, la scheda video macina finché non ha qualche picco di assorbimento che manda il tutto in protezione. Ovviamente l'assorbimento non è costante e ci son sempre degli spike che possono causare una situazione del genere.
Similmente a quando si supera il 10% in più del classico 3kW che si ha in casa.
Una domanda, per quanto riguarda l’ottimizzazione / supporto con lo SLI con questa serie come siamo messi?
\_Davide_/
31-01-2017, 12:53
Similmente a quando si supera il 10% in più del classico 3kW che si ha in casa.
E non succede niente :D
Comuqnue non penso il problema sia delle linee di alimentazione... Tu vedi svariati cavi, ma in realtà potrebbero benissimo essercene 2 "grossi", invece di 12 più fini...
Attenzione ovviammente se avete un alimentatore multi-rail (che patiti di overclock a parte è sicuramente più che consigliabile) a non collegare la scheda su diverse linee dell'alimentatore perchè a quel punto si azzererebbero i vantaggi...
E non succede niente :D
Comuqnue non penso il problema sia delle linee di alimentazione... Tu vedi svariati cavi, ma in realtà potrebbero benissimo essercene 2 "grossi", invece di 12 più fini...
Attenzione ovviammente se avete un alimentatore multi-rail (che patiti di overclock a parte è sicuramente più che consigliabile) a non collegare la scheda su diverse linee dell'alimentatore perchè a quel punto si azzererebbero i vantaggi...
Veramente a me è saltato tutto diverse volte perché avevo superato la potenza massima. In realtà ti concedono fino a 4kW ma per un tempo limitato, poi staccano.
Comunque sia se non sono le linee secondo te cos'è?
L'alimentatore che ho attualmente è semi modulare, non vedo svariati cavi, il problema è che le porte dedicate alle VGA sono tutte e due da 6 PIN e devo quindi prendere il cavo principale da 8 PIN (6+2).
Se la scheda ha un doppio ingresso per l'alimentazione e ci colleghi due linee diverse assorbirà potenza da entrambe.
Non so se è vero (devo verificare se trovo il manuale) ma il venditore mi ha detto che ha dei picchi di assorbimento di corrente di 33A e quell'alimentatore su nessuna linea arriva a 33A.
X-ray guru
31-01-2017, 17:24
Veramente a me è saltato tutto diverse volte perché avevo superato la potenza massima. In realtà ti concedono fino a 4kW ma per un tempo limitato, poi staccano.
Se hai il tipico contratto casalingo e un contatore elettronico, hai 3,3 kW massimi continui e scatta se supera per pochi secondi i 3800 W.
Questo il mio, poi magari altri gestori o modelli diversi di contatori elettronici hanno limiti leggermente diversi.
Quelli elettromeccanici con la rotellina che gira erano molto più permissivi.
\_Davide_/
31-01-2017, 18:48
Secondo quanto dichiarato da Enel entro i 4kW scatta dopo 3 ore, ed oltre i 4kW scatta in 4 minuti... Dove le hai viste quelle soglie?
Ma non ho capito se l'alimentatore problematico è un multi rail, ma ne deduco di sì...
Se è single rail tutte le porte che vedi dentro all'alimentatore sono collegate insieme...
Se è multi rail tutto avrebbe senso e non sarebbe un'anomalia, ma dovresti solo collegare la scheda video su due rail anzichè uno... L'ultimo multi rail che ho visto aveva 30A per linea ed era un 1200W
Se hai un singolo connettore 8 pin mi sa che devi farti un cavo tu...
Per chi avesse i powerlink di EVGA invece può collegare lì fino a due cavi da 8 pin
Se hai il tipico contratto casalingo e un contatore elettronico, hai 3,3 kW massimi continui e scatta se supera per pochi secondi i 3800 W.
Questo il mio, poi magari altri gestori o modelli diversi di contatori elettronici hanno limiti leggermente diversi.
Quelli elettromeccanici con la rotellina che gira erano molto più permissivi.
Si infatti sono 3kw + il 10% (0,3 kW) per un totale di 3,3 kW. Se sali sopra il limite puoi starci solo per poco tempo, però io so fino a 4kW massimi.
Secondo quanto dichiarato da Enel entro i 4kW scatta dopo 3 ore, ed oltre i 4kW scatta in 4 minuti... Dove le hai viste quelle soglie?
Ma non ho capito se l'alimentatore problematico è un multi rail, ma ne deduco di sì...
Se è single rail tutte le porte che vedi dentro all'alimentatore sono collegate insieme...
Se è multi rail tutto avrebbe senso e non sarebbe un'anomalia, ma dovresti solo collegare la scheda video su due rail anzichè uno... L'ultimo multi rail che ho visto aveva 30A per linea ed era un 1200W
Se hai un singolo connettore 8 pin mi sa che devi farti un cavo tu...
Per chi avesse i powerlink di EVGA invece può collegare lì fino a due cavi da 8 pin
Si ho appunto un alimentatore multi-rail e fin'ora le schede le ho collegate su più rail, per quello che non ho mai avuto problemi.
Ora dovrebbe essere collegato su una linea 12V - 30A che però alimenta tante altre cose, gli altri slot sono da 6 pin e non ho cavi adatti, comunque sarebbe difficile collegare più linee su un singolo slot di alimentazione.
Quello che cerco di dire è che prende tutto da una linea sola e probabilmente non ce la fa la scheda, non riesco a spiegarmelo in altro modo.
Domani comunque arriva l'alimentatore nuovo e spero di risolvere il problema, altrimenti rimane il possibile guasto alla scheda ma la vedo un'opzione remota.
Tanto comunque questo ce l'ho da più di 10 anni quindi ne ha fatta di strada.
mircocatta
31-01-2017, 19:49
Possibile, prima avevi circa 210-220W suddivisi tra due connettori da 150W, ora hai 140-150W erogati da un solo connettore da 150W ;)
la 1080 G1 non consuma 225 watt, sta a 192 watt (guru3d)
quindi mi sembra di capire che non è l'alimentatore che sta dando gli ultimi colpi no? semplicemente è sottodimensionato
la 1080 G1 non consuma 225 watt, sta a 192 watt (guru3d)
comunque boh, non ho ben capito se questa scheda la sta alimentando con un adattatore o se con un 8 pin nativo che esce dall'alimentatore, nel primo caso (e mi sembra di aver capito che sia così) ci sta che gli dia problemi
l'Enermax INFINITI 720W è un modulare, una prova in piu con un cavo 8 pin pci express diretto dall'alimentatore non farebbe male
Ho visto quella recensione ma ne ho guardate anche altre e ci sono diverse misure, comunque sia consuma meno della 780.
La alimento tramite un 6+2 che esce nativo dall'alimentatore ed è specifico per le VGA, ho poi altre due uscite da 6 pin con rispettivi cavi che non posso adattare.
Ho pure provato con un 6 pin da altra uscita più i 2 del nativo ottenendo gli stessi risultati.
Non so che dirvi, comunque male non mi fa cambiare alimentatore, così anche in futuro ho più cavi appositi e non devo ricorrere ad eventuali soluzioni secondarie.
L'altra possibilità è che la VGA sia guasta ma dalla mia esperienza non sembra comportarsi da VGA guasta, la temperatura rimane costante, le ventole funzionano bene, non vedo artefatti o cose simili, magari ha qualche componente che dopo un certo tempo di utilizzo provoca un drain di corrente di picco improvviso.
Non mi spiego però come abbia potuto giocare a TW3 per più di mezzora senza che succedesse nulla.
Insomma tutto può essere ma la cosa che mi pare più probabile è un problema di alimentazione che manda la PSU in protezione.
Altrimenti datemi voi qualche altro suggerimento.
la 1080 G1 non consuma 225 watt, sta a 192 watt (guru3d)
quindi mi sembra di capire che non è l'alimentatore che sta dando gli ultimi colpi no? semplicemente è sottodimensionato
Dato che hai modificato rispondo anche a questo: l'idea mia non è appunto quella che ci sia un guasto ma che sia un semplice problema di sotto-dimensionamento, nella stessa pagina in cui hai letto la potenza in fondo c'è scritto (postato qualche post addietro):
What could happen if your PSU can't cope with the load is:
Bad 3D performance
Crashing games
Spontaneous reset or imminent shutdown of the PC
Freezing during gameplay
PSU overload can cause it to break down
;)
\_Davide_/
31-01-2017, 20:18
Si infatti sono 3kw + il 10% (0,3 kW) per un totale di 3,3 kW. Se sali sopra il limite puoi starci solo per poco tempo, però io so fino a 4kW massimi.
Esatto, 3,3 KW continui, 4kW per 3 ore e oltre i 4 kW scatta entro 4 minuti
Si ho appunto un alimentatore multi-rail e fin'ora le schede le ho collegate su più rail, per quello che non ho mai avuto problemi.
Ora dovrebbe essere collegato su una linea 12V - 30A che però alimenta tante altre cose, gli altri slot sono da 6 pin e non ho cavi adatti, comunque sarebbe difficile collegare più linee su un singolo slot di alimentazione.
Ma nooo, allora non è l'alimentatore, anzi! É tutto assolutamente normale: nelle condizioni in cui su quel rail passi i 30A lui spegne il PC: normale funzionamento dei multi rail! ;)
Ti basta collegare la scheda su due rail... Il tuo alimentatore è perfettamente funzionante: i multi rail sono studiati per quello
P.S. Guardato ora i dati tecnici del tuo ali: hai due linee da 28A ed una da 30A...
Esatto, 3,3 KW continui, 4kW per 3 ore e oltre i 4 kW scatta entro 4 minuti
Ma nooo, allora non è l'alimentatore, anzi! É tutto assolutamente normale: nelle condizioni in cui su quel rail passi i 30A lui spegne il PC: normale funzionamento dei multi rail! ;)
Ti basta collegare la scheda su due rail... Il tuo alimentatore è perfettamente funzionante: i multi rail sono studiati per quello
P.S. Guardato ora i dati tecnici del tuo ali: hai due linee da 28A ed una da 30A...
Lo so che è funzionante, non penso sia guasto, so anche di avere due linee da 28A e una da 30.
Il problema si pone perché l'alimentatore fa quello che dovrebbe.
Il punto però è che la scheda ha un solo input da 8 pin, non so come metterci sopra due linee.
Ho provato ad usare entrambe gli slot (1 alla volta) da 6 pin e sommarci i 2 pin che stanno su cavo dedicato principale ma si continuava a presentare lo stesso problema. Non ho altri cavi che mi permettano di fare altrimenti e ovviamente andrebbero acquistati dei cavi ad hoc per quell'alimentatore.
Per essere sicuro ho comunque ritenuto più opportuno (data l'età dell'ali) prenderne uno nuovo.
Ho provato con tutte le soluzioni possibili al momento e ho dovuto prendere la decisione per sfruttare il fatto che domani non lavoro.
Spider-Mans
31-01-2017, 21:13
Che ali hai scelto?
Che ali hai scelto?
Come ho detto dato che era l'unico con prime su Amazon tra quelli che avevo selezionato grazie ai vostri consigli, ho preso l'EVGA G2 850W.
Legolas84
01-02-2017, 11:10
378.57 usciti....
http://nvidia.custhelp.com/app/answers/detail/a_id/4378
Come ho detto dato che era l'unico con prime su Amazon tra quelli che avevo selezionato grazie ai vostri consigli, ho preso l'EVGA G2 850W.
Vedrai che risolvi :sperem:
mircocatta
01-02-2017, 11:59
378.57 usciti....
http://nvidia.custhelp.com/app/answers/detail/a_id/4378
ma perchè non escono mai driver con scritto "+2% overall performance for gpu Pascal" :( mi mancano i tempi della 8800gt con driver continunamente magici :cry:
Legolas84
01-02-2017, 12:05
ma perchè non escono mai driver con scritto "+2% overall performance for gpu Pascal" :( mi mancano i tempi della 8800gt con driver continunamente magici :cry:
Per i driver magici hai sbagliato marchio :asd: questi si limitano a funzionare....
\_Davide_/
01-02-2017, 12:08
Beh, dai, magari li hanno ottimizzati al massimo già prima di rilasciarli :asd:
Spider-Mans
01-02-2017, 12:22
Come ho detto dato che era l'unico con prime su Amazon tra quelli che avevo selezionato grazie ai vostri consigli, ho preso l'EVGA G2 850W.
Il mio
Ottima scelta :oink: speriamo bene
Ricordati di registralo sul sito eu evga
COsi da estendere la garanzia..a 10 anni
Per i driver magici hai sbagliato marchio :asd: questi si limitano a funzionare....
LoL
Queste mese EVGA dovrebbe rilasciare la FTW2 ... e chi si è comprato la FTW1 che fa ? La piglia in quel posto ? :muro:
Queste mese EVGA dovrebbe rilasciare la FTW2 ... e chi si è comprato la FTW1 che fa ? La piglia in quel posto ? :muro:
Se la tiene ? Dove metterla credo resti a propria discrezione/gusto
\_Davide_/
01-02-2017, 12:43
Queste mese EVGA dovrebbe rilasciare la FTW2 ... e chi si è comprato la FTW1 che fa ? La piglia in quel posto ? :muro:
Se la vedi così continueranno sempre ad uscire nuovi prodotti... La scheda video diventa obsoleta nel momento in cui la compri :D Inutile farsi troppi pipponi mentali
Legolas84
01-02-2017, 12:45
Anche perchè è sempre una 1080.... quindi non capisco il problema :mbe: :fagiano:
E' evidente che non siete a conoscenza dei problemi che EVGA ha avuto con la FTW1 ... altrimenti certi commenti non li avreste fatti :rolleyes:
E' evidente che non siete a conoscenza dei problemi che EVGA ha avuto con la FTW1 ... altrimenti certi commenti non li avreste fatti :rolleyes:
Una manica d'ignoranti davvero!
mircocatta
01-02-2017, 12:50
e per di più è sempre una 1080 che murerà attorno ai 2100-2150 :asd: davvero non capisco questi pipponi mentali sulle custom :fagiano:
Una manica d'ignoranti davvero!
ma insomma ... sai cosa è successo o no ?
Legolas84
01-02-2017, 12:52
I problemi della FTW sono stati risolti aggiungendo un pad termico che è stato inviato agli utenti gratuitamente....
Ergo la FTW è una scheda che non ha problemi....
I problemi della FTW sono stati risolti aggiungendo un pad termico che è stato inviato agli utenti gratuitamente....
Ergo la FTW è una scheda che non ha problemi....
Però hanno preferito fare un redesing ... (cosa mai successa in 10 anni a questa parte in casa EVGA). Guarda un po' che caso ... :rolleyes:
Oh se non ci vedete nulla di strano, pazienza. Io so solo che la prossima volta sarà veramente molto, ma molto difficile che compri un'altra EVGA.
ma insomma ... sai cosa è successo o no ?
Prova cercare nel thread ed avrai la risposta.
Tornando al tuo punto originale, io userei del lubrificante, troppi spigoli vivi secondo me per fare a secco.
Legolas84
01-02-2017, 12:59
Però hanno preferito fare un redesing ... (cosa mai successa in 10 anni a questa parte in casa EVGA). Guarda un po' che caso ... :rolleyes:
Oh se non ci vedete nulla di strano, pazienza. Io so solo che la prossima volta sarà veramente molto, ma molto difficile che compri un'altra EVGA.
È un problema di surriscaldamento e si risolve con i pad termici forniti gratuitamente.... ora io non riesco a capire veramente che problema abbiano le FTW una volta installati i pad.... :fagiano:
È un problema di surriscaldamento e si risolve con i pad termici forniti gratuitamente.... ora io non riesco a capire veramente che problema abbiano le FTW una volta installati i pad.... :fagiano:
Chiedilo a loro. ti rigiro la domanda: se l'ACX 3.0 funzionasse cosi bene, perché far uscire un redesing in fretta e furia allora ?
Intanto il valore dell'usato della prima subirà un metto calo a causa dell'uscita del redesing. E tanto basta.
Legolas84
01-02-2017, 13:07
Chiedilo a loro. ti rigiro la domanda: se l'ACX 3.0 funzionasse cosi bene, perché far uscire un redesing in fretta e furia allora ?
Intanto il valore dell'usato della prima subirà un metto calo a causa dell'uscita del redesing. E tanto basta.
Ma hanno fatto un redesign del PCB? Hai mica un link con le info sulle differenze?
Ma hanno fatto un redesign del PCB? Hai mica un link con le info sulle differenze?
C'è da spettare che rilascino le info definitive. Jabob ha dato come ETA 1-2 settimane a partire da oggi.
per ora c'è solo questo:
http://www.evga.com/icx/
e il post di riferimento sul forum ufficiale
http://forums.evga.com/EVGA-GTX-1080-FTW2-with-iCX-cooling-m2601671.aspx
Legolas84
01-02-2017, 13:09
C'è da spettare che rilascino le info definitive. Jabob ha dato come ETA 1-2 settimane a partire da oggi.
per ora c'è solo questo:
http://www.evga.com/icx/
Allora aspettiamo le info definitive, ma secondo me il PCB sarà lo stesso e il dissi a parte quelle funzioni di dubbia utilità sarà uguale come prestazioni....
In pratica imho sarà una FTW1 con i pad....
Allora aspettiamo le info definitive, ma secondo me il PCB sarà lo stesso e il dissi a parte quelle funzioni di dubbia utilità sarà uguale come prestazioni....
In pratica imho sarà una FTW1 con i pad....
Dall'articolo di TechPowerUp
"- redesigned the PCBs ... from the ground up"
https://www.techpowerup.com/229354/evga-geforce-gtx-1080-and-gtx-1070-ftw2-and-sc2-graphics-cards-pictured
FTW1 costumers Beta testers confirmed ?
Ma ... io ho pagato però !
Va ancora tutto bene secondo te ?
Legolas84
01-02-2017, 13:19
dice "apparentemente" nell'articolo... per ora sono tutti rumor, staremo a vedere...
Ma comunque anche se fosse..... se la FTW1 con pad funziona bene io il problema non lo vedo se poi esce un'altra scheda....
Un conto sarebbe se la FTW1 ha problemi irrisolvibili e ti esce la FTW2.... ma se la 1 va, davvero mi sembrano tutte seghe mentali...
dice "apparentemente" nell'articolo... per ora sono tutti rumor, staremo a vedere...
Ma comunque anche se fosse..... se la FTW1 con pad funziona bene io il problema non lo vedo se poi esce un'altra scheda....
Un conto sarebbe se la FTW1 ha problemi irrisolvibili e ti esce la FTW2.... ma se la 1 va, davvero mi sembrano tutte seghe mentali...
Ma anche fosse, finche' ti supportano il vecchio prodotto come hanno fatto il problema non sussiste, possono farne anche 20 di versioni tutti diverse.
Fra l'altro anche con Maxwell avevano fatto diverse revision fra ACX, ACX 2.0 e cagate varie.
Della stessa generazione e migliorata sotto tutti i punti di vista ?
Significa che tutti i acquirenti della vecchia hanno fatto da beta tester ... e chi ha comprato la FTW1 ha comprato un prodotto "che funziona" ma che non è "ottimale". Devo continuare o si è capito dove voglio arrivare ? E ribadisco: la rivendibilità è compromessa al 100% ...
Tutte pippe ... a me pare che si manchi il punto invece.
Un conto sarebbe se la FTW1 ha problemi irrisolvibili e ti esce la FTW2.... ma se la 1 va, davvero mi sembrano tutte seghe mentali...
A casa mia avere i VRM con dissipazione passiva e senza contatto E' un problema irrisolvibile a cui, AL MASSIMO puoi mettere una pezza (con i pad termici, per l'appunto)
La nuova avrà invece una dissipazione attiva dei VRM ... mi pare un miglioramento mica di poco conto.
DarkMage74
01-02-2017, 13:24
dice "apparentemente" nell'articolo... per ora sono tutti rumor, staremo a vedere...
Ma comunque anche se fosse..... se la FTW1 con pad funziona bene io il problema non lo vedo se poi esce un'altra scheda....
Un conto sarebbe se la FTW1 ha problemi irrisolvibili e ti esce la FTW2.... ma se la 1 va, davvero mi sembrano tutte seghe mentali...
quoto, vedila come una rev. 2.0
Della stessa generazione e migliorata sotto tutti i punti di vista ?
Significa che tutti i acquirenti della vecchia hanno fatto da beta tester ... e chi ha comprato la FTW1 ha comprato un prodotto "che funziona" ma che non è "ottimale". Devo continuare o si è capito dove voglio arrivare ? E ribadisco: la rivendibilità è compromessa al 100% ...
Tutte pippe ... a me pare che si manchi il punto invece.
Come quando esce la nuova revision di una mobo, di una PSU, di una macchina etc.
Benvenuto sul pianeta terra.
nickname88
01-02-2017, 13:28
Della stessa generazione e migliorata sotto tutti i punti di vista ?
Significa che tutti i acquirenti della vecchia hanno fatto da beta tester ... e chi ha comprato la FTW1 ha comprato un prodotto "che funziona" ma che non è "ottimale". Devo continuare o si è capito dove voglio arrivare ? E ribadisco: la rivendibilità è compromessa al 100% ...
Tutte pippe ... a me pare che si manchi il punto invece.
Questo è il motivo per cui ho chiesto se con l'uscita di queste versioni 2 poi potevi dare indietro la 1 in possesso e fartela cambiare.
Come quando esce la nuova revision di una mobo, di una PSU, di una macchina etc.
Benvenuto sul pianeta terra.
Questa non è una revision ma un redesing.
Questa non è una revision ma un redesing.
Puoi chiamarla come vuoi, il risultato non cambia.
PS Eventualmente se vuoi parlare in inglese e' redesign comunque
Puoi chiamarla come vuoi, il risultato non cambia.
Cambia eccome.
La prima prevede solo un affinamento del processo produttivo del prodotto senza cambiarne feature. Qualitativamente il prodotto rimane lo stesso. Il nome non cambia.
Nel secondo caso invece le feature ed i connotati del prodotto cambiano parzialmente o del tutto modificandone i connotati tanto da doverne cambiare addirittura il nome.
la FTW1 è riultata subpar e sono dovuti correre ai ripari. Simple as that.
Questo è il motivo per cui ho chiesto se con l'uscita di queste versioni 2 poi potevi dare indietro la 1 in possesso e fartela cambiare.
dubito fortemente.
Vedremo.
Cambia eccome.
La prima prevedere solo un affidamento del processo produttivo del prodotto senza cambiarne feature. Qualitativamente il prodotto rimane lo stesso. Il nome non cambia.
Nel secondo caso invece le feature ed i connotati del prodotto cambiano parzialmente o del tutto modificandone i connotati tanto da doverne cambiare addirittura il nome.
la FTW1 è riultata subpar e sono dovuti correre ai ripari. Simple as that.
Talmente simple che te la tieni :D
"prevedere affidamento del processo produttivo"
Comunque chiudo mi son fatto due risate devo lavorare adesso, grazie per le perle :)
Non riesco a comprendere il senso delle tue risposte se non quello di infastidire l'interlocutore ...
:rolleyes:
Vedrai che risolvi :sperem:
Il mio
Ottima scelta :oink: speriamo bene
Ricordati di registralo sul sito eu evga
COsi da estendere la garanzia..a 10 anni
Alimentatore montato, provato heaven su profilo Gaming e OC e tutto liscio come l'olio.
Provato JC3 su profilo OC (quindi con la scheda al massimo) e tutto su ultra per un bel po' dove mi crashava e anche oltre, tutto liscio come l'olio, nessun problema di sorta, nessun crash e nessuno spegnimento.
Mi riservo di fare altri test ma direi che era l'alimentazione, ringrazio tantissimo tutti dell'aiuto e dei consigli che mi avete dato, perdonate se ho monopolizzato il thread per un po' ma alla fine i forum servono anche a questo. :)
Alimentatore montato, provato heaven su profilo Gaming e OC e tutto liscio come l'olio.
Provato JC3 su profilo OC (quindi con la scheda al massimo) e tutto su ultra per un bel po' dove mi crashava e anche oltre, tutto liscio come l'olio, nessun problema di sorta, nessun crash e nessuno spegnimento.
Mi riservo di fare altri test ma direi che era l'alimentazione, ringrazio tantissimo tutti dell'aiuto e dei consigli che mi avete dato, perdonate se ho monopolizzato il thread per un po' ma alla fine i forum servono anche a questo. :)
Ottimo, considera che 10 anni son tanti per una PSU e ha gia' fatto un lavorone, i condensatori elettrolitici (credo si chiamino cosi' in Italiano) sono fra le cose che si consumano di piu' nel tempo dentro una PSU, nel tuo caso poi avevi anche il discorso del multirail.
Cambia eccome.
La prima prevede solo un affinamento del processo produttivo del prodotto senza cambiarne feature. Qualitativamente il prodotto rimane lo stesso. Il nome non cambia.
Nel secondo caso invece le feature ed i connotati del prodotto cambiano parzialmente o del tutto modificandone i connotati tanto da doverne cambiare addirittura il nome.
la FTW1 è riultata subpar e sono dovuti correre ai ripari. Simple as that.
dubito fortemente.
Vedremo.
io ho la ftw, la rev.1 e me la tengo cara cara, non ho problemi di temp e mi tiene egregiamente i 2100/9000. Ho i pad inviatemi da evg il mese scorso, se ho voglia li metto, altrimenti prossimo anno la rivendo con i pad vergini.
Simple.
Ottimo, considera che 10 anni son tanti per una PSU e ha gia' fatto un lavorone, i condensatori elettrolitici (credo si chiamino cosi' in Italiano) sono fra le cose che si consumano di piu' nel tempo dentro una PSU, nel tuo caso poi avevi anche il discorso del multirail.
Si infatti anche se non era una spesa preventivata e già ho fatto una spesa alta per monitor e vga sono comunque contento di aver risolto il problema e di aver cambiato PSU.
L'altro come dici ha lavorato tanto e pensandoci bene forse sono a più di 10 anni perché mi sa che ce l'ho anche dal 2005 o dal 2004, non ricordo esattamente, è stato un grande alimentatore, aveva anche la funzione coolguard che non credo questo attuale abbia.
Probabilmente sarebbe comunque andato avanti ancora ma c'è anche la possibilità che fosse fonte di altri tanti piccoli problemucci che ogni tanto avevo e che magari non collegavo all'alimentazione.
Ora posso pensare alla futura motherboard, CPU e ram (più in là però). :D
Farò sicuramente altri test ma già da quello che ho visto il problema è sparito.
Alimentatore montato, provato heaven su profilo Gaming e OC e tutto liscio come l'olio.
Provato JC3 su profilo OC (quindi con la scheda al massimo) e tutto su ultra per un bel po' dove mi crashava e anche oltre, tutto liscio come l'olio, nessun problema di sorta, nessun crash e nessuno spegnimento.
Mi riservo di fare altri test ma direi che era l'alimentazione, ringrazio tantissimo tutti dell'aiuto e dei consigli che mi avete dato, perdonate se ho monopolizzato il thread per un po' ma alla fine i forum servono anche a questo. :)
:cincin:
TigerTank
01-02-2017, 16:44
Puoi chiamarla come vuoi, il risultato non cambia.
PS Eventualmente se vuoi parlare in inglese e' redesign comunque
Più che altro...è stato già ampiamente dimostrato che mancando bios modding e resa in overvolt queste schede sono grossomodo tutte allineate, con differenze visibili solo liquidando e cioè eliminando i vari tagli da temperatura. Per cui...pcb ridisegnato significa poco o nulla e come già detto il "non problema" di cui si parlava è stato risolto con i pad...anche se in verità TUTTE le precedenti EVGA ACX hanno sempre avuto le induttanze scoperte.
Probabilmente arrivano queste FTW2 per dare un'apparente ventata di novità, magari anche perchè le 1080 Classified a questo giro sono praticamente invisibili(e inutili) :sofico:
\_Davide_/
01-02-2017, 17:58
Oh se non ci vedete nulla di strano, pazienza. Io so solo che la prossima volta sarà veramente molto, ma molto difficile che compri un'altra EVGA.
Intanto se ti si brucia la FTW1 in 3 (o 5, o 10 anni se hai fatto l'estensione) sicuramente te la sostituiscono e magari ti ritrovi pure con una FTW 2... Se ti parte una Asus dopo due anni... Tanti saluti :asd:
Mi riservo di fare altri test ma direi che era l'alimentazione, ringrazio tantissimo tutti dell'aiuto e dei consigli che mi avete dato, perdonate se ho monopolizzato il thread per un po' ma alla fine i forum servono anche a questo. :)
Si ma... non buttarlo il vecchio, che funziona benissimo ;)
i condensatori elettrolitici (credo si chiamino cosi' in Italiano) sono fra le cose che si consumano di piu' nel tempo dentro una PSU, nel tuo caso poi avevi anche il discorso del multirail.
Massì, i condensatori si cambiano (sopratutto sulle PSU vecchie)... Il multirail è un punto a favore sulle medio-grandi potenze
Puoi chiamarla come vuoi, il risultato non cambia.
PS Eventualmente se vuoi parlare in inglese e' redesign comunque
Come quando esce la nuova revision di una mobo, di una PSU, di una macchina etc.
Benvenuto sul pianeta terra.
Talmente simple che te la tieni :D
"prevedere affidamento del processo produttivo"
Comunque chiudo mi son fatto due risate devo lavorare adesso, grazie per le perle :)
Quanto sarcasmo inutile.. attaccare ed irridere gli utenti, oltretutto in modo così sterile, non serve davvero a nessuno.. e guarda caso è anche vietato dal regolamento
sospeso 7gg
>bYeZ<
Si ma... non buttarlo il vecchio, che funziona benissimo ;)
Si tranquillo, non butto via nulla. :)
\_Davide_/
01-02-2017, 18:38
Si tranquillo, non butto via nulla. :)
Più che altro ne parlavano come se fosse danneggiato... E così non è... ;)
Questa non è una revision ma un redesing.
Stavo per prendere la OCX 3.0 poi per fortuna sono venuto a conoscenza della revisione V2 e ho mollato tutto. Mi ricorda i tempi in cui stetti per prendere la P8P67 ma che bloccai in tempo quando venne fuori il problema al controller sata2 e fecero la revision 3.1 (quella che ho ancora ora).
Nel frattempo è uscita la KFA2 (o Galax in oriente) GTX 1070 OC Mini, ci andavo dietro da un pò, alla fine ho preso quella dopo che ho letto buone preview sui siti coreani e costa davvero poco (dai 390 ai 405 €), temperature basse a 1080p nonostante sia lunga solo 20 cm e pure occata di fabbrica, il dissipatore completamente in alluminio evidentemente è buona cosa. La scheda perfetta per il mio piccolo case (e finalmente mi libero della Gigabyte GTX 670 che cozza contro il vano dell'hard disk) e il mio venerando monitor a 60 Hz mwa.
Credo di essere il primo in italia ad averla presa, farò da cavia e speriamo sia buona come dicono (https://bbs.danawa.com/view?boardSeq=28&listSeq=3325234). :D
Più che altro ne parlavano come se fosse danneggiato... E così non è... ;)
No, e allora perché si spegneva ?
\_Davide_/
01-02-2017, 20:01
No, e allora perché si spegneva ?
Perchè è un'alimentatore multi rail con i due rail da 28A per le schede video. Il ragazzo in questione ne usava soltato uno ed ha dichiarato che la sua scheda video ha un assorbimento massimo di 33A.
I multi rail sono studiati apposta per effettuare l'interruzione di alimentazione non appena si supera la soglia impostata quindi è tutto assolutamente normale.
Non succedeva nei bench perchè evidentemente non raggiungeva il consumo massimo o la particolare condizione che le faceva passare i 28A.
Perchè è un'alimentatore multi rail con i due rail da 28A per le schede video. Il ragazzo in questione ne usava soltato uno ed ha dichiarato che la sua scheda video ha un assorbimento massimo di 33A.
I multi rail sono studiati apposta per effettuare l'interruzione di alimentazione non appena si supera la soglia impostata quindi è tutto assolutamente normale.
Non succedeva nei bench perchè evidentemente non raggiungeva il consumo massimo o la particolare condizione che le faceva passare i 28A.
33A sono 400W, come fa una scheda ad arrivare a 400W senza che il power limit intervenga ?
Inoltre, la protezione da sovracorrente su quell'ali è superiore ai dati di targa, tant'è che jonnyguru nella review l'ha portato ad erogare 34A sulla singola linea
Above is a picture of the label showing the DC output distribution. The label says that each +12V rail is limited to 28A, 28A, and 30A; but I managed to put a 34A load on a single connector. So either the OCP (Over Current Protection) is set significantly higher than what the label shows or there is no OCP.
Perchè è un'alimentatore multi rail con i due rail da 28A per le schede video. Il ragazzo in questione ne usava soltato uno ed ha dichiarato che la sua scheda video ha un assorbimento massimo di 33A.
I multi rail sono studiati apposta per effettuare l'interruzione di alimentazione non appena si supera la soglia impostata quindi è tutto assolutamente normale.
Non succedeva nei bench perchè evidentemente non raggiungeva il consumo massimo o la particolare condizione che le faceva passare i 28A.
33A sono 400W, come fa una scheda ad arrivare a 400W senza che il power limit intervenga ?
Inoltre, la protezione da sovracorrente su quell'ali è superiore ai dati di targa, tant'è che jonnyguru nella review l'ha portato ad erogare 34A sulla singola linea
Ho detto 33A perché me l'ha detto chi mi ha venduto la scheda, però purtroppo non sono riuscito a trovare dei datasheet con i dati relativi per avere una conferma.
Una cosa è sicura: la 780 consumava di più ma aveva due 8 pin per l'alimentazione e non avevo problema alcuno, la scheda funzionava perfettamente, questa invece ne ha solo uno e mi dava questo problema.
Una spiegazione potrebbe essere dovuta al fatto che probabilmente sulla stessa linea pesavano altre cose come la CPU o il raffreddamento a liquido, quindi era il complessivo di diversi assorbimenti che probabilmente insieme alla VGA creavano un overload sull'alimentatore.
Probabile è anche il fatto che abbia partecipato l'età di alcuni componenti che hanno contribuito ad un'efficienza più bassa di quella che avrebbe avuto da nuovo.
Ho detto 33A perché me l'ha detto chi mi ha venduto la scheda, però purtroppo non sono riuscito a trovare dei datasheet con i dati relativi per avere una conferma.
Una cosa è sicura: la 780 consumava di più ma aveva due 8 pin per l'alimentazione e non avevo problema alcuno, la scheda funzionava perfettamente, questa invece ne ha solo uno e mi dava questo problema.
Una spiegazione potrebbe essere dovuta al fatto che probabilmente sulla stessa linea pesavano altre cose come la CPU o il raffreddamento a liquido, quindi era il complessivo di diversi assorbimenti che probabilmente insieme alla VGA creavano un overload sull'alimentatore.
Si effettivamente se il pci-e è sulla 28A-330W, la scheda se ne prende 150, e la cpu e altro più di 180 la linea va in sovracorrente, per curiosità, la percentuale di uso della cpu con JC3 è più alta rispetto a TW3 ?
mircocatta
02-02-2017, 09:09
Per i driver magici hai sbagliato marchio :asd: questi si limitano a funzionare....
funzionare male forse intendi? :asd: la metà va scartata perchè migliorano una cosa e ne peggiora altre 2 :asd: non a caso molti utenti non cambiano più i driver "per paura che.." , basta leggere qua dentro! che poi, se non fanno più driver miracolosi è anche giusto non aggiornarli mai, se non in casi davvero necessari (cioè che gioco X ha pesanti problemi di driver, ma queste cose sono davvero rare in casa nvidia(sli a parte), è più un problema di AMD)
Legolas84
02-02-2017, 10:04
funzionare male forse intendi? :asd: la metà va scartata perchè migliorano una cosa e ne peggiora altre 2 :asd: non a caso molti utenti non cambiano più i driver "per paura che.." , basta leggere qua dentro! che poi, se non fanno più driver miracolosi è anche giusto non aggiornarli mai, se non in casi davvero necessari (cioè che gioco X ha pesanti problemi di driver, ma queste cose sono davvero rare in casa nvidia(sli a parte), è più un problema di AMD)
Sisi infatti, adesso non so bene come fare..... forse provo ad andare direttamente senza driver che probabilmente va meglio, poi appena esce VEGA provo a installare quelli AMD così magari la 1080 si trasforma in una AMD e finalmente sono apposto. Anche perchè ho sentito che siccome AMD è anche brava se faccio così mentre sono collegato a internet loro lo rilevano e mi mandano anche un'altra VEGA e posso fare il crossfire e allora poi apu mi invita pure ai festini e allora libidineeeeeeee :asd:
Si effettivamente se il pci-e è sulla 28A-330W, la scheda se ne prende 150, e la cpu e altro più di 180 la linea va in sovracorrente, per curiosità, la percentuale di uso della cpu con JC3 è più alta rispetto a TW3 ?
Non ho fatto caso all'utilizzo di cpu più di tanto in questi test, con TW3 non ricordo, con JC3 mi pare si fosse tra il 60% e il 70%.
\_Davide_/
02-02-2017, 10:59
Inoltre, la protezione da sovracorrente su quell'ali è superiore ai dati di targa, tant'è che jonnyguru nella review l'ha portato ad erogare 34A sulla singola linea
Non è detto che siano tutti uguali... I multi rail dovrebbero essere studiati per non essere "ignoranti" e limitare i danni in caso di problemi alle schede, cortocircuiti, vite che cade nel case, ecc... Quindi è importante la rapidità... Magari il gioco in questione creava dei picchi di assorbimento, o delle condizioni anomale che facevano intervenire il dispositivo di protezione... Dopotutto se è una PSU di 10 anni fa non ci si può aspettare che funzioni perfettamente con i componenti odierni ;)
Secondo me è ancora sano, o ha qualche condensatore andato al massimo... Ma i vecchi sono quasi indistruttibili! Chiudo OT :fagiano:
mircocatta
02-02-2017, 12:13
Sisi infatti, adesso non so bene come fare..... forse provo ad andare direttamente senza driver che probabilmente va meglio, poi appena esce VEGA provo a installare quelli AMD così magari la 1080 si trasforma in una AMD e finalmente sono apposto. Anche perchè ho sentito che siccome AMD è anche brava se faccio così mentre sono collegato a internet loro lo rilevano e mi mandano anche un'altra VEGA e posso fare il crossfire e allora poi apu mi invita pure ai festini e allora libidineeeeeeee :asd:
non sei contento neanche se tra le righe scrivo un complimento al lavoro nvidia :D
bagnino89
02-02-2017, 12:21
Scherzi a parte, negli ultimi tempi Nvidia sta facendo più casino coi driver che altro. E tolte le prime release dopo l'uscita di una nuova serie di GPU, le prestazioni non hanno miglioramenti degni di nota.
Far uscire driver specifici per ogni nuovo gioco è solo una trovata commerciale secondo me, da parte mia posso dire che miglioramenti tangibili nell'usare driver più recenti o driver più vecchi (più vecchi anche di un gioco in esame) non apporta vantaggi aggiuntivi in termini di stabilità/prestazioni, anzi...
athlon xp 2400
02-02-2017, 12:24
Io da quando ho Pascal ho avuto un sacco di problemi che con le maxwell nn avevo
Legolas84
02-02-2017, 12:46
Scherzi a parte, negli ultimi tempi Nvidia sta facendo più casino coi driver che altro. E tolte le prime release dopo l'uscita di una nuova serie di GPU, le prestazioni non hanno miglioramenti degni di nota.
Far uscire driver specifici per ogni nuovo gioco è solo una trovata commerciale secondo me, da parte mia posso dire che miglioramenti tangibili nell'usare driver più recenti o driver più vecchi (più vecchi anche di un gioco in esame) non apporta vantaggi aggiuntivi in termini di stabilità/prestazioni, anzi...
Se si vuole fare un discorso serio ok... se si vuole far credere invece che AMD sia meglio di NVIDIA come driver allora le mie risposte sono quelle che ho dato sopra...
Parlando seriamente, qualche problema in più che con Maxwell c'è stato, soprattutto in SLI, ma tutte cose minori e facilmente risolvibili... almeno nei giochi a cui ho giocato io. Non si parla certo di black screen o di stuttering galoppante (a parte athlon che ha il pc posseduto)...
Però è ovvio appena è NVIDIA ad avere qualche piccolo problema (cosa che ho sottolineato anche io una decina di giorni fa) diventa un caso mediatico e automaticamente per alcuni AMD diventa addirittura meglio... è questo che trovo ridicolo....
Inviato dal mio iPhone utilizzando Tapatalk Pro
Io da quando ho Pascal ho avuto un sacco di problemi che con le maxwell nn avevo
Io ho venduto tutto e mi son fatto una vga media con freesync e stop
bagnino89
02-02-2017, 14:23
Se si vuole fare un discorso serio ok... se si vuole far credere invece che AMD sia meglio di NVIDIA come driver allora le mie risposte sono quelle che ho dato sopra...
Parlando seriamente, qualche problema in più che con Maxwell c'è stato, soprattutto in SLI, ma tutte cose minori e facilmente risolvibili... almeno nei giochi a cui ho giocato io. Non si parla certo di black screen o di stuttering galoppante (a parte athlon che ha il pc posseduto)...
Però è ovvio appena è NVIDIA ad avere qualche piccolo problema (cosa che ho sottolineato anche io una decina di giorni fa) diventa un caso mediatico e automaticamente per alcuni AMD diventa addirittura meglio... è questo che trovo ridicolo....
Inviato dal mio iPhone utilizzando Tapatalk Pro
No ma infatti sono d'accordo con te. Quando hai scritto "black screen" mi hai rievocato bruttissimi ricordi con la 7870 che avevo... Fortuna riuscii a venderla senza perderci troppo.
No ma infatti sono d'accordo con te. Quando hai scritto "black screen" mi hai rievocato bruttissimi ricordi con la 7870 che avevo... Fortuna riuscii a venderla senza perderci troppo.
mi hai rifatto venire l'ulcera vedendo il numero 7870, perchè mi fai ricordare quella di un amico, 7850 che cambiammo 3 volte.
bagnino89
02-02-2017, 14:39
Black screen anche lui? Scusate l'ot ma sono troppo curioso.
Black screen anche lui? Scusate l'ot ma sono troppo curioso.
black screen, freeze audio, di tutto e di più e non solo in full, ma poteva capitare in qualsiasi situazione anche a distanza di molte ore. Cambiò anche alimentatore. Alla fine prese una 280 perchè molto scontata. Con questa i black forse un paio in 2 anni
bagnino89
02-02-2017, 15:09
Assurdo... Dopo la 7870 presi una 660 e mai un problema, idem con l'attuale 970... Scusate ot
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.