PDA

View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 [52] 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95

Cutter90
08-05-2021, 22:45
chi mi aiuta con le impostazioni di metro exodus enhanced con una 3070, voi hairworks e physx lo attivate? io ho attivo entrambe, poi perché il vrs posso scegliere solo 2x e 4x e 1x no, al primo avvio mi risultava anche 1x poi ho giocato un po' con le impostazioni e non riesco più ad attivarlo, comunque gioco a 1440 con v-sync attivato quindi fisso a 60fps

Se vuoi giocare in 1440p togli il VRS e attica tutto al max, con dlss qualità. Rt incluso. Vedi come vai

wulff73
08-05-2021, 22:52
chi mi aiuta con le impostazioni di metro exodus enhanced con una 3070, voi hairworks e physx lo attivate? io ho attivo entrambe, poi perché il vrs posso scegliere solo 2x e 4x e 1x no, al primo avvio mi risultava anche 1x poi ho giocato un po' con le impostazioni e non riesco più ad attivarlo, comunque gioco a 1440 con v-sync attivato quindi fisso a 60fps

Monitor a frequenza fissa o variabile? Se hai un monitor sync disattiva il v-sync a meno che tu non voglia un frame rate fisso a 60.

amon.akira
08-05-2021, 23:09
madonna resident evil 8...in una scena per stare nel cap pl di 350w l ho messa a 1920mhz 0.875v altrimenti con il mio setting abituale (2010 0.937v) mi segava maggiormente e peggioravo le prestazioni paradossalmente.

Arrow0309
09-05-2021, 01:33
madonna resident evil 8...in una scena per stare nel cap pl di 350w l ho messa a 1920mhz 0.875v altrimenti con il mio setting abituale (2010 0.937v) mi segava maggiormente e peggioravo le prestazioni paradossalmente.

PL max @430W io per avere i 2070 rocciosi :p
Memoria a 21k

3440x1440 con l'immagine ad 1.2

Vash88
09-05-2021, 01:45
madonna resident evil 8...in una scena per stare nel cap pl di 350w l ho messa a 1920mhz 0.875v altrimenti con il mio setting abituale (2010 0.937v) mi segava maggiormente e peggioravo le prestazioni paradossalmente.

Questi sono i miei risultati in Cyberpunk con RT Psycho+DLSS quality e framerate illimitato in 4k. Ovviamente mettendo il framerate bloccato a 60 FPS e settaggi "Umani" i risultati sono migliori ma non realistici. Cap a 370W.

Voltaggi Frequenze Risultato
1.000 2070 pwr limit
0.975 2070 crash
0.993 2070 pwr limit
0.981 2040 pwr limit
0.975 2040 crash
0.975 2040 pwr limit
0.975 2025 pwr limit
0.968 2025 pwr limit
0.962 2025 pwr limit
0.956 2025 pwr limit
0.950 2025 pwr limit
0.950 2010 pwr limit/temp
0.937 2025 crash
0.943 2025 pwr limit
0.937 2010 pwr limit
0.925 2010 crash
0.925 1995 crash
0.925 1980 Pass (troppo vicino a PL e temperature alte)
0.900 1980 crash
0.900 1950 pass

terranux
09-05-2021, 11:39
Per cambiarlo con uno di un'altro modello

https://www.reddit.com/r/ZOTAC/comments/j6aqys/guide_how_to_flash_a_different_bios/

nickname88
09-05-2021, 13:08
Questi sono i miei risultati in Cyberpunk con RT Psycho+DLSS quality e framerate illimitato in 4k. Ovviamente mettendo il framerate bloccato a 60 FPS e settaggi "Umani" i risultati sono migliori ma non realistici. Cap a 370W.

Voltaggi Frequenze Risultato
1.000 2070 pwr limit
0.975 2070 crash
0.993 2070 pwr limit
0.981 2040 pwr limit
0.975 2040 crash
0.975 2040 pwr limit
0.975 2025 pwr limit
0.968 2025 pwr limit
0.962 2025 pwr limit
0.956 2025 pwr limit
0.950 2025 pwr limit
0.950 2010 pwr limit/temp
0.937 2025 crash
0.943 2025 pwr limit
0.937 2010 pwr limit
0.925 2010 crash
0.925 1995 crash
0.925 1980 Pass (troppo vicino a PL e temperature alte)
0.900 1980 crash
0.900 1950 pass
Scusa hai il cap a 370W e li raggiungi senza problemi, ed usi un SFX 600W per gestire tutto il sistema ?
Ma non scalda l'alimentatore ?

Zappz
09-05-2021, 13:29
https://www.reddit.com/r/ZOTAC/comments/j6aqys/guide_how_to_flash_a_different_bios/

Grande, grazie mille! :)

Gigibian
09-05-2021, 13:42
Performance in linea secondo voi?

vimeo.com/547115076

Vash88
09-05-2021, 15:05
Scusa hai il cap a 370W e li raggiungi senza problemi, ed usi un SFX 600W per gestire tutto il sistema ?
Ma non scalda l'alimentatore ?

Mettendo uno scenario massimo fai 370W+90 della CPU in overclock e aggiungine 50 tra tutto il resto arrivo a malapena a 520W di picco. Generalmente con FPS bloccati a 60 sta intorno ai 300-320W, quindi per la maggiorparte del tempo il sistema è sui 450W dove ha un efficenza del 93% e rimane tra i 25 e i 30 dba. Ho anche preso i tripli cavi PCI-E per mettere su la strix ma alla fine non l'ho trovata. Ovviamente non mi spingerei sopra i 550W giusto per lasciare un po' di margine.

https://www.youtube.com/watch?v=Bdohv96uGLw

Cutter90
09-05-2021, 15:57
Mettendo uno scenario massimo fai 370W+90 della CPU in overclock e aggiungine 50 tra tutto il resto arrivo a malapena a 520W di picco. Generalmente con FPS bloccati a 60 sta intorno ai 300-320W, quindi per la maggiorparte del tempo il sistema è sui 450W dove ha un efficenza del 93% e rimane tra i 25 e i 30 dba. Ho anche preso i tripli cavi PCI-E per mettere su la strix ma alla fine non l'ho trovata. Ovviamente non mi spingerei sopra i 550W giusto per lasciare un po' di margine.

https://www.youtube.com/watch?v=Bdohv96uGLw
Ma te la butto li... cambiare alimentatore?

Vash88
09-05-2021, 16:03
Funziona perfettamente, perché cambiare :stordita: ho almeno 100W di margine

Cutter90
09-05-2021, 16:08
Funziona perfettamente, perché cambiare :stordita: ho almeno 100W di margine

Se non ti vuoi spingere sopra i 550 watt significa che stai limitando le performance per via dell ali. Infatti per la 3080 non è consigliato un 600 watt

Gigibian
09-05-2021, 16:44
Mettendo uno scenario massimo fai 370W+90 della CPU in overclock e aggiungine 50 tra tutto il resto arrivo a malapena a 520W di picco. Generalmente con FPS bloccati a 60 sta intorno ai 300-320W, quindi per la maggiorparte del tempo il sistema è sui 450W dove ha un efficenza del 93% e rimane tra i 25 e i 30 dba. Ho anche preso i tripli cavi PCI-E per mettere su la strix ma alla fine non l'ho trovata. Ovviamente non mi spingerei sopra i 550W giusto per lasciare un po' di margine.

https://www.youtube.com/watch?v=Bdohv96uGLw


Non funziona così semplicemente purtroppo.
Il conto semplice che hai fatto tu é fatto considerando i consumi medi.

Purtroppo le schede video e CPU hanno dei consumi di picco (2-50 millisecondi) molto più alti. Una GPU che consuma mediamente 300W ha dei picchi fino a 450W.
Questi picchi un alimentatore riesce a gestirli, però dovresti guardare bene le specifiche dichiarate dall'alto sui valori di picco per capire se sei dentro o meno.
In generale l'alimentatore si sovradimensiona sempre un po'per stare tranquilli. Alcuni crash in overlock che hai, magari con un alimentatore più potente non li avresti.

Inoltre, non é consigliabile per un alimentatore lavorare molto vicino alla massima potenza. Si consiglia sempre di stare sotto l'80%.

Insomma: se vuoi stare tranquillo o analizzi i consumi di picco del tuo PC, oppure come ti hanno consigliato gli altri sovradimensiona un po'l'alimentatore.

Salfox
09-05-2021, 16:53
Funziona perfettamente, perché cambiare :stordita: ho almeno 100W di margine

E' proprio il caso di dirlo, hai una Ferrari con il motore di una 500 e non mi sembra una gran scelta sinceramente.
Sulla scatola della mia strix 3090 è consigliato un alimentatore da almeno 750w, per la 3080 presumo non sia tanto diverso quindi sei molto sotto i requisiti consigliati.

Vash88
09-05-2021, 17:35
https://www.igorslab.de/wp-content/uploads/2020/09/03-Power-Conumption.png
https://www.igorslab.de/wp-content/uploads/2020/09/04-Peak-Power.png

I picchi sotto il singolo ms possono essere ignorati. La scheda è costantentemente undervoltata e la prima cosa che entra in crisi è il raffreddamento. Se avessi liquido + shunt mod e un terzo attacco PCI-e allora si mi servirebbe un alimentatore migliore ma non è il mio utilizzo. Il sistema è perfettamente stabile nell'uso quotidiano e prolungato. Non ho mai avuto shutdown causati dall'alimentatore entrato in protezione. L'SF600 è un design monorail estremamente robusto. A volte leggendo questo forum c'è chi pensa che un alimentatore da 600W sia insufficiente per una scheda come la 3080 a prescindere. Il 3600 consuma davvero niente.

Currently the SF600 Platinum is the best SFX unit that money can buy today. It sports super tight load regulation, high efficiency, good transient response, clean voltage rails and the cherry on top is the quiet operation even under extremely tough conditions. Moreover, its build quality is top-notch and it is covered by a seven year warranty.
https://www.igorslab.de/en/nvidia-geforce-rtx-3080-founders-edition-review-a-great-step-ahead-and-the-gravestone-for-turing/12/

Gigibian
09-05-2021, 18:31
Non funziona così semplicemente purtroppo.
Il conto semplice che hai fatto tu é fatto considerando i consumi medi.

Purtroppo le schede video e CPU hanno dei consumi di picco (2-50 millisecondi) molto più alti. Una GPU che consuma mediamente 300W ha dei picchi fino a 450W.
Questi picchi un alimentatore riesce a gestirli, però dovresti guardare bene le specifiche dichiarate dall'alto sui valori di picco per capire se sei dentro o meno.
In generale l'alimentatore si sovradimensiona sempre un po'per stare tranquilli. Alcuni crash in overlock che hai, magari con un alimentatore più potente non li avresti.

Inoltre, non é consigliabile per un alimentatore lavorare molto vicino alla massima potenza. Si consiglia sempre di stare sotto l'80%.

Insomma: se vuoi stare tranquillo o analizzi i consumi di picco del tuo PC, oppure come ti hanno consigliato gli altri sovradimensiona un po'l'alimentatore.

https://www.igorslab.de/wp-content/uploads/2020/09/03-Power-Conumption.png
https://www.igorslab.de/wp-content/uploads/2020/09/04-Peak-Power.png

I picchi sotto il singolo ms possono essere ignorati. La scheda è costantentemente undervoltata e la prima cosa che entra in crisi è il raffreddamento. Se avessi liquido + shunt mod e un terzo attacco PCI-e allora si mi servirebbe un alimentatore migliore ma non è il mio utilizzo. Il sistema è perfettamente stabile nell'uso quotidiano e prolungato. Non ho mai avuto shutdown causati dall'alimentatore entrato in protezione. L'SF600 è un design monorail estremamente robusto. A volte leggendo questo forum c'è chi pensa che un alimentatore da 600W sia insufficiente per una scheda come la 3080 a prescindere. Il 3600 consuma davvero niente.


https://www.igorslab.de/en/nvidia-geforce-rtx-3080-founders-edition-review-a-great-step-ahead-and-the-gravestone-for-turing/12/

Perfetto. Andando in ordine:

- La citazione che riporti della bontà dell'SFX600, è relativa ad una recensione di KitGuru, non c'entra niente con l'articolo sul consumo della 3080 FE. Lo specifico solo perchè come l'hai messa tu sembrerebbe che l'articolo consigli l'SFX600 (che è sicuramente un ottimo ali) per la 3080, ma non è così.

- Citando una parte dell'articolo che tu stesso citi di "igorslab":
"Peaks with intervals between 1 and 10 ms can lead to shutdowns in very fast reacting protective circuits (OPP, OCP), especially in multi-rail power supplies, although the average power consumption is still within the standard. For this card, I would therefore calculate at least 430 bsi 450 watts for the normal OC with up to 370 watts as the power limit as the graphics card load in proportion to the total secondary power consumption of the system".
Quindi vedi, come ti dicevo, se vuoi divertirti in OC devi considerare almeno 450W per la sola scheda video.

- A quanto sopra devi aggiungere assorbimento della CPU ed altre componenti: i 90W di TDP nominale non c'entrano nulla con il valore reale.

Alla fin fine: il PC funziona, ma stai facendo lavorare l'alimentatore al limite e sicuramente sei limitato in OC.

Con 100 euro di spesa risolvi, perchè rischiare?

Cutter90
09-05-2021, 19:46
Perfetto. Andando in ordine:

- La citazione che riporti della bontà dell'SFX600, è relativa ad una recensione di KitGuru, non c'entra niente con l'articolo sul consumo della 3080 FE. Lo specifico solo perchè come l'hai messa tu sembrerebbe che l'articolo consigli l'SFX600 (che è sicuramente un ottimo ali) per la 3080, ma non è così.

- Citando una parte dell'articolo che tu stesso citi di "igorslab":
"Peaks with intervals between 1 and 10 ms can lead to shutdowns in very fast reacting protective circuits (OPP, OCP), especially in multi-rail power supplies, although the average power consumption is still within the standard. For this card, I would therefore calculate at least 430 bsi 450 watts for the normal OC with up to 370 watts as the power limit as the graphics card load in proportion to the total secondary power consumption of the system".
Quindi vedi, come ti dicevo, se vuoi divertirti in OC devi considerare almeno 450W per la sola scheda video.

- A quanto sopra devi aggiungere assorbimento della CPU ed altre componenti: i 90W di TDP nominale non c'entrano nulla con il valore reale.

Alla fin fine: il PC funziona, ma stai facendo lavorare l'alimentatore al limite e sicuramente sei limitato in OC.

Con 100 euro di spesa risolvi, perchè rischiare?

Esattamente. Quoto tutto

sertopica
09-05-2021, 19:54
La demo marble rtx e' disponibile per il download. Ho scaricato tutto, avvio, appare lo splash screen ma poi non succede niente. :fagiano: :asd:

Link: https://www.overclock3d.net/news/software/nvidia_s_marbles_tech_demo_is_now_available_to_download/1

Dovete creare un account nvidia e scaricare il client omniverse per scaricarla dal client stesso.

Edit: se non parte e avete una 3080 provate cosi':

Aprire il file presente in

%AppData%\Local\ov\pkg\marbles_rtx-2021.1.5\_build\windows-x86_64\release\apps\omni.app.marbles.kit

e modificate la stringa

renderer.minGpuMemoryMB = 11000

con

renderer.minGpuMemoryMB = 10000 // o qualunque altro valore corrispondente al quantitativo di memoria disponibile.

edit2: ok partito, gira una merd e dopo un po' stuttera pure perche' evidentemente satura la memoria. Disinstallo va. :D
Molto bello a vedersi comunque.

corbyale
09-05-2021, 20:12
Monitor a frequenza fissa o variabile? Se hai un monitor sync disattiva il v-sync a meno che tu non voglia un frame rate fisso a 60.

lo metto fisso proprio perché uso una tv come monitor e è a 60hz

nickname88
09-05-2021, 20:45
Mettendo uno scenario massimo fai 370W+90 della CPU in overclock e aggiungine 50 tra tutto il resto arrivo a malapena a 520W di picco. Generalmente con FPS bloccati a 60 sta intorno ai 300-320W, quindi per la maggiorparte del tempo il sistema è sui 450W dove ha un efficenza del 93% e rimane tra i 25 e i 30 dba. Ho anche preso i tripli cavi PCI-E per mettere su la strix ma alla fine non l'ho trovata. Ovviamente non mi spingerei sopra i 550W giusto per lasciare un po' di margine.

https://www.youtube.com/watch?v=Bdohv96uGLwNon intendevo ciò, so che 600W sono sufficienti, però in genere una PSU più si avvicina al suo limite e più tende a scaldare. Un conto è richiedere ad esempio 350W su una PSU da 400W e un altro è conto è invece su una PSU da 700W.
L'ultima è al 50% di load, l'altra al 80%.

Della tua PSU poi mi incuriosiva che oltre ai 600W è un formato SFX, quindi immagino faccia passare tutto su un solo condensatore, quindi dovrebbe scaldare ulteriormente di più.

wulff73
09-05-2021, 21:45
La demo marble rtx e' disponibile per il download. Ho scaricato tutto, avvio, appare lo splash screen ma poi non succede niente. :fagiano: :asd:

Link: https://www.overclock3d.net/news/software/nvidia_s_marbles_tech_demo_is_now_available_to_download/1

Dovete creare un account nvidia e scaricare il client omniverse per scaricarla dal client stesso.

Edit: se non parte e avete una 3080 provate cosi':

Aprire il file presente in

%AppData%\Local\ov\pkg\marbles_rtx-2021.1.5\_build\windows-x86_64\release\apps\omni.app.marbles.kit

e modificate la stringa

renderer.minGpuMemoryMB = 11000

con

renderer.minGpuMemoryMB = 10000 // o qualunque altro valore corrispondente al quantitativo di memoria disponibile.

edit2: ok partito, gira una merd e dopo un po' stuttera pure perche' evidentemente satura la memoria. Disinstallo va. :D
Molto bello a vedersi comunque.

Per curiosità lo sto installando per vedere come gira sulla 3090...

EDIT: gira bene e senza problemi. Bella grafica.

Graphite600T
09-05-2021, 23:09
edit::

oZonoRobotics
09-05-2021, 23:54
Per curiosità lo sto installando per vedere come gira sulla 3090...

EDIT: gira bene e senza problemi. Bella grafica.

qualcuno è riuscito a capire come cambiare le impostazioni video?

wulff73
10-05-2021, 00:02
qualcuno è riuscito a capire come cambiare le impostazioni video?

No. Smanettandoci un po' credo che le impostazioni siano fisse, risoluzione compresa.

Vash88
10-05-2021, 00:03
- Citando una parte dell'articolo che tu stesso citi di "igorslab":
"Peaks with intervals between 1 and 10 ms can lead to shutdowns in very fast reacting protective circuits (OPP, OCP), especially in multi-rail power supplies, although the average power consumption is still within the standard. For this card, I would therefore calculate at least 430 bsi 450 watts for the normal OC with up to 370 watts as the power limit as the graphics card load in proportion to the total secondary power consumption of the system".
Quindi vedi, come ti dicevo, se vuoi divertirti in OC devi considerare almeno 450W per la sola scheda video.

Igor parla di normal OC a 370W, cioè alzare lo slider del PL e maxarlo a 370W lasciando la curva di boost inalterata. Io sto sui 330W con il mio profilo quindi dovrei allocare circa 400W (seguendo le indicazioni di igor's lab). Inoltre, non posso provarlo ma sono disposto a scommettere che i picchi di potenza vengono limitati impostando il voltaggio manualmente a 0.9v visto che il consumo è esponenziale quindi probabilmente non raggiunge certi picchi dati dal boost di nvidia che può arrivare fino a 1.2v. Ribadisco che in 5 mesi non ho avuto nessun problema con i circuiti di protezione dell'alimentatore.


- A quanto sopra devi aggiungere assorbimento della CPU ed altre componenti: i 90W di TDP nominale non c'entrano nulla con il valore reale.

https://www.guru3d.com/articles_pages/amd_ryzen_5_3600_review,7.html
Il consumo di un sistema completo basato su X570 e 2080ti in multicore è di 132W (a muro, saranno stati 120W effettivi del sistema). La b450 sta almeno 15 W in meno ma dato che ho più periferiche diciamo che siamo pari. Anche così facendo siamo a 530W scarsi.

Alla fin fine: il PC funziona, ma stai facendo lavorare l'alimentatore al limite e sicuramente sei limitato in OC.
Con 100 euro di spesa risolvi, perchè rischiare?

I limiti che ho in OC sono termici, con 0.9v arrivo a 75 gradi mentre a 0.925 arrivo a 79 gradi. Senza mettere il liquido o un AIO non posso dare più benzina alla scheda. Water block + raccordi+riserva+ tubi+ radiatore+ventole e alimentatore siamo tranquillamente ad almeno 600€ per arrivare nel migliore dei casi a +150mhz con il PW limit a 370W, dato che non ha bios sbloccati. Il gioco non vale la candela. A quel punto prendevo una 3090.

Capisco che per alcuni sto utilizzando l'hw al limite ma penso di essere perfettamente in specifica e sono tranquillo con quello che ho ottenuto fin ora. Senza cambiare profondamente il sistema considero i 100 euro buttati perché non cambierebbero niente all'atto pratico. Schede custom come le strix hanno sicuramente specifiche che richiedono alimentatori molto più performanti ma una 3080 FE undervoltata è molto più gestibile.

Non intendevo ciò, so che 600W sono sufficienti, però in genere una PSU più si avvicina al suo limite e più tende a scaldare. Un conto è richiedere ad esempio 350W su una PSU da 400W e un altro è conto è invece su una PSU da 700W.
L'ultima è al 50% di load, l'altra al 80%.

Della tua PSU poi mi incuriosiva che oltre ai 600W è un formato SFX, quindi immagino faccia passare tutto su un solo condensatore, quindi dovrebbe scaldare ulteriormente di più.

Con un efficienza del 93% hai solamente 39W da dissipare a 530W di carico. Sinceramente non ho idea delle temperature raggiunte ma non trovo la ventola fastidiosa e dalle recensioni che ho letto mi fido perfettamente di quest'unità. Se è certificata fino a 600W e tutte le recensioni sono positive allora non vedo problemi nel caricarlo fino a che sono in specifica. Certamente non al limite ma probabilmente mi sento avventuroso :asd:. Penso che la tendenza di avere un alimentatore sovradimensionato sia nata perché per anni si trovavano unità per lo più mediocri sul mercato con dati di etichetta fasulli. Probabilemente quando avrò eliminato gli HD meccanici completamente passero ad un ATX solo per questioni di rumorosità a quel punto.

In questo video al minuto 4:40 si vede una build 5950x e RTX 3080 con un SF600 e i relativi consumi, mi piacerebbe fare un pc del genere un giorno.
https://www.youtube.com/watch?v=DeBxEb_kcxE

oZonoRobotics
10-05-2021, 00:03
No. Smanettandoci un po' credo che le impostazioni siano fisse, risoluzione compresa.

infatti, è a una risoluzione bassissima tipo 720p e se lo metti tutto schermo sembra di giocare a marble madness per megadrive

sertopica
10-05-2021, 06:26
No. Smanettandoci un po' credo che le impostazioni siano fisse, risoluzione compresa.

In realta' da quel file puoi anche modificare la res, c'e' la stringa dedicata. :)

Sulla 3080 gira decentemente a 720p, ma stuttera ancora di tanto in tanto.
infatti, è a una risoluzione bassissima tipo 720p e se lo metti tutto schermo sembra di giocare a marble madness per megadrive
La risoluzione predefinita e' 1080p. Comunque mi chiedo come potesse girare cosi' bene a 1440p con una 3090. :D

E peccato non si possa avere una visuale piu' ampia di tutta la stanza e muovere la telecamera liberamente...

Ma il problema principale come ho detto e' la vram della 3080. Gia' a 1080p sfora i 10 gb della scheda.

oZonoRobotics
10-05-2021, 08:18
In realta' da quel file puoi anche modificare la res, c'e' la stringa dedicata. :)

grazie!

a me a 1080p è cappato a 48fps per coincidenza sono pure gli stessi fps che faccio a 3440x1440 ma con la vga al 99% di utilizzo

https://i.imgrpost.com/imgr/2021/05/10/Immagine.png

https://i.imgrpost.com/imgr/2021/05/10/2.png

secondo te c'è un modo per farlo full screen? nel file di testo ho cambiato risoluzione e fps massimi ma non vede l'opzione full screen o simili

comunque si downclocca da sola la vram di 500mhz con sta applicazione

Lucabeer
10-05-2021, 08:34
Nel weekend ho giocato un po' a Metro Exodus Enhanced (dall'inizio, e fino alla fine del capitolo "Volga"). Devo dire che è molto curato, ma il raytracing punta più al realismo con sottigliezza che all'effetto spalancamascella.

Comunque se c'è un gioco in cui è meglio abilitare il VSync da pannello Nvidia piuttosto che da dentro al gioco, è proprio questo: il VSync del gioco va malissimo, tearing e qualche tentennamento, mentre con quello di Nvidia è perfetto.

Gigibian
10-05-2021, 09:27
Igor parla di normal OC a 370W, cioè alzare lo slider del PL e maxarlo a 370W lasciando la curva di boost inalterata. Io sto sui 330W con il mio profilo quindi dovrei allocare circa 400W (seguendo le indicazioni di igor's lab). Inoltre, non posso provarlo ma sono disposto a scommettere che i picchi di potenza vengono limitati impostando il voltaggio manualmente a 0.9v visto che il consumo è esponenziale quindi probabilmente non raggiunge certi picchi dati dal boost di nvidia che può arrivare fino a 1.2v. Ribadisco che in 5 mesi non ho avuto nessun problema con i circuiti di protezione dell'alimentatore.




No guarda, igor parla di "450 watts for the normal OC" . Penso che hai frainteso.

Cmq ritengo che non sia corretto in più punti quanto hai scritto nel messaggio precedente, oltre ad i calcoli che non corrispondono.

Cmq direi di chiuderla qui, inizia ad essere tedioso ed anche OT ;)
Anycase, fai come vuoi, ognuno dai dei suggerimenti.

Dattofree
10-05-2021, 12:32
Nel weekend ho giocato un po' a Metro Exodus Enhanced (dall'inizio, e fino alla fine del capitolo "Volga"). Devo dire che è molto curato, ma il raytracing punta più al realismo con sottigliezza che all'effetto spalancamascella.

Comunque se c'è un gioco in cui è meglio abilitare il VSync da pannello Nvidia piuttosto che da dentro al gioco, è proprio questo: il VSync del gioco va malissimo, tearing e qualche tentennamento, mentre con quello di Nvidia è perfetto.

il vsync è il male assoluto. Mai abilitarlo soprattutto in un gioco del genere.

Beseitfia
10-05-2021, 13:12
ragazzi una domanda, ieri stavo streammando Resident Evil Village, ed il gioco mi si e' freezato due volte nell'arco di 2h di game. La cosa strana, e' che in realta' se alt-tabbo, il pc e' attivo, e posso tranquillamente ricliccare sul gioco e riparte. Mi e' poi successa la stessa cosa a fine stream, per ben due volte nei menu. Solita cosa, alt-tab, ed il gioco riparte.
Premetto che lo gioco con una rtx 3080 senza overclock, con ultimi driver nvidia consigliati per resident evil village, sto giocando parecchi giochi, e non mi e'successo nulla di simile, trall'altro non ho l'overclock neanche sulla cpu (solo un leggero undervolt), vi e' gia'capitato a chi ci sta giocando con la 3080?

Lucabeer
10-05-2021, 13:24
il vsync è il male assoluto. Mai abilitarlo soprattutto in un gioco del genere.

Beh, io gioco sulla TV senza GSync, e non sopporto il tearing. Ben venga il VSync!

TigerTank
10-05-2021, 13:36
Comunque se c'è un gioco in cui è meglio abilitare il VSync da pannello Nvidia piuttosto che da dentro al gioco, è proprio questo: il VSync del gioco va malissimo, tearing e qualche tentennamento, mentre con quello di Nvidia è perfetto.

In teoria con un monitor gsync/gsync compatibile il vsync in gioco va SEMPRE disattivato. Usando invece la combinazione vsync+gsync da pannello nvidia o al massimo gsync + framerate limiter (da pannello nvidia o ad esempio RTSS).:)

Beh, io gioco sulla TV senza GSync, e non sopporto il tearing. Ben venga il VSync!

Ah ecco, per cui vsync(adattivo?) o prova il frame limiter :)

fraussantin
10-05-2021, 13:39
Ma che poi il gsync o il freesync non eliminano il tearing. Quello solo con il vsync lo fai.Mmm con in gsync o il freesync il tearing non lo vedi .

Se si sgancia allora compare e di solito capita se sfori il framerate massimo .

Per quello serve cappare .
E puoi farlo anche senza vsync

TigerTank
10-05-2021, 13:39
Ma che poi il gsync o il freesync non eliminano il tearing. Quello solo con il vsync lo fai.

Beh ovvio, anche perchè freesync e gsync sono limitati ad un framerate massimo corrispondente al refresh del monitor/tv in questione.
Se uno disattiva il vsync e va oltre tale limite, il tearing è dietro l'angolo, salvo fastsync(per nvidia, per amd non saprei) ben funzionante.

In pratica le combinazioni da provare con nvidia sono:
-gsync + vsync da pannello nvidia.
-gsync + frame limiter.
-gsync + fastsync(= "veloce" nel pannello nvidia).

Cutter90
10-05-2021, 13:43
Beh, io gioco sulla TV senza GSync, e non sopporto il tearing. Ben venga il VSync!

Infatti fai bene. Quando non c'è alternativa il vsync va benissimo. E anche con alcuni giochi in gsync il tearing si presenta uguale e va attivato il vsync

TigerTank
10-05-2021, 13:46
Infatti fai bene. Quando non c'è alternativa il vsync va benissimo. E anche con alcuni giochi in gsync il tearing si presenta uguale e va attivato il vsync

Eh sì, se ad esempio tu giochi su tv 4K 120Hz gsync compatible, conviene cappare di vsync da pannello(nel profilo del gioco se non in quello generale) o tramite frame limiter magari a qualche frame sotto al limite tipo 116-117(dicono sia meglio).
Diciamo anche che vsync o frame limiter evitano che in certi frangenti leggeri(tipo menu di gioco o simili) il framerate schizzi a millemila facendo magari "fischiare" la scheda.

TigerTank
10-05-2021, 14:00
In alcuni giochi lo vedi comunque. Io lo tengo attivo direttamente dal gioco che mi interessa e problemi di fluidità non ne ho.

Nei giochi online lo tengo rigorosamente spento e lascio galoppare i frame liberi e felici. La differenza di reattività sui comandi la sento.

In tal caso proverei questi :)

LINK (https://www.displayninja.com/what-is-nvidia-fast-sync-and-amd-enhanced-sync/).

Cutter90
10-05-2021, 14:18
Eh sì, se ad esempio tu giochi su tv 4K 120Hz gsync compatible, conviene cappare di vsync da pannello(nel profilo del gioco se non in quello generale) o tramite frame limiter magari a qualche frame sotto al limite tipo 116-117(dicono sia meglio).
Diciamo anche che vsync o frame limiter evitano che in certi frangenti leggeri(tipo menu di gioco o simili) il framerate schizzi a millemila facendo magari "fischiare" la scheda.

Confermo tutto, infatti faccio proprio così

sertopica
10-05-2021, 15:08
grazie!

a me a 1080p è cappato a 48fps per coincidenza sono pure gli stessi fps che faccio a 3440x1440 ma con la vga al 99% di utilizzo

cut
secondo te c'è un modo per farlo full screen? nel file di testo ho cambiato risoluzione e fps massimi ma non vede l'opzione full screen o simili

comunque si downclocca da sola la vram di 500mhz con sta applicazione
Si c'e' anche un cap ai fps, chissa' forse dipende dalla fisica che potrebbe sfanculare a framerate piu' alti (gamebryo style :D ). Ho anche visto temperature molto basse, mi stava intorno ai 44 gradi nonostante la mole di lavoro da gestire. Per il fullscreen non ho trovato alcuna opzione purtroppo... Secondo me e' un po' acerba come demo, forse necessita di un aggiornamento, se mai uscira'...

oZonoRobotics
10-05-2021, 16:49
Si c'e' anche un cap ai fps, chissa' forse dipende dalla fisica che potrebbe sfanculare a framerate piu' alti (gamebryo style :D ). Ho anche visto temperature molto basse, mi stava intorno ai 44 gradi nonostante la mole di lavoro da gestire. Per il fullscreen non ho trovato alcuna opzione purtroppo... Secondo me e' un po' acerba come demo, forse necessita di un aggiornamento, se mai uscira'...

ho provato a fare la maialata, 6880x2880, non è andata troppo bene

comunque lo sto provando ora a 3440x1415 e la barra di windows con "nascondi automaticamente" e se non fosse per la barra in alto sarebbe full screen

https://i.imgrpost.com/imgr/2021/05/10/Immagine9cce0862ff1cee14.png

Vash88
10-05-2021, 18:44
ma premendo alt+invio non va in full screen?
https://support.microsoft.com/en-us/topic/alt-enter-switches-between-window-and-full-screen-d1b23daa-644d-3fbf-2f5e-c2c779584db5

oZonoRobotics
10-05-2021, 18:56
ma premendo alt+invio non va in full screen?
https://support.microsoft.com/en-us/topic/alt-enter-switches-between-window-and-full-screen-d1b23daa-644d-3fbf-2f5e-c2c779584db5

conoscevo questo shortcut ed è stata la prima cosa che ho fatto prima di premere il tastino "massimizza finestra", è proprio l'applicazione che è veramente "un'applicazione" e non un gioco finito... comunque io non sono un esperto di fisica ma a me la fisica di questa demo non convince... premetto che con il joypad ho usato sia la modalità dove "muovi" il "tavolo" che quella dove dirigi la pallina (preferisco quest'ultima ma migliore la prima a livello di resa puramente fisica) nel senso che già solo quando fai saltare la pallina secondo me è un po' irreale... anche con i contatti secondo me non ci siamo... sarà che ci davo pesante ai giochini da bar con la pallina nelle estati degli anni 80/90... però onestamente tutta sta realtà io qui non la vedo

sertopica
10-05-2021, 20:29
Va beh, e' una tech demo piu' che altro, il fatto che sia interattiva e' del tutto secondario in questo caso.

PS: la tech demo supersonic sled pero' era parecchio impressionante al tempo e fu una delle prime a sfoggiare physx fra le altre cose.

oZonoRobotics
10-05-2021, 21:09
Va beh, e' una tech demo piu' che altro, il fatto che sia interattiva e' del tutto secondario in questo caso.

PS: la tech demo supersonic sled pero' era parecchio impressionante al tempo e fu una delle prime a sfoggiare physx fra le altre cose.

https://www.youtube.com/watch?v=5tL0ukQPsA0&ab_channel=NVIDIA

son dovuto andarla a vedere perchè sono arrivato al 100% su pc dal 2013, ho sempre avuto console, pc solo dal 2003 per giocare in realtà ad un gioco solo... halo 1 pc... quindi dico che da utilizzatore finale non siamo ancora alla fisica "che mi aspetto" ma sicuramente sono passi avanti verso il futuro...

poi, ho letto un commento che dice che metro rt non è spacca mascella, secondo me lo è... proprio per il discorso dell'illuminazione, ero qua con un amico che ha sempre e solo giocato su console e tutti e due eravamo a bocca aperta, sia io che su pc sono abituato che lui eravamo impressionati... è qualcosa di nuovo al quale "noi" non siamo abituati

e per il discorso del vsync, io non so il pc degli altri, ma se hai un monitor gsync, vsync attivato da pannello di controllo nvidia e che tu metta on o off dal gioco non cambia niente su qualsiasi gioco

il tearing non so come lo facciate a vedere su pannello gsync... allucinazioni audio video psyco motorie

Cutter90
10-05-2021, 22:57
https://www.youtube.com/watch?v=5tL0ukQPsA0&ab_channel=NVIDIA

son dovuto andarla a vedere perchè sono arrivato al 100% su pc dal 2013, ho sempre avuto console, pc solo dal 2003 per giocare in realtà ad un gioco solo... halo 1 pc... quindi dico che da utilizzatore finale non siamo ancora alla fisica "che mi aspetto" ma sicuramente sono passi avanti verso il futuro...

poi, ho letto un commento che dice che metro rt non è spacca mascella, secondo me lo è... proprio per il discorso dell'illuminazione, ero qua con un amico che ha sempre e solo giocato su console e tutti e due eravamo a bocca aperta, sia io che su pc sono abituato che lui eravamo impressionati... è qualcosa di nuovo al quale "noi" non siamo abituati

e per il discorso del vsync, io non so il pc degli altri, ma se hai un monitor gsync, vsync attivato da pannello di controllo nvidia e che tu metta on o off dal gioco non cambia niente su qualsiasi gioco

il tearing non so come lo facciate a vedere su pannello gsync... allucinazioni audio video psyco motorie

Ti assicuro che c'è eccome. Control ad esempio. Ricorro che lo aveva senza vsync. Poi chiaramente se sfori il cap il vsync è obbligatorio o limitare gli fps "manualmente "

Ps: metro EE è mostruoso. È assolutamente spacca mascella

oZonoRobotics
10-05-2021, 23:12
Ti assicuro che c'è eccome. Control ad esempio. Ricorro che lo aveva senza vsync. Poi chiaramente se sfori il cap il vsync è obbligatorio o limitare gli fps "manualmente "

Ps: metro EE è mostruoso. È assolutamente spacca mascella

si, quello che "manca" nei giochi è l'illuminazione "reale"... è quello che da la sensazione di guardare un film d'animazione... comunque

ho control ma non l'ho ancora giocato, domani sera lo provo solo per veder sta cosa... io gli unici due giochi dove da riva ho dovuto mettere il cap agli fps sono:

crysis 3 perchè rigiocandolo mi cappava i frame a 62 allora cercando sul web ho "scoperto" che bisogna mettere il vsync "veloce" da pannello, ma così non ti cappa i frame a 100 (nel mio caso)

altro gioco è sniper elite 4 dove mettendo direct x 12 ti fa lo scherzetto che ti uncappa i frame dai 60 delle dx11 (o almeno a me faceva sto problema) ma anche qua se non setti tu il cap va oltre e quindi va in fobia...

comunque ora è troppo tardi, domani provo control e ti dico, premetto che io ho da pannello di controllo imposto sincronizzazione verticale attivato, tecnologia monitor gsync e velocità di aggiornamento preferita la più elevata disponibile

su tutti i giochi, non tocco più il vsync in game perchè in base alla mia esperienza non ha senso

nickname88
11-05-2021, 11:53
Domanda per tutti

Ma sapreste dire come avete settato le proprietà di MSI Afterburner per poi praticare l'undervolt o l'overclock ?

Io l'ho così settato, mi dite se manca qualcosa ai fini della funzionalità corretta ?

https://i.ibb.co/DtvHKhz/IMG-E0723.jpg





Per caso prima di praticare overclock o undervolt è necessario anche settare il power mode dal Nvidia Control Panel sulle massime performance ?

http://nvidia.s3.amazonaws.com/aid_3130/adaptive_performance.jpg

Cutter90
11-05-2021, 11:55
Domanda per tutti

Ma sapreste dire come avete settato le proprietà di MSI Afterburner per poi praticare l'undervolt o l'overclock ?

Io l'ho così settato, mi dite se manca qualcosa ai fini della funzionalità corretta ?

https://i.ibb.co/DtvHKhz/IMG-E0723.jpg



Per caso prima di praticare overclock o undervolt è necessario anche settare il power mode dal Nvidia Control Panel sulle massime performance ?

http://nvidia.s3.amazonaws.com/aid_3130/adaptive_performance.jpg

Eh beh. devi spuntare "sblocca controllo voltaggio". Se no.....

nickname88
11-05-2021, 12:02
Eh beh. devi spuntare "sblocca controllo voltaggio". Se no.....Cioè ? Altrimenti cosa succede ?
In cosa sarei limitato senza questa opzione ?
Una volta sbloccato poi a fianco quale valore dovrei scegliere ? "MSI Standard" o "Di terze parti" ?

Devo sbloccare anche il monitoraggio ?

TigerTank
11-05-2021, 12:17
Il mio è così(scheda a pcb custom) :)
Peccato solo per quel "2080" :D

http://i.imgur.com/DlMtHftl.jpg (https://imgur.com/DlMtHft)

Circa il pannello nvidia no, non è necessario.
Lascia pure nel generale il valore di default e al massimo metti "massime prestazioni" nei profili dei giochi dove vuoi che la vga stia "muscle" il più possibile.
Se poi fai dei bench(3Dmark e simili) a monte è meglio selezionare l'opzione "lascia decidere l'applicazione 3D" sotto al logo rotante nvidia. E disattivare gsync/freesync.

EDIT: Con afterburner imposta anche dei tasti rapidi(o meglio delle combinazioni che difficilmente faresti "per sbaglio") associati ai 5 profili salvabili(Scheda "Profili"). Tieni sempre almeno un profilo OC e uno default di fabbrica, così in caso di problemi puoi switchare al volo al profilo di fabbrica tramite tasti rapidi o vedere eventualmente le differenze in prestazioni al volo.

DJurassic
11-05-2021, 13:19
Ma il problema principale come ho detto e' la vram della 3080. Gia' a 1080p sfora i 10 gb della scheda.

Non capisco come possano consigliare una 2080 come scheda tra i requisiti minimi. Vuol dire proprio essere fuori di melone.

Avessero detto chiaro e tondo che questa tech demo gira esclusivamente con la 3090 mi sarei risparmiato tutto lo sbattimento di scaricare tutta quella fuffa.
Semplicemente è una demo che necessita di oltre 11gb di Vram per essere eseguita decentemente. Qualsiasi cosa sotto quel quantitativo si traduce in una serie di slide che rende inutile l'utilizzo.

oZonoRobotics
11-05-2021, 16:36
Ti assicuro che c'è eccome. Control ad esempio. Ricorro che lo aveva senza vsync. Poi chiaramente se sfori il cap il vsync è obbligatorio o limitare gli fps "manualmente "

Ps: metro EE è mostruoso. È assolutamente spacca mascella

anche su control, con il vsync attivo su pannello di controllo ma disattivato in game, a me non fa tearing perchè in realtà l'impostazione del pannello di controllo è più importante del settaggio in game, ho provato a disattivare da pannello di controllo ed erano anni che non vedevo il tearing, è stato come tornare indietro nel tempo :P grazie, mi hai sbloccato un ricordo...

nickname88
11-05-2021, 19:26
Il mio è così(scheda a pcb custom) :)
Peccato solo per quel "2080" :D

http://i.imgur.com/DlMtHftl.jpg (https://imgur.com/DlMtHft)

Circa il pannello nvidia no, non è necessario.
Lascia pure nel generale il valore di default e al massimo metti "massime prestazioni" nei profili dei giochi dove vuoi che la vga stia "muscle" il più possibile.
Se poi fai dei bench(3Dmark e simili) a monte è meglio selezionare l'opzione "lascia decidere l'applicazione 3D" sotto al logo rotante nvidia. E disattivare gsync/freesync.


Ok ma nell'atto pratico cosa fornisce lo sblocco del controllo del voltaggio.
Se non è attivo quale è il deficit in cui mi imbatto ?
E quello del monitoraggio ? Non è già monitorabile il voltaggio ?

Si c'è la didascalia però non illustra cosa consente di fare o di non fare nell'atto pratico.

sertopica
11-05-2021, 19:59
Non capisco come possano consigliare una 2080 come scheda tra i requisiti minimi. Vuol dire proprio essere fuori di melone.

Avessero detto chiaro e tondo che questa tech demo gira esclusivamente con la 3090 mi sarei risparmiato tutto lo sbattimento di scaricare tutta quella fuffa.
Semplicemente è una demo che necessita di oltre 11gb di Vram per essere eseguita decentemente. Qualsiasi cosa sotto quel quantitativo si traduce in una serie di slide che rende inutile l'utilizzo.

Si, sembra comunque rilasciata in fretta e furia, e dopotutto pure la piattaforma omniverse e' in versione beta per quel che conta. Alla fine ho perso solo tempo. :D Certo poi e' bella a vedersi ma anche molto limitata nelle possibilita' che offre.

amon.akira
11-05-2021, 20:53
Ok ma nell'atto pratico cosa fornisce lo sblocco del controllo del voltaggio.
Se non è attivo quale è il deficit in cui mi imbatto ?
E quello del monitoraggio ? Non è già monitorabile il voltaggio ?

Si c'è la didascalia però non illustra cosa consente di fare o di non fare nell'atto pratico.

il voltaggio non ti serve a nulla visto che undervolti, il monitoraggio te lo fa vedere semplicemente, infatti io ho solo lo sblocco monitoraggio, avvia con windows avvia ridotto a icona stop.

nickname88
11-05-2021, 21:16
il voltaggio non ti serve a nulla visto che undervolti, il monitoraggio te lo fa vedere semplicemente, infatti io ho solo lo sblocco monitoraggio, avvia con windows avvia ridotto a icona stop.

Ma che differenza c'è fra avvio con windows e avvio ad icona ?

amon.akira
11-05-2021, 21:26
Ma che differenza c'è fra avvio con windows e avvio ad icona ?

la prima ti avvia afterburner quando accendi il pc, la seconda ti riduce l applicazione a icona in basso a destra.

nickname88
11-05-2021, 23:26
la prima ti avvia afterburner quando accendi il pc, la seconda ti riduce l applicazione a icona in basso a destra.Io ho solo l'avvio con Windows e in basso a destra l'iconcina c'è. :confused: :mbe:

amon.akira
12-05-2021, 01:20
Io ho solo l'avvio con Windows e in basso a destra l'iconcina c'è. :confused: :mbe:

https://i.imgur.com/GwFdHV5.png


perfetto non serve allora, l avevo sempre messa dando per scontato che non si riducesse a icona senza. :D

TigerTank
12-05-2021, 09:23
Ok ma nell'atto pratico cosa fornisce lo sblocco del controllo del voltaggio.
Se non è attivo quale è il deficit in cui mi imbatto ?
E quello del monitoraggio ? Non è già monitorabile il voltaggio ?

Si c'è la didascalia però non illustra cosa consente di fare o di non fare nell'atto pratico.

Lo sblocco del controllo voltaggio, come dice il nome, abilità lo slide del voltaggio sull'interfaccia grafica appunto per controllare manualmente il voltaggio ad un valore fisso. Se non devi fare esperimenti in tal senso ma usare solo la curva allora è facoltativo.

Quello del monitoraggio del voltaggio ti permette di aggiungere all'OSD di afterburner appunto la voce per la lettura del voltaggio della scheda(appare la relativa voce in "Grafici").

terranux
12-05-2021, 10:11
Io ho solo l'avvio con Windows e in basso a destra l'iconcina c'è. :confused: :mbe:
se deselezioni le impostazioni che hai messo cosa succede? và ugualmente ?

nickname88
12-05-2021, 11:40
se deselezioni le impostazioni che hai messo cosa succede? và ugualmente ?

si mettendo l'avvio ad icona o rimuovendolo non cambia nulla, per quello mi chiedevo a che serviva, magari qualcosa che non vedevo.

Vash88
12-05-2021, 13:48
Ho ordinato i pad termici Gelid Ultimate, ho preso i 2mm che a quanto pare vanno bene da quello che si legge in giro. Sembra che gli originali Nvidia siano 1,5 e 1,8mm per la parte frontale ma i gelid dovrebbero essere molto morbidi e "spalmarsi". Stavo pensando di seguire questa guida della EKWB https://www.ekwb.com/shop/EK-IM/EK-IM-3831109832684.pdf per il backplate se avanza qualcosa dal frontale. Qui usano pad da 1mm ma è un custom backplate quindi immagino che le altezze Z siano diverse rispetto all'originale, se vedo che non c'è un buon contatto prendo dei 1,5mm per la parte posteriore dei VRM e dei 2mm dietro al core. Cosa ne pensate? Quando arrivano faccio qualche foto del prima e dopo + temperature. Non mi piacciono le temperature troppo alte delle vram e così posso mettermi a overclockare anche quelle, poi non ho avuto una sola scheda video in cui non ho fatto repaste dopo qualche mese :oink:

Parlando di afterburner, ho gli stessi problemi di nickname88, oltre a shiftare verso il basso (per il discorso delle temperature) la curva di afterburner perde alcuni punti e si ricrea ad ogni avvio in maniera leggermente diversa rispetto a quanto impostato. L'unica soluzione che ho trovato è ricrearla ogni volta. Sul forum di Guru3d il moderatore è super scazzoso e la risposta a questa domanda è GIT GUD. Per quanto abbia cercato non ho trovato spiegazioni su questo comportamento. Appena posso faccio un video e vedo di postarlo come bug ma già prevedo un cazziatone.

dylandog_666
12-05-2021, 14:31
Ho ordinato i pad termici Gelid Ultimate, ho preso i 2mm che a quanto pare vanno bene da quello che si legge in giro. Sembra che gli originali Nvidia siano 1,5 e 1,8mm per la parte frontale ma i gelid dovrebbero essere molto morbidi e "spalmarsi". Stavo pensando di seguire questa guida della EKWB https://www.ekwb.com/shop/EK-IM/EK-IM-3831109832684.pdf per il backplate se avanza qualcosa dal frontale. Qui usano pad da 1mm ma è un custom backplate quindi immagino che le altezze Z siano diverse rispetto all'originale, se vedo che non c'è un buon contatto prendo dei 1,5mm per la parte posteriore dei VRM e dei 2mm dietro al core. Cosa ne pensate? Quando arrivano faccio qualche foto del prima e dopo + temperature. Non mi piacciono le temperature troppo alte delle vram e così posso mettermi a overclockare anche quelle, poi non ho avuto una sola scheda video in cui non ho fatto repaste dopo qualche mese :oink:

Parlando di afterburner, ho gli stessi problemi di nickname88, oltre a shiftare verso il basso (per il discorso delle temperature) la curva di afterburner perde alcuni punti e si ricrea ad ogni avvio in maniera leggermente diversa rispetto a quanto impostato. L'unica soluzione che ho trovato è ricrearla ogni volta. Sul forum di Guru3d il moderatore è super scazzoso e la risposta a questa domanda è GIT GUD. Per quanto abbia cercato non ho trovato spiegazioni su questo comportamento. Appena posso faccio un video e vedo di postarlo come bug ma già prevedo un cazziatone.

Anche io noto funzionamenti un po' strani di AB (gli stessi vostri) sulla 3080, oramai penso che ci sia qualche "incompatibilità" tra le ultime versioni e la nuova serie Nvidia

Graphite600T
12-05-2021, 15:04
Anche io noto funzionamenti un po' strani di AB (gli stessi vostri) sulla 3080, oramai penso che ci sia qualche "incompatibilità" tra le ultime versioni e la nuova serie Nvidia

ma sono proprio le 3000 che sono strane. sullo stesso gioco (stessa mappa e tutto identico), stesse temperatura, stessi wattaggi, etc un giorno mi boosta a 2070 mhz un giorno a 1980 un giorno a 1880 un giorno a 2030. Fanno un pò come vogliono loro

amon.akira
12-05-2021, 15:09
ma sono proprio le 3000 che sono strane. sullo stesso gioco (stessa mappa e tutto identico), stesse temperatura, stessi wattaggi, etc un giorno mi boosta a 2070 mhz un giorno a 1980 un giorno a 1880 un giorno a 2030. Fanno un pò come vogliono loro

devi controllare il voltaggio, se come accade agli utenti sopra ti scazza la curva è normale che di taglia il clock causa pl, se invece il voltaggio è ok e taglia ancora, è semplicemente per il pl.

Graphite600T
12-05-2021, 15:23
devi controllare il voltaggio, se come accade agli utenti sopra ti scazza la curva è normale che di taglia il clock causa pl, se invece il voltaggio è ok e taglia ancora, è semplicemente per il pl.

io ho il powerlimit a 109% sulla palit.... la cosa buffa è che comunque tira 340w in metro enhanced ma là boosta pochissimo (1800\1900 max)

amon.akira
12-05-2021, 15:44
io ho il powerlimit a 109% sulla palit.... la cosa buffa è che comunque tira 340w in metro enhanced ma là boosta pochissimo (1800\1900 max)

se sei su voltaggio standard è normale

Cutter90
12-05-2021, 15:46
io ho il powerlimit a 109% sulla palit.... la cosa buffa è che comunque tira 340w in metro enhanced ma là boosta pochissimo (1800\1900 max)

E' normale. Metro tira come si deve i watt, ma non le frequenze. Da verificare il guadagno in oc dunque

Graphite600T
12-05-2021, 16:11
E' normale. Metro tira come si deve i watt, ma non le frequenze. Da verificare il guadagno in oc dunque

gioco "solo" in 3440x1440 guadagno circa il 7\8% in OC ma fa talmente tanti fps che non ha senso davvero è più uno sfizio.

nickname88
12-05-2021, 16:48
Parlando di afterburner, ho gli stessi problemi di nickname88, oltre a shiftare verso il basso (per il discorso delle temperature) la curva di afterburner perde alcuni punti e si ricrea ad ogni avvio in maniera leggermente diversa rispetto a quanto impostato. L'unica soluzione che ho trovato è ricrearla ogni volta. Sul forum di Guru3d il moderatore è super scazzoso e la risposta a questa domanda è GIT GUD. Per quanto abbia cercato non ho trovato spiegazioni su questo comportamento. Appena posso faccio un video e vedo di postarlo come bug ma già prevedo un cazziatone.ma sono proprio le 3000 che sono strane. sullo stesso gioco (stessa mappa e tutto identico), stesse temperatura, stessi wattaggi, etc un giorno mi boosta a 2070 mhz un giorno a 1980 un giorno a 1880 un giorno a 2030. Fanno un pò come vogliono loro

Anche io noto funzionamenti un po' strani di AB (gli stessi vostri) sulla 3080, oramai penso che ci sia qualche "incompatibilità" tra le ultime versioni e la nuova serie NvidiaAllora su AB io sono giunto a diverse conclusioni.
Il fatto che la curva all'avvio trasli verso l'altro di una manciata di Mhz o verso il basso ( a me quasi sempre verso l'alto ) ho scoperto che è dovuto semplicemente al fatto che mi vengono restituite 2 o più curve di default differenti, ma non so esattamente in quali momenti.

Infatti io con la mia a volte ho una curva di default il valore massimo è 1995Mhz.
Altre volte invece il valore massimo è 1980Mhz.
AB non fa altro quindi che applicare gli offset su tutti i punti della curva di default ma se quest'ultima cambia .....

Infatti editando la curva in momenti diversi, impostando sempre i miei valori ( ossia 1860Mhz a 0.95V ) sul punto 0.95V a volte mi segna -0Mhz, che indica che non c'è overclock, ossia corrisponde alla curva di default, altre volte impostando gli stessi valori me lo segna come +15Mhz di offset, sempre sullo stesso punto.




E fin quì tutto comprensibile.
Quello che non si riesce a comprendere è per quale stracaxxo di motivo all'avvio del PC sul punto 1.05v ( più o meno ) in poi si viene a creare un ulteriore incremento dei valori di altri 15Mhz rispetto alla curva già editata.
Questo succede SOLO quando spegno del tutto il PC, se imposto la curva e riavvio rimane.

Tuttavia però nonostante tutto il funzionamento non sembra variare.
Io ho impostato in origine [email protected] e me l'ha presa senza problemi.
E all'avvio successivo nonostante me la trasli di 15Mhz verso l'altro e mi crei quel boost ulteriore sui 1.05V quando faccio partire il gioco parte comunque sempre a 1860Mhz per poi calore a 1845Mhz e a volte 1830Mhz, ignorando quindi le anomalie sopra citate.

Quindi sembra che la visualizzazione della curva editata all'avvio sia ERRATA ( nel senso che è corretta ma c'è un errore di visualizzazione )

amon.akira
12-05-2021, 19:01
cut


dipende dalla temperatura lo sbalzo di 15mhz, sul fatto che non ti prende 1.05v l hai verificato dopo una sessione in hwinfo sui picchi massimi? li dovresti avere appunto 0.950 che è quello che hai impostato...se è cosi tutto funziona correttamente.

nickname88
12-05-2021, 19:55
dipende dalla temperatura lo sbalzo di 15mhz, sul fatto che non ti prende 1.05v l hai verificato dopo una sessione in hwinfo sui picchi massimi? li dovresti avere appunto 0.950 che è quello che hai impostato...se è cosi tutto funziona correttamente.
No, ho usato solo GPU-Z
Per il momento ho sempre avuto 0.95V fissi, nel senso che non solo non ho mai rilevato valori superiori ma nemmeno inferiori nonostante anche momenti in cui la GPU non fosse sfruttata appieno.

Per il discorso temp e gli step da 15Mhz ne sono a conoscenza e infatti posso comprendere il fatto che TUTTA la curva default o editata si sposti verso l'alto o verso il basso di 15Mhz.

Quello che non capisco è solamente quell'innalzamento ulteriore di 15Mhz SOLO a partire da 1.05V che si crea sulla sola curva già editata ogni volta che avvio il PC, che non dovrebbe accadere visto che gli offset impostati da me sono già tarati per mantenere piatta anche quella zona.

Poi infatti quando avvio il gioco 1.05v non li prende mai, quindi presumo sia solo un problema di visualizzazione o un altra curva che poi in game non viene usata.


PS : ma il calo di frequenza a step di 15 per via delle temp non dovrebbe avvenire semplicemente andando a ritroso fra i valori della curva anzichè scalando tutta la curva in basso ? Perchè così facendo il voltaggio mica scende.
Strano.

nickname88
12-05-2021, 20:49
li dovresti avere appunto 0.950 che è quello che hai impostato...se è cosi tutto funziona correttamente.
https://i.ibb.co/6mr78hT/0-95-Hollow-Vsync-2.jpg
https://i.ibb.co/D5SQB5y/0-95-Hollow-Vsync-3.jpg

Caspita vuol dire la @ davanti ai valori ?

amon.akira
12-05-2021, 21:00
Caspita vuol dire la @ davanti ai valori ?

la @ non ne ho idea, non uso molto gpuz, uso sempre hwinfo

cmq dai l importante è che ti tiene sempre il voltaggio desideridato che è quello che t interessa :)

LkMsWb
12-05-2021, 22:45
Caspita vuol dire la @ davanti ai valori ?

È la lettura del valore istantaneo al momento del grafico che stai "sorvolando" col mouse. Se clicchi sulle temperature invece vedrai min/max/media/attuale.

nickname88
13-05-2021, 10:44
È la lettura del valore istantaneo al momento del grafico che stai "sorvolando" col mouse. Se clicchi sulle temperature invece vedrai min/max/media/attuale.

grazie

nickname88
13-05-2021, 18:48
la @ non ne ho idea, non uso molto gpuz, uso sempre hwinfo

cmq dai l importante è che ti tiene sempre il voltaggio desideridato che è quello che t interessa :)

Ecco quello che succede visivamente :



CURVA impostata regolarmente
Da 0.95V in poi è tutto appiattito a 1860Mhz come potete vedere
E così volevo che fosse !

https://i.ibb.co/CQRhRXm/Normal-Curve.jpg





Come diventa la curva una volta riacceso il PC, senza toccare nulla
La curva per intera è salita tutta proporzionalmente di 30Mhz oggi quindi nel punto 0.95V non è più 1860 ma 1890Mhz.

Da 0.95 in poi però la curva NON E' più piatta, c'è un ulteriore boost di 15Mhz ( 1905Mhz ) che è del tutto ANOMALO !

https://i.ibb.co/y8qZ0jf/Anomaly-Curve-Copia.jpg





Tuttavia in game .... sembra continuare a funzionare.
E come vedi parte da 1860Mhz come impostato da me nella prima curva.
https://i.ibb.co/bgF5B2c/0-95-Epilogue-Ranch-Vsynch.jpg

amon.akira
13-05-2021, 19:39
cut


è quello che ti dicevo fin dall inizio, cmq cosi è normale che ti resta 0.950 perchè se vedi la seconda foto è sballata dopo i 1.100 quindi quella parte li non t interessa. invece tu avevi detto che era piu alta già a 1.050v e li era strano invece che rimanesse a 0.950 in game.

cmq questo succede perchè la curva in avanti con quella temperatura è piu alta dei mhz impostati, come ti dissi... tu eri a -120? metti -150 e poi setta i tuoi 1860 e vedrai che rimane piatta fino alla fine...in teoria basta anche -135

oppure resta a
-120 e metti un 30mhz di overclock, sarebbe la prima scheda che non regge neanche un +30 XD

Cutter90
13-05-2021, 20:06
Ho appena constatato che in Metro l oc fa guadagnare 3 fps. Da 81 a 84. E parlo del mio oc bello spinto. Che due scatole. Va beh, me lo godo lo stesso

oZonoRobotics
13-05-2021, 20:14
Ho appena constatato che in Metro l oc fa guadagnare 3 fps. Da 81 a 84. E parlo del mio oc bello spinto. Che due scatole. Va beh, me lo godo lo stesso

a me fa uno scherzo quando, per capirci, sei dove (mezzo spoiler) la bambina ti chiede di prendere la bambola, se guardo in una direzione, l'utilizzo della gpu mi va a 60/70% e mi fa 60 (laggosi) frame... solo in quel punto! sono andato avanti nella storia e ogni volta che torno la e guardo in quella direzione me lo rifà... ora non so se sono io che ho uno scazzo o cosa... solo in quel punto e solo in quei 30 gradi di direzione!

comunque segnalo che su steam c'è doom eternal a 30 neuri con i dlc

comunque non so con chi parlavo del vsync, qui devo disabilitarlo dal gioco, altrimenti son cappato a 60hz, questa cosa (secondo me è questo il motivo) mi fa fare il classico scattino ogni tanto, fastidiosissimo

e mi resta il problema che ogni volta che avvio il gioco devo modificare un'impostazione a caso per far applicare tutte le impostazioni video corrette (compresa la risoluzione!) anche a voi fa sto scazzo?

nickname88
13-05-2021, 20:44
è quello che ti dicevo fin dall inizio, cmq cosi è normale che ti resta 0.950 perchè se vedi la seconda foto è sballata dopo i 1.100 quindi quella parte li non t interessa. invece tu avevi detto che era piu alta già a 1.050v e li era strano invece che rimanesse a 0.950 in game.

cmq questo succede perchè la curva in avanti con quella temperatura è piu alta dei mhz impostati, come ti dissi... tu eri a -120? metti -150 e poi setta i tuoi 1860 e vedrai che rimane piatta fino alla fine...in teoria basta anche -135

oppure resta a
-120 e metti un 30mhz di overclock, sarebbe la prima scheda che non regge neanche un +30 XD
Si ho confuso 1.05 con 1.1v :D

L'ho già impostato a -135Mhz, quelle foto sono infatti inerenti a tale valore.

Il -120 l'ho impostato precedentemente ( il fatto è che quella volta ho agito sulla curva di default con vmax 1980Mhz, quella che ho modificato ora invece aveva come vmax 1995Mhz. )

Proverò con -150 pure.

amon.akira
13-05-2021, 21:06
Si ho confuso 1.05 con 1.1v :D

L'ho già impostato a -135Mhz, quelle foto sono infatti inerenti a tale valore.

Il -120 l'ho impostato precedentemente ( il fatto è che quella volta ho agito sulla curva di default con vmax 1980Mhz, quella che ho modificato ora invece aveva come vmax 1995Mhz. )

Proverò con -150 pure.

sicuro a -150 allora nn te lo fa, ma già cosi è ok perchè sei over 1.093v...diciamo che è solo questione di estetica visiva :P

nickname88
13-05-2021, 23:28
sicuro a -150 allora nn te lo fa, ma già cosi è ok perchè sei over 1.093v...diciamo che è solo questione di estetica visiva :P
Quindi oltre un certo voltaggio della sua stessa curva non va ? :eek:

Ah ok, ma per curiosità come mai allora sono presenti tutta una serie di valori all'interno della curva di default riferiti a voltaggi sopra l'1.09V :confused: :confused: Solo per il power limit massimo raggiungibile ?

amon.akira
13-05-2021, 23:49
Quindi oltre un certo voltaggio della sua stessa curva non va ? :eek:

Ah ok, ma per curiosità come mai allora sono presenti tutta una serie di valori all'interno della curva di default riferiti a voltaggi sopra l'1.09V :confused: :confused: Solo per il power limit massimo raggiungibile ?

penso siano previsti in caso di overvolt, mai usato però...undervolto dalla 980ti XD

Vash88
16-05-2021, 02:17
Ho ordinato i pad termici Gelid Ultimate, ho preso i 2mm che a quanto pare vanno bene da quello che si legge in giro. Sembra che gli originali Nvidia siano 1,5 e 1,8mm per la parte frontale ma i gelid dovrebbero essere molto morbidi e "spalmarsi"...

PS. mi sono sbagliato, i Gelid Ultimate sono duri come la gomma da cancellare. Con i 2 mm non riesco a far fare buon contatto alla GPU. Ho ordinato gli Extreme che dovrebbero essere morbidi.

John_Mat82
16-05-2021, 12:13
PS. mi sono sbagliato, i Gelid Ultimate sono duri come la gomma da cancellare. Con i 2 mm non riesco a far fare buon contatto alla GPU. Ho ordinato gli Extreme che dovrebbero essere morbidi.

Io ho sempre usato gli Akasa. Anche i pad termici biadesivi (utili per i dissipatorini su moduli "esposti") funzionano bene.

fraussantin
18-05-2021, 01:37
doom ethernal : tutto ultra 144 fps 1440p gpu al 60% di media.

quando passavo una porta mi calavano gli fps a 3-4 per 1 secondo , poi torna tutto su .

ho calato una tacca di texture e ha smesso di farlo .

ma da cosa puo dipendere? 16 giga di ram sono pochi e va a scrivere sulla virtuale?( in realtà non ne usa piu di 10 ) .

la vram occupata è 9 giga con ultra nightmere e 7-8 giga con ultra normale.


Edit dopo un riavvio del PC sembra andare senza blocchi anche su ultra.

Vash88
18-05-2021, 12:04
doom ethernal : tutto ultra 144 fps 1440p gpu al 60% di media.

quando passavo una porta mi calavano gli fps a 3-4 per 1 secondo , poi torna tutto su .

ho calato una tacca di texture e ha smesso di farlo .

ma da cosa puo dipendere? 16 giga di ram sono pochi e va a scrivere sulla virtuale?( in realtà non ne usa piu di 10 ) .

la vram occupata è 9 giga con ultra nightmere e 7-8 giga con ultra normale.


Edit dopo un riavvio del PC sembra andare senza blocchi anche su ultra.
Quasi certamente è un problema di Vram, mi pare che in modalità ultra sia estremamente esigente per le texture.

piond
18-05-2021, 12:47
Non so se la questione è già stata trattata.
Ma avete notato che con i nuovi driver nvidia c'è una diminuzione generale delle prestazioni?
O almeno così mi è sembrato vedendo i video di comparazione su youtube.
Se uno non aggiorna si perde qualcosa?
E voi? Avete notato un calo?

Dattofree
18-05-2021, 13:01
Ma la fascia bassa ci sarà? Non vedo in giro notizie se non quelle legate ai notebook. Una 3030/3050 uscirà?

Thunder-74
18-05-2021, 15:22
NVIDIA GeForce Graphics Drivers 466.47 WHQL



LINK (https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/)

Game Ready
Days Gone

New Features and Other Changes

This driver version is required for GeForce RTX 3080, RTX 3070, and RTX 3060 TI graphics cards with LHR (low-hash-rate), which ship starting late May, 2021.

Fixed Issues in this Release

- [Tom Clancy's Ghost Recon Breakpoint]: The game experiences low performance / low frame rate when launched with Bar1 enabled in the SBIOS. [200721940]
- [Starbase][GeForce RTX 20/GTX 16 Series]: The game may crash. [3293977]

Windows 10 Issues

- [NVIDIA Ampere GPU]: Colors may appear incorrect in games if sharpen Freestyle filter is used with HDR enabled. [200658208]
This issue will be resolved in the next NVIDIA driver release.
- [HDR]: Some specific HDMI displays might show some flickering in HDR mode. [200729987]
If you experiencing flickering issues, reboot the system.
- [World of Warcraft: Shadowlands]: Random flicker may occur in certain locations in the game [3206341]
- [Batman Arkham Knight]: The game crashes when turbulence smoke is enabled. [3202250]
- [Steam VR game]: Stuttering and lagging occur upon launching a game while any GPU hardware monitoring tool is running in the background. [3152190]
- [YouTube]: Video playback stutters while scrolling down the YouTube page. [3129705]

nickname88
18-05-2021, 17:55
Ecco quello che succede visivamente :



CURVA impostata regolarmente
Da 0.95V in poi è tutto appiattito a 1860Mhz come potete vedere
E così volevo che fosse !

https://i.ibb.co/CQRhRXm/Normal-Curve.jpg





Come diventa la curva una volta riacceso il PC, senza toccare nulla
La curva per intera è salita tutta proporzionalmente di 30Mhz oggi quindi nel punto 0.95V non è più 1860 ma 1890Mhz.

Da 0.95 in poi però la curva NON E' più piatta, c'è un ulteriore boost di 15Mhz ( 1905Mhz ) che è del tutto ANOMALO !

https://i.ibb.co/y8qZ0jf/Anomaly-Curve-Copia.jpg






Oggi senza motivo un secondo boost anomalo, questa volta a 1920Mhz, oltre a quello classico da 1905.
Continuo a non capire sulla base di quale logica si formano.
Almeno in game funziona tutto regolarmente.

https://i.ibb.co/kq7YTgt/IMG-0742.jpg

EmBo2
18-05-2021, 18:52
Oggi senza motivo un secondo boost anomalo, questa volta a 1920Mhz, oltre a quello classico da 1905.
Continuo a non capire sulla base di quale logica si formano.
Almeno in game funziona tutto regolarmente.

https://i.ibb.co/kq7YTgt/IMG-0742.jpg

La curva indica degli offsets, non le frequenze effettive raggiungibili (che dipendono in larga parte dalla temperatura della GPU e dai power limit).
Non arriverai mai a quei voltaggi senza superare i limiti di potenza o di temperatura, quindi non mi preoccuperei.

nickname88
18-05-2021, 21:18
La curva indica degli offsets, non le frequenze effettive raggiungibili (che dipendono in larga parte dalla temperatura della GPU e dai power limit).
Non arriverai mai a quei voltaggi senza superare i limiti di potenza o di temperatura, quindi non mi preoccuperei.Mica tanto, se clicchi ogni singolo puntino ti indica la frequenza.
Di fatto non so come si formino queste imperfezioni, in base a cosa e perchè ogni tanto sì altre no ?

amon.akira
18-05-2021, 21:24
cut

falla raffreddare sub 30gradi con ventole al 100% in idle e poi fai la curva e vedrai fin da subito che non raggiungi i clock nella parte finale...è logico che se fai la curva a 45gradi mancano almeno 30mhz.

hai diversi metodi per appiattirla tutta

o sali di qualche gradino di voltaggio, o restando sullo stesso punto la alzi di 30mhz in modo che vada a raggiungere i clock verso la fine, o abbassi inizialmente piu mhz, o infine puoi prendere ogni punto sballato e abbassarlo manualmente anche senza precisione tipo 200-300mhz tanto poi si allinea

cmq è ininfluente visto che il voltaggio massimo è 1.093 e fin li è appiattita.

TigerTank
18-05-2021, 21:48
Ma la fascia bassa ci sarà? Non vedo in giro notizie se non quelle legate ai notebook. Una 3030/3050 uscirà?

Le versioni laptop delle 3050Ti e 3050 sono uscite per cui presumibilmente nemmeno le desktop dovrebbero tardare tantissimo, salvo vogliano prima sbolognare le "rimanenze" di 1660 e 1650 ancora in giro a prezzi da scalpers :D
E si rumoreggia anche una 3070Ti. Ma vabbè...non credo proprio si avrà uno tsunami globale di schede con abbassamenti miracolosi di prezzi.

Thunder-74
19-05-2021, 08:35
ops.... pare esistere anche una futura 3090ti....

ZOTAC expects RTX 3090 Ti

LINK (https://videocardz.com/newz/zotac-adds-geforce-rtx-3090ti-rtx-3080ti-and-rtx-3070ti-to-its-firestorm-software)

Jeetkundo
19-05-2021, 10:21
ops.... pare esistere anche una futura 3090ti....

ZOTAC expects RTX 3090 Ti

LINK (https://videocardz.com/newz/zotac-adds-geforce-rtx-3090ti-rtx-3080ti-and-rtx-3070ti-to-its-firestorm-software)

Tempo di upgrade! :D :D :D :D

Black"SLI"jack
19-05-2021, 10:38
alla modica cifra di 5000 euro, con l'1% in più di prestazioni.
full chip.

TigerTank
19-05-2021, 10:42
ops.... pare esistere anche una futura 3090ti....

ZOTAC expects RTX 3090 Ti

LINK (https://videocardz.com/newz/zotac-adds-geforce-rtx-3090ti-rtx-3080ti-and-rtx-3070ti-to-its-firestorm-software)

Ahahahah dai che tocchiamo i 5000€! :sofico:

EDIT:
alla modica cifra di 5000 euro, con l'1% in più di prestazioni.
full chip.
Ecco, non sono stato l'unico a pensarlo :asd:
Comunque vabbè, per me possono anche arrivare ai 10000€, io sarei più interessato a vedere gli effetti delle cosiddette nuove ampère 3080-3070-3060Ti "LHR".

nickname88
19-05-2021, 10:50
falla raffreddare sub 30gradi con ventole al 100% in idle e poi fai la curva e vedrai fin da subito che non raggiungi i clock nella parte finale...è logico che se fai la curva a 45gradi mancano almeno 30mhz.

hai diversi metodi per appiattirla tutta

o sali di qualche gradino di voltaggio, o restando sullo stesso punto la alzi di 30mhz in modo che vada a raggiungere i clock verso la fine, o abbassi inizialmente piu mhz, o infine puoi prendere ogni punto sballato e abbassarlo manualmente anche senza precisione tipo 200-300mhz tanto poi si allinea

cmq è ininfluente visto che il voltaggio massimo è 1.093 e fin li è appiattita.
Si ma se al massimo voltaggio la VGA ( quindi non raggiungibile a default ) non supera i 1995Mhz di default, una volta che imposto i miei offset non capisco in base a quale logica vada a crescere.
Se l'offset imposto è -135, non dovrebbe poter mai andare oltre i 1860.

Invece non solo sale ( che posso anche comprendere ipotizzando l'esistenza di un altro fattore ) ma a volte sale di più rispetto ad altri giorni ed è questo che non capisco. :read: Fra ieri e l'altro ieri la Tamb era uguale e il tutto si è verificato a PC appena avviato, quindi freddo e con le stesse temp.

Semplicemente mi sfugge quest'ultima logica.

Crysis90
19-05-2021, 11:11
pare esistere anche una futura 3090ti....


Sempre più ridicoli.

amon.akira
19-05-2021, 11:12
cut

e purtroppo sarà un bug di afterburner quando si va a finire pelo sul clock della curva default e quest ultima poi sale e scende causa temperatura e qualcosa scazza. per evitare ciò devi superare o abbassare ulteriormente la curva

reset
-165
riporta il tuo 0.950v a 1860mhz (+0) e sicuramente vedrai sempre tutto liscio anche se già cosi va bene, la parte 1.100v+ non è interessata.

Black"SLI"jack
19-05-2021, 11:14
Ahahahah dai che tocchiamo i 5000€! :sofico:

EDIT:

Ecco, non sono stato l'unico a pensarlo :asd:
Comunque vabbè, per me possono anche arrivare ai 10000€, io sarei più interessato a vedere gli effetti delle cosiddette nuove ampère 3080-3070-3060Ti "LHR".

anche perché il chip full è 10752 cuda core, rispetto ai 10496 della 3090. Quindi quanto può portare in termini di prestazioni? veramente l'1%. posso spingere le ram, ma di quanto che già così le gddr6x sono dei fornetti delonghi, soprattutto nella soluzione 3090 con le ram anche sul retro, che sono poi quelle scaldano maggiormente, perchè non raffreddate attivamente. già adesso una 3090 supera i 3000 euro tranquillamente, per modelli poi standard. vedi la mia palit, pagata 1750, l'ultimo avvistamento era sui 3250/3350.

TigerTank
19-05-2021, 11:41
anche perché il chip full è 10752 cuda core, rispetto ai 10496 della 3090. Quindi quanto può portare in termini di prestazioni? veramente l'1%. posso spingere le ram, ma di quanto che già così le gddr6x sono dei fornetti delonghi, soprattutto nella soluzione 3090 con le ram anche sul retro, che sono poi quelle scaldano maggiormente, perchè non raffreddate attivamente. già adesso una 3090 supera i 3000 euro tranquillamente, per modelli poi standard. vedi la mia palit, pagata 1750, l'ultimo avvistamento era sui 3250/3350.

Sì infatti hai ragione. Il full chip invece che "3090Ti" dovrebbe essere semplicemente una Titan Pro ma evidentemente visto che al mondo c'è gente benestante che arriverebbe a spendere così tanto per solo gaming al top(o magari per sfizio e senza nemmeno sfruttarla a dovere), mi sa che ci provano :D

bronzodiriace
19-05-2021, 16:37
Sì infatti hai ragione. Il full chip invece che "3090Ti" dovrebbe essere semplicemente una Titan Pro ma evidentemente visto che al mondo c'è gente benestante che arriverebbe a spendere così tanto per solo gaming al top(o magari per sfizio e senza nemmeno sfruttarla a dovere), mi sa che ci provano :D4000 euro minimo.

Siamo alle soglie di un auto usata city car

Inviato dal mio MAR-LX1A utilizzando Tapatalk

ROBHANAMICI
19-05-2021, 17:19
Che buffonata :muro: :muro:

nickname88
19-05-2021, 19:02
e purtroppo sarà un bug di afterburner quando si va a finire pelo sul clock della curva default e quest ultima poi sale e scende causa temperatura e qualcosa scazza. per evitare ciò devi superare o abbassare ulteriormente la curva

reset
-165
riporta il tuo 0.950v a 1860mhz (+0) e sicuramente vedrai sempre tutto liscio anche se già cosi va bene, la parte 1.100v+ non è interessata.

No a funzionare, funziona comunque bene, è solo che sto cercando di capire come caspita gira questa cosa.

davide155
19-05-2021, 23:00
Io sulla 1080ti continuo ad avere il gpu clock che torna a default dopo 5 minuti di gioco. Nonostante la curva sia impostata giusta.
Vediamo se coi nuovi driver torna alla normalità....

guadalupe
20-05-2021, 17:30
ragazzi avete provato Days Gone? A me va una bomba, oltre 80 fps in 4k tutto al massimo con la mia rtx 3080. Graficamente stupendo, uno dei migliori giochi che abbia provato visivamente parlando, colori bellissimi, illuminazione, definizione degli oggetti, aliasing inesistente, nessun bug né stuttering. Cavolo, così dovrebbero fare i porting su pc, da manuale proprio :D unica pecca, l'assenza di ray tracing ma pare che almeno il Dlss arriverà presto con una patch

ROBHANAMICI
20-05-2021, 18:01
Dire che ha un graficone è un'esagerazione, però sicuramente è ottimizzato molto bene. Molti dicono che il gioco è un mezzo pip... e che le 40-60 ore per finirlo sono troppe. Staremo a vedere. Chiaramente anche con la mia 3090 va che è una bellezza ;)

piperprinx
20-05-2021, 18:08
ragazzi avete provato Days Gone? A me va una bomba, oltre 80 fps in 4k tutto al massimo con la mia rtx 3080. Graficamente stupendo, uno dei migliori giochi che abbia provato visivamente parlando, colori bellissimi, illuminazione, definizione degli oggetti, aliasing inesistente, nessun bug né stuttering. Cavolo, così dovrebbero fare i porting su pc, da manuale proprio :D unica pecca, l'assenza di ray tracing ma pare che almeno il Dlss arriverà presto con una patch

Uno dei giochi piu' sottovalutati dela generazione imo, pur non apprezzando particolarmente i giochi di zombie. Godutissimo su PS4, probabilmete ci faro' un giro come dio comanda su pc, quando avro' tempo e me lo saro' dimenticato un po'.

SuperCiuk77
21-05-2021, 13:38
...ai possessori di 3090, fino a che temperature di ram video si può stare tranquilli?

Cutter90
21-05-2021, 14:36
ragazzi avete provato Days Gone? A me va una bomba, oltre 80 fps in 4k tutto al massimo con la mia rtx 3080. Graficamente stupendo, uno dei migliori giochi che abbia provato visivamente parlando, colori bellissimi, illuminazione, definizione degli oggetti, aliasing inesistente, nessun bug né stuttering. Cavolo, così dovrebbero fare i porting su pc, da manuale proprio :D unica pecca, l'assenza di ray tracing ma pare che almeno il Dlss arriverà presto con una patch

Preso ovviamente. SU ps4 pro lo spolpai, gioco veramente stupendo sotto tutti i punti di vista. Ha una grafuca e soprattutto un HDR (che su pc è merce rara) davvero assurdi. Mi gira tra i 90 e i 110 fps tutto al max in 4k. Il ray trcing non c'è, ma c'è una sorta di simulazione di esso, incredibilmente ben fatto. Lo spiegano nel video di DF.
Uno dei giochi piu' sottovalutati dela generazione imo, pur non apprezzando particolarmente i giochi di zombie. Godutissimo su PS4, probabilmete ci faro' un giro come dio comanda su pc, quando avro' tempo e me lo saro' dimenticato un po'.

Esatto, gioco inspiegabilmente sottovalutato. Gran trama, gameplay, orde, grafica, audio... è una piccola perla

...ai possessori di 3090, fino a che temperature di ram video si può stare tranquilli?

Dunque, la mia l'ho vista arrivare stabile a 102 °. Fino a 105 nessun problema.

SuperCiuk77
21-05-2021, 15:16
Preso ovviamente. SU ps4 pro lo spolpai, gioco veramente stupendo sotto tutti i punti di vista. Ha una grafuca e soprattutto un HDR (che su pc è merce rara) davvero assurdi. Mi gira tra i 90 e i 110 fps tutto al max in 4k. Il ray trcing non c'è, ma c'è una sorta di simulazione di esso, incredibilmente ben fatto. Lo spiegano nel video di DF.


Esatto, gioco inspiegabilmente sottovalutato. Gran trama, gameplay, orde, grafica, audio... è una piccola perla



Dunque, la mia l'ho vista arrivare stabile a 102 °. Fino a 105 nessun problema.

...grazie e bene...non supero gli 85° in gioco,ho la Aurus Master da 2 pin di alimentazione.

herasymcuk
21-05-2021, 16:41
A proposito di scheda grafica....
un paio di giorni fa stavo aggiornando da nvidia experience i driver grafici. Non ricordo se durante il download o se durante la prima fase di installazione (quella che precede il driver grafico stesso), ma improvvisamente sono comparsi dei "glitch"....sulla parte destra dello scermo....in una zona nera e poco sopra. Tipo 4 quadratini che roteavano velocemente.... striscioline....e via..... Durate pochi secondi....
Vi è mai capitato? Ho letto che nvidia experience non è nuovo a questo....e che è molto buggato.....Vorrei esculdere che sia la scheda! Grazie )

bronzodiriace
21-05-2021, 17:56
A proposito di scheda grafica....

un paio di giorni fa stavo aggiornando da nvidia experience i driver grafici. Non ricordo se durante il download o se durante la prima fase di installazione (quella che precede il driver grafico stesso), ma improvvisamente sono comparsi dei "glitch"....sulla parte destra dello scermo....in una zona nera e poco sopra. Tipo 4 quadratini che roteavano velocemente.... striscioline....e via..... Durate pochi secondi....

Vi è mai capitato? Ho letto che nvidia experience non è nuovo a questo....e che è molto buggato.....Vorrei esculdere che sia la scheda! Grazie )È la scheda video andata, te la prendo per 100 euro e ci vai benissimo tu.


Fai un superposition e ti levi il dubbio. 😉

Inviato dal mio MAR-LX1A utilizzando Tapatalk

herasymcuk
21-05-2021, 18:09
È la scheda video andata, te la prendo per 100 euro e ci vai benissimo tu.


Fai un superposition e ti levi il dubbio. 😉

Inviato dal mio MAR-LX1A utilizzando Tapatalk

"Come è umano lei :Prrr: " diceva qualcuno)
Proverò con il bench....non credo sia la scheda....perchè lo ha fatto solo su nvidia experience e per quei pochi secondi.....oltretutto è in stock....non la stresso....
Ho proprio letto di artefatti che compaiono solo su experience....

nickname88
21-05-2021, 19:12
ragazzi avete provato Days Gone? A me va una bomba, oltre 80 fps in 4k tutto al massimo con la mia rtx 3080. Graficamente stupendo, uno dei migliori giochi che abbia provato visivamente parlando, colori bellissimi, illuminazione, definizione degli oggetti, aliasing inesistente, nessun bug né stuttering. Cavolo, così dovrebbero fare i porting su pc, da manuale proprio :D unica pecca, l'assenza di ray tracing ma pare che almeno il Dlss arriverà presto con una patchGli altri 2 titoli dello studio Sony come Horizon e Death Stranding vanno uguali e soprattutto Horizon a dispetto di quanto dicono in giro l'ho trovato tecnicamente parlando un esperienza di gioco quasi vicino alla perfezione, oltre che bello visivamente.

Insomma per dire che non è il solo ad essere stato ben fatto.

Gigibian
22-05-2021, 01:27
Ai possessori di 3080: Quanto fate al superposition 1080p extreme a default? (NO OC)

Io con la 3080 TUF Faccio "solo" 10600...mi pare pochino...la rece di guru3d arriva addirittura a 12000 e rotti!

Thunder-74
22-05-2021, 07:58
Ai possessori di 3080: Quanto fate al superposition 1080p extreme a default? (NO OC)

Io con la 3080 TUF Faccio "solo" 10600...mi pare pochino...la rece di guru3d arriva addirittura a 12000 e rotti!


È poco.. controlla che:
-Gsync / Vsync non siano attivi
-Noi hai programmi in BG che possano rallentare


Inviato dal mio iPhone X utilizzando Tapatalk

Gigibian
22-05-2021, 09:02
È poco.. controlla che:
-Gsync / Vsync non siano attivi
-Noi hai programmi in BG che possano rallentare


Inviato dal mio iPhone X utilizzando Tapatalk

Gsync è attivo...ma mica riduce le performance...?

Tu quanto fai ?

Poi ho fatto anche un test con Shadow of the tomb raider, così come setttato da hwupgrade: Massima TAA e 1440p, e faccio 146 FPS, contro i 142 di hwu...quindi sembrerebbe in linea...

fraussantin
22-05-2021, 09:53
Ai possessori di 3080: Quanto fate al superposition 1080p extreme a default? (NO OC)



Io con la 3080 TUF Faccio "solo" 10600...mi pare pochino...la rece di guru3d arriva addirittura a 12000 e rotti!A me sembra normale per default.

Controlla se ti entra in temp limit o in powerlimit.

Anche sui singoli connettori ( se non erro la tuf a 2x8 PIN entrava in pl sul connettore )
Vecchio screen di novembre. A 1920
https://i.postimg.cc/BPfvtw7b/IMG-20210522-095252-181.jpg (https://postimg.cc/BPfvtw7b)


PS anche guardando sul sito di loro https://benchmark.unigine.com/leaderboards/superposition/1.x/1080p-extreme/single-gpu/page-4

Partono da 10k e arrivano a 13k immagino con oc spinti.

Gigibian
22-05-2021, 10:01
A me sembra normale per default.

Controlla se ti entra in temp limit o in powerlimit.

Anche sui singoli connettori ( se non erro la tuf a 2x8 PIN entrava in pl sul connettore )
Vecchio screen di novembre. A 1920
https://i.postimg.cc/BPfvtw7b/IMG-20210522-095252-181.jpg (https://postimg.cc/BPfvtw7b)

Ok! Allora sono in linea.
In OC faccio 11000 e rotti

Ho collegato due cavi separati

Thunder-74
22-05-2021, 11:21
Gsync è attivo...ma mica riduce le performance...?

Tu quanto fai ?

Poi ho fatto anche un test con Shadow of the tomb raider, così come setttato da hwupgrade: Massima TAA e 1440p, e faccio 146 FPS, contro i 142 di hwu...quindi sembrerebbe in linea...

Il Gsync riduce in parte le performance, poca cosa, ma se fai benchmark meglio disattivarlo. Ad esempio se esegui 3dMark ti avvisa di disattivarlo

DJurassic
22-05-2021, 13:49
Quando si fanno benchmark di qualsiasi tipo via il vsync e via il Gsync sempre e comunque se si vogliono risultati attendibili. Fate anche attenzione anche a possibili limitatori impostati come Rivatuner perchè capita che ci si dimentica di toglierli e poi ci si resta male.

Lo scrivo perchè a me è capitato più di una volta distratto come sono :D

Gigibian
22-05-2021, 18:35
11300 in OC con gsync disattivato.
Penso sia ok no ?

(Immagine in firma)

lostsf
22-05-2021, 20:42
11300 in OC con gsync disattivato.
Penso sia ok no ?

(Immagine in firma)tuf 3080 oc. a stock 11400 in oc supero i 1200:)in 4k quasi 17000 in oc

Gigibian
22-05-2021, 20:48
tuf 3080 oc. a stock 11400 in oc supero i 1200:)in 4k quasi 17000 in oc

E' un altra scheda, la "OC" . Poi bisogna vedere di che Oc parliamo...screen? Sono curioso :)

lostsf
22-05-2021, 21:09
https://i.postimg.cc/ZCjQnsGM/12047-record-con-5950.png (https://postimg.cc/ZCjQnsGM)E' un altra scheda, la "OC" . Poi bisogna vedere di che Oc parliamo...screen? Sono curioso :)

lostsf
22-05-2021, 21:11
https://i.postimg.cc/0b6t55Cb/16127-record-4k-5950.png (https://postimg.cc/0b6t55Cb)https://i.postimg.cc/ZCjQnsGM/12047-record-con-5950.png (https://postimg.cc/ZCjQnsGM) scusa mi sono confuso col 4k supero i 16000

lostsf
22-05-2021, 21:20
https://i.postimg.cc/0bcSbh9F/11342-3080.png (https://postimg.cc/0bcSbh9F)https://i.postimg.cc/0b6t55Cb/16127-record-4k-5950.png (https://postimg.cc/0b6t55Cb) scusa mi sono confuso col 4k supero i 16000 gli 11300 sono a stock

fraussantin
22-05-2021, 21:29
E' un altra scheda, la "OC" . Poi bisogna vedere di che Oc parliamo...screen? Sono curioso :)Non solo l'oc , ma più che altro il Power limit. Nei punteggi fra averci 340 o 400 cambia un bel po'.

lostsf
22-05-2021, 21:35
Non solo l'oc , ma più che altro il Power limit. Nei punteggi fra averci 340 o 400 cambia un bel po'.il power limit come vedi è a 110 in oc 100 senza oc, ps il bios è originale non ho cambiato nulla a parte che sono a liquido,

amon.akira
22-05-2021, 21:58
tuf liscia e oc sono uguali stesso power limit fisico dei 2x8pin 375w di picco.

anche la temperatura lascia il tempo che trova con ampere visto che post 50gradi riprende il fullclock e se si resta sotto i 70 hai solo 1taglio di 15mhz max 2

cioè che fa la differenza è il clock e l assorbimento che dipendono dal bin della gpu.

detto ciò, ho fatto un giro ora a 1950mhz fissi per tutto il bench, ce l ho a 900mv ora (1965mhz) e +500mem e quality in nv panel ho fatto 11477punti in 1080extreme (https://i.imgur.com/aZpbFa0.png)

Gigibian
22-05-2021, 23:28
https://i.postimg.cc/ZCjQnsGM/12047-record-con-5950.png (https://postimg.cc/ZCjQnsGM)

A 1080p con la 3080 sono cmq CPU limited anche con un 5800X.
Col 5950X guadagni sicuramente un po'.

Quindi direi perfettamente in linea :)

Gigibian
22-05-2021, 23:30
tuf liscia e oc sono uguali stesso power limit fisico dei 2x8pin 375w di picco.

anche la temperatura lascia il tempo che trova con ampere visto che post 50gradi riprende il fullclock e se si resta sotto i 70 hai solo 1taglio di 15mhz max 2

cioè che fa la differenza è il clock e l assorbimento che dipendono dal bin della gpu.

detto ciò, ho fatto un giro ora a 1950mhz fissi per tutto il bench, ce l ho a 900mv ora (1965mhz) e +500mem e quality in nv panel ho fatto 11477punti in 1080extreme (https://i.imgur.com/aZpbFa0.png)

Quindi sono perfettamente in linea con te :). bene.

dinamite2
23-05-2021, 00:52
https://i.postimg.cc/ZCjQnsGM/12047-record-con-5950.png (https://postimg.cc/ZCjQnsGM)

Si vabbè, 33 gradi di temperatura massima, e dove stavi a benchare al polo nord???

lostsf
23-05-2021, 01:12
Si vabbè, 33 gradi di temperatura massima, e dove stavi a benchare al polo nord???liquido e finestre aperte:D :D :D

Gigibian
23-05-2021, 01:42
liquido e finestre aperte:D :D :D
vabbè, ti sei fatto il figho :D Bellissima scheda ma allora sono fin troppo in linea io :D

Thunder-74
23-05-2021, 10:24
Con Superposition a 1080exreme il pl non supera di molto il 100x100, anche se impostate il massimo su ab. Provate a vedere i watt in tempo reale e ve ne accorgerete, o meglio ancora su osd il power limit , scritta che apparirà non appena raggiunto il vostro pl di default . Diverso se impostare 8k , allora usa tutto il pl che impostate , arrivando ai watt massimi disponibili .
Quel bench è fatto male e non serve neanche a valutare la stabilità …


Inviato dal mio iPhone X utilizzando Tapatalk

Gigibian
23-05-2021, 18:36
Con Superposition a 1080exreme il pl non supera di molto il 100x100, anche se impostate il massimo su ab. Provate a vedere i watt in tempo reale e ve ne accorgerete, o meglio ancora su osd il power limit , scritta che apparirà non appena raggiunto il vostro pl di default . Diverso se impostare 8k , allora usa tutto il pl che impostate , arrivando ai watt massimi disponibili .
Quel bench è fatto male e non serve neanche a valutare la stabilità …


Inviato dal mio iPhone X utilizzando Tapatalk

grazie dell'hint!

Thunder-74
23-05-2021, 18:56
grazie dell'hint!

Prego ;)

kiwivda
24-05-2021, 11:18
Ciao a tutti, sono riuscito a mettere le mani su una 3070 MSI Ventus x2, la scheda ha un PL di 220W, ho fatto alcune prove e le ho tirato il collo oltre ogni limite, tuttavia sono molto deluso dai risultati.

In OC il PL è molto limitante la scheda prende 1920Mhz con 0,893 di Vcore in undervolt, fare oc in senso stretto è impossibile, perché si va a sbattere subito contro il PL, anche a default la scheda sbatte contro il PL in continuazione, creando stutter e cali/riprese del framerate anche con il G-Sync attivo :confused:

Come vedete ho impostato Afterburner come segue:
http://i.imgur.com/s0FjxHDl.jpg (https://imgur.com/s0FjxHD)

http://i.imgur.com/Lz5t0AQl.jpg (https://imgur.com/Lz5t0AQ)

Come vedete dal grafico, fatto durante una delle run di Superposition 1080P Extreme, la scheda raggiunge anche i 1965mhz e sfiora il PL, tuttavia in game lo scenario si ribalta ed il PL è continuamente bloccante.
Stessa cosa mi accade con altri benchmark di cui vi allego qualche screenshot :

Questo un confronto con la 2080Ti
https://i.imgur.com/8StstEhl.jpg
https://i.imgur.com/YTmVTrzl.jpg

Questo un esempio con Boundary Benchmark
http://i.imgur.com/FlEjDxGl.jpg (https://imgur.com/FlEjDxG)

Questo un Timespy Extreme
http://i.imgur.com/7UyheY7l.jpg (https://imgur.com/7UyheY7)

Questo un TimeSpy
http://i.imgur.com/XOuAGnll.jpg (https://imgur.com/XOuAGnl)

Confronto con la 2080Ti
http://i.imgur.com/cmfZq7Wl.jpg (https://imgur.com/cmfZq7W)

Questo un Port Royal
http://i.imgur.com/iMReBIZl.jpg (https://imgur.com/iMReBIZ)

Questo un Metro Exodus Enhanced a 1080P con DLSS quality
http://i.imgur.com/iJ1JbGJ.jpg (https://imgur.com/iJ1JbGJ)

e senza
http://i.imgur.com/Vyj3iPa.jpg (https://imgur.com/Vyj3iPa)

Come dire, non so, vero che la 2080Ti è una strix OC e la 3070 Ventus una reference, ma mi aspettavo molto di più da una scheda che a dir di tutti equivale quella che ho mantenuto nel pc gaming.

C'è qualcosa che posso fare per moddarla oltre, si può ancora flashare i bios di altri modelli con PL più permissivi?

Una nota di merito in tutto è che in puro Ray Tracing si equivalgono quasi, come si vede da questa run di 3d Mark.

http://i.imgur.com/6cZGBSKl.jpg (https://imgur.com/6cZGBSK)

Mi vien quindi da dire che probabilmente le due schede si equivalgono modello su modello, vedremo quando arriveranno le altre e soprattuto la 3080Ti che vorrei sostituisse la 2080Ti nel mio case.

Ciao.

Cutter90
24-05-2021, 11:53
Ciao a tutti, sono riuscito a mettere le mani su una 3070 MSI Ventus x2, la scheda ha un PL di 220W, ho fatto alcune prove e le ho tirato il collo oltre ogni limite, tuttavia sono molto deluso dai risultati.

In OC il PL è molto limitante la scheda prende 1920Mhz con 0,893 di Vcore in undervolt, fare oc in senso stretto è impossibile, perché si va a sbattere subito contro il PL, anche a default la scheda sbatte contro il PL in continuazione, creando stutter e cali/riprese del framerate anche con il G-Sync attivo :confused:

Come vedete ho impostato Afterburner come segue:
http://i.imgur.com/s0FjxHDl.jpg (https://imgur.com/s0FjxHD)

http://i.imgur.com/Lz5t0AQl.jpg (https://imgur.com/Lz5t0AQ)

Come vedete dal grafico, fatto durante una delle run di Superposition 1080P Extreme, la scheda raggiunge anche i 1965mhz e sfiora il PL, tuttavia in game lo scenario si ribalta ed il PL è continuamente bloccante.
Stessa cosa mi accade con altri benchmark di cui vi allego qualche screenshot :

Questo un confronto con la 2080Ti
https://i.imgur.com/8StstEhl.jpg
https://i.imgur.com/YTmVTrzl.jpg

Questo un esempio con Boundary Benchmark
http://i.imgur.com/FlEjDxGl.jpg (https://imgur.com/FlEjDxG)

Questo un Timespy Extreme
http://i.imgur.com/7UyheY7l.jpg (https://imgur.com/7UyheY7)

Questo un TimeSpy
http://i.imgur.com/XOuAGnll.jpg (https://imgur.com/XOuAGnl)

Confronto con la 2080Ti
http://i.imgur.com/cmfZq7Wl.jpg (https://imgur.com/cmfZq7W)

Questo un Port Royal
http://i.imgur.com/iMReBIZl.jpg (https://imgur.com/iMReBIZ)

Questo un Metro Exodus Enhanced a 1080P con DLSS quality
http://i.imgur.com/iJ1JbGJ.jpg (https://imgur.com/iJ1JbGJ)

e senza
http://i.imgur.com/Vyj3iPa.jpg (https://imgur.com/Vyj3iPa)

Come dire, non so, vero che la 2080Ti è una strix OC e la 3070 Ventus una reference, ma mi aspettavo molto di più da una scheda che a dir di tutti equivale quella che ho mantenuto nel pc gaming.

C'è qualcosa che posso fare per moddarla oltre, si può ancora flashare i bios di altri modelli con PL più permissivi?

Una nota di merito in tutto è che in puro Ray Tracing si equivalgono quasi, come si vede da questa run di 3d Mark.

http://i.imgur.com/6cZGBSKl.jpg (https://imgur.com/6cZGBSK)

Mi vien quindi da dire che probabilmente le due schede si equivalgono modello su modello, vedremo quando arriveranno le altre e soprattuto la 3080Ti che vorrei sostituisse la 2080Ti nel mio case.

Ciao.

Ciao, mi sorge subito una domanda. Ma perchè prendere una 3070 se avevi una 2080 ti? Hai due pc?
Superposition non è un buon test per tenere monitorate le feequenze e il pl.
Inoltre dai test si evince che il resto del pc è completamente differente. Difficile fare un paragone 1 a 1.
Del resto una ventus vs una strix oc. Le differenze è normale ci siano, anche se forse qui siamo un po tanto.
Con la mia vecchia 2080 ti facevo 16000 in time spy, quindi si, siamo un po' bassi

bagnino89
24-05-2021, 12:07
In merito a Superposition, il punteggio della 3070 mi sembra in linea, è quello della 2080 Ti che mi sembra molto elevato. Una GPU fortunata? Scommetto che teneva una frequenza molto elevata.

Thunder-74
24-05-2021, 12:23
passare da una 2080ti ad una 3070 ha poco senso...

Black"SLI"jack
24-05-2021, 12:28
in superposition 1080p extreme una 2080ti da 2085/2100mhz fissi fa oltre 10000 punti.
la mia zotac (reference) da 2085/15000 (bios 380w), ne fa 10300 più o meno. se tenuta a 2145mhz, non mi ricordo se ne facevo 10600 o 10800.

semmai la questione è che tra una 2080ti fortuna in overclock che tiene stabili frequenze vicine ai 2100mhz e una 3070 "standard" che lotta con il PL durante i giochi, non 3070 non ha senso. se hai una 2080ti, punti alla 3080/3080ti/3090. da vedere l'eventuale 3070ti. ma personalmente passare alla 3070 è un sidegrade/downgrade. forse 3070 custom come si deve danno quel margine in più su una 2080ti, ma i 3GB di ram in meno non mi fanno impazzire.

kiwivda
24-05-2021, 12:30
Ciao, mi sorge subito una domanda. Ma perchè prendere una 3070 se avevi una 2080 ti? Hai due pc?
in verità ne ho 6 e mezzo ed un mining rig.


Superposition non è un buon test per tenere monitorate le feequenze e il pl.

Vero va un po' a caso e non sfrutta molto bene le schede già dalla serie 2XXX, però è comodo per sgrossare i setting.


Inoltre dai test si evince che il resto del pc è completamente differente. Difficile fare un paragone 1 a 1.

Si la 3070 era su una macchina con i5 10400f e la 2080 con i7 8700k, nei sintetici il contributo della cpu è ben quantificabile, senza contare che ora la 2080 sta su un 10900K e non ho test con questa config.


Del resto una ventus vs una strix oc. Le differenze è normale ci siano, anche se forse qui siamo un po tanto.
Con la mia vecchia 2080 ti facevo 16000 in time spy, quindi si, siamo un po' bassi

si infatti è proprio in po' poco, ma la Ventus l'ho pagata poco e sai come non prenderla..:D

In merito a Superposition, il punteggio della 3070 mi sembra in linea, è quello della 2080 Ti che mi sembra molto elevato. Una GPU fortunata? Scommetto che teneva una frequenza molto elevata.

Si la 2080 è molto fortunata.

Cutter90
24-05-2021, 12:46
in verità ne ho 6 e mezzo ed un mining rig.


Vero va un po' a caso e non sfrutta molto bene le schede già dalla serie 2XXX, però è comodo per sgrossare i setting.


Si la 3070 era su una macchina con i5 10400f e la 2080 con i7 8700k, nei sintetici il contributo della cpu è ben quantificabile, senza contare che ora la 2080 sta su un 10900K e non ho test con questa config.



si infatti è proprio in po' poco, ma la Ventus l'ho pagata poco e sai come non prenderla..:D



Si la 2080 è molto fortunata.

No beh, la 2080 ti che hai non mi sembra fortunata. E' una fascia alta è normale che vada così. Con la mia 2080 ti trio facevo 16000, quindi ci sta

kiwivda
24-05-2021, 13:35
No beh, la 2080 ti che hai non mi sembra fortunata. E' una fascia alta è normale che vada così. Con la mia 2080 ti trio facevo 16000, quindi ci sta

La 2080Ti è in downvolt, non in OC, non l'ho mai overcloccata perché questa è la terza scheda di 2 rma, potrebbe fare decisamente di più ma non mi fido delle Turing. Dopo 2 chip B, mi hanno mandato un chip A quando i B andarono in EOL. Troppi space invaders.

beatl
24-05-2021, 13:43
La 2080Ti è in downvolt, non in OC, non l'ho mai overcloccata perché questa è la terza scheda di 2 rma, potrebbe fare decisamente di più ma non mi fido delle Turing. Dopo 2 chip B, mi hanno mandato un chip A quando i B andarono in EOL. Troppi space invaders.

Corretto :D ;)

Cutter90
24-05-2021, 13:49
La 2080Ti è in downvolt, non in OC, non l'ho mai overcloccata perché questa è la terza scheda di 2 rma, potrebbe fare decisamente di più ma non mi fido delle Turing. Dopo 2 chip B, mi hanno mandato un chip A quando i B andarono in EOL. Troppi space invaders.

Eh alè in downvolt addirittura. Posso non credrci? :D

kiwivda
24-05-2021, 14:00
Eh alè in downvolt addirittura. Posso non credrci? :D

:D certo che puoi, ci mancherebbe, ma per tua informazione è a 1.016v 2100Mhz di core, ram a default, bios originale, PL a 325W ridotto al 95%.

Vash88
24-05-2021, 14:13
Ho fatto la mod sulle Vram della 3080 FE, ora in Cyberpunk non arrivo più a 104C ma a 86 massimi. Vorrei sapere qual'è il vostro risultato delta per il GPU hotspot. Io ho circa 18 C di differenza tra GPU core Temperature e il GPU hotspot. Ho visto online che nei casi migliori non si va sotto i 10-11 gradi e stare intorno ai 15-18C di delta è normale ma volevo vedere cosa succede sulle vostre schede.

DJurassic
24-05-2021, 14:17
si infatti è proprio in po' poco, ma la Ventus l'ho pagata poco e sai come non prenderla..:D



Di questi tempi prendere una 3070 a poco suona quantomeno curioso. Tagliamo la testa al toro e dicci a chi l'hai rubata?

kiwivda
24-05-2021, 14:22
Di questi tempi prendere una 3070 a poco suona quantomeno curioso. Tagliamo la testa al toro e dicci a chi l'hai rubata? :asd:

:D si dice il peccato, non il peccatore.
In giro cominciano ad esserci interessanti miniere piene di canarini morti con gente che si da alla fuga, nel giro non manca la disponibilità, quello che mancano sono i prezzi interessanti, considera che le schede vengono valutate dagli 8 ai 10 euro al Mh/s che sono in grado di produrre quando le compri bene e dai 18 ai 20 euro quando le compri male.

Io sto aspettando che si allaghino del tutto :D per entrare con il retino.

TigerTank
24-05-2021, 14:23
in superposition 1080p extreme una 2080ti da 2085/2100mhz fissi fa oltre 10000 punti.
la mia zotac (reference) da 2085/15000 (bios 380w), ne fa 10300 più o meno. se tenuta a 2145mhz, non mi ricordo se ne facevo 10600 o 10800.

semmai la questione è che tra una 2080ti fortuna in overclock che tiene stabili frequenze vicine ai 2100mhz e una 3070 "standard" che lotta con il PL durante i giochi, non 3070 non ha senso. se hai una 2080ti, punti alla 3080/3080ti/3090. da vedere l'eventuale 3070ti. ma personalmente passare alla 3070 è un sidegrade/downgrade. forse 3070 custom come si deve danno quel margine in più su una 2080ti, ma i 3GB di ram in meno non mi fanno impazzire.

Io nei mesi passati ho beccato qualche 3070 via alerts ma sinceramente non mi è andata di sostituire la 2080. Se poi avessi avuto una 2080Ti non mi avrebbe nemmeno sfiorato l'idea :D
E infatti mal che vada sono interessato a vedere la 3070Ti.

:D si dice il peccato, non il peccatore.
In giro cominciano ad esserci interessanti miniere piene di canarini morti con gente che si da alla fuga, nel giro non manca la disponibilità, quello che mancano sono i prezzi interessanti, considera che le schede vengono valutate dagli 8 ai 10 euro al Mh/s che sono in grado di produrre quando le compri bene e dai 18 ai 20 euro quando le compri male.

Io sto aspettando che si allaghino del tutto :D per entrare con il retino.

Dunque la tua l'hai "pagata poco" perchè scheda dismessa da un qualche miner andato in crisi? :D

DJurassic
24-05-2021, 14:30
:D si dice il peccato, non il peccatore.
In giro cominciano ad esserci interessanti miniere piene di canarini morti con gente che si da alla fuga, nel giro non manca la disponibilità, quello che mancano sono i prezzi interessanti, considera che le schede vengono valutate dagli 8 ai 10 euro al Mh/s che sono in grado di produrre quando le compri bene e dai 18 ai 20 euro quando le compri male.

Io sto aspettando che si allaghino del tutto :D per entrare con il retino.

Ci crediamo di sicuro. Dopotutto ti sei sempre dimostrato super affidabile per quanto riguarda Ampere :rolleyes:

kiwivda
24-05-2021, 14:47
Ci crediamo di sicuro. Dopotutto ti sei sempre dimostrato super affidabile per quanto riguarda Ampere :rolleyes:

Esatto, ci ho proprio sempre preso, e tutti i miei interventi di settembre sono supportati dai dati prodotti e dai fatti avvenuti nei mesi a seguire. Ci vediamo primavera prossima, quando le 3080 varranno il loro msrp - iva -30%.

Ampere commercialmente è nata morta, su un processo produttivo sbagliato, in un periodo sfigato, e con il boost dalla gen precedente al minimo sindacale, e consumano un botto.

Però nel mining vanno benissimo e con linux i consumi sono ampiamente gestibili, tanto per dire la 3080 con i suoi 100Mh/s consuma 250W (ma bisogna rifare i pad termici), 2 3070 da 62 Mh/s consumano 130w l'una, la 2080Ti con 130W produce 61Mh/s.

DJurassic
24-05-2021, 14:54
Bravo continua a minare che io penso a giocare :asd:

Vedi che se ti si spacca la terza 2080Ti sarà dura trovarne un altra di questi tempi. Ah ma che vado dicendo, te hai 6 PC + 3070 comprata a poco.

Cutter90
24-05-2021, 15:15
Esatto, ci ho proprio sempre preso, e tutti i miei interventi di settembre sono supportati dai dati prodotti e dai fatti avvenuti nei mesi a seguire. Ci vediamo primavera prossima, quando le 3080 varranno il loro msrp - iva -30%.

Ampere commercialmente è nata morta, su un processo produttivo sbagliato, in un periodo sfigato, e con il boost dalla gen precedente al minimo sindacale, e consumano un botto.

Però nel mining vanno benissimo e con linux i consumi sono ampiamente gestibili, tanto per dire la 3080 con i suoi 100Mh/s consuma 250W (ma bisogna rifare i pad termici), 2 3070 da 62 Mh/s consumano 130w l'una, la 2080Ti con 130W produce 61Mh/s.

Prego?? E' la gen con più salto prestazionale in assoluto in pratica rispetto alle serie precedenti. Ma ho la sensazione che non serva risponderti :)

Io vieterei non solo parlare di Mining in un forum, ma nche, ovviamente di praticarlo....

Thunder-74
24-05-2021, 15:36
Prego?? E' la gen con più salto prestazionale in assoluto in pratica rispetto alle serie precedenti. Ma ho la sensazione che non serva risponderti :)

Io vieterei non solo parlare di Mining in un forum, ma nche, ovviamente di praticarlo....

lascia perdere, inutile "parlarne"...

TigerTank
24-05-2021, 16:12
Prego?? E' la gen con più salto prestazionale in assoluto in pratica rispetto alle serie precedenti. Ma ho la sensazione che non serva risponderti :)

Io vieterei non solo parlare di Mining in un forum, ma nche, ovviamente di praticarlo....

Il difetto di questa generazione non è nelle prestazioni...ma in tutto il resto.
Dalla 3090 presentata al posto di una 3080Ti subito(lasciando il buco dai 10GB della 3080 ai fin troppi 24GB della 3090) a tutto il marasma successo tra pandemìa, poche disponibilità e tanta gente a bocca asciutta, mining, scalpers e sciacallaggio/avidità, e di conseguenza i prezzi lievitati a livelli ormai surreali.
Imho di tante cose si può parlar male di queste vga...ma non direi in prestazioni, complice l'evoluzione nelle integrazioni di ray tracing e DLSS.
Chiaro che se uno passa da una 2080Ti ad una 3070 non può aspettarsi miracoli(semmai prestazioni simili a minor consumi) e ci perde pure in vram ma se ad esempio passa da una 2080 ad una 3080 la differenza c'è :D

Alla fine non ce n'è...non si può dire che una 3080 non tiri alla grande a confronto di una 2080/2080S. LINK (https://www.youtube.com/watch?v=UQxnYOaaj6k&t).
Semmai fa piangere vedere quel "$700" sotto alla 3080 :asd:

DJurassic
24-05-2021, 16:40
Il difetto di questa generazione non è nelle prestazioni...ma in tutto il resto.
Dalla 3090 presentata al posto di una 3080Ti subito(lasciando il buco dai 10GB della 3080 ai fin troppi 24GB della 3090) a tutto il marasma successo tra pandemìa, poche disponibilità e tanta gente a bocca asciutta, mining, scalpers e sciacallaggio/avidità, e di conseguenza i prezzi lievitati a livelli ormai surreali.
Imho di tante cose si può parlar male di queste vga...ma non direi in prestazioni, complice l'evoluzione nelle integrazioni di ray tracing e DLSS.
Chiaro che se uno passa da una 2080Ti ad una 3070 non può aspettarsi miracoli(semmai prestazioni simili a minor consumi) e ci perde pure in vram ma se ad esempio passa da una 2080 ad una 3080 la differenza c'è :D

Alla fine non ce n'è...non si può dire che una 3080 non tiri alla grande a confronto di una 2080/2080S. LINK (https://www.youtube.com/watch?v=UQxnYOaaj6k&t=281s).

Ma tira alla grande anche nei confronti di una 2080Ti, sebbene è stato detto un milione di volte che andrebbe confrontata con la 3090 (o a breve con la 3080Ti) prendendo schiaffi a non finire. D'accordo su tutto il resto invece.

TigerTank
24-05-2021, 16:42
Ma tira alla grande anche nei confronti di una 2080Ti, sebbene è stato detto un milione di volte che andrebbe confrontata con la 3090 (o a breve con la 3080Ti) prendendo schiaffi a non finire. D'accordo su tutto il resto invece.

Ma infatti secondo me i confronti prestazionali assoluti vanno fatti tra 2 generazioni dello stesso modello.
In altri casi si valuta la questione prestazioni per consumi, come appunto ad esempio 2080TI vs 3070.

sertopica
24-05-2021, 17:04
Ammazza che arrampicate di specchi allucinanti... Extreme sports proprio. :asd: :asd:

Thunder-74
24-05-2021, 17:14
Fino a quando si gioca a 1080p a 60 fps, sarà difficile apprezzare un'Ampere.... :fagiano:
magari non è il caso suo, ma ho letto anche di questo...

sertopica
24-05-2021, 17:22
Fino a quando si gioca a 1080p a 60 fps, sarà difficile apprezzare un'Ampere.... :fagiano:
magari non è il caso suo, ma ho letto anche di questo...

Per me il salto di prestazioni a 1440p (ma anche a 4k sul televisore) e' stato enorme venendo da una 1080ti. La ricomprerei senza pensarci due volte, ovviamente al prezzo a cui l'ho trovata. :D

E poi vabbe', alla prossima gen si cambia di nuovo se ne vale la pena. :fagiano:

TigerTank
24-05-2021, 17:53
Per me il salto di prestazioni a 1440p (ma anche a 4k sul televisore) e' stato enorme venendo da una 1080ti. La ricomprerei senza pensarci due volte, ovviamente al prezzo a cui l'ho trovata. :D

E poi vabbe', alla prossima gen si cambia di nuovo se ne vale la pena. :fagiano:

Ah beh, nuove features a parte, con questo passaggio arrivi a toccare anche il raddoppio delle prestazioni in framerate :D

Gigibian
24-05-2021, 18:13
ingame (cyperpunk 1440p raytracing ultra dlss quality) sto più o meno fisso a 1965 di core e memorie a 20gbps, 345W .

https://imgur.com/a/tK73wB1

Vash88
24-05-2021, 18:39
Ma quindi nessuno che mi dice il delta tra il Core e l'hotspot della GPU sotto carico? :ciapet:

Gigibian
24-05-2021, 19:18
Ma quindi nessuno che mi dice il delta tra il Core e l'hotspot della GPU sotto carico? :ciapet:

Questo è quello che ottengo con CPU e GPU overclokkati al massimo che posso, dopo una decina di minuti di cyberpunk:

https://imgur.com/a/iPUGzUx

Vash88
24-05-2021, 19:49
Questo è quello che ottengo con CPU e GPU overclokkati al massimo che posso, dopo una decina di minuti di cyberpunk:

https://imgur.com/a/iPUGzUx

12C di delta vuol dire che il contatto è ottimo!

Gigibian
24-05-2021, 21:42
12C di delta vuol dire che il contatto è ottimo!

Bene :)
Beh, essendo una TUF, voglio sperare sia così :)

sertopica
25-05-2021, 06:46
Ah beh, nuove features a parte, con questo passaggio arrivi a toccare anche il raddoppio delle prestazioni in framerate :D

Per quanto mi riguarda e' la strategia piu' sensata. Con una scheda top una generazione puoi eventualmente anche saltarla e passare alla successiva... Non che lo faccia sempre, per esempio anche il salto da 980Ti a 1080Ti e' stato piuttosto evidente.

FroZen
25-05-2021, 09:56
Pure dalla 8800 Ultra è un bel salto!

Thunder-74
25-05-2021, 11:15
Pure dalla 8800 Ultra è un bel salto!


Si sì, pure da qualsiasi AMD è un bel salto. di qualità :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

TigerTank
25-05-2021, 11:47
Per quanto mi riguarda e' la strategia piu' sensata. Con una scheda top una generazione puoi eventualmente anche saltarla e passare alla successiva... Non che lo faccia sempre, per esempio anche il salto da 980Ti a 1080Ti e' stato piuttosto evidente.

Eh dipende tutto da come/cosa uno gioca.
Se uno è fanatico ed insegue di volta in volta nuovi titoli da prendere subito al day one, allora upgrada comunque, anche se prende il top (tipo da 2080Ti a 3090). Complice anche il gaming su "4K".
Se invece uno valuta solo le proprie necessità in prestazioni e magari gioca a risoluzioni under "4K", upgrada solo quando inizia a sentirlo necessario. E in tal caso quando aggiorna fa dei bei salti consistenti(come te) :D
Poi beh...con queste ampère invece sono subentrate altre questioni(reperibilità e impennate dei prezzi) che hanno influenzato le intenzioni di upgrade di molti.
Come nel mio caso...le 3070 non mi interessano(anche se ho avuto qualche occasione tramite alert) e le 3080 sono un delirio. E siccome non intendo assolutamente farmi spennare da uno scalper pur di reperire una 3080 di questi tempi ne di avere i patemi ordinandola da chissà dove, mi accontento ad oltranza della 2080(che si mangia ancora parecchi giochi) e osservo gli eventi in arrivo (3080Ti, 3070Ti, influenza delle nuove versioni castrate sul mercato, ecc...).

EDIT: oltretutto fortuna vuole che nonostante pandemìa e crisi economiche varie, il mercato del gaming digitale sia sempre rimasto lo stesso e bello florido, ricco di sconti e di offerte(e di qualche titolo free interessante) recuperando a pochi spicci degli arretrati.
E non solo perchè ad esempio qualche giorno fà per curiosità ho preso Ghostrunner(che ha RT e DLSS) a 4,99€ su Epic per via del buono da 10€ a ripetizione ad ogni acquisto che si detrae pure a molti giochi già scontati di loro.
In pratica il mercato dei giochi è agli antipodi rispetto a quello delle vga :asd:

FroZen
25-05-2021, 11:59
Si sì, pure da qualsiasi AMD è un bel salto. di qualità :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

https://64.media.tumblr.com/90934f5dfff65d5d07c5b6562d28b293/tumblr_onzpylZUur1vss02yo2_500.gifv

Thunder-74
25-05-2021, 12:11
GeForce Hotfix display driver version 466.55 is based on our latest Game Ready Driver 466.47.
The hotfix addresses the following issues:
[RTX 20 series][GTX 16/10 series][HDMI] 4K @ 120Hz display mode is not available from display settings [3312401]
If GPU is connected to a 4K UHD TV, system may freeze when launching a VR game [3313315]

LINK (https://www.guru3d.com/files-details/geforce-466-55-hotfix-driver-download.html)

DJurassic
25-05-2021, 12:13
qualche giorno fà per curiosità ho preso Ghostrunner(che ha RT e DLSS) a 4,99€ su Epic per via del buono da 10€ a ripetizione ad ogni acquisto che si detrae pure a molti giochi già scontati di loro.
In pratica il mercato dei giochi è agli antipodi rispetto a quello delle vga :asd:

Quel gioco mi ha fatto davvero sclerare. E' davvero ostico e impegnativo ma allo stesso tempo frenetico e bello da vedere. Le musiche poi sono uno spasso :D

Crysis90
25-05-2021, 13:49
pure da qualsiasi AMD è un bel salto. di qualità :fagiano:


:asd:

ROBHANAMICI
25-05-2021, 14:03
Guardate qui che tamarrata :sofico: :sofico:



Tra le varie caratteristiche si parla di un TDP massimo a 320W, l'uso di 2 connettori a 8 pin, 10240 CUDA cores e 12GB di memoria GDDR6X. Nvidia annuncerà le nuove 3080Ti al computex di taipei in versione digitale del 31 maggio 2021. Questa scheda video sarà messa in vendita partire dal 4 giugno 2021.



Leadtek presenta la sua gpu nvidia semicustom 3080Ti



https://i.postimg.cc/NFy1MP0b/LEADTEK-Ge-Force-RTX-3080-Ti-12-GB-Win-Fast-HURRICANE1.jpg (https://postimg.cc/QK3BYm1W) https://i.postimg.cc/Dz2LszZS/LEADTEK-Ge-Force-RTX-3080-Ti-12-GB-Win-Fast-HURRICANE4.jpg (https://postimg.cc/rDPD2M5T)

amon.akira
25-05-2021, 14:16
Ma quindi nessuno che mi dice il delta tra il Core e l'hotspot della GPU sotto carico? :ciapet:

10-11 gradi qui di delta

DJurassic
25-05-2021, 14:18
Sapete se della 3080Ti sono previste anche versioni founders o solo custom?

Cutter90
25-05-2021, 15:01
Eh dipende tutto da come/cosa uno gioca.
Se uno è fanatico ed insegue di volta in volta nuovi titoli da prendere subito al day one, allora upgrada comunque, anche se prende il top (tipo da 2080Ti a 3090). Complice anche il gaming su "4K".
Se invece uno valuta solo le proprie necessità in prestazioni e magari gioca a risoluzioni under "4K", upgrada solo quando inizia a sentirlo necessario. E in tal caso quando aggiorna fa dei bei salti consistenti(come te) :D
Poi beh...con queste ampère invece sono subentrate altre questioni(reperibilità e impennate dei prezzi) che hanno influenzato le intenzioni di upgrade di molti.
Come nel mio caso...le 3070 non mi interessano(anche se ho avuto qualche occasione tramite alert) e le 3080 sono un delirio. E siccome non intendo assolutamente farmi spennare da uno scalper pur di reperire una 3080 di questi tempi ne di avere i patemi ordinandola da chissà dove, mi accontento ad oltranza della 2080(che si mangia ancora parecchi giochi) e osservo gli eventi in arrivo (3080Ti, 3070Ti, influenza delle nuove versioni castrate sul mercato, ecc...).

EDIT: oltretutto fortuna vuole che nonostante pandemìa e crisi economiche varie, il mercato del gaming digitale sia sempre rimasto lo stesso e bello florido, ricco di sconti e di offerte(e di qualche titolo free interessante) recuperando a pochi spicci degli arretrati.
E non solo perchè ad esempio qualche giorno fà per curiosità ho preso Ghostrunner(che ha RT e DLSS) a 4,99€ su Epic per via del buono da 10€ a ripetizione ad ogni acquisto che si detrae pure a molti giochi già scontati di loro.
In pratica il mercato dei giochi è agli antipodi rispetto a quello delle vga :asd:

Mamma Ghostrunner. Capolavoro assoluto... anche di bestemmie da parte mia, soprattutto ne finale.

Cutter90
25-05-2021, 15:02
12C di delta vuol dire che il contatto è ottimo!

Quasi 30 gradi di delta qui, 3090 (70-100). Ma solo con giochi che prendono tutti i 500 watt o quasi. Altrimenti siamo sui 10-15 di delta

Crysis90
25-05-2021, 19:52
Guardate qui che tamarrata :sofico: :sofico:


Come se i modelli usciti fin'ora non lo fossero. :asd:

Sapete se della 3080Ti sono previste anche versioni founders o solo custom?

Solo versioni per chi ha i denti d'oro. :O :read:

sertopica
26-05-2021, 08:04
Sapete se della 3080Ti sono previste anche versioni founders o solo custom?
Gia' cambi? :D

TigerTank
26-05-2021, 09:28
Sapete se della 3080Ti sono previste anche versioni founders o solo custom?

Io dico che qualche FE nel mondo è probabile(dagli shop già incaricati ufficialmente della vendita delle precedenti)...ma non in Italia :asd:

DJurassic
26-05-2021, 09:44
Gia' cambi? :D

Sono quelle situazioni in cui ciò che succederà non dipende da te. Avrei sicuramente cambiato in una situazione diversa ma in questa prendere la TI la sarà impossibile (nemmeno il quasi davanti ci metto).

Giovamas
26-05-2021, 09:50
in condizioni normali io alla 3080ti ci avrei pensato.. adesso neppure la prendo in considerazione.. mai sfidare la sorte (e ne sono in debito dopo la botta di c... con la mia :cool: )

TigerTank
26-05-2021, 11:25
Sono quelle situazioni in cui ciò che succederà non dipende da te. Avrei sicuramente cambiato in una situazione diversa ma in questa prendere la TI la sarà impossibile (nemmeno il quasi davanti ci metto).

Ma non ti converrebbe minimamente....
A parte i costi che sicuramente avranno le 3080Ti, soprattutto se non dovessero uscire le FE(o ne girassero pochissime), un pizzico di prestazioni in più e 2GB di vram non li chiamerei upgrade.

albero77
26-05-2021, 11:30
Ma non ti converrebbe minimamente....
A parte i costi che sicuramente avranno le 3080Ti, soprattutto se non dovessero uscire le FE(o ne girassero pochissime), un pizzico di prestazioni in più e 2GB di vram non li chiamerei upgrade.

ma secondo me le tiene tutte e due :D

kiwivda
26-05-2021, 11:35
ma secondo me le tiene tutte e due :D

:D No ma va, lui pensa a giocare :stordita:

Io invece la prendo eccome la 3080Ti LHR, mi serve per pompare di brutto il 1080P. ;)

TigerTank
26-05-2021, 11:40
ma secondo me le tiene tutte e due :D

Eheheh comunque ha ragione.
Per me una 3080Ti sarebbe un upgrade perfetto ma temo anch'io una situazione molto grama a prezzi e disponibilità anche in caso di blocco anti-mining efficace.
Perchè purtroppo c'è pure una pandemìa di scalpers.
Vedremo un pò.

Thunder-74
26-05-2021, 11:51
Vedrete che la 3080ti LHR si troverà a poco...


3060 LHR a 966 dollari :asd: :asd:

LINK (https://videocardz.com/newz/galax-geforce-rtx-3060-lhr-with-ga106-302-goes-on-sale-for-966-usd)

TigerTank
26-05-2021, 12:05
Vedrete che la 3080ti LHR si troverà a poco...


3060 LHR a 966 dollari :asd: :asd:

LINK (https://videocardz.com/newz/galax-geforce-rtx-3060-lhr-with-ga106-302-goes-on-sale-for-966-usd)

Ma sì Thunder, una bella 3080Ti a 2000€ e tra tot. mesi rumors a profusione sulle fantasticose prestazioni e succose features hardware e software della nuova generazione :fagiano:
Dalla serie ridere per non piangere :D

Giovamas
26-05-2021, 12:20
Ma sì Thunder, una bella 3080Ti a 2000€ e tra tot. mesi rumors a profusione sulle fantasticose prestazioni e succose features hardware e software della nuova generazione :fagiano:
Dalla serie ridere per non piangere :D

mai dire mai ma io aspetto la prossima. a questo giro neppure la valuto la 3080ti

Thunder-74
26-05-2021, 12:23
Come dicevo, la situazione porterà con se aumenti di prezzi anche a pandemia finita... hanno visto a cosa sono disposte le persone per una pezzo di HW... tra un po' per avere un PC di un certo livello, bisognerà essere un calciatore... bah

DJurassic
26-05-2021, 12:33
Ma non ti converrebbe minimamente....
A parte i costi che sicuramente avranno le 3080Ti, soprattutto se non dovessero uscire le FE(o ne girassero pochissime), un pizzico di prestazioni in più e 2GB di vram non li chiamerei upgrade.

Dipende a quanto riuscirei a trovarla. La mia FE l'ho presa a 719€ e vedi ora quanto vale... Se riuscissi a non perderci nemmeno un euro bucato un upgrade è pur sempre un upgrade. A costo zero perché dire no?

:D No ma va, lui pensa a giocare :stordita:


È quello che ho fatto finora e che continuo a fare. Ma una cosa non esclude l'altra.

TigerTank
26-05-2021, 15:05
mai dire mai ma io aspetto la prossima. a questo giro neppure la valuto la 3080ti

Anche se ti avrei scritto "prendi la 3080Ti così vendi a me la tua 3080 al costo del tuo acquisto", ora ti dico invece che fai benone.:D
La 3080 è già una grande potenza :cool:
Alla fine la vera flagship prezzo-prestazioni al prezzo a cui l'avete presa tu e altri.

Dipende a quanto riuscirei a trovarla. La mia FE l'ho presa a 719€ e vedi ora quanto vale... Se riuscissi a non perderci nemmeno un euro bucato un upgrade è pur sempre un upgrade. A costo zero perché dire no?


Eh sì, con la 3080 ti è andata di lusso :cool:
Comunque a costo zero non credo...perchè nel momento in cui usciranno le 3080Ti con relativi prezzi, non credo saranno molti i gamers a voler sborsare cifre equivalenti o tendenti ad esse per delle 3080 usate :D
In teoria dovrebbero anche arrivare 3080 e 3070 castrate per cui...sarebbe bello che la cosa influisca a livello generale anche se imho saranno gli shop stessi ad approfittarne sui primi lotti prenotabili/in arrivo di tali "revisioni".
Come linkato da Thunder.

Giovamas
26-05-2021, 15:10
Anche se ti avrei scritto "prendi la 3080Ti così vendi a me la tua 3080 al costo del tuo acquisto", ora ti dico invece che fai benone.:D
La 3080 è già una grande potenza :cool:
Alla fine la vera flagship prezzo-prestazioni al prezzo a cui l'avete presa tu e altri.



ahahahah costo di acquisto - Iva (da buon ' neutral lawful' / 'evil lawful' ho un codice morale rigidissimo). cmq sarà la solita ghost edition card. spero di sbagliarmi

DJurassic
26-05-2021, 15:13
Eh sì, con la 3080 ti è andata di lusso :cool:
Comunque a costo zero non credo...perchè nel momento in cui usciranno le 3080Ti con relativi prezzi, non credo saranno molti i gamers a voler sborsare cifre equivalenti o tendenti ad esse per delle 3080 usate :D
In teoria dovrebbero anche arrivare 3080 e 3070 castrate per cui...sarebbe bello che la cosa influisca a livello generale anche se imho saranno gli shop stessi ad approfittarne sui primi lotti prenotabili/in arrivo di tali "revisioni".
Come linkato da Thunder.

Ah ma non c'è problema. In caso si verificasse ciò che dici non se ne parla nemmeno. ;)

davide155
26-05-2021, 15:25
Ragazzi è arrivata :winner:
Finalmente la 3080 SuprimX presa a culo rotto tramite bot su amazon a 1040€ è finalmente arrivata!
Chi segue il thread aspettando sa cosa ho dovuto passare per averla :mc:



https://uploads.tapatalk-cdn.com/20210526/ca11917736b0cc47a2f31640ce3b5e73.jpg

Comunque bando alle ciance, domande:

1-E' normale che le memorie stiano a 85C° in game con case aperto?!?
2- Qualche settaggio veloce di overclock con MSI afterburner? Limiti power limit e core voltage?
3- Conviene usare msi afterburner oppure consigliate qualcos'altro di migliore?

Probabilmente la metterò sotto liquido prima di quanto penso, dato le temperature delle memorie fuori da ogni logica per la mia mente :O

Thunder-74
26-05-2021, 15:30
Ragazzi è arrivata :winner:
Finalmente la 3080 SuprimX presa a culo rotto tramite bot su amazon a 1040€ è finalmente arrivata!
Chi segue il thread aspettando sa cosa ho dovuto passare per averla :mc:



https://uploads.tapatalk-cdn.com/20210526/ca11917736b0cc47a2f31640ce3b5e73.jpg

Comunque bando alle ciance, domande:

1-E' normale che le memorie stiano a 85C° in game con case aperto?!?
2- Qualche settaggio veloce di overclock con MSI afterburner? Limiti power limit e core voltage?
3- Conviene usare msi afterburner oppure consigliate qualcos'altro di migliore?

Probabilmente la metterò sotto liquido prima di quanto penso, dato le temperature delle memorie fuori da ogni logica per la mia mente :O

le temp delle vram su una 3080 sono quelle. A liquido limi una 20a di gradi


Si usa AB per fare OC o UV. Se farlo o non farlo sta a te... non si guadagna molto, mediamente circa 2/3 fps ogni 100mhz. Molti per questo preferiscono farsi una curva con un voltaggio sotto a 1v e campare freschi. A liquido capisci da te che questo si ridimensiona. Discorso PL, metto al max. Purtroppo si incappa veloci in consumi da 350/400W con tagli di freq.
discorso Freq. Mem , io non le tirerei, poco vantaggio per rischi inutili ;)

kiwivda
26-05-2021, 15:42
Dipende a quanto riuscirei a trovarla. La mia FE l'ho presa a 719€ e vedi ora quanto vale... Se riuscissi a non perderci nemmeno un euro bucato un upgrade è pur sempre un upgrade. A costo zero perché dire no?

È quello che ho fatto finora e che continuo a fare. Ma una cosa non esclude l'altra.

100 punti per te ragazzo mio! Inoltre se le cose andranno come credo, la tua 3080 presa a 719, diventerà una pepita d'oro appena le versioni non castrate cominceranno a scarseggiare, quindi una bella 3080Ti ti esce con anche una vacanza. :D

Ragazzi è arrivata :winner:
Finalmente la 3080 SuprimX presa a culo rotto tramite bot su amazon a 1040€ è finalmente arrivata!
Chi segue il thread aspettando sa cosa ho dovuto passare per averla :mc:


Complimenti ottimo acquisto! Adesso liquidala e tiragli il collo come se non ci fosse un domani! E una minatina qua e la io non ci sputerei sopra, a liquido è una pacchia soprattutto mentre spurghi l'impianto! :D

Cutter90
26-05-2021, 16:14
le temp delle vram su una 3080 sono quelle. A liquido limi una 20a di gradi


Si usa AB per fare OC o UV. Se farlo o non farlo sta a te... non si guadagna molto, mediamente circa 2/3 fps ogni 100mhz. Molti per questo preferiscono farsi una curva con un voltaggio sotto a 1v e campare freschi. A liquido capisci da te che questo si ridimensiona. Discorso PL, metto al max. Purtroppo si incappa veloci in consumi da 350/400W con tagli di freq.
discorso Freq. Mem , io non le tirerei, poco vantaggio per rischi inutili ;)

In realtà deve valutare gioco per gioco. Ho visto giochi in cui in oc si guadagnano facile anche 10-12 fps (su 70-100) in oc. In altri invece è inutile, tipo metro.
Dai test che ho fatto, non so se ti ricordi, ho dimostrato che la temperatura delle memorie non aumentano con l'aumentare del valore di oc (da +0 a +600 non varia di un solo grado).
Insomma, deve vedere

davide155
26-05-2021, 16:17
In realtà deve valutare gioco per gioco. Ho visto giochi in cui in oc si guadagnano facile anche 10-12 fps (su 70-100) in oc. In altri invece è inutile, tipo metro.
Dai test che ho fatto, non so se ti ricordi, ho dimostrato che la temperatura delle memorie non aumentano con l'aumentare del valore di oc (da +0 a +600 non varia di un solo grado).
Insomma, deve vedere

Quanto consigliate di salire rimanendo in sicurezza? Sia di memorie che di core.

A quanto ho capito il voltaggio è meglio non toccarlo giusto?

DJurassic
26-05-2021, 16:27
Quanto consigliate di salire rimanendo in sicurezza? Sia di memorie che di core.

A quanto ho capito il voltaggio è meglio non toccarlo giusto?

Memorie zero spaccato. Lasciale a def che come vedi già sono calde di loro e anche salendo non otterresti nessun beneficio. Per nessuno intendo nessuno, max 1fps quando và bene.

Per il core fai la procedura di sempre salendo di step in step, cercando di ottenere il max clock con il minimo voltaggio. Come ti hanno già detto gli altri non aspettarti grandi differenze. Si parla davvero di pochi fps e dopo tantissimi test eseguiti lo considero solo un pretesto per chi vuol fare i numeroni nei bench che non un qualcosa di davvero sensato. La 3080 tira già di suo e pure parecchio.

Inizia a toglierti qualche bello sfizio provando qualche gioco e resta sobrio :D

davide155
26-05-2021, 16:41
Memorie zero spaccato. Lasciale a def che come vedi già sono calde di loro e anche salendo non otterresti nessun beneficio. Per nessuno intendo nessuno, max 1fps quando và bene.

Per il core fai la procedura di sempre salendo di step in step, cercando di ottenere il max clock con il minimo voltaggio. Come ti hanno già detto gli altri non aspettarti grandi differenze. Si parla davvero di pochi fps e dopo tantissimi test eseguiti lo considero solo un pretesto per chi vuol fare i numeroni nei bench che non un qualcosa di davvero sensato. La 3080 tira già di suo e pure parecchio.

Inizia a toglierti qualche bello sfizio provando qualche gioco e resta sobrio :D

Perfetto, ma quindi il voltaggio va ritoccato solo in giù ho capito bene?
Non serve a nulla andare in su? Se si di quanto?
Il limite delle memorie quant'è? Ho visto gente che faceva anche +1000mhz, com'è possibile che non si guadagni nulla? :stordita: Se la temperatura non cambia preferirei tenerle a +1000mhz, no? :fagiano:


Ps: come vi sembra come primo bench:

https://uploads.tapatalk-cdn.com/20210526/26ef5e526a1a3234346618c8a312f9bd.jpg

Thunder-74
26-05-2021, 16:42
In realtà deve valutare gioco per gioco. Ho visto giochi in cui in oc si guadagnano facile anche 10-12 fps (su 70-100) in oc. In altri invece è inutile, tipo metro.
Dai test che ho fatto, non so se ti ricordi, ho dimostrato che la temperatura delle memorie non aumentano con l'aumentare del valore di oc (da +0 a +600 non varia di un solo grado).
Insomma, deve vedere

io ho provato a fare oc su un po' di titoli, non ho visto grossi benefici strapazzando la scheda, magari su qualche titolo dove non ho provato avrei ottenuto di più... alla fine, spento dall'entusiasmo, ho impostato un oc intermedio di 2070mhz e via...
La Vram come dissi, mi spaventa tirarla. Troppi casi di malfunzionamenti visti nel tempo dopo averle fatte lavorare oltre specifica. Benefici pochi. A questo punto rischiare in una situazione di mercato del genere, proprio no.

Perfetto, ma quindi il voltaggio va ritoccato solo in giù ho capito bene?
Non serve a nulla andare in su? Se si di quanto?
Il limite delle memorie quant'è? Ho visto gente che faceva anche +1000mhz, com'è possibile che non si guadagni nulla? :stordita: Se la temperatura non cambia preferirei tenerle a +1000mhz, no? :fagiano:


Ps: come vi sembra come primo bench:

https://uploads.tapatalk-cdn.com/20210526/26ef5e526a1a3234346618c8a312f9bd.jpg

creati più profili con AB e richiamali mentre sei in game assegnandoli a dei tasti, così ti rendi conto in tempo reale dei benefici dell'oc applicato.

Cutter90
26-05-2021, 16:46
Memorie zero spaccato. Lasciale a def che come vedi già sono calde di loro e anche salendo non otterresti nessun beneficio. Per nessuno intendo nessuno, max 1fps quando và bene.

Per il core fai la procedura di sempre salendo di step in step, cercando di ottenere il max clock con il minimo voltaggio. Come ti hanno già detto gli altri non aspettarti grandi differenze. Si parla davvero di pochi fps e dopo tantissimi test eseguiti lo considero solo un pretesto per chi vuol fare i numeroni nei bench che non un qualcosa di davvero sensato. La 3080 tira già di suo e pure parecchio.

Inizia a toglierti qualche bello sfizio provando qualche gioco e resta sobrio :D

Però, ascolta, non so se parlo in una lingua sconosciuta o cosa :D . Il messaggio su ho appena scritto che nei miei test da +0 a +600 non cambia di un solo grado la temperatura e tu dici che diventano calde... ehmmm no?!?!
Discorso fps uguale. In linea di massima si può tranquillamente dire che nei 10 fps che si guadagnano in oc, 3-4 le fonne le memorie, il restante il core.
Poi sacrosanto che uno voglia risparmiare calore e corrente e non guadagnarli.Lì sono daccordo con te

Cutter90
26-05-2021, 16:48
io ho provato a fare oc su un po' di titoli, non ho visto grossi benefici strapazzando la scheda, magari su qualche titolo dove non ho provato avrei ottenuto di più... alla fine, spento dall'entusiasmo, ho impostato un oc intermedio di 2070mhz e via...
La Vram come dissi, mi spaventa tirarla. Troppi casi di malfunzionamenti visti nel tempo dopo averle fatte lavorare oltre specifica. Benefici pochi. A questo punto rischiare in una situazione di mercato del genere, proprio no.



creati più profili con AB e richiamali mentre sei in game assegnandoli a dei tasti, così ti rendi conto in tempo reale dei benefici dell'oc applicato.

D'accordo sulla prima parte. In disaccordo sulle vram. Se non aumentano i gradi... che problemi possono dare? tra l'altro arrivano anche a 105 ° come limite. Non ho poi mai sentito problemi sulle memorie nelle 3000 ne malfunzionamenti di tali.

Cutter90
26-05-2021, 16:50
Perfetto, ma quindi il voltaggio va ritoccato solo in giù ho capito bene?
Non serve a nulla andare in su? Se si di quanto?
Il limite delle memorie quant'è? Ho visto gente che faceva anche +1000mhz, com'è possibile che non si guadagni nulla? :stordita: Se la temperatura non cambia preferirei tenerle a +1000mhz, no? :fagiano:


Ps: come vi sembra come primo bench:

https://uploads.tapatalk-cdn.com/20210526/26ef5e526a1a3234346618c8a312f9bd.jpg

Per le 3080 non so, ma per le 3090 dopo 500-600 di memoria aumentare peggiora quasi le prestazioni. Solo che la gente spara alto, vede che tiene e fine :D

Discorso voltaggio.... ultimamente ho notato che mi tiene gli stessi oc che ho, ma anche se il voltaggio lo lascio a zero e non a +100 come si fa di solito.... e la scheda sta anche, ovviamente, 3-5 gradi più fresca. Boh.

dinamite2
26-05-2021, 16:51
Ragazzi è arrivata :winner:
Finalmente la 3080 SuprimX presa a culo rotto tramite bot su amazon a 1040€ è finalmente arrivata!
Chi segue il thread aspettando sa cosa ho dovuto passare per averla :mc:





Probabilmente la metterò sotto liquido prima di quanto penso, dato le temperature delle memorie fuori da ogni logica per la mia mente :O

liquida liquida :D

https://i.ibb.co/v1jqKdZ/Cattura.jpg (https://ibb.co/Wn25Yzg)

DJurassic
26-05-2021, 16:57
Però, ascolta, non so se parlo in una lingua sconosciuta o cosa :D . Il messaggio su ho appena scritto che nei miei test da +0 a +600 non cambia di un solo grado la temperatura e tu dici che diventano calde... ehmmm no?!?!
Discorso fps uguale. In linea di massima si può tranquillamente dire che nei 10 fps che si guadagnano in oc, 3-4 le fonne le memorie, il restante il core.
Poi sacrosanto che uno voglia risparmiare calore e corrente e non guadagnarli.Lì sono daccordo con te

Forse non ci siamo capiti, ho scritto che dal momento che stanno già a 90° andare a fare oc sulla vram ha poco senso (non è una questione che diventano calde, SONO già calde). Un gain di 3-4fps con la mia 3080 non l'ho mai visto in nessun gioco salendo di memorie, max registrato è stato 1fps. Nei bench è diverso perchè fanno un uso intensivo dell'hw ma nei giochi proprio no.

Se c'è un guadagno c'è facendo oc sul core, ma anche li parliamo di poca cosa.

Cutter90
26-05-2021, 17:01
Forse non ci siamo capiti, ho scritto che dal momento che stanno già a 90° andare a fare oc sulla vram ha poco senso. Un gain di 3-4fps con la mia 3080 non l'ho mai visto in nessun gioco salendo di memorie, max registrato è stato 1fps. Nei bench è diverso perchè fanno un uso intensivo dell'hw ma nei giochi proprio no.

Se c'è un guadagno c'è facendo oc sul core, ma anche li parliamo di poca cosa.

Ma tu hai verificato che dando su alle memorie e solo a quelle, aumentino la loro temperatura? Perchè io si e non aumenta. Questo è il punto.

Poi ok sul resto, io ho una 3090 e non una 3080, quindi le differenze anche di guadagno sono ovviamente possibili.

DJurassic
26-05-2021, 17:06
Ma tu hai verificato che dando su alle memorie e solo a quelle, aumentino la loro temperatura? Perchè io si e non aumenta. Questo è il punto.

Poi ok sul resto, io ho una 3090 e non una 3080, quindi le differenze anche di guadagno sono ovviamente possibili.

Io rapporto ogni cosa al guadagno effettivo e se questa conviene o meno di conseguenza. Io le temp della Vram non le ho manco prese in considerazione ma anche fossero identiche salendo di frequenza, quello che posso dirti è che non si hanno benefici tangibili se non in qualche bench. Nei giochi assolutamente no e l'ho testato di persona.

Quindi a che pro dare +1000mhz sulla vram? Se è tanto per dire di averlo fatto ok, ma non perchè facendolo si hanno prestazioni migliori.

A quanti gradi viaggia la vram sulla tua 3090?

davide155
26-05-2021, 17:10
liquida liquida :D

https://i.ibb.co/v1jqKdZ/Cattura.jpg (https://ibb.co/Wn25Yzg)

Eh prima o poi la liquido......sicuro.

Comunque stavo leggendo un pò su reddit e c'è gente che le tiene a 1200mhz le memorie :sofico:

Ma son pazzi? :D

DJurassic
26-05-2021, 17:22
Eh prima o poi la liquido......sicuro.

Comunque stavo leggendo un pò su reddit e c'è gente che le tiene a 1200mhz le memorie :sofico:

Ma son pazzi? :D

La gente non fà testo, anche se ognuno è libero di sperimentare come meglio crede.

12000 punti di PortRoyal sono comunque un punteggio perfettamente in linea. Se fatto con scheda a def anche superiore la media.

Questo è il mio record con la FE tirata a limite: https://www.3dmark.com/pr/437939

Mentre questo è Superposition 1080p Extreme.

https://live.staticflickr.com/65535/50646688786_a26c82ea97_o.png

Ovvio che essendo ad aria per fare risultati simili ho dovuto sparare le ventole al 90% con ripercussioni importanti sul fronte uditivo. Se dovessi liquidare lo farei solo per una questione di Db piuttosto che altro.

davide155
26-05-2021, 17:28
Piccolo test a +150mhz di core.....sembra promettere bene.

https://uploads.tapatalk-cdn.com/20210526/3922236c789339cd1ee3f5028fd9674b.jpg

dinamite2
26-05-2021, 17:39
io piu di cosi non mi va, ma non è fortunatissima la mia strix :(

https://i.ibb.co/ZKCqtGQ/Cattura1.jpg (https://ibb.co/0Z3H8m0)

DJurassic
26-05-2021, 17:57
io piu di cosi non mi va, ma non è fortunatissima la mia strix :(


Poverino, fossi in te la smonterei e la spedirei al mio indirizzo che poi ci penso io a venderla :O

I veri benchmark sono i giochi, e se permettete anche molto più appaganti che non quella roba li.

dinamite2
26-05-2021, 18:02
Poverino, fossi in te la smonterei e la spedirei al mio indirizzo che poi ci penso io a venderla :O

I veri benchmark sono i giochi, e se permettete anche molto più appaganti che non quella roba li.

i benchmark puri, contano anche. Almeno hai un termine di paragone.
Poi è chiaro che una la vga la compra per giocarci... :mbe:

TigerTank
26-05-2021, 19:02
ahahahah costo di acquisto - Iva (da buon ' neutral lawful' / 'evil lawful' ho un codice morale rigidissimo). cmq sarà la solita ghost edition card. spero di sbagliarmi

Ma guarda, già tuo prezzo pieno di acquisto + spese di spedizione di questi tempi sarebbe condizione per cui richiedere al Pontefice la tua elevazione a Santo :asd:
Comunque ora goditela che dopo quello che hai passato, meriti :)

100 punti per te ragazzo mio! Inoltre se le cose andranno come credo, la tua 3080 presa a 719, diventerà una pepita d'oro appena le versioni non castrate cominceranno a scarseggiare, quindi una bella 3080Ti ti esce con anche una vacanza. :D

In effetti sarebbe divertente vedere i miners alla ricerca disperata delle vga "lisce" salassati dai gamers improvvisati scalpers :sofico:
Sempre che il presunto blocco non venga mandato alle ortiche in poco tempo.

DJurassic
26-05-2021, 19:35
i benchmark puri, contano anche. Almeno hai un termine di paragone.
Poi è chiaro che una la vga la compra per giocarci... :mbe:

Ma certo che si, dico solo di farne una questione di principio. Dopo che si è verificato che tutto funziona bene e che la scheda restituisce risultati allineati alle altre si passa oltre. Mentre giochi non stai certo a pensare al fatto che la tua Strix è meno fortunata di altre, anche perchè sono convinto che a conti fatti nemmeno si noterebbe.

davide76mx
26-05-2021, 20:59
Sono riuscito anch'io a procurarmi una 3080 suprim x poco tempo fa e l'ho già liquidata.
Come superposition a extreme faccio 11486 con oc a 2100 e 950 mv e memorie a +500.
Mi sembra basso come punteggio. Ho tolto il gsync.
Che ne dite?

davide155
26-05-2021, 22:35
Ragazzi msi afterburner mi da lo stesso problema con la 3080 che mi dava con la 1080ti.
Non mi tiene l'overclock del core gpu, sia downclock che overclock. Dopo una decina di minuti torna a default.
Nessun problema con le memorie.

Che cavolo può essere?!? Ho provato a disinstallare e rimettere msi ma nulla.

TigerTank
26-05-2021, 22:44
Ma certo che si, dico solo di farne una questione di principio. Dopo che si è verificato che tutto funziona bene e che la scheda restituisce risultati allineati alle altre si passa oltre. Mentre giochi non stai certo a pensare al fatto che la tua Strix è meno fortunata di altre, anche perchè sono convinto che a conti fatti nemmeno si noterebbe.

Eheheheh fortuna che non ci sono più gli ASIC....altrimenti sai che paranoie come quelle di quei tempi! :sofico:

mattxx88
26-05-2021, 22:45
una gpu del genere doveva meritarsi almeno un formattone e accasarsi su un sistema vergine
IMHO :O

davide155
26-05-2021, 23:01
una gpu del genere doveva meritarsi almeno un formattone e accasarsi su un sistema vergine

IMHO :OHai ragione anche te ma il solo pensiero di ripristinare tutta la libreria di lightroom mi fa accapponare la pelle :asd:
Comunque lo faceva anche con la 1080ti....non riesco a capire come mai. È iniziato da un mesetto....

Vash88
27-05-2021, 00:31
Ragazzi msi afterburner mi da lo stesso problema con la 3080 che mi dava con la 1080ti.
Non mi tiene l'overclock del core gpu, sia downclock che overclock. Dopo una decina di minuti torna a default.
Nessun problema con le memorie.

Che cavolo può essere?!? Ho provato a disinstallare e rimettere msi ma nulla.

Ho letto che può essere dato da software che sono usati per mining :boh:

Vash88
27-05-2021, 00:34
Ragazzi è arrivata :winner:
Finalmente la 3080 SuprimX presa a culo rotto tramite bot su amazon a 1040€ è finalmente arrivata!
Chi segue il thread aspettando sa cosa ho dovuto passare per averla :mc:



https://uploads.tapatalk-cdn.com/20210526/ca11917736b0cc47a2f31640ce3b5e73.jpg

Comunque bando alle ciance, domande:

1-E' normale che le memorie stiano a 85C° in game con case aperto?!?
2- Qualche settaggio veloce di overclock con MSI afterburner? Limiti power limit e core voltage?
3- Conviene usare msi afterburner oppure consigliate qualcos'altro di migliore?

Probabilmente la metterò sotto liquido prima di quanto penso, dato le temperature delle memorie fuori da ogni logica per la mia mente :O

Se devi liquidare piuttosto facciamo cambio :sofico:
Temperature ottime per una 3080. Prova a partire da 0.987mv a 2010 mhz con il PL al massimo

fraussantin
27-05-2021, 00:38
ma doom Eternal come lo settate per il gsync?

se non attivo il vsync in game non si aggancia e vedo il tearing.

( provato da driver a mettere vsync o fast ma non funge)

davide155
27-05-2021, 00:39
Ho letto che può essere dato da software che sono usati per mining :boh:
Peccato che non mino.....
Se devi liquidare piuttosto facciamo cambio :sofico:
Temperature ottime per una 3080. Prova a partire da 0.987mv a 2010 mhz con il PL al massimo

Ho già ordinato il waterblock EK :sofico:
Non posso vedere le memorie a 90C°, mi urta i nervi :D

Vash88
27-05-2021, 00:43
Peccato che non mino.....


Ho già ordinato il waterblock EK :sofico:
Non posso vedere le memorie a 90C°, mi urta i nervi :D

pensa quanto li urtava a me vederle a 104 gradi mentre gioco...
Ho dovuto cambiare i pad e ora sto sugli 80C con punte di 88.
Metterei anche un impianto a liquido ma dovrei smontare mezzo pc inoltre trasloco "spesso" e potrebbe essere una scocciatura. Avevo anche pensato ad un AIO per la 3080 FE ma non ho trovato niente.

https://i.ibb.co/LxPvswb/Superposition-Benchmark-v1-1-11381-1622070869.png (https://ibb.co/CbtWSdN)

davide155
27-05-2021, 01:51
pensa quanto li urtava a me vederle a 104 gradi mentre gioco...
Ho dovuto cambiare i pad e ora sto sugli 80C con punte di 88.
Metterei anche un impianto a liquido ma dovrei smontare mezzo pc inoltre trasloco "spesso" e potrebbe essere una scocciatura. Avevo anche pensato ad un AIO per la 3080 FE ma non ho trovato niente.


Boia 104 nemmeno in portroyal a me!

La fe è bellina, ma lato dissipazione pecca parecchio. Troppo concentrata.

Cutter90
27-05-2021, 06:36
Io rapporto ogni cosa al guadagno effettivo e se questa conviene o meno di conseguenza. Io le temp della Vram non le ho manco prese in considerazione ma anche fossero identiche salendo di frequenza, quello che posso dirti è che non si hanno benefici tangibili se non in qualche bench. Nei giochi assolutamente no e l'ho testato di persona.

Quindi a che pro dare +1000mhz sulla vram? Se è tanto per dire di averlo fatto ok, ma non perchè facendolo si hanno prestazioni migliori.

A quanti gradi viaggia la vram sulla tua 3090?

a me tra gli 80 e i 102 a seconda di quando spingo il pl

dinamite2
27-05-2021, 07:05
pensa quanto li urtava a me vederle a 104 gradi mentre gioco...
Ho dovuto cambiare i pad e ora sto sugli 80C con punte di 88.
Metterei anche un impianto a liquido ma dovrei smontare mezzo pc inoltre trasloco "spesso" e potrebbe essere una scocciatura. Avevo anche pensato ad un AIO per la 3080 FE ma non ho trovato niente.


Su aliexpress è pieno di AIO dedicati anche alle FE ;)

Thunder-74
27-05-2021, 07:45
Non so se ieri avete seguito la presentazione di EPIC dell' Unreal Engine 5.
In sostanza hanno implementato una sorta di DLSS chiamato Temporal Super Resolution (TSR). Non ha nulla a che fare con FSR (FidelityFX Super Resolution) di AMD. Però sembra essere simile a AMD Radeon Boost, che cambia dinamicamente la risoluzione in base al movimento, per questo si chiama temporale. EPIC afferma che un'immagine 1080p upscaled alla risoluzione 4K può essere visualizzata a 43 FPS. La stessa scena visualizzata in 4K nativo ha un FPS di 18,6 FPS.

Funzionerà con tutte le unità di elaborazione grafica Shader Model 5. Ciò include le schede grafiche AMD, Intel e NVIDIA e persino le console di gioco basate su AMD RDNA2

un confronto:

LINK 4k nativo (https://cdn.wccftech.com/wp-content/uploads/2021/05/image_5.jpg)

LINK 1080->4k TSR (https://cdn.wccftech.com/wp-content/uploads/2021/05/image_6.jpg)


FONTE (https://videocardz.com/newz/unreal-engine-5-early-access-features-temporal-super-resolution-upscaling-technology#disqus_thread)

davide155
27-05-2021, 08:58
Non so se ieri avete seguito la presentazione di EPIC dell' Unreal Engine 5.
In sostanza hanno implementato una sorta di DLSS chiamato Temporal Super Resolution (TSR). Non ha nulla a che fare con FSR (FidelityFX Super Resolution) di AMD. Però sembra essere simile a AMD Radeon Boost, che cambia dinamicamente la risoluzione in base al movimento, per questo si chiama temporale. EPIC afferma che un'immagine 1080p upscaled alla risoluzione 4K può essere visualizzata a 43 FPS. La stessa scena visualizzata in 4K nativo ha un FPS di 18,6 FPS.

Funzionerà con tutte le unità di elaborazione grafica Shader Model 5. Ciò include le schede grafiche AMD, Intel e NVIDIA e persino le console di gioco basate su AMD RDNA2

un confronto:

LINK 4k nativo (https://cdn.wccftech.com/wp-content/uploads/2021/05/image_5.jpg)

LINK 1080->4k TSR (https://cdn.wccftech.com/wp-content/uploads/2021/05/image_6.jpg)


FONTE (https://videocardz.com/newz/unreal-engine-5-early-access-features-temporal-super-resolution-upscaling-technology#disqus_thread)Il miglior motore grafico di sempre.
Con l'ue5 finalmente siamo arrivati al fotorealismo cinematografico.

Le nostre 3080 faranno 15fps con quel motore :nera:

Cutter90
27-05-2021, 09:08
Non so se ieri avete seguito la presentazione di EPIC dell' Unreal Engine 5.
In sostanza hanno implementato una sorta di DLSS chiamato Temporal Super Resolution (TSR). Non ha nulla a che fare con FSR (FidelityFX Super Resolution) di AMD. Però sembra essere simile a AMD Radeon Boost, che cambia dinamicamente la risoluzione in base al movimento, per questo si chiama temporale. EPIC afferma che un'immagine 1080p upscaled alla risoluzione 4K può essere visualizzata a 43 FPS. La stessa scena visualizzata in 4K nativo ha un FPS di 18,6 FPS.

Funzionerà con tutte le unità di elaborazione grafica Shader Model 5. Ciò include le schede grafiche AMD, Intel e NVIDIA e persino le console di gioco basate su AMD RDNA2

un confronto:

LINK 4k nativo (https://cdn.wccftech.com/wp-content/uploads/2021/05/image_5.jpg)

LINK 1080->4k TSR (https://cdn.wccftech.com/wp-content/uploads/2021/05/image_6.jpg)


FONTE (https://videocardz.com/newz/unreal-engine-5-early-access-features-temporal-super-resolution-upscaling-technology#disqus_thread)

Ottimo. Vedremo la prova sul campo, perchè senza hardware dedicato dubito che si raggiunga la bontà del dlss. Nel confronto si vedono infatti dettagli persi ( e dirla tutta non sembra un problema di risoluzione, ma proprio di dettagli che mancano, boh), ma chiaramente è un confronto fatto ad hoc da loro. Vedremo quando i team dovranno implementarlo.

Oggi scarico la demo, che è disponibile sull'EGS. Ho visto dai video che con la 3090 si fanno quasi 60 fps in 1440p e 30 fps in 4k

davide155
27-05-2021, 09:58
Ottimo. Vedremo la prova sul campo, perchè senza hardware dedicato dubito che si raggiunga la bontà del dlss. Nel confronto si vedono infatti dettagli persi ( e dirla tutta non sembra un problema di risoluzione, ma proprio di dettagli che mancano, boh), ma chiaramente è un confronto fatto ad hoc da loro. Vedremo quando i team dovranno implementarlo.

Oggi scarico la demo, che è disponibile sull'EGS. Ho visto dai video che con la 3090 si fanno quasi 60 fps in 1440p e 30 fps in 4k

Si può provare quella demo li? :eek:

Cutter90
27-05-2021, 10:01
Si può provare quella demo li? :eek:

Eeeeehhh si. Ma non so i requisiti.