PDA

View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 [93] 94 95

devil_mcry
27-04-2023, 18:35
Ni
Non sopperisce comunque al taglio del bus
E una 4080 a 256 è davvero ridicola

Aspettiamo la 5070 e vediamo che succede

Si teoricamente i benefici della cache sarebbero a pari bus. Diciamo che la x80 è quasi sempre stata a 256bit, quindi ci può anche stare.
Il problema è sotto.

Ciò che ha condizionato tutto è il pauroso salto di PP, che va a colmare tutto con il clock.

La 4080, è una 4080 grazie a quello, altrimenti è più una x70.
si infatti la gtx 1080 ad esempio era 256bit e non era nemmeno un 03 ma 04, idem la rtx 2080 e la gtx 980 la 3080 è un caso più unico nella storia, solo la 780 era stata fatta così prima

su quella scheda vi siete accaniti troppo, la sua unica colpa è che la 3080 era fatta con scarti di un chippone, lei come da prassi no


le x80 di solito sono quasi sempre fatte con i 04

mikael84
27-04-2023, 20:37
si infatti la gtx 1080 ad esempio era 256bit e non era nemmeno un 03 ma 04, idem la rtx 2080 e la gtx 980 la 3080 è un caso più unico nella storia, solo la 780 era stata fatta così prima

su quella scheda vi siete accaniti troppo, la sua unica colpa è che la 3080 era fatta con scarti di un chippone, lei come da prassi no


le x80 di solito sono quasi sempre fatte con i 04

Esattamente, la x80 salvo kepler (in cui si verifico il salto di fascia di prezzo), è sempre stata x04.
Il metodo di aumento delle unità, era sempre TPC x GPC. Con Turing hanno un pò incasinato tutto, ma GA103 è il seguito di TU104, ovvero i TPC passano da 4 a 5 x GPC.
Con il nodo disastroso però, considerando anche le scarsissime rese iniziali, hanno usato il chippone per la 3080 e GA103 legato al notebook.

GA103 avrebbe performato quanto la 6800 liscia praticamente, ma se avesse avuto almeno il 7nm samsung, avrebbe usato GA103 per la 3080 slegandola dal chippone.
GA103 aveva 7680 cuda.:)

Ubro92
28-04-2023, 07:34
Kepler é stata anche particolare, perché nella stessa gen abbiamo avuto la dual GPU (GTX 690) e successivamente un refresh di tutta la lineup con l'aggiunta dei chipponi.

La ex 680 divento la 770.

Comunque tralasciando le top gamma, le GPU di fascia x70 sono quelle che hanno subito maggiori deformazioni nel tempo.

In linea prettamente teorica, la 4070ti andava ricavata da un eventuale cut di AD103 come per la 2070 Super.

AD104 doveva quanto meno offrire 4070 e 4060ti, ma hanno traslato le fasce e in più alzato gli msrp, nella sostanza un 2x abilmente mascherato come visto nel periodo pandemico.



Inviato dal mio M2012K11AG utilizzando Tapatalk

piond
16-05-2023, 09:16
Spero di essere nella sezione giusta.
Come da firma ho una 3070, e mi capita, anche se raramente, che sul desktop di windows 11 mi escano degli artefatti grafici. Come dei rettangolini neri, abbastanza piccolini, i quali lampeggiano leggermente.
Sembra proprio un errore video.
La mia domanda è: capita, o è capitato anche a voi?
La stessa cosa su linux non mi succede, ma solo su windows, quindi tenderei ad escludere che sia la VGA difettata. O almeno credo insomma...
Mi sarà capitato 3 4 volte in croce, ma mi sono preoccupato ecco. In un anno e mezzo...
Potrebbero essere i driver? E' la scheda video difettata?
Secondo voi cosa potrebbe essere?
Grazie in ancitipo :)

StylezZz`
16-05-2023, 09:23
Spero di essere nella sezione giusta.
Come da firma ho una 3070, e mi capita, anche se raramente, che sul desktop di windows 11 mi escano degli artefatti grafici. Come dei rettangolini neri, abbastanza piccolini, i quali lampeggiano leggermente.
Sembra proprio un errore video.
La mia domanda è: capita, o è capitato anche a voi?
La stessa cosa su linux non mi succede, ma solo su windows, quindi tenderei ad escludere che sia la VGA difettata. O almeno credo insomma...
Mi sarà capitato 3 4 volte in croce, ma mi sono preoccupato ecco. In un anno e mezzo...
Potrebbero essere i driver? E' la scheda video difettata?
Secondo voi cosa potrebbe essere?
Grazie in ancitipo :)

lo fa solo sul desktop? cosa succede se fai girare giochi/benchmark?

piond
16-05-2023, 09:28
lo fa solo sul desktop? cosa succede se fai girare giochi/benchmark?

Ah non ho provato a far andare giochi e benchmark.
Ma mi sembra che una volta avviando un gioco l'errore si ripercuotevaa anche sul gioco. Con gli stessi artefatti anche sul gioco.
Grazie per l'interessamento

Nones
16-05-2023, 09:33
Ah non ho provato a far andare giochi e benchmark.
Ma mi sembra che una volta avviando un gioco l'errore si ripercuotevaa anche sul gioco. Con gli stessi artefatti anche sul gioco.
Grazie per l'interessamento

La scheda è in overclock? Controllato le temperature?

Io per togliermi il dubbio andrei prima di DDU e installare gli ultimi, per escludere un problema drivers.

piond
16-05-2023, 09:44
La scheda è in overclock? Controllato le temperature?

Io per togliermi il dubbio andrei prima di DDU e installare gli ultimi, per escludere un problema drivers.
Le temperature sono ok
La scheda non è in overclock

Potrei usare DDU, ma quel comportamento l'ho avuto su più di un driver diverso.
Ma potrei andare lo stesso.

Ho pensato una volta che poteva trattarsi del fatto che con windows 11 sono inside preview, e qualche bug quà e là capitava, ma non saprei.

StylezZz`
16-05-2023, 10:29
l'ideale sarebbe provarla in un altro pc, ma se il problema te lo fa anche con i giochi, e non si risolve reinstallando i drivers...

la scheda è ancora in garanzia?

piond
16-05-2023, 10:37
l'ideale sarebbe provarla in un altro pc, ma se il problema te lo fa anche con i giochi, e non si risolve reinstallando i drivers...

la scheda è ancora in garanzia?

No scaduta ad aprile :asd:

Cutter90
16-05-2023, 11:18
Spero di essere nella sezione giusta.
Come da firma ho una 3070, e mi capita, anche se raramente, che sul desktop di windows 11 mi escano degli artefatti grafici. Come dei rettangolini neri, abbastanza piccolini, i quali lampeggiano leggermente.
Sembra proprio un errore video.
La mia domanda è: capita, o è capitato anche a voi?
La stessa cosa su linux non mi succede, ma solo su windows, quindi tenderei ad escludere che sia la VGA difettata. O almeno credo insomma...
Mi sarà capitato 3 4 volte in croce, ma mi sono preoccupato ecco. In un anno e mezzo...
Potrebbero essere i driver? E' la scheda video difettata?
Secondo voi cosa potrebbe essere?
Grazie in ancitipo :)

3-4 volte in un anno e mezzo dierei che è trascurabile. Anche a me ogni tanto si incasina il segnale video, ma poi si sistema

piond
16-05-2023, 11:22
3-4 volte in un anno e mezzo dierei che è trascurabile. Anche a me ogni tanto si incasina il segnale video, ma poi si sistema

Speriamo.
Il mio auspicio è che non diventi più frequente o che peggiori la situazione.
Tanto la mia 3070 me la tengo finché dura o.alneno fin quando non esce la 5070

Nones
16-05-2023, 11:47
Bisognerebbe andare ad esclusione. Gli artefatti possono essere un problema lato hardware come software. Visto che su linux non lo fa e la cosa è sporadica, può essere appunto un prob SW.
Provarla su un SO windows stabile non preview, o anche magari su un altro pc.

Io per prima cosa una pulita completa drivers la farei senz'altro, sopratutto se da tanto che non la fai. Poi una controllata alle connessioni, cavi e sopratutto slot pcie, male non le fa.

R@nda
16-05-2023, 18:11
https://www.techpowerup.com/forums/threads/rtx-3000-series-artifacts-black-squares-that-flicker-in-desktop-and-2d-mode.297640/

Ma è questo il problema?
Lì ho visto che un utente ha risolto disinstallando Geforce Experience.
Si sa mai..
(io non l'ho mai installato sulle Nvidia)

piond
16-05-2023, 19:08
https://www.techpowerup.com/forums/threads/rtx-3000-series-artifacts-black-squares-that-flicker-in-desktop-and-2d-mode.297640/

Ma è questo il problema?
Lì ho visto che un utente ha risolto disinstallando Geforce Experience.
Si sa mai..
(io non l'ho mai installato sulle Nvidia)
Sii grazie mille. Era proprio questo l'artefatto...
Disinstallare ge force experiemce... Proverò ormai non serve quasi a niente più

R@nda
16-05-2023, 21:31
Sii grazie mille. Era proprio questo l'artefatto...
Disinstallare ge force experiemce... Proverò ormai non serve quasi a niente più

Eh speriamo...
Se non è quello come si legge li diventa più complicato e più che fare quanto ti hanno già detto non saprei.
Al massimo proverei ad installare una versione precedente senza Geforce Exp.
Per me i 527.56 sono ottimi

piond
17-05-2023, 10:57
Comunque da quel forum si vede che non sono in pochi ad avere questo piccolo problema.
SIcuramente è un problema software, anche perchè il mio glitch è identico a quello loro.
E appare sporadicamente.
Spero che Nvidia risolva ecco...

fraussantin
22-05-2023, 17:17
https://i.postimg.cc/7YWH9Vbr/screenshot-523.jpg (https://postimages.org/)

https://i.postimg.cc/yNqV48Ff/screenshot-523.jpg (https://postimages.org/)

noto delle righe orizzontali su alcune ombre , non le vedevo da anni ( dalla 460m del portatile), e mi sono capitate solo su questo gioco . da cosa possono dipendere e come le posso risolvere?


ps si muovono in gioco in base a come si muove l'oggetto

Dono89
07-06-2023, 08:00
Ragazzi una domanda
Ma la 3090 rispetto 3080ti o in generale la configurazione a conchiglia delle g6x, non fa consumare molto di più rispetto la controparte?

Ci sono di fatto 12 chip in più, assumendo 2/3w per chip di memoria (e magari sono pure pochi) arriviamo a 24/36w in più su tdp di 350w
È una bella fetta considerando quanto impatta il tdp nelle performance della scheda

Vash88
07-06-2023, 08:58
Sono estremamente vicine come consumi https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-ti-founders-edition/34.html

s12a
07-06-2023, 09:13
Immagino che dato un certo power limit le memorie si riservino una fetta maggiore del budget di potenza e che dunque complessivamente sotto carico i consumi rimangano sotto controllo; quello che è fastidioso è che la backplate diventa bollente sotto certi carichi, in particolare machine learning/AI, che stressano molto le memorie.

Occasione sprecata (chip GDDR su ambo i lati del PCB) per non mettere 48GB, a proposito! :fagiano:

Dono89
07-06-2023, 09:22
Sono estremamente vicine come consumi https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-ti-founders-edition/34.html
Quello perchè entrambe le schede sbattono il muso contro il pl che è lo stesso e infatti, tendenzialmente, la frequenza della 80ti è maggiore della 90, ma magari dipende anche dai (pochissimi) cuda in più.
Andrebbe capito quanto dei 350W sono memorie e quanto il resto.

Magari chi ha una 80ti ed una 90 postando hwinfo sotto carico si riesce a capire, bin a parte

Immagino che dato un certo power limit le memorie si riservino una fetta maggiore del budget di potenza e che dunque complessivamente sotto carico i consumi rimangano sotto controllo; quello che è fastidioso è che la backplate diventa bollente sotto certi carichi, in particolare machine learning/AI, che stressano molto le memorie.

Occasione sprecata (chip GDDR su ambo i lati del PCB) per non mettere 48GB, a proposito! :fagiano:
in teoria, qui mikael magari smentisce, conta la potenza assorbita totalmente, infatti io ho sempre staccato tutte le inutili lucine proprio per dare ogni singolo watt al pcb :D

Dono89
15-06-2023, 22:14
Cosa ne pensate?

Asus 3090
1950/21000 @ 881mV

https://www.overclock.net/attachments/gp-gif.2618548/

https://www.overclock.net/cdn-cgi/image/format=auto,onerror=redirect,width=1920,height=1920,fit=scale-down/https://www.overclock.net/attachments/cattura-jpg.2618547/


Mi sembra basso invece il superposition (tagliava di continuo, bios @390W)
https://i.postimg.cc/SxtQPQfp/Superposition-Benchmark-v1-1-17556-1686863540.png

Dono89
25-06-2023, 11:19
Dopo aver smontato la scheda video innumerevoli volte sono arrivato ad avere 11°C di delta tra core ed hotspot (appena l'ho presa ne aveva 30, dopo i primi repaste ero arrivato a 20 e poi 15).

Il pattern migliore è la classica croce con i puntini al centro
https://i.postimg.cc/XYTKwxpc/paste.jpg

Ho raggiunto 11°C con plague tale, the last of us (screenshot 1) & 3dmark (screenshot 2) con il bios gigabyte 390W F12 e scheda a 1920MHz/21000Gbps/881mV

Spero aiuti, il delta hotspot nelle 3080/3090 è tremendo, anche con la 3080 FE avevo penato parecchio (e li non bastava svitare 4 viti :) )
https://i.postimg.cc/mZ1P99vB/Cattura.jpg

https://i.postimg.cc/gkJCxk9F/3090tuf2.jpg

Vash88
26-06-2023, 00:22
Ottimo, io la 3090fe piuttosto che smontarla la vendo dopo l'esperienza con la 3080fe. Non ho mai nemmeno monitorato la temp dell'hotspot :)

Dono89
26-06-2023, 08:09
Male :D

La temperatura hotspost è decisamente più importante rispetto quella del core.

Inutile che hai il core a 60 gradi se 1/3 lo hai scoperto e superi i 100 gradi (ci sono tantissimi casi, anche con strix, suprim e simili) dove è stata registrata una differenza importante.

Occhio che 100 °C di hotspost non vanno bene (la mia 3090 quando l'ho presa ne segnava 32 di delta con core)

fraussantin
26-06-2023, 08:14
Occhio che 100 °C di hotspost non vanno bene (la mia 3090 quando l'ho presa ne segnava 32 di delta con core)

A quest'ora le fe sarebbero morte tutte.

Poi se si vuol fare megli ok.

LucaZPF
26-06-2023, 08:37
Ciao,
non so bene dove scrivere, visto che non ho ancora individuato il problema. Volevo chiedere a chi ha un setup con più schermi, nel mio caso 3, se a volte capita che qualche schermo diventa nero per 2 secondi e poi riappare l'immagine.
Ho una postazione simracing dove ho 3 monitor LG ultragear da 32" e sono collegati ad una RTX 3090 TUF. Non succede spesso, però è molto fastidioso, quando diventa nero lo schermo centrale è quasi impossibile non fare incidenti.
Visto che succede su tutti e 3 escluderei i cavi. 3 cavi fallati? molto improbabile.
Purtroppo l'utilizzo è molto limitato, quindi non posso dire con questo lo fa, con questo no, uso solo ACC e quindi non ho confronti.

Stavo valutando upgrade a 4090, visto che con 3 schermi 2560x1440 a 165 Hz e ACC maxato la 3090 è sempre impiccata

Dono89
26-06-2023, 11:49
A quest'ora le fe sarebbero morte tutte.

Poi se si vuol fare megli ok.

le FE non hanno 100°C di hotspost, tantomeno le 3090 che hanno un dissipatore maggiorato rispetto la 80/80ti (che viaggiano intorno ai 15/20)

A 100 °C comunque viene tagliata la frequenza scendendo a 1600MHz, da 1600 a 1900 la perdita di prestazioni c'è eccome

mikael84
26-06-2023, 12:10
le FE non hanno 100°C di hotspost, tantomeno le 3090 che hanno un dissipatore maggiorato rispetto la 80/80ti (che viaggiano intorno ai 15/20)

A 100 °C comunque viene tagliata la frequenza scendendo a 1600MHz, da 1600 a 1900 la perdita di prestazioni c'è eccome

Le FE in base al titolo ci arrivano eccome a 100° di hotspot. Ho toccato 104° con god of war 4. Sulla novantina ed oltre ci stai spesso.
Cmq a 100° non taglia.

Dono89
26-06-2023, 12:29
Le FE in base al titolo ci arrivano eccome a 100° di hotspot. Ho toccato 104° con god of war 4. Sulla novantina ed oltre ci stai spesso.
Cmq a 100° non taglia.


La mia 3080 non ci è mai arrivata, nemmeno con plague tale (era intorno a 900mv 1920/1935)

90 gradi ha senso (avendone 70 di core), ma 100 vuol dire che o hai il core a 80 oppure hai un delta di 30 gradi che indica che qualcosa che non va c'è.

Se non taglia a 100 forse a 105, non ricordo di preciso, ma la 3090 appena presa tagliava e andava in limite termico

mikael84
26-06-2023, 13:02
La mia 3080 non ci è mai arrivata, nemmeno con plague tale (era intorno a 900mv 1920/1935)

90 gradi ha senso (avendone 70 di core), ma 100 vuol dire che o hai il core a 80 oppure hai un delta di 30 gradi che indica che qualcosa che non va c'è.

Se non taglia a 100 forse a 105, non ricordo di preciso, ma la 3090 appena presa tagliava e andava in limite termico

110° teoricamente, ma fortunatamente non ci sono mai arrivato. il limite massimo è 120°
A plague tale, a me segnava 75 max sulla GPU e 90-92° rispettivamente vmem e hotspot. God of war 4 mi ha toccato 97 v mem e 104° hotspot, temp, 75-77°.
Mi succede lo stesso con marvel guardians. Cmq l'hotspot a stock rimane caldo con queste schede.

Io poi sono a banchetto.

Cutter90
26-06-2023, 13:12
le FE non hanno 100°C di hotspost, tantomeno le 3090 che hanno un dissipatore maggiorato rispetto la 80/80ti (che viaggiano intorno ai 15/20)

A 100 °C comunque viene tagliata la frequenza scendendo a 1600MHz, da 1600 a 1900 la perdita di prestazioni c'è eccome

T° Junction è nomalissimo che la 3090 arrivi a 100 °. La mia faceva 98°. La fe le memorie arrivavano a 105 e infatti erano le più calde in circolazione, ricordo molto bene.

Dono89
26-06-2023, 15:29
110° teoricamente, ma fortunatamente non ci sono mai arrivato. il limite massimo è 120°
A plague tale, a me segnava 75 max sulla GPU e 90-92° rispettivamente vmem e hotspot. God of war 4 mi ha toccato 97 v mem e 104° hotspot, temp, 75-77°.
Mi succede lo stesso con marvel guardians. Cmq l'hotspot a stock rimane caldo con queste schede.

Io poi sono a banchetto.
Perchè a stock (magari sai te il motivo) il voltaggio sopratutto sulle 3080 è sparato a palla. Le 3090 sono molto più conservative (miglior bin?) e infatti anche il margine di downvolt senza arrivare a 1800MHz è davvero limitato.
75 core e 92 hotspost sono 17°C che non è perfetto ma entro i 20°C (te non l'hai aperta, vero?) che dicevo su.
Su god of war non ho capito. Avevi più calore sul core che mem?

T° Junction è nomalissimo che la 3090 arrivi a 100 °. La mia faceva 98°. La fe le memorie arrivavano a 105 e infatti erano le più calde in circolazione, ricordo molto bene.
Non è affatto normale avere 100 °C di hotspost. Se questo è il caso aumentate le ventole e/o ripastate, perchè qualcosa che non va c'è.
Ovviamente parliamo di hotspost core, non memorie, quella è un'altra storia (su cui forse è meglio soprassedere, che poi i 105 °C sono anche lì l'hotspost)

mikael84
26-06-2023, 16:01
Perchè a stock (magari sai te il motivo) il voltaggio sopratutto sulle 3080 è sparato a palla. Le 3090 sono molto più conservative (miglior bin?) e infatti anche il margine di downvolt senza arrivare a 1800MHz è davvero limitato.
75 core e 92 hotspost sono 17°C che non è perfetto ma entro i 20°C (te non l'hai aperta, vero?) che dicevo su.
Su god of war non ho capito. Avevi più calore sul core che mem?




Mi son spiegato male, con stock intendevo, come di fabbrica, mai toccata, in game sto a 0,9v/1920.;)
God of war mi porta la temp GPU a 75-77 e l'hotspot sale sopra i 100 spesso, la vmem, non è mai salita a 100 (70% fan).
La uso in un banchetto.
Cmq mediamente, salvo titoli leggeri sui warp (ac/fc/wd), sia la vmem che l'hotspot superano i 90°, ad over 320 watt.
Edit, cmq riprovato una mezz'oretta, delta PGU/tjunction 25° su GOW

La 3090, mai provata sotto mano, ma dipende anche dai modelli, a stock solitamente hanno clock leggermente più conservativi. Le binnate sono le 3090ti.:)

Cutter90
26-06-2023, 16:04
Mi son spiegato male, con stock intendevo, come di fabbrica, mai toccata, in game sto a 0,9v/1920.;)
God of war mi porta la temp GPU a 75-77 e l'hotspot sale sopra i 100 spesso, la vmem, non è mai salita a 100 (80% fan).
La uso in un banchetto.
Cmq mediamente, salvo titoli leggeri sui warp (ac/fc/wd), sia la vmem che l'hotspot superano i 90°, ad over 320 watt.

La 3090, mai provata sotto mano, ma dipende anche dai modelli, a stock solitamente hanno clock leggermente più conservativi. Le binnate sono le 3090ti.:)

E' normalissimo. Un pelino alte visti i "soli" 320 watt ma lì dipende dal modello e dalla temperatura stanza/airflow

Cutter90
26-06-2023, 16:04
Perchè a stock (magari sai te il motivo) il voltaggio sopratutto sulle 3080 è sparato a palla. Le 3090 sono molto più conservative (miglior bin?) e infatti anche il margine di downvolt senza arrivare a 1800MHz è davvero limitato.
75 core e 92 hotspost sono 17°C che non è perfetto ma entro i 20°C (te non l'hai aperta, vero?) che dicevo su.
Su god of war non ho capito. Avevi più calore sul core che mem?


Non è affatto normale avere 100 °C di hotspost. Se questo è il caso aumentate le ventole e/o ripastate, perchè qualcosa che non va c'è.
Ovviamente parliamo di hotspost core, non memorie, quella è un'altra storia (su cui forse è meglio soprassedere, che poi i 105 °C sono anche lì l'hotspost)

Si si io intendevo le memorie che da quello che sapevo io è il Junction

mikael84
26-06-2023, 16:38
Si si io intendevo le memorie che da quello che sapevo io è il Junction

Su GPU z leggi l'hotspot che sarebbe il tjunction GPU. Sempre su GPU-Z c'è anche quello relativo al tjunction ram. Hwinfo è più specifico.
God of war 4 è il gioco che di più mi fa salire le temperature.
Cmq mediamente mi spara +25° di delta tra core e tjunction.
Le memorie stanno sotto i 100.

Sui 320 watt si, ma dipende anche molto dal gioco, su GOW4 sto trovando picchi di calore, da considerare cmq che il dissi della 3080 non un gioiello. Bello solo a livello di estetica.:p

mikael84
26-06-2023, 19:29
Male :D

La temperatura hotspost è decisamente più importante rispetto quella del core.

Inutile che hai il core a 60 gradi se 1/3 lo hai scoperto e superi i 100 gradi (ci sono tantissimi casi, anche con strix, suprim e simili) dove è stata registrata una differenza importante.

Occhio che 100 °C di hotspost non vanno bene (la mia 3090 quando l'ho presa ne segnava 32 di delta con core)

Cmq li ho monitorati in game, gli ho messi in OSD, e rispetto al valore che ti da di picco, sono ben più bassi.
In 20 minuti, ho registrato 67° GPU, 84° vmem e 94 hotspot.
E' hwinfo che scazza i valori hotspot di picco.

Quindi correggo il primo post, sto mediamente a 96% con fan al 75%. Sono i picchi rilevati di hwinfo ad essere ben più alti.:)

Dono89
26-06-2023, 19:32
A me gpuz, hwinfo, ab riportano tutti le stesse temp

Dono89
28-06-2023, 00:19
Qualcuno con la 3080 e 3080ti potrebbe fare un 3dmark timespy o superposition extreme e postare (senza screen, basta il numero) il max raggiunto di MVDDC?

mikael84
28-06-2023, 01:01
Qualcuno con la 3080 e 3080ti potrebbe fare un 3dmark timespy o superposition extreme e postare (senza screen, basta il numero) il max raggiunto di MVDDC?

Ecco, PL max, ram a stock però.
Superposition extreme

Su HWinfo è FBVDD;)
https://i.postimg.cc/vHqN7TCr/gpu-super.png

Dono89
28-06-2023, 08:32
Ecco, PL max, ram a stock però.
Superposition extreme

Su HWinfo è FBVDD;)
https://i.postimg.cc/vHqN7TCr/gpu-super.png
C'è quasi un 3x relativo ai consumi su memorie come supponevo. O meglio, pensavo ci fosse un incremento per la 3090, ma non così tanto. Dipende dal bus? dal doppio dei chip per i 24GB?
Per questo sarei curioso di avere un confronto anche con la 3080 12GB/3080TI. A logica dovrebbe essere superiore ai tuoi 55W e comunque di molto inferiore ai miei 130W.

Di seguito screen a 19gbps e 21gbps (cambiano 3W a conferma che la maggior frequenza non incide sui consumi e nemmeno sulle temp)
https://gpuz.techpowerup.com/23/06/28/zkt.png https://gpuz.techpowerup.com/23/06/28/tsx.png

mikael84
28-06-2023, 11:49
C'è quasi un 3x relativo ai consumi su memorie come supponevo. O meglio, pensavo ci fosse un incremento per la 3090, ma non così tanto. Dipende dal bus? dal doppio dei chip per i 24GB?
Per questo sarei curioso di avere un confronto anche con la 3080 12GB/3080TI. A logica dovrebbe essere superiore ai tuoi 55W e comunque di molto inferiore ai miei 130W.

Di seguito screen a 19gbps e 21gbps (cambiano 3W a conferma che la maggior frequenza non incide sui consumi e nemmeno sulle temp)


Ma no:p
nel MVDDC ti sta calcolando anche il PWR.
Infatti, se ci fai caso dovresti avere 195,7 core + 139,7 MVDDC + 138,8 PWR, che sommati fanno 472,2 watt.

Su hwinfo, controlla il valore FBVDD

Guarda qua, una 3090 letta bene di un'ottima testata, a 400 watt.

https://i.postimg.cc/8Pk7tQ1B/3090-hc.png

https://www.comptoir-hardware.com/articles/cartes-graphiques/42476-test-nvidia-geforce-rtx-3090.html?start=5

Dono89
28-06-2023, 13:58
Ma no:p
nel MVDDC ti sta calcolando anche il PWR.
Infatti, se ci fai caso dovresti avere 195,7 core + 139,7 MVDDC + 138,8 PWR, che sommati fanno 472,2 watt.

Su hwinfo, controlla il valore FBVDD

Guarda qua, una 3090 letta bene di un'ottima testata, a 400 watt.

https://i.postimg.cc/8Pk7tQ1B/3090-hc.png

https://www.comptoir-hardware.com/articles/cartes-graphiques/42476-test-nvidia-geforce-rtx-3090.html?start=5

Non ho capito :muro:

Il mio dubbio è: quanto incidono le memorie clamshell rispetto il singol side?
A te segna 50W a me 130W, perchè? include il pwr...quindi devo decurtarlo? arrivo ad un valore di memorie pressochè nullo che mi sembra strano.

Ti confermo che anche da HWinfo FBVDD è 129,2W (da gpuz 128,1W) sul test appena eseguito

https://i.postimg.cc/KvmVfsft/xcvvx.jpg

mikael84
28-06-2023, 15:42
Non ho capito :muro:

Il mio dubbio è: quanto incidono le memorie clamshell rispetto il singol side?
A te segna 50W a me 130W, perchè? include il pwr...quindi devo decurtarlo? arrivo ad un valore di memorie pressochè nullo che mi sembra strano.

Ti confermo che anche da HWinfo FBVDD è 129,2W (da gpuz 128,1W) sul test appena eseguito


Ti sta includendo il PWR, guarda facciamo così::)

Qua hai preso i 3 valori.
Hai 395watt di TBP
195 di core
139 circa di PWR
140 di MVDDC

Nel MVDDC ti sta sommando anche il PWR, altrimenti staresti a quasi 500watt.
https://www.hwupgrade.it/forum/showpost.php?p=48226370&postcount=23141

Ora fai così:
395-195 (core) = 200
200 - 140 (mvddc) = 60
60 è il MVDDC tuo.:)

Questo valore è quello registrato dalla review.

Le ram hanno dei valori di 2,5watt, ma sono valori abbastanza relativi, non per forza devi sommare i moduli.



Questo è su una 4090. Calcola il MVDDC, ma lo ingloba anche nel core.
https://i.postimg.cc/kgp2xx7Q/4090.png

Dono89
28-06-2023, 15:49
Ti sta includendo il PWR, guarda facciamo così::)

Qua hai preso i 3 valori.
Hai 395watt di TBP
195 di core
139 circa di PWR
140 di MVDDC

Nel MVDDC ti sta sommando anche il PWR, altrimenti staresti a quasi 500watt.
https://www.hwupgrade.it/forum/showpost.php?p=48226370&postcount=23141

Ora fai così:
395-195 (core) = 200
200 - 140 (mvddc) = 60
60 è il MVDDC tuo.:)

Questo valore è quello registrato dalla review.

Le ram hanno dei valori di 2,5watt, ma sono valori abbastanza relativi, non per forza devi sommare i moduli.

Sulla 3090 TI hanno addirittura levato il MVDDC e lasciato solo il PWR (le ram legate al core.)

Questo è su una 4090. Calcola il MVDDC, ma lo ingloba anche nel core.
https://i.postimg.cc/kgp2xx7Q/4090.png

Ora mi è chiaro, grazie Mikael! :D

Quindi tra una 3080 ed una 3090, core e pcb con x fasi a parte, all'incirca ballano solo 5W tra la configurazione clamshell e non? (probabilmente di più nel caso di last of us che usa 12Gb o scenari in cui si usa più ram video)

mikael84
28-06-2023, 16:10
Ora mi è chiaro, grazie Mikael! :D

Quindi tra una 3080 ed una 3090, core e pcb con x fasi a parte, all'incirca ballano solo 5W tra la configurazione clamshell e non? (probabilmente di più nel caso di last of us che usa 12Gb o scenari in cui si usa più ram video)

Dipende dall'utilizzo. Con turing mi calcolava pure il MVDDQ (levato da ampere in poi), e mediamente mi segnava 17 watt, circa 2,1watt a modulino.
Purtroppo questi software fanno un pò i calcoli che vogliono, sommando e mischiando tutto. Con le g6x tra PWR e MVDDC, o addirittura legate al core, non si capisce molto.:p

Almeno non si può essere precisi.

Dono89
28-06-2023, 16:19
Dipende dall'utilizzo. Con turing mi calcolava pure il MVDDQ (levato da ampere in poi), e mediamente mi segnava 17 watt, circa 2,1watt a modulino.
Purtroppo questi software fanno un pò i calcoli che vogliono, sommando e mischiando tutto. Con le g6x tra PWR e MVDDC, o addirittura legate al core, non si capisce molto.:p

Almeno non si può essere precisi.

Se non ne capisci tu, io faccio il triplo della fatica :D

Quindi di fatto una 3080ti a parità di PL e bontà del silicio (discorso puramente teorico, me ne rendo conto) dovrebbe avere più margine di oc e salire un po' di più in frequenza. Margine che magari viene cannibalizzato dagli appena 200 cuda in più della 3090

Ho visto che con 15MHz in meno e 12mV in meno (1935 900 vs. 1920 887) si risparmiano a seconda del titolo circa 15W sul PL, che considerando circa 2,5w per 12 chip aggiuntivi (30w) potrebbe dare margine a 30MHz in più su una configurazione non a conchiglia.
Il discorso ha senso?

In altre parole, al di là del w preciso, la configurazione clamshell come consumo costa più di 20w di scheda?
E sopratutto, se in idle non incidono, mi aspetterei che non si dovrebbero contare nel PL complessivo fin tanto che non vengono utilizzati (motivo per cui l'idle tra 3080ti e 3090 è uguale)

mikael84
28-06-2023, 17:19
Se non ne capisci tu, io faccio il triplo della fatica :D

Quindi di fatto una 3080ti a parità di PL e bontà del silicio (discorso puramente teorico, me ne rendo conto) dovrebbe avere più margine di oc e salire un po' di più in frequenza. Margine che magari viene cannibalizzato dagli appena 200 cuda in più della 3090

Ho visto che con 15MHz in meno e 12mV in meno (1935 900 vs. 1920 887) si risparmiano a seconda del titolo circa 15W sul PL, che considerando circa 2,5w per 12 chip aggiuntivi (30w) potrebbe dare margine a 30MHz in più su una configurazione non a conchiglia.
Il discorso ha senso?

In altre parole, al di là del w preciso, la configurazione clamshell come consumo costa più di 20w di scheda?
E sopratutto, se in idle non incidono, mi aspetterei che non si dovrebbero contare nel PL complessivo fin tanto che non vengono utilizzati (motivo per cui l'idle tra 3080ti e 3090 è uguale)

Sono 2 schede differenti, la 3080ti è pure sfigata, tanto che la fanno boostare a soli 1665 in base, e downclocka pure molto.
Non potendo rilevare direttamente i moduli ram, l'unico modo più preciso, è prendere ad esempio 2 versioni a pari PL, con circuiterie mediamente simili, ed osservare il comportamento (magari anche a saturazione ram clamshell) i valori relativi al core-sram-fbvdd.
Così' con i software non è semplice.

Sempre che in clamschell ci possa mai arrivare a 60watt. I moduli sono da 2,5, ma in clamshell hanno un sistema a doppio bus 2x8bit.
Ad esempio, i modulini a doppia densità sono dati x 1,6watt circa vs i 2,5.

Dono89
29-06-2023, 07:26
Sono 2 schede differenti, la 3080ti è pure sfigata, tanto che la fanno boostare a soli 1665 in base, e downclocka pure molto.
Non potendo rilevare direttamente i moduli ram, l'unico modo più preciso, è prendere ad esempio 2 versioni a pari PL, con circuiterie mediamente simili, ed osservare il comportamento (magari anche a saturazione ram clamshell) i valori relativi al core-sram-fbvdd.
Così' con i software non è semplice.

Sempre che in clamschell ci possa mai arrivare a 60watt. I moduli sono da 2,5, ma in clamshell hanno un sistema a doppio bus 2x8bit.
Ad esempio, i modulini a doppia densità sono dati x 1,6watt circa vs i 2,5.


Per quello (in modo empirico e ovviamente approssimativo) pensavo di valutare l'impatto con un test tra 3080/3080ti/3090

Ovviamente da un'idea e me ne rendo conto sia limitata

Ho visto che in idle più o meno come consumo siamo lì, mi viene da credere che si disattivino, anche perché sarebbe altrimenti 60w solo di mem più core, circuiteria e tutto e arriverebbe ad essere in idle a 90w come niente.

Ma in clamshell ci sono almeno vantaggi tipo ddr dual rank vs. Single rank?
È tutto uno svantaggio il clamshell altrimenti :)

mikael84
29-06-2023, 12:08
Per quello (in modo empirico e ovviamente approssimativo) pensavo di valutare l'impatto con un test tra 3080/3080ti/3090

Ovviamente da un'idea e me ne rendo conto sia limitata

Ho visto che in idle più o meno come consumo siamo lì, mi viene da credere che si disattivino, anche perché sarebbe altrimenti 60w solo di mem più core, circuiteria e tutto e arriverebbe ad essere in idle a 90w come niente.

Ma in clamshell ci sono almeno vantaggi tipo ddr dual rank vs. Single rank?
È tutto uno svantaggio il clamshell altrimenti :)

Avessi una 3080ti tuf, ti facevo tutti i test, così confrontavamo. Se qualcuno vuole testare ben venga.:)

Sul clamschell no, è diverso. Sono moduli che vengono messi davanti e dietro per sopperire la densità.
La 3080/ti, utilizzano moduli da 1gb, quindi in base al bus 10 e 12. Con il clamschell, viene bypassato il limite, mettendo i chip fronte e retro, ma con un bus anzichè da 16bit, a 2x8bit.

In linea di massima non cambia praticamente nulla, solo che hai la rottura sul calore. Infatti queste soluzioni le utilizzano solo in fasce elite o quadro.

Le ram che hai tu, non sono delle 19, ma sono le 21 downclockate a 19,5, quando le porti a 21, le stai tenendo a stock.

A partire dalla 3090ti e 4090, hanno introdotto la doppia densità, ovvero 2gb a modulino, quindi tutto sul fronte. Questo permette di passare a 48gb in clamschell.

Dono89
29-06-2023, 14:04
Avessi una 3080ti tuf, ti facevo tutti i test, così confrontavamo. Se qualcuno vuole testare ben venga.:)

Sul clamschell no, è diverso. Sono moduli che vengono messi davanti e dietro per sopperire la densità.
La 3080/ti, utilizzano moduli da 1gb, quindi in base al bus 10 e 12. Con il clamschell, viene bypassato il limite, mettendo i chip fronte e retro, ma con un bus anzichè da 16bit, a 2x8bit.

In linea di massima non cambia praticamente nulla, solo che hai la rottura sul calore. Infatti queste soluzioni le utilizzano solo in fasce elite o quadro.

Le ram che hai tu, non sono delle 19, ma sono le 21 downclockate a 19,5, quando le porti a 21, le stai tenendo a stock.

A partire dalla 3090ti e 4090, hanno introdotto la doppia densità, ovvero 2gb a modulino, quindi tutto sul fronte. Questo permette di passare a 48gb in clamschell.

si, infatti stanno a +750 fisse, le ho messe a 19 solo per i test ed avere uno scenario comparabile. Non che serva, con 1TB di banda non me ne faccio nulla in 2K, però oltre +800 non ne vogliono sapere benchè le temp siano ottime, probabile gestire il bus 2x8 crea più casino del classico 16. Ipotizzo.

Avrei voluto capire più che altro se i doppi chip consumano il doppio (o quantomeno un tot rilevante in più) rispetto la config non clamshell.

Fa specie che moduli a doppia densità ed a frequenza maggiore implementati nelle 90ti consumino meno

mikael84
29-06-2023, 15:53
si, infatti stanno a +750 fisse, le ho messe a 19 solo per i test ed avere uno scenario comparabile. Non che serva, con 1TB di banda non me ne faccio nulla in 2K, però oltre +800 non ne vogliono sapere benchè le temp siano ottime, probabile gestire il bus 2x8 crea più casino del classico 16. Ipotizzo.

Avrei voluto capire più che altro se i doppi chip consumano il doppio (o quantomeno un tot rilevante in più) rispetto la config non clamshell.

Fa specie che moduli a doppia densità ed a frequenza maggiore implementati nelle 90ti consumino meno

La banda di 1TB ricordo è teorica, l'effettiva è più bassa, e tiene conto anche delle latenze.
Per il resto, si il clamschell è un pochino più rognoso.

Riguardo i consumi della doppia densità, micron non ne ha parlato apertamente, ma ci fu una spiegazione dettagliata di Igor.

Cmq, anche per le ram valgono i PP. Attualmente vengono stampate su nodo samsung, e questi hanno varie classificazioni.

Le prime g6x sono state realizzate nel 1x, una versione moddata del 14nm

https://i.postimg.cc/8P47mz6H/micron-pp.png

Ora sta utilizzando tra la terza e la quarta gen di PP, compresa la logica che passa da 7 a 5nm.
Questa è una versione moddata dei 10nm, e permettono quasi 2x la densità

La proiezione è vecchiotta e non aggiornata, però rende bene l'idea su quanto le g6x fossero arretrate inizialmente.:)

Dono89
03-07-2023, 09:12
che fossero arretrate è abbastanza evidente anche da com'è stata gestita l'alimentazione e tutto il resto.

Mi stupisce il fatto che la 3090 vada più della 3080ti a questo punto.

Ok i circa 200cuda in più a favore della 3090, e va beh, ma non essendo clamshell, non dovrebbe almeno utilizzare più energia per il core consentendo un maggiore margine di oc rispetto la 90? ovviamente a pari PL max

The_Fabulous_
06-07-2023, 14:14
Salve a tutti sono un nuovo utente,ho una gigabyte 3080Ti leggevo in rete che esiste un modo per farla consumare e di conseguenza scaldare meno chiamato downvolt... come si esegue?
grazie a tutti Mitch

frafelix
06-07-2023, 14:39
Devi installare msi afterburner e da lì creare una curva personalizzata per frequenza/voltaggio. Dai un'occhiata ai video su youtube per capire come fare.
Se è la prima scheda video con cui fai una cosa del genere ti ci vuole un sacco di tempo per trovare la soglia giusta per la tua gpu facendo i vari test

The_Fabulous_
06-07-2023, 17:50
Devi installare msi afterburner e da lì creare una curva personalizzata per frequenza/voltaggio. Dai un'occhiata ai video su youtube per capire come fare.
Se è la prima scheda video con cui fai una cosa del genere ti ci vuole un sacco di tempo per trovare la soglia giusta per la tua gpu facendo i vari test

ciao ho seguito un video su youtube sono riuscito a impostare 1935mhz@0.868v testato in 4k con gta 5 e cyberpunk 2077 con curva ventole non troppo aggressiva si ferma sui 64°C con le ventole sui 2000rpm un pelo rumorose ma sopportabili :)

Dono89
06-07-2023, 17:53
Dubito fortemente regga quelle frequenze con cp.

Abilitato RT e dlss?
Dovrebbe andare anche oltre il pl

frafelix
07-07-2023, 08:06
Quoto Dono, la mia con cyberpunk sta a 1800mhz per non sforare di power limit, mentre fai i test devi controllare con gpuz i vari valori ed nel PerfCap Reason non deve esserci scritto niente

Dono89
07-07-2023, 10:24
Quoto Dono, la mia con cyberpunk sta a 1800mhz per non sforare di power limit, mentre fai i test devi controllare con gpuz i vari valori ed nel PerfCap Reason non deve esserci scritto niente

1800MHz sono davvero limitati.
Quanto sei di voltaggio? io sto testando per non cappare con pplague tale, scena iniziale, bastano 15 minuti.

Se passa quella, passa tutto.

Porta il voltaggio a 850mV e dove arriva di frequenza, arriva

frafelix
07-07-2023, 12:34
Non mi ricordo, dalle parti di 800-820mV mi pare e consumo circa 340watt

javiersousa
07-07-2023, 23:11
Ragazzi ciao, mi dareste qualche dritta per undervolt di una 3080 Zotac ? con questo caldo verrei guadagnare qualche grado, go provato 1930@925 ma è calduccia in The Last of Us......cosa mi consigliate?

Dono89
07-07-2023, 23:12
Ragazzi ciao, mi dareste qualche dritta per undervolt di una 3080 Zotac ? con questo caldo verrei guadagnare qualche grado, go provato 1930@925 ma è calduccia in The Last of Us......cosa mi consigliate?

se è calda in the last of us aspetta di giocare a metro o plague tale.

Metti 900mV e dove arrivi arrivi con la frequenza, fai prima;)

javiersousa
07-07-2023, 23:36
se è calda in the last of us aspetta di giocare a metro o plague tale.

Metti 900mV e dove arrivi arrivi con la frequenza, fai prima;)

900 e quanto di core, almeno da quanto inizio a provare?

fraussantin
08-07-2023, 06:34
900 e quanto di core, almeno da quanto inizio a provare?1905.

È una base che sulle ampere andava bene con parecchie.

Se non crashi e se non raggiungi il tdp massimo , puoi provare ad alzare .

Io ho trovato la pace con 850 a 1905 ma ho una fe.

Potrei spingerla di più a 900 o 950 mv e avvicinarmi ai 2000 , ma alla fine non cambia un tubo nei giochi

Ps alza anche il regime della ventola

Ubro92
08-07-2023, 09:42
1905.

È una base che sulle ampere andava bene con parecchie.

Se non crashi e se non raggiungi il tdp massimo , puoi provare ad alzare .

Io ho trovato la pace con 850 a 1905 ma ho una fe.

Potrei spingerla di più a 900 o 950 mv e avvicinarmi ai 2000 , ma alla fine non cambia un tubo nei giochi

Ps alza anche il regime della ventolaAggiungi che dipende anche dal gioco e dalle risorse che usa, in genere con gli 8nm c'è sempre una certa fluttuazione del clock in relazione al limite del pl.

La mia 3060ti a 200w oscilla tra i 1875 (caso peggiore) e 1995mhz, per tenerla sempre sopra i 1905 servirebbe almeno un pl di 220-230w.

Però alla fine non ti cambia nulla ai fini pratici.



Inviato dal mio M2012K11AG utilizzando Tapatalk

Dono89
08-07-2023, 10:33
1905.

È una base che sulle ampere andava bene con parecchie.

Se non crashi e se non raggiungi il tdp massimo , puoi provare ad alzare .

Io ho trovato la pace con 850 a 1905 ma ho una fe.

Potrei spingerla di più a 900 o 950 mv e avvicinarmi ai 2000 , ma alla fine non cambia un tubo nei giochi

Ps alza anche il regime della ventola


1905 a 900 è un po' meh
Ma sopratutto 1905 a 850 è tantissima roba, dovresti arrivare sui 350w, golden chip la tua!

javiersousa
08-07-2023, 15:00
1905 a 900 è un po' meh
Ma sopratutto 1905 a 850 è tantissima roba, dovresti arrivare sui 350w, golden chip la tua!

Quindi 1900@900 potrebbe essere un buon compromesso ? da provare ? sicuramente @850 sarebbe top......ma vediamo se mi tiene 1900@900

The_Fabulous_
08-07-2023, 15:20
io sono riuscito a fare 1935@0.985v con un tdp di 320w

Dono89
08-07-2023, 15:36
Quindi 1900@900 potrebbe essere un buon compromesso ? da provare ? sicuramente @850 sarebbe top......ma vediamo se mi tiene 1900@900

Inizia da 1905 poi in caso aumenti/scali

Mi raccomando prova con giochi con rt e dlss, i migliori test sono le prime scene di metro e plague tale.

io sono riuscito a fare 1935@0.985v con un tdp di 320w

Ma con che scheda? Sicuro non la 3080ti/90

javiersousa
08-07-2023, 15:47
Inizia da 1905 poi in caso aumenti/scali

Mi raccomando prova con giochi con rt e dlss, i migliori test sono le prime scene di metro e plague tale.



Ma con che scheda? Sicuro non la 3080ti/90

Sono con una zotac 3080, vorrei semplicemente averla fresca in questo periodo, quindi, presumo che, 1905@900 si già ottimo o no, sempre se regge.....

Dono89
10-07-2023, 09:07
Sono con una zotac 3080, vorrei semplicemente averla fresca in questo periodo, quindi, presumo che, 1905@900 si già ottimo o no, sempre se regge.....

1905 con 900mV dovrebbe reggerli senza troppo sforzo. Sicuramente sarà un altro mondo rispetto stock. Prova :)

javiersousa
11-07-2023, 09:27
1905 con 900mV dovrebbe reggerli senza troppo sforzo. Sicuramente sarà un altro mondo rispetto stock. Prova :)

Si regge, temperature base rispetto a prima, solo che mi va a 1900@893 mV, penso non sia un problema, non riesco a creare la curva in modo preciso.....poi ho provato 1800@900 mV (diciamo che le temperature sono ancora migliori e sembra non risentirne sui frames in gioco)..........

razor820
17-07-2023, 11:55
salve, dovrei ripaddare la mia 3080ti fe.
Devo rimuovere il wb della Ek per rimontare l originale ad aria, di conseguenza mi servono i pad. Qualcuno sa dove comprarli ebay o amazon e il modello esatto per il dissipatore in questione?
grazie

LurenZ87
19-07-2023, 07:25
Salve ragazzi, una domanda... Una RTX 3090 in undervolt quanto consuma??? Intendo sia a parità di frequenze originali e sia al max del suo potenziale (scendendo anche in frequenza), grazie :)

Inviato dal mio Pixel 7 utilizzando Tapatalk

Ubro92
19-07-2023, 07:31
Salve ragazzi, una domanda... Una RTX 3090 in undervolt quanto consuma??? Intendo sia a parità di frequenze originali e sia al max del suo potenziale (scendendo anche in frequenza), grazie :)

Inviato dal mio Pixel 7 utilizzando Tapatalk

Ma è una domanda troppo generica, ogni chip è a se...
In generale per i consumi ti basta settare il PL, lo puoi mettere pure a 300w e la scheda non va oltre quella soglia.

Con l'undervolt fai si che a pari tensione la GPU salga di più in clock, quindi ad esempio potresti avere a 300w le stesse prestazioni del chip reference a 350w o anche migliori.

LurenZ87
19-07-2023, 07:57
Ma è una domanda troppo generica, ogni chip è a se...

In generale per i consumi ti basta settare il PL, lo puoi mettere pure a 300w e la scheda non va oltre quella soglia.



Con l'undervolt fai si che a pari tensione la GPU salga di più in clock, quindi ad esempio potresti avere a 300w le stesse prestazioni del chip reference a 350w o anche migliori.Una media, non so a che tensioni di norma lavora quella gpu (esempio la 4070 di default sta 1,1v e al momento la sto usando a 0,95v con frequenze analoghe), per questo chiedevo

Inviato dal mio Pixel 7 utilizzando Tapatalk

frafelix
19-07-2023, 08:05
Qui l'undervolt non è considerato nel vero senso del termine...
Come ti ha detto Ubro92, di solito abbassi i mV per tenere la curva di frequenza piatta ma al massimo del potenziale, quindi i consumi sono comunque quelli massimi. Altrimenti imposti un tetto massimo di watt e fai quello che vuoi

LurenZ87
19-07-2023, 08:11
Qui l'undervolt non è considerato nel vero senso del termine...

Come ti ha detto Ubro92, di solito abbassi i mV per tenere la curva di frequenza piatta ma al massimo del potenziale, quindi i consumi sono comunque quelli massimi. Altrimenti imposti un tetto massimo di watt e fai quello che vuoiIo di solito lo uso per tenere le frequenze stock con il minimo assorbimento possibile oppure se i consumi sono comunque alti limando un po' la frequenza massima e cercando di scendere ulteriormente... Esempio con un tetto di 1700Mhz con una tensione minima, potremmo stare sui 250W o meno???

Inviato dal mio Pixel 7 utilizzando Tapatalk

frafelix
19-07-2023, 08:18
Con la 3090 non lo so, ma tanto per darti un'idea, con la mia 3080ti sono a 1800mhz con 825mV e consuma 340w circa.

Tu vuoi fare il vero undervolt, cosa che qui è rara, devi provare tenendo monitorato con gpuz o hwinfo

Dono89
19-07-2023, 08:19
Io di solito lo uso per tenere le frequenze stock con il minimo assorbimento possibile oppure se i consumi sono comunque alti limando un po' la frequenza massima e cercando di scendere ulteriormente... Esempio con un tetto di 1700Mhz con una tensione minima, potremmo stare sui 250W o meno???

Inviato dal mio Pixel 7 utilizzando Tapatalk

Frequenze stock dipende ancora per ogni scheda. Comunque, mediamente passi con uv a 1800 (vero uv, altrimenti raggiungi frequenze superiori a stock, tipo la mia) dai 350w di default ai 250w

circa un 30% di riduzione. L'impatto dell'uv è decisamente più forte sulle 3000 che 4000


Con la 3090 non lo so, ma tanto per darti un'idea, con la mia 3080ti sono a 1800mhz con 825mV e consuma 340w circa.

Tu vuoi fare il vero undervolt, cosa che qui è rara, devi provare tenendo monitorato con gpuz o hwinfo
Davvero troppo. Sicuro sia tutto ok?
La mia consuma circa 380w a 1920/900mV

frafelix
19-07-2023, 08:38
Sì, sicuro, ovviamente nei giochi pesanti... Ma non ho voglia di avere due profili

StylezZz`
19-07-2023, 08:59
Nuovi driver 536.67 WHQL disponibili, è accaduto un miracolo :ave:

Fixed: Increase in DPC latency observed in Latencymon for Ampere-based GPUs

LurenZ87
19-07-2023, 09:04
Frequenze stock dipende ancora per ogni scheda. Comunque, mediamente passi con uv a 1800 (vero uv, altrimenti raggiungi frequenze superiori a stock, tipo la mia) dai 350w di default ai 250w

circa un 30% di riduzione. L'impatto dell'uv è decisamente più forte sulle 3000 che 4000


Grazie Dono89, sei il top :sofico: (prima con il 5800x3D e poi con questa tavoletta di gpu :D)

Intendevo proprio questo... Quindi 250W e similari sono alla sua portata... Bene bene :).

Inviato dal mio Pixel 7 utilizzando Tapatalk

Dono89
19-07-2023, 09:15
Sì, sicuro, ovviamente nei giochi pesanti... Ma non ho voglia di avere due profili
Assolutamente no. Ovviamente dipende moltissimo dal titolo. Se spari requiem ci credo (ma anche qui, non sarebbe uv, perchè da stock saresti arrivato a nemmeno 1700mhz). Altro film con far cry, ac e simili

Grazie Dono89, sei il top :sofico: (prima con il 5800x3D e poi con questa tavoletta di gpu :D)

Intendevo proprio questo... Quindi 250W e similari sono alla sua portata... Bene bene :).

Inviato dal mio Pixel 7 utilizzando Tapatalk
LOL!
tutto merito di Mikael, io vado a indotto :D

Come sopra, vale tantissimo il titolo.
Su requiem scordati con una 3000 i 250w, ma è anche un'eccezione e non bisognerebbe tarare solo su quello secondo me, poi ovviamente sono scelte

nessuno29
22-07-2023, 06:55
Buongiorno, ho un dubbio la 3070 strix ha un tdp di 280w fino ai 350, in game però non supero mai i 220 neanche sparando il power limit perché?

L'undervolt con quale programma lo eseguite? Da msi afterburner non possono ridurre il vcore ma solo aumentarlo.

Dono89
22-07-2023, 10:12
Perché consuma meno del limite. Meglio no? :)

Hai margine per fare oc. Msi afterburner

s12a
22-07-2023, 10:15
Se hai il Vsync attivo ovviamente il consumo sarà inferiore.

nessuno29
22-07-2023, 11:40
No non ho vsync cerco di sfruttare i 144hz, quindi è normale consumare così poco? Rimane sui 200watt mediamente non è il cpu limited?

StylezZz`
22-07-2023, 13:58
Bisognerebbe vedere le frequenze e l'uso della gpu.

nessuno29
22-07-2023, 17:33
Prendendo in esempio bf2042 sto fisso sui 1875 mhz con 210watt di consumo e 96% di utilizzo è normale?

Dono89
22-07-2023, 18:56
Si è normale.
Una 3070 consuma poco, specie se sotto i 1900 e magari pure con voltaggi conservativi

nessuno29
22-07-2023, 22:35
Si è normale.
Una 3070 consuma poco, specie se sotto i 1900 e magari pure con voltaggi conservativi

per fare undervolt che programma utilizzate?

Ubro92
23-07-2023, 06:18
per fare undervolt che programma utilizzate?

Penso che un pò tutti utilizziamo MSI AB personalizzando la curva.

Io con il caldo torrido di questi giorni (quasi 40°) ho impostato il PL a 160w, e la 3060ti con 0.85v sta sui 1875mhz.

GA104 non è un chip particolarmente energivoro, forse solo le versioni con GDDR6x consumano quei 35-50w in più, comunque superata una certa soglia di tensione/clock diventano un pò tutte inefficienti, il pp di samsung è veramente penoso.

nessuno29
23-07-2023, 07:45
Io ho impostato 0.95v e 1915mhz pare reggere, l'ho sempre tenuta sui 2050mhz ma se posso ridurre il calore infernale male non fa.

FaTcLA
25-07-2023, 19:07
Niente, in preda alla noia ho portato a casa 3080 gigabyte waterforce a 390 spedita

davide155
25-07-2023, 22:04
Niente, in preda alla noia ho portato a casa 3080 gigabyte waterforce a 390 speditaCe l'hai già nelle mani?
Perché anche se usata mi sembra un prezzo troppo ottimistico, soprattutto per la waterforce.

Vash88
26-07-2023, 09:56
Buongiorno, ho un dubbio la 3070 strix ha un tdp di 280w fino ai 350, in game però non supero mai i 220 neanche sparando il power limit perché?

L'undervolt con quale programma lo eseguite? Da msi afterburner non possono ridurre il vcore ma solo aumentarlo.

Metti su un benchamark sintetico come superposition 4k o 3Dmark è il TDP lo usi completamente. Con la 3070 FE ero sempre al limite.
Usa ctrl-f per aprire il pannello della curva del voltaggio su afterburner.
https://i.ibb.co/DWTHbw2/Superposition-4k-3070.png (https://ibb.co/DWTHbw2) https://i.ibb.co/0ZmDhGr/Superposition-4-K-3080.png (https://ibb.co/0ZmDhGr) https://i.ibb.co/BzkmN8F/Superposition-4k3090.png (https://ibb.co/BzkmN8F)
3070 FE tirata
12149
3080 FE tirata +24%
15186
3090 FE senza curva solo con PL 114% e ventole 80% +41.6% rispetto alla 3070
17212

Non so effettivamente quanto una 3070ti sia più veloce rispetto a una 3070 base.

Probabilmente sei CPU bottlenecked a 1440p con battlefield 2042. E' un gioco MOLTO cpu intensive.

FaTcLA
26-07-2023, 11:27
Ce l'hai già nelle mani?
Perché anche se usata mi sembra un prezzo troppo ottimistico, soprattutto per la waterforce.

Ancora deve arrivarmi, ma l'ho presa di seconda mano, eh. Il tizio deve svuotare impianto e smontarla dal suo pc.
Se dovessi prendere nuovo, andrei tappandomi il naso con la piú economica della 4070 o allo stesso prezzo con una ingorantissima 6950xt, sui 600-650.

Comunque solo per essere precisi, ho pagato con paypal tramite procedura di acquisto (non invio denaro) del pannello di subito_.it e ho aggiunto il servizio da 15 euro per protezione totale acquisti.
Quindi i soldi restano bloccati finché non premo il tasto: "pacco ricevuto e conforme alla descrizione".
Se é una truffa, il venditore é un po' un tontolone perché ha giá buttato i soldi delle commissioni per nulla.

Appena arriva faccio un paio di bei test, piú che altro devo capire quanto sto sereno nei picchi di consumo con 730w di alimentatore, considerando la pompa del liquido e le 9 ventole che nei bench vanno a manetta.

Comunque il nuovo blocchetto cheap che ho appena ordinato:
7600x (trovato a meno del liscio), b650 asrock riptide, 2x16gb 6000 cl30 trident

davide155
26-07-2023, 12:39
Ancora deve arrivarmi, ma l'ho presa di seconda mano, eh. Il tizio deve svuotare impianto e smontarla dal suo pc.

Se dovessi prendere nuovo, andrei tappandomi il naso con la piú economica della 4070 o allo stesso prezzo con una ingorantissima 6950xt, sui 600-650.



Comunque solo per essere precisi, ho pagato con paypal tramite procedura di acquisto (non invio denaro) del pannello di subito_.it e ho aggiunto il servizio da 15 euro per protezione totale acquisti.

Quindi i soldi restano bloccati finché non premo il tasto: "pacco ricevuto e conforme alla descrizione".

Se é una truffa, il venditore é un po' un tontolone perché ha giá buttato i soldi delle commissioni per nulla.



Appena arriva faccio un paio di bei test, piú che altro devo capire quanto sto sereno nei picchi di consumo con 730w di alimentatore, considerando la pompa del liquido e le 9 ventole che nei bench vanno a manetta.



Comunque il nuovo blocchetto cheap che ho appena ordinato:

7600x (trovato a meno del liscio), b650 asrock riptide, 2x16gb 6000 cl30 tridentBoh così ad orecchio il prezzo è parecchio basso.
Spero ti arrivi tutto e che sia perfetta.
Per l'alimentatore se è di marca non hai minimamente problema.
Ho amici con 4090fe e 750w di alimentatore che giocano perfettamente con tutto a default.

FaTcLA
26-07-2023, 13:08
Boh così ad orecchio il prezzo è parecchio basso.
Spero ti arrivi tutto e che sia perfetta.
Speriamo, altrimenti poco male, faccio reclamo e mi faccio rimborsare e a quel punto prendo qualcosa di nuovo


Per l'alimentatore se è di marca non hai minimamente problema.
Ho amici con 4090fe e 750w di alimentatore che giocano perfettamente con tutto a default..

Ni, non é per niente il top, é un cooler master di una serie silent di ormai una dozzina di anni fa.
Ha giá ricevuto un trapianto di tasto on/off e di ventola da 14, ha le lamiere tutte piegate male, ma ci sono affezionato, non ho cuore per buttarlo :(

bronzodiriace
26-07-2023, 17:39
Ni, non é per niente il top, é un cooler master di una serie silent di ormai una dozzina di anni fa.
Ha giá ricevuto un trapianto di tasto on/off e di ventola da 14, ha le lamiere tutte piegate male, ma ci sono affezionato, non ho cuore per buttarlo :(

È un giovanotto il tuo alimentatore

Inviato dal mio MAR-LX1A utilizzando Tapatalk

davide155
26-07-2023, 22:17
Speriamo, altrimenti poco male, faccio reclamo e mi faccio rimborsare e a quel punto prendo qualcosa di nuovo



Ni, non é per niente il top, é un cooler master di una serie silent di ormai una dozzina di anni fa.
Ha giá ricevuto un trapianto di tasto on/off e di ventola da 14, ha le lamiere tutte piegate male, ma ci sono affezionato, non ho cuore per buttarlo :(Beh oddio allora è parecchio affaticato. 12 anni son roba.
Però è anche vero che la 3080 waterforce con i suoi 320w (se ho letto bene) dovrebbe rientrare tranquillamente nei 750w anche con un processore di ultima generazione.
Male che vada appena fai partire un gioco ed il sistema va sotto sforzo ti si spegne il pc.

keyvan
27-07-2023, 08:29
Ragazzi forse devo cambiare la mia alimentatore(in firma) , secondo voi per il mio hw è sottodimensionato?

Vash88
27-07-2023, 09:37
No, non cambiare a meno che non hai problemi di stabilità. Sei vicino al limite ma finché regge sei a posto.

Cutter90
27-07-2023, 09:57
Ragazzi forse devo cambiare la mia alimentatore(in firma) , secondo voi per il mio hw è sottodimensionato?

No, assolutamente. Sei a postissimo :)

keyvan
27-07-2023, 11:21
No, non cambiare a meno che non hai problemi di stabilità. Sei vicino al limite ma finché regge sei a posto.

In realta un problemino cè, da un po di tempo quando spengo il computer, devo anche spostare il bottone posto sull'alimentare su off, altrimenti quando tento di accendere il pc , ali sembra morto, non so se dipende dall'ali o qualcos'altro.
Ho anche aperto un post nella sezione alimentatori ma risposte utili nada finora.
No, assolutamente. Sei a postissimo :)

Grazie Cutter.

monster.fx
27-07-2023, 22:35
Ragazzi una domanda che potrebbe sembrare banale e scontata... Ma tra una 3070 e una 4060ti cosa scegliereste? Vedendo video la 3070 va un pelino di più (ma nulla da far fare effetto WOW), ma la 4060Ti è più fresca,ha dlss3 , consuma molto meno e di contro un bus "solo" a 128bit.

Non capisco perché molti demonizzino la 4060... Alla fine fa quello che promette... Ha le stesse prestazioni della gen precedente.

Ubro92
27-07-2023, 23:28
Attualmente le scarterei entrambe, al più si va di 3060ti GDDR6X sui 300€ o direttamente verso la 4070.

nessuno29
28-07-2023, 08:04
Ragazzi una domanda che potrebbe sembrare banale e scontata... Ma tra una 3070 e una 4060ti cosa scegliereste? Vedendo video la 3070 va un pelino di più (ma nulla da far fare effetto WOW), ma la 4060Ti è più fresca,ha dlss3 , consuma molto meno e di contro un bus "solo" a 128bit.

Non capisco perché molti demonizzino la 4060... Alla fine fa quello che promette... Ha le stesse prestazioni della gen precedente.

La 4060ti raggiunge quasi la 3070, ed a volte sta sotto la 3060ti a 450 euro dopo 3 anni dall'uscita delle 3000, cosa c'è di bello in tutto ciò?

StylezZz`
28-07-2023, 09:07
Non capisco perché molti demonizzino la 4060... Alla fine fa quello che promette... Ha le stesse prestazioni della gen precedente.

Perchè è una 4050 Ti.

Cutter90
28-07-2023, 10:19
Ragazzi una domanda che potrebbe sembrare banale e scontata... Ma tra una 3070 e una 4060ti cosa scegliereste? Vedendo video la 3070 va un pelino di più (ma nulla da far fare effetto WOW), ma la 4060Ti è più fresca,ha dlss3 , consuma molto meno e di contro un bus "solo" a 128bit.

Non capisco perché molti demonizzino la 4060... Alla fine fa quello che promette... Ha le stesse prestazioni della gen precedente.
L hai detto tu il perché. "Ha le stesse prestazioni della gen precedente" e questo è MALE.

Vash88
28-07-2023, 10:25
Ragazzi una domanda che potrebbe sembrare banale e scontata... Ma tra una 3070 e una 4060ti cosa scegliereste? Vedendo video la 3070 va un pelino di più (ma nulla da far fare effetto WOW), ma la 4060Ti è più fresca,ha dlss3 , consuma molto meno e di contro un bus "solo" a 128bit.

Non capisco perché molti demonizzino la 4060... Alla fine fa quello che promette... Ha le stesse prestazioni della gen precedente.

Quella che costa meno. E la 3070 usata su ebay si vedono inserzioni chiuse a 270€. E' una scheda video con i giorni contati dati gli 8 GB. SE dovessi cercare a quel prezzo considererei la 6700 XT 12gb per la memoria aggiuntiva.

StylezZz`
28-07-2023, 10:37
Quella che costa meno. E la 3070 usata su ebay si vedono inserzioni chiuse a 270€. E' una scheda video con i giorni contati dati gli 8 GB. SE dovessi cercare a quel prezzo considererei la 6700 XT 12gb per la memoria aggiuntiva.

DLSS e settaggi high invece di ultra, problema risolto :)

Cutter90
28-07-2023, 11:10
Quella che costa meno. E la 3070 usata su ebay si vedono inserzioni chiuse a 270€. E' una scheda video con i giorni contati dati gli 8 GB. SE dovessi cercare a quel prezzo considererei la 6700 XT 12gb per la memoria aggiuntiva.

Oh mamma. Ancora con sta storia degli 8 gb. Solo per il dlss e il rt la 3070 è da preferirei alle 6700xt.

Maury
28-07-2023, 14:55
Scusate, un'informazione, la 3070 FE, o comunque il modello reference senza alcun oc, ha un TDP di 220 w? La mia 3070 Vision OC di base ne ha 270.

Ero convinto che la reference fosse 240w, ma leggo molto spesso 220w. :confused:

StylezZz`
28-07-2023, 14:57
Scusate, un'informazione, la 3070 FE, o comunque il modello reference senza alcun oc, ha un TDP di 220 w? La mia 3070 Vision OC di base ne ha 270.

Ero convinto che la reference fosse 240w, ma leggo molto spesso 220w. :confused:

Con il PL al 109% (suo limite) arriva a 240W.

mikael84
28-07-2023, 15:03
Scusate, un'informazione, la 3070 FE, o comunque il modello reference senza alcun oc, ha un TDP di 220 w? La mia 3070 Vision OC di base ne ha 270.

Ero convinto che la reference fosse 240w, ma leggo molto spesso 220w. :confused:

La FE ha 220 di TDP, 240 con PL.

Maury
28-07-2023, 15:17
Con il PL al 109% (suo limite) arriva a 240W.

La FE ha 220 di TDP, 240 con PL.

Grazie :)

Quindi dovendo confrontare una 3070 VISION OC con PL a 270w ad una ARC 770 sarebbe più corretto portare la RTX a 240w max. :rolleyes:

mikael84
28-07-2023, 15:24
Grazie :)

Quindi dovendo confrontare una 3070 VISION OC con PL a 270w ad una ARC 770 sarebbe più corretto portarle la RTX a 240w max. :rolleyes:

No, in quanto nella comparazione ci scrivi 3070 vision OC e non FE. Quindi è naturale che essendo una custom OC, di base può avere leggere migliorie.:)
Anche se in fondo parliamo del nulla o quasi. Un ipotetico 1-2% non ti cambia il test.

Maury
28-07-2023, 15:30
No, in quanto nella comparazione ci scrivi 3070 vision OC e non FE. Quindi è naturale che essendo una custom OC, di base può avere leggere migliorie.:)
Anche se in fondo parliamo del nulla o quasi. Un ipotetico 1-2% non ti cambia il test.

O magari mettere entrambi i valori 240 e 270, farò 2 prove per vedere quanto rendono oltre 30 w di margine, perchè oltre i 240 siamo in OC contro stock :)

devil_mcry
28-07-2023, 15:37
fighi i test a770 vs 3070

Maury
28-07-2023, 15:41
fighi i test a770 vs 3070

Seguite numerosi link in firma :sofico:

mikael84
28-07-2023, 16:00
O magari mettere entrambi i valori 240 e 270, farò 2 prove per vedere quanto rendono oltre 30 w di margine, perchè oltre i 240 siamo in OC contro stock :)

Vabbè non devi fare una review alla hardwarefr (rip).:D E' giusto per analizzar ei chip a 360°, poi se una fa 1/2 fps in più o in meno, cambia poco.
Considera che era per far partecipare tutti i possessori di GPU equivalenti, ed ovviamente tutti hanno chip versioni diverse.:)

cla749
28-07-2023, 18:46
Ciao a tutti! Scrivo per una delucidazione....
Ho la configurazione in firma e giocando in FHD mi basta!
Un mio amico, che vuole cambiare VGA mi ha offerto la sua Zotac 3080 d 12 giga.
Conosco il tipo e ha una cura maniacale dei componenti (vende per passaggio a 4090), non mi ha ancora sparato il prezzo, (credo a stima tra i 7 e 800 euro)ma...
1) devo cambiare l'ali.. (ha un anno ma la potenza è quella che è)
2) processore anche qui sarebbe da cambiare per sfruttare al meglio il tutto..
3) monitor...ecco rimarrei in fhd ancora per un bel po!!
Che fare?
La testa mi dice stai come stai!!

StylezZz`
28-07-2023, 18:58
Ciao a tutti! Scrivo per una delucidazione....
Ho la configurazione in firma e giocando in FHD mi basta!
Un mio amico, che vuole cambiare VGA mi ha offerto la sua Zotac 3080 d 12 giga.
Conosco il tipo e ha una cura maniacale dei componenti (vende per passaggio a 4090), non mi ha ancora sparato il prezzo, (credo a stima tra i 7 e 800 euro)ma...
1) devo cambiare l'ali.. (ha un anno ma la potenza è quella che è)
2) processore anche qui sarebbe da cambiare per sfruttare al meglio il tutto..
3) monitor...ecco rimarrei in fhd ancora per un bel po!!
Che fare?
La testa mi dice stai come stai!!

In effetti credo sia la scelta migliore restare con la 6650 considerando la spesa extra dell'ali e l'eventuale cambio della cpu, anche se una 3080 in FHD sarebbe sprecata IMHO. Considera anche che la 4070 12GB si trova nuova sui 600€ e come prestazioni se la gioca più o meno con la 3080, oltre a consumare meno, e ha pure il vantaggio del DLSS3...quindi non può spararti cifre assurde.

devil_mcry
28-07-2023, 19:19
Ciao a tutti! Scrivo per una delucidazione....
Ho la configurazione in firma e giocando in FHD mi basta!
Un mio amico, che vuole cambiare VGA mi ha offerto la sua Zotac 3080 d 12 giga.
Conosco il tipo e ha una cura maniacale dei componenti (vende per passaggio a 4090), non mi ha ancora sparato il prezzo, (credo a stima tra i 7 e 800 euro)ma...
1) devo cambiare l'ali.. (ha un anno ma la potenza è quella che è)
2) processore anche qui sarebbe da cambiare per sfruttare al meglio il tutto..
3) monitor...ecco rimarrei in fhd ancora per un bel po!!
Che fare?
La testa mi dice stai come stai!!

se te la vende a 800e ti sta inculando
anche a 700e

io ho pagato la mia zotac 3080 12gb meno di 900e un botto di tempo fa, prima della serie 4000. Ovviamente nuova

Ubro92
28-07-2023, 20:44
A 800e trovi le 4070ti nuove di pacca, non ha senso una 3080 12gb usata...

Nel tuo caso considerato che devi cambiare anche monitor, più che spendere 800€ per la sola GPU ha più senso limitarti a una 4070 sui 600€ e prendere un monitor ips da 27" 1440p che attualmente si trovano a ottimi prezzi.

Inviato dal mio M2012K11AG utilizzando Tapatalk

nessuno29
29-07-2023, 09:16
Ciao a tutti! Scrivo per una delucidazione....
Ho la configurazione in firma e giocando in FHD mi basta!
Un mio amico, che vuole cambiare VGA mi ha offerto la sua Zotac 3080 d 12 giga.
Conosco il tipo e ha una cura maniacale dei componenti (vende per passaggio a 4090), non mi ha ancora sparato il prezzo, (credo a stima tra i 7 e 800 euro)ma...
1) devo cambiare l'ali.. (ha un anno ma la potenza è quella che è)
2) processore anche qui sarebbe da cambiare per sfruttare al meglio il tutto..
3) monitor...ecco rimarrei in fhd ancora per un bel po!!
Che fare?
La testa mi dice stai come stai!!

Meno male che è un amico ahah, lascia stare sia perché il prezzo è fuori mercato e sia perché sbilanci tutta la build, la 3080 non ti serve.

Sonpazzo
29-07-2023, 09:26
Ciao a tutti! Scrivo per una delucidazione....
Ho la configurazione in firma e giocando in FHD mi basta!
Un mio amico, che vuole cambiare VGA mi ha offerto la sua Zotac 3080 d 12 giga.
Conosco il tipo e ha una cura maniacale dei componenti (vende per passaggio a 4090), non mi ha ancora sparato il prezzo, (credo a stima tra i 7 e 800 euro)ma...
1) devo cambiare l'ali.. (ha un anno ma la potenza è quella che è)
2) processore anche qui sarebbe da cambiare per sfruttare al meglio il tutto..
3) monitor...ecco rimarrei in fhd ancora per un bel po!!
Che fare?
La testa mi dice stai come stai!!

le 3080 usate stanno sui 500 euro

se la scimmia ha il sopravvento ci metti un buon ali, il resto della config va bene, il salto dalla 6650 è enorme

utilizza il supersampling anche su monitor 1080p e la qualità è impagabile. gioca in 4k praticamente

Dono89
29-07-2023, 10:49
Una 3080 a 500e è regalata. Siamo oggettivi, non è il suo prezzo.

Se trovi una 3080 12gb io la eviterei, oggi il prezzo si è assottigliato e conviene andare di 3090 o 3080ti.

Se invece vuoi risparmiare con 550/600euro ti prendi una 3080 che va da dio

Sonpazzo
29-07-2023, 10:54
A 600 euro ci sono le 3080ti usate

cody19
29-07-2023, 11:12
Ciao a tutti! Scrivo per una delucidazione....
Ho la configurazione in firma e giocando in FHD mi basta!
Un mio amico, che vuole cambiare VGA mi ha offerto la sua Zotac 3080 d 12 giga.
Conosco il tipo e ha una cura maniacale dei componenti (vende per passaggio a 4090), non mi ha ancora sparato il prezzo, (credo a stima tra i 7 e 800 euro)ma...
1) devo cambiare l'ali.. (ha un anno ma la potenza è quella che è)
2) processore anche qui sarebbe da cambiare per sfruttare al meglio il tutto..
3) monitor...ecco rimarrei in fhd ancora per un bel po!!
Che fare?
La testa mi dice stai come stai!!

3080 usate a più di 500 € è un furto, ma non è detto che ti voglia inculare perchè conosco gente che di colpo ha smesso di seguire il pc prima delle 4000 e pensa (in buona fede) di rivendere roba pagata 1000 o + a 2/300 in meno

Ubro92
29-07-2023, 11:54
3080 usate a più di 500 € è un furto, ma non è detto che ti voglia inculare perchè conosco gente che di colpo ha smesso di seguire il pc prima delle 4000 e pensa (in buona fede) di rivendere roba pagata 1000 o + a 2/300 in meno

Purtroppo per chi ha acquistato in sovrapprezzo è qualcosa che avrebbe dovuto prevedere, ma molti si sono buttati di getto senza esperienza in una condizione di mercato critica che non si era mai palesata in passato o almeno non l'ho mai vista in 20 anni che seguo il mondo pc...

Oggi oggettivamente con le 4070 nuove, perfettamente in garanzia e con un consumo sui 200w non ha molto senso ripiegare su una 3080, a meno di trovarle dai 500€ a scendere (500 se proprio parliamo di una custom ben fatta).

nessuno29
29-07-2023, 12:03
Una 3080 a 500e è regalata. Siamo oggettivi, non è il suo prezzo.

Se trovi una 3080 12gb io la eviterei, oggi il prezzo si è assottigliato e conviene andare di 3090 o 3080ti.

Se invece vuoi risparmiare con 550/600euro ti prendi una 3080 che va da dio

Si ma con 580-600 prendi le 4070 nuove con garanzia e tutto, e non deve nemmeno cambiare alimentatore, per quanto sia ridicolo utilizzarla in full hd.

mikael84
29-07-2023, 12:10
Purtroppo per chi ha acquistato in sovrapprezzo è qualcosa che avrebbe dovuto prevedere, ma molti si sono buttati di getto senza esperienza in una condizione di mercato critica che non si era mai palesata in passato o almeno non l'ho mai vista in 20 anni che seguo il mondo pc...

Oggi oggettivamente con le 4070 nuove, perfettamente in garanzia e con un consumo sui 200w non ha molto senso ripiegare su una 3080, a meno di trovarle dai 500€ a scendere (500 se proprio parliamo di una custom ben fatta).

Le 3080, soprattutto se in garanzia (buona come la fe da nvidia) si trovano in una sorta di limbo. Da una parte una 4070 che parte da 588, che la equivale, ma a 360° è preferibile, oltre ad essere nuova. Dall'altra però non si può neppure mettere in competizione con una scheda che varie volte le prende dalla 3060ti.

Io almeno partirei dal valore di hwu (almeno in garanzia) prima 4070 che trovi - 22%./ 480 euro. A meno, ora come ora, è una scheda da tenere, soprattutto se hai una buona garanzia.

Vash88
31-07-2023, 01:26
Oh mamma. Ancora con sta storia degli 8 gb. Solo per il dlss e il rt la 3070 è da preferirei alle 6700xt.

Vedere anche parte 1
https://youtu.be/x8jrCOQ0u6I
- sono i giochi male ottimizzati
- basta abbassare alcuni settaggi
Etc

È necessario capire che le schede a 8gb sono a fine vita con sempre più titoli sviluppati su console da 16gb e giochi Unreal engine 5 in arrivo. Purtroppo la serie ampere è uscita con una porcata di RAM tranne la 3090 e la 3080 12gb. Arriverà molto in fretta il momento in cui le schede da 8gb avremmo frametime ballerini, vanno bene giusto per il 1080p per giochi tripla AAA nel 2023-24
Si ma con 580-600 prendi le 4070 nuove con garanzia e tutto, e non deve nemmeno cambiare alimentatore, per quanto sia ridicolo utilizzarla in full hd.
Io non le ho viste a meno di 670 da negozi conosciuti. 620 da negozi mai sentiti.
Una 3080 ti a 600€ mi sembra una buona alternativa. 550 per la 3080 12gb

Ubro92
31-07-2023, 01:33
Le console hanno un unica memoria condivisa tra cpu e gpu, ed è totalmente diverso da come viene gestita su PC.

Inoltre le schede da 8GB non hanno proprio le prestazioni per reggere tutto maxato con i titoli recenti, pure una 2080ti con i suoi 11GB deve mettere i paletti al pari della 3070.

Su R&C poi l'occlusione con il RT è gestita decisamente male, finchè ti limiti ai riflessi tutto ok, e non ho ancora capito il perchè la 3060ti nonostante lavori al 100% il consumo della gpu non supera i 120-130w su 200w di PL, probabile che ci sia qualche bug ancora non risolto e il mancato supporto al RT per AMD potrebbe essere correlato.

Anche la memoria allocata bene o male si tiene su 6.6 a 7.1GB, è un gioco che secondo me richiede qualche fix prima di essere godibile su tutte le piattaforme.

Vash88
31-07-2023, 01:43
Se guardi il video parte 1 vedi che la 3080ti 12gb è scende fino a 230w perché probabilmente non ha abbastanza vram mentre la 4090 si comporta in maniera lineare al cambiare dei settaggi, senza comportamenti anomali

Ubro92
31-07-2023, 01:48
Se guardi il video parte 1 vedi che la 3080ti 12gb è scende fino a 230w perché probabilmente non ha abbastanza vram mentre la 4090 si comporta in maniera lineare al cambiare dei settaggi, senza comportamenti anomali

Se non hai abbastanza vram ti appoggi alla ram e paging, e al più stuttera non è che ti limita il PL... Anche perchè non è normale che una 3060ti al 100% di utilizzo con 1965mhz@0.925v arrivi a 120-130w.

I test di techpowerup sono più coerenti ma il gioco ha qualche problema, forse anche per la tipologia di calcoli che esegue:

https://tpucdn.com/review/ratchet-clank-rift-apart-benchmark-test-performance-analysis/images/performance-rt-2560-1440.png https://tpucdn.com/review/ratchet-clank-rift-apart-benchmark-test-performance-analysis/images/min-fps-rt-2560-1440.png

Vash88
31-07-2023, 01:57
https://www.techpowerup.com/review/ratchet-clank-rift-apart-benchmark-test-performance-analysis/5.html

Guarda il salto che c'è tra 3080 e 3090 a settaggi massimi tra 1440p e 4k. Da un distacco del 15% circa a 1440 c'è un salto oltre del 50% in 4k.

In certe condizioni il gioco diventa bello esoso come vram
https://tpucdn.com/review/ratchet-clank-rift-apart-benchmark-test-performance-analysis/images/vram.png
La 3080 ha gli stessi FPS minimi di una arc 770!
https://tpucdn.com/review/ratchet-clank-rift-apart-benchmark-test-performance-analysis/images/min-fps-rt-3840-2160.png

Ubro92
31-07-2023, 02:25
La 4070ti con i suoi 12Gb sta sempre sopra in tutte le condizioni alla 3090ti e alla fine anche la 3080 10Gb sta sempre incollata alla 4070, nei test in 4k francamente ha poco senso mettere in ballo chip da 8GB.

E alla fine anche tra 4060ti 8GB e 16GB cambia poco e nulla, escludendo il RT le schede AMD si comportano complessivamente meglio soprattutto nell'1% low anche se confrontate con schede nvidia con più vram.

A me sembra che il titolo abbia qualche problema a gestire tutte le unità di calcolo del chip, soprattutto con Ampere, mentre lovelace è più stabile nei test.

Vash88
31-07-2023, 03:00
Da tech power up

What will be challenging for older hardware is the VRAM requirements which are pretty high. Even at the lowest setting, with RT off, the game allocates around 8 GB VRAM. Our performance benchmarks clearly show 8 GB cards at a disadvantage, but surprisingly the game still runs at smooth FPS, without stutter, just lower FPS than you'd expect from a given card. For example, the RTX 4060 Ti 8 GB gets 75 FPS at highest setting, usually you'd expect RTX 2080 Ti 11 GB to run at roughly the same FPS, but here it gets 102 FPS, a 33% difference. The game is quite smart about the way it allocates VRAM, on cards with smaller VRAM sizes (which it detects correctly) it will preload fewer assets and generally do the right thing, to ensure things run without stuttering. Maybe Direct Storage helps in this case, because it can load assets from disk faster and with less latency.

cody19
31-07-2023, 07:29
Io non le ho viste a meno di 670 da negozi conosciuti. 620 da negozi mai sentiti.

su bpm a 600 o meno 2-3 modelli
620 spedite amazon.de

se in uk costano di più problemi vostri

Vash88
31-07-2023, 09:03
avevo guardato trovaprezzi :D

StylezZz`
31-07-2023, 09:53
È necessario capire che le schede a 8gb sono a fine vita con sempre più titoli sviluppati su console da 16gb e giochi Unreal engine 5 in arrivo. Purtroppo la serie ampere è uscita con una porcata di RAM tranne la 3090 e la 3080 12gb. Arriverà molto in fretta il momento in cui le schede da 8gb avremmo frametime ballerini, vanno bene giusto per il 1080p per giochi tripla AAA nel 2023-24

Ma infatti si gioca benissimo a 1440p+DLSS Quality che sarebbe meno di 1080p (1712x960), se poi spari tutto su ultra+rt e giochi anche in nativo è ovvio che avrai stuttering e pessimi FPS minimi.

Non ci sono dubbi che la serie ampere sia tirata come quantitativo di VRAM, ma è facilmente gestibile giocando con i settaggi e usando DLSS (Ratchet & Clank l'ho provato usando i settaggi ottimizzati di DF, e sto sopra i 60fps, e considera che verrà affinato con le prossime patch)...si è fatto troppo terrorismo psicologico con questa storia degli 8GB, ormai potremmo definirla 8GB-ANSIA.

Ubro92
31-07-2023, 12:30
Ma infatti si gioca benissimo a 1440p+DLSS Quality che sarebbe meno di 1080p (1712x960), se poi spari tutto su ultra+rt e giochi anche in nativo è ovvio che avrai stuttering e pessimi FPS minimi.

Non ci sono dubbi che la serie ampere sia tirata come quantitativo di VRAM, ma è facilmente gestibile giocando con i settaggi e usando DLSS (Ratchet & Clank l'ho provato usando i settaggi ottimizzati di DF, e sto sopra i 60fps, e considera che verrà affinato con le prossime patch)...si è fatto troppo terrorismo psicologico con questa storia degli 8GB, ormai potremmo definirla 8GB-ANSIA.

Ma ciò che a lui sfugge è che le schede da 8GB non sono fatte per maxare, sono chip di fascia media, e con l'arrivo di blackwell siamo ai livelli di entry level anzi si vocifera che le prossime apu di AMD Strix halo con 40CU bene o male raggiungeranno quel target.
Ciò nonostante i titoli sono sempre scalabili, R&C gira anche sulle APU come steam deck con una banalissima 8CU senza vram dedicata, e sicuramente con le prossime patch metteranno le pezze.

Vash88
31-07-2023, 13:19
https://tpucdn.com/review/ratchet-clank-rift-apart-benchmark-test-performance-analysis/images/performance-1920-1080.pnghttps://tpucdn.com/review/ratchet-clank-rift-apart-benchmark-test-performance-analysis/images/performance-2560-1440.png

Guardate le 2080ti e le 4060ti 8gb e la 4060ti 16gb. C'è una netta differenza nelle performance. Quello che sto dicendo è che una scheda da 8gb nel 2023 è un cattivo investimento perché ci saranno sempre più situazioni dove arriverà a muro, anche abbassando i settaggi. Abbassare le qualità delle texture o del filtro AF da 16 a 8x o 4x per risparmiare ram altera significativamente la qualità visiva soprattuto nella fascia media. Perderà significativamente di valore in poco tempo. Una 4060 ti 8gb costa comunque 400€, non bruscolini. Poi ognuno con i propri soldi fa quello che vuole, ma dire che 8gb non sono un fattore limitante già oggi in alcuni titoli e sempre più in futuro è fuorviante.

Ubro92
31-07-2023, 13:28
Vedo anche una 6800 con 16gb prenderle dalla 3080 con 10gb...

Sto gioco ha prestazioni discontinue, la vram su set maxati influisce ma alla base c'è qualche problema e se il comportamento é lo stesso che ho riscontrato io con la 3060ti l'engine non sfrutta a dovere le gpu, bisogna capire anche che tipologia di calcoli effettua perché a seconda dell'architettura si hanno risultati variabili.

Inviato dal mio M2012K11AG utilizzando Tapatalk

mikael84
31-07-2023, 13:31
Le console hanno un unica memoria condivisa tra cpu e gpu, ed è totalmente diverso da come viene gestita su PC.

Inoltre le schede da 8GB non hanno proprio le prestazioni per reggere tutto maxato con i titoli recenti, pure una 2080ti con i suoi 11GB deve mettere i paletti al pari della 3070.

Su R&C poi l'occlusione con il RT è gestita decisamente male, finchè ti limiti ai riflessi tutto ok, e non ho ancora capito il perchè la 3060ti nonostante lavori al 100% il consumo della gpu non supera i 120-130w su 200w di PL, probabile che ci sia qualche bug ancora non risolto e il mancato supporto al RT per AMD potrebbe essere correlato.

Anche la memoria allocata bene o male si tiene su 6.6 a 7.1GB, è un gioco che secondo me richiede qualche fix prima di essere godibile su tutte le piattaforme.

Con la 3080 tiene tranquillamente tutto ultra con 10 raggi e DLAA tra i 70-100fps, con punte anche più alte, e qualcuna sporadica più bassa. Ram tra i 9gb, ma non sta aumentando la ram di sistema, quindi sono al limite ma ci rientro.
Con le schede sotto, come la 3070/3060ti e da 8gb, bisogna abilitare il DLSS ovviamente, e magari giocare un pochino con le opzioni.

Cmq, per i consumi, pure a me sta tra i 205 raster e 225 RT max.

Questo succede per via del warp stall, è il sotto sfruttamento interno delle pipeline.
Tu questo non lo vedi, perchè il gigthread, se la CPU gli sta dietro, manda tutti gli SM a lavoro, ma del come lavorano non puoi monitorarlo.
Osservala come una CPU, nel tuo caso 38 core e 1824 thread, dove l'usage è particolarmente basso.;)
Se osservi la BW utilizzata è estremamente bassa. Tutta roba che si vede anche nei vari titoli ubisoft

StylezZz`
31-07-2023, 14:06
Ma ciò che a lui sfugge è che le schede da 8GB non sono fatte per maxare, sono chip di fascia media, e con l'arrivo di blackwell siamo ai livelli di entry level anzi si vocifera che le prossime apu di AMD Strix halo con 40CU bene o male raggiungeranno quel target.
Ciò nonostante i titoli sono sempre scalabili, R&C gira anche sulle APU come steam deck con una banalissima 8CU senza vram dedicata, e sicuramente con le prossime patch metteranno le pezze.

Beh oddio, se le 3060Ti/3070 avessero avuto più memoria male non gli avrebbe fatto, sarebbero perfettemante in grado di maxare senza raytracing, cosa che le contropardi AMD riescono a gestire meglio, basta vedere la 6700 XT che guadagna punti grazie ai 12GB...la salvezza delle 3000 è il DLSS che sgrava la VRAM, e giocando con i settaggi si riesce a stare dentro gli 8GB mantenendo prestazioni al top.

Guardate le 2080ti e le 4060ti 8gb e la 4060ti 16gb. C'è una netta differenza nelle performance. Quello che sto dicendo è che una scheda da 8gb nel 2023 è un cattivo investimento perché ci saranno sempre più situazioni dove arriverà a muro, anche abbassando i settaggi. Abbassare le qualità delle texture o del filtro AF da 16 a 8x o 4x per risparmiare ram altera significativamente la qualità visiva soprattuto nella fascia media

Non c'è nessuna differenza tangibile da ultra a high, i settaggi ultra servono principalmente a far cambiare prima le schede :stordita:

Perderà significativamente di valore in poco tempo. Una 4060 ti 8gb costa comunque 400€, non bruscolini. Poi ognuno con i propri soldi fa quello che vuole, ma dire che 8gb non sono un fattore limitante già oggi in alcuni titoli e sempre più in futuro è fuorviante.

Bisogna anche guardare la fascia di prezzo, per esempio quanto è svalutata la 2080 Ti? Scheda che costava più di 1000€, la trovavi in vendita sul mercatino a 450€ dopo appena 2 anni dal lancio, si è salvata solo grazie allo shortage che l'ha fatta rivalutare, ma oggi è una scheda che rivendi a 300/350€ al pari di una 3070 con 8GB che però costava 550€ (eccetto chi l'ha pagata sovrapprezzata).

Vash88
31-07-2023, 14:36
Beh oddio, se le 3060Ti/3070 avessero avuto più memoria male non gli avrebbe fatto, sarebbero perfettemante in grado di maxare senza raytracing, cosa che le contropardi AMD riescono a gestire meglio, basta vedere la 6700 XT che guadagna punti grazie ai 12GB...la salvezza delle 3000 è il DLSS che sgrava la VRAM, e giocando con i settaggi si riesce a stare dentro gli 8GB mantenendo prestazioni al top.



Non c'è nessuna differenza tangibile da ultra a high, i settaggi ultra servono principalmente a far cambiare prima le schede :stordita:

Si mi pare che siamo sostanzialmente d'accordo. La mia preoccupazione per le 8GB è che presto le vedo costrette a passare a da High a medium con AF4x per rimanere nel budget VRAM.

Bisogna anche guardare la fascia di prezzo, per esempio quanto è svalutata la 2080 Ti? Scheda che costava più di 1000€, la trovavi in vendita sul mercatino a 450€ dopo appena 2 anni dal lancio, si è salvata solo grazie allo shortage che l'ha fatta rivalutare, ma oggi è una scheda che rivendi a 300/350€ al pari di una 3070 con 8GB che però costava 550€ (eccetto chi l'ha pagata sovrapprezzata).

La svalutazione è normale con il progresso tecnologico, ma la mia idea è che schede relativamente recenti avrebbero resistito meglio negli anni con un pò di VRAM in più. Credo si presenterà la situazione come con le AMD RX 480 4gb vs le 8gb.

Ubro92
31-07-2023, 15:31
Schede come 3060ti e 3070 hanno già 3 anni sul groppone (2080/2080ti 5 anni), e con l'uscita di BL passeranno altri 1-2 anni quindi è normale che mostreranno i segni del tempo ma anche per una questione di prestazioni.

Le schede recenti da 8GB sono dei flop per il prezzo e il posizionamento non per la vram in se, non è che la 4060ti con 16GB faccia dei miracoli, e considerando il suo costo conviene a mani basse la 4070 anche in ottica di tenerla qualche anno in più.

Dono89
01-08-2023, 11:54
Mi sembra un paradosso che si consideri una vga per il quantitativo di ram e poi non hanno potenza nemmeno per andare in 2K

C'è davvero chi considera la 4060ti da 16gb migliore della 4070 solo perchè ha più giga? Mi sembra una follia onestamente

s12a
01-08-2023, 12:03
Se vuoi svagarti con i large language model (LLM) localmente sul tuo PC, 16GB bastano a malapena.

FaTcLA
01-08-2023, 22:49
Beh oddio allora è parecchio affaticato. 12 anni son roba.
Però è anche vero che la 3080 waterforce con i suoi 320w (se ho letto bene) dovrebbe rientrare tranquillamente nei 750w anche con un processore di ultima generazione.
Male che vada appena fai partire un gioco ed il sistema va sotto sforzo ti si spegne il pc.

Niente, è arrivata. Diciamo che 370 + SS per una 3080 waterforce wb è stato un gran affare.
ho lanciato due time Spy a cazius uno default 17664 uno alzando due levette a caso su afterburner 18811 graphics e 53 gradi :Prrr:

Dono89
03-08-2023, 16:44
Se vuoi svagarti con i large language model (LLM) localmente sul tuo PC, 16GB bastano a malapena.

Parliamo di gaming o IA/produttività/render?

Perchè una 3080 come una 4070 nascono con ben altri scopi dove 10/12gb avanzano e considerando che giochi mattone, che consumano tendenzialmente più ram hanno il dlss di default allora scali di risoluzione e la richiesta scende ulteriormente

s12a
03-08-2023, 17:25
Parliamo di gaming o IA/produttività/render?

Perchè una 3080 come una 4070 nascono con ben altri scopi dove 10/12gb avanzano e considerando che giochi mattone, che consumano tendenzialmente più ram hanno il dlss di default allora scali di risoluzione e la richiesta scende ulteriormente

Parlo di IA/machine learning. Chatbot locali anche abbastanza intelligenti sono oramai una realtà, ma le capacità "intellettive" degli stessi sono praticamente correlate al quantitativo di VRAM in dotazione nel proprio sistema. momento le RTX3090 sono considerate (usate) le schede dal miglior rapporto prezzo-prestazioni per questo ambito. Credo il subreddit principale per queste cose sia https://www.reddit.com/r/LocalLLaMA/

Menzionavo "svago" perché a parte usi molto specifici (principalmente di produttività) per il momento l'applicazione principale per gli LLM a questi livelli sono i chatbot da roleplay (tipo quelli di character.ai). È anche probabile che a medio termine la stessa tecnologia verrà sperimentata per gli NPC nei giochi 3D, dunque oltre alla VRAM necessaria per le texture e l'ambientazione sarà necessaria anche quella per l'IA dei personaggi.

Sniper88
03-09-2023, 15:44
Buon pomeriggio e buona domenica a tutti.

Ho un problema: quando accendo il computer e premo CANC, oppure F11 per scegliere il mio SSD da avviare, tenendo il monitor spento, all'accensione del monitor lo schermo rimane nero: CTRL+ALT+CANC non funziona e sono costretto a riavviare dall'apposito pulsante presente sul case.

Secondo voi, può esserci una correlazione con il firmware che girava un po' di tempo fa in rete per le RTX 4080/4090 che avevano problemi al Boot su queste nuove Z790? Alcuni hanno detto che hanno installato questo firmware con successo anche nelle RTX 3000.

Non so. Non capisco da cosa possa dipendere. Qualcuno ha qualche idea? Grazie!

Vash88
06-09-2023, 09:57
Non è che il segnale va sulla scheda video integrata per qualche motivo? Io proverei ad attaccare e staccare il cavo dall'uscita dell'integrata e nel caso nessun segnale fosse rilevato ripeterei l'operazione dall'uscita della scheda video. Questo come primo passo per capire se il pc si è avviato correttamente. Se funzionasse, comincerei a passare al setaccio le opzioni del bios ed eventuali forum. Il bios è aggiornato?

Vorrei prendere un blocco EK usato per la mia FE, ora si trovano a pochi spiccioli e così mi toglierei lo sfizio di provare il watercooling. Esteticamente sembra messo bene, a cosa devo prestare attenzione? EK vende eventuali parti mancanti nel caso come viti, o-ring etc?

Alekos Panagulis
06-09-2023, 10:05
Mi sembra un paradosso che si consideri una vga per il quantitativo di ram e poi non hanno potenza nemmeno per andare in 2K

C'è davvero chi considera la 4060ti da 16gb migliore della 4070 solo perchè ha più giga? Mi sembra una follia onestamente

Il 99% delle persone conosce solo la ram (pur non sapendo a cosa serve) e valuta notebook, desktop e gpu in base al quantitativo di ram.

Basta guardare i volantini dei vari negozi: CORE I7 e 32GB di RAM! WOWOWOWOWOW

Magari la cpu è un intel marcio di 10 anni fa....

StylezZz`
06-09-2023, 10:16
Il 99% delle persone conosce solo la ram (pur non sapendo a cosa serve) e valuta notebook, desktop e gpu in base al quantitativo di ram.

Basta guardare i volantini dei vari negozi: CORE I7 e 32GB di RAM! WOWOWOWOWOW

Magari la cpu è un intel marcio di 10 anni fa....

Verissimo, però questa politica di nvidia di aggiungere più memoria nelle fasce inferiori con la scusa del bus mi ha stufato, prima la 3060 con 12GB e ora la 4060 Ti con 16GB...se spendo di più per il prodotto superiore, mi aspetto che quest'ultimo sia migliore, o quanto meno che abbia lo stesso quantitativo di memoria, e non di meno.

-

Comunque colgo l'occasione per chiedere se c'è qualche coraggioso qui che ha flashato la sua FE con un bios di altre custom, sfruttando il nuovo bypass:

NVIDIA BIOS Signature Lock Broken, vBIOS Modding and Crossflash Enabled by Groundbreaking New Tools (https://www.techpowerup.com/312631/nvidia-bios-signature-lock-broken-vbios-modding-and-crossflash-enabled-by-groundbreaking-new-tools)

Ubro92
06-09-2023, 10:47
In genere basta essere consapevoli di ciò che si acquista e lasciare a scaffale tutte le opzioni ambigue poco interessanti.

In questa gen per come si posizionano lato prezzo/prestazioni gli unici chip interessanti sono 4070 e 4090, ovvio che ognuno trae le proprie considerazioni e valuta per se, però chip come 4070ti e 4080 sono decisamente overprice.

Sulla fascia media si stende proprio un velo pietoso, la 4060ti sarà destinata a calare pesantemente di prezzo con l'uscita della 7700xt e dell''FSR3, verrà eclissata in ogni aspetto.

Black"SLI"jack
06-09-2023, 10:57
Non è che il segnale va sulla scheda video integrata per qualche motivo? Io proverei ad attaccare e staccare il cavo dall'uscita dell'integrata e nel caso nessun segnale fosse rilevato ripeterei l'operazione dall'uscita della scheda video. Questo come primo passo per capire se il pc si è avviato correttamente. Se funzionasse, comincerei a passare al setaccio le opzioni del bios ed eventuali forum. Il bios è aggiornato?

Vorrei prendere un blocco EK usato per la mia FE, ora si trovano a pochi spiccioli e così mi toglierei lo sfizio di provare il watercooling. Esteticamente sembra messo bene, a cosa devo prestare attenzione? EK vende eventuali parti mancanti nel caso come viti, o-ring etc?

con i wb usati, ci sono da tenere in considerazione questi aspetti:

- utilizzo dei liquidi colorati o meno ed eventuali depositi all'interno del wb stesso, quindi da smontare e pulire attentamente
- stato della nickelatura interna al wb (dove passa il liquido), in quanto se usato liquidi senza i vari additivi (esempio solo bidistillata) ci potrebbero essere macchie di ossido (rimuovibili con prodotti per lucidare le cromature delle auto come l'arexon) o anche problemi di nickelatura saltata e quindi si inizia ad intravedere il rame sottostante (e qui ci si può far ben poco)
- per i pad, sul manuale del wb ek trovi le dimensioni da utilizzare. è strettamente necessario usare gli spessori corretti, sul loro shop li trovi in vendita.
- per gli oring se rovinati devi chiedere al supporto ek se te li possono fornire
- per le viti, sono normali viti m3 o altre misure e sul manuale sono riportate tutte le misure e forme necessarie. sul loro shop forse ci sono in vendita a memoria non ricordo.

Sniper88
06-09-2023, 12:10
Non è che il segnale va sulla scheda video integrata per qualche motivo? Io proverei ad attaccare e staccare il cavo dall'uscita dell'integrata e nel caso nessun segnale fosse rilevato ripeterei l'operazione dall'uscita della scheda video. Questo come primo passo per capire se il pc si è avviato correttamente. Se funzionasse, comincerei a passare al setaccio le opzioni del bios ed eventuali forum. Il bios è aggiornato?

Vorrei prendere un blocco EK usato per la mia FE, ora si trovano a pochi spiccioli e così mi toglierei lo sfizio di provare il watercooling. Esteticamente sembra messo bene, a cosa devo prestare attenzione? EK vende eventuali parti mancanti nel caso come viti, o-ring etc?

Il PC, Vash88, se accendo il monitor e premo il pulsante per il Boot Menu, oppure il CANC per entrare nel BIOS, si avvia perfettamente; il Bios è sempre aggiornato; ho un Intel 13700KF, quindi non ho la scheda video integrata.

Leggendo il tuo post, mi era venuta una piccola idea, così ho provato ad impostare su AUTO l'impostazione chiamata VGA Detection, ma non ha cambiato nulla. Ho rimesso l'impostazione su Ignore.

Boh...

mikael84
06-09-2023, 17:33
Raga, provate il nuovo CB24, c'è anche il test per le RTX, così confrontiamo.
https://www.maxon.net/en/downloads/cinebench-2024-downloads

StylezZz`
06-09-2023, 18:26
https://i.imgur.com/3D5Ebix.png

mikael84
06-09-2023, 18:45
1905 x 20gb/s.

https://i.postimg.cc/QthhSX5s/cb24-png.png

demonangel
06-09-2023, 19:06
Bello tosto sulla CPU

GPU 3080@2040


https://thumbs2.imgbox.com/85/34/QC7107CZ_t.jpg (https://imgbox.com/QC7107CZ)

FrancoBit
06-09-2023, 19:06
Scusate la foto sgrausa. Gpu +120 core +500vram. CPU 5500pcore 4000ecore
https://uploads.tapatalk-cdn.com/20230906/4d4f21373b8ccd462d515ffb42fd708a.jpg

Inviato dal mio M2101K9G utilizzando Tapatalk

Nones
07-09-2023, 11:36
0.950mV@1965mhz +500mhz mem

https://i.postimg.cc/9fMWPYhm/Screenshot-26.png (https://postimages.org/)

:stordita:

Vash88
07-09-2023, 12:04
con i wb usati, ci sono da tenere in considerazione questi aspetti:

- utilizzo dei liquidi colorati o meno ed eventuali depositi all'interno del wb stesso, quindi da smontare e pulire attentamente
- stato della nickelatura interna al wb (dove passa il liquido), in quanto se usato liquidi senza i vari additivi (esempio solo bidistillata) ci potrebbero essere macchie di ossido (rimuovibili con prodotti per lucidare le cromature delle auto come l'arexon) o anche problemi di nickelatura saltata e quindi si inizia ad intravedere il rame sottostante (e qui ci si può far ben poco)
- per i pad, sul manuale del wb ek trovi le dimensioni da utilizzare. è strettamente necessario usare gli spessori corretti, sul loro shop li trovi in vendita.
- per gli oring se rovinati devi chiedere al supporto ek se te li possono fornire
- per le viti, sono normali viti m3 o altre misure e sul manuale sono riportate tutte le misure e forme necessarie. sul loro shop forse ci sono in vendita a memoria non ricordo.

Grazie, a vedere le immagini mi sembra messo bene, cosa ne dici?https://i.ibb.co/drzHFsw/s-l1600-3.jpg (https://ibb.co/drzHFsw) https://i.ibb.co/S51dPJv/s-l1600-2.jpg (https://ibb.co/S51dPJv) https://i.ibb.co/ZKXjvBk/s-l1600-1.jpg (https://ibb.co/ZKXjvBk) https://i.ibb.co/C81WJG8/s-l1600.jpg (https://ibb.co/C81WJG8)

frafelix
07-09-2023, 12:30
Veramente non sembra messo così bene:
- non l'ha pulito
- non l'ha nemmeno asciugato
- bisogna vedere se tutte le macchie che vedi nell'ultima foto vengono via con l'arexon come dice Black oppure se è saltata la nichelatura come sembra in alcuni punti dove si vede un colore più roseo che potrebbe essere il rame sotto
- non si vedono gli o-ring

Unica nota positiva il plexy non è crepato (almeno dal lato foto)

Come sempre tutto dipende da quanto vuole

Vash88
07-09-2023, 13:08
45£, a me le macchie rosa sul nickel sembrano i riflessi della pelle, però si è un rischio. Concordo sugli o-ring che non si vedono.

frafelix
07-09-2023, 16:21
Il vero riflesso è in alto a sinistra, poco sotto potrebbe essere ma non ne sarei certo, in alto a destra proprio non sono riflessi.
Per 45£ io lo prenderei e poi fai una bella pulizia!

I pad che sembrano nuovi sono effettivamente nuovi o sono avanzi non tagliati?
Perché nel caso siano nuovi devi verificare che siano delle altezze giuste, nell'altro caso forse li dovrai comprare

Vash88
07-09-2023, 16:44
I pad dovrebbero essere nuovi. Vediamo come va :) grazie
"Comes Wil Allen keys, screws, acrylic head piece and some thermal pads. I think I didn't use the pads at all so might be enough but not sure. There is some slight discoloration in the nickel plated front, back is in mint condition."

frafelix
08-09-2023, 10:48
Vedi che non erano riflessi... Però magari con l'arexon riesci a pulire. Comunque per 45£ vai tranquillo

Black"SLI"jack
08-09-2023, 12:05
Grazie, a vedere le immagini mi sembra messo bene, cosa ne dici?https://i.ibb.co/drzHFsw/s-l1600-3.jpg (https://ibb.co/drzHFsw) https://i.ibb.co/S51dPJv/s-l1600-2.jpg (https://ibb.co/S51dPJv) https://i.ibb.co/ZKXjvBk/s-l1600-1.jpg (https://ibb.co/ZKXjvBk) https://i.ibb.co/C81WJG8/s-l1600.jpg (https://ibb.co/C81WJG8)

a 45 sterline, farei anche la pazzia. ti prendi arexon cromature auto e giù di pazienza. lavaggio prima con acqua calda e sapone piatti e uno spazzolino da denti morbido. poi passaggio di arexon con panno in microfibra e cottonfioc nei punti più interni. poi risciacquo completo acqua calda e sapone per togliere tutti i residui. bella asciugatura. poi bisogna vedere se quelle macchie spariscono o meno. ma al limite se restano appena visibili per la spesa iniziale, ci puoi stare tranquillamente. ad occhio sono macchie di ossido. forse quella centrale più grossa, sta saltando la cromatura. ma da una foto e pure con il plexy davanti è un pò complicato dirlo.

Ludus
08-09-2023, 22:43
https://i.ibb.co/BV4DJ2c/Screenshot-2023-09-08-234200.png (https://ibb.co/ccb59hk)

Dono89
09-09-2023, 15:35
https://i.ibb.co/BV4DJ2c/Screenshot-2023-09-08-234200.png (https://ibb.co/ccb59hk)

Come fai a fare 20.7K con la 3090?

io con la 80ti @ 1950 mi fermo a 17.8K; è il 16% in più, è tanto

Ludus
10-09-2023, 13:30
Come fai a fare 20.7K con la 3090?

io con la 80ti @ 1950 mi fermo a 17.8K; è il 16% in più, è tanto

Non ho fatto niente di particolare, era in configurazione daily use a 1980 0.963v pl400w.

Vedendo su internet è abbastanza normale 20k per una 3090. Forse su questo benchmark rendono di più rispetto le 3080 e 3080ti per il quantitativo di vram? Non ho fatto caso a quante ne utilizzasse il benchmark.

The_Fabulous_
11-09-2023, 10:49
io con 3080ti@1980 0.963v faccio 15809pt

Dono89
11-09-2023, 12:24
C'è qualcosa che non va allora in questo test.

@ludus: ti confermo che usa tutta la vram, ho provato a portare la scheda a 1980 ma ovviamente cambiava pochissimo

I casi sono due:
Si da un punteggio aggiuntivo alla vram (che in rendering ci può stare)
Il punteggio ha qualche intoppo

E considerando quanto salto c'è tra me e fabulous forse è la seconda
Sto assumendo che la scheda sia shuntata dato che 960mv taglia per forza con bios anche da 450w

monster.fx
11-09-2023, 12:29
Ragà... domanda probabilmente trita e ritrita.
Per Full HD e magari futuro 2k con cosa sostituire la mia fida 1070ti ? Budget 300€ sia usata che nuova. 4060ti?3070/3070ti?

Magari qualcosa per sfruttare eventuale monitor 144hz.

La configurazione è quella in firma.

Ubro92
11-09-2023, 12:37
Considerando che tra i requisiti minimi richiede almeno 8GB di vram è altamente probabile che in fase di render incida, bisognerebbe vedere se tra 4060ti 8GB e 16GB cambi qualcosa sul punteggio finale.

Ragà... domanda probabilmente trita e ritrita.
Per Full HD e magari futuro 2k con cosa sostituire la mia fida 1070ti ? Budget 300€ sia usata che nuova. 4060ti?3070/3070ti?

Magari qualcosa per sfruttare eventuale monitor 144hz.

La configurazione è quella in firma.

Per il FHD se riesci a trovare una 3060ti sui 300€ e con GDDR6X sei a cavallo, usate le trovi anche sui 250€.

Dono89
11-09-2023, 14:02
Ragà... domanda probabilmente trita e ritrita.
Per Full HD e magari futuro 2k con cosa sostituire la mia fida 1070ti ? Budget 300€ sia usata che nuova. 4060ti?3070/3070ti?

Magari qualcosa per sfruttare eventuale monitor 144hz.

La configurazione è quella in firma.

3070ti o anche 3070 a 300€ la vedo dura, se trovi un pazzo che te la vende a quel prezzo prendila al volo!

4060ti escludila a priori, condivido ubro, 3060ti è perfetta per quel budget, ma se vuoi sfruttare l'alto refresh rate stai stretto

monster.fx
12-09-2023, 16:38
Considerando che tra i requisiti minimi richiede almeno 8GB di vram è altamente probabile che in fase di render incida, bisognerebbe vedere se tra 4060ti 8GB e 16GB cambi qualcosa sul punteggio finale.



Per il FHD se riesci a trovare una 3060ti sui 300€ e con GDDR6X sei a cavallo, usate le trovi anche sui 250€.

@Dono89

Avrei trovato una Asus dual 3060Ti a meno di 250... naturalmente usata. Siamo nel mio budget . Se non dovesse andare a buon fine attenderò tempi migliori e magari mi orienterò verso altro.
La versione GDDR6x gestisce 2/3fps in più ... e rispetto alla 3070 siamo in media tra gli 8 e gli 11fps in meno(un 2%?) ... da quello che vedo per cui siamo la. Penso che il mio GX750 Cooler Master possa ancora gestirla dato che nel tempo ha gestito GTX480, R9 390 e GTX295 molto più energivore.

P.S. Anche in 2k si difende bene da quel che ho visto.

Dono89
12-09-2023, 17:32
La 3060ti rispetto la 3070 non va il 2% in meno.
Inoltre in 2K è limitata, detto questo, a 250€ prendila senza pensarci mezzo secondo

monster.fx
12-09-2023, 19:51
La 3060ti rispetto la 3070 non va il 2% in meno.
Inoltre in 2K è limitata, detto questo, a 250€ prendila senza pensarci mezzo secondo

Vero ... guardando le slide "dell'epoca" parliamo di un 11/13% in più in RT


https://www.hwupgrade.it/articoli/5895/prestazioni_medie_rt.png

e tra il 9 e l'14% in raster

https://www.hwupgrade.it/articoli/5895/prestazioni_medie_3060ti.png

che si traduce in una manciata di fotogrammi(a mio avviso).

Comunque il prezzo è sotto i 250€ ... vediamo come si evolve la transazione. ;)

Ubro92
12-09-2023, 21:48
Mediamente tra 3060ti e 3070 ci passa un 15% di differenza nei benchmark, ma nei giochi reali dipende, la percentuale può anche essere più bassa quando l'engine non sfrutta tutte le ALU a dovere.

Comunque lo stacco è abbastanza contenuto tra i due chip.

Con la variante GDDR6X ci prendi quel 5% in più a seconda degli scenari, se poi becchi una 3060ti con memorie GDDR6 Hynix le porti senza problemi a 17Gbps o più, ma è un plus.

A meno di 250€ è un ottimo prezzo c'è poco da pensarci, alla fine dove strozza la 3060ti, strozza pure la 3070, per avere un margine migliore ti serve almeno una 3080 che rispetto la 3060ti va un abbondante 50% in più.

monster.fx
13-09-2023, 13:58
Toglietemi un dubbio.

Ma le schede LHR sono bypassabili? Non vorrei prendere una sola.
Leggevo che via driver erano riusciti a fare funzionare al 100% l'hash rate ... tranne che su 3050 e 3080ti in quanto presenti lhr v3.

nessuno29
13-09-2023, 14:01
Toglietemi un dubbio.

Ma le schede LHR sono bypassabili? Non vorrei prendere una sola.
Leggevo che via driver erano riusciti a fare funzionare al 100% l'hash rate ... tranne che su 3050 e 3080ti in quanto presenti lhr v3.

Si c'era qualche trucchetto

Ubro92
13-09-2023, 14:11
Ma non furono sbloccate ufficialmente con i driver più recenti da una release in poi?
O ricordo male?

devil_mcry
13-09-2023, 14:42
Toglietemi un dubbio.

Ma le schede LHR sono bypassabili? Non vorrei prendere una sola.
Leggevo che via driver erano riusciti a fare funzionare al 100% l'hash rate ... tranne che su 3050 e 3080ti in quanto presenti lhr v3.

perché sola?

The_Fabulous_
13-09-2023, 15:43
ragazzi ho qualche domanda da porvi perchè non so come procedere,gioco esclusivamente in 4k 144hz attualmente la 3080ti mi permette di giocare a tutti se non qualche titolo sporadico dove devo smanettare con i dettagli per stare sopra i 60fps stavo pensando ad upgrade della vga, ma sinceramente non saprei con cosa visti i prezzi allucinanti che girano sulle vga nuove,un'altra cosa che mi fa desistere un pochino è la configurazione attuale un 9700k@5ghz con 32gb di ram non vorrei afecce da collo di bottiglia.
voi cosa fareste...
le due opzioni sarebbero
1)sostituire mobo cpu e ram con qualcosa di migliore
2)cerca almeno una 4080 senza spendere un capitale ma qui non conosco il reale incremento di prestazioni rispetto alla 3080ti
a voi la parola
grazie mille a tutti

davide155
13-09-2023, 16:17
ragazzi ho qualche domanda da porvi perchè non so come procedere,gioco esclusivamente in 4k 144hz attualmente la 3080ti mi permette di giocare a tutti se non qualche titolo sporadico dove devo smanettare con i dettagli per stare sopra i 60fps stavo pensando ad upgrade della vga, ma sinceramente non saprei con cosa visti i prezzi allucinanti che girano sulle vga nuove,un'altra cosa che mi fa desistere un pochino è la configurazione attuale un 9700k@5ghz con 32gb di ram non vorrei afecce da collo di bottiglia.

voi cosa fareste...

le due opzioni sarebbero

1)sostituire mobo cpu e ram con qualcosa di migliore

2)cerca almeno una 4080 senza spendere un capitale ma qui non conosco il reale incremento di prestazioni rispetto alla 3080ti

a voi la parola

grazie mille a tuttiSe hai disponibilità economica la meglio sarebbe aspettare l'uscita dei nuovi intel ad ottobre novembre e prendere un bel 13900k-13700k-13600k usato. Ce ne saranno a fiotti vedrai. Potresti optare per una z690 ddr4 così sfrutti le tue memorie di adesso.
E poi andare su una 4080 anche custom base tanto non c'è differenza sulle ada lovelace tra le varie custom a livello di prestazioni.
Vendendo i pezzi che hai adesso usati riusciresti a tamponare l'esborso totale di una bella cifra.

The_Fabulous_
13-09-2023, 16:35
Se hai disponibilità economica la meglio sarebbe aspettare l'uscita dei nuovi intel ad ottobre novembre e prendere un bel 13900k-13700k-13600k usato. Ce ne saranno a fiotti vedrai. Potresti optare per una z690 ddr4 così sfrutti le tue memorie di adesso.
E poi andare su una 4080 anche custom base tanto non c'è differenza sulle ada lovelace tra le varie custom a livello di prestazioni.
Vendendo i pezzi che hai adesso usati riusciresti a tamponare l'esborso totale di una bella cifra.

guarda sinceramente non ho fretta di acquistare subito,quindi posso anche attendere, e ponderare l'acquisto prima di mobo e cpu e successivamente la vga :)

davide155
13-09-2023, 17:46
guarda sinceramente non ho fretta di acquistare subito,quindi posso anche attendere, e ponderare l'acquisto prima di mobo e cpu e successivamente la vga :)

Si diciamo che prendere la sola 4080 sarebbe molto sbilanciata come configurazione. Il 9700k anche se in oc, ha un ipc parecchio inferiore rispetto ai nuovi ryzen ed intel......

nessuno29
13-09-2023, 18:59
Quanto vale ad oggi una 3070? 350?

StylezZz`
13-09-2023, 20:18
Quanto vale ad oggi una 3070? 350?

Se è la strix in firma puoi provare a chiedere di più.

nessuno29
14-09-2023, 05:13
Sisi è lei, vediamo un pò non c'è molto mercato sulle 3000 ultimamente.

monster.fx
14-09-2023, 06:54
perché sola?


Sola perché la VGA dovrà durare 2/3 anni almeno... se è stata usata per minare non vorrei buttare 250€ perché schiatta dopo 1 mese.

Sono fisime inutili?

Vash88
15-09-2023, 14:32
Dopo 22 anni di PC finalmente mi avvicino al raffreddamento a liquido :)
WB arrivati, anche active backplate :eek:
Il backplate è messo bene a prima vista, mentre il WB va pulito prima di essere sicuri. per 90£ in totale mi va bene, al massimo rifaccio il rivestimento di nickel.
https://i.ibb.co/J3rqJCV/20230915-142414-Copia.jpg (https://ibb.co/J3rqJCV)
Edit : ho dato una smontata, c'era una vite spanata che mi ha fatto perdere due ore, con uno spazzolino e un po' di dentrifricio la maggior parte dei segni è venuta via. Il peggio è l'acrilico che è abbastanza segnato quindi dovrò lucidarlo.

kiwivda
16-09-2023, 11:41
Dopo 22 anni di PC finalmente mi avvicino al raffreddamento a liquido :)
WB arrivati, anche active backplate :eek:
Il backplate è messo bene a prima vista, mentre il WB va pulito prima di essere sicuri. per 90£ in totale mi va bene, al massimo rifaccio il rivestimento di nickel.
https://i.ibb.co/J3rqJCV/20230915-142414-Copia.jpg (https://ibb.co/J3rqJCV)
Edit : ho dato una smontata, c'era una vite spanata che mi ha fatto perdere due ore, con uno spazzolino e un po' di dentrifricio la maggior parte dei segni è venuta via. Il peggio è l'acrilico che è abbastanza segnato quindi dovrò lucidarlo.

beh ottima presa per un blocco che costava 300 bumbe.

monster.fx
17-09-2023, 14:40
Raga... vi chiedo nuovamente un "consiglio". 3060Ti usata per mining a poco più di 200€ o attendere un altro po' e spenderne magari 300/350€ per una RTX3070 ... più "sicura"?

nessuno29
17-09-2023, 14:55
Raga... vi chiedo nuovamente un "consiglio". 3060Ti usata per mining a poco più di 200€ o attendere un altro po' e spenderne magari 300/350€ per una RTX3070 ... più "sicura"?

Poco più di 200 non è male però se parli di quella in vendita sul mercatino sono 220+ss quindi forse prenderei una rtx 4060 sui 280-300 euro in garanzia.

monster.fx
17-09-2023, 15:28
Poco più di 200 non è male però se parli di quella in vendita sul mercatino sono 220+ss quindi forse prenderei una rtx 4060 sui 280-300 euro in garanzia.

Esatto. La 4060 o(anche meglio)a 4060ti non sono "peggio"?
Come detto non ho fretta del cambio ma se tra x mesi non dovessi trovare nulla ... non so. La VGA deve durare 2/3 anni come l'attuale 1070ti che ancora dice il suo.

ultimate trip
18-09-2023, 10:21
Sisi è lei, vediamo un pò non c'è molto mercato sulle 3000 ultimamente.

posso dirti che ho venduto ieri su ebay la 3080 gaming oc della giga(del marzo 2021 e con ancora 6 mesi di garanzia diretta di gigabyte) a 430

devil_mcry
18-09-2023, 10:33
Esatto. La 4060 o(anche meglio)a 4060ti non sono "peggio"?
Come detto non ho fretta del cambio ma se tra x mesi non dovessi trovare nulla ... non so. La VGA deve durare 2/3 anni come l'attuale 1070ti che ancora dice il suo.

le 4060 sono peggio delle 3070 a 1440p, la 3080 va un 30% in più di quella e la 3080 ti penso sia sul 45%

comunque una 3080 12gb o una 3080 ti non sarebbero male, hai 12gb di ram e vanno quasi uguali tra di loro (se prendi i modelli limitati a 375w sono praticamente la stessa scheda in termini di performance, le 3080 ti da 3 connettori invece vanno di più)

una 3080 12gb non dovrebbe essere una scheda da mining, se ne trovi una è la scelta più sicura

nessuno29
18-09-2023, 10:54
Esatto. La 4060 o(anche meglio)a 4060ti non sono "peggio"?
Come detto non ho fretta del cambio ma se tra x mesi non dovessi trovare nulla ... non so. La VGA deve durare 2/3 anni come l'attuale 1070ti che ancora dice il suo.

Si vero la 4060 va un pò meno della 3060ti però ha due anni di garanzia ed è nuova, per pochi euro di differenza meglio lei che una 3060ti mining.

Mendelevio
01-10-2023, 10:39
Qualcuno ha provato l'fsr 3 sulle nostre gpu?

Dono89
01-10-2023, 12:22
Qualcuno ha provato l'fsr 3 sulle nostre gpu?

C'è un video dei prodigeek molto ben fatto.
Aumenta di molto gli fps, ma così come il FG del dlss3, aumenta la latenza quindi si hai più frame, ma l'esperienza non cambia. Giocare a 100fps sarà come giocare a 60.
Per ora la strada migliore rimane il dlss 3.5 con reflex e senza fg. Hai meno frame, ma ti sembrerà decisamente più fluido.

PS: il FG va attivato con almeno 60fps di nativo o ia

Mendelevio
01-10-2023, 15:09
Se non ho capito male, per risolvere questo problema, bisogna attivare il vsync.

Dono89
01-10-2023, 17:37
Se ti riferisci ai 60fps non c'entra. È una tematica di creazione di frame senza una solida baseline sotto. L'ia non può inventarseli, deve ricostruirli che è tutt'altra cosa.

Se invece fai riferimento alla latenza è normale, perché aggiungi un pezzo al processo e il vsync non serve.

Insomma. Se c'è il dlss usa quello

Mendelevio
01-10-2023, 20:25
Faccio riferimento al fatto che non si noti la differenza. Certo è che se già faccio 60 fps, aumentare i frame mi interessa solo per aumentare i minimi.

Dono89
01-10-2023, 23:03
Faccio riferimento al fatto che non si noti la differenza. Certo è che se già faccio 60 fps, aumentare i frame mi interessa solo per aumentare i minimi.

No, il vsync su quello non c'entra

Da 60 a 100 cambia eccome l'esperienza in gioco. Il problema è che se per passare a 100 devi aumentare il frametime è inutile averli

Mendelevio
03-10-2023, 18:50
Qui spiega meglio il problema, praticamente gsync spento, vsync e riduzione della latenza forzato dal pannello nvidia (e monitor impostato a 120 hz):

https://youtu.be/pzC4Mikjc5o?si=UWeVawOSWod1iHGk

monster.fx
05-10-2023, 09:23
Ragazzi vi chiedo un consiglio.
Ho una decina di PC i5 11th gen,16gb DDR4,RTX3050 e su uno mentre si usano programmi di progettazione (Freecad,Metron,...) il PC si spegne.
La prima volta ho sostituito l'alimentatore da500w(la rtx3050 dovrebbe andar bene con tale wattaggio, ma era economico) con un economico da 600w, la seconda volta ho nuovamente sostituito l'alimentatore (quando andava in risparmio energetico non arrivava segnale video,ma il PC sembrava rispondere adeguatamente ai comandi)con un Colore Master White da 600w che ora a quanto pare è saltato.
Non ho mai avuto problemi particolari con questa configurazione...ma mi chiedo, possibile che la rtx3050 in determinati momenti assorba più del necessario?

Grazie.

frafelix
05-10-2023, 09:56
Ci sono i micropicchi come su tutte le schede, ma se hai una decina di pc con la stessa configurazione e succede solo su questo, forse il problema non è l'alimentatore.
Hai controllato le temperature? Hai fatto stress test per vedere se a pieno carico si spegne sempre?

kean3d
05-10-2023, 23:29
Ragazzi vi chiedo un consiglio.
Ho una decina di PC i5 11th gen,16gb DDR4,RTX3050 e su uno mentre si usano programmi di progettazione (Freecad,Metron,...) il PC si spegne.
La prima volta ho sostituito l'alimentatore da500w(la rtx3050 dovrebbe andar bene con tale wattaggio, ma era economico) con un economico da 600w, la seconda volta ho nuovamente sostituito l'alimentatore (quando andava in risparmio energetico non arrivava segnale video,ma il PC sembrava rispondere adeguatamente ai comandi)con un Colore Master White da 600w che ora a quanto pare è saltato.
Non ho mai avuto problemi particolari con questa configurazione...ma mi chiedo, possibile che la rtx3050 in determinati momenti assorba più del necessario?

Grazie.

C'è un Powe Limit max impostato da bios e la scheda non può superarlo,
ovvero quando lo raggiunge, taglia in auto le frequenze per rornare nel range.
Oc a parte, con afterburner si può impostare, se il bios gpu lo consente un pl maggiore.
Una 3050 ha un target default di 130w, non credo che una psu ,anche "base"
da 500w lo possa mettere in crisi. 👍

mikael84
06-10-2023, 00:30
Qualcuno ha provato l'fsr 3 sulle nostre gpu?

Io su Forspoken. Ho un g-sync a modulino 144hz, con sync attivato via driver a 144.
Provato con DLSS quality e con FSR 3 più FSR quality. Con FSR3, è drasticamente più fluido. Diventa giocabile finalmente, nonostante l'ottimizzazione drammatica.
Non ho trovato alcun problema di rendering con FSR3, solo una fluidità decisamente superiore.
Gli oltre 120fps a schermo, sembrano praticamente reali. Davvero valido nel mio caso.
Dopo 10 minuti di FSR3, se riprovi DLSS con 60-70fps, ti viene il mal di mare.

monster.fx
06-10-2023, 18:43
C'è un Powe Limit max impostato da bios e la scheda non può superarlo,
ovvero quando lo raggiunge, taglia in auto le frequenze per rornare nel range.
Oc a parte, con afterburner si può impostare, se il bios gpu lo consente un pl maggiore.
Una 3050 ha un target default di 130w, non credo che una psu ,anche "base"
da 500w lo possa mettere in crisi. 👍

Ora sto provando un 700W Cooler Master e sembra andare. O era difettoso il secondo 600W Cooler master o boh.

Una domanda veloce a bruciapelo ... tra RTX3070 e RX6750 12gb... quale meno peggio?(anche a livello di temperature e supporto SW oltre che prestazionali).

Dono89
06-10-2023, 19:17
Se sei in 2k 3070 senza dubbio

monster.fx
06-10-2023, 19:19
Se sei in 2k 3070 senza dubbio

diciamo per ora normale FHD. Di AMD mi "spaventano" le temperature dopo una R9 390.

Ubro92
06-10-2023, 20:41
Siamo più o meno li in termini di consumi e temperature, molto dipende anche dai dissipatori utilizzati.

In genere per i chip che ho visto, le AMD si undervoltano tantissimo molto più delle nvidia, non so perchè amd sia cosi larga di mano con il vcore.

Comunque entrambi i chip undervoltati per bene sono facili da gestire come temperature e consumi.

Lato prestazionale, la 6750xt in raster è leggermente più prestante della 3070 ma con rt attivo finisce ai livelli di una 3060, e c'è il discorso DLSS che come accuratezza risulta migliore dell'FSR, anche se ancora non ho avuto modo di vedere i miglioramenti dell'FSR3, idem per quanto concerne reflex vs antilag.

The_Fabulous_
10-10-2023, 10:12
ciao a giorni mi arriverà il waterblock per liquidare la 3080ti gaming oc raffredderò cpu e gpu con un alphacool 1080.
volevo un info visto che il PL con msi si ferma a 100% e in gioco i watt arrivano massimo a 350W sulla vga,c'è qualche bios che possa aumentare il PL la vga è una gigabyte 3080ti gaming oc
grazie

devil_mcry
10-10-2023, 10:19
ciao a giorni mi arriverà il waterblock per liquidare la 3080ti gaming oc raffredderò cpu e gpu con un alphacool 1080.
volevo un info visto che il PL con msi si ferma a 100% e in gioco i watt arrivano massimo a 350W sulla vga,c'è qualche bios che possa aumentare il PL la vga è una gigabyte 3080ti gaming oc
grazie

è una 2x8 anche con un bios custom al massimo arriveresti a 375w al limite delle specifiche elettriche, cambierebbe talmente poco che non vale la pena

Dono89
11-10-2023, 08:41
In realtà vai anche oltre, la mia vecchia 3090 2x8 pin arrivava a 390w col bios gigabyte, ma il problema è che per salire davvero ti servono watt su watt.

Ora ho una 3080ti ma con 3x8pin. Senza DLSS arriverebbe a 450W (limite bios) a occhi chiusi anche solo tenendola a 1950 con 910mV. Queste schede oltre 1900mhz e 900mv richiedono esponenzialmente corrente

nessuno29
16-10-2023, 07:29
La 3070 nei giochi fatti bene rulla ancora alla grande, giocare la beta di mw3 in questi giorni a 144hz è stato un piacere. Vorrei capire cosa sta succedendo ai giochi ultimamente.

StylezZz`
16-10-2023, 08:04
È uscita solo 3 anni fa, e penso che andrà bene fino alla fine di questa gen di console se uno si accontenta di giocare a 1080p o 1440p+DLSS, anche il raytracing è accessibile senza sparare le impostazioni su alto/ultra...vedremo come si comporteranno gli 8GB, unico punto debole di questa scheda, ma tolti i soliti giochi usciti male e poi fixati (TLOU in primis) finora nessuno ha creato grossi problemi di VRAM (con buona pace di hwunboxed :stordita: )

Dono89
16-10-2023, 08:14
Ancora con questi 8gb

non sono la memoria che effettivamente viene usata
vengono utilizzate tecniche di compressione, gli 8gb di oggi sono molto più "larghi" degli 8gb di un tempo, ovviamente c'è più richiesta
con il dlss si scala di res e con scala intendo che si passa da 1440p a nemmeno 1080

Ovvio poi che se ci giochi in 4K sei frenato, ma nemmeno una 4070ti o 3090ti sono schede da 4K, lì devi andare almeno con una 4080 per avere frame consistenti

StylezZz`
16-10-2023, 08:28
Ancora con questi 8gb

non sono la memoria che effettivamente viene usata
vengono utilizzate tecniche di compressione, gli 8gb di oggi sono molto più "larghi" degli 8gb di un tempo, ovviamente c'è più richiesta
con il dlss si scala di res e con scala intendo che si passa da 1440p a nemmeno 1080

Ovvio poi che se ci giochi in 4K sei frenato, ma nemmeno una 4070ti o 3090ti sono schede da 4K, lì devi andare almeno con una 4080 per avere frame consistenti

Scalando i settaggi si riesce a stare dentro, ma già adesso anche a 1080p sono un limite se uno vuole sparare tutto su ultra (e la 3070 in molti giochi sarebbe ancora capace di garantire i 60fps)...poco male, come ho già fatto presente più volte le differenze visive tra ultra/alto o addirittura anche medio, sono talmente irrisorie che non si sente assolutamente questo ''handicap'', anche se personalmente non consiglierei più schede da 8GB sopra i 300€, e partirei da 12GB per stare tranquillo.

Dono89
16-10-2023, 13:22
Scalando i settaggi si riesce a stare dentro, ma già adesso anche a 1080p sono un limite se uno vuole sparare tutto su ultra (e la 3070 in molti giochi sarebbe ancora capace di garantire i 60fps)...poco male, come ho già fatto presente più volte le differenze visive tra ultra/alto o addirittura anche medio, sono talmente irrisorie che non si sente assolutamente questo ''handicap'', anche se personalmente non consiglierei più schede da 8GB sopra i 300€, e partirei da 12GB per stare tranquillo.

Stai dicendo che una 3070 da 8gb limita la giocabilità a 1080p a causa della vram?
Non lo limita per la vram nemmeno in 4K, non ci arriva per la potenza, non per la ram video

Cutter90
16-10-2023, 13:43
Scalando i settaggi si riesce a stare dentro, ma già adesso anche a 1080p sono un limite se uno vuole sparare tutto su ultra (e la 3070 in molti giochi sarebbe ancora capace di garantire i 60fps)...poco male, come ho già fatto presente più volte le differenze visive tra ultra/alto o addirittura anche medio, sono talmente irrisorie che non si sente assolutamente questo ''handicap'', anche se personalmente non consiglierei più schede da 8GB sopra i 300€, e partirei da 12GB per stare tranquillo.

Ancora con sta leggenda degli 8 gb? Ad ora in 1080p e 1440p non ci sono limitazioni. In 4k qualche gioco si.
Se poi mi dici non la consiglio perchè 8 gb tra 2 anni saranno un po' limitanti anche in 1440p allora si, ci sta.
Ma se su 100 giochi 98 ci si sta detro agli 8 gb non è che questi 8gb ora sono un limite dai

StylezZz`
16-10-2023, 15:53
Stai dicendo che una 3070 da 8gb limita la giocabilità a 1080p a causa della vram?
Non lo limita per la vram nemmeno in 4K, non ci arriva per la potenza, non per la ram video

Gioco a 1440p+DLSS Quality che corrisponde a 1707x960, in alcuni giochi se maxo le textures al massimo iniziano i problemi, come su Ratchet and Clank, Spiderman Remastered, oppure TLOU.

Perora sto giocando Witcher 3 NG, se imposto le textures su Estrema+ dopo un po' da 60fps mi calano sotto i 30fps, se le mantengo su Alte non ho problemi (e la qualità è praticamente la stessa se non stai a zoommare), altrimenti dovrei rinunciare al Ray Tracing per sgravare la VRAM.

Ancora con sta leggenda degli 8 gb? Ad ora in 1080p e 1440p non ci sono limitazioni. In 4k qualche gioco si.
Se poi mi dici non la consiglio perchè 8 gb tra 2 anni saranno un po' limitanti anche in 1440p allora si, ci sta.
Ma se su 100 giochi 98 ci si sta detro agli 8 gb non è che questi 8gb ora sono un limite dai

Guarda che non è una leggenda, e te lo dico da possessore, quindi se permetti so benissimo di cosa sto parlando, il problema semmai è come se ne parla e come si vuole fare apparire la cosa (come nel caso di hwunboxed :rolleyes:). Se maxo le textures su ultra ho cali di frames, se le riduco la scheda va da dio. Nei giochi con Ray Tracing bisogna scalare parecchio per restare entro gli 8GB. Come vedi sono già limitanti adesso, tra due anni non saprei, dipende dai titoli che usciranno, dal loro grado di ottimizzazione e da quanto si potranno scalare senza rinunciare troppo alla qualità.

bagnino89
16-10-2023, 15:58
Gioco a 1440p+DLSS Quality che corrisponde a 1707x960, in alcuni giochi se maxo le textures al massimo iniziano i problemi, come su Ratchet and Clank, Spiderman Remastered, oppure TLOU.

Perora sto giocando Witcher 3 NG, se imposto le textures su Estrema+ dopo un po' da 60fps mi calano sotto i 30fps, se le mantengo su Alte non ho problemi (e la qualità è praticamente la stessa se non stai a zoommare), altrimenti dovrei rinunciare al Ray Tracing per sgravare la VRAM.

Su TW3 riesci ad avere 60 FPS stabili?

Con la GI attivata (alla fine è quella che fa la differenza) io fatico...

StylezZz`
16-10-2023, 16:07
Su TW3 riesci ad avere 60 FPS stabili?

Con la GI attivata (alla fine è quella che fa la differenza) io fatico...

Io uso anche i riflessi, solo in alcuni punti mi scende sui 50 (soprattutto negli insediamenti tipo Novigrad), ma per il resto gira bene. Prova questi settaggi:

https://i.imgur.com/eWcehn6.jpg

https://i.imgur.com/150x0x2.jpg

The_Fabulous_
16-10-2023, 17:23
ciao ragazzi ho liquidato la gigabyte 3080ti oc temperature super,il pl massimo è 100 e in gioco si stabilzza sui 350w massimo, c'è un bios che possa innalzare il pl che può andare bene per questa scheda?

monster.fx
17-10-2023, 11:49
Ragazzi sto saltando da GTX1070 ti(in firma) a RTX3070 ... dite che il mio 750w ce la fa?

Il mio monitor ha solo DVI. Adattatore da DP o da HDMI? Ci sono differenze qualitative?(prossimo step un bel 27" 2k)

StylezZz`
17-10-2023, 12:31
Ragazzi sto saltando da GTX1070 ti(in firma) a RTX3070 ... dite che il mio 750w ce la fa?

Il mio monitor ha solo DVI. Adattatore da DP o da HDMI? Ci sono differenze qualitative?(prossimo step un bel 27" 2k)

La potenza è ok, ma quanti anni ha alle spalle? Se ha più di 10 anni forse sarebbe il caso di pensionarlo.

leofguerri
17-10-2023, 20:13
old but gold

monster.fx
17-10-2023, 21:24
La potenza è ok, ma quanti anni ha alle spalle? Se ha più di 10 anni forse sarebbe il caso di pensionarlo.

Si ha più di 10 anni ..ma ventola a parte(diventata rumorosa),mai un problema o un incertezza, contando che sotto ha avuto diverse VGA come la mitica gtx295 (dual GPU) con i suoi 290w di TDP.

Vash88
17-10-2023, 23:17
Vai tranquillo e se hai problemi cambialo nel caso

monster.fx
24-10-2023, 14:20
Domanda che potrebbe sembrare stupida. Da GTX1070 Ti a RTX3070 vado di DDU e poi driver da zero ... O lascio il mondo come sta tanto si aggiorna lui quel che serve?

FrancoBit
24-10-2023, 14:31
Domanda che potrebbe sembrare stupida. Da GTX1070 Ti a RTX3070 vado di DDU e poi driver da zero ... O lascio il mondo come sta tanto si aggiorna lui quel che serve?

Al cambio scheda di solito io:
1 - scarico ultima versione drivers
2 - riavvio in mod provvisoria senza rete e piallo i drivers Nvidia con DDU, poi shutdown
3 - sostituisco vecchia scheda con la nuova
4 - avvio e installo i driver aggiornati (meglio se con update automatico di Win 11 drivers disabilitato)

Volendo potresti anche semplicemente reinstallare l'ultima release una volta sostutita la vecchia scheda e amen, però per scrupolo al cambio scheda utilizzo anche DDU

The_Fabulous_
24-10-2023, 17:31
ragazzi esiste un bios modificato per aumentare il pl di una gigabyte 3080ti oc gaming?
grazie

Sealea
24-10-2023, 20:47
ogni volta che aggiorno i driver penso a una cosa.. ma il physx perché lo usano ancora?

tra le altre cose... è mai stato sfruttato seriamente? a memoria mi pare di no, eppure la voce è ancora li (tra l'altro ultima versione di tipo 4 anni fa)

Ubro92
24-10-2023, 20:56
ragazzi esiste un bios modificato per aumentare il pl di una gigabyte 3080ti oc gaming?
grazie

Modificato no, i bios sono tutti bloccati, dovresti provare a tuo rischio e pericolo flashando il bios di altre 3080ti che hanno un pcb e caratteristiche simili.

Ma sinceramente non ne vale la pena, undervolta e spremi quello che puoi.

ogni volta che aggiorno i driver penso a una cosa.. ma il physx perché lo usano ancora?

tra le altre cose... è mai stato sfruttato seriamente? a memoria mi pare di no, eppure la voce è ancora li (tra l'altro ultima versione di tipo 4 anni fa)

Si viene usato ancora per alcuni effetti e dovrebbe fungere anche sulle amd, ma non è più come una volta, ricordo che l'implementazione più avanzata del physx era sulla vecchia serie di batman poi per il resto tutti effetti minori.

monster.fx
25-10-2023, 09:39
Ragazzi sto testando la rtx3070 ... E rispetto alla 1070ti va quasi il doppio.
Una cosa mi lascia perplesso... Le temperature. In idle 40/50 ... Ingame con sincronia resta sui 60°... Quando la faccio lavorare a pieno regime senza limiti ... 75° ... Anche 80° .
É normale? Ero abituato a 70° quando scaldava la GTX.