View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series
Ma mica dipende dai monitor quanto limita una cpu, ma dagli fps. Ha un i5, normale che a livello di fps se sei attaccato ai 120 la cpu inizi a limitare.
Leggi troppe recensioni e non conosci un 12700k?😂😂😂
Cutter90
20-04-2022, 14:43
Leggi troppe recensioni e non conosci un 12700k?������
Nella tua firma si legge "I5". Ho pensato semplicemente che avessi il 12600k e che avessi sbagliato a scrivere quello. Invece hai sbagliato a scrivere TU I5, facciamo poco gli spiritosi. Era un 50/50 eh.
Evidentemente allora è il gioco. Anche se cmq mi pare strano perchè l'incremento è minimo.
Thunder-74
20-04-2022, 15:58
Comunque il 12600k rompe le :ciapet: a tutte le gen precedenti in fatto di fps . La ritengo una cpu superlativa per il gaming. Attaccata praticamente alle due sorelle maggiori ad un costo più basso.
Inviato dal mio iPhone X utilizzando Tapatalk
Ragazzi vorrei un aiuto per un problema che mi sta consumando letteralmente.
Dunque il problema è un continuo freez dopo 10 minuti giocando a division 2 ,quando vado a controllare monitoraggio affidabilità di windows mi dice che in quel momento ho un avuto un errore hardware con codice 141 e cercando in rete ho scoperto che si tratta in realta del driver video, come posso riolvere questo problema? e devo aggiungere che mi capita solo con division 2 è come se qualcosa del driver infastidisce il gioco ma non ne vengo a capo.
Ovviamente ddu e reinstallare il driver era la prima cosa che ho fatto.
Thunder-74
20-04-2022, 16:09
Ragazzi vorrei un aiuto per un problema che mi sta consumando letteralmente.
Dunque il problema è un continuo freez dopo 10 minuti giocando a division 2 ,quando vado a controllare monitoraggio affidabilità di windows mi dice che in quel momento ho un avuto un errore hardware con codice 141 e cercando in rete ho scoperto che si tratta in realta del driver video, come posso riolvere questo problema? e devo aggiungere che mi capita solo con division 2 è come se qualcosa del driver infastidisce il gioco ma non ne vengo a capo.
Ovviamente ddu e reinstallare il driver era la prima cosa che ho fatto.
Se usi software di monitoraggio del pc, tipo afterburner e simili, prova a chiuderli.
Inviato dal mio iPhone X utilizzando Tapatalk
Se usi software di monitoraggio del pc, tipo afterburner e simili, prova a chiuderli.
Inviato dal mio iPhone X utilizzando Tapatalk
Scusa dimenticavo già fatto , freeza pure con ab e rivaturner chiusi.
La cosa strana è che non vedo anomalie durante le sessioni del gioco, la scheda video gira tranquillamente in silezio e mi da oltre 140 fps e nessun tentennamento, non capisco proprio che cavolo succede.
superino
20-04-2022, 16:22
Scusa dimenticavo già fatto , freeza pure con ab e rivaturner chiusi.
La cosa strana è che non vedo anomalie durante le sessioni del gioco, la scheda video gira tranquillamente in silezio e mi da oltre 140 fps e nessun tentennamento, non capisco proprio che cavolo succede.
provalo in dx11
io avevo diversi problemi in dx12
provalo in dx11
io avevo diversi problemi in dx12
Pensa, avere una rtx 3080ti e giocare con dx11 :muro:
Ma per sicurezza farò anche questa prova.
Andy1111
20-04-2022, 16:32
Scusa dimenticavo già fatto , freeza pure con ab e rivaturner chiusi.
La cosa strana è che non vedo anomalie durante le sessioni del gioco, la scheda video gira tranquillamente in silezio e mi da oltre 140 fps e nessun tentennamento, non capisco proprio che cavolo succede.
Controlla se la vga stà bene dentro lo slot pci-e e i due cavi dell'ali siano messi bene
Ma mica dipende dai monitor quanto limita una cpu, ma dagli fps. Ha un i5, normale che a livello di fps se sei attaccato ai 120 la cpu inizi a limitare.
Beh si, se lui usa 3 monitor, facciamo che siano 1080P sta renderizzando poco meno del 4k, quindi certo che fanno la differenza. Come sappiamo tutti all'aumentare della res la cpu conta sempre meno.
Quad HD o 2k = 3.686.400 pixel
3 monitor 1080P = 6.220.800 pixel
UHD o 4k= 8.294.400 pixel
nel suo caso è praticamente a metà strada tra un 1440P ed un 2160P diciamo che c'è quel mezzo milioncino di pixel in più verso il 4k.
Controlla se la vga stà bene dentro lo slot pci-e e i due cavi dell'ali siano messi bene
Sono tre cavi in realtà, e poi penso se fosse questo il problema, me lo farebbe con tutti i giochi, mentre ora solo con division 2 ho questo problema.
Thunder-74
20-04-2022, 16:46
Pensa, avere una rtx 3080ti e giocare con dx11 :muro:
Ma per sicurezza farò anche questa prova.
Vedrai che risolvi. Ci sono stati in passato titoli per entrambe le librerie dove con dx11 tutto ok , mentre con dx12 niente .
Inviato dal mio iPhone X utilizzando Tapatalk
Cutter90
20-04-2022, 17:27
Beh si, se lui usa 3 monitor, facciamo che siano 1080P sta renderizzando poco meno del 4k, quindi certo che fanno la differenza. Come sappiamo tutti all'aumentare della res la cpu conta sempre meno.
Quad HD o 2k = 3.686.400 pixel
3 monitor 1080P = 6.220.800 pixel
UHD o 4k= 8.294.400 pixel
nel suo caso è praticamente a metà strada tra un 1440P ed un 2160P diciamo che c'è quel mezzo milioncino di pixel in più verso il 4k.
Ma questo non succede perchè aumenta la risoluzione. Ma perchè all'aumentare della res calano gli fps. Io gioco in 4k, ma in molti giochi la cpu conta parecchio se supero i 100.
Jeremy01
20-04-2022, 17:43
Ragazzi per quanto riguarda il DLSS, se è supportato dal gioco andrebbe sempre attivato o ci sono anche dei "contro" nel suo utilizzo (es peggioramente della qualità grafica, stuttering lag ecc)?
Inoltre, può essere sempre usato o solo in abinamento con il RT attivo?
Silver_77
20-04-2022, 18:28
arrivata la 3080 Manli,ottimo dissi ed ottime temperatore,le ventole girano in auto al di sotto del 50%,volevo pero' soffermarmi su una cosa,l'ho provata su Iracing col mio triplo monitor,questi i risultati vs 2080 ti:
2080 ti
Max 183.6
Average 114.6
Min 68.3
3080
Max 208.8
Average 117.6
Min 67.6
visto che gioco praticamente solo a questo gioco non valeva manco la pena sostituire la 2080 ti :mbe:
Era meglio se cambiavi processore, iRacing è un po bastardo e si scosta dagli altri giochi, dovrebbe uscire un nuovo motore grafico a breve.
Alekos Panagulis
20-04-2022, 18:33
Ragazzi per quanto riguarda il DLSS, se è supportato dal gioco andrebbe sempre attivato o ci sono anche dei "contro" nel suo utilizzo (es peggioramente della qualità grafica, stuttering lag ecc)?
Inoltre, può essere sempre usato o solo in abinamento con il RT attivo?
Ciao, per prima cosa il DLSS è indipendente dal ray tracing. Ci sono giochi che supportano l'uno e non l'altro.
Non è necessario attivarlo sempre. È utile quando le performance non ti soddisfano e vuoi aumentare il framerate, accettando di perdere leggermente in nitidezza per avere più frames.
In linea di massima conviene giocare alla risoluzone nativa per avere un'immagine definita. Tuttavia, ci sono giochi in cui il DLSS offre una qualità MIGLIORE di quella nativa. In conclusione, devi testare gioco per gioco.
Inviato dal mio LE2123 utilizzando Tapatalk
Vedrai che risolvi. Ci sono stati in passato titoli per entrambe le librerie dove con dx11 tutto ok , mentre con dx12 niente .
Inviato dal mio iPhone X utilizzando Tapatalk
Forse hai ragione , 40 min di gioco e nessun crash, però mi disturba non poco non poter giocare in dx12 :muro:
Thunder-74
20-04-2022, 19:14
Forse hai ragione , 40 min di gioco e nessun crash, però mi disturba non poco non poter giocare in dx12 :muro:
Da quello che ho potuto notare, i titoli che nascono in modo ibrido, non giovano molto dalle DX12, quindi ti perdi poco ad usare le DX11. ;)
terranux
20-04-2022, 21:23
Ah, adesso bisogna provarle tutte le gpu per sapere come vanno? Le recnsioni non vanno più bene? :D
Fai un Time spy o un portal Royale. Lì si vedono le performance, non di certo con superposition, tool molto vecchio e che non tira le schede come si deve. Tra una marca e l'altra ci passa quasi la stessa differenza che c'è tra 3080 ti e 3090 eh
vanno tutte uguali. diciamo che se la vuoi mantenere a 60° è molto rumorosa. pensa che pesa 150gr più della tuf
Silver_77
20-04-2022, 22:01
vanno tutte uguali. diciamo che se la vuoi mantenere a 60° è molto rumorosa. pensa che pesa 150gr più della tuf
Non vanno tutte uguali , c'è un bel po di differenza , le più costose vanno di più, hanno power limit massimi da 450w contro le più scarse che ne avranno 370w.
Ho scelto la Strix 3080 12gb perché ho visto che era pari ad una 3080ti con PL alto.
https://youtu.be/q_VC_00wcMU
Da quello che ho potuto notare, i titoli che nascono in modo ibrido, non giovano molto dalle DX12, quindi ti perdi poco ad usare le DX11. ;)
No guarda, credimi, la differenza è notevole e mi sembra di avere più lag. sono meno fluido.
Thunder-74
20-04-2022, 22:41
No guarda, credimi, la differenza è notevole e mi sembra di avere più lag. sono meno fluido.
Curioso ho lanciato il bench con entrambe le dx. Non ho quindi verificato lag o altro, ma in effetti il punteggio ottenuto con le dx12 è più alto del 7x100.
Inviato dal mio iPhone X utilizzando Tapatalk
Era meglio se cambiavi processore, iRacing è un po bastardo e si scosta dagli altri giochi, dovrebbe uscire un nuovo motore grafico a breve.
E quello e' il bello,test effettuato con un 12700k
Curioso ho lanciato il bench con entrambe le dx. Non ho quindi verificato lag o altro, ma in effetti il punteggio ottenuto con le dx12 è più alto del 7x100.
Inviato dal mio iPhone X utilizzando Tapatalk
Si, poi se lo provi nei giochi che è possibile scegliere quale dx, vedrai che pure la grafica è superiore.
Cutter90
21-04-2022, 07:46
vanno tutte uguali. diciamo che se la vuoi mantenere a 60° è molto rumorosa. pensa che pesa 150gr più della tuf
No, non vanno tutte uguali, assolutamente. E i motivi li abbiamo già spiegati più volte. Prima di avere Aorus avevo la 3090 evga. Era più rumorosa, tirava meno e prestazionalmente non era la stessa cosa, era meno fresca. Naturalmente se è rumorosa la puopi tirare meno di conseguenza, dato che tra avere 60 gradi e 80 gradi prestazionalmente ci balla qualcosa. Quindi già avere una scheda meno rumorosa e più fresca garantisce per forza prestazioni superiori.
Non vanno tutte uguali , c'è un bel po di differenza , le più costose vanno di più, hanno power limit massimi da 450w contro le più scarse che ne avranno 370w.
Ho scelto la Strix 3080 12gb perché ho visto che era pari ad una 3080ti con PL alto.
https://youtu.be/q_VC_00wcMU
Questa è una delle differenze infatti:)
Ma questo non succede perchè aumenta la risoluzione. Ma perchè all'aumentare della res calano gli fps. Io gioco in 4k, ma in molti giochi la cpu conta parecchio se supero i 100.
Eh ok, ma causa conseguenza.
Aumenti la res = calano gli fps (a parità di settings qualitativi).
Quindi se aumenti la res, la mole di lavoro si sposta come carico da CPU a GPU, il limite è dettato dalla potenza di quest'ultima piuttosto che dalla CPU.
Ergo all'aumentare della res la cpu conta sempre meno a parità di settings.
Chiaro che se poi aumenti la res e riduci le impostazioni grafiche a modalità gameboy per raggiungere >100fps@4k beh in quel caso certo che la CPU conta, ma è un caso isolato non la norma.
Cutter90
21-04-2022, 08:50
Eh ok, ma causa conseguenza.
Aumenti la res = calano gli fps (a parità di settings qualitativi).
Quindi se aumenti la res, la mole di lavoro si sposta come carico da CPU a GPU, il limite è dettato dalla potenza di quest'ultima piuttosto che dalla CPU.
Ergo all'aumentare della res la cpu conta sempre meno a parità di settings.
Chiaro che se poi aumenti la res e riduci le impostazioni grafiche a modalità gameboy per raggiungere >100fps@4k beh in quel caso certo che la CPU conta, ma è un caso isolato non la norma.
Si, ma se sotto i 60 fps la cpu resta trascurabile, qualsiasi siano le risoluzioni, sopra i 120 la cpu inizia a pesare, qualsiasi sia la risoluzione.
PS: ci sono parecchi giochi che sto giocando in 4k a 120 fps, maxati, altrochè gameboy :D
Si, ma se sotto i 60 fps la cpu resta trascurabile, qualsiasi siano le risoluzioni, sopra i 120 la cpu inizia a pesare, qualsiasi sia la risoluzione.
PS: ci sono parecchi giochi che sto giocando in 4k a 120 fps, maxati, altrochè gameboy :D
Sarà che io gioco 2 giochi all'anno :D, dammi un titolo che faccio una prova.
Cutter90
21-04-2022, 09:19
Sarà che io gioco 2 giochi all'anno :D, dammi un titolo che faccio una prova.
Acc, Nioh2, Outriders, cod, battlefield, god of war, day's gone, Death Stranding, forza horizon.... ce ne solo tanti altri che ho giocato ma al momento non mi vengono.
Chiaramente non si parla di mattoni come cp2077 o FS, però è una quantità notevole
Jeremy01
21-04-2022, 10:15
Ciao, per prima cosa il DLSS è indipendente dal ray tracing. Ci sono giochi che supportano l'uno e non l'altro.
Non è necessario attivarlo sempre. È utile quando le performance non ti soddisfano e vuoi aumentare il framerate, accettando di perdere leggermente in nitidezza per avere più frames.
In linea di massima conviene giocare alla risoluzone nativa per avere un'immagine definita. Tuttavia, ci sono giochi in cui il DLSS offre una qualità MIGLIORE di quella nativa. In conclusione, devi testare gioco per gioco.
Inviato dal mio LE2123 utilizzando Tapatalk
Perfetto, grazie mille della spiegazione.
Quindi, in linea di massima, l'unico contro del dlss è la perdita di nitidezza dell'immagine e questa aumenta o diminuisce a seconda del preset del dlss scelto. In ogni caso va valutato di gioco in gioco perchè potrebbe non essere poi così percepibile il difetto o addirittura migliorare l'immagine originale. Giusto?
Un ultima cosa: al fine di riconoscere meglio il difetto che può apportare il dlss, in cosa consiste, in altri termini, la perdita di nitidezza? textures meno dettagliate o scalettate? (sai qualche link dove è evidente questo difetto?)
terranux
21-04-2022, 11:45
Non vanno tutte uguali , c'è un bel po di differenza , le più costose vanno di più, hanno power limit massimi da 450w contro le più scarse che ne avranno 370w.
Ho scelto la Strix 3080 12gb perché ho visto che era pari ad una 3080ti con PL alto.
https://youtu.be/q_VC_00wcMU
seeee. impossibile .
Acc, Nioh2, Outriders, cod, battlefield, god of war, day's gone, Death Stranding, forza horizon.... ce ne solo tanti altri che ho giocato ma al momento non mi vengono.
Chiaramente non si parla di mattoni come cp2077 o FS, però è una quantità notevole
Ok di questi nella mia lista dei "da giocare prima di morire" :D ci sono God of War, Day's Gone, Death Stranding e da finire la campagna single player di Battlefield V. Ma di installato ho solo Battlefield V di questi, perché sono alle prese con Metro Exodus che lo sto finendo, ma il tempo è poco.
Certo con Metro Exodus enhanced edition in 4k viaggio molto di 100fps tutto max e DLSS Quality.
Silver_77
21-04-2022, 16:20
seeee. impossibile .
Arrivo 20100 come graphic score a Time Spy, se non erro una 3080ti fa quel numero. e ho speso 450€ in meno.
Al giorno d'oggi paghi il mezzo fotogramma :muro:
Ieri mi dicevano di fare un timespy,a temperature mi sembrano ok per essere "una scrausa Manli"
https://i.imgur.com/nOUZMcYh.png
Detailed scores
Graphics score
17 186
Graphics test 1
112.43 FPS
Graphics test 2
98.21 FPS
CPU score
16 214
CPU test
54.48 FPS
terranux
21-04-2022, 18:22
Arrivo 20100 come graphic score a Time Spy, se non erro una 3080ti fa quel numero. e ho speso 450€ in meno.
Al giorno d'oggi paghi il mezzo fotogramma :muro:
ho capito ma devi avere una vga da 2300 o poco meno. poi se alzi la ti và oltre. il prezzo anche per me è fuori mercato.
ho capito ma devi avere una vga da 2300 o poco meno. poi se alzi la ti và oltre. il prezzo anche per me è fuori mercato.
Che i prezzi siano fuori mercato non c'è dubbio. Che la 3080 vada come una 3080ti tutto a stock è impossibile. Se poi facciamo OC di tutte e due allora si può parlare forse, ma è improbabile.
Ma nessuno che gioca a divisone 2 ? :D
Ma nessuno che gioca a divisone 2 ? :D
Io sto su Elden ring e ci starò credo per almeno un annetto:D
Io sto su Elden ring e ci starò credo per almeno un annetto:D
Bello Elden ring , ma credimi the division 2 un altra pianeta, pensa, ti ci vuole almeno 1 anno di gioco per iniziare a giocare sul serio.
Bello Elden ring , ma credimi the division 2 un altra pianeta, pensa, ti ci vuole almeno 1 anno di gioco per iniziare a giocare sul serio.
Lo conosco, credo di averlo in libreria
Silver_77
21-04-2022, 20:35
Che i prezzi siano fuori mercato non c'è dubbio. Che la 3080 vada come una 3080ti tutto a stock è impossibile. Se poi facciamo OC di tutte e due allora si può parlare forse, ma è improbabile.
Ovviamente con OC si arriva alla 3080ti, ma se Nvidia ti permette di farlo stai sereno che non rovini nulla, e con 1340€ anziche 1700€ ho optato per la 3080.
Ovviamente con OC si arriva alla 3080ti, ma se Nvidia ti permette di farlo stai sereno che non rovini nulla, e con 1340€ anziche 1700€ ho optato per la 3080.
Si ho capito, ma il confronto lo devi fare a stock. Perchè se confronti in OC entrambi la 3080 TI ovviamente va di più
Silver_77
21-04-2022, 21:44
Si ho capito, ma il confronto lo devi fare a stock. Perchè se confronti in OC entrambi la 3080 TI ovviamente va di più
Si Si però ero in fissa con la Rog Strix e ho optato per quella :D
Domandona, ma serve attivare nel bios della main il resizeBAR????
(THE REAL) Neo
21-04-2022, 22:24
Si Si però ero in fissa con la Rog Strix e ho optato per quella :D
Domandona, ma serve attivare nel bios della main il resizeBAR????Certo che si,se hai tutti i requisiti,attivalo.
Silver_77
21-04-2022, 22:33
Certo che si,se hai tutti i requisiti,attivalo.
Ok attivato grazie, ma non capisco i benefici.
ciao io in graphic score a Time Spy arrivo a 21102 con la 3080ti tuf
ciao io in graphic score a Time Spy arrivo a 21102 con la 3080ti tuf
https://i.postimg.cc/hXH06nCV/super-vrecord-19784.png (https://postimg.cc/hXH06nCV)ciao io in graphic score a Time Spy arrivo a 21102 con la 3080ti tuf
Silver_77
22-04-2022, 00:52
https://i.postimg.cc/hXH06nCV/super-vrecord-19784.png (https://postimg.cc/hXH06nCV)
certo, con power limit al massimo, si vede dal grafico. standard farai 1000 punti in meno.
io intendevo che la Strix in OC va come la ti liscia.
https://www.overclock3d.net/reviews/gpu_displays/asus_rtx_3080_ti_tuf_review/19
Cutter90
22-04-2022, 07:33
Ieri mi dicevano di fare un timespy,a temperature mi sembrano ok per essere "una scrausa Manli"
https://i.imgur.com/nOUZMcYh.png
Detailed scores
Graphics score
17 186
Graphics test 1
112.43 FPS
Graphics test 2
98.21 FPS
CPU score
16 214
CPU test
54.48 FPS
Si, ma fai anche solo 1000 punti in più della mia vecchia 2080 ti.... è proprio questo il punto. Hai temperature buone perchè di fatto "vai piano" :)
Che poi, le temperature non ha senso nemmeno misurarle in un time spy, che stressa la gpu per 1 minuto nemmeno. Mettila in un gioco che la consuma al 100% per 15-20 minuti poi vedi come ti aumentano +10 almeno.
https://www.3dmark.com/spy/14996550
Una 3080 dovrebbe stare sui 18000- 19000 eh
Silver_77
22-04-2022, 07:44
Una 3080 dovrebbe stare sui 18000- 19000 eh
Il punto è sempre quello, c'è chi dice che le 3080 vanno tutte uguali e non ci sono differenze...sta cippa, paghi ogni singolo FPS :muro: Le Manli sono le più abbordabili, e c'è un motivo, hanno componenti peggiori. regolatori tensione più scarsi.
Silver_77
22-04-2022, 07:50
Ecco 2 dati:
Manli RTX 3080
Board power limit
Target: 320.0 W
Limit: 320.0 W
Asus Strix RTX 3080
Board power limit
Target: 390.0 W
Limit: 450.0 W
Questo dato ti fa capire il punteggio inferiore.
Ecco 2 dati:
Manli RTX 3080
Board power limit
Target: 320.0 W
Limit: 320.0 W
Asus Strix RTX 3080
Board power limit
Target: 390.0 W
Limit: 450.0 W
Questo dato ti fa capire il punteggio inferiore.
Veramente? La manli ha un pl minore della FE?
Tecnicamente va meno della FE quindi...a pro di cosa mettere allora 3 ventole?
Silver_77
22-04-2022, 07:56
Veramente? La manli ha un pl minore della FE?
Tecnicamente va meno della FE quindi...a pro di cosa mettere allora 3 ventole?
Per fare scena e vendere :D :D
Le FE sono tra le migliori , non le top ma sono vicino.
Si, ma fai anche solo 1000 punti in più della mia vecchia 2080 ti.... è proprio questo il punto. Hai temperature buone perchè di fatto "vai piano" :)
Che poi, le temperature non ha senso nemmeno misurarle in un time spy, che stressa la gpu per 1 minuto nemmeno. Mettila in un gioco che la consuma al 100% per 15-20 minuti poi vedi come ti aumentano +10 almeno.
https://www.3dmark.com/spy/14996550
Una 3080 dovrebbe stare sui 18000- 19000 eh
Io ti voglio bene,ma tu per prima cosa devi fare pace col tuo cervello perché l' 'altro giorno sostenevi questo :
"Fai un Time spy o un portal Royale. Lì si vedono le performance, non di certo con superposition"
Ora faccio un timespy e non va bene,domani faccio lo screen con dati di un gioco ed esce fuori che non va bene,non che debba dimostrarti qualcosa,ad ogni modo la manli ha PCB REFERENCE,io devo liquidarla,che mi frega di prendere una top visto che anche a liquido starà a default,cosa c'è di difficile da capire?
Cutter90
22-04-2022, 08:03
Io ti voglio bene,ma tu per prima cosa devi fare pace col tuo cervello perché l' 'altro giorno sostenevi questo :
"Fai un Time spy o un portal Royale. Lì si vedono le performance, non di certo con superposition"
Ora faccio un timespy e non va bene,domani faccio lo screen con dati di un gioco ed esce fuori che non va bene,non che debba dimostrarti qualcosa,ad ogni modo la manli ha PCB REFERENCE,io devo liquidarla,che mi frega di prendere una top visto che anche a liquido starà a default,cosa c'è di difficile da capire?
Eh. Infatti l'hai fatto e le performance si sono viste. Ossia che avevo ragione nel dire che la Manli non è assolutamente a livello delle top. E avevo anche ragione sul fatto che le schede non sono assolutamente tutte uguali. Quindi non ha da far pace con nulla, semplicemente ho avuto la dimostrazione che avevo ragione (che poi era per farlo capire a te, dato che io lo sapevo già)
Sul discorso di liquidarla e tenerla stock invece soggettivamente ti dico che tanto valeva prendere una top allora. Avevi le stesse performance della tua liquidata e avevi molto meno sbattimento. Ma qui è soggettivo.
Goofy Goober
22-04-2022, 08:04
Una 3080 dovrebbe stare sui 18000- 19000 eh
Dipende dai modelli :D
Una Palit con stesso pcb della Manli se guardi le review sta su 17600, quindi siamo li
Ma anche tra stesse schede ci balla qualcosa a volte in termini di boost.
Che i prezzi siano fuori mercato non c'è dubbio. Che la 3080 vada come una 3080ti tutto a stock è impossibile. Se poi facciamo OC di tutte e due allora si può parlare forse, ma è improbabile.
Si può fare perchè ha la 3080 12gb, se guardi qualche review a seconda dei modelli (non reference chiaramente) raggiunge la 3080Ti a stock in taluni scenari.
Non sempre ovviamente :D
La 3080 12gb non usa lo stesso core della 3080, assomiglia a quello di una Ti "uscita male" con frequenze base più alte.
Incluso bus più ampio per la vram extra.
Ref. vs. Ref. (pcb) non andrà mai più forte della Ti, e ci mancherebbe anche.
Per fare scena e vendere :D :D
Le FE sono tra le migliori , non le top ma sono vicino.
Si questo l'ho visto, le FE salgono molto bene e rimangono a mia sorpresa oltretutto fresche.
Mi sembra però strano che una scheda con un dissipatore molto più importante non riesca ad andare oltre al modello base perdendo oltretutto qualcosa
...ad ogni modo la manli ha PCB REFERENCE, io devo liquidarla, che mi frega di prendere una top visto che anche a liquido starà a default,cosa c'è di difficile da capire?
Caro ma è proprio questo il nocciolo della questione.
Se ti sbatti a liquidarla, e bada che io sono a tuo completo favore su questo punto, prendere una scheda di fascia bassa tra le alte, non ha molto senso.
Se mi liquidi una 3080 HOF quella scheda boosterà e sfrutterà tutto il suo PL maggiorato rimanendo nel range di temperature più consono e regalandoti un surplus di prestazioni, se mi liquidi una 3080 Manli non ti cambia una cippa dal tenerla ad aria, se non che sta più fredda, ma non ha margine per giovare del miglior sistema di raffreddamento, è già spalmata contro il pl così com'è.
Un po' come mettere barra duomi e distanziali su una panda 750 o su una Miata ND. :D
io te l'ho detto 30 gg e reso in attesa della 4090 Strix OC, e poi liquidi quella.
Poi ormai con la notizia che ci sono GPU che costruiscono altre GPU, la prossima serie io la chiamerei direttamente Cyberdine T890, T880, T870, T860.
https://i.imgur.com/BIWOFA3m.png
[...]..poi le macchine costruirono altre macchine..[...]
Eh. Infatti l'hai fatto e le performance si sono viste. Ossia che avevo ragione nel dire che la Manli non è assolutamente a livello delle top. E avevo anche ragione sul fatto che le schede non sono assolutamente tutte uguali. Quindi non ha da far pace con nulla, semplicemente ho avuto la dimostrazione che avevo ragione (che poi era per farlo capire a te, dato che io lo sapevo già)
Sul discorso di liquidarla e tenerla stock invece soggettivamente ti dico che tanto valeva prendere una top allora. Avevi le stesse performance della tua liquidata e avevi molto meno sbattimento. Ma qui è soggettivo.
Tu non sai nulla,gia' che uno mi scambia un 12700k per un i5,e sorvoliamo,gia' che prima dici una cosa e poi non va bene dopo 2 minuti e risolvoliamo,per il resto manco ti rispondo,anzi mo che ci sono per evitare polemiche inutili ti metto in il :stordita:
Caro ma è proprio questo il nocciolo della questione.
Se ti sbatti a liquidarla, e bada che io sono a tuo completo favore su questo punto, prendere una scheda di fascia bassa tra le alte, non ha molto senso.
Se mi liquidi una 3080 HOF quella scheda boosterà e sfrutterà tutto il suo PL maggiorato rimanendo nel range di temperature più consono e regalandoti un surplus di prestazioni, se mi liquidi una 3080 Manli non ti cambia una cippa dal tenerla ad aria, se non che sta più fredda, ma non ha margine per giovare del miglior sistema di raffreddamento, è già spalmata contro il pl così com'è.
Un po' come mettere barra duomi e distanziali su una panda 750 o su una Miata ND. :D
io te l'ho detto 30 gg e reso in attesa della 4090 Strix OC, e poi liquidi quella.
Capisco,ma in passato per fare questo discorso,ho speso fior di quattrini in piu' e poi avevo delle vga che andavano uguali a quelle che costavano molto meno,liquido o non liquido,non scherzo :stordita:
Capisco,ma in passato per fare questo discorso,ho speso fior di quattrini in piu' e poi avevo delle vga che andavano uguali a quelle che costavano molto meno,liquido o non liquido,non scherzo :stordita:
Beh questo è tipico del nostro hobby, se si guadra a ciò che verrà non si compra mai nulla. Io ho una 3090 Strix OC a liquido che forse tra 6 mesi andrà come una 4080 Manli. Ma ce l'ho da quasi un anno, tu l'hai appena presa e ti restano poco più di 5 mesi prima del cambio generazionale, e puoi fare il reso.
Poi si capisco benissimo, ma fossi in te io o, prenderei al day one "Er prossimo mejo" per liquidarlo, o aspetterei il lancio delle 40XX per prendere una 3090Ti ai saldi e liquidarla.
Nothing in between. E mi raccomando HOF, Strix, FTW, quello che ti pare ma con PL pompato.
Silver_77
22-04-2022, 08:51
Caro ma è proprio questo il nocciolo della questione.
Se ti sbatti a liquidarla, e bada che io sono a tuo completo favore su questo punto, prendere una scheda di fascia bassa tra le alte, non ha molto senso.
Se mi liquidi una 3080 HOF quella scheda boosterà e sfrutterà tutto il suo PL maggiorato rimanendo nel range di temperature più consono e regalandoti un surplus di prestazioni, se mi liquidi una 3080 Manli non ti cambia una cippa dal tenerla ad aria, se non che sta più fredda, ma non ha margine per giovare del miglior sistema di raffreddamento, è già spalmata contro il pl così com'è.
Un po' come mettere barra duomi e distanziali su una panda 750 o su una Miata ND. :D
io te l'ho detto 30 gg e reso in attesa della 4090 Strix OC, e poi liquidi quella.
Poi ormai con la notizia che ci sono GPU che costruiscono altre GPU, la prossima serie io la chiamerei direttamente Cyberdine T890, T880, T870, T860.
https://i.imgur.com/BIWOFA3m.png
[...]..poi le macchine costruirono altre macchine..[...]
Quoto
Cutter90
22-04-2022, 08:56
Tu non sai nulla,gia' che uno mi scambia un 12700k per un i5,e sorvoliamo,gia' che prima dici una cosa e poi non va bene dopo 2 minuti e risolvoliamo,per il resto manco ti rispondo,anzi mo che ci sono per evitare polemiche inutili ti metto in il :stordita:
Ok, vedo che non sai più cosa dire e mi pare ci stiamo attaccando agli specchi (Nella firma tu avevi scritto i5, non fare il furbo). A posto :)
Silver_77
22-04-2022, 08:57
Capisco,ma in passato per fare questo discorso,ho speso fior di quattrini in piu' e poi avevo delle vga che andavano uguali a quelle che costavano molto meno,liquido o non liquido,non scherzo :stordita:
Comunque non ha senso liquidare quella manli , al limite cerca un bios adattabile che sblocchi il power limit.
Goofy Goober
22-04-2022, 08:57
Caro ma è proprio questo il nocciolo della questione.
Se ti sbatti a liquidarla, e bada che io sono a tuo completo favore su questo punto, prendere una scheda di fascia bassa tra le alte, non ha molto senso.
Il senso potrebbe essere il costo...
Per quella che ho preso io, sempre pcb reference, tra lei e il corrispettivo custom che mi sarebbe piaciuto prendere (una Strix) ci ballavano 400 euro :stordita:
Per mettere a liquido la reference ho scelto un blocco (per motivi estetici puramente soggettivi) che costa 380 euro :stordita:
La scheda pur restando nei suoi limitati 320watt di PL, mi ha mandato al "collasso" il sistema a liquido che prima girava su scheda con assorbimento ben inferiore.
Quindi ulteriori costi da sostenere per teorici adeguamenti vari.
Figurati ad averne una che arriva a 450 :asd:
Insomma, di considerazioni da fare ce ne sono infinite. :)
Tra le soggettive per motivi di danari oppure estetici (si può spendere molto meno per fare sistemi a liquido il cui scopo è solo raffreddare oggettivamente al meglio) a quelle oggettivi in termini di prestazioni massime da inseguire, è inutile stabilire a priori quale è la scelta migliore "per tutti" se lo scopo da raggiungere è diverso, per tutti.
Io anni fa avevo cambiato tutta una piattaforma MB-CPU-RAM con annessi componenti liquido per guadagnare una decina di fps su uno SLI e migliaia di punti nei benchmark, perchè? Perchè benchavo ed ero invasato :asd:
Ora ho smesso da anni, e pur sapendo che in ambito gaming cambiando MB-CPU-RAM salirei di qualche manciata di frame, lo faccio? No, perchè anche se gioco non è avere quei frame in più il mio obiettivo maximo o interesse specifico.
Una cosa che è cambiata anni fa tra gli appassionati (ma più che altro lo noto tra l'utenza qui) è che il concetto di minima spesa massima resa è stato soppiantato del tutto. Le reference venivano meno bistrattate, mentre oggi non si capisce più quale sia il loro ruolo e se comprare un core GPU che ha determinate prestazioni di base non sia mai la scelta giusta se in giro ci sono custom, che costando di più, vanno più forte.
Sarò oldstyle io, ma alla fine la bilancia è sempre su quanto spendi rispetto a quanto rendi, altrimenti tutto costerebbe uguale e si sceglierebbe sempre il componente che va più forte senza dubbio alcuno!
Comunque non ha senso liquidare quella manli , al limite cerca un bios adattabile che sblocchi il power limit.
vedi sopra :O
Silver_77
22-04-2022, 09:07
Il senso potrebbe essere il costo...
Per quella che ho preso io, sempre pcb reference, tra lei e il corrispettivo custom che mi sarebbe piaciuto prendere (una Strix) ci ballavano 400 euro :stordita:
Per mettere a liquido la reference ho scelto un blocco (per motivi estetici puramente soggettivi) che costa 380 euro :stordita:
La scheda pur restando nei suoi limitati 320watt di PL, mi ha mandato al "collasso" il sistema a liquido che prima girava su scheda con assorbimento ben inferiore.
Quindi ulteriori costi da sostenere per teorici adeguamenti vari.
Figurati ad averne una che arriva a 450 :asd:
Insomma, di considerazioni da fare ce ne sono infinite. :)
Tra le soggettive per motivi di danari oppure estetici (si può spendere molto meno per fare sistemi a liquido il cui scopo è solo raffreddare oggettivamente al meglio) a quelle oggettivi in termini di prestazioni massime da inseguire, è inutile stabilire a priori quale è la scelta migliore "per tutti" se lo scopo da raggiungere è diverso, per tutti.
Io anni fa avevo cambiato tutta una piattaforma MB-CPU-RAM con annessi componenti liquido per guadagnare una decina di fps su uno SLI e migliaia di punti nei benchmark, perchè? Perchè benchavo ed ero invasato :asd:
Ora ho smesso da anni, e pur sapendo che in ambito gaming cambiando MB-CPU-RAM salirei di qualche manciata di frame, lo faccio? No, perchè anche se gioco non è avere quei frame in più il mio obiettivo maximo o interesse specifico.
Una cosa che è cambiata anni fa tra gli appassionati (ma più che altro lo noto tra l'utenza qui) è che il concetto di minima spesa massima resa è stato soppiantato del tutto. Le reference venivano meno bistrattate, mentre oggi non si capisce più quale sia il loro ruolo e se comprare un core GPU che ha determinate prestazioni di base non sia mai la scelta giusta se in giro ci sono custom, che costando di più, vanno più forte.
Sarò oldstyle io, ma alla fine la bilancia è sempre su quanto spendi rispetto a quanto rendi, altrimenti tutto costerebbe uguale e si sceglierebbe sempre il componente che va più forte senza dubbio alcuno!
vedi sopra :O
Allora, se liquidi è per aver meno rumore 1, o per tirare al limite la tua scheda...e portare al limite una panda non ha tanto senso.
Eddie666
22-04-2022, 09:15
my two cents (da possessore di una palit rtx 3080 10gb); non penso che la si possa ritenere la scheda migliore in assoluto, anche perchè tale valutazione è soggettiva (ad esempio per me che adoro il silenzio è una grossa limitazione non avere la funzione 0 RPM, mentre probabilmente ci sono persone a cui questa mancanza non crea alcun problema), ma di base si può dife che sia costruita bene, da una buona impressione di solidità e che, out of the box, performa come deve perfomare una rtx 3080.
Se poi invece vogliamo spostare il discorso su overlock, power limit e quant'altro ci sono schede che sicuramente offrono di più in tal senso, e che ovviamente per questo costano di più.
Circa i vari bench poi non dimentichiamoci che in quei test la cpu conta non poco in termini di punteggio finale: ad esempio cercando tra i risultati su timespy impostando la mia stessa cpu e scheda (11700 non K e rtx 3080) viene fuori che la media sia sui 15900-16000, e che quindi con i miei 15900 sono perfettamente in linea:
https://www.3dmark.com/search#advanced?test=spy%20P&cpuId=2836&gpuId=1396&gpuCount=0&gpuType=ALL&deviceType=ALL&storageModel=ALL&memoryChannels=0&country=&scoreType=overallScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=&maxCpuClock=
detto questo per le mie esigenze (a parte il discorso della mancanza del 0 rpm) sono assolutamente soddisfatto di come performa la mia scheda, downvoltata a 0,78v, frequenza massima 1800mhz (fissi, anche dopo 1h di game continuativo con gpu al 99%) e temperature di max 73° con ventola al 50%
Silver_77
22-04-2022, 09:28
my two cents (da possessore di una palit rtx 3080 10gb); non penso che la si possa ritenere la scheda migliore in assoluto, anche perchè tale valutazione è soggettiva (ad esempio per me che adoro il silenzio è una grossa limitazione non avere la funzione 0 RPM, mentre probabilmente ci sono persone a cui questa mancanza non crea alcun problema), ma di base si può dife che sia costruita bene, da una buona impressione di solidità e che, out of the box, performa come deve perfomare una rtx 3080.
Se poi invece vogliamo spostare il discorso su overlock, power limit e quant'altro ci sono schede che sicuramente offrono di più in tal senso, e che ovviamente per questo costano di più.
Circa i vari bench poi non dimentichiamoci che in quei test la cpu conta non poco in termini di punteggio finale: ad esempio cercando tra i risultati su timespy impostando la mia stessa cpu e scheda (11700 non K e rtx 3080) viene fuori che la media sia sui 15900-16000, e che quindi con i miei 15900 sono perfettamente in linea:
https://www.3dmark.com/search#advanced?test=spy%20P&cpuId=2836&gpuId=1396&gpuCount=0&gpuType=ALL&deviceType=ALL&storageModel=ALL&memoryChannels=0&country=&scoreType=overallScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=&maxCpuClock=
detto questo per le mie esigenze (a parte il discorso della mancanza del 0 rpm) sono assolutamente soddisfatto di come performa la mia scheda, downvoltata a 0,78v, frequenza massima 1800mhz (fissi, anche dopo 1h di game continuativo con gpu al 99%) e temperature di max 73° con ventola al 50%
Nel Time spy il risultato graphic score la cpu conta zero.
Goofy Goober
22-04-2022, 09:46
Allora, se liquidi è per aver meno rumore 1, o per tirare al limite la tua scheda...e portare al limite una panda non ha tanto senso.
Renditi conto che hai appena paragonato una 3080 qualunque a una panda :asd:
Pensa a chi liquida le 3070 allora :asd:
Aggiunto la terza opzione anche, ho messo a liquido perchè ho il pc a liquido e non lascio la VGA ad aria dentro un pc a liquido :)
La cosa più assurda per me sembra che l'esistenza delle sottofascie degli stessi core GPU equivale a dire che solo i PCB custom sono meritevoli di esser comprati per un qualunque scopo.
Se non esistessero le custom non saremo qui a discutere del niente :D
Ma come vedi si tralascia sempre l'aspetto economico, siamo nel reame del "spendi sempre di più per avere di più".
Silver_77
22-04-2022, 09:50
Renditi conto che hai appena paragonato una 3080 qualunque a una panda :asd:
Pensa a chi liquida le 3070 allora :asd:
Aggiunto la terza opzione anche, ho messo a liquido perchè ho il pc a liquido e non lascio la VGA ad aria dentro un pc a liquido :)
La cosa più assurda per me sembra che l'esistenza delle sottofascie degli stessi core GPU equivale a dire che solo i PCB custom sono meritevoli di esser comprati per un qualunque scopo.
Se non esistessero le custom non saremo qui a discutere del niente :D
Ma come vedi si tralascia sempre l'aspetto economico, siamo nel reame del "spendi sempre di più per avere di più".
Sai questa è una passione , non ha un senso logico , ma questi ci hanno sempre preso per i fondelli dandoci le cose con il conta gogge e noi li a spendere a arricchire i loro portafoglii.
Goofy Goober
22-04-2022, 09:57
Sai questa è una passione , non ha un senso logico , ma questi ci hanno sempre preso per i fondelli dandoci le cose con il conta gogge e noi li a spendere a arricchire i loro portafoglii.
Ma ci manca che abbia un senso logico, per me ormai è da anni un gran passatempo a cui sono appassionato e dove l'appagamento è un concetto totalmente soggettivo ed individuale.
La logica la uso giusto per capire che console comprare quando c'è qualche gioco in esclusiva non disponibile altrove :asd:
Eddie666
22-04-2022, 10:22
Nel Time spy il risultato graphic score la cpu conta zero.
Ni; in realtà impatta sempre (anche se in modo più marginale con le cpu più moderne); questo è una comparazione tra il mio vecchio sistema (che montava un I7) con installata la 3080 e il nuovo con l'11700
https://www.3dmark.com/compare/spy/26066466/spy/23316149
Cutter90
22-04-2022, 10:27
Ni; in realtà impatta sempre (anche se in modo più marginale con le cpu più moderne); questo è una comparazione tra il mio vecchio sistema (che montava un I7) con installata la 3080 e il nuovo con l'11700
https://www.3dmark.com/compare/spy/26066466/spy/23316149
Se impatta lo fa in modo molto molto marginale. Quando sono passato dal 6700k a quello attuale il GS è aumentato di 100 punti. E tra il 6700k e quello attuale c'è un salto quantico. Ed è pure probabile che quei 100 punti siano causati da altro...
Gigibian
22-04-2022, 10:27
Che ve ne pare della scheda in firma?
https://i.ibb.co/34p5pKc/3080-TI-TEST-OC-130-920.png (https://ibb.co/34p5pKc)
Eddie666
22-04-2022, 10:43
Se impatta lo fa in modo molto molto marginale. Quando sono passato dal 6700k a quello attuale il GS è aumentato di 100 punti. E tra il 6700k e quello attuale c'è un salto quantico. Ed è pure probabile che quei 100 punti siano causati da altro...
se guardi il link che ho messo nel mio caso ci ballavano quasi 2000 punti da una cpu all'altra
Cutter90
22-04-2022, 11:01
se guardi il link che ho messo nel mio caso ci ballavano quasi 2000 punti da una cpu all'altra
Non vedo comparazione nel tuo link, ma solo 1 time spy con l'11000 k
No, 2000 punti è impossibile cmq nel Graphic score
Eddie666
22-04-2022, 11:12
Non vedo comparazione nel tuo link, ma solo 1 time spy con l'11000 k
No, 2000 punti è impossibile cmq nel Graphic score
https://i.ibb.co/tXxXzPx/3dmark.jpg (https://ibb.co/tXxXzPx)
Cutter90
22-04-2022, 11:23
https://i.ibb.co/tXxXzPx/3dmark.jpg (https://ibb.co/tXxXzPx)
Ma che cpu avevi? Forse vale con quelli molto vecchi allora
Silver_77
22-04-2022, 11:26
se guardi il link che ho messo nel mio caso ci ballavano quasi 2000 punti da una cpu all'altra
Non sono esporto, ma tu forse meno :D non vedo nulla di quello che parli. E cmq ribadisco che il grafic score la cpu conta un cazzo.
Eddie666
22-04-2022, 11:32
Ma che cpu avevi? Forse vale con quelli molto vecchi allora
era un i7 su socket 1150; sicuramente tra cpu moderne la differenza sarebbe molto meno marcata
Non sono esporto, ma tu forse meno :D non vedo nulla di quello che parli. E cmq ribadisco che il grafic score la cpu conta un cazzo.
mai detto di essere un esperto infatti: semplicemente bazzico nel modno dell'informatica da diverso tempo e quando parlo lo faccio sulla base di cose testate e provate di persona: detto questo, a cosa imputeresti quindi la differenza di 2000 punti nel GS che si vede nella mia immagine linkata sopra?
Silver_77
22-04-2022, 11:42
era un i7 su socket 1150; sicuramente tra cpu moderne la differenza sarebbe molto meno marcata
mai detto di essere un esperto infatti: semplicemente bazzico nel modno dell'informatica da diverso tempo e quando parlo lo faccio sulla base di cose testate e provate di persona: detto questo, a cosa imputeresti quindi la differenza di 2000 punti nel GS che si vede nella mia immagine linkata sopra?
Formatta
Silver_77
22-04-2022, 11:48
era un i7 su socket 1150; sicuramente tra cpu moderne la differenza sarebbe molto meno marcata
mai detto di essere un esperto infatti: semplicemente bazzico nel modno dell'informatica da diverso tempo e quando parlo lo faccio sulla base di cose testate e provate di persona: detto questo, a cosa imputeresti quindi la differenza di 2000 punti nel GS che si vede nella mia immagine linkata sopra?
Poi io non vedo che CPU hai in quel bench da 10k, perchè la cpu conta una sega magari entro certi limiti, perche se lo paragoni ad un i7 di 5 generazioni prima si evidenziano altri colli di bottiglia tipo bus pci-e ecc.ecc.
la cpu deve essere vecchia ma non antica.
Silver_77
22-04-2022, 12:07
Io ti voglio bene,ma tu per prima cosa devi fare pace col tuo cervello perché l' 'altro giorno sostenevi questo :
"Fai un Time spy o un portal Royale. Lì si vedono le performance, non di certo con superposition"
Ora faccio un timespy e non va bene,domani faccio lo screen con dati di un gioco ed esce fuori che non va bene,non che debba dimostrarti qualcosa,ad ogni modo la manli ha PCB REFERENCE,io devo liquidarla,che mi frega di prendere una top visto che anche a liquido starà a default,cosa c'è di difficile da capire?
Metterei su il Bios FE e sei ok.
Combina tutto, porte Hdmi e D.port. clock mem.. avresti un bel boost.
https://www.techpowerup.com/vgabios/232685/nvidia-rtx3080-10240-210305
Goofy Goober
22-04-2022, 12:14
Ma che cpu avevi? Forse vale con quelli molto vecchi allora
Beh prima faceva 3500 di cpu ora 11000, ci manca che non ci fossero benifici per la gpu con una guadagnao così enorme delle capacità de processore. :asd:
Metterei su il Bios FE e sei ok.
Combina tutto, porte Hdmi e D.port. clock mem.. avresti un bel boost.
https://www.techpowerup.com/vgabios/232685/nvidia-rtx3080-10240-210305
Ma senza shunt mod non dovrebbe comunque intervenire il PL hardware appena si toccano i 320?
Eddie666
22-04-2022, 12:20
Formatta
seriamente? stai imputando 2000 punti di differenza ad un s.o. "sporco"?
Poi io non vedo che CPU hai in quel bench da 10k, perchè la cpu conta una sega magari entro certi limiti, perche se lo paragoni ad un i7 di 5 generazioni prima si evidenziano altri colli di bottiglia tipo bus pci-e ecc.ecc.
la cpu deve essere vecchia ma non antica.
il pci-e 3.0 (che è quello che avevo prima sulla vecchia piattaforma) è tranquillamente in grado di gestire una rtx 3080/3090; il vecchio i7 aveva una frequenza molto più bassa di quello attuale (3300mhz in full load contro 4400mhz dell'attuale, senza considerare i boost a 4700/4800 in game), per cui è normale che non riuscisse a spingere la vga al 100% nel time spy, che ha una risoluzione 2k (risoluzione nella quale la differenza di cpu impatta ancora; non come a 1080p certo, ma sicuramente di più che ad es: in 4k)
Silver_77
22-04-2022, 12:27
Beh prima faceva 3500 di cpu ora 11000, ci manca che non ci fossero benifici per la gpu con una guadagnao così enorme delle capacità de processore. :asd:
Ma senza shunt mod non dovrebbe comunque intervenire il PL hardware appena si toccano i 320?
Via software ...
seriamente? stai imputando 2000 punti di differenza ad un s.o. "sporco"?
Tutto può essere..
il pci-e 3.0 (che è quello che avevo prima sulla vecchia piattaforma) è tranquillamente in grado di gestire una rtx 3080/3090; il vecchio i7 aveva una frequenza molto più bassa di quello attuale (3300mhz in full load contro 4400mhz dell'attuale, senza considerare i boost a 4700/4800 in game), per cui è normale che non riuscisse a spingere la vga al 100% nel time spy, che ha una risoluzione 2k (risoluzione nella quale la differenza di cpu impatta ancora; non come a 1080p certo, ma sicuramente di più che ad es: in 4k)
Ma che gen è quella cpu?
Goofy Goober
22-04-2022, 12:29
Via software ...
Avevo inteso che se il board design prevede 320, anche se flashi un bios diverso c'è sempre il cap a 320 finchè non fa la shunt mod hardware (o con metallo liquido).
Se così non fosse e si sbloccasse tutto solo grazie al bios, posso provare pure io a flashare il bios di una scheda con power PL maggiorato come questa: https://www.techpowerup.com/vgabios/241952/zotac-rtx3080-12288-211118 ?
PCB reference anche per la zotac, cambia solo che è la long version.
frafelix
22-04-2022, 13:01
A quanto pare dipende dalle schede, anche la mia Trinity non va più del pl base anche con aggiornamento bios... Bisogna provare
Goofy Goober
22-04-2022, 13:06
Più che altro non trovo nessuno che ha flashato niente su queste, quindi senza responsi flashare bios di brand diversi così ad occhi chiusi non me la sento :D
Era tanto bello quando si poteva editare a manina i bios della propria scheda e cambiare i parametri riflashando lo stesso bios, ora non lo fanno più fare :cry:
amon.akira
22-04-2022, 13:17
Più che altro non trovo nessuno che ha flashato niente su queste, quindi senza responsi flashare bios di brand diversi così ad occhi chiusi non me la sento :D
Era tanto bello quando si poteva editare a manina i bios della propria scheda e cambiare i parametri riflashando lo stesso bios, ora non lo fanno più fare :cry:
io sulla mia ex 3080tuf li ho flashati praticamente tutti quelli degli altri brand 2x8pin ma i limiti erano sempre 355w su 375, poichè molto dipende dal pcie che spesso è 50-60w su 75.
eh si con maxwell era uno spasso :P
Goofy Goober
22-04-2022, 13:20
io sulla mia ex 3080tuf li ho flashati praticamente tutti quelli degli altri brand 2x8pin ma i limiti erano sempre 355w su 375, poichè molto dipende dal pcie che spesso è 50-60w su 75.
eh si con maxwell era uno spasso :P
E funzionavo tutti al primo colpo?
Nel mio caso potrei passare da 320 a 350, dato che la Manli è quella con limit più basso di tutte proprio da bios mi pare di aver capito facendo qualche ricerca.
A parte che ormai la tengo sempre downvoltata quindi avrebbe poco senso:fagiano:
Eddie666
22-04-2022, 13:41
Ma che gen è quella cpu?
quarta generazione (Haswell)
E funzionavo tutti al primo colpo?
Nel mio caso potrei passare da 320 a 350, dato che la Manli è quella con limit più basso di tutte proprio da bios mi pare di aver capito facendo qualche ricerca.
A parte che ormai la tengo sempre downvoltata quindi avrebbe poco senso:fagiano:
io sarei tentato di farlo solo per la gestione delle ventole, dato che le FE hanno appunto la funzione 0 rpm in idle: tuttavia il fatto di flashare un bios "non suo" non mi entusiasma...l'ho fatto in passato e meno male che avevo a portata di mano una seconda vga per flashare nuovamente il bios corretto.
frafelix
22-04-2022, 13:47
Bah io l'ho fatto sia sulla prima titan, che sulla 1080ti che sulla mia di ora e mai un problema...
amon.akira
22-04-2022, 13:47
E funzionavo tutti al primo colpo?
Nel mio caso potrei passare da 320 a 350, dato che la Manli è quella con limit più basso di tutte proprio da bios mi pare di aver capito facendo qualche ricerca.
A parte che ormai la tengo sempre downvoltata quindi avrebbe poco senso:fagiano:
si scegli però un bios di una scheda che ha le tue stesse porte, esempio 3dp e 1hdmi, altrimenti può capitare che una poi non te la vede se li c'è per esempio una seconda hdmi anziche una dp.
altra differenza potresti riscontrarla con le ventole, ma con afterburner puoi settarle manualmente.
ps
io avevo il dual bios sulla 3080tuf quindi anche se andava qualcosa storto nel flash su uno poi avevo sempre il selettore ;)
Goofy Goober
22-04-2022, 15:05
Bah io l'ho fatto sia sulla prima titan, che sulla 1080ti che sulla mia di ora e mai un problema...
Si in passato pure io mi davo ai flash senza pudore, le titan era però più sicuro flasharle perchè non esistevano design custom, quindi la marca del bios contava nulla, ma soprattutto alla fine era stracolmo di bios disponibili editate direttamente dagli utenti con vari valori da provare...
si scegli però un bios di una scheda che ha le tue stesse porte, esempio 3dp e 1hdmi, altrimenti può capitare che una poi non te la vede se li c'è per esempio una seconda hdmi anziche una dp.
altra differenza potresti riscontrarla con le ventole, ma con afterburner puoi settarle manualmente.
ps
io avevo il dual bios sulla 3080tuf quindi anche se andava qualcosa storto nel flash su uno poi avevo sempre il selettore ;)
Ottimo grazie per le precisazioni. Non avevo pensato al discorso uscite video.
Delle ventole non mi interessa avendo la scheda a liquido, e non è nemmeno di quelle che ha led da controllare, quindi non si rischia di perdere altre funzioni.
Silver_77
22-04-2022, 16:04
quarta generazione (Haswell)
ahahahahah e ci credo, da museo. dai su come puoi comparare un gen 4 con gen 12
:doh:
Eddie666
22-04-2022, 16:16
ahahahahah e ci credo, da museo. dai su come puoi comparare un gen 4 con gen 12
:doh:
mai comparati infatti; solo che avevi scritto che la CPU non conta niente nel graphic score, ed io ti ho risposto NI, in quanto sulle cpu più moderne la differenza a favore di quella più prestazionale è minima, ma se si confrontano CPU di generazioni differenti la cosa cambia un po'.
inoltre il fatto che fosse una CPU vecchia, non voleva dire che in game andasse male; giocando in 4k la scheda video veniva sfruttata cmq al massimo (certo con l'11700 la situazione è migliorata, ma non è stata stravolta).
Silver_77
22-04-2022, 22:50
mai comparati infatti; solo che avevi scritto che la CPU non conta niente nel graphic score, ed io ti ho risposto NI, in quanto sulle cpu più moderne la differenza a favore di quella più prestazionale è minima, ma se si confrontano CPU di generazioni differenti la cosa cambia un po'.
inoltre il fatto che fosse una CPU vecchia, non voleva dire che in game andasse male; giocando in 4k la scheda video veniva sfruttata cmq al massimo (certo con l'11700 la situazione è migliorata, ma non è stata stravolta).
Affermavo quello perché mai e poi mai avrei pensato ad un Gen4 . Come fa a stare dietro ad una scheda video di 8 anni più nuova e top di gamma.
Cmq dal 9700 al 12700 se fai un timespy il punteggio grafico non varia.
terranux
22-04-2022, 23:14
Più che altro non trovo nessuno che ha flashato niente su queste, quindi senza responsi flashare bios di brand diversi così ad occhi chiusi non me la sento :D
Era tanto bello quando si poteva editare a manina i bios della propria scheda e cambiare i parametri riflashando lo stesso bios, ora non lo fanno più fare :cry:
ma la tua scheda bosta 2100 o poco meno? sennò quanto? se ti ci arriva non cercare nessun bios.lasciala stare
amon.akira
22-04-2022, 23:30
ma la tua scheda bosta 2100 o poco meno? sennò quanto? se ti ci arriva non cercare nessun bios.lasciala stare
a 2100 una 3080 penso che ci arriva con 450w senza cut :P
Goofy Goober
23-04-2022, 07:42
ma la tua scheda bosta 2100 o poco meno? sennò quanto? se ti ci arriva non cercare nessun bios.lasciala stare
2040 è si il max boost che ho visto, ma non ci sta tanto perchè quando il carico arriva al 99% poi interviene il PL e scende a 1950.
Era più che altro accademia la mia, non sono alla ricerca delle massime prestazioni (anzi ora la sto tenendo downvoltata), era tanto per smanettare e sperimentare :D
a 2100 una 3080 penso che ci arriva con 450w senza cut :P
Mi sono stupito anche io, forse c'entra il fatto che è la versione 12gb e usa un core diverso.
Legolas84
23-04-2022, 11:34
Ragazzi sono tanti anni che sono fuori dal giro, ma oggi finalmente ho un pò di tempo per provare un pò di overclock sulla mia 3080.
È una 3080 FE con sopra un Full Cover e custom Loop. L'overclock che cerco è di tipo daily da usare durante il gaming.
Due info:
1) ad oggi qual'è il bench migliore per valutare la stabilità dell'overclock sulle RTX?
2) da quali valori di overclock medio tengono di solito le 3080 FE sotto full cover?
Grazie!
Silver_77
23-04-2022, 13:23
Ragazzi sono tanti anni che sono fuori dal giro, ma oggi finalmente ho un pò di tempo per provare un pò di overclock sulla mia 3080.
È una 3080 FE con sopra un Full Cover e custom Loop. L'overclock che cerco è di tipo daily da usare durante il gaming.
Due info:
1) ad oggi qual'è il bench migliore per valutare la stabilità dell'overclock sulle RTX?
2) da quali valori di overclock medio tengono di solito le 3080 FE sotto full cover?
Grazie!
Qui serve undrvolt costante , overclock non paga , ho creato un profilo 0.876 1950mhz fissi e uno 0.95 2050hz fissi .
Come stress usa un gioco tipo Cyber2077 che spreme con RT su ultra. Se passa li passa ovunque.
(THE REAL) Neo
23-04-2022, 16:46
Ragazzi sono tanti anni che sono fuori dal giro, ma oggi finalmente ho un pò di tempo per provare un pò di overclock sulla mia 3080.
È una 3080 FE con sopra un Full Cover e custom Loop. L'overclock che cerco è di tipo daily da usare durante il gaming.
Due info:
1) ad oggi qual'è il bench migliore per valutare la stabilità dell'overclock sulle RTX?
2) da quali valori di overclock medio tengono di solito le 3080 FE sotto full cover?
Grazie!Da un bel pó,le GPU si overclockano da sole,o meglio,il sistema di boost automatico, gestisce le frequenze alzandole fino a raggiungere i limiti di quella particolare GPU,senza dover fare nulla.
Ti consiglio, piuttosto,una bella curva frequenze/voltaggi,custom,fatta da afterburner,con un pó di undervolt.
Ne guadagni sia in prestazioni,che in consumo.
Goofy Goober
23-04-2022, 16:57
Correggo quanto scritto prima, ho controllato GPU Z e dice che il PL è a 350... Strano, perchè in effetti sotto carico mai visto superare i 330.
Ora la sto tenendo a 2000 con 0.950v, vediamo se regge.
razor820
23-04-2022, 18:45
Oggi mi è capitata una cosa strana. Me ne sono subito accorto che appena ho avviato Dy2 mi andava lentissimo, sui 30fps e attivando il msi ab ho notato che il clock era fermo a 500mhz....
Provato con altri benchmark e gpuz mi dava sempre max 500mhz...
Ho spento il pc e riavviato e non si è ripresentato il problema...
Stranamente mi ero accorto alla prima accensione, che non avevo udito quel rumore in stile click vicino all alimentazione della gpu. Infatti poi al secondo riavvio l ho udito.
Possibile che si stia guastando qualcosa a livello di alimentazione?
Silver_77
23-04-2022, 20:47
Oggi mi è capitata una cosa strana. Me ne sono subito accorto che appena ho avviato Dy2 mi andava lentissimo, sui 30fps e attivando il msi ab ho notato che il clock era fermo a 500mhz....
Provato con altri benchmark e gpuz mi dava sempre max 500mhz...
Ho spento il pc e riavviato e non si è ripresentato il problema...
Stranamente mi ero accorto alla prima accensione, che non avevo udito quel rumore in stile click vicino all alimentazione della gpu. Infatti poi al secondo riavvio l ho udito.
Possibile che si stia guastando qualcosa a livello di alimentazione?
A me sembra strano, la prima cosa è fare pulizia dei driver da zero. vedrai che funziona.
https://www.guru3d.com/files-details/display-driver-uninstaller-download.html
terranux
23-04-2022, 21:43
Oggi mi è capitata una cosa strana. Me ne sono subito accorto che appena ho avviato Dy2 mi andava lentissimo, sui 30fps e attivando il msi ab ho notato che il clock era fermo a 500mhz....
Provato con altri benchmark e gpuz mi dava sempre max 500mhz...
Ho spento il pc e riavviato e non si è ripresentato il problema...
Stranamente mi ero accorto alla prima accensione, che non avevo udito quel rumore in stile click vicino all alimentazione della gpu. Infatti poi al secondo riavvio l ho udito.
Possibile che si stia guastando qualcosa a livello di alimentazione?codesto click si presenta quando lanci un bench o un gioco oppure solo all'avvio del sistema?
razor820
23-04-2022, 21:56
A me sembra strano, la prima cosa è fare pulizia dei driver da zero. vedrai che funziona.
https://www.guru3d.com/files-details/display-driver-uninstaller-download.html
Per ora non lo sta facendo più in caso se si presenta di nuovo farò una pulizia con ddu
codesto click si presenta quando lanci un bench o un gioco oppure solo all'avvio del sistema?
Tutte le volte che accendo il pc
(THE REAL) Neo
23-04-2022, 22:23
Oggi mi è capitata una cosa strana. Me ne sono subito accorto che appena ho avviato Dy2 mi andava lentissimo, sui 30fps e attivando il msi ab ho notato che il clock era fermo a 500mhz....
Provato con altri benchmark e gpuz mi dava sempre max 500mhz...
Ho spento il pc e riavviato e non si è ripresentato il problema...
Stranamente mi ero accorto alla prima accensione, che non avevo udito quel rumore in stile click vicino all alimentazione della gpu. Infatti poi al secondo riavvio l ho udito.
Possibile che si stia guastando qualcosa a livello di alimentazione?Occhio che il click che senti,non sia l'OCP dell'alimentatore,che cerca di intervenire senza riuscirci.
Ragazzi sono tanti anni che sono fuori dal giro, ma oggi finalmente ho un pò di tempo per provare un pò di overclock sulla mia 3080.
È una 3080 FE con sopra un Full Cover e custom Loop. L'overclock che cerco è di tipo daily da usare durante il gaming.
Due info:
1) ad oggi qual'è il bench migliore per valutare la stabilità dell'overclock sulle RTX?
2) da quali valori di overclock medio tengono di solito le 3080 FE sotto full cover?
Grazie!
Comincia con un 0.95 a 2040 mhz e vedi come va. Ram +1000mhz tranquillamente di solito.
Concordo su Cyberpunk come buon test per la stabilità. Ad aria tengo 1995 per 0.925 prima di andare fuori di temperature e power limit.
terranux
23-04-2022, 23:08
Per ora non lo sta facendo più in caso se si presenta di nuovo farò una pulizia con ddu
Tutte le volte che accendo il pcun'altra domanda. è alimentata con cavi separati o no?
Thunder-74
23-04-2022, 23:42
Per ora non lo sta facendo più in caso se si presenta di nuovo farò una pulizia con ddu
Tutte le volte che accendo il pc
Io più che preoccuparmi del fatto che la scheda sia riamata con il profilo 0 del bios (idle), mi preoccuperei più del click che senti all avvio . Cerca di capire da dove proviene usando un foglio arrotolato stile cartoccio , per ascoltare un punto preciso. In modo da capire se proviene dall ali , vga o altro.
Il click me lo faceva un Corsair AXi 860 che morendo si portò dietro la mobo .
Inviato dal mio iPhone X utilizzando Tapatalk
Goofy Goober
24-04-2022, 08:07
questa fa ridere.
Ieri vedo che ho 3Dmark su steam (nemmeno me ne ricordavo) e lo installo.
faccio andare Timespy senza toccare niente e tutto a stock (volevo vedere punteggio prima e dopo l'undervolt), disattivo gsync come da consigli del benchmark, ed è uscito un punteggio assurdo.
CPU score 12500, Graphic score 12100! :stordita:
Evidentemente c'è qualcosa che non va, ma cosa può essere? :help:
razor820
24-04-2022, 08:17
un'altra domanda. è alimentata con cavi separati o no?
È una Fe. Quindi cavi ad Y che poi con due cavi separati va al alimentatore
Io più che preoccuparmi del fatto che la scheda sia riamata con il profilo 0 del bios (idle), mi preoccuperei più del click che senti all avvio . Cerca di capire da dove proviene usando un foglio arrotolato stile cartoccio , per ascoltare un punto preciso. In modo da capire se proviene dall ali , vga o altro.
Il click me lo faceva un Corsair AXi 860 che morendo si portò dietro la mobo .
Inviato dal mio iPhone X utilizzando Tapatalk
Quel click, clap L ha fatto sempre da anni. Almeno che ben ricordo. Come se ad ogni accensione del pc si innesca qualcosa. L unica volta che non L ha fatto infatti è successo che la scheda nonostante L uso della gpu era al 100% andava a 1/3
Dopo provo a capire da dove proviene quel rumore
Inviato dal mio iPhone utilizzando Tapatalk
fraussantin
24-04-2022, 08:27
È una Fe. Quindi cavi ad Y che poi con due cavi separati va al alimentatore
Quel click, clap L ha fatto sempre da anni. Almeno che ben ricordo. Come se ad ogni accensione del pc si innesca qualcosa. L unica volta che non L ha fatto infatti è successo che la scheda nonostante L uso della gpu era al 100% andava a 1/3
Dopo provo a capire da dove proviene quel rumore
Inviato dal mio iPhone utilizzando Tapatalk
la cosa piu probabile che potrebbe fare click è una ventola o la pompa . non penso ci sia altro di meccanico in un pc
Thunder-74
24-04-2022, 08:27
questa fa ridere.
Ieri vedo che ho 3Dmark su steam (nemmeno me ne ricordavo) e lo installo.
faccio andare Timespy senza toccare niente e tutto a stock (volevo vedere punteggio prima e dopo l'undervolt), disattivo gsync come da consigli del benchmark, ed è uscito un punteggio assurdo.
CPU score 12500, Graphic score 12100! :stordita:
Evidentemente c'è qualcosa che non va, ma cosa può essere? :help:
Hai monitorato freq e utilizzo gpu?
@razor fai le prove e facci sapere
Inviato dal mio iPhone X utilizzando Tapatalk
Goofy Goober
24-04-2022, 08:30
Hai monitorato freq e utilizzo gpu?
Inviato dal mio iPhone X utilizzando Tapatalk
Le frequenze tutto nella norma, le guardavo tramite afterburner e sono rimaste alte con le solite variazioni dovute al PL. Ma non sono mai precipitate.
l'utilizzo gpu però in un paio di momenti, era basso (sceso anche al 60%), non stava sempre al 97/99% che di solito vedo giocando a Cyberpunk, è arrivato mi pare nell'ultimo test a 97.
ma le freq anche in quei momenti stavano al max (2000+) ...
Più che altro non so che configurare dato che in 3Dmark è tutto bloccato, anche la risoluzione fissa a 1440p, il bench parte e stop senno chiede di pagare per modificare settaggi.
ci sono altri bench su cui guardare se i punteggi sono in linea e capire se è solo 3dmark ad esser "bacato"?
Thunder-74
24-04-2022, 08:55
Le frequenze tutto nella norma, le guardavo tramite afterburner e sono rimaste alte con le solite variazioni dovute al PL. Ma non sono mai precipitate.
l'utilizzo gpu però in un paio di momenti, era basso (sceso anche al 60%), non stava sempre al 97/99% che di solito vedo giocando a Cyberpunk, è arrivato mi pare nell'ultimo test a 97.
ma le freq anche in quei momenti stavano al max (2000+) ...
Più che altro non so che configurare dato che in 3Dmark è tutto bloccato, anche la risoluzione fissa a 1440p, il bench parte e stop senno chiede di pagare per modificare settaggi.
ci sono altri bench su cui guardare se i punteggi sono in linea e capire se è solo 3dmark ad esser "bacato"?
Puoi provare con superposition.
Inviato dal mio iPhone X utilizzando Tapatalk
terranux
24-04-2022, 10:14
È una Fe. Quindi cavi ad Y che poi con due cavi separati va al alimentatore
Quel click, clap L ha fatto sempre da anni. Almeno che ben ricordo. Come se ad ogni accensione del pc si innesca qualcosa. L unica volta che non L ha fatto infatti è successo che la scheda nonostante L uso della gpu era al 100% andava a 1/3
Dopo provo a capire da dove proviene quel rumore
Inviato dal mio iPhone utilizzando Tapatalke allora è il relè dell'alimentatore. lo fà anche il mio.
2040 è si il max boost che ho visto, ma non ci sta tanto perchè quando il carico arriva al 99% poi interviene il PL e scende a 1950.
Era più che altro accademia la mia, non sono alla ricerca delle massime prestazioni (anzi ora la sto tenendo downvoltata), era tanto per smanettare e sperimentare :D
Mi sono stupito anche io, forse c'entra il fatto che è la versione 12gb e usa un core diverso.
Ho fatto un po' di downvolt alla mia 3080 Manli,tiene i 2010 MHz con 0.912 v e temperature per superposition e timespy 60 core e 74 memorie,in game sta anche più bassa,fai sapere poi se trovi BIOS da mettergli anche se mi pare di ricordare che la tua è una 12gb
Renditi conto che hai appena paragonato una 3080 qualunque a una panda :asd:
Pensa a chi liquida le 3070 allora :asd:
Aggiunto la terza opzione anche, ho messo a liquido perchè ho il pc a liquido e non lascio la VGA ad aria dentro un pc a liquido :)
La cosa più assurda per me sembra che l'esistenza delle sottofascie degli stessi core GPU equivale a dire che solo i PCB custom sono meritevoli di esser comprati per un qualunque scopo.
Se non esistessero le custom non saremo qui a discutere del niente :D
Ma come vedi si tralascia sempre l'aspetto economico, siamo nel reame del "spendi sempre di più per avere di più".
È esattamente per la tua terza opzione che liquido la mia 3080,in generale quoto il tuo messaggio su tutto.
Ho smanettato un po' con il downvolt,tiene facile i 1995/2010 mhz con +1000 sulle ram con 0.918v ,ora credo che i risultati siano piu' "in linea"
http://i.imgur.com/UMHha3Xh.png (https://imgur.com/UMHha3X)
http://i.imgur.com/dSaKQPgh.png (https://imgur.com/dSaKQPg)
razor820
24-04-2022, 17:16
e allora è il relè dell'alimentatore. lo fà anche il mio.
quindi è una cosa normale?
Cmq appena verificato.
Il click viene dall alimentatore ogni qualvolta che si accende il pc.
L ha sempre fatto, ma visto che mi era capitato quell imprevisto ho cominciato a pensare di tutto
(THE REAL) Neo
24-04-2022, 18:39
In realtà non è proprio così. ho avuto una evga ftw3 ultra 3090 amazon resa, una manli 3090 rivenduta, una 3080 msi gaming x trio rivenduta e la mia attuale scheda una msi 3090 suprim x. la 3080 non mi ha soddisfatto, al tempo la pagai 1100 euro e la rivendetti subito al prezzo di acquisto e presi la manli 3090 su ebay a 1640 euro, ma non avevo possibilità di metterla a liquido e le ventole erano rumorose (dei commenti sulla manili concordo sull'estetica scarna e sulle ventole rumorose, le tengo all'85% quando gioco, della mancanza di led non mi importa niente, tanto è vero che il mio sistema è dotato di led, ma li tengo tutti spenti), nel frattempo la evga ultra la presi su amazon 2000 euro e la resi (era novembre 2020) a gennaio 2021 dopo aver preso a 1865 euro la mia suprim x su ebay dalla germania. Delle tre 3090, quella col chip gpu migliore era proprio la manli. la evga era fresca, compatta, ma aveva un 5% di prestazioni in meno dopo curva e oc. sulla Manli misi un vbios, adesso non ricordo se fosse della palit o della pny, da 375w o 365w (non ricordo esattamente) e mi andava meglio della suprimx out of the box (quindi manli tunata vs suprimx out of the box). Per quanto riguarda le prestazioni pure, su suite benchmark 3dmark, andava un 4% meglio della suprim x ad aria. ora con pad termici gelid extreme, waterblock con retro attivo, 10 dissipatorini di rame nella parte lato uscite video e una ventola noctua industrial sulla parte dell'alimentazione scheda, radiatore ek da 480mm extreme, 8 ventole push-pull solo per la vga, ho ovviamente temperature e comfort acustico imparagonabili ma ho le prestazioni della manli con un consumo di circa 450w. la manli aveva due connettori, quindi oltre il vbios compatibile da 375/365w non aveva senso andare a testare.Alla faccia delle compravendite e resi.
Thunder-74
24-04-2022, 19:07
In realtà non è proprio così. ho avuto una evga ftw3 ultra 3090 amazon resa, una manli 3090 rivenduta, una 3080 msi gaming x trio rivenduta e la mia attuale scheda una msi 3090 suprim x. la 3080 non mi ha soddisfatto, al tempo la pagai 1100 euro e la rivendetti subito al prezzo di acquisto e presi la manli 3090 su ebay a 1640 euro, ma non avevo possibilità di metterla a liquido e le ventole erano rumorose (dei commenti sulla manili concordo sull'estetica scarna e sulle ventole rumorose, le tengo all'85% quando gioco, della mancanza di led non mi importa niente, tanto è vero che il mio sistema è dotato di led, ma li tengo tutti spenti), nel frattempo la evga ultra la presi su amazon 2000 euro e la resi (era novembre 2020) a gennaio 2021 dopo aver preso a 1865 euro la mia suprim x su ebay dalla germania. Delle tre 3090, quella col chip gpu migliore era proprio la manli. la evga era fresca, compatta, ma aveva un 5% di prestazioni in meno dopo curva e oc. sulla Manli misi un vbios, adesso non ricordo se fosse della palit o della pny, da 375w o 365w (non ricordo esattamente) e mi andava meglio della suprimx out of the box (quindi manli tunata vs suprimx out of the box). Per quanto riguarda le prestazioni pure, su suite benchmark 3dmark, andava un 4% meglio della suprim x ad aria. ora con pad termici gelid extreme, waterblock con retro attivo, 10 dissipatorini di rame nella parte lato uscite video e una ventola noctua industrial sulla parte dell'alimentazione scheda, radiatore ek da 480mm extreme, 8 ventole push-pull solo per la vga, ho ovviamente temperature e comfort acustico imparagonabili ma ho le prestazioni della manli con un consumo di circa 450w. la manli aveva due connettori, quindi oltre il vbios compatibile da 375/365w non aveva senso andare a testare.
Alla fine della fiera , come giochi con un modello giochi con un altro lato prestazioni. Cambia rumore principalmente e temp se uno ci sta in fissa.
Inviato dal mio iPad utilizzando Tapatalk
(THE REAL) Neo
24-04-2022, 23:30
Ahahaha ho 41 anni, assemblo da quando ne ho 17 e a memoria, non ho mai messo in piedi tutto questo teatrino prima della serie 3000. Considera anche che il tutto è durato da ottobre 2020 a gennaio 2021. Sulla manli ci ho anche perso 100 euro nel rivenderla, ma ci ho guadagnato un amico. L'acquirente era della provincia in cui vivo e siamo rimasti in contatto visto gli interessi comuni e la simpatia reciproca, quindi dei soldi, me ne frego. La 3090 suprim x, l'ho messa a minare quando non giocavo e alla fine di tutto, la scheda mi è venuta gratis, lasciandomi in tasca anche un paio di centoni e spicci. Spero sinceramente si torni alla normalità. Figurati che la 1080ti strix che avevo prima, la tenni saltando la serie 2000 perchè 1300 euro per una vga mi sembravano una follia. �� E guarda che giro ho dovuto fare per non biasimarmi davanti allo specchio.Piano piano,i prezzi stanno scendendo.
Peccato che l'Italia sia l'ultima ruota del carro,in questo frangente,e ci vorrà piú tempo, rispetto agli Stati Uniti e soprattutto all'Australia,dove sembra abbiano subito un crollo,e siano molto vicini all'msrp.
terranux
25-04-2022, 10:28
Piano piano,i prezzi stanno scendendo.
Peccato che l'Italia sia l'ultima ruota del carro,in questo frangente,e ci vorrà piú tempo, rispetto agli Stati Uniti e soprattutto all'Australia,dove sembra abbiano subito un crollo,e siano molto vicini all'msrp.
in australia mi sembrano carissime. dove hai trovato questa informazione
(THE REAL) Neo
25-04-2022, 11:02
in australia mi sembrano carissime. dove hai trovato questa informazioneQuesto video di Optimum Tech,lo spiega molto bene,con tanto di grafici.
La 3060,per esempio,viene venduta quasi a prezzo msrp.
https://youtu.be/9Ss7cMmr508
terranux
25-04-2022, 11:12
Questo video di Optimum Tech,lo spiega molto bene,con tanto di grafici.
La 3060,per esempio,viene venduta quasi a prezzo msrp.
https://youtu.be/9Ss7cMmr508
https://www.techbuy.com.au/search.asp?what=BeginSearch&srchQuery=rtx%203080&srchSortBy=1&cbSrchDesc=TitleOnly&Page=2 a me sembra che in italia siano le meno care . del mondo direi
Sono dollari australiani, se convertiti in
Da quanto vedo le 3080 10gb in Italia partono da 950€ circa
In UK da 924€
In AU A PARTIRE DA 864€
terranux
25-04-2022, 15:51
Sono dollari australiani, se convertiti in
Da quanto vedo le 3080 10gb in Italia partono da 950€ circa
In UK da 924€
In AU A PARTIRE DA 864€bada il super risparmio. cmq partono da meno da noi
bada il super risparmio. cmq partono da meno da noi
La mia l'ho pagata 912 euro.
(THE REAL) Neo
25-04-2022, 17:53
bada il super risparmio. cmq partono da meno da noiLinka che compro subito.
Store affidabile,please.
😁
davide155
25-04-2022, 21:50
Linka che compro subito.
Store affidabile,please.
😁Fino a settimana scorsa da drako si poteva prendere la 3080 kfa2 a poco più di 900 euro.
Adesso sono riaumentate a 999euro.
Secondo me chi vuole prendere una vga è bene farlo quanto prima trovando quella che più gli piace. A settembre sarà di nuovo un bagno di sangue. Se ancora non sono andate in produzione, e faranno come le ampere che andarono in produzione di massa a giugno, arriveremo a settembre con pochissime Lovelace pronte e super costose. Con bagarini che faranno letteralmente a cazzotti per prenderne il più possibile e rivenderle con 300-400 euro sopra.
Teniamo sempre di conto che lo shortage non è finito, e che la pandemia in estremo oriente la stanno combattendo a suon di lockdown di intere regioni, con scompensi su tutta la filiera di produzione e spedizione.
Thunder-74
26-04-2022, 14:54
Nuovi drivers 512.59
LINK (https://www.nvidia.com/it-it/drivers/results/187619/)
Game Ready for Dune: Spice Wars
This new Game Ready Driver provides the best day-0 gaming experience for Dune: Spice Wars. In addition, this new Game Ready Driver offers support for the latest releases and updates including Chernobylite’s introduction of ray tracing, the addition of NVIDIA DLSS to JX3 Online, and the early access launch of Vampire: The Masquerade - Bloodhunt.
Fixed Issues in this Release:
- Changing Digital Vibrance setting causes Event ID 14 error at startup [3544567]
- [RTX 3050] Driver may randomly timeout and recover while using Google Chrome [3567457]
- [MSI GT83VR 6RF/GT83VR 7RF/GT83 Titan 8RG] Internal notebook monitor displays black screen after driver update. External monitor works fine. [3508108]
Open Issues:
- Sonic & All-Stars Racing Transformed may crash on courses where players drive through water. [3338967]
- [NVIDIA Ampere GPU]: With the GPU connected to an HDMI 2.1 audio/video receiver, audio may drop out when playing back Dolby Atmos. [3345965]
- Club 3D CAC-1085 dongle limited to maximum resolution of 4K at 60Hz. [3542678]
- [RTX 3080/RTX 3090] Unreal Engine 5 may randomly crash with DXGI ERROR DEVICE_REMOVED error message [3614246]
Sniper88
26-04-2022, 17:16
In merito ai Nuovi Drivers postati da Thunder, visto che non facevo una installazione da molto tempo, ho riavviato in modalità provvisoria come sempre per poter avviare DDU e scopro questo blinking fastidiossimo che non mi permette di non fare nulla: funziona solamente CTRL+ALT+CANC, gestione attività e il riavvio. Se in gestione attività termino Explorer.exe, cessa questo lampeggiamento. In modalità provvisoria con rete, fortunatamente, non accade (così, fortunatamente, ho pulito i drivers video e ho riavviato il sistema). Cosa potrebbe essere? Grazie!
(THE REAL) Neo
26-04-2022, 18:07
In merito ai Nuovi Drivers postati da Thunder, visto che non facevo una installazione da molto tempo, ho riavviato in modalità provvisoria come sempre per poter avviare DDU e scopro questo blinking fastidiossimo che non mi permette di non fare nulla: funziona solamente CTRL+ALT+CANC, gestione attività e il riavvio. Se in gestione attività termino Explorer.exe, cessa questo lampeggiamento. In modalità provvisoria con rete, fortunatamente, non accade (così, fortunatamente, ho pulito i drivers video e ho riavviato il sistema). Cosa potrebbe essere? Grazie!Era capitato anche a me,con la release precedente,ma non lampeggiava, semplicemente al riavvio schermata nera,con solo il cursore del mouse e gestione attività tramite combo keys.
Ho dovuto fare nuovamente DDU da modalità provvisoria,ed é partito.
Sniper88
26-04-2022, 18:16
Era capitato anche a me,con la release precedente,ma non lampeggiava, semplicemente al riavvio schermata nera,con solo il cursore del mouse e gestione attività tramite combo keys.
Ho dovuto fare nuovamente DDU da modalità provvisoria,ed é partito.
La cosa bella è che "lampeggia" solamente in modalità provvisoria. Windows funziona normalmente, compresi i giochi, ovviamente. Nell'altro SSD che utilizzo per lavorare, ho riavviato in modalità provvisoria e non c'è nessun problema. Non vorrei che sia l'aggiornamento cumulativo di oggi (KB5012643) di Windows 11 a creare questo. Sto installando questo aggiornamento in questo SSD. Vediamo...
EDIT: Confermo. Prima di installare l'aggiornamento KB5012643, la modalità provvisoria funzionava senza problemi. Dopo l'installazione dell'aggiornamento cumulativo, anche l'SSD che uso per il lavoro presenta Blinking in modalità provvisoria. La modalità provvisoria con rete non presenta questo problema, fortunamente. Scusate questo piccolo OT, ma potrebbe risultare funzionale per qualcuno.
razor820
26-04-2022, 18:45
Vi aggiorno che oggi si è ripresentato lo stesso problema menzionato qualche giorno fa. Scheda video che al 100% non va oltre i 780mhz di clock...
Spento e riacceso il pc e il problema si risolve.
Non riesco a capire. Bah Son sicuro che a questo punto sia un problema di alimentazione.
fraussantin
26-04-2022, 19:04
Vi aggiorno che oggi si è ripresentato lo stesso problema menzionato qualche giorno fa. Scheda video che al 100% non va oltre i 780mhz di clock...
Spento e riacceso il pc e il problema si risolve.
Non riesco a capire. Bah Son sicuro che a questo punto sia un problema di alimentazione.Mi sembra strano. Una volta si spengevano se non arriva corrente a sufficienza.
Provato a vedere se fa casini il risparmio energetico di qualche app?
Disinstallando tutto con ddu , tutto anche le utility dei vari brand ( Asus ecc) e rimettendo solo il driver pulito?
Poi settando prestazioni massime su Windows?
razor820
26-04-2022, 19:50
Mi sembra strano. Una volta si spengevano se non arriva corrente a sufficienza.
Provato a vedere se fa casini il risparmio energetico di qualche app?
Disinstallando tutto con ddu , tutto anche le utility dei vari brand ( Asus ecc) e rimettendo solo il driver pulito?
Poi settando prestazioni massime su Windows?
Non ho nessun tipo di risparmio energetico.
Potrei provare con DDU se il problema di verifica per la terza volta.
Ma già si vede appena si avvia Windows che la frequenza max su msi ab è di 850
Belli com'è Chernobylite in RTX merita? Ce la fo in 4k con la 3090 tutto sparato a palla?
Spero che non sia stata già posta questa domanda,e se si chiedo venia :
Utilità di portare la 3080 da 10 gb a 12 gb di Vram?
Non mi dite che quesi 2gb di Vram in piu' non fanno stutterare...
Grazie :)
Spero che non sia stata già posta questa domanda,e se si chiedo venia :
Utilità di portare la 3080 da 10 gb a 12 gb di Vram?
Non mi dite che quesi 2gb di Vram in piuà non fanno stutterare...
Grazie :)
Risposta seria: Svuotare i magazzini der Giacchetta dai chip devastati di ampere a scapito del ragazzetto col soldo facile.
Risposta da forum: essendo la 3080 un chip molto valido ma comunque limitato in alcuni ambiti, sopratutto mod pesanti e pacchetti texture HD estremi dalla comunque poca memoria video, quei due GB in più aiutano ma non fanno di certo gridare al miracolo.
Poi vedi tu.
Risposta seria: Svuotare i magazzini der Giacchetta dai chip devastati di ampere a scapito del ragazzetto col soldo facile.
Risposta da forum: essendo la 3080 un chip molto valido ma comunque limitato in alcuni ambiti, sopratutto mod pesanti e pacchetti texture HD estremi dalla comunque poca memoria video, quei due GB in più aiutano ma non fanno di certo gridare al miracolo.
Poi vedi tu.
E' da un po' che non seguivo il forum,ecco il perche' della domanda.
Stamattina mi sono buttato sulla 3080 da 10 gb e avevo notato che spendere 300 euro in piu' per ottenere 3 fps in piu' in 4k,non ne valeva minimamente la pena.
P.S. Certo che Asus,cone le Strix,si fa strapagare :rolleyes:
mikael84
26-04-2022, 20:54
Spero che non sia stata già posta questa domanda,e se si chiedo venia :
Utilità di portare la 3080 da 10 gb a 12 gb di Vram?
Non mi dite che quesi 2gb di Vram in piu' non fanno stutterare...
Grazie :)
Questione di rese soprattutto.
La 3080, ha ben 2 partizioni di cache fallate, quindi hanno dovuto buttare giù 64 bit.
La 3080 12gb, ha tutto attivo a livello di cache-ram e un TPC in più in calcolo (anche qua come su).
Con chip di questo calibro succede, pensiamo alle tesla (ormai ex) che nascono tutte con cache fallata.:)
Questione di rese soprattutto.
La 3080, ha ben 2 partizioni di cache fallate, quindi hanno dovuto buttare giù 64 bit.
La 3080 12gb, ha tutto attivo a livello di cache-ram e un TPC in più in calcolo (anche qua come su).
Con chip di questo calibro succede, pensiamo alle tesla (ormai ex) che nascono tutte con cache fallata.:)
Giusto,ma commercialmente come si colloca?
Come una 3080 Ti, visto che le prestazioni sono pressocche' identiche?
E come prestazioni un +5-7% dalla 3080 10 gb?
Cioe',sono fumato io o Nvidia ha cannato anche questa versione da 12 gb?
Abbiamo capito che il primo chip della 3080 era mezzo fallato :D
mikael84
26-04-2022, 21:19
Giusto,ma commercialmente come si colloca?
Come una 3080 Ti, visto che le prestazioni sono pressocche' identiche?
E come prestazioni un +5-7% dalla 3080 10 gb?
Cioe',sono fumato io o Nvidia ha cannato anche questa versione da 12 gb?
Abbiamo capito che il primo chip della 3080 era mezzo fallato :D
3080 10 - 3080 12- 3080ti
Cambia il Msrp
la differenza, era già poca prima, ora ovviamente ancora meno.
Thunder-74
26-04-2022, 21:37
3080 10 - 3080 12- 3080ti
Cambia il Msrp
la differenza, era già poca prima, ora ovviamente ancora meno.
Aggiungerei che già era poca dalla 3080 alla 3090, tutto il resto vien da se.
Inviato dal mio iPhone X utilizzando Tapatalk
Aggiungerei che già era poca dalla 3080 alla 3090, tutto il resto vien da se.
Letto nel pensiero.
Ma lo sanno anche i sassi oramai...
(THE REAL) Neo
26-04-2022, 23:36
Vi aggiorno che oggi si è ripresentato lo stesso problema menzionato qualche giorno fa. Scheda video che al 100% non va oltre i 780mhz di clock...
Spento e riacceso il pc e il problema si risolve.
Non riesco a capire. Bah Son sicuro che a questo punto sia un problema di alimentazione.Credo ti resti fissa in modalità 2D, proprio per un problema di alimentazione.
Hai modo di provare un alimentatore diverso?La cosa bella è che "lampeggia" solamente in modalità provvisoria. Windows funziona normalmente, compresi i giochi, ovviamente. Nell'altro SSD che utilizzo per lavorare, ho riavviato in modalità provvisoria e non c'è nessun problema. Non vorrei che sia l'aggiornamento cumulativo di oggi (KB5012643) di Windows 11 a creare questo. Sto installando questo aggiornamento in questo SSD. Vediamo...
EDIT: Confermo. Prima di installare l'aggiornamento KB5012643, la modalità provvisoria funzionava senza problemi. Dopo l'installazione dell'aggiornamento cumulativo, anche l'SSD che uso per il lavoro presenta Blinking in modalità provvisoria. La modalità provvisoria con rete non presenta questo problema, fortunamente. Scusate questo piccolo OT, ma potrebbe risultare funzionale per qualcuno.Grazie,eviteró questo update di Windows 11.
mikael84
26-04-2022, 23:51
Aggiungerei che già era poca dalla 3080 alla 3090, tutto il resto vien da se.
Inviato dal mio iPhone X utilizzando Tapatalk
La 3090 però non va inquadrata solo al gaming, copre una fascia pro, chip per il quale è stato pensato il GA102.:)
Senza utilizzo pro, non avremmo visto neppure TU102.
Il chip della 3080 doveva essere GA103, in seguito dedicato ai note.
amon.akira
27-04-2022, 01:14
Spero che non sia stata già posta questa domanda,e se si chiedo venia :
Utilità di portare la 3080 da 10 gb a 12 gb di Vram?
Non mi dite che quesi 2gb di Vram in piu' non fanno stutterare...
Grazie :)
ho un amico che giocava solo a farcry6 (sponsorizzado amd) e con la 3080 e texture hd a 4k e in certi punti saturava ed andava a 4fps...poi ha preso la 3080ti pensando di risolvere...poi ha trovato la pace con la 3090 XD.
penso che sia l unico gioco veramente anti vram nvidia.
ho un amico che giocava solo a farcry6 (sponsorizzado amd) e con la 3080 e texture hd a 4k e in certi punti saturava ed andava a 4fps...poi ha preso la 3080ti pensando di risolvere...poi ha trovato la pace con la 3090 XD.
penso che sia l unico gioco veramente anti vram nvidia.
Vorrei che qualcun altro potesse provare quel gioco con una 3080 da 10 gb,rilevando o meno lo stuttering in quelle determinate scene.
A volte,tale fenomeno,puó dipendere da altro.
razor820
27-04-2022, 08:38
Per Chi gioca in 4K io eviterei di prendere una scheda con 10gb. Non so perché abbiano fatto questa follia di realizzare una scheda con questa quantità di memoria. La 2080ti ne ha 11, la 3060 12, che qui poi non capisco il senso..
Ti posso dire che in diversi giochi, pur usando il dls, sto sui 10-11gb in 4k
@therealneo no non ho provato con altro alimentatore. Anche perché il problema lo fa random, Su 12 avvi 2 volte.
Sui processi mi da gpu3d.
Ma anche usando in su Firefox la scheda andava a 1500 circa
Thunder-74
27-04-2022, 08:44
La 3090 però non va inquadrata solo al gaming, copre una fascia pro, chip per il quale è stato pensato il GA102.:)
Senza utilizzo pro, non avremmo visto neppure TU102.
Il chip della 3080 doveva essere GA103, in seguito dedicato ai note.
Assolutamente si Mike, si disquisiva sul 5/7% tra una liscia e una 12gb o Ti, quando già al lancio della 3080 e 3090 eravamo rimasti basiti sulla poca differenza di prestazioni in gaming tra le due.
Poi il fatto che la 3080 è stata prodotta su Chip GA102, sta nel fatto che hanno ritenuto più produttivo tirar fuori il chip della 3080 dagli scarti della 3090, che diversificare la produzione in un momento nel quale l'offerta non soddisfava la domanda. Se si diversificano le produzioni in uno stabilimento, la capacità produttiva si può ridurre per tempi di "switch", in oltre nuovo processo per Samsung con tutte le sue difficoltà, per le quali avevano in mano già un quadro reale delle rese produttive. Inoltre recuperare gli scarti è un aspetto fondamentale nell'economia di produzione. Con il tempo, a miglioramento della resa produttiva, avrebbero potuto, laserando, tirar fuori la 3080 12gb e la Ti, come di fatto è stato. :)
Ti posso dire che in diversi giochi, pur usando il dls, sto sui 10-11gb in 4k
Credi che negli stessi scenari dove arrivi quasi a saturare la Vram,una 3080 con "soli" 10 gb di Vram,andrebbe a stutterare ?
Dai... :)
Per Chi gioca in 4K io eviterei di prendere una scheda con 10gb. Non so perché abbiano fatto questa follia di realizzare una scheda con questa quantità di memoria. La 2080ti ne ha 11, la 3060 12, che qui poi non capisco il senso..
Ad ogni modo,mai visto un gioco stutterare con una 2080 in 4k.
Quest’argomento è stato ripreso più volte.
Ergo,10 gb sono più che sufficienti.
razor820
27-04-2022, 09:20
Credi che negli stessi scenari dove arrivi quasi a saturare la Vram,una 3080 con "soli" 10 gb di Vram,andrebbe a stutterare ?
Dai... :)
Ad ogni modo,mai visto un gioco stutterare con una 2080 in 4k.
Questargomento è stato ripreso più volte.
Ergo,10 gb sono più che sufficienti.
Io con la 2080 su alcuni giochi in 1440p stavo pelo pelo. Dire che 10gb sono più che sufficienti per giocare in 4K mi sembra azzardato.
Poi vabbè ci sono giochi e giochi. Alcuni arrivano a 6gb altri superano i 10gb. Sicuramente piu si va avanti più le textures si fanno più ingombranti.
Quando ho preso la mia 3080ti L intenzione era di restare sempre in 1440p rtx attivo e risoluzione nativa. Da qualche mese son passato al 4K e già mi sta stretta..
frafelix
27-04-2022, 09:25
@therealneo no non ho provato con altro alimentatore. Anche perché il problema lo fa random, Su 12 avvi 2 volte.
Sui processi mi da gpu3d.
Ma anche usando in su Firefox la scheda andava a 1500 circa
Prova un altro ali... Con la piattaforma di prima di punto in bianco la scheda madre si era messa a non fare andare l'intel management interface e la scheda di rete, ho pensato subito alla scheda madre, ma visto che con un'altra avevo lo stesso problema e subito dopo il pc ha smesso di partire segnalando la mancanza della scheda video, ho sostituito l'alimentatore e tutti i problemi spariti
Io con la 2080 su alcuni giochi in 1440p stavo pelo pelo. Dire che 10gb sono più che sufficienti per giocare in 4K mi sembra azzardato.
Poi vabbè ci sono giochi e giochi. Alcuni arrivano a 6gb altri superano i 10gb. Sicuramente piu si va avanti più le textures si fanno più ingombranti.
Quando ho preso la mia 3080ti L intenzione era di restare sempre in 1440p rtx attivo e risoluzione nativa. Da qualche mese son passato al 4K e già mi sta stretta..
Personalmente,sempre giocato in 4k e,da un anno a questa parte,in 3440x1440.
L.unico problema che avevo con la 2080 in 4k erano SOLO gli fps,niente stuttering.
Il quantitativo onboard della Vram e' commisurato alla potenza della scheda video.
Se vedi che in un certo scenario tu arrivi quasi a saturarla,non significa che ne necessita di piu'.
Eddie666
27-04-2022, 09:44
anche io da quando ho la 3080 (10gb) ho sempre giocato in 4k e non ho mai avuto problemi di esaurimento della vram anche con i titoli più pesanti; vedremo poi se in futuro usciranno titoli che ne richiederanno un quantitativo maggiore, anche se credo che la maggior parte saranno sempre tarati su 8gb, che è il taglio più diffuso
davide155
27-04-2022, 10:48
Consiglio il video di jayz two cents dove spiega bene come funziona la memoria video, la cache ed i vari buffer.
E scoprirete che il quantitativo di vram non è un dato principale da tenere in considerazione per lo stuttering e risoluzioni alte. Contano anche tanti altri fattori.
E qui Mikael può venirci in aiuto snocciolando i suoi preziosissimi molteplici dati tecnici :)
E qui Mikael può venirci in aiuto snocciolando i suoi preziosissimi molteplici dati tecnici :)
Mikael e' intervenuto piu' volte sull'argomento.
Basti dire,come scritto poco sopra,che avvicinarsi al limite di Vram,non significa che la scheda sia a corto e che ne necessiti di piu'
Thunder-74
27-04-2022, 11:23
Anche perché un conto è usare e un conto è allocare . Vi sono motori grafici che tendono a saturare la memoria video indipendentemente dalla reale necessità. Come caricare una mappa intera quando per muoversi nell ambiente senza stuttering ne basta la metà. Poi entra in gioco il discorso di cache e compressione dati. Ho fatto varie prove provando con COD che a video sembra un mangia vram. L ho usato mentre sotto facevo girare altri due benchmark , l ho usato con DSR sinto ben oltre il 4K e sinceramente non ho visto stuttering. Non ho farcry 6 , dove si dice che con le texture hd si sforino i 10gb. Per il resto 10gb li vedo sufficienti. Certo fossero stati 12 , lo avrei preferito
Inviato dal mio iPhone X utilizzando Tapatalk
Anche perché un conto è usare e un conto è allocare . Vi sono motori grafici che tendono a saturare la memoria video indipendentemente dalla reale necessità. Come caricare una mappa intera quando per muoversi nell ambiente senza stuttering ne basta la metà. Poi entra in gioco il discorso di cache e compressione dati. Ho fatto varie prove provando con COD che a video sembra un mangia vram. L ho usato mentre sotto facevo girare altri due benchmark , l ho usato con DSR sinto ben oltre il 4K e sinceramente non ho visto stuttering. Non ho farcry 6 , dove si dice che con le texture hd si sforino i 10gb. Per il resto 10gb li vedo sufficienti. Certo fossero stati 12 , lo avrei preferito
Inviato dal mio iPhone X utilizzando Tapatalk
Io preferisco aver risparmiato 300 euro o piu' (La Strix si fa pagare enormemente)piuttosto che avere 2 gb in piu' inutili.
Per i giochi futuri?
Si assistera' ad un crollo degli fps e non certo lo stuttering
Thunder-74
27-04-2022, 11:46
Io preferisco aver risparmiato 300 euro o piu' (La Strix si fa pagare enormemente)piuttosto che avere 2 gb in piu' inutili.
Per i giochi futuri?
Si assistera' ad un crollo degli fps e non certo lo stuttering
Diciamo anche una cosa. Fino a quando resteranno in vigore le attuali console, questo sarà lo scenario . Inoltre chi produce titoli per pc, ha l obiettivo di venderne più possibile. Il focus non sono quelli che possiedono vga enthusiast. Quindi credo che di base l obiettivo sono mediamente i 6/8 giga in funzione della res. Ovviamente con l inserimento di setting più spinti per chi ha un HW migliore , vedi texture hd ecc. Sicuramente il RT alza l asticella. Mediamente attivandolo parte un altro giga. In contrapposizione il DLSS bilancia .
Alla fine credo che sarà difficile trovarsi anche in 4K con titoli che per essere fluidi, avranno bisogno di più di 10gb. Potranno essere veramente pochi fino alla PS6.
Ripeto, fosse uscita direttamente in versione 12gb con bus da 384bit, lo avrei preferito.
Inviato dal mio iPhone X utilizzando Tapatalk
amon.akira
27-04-2022, 12:58
Giusto,ma commercialmente come si colloca?
Come una 3080 Ti, visto che le prestazioni sono pressocche' identiche?
E come prestazioni un +5-7% dalla 3080 10 gb?
Cioe',sono fumato io o Nvidia ha cannato anche questa versione da 12 gb?
Abbiamo capito che il primo chip della 3080 era mezzo fallato :D
si anche per me poteva essere altro, io non ce l avevo quel gioco quando avevo la 3080, cmq fatto sta che lui senza cambiare nulla..passando prima a 3080ti e poi a 3090 solo con l ultima mi disse che finalmente poi andava bene e che la vram segnata in osd arrivava a 13.5
con la 3080 mi diceva che se abbassava res a 1440p poi andava bene
Ma aveva un crollo vertiginoso degli fps in Farcry 6,tipo 5-6 fps,per poi riprendersi?
Mi farebbe piacere che qualcuno potesse testare quel gioco con una 3080 da 10 gb e vedere le zone incriminate.
Io credo sia stato un caso che sia andato tutto lisco con la 3090…
Mio pensiero,eh :D
Thunder-74
27-04-2022, 13:55
Ma aveva un crollo vertiginoso degli fps in Farcry 6,tipo 5-6 fps,per poi riprendersi?
Mi farebbe piacere che qualcuno potesse testare quel gioco con una 3080 da 10 gb e vedere le zone incriminate.
Io credo sia stato un caso che sia andato tutto lisco con la 3090
Mio pensiero,eh :D
Mi fai venire voglia di comprarlo solo per fare dei test, come ho fatto con cyberbug :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Mi fai venire voglia di comprarlo solo per fare dei test, come ho fatto con cyberbug :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
:sofico: :sofico:
amon.akira
27-04-2022, 15:19
Ma aveva un crollo vertiginoso degli fps in Farcry 6,tipo 5-6 fps,per poi riprendersi?
Mi farebbe piacere che qualcuno potesse testare quel gioco con una 3080 da 10 gb e vedere le zone incriminate.
Io credo sia stato un caso che sia andato tutto lisco con la 3090…
Mio pensiero,eh :D
si di solito nelle citta, ma nn accadeva se toglieva le texture hd In 4k oppure con texture hd ma a 1440p
mikael84
27-04-2022, 15:49
si di solito nelle citta, ma nn accadeva se toglieva le texture hd In 4k oppure con texture hd ma a 1440p
Texture HD e 4k fa ridere di suo. Quando ce la leveremmo di mezzo questa crossgen, non sarà mai troppo tardi.
Devono ancora adattare la base a xbox one e ps4.
Vorrei che qualcun altro potesse provare quel gioco con una 3080 da 10 gb,rilevando o meno lo stuttering in quelle determinate scene.
A volte,tale fenomeno,puó dipendere da altro.Lo faceva anche a me, 3080 10gb 4k, stessa cosa anche in Resident evil village, dovevo impostare le texture una tacca sotto ad ultra, ed entrambi sono Giochi ottimizzati e sponsorizzati amd, 10gb saranno anche pochi ma questi problemi li ho avuti solo con giochi rossi, cestinati è mai più riprovati quindi non saprei dire se è cambiato qualcosa ma da quello che dite di far cry 6 non è cambiato nulla quindi non mi aspetto differenze nemmeno in Resident evil o altri giochi amd
Inviato dal mio IN2023 utilizzando Tapatalk
amon.akira
27-04-2022, 19:06
Lo faceva anche a me, 3080 10gb 4k, stessa cosa anche in Resident evil village, dovevo impostare le texture una tacca sotto ad ultra, ed entrambi sono Giochi ottimizzati e sponsorizzati amd, 10gb saranno anche pochi ma questi problemi li ho avuti solo con giochi rossi, cestinati è mai più riprovati quindi non saprei dire se è cambiato qualcosa ma da quello che dite di far cry 6 non è cambiato nulla quindi non mi aspetto differenze nemmeno in Resident evil o altri giochi amd
Inviato dal mio IN2023 utilizzando Tapatalk
ecco per esempio qui posso rispondere in prima persona, finii proprio village con la 3080 maxed 4k ed è filato superfluido. quindi magari ci puo essere qualche altra motivazione come diceva thunder...nn so tipo un memory leak della vram etc..
Valla a sapere la verita' :D
terranux
27-04-2022, 19:31
Ma aveva un crollo vertiginoso degli fps in Farcry 6,tipo 5-6 fps,per poi riprendersi?
Mi farebbe piacere che qualcuno potesse testare quel gioco con una 3080 da 10 gb e vedere le zone incriminate.
Io credo sia stato un caso che sia andato tutto lisco con la 3090…
Mio pensiero,eh :D
calcola che le 3080 12 gb si cloccano di più delle 10gb .è facile trovarle da 2200 . è poco di più ma lo è.
ecco per esempio qui posso rispondere in prima persona, finii proprio village con la 3080 maxed 4k ed è filato superfluido. quindi magari ci puo essere qualche altra motivazione come diceva thunder...nn so tipo un memory leak della vram etc..Potrei provare a reinstallarlo e a provare, magari è la volta buona che lo finisco
Inviato dal mio IN2023 utilizzando Tapatalk
mikael84
28-04-2022, 00:26
ecco per esempio qui posso rispondere in prima persona, finii proprio village con la 3080 maxed 4k ed è filato superfluido. quindi magari ci puo essere qualche altra motivazione come diceva thunder...nn so tipo un memory leak della vram etc..
Succede questo vero...
https://www.youtube.com/watch?v=CZxzbAKUk0w&ab_channel=FPSComputers
https://www.youtube.com/watch?v=DhRAy_2WxE8&ab_channel=UltronHD
amon.akira
28-04-2022, 00:37
Succede questo vero...
https://www.youtube.com/watch?v=CZxzbAKUk0w&ab_channel=FPSComputers
https://www.youtube.com/watch?v=CZxzbAKUk0w&ab_channel=FPSComputers
Ci sono vari giochi che hanno problemi di memory leak.
Attivando il RT si amplifica tutto per una quesitone di latenze.
si ma è evidente che sia una cosa non fixata o voluta per la partnership secondo me. penso succeda solo su fc6, anche se l utente pedra92 ha detto che gli è capitato su re8 village ed ora che ricordo c era solo una situazione simile in re8 quando affronti la seconda sorella minore nella mansarda con lo sciame di mosche, li gli fps cadevano a picco con la 3080, ma era una scena di 5secondi su 40ore di gameplay
mikael84
28-04-2022, 01:04
si ma è evidente che sia una cosa non fixata o voluta per la partnership secondo me. penso succeda solo su fc6, anche se l utente pedra92 ha detto che gli è capitato su re8 village ed ora che ricordo c era solo una situazione simile in re8 quando affronti la seconda sorella minore nella mansarda con lo sciame di mosche, li gli fps cadevano a picco con la 3080, ma era una scena di 5secondi su 40ore di gameplay
Ho sbagliato copiando il secondo link, ho messo pure un altro gioco. Su RE mi succedeva pure a me di avere crolli, solo fuori, dove completavi le missioni e trovavi il mercante, poi fluidissimo.
Questo però è con 8gb di ram, ci sta di avere qualche problema a texture massime.:)
Purtroppo, qua dici bene, il problema è a livello di base, sfruttamento delle risorse e allocazione memoria, da parte del programmatore.
Anche il RT gioca un ruolo fondamentale, soprattutto se arrivi a saturazione.
Nvidia ha sempre avuto una potenza geometrica notevole, pensa allo scontro di fazioni, quando AMD non ne era in grado, vedi hairworks.
Nei casi estremi, si leva una tacca di texture, non ci vedo la fine del mondo, o via di DLSS/fsr.:)
razor820
28-04-2022, 07:29
Purtroppo è ben saputo, che in alcuni giochi e soprattutto quelli Ubishit, sfruttano in maniera migliore i componenti amd, non solo gpu ma anche cpu. Per esserci pure il logo ad inizio titolo non è che poi potevano andare male.
Mi ricordo che con ac odissey e origins in 2k con Intel avevo problemi e dovevo limitare gli fps a 70-80 altrimenti avevo microstuttering.
Cosa che poi non mi è mai successa dopo con le cpu amd.
Mi son fermato ad odissey saranno 4 anni circa che non prendo un titolo ubisoft e sinceramente anche se curioso di provare far cry 6 come bench, per me può rimanere lì dov è.
Tornando al discorso di ottimizzazione PRO AMD, adesso che ci penso bene quando avevo la 2080 con resistent evil village in 2k anche li avevo in determinate situazioni un po’ di microstuttering
fraussantin
28-04-2022, 07:36
Purtroppo è ben saputo, che in alcuni giochi e soprattutto quelli Ubishit, sfruttano in maniera migliore i componenti amd, non solo gpu ma anche cpu. Per esserci pure il logo ad inizio titolo non è che poi potevano andare male.
Mi ricordo che con ac odissey e origins in 2k con Intel avevo problemi e dovevo limitare gli fps a 70-80 altrimenti avevo microstuttering.
Cosa che poi non mi è mai successa dopo con le cpu amd.
Mi son fermato ad odissey saranno 4 anni circa che non prendo un titolo ubisoft e sinceramente anche se curioso di provare far cry 6 come bench, per me può rimanere lì dov è.
Tornando al discorso di ottimizzazione PRO AMD, adesso che ci penso bene quando avevo la 2080 con resistent evil village in 2k anche li avevo in determinate situazioni un po’ di microstutteringDirei che fan entrambi al solito modo.
Puntano a mettersi in difficoltà a vicenda con i giochi proprietari ( Nvidia lo fa con i giochi verdi e amd con i rossi ) .
E nel cu*o ce lo prendiamo noi.
frafelix
28-04-2022, 08:49
Ci toccherà fare come con le esclusive delle console... Se vuoi giocare alle esclusive di entrambe devi comprare tutte e due le console (conosco gente che lo fa), a noi toccherà comprare sia top nvidia che amd e cambiare scheda a seconda del titolo!
Si,ma in tutto questo non pare essere tanto un problema di quantitativo di Vram onboard ma di implementazione ed ottimizzazione dei giochi.
Sono altri i fattori che creano quegli sporadici microstuttering e solo in determinate scene di giochi.
Occorre fare un distinguo tra l'ottimizzazione del gioco,che sia pro Nvidia o Amd,e il quantitativo disponibile di Vram.
krokkolo
28-04-2022, 13:20
La cosa bella è che "lampeggia" solamente in modalità provvisoria. Windows funziona normalmente, compresi i giochi, ovviamente. Nell'altro SSD che utilizzo per lavorare, ho riavviato in modalità provvisoria e non c'è nessun problema. Non vorrei che sia l'aggiornamento cumulativo di oggi (KB5012643) di Windows 11 a creare questo. Sto installando questo aggiornamento in questo SSD. Vediamo...
EDIT: Confermo. Prima di installare l'aggiornamento KB5012643, la modalità provvisoria funzionava senza problemi. Dopo l'installazione dell'aggiornamento cumulativo, anche l'SSD che uso per il lavoro presenta Blinking in modalità provvisoria. La modalità provvisoria con rete non presenta questo problema, fortunamente. Scusate questo piccolo OT, ma potrebbe risultare funzionale per qualcuno.
Confermo, in quanto anche a me si è presentato lo stesso problema, ed ho verificato che la causa di ciò, è l'aggiornamento da te menzionato. Tale aggiornamento è un'anteprima, quindi dobbiamo aspettare il definitivo, per vedere se il problema si risolve.
demonangel
28-04-2022, 18:36
Sembra di tornare agli argomenti di 2 anni fà.
Ci stà se ci si approccia solo ora all'argomento...cmq sti benedetti 10Gb di Vram saturati sono la barzelletta del Marketing
Silver_77
28-04-2022, 18:41
Raga ma in far cry ho scaricato le texture HD ma non riesco a far salire l'occupazione VRAM , sta a 7.24 è normale? sapevo dovesse andare a 10:mc:
Sembra di tornare agli argomenti di 2 anni fà.
Ci stà se ci si approccia solo ora all'argomento...cmq sti benedetti 10Gb di Vram saturati sono la barzelletta del Marketing
E infatti,proprio due anni fa si parlava di questo...
Salve ragazzi.
Appena arrivata 3080.
Purtroppo stò avendo problemi con le temperature ovvero lanciando un Superposition,nonostante io abbia utilizzato un profilo aggressivo delle ventole e scheda a default,le temperature arrivano a toccare gli 82° ed e' molto strano per una Strix...
Ho lasciato anche la paratia laterale del case aperto.
Che sia difettosa?:confused: :(
Grazie
Eddie666
29-04-2022, 13:51
che frequenze (ma soprattutto voltaggi) ti indica durante il bench?
FrancoBit
29-04-2022, 13:58
Salve ragazzi.
Appena arrivata 3080.
Purtroppo stò avendo problemi con le temperature ovvero lanciando un Superposition,nonostante io abbia utilizzato un profilo aggressivo delle ventole e scheda a default,le temperature arrivano a toccare gli 82° ed e' molto strano per una Strix...
Ho lasciato anche la paratia laterale del case aperto.
Che sia difettosa?:confused: :(
Grazie
Io ho avuto per un mese una 3070ti Strix, penso sia la scheda più bollente che abbia mai avuto, però si sapeva essendo Ti. Però potrebbe anche starci per la tua visto che è bella spinta, dipende anche che temperatura ambientale hai in questo periodo e che airflow hai.
Allora ragazzi.
L'airflow è perfetto ed inoltre ho testato con finestra laterale aperta.
Temperatura ambientale intorno ai 22-23°.
Le frequenze si abbassano intorno ai 1920-1935 a causa delle temp e Hwinfo mi segna un voltaggio di 1,063V con 435W di assorbimento.
Per me c'è qualcosa che non torna perchè se ora siamo in primavera,non oso immaginare nelle temp estive cosa succede.
Ventola che arriva intorno agli 85% e temp della scheda intorno agli 83-85°
Sfiga dovuta all'errato accoppiamento con la pasta temica tra il die e il dissipatore?
Minkia...
Le review,che già conoscevo,indicano come temperature max tra i 65-66°.
Nel mio caso siamo a quasi 20° di differenza e l'unico sospetto mio è quello di cui sopra,ovvero che la pasta termica non eà stata utilizzata bene in fase di produzione.
La rimando indietro?
Grazie
P.S. Controllo qualità pari a 0 cmq... :muro: :muro:
StrixyRoG
29-04-2022, 14:47
Allora ragazzi.
L'airflow è perfetto ed inoltre ho testato con finestra laterale aperta.
Temperatura ambientale intorno ai 22-23°.
Le frequenze si abbassano intorno ai 1920-1935 a causa delle temp e Hwinfo mi segna un voltaggio di 1,063V con 435W di assorbimento.
Per me c'è qualcosa che non torna perchè se ora siamo in primavera,non oso immaginare nelle temp estive cosa succede.
Ventola che arriva intorno agli 85% e temp della scheda intorno agli 83-85°
Sfiga dovuta all'errato accoppiamento con la pasta temica tra il die e il dissipatore?
Minkia...
Ho avuto la 3080 Strix, mai visto quelle temperature e quei consumi, se ti riferisci al solo assorbimento della scheda. Ma hai impostato una curva personalizzata per le ventole?
Ho avuto la 3080 Strix, mai visto quelle temperature e quei consumi, se ti riferisci al solo assorbimento della scheda. Ma hai impostato una curva personalizzata per le ventole?
Quello piu' aggressivo ovvero temp= velocità delle ventole.
StrixyRoG
29-04-2022, 14:53
Quello piu' aggressivo ovvero temp= velocità delle ventole.
E allora può essere davvero che ci sia la pasta messa male, però anche quei consumi li trovo esagerati. Nel caso però non aprire nulla, piuttosto chiedi il cambio o fai il reso, non saprei che altre prove farti fare.
razor820
29-04-2022, 15:03
Se non hai il bios modificato non vedo come siano possibili 435w..
Se la scheda è nuova dubito che sia un problema di pasta termica, tra L altro già da subito..
La tuf del mio amico è molto più fresca con ventole al 70% max
Sicuramente ci sarà qualche problema di airflow. Poco spazio o pesca aria calda dalla cpu
mikael84
29-04-2022, 15:13
Se non hai il bios modificato non vedo come siano possibili 435w..
Se la scheda è nuova dubito che sia un problema di pasta termica, tra L altro già da subito..
La tuf del mio amico è molto più fresca con ventole al 70% max
Sicuramente ci sarà qualche problema di airflow. Poco spazio o pesca aria calda dalla cpu
Ha il PL da 450 stock.
Raga,il dissipatore della Cpu è a liquido,quindi non pesca aria calda.
Il Case è il Corsair 760T.
Il PL stock,come detto da Mikael,e' da 450w.
Non sono alle prime armi in termini di assemblaggio.
Le temperature schizzano da 60 a 85° in poco tempo,costringendo le ventole ad arrivare all'85%.
Hw info mi segna 11,90V a pieno carico e quindi non è manco un problema di alimentazione.
La sfiga è che su Amazon non ne sono più disponibili...
razor820
29-04-2022, 15:39
Ha il PL da 450 stock.
La 3080 liscia strix ha quel PL?
Non lo sapevo.
In ogni caso sopra 80 gradi son tanti considerando che ancora non è estate.
amon.akira
29-04-2022, 15:39
non resta che il discorso pasta messa male o al limite prova a stringere le viti che puoi stringere non si sa mai, anche se una ha il sigillo
Cutter90
29-04-2022, 15:49
Allora ragazzi.
L'airflow è perfetto ed inoltre ho testato con finestra laterale aperta.
Temperatura ambientale intorno ai 22-23°.
Le frequenze si abbassano intorno ai 1920-1935 a causa delle temp e Hwinfo mi segna un voltaggio di 1,063V con 435W di assorbimento.
Per me c'è qualcosa che non torna perchè se ora siamo in primavera,non oso immaginare nelle temp estive cosa succede.
Ventola che arriva intorno agli 85% e temp della scheda intorno agli 83-85°
Sfiga dovuta all'errato accoppiamento con la pasta temica tra il die e il dissipatore?
Minkia...
Ovviamente ci avrai guardato, ma le ventole girano tutte e 3?:)
Ovviamente ci avrai guardato, ma le ventole girano tutte e 3?:)
Si,tutte e tre.
Mai vista salire su una scheda le temperature in quel modo...:muro:
non resta che il discorso pasta messa male o al limite prova a stringere le viti che puoi stringere non si sa mai, anche se una ha il sigillo
Vorrei evitare.
Quando hai questo tipo di avvisaglie c'è poco da fare...
Vorrei evitare.
Quando hai questo tipo di avvisaglie c'è poco da fare...
Molto strano, tra l'altro a parte la 3080 TUF che ha un dissipatore ingenierizzato da un decelebrato, la Strix monta una placca di contatto unica, io le ho entrambe e la strix è molto più fresca.
Se l'hai presa da amazon sei sicuro fosse nuova? Non è che qualche frescone ha ripaddato male, richiuso tutto e reso la scheda? Mi fa molto strano.
Il bollino sulla vite non conta nulla, anche se è intonso, io ne ho un cassetto pieno sia per le Turing che per le Ampere.
Se comunque la scheda funziona io farei una bella cosa, aprirei tutto e già che ci sei andrei con questi https://www.coolmygpu.com/product/ga102/3?cs=true&cst=custom. E addio ai problemi di pad.
Il Sigillo del pacco era integro.
Nuova è sicura.
Ho contattato il supporto Asus e spiegata la problematica.
Sapete che mi hanno risposto?
Che anche arrivare a 86-87° rientra pienamente con le specifiche :rolleyes:
Io gli ho risposto: e in estate che facciamo?
Mi sa che la rimando indietro.Non è una scheda biventola che deve arrivare a quelle temperature.
Il Sigillo del pacco era integro.
Nuova è sicura.
Ho contattato il supporto Asus e spiegata la problematica.
Sapete che mi hanno risposto?
Che anche arrivare a 86-87° rientra pienamente con le specifiche :rolleyes:
Io gli ho risposto: e in estate che facciamo?
Mi sa che la rimando indietro.Non è una scheda biventola che deve arrivare a quelle temperature.
Beh che ti aspettavi la specifica è fino a 95°.
Rendila e aspetta le 4080.
Beh che ti aspettavi la specifica è fino a 95°.
Rendila e aspetta le 4080.
Quando dovrebbe uscire?
Grazie :)
Silver_77
29-04-2022, 16:30
Che dovrebbe uscire?
Grazie :)
Metti pasta nuova con parsimonia e se non risolvi rendi.
Metti pasta nuova con parsimonia e se non risolvi rendi.
Ho già prenotato il ritiro.
Ci avevo pensato ma sono cose che avrei potuto fare una volta fuori garanzia.;)
Silver_77
29-04-2022, 16:48
Ho già prenotato il ritiro.
Ci avevo pensato ma sono cose che avrei potuto fare una volta fuori garanzia.;)
Nella mia strix nel mettere ilWB non mi pare di avere visto sigilli.
Nella mia strix nel mettere ilWB non mi pare di avere visto sigilli.
C'è ne è uno ad un lato della staffa sotto la Gpu
Eddie666
29-04-2022, 18:00
ho letto che hai richiesto il reso, però avrei un paio di domande:
- la scheda video è montata su una config nuova da zero, oppure ha semplicemente sostituito la precedente? in questo ultimo caso le temperature della "vecchia" scheda video erano nella norma?
- in idle che temperature ha? immagino abbia la funzione zero fan (per lo meno con la curva di default), giusto?
- se non sbaglio hai detto che a pieno carico le temperature salgono di botto, giusto? ma scendonoo altrettanto rapidamente quando chiudi quell'applicazione/gioco?
- hai provato a lanciare un'applicazione 3d leggera e vedere come sono le temperature in quel caso?
- se la scheda ti ha consumada davvero più di 400w, anche con la velocità delle ventole all'85%, non la vedo una temperatura così sballata; potresti provare ad undervoltarla tramite msi ad un voltaggio abbastanza basso (tipo 0,8v), e vedere come si comporti a livello di temperature (di fatto, se il dissi fosse montato male dovresti vedere temperature anomale anche con quel voltaggio)
razor820
29-04-2022, 18:19
con quel voltaggio sparato li ad aria con queste 30xx ci può anche stare.
A mio avviso non ha senso, la frequenza si riduce di brutto, tanto vale provare a impostare il voltaggio a 0.900 e 1900mhz. Tanto come è ben risaputo con queste schede conviene più l ' undervolt. Lo faccio pure io a liquido.
Ma è possibile invece che le 3050 facciano cosi schifo?
La 2060 va più forte in tutti i giochi, parlo in fullHd.
Mi servirebbe un notebook come secondo pc. Ho visto che i negozi sono pieni di questi laptop con 3050, ma vanno veramente c...
- la scheda video è montata su una config nuova da zero, oppure ha semplicemente sostituito la precedente? in questo ultimo caso le temperature della "vecchia" scheda video erano nella norma?
Su una precedente e le temp dell'attuale Rtx 2080 sono buone (73-74gradi max)
- in idle che temperature ha? immagino abbia la funzione zero fan (per lo meno con la curva di default), giusto?
In idle vanno bene,siamo intorno ai 38-40 gradi max
- se non sbaglio hai detto che a pieno carico le temperature salgono di botto, giusto? ma scendonoo altrettanto rapidamente quando chiudi quell'applicazione/gioco?
Non di botto del tipo da 60 a 86 gradi subito, ma che sono progressive e avanzano abbastanza velocemente con l'avanzare della velocita' delle ventole
- hai provato a lanciare un'applicazione 3d leggera e vedere come sono le temperature in quel caso?
In verita' no ma immagino che salgono proporzionalmente all'efficienza del sistema di dissipazione che ha sicuramente qualche problemino..
- se la scheda ti ha consumada davvero più di 400w, anche con la velocità delle ventole all'85%, non la vedo una temperatura così sballata; potresti provare ad undervoltarla tramite msi ad un voltaggio abbastanza basso (tipo 0,8v), e vedere come si comporti a livello di temperature (di fatto, se il dissi fosse montato male dovresti vedere temperature anomale anche con quel voltaggio)
Si,435w di punta a default.
Io prendo come riferimento le recensioni online dove in tutte le temperature si assestano intorno ai 65-67 gradi in full load.
Mi e' stato anche scritto da qualche altro utente, che possiede la stessa scheda, che ha temp almeno 15 gradi piu' basse...
Ed ero con la finestra del case aperta!
Secondo me la pasta termica non e' stata applicata bene.
Un sistema di dissipazione del genere non mi deve portare le ventole quasi al massimo in estate e ,per giunta,siamo anche in primavere con temperature fresche in stanza..;)
con quel voltaggio sparato li ad aria con queste 30xx ci può anche stare.
A mio avviso non ha senso, la frequenza si riduce di brutto, tanto vale provare a impostare il voltaggio a 0.900 e 1900mhz. Tanto come è ben risaputo con queste schede conviene più l ' undervolt. Lo faccio pure io a liquido.
Ma stiamo parlando di un sistema a default.
I recensori per ottenere temp intorno ai 65 gradi,credi abbiano undervoltato?
Siamo pure in primavera...
Eddie666
29-04-2022, 18:44
intanto grazie per le risposte, visto
Su una precedente e le temp dell'attuale Rtx 2080 sono buone (73-74gradi max)
e quanto ti consumava in watt la 2080? perche comunque si sta parlando di una differenza di 10° circa e, ammettendo una differenza di 100W a livello di consumo massimo tra le due schede secondo me le tue attuali temperature ci potrebbero anche stare
In verita' no ma immagino che salgono proporzionalmente all'efficienza del sistema di dissipazione che ha sicuramente qualche problemino..
se il dissipatore è montato male anche in quel caso dovresti vedere un innalzamento anomalo delle temperature
Ma stiamo parlando di un sistema a default.
I recensori per ottenere temp intorno ai 65 gradi,credi abbiano undervoltato?
Siamo pure in primavera...
molte schede vengono recensite con le ventole al 100% e su un banchetto, per cui che è normale che vengano rilevate temperature così basse
Considerazione assolutamente personale, più di 400W per un solo componente a me sembrano una "follia" : mi sembra di essere tornati a più di 10 anni fa quando l'efficienza veniva considerata davvero poco e si sparavano frequenze e oltaggi altissimi
Thunder-74
29-04-2022, 18:45
no spytek, sono troppi. La mia Strix ad aria c'è stata poco, ma quando lo era, facendo OC con 1.1v sui 2100mhz e 450w, non superava i 72 gradi.
no spytek, sono troppi. La mia Strix ad aria c'è stata poco, ma quando lo era, facendo OC con 1.1v sui 2100mhz e 450w, non superava i 72 gradi.
ecco vedi...
Per poi sentire un tecnico dell'Asus che dice che e' anche normale...:rolleyes:
A leggere i problemi,per i quali mi dispiaccio di Spytec,mi vengono in mente i messaggi in cui mi si consigliava di spendere di piu' per avere una scheda migliore perche' avrebbe voluto dire temp migliori e resa migliore........:muro:
A leggere i problemi,per i quali mi dispiaccio di Spytec,mi vengono in mente i messaggi in cui mi si consigliava di spendere di piu' per avere una scheda migliore perche' avrebbe voluto dire temp migliori e resa migliore........:muro:
Ti ringrazio. ;)
E' come quando si appplica male la pasta termica sulla Cpu e noti che le temperature aumentano un po' troppo velocemente e restano elevate.
Thunder-74
29-04-2022, 18:58
A leggere i problemi,per i quali mi dispiaccio di Spytec,mi vengono in mente i messaggi in cui mi si consigliava di spendere di piu' per avere una scheda migliore perche' avrebbe voluto dire temp migliori e resa migliore........:muro:
E' così, poi se uno ha la sfiga di un modello assemblato male... diciamo che si potrebbe anche sistemare la sua, ma vorrebbe dire invalidare la garanzia.
Possibile che sia stato messo male un pad e faccia troppo spessore.
razor820
29-04-2022, 18:58
Ma stiamo parlando di un sistema a default.
I recensori per ottenere temp intorno ai 65 gradi,credi abbiano undervoltato?
Siamo pure in primavera...
Le recensioni non le guardò mai in questo caso. Anche perché la maggior parte di loro le fanno sul banchetto.
Preferisco guardare sui forum.
Io prima avevo anche una strix 2080. Max arrivavo a 63 gradi..
Comunque penso che ogni scheda a se è diversa, almeno in ambito temperature stesso modello ne ho sentite tante.
Poi il tuo caso se dici che il case è aperto, allora qualcosa non quadra
Le recensioni non le guardò mai in questo caso. Anche perché la maggior parte di loro le fanno sul banchetto.
Preferisco guardare sui forum.
Io prima avevo anche una strix 2080. Max arrivavo a 63 gradi..
Comunque penso che ogni scheda a se è diversa, almeno in ambito temperature stesso modello ne ho sentite tante.
Poi il tuo caso se dici che il case è aperto, allora qualcosa non quadra
83 gradi con case aperto e 86 chiuso.
In estate mi ritroverei con le ventole al 100% sicuro per mantenere quelle temperature...
StrixyRoG
29-04-2022, 19:46
Il Sigillo del pacco era integro.
Nuova è sicura.
Ho contattato il supporto Asus e spiegata la problematica.
Sapete che mi hanno risposto?
Che anche arrivare a 86-87° rientra pienamente con le specifiche :rolleyes:
Io gli ho risposto: e in estate che facciamo?
Mi sa che la rimando indietro.Non è una scheda biventola che deve arrivare a quelle temperature.
Ma il sigillo sulla scheda c'è? Giusto per capire che non sia una scheda già aperta?
Nella mia strix nel mettere ilWB non mi pare di avere visto sigilli.
Si, la Strix ha il sigillo.
amon.akira
29-04-2022, 20:17
per esempio la mia ex tuf3080 350watt ma con dissi piu piccolo della strix non ha mai visto i 70gradi neanche d estate a pieno carico con ventole max 2000rpm, e le mem stavano max anche loro a sub 90gradi
ma il Pl lo portate al max?
amon.akira
29-04-2022, 20:42
ma il Pl lo portate al max?
si sempre, castrarlo converrebbe solo se il dissi non riesce a tenere quei watt, poi si ottimizza il clock in modo da massimizzare il pl.
certo 450watt sono tanti, ma il dissi della strix è enorme e 85% sono tanti giri, 2800rpm? e superati gli 83gradi dovrebbe downcloclare in automatico se non hai toccato il temp limit.
poi insomma ci sono testimonianze di altre strix qui che vanno bene, sarà dissi montato male, o pasta messa male.
per dirti la 3090fe che ho usa 400w e cmq sto in media nei 65gradi con 1600-1700rpm
pesa 2.2kg, ma penso la strix non sia da meno XD
Ho voluto disattivare il controllo delle ventole.
Addirittura per tenere gli 82° la ventola schizza in automatico al 96%.
Le memorie 88°
Le ho provate tutte,non va... :muro:
Purtroppo non la posso provare su altra configurazione.
P.S. Ma dalla ferritoia posteriore non dovrebbe uscire aria calda?
amon.akira
29-04-2022, 21:07
mi sa che solo le fe hanno il doppio flusso di cui il principale la espelle dal retro, infatti mi piace molto sto sistema, aiuta parecchio a case chiuso, anche se ovviamente a paratia aperta è sempre meglio.
mi sa che solo le fe hanno il doppio flusso di cui il principale la espelle dal retro, infatti mi piace molto sto sistema, aiuta parecchio a case chiuso, anche se ovviamente a paratia aperta è sempre meglio.
Bei ricordi quando con la 2080 Strix non superavo i 65°...
amon.akira
29-04-2022, 21:40
Bei ricordi quando con la 2080 Strix non superavo i 65°...
ti è capitata ahimè la scheda sfigata (paddata male,montata male o chissà)
esempio io sono andato meglio con ampere rispetto a turing, la 2080ti strix da 325watt e dissi piu grosso della tuf3080 350w faceva leggermente peggio (4-5gradi)
la 2080 stavi li, erano 300w max
StrixyRoG
29-04-2022, 22:24
Ho voluto disattivare il controllo delle ventole.
Addirittura per tenere gli 82° la ventola schizza in automatico al 96%.
Le memorie 88°
Le ho provate tutte,non va... :muro:
Purtroppo non la posso provare su altra configurazione.
P.S. Ma dalla ferritoia posteriore non dovrebbe uscire aria calda?
Butta fuori aria lateralmente; in ogni caso provando queste 3000 ho deciso di fare il passo per l'AIO, non prenderò più una scheda ad aria. Con la 3080ti LC hanno fatto un lavoro superbo, la lascio lavorare a quanto vuole, non mi preoccupo di undervolt o altre menate, è sempre bella fresca, non si sente, e soprattutto a stock ho fatto 30 punti in più della 3090 founders, che sono niente, ma è una soddisfazione :D Si spera che per le 4000 facciano una versione simile
Salve ragazzi.
Appena arrivata 3080.
Purtroppo stò avendo problemi con le temperature ovvero lanciando un Superposition,nonostante io abbia utilizzato un profilo aggressivo delle ventole e scheda a default,le temperature arrivano a toccare gli 82° ed e' molto strano per una Strix...
Ho lasciato anche la paratia laterale del case aperto.
Che sia difettosa?:confused: :(
Grazie
https://www.techpowerup.com/review/asus-geforce-rtx-3080-12-gb-strix-oc/35.html
Le review,che già conoscevo,indicano come temperature max tra i 65-66°.
Mi manderesti il link gentilemente che vorrei leggerle per capirci qualcosa?
ma il Pl lo portate al max?
Te come l'hai settato? Hai provato a usare il secondo BIOS (performance e quiet).
Se vedo nella recensione che ho linkato la scheda è a 66C i modalità performance, ma tiene 1800mhz, non 1920-1935. Quei valori sono per 386W di consumo. Ovviamente se la scheda ne tira 435 non possono più essere considerate paragonabili.
Ho l'impressione che ci sia un malinteso con il power limit. Tieni in considerazione che hai 3C ambientali in più rispetto alla media delle recensioni, che di solito sono a 20C. Inoltre magari non hai la migliore applicazione della pasta termica di questo mondo, le ampere dissipando molta corrente su poco spazio sono molto più sensibili alle tolleranze purtroppo.
https://www.techpowerup.com/review/asus-geforce-rtx-3080-12-gb-strix-oc/39.html
https://www.techpowerup.com/review/asus-geforce-rtx-3080-12-gb-strix-oc/36.html
Se vuoi sapere sei in specifica devi fare un test a Stock PL (390W) con bios performance e vedere quanto ti discosti da questi valori (grafico pagina 35)
https://i.ibb.co/J7snYxF/dasr3r.jpg (https://ibb.co/J7snYxF)
Se a parita di consumi la scheda alza le ventole molto di più e le frequenze sono più basse (di conseguenza anche le temperature saranno più alte) bisogna chiedersi se i 3C ambientali siano abbastanza da spiegare la differenza o meno.
Io prima avevo anche una strix 2080. Max arrivavo a 63 gradi..
Scheda da 250W a default 313W max PL. Completamente diversa :sofico:
Comunque se ci pensi potrebbe "quasi" essere normale, nel senso che se hai il BIOS performance e il limitatore settato a 450W, la scheda spingerà al limite sfruttando al massimo la dissipazione possibile e quindi diventando rumorosa. Sempre nel grafico a pagina 35 puoi vedere come la scheda stia oltre i 1800 giri con le ventole per rimanere a 66C a 390W, se sparata a 450W immagino che diventi un elicottero!
Quando parli di temperature parli di tGPU o tHotspot?
Vash,grazie di essere intervenuto con la tua disamina ricca di spunti ;)
Ringrazio anche gli altri.:)
Ho provato solo in P mode.
La cosa strana e' che lasciando il profilo delle ventole a default le ventole arrivano addirittura al 95% per tenermi gli 82 gradi fissi.
Io capisco che 430-450 w siano difficili da dissipare ma tenere le ventole al max non sarebbe il massimo.
Le temp delle memorie vanno bene e oscillano tra gli 84 ed 88 gradi; per questo pensavo all'utilizzo errato della pasta termica e non tanto al dissipatore storto.
Hw info mi indica 1,064V,435 W di assorbimento,Gpu a 82 gradi con ventole al 95% (86 gradi con profilo delle ventole attivato e 86% di rotazione) 84-88 gradi le ram e hotspot 104 gradi.
Sta benedetta scheda non puo' manco essere smontata che c'e' quel bollino sotto la vite della staffa,altrimenti l'avrei gia' fatto.
Mezza volta che trovo una scheda (putroppo me ne serve una con doppia uscita Hdmi) mi va anche di sfiga.:muro:
Se vuoi sapere sei in specifica devi fare un test a Stock PL (390W) con bios performance e vedere quanto ti discosti da questi valori (grafico pagina 35)
https://i.ibb.co/J7snYxF/dasr3r.jpg (https://ibb.co/J7snYxF)
Fatto anche quello.
Con Pl Standard a 100 e 335 w di assorbimento e frequenze poco sopra i 1800 mhz ottengo 75gradi .
Gia' si vede uno scarto di 10 gradi che non e' un buon segno.
Vorrei capire se i recensori lo alzano sto' benedetto Pl durante i test.
Pero' ho letto di alcuni con la mia stessa scheda video che non sono mai arrivati a 82-86 gradi,ergo ne dobbiamo anche tener conto delle loro testimonianze :)
mikael84
30-04-2022, 11:39
Fatto anche quello.
Con Pl Standard a 100 e 335 w di assorbimento e frequenze poco sopra i 1800 mhz ottengo 75gradi .
Gia' si vede uno scarto di 10 gradi che non e' un buon segno.
Vorrei capire se i recensori lo alzano sto' benedetto Pl durante i test.
Hanno fatto una prova, ma lascia in parte il tempo che trova, banchetto a che tamb? 1440p per calcolare il core medio (che è sempre tropo elevato su tpu). Test mi pare su unreal 4
https://tpucdn.com/review/asus-geforce-rtx-3080-12-gb-strix-oc/images/noise-normalized-temperature.png
Pero' ho letto di alcuni con la mia stessa scheda video che non sono mai arrivati a 82-86 gradi,ergo ne dobbiamo anche tener conto delle loro testimonianze :)
Questo a te interessa di più. La tua scheda è pastata male.;)
O la sistemi tu, o la rendi, a meno che un profilo 0,9v/1900 PL stock non ti possa soddisfare, ma a breve arriva l'estate.
amon.akira
30-04-2022, 11:47
si infatti, non esiste che con 335w la strix stia a 75gradi, ci sono almeno 10-15gradi di differenza.
Se il dissi fosse posizionato male dovrebbe portare anche le temperature delle Ram elevate e invece siamo quasi come quella della Gpu....
Cio' mi fa propendere per la pasta messa male.
Mikael,la sistemo io ok....ma come faccio con quel sigillo sotto la staffa della Gpu?
Tu cosa faresti al posto mio?
E se pure,da temerario,rischiassi di violare il sigillo e non risolvo?
Mado....:muro:
Se il dissi fosse posizionato male dovrebbe portare anche le temperature delle Ram elevate e invece siamo quasi come quella della Gpu....
Cio' mi fa propendere per la pasta messa male.
Mikael,la sistemo io ok....ma come faccio con quel sigillo sotto la staffa della Gpu?
Tu cosa faresti al posto mio?
E se pure,da temerario,rischiassi di violare il sigillo e non risolvo?
Mado....:muro:
Ti premetto che non sono u esperto, anzi, non fosse per i ragazzi che mi hanno aiutato qui forse avrei fatto un rma con la conseguenza di una figura di xxxx:D .
Avevo delle temperature che arrivavano a 80 gradi come niente, bastava lanciare quasiasi gioco e la mia gpu diventava un forno con oltre 80 gradi, avevo montato le ventole al contrario che invece di espellere l'aria calda facevano il contrario, sistemate le ventole senza usare ab non supero 73/74 gradi e usando un profilo ventole e un undervolt leggero resto sui 60 gradi.
E parliamo di un 3080 ti che dovrebbe essere più calda della versione normale, secondo me lo devi mandare indietro, con quello che costano.
mikael84
30-04-2022, 12:53
Se il dissi fosse posizionato male dovrebbe portare anche le temperature delle Ram elevate e invece siamo quasi come quella della Gpu....
Cio' mi fa propendere per la pasta messa male.
Mikael,la sistemo io ok....ma come faccio con quel sigillo sotto la staffa della Gpu?
Tu cosa faresti al posto mio?
E se pure,da temerario,rischiassi di violare il sigillo e non risolvo?
Mado....:muro:
Reso, non devi essere costretto a pastarla tu, soprattutto se non te la senti. Anche downvoltandola ti ritroveresti un delta sulle temp, più elevato della norma.
Ti premetto che non sono u esperto, anzi, non fosse per i ragazzi che mi hanno aiutato qui forse avrei fatto un rma con la conseguenza di una figura di xxxx:D .
Avevo delle temperature che arrivavano a 80 gradi come niente, bastava lanciare quasiasi gioco e la mia gpu diventava un forno con oltre 80 gradi, avevo montato le ventole al contrario che invece di espellere l'aria calda facevano il contrario, sistemate le ventole senza usare ab non supero 73/74 gradi e usando un profilo ventole e un undervolt leggero resto sui 60 gradi.
E parliamo di un 3080 ti che dovrebbe essere più calda della versione normale, secondo me lo devi mandare indietro, con quello che costano.
Si infatti.
Pero' il terrore di beccarne un'altra mi prende perche' per qaunto si possa trattare di sfiga,uno non lo accetta su tale tipologia di prodotto venduto a peso d'oro.
Ripeto,controllo qualita' uguale a ZERO!
Reso, non devi essere costretto a pastarla tu, soprattutto se non te la senti. Anche downvoltandola ti ritroveresti un delta sulle temp, più elevato della norma.
Non l'ho pagata nemmeno in offerta risparmiando tipo 200 euro rispetto al normale....
Prezzo reale quindi e gia' le strix sono costosissime.
StrixyRoG
30-04-2022, 13:21
Si infatti.
Pero' il terrore di beccarne un'altra mi prende perche' per qaunto si possa trattare di sfiga,uno non lo accetta su tale tipologia di prodotto venduto a peso d'oro.
Ripeto,controllo qualita' uguale a ZERO!
Tocchi un tasto dolente, perché per quanto la mia 3080 Strix andasse bene, mi successe una cosa mai vista in tanti anni di PC. Mentre era montata cedette tutto il dissipatore, e rimase attaccato solo nella parte anteriore, e conta che è avvitato dall'interno, quindi non ci si può mettere mano. Mandata in RMA e ricevuta come nuova, e naturalmente hanno controllato sigilli e tutto il resto. La cosa positiva è che quando te la ridanno non mettono un altro sigillo, ti rilasciano un foglio di RMA, quindi a quel punto si potrebbe aprire senza problemi.
Tocchi un tasto dolente, perché per quanto la mia 3080 Strix andasse bene, mi successe una cosa mai vista in tanti anni di PC. Mentre era montata cedette tutto il dissipatore, e rimase attaccato solo nella parte anteriore, e conta che è avvitato dall'interno, quindi non ci si può mettere mano. Mandata in RMA e ricevuta come nuova, e naturalmente hanno controllato sigilli e tutto il resto. La cosa positiva è che quando te la ridanno non mettono un altro sigillo, ti rilasciano un foglio di RMA, quindi a quel punto si potrebbe aprire senza problemi.
Bella sfiga anche a te.
Il guaio di Amazon e' che non te ne da' un'altra ma procede al rimborso e i prezzi oscillano notevolmente...
StrixyRoG
30-04-2022, 13:33
Bella sfiga anche a te.
Il guaio di Amazon e' che non te ne da' un'altra ma procede al rimborso e i prezzi oscillano notevolmente...
Con Amazon puoi provare la sostituzione, se vedi che ne ha, indipendentemente dal prezzo, altrimenti ti prendi i soldi e compri altro se ti servisse subito.
nagashadow
30-04-2022, 13:33
E avevo quei dubbi anche io con Amazon,sono riuscito a bloccare una tua 3080 a 1033 ma infatti era l ultima....per fortuna è andata bene
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.