View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series
test appena fatto
downvolt 0.9V 1875/16000
http://gpuz.techpowerup.com/21/10/17/gpt.png
oc +120/16000
http://gpuz.techpowerup.com/21/10/17/x3n.png
comunque confermo quanto scritto da Thunder-74
è a livello driver la cosa.
mettendo il tempo di lettura dei sensori a 0,1 e analizzando i log di gpuz, ogni qualvolta che la scheda si ferma a 210W, prima aveva sfiorato i 220W per poi successivamente scendere a 210
i 220W li raggiunge, ma per un solo istante per poi stabilizzarsi a 210. probabilmente senza downvolt questa cosa si sente di più per via dei consumi maggiori, comunque arrivato al picco si stabilizza tornando a 210W e non rimane per un secondo a 220.
inizio a credere anche io che sia una pura limitazione dei driver a prescindere dal PL.
Nvidia...ma che cxxxo fai???
fraussantin
17-10-2021, 10:15
test appena fatto
downvolt 0.9V 1875/16000
http://gpuz.techpowerup.com/21/10/17/gpt.png
oc +120/16000
http://gpuz.techpowerup.com/21/10/17/x3n.png
comunque confermo quanto scritto da Thunder-74
è a livello driver la cosa.
mettendo il tempo di lettura dei sensori a 0,1 e analizzando i log di gpuz, ogni qualvolta che la scheda si ferma a 210W, prima aveva sfiorato i 220W per poi successivamente scendere a 210
i 220W li raggiunge, ma per un solo istante per poi stabilizzarsi a 210. probabilmente senza downvolt questa cosa si sente di più per via dei consumi maggiori, comunque arrivato al picco si stabilizza tornando a 210W e non rimane per un secondo a 220.
inizio a credere anche io che sia una pura limitazione dei driver a prescindere dal PL.
Nvidia...ma che cxxxo fai???Controlla il connettore 8 PIN , e vedi se è quello che torna sotto i 150 dopo un attimo che sfora.
È una mera curiosità perché non succede niente perché il connettore nella stragrande maggioranza degli alimentatori è 150x2 quindi regge 300w.
Ma la specifica è cmq 150 e andrebbe rispettata .
Thunder-74
17-10-2021, 10:53
test appena fatto
downvolt 0.9V 1875/16000
cut.
oc +120/16000
cut.
comunque confermo quanto scritto da Thunder-74
è a livello driver la cosa.
mettendo il tempo di lettura dei sensori a 0,1 e analizzando i log di gpuz, ogni qualvolta che la scheda si ferma a 210W, prima aveva sfiorato i 220W per poi successivamente scendere a 210
i 220W li raggiunge, ma per un solo istante per poi stabilizzarsi a 210. probabilmente senza downvolt questa cosa si sente di più per via dei consumi maggiori, comunque arrivato al picco si stabilizza tornando a 210W e non rimane per un secondo a 220.
inizio a credere anche io che sia una pura limitazione dei driver a prescindere dal PL.
Nvidia...ma che cxxxo fai???
;)
mi ci sono scervellato per giorni nel capire il perchè .
E ti dirò che ci sono giochi/bench che non ti faranno usare il 10% in più di PL over che hai applicato con AB. E ancor di più che certi giochi/bench te lo faranno usare, ma a certe risoluzioni, tipo in 4k si, in 2k no.
Ad aver tempo e voglia, sarebbe da provare un po' di drivers, dai primi agli ultimi, per fare un quadro di come nvidia a messo mano a tutto.
Controlla il connettore 8 PIN , e vedi se è quello che torna sotto i 150 dopo un attimo che sfora.
È una mera curiosità perché non succede niente perché il connettore nella stragrande maggioranza degli alimentatori è 150x2 quindi regge 300w.
Ma la specifica è cmq 150 e andrebbe rispettata .
te lo confermo.
in oc manuale
nei frangenti che la scheda va a 220W come da pl, la potenza nel 8pin è tra 157 e 159W
quando è a 216W è 155-157W e così via, ma ci sono moltissimi istanti in cui la scheda va a 220W
in downvolt
la cosa è decisamente più strana: pur avendo tagli di frequenza dati da un PL superato (sono impostati anche in questo caso 220W, ma arriva a 210W) c'è solo un istante in cui la scheda fa 212W (non arriva a 220 in questo caso quindi) e anche in questo caso l'8pin è a 154W
In definitiva:
con oc manuale i 220W li raggiunge spesso, in downvolt non arriva mai a 220W e no, non è perchè consuma meno, perchè le frequenze le taglia comunque.
entrambe cappano a 210W, ma con +100mhz al core i 220w li fa molto più spesso che con downvolt.
Datemi idee del perchè accada che mi si incrociano gli occhi se riapro tutti i dati, nemmeno in accenture era così :D
;)
mi ci sono scervellato per giorni nel capire il perchè .
E ti dirò che ci sono giochi/bench che non ti faranno usare il 10% in più di PL over che hai applicato con AB. E ancor di più che certi giochi/bench te lo faranno usare, ma a certe risoluzioni, tipo in 4k si, in 2k no.
Ad aver tempo e voglia, sarebbe da provare un po' di drivers, dai primi agli ultimi, per fare un quadro di come nvidia a messo mano a tutto.
Ormai ti credo :D
ma se fosse così, a pro di cosa usare il downvolt se uno vuole occare?
servirebbe una spiegazione tecnica della cosa, ma son sempre più convinto sia a livello sw (non ho ben capito se è del game o so/ab/driver) piuttosto che di scheda
a questo punto torno ad usare l'oc manuale, quei 10W in più fanno comodo eccome su una vga da 200W, l'avevo detto dall'inizio che questa cosa del downvolt fosse una cavolata pazzesca
lunaticgate
17-10-2021, 11:14
Una curiosità, guardando i benchmark su notebookcheck delle versioni mobile della RTX, sembrerebbe che il distacco tra la 2080 e la 3080 sia al massimo intorno al 4%.
Com'è possibile?
In altri bench, su altri siti, la differenza è più marcata.
Sniper88
17-10-2021, 12:35
vai tranquillo, in verità su tutto. Sto W11 non mi ha dato nessun problema, anzi lo trovo più reattivo.
Grazie mille, Thunder! Buona domenica
Thunder-74
17-10-2021, 13:14
Grazie mille, Thunder! Buona domenica
Di nulla, grazie anche a te ;)
amon.akira
17-10-2021, 14:33
te lo confermo.
in oc manuale
nei frangenti che la scheda va a 220W come da pl, la potenza nel 8pin è tra 157 e 159W
quando è a 216W è 155-157W e così via, ma ci sono moltissimi istanti in cui la scheda va a 220W
in downvolt
la cosa è decisamente più strana: pur avendo tagli di frequenza dati da un PL superato (sono impostati anche in questo caso 220W, ma arriva a 210W) c'è solo un istante in cui la scheda fa 212W (non arriva a 220 in questo caso quindi) e anche in questo caso l'8pin è a 154W
In definitiva:
con oc manuale i 220W li raggiunge spesso, in downvolt non arriva mai a 220W e no, non è perchè consuma meno, perchè le frequenze le taglia comunque.
entrambe cappano a 210W, ma con +100mhz al core i 220w li fa molto più spesso che con downvolt.
Datemi idee del perchè accada che mi si incrociano gli occhi se riapro tutti i dati, nemmeno in accenture era così :D
Ormai ti credo :D
ma se fosse così, a pro di cosa usare il downvolt se uno vuole occare?
servirebbe una spiegazione tecnica della cosa, ma son sempre più convinto sia a livello sw (non ho ben capito se è del game o so/ab/driver) piuttosto che di scheda
a questo punto torno ad usare l'oc manuale, quei 10W in più fanno comodo eccome su una vga da 200W, l'avevo detto dall'inizio che questa cosa del downvolt fosse una cavolata pazzesca
guarda che è tutto normale a te, idem qui bios 375w 150+150+55pcie
escludo i picchi ovviamente
mikael84
17-10-2021, 15:07
te lo confermo.
in oc manuale
nei frangenti che la scheda va a 220W come da pl, la potenza nel 8pin è tra 157 e 159W
quando è a 216W è 155-157W e così via, ma ci sono moltissimi istanti in cui la scheda va a 220W
in downvolt
la cosa è decisamente più strana: pur avendo tagli di frequenza dati da un PL superato (sono impostati anche in questo caso 220W, ma arriva a 210W) c'è solo un istante in cui la scheda fa 212W (non arriva a 220 in questo caso quindi) e anche in questo caso l'8pin è a 154W
In definitiva:
con oc manuale i 220W li raggiunge spesso, in downvolt non arriva mai a 220W e no, non è perchè consuma meno, perchè le frequenze le taglia comunque.
entrambe cappano a 210W, ma con +100mhz al core i 220w li fa molto più spesso che con downvolt.
Ormai ti credo :D
ma se fosse così, a pro di cosa usare il downvolt se uno vuole occare?
Sono classiche rilevazioni del driver, quando vedi 220watt il pci e 8 pin sale a 170watt, quindi taglierà prima, in altri si ferma direttamente a 210.
Ricorda che i valori che vedi nei software sono a 500ms, quindi non sono effettivi.;)
Quando tocca 220watt sei ben oltre le specifiche 8pin.
mikael84
17-10-2021, 15:12
nelle varie prove che ho fatto, con mix differenti di voltaggio/freq., ho notato che ci si più avvicinare di più o di meno al PL massimo prima che tagli, proprio in virtù della richiesta in quel frangente del gioco/bench.
Inoltre sono convito che nel corso del tempo qualche cosa hanno fatto via drivers, perchè appena presa la scheda, riuscivo tranquillamente a sforare i 450w di una decina di watt.
A livello driver è tutto raga, non c'è niente di oscuro.:p
I VRM di Ampere, sono diversi, sono in parallelo ed assimetrici, quindi la gestione della corrente può essere diversa in ogni scenario.
Quindi la ripartizione fa storia a se in ogni gioco, bench e contesto.
Inoltre i valori visti sui software lasciano il tempo che trovano per gli intervalli.:)
TigerTank
17-10-2021, 15:33
@Dono89:
Butta un occhio all'analisi energetica di Igor's Lab circa la 3060Ti FE.
LINK (https://www.igorslab.de/en/nvidia-geforce-rtx-3060-ti-ampere-fatter-far-far-far-away-and-point-on-quiet-path-from-this-claw/10/).
Come dice Mike quel che vediamo noi a livello di monitoraggio ad intervalli "amatoriali" è un pò diverso da una situazione di monitoraggio professionale :D
fraussantin
17-10-2021, 16:03
@Dono89:
Butta un occhio all'analisi energetica di Igor's Lab circa la 3060Ti FE.
LINK (https://www.igorslab.de/en/nvidia-geforce-rtx-3060-ti-ampere-fatter-far-far-far-away-and-point-on-quiet-path-from-this-claw/10/).
Come dice Mike quel che vediamo noi a livello di monitoraggio ad intervalli "amatoriali" è un pò diverso da una situazione di monitoraggio professionale :D345W di picco sta schedina LoL .. più che ampere questa architettura dovevano chiamarla megawatt :asd:
guarda che è tutto normale a te, idem qui bios 375w 150+150+55pcie
escludo i picchi ovviamente
il mio punto non è che pretendo 75w da pci e 150w da 8 pin spaccati al mw, ma da software (non ho la strumentazione necessaria, ok) sta sempre a 210w invece di andare a 220
Sono classiche rilevazioni del driver, quando vedi 220watt il pci e 8 pin sale a 170watt, quindi taglierà prima, in altri si ferma direttamente a 210.
Ricorda che i valori che vedi nei software sono a 500ms, quindi non sono effettivi.;)
Quando tocca 220watt sei ben oltre le specifiche 8pin.
in realtà i dati li ho presi a 0.1
il mio punto è ok che taglia a 220, ok che va fuori specifica, ma perchè 210W li vedo praticamente fissi e 215/218 mai?
la scheda sta perennemente a 210W/105%
direte voi, e grazie perchè ti ha tagliato e quello che vedi è un assorbimento di potenza tagliato dai 220w che va nell'intorno dei 210w.
Va bene, ma se così fosse perchè sempre proprio 210w e non 215/219/214, sempre 210W come se ci fosse un limitatore che la mantiene lì
@Dono89:
Butta un occhio all'analisi energetica di Igor's Lab circa la 3060Ti FE.
LINK (https://www.igorslab.de/en/nvidia-geforce-rtx-3060-ti-ampere-fatter-far-far-far-away-and-point-on-quiet-path-from-this-claw/10/).
Come dice Mike quel che vediamo noi a livello di monitoraggio ad intervalli "amatoriali" è un pò diverso da una situazione di monitoraggio professionale :D
articolo interessantissimo, ma è in contrapposizione con quello che ho visto io.
nell'articolo c'è un'oscillazione quasi aleatoria, nel mio caso invece è sempre a 210w fissa. non nell'intorno, ma proprio a 210w
in definitiva: la scheda taglia le frequenze in una frazione di secondo quando arriva al PL e scende di potenza a valori inferiori, va benissimo, e scendendo arriva a 210W, perfetto, ma mi spiegate perchè ogni volta si legge 210W come consumo attuale (presumibilmente "tagliato") e mai 215/216?
non ci credo che negli scenari o si consuma 209/210w oppure 250
ci saranno scenari da 215W/218W, perchè questi non compaiono mai?
se non si vedono perchè durano frazioni di secondo, questo vale anche per i 210W, che invece però si vedono, sempre
amon.akira
17-10-2021, 23:37
il mio punto non è che pretendo 75w da pci e 150w da 8 pin spaccati al mw, ma da software (non ho la strumentazione necessaria, ok) sta sempre a 210w invece di andare a 220
in realtà i dati li ho presi a 0.1
il mio punto è ok che taglia a 220, ok che va fuori specifica, ma perchè 210W li vedo praticamente fissi e 215/218 mai?
la scheda sta perennemente a 210W/105%
direte voi, e grazie perchè ti ha tagliato e quello che vedi è un assorbimento di potenza tagliato dai 220w che va nell'intorno dei 210w.
Va bene, ma se così fosse perchè sempre proprio 210w e non 215/219/214, sempre 210W come se ci fosse un limitatore che la mantiene lì
articolo interessantissimo, ma è in contrapposizione con quello che ho visto io.
nell'articolo c'è un'oscillazione quasi aleatoria, nel mio caso invece è sempre a 210w fissa. non nell'intorno, ma proprio a 210w
in definitiva: la scheda taglia le frequenze in una frazione di secondo quando arriva al PL e scende di potenza a valori inferiori, va benissimo, e scendendo arriva a 210W, perfetto, ma mi spiegate perchè ogni volta si legge 210W come consumo attuale (presumibilmente "tagliato") e mai 215/216?
non ci credo che negli scenari o si consuma 209/210w oppure 250
ci saranno scenari da 215W/218W, perchè questi non compaiono mai?
se non si vedono perchè durano frazioni di secondo, questo vale anche per i 210W, che invece però si vedono, sempre
sai dove lo vedi, mi sa l unico scenario in cui sono riuscito a vedere 365w con la mia anzichè i classici 350/355 (55w pcie) è stato il fullscreen render di gpuz dopo diversi minuti però.
però tu appunto 150+60pcie già sei dentro alla grande con 210w.
mikael84
17-10-2021, 23:57
in realtà i dati li ho presi a 0.1
il mio punto è ok che taglia a 220, ok che va fuori specifica, ma perchè 210W li vedo praticamente fissi e 215/218 mai?
la scheda sta perennemente a 210W/105%
direte voi, e grazie perchè ti ha tagliato e quello che vedi è un assorbimento di potenza tagliato dai 220w che va nell'intorno dei 210w.
Va bene, ma se così fosse perchè sempre proprio 210w e non 215/219/214, sempre 210W come se ci fosse un limitatore che la mantiene lì
articolo interessantissimo, ma è in contrapposizione con quello che ho visto io.
nell'articolo c'è un'oscillazione quasi aleatoria, nel mio caso invece è sempre a 210w fissa. non nell'intorno, ma proprio a 210w
in definitiva: la scheda taglia le frequenze in una frazione di secondo quando arriva al PL e scende di potenza a valori inferiori, va benissimo, e scendendo arriva a 210W, perfetto, ma mi spiegate perchè ogni volta si legge 210W come consumo attuale (presumibilmente "tagliato") e mai 215/216?
I programmi normali vanno a 0,5ms, solo il pcat è preciso 0,1ms, difficilmente quei programmi vanno a 0,1. Sono valori da oscilloscopio.;)
Cmq, come dicevo ieri, il 3,3v lo stai considerando?
Il pcie è tarato a max 5,5A su 12v (66w), 3A sui 3,3v (sono 10watt) e 375mA Vaux.:)
fraussantin
18-10-2021, 12:42
..
mi è arrivata la g6 e in usb non si sente più il fastidio , almeno l'ho provata di giorno , stasera ci faccio piu attenzione.
( diceva usata con graffi e cavi usurati .... praticamente è nuova senza pellicole e il cavo era sempre imbustato)
una cosa , la sbz per disattivarla senza che assorba corrente inutilmente basta che la stacco da windows o meglio farla da bios( se si può ma credo di si spengendo la pcie )
per adesso non la smonto , quando ho tempo vogli oanche provare le differenze , anche al momento non ne noto se non una calibrazione migliore nel volume di partenza
TigerTank
18-10-2021, 13:01
mi è arrivata la g6 e in usb non si sente più il fastidio , almeno l'ho provata di giorno , stasera ci faccio piu attenzione.
( diceva usata con graffi e cavi usurati .... praticamente è nuova senza pellicole e il cavo era sempre imbustato)
una cosa , la sbz per disattivarla senza che assorba corrente inutilmente basta che la stacco da windows o meglio farla da bios( se si può ma credo di si spengendo la pcie )
per adesso non la smonto , quando ho tempo vogli oanche provare le differenze , anche al momento non ne noto se non una calibrazione migliore nel volume di partenza
Quindi era proprio un'interferenza sulla mobo che poi si trasmetteva anche alla scheda audio discreta. Meglio così se hai risolto.
Boh al massimo prova a vedere se riesci semplicemente a disattivarla da gestione periferiche anche se secondo me per evitare problemi meglio se la smonti proprio(non che ci voglia molto...).
Nuova versione di DLSS, 2.3.2 (https://www.techpowerup.com/download/nvidia-dlss-dll/).
fraussantin
18-10-2021, 13:03
Quindi era proprio un'interferenza sulla mobo che poi si trasmetteva anche alla scheda audio discreta. Meglio così.
Boh al massimo prova a vedere se riesci semplicemente a disattivarla da gestione periferiche anche se secondo me per evitare problemi meglio se la smonti proprio(non che ci voglia molto...).
Nuova versione di DLSS, 2.3.2 (https://www.techpowerup.com/download/nvidia-dlss-dll/).Si si é un minuto lo potrei anche fare da sotto la scrivania , é che con calma volevo testare le differenze.
Buongiorno, volevo chiedere un parere: ho da pochi giorni rpeso una RTX 3060 (non era la scheda a cui puntavo, ma dopo 1 anno di ricerche più o meno assidue, mi è capitata un' occasione e mi sono accontentato), ho da cambiare anche il monitor (non sfrutto più i 120hz avendola connessa con hdmi), consigliate di rimanere in full hd o potrei azzardare anche un 2k ? Quale longevità potresi avere salendo di risoluzione ?
Grazie
E perchè l'HDMI della 3060 non ti permette di avere i 120Hz di una, per esempio, DP che avevi prima? :stordita:
E perchè l'HDMI della 3060 non ti permette di avere i 120Hz di una, per esempio, DP che avevi prima? :stordita:
Prima usavo una vga collegata tramite DVI-DL che supportava nativamente i 120hz con quel tipo di collegamento, la nuova, collegandola con hdmi, ha solo i 60hz (il monitor ha 11/12 anni) .Ho creato nel pannello nvidia una risoluzione personalizzata forzando anche un refresh più alto, però leggevo non essere una soluzione ottimale.
fraussantin
18-10-2021, 15:23
Buongiorno, volevo chiedere un parere: ho da pochi giorni rpeso una RTX 3060 (non era la scheda a cui puntavo, ma dopo 1 anno di ricerche più o meno assidue, mi è capitata un' occasione e mi sono accontentato), ho da cambiare anche il monitor (non sfrutto più i 120hz avendola connessa con hdmi), consigliate di rimanere in full hd o potrei azzardare anche un 2k ? Quale longevità potresi avere salendo di risoluzione ?
Grazie
si consiglia male .
se hai intenzione di cambiare gpu fra un annetto o 2 prendi un 2k144 , ma con la 3060 lo sfrutterai poco nei titoloni , invece sui giochetti piu leggeri ti farà comodo.
ma se hai intenzione di tenerla a lungo forse non cambierei proprio monitor , e prova a mandarlo a 120 in quache modo
si consiglia male .
se hai intenzione di cambiare gpu fra un annetto o 2 prendi un 2k144 , ma con la 3060 lo sfrutterai poco nei titoloni , invece sui giochetti piu leggeri ti farà comodo.
ma se hai intenzione di tenerla a lungo forse non cambierei proprio monitor , e prova a mandarlo a 120 in quache modo
Ho forzato dal pannello nvidia, vedo se giocando sorgono problemi o meno
Prima usavo una vga collegata tramite DVI-DL che supportava nativamente i 120hz con quel tipo di collegamento, la nuova, collegandola con hdmi, ha solo i 60hz (il monitor ha 11/12 anni) .Ho creato nel pannello nvidia una risoluzione personalizzata forzando anche un refresh più alto, però leggevo non essere una soluzione ottimale.
ah ok sei limitato dal monitor
mi gratto le balle ma almeno sui monitor non ci sono gli isterismi che noto per tutto il resto, ormai con 200€ ti fai un signor fullhd 144 o anche un buon qHd .....oppure vai di adattatore DVI-HDMI :stordita:
TigerTank
18-10-2021, 17:48
ah ok sei limitato dal monitor
mi gratto le balle ma almeno sui monitor non ci sono gli isterismi che noto per tutto il resto, ormai con 200€ ti fai un signor fullhd 144 o anche un buon qHd .....oppure vai di adattatore DVI-HDMI :stordita:
Meglio la prima, l'adattatore servirebbe attivo(con relativo costo) ed imho non ne vale assolutamente la pena.
Ormai sui 2560x1440 da gaming si trovano belle situazioni. Giusto oggi su amazon c'è l'LG 27GN850 scontato sulle 350€.
Sberla101
19-10-2021, 13:49
Buongiorno a tutti, da oggi sono un, spero, felice possessore di RTX 3080Ti FE, presa con l'ultimo Drop, ancora non l'ho montata, vorrei chiedervi qual è il miglior Bracket/supporto GPU per le Founders Edition.
Grazie in anticipo
razor820
19-10-2021, 15:08
Buongiorno a tutti, da oggi sono un, spero, felice possessore di RTX 3080Ti FE, presa con l'ultimo Drop, ancora non l'ho montata, vorrei chiedervi qual è il miglior Bracket/supporto GPU per le Founders Edition.
Grazie in anticipo
non credo abbia bisogno di gpu bracket.
Montato la mia stamattina calza a pennello.
Nemmeno nella strix avevo un gpu bracket, non tendeva ad inclinarsi.. Mi sono sembrate sempre delle tamarrate.
Comunque ho notato che da msi ab, non mi da i sensori del gpu clock.. Mentre con hwinfo si.
Qualcuno che trova un undervolt affidabile lo posti. Avevo messo a 0.825 a 1900 e crashava
Adesso sono a 0.850 a 1800 e per adesso nessun problema
0.825 a 1900 è gold chip
Anche 0.85 sarebbe tanta roba
fraussantin
19-10-2021, 15:13
non credo abbia bisogno di gpu bracket.
Montato la mia stamattina calza a pennello.
Nemmeno nella strix avevo un gpu bracket, non tendeva ad inclinarsi.. Mi sono sembrate sempre delle tamarrate.
Comunque ho notato che da msi ab, non mi da i sensori del gpu clock.. Mentre con hwinfo si.
Qualcuno che trova un undervolt affidabile lo posti. Avevo messo a 0.825 a 1900 e crashava
Adesso sono a 0.850 a 1800 e per adesso nessun problemaUno sicuro é 900 1900 , ma vai diretto a 870 1900 la mia sta tenendo bene. Forse regge anche meno ..
Riguardo il piegarsi é veramente un blocco di metallo la vedo difficile .. più facile su spezzi il picie se non é rinforzato :asd:
mikael84
19-10-2021, 15:15
non credo abbia bisogno di gpu bracket.
Montato la mia stamattina calza a pennello.
Nemmeno nella strix avevo un gpu bracket, non tendeva ad inclinarsi.. Mi sono sembrate sempre delle tamarrate.
Comunque ho notato che da msi ab, non mi da i sensori del gpu clock.. Mentre con hwinfo si.
Qualcuno che trova un undervolt affidabile lo posti. Avevo messo a 0.825 a 1900 e crashava
Adesso sono a 0.850 a 1800 e per adesso nessun problema
Il picco migliore di questi transistor è 0,9v. prova 0,9/1900.;)
razor820
19-10-2021, 15:25
Uno sicuro é 900 1900 , ma vai diretto a 870 1900 la mia sta tenendo bene. Forse regge anche meno ..
Riguardo il piegarsi é veramente un blocco di metallo la vedo difficile .. più facile su spezzi il picie se non é rinforzato :asd:
Penso che ormai, a patto di non avere una mobo scadente, il pci ex è rinforzato a due strati.
Il picco migliore di questi transistor è 0,9v. prova 0,9/1900.;)
tra 1800 e 1900mhz praticamente la differenza è irrisoria quasi inesistente.
Che benchmark consigliate?
Superposition o altro?
amon.akira
19-10-2021, 15:31
tra 1800 e 1900mhz praticamente la differenza è irrisoria quasi inesistente.
Che benchmark consigliate?
Superposition o altro?
5.5% di clock, devi fare 2bench e vedere la differenza di prestazioni
fraussantin
19-10-2021, 15:33
Per la stabilità in gioco bright Memory . O cyberpunk.
Superposition é immortale . Oltretutto non mi causava neppure l'interferenza in cuffia quindi immagino che usi a modo suo la scheda
razor820
19-10-2021, 15:38
Per la stabilità in gioco bright Memory . O cyberpunk.
Superposition é immortale . Oltretutto non mi causava neppure l'interferenza in cuffia quindi immagino che usi a modo suo la scheda
Non so, superposition assieme a Metro Exodus è quello che mi ha fatto sempre impennare le temperature. Comunque Saro che sono abituato a bassi rpm ma già a 2500 rpm sono abbastanza rumorose
EDIT:
aggiungo screen del benchmark superposition in 4k sia in stock che undervolt.
https://i.ibb.co/tZBNHjC/superposition-STOCK.jpg (https://ibb.co/tZBNHjC) https://i.ibb.co/LxJP3Xq/superposition-UV.jpg (https://ibb.co/LxJP3Xq)
fraussantin
19-10-2021, 15:48
Non so, superposition assieme a Metro Exodus è quello che mi ha fatto sempre impennare le temperature. Comunque Saro che sono abituato a bassi rpm ma già a 2500 rpm sono abbastanza rumoroseSuperposition prende i watt quello si . Ma non crasha mai.
Per il rumore boh forse anche il case fa la differenza.
mikael84
19-10-2021, 15:58
Penso che ormai, a patto di non avere una mobo scadente, il pci ex è rinforzato a due strati.
tra 1800 e 1900mhz praticamente la differenza è irrisoria quasi inesistente.
Che benchmark consigliate?
Superposition o altro?
Non so, superposition assieme a Metro Exodus è quello che mi ha fatto sempre impennare le temperature. Comunque Saro che sono abituato a bassi rpm ma già a 2500 rpm sono abbastanza rumorose
EDIT:
aggiungo screen del benchmark superposition in 4k sia in stock che undervolt.
Beh si, è per sfruttarla meglio, altrimenti volendo puoi anche abbassare il PL e vedi, che sò 90/79°...80/75° e vedi le oscillazioni sul clock. Così stai sotto i 300watt.
Cmq non mettere 4k optimized, in quanto è un 4k a dettagli bassi, usa il 1080p ultra, che è più pesante.
razor820
19-10-2021, 16:22
Sto provando da un po' Cb2077..
È veramente triste che in 1440p tutto ultra senza dls e senza rtx una 3080ti faccia 55 fps di media... Mi trovo nella zona del mercato che tra auto, nebbia, fumo e passanti è abbastanza pesante
adesso mi trovo
TigerTank
19-10-2021, 17:43
Sto provando da un po' Cb2077..
È veramente triste che in 1440p tutto ultra senza dls e senza rtx una 3080ti faccia 55 fps di media... Mi trovo nella zona del mercato che tra auto, nebbia, fumo e passanti è abbastanza pesante
adesso mi trovo
Stiamo vivendo tempi strani, tra mattoni buggati e piccole perle che spuntano a sorpresa :sofico:
HL2 rivisto con le Vulkan e supporto 21:9 (https://gaming.hwupgrade.it/news/videogames/half-life-2-immortale-la-nuova-patch-porta-le-api-vulkan-e-non-solo_101685.html).
Questa batte molti nuovi titoli :asd:
razor820
19-10-2021, 18:02
Stiamo vivendo tempi strani, tra mattoni buggati e piccole perle che spuntano a sorpresa :sofico:
HL2 rivisto con le Vulkan e supporto 21:9 (https://gaming.hwupgrade.it/news/videogames/half-life-2-immortale-la-nuova-patch-porta-le-api-vulkan-e-non-solo_101685.html).
Questa batte molti nuovi titoli :asd:
eh si avevo visto.
Comunque penso che il DLS faccia la sua figura in 4k. In 1440p tende a downscalare troppo in certe situazioni
TigerTank
19-10-2021, 18:07
eh si avevo visto.
Comunque penso che il DLS faccia la sua figura in 4k. In 1440p tende a downscalare troppo in certe situazioni
Prova magari con versioni più aggiornate.
Questo tizio ha testato la 2.3:
https://www.youtube.com/watch?v=WjXIGamKqLM
sertopica
19-10-2021, 18:23
eh si avevo visto.
Comunque penso che il DLS faccia la sua figura in 4k. In 1440p tende a downscalare troppo in certe situazioni
Il miglior dlss a mio avviso (a 1440p quality) e' il White Collie 2 che puoi scaricare qui: https://developer.nvidia.com/dlss/research
Il 2.3 causa almeno sul mio sistema troppo ghosting su fonte di luce distanti e cavi della luce.
nickname88
19-10-2021, 18:24
Sto provando da un po' Cb2077..
È veramente triste che in 1440p tutto ultra senza dls e senza rtx una 3080ti faccia 55 fps di media... Mi trovo nella zona del mercato che tra auto, nebbia, fumo e passanti è abbastanza pesante
adesso mi trovo
Guarda che è il tuo è un risultato anomalo, molti utenti quì dentro a 1440p fanno sui 70fps pure con AMD ( che il DLSS non ce l'ha ).
TigerTank
19-10-2021, 18:26
Il miglior dlss a mio avviso (a 1440p quality) e' il White Collie 2 che puoi scaricare qui: https://developer.nvidia.com/dlss/research
Il 2.3 causa almeno sul mio sistema troppo ghosting su fonte di luce distanti e cavi della luce.
Interessante, grazie...non conoscevo quella pagina :)
razor820
19-10-2021, 18:28
Prova magari con versioni più aggiornate.
Questo tizio ha testato la 2.3:
https://www.youtube.com/watch?v=WjXIGamKqLM
Dovrei aver aggiornato tutto.
Mi sono un po perso...
Questo tizio per avere il 2.3 ha fatto qualche aggiornamento particolare?
TigerTank
19-10-2021, 18:31
Dovrei aver aggiornato tutto.
Mi sono un po perso...
Questo tizio per avere il 2.3 ha fatto qualche aggiornamento particolare?
Devi solo sostituire la DLL originale nel gioco (facendo un backup).
Al massimo prova con quella consigliata da sertopica ;)
Per trovarla velocemente tra le sottocartelle di un gioco basta che vai nella cartella principale e cerchi "nvngx" dalla funzione di ricerca integrata nella finestra.
Stiamo vivendo tempi strani, tra mattoni buggati e piccole perle che spuntano a sorpresa :sofico:
HL2 rivisto con le Vulkan e supporto 21:9 (https://gaming.hwupgrade.it/news/videogames/half-life-2-immortale-la-nuova-patch-porta-le-api-vulkan-e-non-solo_101685.html).
Questa batte molti nuovi titoli :asd:
Nostalgia :)
fraussantin
19-10-2021, 18:48
Guarda che è il tuo è un risultato anomalo, molti utenti quì dentro a 1440p fanno sui 70fps pure con AMD ( che il DLSS non ce l'ha ).Sto provando da un po' Cb2077..
È veramente triste che in 1440p tutto ultra senza dls e senza rtx una 3080ti faccia 55 fps di media... Mi trovo nella zona del mercato che tra auto, nebbia, fumo e passanti è abbastanza pesante
adesso mi trovoIn quel punto faccio 50-55 FPS anche io , ma in RT con dlssQ
Ci sono 3 o 4 zone bestiali.
TigerTank
19-10-2021, 18:52
In quel punto faccio 50-55 FPS anche io , ma in RT con dlssQ
Ci sono 3 o 4 zone bestiali.
Cyberbug è un gioco futuristico, nel senso che sarà pane per le 4000 :sofico:
razor820
19-10-2021, 19:29
In quel punto faccio 50-55 FPS anche io , ma in RT con dlssQ
Ci sono 3 o 4 zone bestiali.
La cosa assurda che con dlsQ o con RT ultra o disattivato perdo in media 5 fps... Qualcosa non mi torna.. Possibile che dal day one abbiano snellito un po gli effetti di illuminazione?
fraussantin
19-10-2021, 20:07
La cosa assurda che con dlsQ o con RT ultra o disattivato perdo in media 5 fps... Qualcosa non mi torna.. Possibile che dal day one abbiano snellito un po gli effetti di illuminazione?Secondo me al mercato c'é troppa gente e troppa caciara , per quello droppa fps
sertopica
19-10-2021, 20:11
^ Dipende anche dalla CPU che ha. Che ci sia un qualche bottleneck? Il red engine adora anche le ram ad alta frequenza.
Interessante, grazie...non conoscevo quella pagina :)
No prob.
L'avevo segnalata qui alla sua uscita ma non se l'e' cagata nessuno. :asd:
razor820
19-10-2021, 20:58
^ Dipende anche dalla CPU che ha. Che ci sia un qualche bottleneck? Il red engine adora anche le ram ad alta frequenza.
No prob.
L'avevo segnalata qui alla sua uscita ma non se l'e' cagata nessuno. :asd:
Si usa molto la cpu.. Ho un i7 8700k Ma non passa mai il 90%
La ram 32gb ddr4 a 3200mhz..
Per ora cambiare cpu non credo mi convenga.
Cosa dovrei prendere? boh
nickname88
19-10-2021, 23:27
In quel punto faccio 50-55 FPS anche io , ma in RT con dlssQ
Ci sono 3 o 4 zone bestiali.A 1440p ?
3080 liscia o Ti ?
Alekos Panagulis
20-10-2021, 05:47
Si usa molto la cpu.. Ho un i7 8700k Ma non passa mai il 90%
La ram 32gb ddr4 a 3200mhz..
Per ora cambiare cpu non credo mi convenga.
Cosa dovrei prendere? bohX570 + 5800x
Inviato dal mio IN2023 utilizzando Tapatalk
fraussantin
20-10-2021, 06:38
A 1440p ?
3080 liscia o Ti ?
Liscia 1440p
Cosa dovrei prendere? boh
Nulla , tieniti l'8700 e quando le ddr5 e le nuove piattaforme saranno abbordabili farai un cambio.
Per un gioco poi ..
sertopica
20-10-2021, 07:21
Si usa molto la cpu.. Ho un i7 8700k Ma non passa mai il 90%
La ram 32gb ddr4 a 3200mhz..
Per ora cambiare cpu non credo mi convenga.
Cosa dovrei prendere? boh
E' quella fidati, controlla quanto la spreme in scene molto affollate. :D
La RAM va bene a 3.2GHz ma ho visto guadagni -naturalmente piu' risicati- anche andando oltre (sto a 4GHz ora). Certo se si rilassano eccessivamente i timings poi non ne vale la pena di salire troppo.
Comunque non cambiare ora, e' il periodo peggiore. Un altro annetto ce lo puoi fare.
Come ho gia' ribadito altre volte, c'e' da considerare che il DLSS mette piu' sotto sforzo la CPU essendo la risoluzione interna inferiore di quella a schermo. Quindi a 1440p sei a circa 960p usando DLSS quality. Inoltre anche il RT vuole una CPU cazzuta per lavorare al meglio. Mi dispiace ma il 8700k e' sottodimensionato per la GPU che ti sei accaparrato, puo' andare meglio con certi engine ma comunque giochi in perdita rispetto a CPU piu' moderne in commercio.
Alekos Panagulis
20-10-2021, 07:21
E' quella fidati. :D
La RAM va bene a 3.2GHz ma ho visto guadagni naturalmente piu' risicati anche andando oltre (sto a 4GHz ora).
Come ho gia' ribadito altre volte, c'e' da considerare che il DLSS mette piu' sotto sforzo la CPU essendo la risoluzione interna inferiore di quella a schermo. Quindi a 1440p sei a circa 960p usando DLSS quality. Inoltre anche il RT vuole una CPU cazzuta per lavorare al meglio. Mi dispiace ma il 8700k e' sottodimensionato per la GPU che ti sei accaparrato, puo' andare meglio con certi engine ma comunque giochi in perdita rispetto a CPU piu' moderne in commercio.Eh appunto.
Inviato dal mio IN2023 utilizzando Tapatalk
razor820
20-10-2021, 07:53
no sicuramente non cambio cpu per un gioco che poi ho già completato da un pezzo. :D
Cb2077 lo tengo solo per stress benchmark.
Anch io avevo pensato in passato al 5800 di amd. Ma per due core in più non ne vale la pena, se dovessi upgradare in futuro vado di 10 core.
Ma come detto prima da frauss, ormai aspettare ddr5. Certo poi se dovessi trovare nel mercatino qualche affare, mai dire mai..
@frauss l altra volta
chiedevi per l interferenza della scheda audio con la gpu.
Come detto precedentemente sentivo il lieve fruscio nelle cuffie con volume basso o silenzioso con la strix. Adesso assurdo con la 3080ti fe non sento nemmeno quello...
fraussantin
20-10-2021, 08:02
@frauss l altra volta
chiedevi per l interferenza della scheda audio con la gpu.
Come detto precedentemente sentivo il lieve fruscio nelle cuffie con volume basso o silenzioso con la strix. Adesso assurdo con la 3080ti fe non sento nemmeno quello...
Boh va a fortuna probabilmente , cmq ho cambiato chieda audio , ho messo una g6 USB e adesso il suono é pulitissimo.
Solo che questi aggeggini dal valore di una manciata di euro di componenti , se li fanno pagare e bene.
razor820
20-10-2021, 08:13
Boh va a fortuna probabilmente , cmq ho cambiato chieda audio , ho messo una g6 USB e adesso il suono é pulitissimo.
Solo che questi aggeggini dal valore di una manciata di euro di componenti , se li fanno pagare e bene.
quella che hai preso tu è migliore dei modelli che sono appena usciti in quanto non arrivano a 32 bit.
Volevo prenderla anch io poi mi son rotto ho troppe periferiche usb
TigerTank
20-10-2021, 09:13
chiedevi per l interferenza della scheda audio con la gpu.
Come detto precedentemente sentivo il lieve fruscio nelle cuffie con volume basso o silenzioso con la strix. Adesso assurdo con la 3080ti fe non sento nemmeno quello...
In pratica l'opposto rispetto a Frauss che non sentiva nulla con l'evga mentre il problema gli è sorto con la 3080FE. Mistero.... :D
Probabilmente è un qualcosa che salta fuori o meno in base alla componentistica del singolo pezzo hardware, tra scheda video e mobo. Boh...
Io e Thunder comunque abbiano la X3 e a parte il SXFI arriva ai 32bit-192KHz. La X4 stranamente si ferma ai 24.
razor820
20-10-2021, 09:21
In pratica l'opposto rispetto a Frauss che non sentiva nulla con l'evga mentre il problema gli è sorto con la 3080FE. Mistero.... :D
Probabilmente è un qualcosa che salta fuori o meno in base alla componentistica del singolo pezzo hardware, tra scheda video e mobo. Boh...
Io e Thunder comunque abbiano la X3 e a parte il SXFI arriva ai 32bit-192KHz. La X4 stranamente si ferma ai 24.
Anch io a questo punto penso sia qualcosa dovuto alla componentistica interna, al rapporto tra pci gpu-mobo a pci audio-mobo..
Non saprei.
Comunque so solo che con l audio integrata della mobo o con il dac usb esterno non avevo problemi
Alekos Panagulis
20-10-2021, 09:33
no sicuramente non cambio cpu per un gioco che poi ho già completato da un pezzo. :D
Cb2077 lo tengo solo per stress benchmark.
Anch io avevo pensato in passato al 5800 di amd. Ma per due core in più non ne vale la pena, se dovessi upgradare in futuro vado di 10 core.
Ma come detto prima da frauss, ormai aspettare ddr5. Certo poi se dovessi trovare nel mercatino qualche affare, mai dire mai..
@frauss l altra volta
chiedevi per l interferenza della scheda audio con la gpu.
Come detto precedentemente sentivo il lieve fruscio nelle cuffie con volume basso o silenzioso con la strix. Adesso assurdo con la 3080ti fe non sento nemmeno quello...
La differenza fra l'8700k e il 5800x non sono solo i due core, ma l'ipc. Ce ne passa...
Cmq non ha senso cambiare piattaforma per un gioco solamente.
Rimane il fatto che la 3080 con l'8700k può essere fortemente limitata in alcuni scenari, soprattutto se usi il DLSS.
Tieni anche presente che il prezzo delle DDR5 dovrebbe essere stellare, e potrebbe rimanere alto per molto tempo visto il periodo in cui ci troviamo.
fraussantin
20-10-2021, 09:41
In pratica l'opposto rispetto a Frauss che non sentiva nulla con l'evga mentre il problema gli è sorto con la 3080FE. Mistero.... :D
Probabilmente è un qualcosa che salta fuori o meno in base alla componentistica del singolo pezzo hardware, tra scheda video e mobo. Boh...
Io e Thunder comunque abbiano la X3 e a parte il SXFI arriva ai 32bit-192KHz. La X4 stranamente si ferma ai 24.
Anch io a questo punto penso sia qualcosa dovuto alla componentistica interna, al rapporto tra pci gpu-mobo a pci audio-mobo..
Non saprei.
Comunque so solo che con l audio integrata della mobo o con il dac usb esterno non avevo problemi
cmq a parte tutto tra 24 e 32 non penso cambi molto. quello che conta è la pulizia e l'amplificazione ( nel mio caso)
la x3-x4 sono piu indicate se uno le usa per delle casse oltre alle cuffie , questa che ho preso io l'ho scelta perchè me l'hanno consigliata in quanto ha un bi-amplificatore per cuffie e regge realmente bene cuffie sia leggere come la mia ma anche cuffie piu toste ( se mai volessi cambiare). ( e puo essere anche usata altrove ) per delle casse ha i connettori 2.0 e ottico , ma dubito che supporti il 7.1
e poi perchè l'ho trovata usata a quasi metà prezzo e mi è arrivata praticamente solo spellicolata senza alcun graffio.
PS che poi le 681 anche se a soli 32 ohm non é che siano proprio leggerissime. Con l'audio della mobo non rendevano per niente , e la strix 570e ha un comparto audio di un certo livello.
\ot
TigerTank
20-10-2021, 09:47
cmq a parte tutto tra 24 e 32 non penso cambi molto. quello che conta è la pulizia e l'amplificazione ( nel mio caso)
la x3-x4 sono piu indicate se uno le usa per casse oltre a cuffie , questa che ho preso io l'ho scelta perchè me l'hanno consigliata in quanto ha un bi-amplificatore per cuffie e regge realmente bene cuffie sia leggere come la mia ma anche cuffie piu toste ( se mai volessi cambiare). ( e puo essere anche usata altrove )
e poi perchè l'ho trovata usata a quasi metà prezzo e mi è arrivata praticamente solo spellicolata senza alcun graffio.
Sì alla fine hai fatto bene, l'importante è che tu abbia risolto perchè un'interferenza in cuffia è una delle cose più fastidiose esistenti :D
Evidentemente è un problema che si trasmette nei connettori PCI-E.
Piccola parentesi: sì va benone con le casse(ed eventuale SBX) ma l'SXFI(o Super X-Fi) è specifico per le cuffie :)
Cutter90
20-10-2021, 09:47
E' quella fidati, controlla quanto la spreme in scene molto affollate. :D
La RAM va bene a 3.2GHz ma ho visto guadagni -naturalmente piu' risicati- anche andando oltre (sto a 4GHz ora). Certo se si rilassano eccessivamente i timings poi non ne vale la pena di salire troppo.
Comunque non cambiare ora, e' il periodo peggiore. Un altro annetto ce lo puoi fare.
Come ho gia' ribadito altre volte, c'e' da considerare che il DLSS mette piu' sotto sforzo la CPU essendo la risoluzione interna inferiore di quella a schermo. Quindi a 1440p sei a circa 960p usando DLSS quality. Inoltre anche il RT vuole una CPU cazzuta per lavorare al meglio. Mi dispiace ma il 8700k e' sottodimensionato per la GPU che ti sei accaparrato, puo' andare meglio con certi engine ma comunque giochi in perdita rispetto a CPU piu' moderne in commercio.
Per la verità, se l'8700k è in oc, bello tosto può tranquillamente essere ottimo per la 3080ti. A momenti ci stavo io con la 3090 e il 6700k deliddato (che aveva prestazioni poco superiori al 7700k con Oc leggero). Tranne in cp e qualche altro gioco, molto pochi per la verità. Con l'8700k, tirato bene, nemmeno in cp2077 è un collo a momenti, figuriamoci negli altri giochi.
razor820
20-10-2021, 09:50
La differenza fra l'8700k e il 5800x non sono solo i due core, ma l'ipc. Ce ne passa...
Cmq non ha senso cambiare piattaforma per un gioco solamente.
Rimane il fatto che la 3080 con l'8700k può essere fortemente limitata in alcuni scenari, soprattutto se usi il DLSS.
Tieni anche presente che il prezzo delle DDR5 dovrebbe essere stellare, e potrebbe rimanere alto per molto tempo visto il periodo in cui ci troviamo.
si questo lo so. Era solamente lo sfizio di avere qualche core in più.
Restando in 1440p evito il DLS,
Discorso cambia se dovessi collegare la tv 4k
Non ho ancora provato l altro mattone, ovvero red2.
Ho visto che è stato inserito pure il DLS.
Io sinceramente con il TAA mi trovavo abbastanza bene.
Non avendolo provato non so quale dei due filtri renda meglio. Intendo graficamente
Cutter90
20-10-2021, 10:22
si questo lo so. Era solamente lo sfizio di avere qualche core in più.
Restando in 1440p evito il DLS,
Discorso cambia se dovessi collegare la tv 4k
Non ho ancora provato l altro mattone, ovvero red2.
Ho visto che è stato inserito pure il DLS.
Io sinceramente con il TAA mi trovavo abbastanza bene.
Non avendolo provato non so quale dei due filtri renda meglio. Intendo graficamente
Il dlss quality nei giochi con TAA ne aumenta molto la nitidezza. Infatti sono parecchi i giochi in cui avere il dlss qualità risulta migliore del 4k nativo+TAA, Tipo in nioh2, outriders e death stranding ad esempio.
In 1440p avendo la 3080 ti non ti dovrebbe servire il dlss, ma è da verificare se vale lo stesso ragionamento che per il 4k.
fraussantin
20-10-2021, 10:30
Cmq il dlss non penso che impatti più sulla CPU , é solo che se lo usi per alzare FPS é normale che serva più spinta .
Se giochi a 90 FPS con taa in rdr2 e li tieni ( io li tenevo con la 3080 ) se ci metti il dlss che é più nitido sempre lockato a 90 FPS l'uso della CPU dovrebbe essere il solito
Poi per dare nitidezza ci sono altri sistemi , io ultimamente uso se.pre reshade
dylandog_666
20-10-2021, 11:12
io con un dac amp USB il ronzio purtroppo lo sento, speravo scomparisse...
Alekos Panagulis
20-10-2021, 11:16
Cmq il dlss non penso che impatti più sulla CPU , é solo che se lo usi per alzare FPS é normale che serva più spinta .
Se giochi a 90 FPS con taa in rdr2 e li tieni ( io li tenevo con la 3080 ) se ci metti il dlss che é più nitido sempre lockato a 90 FPS l'uso della CPU dovrebbe essere il solito
Poi per dare nitidezza ci sono altri sistemi , io ultimamente uso se.pre reshade
Finché la gpu resta al 99%, la cpu non fa da collo di bottiglia.
Il discorso è che - come sappiamo bene - la cpu fa da collo di bottiglia quando non riesce a stare dietro al framerate che è in grado di renderizzare la GPU.
Poiché usare il DLSS è come impostare una risoluzione inferiore, è chiaro che c'è più probabilità di incorrere in uno scenario CPU bottlenecked....ma non è detto: se il gioco è fortemente dipendente dalla gpu, come Cyberbug, non si verifica nemmeno a 1080p.
dylandog_666
20-10-2021, 11:32
io con un dac amp USB il ronzio purtroppo lo sento, speravo scomparisse...
fraussantin
20-10-2021, 11:51
Finché la gpu resta al 99%, la cpu non fa da collo di bottiglia.
Il discorso è che - come sappiamo bene - la cpu fa da collo di bottiglia quando non riesce a stare dietro al framerate che è in grado di renderizzare la GPU.
Poiché usare il DLSS è come impostare una risoluzione inferiore, è chiaro che c'è più probabilità di incorrere in uno scenario CPU bottlenecked....ma non è detto: se il gioco è fortemente dipendente dalla gpu, come Cyberbug, non si verifica nemmeno a 1080p.Si si questo é ovvio, dicevo se vuol provare la nitidezza del dlss gli basta non sfruttare gli FPS in più che gli permette di avere e può farlo . Ovviamente la GPU non andrà al 100%.
Cmq io preferisco sempre nativa+reshade
io con un dac amp USB il ronzio purtroppo lo sento, speravo scomparisse...Prova a cambiare porta USB . É veramente assurdo . Che DAC usi?
Se ha la porta ottica usa quella ( sempre se ce l'hai sulla mobo)
razor820
20-10-2021, 12:15
Si si questo é ovvio, dicevo se vuol provare la nitidezza del dlss gli basta non sfruttare gli FPS in più che gli permette di avere e può farlo . Ovviamente la GPU non andrà al 100%.
Cmq io preferisco sempre nativa+reshade
Tra Taa e DLs quello meno scalato non dovrebbe essere il primo?
Convinto che il TAA fosse più nitido con l impostazione di nitidezza.
Per quanto riguarda il reshade. Hai detto che generalmente usi risoluzione nativa senza filtro AA? Quali filtri reshade usi per l antialiasing?
fraussantin
20-10-2021, 12:20
Tra Taa e DLs quello meno scalato non dovrebbe essere il primo?
Convinto che il TAA fosse più nitido con l impostazione di nitidezza.
Per quanto riguarda il reshade. Hai detto che generalmente usi risoluzione nativa senza filtro AA? Quali filtri reshade usi per l antialiasing?Quello dipende molto dal monitor e dal gusto personale , cmq io uso o lumasharpen o quello chiamato AMD-qualcosa che credo sia quello del fidality FX.
razor820
20-10-2021, 12:27
Quello dipende molto dal monitor e dal gusto personale , cmq io uso o lumasharpen o quello chiamato AMD-qualcosa che credo sia quello del fidality FX.
Monitor è uguale al tuo.
Poi provo. il fidality fx a me piace anche se in passato ho letto che a molti non piace proprio..
dylandog_666
20-10-2021, 12:29
Prova a cambiare porta USB . É veramente assurdo . Che DAC usi?
Se ha la porta ottica usa quella ( sempre se ce l'hai sulla mobo)
E' un Fiio e10k , proverò a cambiare porta, grazie della dritta!
Niente porta ottica purtroppo.
Cmq il dlss non penso che impatti più sulla CPU
ci sono test in merito sul tubo se uno vuole togliersi la curiosità (mai visti personalmente ma so che ci sono)
E' un Fiio e10k , proverò a cambiare porta, grazie della dritta!
Niente porta ottica purtroppo.
E' un'interferenza elettromagnetica sicuramente a meno che lo faccia da sempre e a quel punto potrebbe essere difettato ma non penso risolverai nulla cambiando porta USB
razor820
20-10-2021, 15:37
Oggi ho potuto finalmente maxare tutto, ma dico tutto su red2..
Riesco a tenere 65-70 fps di media..
Ho provato per curiosità anche Msax4 e sinceramente non mi è piaciuto.
Ho selezionato dls qualità, non mi sarei mai aspettato che fosse stato implementato cosi bene. Non c'è nemmeno bisogno di giocare sulla nitidezza rispetto ad altri giochi
ninja750
20-10-2021, 15:54
Oggi ho potuto finalmente maxare tutto, ma dico tutto su red2..
riesci a vedere differenze qualitative a occhio tra mettere lo slide tutto su max, e tra maxare tutte le singole voci? io no
e c'è una bella differenza di perf
razor820
20-10-2021, 15:58
riesci a vedere differenze qualitative a occhio tra mettere lo slide tutto su max, e tra maxare tutte le singole voci? io no
e c'è una bella differenza di perf
Sinceramente non lo so se tra High e ultra ci sia tutta questa differenza grafica.
Posso dire solo che gli effetti volumetrici, ombre e acqua fanno la differenza in questo gioco. LA tessellatura degli alberi la noto, ma la notavo gia da tempo.
Certo che portare quei 3 valori da ultra a high boostano dai 20 ai 30 fps????
Martedì è arrivata la 3070ti e sto continuando a fare test a confronto con la 6800, tra undervolt e overclock mi avvicino alle prestazione della 6800 stock (ovviamente se overclocco anche questo ciaone) , pensavo di usare di più rtx e invece nonostante il DLSS (non credevo fosse cosi superiore all'fsr) mi trovo a disattivarlo, oltre al fatto che la mia unità soffre di un fastidioso coil whine per ora le la 6800 sembra più a fuoco, nonostante la 3070ti sia, forse, più equilibrata perché sacrificando un po' le prestazioni in raster mi permette di usare il dlss dove serve.
Cutter90
21-10-2021, 08:19
Martedì è arrivata la 3070ti e sto continuando a fare test a confronto con la 6800, tra undervolt e overclock mi avvicino alle prestazione della 6800 stock (ovviamente se overclocco anche questo ciaone) , pensavo di usare di più rtx e invece nonostante il DLSS (non credevo fosse cosi superiore all'fsr) mi trovo a disattivarlo, oltre al fatto che la mia unità soffre di un fastidioso coil whine per ora le la 6800 sembra più a fuoco, nonostante la 3070ti sia, forse, più equilibrata perché sacrificando un po' le prestazioni in raster mi permette di usare il dlss dove serve.
Perchè "ti trovi a disattivarlo"? Non stai giocando ai giochi lo utilizzano in modo convincente?
Perchè "ti trovi a disattivarlo"? Non stai giocando ai giochi lo utilizzano in modo convincente?
Ho provato un po' cyberpunk ,watch dogs (anche se qui ho un problema di cpu usata al 80% e non so perché) e ghostrunner e mi sono trovato ad essere più colpito dalla perdita di prestazioni rispetto al miglioramento grafico.
TigerTank
21-10-2021, 08:38
Martedì è arrivata la 3070ti e sto continuando a fare test a confronto con la 6800, tra undervolt e overclock mi avvicino alle prestazione della 6800 stock (ovviamente se overclocco anche questo ciaone) , pensavo di usare di più rtx e invece nonostante il DLSS (non credevo fosse cosi superiore all'fsr) mi trovo a disattivarlo, oltre al fatto che la mia unità soffre di un fastidioso coil whine per ora le la 6800 sembra più a fuoco, nonostante la 3070ti sia, forse, più equilibrata perché sacrificando un po' le prestazioni in raster mi permette di usare il dlss dove serve.
a) Il resto della configurazione.
b) Monitor e risoluzione?
c) Nel passaggio da 6800 a 3070Ti hai fatto una pulizia approfondita dei drivers(tipo tramite DDU in provvisoria)?
d)Circa il coil whine, in caso attiva il vsync o usa un frame limiter. Che è anche consigliabile in caso di monitor gsync compatible.
Comunque con Cyberpunk in primis è normale, soprattutto se sei in 4K. E' un bel mattone anche con DLSS attivo.
Cutter90
21-10-2021, 08:39
Ho provato un po' cyberpunk ,watch dogs (anche se qui ho un problema di cpu usata al 80% e non so perché) e ghostrunner e mi sono trovato ad essere più colpito dalla perdita di prestazioni rispetto al miglioramento grafico.
Cyberpunck con rt cambia davvero tantissimo e le recupere con il dlss le performance.
Watch dogs, anche lui ne giova tanto con rt attivo.
Ghostrunner invece ha solo quello sui riflessi e la fluidità in quel gioco è tutto. L'ho giocato disattivandolo anche io quello.
A che definizione giochi? Cpu?
sertopica
21-10-2021, 09:09
Per la verità, se l'8700k è in oc, bello tosto può tranquillamente essere ottimo per la 3080ti. A momenti ci stavo io con la 3090 e il 6700k deliddato (che aveva prestazioni poco superiori al 7700k con Oc leggero). Tranne in cp e qualche altro gioco, molto pochi per la verità. Con l'8700k, tirato bene, nemmeno in cp2077 è un collo a momenti, figuriamoci negli altri giochi.
Mi pare non fossi dello stesso avviso quando qualcuno con il 6700k chiese se la 3080 andasse bene o facesse da bottleneck circa un annetto fa. :D
Comunque in linea generale dipende sempre da engine a engine e se ci siano ray tracing e dlss di mezzo. Sui minimi possono ballarci in alcuni casi anche piu' di 10 fps. Buttali via! Non e' solo il numero di core a fare la differenza o la frequenza stessa ma anche i cambiamenti all'architettura.
fraussantin
21-10-2021, 09:29
Cyberpunck con rt cambia davvero tantissimo e le recupere con il dlss le performance.
Watch dogs, anche lui ne giova tanto con rt attivo.
Ghostrunner invece ha solo quello sui riflessi e la fluidità in quel gioco è tutto. L'ho giocato disattivandolo anche io quello.
A che definizione giochi? Cpu?In Ghost runner RT è buggato .
Scatta e lagga troppo.
Meglio dx11 pulito , o al limite con dlss se uno ha una GPU poco potente visto che non è ottimizzato un granché.
Cyberpunck con rt cambia davvero tantissimo e le recupere con il dlss le performance.
Watch dogs, anche lui ne giova tanto con rt attivo.
Ghostrunner invece ha solo quello sui riflessi e la fluidità in quel gioco è tutto. L'ho giocato disattivandolo anche io quello.
A che definizione giochi? Cpu?
Ho un ryzen 5 3600 (forse potrebbe soffrire con l'overhead dei driver nvidia ) e la risoluzione è 3440x1440.
FrancoBit
21-10-2021, 09:43
Ho un ryzen 5 3600 (forse potrebbe soffrire con l'overhead dei driver nvidia ) e la risoluzione è 3440x1440.
L'ho avuta per un mesetto una 3070ti, a risoluzione 3840*1600, arrivavo da una 2080s e devo dire che non mi ha entusiasmato. Passato poi alla 3080 e ho iniziato a godere. Non so, se non ti frega di rtx io andrei con la 6800, oltretutto l'altra la piazzi facile se non ti serve...
Thunder-74
21-10-2021, 09:44
NVIDIA rilascia un aggiornamento del firmware per GeForce RTX 3080 Ti e RTX 3060 che risolve i problemi di DisplayID
aggiornamento del firmware (https://us.download.nvidia.com/Windows/uefi/firmware/1.0/NVIDIA_DisplayID_Firmware_Updater_1.0-x64.exe) (leggete bene prima di farlo)
FONTE (https://videocardz.com/newz/nvidia-releases-firmware-update-for-geforce-rtx-3080-ti-and-rtx-3060-fixing-displayid-issues)
Cutter90
21-10-2021, 10:05
Mi pare non fossi dello stesso avviso quando qualcuno con il 6700k chiese se la 3080 andasse bene o facesse da bottleneck circa un annetto fa. :D
Comunque in linea generale dipende sempre da engine a engine e se ci siano ray tracing e dlss di mezzo. Sui minimi possono ballarci in alcuni casi anche piu' di 10 fps. Buttali via! Non e' solo il numero di core a fare la differenza o la frequenza stessa ma anche i cambiamenti all'architettura.
Ma non è vero. Il 6700k ce l'avevo e so benissimo che problemi poteva dare. I minimi e su ALCUNI giochi, limita gli fps sopra i 70. Ma dipende fortemente da gioco a gioco. E il 90% dei giochi è un collo sopportabile o nullo. Ma chiaramente il mio era portato al limite, deliddato a 4.8 ghz fissi.
Ed ho sempre parlato di 4k, con fps con cui si gioca appena sopra i 60....
razor820
21-10-2021, 10:09
NVIDIA rilascia un aggiornamento del firmware per GeForce RTX 3080 Ti e RTX 3060 che risolve i problemi di DisplayID
aggiornamento del firmware (https://us.download.nvidia.com/Windows/uefi/firmware/1.0/NVIDIA_DisplayID_Firmware_Updater_1.0-x64.exe) (leggete bene prima di farlo)
FONTE (https://videocardz.com/newz/nvidia-releases-firmware-update-for-geforce-rtx-3080-ti-and-rtx-3060-fixing-displayid-issues)
Sinceramente non lo faro'. Anche perchè da quanto ho capito si verifica con sorgente HDMI o DVI, avendolo in DP preferisco evitare possibili rogne..
sertopica
21-10-2021, 10:13
Ma non è vero. Il 6700k ce l'avevo e so benissimo che problemi poteva dare. I minimi e su ALCUNI giochi, limita gli fps sopra i 70. Ma dipende fortemente da gioco a gioco. E il 90% dei giochi è un collo sopportabile o nullo. Ma chiaramente il mio era portato al limite, deliddato a 4.8 ghz fissi.
Ed ho sempre parlato di 4k, con fps con sui si giocato appena sopra i 60....
Ahhh ok. Scusa allora. :mano:
In questo caso si' la differenza e' quasi nulla (ma non sempre).
PS: ma quanto sono odiosi i nuovi banner/popup pubblicitari che bloccano la navigazione apparendo quando si cambia pagina? Ok non uso piu' adblock ma almeno che tolgano sta roba ultrainvasiva. :rolleyes:
fraussantin
21-10-2021, 10:13
NVIDIA rilascia un aggiornamento del firmware per GeForce RTX 3080 Ti e RTX 3060 che risolve i problemi di DisplayID
aggiornamento del firmware (https://us.download.nvidia.com/Windows/uefi/firmware/1.0/NVIDIA_DisplayID_Firmware_Updater_1.0-x64.exe) (leggete bene prima di farlo)
FONTE (https://videocardz.com/newz/nvidia-releases-firmware-update-for-geforce-rtx-3080-ti-and-rtx-3060-fixing-displayid-issues)
ma come vengono gestiti gli update bios da nvidia , un installer unico per tutte le fe? basta clikkare?
e hanno una pagina dedicata per il rilascio?
io ho questohttps://i.postimg.cc/5twvyqqb/screenshot-380.jpg
Ahhh ok. Scusa allora. :mano:
In questo caso si' la differenza e' quasi nulla (ma non sempre).
PS: ma quanto sono odiosi i nuovi banner/popup pubblicitari che bloccano la navigazione apparendo quando si cambia pagina? Ok non uso piu' adblock ma almeno che tolgano sta roba ultrainvasiva. :rolleyes:
ormai usi i blocchi pubblicita ovunque anche sul telefono , mi spiace per i pochi che si comportano onestamente , ma per colpa degli altri mi trovo costretto . neanche per gli spot , ma a volte esce anche robaccia dai quei banner
Ho provato un po' cyberpunk ,watch dogs (anche se qui ho un problema di cpu usata al 80% e non so perché) e ghostrunner e mi sono trovato ad essere più colpito dalla perdita di prestazioni rispetto al miglioramento grafico.
:stordita:
Thunder-74
21-10-2021, 10:38
Sinceramente non lo faro'. Anche perchè da quanto ho capito si verifica con sorgente HDMI o DVI, avendolo in DP preferisco evitare possibili rogne..
no è per chi usa la DP...
Without the update, systems that are connected to a DisplayPort monitor using DisplayID could experience blank screens on boot until the OS loads. This update should only be applied if blank screens are occurring on boot.
ma come vengono gestiti gli update bios da nvidia , un installer unico per tutte le fe? basta clikkare?
e hanno una pagina dedicata per il rilascio?
io ho questohttps://i.postimg.cc/5twvyqqb/screenshot-380.jpg
ormai usi i blocchi pubblicita ovunque anche sul telefono , mi spiace per i pochi che si comportano onestamente , ma per colpa degli altri mi trovo costretto . neanche per gli spot , ma a volte esce anche robaccia dai quei banner
questo aggiorna il firmware e non tutto il bios della VGA.
Sinceramente io lo farei solo se avessi problemi di black screen
Pagina ufficiale nVidia (https://nvidia.custhelp.com/app/answers/detail/a_id/5233/?linkId=100000076816300)
Predator_1982
21-10-2021, 10:39
no è per chi usa la DP...
Without the update, systems that are connected to a DisplayPort monitor using DisplayID could experience blank screens on boot until the OS loads. This update should only be applied if blank screens are occurring on boot.
questo aggiorna il firmware e non tutto il bios della VGA.
Sinceramente io lo farei solo se avessi problemi di black screen
a me con la 3080Ti FE non succede...però non resisto agli update dei firmware per cui aggiornerò comunque :D
Thunder-74
21-10-2021, 10:43
a me con la 3080Ti FE non succede...però non resisto agli update dei firmware per cui aggiornerò comunque :D
hahahahahahah sei come me :cincin:
razor820
21-10-2021, 10:56
no è per chi usa la DP...
Without the update, systems that are connected to a DisplayPort monitor using DisplayID could experience blank screens on boot until the OS loads. This update should only be applied if blank screens are occurring on boot.
questo aggiorna il firmware e non tutto il bios della VGA.
Sinceramente io lo farei solo se avessi problemi di black screen
Pagina ufficiale nVidia (https://nvidia.custhelp.com/app/answers/detail/a_id/5233/?linkId=100000076816300)
ahhh. Non avevo capito che per Display ID intendesse il display port..
In ogni caso ancora non mi ha dato quel problema. Sinceramente preferisco aspettare prima di aggiornare, sempre se poi non si presenta il problema :D
Thunder-74
21-10-2021, 11:21
ahhh. Non avevo capito che per Display ID intendesse il display port..
In ogni caso ancora non mi ha dato quel problema. Sinceramente preferisco aspettare prima di aggiornare, sempre se poi non si presenta il problema :D
il DisplayID è uno standard Vesa usato per il riconoscimento dei monitor plug-and-play
Se vuoi approfondire : LINK (https://vesa.org/featured-articles/vesa-rolls-out-displayid-version-2-0-standard-to-optimize-plug-and-play-connectivity-for-leading-edge-displays/)
Comunque ne parlavo con Tiger.... Ampere presenta qualche problemino con la connessione DP.
Io, ma non solo io, ho avuto artefatti a video appena caricato Windows, per poi risolversi riavviandolo. Avevo cambiato il cavo per sfizio e con quello avevo l problema un giorno si e uno no. Con il vecchio cavo mi è successo una volta dopo 6 mesi.
Ho letto di altri casi analoghi al mio. Sono arrivato a credere che il problema sia legato ad un mancato/incompleto riconoscimento mobo/Vbios all'avvio del PC, sopratutto in modalità UEFI. Ora leggo i consigli dati da nVidia per risolvere il black screen per dar modo di usare il tool di aggiornamento FW..
-Boot using DVI or HDMI
-Boot using a different monitor
-Change boot mode from UEFI to Legacy
-Boot using an alternate graphics source (secondary or integrated graphics card)
Sono convinto che qualche incompatibilità tra mobo/VGA/Monitor ci possa essere.
Da quello che ho potuto reperire, i problemi sono più su piattaforme intel e con DP, però non ci metterei la mano sul fuoco.
Predator_1982
21-10-2021, 11:47
hahahahahahah sei come me :cincin:
si si...è malattia :D :ciapet:
amon.akira
21-10-2021, 12:05
si si...è malattia :D :ciapet:
vuoi mettere il brivido di briccarla ora che non si trovano...proprio ieri provando una 3060ti mi è saltata di mano la 3080 e ha fatto 3capitomboli...per fortuna sul letto XD
Predator_1982
21-10-2021, 13:04
vuoi mettere il brivido di briccarla ora che non si trovano...proprio ieri provando una 3060ti mi è saltata di mano la 3080 e ha fatto 3capitomboli...per fortuna sul letto XD
guarda, bisogna essere davvero sfigatissimi per briccare una scheda con questo tipo di update..:rolleyes:
razor820
21-10-2021, 13:07
il DisplayID è uno standard Vesa usato per il riconoscimento dei monitor plug-and-play
Se vuoi approfondire : LINK (https://vesa.org/featured-articles/vesa-rolls-out-displayid-version-2-0-standard-to-optimize-plug-and-play-connectivity-for-leading-edge-displays/)
Comunque ne parlavo con Tiger.... Ampere presenta qualche problemino con la connessione DP.
Io, ma non solo io, ho avuto artefatti a video appena caricato Windows, per poi risolversi riavviandolo. Avevo cambiato il cavo per sfizio e con quello avevo l problema un giorno si e uno no. Con il vecchio cavo mi è successo una volta dopo 6 mesi.
Ho letto di altri casi analoghi al mio. Sono arrivato a credere che il problema sia legato ad un mancato/incompleto riconoscimento mobo/Vbios all'avvio del PC, sopratutto in modalità UEFI. Ora leggo i consigli dati da nVidia per risolvere il black screen per dar modo di usare il tool di aggiornamento FW..
-Boot using DVI or HDMI
-Boot using a different monitor
-Change boot mode from UEFI to Legacy
-Boot using an alternate graphics source (secondary or integrated graphics card)
Sono convinto che qualche incompatibilità tra mobo/VGA/Monitor ci possa essere.
Da quello che ho potuto reperire, i problemi sono più su piattaforme intel e con DP, però non ci metterei la mano sul fuoco.
Spero sia fortunato.
In caso se qualcuno riscontra questi problemi lo faccia presente
Predator_1982
21-10-2021, 18:43
ho provato ad aggiornare la mia 3080 ti...e mi restituisce che il mio bios è già aggiornato. Evidentemente sulle schede FE più recenti avevano già implementato la modifica e distribuendola a tutti solo recentemente.
razor820
21-10-2021, 19:05
ho provato ad aggiornare la mia 3080 ti...e mi restituisce che il mio bios è già aggiornato. Evidentemente sulle schede FE più recenti avevano già implementato la modifica e distribuendola a tutti solo recentemente.
c è un metodo per vedere la release del bios?
Kostanz77
21-10-2021, 19:16
c è un metodo per vedere la release del bios?
Su GPU-Z
Inviato dal mio iPhone 13 PRO utilizzando Tapatalk Pro
fraussantin
21-10-2021, 19:21
Quello che non ho capito è come vedere se è l'ultima
razor820
21-10-2021, 19:54
Questa è la versione del mio
94.02.71.00.CA
Predator_1982
22-10-2021, 07:41
Questa è la versione del mio
94.02.71.00.CA
idem sulla mia. In ogni caso l'update non cambia la release, ma aggiorna solo una sezione.
frafelix
22-10-2021, 08:01
Io avevo letto che il loro programma verificava se c'era il bug prima di aggiornare e se non lo trova non aggiorna, quindi non tutte le schede vengono aggiornate anche se vecchie
Predator_1982
22-10-2021, 08:03
Io avevo letto che il loro programma verificava se c'era il bug prima di aggiornare e se non lo trova non aggiorna, quindi non tutte le schede vengono aggiornate anche se vecchie
infatti è cosi, ma non è possibile sapere a priori o guardando la versione se necessita o meno dell'update (lo si può solo intuire sulla base del periodo di acquisto se nuova).
Nel mio caso per esempio non ha aggiornato, restituendo che la versione è già patchata.
scusate ma è normale che nel pannello di controllo nvidia risulti ancora windows 10 nonostante abbia aggiornato a windows 11 pro?
sertopica
22-10-2021, 08:54
scusate ma è normale che nel pannello di controllo nvidia risulti ancora windows 10 nonostante abbia aggiornato a windows 11 pro?
Non ci sono ancora driver ufficiali mi pare, credo che la serie 500 lo supportera' in toto. Fra l'altro win 11 e' ancora in beta pur essendo disponibile per tutti. :asd:
Non ci sono ancora driver ufficiali mi pare, credo che la serie 500 lo supportera' in toto. Fra l'altro win 11 e' ancora in beta pur essendo disponibile per tutti. :asd:
capito grazie, non sapevo neanche fosse ancora in beta windows 11
sertopica
22-10-2021, 09:41
capito grazie, non sapevo neanche fosse ancora in beta windows 11
Beh lo e' anche se non te lo dicono direttamente. C'e' ancora parecchio da sistemare.
Predator_1982
22-10-2021, 11:20
capito grazie, non sapevo neanche fosse ancora in beta windows 11
software perfetti non esistono...soprattutto se parliamo di un sistema operativo.
In ogni caso il problema è del driver nvidia che non etichetta correttamente il s.o :D
fraussantin
22-10-2021, 12:47
capito grazie, non sapevo neanche fosse ancora in beta windows 11Già soltanto il fatto che non supportava bene i processori ryzen lo rende beta ...tra l'altro non ho capito come sia possibile che AMD non abbia sistemato la cosa prima del lancio. Ma solo adesso.
Qualcuno grida goNbloddo , ora non credo , ma qualcosa di strano c'è
frafelix
22-10-2021, 12:52
Beh microsoft ha dichiarato apertamente che windows11 è stato creato per alder lake, avranno fatto poche prove con amd
fraussantin
22-10-2021, 14:16
Beh microsoft ha dichiarato apertamente che windows11 è stato creato per alder lake, avranno fatto poche prove con amdMe l'ero persa! Però se ne andassero a cagare via , un sistema operativo è per tutti i PC nuovo e già esistenti visto che il loro è il più usato al mondo che senso è dire è ottimizzato per alder lake deve andare bene su tutti i PC ... Se poi alder lake non va con w10 ci sta.
Poi AMD lo ha sistemato( parzialmente almeno ) in 2 settimane ,bastava un po' mettersi d'accordo se proprio non lo volevano sistemare loro e rimandare il lancio di un mese almeno per i PC esistenti. Sembra proprio che si diverta a mettere i bastoni tra le ruote a chi non gli rimane simpatica , come creative.
frafelix
22-10-2021, 14:25
E come tanti altri... Mi sembra che in tanti campi più avanti andiamo e peggio è!
Cutter90
22-10-2021, 14:33
Ma ragazzi da che mondo arrivate :D ? Io non voglio amd anche per queste cose. Ogni volta è sempre amd che ha problemi. Di driver, di aggiornamenti, di windows.... con intel+nvidia, mai successo nulla in più di 8 anni di pc gaming....
razor820
22-10-2021, 14:46
Me l'ero persa! Però se ne andassero a cagare via , un sistema operativo è per tutti i PC nuovo e già esistenti visto che il loro è il più usato al mondo che senso è dire è ottimizzato per alder lake deve andare bene su tutti i PC ... Se poi alder lake non va con w10 ci sta.
Poi AMD lo ha sistemato( parzialmente almeno ) in 2 settimane ,bastava un po' mettersi d'accordo se proprio non lo volevano sistemare loro e rimandare il lancio di un mese almeno per i PC esistenti. Sembra proprio che si diverta a mettere i bastoni tra le ruote a chi non gli rimane simpatica , come creative.
io ancora non ho aggiornato.
Comunque non so se sia stata una mossa di marketing, visto che le ultime due generazione di cpu amd hanno avuto ottime vendite, per non parlare della serie 5 che va letteralmente a ruba.
Certo che se la situazione è questa dovessi aggiornare cpu resterò per molto tempo con windows 10..
Se windows da decenni non ha simpatia per AMD, problema loro. Tanto in ambito gaming non cambia niente.
Certo che da possessore di una serie 30xx opterei per una cpu con supporto pciex 4, cosa che intel offre solo con l 11 generazione...
mikael84
22-10-2021, 15:14
Me l'ero persa! Però se ne andassero a cagare via , un sistema operativo è per tutti i PC nuovo e già esistenti visto che il loro è il più usato al mondo che senso è dire è ottimizzato per alder lake deve andare bene su tutti i PC ... Se poi alder lake non va con w10 ci sta.
Poi AMD lo ha sistemato( parzialmente almeno ) in 2 settimane ,bastava un po' mettersi d'accordo se proprio non lo volevano sistemare loro e rimandare il lancio di un mese almeno per i PC esistenti. Sembra proprio che si diverta a mettere i bastoni tra le ruote a chi non gli rimane simpatica , come creative.
Aspè, non è che windows 11 non dovrebbe andare con AMD o con i vecchi Intel.
Windows 11 nasce soprattutto grazie ad una collaborazione con Intel, un lavoro software/hardware che intel chiama Thread Director, usufruibile solo con gli alder lake.
Una tecnologia già usata da tempo nel mobile.
Nell'uso normale, lo sheduler non sa gestire le variazioni dei thread in modo intelligente e veloce, ad esempio quelli più in uso o quelli in idle, e nel mentre "pensa" a come fare, impiega circa 100ms a schedulare i thread.
Con Alder Lake, viene introdotto l'Intel Thread director, un microcontrollore hardware, che riesce a gestire in soli 30microsecondi, i thread più affamati e quelli da lasciare in idle, velocizzando soprattutto le operazioni che richiedono core a piena potenza.
Questo vale anche per i clock, quelli caricati (esempio game/avx), viaggiano velocemente a pieno regime, quelli in idle, velocemente abbassano i clock. Il tutto a delle latenze incredibilmente basse, senza far impazzire uno sheduler che ci mette una vita.:)
Chiudo OT.
mattxx88
22-10-2021, 15:26
Aspè, non è che windows 11 non dovrebbe andare con AMD o con i vecchi Intel.
Windows 11 nasce soprattutto grazie ad una collaborazione con Intel, un lavoro software/hardware che intel chiama Thread Director, usufruibile solo con gli alder lake.
Una tecnologia già usata da tempo nel mobile.
Nell'uso normale, lo sheduler non sa gestire le variazioni dei thread in modo intelligente e veloce, ad esempio quelli più in uso o quelli in idle, e nel mentre "pensa" a come fare, impiega circa 100ms a schedulare i thread.
Con Alder Lake, viene introdotto l'Intel Thread director, un microcontrollore hardware, che riesce a gestire in soli 30microsecondi, i thread più affamati e quelli da lasciare in idle, velocizzando soprattutto le operazioni che richiedono core a piena potenza.
Questo vale anche per i clock, quelli caricati (esempio game/avx), viaggiano velocemente a pieno regime, quelli in idle, velocemente abbassano i clock. Il tutto a delle latenze incredibilmente basse, senza far impazzire uno sheduler che ci mette una vita.:)
Chiudo OT.
minchia anche sulla cpu sei sul pezzo eh :mano: :mano:
non ti dico più bravo senno ti monti la testa :O :fagiano:
mikael84
22-10-2021, 16:32
minchia anche sulla cpu sei sul pezzo eh :mano: :mano:
non ti dico più bravo senno ti monti la testa :O :fagiano:
Qualcosina la so anche sulle CPU.:sofico:
Bisogna essere un minimo a 360°:D
fraussantin
22-10-2021, 20:13
Aspè, non è che windows 11 non dovrebbe andare con AMD o con i vecchi Intel.
Windows 11 nasce soprattutto grazie ad una collaborazione con Intel, un lavoro software/hardware che intel chiama Thread Director, usufruibile solo con gli alder lake.
Una tecnologia già usata da tempo nel mobile.
Nell'uso normale, lo sheduler non sa gestire le variazioni dei thread in modo intelligente e veloce, ad esempio quelli più in uso o quelli in idle, e nel mentre "pensa" a come fare, impiega circa 100ms a schedulare i thread.
Con Alder Lake, viene introdotto l'Intel Thread director, un microcontrollore hardware, che riesce a gestire in soli 30microsecondi, i thread più affamati e quelli da lasciare in idle, velocizzando soprattutto le operazioni che richiedono core a piena potenza.
Questo vale anche per i clock, quelli caricati (esempio game/avx), viaggiano velocemente a pieno regime, quelli in idle, velocemente abbassano i clock. Il tutto a delle latenze incredibilmente basse, senza far impazzire uno sheduler che ci mette una vita.:)
Chiudo OT.Grazie per la spiegazione , esaustiva come al solito ! ;)Ma ragazzi da che mondo arrivate :D ? Io non voglio amd anche per queste cose. Ogni volta è sempre amd che ha problemi. Di driver, di aggiornamenti, di windows.... con intel+nvidia, mai successo nulla in più di 8 anni di pc gaming....Si ma guarda io non difendo AMD che ha le sue colpe , e le sue giustificazioni.
Ma quando AMD fa una artichettira nuova e un po' diversa dagli schemi deve ottimizzarsela da se far uscire driver propri e aggiustare le cose che non vanno in Windows , adesso la fa Intel e non solo gli fanno un sistema operativo dedicato ( o quasi ,) , anticipando pure i tempi per non far ritardare il lancio dei nuovi processori , ma tralasciano il lavoro fatto da AMD e gli dicono ( in sostanza) arrangiati e fallo funzionare te.
Cioè ma speriamo davvero che valve ce la faccia a sdoganare Linux con Proton che almeno gli fanno abbassare la cresta un po'. ( Non succederà mai lo so )
Chiudo OT.
amon.akira
22-10-2021, 21:24
Grazie per la spiegazione , esaustiva come al solito ! ;)Si ma guarda io non difendo AMD che ha le sue colpe , e le sue giustificazioni.
Ma quando AMD fa una artichettira nuova e un po' diversa dagli schemi deve ottimizzarsela da se far uscire driver propri e aggiustare le cose che non vanno in Windows , adesso la fa Intel e non solo gli fanno un sistema operativo dedicato ( o quasi ,) , anticipando pure i tempi per non far ritardare il lancio dei nuovi processori , ma tralasciano il lavoro fatto da AMD e gli dicono ( in sostanza) arrangiati e fallo funzionare te.
Cioè ma speriamo davvero che valve ce la faccia a sdoganare Linux con Proton che almeno gli fanno abbassare la cresta un po'. ( Non succederà mai lo so )
Chiudo OT.
tanto amd andrà big.little con gli 8000...poi arriva prima o poi :)
Sberla101
23-10-2021, 09:42
avendo solo testato "l'accensione" della mia nuova RTX 3080 Ti FE e riposta in scatola in attesa di Alder Lake, dite che conviene cambiare i pad termici? quindi aprirla e smanettare?
Predator_1982
23-10-2021, 09:46
avendo solo testato "l'accensione" della mia nuova RTX 3080 Ti FE e riposta in scatola in attesa di Alder Lake, dite che conviene cambiare i pad termici? quindi aprirla e smanettare?
per guadagnare 0.1 gradi? lascia perdere :D
Predator_1982
23-10-2021, 09:48
io ancora non ho aggiornato.
Comunque non so se sia stata una mossa di marketing, visto che le ultime due generazione di cpu amd hanno avuto ottime vendite, per non parlare della serie 5 che va letteralmente a ruba.
Certo che se la situazione è questa dovessi aggiornare cpu resterò per molto tempo con windows 10..
Se windows da decenni non ha simpatia per AMD, problema loro. Tanto in ambito gaming non cambia niente.
Certo che da possessore di una serie 30xx opterei per una cpu con supporto pciex 4, cosa che intel offre solo con l 11 generazione...
comunque io tutti sti problemi con AMD non li vedo... e con l'ultima patch e driver i problemi di gioventù li hanno sistemati. Che W11 sia stato pensato anche in ottica Alder Lake ci sta, considerando la tipologia di architettura necessariamente dovevano prevedere un cambio di approccio per sfruttarla al meglio.
Sberla101
23-10-2021, 09:53
per guadagnare 0.1 gradi? lascia perdere :D
era quello che volevo sentirmi dire :D
grazie
fraussantin
23-10-2021, 10:08
tanto amd andrà big.little con gli 8000...poi arriva prima o poi :)Si ve beh tanto non mi frega niente...
Questa piatta me la tengo fino a che regge.
Come ho detto al massimo faccio il salto col 5900 quando costerà il giusto .
Poi prenderò quello che sarà migliore amd o Intel per me non fa differenza . Non è come le GPU che prediligo Nvidia per tutta una serie di motivi ( almeno per ora perché se continuano a fare centrali atomiche ci metto un punto anche con loro )
TigerTank
23-10-2021, 13:01
minchia anche sulla cpu sei sul pezzo eh :mano: :mano:
non ti dico più bravo senno ti monti la testa :O :fagiano:
Ma perchè tu non sai che Mike in verità è uno degli alieni sopravvissuti di Roswell sotto mentite spoglie da cui è derivata tutta la tecnologia che usiamo oggi. :O :sofico:
terranux
23-10-2021, 15:51
avendo solo testato "l'accensione" della mia nuova RTX 3080 Ti FE e riposta in scatola in attesa di Alder Lake, dite che conviene cambiare i pad termici? quindi aprirla e smanettare? https://www.reddit.com/r/nvidia/comments/o6gzcy/rtx_3080ti_fe_great_results_after_thermal_pad/
direi di si
Thunder-74
23-10-2021, 16:42
https://www.reddit.com/r/nvidia/comments/o6gzcy/rtx_3080ti_fe_great_results_after_thermal_pad/
direi di si
è quello che non voleva sentirsi dire :D
TigerTank
23-10-2021, 17:01
Più che altro vorrei capire perchè solo testata e riposta nella scatola in attesa di alder lake invece che usata subito a prescindere poi dall'upgrade di piataforma :D
Sberla101
23-10-2021, 17:05
Più che altro vorrei capire perchè solo testata e riposta nella scatola in attesa di alder lake invece che usata subito a prescindere poi dall'upgrade di piataforma :D
diciamo che ultimamente lo sto usando ben poco, con quel poco che lo uso la Strix 1080Ti va più che bene in QHD.
Ovviamente se sostituissi i pad invaliderei la garanzia?
fraussantin
23-10-2021, 17:15
Ovviamente se sostituissi i pad invaliderei la garanzia?
Ancora non si è capito.
Io rimango del parere che se una cosa funziona i numeretti non mi interessano se si sfonda me la riparano.
( Visto che ora come ora Nvidia pare anche veloce nel riparare)
Se poi mi dovessi rendere conto che castra le prestazioni allora si guarda.
La garanzia è 3 anni , da qui a 3 anni l'avremo già cambiata
Legolas84
23-10-2021, 17:23
diciamo che ultimamente lo sto usando ben poco, con quel poco che lo uso la Strix 1080Ti va più che bene in QHD.
Ovviamente se sostituissi i pad invaliderei la garanzia?
No perchè la scheda non ha sigilli.
L'unica cosa che devi fare è rimuovere i pad originali con cura e conservarli perchè nel caso dovessi rimandare la scheda indietro dovresti rimetterli su.
Sberla101
23-10-2021, 17:27
Ancora non si è capito.
Io rimango del parere che se una cosa funziona i numeretti non mi interessano se si sfonda me la riparano.
( Visto che ora come ora Nvidia pare anche veloce nel riparare)
Se poi mi dovessi rendere conto che castra le prestazioni allora si guarda.
La garanzia è 3 anni , da qui a 3 anni l'avremo già cambiata
Ottima argomentazione ;)
No perchè la scheda non ha sigilli.
L'unica cosa che devi fare è rimuovere i pad originali con cura e conservarli perchè nel caso dovessi rimandare la scheda indietro dovresti rimetterli su.
ok grazie
Legolas84
23-10-2021, 17:41
Io comunque ho deciso di passare al liquido.... anche perchè avevo radiatore, pompa, vasca e ventole già in casa ed è un peccato non usarle....:D
razor820
23-10-2021, 17:47
Ancora non si è capito.
Io rimango del parere che se una cosa funziona i numeretti non mi interessano se si sfonda me la riparano.
( Visto che ora come ora Nvidia pare anche veloce nel riparare)
Se poi mi dovessi rendere conto che castra le prestazioni allora si guarda.
La garanzia è 3 anni , da qui a 3 anni l'avremo già cambiata
Io avevo provato a registrarmi nel loro sito per la garanzia. Ma da quanto vedo è cambiata qualcosa. Ovvero non c è un canale diretto ma ti riporta direttamente a dove è stato comprata la scheda video. Nonostante sia una founder.
Quindi in questo caso gli anni dovrebbero essere 2 e non più 3
Predator_1982
23-10-2021, 17:50
Ancora non si è capito.
Io rimango del parere che se una cosa funziona i numeretti non mi interessano se si sfonda me la riparano.
( Visto che ora come ora Nvidia pare anche veloce nel riparare)
Se poi mi dovessi rendere conto che castra le prestazioni allora si guarda.
La garanzia è 3 anni , da qui a 3 anni l'avremo già cambiata
son d'accordo, resta comunque il fatto che se le prestazioni son castrate troppo allora c'è un problema e si fa valere la garanzia (se utilizzabile...). Quando scade ovvio, ci si fa ciò che si vuole
fraussantin
23-10-2021, 17:51
Io avevo provato a registrarmi nel loro sito per la garanzia. Ma da quanto vedo è cambiata qualcosa. Ovvero non c è un canale diretto ma ti riporta direttamente a dove è stato comprata la scheda video. Nonostante sia una founder.
Quindi in questo caso gli anni dovrebbero essere 2 e non più 3A me lcld rispose così .
https://i.postimg.cc/0jLn5vhW/Screenshot-2021-09-23-16-24-03-427-com-google-android-gm.jpg (https://postimages.org/)
Non sono riuscito a registrarla da nessuna parte.
@legolas si ovvio se hai intenzione di liquidarla fai bene , li ci tiri fuori un po' di prestazioni su e un raffreddamento decisamente migliore.
COSA COPRE LA GARANZIA?
Tutti i difetti di produzione o guasti dei componenti hardware nella Scheda grafica a marchio NVIDIA® assieme a qualsiasi accessorio ricevuto ("Prodotto in garanzia"), soggetto ai presenti termini e condizioni.
Nessuna clausola della presente garanzia influisce sui diritti legali degli utenti, incluso quello di inoltrare reclami in virtù di qualsiasi garanzia legale attinente ai Prodotti in garanzia.
QUANTO DURA LA GARANZIA?
Tre (3) anni a decorrere dalla data di acquisto del nuovo Prodotto in garanzia ("Periodo di garanzia").
COME SI COMPORTERÀ NVIDIA?
Provvede alla riparazione o, in caso di riparazione non possibile, sostituisce il prodotto in garanzia difettoso. Le parti e/o i prodotti sostituitivi possono includere componenti o prodotti nuovi o ricondizionati coperti dalla garanzia fino alla data di scadenza del Periodo di garanzia originale.
COSA NON COPRE LA GARANZIA?
Tutti i problemi non correlati specificamente a un difetto di produzione o a un guasto hardware, tra cui, in via esemplificativa, problemi causati da abuso, uso improprio, negligenza, cause di forza maggiore (ad esempio inondazioni), uso del Prodotto in garanzia non conforme ai manuali di utilizzo o altra documentazione tecnica fornita con il Prodotto in garanzia, uso del Prodotto in garanzia con software non fornito insieme al Prodotto in garanzia.
COSA FARE IN CASO DI PROBLEMI?
In caso di problemi, o se si ritiene che il prodotto sia difettoso, contattare il distributore/rivenditore locale. Se il prodotto è stato acquistato direttamente da NVIDIA, contattare l'assistenza clienti NVIDIA. Gli operatori forniranno la dovuta assistenza per individuare e risolvere il problema e provvederemo a sostituire il componente o il prodotto difettoso. Il team di assistenza NVIDIA è disponibile qui. È possibile effettuare ricerche nella Knowledge Base per individuare la soluzione a problemi comuni o interagire con il personale tramite le schede "Poni una domanda" o "Chat": http://www.nvidia.it/object/support-it.html.
LIMITAZIONI DELLA GARANZIA
La presente garanzia si applica soltanto a Prodotti in garanzia originali acquistati presso partner autorizzati da NVIDIA o su www.nvidia.com; la presente garanzia non si estende alle persone che acquistano un Prodotto in garanzia di seconda mano.
L'unico rimedio previsto nei confronti del primo acquirente in virtù della presente garanzia, e il solo obbligo e responsabilità di NVIDIA per quanto riguarda il Prodotto in garanzia difettoso, si limita alla riparazione o alla sostituzione di tale Prodotto in garanzia come descritto nella presente. Ciò non influisce sui diritti o risarcimenti spettanti all'utente, incluso il diritto di rifiutare il Prodotto in garanzia e/o di ottenere una riduzione del prezzo pagato per un Prodotto in garanzia, qualora la società non sia in grado di offrire la riparazione/sostituzione del Prodotto in garanzia.
In nessun modo viene esclusa o limitata la responsabilità della società in casi in cui sarebbe illecito, tra cui:
a) decesso o lesione personale causati da negligenza della società;
b) frode o dichiarazione fraudolenta.
Non copre acquisti di seconda mano ....
TigerTank
23-10-2021, 18:48
diciamo che ultimamente lo sto usando ben poco, con quel poco che lo uso la Strix 1080Ti va più che bene in QHD.
Ovviamente se sostituissi i pad invaliderei la garanzia?
A questo punto secondo me rinvia la questione.
Nel senso che quando la monterai e la userai, valuterai a livello temperature come andranno le cose e di conseguenza deciderai cosa fare.
Eviterei l'operazione senza motivi di necessità e soprattutto non rodando/testando corposamente la scheda dopo l'operazione :)
Non copre acquisti di seconda mano ....
Infatti sempre detto io che comprarle maggiorate dagli scalper che le davano come "nuove" era un'enorme stupidata :D
razor820
23-10-2021, 19:09
quindi 3 anni da LDCL? ottimo.
Teoricamente una scheda del genere te la tieni 2-3 anni, quindi bene che la garanzia è nominativa.
Certo che poi gli scalper in giro che ti GARANTISCONO che la garanzia non è nominativa. Immagina il tizio di turno che ha venduto 10 schede... :D ad ogni scheda rotta gli rompono le scatole :D
Sberla101
23-10-2021, 19:16
A questo punto secondo me rinvia la questione.
Nel senso che quando la monterai e la userai, valuterai a livello temperature come andranno le cose e di conseguenza deciderai cosa fare.
Eviterei l'operazione senza motivi di necessità e soprattutto non rodando/testando corposamente la scheda dopo l'operazione :)
Effettivamente è quello che ho deciso di fare, se, una volta montata, come temperature mi soddisfa non faccio nulla, non andrò certamente a rischiare senza che ce ne sia bisogno :D
fraussantin
23-10-2021, 19:29
quindi 3 anni da LDCL? ottimo.
Teoricamente una scheda del genere te la tieni 2-3 anni, quindi bene che la garanzia è nominativa.
Certo che poi gli scalper in giro che ti GARANTISCONO che la garanzia non è nominativa. Immagina il tizio di turno che ha venduto 10 schede... :D ad ogni scheda rotta gli rompono le scatole :DNon ci ho capito nulla , 3 anni sono chiari , che anche dai partner è chiaro , ma se la garanzia la ldlc o Nvidia diretta non l'ho capita
Legolas84
23-10-2021, 19:32
Secondo me entrambi.. non vedo perché farsi questo problema, in caso di bisogno si contatta uno dei due e nel caso si vede se ti rimandano all’altro o no.
Io mi rivolgerei sempre e comunque a NVIDIA prima..
Inviato dal mio iPhone utilizzando Tapatalk Pro
mattxx88
23-10-2021, 19:46
finalmente la bimba nuova é tornata, gia saldata e operativa :oink:
https://i.ibb.co/hWY2KKK/new.png (https://ibb.co/PhD1555)
sono pure riuscito a moddare il lian li o11 Mini facendola stare in piedi con tutti e 3 i radiatori al loro posto, case fantastico :O
https://i.ibb.co/j5FGtKd/IMG-20211023-203932-2.jpg (https://ibb.co/QcGn0BZ)
Cutter90
23-10-2021, 23:15
Fatto un time spy "bello tirato"
Sfondando i 22.000 di graphic
Quasi 14000 con la cpu
https://i.imgur.com/aFOX07n.jpeg
razor820
24-10-2021, 09:27
finalmente la bimba nuova é tornata, gia saldata e operativa :oink:
https://i.ibb.co/hWY2KKK/new.png (https://ibb.co/PhD1555)
sono pure riuscito a moddare il lian li o11 Mini facendola stare in piedi con tutti e 3 i radiatori al loro posto, case fantastico :O
https://i.ibb.co/j5FGtKd/IMG-20211023-203932-2.jpg (https://ibb.co/QcGn0BZ)
mizzica 50 gradi di core a liquido? son tanti
Thunder-74
24-10-2021, 10:02
mizzica 50 gradi di core a liquido? son tanti
Si, oltretutto con solo 265w di picco.
Inviato dal mio iPad utilizzando Tapatalk
mattxx88
24-10-2021, 11:17
mizzica 50 gradi di core a liquido? son tanti
Si, oltretutto con solo 265w di picco.
Inviato dal mio iPad utilizzando Tapatalk
Scheda shuntata, dovete fare x2 su quei watt ;)
Avevo messo a posta GPUz così che apprezziate lo shunting perfetto... ma evidentemente :stordita:
TigerTank
24-10-2021, 11:24
Scheda shuntata, dovete fare x2 su quei watt ;)
Avevo messo a posta GPUz così che apprezziate lo shunting perfetto... ma evidentemente :stordita:
Matt ma da ignorante ti chiedo...se sei a 530W ma la scheda è da 2 connettori 8 pin (300W) la restante energia oltre al PCI-E da dove la prendi? Grazie :D
Comunque sei un "pazzo"...ahahahah :sofico:
mattxx88
24-10-2021, 11:38
Matt ma da ignorante ti chiedo...se sei a 530W ma la scheda è da 2 connettori 8 pin (300W) la restante energia oltre al PCI-E da dove la prendi? Grazie :D
Comunque sei un "pazzo"...ahahahah :sofico:
Va fuori specifica sia l'erogazione dall' ali che dallo slot pcie
Non viene tagliata esattamente raggiunti quei tot watt la corrente erogata, c'è sempre un po' di margine in più, diciamo che sono valori safe quelli dati dallo standard atx ma che possono e anzi vengono sfondati se richiesti
razor820
24-10-2021, 12:44
Va fuori specifica sia l'erogazione dall' ali che dallo slot pcie
Non viene tagliata esattamente raggiunti quei tot watt la corrente erogata, c'è sempre un po' di margine in più, diciamo che sono valori safe quelli dati dallo standard atx ma che possono e anzi vengono sfondati se richiesti
Quindi che voltaggio e mhz sei riuscito ad ottenere con quel test?
fraussantin
24-10-2021, 13:49
Matt ma da ignorante ti chiedo...se sei a 530W ma la scheda è da 2 connettori 8 pin (300W) la restante energia oltre al PCI-E da dove la prendi? Grazie :D
Comunque sei un "pazzo"...ahahahah :sofico:Va fuori specifica sia l'erogazione dall' ali che dallo slot pcie
Non viene tagliata esattamente raggiunti quei tot watt la corrente erogata, c'è sempre un po' di margine in più, diciamo che sono valori safe quelli dati dallo standard atx ma che possono e anzi vengono sfondati se richiestiSpe , ma perché hai fatto shunt aggiungendo in parallelo un altra ( resistenza?) ? Perché si dovrebbe Fermare no?
Per l'alimentatore non ci sono proemi quello in teoria ha il limitatore unico sul 12w e cmq i cavi sono da 300wl'uno
mattxx88
24-10-2021, 14:04
Quindi che voltaggio e mhz sei riuscito ad ottenere con quel test?
Voltaggio 1.093 e 2100mhz, run veloce e ignorante giusto per verificare che la shunt avesse funzionato
Spe , ma perché hai fatto shunt aggiungendo in parallelo un altra ( resistenza?) ? Perché si dovrebbe Fermare no?
Per l'alimentatore non ci sono proemi quello in teoria ha il limitatore unico sul 12w e cmq i cavi sono da 300wl'uno
Gliela saldi sopra, alle originali da 5mOhm ho saldato resistenze da 5mOhm così moltiplichi il PL. Se metti resistenze più alte non raddoppi ma aggiungi un +60/70/80% di PL a seconda se usi 6,7,8 mOhm e così via.
Se usi resistenze più basse lo alzi ancora di più. Ma le FE hanno un ulteriore limitatore interno, più di 550w di picco non li arriva ad assorbire, al contrario delle Strix o kingpin
Thunder-74
24-10-2021, 14:09
Va fuori specifica sia l'erogazione dall' ali che dallo slot pcie
Non viene tagliata esattamente raggiunti quei tot watt la corrente erogata, c'è sempre un po' di margine in più, diciamo che sono valori safe quelli dati dallo standard atx ma che possono e anzi vengono sfondati se richiesti
non sapevo che l'assorbimento non veniva letto correttamente, allora tanta roba :)
Saldare una resistenza da 5ohm ad una 3090. Sudo solo a leggere certi post.
Ribadisco l'assurdità di queste schede. Non è normale dover saldare resistenze per liberare il potenziale di una scheda pagata oltre 1000euro
fraussantin
24-10-2021, 14:41
Saldare una resistenza da 5ohm ad una 3090. Sudo solo a leggere certi post.
Ribadisco l'assurdità di queste schede. Non è normale dover saldare resistenze per liberare il potenziale di una scheda pagata oltre 1000euroVabbè non sarebbe neanche normale per Nvidia aver fatto una reference che arriva a 550w in Daily. Per un 10-15% di prestazioni si e no. Sono cose da appassionati
Già Che se non ci fosse stata AMD con una bella 6800xt le avrebbero spinte ancora meno imho.
Poi Queste cose gli appassionati le hanno sempre fatte. Guarda con i processori cosa ci riescono a tirare fuori .
Nvidia da ai partner in chip e dei riferimenti , nessuno impedisce loro di fare una GPU custom da quanti w gli pare.
Poi devono garantirtela anche per 2 anni.
Spe , ma perché hai fatto shunt aggiungendo in parallelo un altra ( resistenza?) ? Perché si dovrebbe Fermare no?
Per l'alimentatore non ci sono proemi quello in teoria ha il limitatore unico sul 12w e cmq i cavi sono da 300wl'uno
Legge di ohm, mettendole in parallelo la resistenza complessiva dimezza, a parita di voltaggio la corrente raddoppia, visto che I (intensità di corrente) = V (voltaggio) / R (resistenza) ed essendo la potenza uguale a V * I, raddoppiando la corrente raddoppi la potenza, ed il rischio che ti si fotta :D
fraussantin
24-10-2021, 14:45
Legge di ohm, mettendole in parallelo la resistenza complessiva dimezza, a parita di voltaggio la corrente raddoppia, visto che I (intensità di corrente) = V (voltaggio) / R (resistenza) ed essendo la potenza uguale a V * I, raddoppiando la corrente raddoppi la potenza, ed il rischio che ti si fotta :D
Si si , non ho mai studiato elettronica , sono un ragioniere diciamo , ma qualcosina ci capisco , poi anche a logica più Strozzi un condotto meno passa. Ma se crei 2 condotti paralleli strozzati uguali ne passa il doppio.
Voltaggio 1.093 e 2100mhz, run veloce e ignorante giusto per verificare che la shunt avesse funzionato
Gliela saldi sopra, alle originali da 5mOhm ho saldato resistenze da 5mOhm così moltiplichi il PL. Se metti resistenze più alte non raddoppi ma aggiungi un +60/70/80% di PL a seconda se usi 6,7,8 mOhm e così via.
Se usi resistenze più basse lo alzi ancora di più. Ma le FE hanno un ulteriore limitatore interno, più di 550w di picco non li arriva ad assorbire, al contrario delle Strix o kingpin
In caso di rma poi togli la resistenza e non dovrebbero accorgersi di niente.
Ma per il pcie come fai? Perché quello non credo si possa alzare
Si si , non ho mai studiato elettronica , sono un ragioniere diciamo , ma qualcosina ci capisco , poi anche a logica più Strozzi un condotto meno passa. Ma se crei 2 condotti paralleli strozzati uguali ne passa il doppio.
Ottima similitudine ;)
razor820
24-10-2021, 15:09
Oggi ho reinstallato Bf5 per fare alcune prove.
Mi sono accorto che tra dx12 e dx11 l utilizzo della gpu è completamente diverso, ovvero con dx12 limito gli fps a 144 e stanno sempre li, mentre su dx11 ottengo molti meno fps con una media di 110-120 con la gpu che va al 55% di media...
Possibile che questo genere di gpu con le dx11 e con il gioco in questione sia cosi limitata??? Tra l altro non non ho il collo della cpu che sta al 70%.
Purtroppo per questo gioco, dai tempi che è uscito, non sono riuscito mai a giocare in dx12 per via dei dropFPS
mattxx88
24-10-2021, 15:11
In caso di rma poi togli la resistenza e non dovrebbero accorgersi di niente.
Ma per il pcie come fai? Perché quello non credo si possa alzare
Esatto, exes docet :D
C'è la sua resistenza anche per il pcie si.
Quella che ho fatto rma è stata dissaldata, se hai un po' di manualità è impossibile da accorgersi, devi sapere che c'era e guardare con un lente.
Quindi o non si sono accorti o non hanno proprio controllato, fatto sta che mi han fatto rma senza rogne
amon.akira
24-10-2021, 15:20
Saldare una resistenza da 5ohm ad una 3090. Sudo solo a leggere certi post.
Ribadisco l'assurdità di queste schede. Non è normale dover saldare resistenze per liberare il potenziale di una scheda pagata oltre 1000euro
fidati non è normale il contrario.
le schede sono calibrate per il loro dissipatore, giorni fa ho tenuto sotto una 3060ti zotac dual, 215w e già stava a 73gradi sotto carico con case aperto, quando la mia 3080 a 350w con case chiuso arriva a 68gradi max.
poi dovresti lamentarti del safe limit dei 150w per 8pin e del 75w pcie.
fidati non è normale il contrario.
le schede sono calibrate per il loro dissipatore, giorni fa ho tenuto sotto una 3060ti zotac dual, 215w e già stava a 73gradi sotto carico con case aperto, quando la mia 3080 a 350w con case chiuso arriva a 68gradi max.
poi dovresti lamentarti del safe limit dei 150w per 8pin e del 75w pcie.
ma infatti non dico che una scheda debba essere a 500W per chiunque, ma se compro una scheda da oltre 1000€ per quel 10-15% sono un appassionato e come tale dovrei poterci "giocare" in libertà. con giocare in libertà intendo usare tutto il suo potenziale.
non stiamo dicendo che dev'esserci la possibilità di sparare 2V, ma di lasciarle usare la potenza che serve con i parametri considerati safe
(il case aperto smaltisce meno calore del case chiuso)
fraussantin
24-10-2021, 16:23
(il case aperto smaltisce meno calore del case chiuso)
:confused: :confused: :confused:
Alekos Panagulis
24-10-2021, 16:41
:confused: :confused: :confused:Vai a capire....
Inviato dal mio IN2023 utilizzando Tapatalk
amon.akira
24-10-2021, 16:46
(il case aperto smaltisce meno calore del case chiuso)
falso nella maggior parte dei casi, devi avere veramente un ottimo flusso d aria sia in entrata che uscita.
sicuramente nel mio caso è molto meglio aperto, ma lo tengo chiuso tranne in estate quando ho 32°tamb
Alekos Panagulis
24-10-2021, 17:02
falso nella maggior parte dei casi, devi avere veramente un ottimo flusso d aria sia in entrata che uscita.
sicuramente nel mio caso è molto meglio aperto, ma lo tengo chiuso tranne in estate quando ho 32°tamb
Se hai temp migliori con case chiuso anzinché aperto, significa che hai una galleria del vento, non un case.
mikael84
24-10-2021, 17:26
non sapevo che l'assorbimento non veniva letto correttamente, allora tanta roba :)
Naturale, come detto anche da exes, mettendo in parallelo 2 resistenze da 5mhom, gpu-z praticamente ti legge 2,5 mhom, quindi valori dimezzati alla stessa tensione.
Se ne mettesse una da 15mhom GPU, leggerebbe un 50%.
Matt ma da ignorante ti chiedo...se sei a 530W ma la scheda è da 2 connettori 8 pin (300W) la restante energia oltre al PCI-E da dove la prendi? Grazie :D
8 pin a 10A può raggiungere 360 (3 linee da 120watt), mentre un 6 pin 240watt.
Lo standard da 150+75 è dato anch'esso dallo standard AWG20. Sono i cavi con diametro più piccolo e molto sottili da 0,81mm
Passando così poca corrente non surriscaldano per questo sono standardizzati, già i limiti sono mediamente sotto i 50°.
Ci sono però gli AWG18 e AWG16 (molto costosi).
AWG18 sono cavi con diametro di 1,02mm, permettono tranquillamente più corrente, ma non vanno sempre daccordo con gli ALI scarsi (sprovvisti).
Se con il tuo ALI che è un Superflowers, metti una dual GPU tipo una 4870x2, una 295 o ancora una r9 295, vedresti valori molto superiori alle specifiche.:)
Comunque sei un "pazzo"...ahahahah :sofico:
Pure quella del PCI express, neppure Der8 si è spinto tanto.:sofico:
mikael84
24-10-2021, 17:43
ma infatti non dico che una scheda debba essere a 500W per chiunque, ma se compro una scheda da oltre 1000€ per quel 10-15% sono un appassionato e come tale dovrei poterci "giocare" in libertà. con giocare in libertà intendo usare tutto il suo potenziale.
non stiamo dicendo che dev'esserci la possibilità di sparare 2V, ma di lasciarle usare la potenza che serve con i parametri considerati safe
(il case aperto smaltisce meno calore del case chiuso)
Zotac tramite parametri nvidia, ti deve dare solo una scheda funzionante. I parametri che ti danno, sono di 1660mhz come boost base (se poi sta a 1740-1800 non cambia molto).
Come già detto, queste schede sono sempre esistite, tipo le plasticose, sono la "spazzatura" della serie.
Non si possono pretendere grandi prestazioni di PL, clock, PCB, per quelle ci sono le custom pompate.
Ok non ci sono schede, e costano 2 volte tanto, ma la realtà è quella.
finalmente la bimba nuova é tornata, gia saldata e operativa :oink:
https://i.ibb.co/hWY2KKK/new.png (https://ibb.co/PhD1555)
sono pure riuscito a moddare il lian li o11 Mini facendola stare in piedi con tutti e 3 i radiatori al loro posto, case fantastico :O
https://i.ibb.co/j5FGtKd/IMG-20211023-203932-2.jpg (https://ibb.co/QcGn0BZ)
come hai moddato il mini per metterla in verticale? vorrei metterla anche io con i 3 rad dentro.
ma hai messo tutte le ventole che buttano aria fuori?
Vai a capire....
Inviato dal mio IN2023 utilizzando Tapatalk
Al netto di avere case pessimi, i case con ventole opportunamente dimensionate smaltiscono meglio il calore rispetto tenere tutto aperto. Ovvio, non ti abbassa di 20 gradi le temperature, ma incide in modo positivo, senza avere una galleria del vento
Thunder-74
24-10-2021, 19:59
Oggi ho reinstallato Bf5 per fare alcune prove.
Mi sono accorto che tra dx12 e dx11 l utilizzo della gpu è completamente diverso, ovvero con dx12 limito gli fps a 144 e stanno sempre li, mentre su dx11 ottengo molti meno fps con una media di 110-120 con la gpu che va al 55% di media...
Possibile che questo genere di gpu con le dx11 e con il gioco in questione sia cosi limitata??? Tra l altro non non ho il collo della cpu che sta al 70%.
Purtroppo per questo gioco, dai tempi che è uscito, non sono riuscito mai a giocare in dx12 per via dei dropFPS
In realtà se vedi meno fps in dx 11, è perché in dx12 hai meno collo di bottiglia della cpu. Dovresti osservare i singoli core e vedere se almeno uno va al Max. In tal caso sei cpu limited .
Inviato dal mio iPhone X utilizzando Tapatalk
Al netto di avere case pessimi, i case con ventole opportunamente dimensionate smaltiscono meglio il calore rispetto tenere tutto aperto. Ovvio, non ti abbassa di 20 gradi le temperature, ma incide in modo positivo, senza avere una galleria del vento
Da quando ho preso questo non ho più problemi di temperature nel case, e lo consiglio fortemente chi deve cambiare case
https://lian-li.com/product/lancool-ii-mesh/
razor820
24-10-2021, 20:26
In realtà se vedi meno fps in dx 11, è perché in dx12 hai meno collo di bottiglia della cpu. Dovresti osservare i singoli core e vedere se almeno uno va al Max. In tal caso sei cpu limited .
Inviato dal mio iPhone X utilizzando Tapatalk
in dx12 ho più fps e l uso del core è molto più alto 85-90%.
a aaa Ho guardato i singoli core niente, non vanno al max. Solo durante il caricamento della mappa
Thunder-74
24-10-2021, 20:33
in dx12 ho più fps e l uso del core è molto più alto 85-90%.
a aaa Ho guardato i singoli core niente, non vanno al max. Solo durante il caricamento della mappa
Ok, allora si tratta di una migliore efficienza in dx12, che sfrutta meglio cpu e di conseguenza gpu . Quando avevo lo Sli di 980ti, sui titoli dx11/12 , notavo incrementi fps anche del 30 per cento in dx12. Ricordo ad esempio deus ex .
Inviato dal mio iPhone X utilizzando Tapatalk
TigerTank
24-10-2021, 20:55
Va fuori specifica sia l'erogazione dall' ali che dallo slot pcie
Non viene tagliata esattamente raggiunti quei tot watt la corrente erogata, c'è sempre un po' di margine in più, diciamo che sono valori safe quelli dati dallo standard atx ma che possono e anzi vengono sfondati se richiesti
Legge di ohm, mettendole in parallelo la resistenza complessiva dimezza, a parita di voltaggio la corrente raddoppia, visto che I (intensità di corrente) = V (voltaggio) / R (resistenza) ed essendo la potenza uguale a V * I, raddoppiando la corrente raddoppi la potenza, ed il rischio che ti si fotta :D
8 pin a 10A può raggiungere 360 (3 linee da 120watt), mentre un 6 pin 240watt.
Lo standard da 150+75 è dato anch'esso dallo standard AWG20. Sono i cavi con diametro più piccolo e molto sottili da 0,81mm
Passando così poca corrente non surriscaldano per questo sono standardizzati, già i limiti sono mediamente sotto i 50°.
Ci sono però gli AWG18 e AWG16 (molto costosi).
AWG18 sono cavi con diametro di 1,02mm, permettono tranquillamente più corrente, ma non vanno sempre daccordo con gli ALI scarsi (sprovvisti).
Se con il tuo ALI che è un Superflowers, metti una dual GPU tipo una 4870x2, una 295 o ancora una r9 295, vedresti valori molto superiori alle specifiche.:)
Chiaro, grazie :)
Pure quella del PCI express, neppure Der8 si è spinto tanto.:sofico:
:sofico:
Alekos Panagulis
24-10-2021, 22:18
Al netto di avere case pessimi, i case con ventole opportunamente dimensionate smaltiscono meglio il calore rispetto tenere tutto aperto. Ovvio, non ti abbassa di 20 gradi le temperature, ma incide in modo positivo, senza avere una galleria del ventoMi spiace ma sbagli.
Inviato dal mio IN2023 utilizzando Tapatalk
mattxx88
24-10-2021, 23:39
Naturale, come detto anche da exes, mettendo in parallelo 2 resistenze da 5mhom, gpu-z praticamente ti legge 2,5 mhom, quindi valori dimezzati alla stessa tensione.
Se ne mettesse una da 15mhom GPU, leggerebbe un 50%.
8 pin a 10A può raggiungere 360 (3 linee da 120watt), mentre un 6 pin 240watt.
Lo standard da 150+75 è dato anch'esso dallo standard AWG20. Sono i cavi con diametro più piccolo e molto sottili da 0,81mm
Passando così poca corrente non surriscaldano per questo sono standardizzati, già i limiti sono mediamente sotto i 50°.
Ci sono però gli AWG18 e AWG16 (molto costosi).
AWG18 sono cavi con diametro di 1,02mm, permettono tranquillamente più corrente, ma non vanno sempre daccordo con gli ALI scarsi (sprovvisti).
Se con il tuo ALI che è un Superflowers, metti una dual GPU tipo una 4870x2, una 295 o ancora una r9 295, vedresti valori molto superiori alle specifiche.:)
Pure quella del PCI express, neppure Der8 si è spinto tanto.:sofico:
post muto, non serve aggiungere manco 1 virgola :D :vicini: :vicini:
come hai moddato il mini per metterla in verticale? vorrei metterla anche io con i 3 rad dentro.
ma hai messo tutte le ventole che buttano aria fuori?
devi tagliare un pezzetto in modo da far stare la mascherina della mainboard piu bassa, se ti serve ti dico quanto ho tagliato io, devo misurare
https://i.ibb.co/BT7pZWC/o11dmini-1x-3-01.jpg (https://imgbb.com/)
e si, sto giro ho voluto provare un full exhaust e funziona alla grande
mi bazzicava in testa gia da un po, poi quando ho visto che l ha fatto anche Stewart sono andato piu tranquillo :D
https://www.youtube.com/watch?v=bsHwyLGk2cQ&t=3s
sai bene cosa vuol dire mettere mani su stri impianti nel caso non funzioni qualcosa a dovere :mc:
mikael84
25-10-2021, 00:06
in dx12 ho più fps e l uso del core è molto più alto 85-90%.
a aaa Ho guardato i singoli core niente, non vanno al max. Solo durante il caricamento della mappa
Ampere soffre di overhead a quelle risoluzioni, la 3080ti è decisamente sproporzionata per quel pannello. Di certo una CPU top aiuterebbe, ma rimane cmq sbilanciata. L'unico è accontentarsi, sfruttare il RT e godersi tutto al meglio.:)
post muto, non serve aggiungere manco 1 virgola :D :vicini: :vicini:
No Matt serve eccome, sei andato oltre persone come der8auer, hai fatto un lavoro maniacale. Facile fare 2+2 su un forum, farlo su una GPU di un certo tipo è tanta, tanta roba.:)
Alekos Panagulis
25-10-2021, 06:35
post muto, non serve aggiungere manco 1 virgola :D :vicini: :vicini:
devi tagliare un pezzetto in modo da far stare la mascherina della mainboard piu bassa, se ti serve ti dico quanto ho tagliato io, devo misurare
https://i.ibb.co/BT7pZWC/o11dmini-1x-3-01.jpg (https://imgbb.com/)
e si, sto giro ho voluto provare un full exhaust e funziona alla grande
mi bazzicava in testa gia da un po, poi quando ho visto che l ha fatto anche Stewart sono andato piu tranquillo :D
https://www.youtube.com/watch?v=bsHwyLGk2cQ&t=3s
sai bene cosa vuol dire mettere mani su stri impianti nel caso non funzioni qualcosa a dovere :mc:Ma con tutta quella pressione negativa ti si riempie di polvere in tempo zero... Ho sempre considerato preferibile la pressione positiva, mi sbaglio?
Inviato dal mio IN2023 utilizzando Tapatalk
mattxx88
25-10-2021, 07:05
Ma con tutta quella pressione negativa ti si riempie di polvere in tempo zero... Ho sempre considerato preferibile la pressione positiva, mi sbaglio?
Inviato dal mio IN2023 utilizzando Tapatalk
si è vero che porta dentro più polvere aspirando molta aria da dietro, più che altro perchè nel posteriore non hai filtri
però tenendo quelle sotto in Intake, mi portava troppa aria calda dentro (dovuta dal rad sotto)
dovrò soffiarlo piu spesso ma amen
Alekos Panagulis
25-10-2021, 07:08
si è vero che porta dentro più polvere aspirando molta aria da dietro, più che altro perchè nel posteriore non hai filtri
però tenendo quelle sotto in Intake, mi portava troppa aria calda dentro (dovuta dal rad sotto)
dovrò soffiarlo piu spesso ma amenIl problema è che ti si intasano i rad di polvere, e non basta soffiare. Devi smontarli e lavarli.... Cmq bel lavoro, complimenti.
Inviato dal mio IN2023 utilizzando Tapatalk
mattxx88
25-10-2021, 07:09
No Matt serve eccome, sei andato oltre persone come der8auer, hai fatto un lavoro maniacale. Facile fare 2+2 su un forum, farlo su una GPU di un certo tipo è tanta, tanta roba.:)
ah pura incoscienza, der8 ha nozioni tecniche per me inarrivabili (lo fa per lavoro anche, quindi ci sta) come pure molti su overclock.net che è il mio pozzo di ispirazione
basta essere consci del fatto che una gpu del genere non va tenuta a briglie libere ma sempre sotto controllo, poi la tirata quelle 2/3 volte l'anno in benchmark ci sta
post muto, non serve aggiungere manco 1 virgola :D :vicini: :vicini:
devi tagliare un pezzetto in modo da far stare la mascherina della mainboard piu bassa, se ti serve ti dico quanto ho tagliato io, devo misurare
https://i.ibb.co/BT7pZWC/o11dmini-1x-3-01.jpg (https://imgbb.com/)
e si, sto giro ho voluto provare un full exhaust e funziona alla grande
mi bazzicava in testa gia da un po, poi quando ho visto che l ha fatto anche Stewart sono andato piu tranquillo :D
https://www.youtube.com/watch?v=bsHwyLGk2cQ&t=3s
sai bene cosa vuol dire mettere mani su stri impianti nel caso non funzioni qualcosa a dovere :mc:
In pratica lo monti in configurazione 7 slot anche se la scheda madre è montata in posizione 5. Ma non si vede poi il foro sopra la scheda madre o lo hai coperto in qualche modo?
Il kit è quello lian-li?
Sull’ full exhaust avevo visto il video ma pensavo lo facesse per motivi estetici, non funzionali. Hai un compare prima e dopo?
mattxx88
25-10-2021, 07:39
In pratica lo monti in configurazione 7 slot anche se la scheda madre è montata in posizione 5. Ma non si vede poi il foro sopra la scheda madre o lo hai coperto in qualche modo?
Il kit è quello lian-li?
Sull’ full exhaust avevo visto il video ma pensavo lo facesse per motivi estetici, non funzionali. Hai un compare prima e dopo?
si ti resta il buco, ma amen, manco si vede
come temp ieri sera mi son fatto un 3 orette a warzone e non ho notato perdite di performance, uguale alla config che avevo prima.
Devo aggiungere una info fondamentale però, prima la gpu era pastata col metallo liquido ora ho lasciato pasta termica, quindi forse performa qualcosa meglio.
unica volta che ho usato il metallo liquido in vita mia e unica volta che mi è morta una gpu, quindi per la cabala, non l'ho piu usato :stordita:
si ti resta il buco, ma amen, manco si vede
come temp ieri sera mi son fatto un 3 orette a warzone e non ho notato perdite di performance, uguale alla config che avevo prima.
Devo aggiungere una info fondamentale però, prima la gpu era pastata col metallo liquido ora ho lasciato pasta termica, quindi forse performa qualcosa meglio.
unica volta che ho usato il metallo liquido in vita mia e unica volta che mi è morta una gpu, quindi per la cabala, non l'ho piu usato :stordita:
Non hai le tliquido e tamb come riferimento?
Si metallo liquido sopra la gpu forse smaltando i contatti intorno, ma non ne vale la pena considerando l’assenza di un ihs
mattxx88
25-10-2021, 07:49
Non hai le tliquido e tamb come riferimento?
Si metallo liquido sopra la gpu forse smaltando i contatti intorno, ma non ne vale la pena considerando l’assenza di un ihs
li ho isolati tutti col conformal coating anche, che è uno smalto fatto apposta per i circuiti stampati, ma secondo me qualche micro pallina devve essere andata da qualche parte, non puoi smontare una gpu per pulirla e rimontarla morta.. boh
no non ho sensori sul liquido, arte povera :fagiano:
li ho isolati tutti col conformal coating anche, che è uno smalto fatto apposta per i circuiti stampati, ma secondo me qualche micro pallina devve essere andata da qualche parte, non puoi smontare una gpu per pulirla e rimontarla morta.. boh
no non ho sensori sul liquido, arte povera :fagiano:
ora mi hai istigato il seme del dubbio che mi comporterà di pensare per almeno qualche giorno a questa soluzione, valutando se smontare il loop di nuovo per girare le ventole sotto. :fagiano:
TigerTank
25-10-2021, 13:14
ah pura incoscienza, der8 ha nozioni tecniche per me inarrivabili (lo fa per lavoro anche, quindi ci sta) come pure molti su overclock.net che è il mio pozzo di ispirazione
basta essere consci del fatto che una gpu del genere non va tenuta a briglie libere ma sempre sotto controllo, poi la tirata quelle 2/3 volte l'anno in benchmark ci sta
Ahahah l'importante è che nel tuo caso non valga assolutamente il detto "non c'è due senza tre" :sofico:
razor820
25-10-2021, 13:52
Qualche consiglio sulla CPU da affiancare alla 3080ti? Gioco in 1440p alti fps. Mi interessa che abbia il supporto pciEx 4
mattxx88
25-10-2021, 14:04
5900x imho
Alekos Panagulis
25-10-2021, 14:15
5900x imho
Bhè anche 5800, non dovrebbe esserci differenza in game.
fraussantin
25-10-2021, 14:15
Qualche consiglio sulla CPU da affiancare alla 3080ti? Gioco in 1440p alti fps. Mi interessa che abbia il supporto pciEx 4
Aspetta aldercoso di Intel , mal che vada droppano i prezzi AMD .
E poi valuti o un 5900 o un 12700.
PS se cambi speso piattaforma anche un 5800 basta.
mattxx88
25-10-2021, 14:23
Bhè anche 5800, non dovrebbe esserci differenza in game.
si è vero ma ho letto che ha picchi caloriferi più alti per via dei ccx o qualcosa del genere
sarebbe da aspettare alder che pare spingano bene sia single core che multicore, ma credo che come prezzi saranno salatelli
Alekos Panagulis
25-10-2021, 14:30
si è vero ma ho letto che ha picchi caloriferi più alti per via dei ccx o qualcosa del genere
sarebbe da aspettare alder che pare spingano bene sia single core che multicore, ma credo che come prezzi saranno salatelli
Si è vero, avendo un ccx da 8 core scalda un po' di più il 5800 rispetto al 5900, che ne ha due da 6. Inoltre il 5900 potrebbe essere binnato, ma di che differenze stiamo parlando a fronte di 150 euro rincaro?
Soprattutto con Alder lake alle porte, come giustamente avete detto, meglio aspettare - o se non si può aspettare meglio andare con la soluzione migliore come rapporto prezzo/prestazioni.
Si è vero, avendo un ccx da 8 core scalda un po' di più il 5800 rispetto al 5900, che ne ha due da 6. Inoltre il 5900 potrebbe essere binnato, ma di che differenze stiamo parlando a fronte di 150 euro rincaro?
Soprattutto con Alder lake alle porte, come giustamente avete detto, meglio aspettare - o se non si può aspettare meglio andare con la soluzione migliore come rapporto prezzo/prestazioni.
dipende, il 5800x potrebbe essere più binnato di un 5900x, o meglio... il 5800x deve avere un ccx completo buono, anche se con requirements più bassi in termini di frequenza e consumo (in fondo ha lo stesso tdp del 5900x e 5950x con meno core, quindi può permettersi di dare più voltaggio ai singoli core). il 5900x invece deve avere un ccx ottimo (perchè deve rispettare il boost in single core prossimo ai 5ghz) mentre il secondo può essere scarsino (diciamo a livello 5600x). Per avere i core binnati bisogna prendere il 5950x.
Alekos Panagulis
25-10-2021, 14:50
dipende, il 5800x potrebbe essere più binnato di un 5900x, o meglio... il 5800x deve avere un ccx completo buono, anche se con requirements più bassi in termini di frequenza e consumo (in fondo ha lo stesso tdp del 5900x e 5950x con meno core, quindi può permettersi di dare più voltaggio ai singoli core). il 5900x invece deve avere un ccx ottimo (perchè deve rispettare il boost in single core prossimo ai 5ghz) mentre il secondo può essere scarsino (diciamo a livello 5600x). Per avere i core binnati bisogna prendere il 5950x.
Buono a sapersi, grazie.
razor820
25-10-2021, 15:03
in prospettiva alder lake volevo evitare di spendere troppo per un 5900. Avevo visto un 3900x, ma da quanto ho capito non fa al caso mio, visto che con tanto fps elaborati il 5800 spinge molto di più. Almeno quello che ho visto sul tubo.
La cosa che mi interessa principalmente visto l uscita di bf2042, una cpu che funzioni bene in quella direzione. Perché come detto qualche post addietro, già in bf5 con la gpu in questione ho avuto problemi in dx12, causati da drop di fps, che ancora non ho capito se dovuti dal engine dal gioco o dal 8700k
Graphite600T
25-10-2021, 15:24
dipende, il 5800x potrebbe essere più binnato di un 5900x, o meglio... il 5800x deve avere un ccx completo buono, anche se con requirements più bassi in termini di frequenza e consumo (in fondo ha lo stesso tdp del 5900x e 5950x con meno core, quindi può permettersi di dare più voltaggio ai singoli core). il 5900x invece deve avere un ccx ottimo (perchè deve rispettare il boost in single core prossimo ai 5ghz) mentre il secondo può essere scarsino (diciamo a livello 5600x). Per avere i core binnati bisogna prendere il 5950x.
io ho avuto sia 5800x che 5950x che 5900x. I ccx + binnati vanno su 5950x poi 5900x e poi 5800x. il 5900x è un 5950x con almeno 1 core rovinato e tagliato al laser. Comunque per me 5800x e 5900x temperature simili il 5950x è il più fresco di tutti. In ogni caso al ragazzo che cerca una cpu per alti fps consiglio di aspettare il 12700k\12900k se avranno prezzi e consumi onesti + un custom loop quasi necessario per i 350watt in overclock. Considerate che tutti i benchmark dove batte amd sono tutti sopra i 105 gradi sul die.
bronzodiriace
25-10-2021, 15:52
Sono con il 9900k a 5ghz ed anche io in attesa cambio piattaforma.
Non vorrei che l'architettura little. big Intel non sia sfruttata con giochi vecchi.
Inviato dal mio MAR-LX1A utilizzando Tapatalk
Jeetkundo
25-10-2021, 19:45
A me non ispirano i nuovi processori Intel, sembrano delle fornaci per la lavorazione dei metalli (le ultime serie erano già eccessivamente energivore).
Inviato dal mio LYA-L09 utilizzando Tapatalk
fraussantin
25-10-2021, 19:57
A me non ispirano i nuovi processori Intel, sembrano delle fornaci per la lavorazione dei metalli (le ultime serie erano già eccessivamente energivore).
Inviato dal mio LYA-L09 utilizzando TapatalkMa non dovrebbero portare un lieve miglioramento sui consumi?
in prospettiva alder lake volevo evitare di spendere troppo per un 5900. Avevo visto un 3900x, ma da quanto ho capito non fa al caso mio, visto che con tanto fps elaborati il 5800 spinge molto di più. Almeno quello che ho visto sul tubo.
La cosa che mi interessa principalmente visto l uscita di bf2042, una cpu che funzioni bene in quella direzione. Perché come detto qualche post addietro, già in bf5 con la gpu in questione ho avuto problemi in dx12, causati da drop di fps, che ancora non ho capito se dovuti dal engine dal gioco o dal 8700k
Non ho provato BF2042, ma storicamente mi ricordo frame drop casuali in DX12 in diversi giochi Frostbite, forse non tutti ( a memoria mi pare di aver giocato Jedi Fallen Order senza problemi) ma quasi, avevo una Turing con l'ultimo paio. Non ne ho giocato nessuno col 5900X però.
Razor vai su 5800x senza pensarci troppo
Dal modello appena dopo in su è solo uno spreco per una macchina da gioco
Ma non dovrebbero portare un lieve miglioramento sui consumi?
Qualsiasi discorso su consumi etc è pretestuoso quando da bios hai la possibilità di spararlo a 250w
mattxx88
25-10-2021, 21:57
ora mi hai istigato il seme del dubbio che mi comporterà di pensare per almeno qualche giorno a questa soluzione, valutando se smontare il loop di nuovo per girare le ventole sotto. :fagiano:
ok posso dirti con certezza che performa meglio
sta primavera con temp ambiente simili e metallo liquido avevo stesse temp che ho ora sul core
qua 2 ora di warzone col daily solito
https://i.ibb.co/bJKbH30/test.png (https://ibb.co/xH7Fmsk)
razor820
25-10-2021, 22:31
a qualcuno capita che appena si aprono applicazioni come internet browser o client di gioco, ovvero quelli che usano un poco di scheda video, di sentire un po' di coil whine?
Non so se sia proprio quello, ma un po' di interferenza solo nel momento in cui si aprono le applicazioni.
Thunder-74
26-10-2021, 07:16
a qualcuno capita che appena si aprono applicazioni come internet browser o client di gioco, ovvero quelli che usano un poco di scheda video, di sentire un po' di coil whine?
Non so se sia proprio quello, ma un po' di interferenza solo nel momento in cui si aprono le applicazioni.
non è detto che sia la VGA. Dovresti, con un foglio di carta, creare un tubo e ascoltare VRM mobo, ALI, VGA per capire da dove proviene. Altrimenti fregatene e vivi sereno :)
razor820
26-10-2021, 09:28
non è detto che sia la VGA. Dovresti, con un foglio di carta, creare un tubo e ascoltare VRM mobo, ALI, VGA per capire da dove proviene. Altrimenti fregatene e vivi sereno :)
si era solo per curiosità.
Avendo per qualche anno abituato l orecchio agli 800rpm delle ventole, adesso qualsiasi rumore mi sembra ultra percepibile
fraussantin
26-10-2021, 10:08
si era solo per curiosità.
Avendo per qualche anno abituato l orecchio agli 800rpm delle ventole, adesso qualsiasi rumore mi sembra ultra percepibileCmq più o meno tutte le rtX hanno un minimo di coil whine in certe situazioni. Le Fe in particolare di più .
Io non ne sento particolarmente di forti sulla mia . Ma ho il case in terra.
La vecchia evga fischiava come un treno solo se stremata.
La mia 3090FE ha zero coilwine (montato dissi a liquido).
Thunder-74
26-10-2021, 16:43
The new Drivers: 496.49 WHQL
LINK (https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/)
New in this version:
Game Ready
• Guardians of the Galaxy
• Age of Empires IV
• Battlefield 2042 Early Access
• Call of Duty: Vanguard
• Chivalry 2
• Forza Horizon 5
• Grand Theft Auto: The Trilogy
• Jurassic World Evolution 2
• Riders Republic
Security
• See Security Bulletin: NVIDIA GPU Display Driver - October 2021 [page not up yet]
Fixed Issues in this Release
• [Doom 3: BFG Edition]: Visual corruption occurs in the game. [3405146]
• [Tom Clancy's The Division 2]: Flickering and visual corruption may appear after extended gameplay. [3369607]
• [LG OLED C1 series]: The display may show random black screen flicker at 1080p. [3404999]
Known Issues
• [Red Dead Redemption 2][Vulkan]: The game may randomly crash during gameplay. [3405911]
• [WRC 8 FIA World Rally Championship/WRC 9 FIA World Rally Championship]: The games crash on launch. [3409320/3409312]
• [Tom Clancy's Ghost Recon Breakpoint]: Textures in the game may flicker. [3410593]
• [Supreme Command:Forged Alliance/Supreme Commander 2]: Performance drop when there is mouse movement. [3405920]
• [Deathloop][HDR]: TDR/corruption occurs in the game with Windows HDR enabled.
If this issue occurs, toggle the Windows HDR setting.
• [YouTube]: Video playback stutters while scrolling down the YouTube page. [3129705]
• Sonic & All-Stars Racing Transformed may crash on courses where players drive through water. [3338967]
• [HDR][G-Sync]: Mouse pointer gets stuck after turning on HDR from the Windows Control Panel or after toggling G-Sync from the NVIDIA control panel. [200762998]
To work around, click the mouse (right or left button). The mouse cursor will be sluggish for a few seconds before returning to normal operation.
• [NVIDIA Control Panel]: After setting the display multiplexer type to "dGPU", the setting is not preserved across a reboot or resume from S4. [200779758]
razor820
26-10-2021, 17:09
la dicitura riguardo all early access di bf2042 mi fa preoccupare..
CrazyDog
26-10-2021, 17:16
The new Drivers: 496.49 WHQL
LINK (https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/)
New in this version:
Game Ready
• Guardians of the Galaxy
• Age of Empires IV
• Battlefield 2042 Early Access
• Call of Duty: Vanguard
• Chivalry 2
• Forza Horizon 5
• Grand Theft Auto: The Trilogy
• Jurassic World Evolution 2
• Riders Republic
Security
• See Security Bulletin: NVIDIA GPU Display Driver - October 2021 [page not up yet]
Fixed Issues in this Release
• [Doom 3: BFG Edition]: Visual corruption occurs in the game. [3405146]
• [Tom Clancy's The Division 2]: Flickering and visual corruption may appear after extended gameplay. [3369607]
• [LG OLED C1 series]: The display may show random black screen flicker at 1080p. [3404999]
Known Issues
• [Red Dead Redemption 2][Vulkan]: The game may randomly crash during gameplay. [3405911]
• [WRC 8 FIA World Rally Championship/WRC 9 FIA World Rally Championship]: The games crash on launch. [3409320/3409312]
• [Tom Clancy's Ghost Recon Breakpoint]: Textures in the game may flicker. [3410593]
• [Supreme Command:Forged Alliance/Supreme Commander 2]: Performance drop when there is mouse movement. [3405920]
• [Deathloop][HDR]: TDR/corruption occurs in the game with Windows HDR enabled.
If this issue occurs, toggle the Windows HDR setting.
• [YouTube]: Video playback stutters while scrolling down the YouTube page. [3129705]
• Sonic & All-Stars Racing Transformed may crash on courses where players drive through water. [3338967]
• [HDR][G-Sync]: Mouse pointer gets stuck after turning on HDR from the Windows Control Panel or after toggling G-Sync from the NVIDIA control panel. [200762998]
To work around, click the mouse (right or left button). The mouse cursor will be sluggish for a few seconds before returning to normal operation.
• [NVIDIA Control Panel]: After setting the display multiplexer type to "dGPU", the setting is not preserved across a reboot or resume from S4. [200779758]
ho trovato questo thread su guru3d in cui postano l'ultimo driver pulito senza telemetrie e altre varie schifezze presenti nel pacchetto originale
https://forums.guru3d.com/threads/496-49-clean-version.433367/
Thunder-74
26-10-2021, 17:38
la dicitura riguardo all early access di bf2042 mi fa preoccupare..
io credo intenda che il driver è pronto già per il gioco che verrà rilasciato in anticipo a chi ha BF2042 gold o Ultimate, ovvero il 12 novembre, gli altri il 19
ho trovato questo thread su guru3d in cui postano l'ultimo driver pulito senza telemetrie e altre varie schifezze presenti nel pacchetto originale
https://forums.guru3d.com/threads/496-49-clean-version.433367/
io uso nvcleanstall per installare solo driver e physx LINK (https://www.techpowerup.com/download/techpowerup-nvcleanstall/)
TigerTank
26-10-2021, 18:47
io uso nvcleanstall per installare solo driver e physx LINK (https://www.techpowerup.com/download/techpowerup-nvcleanstall/)
Idem.
EDIT: uscito nuovo DLSS 2.3.3.
EDIT2: Comunque sembra proprio che da quando è uscita la release finale di Windows 11 ci siano solo i drivers DCH. Anche siti come Guru3D o TechpowerUp non pubblicano più quelli "normali" con pannello di controllo incluso.
Hanno forzato i soli DCH + pannello di controllo come app dal Microsoft Store.
ROBHANAMICI
26-10-2021, 20:46
Scusatemi, una curiosità. Ma i nuovi driver nvidia li fanno solo dch? Si possono installare tranquillamente? Grazie mille.
mattxx88
26-10-2021, 20:52
Scusatemi, una curiosità. Ma i nuovi driver nvidia li fanno solo dch? Si possono installare tranquillamente? Grazie mille.
Vedi post sopra al tuo
ROBHANAMICI
26-10-2021, 22:41
ok :stordita: :stordita:
mikael84
27-10-2021, 00:23
ah pura incoscienza, der8 ha nozioni tecniche per me inarrivabili (lo fa per lavoro anche, quindi ci sta) come pure molti su overclock.net che è il mio pozzo di ispirazione
basta essere consci del fatto che una gpu del genere non va tenuta a briglie libere ma sempre sotto controllo, poi la tirata quelle 2/3 volte l'anno in benchmark ci sta
E' tanta roba cmq.:)
Qualche consiglio sulla CPU da affiancare alla 3080ti? Gioco in 1440p alti fps. Mi interessa che abbia il supporto pciEx 4
Aspetta alder lake, poi valuta un 5800x nel caso.
Idem.
EDIT: uscito nuovo DLSS 2.3.3.
EDIT2: Comunque sembra proprio che da quando è uscita la release finale di Windows 11 ci siano solo i drivers DCH. Anche siti come Guru3D o TechpowerUp non pubblicano più quelli "normali" con pannello di controllo incluso.
Hanno forzato i soli DCH + pannello di controllo come app dal Microsoft Store.
Io il pannello lo trovo sempre ad ogni cambio driver.
L'ho abilitato in gestione servizi, nvidia display container, e ad ogni cambio driver me lo da in automatico.
Uso i DCH.
ROBHANAMICI
27-10-2021, 07:34
Grazie mikael ;)
razor820
27-10-2021, 08:29
ancora non ho installato windows 11. Ma ho capito male o dall ultima versione di windows non è presente il pannello di controllo nvidia???
TigerTank
27-10-2021, 08:39
Io il pannello lo trovo sempre ad ogni cambio driver.
L'ho abilitato in gestione servizi, nvidia display container, e ad ogni cambio driver me lo da in automatico.
Uso i DCH.
Ciao Mike, hai usato il barbatrucco :D
Ufficialmente si appoggerebbero ormai al pannello come app Microsoft...mah.
Anche installando i drivers DCH tramite NVCleanstall dà la relativa opzione.
http://i.imgur.com/zRCvVvGl.jpg (https://imgur.com/zRCvVvG)
Non ci sono comunque differenze. Imho piuttosto dovrebbero decidersi a dare una rinnovata all'interfaccia del pannello stesso rendendola più snella e comoda...e magari sistemando anche gli errori di traduzione che persistono da sempre(preferisci le presEtazioni massime) :sofico:
ancora non ho installato windows 11. Ma ho capito male o dall ultima versione di windows non è presente il pannello di controllo nvidia???
O fai come Mike o lo installi come app Microsoft o lo fai installare da Nvcleanstall.
Ovviamente parlando di installazione dopo pulizia totale, altrimenti se sovrascrivi altri drivers non serve.
razor820
27-10-2021, 09:25
La maggior parte delle applicazione di gestione componenti interni passate al windows store mi hanno dato sempre problemi.... Ricordo il pannello realtek. Per non parlare dei tweak del portatile msi.. Speriamo che non sia il caso anche del pannello nvidia
fraussantin
27-10-2021, 09:46
La maggior parte delle applicazione di gestione componenti interni passate al windows store mi hanno dato sempre problemi.... Ricordo il pannello realtek. Per non parlare dei tweak del portatile msi.. Speriamo che non sia il caso anche del pannello nvidiaNo vai tranquillo sono anni che l'uso e non da problemi.
Thunder-74
27-10-2021, 12:21
Ubisoft incolpa app in background come Skype, MSI Afterburner e Discord per problemi di prestazioni del PC
LINK (https://www.overclock3d.net/news/software/ubisoft_blames_background_apps_like_skype_msi_afterburner_and_discord_for_pc_performance_issues/1)
seeeee hahahahahah
razor820
27-10-2021, 13:49
Ubisoft incolpa app in background come Skype, MSI Afterburner e Discord per problemi di prestazioni del PC
LINK (https://www.overclock3d.net/news/software/ubisoft_blames_background_apps_like_skype_msi_afterburner_and_discord_for_pc_performance_issues/1)
seeeee hahahahahah
Con discord ci potrebbe anche stare un uso altino della cpu, sul 3% nel mio caso, ma dire che i giochi ubisoft girano male per via di queste app è ridicolo.
FrancoBit
27-10-2021, 13:53
Con discord ci potrebbe anche stare un uso altino della cpu, sul 3% nel mio caso, ma dire che i giochi ubisoft girano male per via di queste app è ridicolo.
Dissero i fruitori della merd@di denuvo, ma andassero a c...... per favore
Cutter90
27-10-2021, 14:16
Ubisoft incolpa app in background come Skype, MSI Afterburner e Discord per problemi di prestazioni del PC
LINK (https://www.overclock3d.net/news/software/ubisoft_blames_background_apps_like_skype_msi_afterburner_and_discord_for_pc_performance_issues/1)
seeeee hahahahahah
Dichiarazione vergognosa. Sono loro che quando testano un gioco lo DEVONO testare in pc "normale". ossia con afterburner+riva aperto. E deve anche funzionare con tutto. Sono incapaci e non si vogliono sbattere. Tra l'altro, anche loc nei titoli Ubisoft è sempre più inutile e ciò evidenzia come la loro ottimizzazione sia pessima e sufficiente.... per non parlare del fatto che loro giochi girino su 2 core, quando in commercio almeno 4 sono il minimo....
TigerTank
27-10-2021, 14:19
Ubisoft incolpa app in background come Skype, MSI Afterburner e Discord per problemi di prestazioni del PC
LINK (https://www.overclock3d.net/news/software/ubisoft_blames_background_apps_like_skype_msi_afterburner_and_discord_for_pc_performance_issues/1)
seeeee hahahahahah
Ma almeno avessero detto i programmi proprietari in background(anche più di uno) per la gestione di millemila leds! :sofico:
Che poi in teoria la game mode di Windows dovrebbe proprio "ottimizzare il pc per giocare disattivando gli elementi in background" :D
Con discord ci potrebbe anche stare un uso altino della cpu, sul 3% nel mio caso, ma dire che i giochi ubisoft girano male per via di queste app è ridicolo.
Ubisoft avrà la sua telemetria che li spinge a dire così. Secondo me una buona parte dei crash sono causati da persone con scarsa conoscenza su come creare un overclock rock solid.
Cutter90
27-10-2021, 15:52
Ubisoft avrà la sua telemetria che li spinge a dire così. Secondo me una buona parte dei crash sono causati da persone con scarsa conoscenza su come creare un overclock rock solid.
In ac valhalla, qualsiasi oc manda in crash il gioco.... provato e riprovato per 3 mesi alla sua uscita.- ora non so se è ancora così
Alekos Panagulis
27-10-2021, 16:14
Dissero i fruitori della merd@di denuvo, ma andassero a c...... per favore
Eh ragazzi inutile prendersela con Denuvo. Lo farei anche io se fossi un producer di giochi tripla A.
Ci sono giochi che non vengono mai (o quasi) bucati proprio grazie a Denuvo, e per questo non finiscono nei warez. Ad esempio WD Legion.
FrancoBit
27-10-2021, 16:52
Eh ragazzi inutile prendersela con Denuvo. Lo farei anche io se fossi un producer di giochi tripla A.
Ci sono giochi che non vengono mai (o quasi) bucati proprio grazie a Denuvo, e per questo non finiscono nei warez. Ad esempio WD Legion.
Su questo posso essere d'accordo con te se non ci sono altri metodi efficaci, però tante volte non parlare è meglio che dire fesserie, cosa vanverano su afterburner e gli altri software a c@zzo di cane. Non capisco il motivo oltretutto, già stanno sulle palle a sempre più gente visti i giochi fotocopia che fanno da ormai anni. Salvo giusto gli italiani che con Rabbids hanno fatto un gran gioco
Thunder-74
27-10-2021, 16:58
Ma almeno avessero detto i programmi proprietari in background(anche più di uno) per la gestione di millemila leds! :sofico:
Che poi in teoria la game mode di Windows dovrebbe proprio "ottimizzare il pc per giocare disattivando gli elementi in background" :D
Che poi sono ridicoli, visto che hanno stretto una collaborazione con Corsair per personalizzazione di icue con Far Cry 6. Lo dice anche l'articolo...
Fasulloni...
RGB Software
In Ubisoft's list of apps that are "likely to interfere with Ubisoft Games", the company listed RGB controllers and game optimisers like Razer Synapse and SteelSeries Engine. Note, that Ubisoft frequently partners with Corsair to integrate their RGB controller software, Corsair iCUE, into many of their games. Most recently, Corsair iCUE support was integrated into Far Cry 6.
Corsair iCUE was not listed in Ubisoft's list of background apps, but its competitors were. It is also worth noting that iCUE is also a hardware monitoring software, placing it in the same pool as MSI Afterburner. Ubisoft's list is clearly showing a little favouritism...
https://cdn.nexths.it/immagini/landing/2109-corsair-fc6-m.jpg
fraussantin
27-10-2021, 17:36
Su questo posso essere d'accordo con te se non ci sono altri metodi efficaci, però tante volte non parlare è meglio che dire fesserie, cosa vanverano su afterburner e gli altri software a c@zzo di cane. Non capisco il motivo oltretutto, già stanno sulle palle a sempre più gente visti i giochi fotocopia che fanno da ormai anni. Salvo giusto gli italiani che con Rabbids hanno fatto un gran giocoSarebbe da vedere , cyberpunk ha venduto anche senza drm . Rdr2 nonostante il drm efficacissimo non ha venduto un tubo. Idem mi sa per wdl.
Poi non dico che non sia utile , ma da solo non basta.
TigerTank
27-10-2021, 17:56
Che poi sono ridicoli, visto che hanno stretto una collaborazione con Corsair per personalizzazione di icue con Far Cry 6. Lo dice anche l'articolo...
Fasulloni...
RGB Software
In Ubisoft's list of apps that are "likely to interfere with Ubisoft Games", the company listed RGB controllers and game optimisers like Razer Synapse and SteelSeries Engine. Note, that Ubisoft frequently partners with Corsair to integrate their RGB controller software, Corsair iCUE, into many of their games. Most recently, Corsair iCUE support was integrated into Far Cry 6.
Corsair iCUE was not listed in Ubisoft's list of background apps, but its competitors were. It is also worth noting that iCUE is also a hardware monitoring software, placing it in the same pool as MSI Afterburner. Ubisoft's list is clearly showing a little favouritism...
Vero :asd:
mikael84
28-10-2021, 00:10
Grazie mikael ;)
;)
Ciao Mike, hai usato il barbatrucco :D
Ufficialmente si appoggerebbero ormai al pannello come app Microsoft...mah.
Anche installando i drivers DCH tramite NVCleanstall dà la relativa opzione.
Non ci sono comunque differenze. Imho piuttosto dovrebbero decidersi a dare una rinnovata all'interfaccia del pannello stesso rendendola più snella e comoda...e magari sistemando anche gli errori di traduzione che persistono da sempre(preferisci le presEtazioni massime) :sofico:
O fai come Mike o lo installi come app Microsoft o lo fai installare da Nvcleanstall.
Ovviamente parlando di installazione dopo pulizia totale, altrimenti se sovrascrivi altri drivers non serve.
Beh barbatrucco, almeno ti levi il pensiero. Io poi faccio sempre installazione pulita, me ne sbatto nulla di telemetrie:p
TigerTank
28-10-2021, 10:25
Beh barbatrucco, almeno ti levi il pensiero. Io poi faccio sempre installazione pulita, me ne sbatto nulla di telemetrie:p
Ahahah io diciamo che vado di DDU quando ci sono passaggi di versione consistenti, altrimenti sovrascrivo ma facendo anch'io installazione pulita da drivers stessi o da NVCleanstall :)
razor820
28-10-2021, 12:45
Non so a voi ma io ritengo che le ventole della FE siano troppo rumorose anche a 2200rpm.
Giocando senza cuffie è un casino..
La cosa strana che il rumore si propaga nella parte alta del case, dove è collocato il kraken x73 con ventole della EK a 1000rpm super silenziose.
La cosa strana che il rumore si avverte proprio lì, non vorrei che la ventola posizionata nella parte superiore della gpu e invertita tenda a creare un flusso d aria animalo che porti a questo tipo di rumore fastidioso..
Come se le ventole del radiatore e della gpu vanno in conflitto da creare questo fenomeno
TigerTank
28-10-2021, 13:00
Non so a voi ma io ritengo che le ventole della FE siano troppo rumorose anche a 2200rpm.
Giocando senza cuffie è un casino..
La cosa strana che il rumore si propaga nella parte alta del case, dove è collocato il kraken x73 con ventole della EK a 1000rpm super silenziose.
La cosa strana che il rumore si avverte proprio lì, non vorrei che la ventola posizionata nella parte superiore della gpu e invertita tenda a creare un flusso d aria animalo che porti a questo tipo di rumore fastidioso..
Come se le ventole del radiatore e della gpu vanno in conflitto da creare questo fenomeno
Mmh in teoria non dovrebbe perchè il flusso generato da una FE segue la "naturalezza" di un airflow classico (in espulsione dietro e sopra)
https://images.idgesg.net/images/article/2020/09/nvidia-geforce-rtx-30-series-cooler-flow-100857169-large.jpg
Che sia magari più un problema di vibrazioni e risonanza del case?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.