PDA

View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 [80] 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95

Blee
30-03-2022, 10:52
Esattamente. Stavo solo pensando di levare le 3x120 in immissione e mettere 3x140 in immissione, non Argb ma nere che escono dal phanteks che sono molto buone e sparano aria sulla vga. Il top l avevo lasciato chiuso, si leva il coperchio ma mi ero dimenticato

Inviato dal mio MAR-LX1A utilizzando Tapatalk

Guarda io ho un case Lian li LAncool PErformance. Ho due frontali da 140 bequiet e una posteriore da 120. Non sento alcuna ventola che gira. Io sono davvero fissato con il silenzio, quindi posso dirti. Se vuoi migliorare le temperature della 3080TI consiglio sempre, visto che hai spazio, un supporto Pcie slot Case per inserire aderenti alla GPU duel belle Toughfan TT da 120. LE tengo costanti a 1000 rpm e sono completamente inudibili. Temperature memorie sempre sotto i 90° e GPU sempre sotto i 70°. Ultimo consiglio , se vuoi un case silenzioso lascia perdere le ventole RGB, le ventole silenziose sono sempre semplici. Potrai illuminare il case in altri modi, magari inserendo qualche buon led pilotabile.

demonangel
30-03-2022, 11:33
Pagina 1000:sofico:

Yellow13
30-03-2022, 21:20
Buonasera ragazzi, da stasera sono possessore di 3080 Tuf OC (dopo un anno e mezzo di attesa).

Appena montata senza toccare nulla ho fatto girare un Time Spy e mi risulta 17300 come graphic score, sono in linea?

Mi consigliate una curva tranquilla di undervolt con un po' di overclock giusto per iniziare?

Grazie!

kiwivda
30-03-2022, 22:22
Buonasera ragazzi, da stasera sono possessore di 3080 Tuf OC (dopo un anno e mezzo di attesa).

Appena montata senza toccare nulla ho fatto girare un Time Spy e mi risulta 17300 come graphic score, sono in linea?

Mi consigliate una curva tranquilla di undervolt con un po' di overclock giusto per iniziare?

Grazie!

Ho anche io una 3080 Tuf Oc come prima cosa ti consiglio di prendere dei pad da 2mm e cambiare tutti quelli della scheda che scalda come un tostapane in corto. Senza contare che colano olio come una focaccia ligure sul pcb. L'heatsink a panino sopra le vram fa pena, ci sono pad metallo pad e altro metallo, una porcheria. Magari potresti provare con i pad in rame. Io penso faro la prova al prossimo cambio. Poi sicuramente una bella curva di undervolt a 0,8 e vedi come va tenendola sui 2000.

Aiutino:

https://i.imgur.com/wQz95nJl.jpg (https://i.imgur.com/wQz95nJ.jpg)

(THE REAL) Neo
30-03-2022, 22:43
Ho anche io una 3080 Tuf Oc come prima cosa ti consiglio di prendere dei pad da 2mm e cambiare tutti quelli della scheda che scalda come un tostapane in corto. Senza contare che colano olio come una focaccia ligure sul pcb. L'heatsink a panino sopra le vram fa pena, ci sono pad metallo pad e altro metallo, una porcheria. Magari potresti provare con i pad in rame. Io penso faro la prova al prossimo cambio. Poi sicuramente una bella curva di undervolt a 0,8 e vedi come va tenendola sui 2000.

Aiutino:

https://i.imgur.com/wQz95nJl.jpg (https://i.imgur.com/wQz95nJ.jpg)Scusa la franchezza,ma la Tuf,non é una delle piú "fresche",se non la piú fresca,tra le 3080 custom?
Mi sembra un pó eccessivo,consigliare a chi ne é appena venuto in possesso,di aprirla come una capasanta,quando di suo viaggia a temperature ottime.

Yellow13
30-03-2022, 22:57
Grazie del consiglio, effettivamente sono un po' allucinato, ero convinto che la Tuf fosse la migliore. Adesso tengo d'occhio la temperatura vrm in gaming per farmi un'idea.

Yellow13
30-03-2022, 23:52
Un'oretta di gioco, temperature massime: GPU 63°, VRM 82°. Alte, ma non altissime. Procedo con un po' di downvolt, ma temo che overclockare la vram sia fuori discussione senza cambiare i pad...

Cutter90
31-03-2022, 07:03
Un'oretta di gioco, temperature massime: GPU 63°, VRM 82°. Alte, ma non altissime. Procedo con un po' di downvolt, ma temo che overclockare la vram sia fuori discussione senza cambiare i pad...

Temperature ottime, non cambiare nulla. Overcloccare la vram non comporta alcun tipo di aumento di temperatura, testato più volte

Thunder-74
31-03-2022, 07:31
Un'oretta di gioco, temperature massime: GPU 63°, VRM 82°. Alte, ma non altissime. Procedo con un po' di downvolt, ma temo che overclockare la vram sia fuori discussione senza cambiare i pad...

anche perchè perdi la garanzia rompendo il bollino che non è in carta e quindi di difficile rimozione: si sbriciola come lo guardi. Un conto se devi liquidarla, un altro è per migliorare di una manciata di gradi le temp di Vram.
Vivi felice così ;)

Undervolt parti con 1905mhz 0,900v e poi se vuoi aggiusta di fino. i 2ghz a 0,800v mi sembrano un po' troppo ottimistici per certe situazioni di gaming pesante (es. Raytracing).

Yellow13
31-03-2022, 08:33
Infatti non ho nessuna intenzione di aprirla per il momento. Grazie per tutti i riscontri. Mi potete dire il vostro metodo per modificare la curva su afterburner? L'ultima volta che l'ho usato è anni fa. Mi pareva che bastasse impostare il voltaggio massimo sulla frequenza desiderata e cliccare su applica, ma vedo che la curva non si appiattisce, non capisco.

Thunder-74
31-03-2022, 08:51
Infatti non ho nessuna intenzione di aprirla per il momento. Grazie per tutti i riscontri. Mi potete dire il vostro metodo per modificare la curva su afterburner? L'ultima volta che l'ho usato è anni fa. Mi pareva che bastasse impostare il voltaggio massimo sulla frequenza desiderata e cliccare su applica, ma vedo che la curva non si appiattisce, non capisco.


Se vuoi fare al volo , vai su YouTube e trovi parecchie guide che ti fanno vedere come si fa


Inviato dal mio iPhone X utilizzando Tapatalk

Blee
31-03-2022, 09:09
Grazie del consiglio, effettivamente sono un po' allucinato, ero convinto che la Tuf fosse la migliore. Adesso tengo d'occhio la temperatura vrm in gaming per farmi un'idea.

Sono d'accordo con NEO. Non aprire la scheda, che poi invalida anche la garanzia mi sembra, e goditi la scheda così ome è. Hai inmano una delle migliori, se non la migliore, custom 3080 che è stata prodotta e non vedo la necessità di aprirla come una cozza:D . Segui qualche guida su youtube per undervolt e customizzazione della ventola con MSI Aftherburner e vedrai che andrai una bomba, salirai anche un po' di punteggio time spy. Nojn sonoschede molto overcloccabili e non noterai una grande differenza. Già l'undervolt ti darà più prestazioni perchè sono schede molto dipendenti dalla temperatura.

Vash88
01-04-2022, 09:04
https://www.overclockers.co.uk/reboot :D :D

Yellow13
01-04-2022, 16:53
Qual è il voltaggio massimo che utilizzate? Sto cercando di capire il limite di frequenza raggiungibile con 0.9v, al momento sono a 1950mhz che non mi sembra male. A questo punto mi conviene provare a scendere di voltaggio o continuare a salire di frequenza?

Thunder-74
01-04-2022, 18:13
Qual è il voltaggio massimo che utilizzate? Sto cercando di capire il limite di frequenza raggiungibile con 0.9v, al momento sono a 1950mhz che non mi sembra male. A questo punto mi conviene provare a scendere di voltaggio o continuare a salire di frequenza?


Dipende cosa cerchi e come si comporta la tua scheda . Mi spiego meglio. Puoi decidere se perseguire le
Max performance oppure un determinato limite di temperatura ad esempio. Se vuoi performance e hai una vga che dissipa bene , devi monitorare il consumo e trovare l equilibrio tra voltaggio e freq che ti permettono di non arrivare al PL massimo per non avere tagli . Diversamente puoi puntare ad una temp più bassa per non avere ventole troppo rumorose , cercando un giusto equilibrio tra voltaggio e freq. i 0,900v a 1950mhz sono un ottimo compromesso a mio avviso.
Ricorda che se vuoi testare bene la stabilità del tuo undervolt, devi usare giochi con Raytracing perché sono quelli che vanno a sfruttare tutto il chip e posso mettere in crisi più facilmente la curva che hai impostato . Ottimi come test sono Control, Metro exodus


Inviato dal mio iPhone X utilizzando Tapatalk

Yellow13
01-04-2022, 18:24
Dipende cosa cerchi e come si comporta la tua scheda . Mi spiego meglio. Puoi decidere se perseguire le
Max performance oppure un determinato limite di temperatura ad esempio. Se vuoi performance e hai una vga che dissipa bene , devi monitorare il consumo e trovare l equilibrio tra voltaggio e freq che ti permettono di non arrivare al PL massimo per non avere tagli . Diversamente puoi puntare ad una temp più bassa per non avere ventole troppo rumorose , cercando un giusto equilibrio tra voltaggio e freq. i 0,900v a 1950mhz sono un ottimo compromesso a mio avviso.
Ricorda che se vuoi testare bene la stabilità del tuo undervolt, devi usare giochi con Raytracing perché sono quelli che vanno a sfruttare tutto il chip e posso mettere in crisi più facilmente la curva che hai impostato . Ottimi come test sono Control, Metro exodus


Inviato dal mio iPhone X utilizzando Tapatalk

Grazie come sempre per l'aiuto, Thunder! Sto usando Cyberpunk al momento, con Raytracing e DLSS attivi naturalmente. Ho provato a salire a 2000 ma è crashato quasi subito, a 1950 nessun problema. Le temperature sono sempre buone, sui 62° esattamente come quando era tutto a stock. Non so appunto se trovare stabilità sui 2000 o scendere un pochino. Te per esempio che voltaggio massimo utilizzi?

Blee
01-04-2022, 18:54
https://www.overclockers.co.uk/reboot :D :D

Fantastico :D

Yellow13
01-04-2022, 19:05
Fantastico :D

Carino, ma io sto aspettando invano Captains Workspace... :D

Thunder-74
01-04-2022, 19:29
Grazie come sempre per l'aiuto, Thunder! Sto usando Cyberpunk al momento, con Raytracing e DLSS attivi naturalmente. Ho provato a salire a 2000 ma è crashato quasi subito, a 1950 nessun problema. Le temperature sono sempre buone, sui 62° esattamente come quando era tutto a stock. Non so appunto se trovare stabilità sui 2000 o scendere un pochino. Te per esempio che voltaggio massimo utilizzi?


Di nulla :). Io sono a liquido , quindi non ho problemi di temp e con un ottimo PL da 450w. Inizialmente tenevo la scheda in oc a 2115mhz . Benefici pochi. Ora la tengo a stock (1980/1,056v), oltre che ad avere un profilo da 1905/.900 così per consumare meno ogni tanto :fagiano:


Inviato dal mio iPad utilizzando Tapatalk

Yellow13
01-04-2022, 23:23
Di nulla :). Io sono a liquido , quindi non ho problemi di temp e con un ottimo PL da 450w. Inizialmente tenevo la scheda in oc a 2115mhz . Benefici pochi. Ora la tengo a stock (1980/1,056v), oltre che ad avere un profilo da 1905/.900 così per consumare meno ogni tanto :fagiano:

Ah quindi più di tanto non vale la pena salire. Mi chiedo a che serva un PL così alto allora. :stordita: Va bene, allora penso rimarrò su 0.9v per il momento.

keyvan
02-04-2022, 02:00
Ragazzi cercando in giro vedo video su youtube e siti che propongono il miglior settaggio del pannello di controllo nvidia, ma quale?

29Leonardo
02-04-2022, 07:47
Ragazzi cercando in giro vedo video su youtube e siti che propongono il miglior settaggio del pannello di controllo nvidia, ma quale?

il miglior settaggio per cosa? Generalmente va sempre lasciato a default, alla bisogna poi fai le modifiche per singolo programma..meglio ancora se con nvidia inspector.

Blee
02-04-2022, 07:53
il miglior settaggio per cosa? Generalmente va sempre lasciato a default, alla bisogna poi fai le modifiche per singolo programma..meglio ancora se con nvidia inspector.

Si può aggiustare la parte relativa al monitor ( 10 bit, risoluzione ecc...) per aggiustarlo al meglio sulla base del display. La parte relativa al Gsync per abilitarlo. Io personalmente ho attivato Vsync sul pannello e triplo buffering nella parte alle impostazioni 3D. Ma il tutto dipende molto dal monitor che utilizzi.

29Leonardo
02-04-2022, 08:17
Si può aggiustare la parte relativa al monitor ( 10 bit, risoluzione ecc...) per aggiustarlo al meglio sulla base del display. La parte relativa al Gsync per abilitarlo. Io personalmente ho attivato Vsync sul pannello e triplo buffering nella parte alle impostazioni 3D. Ma il tutto dipende molto dal monitor che utilizzi.

Vabbè dico oltre a quelle cose proprio basilari :D

keyvan
02-04-2022, 08:22
il miglior settaggio per cosa? Generalmente va sempre lasciato a default, alla bisogna poi fai le modifiche per singolo programma..meglio ancora se con nvidia inspector.

Ti ringrazio per la risposta, scusa la mia ignoranza ma credevo che si potesse avere un impostazione generale migliorata per usarlo un pò dovunque, nvidia inspector meglio lasciarlo stare visto che sto già usando afterburner.

Si può aggiustare la parte relativa al monitor ( 10 bit, risoluzione ecc...) per aggiustarlo al meglio sulla base del display. La parte relativa al Gsync per abilitarlo. Io personalmente ho attivato Vsync sul pannello e triplo buffering nella parte alle impostazioni 3D. Ma il tutto dipende molto dal monitor che utilizzi.

Ciao blee!!
il mio monitor è un msi mpg artymis 343 cqr che secondo me anche se qualcuno dice compatibile gsync, per me non lo è, a parte questo ti volevo chiedere tornando ad afterburner questi giorni il mio pc si comporta in modo molto strano, cioè a volte giocando rimane pacificamente intorno ai 65 gradi,altre schza in alto fino ad arrivare anche a 76 gradi, come mai? sarà il mio afterburner che fa le bizze e non funziona anche quando vedo la scritta corve?
E visto che siamo forse 1e meglio per sicurezza aggiungere due ventilatori che mi avevi suggerito devo vedere se ho ancora connettori a 4 pin disponibili visto che ne piloto già tre.

fraussantin
02-04-2022, 08:39
Di questi tempi il prezzo della scheda è l' ultimo dei problemi .. :asd:

https://www.tomshw.it/hardware/la-3090-ti-kingpin-e-un-mostro-da-1275w-con-2-connettori-16-pin/

Blee
02-04-2022, 10:58
Ti ringrazio per la risposta, scusa la mia ignoranza ma credevo che si potesse avere un impostazione generale migliorata per usarlo un pò dovunque, nvidia inspector meglio lasciarlo stare visto che sto già usando afterburner.



Ciao blee!!
il mio monitor è un msi mpg artymis 343 cqr che secondo me anche se qualcuno dice compatibile gsync, per me non lo è, a parte questo ti volevo chiedere tornando ad afterburner questi giorni il mio pc si comporta in modo molto strano, cioè a volte giocando rimane pacificamente intorno ai 65 gradi,altre schza in alto fino ad arrivare anche a 76 gradi, come mai? sarà il mio afterburner che fa le bizze e non funziona anche quando vedo la scritta corve?
E visto che siamo forse 1e meglio per sicurezza aggiungere due ventilatori che mi avevi suggerito devo vedere se ho ancora connettori a 4 pin disponibili visto che ne piloto già tre.

La temperatura GPU varia molto da gioco a gioco e in base al fatto di aver bloccato o meno il frame rate. Se tulasci ul frame libero chiaramente la scheda lavorerà di più o di meno in base alla richiesta. Se invece ad esempio tu inserisci un limite FPS che ne so a 80, la scheda lavorerà per gestire quella richiesta. Ad esempio sto giocando a Elden ring e essendo bloccato a 60 fps la mia 3080 ti sta a 60°. Comunque 76 ° sono giusti per una 3080TI FE. Se hai una FE e vuoi la scheda più fresca, la mia espereinza è che inserendo sue ventole da 120 belle vicine alla scheda , verrà dissipata anche la parte di radiatore centrale che è senza ventola, determinando un calo costante delle temp di almeno 5 o 6 ° dipende dal caso. Io ho messo le Tughfan che sono silenziosissime e prestanti. e il colore si abbina bene alla Founders edition. Se non hai la FE , aumenta la ventilazione in entrata dal front in modod che le ventole della GPU possano mangiare più aria. Puoi provare ad inserire una sola ventola sotto la GPU ma non attaccata alla scheda, servirà a convogliare l'aria verso la GPU dal front case. Se inoltre vuoi un case silenzioso allora c'è da fare tutto un discorso a parte. PEr il monitor , attiva triplo buffering e Sincronizzazione verticale sul pannello nvidia ( attiva). Attiva Gsync.

29Leonardo
02-04-2022, 11:16
Ti ringrazio per la risposta, scusa la mia ignoranza ma credevo che si potesse avere un impostazione generale migliorata per usarlo un pò dovunque, nvidia inspector meglio lasciarlo stare visto che sto già usando afterburner.

Inspector ed msi sono due software completamente diversi sebbene in parte condividano alcune funzioni (frequenza, ventola, voltaggio etc) mentre la parte della gestione profili per i giochi e regolazioni del pannello di controllo driver siano totalmente assenti nella seconda.

Generalmente io andrei a mettere vsync e preferisci prestazioni massime nei driver, il problema è che poi la gpu va sempre al max anche quando non c'è ne bisogno e in alcuni giochi dove pure senza vsync non c'è chissa quale tearing non è necessario tenerlo sempre attivo, per questo motivo preferisco impostare manualmente a seconda del gioco. Idem per quanto riguarda il gsync, negli fps online non lo uso perchè aumenta l'input lag.

Per il resto oltre a quello che ha scritto Blee per quanto riguarda il rumore dipende anche da come hai gestito la curva temp delle ventole della gpu in msi, se gli stacchi troppo marcati ovviamente il rumore al posto di essere graduale sarà piu accentuato e netto.

Del tipo se hai impostato la curva in modo che a 60°C le ventole vanno a 1200rpm mentre a 65°C vanno direttamente al max è normale che appena fai qualche grado in piu fanno casino.

keyvan
02-04-2022, 11:24
La temperatura GPU varia molto da gioco a gioco e in base al fatto di aver bloccato o meno il frame rate. Se tulasci ul frame libero chiaramente la scheda lavorerà di più o di meno in base alla richiesta. Se invece ad esempio tu inserisci un limite FPS che ne so a 80, la scheda lavorerà per gestire quella richiesta. Ad esempio sto giocando a Elden ring e essendo bloccato a 60 fps la mia 3080 ti sta a 60°. Comunque 76 ° sono giusti per una 3080TI FE. Se hai una FE e vuoi la scheda più fresca, la mia espereinza è che inserendo sue ventole da 120 belle vicine alla scheda , verrà dissipata anche la parte di radiatore centrale che è senza ventola, determinando un calo costante delle temp di almeno 5 o 6 ° dipende dal caso. Io ho messo le Tughfan che sono silenziosissime e prestanti. e il colore si abbina bene alla Founders edition. Se non hai la FE , aumenta la ventilazione in entrata dal front in modod che le ventole della GPU possano mangiare più aria. Puoi provare ad inserire una sola ventola sotto la GPU ma non attaccata alla scheda, servirà a convogliare l'aria verso la GPU dal front case. Se inoltre vuoi un case silenzioso allora c'è da fare tutto un discorso a parte. PEr il monitor , attiva triplo buffering e Sincronizzazione verticale sul pannello nvidia ( attiva). Attiva Gsync.

La mia scheda è quella in firma cioè asus rog asterix 3080 ti, qualche pagina fa mi avevi consigliato un supporto pci slot e due ventole toughfan che è quasi fattibile (scheda madre permettendo per i connettori pin), ma metterne uno solo sotto e l'altro di fronte da dove arriva aria , vado in crisi, non saprei nemmeno come piazzarlo in quella posizione :confused:
Ma queste ventole sono a 4 o 3 pin?

Blee
02-04-2022, 11:35
La mia scheda è quella in firma cioè asus rog asterix 3080 ti, qualche pagina fa mi avevi consigliato un supporto pci slot e due ventole toughfan che è quasi fattibile (scheda madre permettendo per i connettori pin), ma metterne uno solo sotto e l'altro di fronte da dove arriva aria , vado in crisi, non saprei nemmeno come piazzarlo in quella posizione :confused:
Ma queste ventole sono a 4 o 3 pin?

Allora, tu hai 3 frontali giusto? Quelle le lasci, aumentale solo per far arrivare più flusso di aria sotto la GPU. Non avendo una FE ma una strix, io proverei solo a inserirne una di ventola sotto, ma non attaccata. per portare aria che arriva dal front sparata sulle ventole della GPU. Prima di fare questo però aumenta le ventole front case e rivaluta un undervolt maggiore se vuoi la scheda più fresca. Mi puoi ripostare la foto del tuo case così riesco ad aiutarti meglio?

keyvan
02-04-2022, 12:15
Allora, tu hai 3 frontali giusto? Quelle le lasci, aumentale solo per far arrivare più flusso di aria sotto la GPU. Non avendo una FE ma una strix, io proverei solo a inserirne una di ventola sotto, ma non attaccata. per portare aria che arriva dal front sparata sulle ventole della GPU. Prima di fare questo però aumenta le ventole front case e rivaluta un undervolt maggiore se vuoi la scheda più fresca. Mi puoi ripostare la foto del tuo case così riesco ad aiutarti meglio?

in undervolt uso un profilo 1910/870 , a quanto mi suggerisci di arrivare?
Eccoti la foto :https://ibb.co/YZNMfJT

Blee
02-04-2022, 12:42
in undervolt uso un profilo 1910/870 , a quanto mi suggerisci di arrivare?
Eccoti la foto :https://ibb.co/YZNMfJT

PRima cosa i cavi ostruiscono un po' il flusso aria. Tranne quelli della GPU, gli altri sistemali in modo da avere spazio più pulito intorno alla GPU. Aumenta le ventole frontali e se fanno troppo rumore sostiuiscile con delle 140 silenziose se non ti interessano tanto le luci. L'undervolt va bene, se ti tiene i test. Al massimo inserirei una ventola alla base del case per spingere aria sotto la GPU. Fai una curva personalizzata con AB della ventola della GPU. diciamo 50° - 50 %; 60° - 60% ; 85° - 100% e vedi come va

keyvan
02-04-2022, 13:08
PRima cosa i cavi ostruiscono un po' il flusso aria. Tranne quelli della GPU, gli altri sistemali in modo da avere spazio più pulito intorno alla GPU. Aumenta le ventole frontali e se fanno troppo rumore sostiuiscile con delle 140 silenziose se non ti interessano tanto le luci. L'undervolt va bene, se ti tiene i test. Al massimo inserirei una ventola alla base del case per spingere aria sotto la GPU. Fai una curva personalizzata con AB della ventola della GPU. diciamo 50° - 50 %; 60° - 60% ; 85° - 100% e vedi come va

Purtroppo le ventole frontali non si possono aumentare , fanno parte del case e sono collegate ad un hub del case che viene alimentata direttamente da psu :muro:
Per il resto vedrò cosa posso fare, grazie per tutti i suggerimenti comunque.

Blee
02-04-2022, 13:27
Purtroppo le ventole frontali non si possono aumentare , fanno parte del case e sono collegate ad un hub del case che viene alimentata direttamente da psu :muro:
Per il resto vedrò cosa posso fare, grazie per tutti i suggerimenti comunque.

Se sono direttamente collegate alla PSU significa che sono già al massmo. Altra cosa , io non credo siano così utili quelle due ventole in estraziobne superiore. Anzi potrebbero essere controproducenti. Prova a toglierle. In questo modo il flusso dell'aria va da front a back senza interferenze.

keyvan
02-04-2022, 14:45
Se sono direttamente collegate alla PSU significa che sono già al massmo. Altra cosa , io non credo siano così utili quelle due ventole in estraziobne superiore. Anzi potrebbero essere controproducenti. Prova a toglierle. In questo modo il flusso dell'aria va da front a back senza interferenze.

Sei sicuro che siano inutili? mettendoci la mano sopra, sento uscire proprio l'aria calda, soprattutto da quella vicino alla parte posteriore del case.

Blee
02-04-2022, 14:52
Sei sicuro che siano inutili? mettendoci la mano sopra, sento uscire proprio l'aria calda, soprattutto da quella vicino alla parte posteriore del case.

La mia idea è che potrebbe togliere il flusso di aria , in parte, che va verso la GPU. E' una prova che non costa nulla da fare. In caso le puoi sempre rimettere. Tieni presente che l'aria calda sale, quindi anche se le togli, una parte di aria calda tenderà sempre a salire e uscire anche senza ventole. MA il flusso dal front al back case sarà più lineare senza essere aspirato fuori da subito. In passato ho avuto molti problemi di temperature con le schede AMD e ho fatto milioni di prove e cambiati molti case, quindi qualche cosetta l'ho imparata su questo aspetto del flusso di aria. Certo ogni ambiente è diverso, quindi devi anche fare delle prove tu. Inoltre come ti dicevo sopra, personalizza le ventole della GPU con aftherburner con le percentuali che ti ho indicato sopra e vedi come va.

Sniper88
02-04-2022, 15:33
Una domanda forse banale, ma se il gioco mi crasha (stavo giocando a Star Citizen) e nel visualizzatore degli eventi di Windows leggo, sul triangolino giallo, "Il driver video nvlddmkm ha smesso di rispondere ed è stato correttamente ripristinato.", significa che l'Undervolt non è stabile, giusto? Ho giocato circa 200 ore a Elden Ring senza alcun problema. Grazie!

razor820
02-04-2022, 15:42
Una domanda forse banale, ma se il gioco mi crasha (stavo giocando a Star Citizen) e nel visualizzatore degli eventi di Windows leggo, sul triangolino giallo, "Il driver video nvlddmkm ha smesso di rispondere ed è stato correttamente ripristinato.", significa che l'Undervolt non è stabile, giusto? Ho giocato circa 200 ore a Elden Ring senza alcun problema. Grazie!


Si perfettamente è quello.
Nel mio caso quando L undervolt non è stabile con alcuni giochi mi da quel messaggio.

L’Eden ring penso non faccia testo. È un gioco abbastanza leggero

Sniper88
02-04-2022, 16:18
Si perfettamente è quello.
Nel mio caso quando L undervolt non è stabile con alcuni giochi mi da quel messaggio.

L’Eden ring penso non faccia testo. È un gioco abbastanza leggero

Sì, per Elden Ring avevo pensato dipendesse dal fatto che è un gioco molto leggero. Grazie mille, Razor. Star Citizen mi è crashato con 1875 a 0.875mV. Quanto potrei provare sempre a 0.875?

razor820
02-04-2022, 17:00
Sì, per Elden Ring avevo pensato dipendesse dal fatto che è un gioco molto leggero. Grazie mille, Razor. Star Citizen mi è crashato con 1875 a 0.875mV. Quanto potrei provare sempre a 0.875?


La 3080ti per stare sicuri, bisogna impostarla a 0.900 1920mhz o 0.825 a 1820mhz.
Io ho impostato così e anche molti hanno fatto la stessa cosa. Nel mio caso basta che alzi di 20mhz la frequenza a 0.900 e crasha cn giochi pesanti

Sniper88
02-04-2022, 21:41
La 3080ti per stare sicuri, bisogna impostarla a 0.900 1920mhz o 0.825 a 1820mhz.
Io ho impostato così e anche molti hanno fatto la stessa cosa. Nel mio caso basta che alzi di 20mhz la frequenza a 0.900 e crasha cn giochi pesanti

Quasi quasi imposto 0.825 a 1820MHz. Grazie mille, Razor. Buona serata!

Edit: 1820MHz a 0.825, crasha con Star Citizen. Peccato!
Ma se dopo il crash dell'undervolt volessi provare subito un'altra impostazione, devo riavviare il computer, oppure non serve?

razor820
04-04-2022, 20:13
Ma è normale che alcuni giochi, come ad esempio pubg, nonostante usino la gpu aò 70% scaldano di più di altri giochi che la usano al 100% come metro exodus e company?

keyvan
04-04-2022, 20:52
Ma è normale che alcuni giochi, come ad esempio pubg, nonostante usino la gpu aò 70% scaldano di più di altri giochi che la usano al 100% come metro exodus e company?

Forse dipende se RT era attivo o no?

Vash88
04-04-2022, 21:22
Ma è normale che alcuni giochi, come ad esempio pubg, nonostante usino la gpu aò 70% scaldano di più di altri giochi che la usano al 100% come metro exodus e company?

guarda solo il consumo in Watt della scheda. Le temperature dipendono dai profili delle ventole.

razor820
04-04-2022, 21:58
No no.. qui si parla a liquido..
Prendo come spunto Dying light 2 in 4K rtx media 380w 46 gradi max

PUBG o Hunt showdown, 300w il primo, 350w il secondo, sono arrivati a 49-50 gradi

mikael84
05-04-2022, 00:27
Approvo . Sono passato dal 34 al 38 pollici , oltre ad avere una sensazione maggiore di immersivitá inaspettata, la qualità visiva dal Rog Pg348q all Alienware attuale è tangibile, al punto che ho la sensazione che la res sia maggiore per densità , pur rimanendo sempre di circa 110 dpi . Inoltre i 3840x1600 non hanno passato molto sulla 3080 rispetto alla 3440x1400. Circa il 17x100.



Inviato dal mio iPhone X utilizzando Tapatalk

Se un contenuto è nativo 4k, avendo più pixel, avrai una qualità maggiore per PPI, infatti hai visto bene.
I PPI contano relativamente, se hai un contenuto 4k, e lo metti su un 800x600 a 10", non vedrai mai la qualità di un immagine pensata in 4k nativo (pur a pari PPI).:)
Certo il 99% dei titoli per PC è basato su un full hd, la base poligonale, deve dipendere sempre dalla 7850.:)

Sniper88
05-04-2022, 12:50
Ripopongo la domanda: Ma se dopo il crash dell'undervolt volessi provare subito un'altra impostazione, devo riavviare il computer, oppure non serve? Il messaggio in "Visualizzatore eventi" dice che nvlddmkm ha smesso di rispondere ed è stato correttamente ripristinato. Essendo stato ripristinato correttamente, non serve riavviare, giusto? Grazie e scusate la domanda forse un po' banale.

frafelix
05-04-2022, 12:57
No, non serve riavviare

Sniper88
05-04-2022, 14:44
No, non serve riavviare

Grazie! Scusate ancora la banale domanda! Have a nice day, guys!

cdr700
05-04-2022, 16:15
salve... ho una inno 3d 3080 lhr liquidata dal kit da 360 mm di alphacool. Ho già cambiato i pad termini con dei gelid extreme, ora arriva la domanda: ma è normale che la gpu faccia 60° con warzone dopo circa un'ora di gioco e con age of empire 4 circa sui 70° ( qui è tutto maxato). Le ram stanno circa tra i 70 e 80 ° ma leggo di gente che tiene le 3080 max a 50° di gpu. Dov'è che sbaglio?

eXeS
05-04-2022, 17:36
No no.. qui si parla a liquido..
Prendo come spunto Dying light 2 in 4K rtx media 380w 46 gradi max

PUBG o Hunt showdown, 300w il primo, 350w il secondo, sono arrivati a 49-50 gradi
Temperatura ambientale più alta, o rilevazione errata del consumo e/o temperatura, è fisica, principio di conservazione dell'energia, e quei watt possono essere trasformati solo in calore.

razor820
05-04-2022, 17:46
Temperatura ambientale più alta, o rilevazione errata del consumo e/o temperatura, è fisica, principio di conservazione dell'energia, e quei watt possono essere trasformati solo in calore.


Rilevazione sempre uguale tramite msi ab, stessa temperatura ambientale di 20 gradi.
Saranno gli engine grafici. Non mi spiego altrimenti

bronzodiriace
05-04-2022, 21:39
salve... ho una inno 3d 3080 lhr liquidata dal kit da 360 mm di alphacool. Ho già cambiato i pad termini con dei gelid extreme, ora arriva la domanda: ma è normale che la gpu faccia 60° con warzone dopo circa un'ora di gioco e con age of empire 4 circa sui 70° ( qui è tutto maxato). Le ram stanno circa tra i 70 e 80 ° ma leggo di gente che tiene le 3080 max a 50° di gpu. Dov'è che sbaglio?Eisbaer giusto?

O scarso contatto oppure le ventole del rad non sono sufficienti come pressione.

Inviato dal mio MAR-LX1A utilizzando Tapatalk

Thunder-74
05-04-2022, 21:47
Eisbaer giusto?

O scarso contatto oppure le ventole del rad non sono sufficienti come pressione.

Inviato dal mio MAR-LX1A utilizzando Tapatalk


Io temo la prima . Come temp sono da aria non da liquido . Possibile che i pad che ha sostituito, non facciano fare un buon contatto con il wb perché sono di spessore errati.


Inviato dal mio iPhone X utilizzando Tapatalk

cdr700
06-04-2022, 06:34
ho già provato diversi spessori di pad ma con scarsi risultati. Leggendo nel forum di alphacool, ci sono diversi che hanno questi problemi e tra l altro si menziona anche di questo: https://www.igorslab.de/en/geforce-rtx-3080-und-rtx-3090-with-bent-package-why-it-water-and-air-coolers-so-heavy-investigative/ relativo ai package

davide155
06-04-2022, 07:12
salve... ho una inno 3d 3080 lhr liquidata dal kit da 360 mm di alphacool. Ho già cambiato i pad termini con dei gelid extreme, ora arriva la domanda: ma è normale che la gpu faccia 60° con warzone dopo circa un'ora di gioco e con age of empire 4 circa sui 70° ( qui è tutto maxato). Le ram stanno circa tra i 70 e 80 ° ma leggo di gente che tiene le 3080 max a 50° di gpu. Dov'è che sbaglio?
Ti rispondo io che ho tutto sotto liquido custom.
Dipende da vari fattori, primo fra tutti la potenza disspante dell'accoppiata radiatori/ventole.
Se questi sono sotto dimensionati allora sicuramente avrai il liquido sopra i 40-45gradi, e ciò non giova alla dissipazione dei componenti.
La gpu, le vram, i vrm, sono tutti componenti che scaricano in acqua centinaia di watt. Se il sistema dissipante non riesce a dissipare tutto questo calore trasportato dall'acqua, allora è normale avere le temperature sui componenti quasi uguali a quelle ad aria.

La mia 3090 non vede più di 43gradi sulla gpu e 48 sulle memorie in game.
Però ho un radiatore esterno da 1260mm con 4 ventole da 200mm che riescono a tenermi il liquido sotto i 30 gradi anche in gioco.

Thunder-74
06-04-2022, 07:25
Ti rispondo io che ho tutto sotto liquido custom.
Dipende da vari fattori, primo fra tutti la potenza disspante dell'accoppiata radiatori/ventole.
Se questi sono sotto dimensionati allora sicuramente avrai il liquido sopra i 40-45gradi, e ciò non giova alla dissipazione dei componenti.
La gpu, le vram, i vrm, sono tutti componenti che scaricano in acqua centinaia di watt. Se il sistema dissipante non riesce a dissipare tutto questo calore trasportato dall'acqua, allora è normale avere le temperature sui componenti quasi uguali a quelle ad aria.

La mia 3090 non vede più di 43gradi sulla gpu e 48 sulle memorie in game.
Però ho un radiatore esterno da 1260mm con 4 ventole da 200mm che riescono a tenermi il liquido sotto i 30 gradi anche in gioco.

Davide, 70 gradi sulla GPU sotto liquido, anche con una massa radiante scarsa, sono troppi. Un cosa del genere l'ho vista solo se si ferma la pompa/flusso. Anche fosse un 240 con ventole non eccelse, non dovrebbe avvicinarsi ai 60 nelle condizioni più pesanti, oltretutto non siamo in estate con 30 gradi nella stanza. Concordo nell'ipotizzare che ci siano problemi con WB e a quanto pare non è il solo ad averne.

davide155
06-04-2022, 07:46
Davide, 70 gradi sulla GPU sotto liquido, anche con una massa radiante scarsa, sono troppi. Un cosa del genere l'ho vista solo se si ferma la pompa/flusso. Anche fosse un 240 con ventole non eccelse, non dovrebbe avvicinarsi ai 60 nelle condizioni più pesanti, oltretutto non siamo in estate con 30 gradi nella stanza. Concordo nell'ipotizzare che ci siano problemi con WB e a quanto pare non è il solo ad averne.
Come non li hai mai visti? È pieno youtube di prove di raffreddamento di schede video con dissipatori piccoli, con dei risultati disastrosi, peggio che ad aria.
Comunque facendo una ricerca veloce su youtube su quel dissipatore ho visto nei commenti tanti che hanno temperature alte proprio a causa di radiatori sottodimensionati.
Se il suo problema erano le altezze dei pad, almeno le memorie dovevano essere più fredde, invece sono sia gpu che vram a 70 e 80 gradi rispettivamente. Il che vuol dire che l'acqua non riesce a portare via il calore perché è già calda di suo. A maggior ragione se il tutto si manifesta in crescendo.
Io quando provai altri pads più alti sulla 3090 avevo le memorie a 50gradi ma la gpu a 75, ma non credo sia un problema di altezze il suo, proprio perché ha entrambe le temperature alte.

Thunder-74
06-04-2022, 09:39
Come non li hai mai visti? È pieno youtube di prove di raffreddamento di schede video con dissipatori piccoli, con dei risultati disastrosi, peggio che ad aria.
Comunque facendo una ricerca veloce su youtube su quel dissipatore ho visto nei commenti tanti che hanno temperature alte proprio a causa di radiatori sottodimensionati.
Se il suo problema erano le altezze dei pad, almeno le memorie dovevano essere più fredde, invece sono sia gpu che vram a 70 e 80 gradi rispettivamente. Il che vuol dire che l'acqua non riesce a portare via il calore perché è già calda di suo. A maggior ragione se il tutto si manifesta in crescendo.
Io quando provai altri pads più alti sulla 3090 avevo le memorie a 50gradi ma la gpu a 75, ma non credo sia un problema di altezze il suo, proprio perché ha entrambe le temperature alte.


Già vga vendute con aio da 240 non arrivano a queste temp. Ora i video di cui mi parli non li ho visti. Possibile che facciano manchiate enormi sul loop o utilizzino rad da 120 con 3090. Non so. Di certo 70 gradi li trovo una follia anche con un 240. Quel wb avrà un problema di progettazione a questo punto, se tanti hanno problemi. Io comunque cerco di stare il più lontano possibile da alphacool, ho avuto brutte esperienze con raccordi e rad.

Edit: non è raro che avvenga una revisione del pcb della vga e il wb che andava bene per la prima rev, non si va più ad adattare correttamente sulla nuova rev. Bisognerebbe fare ricerche in merito in base al modello in questione .

Inviato dal mio iPhone X utilizzando Tapatalk

razor820
06-04-2022, 09:43
Se nel loop gli mettono una cpu che scalda tanto, di conseguenza il 240 si trasforma in un forno.
Invece con impianto a a parte, non dovrebbero superare i 60.

cdr700
06-04-2022, 10:50
la cpu è per i fatti suoi, la gpu ha radiatore da 360 mm

razor820
06-04-2022, 11:06
la cpu è per i fatti suoi, la gpu ha radiatore da 360 mm


Allora con il 360 son tanti. Ricontrolla che il wb sia montato bene. Tempo fa con un errato montaggio del mio dopo un ora avevo toccato i 60

davide155
06-04-2022, 17:53
Comunque leggendo un po' di recensioni su quel waterblock quelle temperature sembrano essere la norma. In tanti hanno temperature alte, 60 gradi sulla gpu e 90 sulle memorie.
Anche io come thunder ho avuto problemi con alphacool su alcuni componenti. Infatti ci sto ben alla larga.

sertopica
07-04-2022, 18:40
Se ne e' gia' parlato di cosa ha presentato nvidia al GDC22? Gia' girano le prime demo in path tracing con 3-30 rimbalzi carpiati di raggio ( :asd: )... A 30 fps scarsi pero', e su una 3090. :D

Qui un articolo: https://hothardware.com/news/nvidia-real-time-path-tracing-gtc-2022

Qui la presentazione PP dal sito nvidia: https://research.nvidia.com/publication/2022-03_Research-Advances-Toward

Insomma, gia' le prossime GPU nvidia saranno probabilmente messe in ginocchio dai nuovi effetti mattone. Sono peraltro gia' disponibili i plugin per UE5 che permettono di testare la tecnologia in via di sviluppo.

bronzodiriace
07-04-2022, 21:08
Meno male che non ho preso l'eisbaer per la cpu ma l'arctic

Inviato dal mio MAR-LX1A utilizzando Tapatalk

Gigibian
08-04-2022, 11:35
Presa una 3080 TI Gigabyte Gaming OC su amazon prime a 1247 euri spedita! (usata-come nuovo).

:fagiano:

Speriamo non ci siano sorprese...

Thunder-74
08-04-2022, 11:36
Presa una 3080 TI Gigabyte Gaming OC su amazon prime a 1247 euri spedita! (usata-come nuovo).

:fagiano:

Speriamo non ci siano sorprese...


Hai fatto bene, la testi e alla peggio la rimando indietro easy


Inviato dal mio iPhone X utilizzando Tapatalk

Gigibian
08-04-2022, 11:40
Hai fatto bene, la testi e alla peggio la rimando indietro easy


Inviato dal mio iPhone X utilizzando Tapatalk

E' un venditore esterno, ma sono diversi anni che è su amazon ed ha centinaia di feedback positivi.
Anche se venditore esterno, l'ordine era cmq segnato "prime" quindi dovrei essere tranquillo...

StrixyRoG
08-04-2022, 13:28
E' un venditore esterno, ma sono diversi anni che è su amazon ed ha centinaia di feedback positivi.
Anche se venditore esterno, l'ordine era cmq segnato "prime" quindi dovrei essere tranquillo...

Sei sicuro per i giorni di recesso, il problema potrebbe venire dopo, perché tieni conto che per un'eventuale garanzia dovrai poi rivolgerti a quel venditore, e Gigabyte non ha un assistenza ufficiale in Italia.

Gigibian
08-04-2022, 14:03
Sei sicuro per i giorni di recesso, il problema potrebbe venire dopo, perché tieni conto che per un'eventuale garanzia dovrai poi rivolgerti a quel venditore, e Gigabyte non ha un assistenza ufficiale in Italia.

Essendo un ordine taggato come "prime" su amazon, non mi posso rivolgere direttamente ad amazon per la garanzia?

StrixyRoG
08-04-2022, 14:05
Essendo un ordine taggato come "prime" su amazon, non mi posso rivolgere direttamente ad amazon per la garanzia?

No, quello riguarda solo la spedizione, di cui Amazon è responsabile, per il prodotto la garanzia è a carico del venditore, che in questo caso non è Amazon.

Gigibian
08-04-2022, 14:08
No, quello riguarda solo la spedizione, di cui Amazon è responsabile, per il prodotto la garanzia è a carico del venditore.

Ah ok, grazie.

Cmq dal sito gigabyte gestiscono loro direttamente l'RMA dal secondo al terzo anno:

https://ibb.co/1r121bQ


Ho 30 giorni di diritto di recesso, ho verificato che lo shop è uno che è su trovaprezzi (HiTechZone)...bisogna sperare di non avere problemi dopo il diritto di recesso e prima del terzo anno.

In questo speriamo che amazon dia una mano :)

StrixyRoG
08-04-2022, 14:13
Ah ok, grazie.

Cmq dal sito gigabyte gestiscono loro direttamente l'RMA dal secondo al terzo anno:

https://ibb.co/1r121bQ


Ho 30 giorni di diritto di recesso, ho verificato che lo shop è uno che è su trovaprezzi (HiTechZone)...bisogna sperare di non avere problemi dopo il diritto di recesso e prima del terzo anno.

In questo speriamo che amazon dia una mano :)

Non ho detto che Gigabyte non ti da assistenza, ma che non lo fa in Italia, e sperando che non succeda mai nulla, il negoziante potrebbe anche gestirti l'RMA senza problemi, ma rimarresti senza scheda per un bel po'. Ti informo soltanto, almeno sei al corrente di tutto.

Gigibian
08-04-2022, 14:43
Non ho detto che Gigabyte non ti da assistenza, ma che non lo fa in Italia, e sperando che non succeda mai nulla, il negoziante potrebbe anche gestirti l'RMA senza problemi, ma rimarresti senza scheda per un bel po'. Ti informo soltanto, almeno sei al corrente di tutto.

no certo, grazie!
Dicevo solo che dal loro sito web effettivamente per i primi due anni di garanzia ti rimandano al negoziante, loro non sembrano proprio gestirla.

davide155
08-04-2022, 15:46
Ah ok, grazie.

Cmq dal sito gigabyte gestiscono loro direttamente l'RMA dal secondo al terzo anno:

https://ibb.co/1r121bQ


Ho 30 giorni di diritto di recesso, ho verificato che lo shop è uno che è su trovaprezzi (HiTechZone)...bisogna sperare di non avere problemi dopo il diritto di recesso e prima del terzo anno.

In questo speriamo che amazon dia una mano :)

Secondo me era meglio se prendevi una vga direttamente da amazon.
I venditori terzi sono sempre una incognita, sia su quello che ti arriva e sia se ci saranno problemi.
Comunque a titolo informativo ci sono ancora nuove le 3080ti kfa2 a 1399 su drako e le 3080 10gb a 979€, ancor più appetibili.

scorpion73
08-04-2022, 16:33
No, quello riguarda solo la spedizione, di cui Amazon è responsabile, per il prodotto la garanzia è a carico del venditore, che in questo caso non è Amazon.

Comunque mi è capitato che per prodotti venduti da terzi e spediti da amazon si applicasse comunque la garanzia da A a Z.
Un paio di auricolari che si ruppero mi fecero reso e rimborso.
Questo è successo nel mese di Gennaio.

Gigibian
08-04-2022, 16:58
Secondo me era meglio se prendevi una vga direttamente da amazon.
I venditori terzi sono sempre una incognita, sia su quello che ti arriva e sia se ci saranno problemi.
Comunque a titolo informativo ci sono ancora nuove le 3080ti kfa2 a 1399 su drako e le 3080 10gb a 979€, ancor più appetibili.

Con questo venditore ho 30 giorni di recesso (essendo prime ) pacco già spedito tra l'altro e fattura ricevuta.

In più nelle condizioni c'è scritto che si applica garanzia dalla a alla Z. Quindi dovrei essere più che tutelato

keyvan
08-04-2022, 20:46
Presa una 3080 TI Gigabyte Gaming OC su amazon prime a 1247 euri spedita! (usata-come nuovo).

:fagiano:

Speriamo non ci siano sorprese...

Bene, ora testa subito la scheda e vedi le temperature per capire come è nata la scheda, non sono tutti uguali dalla nascita e se vedi che ha un chip non molto fortunato fai subito reso finche sei in tempo, io l'ho voluto prendere direttamente da amazon anche se ho speso 400 euro in più ma cosi sono sicuro che anche dopo due anni non avrò problemi di nessun genere ewd in più non è un gigabyte ma un asus asterix.
Anche se ho ricevuto un avviso per troppi resi che possono annullare il mio account per troppi resi, ma questo è un altra storia :muro:

Thunder-74
08-04-2022, 20:58
Bene, ora testa subito la scheda e vedi le temperature per capire come è nata la scheda, non sono tutti uguali dalla nascita e se vedi che ha un chip non molto fortunato fai subito reso finche sei in tempo, io l'ho voluto prendere direttamente da amazon anche se ho speso 400 euro in più ma cosi sono sicuro che anche dopo due anni non avrò problemi di nessun genere ewd in più non è un gigabyte ma un asus asterix.
Anche se ho ricevuto un avviso per troppi resi che possono annullare il mio account per troppi resi, ma questo è un altra storia :muro:


La voglio anch io l Asus ASTERIX ;)


Inviato dal mio iPhone X utilizzando Tapatalk

StrixyRoG
08-04-2022, 21:33
Comunque mi è capitato che per prodotti venduti da terzi e spediti da amazon si applicasse comunque la garanzia da A a Z.
Un paio di auricolari che si ruppero mi fecero reso e rimborso.
Questo è successo nel mese di Gennaio.

Giusto per chiudere, altrimenti andiamo OT, la garanzia dalla A alla Z vale solo per il periodo di recesso per quanto riguarda i marketplace, è anche scritto. Poi per il tuo discorso dipende dal prodotto e dal costo dello stesso, infatti anche con gli stessi rimborsi di Amazon alcuni arrivano anche se il corriere ha appena ritirato a casa tua, altri no, e te lo dico per esperienza personale. Su certe cifre conviene sempre venduto e spedito da Amazon.

Gigibian
08-04-2022, 22:45
Bene, ora testa subito la scheda e vedi le temperature per capire come è nata la scheda, non sono tutti uguali dalla nascita e se vedi che ha un chip non molto fortunato fai subito reso finche sei in tempo, io l'ho voluto prendere direttamente da amazon anche se ho speso 400 euro in più ma cosi sono sicuro che anche dopo due anni non avrò problemi di nessun genere ewd in più non è un gigabyte ma un asus asterix.
Anche se ho ricevuto un avviso per troppi resi che possono annullare il mio account per troppi resi, ma questo è un altra storia :muro:

Ok! Non mancherò!
Tanto ho già in mente di cambiare pasta e pad termici delle ram :)

Vedremo come si comporterà cmq, di solito gigabyte non mi ha mai dato problemi

keyvan
08-04-2022, 23:36
La voglio anch io l Asus ASTERIX ;)


Inviato dal mio iPhone X utilizzando Tapatalk

1.687,00€ venduto e spedito da amazon ;)

keyvan
08-04-2022, 23:44
Ok! Non mancherò!
Tanto ho già in mente di cambiare pasta e pad termici delle ram :)

Vedremo come si comporterà cmq, di solito gigabyte non mi ha mai dato problemi

Giusto per perdere la garanzia definitvamente? Guarda che non è proprio il caso, basta fare un undervolt come dio comanda se la scheda funziona bene, io non ero capace a farlo ma qui non sono mancati gli aiuti e mi hanno insegnato tutto per non dire che il profilo me l'hanno pure creata :flower:

Gigibian
09-04-2022, 06:48
Giusto per perdere la garanzia definitvamente? Guarda che non è proprio il caso, basta fare un undervolt come dio comanda se la scheda funziona bene, io non ero capace a farlo ma qui non sono mancati gli aiuti e mi hanno insegnato tutto per non dire che il profilo me l'hanno pure creata :flower:

Ma quale perdere la garanzia...
Non ci sono sticker sulla gigabyte, si può aprire tranquillamente e poi ti consentono di installare wb per liquido...ho anche uno scambio di mail con gigabyte dove chiedevo se si invalidava la garanzia e mi rispondevano di no.

Direi che sono tranquillo, e ne guadagna la vita della scheda :)

Cmq grazie del consiglio, vedrò anche di valutare la strada dell'undervolt

davide155
09-04-2022, 09:20
https://gaming.hwupgrade.it/news/videogames/matrix-il-risveglio-la-tech-demo-in-unreal-engine-5-mette-in-crisi-una-rtx-3090-su-pc-a-1440p_106286.html


Bando alle ciance, mettete sotto torchio le vostre gpu.
E' uscito l'Unreal engine 5, con annessa "demo" della città di matrix.
Bisogna caricare la mappa direttamente nell'engine.
Se non fosse per il continuo buffering nella città grande avrei i 60fps fissi.

Impressionante la vastità della città e di come il motore grafico riesca a gestirla con leggerezza.

eXeS
09-04-2022, 10:21
Bene, ora testa subito la scheda e vedi le temperature per capire come è nata la scheda, non sono tutti uguali dalla nascita e se vedi che ha un chip non molto fortunato fai subito reso finche sei in tempo, io l'ho voluto prendere direttamente da amazon anche se ho speso 400 euro in più ma cosi sono sicuro che anche dopo due anni non avrò problemi di nessun genere ewd in più non è un gigabyte ma un asus asterix.
Anche se ho ricevuto un avviso per troppi resi che possono annullare il mio account per troppi resi, ma questo è un altra storia :muro:

Chissà perchè :D :D :D

keyvan
09-04-2022, 11:06
Ma quale perdere la garanzia...
Non ci sono sticker sulla gigabyte, si può aprire tranquillamente e poi ti consentono di installare wb per liquido...ho anche uno scambio di mail con gigabyte dove chiedevo se si invalidava la garanzia e mi rispondevano di no.

Direi che sono tranquillo, e ne guadagna la vita della scheda :)

Cmq grazie del consiglio, vedrò anche di valutare la strada dell'undervolt
Cavolo non lo sapevo, meglio ancora, tra l'altro la giga è un brand che mi piace molto, pensa, ho avuto una gtx 670 che mi è durata ben dodici anni.



Chissà perchè :D :D :D

pootrei girare la risposta mail che ho mandato a loro

1- scheda madre difettosa, richiesta di reso su consiglio di assistenza asus stesso.
2- processore reso, era usato e danneggiato da un precedente cliente e volevano farlo passare per nuovo, non era nemmeno possibile montarlo sul socket.
3-scheda vdeo che in una sola settimana ha perso 500 euro di valore, ero prfettamente nei termini per fare reso e ricomprarlo al prezzo del giorno.
4-ventola corsair che dopo nemmeno due mesi si è messo a fare un rumore infernale.

Alla fine ho anche spiegato che se sono disposto a spendere di più era solo per avere una certa sicurezza che mi offriva amazon, ma se comincia a mandarmi mail del genere, fine dei giochi, so che se ne farà una ragione, ma pure io.

eXeS
09-04-2022, 14:00
1- scheda madre difettosa, richiesta di reso su consiglio di assistenza asus stesso.
2- processore reso, era usato e danneggiato da un precedente cliente e volevano farlo passare per nuovo, non era nemmeno possibile montarlo sul socket.
3-scheda vdeo che in una sola settimana ha perso 500 euro di valore, ero prfettamente nei termini per fare reso e ricomprarlo al prezzo del giorno.
4-ventola corsair che dopo nemmeno due mesi si è messo a fare un rumore infernale.

Alla fine ho anche spiegato che se sono disposto a spendere di più era solo per avere una certa sicurezza che mi offriva amazon, ma se comincia a mandarmi mail del genere, fine dei giochi, so che se ne farà una ragione, ma pure io.
Magari era di qualcuno che l'ha reso per riaquistarlo a prezzo inferiore :Perfido: e smontantolo l'ha danneggiato, anche se non capisco come si riesca a danneggiare una cpu in modo tale che non si riesca nemmeno a montarla sul socket :confused:

Wolf91
09-04-2022, 14:51
Magari era di qualcuno che l'ha reso per riaquistarlo a prezzo inferiore :Perfido: e smontantolo l'ha danneggiato, anche se non capisco come si riesca a danneggiare una cpu in modo tale che non si riesca nemmeno a montarla sul socket :confused:

Non voglio giustificare nessuno,ma con una Cpu Amd,basta che ti casca in terra e storgi 1 pin,non entra nel socket

eXeS
09-04-2022, 14:57
Non boglio giustificare nessuno,ma con una Cpu Amd basta che ti casca in terra,e storgi 1 pin non entra nel socket
Azz... è da un po che prendo solo cpu intel e nn pensavo che quelle amd avessero ancora i pin ;)

Wolf91
09-04-2022, 15:05
Azz... è da un po che prendo solo cpu intel e nn pensavo che quelle amd avessero ancora i pin ;)

Intel ha i pin sulla scheda madre,Amd sulla Cpu

Dalla prossima Gen di Ryzen avrà anche Amd il socket LGA

Goofy Goober
09-04-2022, 17:45
Dato che se ne trovano poche online, se a qualcuno potesse interessare, posto due foto del PCB di una 3080 12gb, questa è una Manli

https://i.postimg.cc/jD0JY3Pd/PCB1.jpg (https://postimg.cc/jD0JY3Pd)

https://i.postimg.cc/pmf5WQJQ/PCB2.jpg (https://postimg.cc/pmf5WQJQ)



Resta tutto uguale alla 3080/3080Ti, rispetto alla 10gb ci sono solo i moduli di memoria in più.

La scheda è valida, il dissipatore è silenzioso pur non avendo caratteristiche straordinarie (non ha nemmeno il fan stop), e la scheda boosta a 2040mhz out of the box. Temp massima GPU 68°, Hotspot 76°, Memorie 74°
Ha anche un rinforzo in metallo "spesso" che si fissa al bracket, grazie a questo non flette quasi per nulla nonostante la lunghezza.

Gigibian
09-04-2022, 17:57
Dato che se ne trovano poche online, se a qualcuno potesse interessare, posto due foto del PCB di una 3080 12gb, questa è una Manli

https://i.postimg.cc/jD0JY3Pd/PCB1.jpg (https://postimg.cc/jD0JY3Pd)

https://i.postimg.cc/pmf5WQJQ/PCB2.jpg (https://postimg.cc/pmf5WQJQ)



Resta tutto uguale alla 3080/3080Ti, rispetto alla 10gb ci sono solo i moduli di memoria in più.

La scheda è valida, il dissipatore è silenzioso pur non avendo caratteristiche straordinarie (non ha nemmeno il fan stop), e la scheda boosta a 2040mhz out of the box. Temp massima GPU 68°, Hotspot 76°, Memorie 74°
Ha anche un rinforzo in metallo "spesso" che si fissa al bracket, grazie a questo non flette quasi per nulla nonostante la lunghezza.

Conferma che le manli non sono affatto male, al pari di marchi più "blasonati".

Eddie666
09-04-2022, 17:58
Dato che se ne trovano poche online, se a qualcuno potesse interessare, posto due foto del PCB di una 3080 12gb, questa è una Manli

https://i.postimg.cc/jD0JY3Pd/PCB1.jpg (https://postimg.cc/jD0JY3Pd)

https://i.postimg.cc/pmf5WQJQ/PCB2.jpg (https://postimg.cc/pmf5WQJQ)



Resta tutto uguale alla 3080/3080Ti, rispetto alla 10gb ci sono solo i moduli di memoria in più.

La scheda è valida, il dissipatore è silenzioso pur non avendo caratteristiche straordinarie (non ha nemmeno il fan stop), e la scheda boosta a 2040mhz out of the box. Temp massima GPU 68°, Hotspot 76°, Memorie 74°
Ha anche un rinforzo in metallo "spesso" che si fissa al bracket, grazie a questo non flette quasi per nulla nonostante la lunghezza.

grazie per la foto: io ho una 10gb che ancora non ho aperto, ma confermo quanto da te detto circa la validità della scheda stessa.
l'unica sua pecca (per quel che mi riguarda) è appunto l'assenza del fan_stop; chissa se collegando le sue ventole a quell'altro connettore (che immagino sia per collegare delle ventole aggiuntive e farle funzionare sulla base della temperatura della gpu) sia invece possibile farle andare sotto al 30% (percentuale di rotazione minima per le fan principali, circa 1000rpm)

Goofy Goober
09-04-2022, 18:20
Conferma che le manli non sono affatto male, al pari di marchi più "blasonati".

Confermo più che altro in relazione al costo e quindi rapporto prezzo prestazioni contro le custom più tirate che hanno si il pcb ben più avanzato di quello reference, ma a delle cifre molto più elevate.

Tra l'altro il bracket con supporto in metallo è una caratteristica che manca anche a brand premium come EVGA, sinceramente non me lo sarei aspettato di trovarlo su una Manli.

Era dai tempi della 295GTX (bei ricordi, con il QuadSLI) che non compravo Manli :)

grazie per la foto: io ho una 10gb che ancora non ho aperto, ma confermo quanto da te detto circa la validità della scheda stessa.
l'unica sua pecca (per quel che mi riguarda) è appunto l'assenza del fan_stop; chissa se collegando le sue ventole a quell'altro connettore (che immagino sia per collegare delle ventole aggiuntive e farle funzionare sulla base della temperatura della gpu) sia invece possibile farle andare sotto al 30% (percentuale di rotazione minima per le fan principali, circa 1000rpm)

Se lo scopo è ridurre rumore, posso dirti che in idle la scheda le tiene al 35%, e non senti nulla, io ho fatto le prove con il pc sul banchetto a pochi cmq dalle orecchie, sul serio non si sente. Sotto carico le ho viste arrivare a 45% circa, dopo un po' di Superposition (extreme 1080p).
Se invece vuoi lo stop per altri motivi, tipo diminuire l'accumulo di polvere, ti dico che purtroppo anche intervenendo manualmente da Afterburner le ventono non si fermano, il minimo che ti fa mettere le porta sempre al 30% e non sotto.

Dal mio punto di vista ho sempre disattivato lo stop da quando ci sono gli SSD M2 montati in zona scheda video. Sulla Zenith II Extreme passavo da 55° in idle sull'SSD principale, a 39° con le ventole della gpu che giravano al minimo :D

Se non fosse che ora la metto a liquido la mancanza dello fan stop mi veniva pure comoda.

Eddie666
09-04-2022, 20:04
Se lo scopo è ridurre rumore, posso dirti che in idle la scheda le tiene al 35%, e non senti nulla, io ho fatto le prove con il pc sul banchetto a pochi cmq dalle orecchie, sul serio non si sente. Sotto carico le ho viste arrivare a 45% circa, dopo un po' di Superposition (extreme 1080p).
Se invece vuoi lo stop per altri motivi, tipo diminuire l'accumulo di polvere, ti dico che purtroppo anche intervenendo manualmente da Afterburner le ventono non si fermano, il minimo che ti fa mettere le porta sempre al 30% e non sotto.

Dal mio punto di vista ho sempre disattivato lo stop da quando ci sono gli SSD M2 montati in zona scheda video. Sulla Zenith II Extreme passavo da 55° in idle sull'SSD principale, a 39° con le ventole della gpu che giravano al minimo :D

Se non fosse che ora la metto a liquido la mancanza dello fan stop mi veniva pure comoda.

la questione è proprio legata al rumore; anche le mie ventole non scendono sotto il 30% (1000rpm circa), mentre avrei preferito non farle ruotare a 0rpm, ma poter scendere fino a 500rpm (che è il regime di rotazione delle ventole del mio pc); cmq uno di questi giori mi sa che farò la prova spostando il connettore eper vedere se anche l'altro ha come limite minimo il 30%

gaevulk
10-04-2022, 12:12
Confermo più che altro in relazione al costo e quindi rapporto prezzo prestazioni contro le custom più tirate che hanno si il pcb ben più avanzato di quello reference, ma a delle cifre molto più elevate.

Tra l'altro il bracket con supporto in metallo è una caratteristica che manca anche a brand premium come EVGA, sinceramente non me lo sarei aspettato di trovarlo su una Manli.

Era dai tempi della 295GTX (bei ricordi, con il QuadSLI) che non compravo Manli :)



Se lo scopo è ridurre rumore, posso dirti che in idle la scheda le tiene al 35%, e non senti nulla, io ho fatto le prove con il pc sul banchetto a pochi cmq dalle orecchie, sul serio non si sente. Sotto carico le ho viste arrivare a 45% circa, dopo un po' di Superposition (extreme 1080p).
Se invece vuoi lo stop per altri motivi, tipo diminuire l'accumulo di polvere, ti dico che purtroppo anche intervenendo manualmente da Afterburner le ventono non si fermano, il minimo che ti fa mettere le porta sempre al 30% e non sotto.

Dal mio punto di vista ho sempre disattivato lo stop da quando ci sono gli SSD M2 montati in zona scheda video. Sulla Zenith II Extreme passavo da 55° in idle sull'SSD principale, a 39° con le ventole della gpu che giravano al minimo :D

Se non fosse che ora la metto a liquido la mancanza dello fan stop mi veniva pure comoda.
Mi interessava proprio una manli,la 3080 10 GB,vorrei liquidarla ,il PCB dunque è un reference?

Goofy Goober
10-04-2022, 16:42
Mi interessava proprio una manli,la 3080 10 GB,vorrei liquidarla ,il PCB dunque è un reference?

le foto di prima sono della 12gb
credo comunque che tutte le manli usino il pcb reference, ho solo il dubbio sulla versione "gallardo"

controlla l'EK configurator per sicurezza.

razor820
10-04-2022, 18:28
Ultimamente mi sono accorto che ho dei microscatti, soprattutto guardandomi intorno, anche sopra i 70 fps, cosa alquanto strana. Da premettere che con questi microscatti il gioco sembra come se girasse sui 55fps

Non riesco a capire quale potrebbe essere il problema.
Se qualcuno mi può dar qualche dritta.

Avevo pensato forse il g-sync che non lavora bene

terranux
10-04-2022, 20:32
Dato che se ne trovano poche online, se a qualcuno potesse interessare, posto due foto del PCB di una 3080 12gb, questa è una Manli

https://i.postimg.cc/jD0JY3Pd/PCB1.jpg (https://postimg.cc/jD0JY3Pd)

https://i.postimg.cc/pmf5WQJQ/PCB2.jpg (https://postimg.cc/pmf5WQJQ)



Resta tutto uguale alla 3080/3080Ti, rispetto alla 10gb ci sono solo i moduli di memoria in più.

La scheda è valida, il dissipatore è silenzioso pur non avendo caratteristiche straordinarie (non ha nemmeno il fan stop), e la scheda boosta a 2040mhz out of the box. Temp massima GPU 68°, Hotspot 76°, Memorie 74°
Ha anche un rinforzo in metallo "spesso" che si fissa al bracket, grazie a questo non flette quasi per nulla nonostante la lunghezza.
silenzioso? ma quanti giri fanno le ventole? io ho la 3070ti e dai 2500 in poi si sente . per il resto mi piace anche a me. è pesante e la plastica è molto robusta

Cutter90
11-04-2022, 08:39
Ultimamente mi sono accorto che ho dei microscatti, soprattutto guardandomi intorno, anche sopra i 70 fps, cosa alquanto strana. Da premettere che con questi microscatti il gioco sembra come se girasse sui 55fps

Non riesco a capire quale potrebbe essere il problema.
Se qualcuno mi può dar qualche dritta.

Avevo pensato forse il g-sync che non lavora bene

In tutti i giochi?

Cutter90
11-04-2022, 08:42
Conferma che le manli non sono affatto male, al pari di marchi più "blasonati".

Finche le usi stock, nascoste alla vista e senza tirarle si.
Poi se le vai a stressare ecco che fanno più rumore delle top, prestazionalmente non arrivano alle "blasonate", sono meno fresche e restano più brutte.
Dipenda da uno cosa vuole e cosa deve fare. Oltre, ovviamente alle cifre a cui si acquistano

Eddie666
11-04-2022, 09:26
Finche le usi stock, nascoste alla vista e senza tirarle si.
Poi se le vai a stressare ecco che fanno più rumore delle top, prestazionalmente non arrivano alle "blasonate", sono meno fresche e restano più brutte.
Dipenda da uno cosa vuole e cosa deve fare. Oltre, ovviamente alle cifre a cui si acquistano

sul fatto che siano più brutte potrei anche essere d'accordo (ad es non hanno RGB, per lo meno le versione non Gallardo), anche se una vita montate si vede il backplate nero in metallo che non è affatto male.
circa le prestazioni intendi forse che non salgono in overclock come altre marche? quello può darsi, ma per il resto i 1800mhz di una Manli sono uguali ai 1800mhz di una gigabyte o di una Asus.
circa il rumore poi andrebbe fatta una compariva con un fonometro, perché altrimenti sono solo valutazioni soggettive (e per me ad esempio, qualunque ventola che gira a più di 1000 rpm è rumorosa)

Thunder-74
11-04-2022, 09:29
Ultimamente mi sono accorto che ho dei microscatti, soprattutto guardandomi intorno, anche sopra i 70 fps, cosa alquanto strana. Da premettere che con questi microscatti il gioco sembra come se girasse sui 55fps

Non riesco a capire quale potrebbe essere il problema.
Se qualcuno mi può dar qualche dritta.

Avevo pensato forse il g-sync che non lavora bene


Se hai attivo ultra latency nel pannello nVidia o usi nVidia reflex in game, prova a disattivarli. Ho visto che a volte danno fastidio. Inoltre fai una cosa. Dato che il pannello nVidia tende a incasinarsi, entra clicca su ripristino dei valori di def e poi ri applica le cose che ti interessano (gsync ecc), ovviamente no ultra latency


Inviato dal mio iPhone X utilizzando Tapatalk

razor820
11-04-2022, 11:07
Se hai attivo ultra latency nel pannello nVidia o usi nVidia reflex in game, prova a disattivarli. Ho visto che a volte danno fastidio. Inoltre fai una cosa. Dato che il pannello nVidia tende a incasinarsi, entra clicca su ripristino dei valori di def e poi ri applica le cose che ti interessano (gsync ecc), ovviamente no ultra latency


Inviato dal mio iPhone X utilizzando Tapatalk


Per il ripristino c è una funzione sull applicazione del pannello di controllo nvidia e resetta tutte le impostazioni dei vari giochi?
Grazie più tardi provo

Goofy Goober
11-04-2022, 11:43
silenzioso? ma quanti giri fanno le ventole? io ho la 3070ti e dai 2500 in poi si sente . per il resto mi piace anche a me. è pesante e la plastica è molto robusta

Mi sembra di non averle viste sopra i 2200, il profilo ventola mi è sembrato molto conservativo comunque.

Ora l'ho già messa a liquido quindi non posso più fare prove.

A me non piace particolarmente esteticamente come tutte le altre 3XXX che non gradisco particolarmente dato che hanno pcb piccoli striminziti, e in generale la cosa che proprio non digerisco di tutte le schede attuali è la dimensioni ridicolamente enorme dove la maggioranza sono triple slot e con dissipatori che si estendono oltre la fine della scheda.

Le uniche a mio parere davvero belle con il dissipatore ad aria sono le founders.

La Manli avendola "trasformata" con waterblock a panino, ormai non la vedo nemmeno più e ha raggiunto le dimensioni classiche delle vecchie reference (27/28cm) :D

Finche le usi stock, nascoste alla vista e senza tirarle si.
Poi se le vai a stressare ecco che fanno più rumore delle top, prestazionalmente non arrivano alle "blasonate", sono meno fresche e restano più brutte.
Dipenda da uno cosa vuole e cosa deve fare. Oltre, ovviamente alle cifre a cui si acquistano

L'hai detto, l'unica cosa che conta è lo scopo per cui le prendi e il costo relativo.

Tutto il resto sono più che altro chiacchere (overclock, estetica, rumorosità etc), perchè sono aspetti molto soggettivi e soggetti a modifica (ad esempio liquidando la scheda, l'aspetto cambia).
Come in passato comunque anche la "lotteria" delle gpu si conferma variabile, anche il boost di questa reference mi ha stupito, mi aspettavo molto meno, ma interessandomi nulla l'OC la lascerò andare come va senza smanettarci troppo.

Preciso che se per stressare intendi usarla normalmente sotto carico (giocando), la scheda non è affatto rumorosa in senso assoluto. E come dicevo prima, provata su banchetto aperto, non chiusa dentro un case con altra ventilazione ad attenuare la percepita della scheda.
Poi che faccia più o meno rumore rispetto a schede con ventole uguali o più grandi è lapalissiano. :)

Comunque una volta c'era molta meno "schifaggine" verso le schede a pcb reference, ed erano le custom ad esser meno comuni e appetibili per via dei costi ben più elevati.
Oggi stranamente la tendenza è cambiata.

Thunder-74
11-04-2022, 12:02
Per il ripristino c è una funzione sull applicazione del pannello di controllo nvidia e resetta tutte le impostazioni dei vari giochi?
Grazie più tardi provo

intendevo il ripristina della pagina generale:
https://i.imgur.com/OiPI0eW.png



Se poi vuoi ripristinare i singoli giochi, devi andare nel profilo del singolo gioco e cliccare su ripristina. Io non li modifico singolarmente.

Esempio:

https://i.imgur.com/Vyb6BYV.png

Cutter90
11-04-2022, 13:16
sul fatto che siano più brutte potrei anche essere d'accordo (ad es non hanno RGB, per lo meno le versione non Gallardo), anche se una vita montate si vede il backplate nero in metallo che non è affatto male.
circa le prestazioni intendi forse che non salgono in overclock come altre marche? quello può darsi, ma per il resto i 1800mhz di una Manli sono uguali ai 1800mhz di una gigabyte o di una Asus.
circa il rumore poi andrebbe fatta una compariva con un fonometro, perché altrimenti sono solo valutazioni soggettive (e per me ad esempio, qualunque ventola che gira a più di 1000 rpm è rumorosa)

Mi sembra di non averle viste sopra i 2200, il profilo ventola mi è sembrato molto conservativo comunque.

Ora l'ho già messa a liquido quindi non posso più fare prove.

A me non piace particolarmente esteticamente come tutte le altre 3XXX che non gradisco particolarmente dato che hanno pcb piccoli striminziti, e in generale la cosa che proprio non digerisco di tutte le schede attuali è la dimensioni ridicolamente enorme dove la maggioranza sono triple slot e con dissipatori che si estendono oltre la fine della scheda.

Le uniche a mio parere davvero belle con il dissipatore ad aria sono le founders.

La Manli avendola "trasformata" con waterblock a panino, ormai non la vedo nemmeno più e ha raggiunto le dimensioni classiche delle vecchie reference (27/28cm) :D



L'hai detto, l'unica cosa che conta è lo scopo per cui le prendi e il costo relativo.

Tutto il resto sono più che altro chiacchere (overclock, estetica, rumorosità etc), perchè sono aspetti molto soggettivi e soggetti a modifica (ad esempio liquidando la scheda, l'aspetto cambia).
Come in passato comunque anche la "lotteria" delle gpu si conferma variabile, anche il boost di questa reference mi ha stupito, mi aspettavo molto meno, ma interessandomi nulla l'OC la lascerò andare come va senza smanettarci troppo.

Preciso che se per stressare intendi usarla normalmente sotto carico (giocando), la scheda non è affatto rumorosa in senso assoluto. E come dicevo prima, provata su banchetto aperto, non chiusa dentro un case con altra ventilazione ad attenuare la percepita della scheda.
Poi che faccia più o meno rumore rispetto a schede con ventole uguali o più grandi è lapalissiano. :)

Comunque una volta c'era molta meno "schifaggine" verso le schede a pcb reference, ed erano le custom ad esser meno comuni e appetibili per via dei costi ben più elevati.
Oggi stranamente la tendenza è cambiata.

A parte che di fabbrica out of the box le top escono già a frequenze più elevate. Poi, naturalmente, se uno vuole salire di oc le differenze si vedono tutte. Poi per qualcuno possono essere tante, per altri poco, quello è soggetivo. Quello che non è soggettivo è il rumore. Le ventole nelle top hanno forme specifiche per farne meno, come la mia, o le msi. I modelli "base" o di altre marche montano vetole "stadard" che sono più rumorose (avevo la 2080 ti zotac, decisamente più rumorosa di quella che ho ora).

Poi come detto dipende dai prezzi, dalle esigenze ecc ecc ma che i modelli base pny, zotac e manli siano uguali alle top, anche no.
E' come dire che un classe A è uguale ad una Golf.....

Thunder-74
11-04-2022, 13:31
Con ampere la velocità in boost tra le vari modelli non esiste più da quando sono usciti i secondi drivers che risolvevano i crash tagliando di fatto le freq. a ridosso dei 2ghz. Quello che cambia da un modello ad un altro in fatto di freq., è solo la dissipazione e PL che possono assicurare una permanenza maggiore ad alte freq., ovvero meno tagli.
Se vi guardate le rece vedrete da voi che il boost massimo raggiunto dalla più infima alla custom più cazzuta è pressoché il medesimo, anche perché il boost nVidia 5.0 si basa su consumo, voltaggio impostato e temp . Quindi automaticamente, in base allo scenario da gestire, cercherà di innalzare le freq. al massimo stando dentro al pl e tagliando in caso di superamento della temp per i vari step. Quindi le freq. base dichiarare, lasciano il tempo che trovano


Inviato dal mio iPhone X utilizzando Tapatalk

Cutter90
11-04-2022, 13:39
Con ampere la velocità in boost tra le vari modelli non esiste più da quando sono usciti i secondi drivers che risolvevano i crash tagliando di fatto le freq. a ridosso dei 2ghz. Quello che cambia da un modello ad un altro in fatto di freq., è solo la dissipazione e PL che possono assicurare una permanenza maggiore ad alte freq., ovvero meno tagli.
Se vi guardate le rece vedrete da voi che il boost massimo raggiunto dalla più infima alla custom più cazzuta è pressoché il medesimo, anche perché il boost nVidia 5.0 si basa su consumo, voltaggio impostato e temp . Quindi automaticamente, in base allo scenario da gestire, cercherà di innalzare le freq. al massimo stando dentro al pl e tagliando in caso di superamento della temp per i vari step. Quindi le freq. base dichiarare, lasciano il tempo che trovano


Inviato dal mio iPhone X utilizzando Tapatalk

Si, se parliamo di frequenze "basse". Appena vai su, le differenze si vedono proprio perchè sono più fresche le top

Goofy Goober
11-04-2022, 14:15
A parte che di fabbrica out of the box le top escono già a frequenze più elevate. Poi, naturalmente, se uno vuole salire di oc le differenze si vedono tutte. Poi per qualcuno possono essere tante, per altri poco, quello è soggetivo. Quello che non è soggettivo è il rumore. Le ventole nelle top hanno forme specifiche per farne meno, come la mia, o le msi. I modelli "base" o di altre marche montano vetole "stadard" che sono più rumorose (avevo la 2080 ti zotac, decisamente più rumorosa di quella che ho ora).

Poi come detto dipende dai prezzi, dalle esigenze ecc ecc ma che i modelli base pny, zotac e manli siano uguali alle top, anche no.
E' come dire che un classe A è uguale ad una Golf.....

Ho fatto il raffronto con le review di Techpower up che ha testato giusto 2 custom da 12gb, le freq di boost che hanno mostrato loro out of box sono le stesse.

Io non ho detto che sono uguali, ci manca pure visto che si pagano centinaia di euro in più, parecchie centinaia.

Ora stop ai soliti discorsi su cosa è meglio dai, mi fai sentire di nuovo giovane :asd: tanto a me serviva solo una reference da liquidare spendendoci il meno possibile, che mi sono partiti 380 neuri di waterblock! :asd:

Comunque tra golf e classe A scelgo la cupra Leon :D

Con ampere la velocità in boost tra le vari modelli non esiste più da quando sono usciti i secondi drivers che risolvevano i crash tagliando di fatto le freq. a ridosso dei 2ghz. Quello che cambia da un modello ad un altro in fatto di freq., è solo la dissipazione e PL che possono assicurare una permanenza maggiore ad alte freq., ovvero meno tagli.
Se vi guardate le rece vedrete da voi che il boost massimo raggiunto dalla più infima alla custom più cazzuta è pressoché il medesimo, anche perché il boost nVidia 5.0 si basa su consumo, voltaggio impostato e temp . Quindi automaticamente, in base allo scenario da gestire, cercherà di innalzare le freq. al massimo stando dentro al pl e tagliando in caso di superamento della temp per i vari step. Quindi le freq. base dichiarare, lasciano il tempo che trovano


Di fatti spero che stando a poco più di 40 gradi a liquido le frequenze si stabilizzino ad un valore buono e la scheda lavori bene.
OC non ne farò, ho smesso :asd:

frafelix
11-04-2022, 14:25
Non si può sentire che se la metti a liquido non fai oc! Dai su, dopo che ti sei sbattuto a smontare e rimontare e ora che dovrai giocare anche col Dremel almeno buttaci un po' di oc

Thunder-74
11-04-2022, 15:48
Si, se parliamo di frequenze "basse". Appena vai su, le differenze si vedono proprio perchè sono più fresche le top


Intendevo out of the box


Inviato dal mio iPhone X utilizzando Tapatalk

Ichigo88
11-04-2022, 15:53
Ragazzi dite che ha senso prendere una RTX3080 Ti Trinity OC, modello ZT-A30810J-10P da amazon venduta e spedita a 1443 o conviene aspettare altri cali o la nuova gen? Sono combattuto in quanto attualmente ho una 2070 super, in UW arranca un pò a qualità elevate e con il quest 2...

mikael84
11-04-2022, 16:13
le foto di prima sono della 12gb
credo comunque che tutte le manli usino il pcb reference, ho solo il dubbio sulla versione "gallardo"

controlla l'EK configurator per sicurezza.

Tutte reference dal TDP base. Cambia solo il boost base. Sono le stesse della inno3d, entrambe fatte dalla pcpartner. Se avevi turing, sono in parte i relativi chip non A.:)

Riguardo i PCB, tu avevi 2/3 titan Kepler se non ricordo male:p , ed erano pure overvoltatibili, ora sono piombatissime.
https://www.techpowerup.com/review/nvidia-geforce-gtx-titan/images/front.jpg

Goofy Goober
11-04-2022, 16:25
Non si può sentire che se la metti a liquido non fai oc! Dai su, dopo che ti sei sbattuto a smontare e rimontare e ora che dovrai giocare anche col Dremel almeno buttaci un po' di oc

:asd: :asd:

se volete qualche prova accademica la faccio, ma ormai l'OC l'ho archiviato, non riesco manco a far andare stabili le ram a 3600 sul threadripper perchè ho scelto 8 banchi invece di 4 :asd:

Tutte reference dal TDP base. Cambia solo il boost base. Sono le stesse della inno3d, entrambe fatte dalla pcpartner. Se avevi turing, sono in parte i relativi chip non A.:)

Riguardo i PCB, tu avevi 2/3 titan Kepler se non ricordo male:p , ed erano pure overvoltatibili, ora sono piombatissime.
https://www.techpowerup.com/review/nvidia-geforce-gtx-titan/images/front.jpg

Avevo 2 Titan prima serie, del dayone (prese a 800 contro i 1000 di listino) bei tempi :cry: , che SLI pauroso all'epoca :asd:
Li si che ancora mi divertivo a fare qualche bench e smanettare.

Ci avevo flashato un bios con overvolt perenne e boost a 1.100 se ben ricordo, le ho ancora entrambe e una sta 24/7 accesa nel pc che tengo in ufficio, rimessa ad aria con il dissi stock.

Ora ho visto (rapidamente, non sono molto documentato) che non si può nemmeno eccedere il power limit del 100% via software.
Ma onestamente dopo aver visto i numeri da capogiro che arrivano a toccare, va fin bene così, e chissà la prossima serie :eek:

Appena ho dremelato via l'eccesso di plexy dal wb comunque qualche test lo posto, mi serve giusto un corso accellerato di oc sulle 3080 ref :)

frafelix
11-04-2022, 16:55
Ragazzi dite che ha senso prendere una RTX3080 Ti Trinity OC, modello ZT-A30810J-10P da amazon venduta e spedita a 1443 o conviene aspettare altri cali o la nuova gen? Sono combattuto in quanto attualmente ho una 2070 super, in UW arranca un pò a qualità elevate e con il quest 2...

Buon prezzo, ma se vuoi fare oc tieniti alla larga dalle zotac, non puoi andare oltre i 350w, te lo dico da possessore

Black"SLI"jack
11-04-2022, 17:22
Anche le pny (almeno sulle 3090 reference) hanno PL bloccati a 350w. Sulle palit gaming pro il PL può essere alzato a 365w (almeno sulla 3090 ma presumo pure sulle sorelle minori). Almeno sulla mia 3090 sono riuscito a mettere il bios galax da 390w, ovviamente è un guadagno minimo di watt. Non so se su altri brand con schede reference è possibileil cambio bios. Mi pare che sulle zotac il cambio bios non porti ad alcun watt in più. Cmq a rischio e pericolo di chi lo fa.
Se penso alla mia "vecchia" 2080ti zotac amp, pcb reference, con bios da 380w che prende i 2145mhz ed oltre, e gira daily a 2100/15000@1v... :D

Inviato dal mio LYA-L09 utilizzando Tapatalk

Thunder-74
11-04-2022, 18:06
stavo vedendo la demo UE5 di Matrix testato dal solito sito russo.
Praticamente a tutte le res si è cappati dalla CPU. Poi magari verrà ottimizzato a dovere.
impressionate vedere come un i5 12600k dia la paga a tutte le CPU precedenti. Gli FPS minimi che sono maggiori di quelli massimi di un 11900k
Qui una 3080ti in FHD

https://i.imgur.com/59ChlET.png

razor820
11-04-2022, 19:19
intendevo il ripristina della pagina generale:
https://i.imgur.com/OiPI0eW.png



Se poi vuoi ripristinare i singoli giochi, devi andare nel profilo del singolo gioco e cliccare su ripristina. Io non li modifico singolarmente.

Esempio:

https://i.imgur.com/Vyb6BYV.png

Ho ripristinato come mi avevi consigliato, ho anche per sicurezza disattivato completamente il g-sync.

Provato con dy2 e non si è presentato il problema.
Adesso proverò con il g-sync attivo.

Io ho l'impressione che è il g-sync compatible che su alcuni giochi non lavora adeguatamente...

Thunder-74
11-04-2022, 19:22
Ho ripristinato come mi avevi consigliato, ho anche per sicurezza disattivato completamente il g-sync.

Provato con dy2 e non si è presentato il problema.
Adesso proverò con il g-sync attivo.

Io ho l'impressione che è il g-sync compatible che su alcuni giochi non lavora adeguatamente...

è possibile... leggevo che comunque il G-Sync compatibile non è sempre perfetto. Ho preso un monito nativo per questo motivo.

terranux
11-04-2022, 19:24
Dato che se ne trovano poche online, se a qualcuno potesse interessare, posto due foto del PCB di una 3080 12gb, questa è una Manli

https://i.postimg.cc/jD0JY3Pd/PCB1.jpg (https://postimg.cc/jD0JY3Pd)

https://i.postimg.cc/pmf5WQJQ/PCB2.jpg (https://postimg.cc/pmf5WQJQ)



Resta tutto uguale alla 3080/3080Ti, rispetto alla 10gb ci sono solo i moduli di memoria in più.

La scheda è valida, il dissipatore è silenzioso pur non avendo caratteristiche straordinarie (non ha nemmeno il fan stop), e la scheda boosta a 2040mhz out of the box. Temp massima GPU 68°, Hotspot 76°, Memorie 74°
Ha anche un rinforzo in metallo "spesso" che si fissa al bracket, grazie a questo non flette quasi per nulla nonostante la lunghezza.
anche sulla tua il power limit è bloccato a 100? si può flashare un'altro bios?

razor820
11-04-2022, 19:30
è possibile... leggevo che comunque il G-Sync compatibile non è sempre perfetto. Ho preso un monito nativo per questo motivo.


Rimpiango di aver regalato il mio predator 2k..
Purtroppo 4k ultra g-sync troppo soldi

davide155
11-04-2022, 20:21
stavo vedendo la demo UE5 di Matrix testato dal solito sito russo.
Praticamente a tutte le res si è cappati dalla CPU. Poi magari verrà ottimizzato a dovere.
impressionate vedere come un i5 12600k dia la paga a tutte le CPU precedenti. Gli FPS minimi che sono maggiori di quelli massimi di un 11900k
Qui una 3080ti in FHD

https://i.imgur.com/59ChlET.pngIo l'ho provata parecchio quella demo e mi ha impressionato come riesca a gestire una città enorme come quella senza alcun problema.
Con 12900k e 3090 sta sempre sopra i 55fps, salvo ovviamente quando buffera le textures che va a zero.
E stiamo parlando di un livello caricato dentro un engine.
Se facessero la demo come si deve andrebbe mille volte meglio.
Comunque c'è poco da fare, gli alder lake nei giochi fanno paura accoppiati alle Ampere. Ho ripristinato come mi avevi consigliato, ho anche per sicurezza disattivato completamente il g-sync.

Provato con dy2 e non si è presentato il problema.
Adesso proverò con il g-sync attivo.

Io ho l'impressione che è il g-sync compatible che su alcuni giochi non lavora adeguatamente...Il gsync compatibile purtroppo non è assolutamente paragonabile al gsync nativo.
Io col monitor con gsync nativo non ho mai avuto un problema.
Ogni giorno confermo che è una delle migliori tecnologie mai inventate. Dopo gli ssd :)

Thunder-74
11-04-2022, 20:35
Io l'ho provata parecchio quella demo e mi ha impressionato come riesca a gestire una città enorme come quella senza alcun problema.
Con 12900k e 3090 sta sempre sopra i 55fps, salvo ovviamente quando buffera le textures che va a zero.
E stiamo parlando di un livello caricato dentro un engine.
Se facessero la demo come si deve andrebbe mille volte meglio.
Comunque c'è poco da fare, gli alder lake nei giochi fanno paura accoppiati alle Ampere. Il gsync compatibile purtroppo non è assolutamente paragonabile al gsync nativo.
Io col monitor con gsync nativo non ho mai avuto un problema.
Ogni giorno confermo che è una delle migliori tecnologie mai inventate. Dopo gli ssd :)


Indubbiamente un conto una demo standalone e un conto livello caricato all interno dell engine. Promette comunque veramente bene . Alder tanta roba. Aspetto Raptor sperando nell ottimizzazione dei consumi che tanto promettono.




Inviato dal mio iPhone X utilizzando Tapatalk

alethebest90
12-04-2022, 07:46
Ho ripristinato come mi avevi consigliato, ho anche per sicurezza disattivato completamente il g-sync.

Provato con dy2 e non si è presentato il problema.
Adesso proverò con il g-sync attivo.

Io ho l'impressione che è il g-sync compatible che su alcuni giochi non lavora adeguatamente...

A volte capita anche a me in AC Origins però mi basta modificare la frequenza del monitor nelle impostazioni del gioco e svanisce...quando giro la visuale sembra andare a rallentatore e sdoppia le immagini (come se non riesce a stargli dietro).

Però devo dirlo che sto problema non capitava prima di alcuni aggiornamenti di windows (non è la prima volta che mi incasina i driver nonostante nonostante sia disattivato l'aggiornamentod i quest'ultimi)

ps. diciamo che anche per me non sarebbe male un bel monitor 2K g-sync

sertopica
12-04-2022, 08:15
Indubbiamente un conto una demo standalone e un conto livello caricato all interno dell engine. Promette comunque veramente bene . Alder tanta roba. Aspetto Raptor sperando nell ottimizzazione dei consumi che tanto promettono.




Inviato dal mio iPhone X utilizzando Tapatalk

La teoria e' che non dipenda tanto dalla CPU quanto dalla bandwidth offerta dalle DDR5 che in questo caso particolare e' fondamentale, sempre ricordando che DirectStorage andra' proprio ad alleggerire la CPU dai calcoli relativi allo streaming. In ogni caso ci sono due demo compilate in giro, una che ancora contiene tutti i tools di debugging che girano in background togliendo cicli di clock al processore, ed una versione "consumer" che pesa molto meno sul processore e offre prestazioni piu' stabili. Credo sia presto per parlare di una preponderanza del processore sulla GPU, l'UE5 mettera' comunque alla prova tutte le componenti di sistema. Inoltre a questa tech demo mancano tutte quelle ottimizzazioni e tweaks che un gioco normalmente include per poter girare meglio. :)

Qui la versione da scaricare liscia senza debugging in background e con DLSS 2.3.1 incluso, che naturalmente puo' essere sostituito da una versione piu' recente: https://1fichier.com/?gxalb5wcz5z73wv5t5tf

Si puo' switchare da TSR a DLSS premendo sulla tastiera 1, 2, 3 o 4
1. TSR
2. DLSS Performance
3. DLSS Balanced
4. DLSS Quality.

Il DLSS Quality offre prestazioni di gran lunga superiori rispetto al TSR, mi chiedo se in qualche modo non ne risenta anche qualche effetto visto che si fanno circa 10 fps in piu' a parita' di settings.

frafelix
12-04-2022, 08:38
Anche le pny (almeno sulle 3090 reference) hanno PL bloccati a 350w. Sulle palit gaming pro il PL può essere alzato a 365w (almeno sulla 3090 ma presumo pure sulle sorelle minori). Almeno sulla mia 3090 sono riuscito a mettere il bios galax da 390w, ovviamente è un guadagno minimo di watt. Non so se su altri brand con schede reference è possibileil cambio bios. Mi pare che sulle zotac il cambio bios non porti ad alcun watt in più. Cmq a rischio e pericolo di chi lo fa.
Se penso alla mia "vecchia" 2080ti zotac amp, pcb reference, con bios da 380w che prende i 2145mhz ed oltre, e gira daily a 2100/15000@1v... :D

Inviato dal mio LYA-L09 utilizzando Tapatalk

Io provato a flashare il bios della tuf, lo riconosce nel senso che da msi ab lo slider del pl può andare al 107% invece del 110% del bios originale, ma in ogni caso la scheda di quello slider non tiene conto e mura sempre a 350w. Ci deve essere qualcosa lato hardware che blocca...

Ho ripristinato come mi avevi consigliato, ho anche per sicurezza disattivato completamente il g-sync.

Provato con dy2 e non si è presentato il problema.
Adesso proverò con il g-sync attivo.

Io ho l'impressione che è il g-sync compatible che su alcuni giochi non lavora adeguatamente...

Come ti hanno detto anche altri, il gsync compatibile non è affatto la stessa cosa di avere il modulo hardware, potrai avere dei giochi dove funziona tutto correttamente e altri dove avrai problemi, però è una cosa ovvia soprattutto se si parla di nvidia. Fanno un modulo hardware che ti fanno pagare caro e poi secondo te quelli senza li fanno funzionare uguali?

anche sulla tua il power limit è bloccato a 100? si può flashare un'altro bios?

Leggi sopra, il problema a seconda della scheda non è flashare un altro bios, ma vedere se la scheda poi lo usa o è bloccata a livello hardware

La teoria e' che non dipenda tanto dalla CPU tanto dalla bandwidth offerta dalle DDR5 che in questo caso particolare e' fondamentale, sempre ricordando che DirectStorage andra' proprio ad alleggerire la CPU dai calcoli relativi allo streaming. In ogni caso ci sono due demo compilate in giro, una che ancora contiene tutti i tools di debugging che girano in background togliendo cicli di clock al processore, ed una versione "consumer" che pesa molto meno sul processore e offre prestazioni piu' stabili. Credo sia presto per parlare di una preponderanza del processore sulla GPU, l'UE5 mettera' comunque alla prova tutte le componenti di sistema. Inoltre a questa tech demo mancano tutte quelle ottimizzazioni e tweaks che un gioco normalmente include per poter girare meglio. :)

Qui la versione da scaricare liscia senza debugging in background e con DLSS 2.3.1 incluso, che naturalmente puo' essere sostituito da una versione piu' recente: https://1fichier.com/?gxalb5wcz5z73wv5t5tf

Si puo' switchare da TSR a DLSS premendo sulla tastiera 1, 2, 3 o 4
1. TSR
2. DLSS Performance
3. DLSS Balanced
4. DLSS Quality.

Il DLSS Quality offre prestazioni di gran lunga superiori rispetto al TSR, mi chiedo se in qualche modo non ne risenta anche qualche effetto visto che si fanno circa 10 fps in piu' a parita' di settings.

Grazie per il link, stasera provo anche io

razor820
12-04-2022, 09:14
Eh ma infatti io L avevo sempre detto che il g-sync hardware non può essere paragonato con quello software compatibile.. Purtroppo avendo avuto in passato solo monitor g-sync nativi non mi ero posto il problema..

Poi certo spiazzato da molte persone, che dal mio punto di vista non avevano mai avuto un g-sync nativo, affermavano che il compatibile era uguale...

Certo rode che su monitor da 1000-1500 euro mettono un g-sync compatibile..

Ripeto e chiudendo il discorso, nel mio caso non avevo trovato un 4K g-sync nativo, proprio non esistevano o non disponibili.

Che poi teoricamente il monitor che ho preso io era o è il top della LG..

kiwivda
12-04-2022, 09:23
Eh ma infatti io L avevo sempre detto che il g-sync hardware non può essere paragonato con quello software compatibile.. Purtroppo avendo avuto in passato solo monitor g-sync nativi non mi ero posto il problema..

Poi certo spiazzato da molte persone, che dal mio punto di vista non avevano mai avuto un g-sync nativo, affermavano che il compatibile era uguale...

Certo rode che su monitor da 1000-1500 euro mettono un g-sync compatibile..

Ripeto e chiudendo il discorso, nel mio caso non avevo trovato un 4K g-sync nativo, proprio non esistevano o non disponibili.

Che poi teoricamente il monitor che ho preso io era o è il top della LG..

Anche il mio 27GP950 è compatibile e non nativo, per ora tutto bene, ma sta cosa mi turba un po'. Il vecchio BENQ 24 XL2420G era una spada, ma era nativo con modulo proprietario.

bagnino89
12-04-2022, 09:25
Poi certo spiazzato da molte persone, che dal mio punto di vista non avevano mai avuto un g-sync nativo, affermavano che il compatibile era uguale...

Come no, come chi dice che Freesync sia uguale al G-SYNC... Certo :asd:

scorpion73
12-04-2022, 13:24
Si però se guardi adesso trovare un monitor con G-Sync nativo sui 27 pollici che non sia ultimate è praticamente impossibile.
I modelli nuovi sono tutti e solo G-Sync compatibile, quelli con G-Sync nativo sono solo gli ultimate, i "base" di fatto non ci sono più se non prendi un modello "vecchio".
Così facendo ti sparano i monitor ultimate a più di 2000 euro e i monitor classici invece, che prima compravi a 400 euro, adesso ne costano una via di mezzo fra i vecchi freesync e i vecchi g-sync standard... più cari insomma...

Detto ciò io col mio predator mi trovo stupendamente, non noto nessun tipo di problema.
Il limite vero, secondo me, sta nel fatto che per essere applicato devi andare almeno a 40fps, se vai a 30fps non si applica, quando il G-Sync è nato anche per quel tipo di problema.
La vera differenza fra il nativo e il software secondo me sta tutta lì.

fraussantin
12-04-2022, 13:46
Si però se guardi adesso trovare un monitor con G-Sync nativo sui 27 pollici che non sia ultimate è praticamente impossibile.
I modelli nuovi sono tutti e solo G-Sync compatibile, quelli con G-Sync nativo sono solo gli ultimate, i "base" di fatto non ci sono più se non prendi un modello "vecchio".
Così facendo ti sparano i monitor ultimate a più di 2000 euro e i monitor classici invece, che prima compravi a 400 euro, adesso ne costano una via di mezzo fra i vecchi freesync e i vecchi g-sync standard... più cari insomma...

Detto ciò io col mio predator mi trovo stupendamente, non noto nessun tipo di problema.
Il limite vero, secondo me, sta nel fatto che per essere applicato devi andare almeno a 40fps, se vai a 30fps non si applica, quando il G-Sync è nato anche per quel tipo di problema.
La vera differenza fra il nativo e il software secondo me sta tutta lì.Ma giusto per saperlo se vai sotto i 40 per un breve drop cosa succede? Vedi tearing?

Gigibian
12-04-2022, 14:19
Arrivata la bestiolina! :D

https://i.ibb.co/Ph9dK6c/Inked-PXL-20220412-123147575-LI.jpg (https://ibb.co/Ph9dK6c) https://i.ibb.co/ZJX9CJy/Inked-PXL-20220412-125120155-LI.jpg (https://ibb.co/ZJX9CJy) https://i.ibb.co/pXD9zwm/PXL-20220412-123131039.jpg (https://ibb.co/pXD9zwm)

Solo che oggi sono a casa dei miei, dove ho un secondo PC con un Ryzen 2600 e un alimentatore Seasonic da 550W 80+ gold (ottimo ma sempre 550W)

Secondo voi posso installarla, senza occare, per fare un unigine heaven e vedere come vanno le temperature?

Se notate nella foto hanno sostituito i dannatissimi pad "bianchi" e messo dei nuovi pad grigi...dovrebbero avere una conducibilità migliore! Sperem :sperem:

LkMsWb
12-04-2022, 14:40
Ma giusto per saperlo se vai sotto i 40 per un breve drop cosa succede? Vedi tearing?

Sul freesync premium originale vai di multipli (es. se il monitor fa 40-165, 12 fps li vedresti come 48 a schermo, con 4 refresh per frame); su G-Sync lascio la parola ad altri :D

Specifico Premium perché con i primi freesync sì, perdevi il sync. Avevano anche range freesync molto limitato, di solito 48-75Hz. I monitor con più range si son visti aggiungere la nuova modalità, visto che è gestita da driver di base.

lostsf
12-04-2022, 17:07
ciao sono un felice possessore di un Asus ROG Swift PG348Q unici difetti sono, la frequenza ha soli 100 mhz , e la poca compatibilita con i giochi , col 21.9

mikael84
12-04-2022, 20:46
Io l'ho provata parecchio quella demo e mi ha impressionato come riesca a gestire una città enorme come quella senza alcun problema.
Con 12900k e 3090 sta sempre sopra i 55fps, salvo ovviamente quando buffera le textures che va a zero.
E stiamo parlando di un livello caricato dentro un engine.
Se facessero la demo come si deve andrebbe mille volte meglio.
Comunque c'è poco da fare, gli alder lake nei giochi fanno paura accoppiati alle Ampere.

A me con la mia schedina, gira fluido 35-45fps, ma è molto cpu limitato (65-75%)
Riguardo gli alder vero, ma anche AMD ha risposto bene, anzi benissimo, bisogna ammetterlo.
Piccolo OT
https://www.techpowerup.com/review/amd-ryzen-7-5800x3d/17.html

Incredibile quanto possa essere limitato FC6.

I
Ogni giorno confermo che è una delle migliori tecnologie mai inventate. Dopo gli ssd :)

Concordo appieno.

bronzodiriace
12-04-2022, 20:51
ciao sono un felice possessore di un Asus ROG Swift PG348Q unici difetti sono, la frequenza ha soli 100 mhz , e la poca compatibilita con i giochi , col 21.9Il problema., anche del mio precedente predator, sono i pannelli. Ips, va, mva, TN, è l'uniformità del pannello a schermata nera. Mi gira spendere 1200 euro di pannello 4k gsync e trovarsi un monitor che sembra la carica dei 101.
Ci vuole molta fortuna nella lotteria monitor

Inviato dal mio MAR-LX1A utilizzando Tapatalk

gaevulk
12-04-2022, 21:17
Non so come sia il gsync nativo,ma io mi trovo alla grande con i miei 3 monitor e gsync compatibile.

Gigibian
12-04-2022, 23:15
Che ne dite delle temp della 3080 TI in firma?

https://i.ibb.co/87cQvC1/TEMP-3080-TI.png (https://ibb.co/87cQvC1)

Le memorie mi sembrano ottime, 78 gradi, con BIOS OC, tutto @def

4 ore di test

Cutter90
13-04-2022, 06:55
Ma scusate, tanto per sapere cosa vi fa dire che il "gsync compatibile è peggio del gsync nativo"? No perchè sulla carta sono esattamente la stessa cosa eh. Infatti io ho provato e giocato tantissimi giochi sul c9 (gsync compatibile). Mai un problema o un inciampo. Cioè, come fa ad essere "Meglio" il nativo?
Non è per far polemica, è proprio che voglio capire in cosa potrebbe essere meglio, dato che il compatibile funziona uguale....

sertopica
13-04-2022, 07:44
Ma scusate, tanto per sapere cosa vi fa dire che il "gsync compatibile è peggio del gsync nativo"? No perchè sulla carta sono esattamente la stessa cosa eh. Infatti io ho provato e giocato tantissimi giochi sul c9 (gsync compatibile). Mai un problema o un inciampo. Cioè, come fa ad essere "Meglio" il nativo?
Non è per far polemica, è proprio che voglio capire in cosa potrebbe essere meglio, dato che il compatibile funziona uguale....

Marketing? Capisco all'inizio quando c'erano ancora un paio di problemi ma ora va tutto liscio.

StrixyRoG
13-04-2022, 07:54
Ma scusate, tanto per sapere cosa vi fa dire che il "gsync compatibile è peggio del gsync nativo"? No perchè sulla carta sono esattamente la stessa cosa eh. Infatti io ho provato e giocato tantissimi giochi sul c9 (gsync compatibile). Mai un problema o un inciampo. Cioè, come fa ad essere "Meglio" il nativo?
Non è per far polemica, è proprio che voglio capire in cosa potrebbe essere meglio, dato che il compatibile funziona uguale....

Intanto uno funziona via software, l'altro con un modulo hardware (e non è cosa da poco), ed in rete c'è una tabella che mostra su cosa va a lavorare in più quello hardware. Poi queste non sono cose che puoi valutare per sentito dire, devi aver provato entrambi, magari con lo stesso gioco e nello stesso momento, cosa che per esempio ho potuto fare io. Poi non è che uno debba per forza comprarsi il monitor con il modulo hardware, soprattutto se si trova bene con quello che ha, ma le differenze ci sono.

Thunder-74
13-04-2022, 07:57
Ma scusate, tanto per sapere cosa vi fa dire che il "gsync compatibile è peggio del gsync nativo"? No perchè sulla carta sono esattamente la stessa cosa eh. Infatti io ho provato e giocato tantissimi giochi sul c9 (gsync compatibile). Mai un problema o un inciampo. Cioè, come fa ad essere "Meglio" il nativo?
Non è per far polemica, è proprio che voglio capire in cosa potrebbe essere meglio, dato che il compatibile funziona uguale....

Ti rispondo in base alle ricerche che ho fatto in merito al mio dubbio se prendere un LG38 21:9 Gsync compatibile o l'Alienware 38 che ho attualmente con modulo Gsync Ultimate, che montano oltretutto lo stesso pannello.
Non ho mai avuto un modello compatibile e prima di questo ne avevo uno con modulo, quindi ho prima di tutto fatto una ricerca in base alle esperienze di vari utenti. Ho trovato persone che hanno avuto entrambi i monitor, confermandomi che l'Alienware era molto più fluido. Anche qui nel forum, persone che hanno TV compatibili, mi hanno detto che il Gsync con modulo è altra cosa. Tecnicamente posso dirti che il Gsync nativo (ultimate), permette di avere la variazione della freq. su tutto l'intervallo della freq. nel mio caso da 1 a 144hz, mentre il G-Sync compatibile ha un range che va dai 40hz fino al suo max. Inoltre ha l'overdrive variabile su tutto il range di freq., cosa che il compatibile non ha, ovvero viene ridotto l'effetto ghost, utile su pannelli Fast IPS.
Sempre cercando nel web, mi sono imbattuto in molte persone che affermavano che non sempre il Gsync compatibile andava bene.
Certo poi, è facile pensare che un chip dedicato a sincronizzare gli fps con la GPU, possa essere più efficace di un monitor che ne è privo.
Dopo questi approfondimenti ho optato per il modello con modulo, soprattutto perchè, come scrivevo, venivo da un modello con gsync e il timore era di poter avere un'esperienza meno appagante.

Chiudo tutto il discorso come a volte ho percepito dalle recensioni:

il modulo è garanzia di un'esperienza perfetta indipendentemente dal modello del monitor, la compatibilità lascia un margine di incertezza sull'esperienza stessa, che può variare in base al modello del monitor.

kiwivda
13-04-2022, 08:01
Ma scusate, tanto per sapere cosa vi fa dire che il "gsync compatibile è peggio del gsync nativo"? No perchè sulla carta sono esattamente la stessa cosa eh. Infatti io ho provato e giocato tantissimi giochi sul c9 (gsync compatibile). Mai un problema o un inciampo. Cioè, come fa ad essere "Meglio" il nativo?
Non è per far polemica, è proprio che voglio capire in cosa potrebbe essere meglio, dato che il compatibile funziona uguale....

Guarda ho sia un monito nativo con modulo hardware che uno senza, non cambia nulla, anzi siccome il monitor nuovo GP950 è più recente del vecchio XL2420G, il range di frequenze è migliore nel nuovo che è solo compatibile.
Nessuno dei due monitor ha tearing e fanno le stesse cose, solo il vecchio in 1800p il nuovo in 4k e anche in HDR.

Poi sulla carta il vecchio ha un range di sincronia da 1-144hz il nuovo da 48 a 144hz, ma sinceramente chi gioca a meno di 48 hz? E comunque anche sopra i 150 fps con il nuovo in modalità oc a 165HZ in 4k non vedo tearing, quindi... e in più hai anche il freesync con le AMD.

Ero fissato anche io con sta cosa del gsync nativo, meno male che non ho dato retta alla scimmia.

Thunder-74
13-04-2022, 08:10
Guarda ho sia un monito nativo con modulo hardware che uno senza, non cambia nulla, anzi siccome il monitor nuovo GP950 è più recente del vecchio XL2420G, il range di frequenze è migliore nel nuovo che è solo compatibile.
Nessuno dei due monitor ha tearing e fanno le stesse cose, solo il vecchio in 1800p il nuovo in 4k e anche in HDR.

Poi sulla carta il vecchio ha un range di sincronia da 1-144hz il nuovo da 48 a 144hz, ma sinceramente chi gioca a meno di 48 hz? E comunque anche sopra i 150 fps con il nuovo in modalità oc a 165HZ in 4k non vedo tearing, quindi... e in più hai anche il freesync con le AMD.

Ero fissato anche io con sta cosa del gsync nativo, meno male che non ho dato retta alla scimmia.


Il gsync ultimate è compatibile anche con AMD ;)


Inviato dal mio iPhone X utilizzando Tapatalk

Cutter90
13-04-2022, 08:22
Ti rispondo in base alle ricerche che ho fatto in merito al mio dubbio se prendere un LG38 21:9 Gsync compatibile o l'Alienware 38 che ho attualmente con modulo Gsync Ultimate, che montano oltretutto lo stesso pannello.
Non ho mai avuto un modello compatibile e prima di questo ne avevo uno con modulo, quindi ho prima di tutto fatto una ricerca in base alle esperienze di vari utenti. Ho trovato persone che hanno avuto entrambi i monitor, confermandomi che l'Alienware era molto più fluido. Anche qui nel forum, persone che hanno TV compatibili, mi hanno detto che il Gsync con modulo è altra cosa. Tecnicamente posso dirti che il Gsync nativo (ultimate), permette di avere la variazione della freq. su tutto l'intervallo della freq. nel mio caso da 1 a 144hz, mentre il G-Sync compatibile ha un range che va dai 40hz fino al suo max. Inoltre ha l'overdrive variabile su tutto il range di freq., cosa che il compatibile non ha, ovvero viene ridotto l'effetto ghost, utile su pannelli Fast IPS.
Sempre cercando nel web, mi sono imbattuto in molte persone che affermavano che non sempre il Gsync compatibile andava bene.
Certo poi, è facile pensare che un chip dedicato a sincronizzare gli fps con la GPU, possa essere più efficace di un monitor che ne è privo.
Dopo questi approfondimenti ho optato per il modello con modulo, soprattutto perchè, come scrivevo, venivo da un modello con gsync e il timore era di poter avere un'esperienza meno appagante.

Chiudo tutto il discorso come a volte ho percepito dalle recensioni:

il modulo è garanzia di un'esperienza perfetta indipendentemente dal modello del monitor, la compatibilità lascia un margine di incertezza sull'esperienza stessa, che può variare in base al modello del monitor.

Però bisogna fare attenzione quando si valuta il gsync su pannelli diversi. UN oled come il modo di mettere a video i frame diverso rispetto a un ips ad esempio. Secondo me in molti non hanno preso in considerazione che i frame vengono messi a video in modo diverso in base alle tecnologie dei pannelli stessi. Ad esempio nell'oled i frame e le immagini non lasciano scie tra un frame e l'altro (le immagini si spengono e si accendono istantaneamente, senza residui), mentre ad esempio qualsiasi led si (quando si passa da un frame all'altro resta "acceso" il frame vecchio per qualche lasso di tempo). Secondo me, al di là di range più o meno elevati (giocare a meno di 40 fps in un tv 4k non ha molto senso) dati dall'ultimate, il funzionamento è identico tra il compatibile e il nativo.
E io non ho mai avuto 1 singolo gioco dei tantissimi provati, che avesse un problema con il gsyc compatibile sul mio tv....

frafelix
13-04-2022, 08:25
La teoria e' che non dipenda tanto dalla CPU quanto dalla bandwidth offerta dalle DDR5 che in questo caso particolare e' fondamentale, sempre ricordando che DirectStorage andra' proprio ad alleggerire la CPU dai calcoli relativi allo streaming. In ogni caso ci sono due demo compilate in giro, una che ancora contiene tutti i tools di debugging che girano in background togliendo cicli di clock al processore, ed una versione "consumer" che pesa molto meno sul processore e offre prestazioni piu' stabili. Credo sia presto per parlare di una preponderanza del processore sulla GPU, l'UE5 mettera' comunque alla prova tutte le componenti di sistema. Inoltre a questa tech demo mancano tutte quelle ottimizzazioni e tweaks che un gioco normalmente include per poter girare meglio. :)

Qui la versione da scaricare liscia senza debugging in background e con DLSS 2.3.1 incluso, che naturalmente puo' essere sostituito da una versione piu' recente: https://1fichier.com/?gxalb5wcz5z73wv5t5tf

Si puo' switchare da TSR a DLSS premendo sulla tastiera 1, 2, 3 o 4
1. TSR
2. DLSS Performance
3. DLSS Balanced
4. DLSS Quality.

Il DLSS Quality offre prestazioni di gran lunga superiori rispetto al TSR, mi chiedo se in qualche modo non ne risenta anche qualche effetto visto che si fanno circa 10 fps in piu' a parita' di settings.

A me con l'impostazione 4 gira tra i 54 e i 65 fps, ma ho micro scatti ogni volta che giro la visuale da fermo, anche se gli fps sono sempre regolari.
Avete provato volando a vedere gli interni illuminati dei palazzi?

FrancoBit
13-04-2022, 08:37
Ma scusate, tanto per sapere cosa vi fa dire che il "gsync compatibile è peggio del gsync nativo"? No perchè sulla carta sono esattamente la stessa cosa eh. Infatti io ho provato e giocato tantissimi giochi sul c9 (gsync compatibile). Mai un problema o un inciampo. Cioè, come fa ad essere "Meglio" il nativo?
Non è per far polemica, è proprio che voglio capire in cosa potrebbe essere meglio, dato che il compatibile funziona uguale....

Io ho avuto un nativo 34" 3440x1440 AOC per 2 anni, poi a luglio scorso son passato a un compatibile (in firma). Personalmente dal punto di vista di fluidità percepita non ho notato differenze. Il nativo era un VA, quello attuale un IPS. Va però considerato che se "spinto" da abbastanza potenza, nel mio caso una 3080, si viaggia sempre a un framerate tale, credo, da poter compensare le differenze, che comunque a livello hardware ci sono. Altro aspetto fondamentale è la soggettività nel percepire certi dettagli (appunto la fluidità secondo me), in quanto ci sono gli "occhi di lince" e i non, io appartengo ai secondi (ci vedo eh, ma non 10/10 lol).

sertopica
13-04-2022, 08:48
Chiaro che il modulo hw dia piu' garanzie e offra un paio di vantaggi in piu', ma nessuno come gia' detto si compra un monitor per giocare da 1 a 40 fps viste le schede che poi accompagnano il monitor stesso. :D

Se uno fa un po' di ricerca si compra un ottimo monitor gsynch compatibile e si risparmia il dazio ad nvidia. Sul mio cx ad esempio ho avuto 0 problemi, ma e' anche un oled e funziona diversamente rispetto ad un IPS.

A me con l'impostazione 4 gira tra i 54 e i 65 fps, ma ho micro scatti ogni volta che giro la visuale da fermo, anche se gli fps sono sempre regolari.
Avete provato volando a vedere gli interni illuminati dei palazzi?

Eh, succede spesso che abbia sti scatti. Solitamente dopo alcune run vengono compilati gli shaders e scatta molto meno. Il fenomeno pero' non scompare del tutto.

XEV
13-04-2022, 08:57
Ti rispondo in base alle ricerche che ho fatto in merito al mio dubbio se prendere un LG38 21:9 Gsync compatibile o l'Alienware 38 che ho attualmente con modulo Gsync Ultimate, che montano oltretutto lo stesso pannello.
Non ho mai avuto un modello compatibile e prima di questo ne avevo uno con modulo, quindi ho prima di tutto fatto una ricerca in base alle esperienze di vari utenti. Ho trovato persone che hanno avuto entrambi i monitor, confermandomi che l'Alienware era molto più fluido. Anche qui nel forum, persone che hanno TV compatibili, mi hanno detto che il Gsync con modulo è altra cosa. Tecnicamente posso dirti che il Gsync nativo (ultimate), permette di avere la variazione della freq. su tutto l'intervallo della freq. nel mio caso da 1 a 144hz, mentre il G-Sync compatibile ha un range che va dai 40hz fino al suo max. Inoltre ha l'overdrive variabile su tutto il range di freq., cosa che il compatibile non ha, ovvero viene ridotto l'effetto ghost, utile su pannelli Fast IPS.
Sempre cercando nel web, mi sono imbattuto in molte persone che affermavano che non sempre il Gsync compatibile andava bene.
Certo poi, è facile pensare che un chip dedicato a sincronizzare gli fps con la GPU, possa essere più efficace di un monitor che ne è privo.
Dopo questi approfondimenti ho optato per il modello con modulo, soprattutto perchè, come scrivevo, venivo da un modello con gsync e il timore era di poter avere un'esperienza meno appagante.

Chiudo tutto il discorso come a volte ho percepito dalle recensioni:

il modulo è garanzia di un'esperienza perfetta indipendentemente dal modello del monitor, la compatibilità lascia un margine di incertezza sull'esperienza stessa, che può variare in base al modello del monitor.

azz questo non lo sapevo, buono a sapersi :oink:

Thunder-74
13-04-2022, 08:58
Però bisogna fare attenzione quando si valuta il gsync su pannelli diversi. UN oled come il modo di mettere a video i frame diverso rispetto a un ips ad esempio. Secondo me in molti non hanno preso in considerazione che i frame vengono messi a video in modo diverso in base alle tecnologie dei pannelli stessi. Ad esempio nell'oled i frame e le immagini non lasciano scie tra un frame e l'altro (le immagini si spengono e si accendono istantaneamente, senza residui), mentre ad esempio qualsiasi led si (quando si passa da un frame all'altro resta "acceso" il frame vecchio per qualche lasso di tempo). Secondo me, al di là di range più o meno elevati (giocare a meno di 40 fps in un tv 4k non ha molto senso) dati dall'ultimate, il funzionamento è identico tra il compatibile e il nativo.
E io non ho mai avuto 1 singolo gioco dei tantissimi provati, che avesse un problema con il gsyc compatibile sul mio tv....


Ovvio che la scelta che uno fa deve essere ponderata in base ai modelli che prede di riferimento per l acquisto. Io ero indirizzato su un 38 21:9. Comunque qui ci sono utenti che affiancando tv oled compatibile e monitor ips con modulo , hanno notato differenze.


Inviato dal mio iPhone X utilizzando Tapatalk

Cutter90
13-04-2022, 09:33
Ovvio che la scelta che uno fa deve essere ponderata in base ai modelli che prede di riferimento per l acquisto. Io ero indirizzato su un 38 21:9. Comunque qui ci sono utenti che affiancando tv oled compatibile e monitor ips con modulo , hanno notato differenze.


Inviato dal mio iPhone X utilizzando Tapatalk

Utenti che sicuramente non hanno, per l'appunto, messo nell'equazione i diversi tempi di risposta del pannello oled rispetto ad un ips. "confondendo" le differenze del gsync piuttosto che del pannello. Sono sicuro al 100%.
La prova definitiva sarebbe avere due pannelli con la stessa tecnologia uno compatibile e uno nativo.

StrixyRoG
13-04-2022, 09:40
Utenti che sicuramente non hanno, per l'appunto, messo nell'equazione i diversi tempi di risposta del pannello oled rispetto ad un ips. "confondendo" le differenze del gsync piuttosto che del pannello. Sono sicuro al 100%.
La prova definitiva sarebbe avere due pannelli con la stessa tecnologia uno compatibile e uno nativo.

Io, due VA, ed ho anche un OLED G-Sync, e per me la scelta rimane sempre il modulo hardware. Poi magari io lo posso notare più di altri, come chi vede anche la differenza di 10 fps a occhio nudo :D

Cutter90
13-04-2022, 10:10
Io, due VA, ed ho anche un OLED G-Sync, e per me la scelta rimane sempre il modulo hardware. Poi magari io lo posso notare più di altri, come chi vede anche la differenza di 10 fps a occhio nudo :D

Appunto. Rimane il modulo Hardware perchè il VA restituisce immagini più fluide e con più "scia" di suo rispetto all'oled. Togli il gsync in entrambi, blocca gli fps a 50 (ma anche a 60 per rispettare la frequenza dei pannelli) e poi dimmi dove vedi più fluida l'immagine. Sarà sul Va

Legolas84
13-04-2022, 10:22
A quanto ne sapevo gli OLED dovrebbero avere un tempo di risposta migliore degli LCD e soprattutto migliore dei VA che sono tra gli LCD più lenti.

Io sto tenendo d'occhio il nuovo LG 48GQ900 che dovrebbe essere il primo monitor gaming OLED.... sarebbe fantastico se uscisse anche in taglio 42"....

Thunder-74
13-04-2022, 10:29
Appunto. Rimane il modulo Hardware perchè il VA restituisce immagini più fluide e con più "scia" di suo rispetto all'oled. Togli il gsync in entrambi, blocca gli fps a 50 (ma anche a 60 per rispettare la frequenza dei pannelli) e poi dimmi dove vedi più fluida l'immagine. Sarà sul Va


Siamo ot , però ti ripeto. Ho sentito un utente aver preso il LG 38gn950 e averlo venduto dopo aver provato il Dell AW3821DW, proprio per il modulo e hanno lo stesso pannello LG.
Comunque di base rimane il fatto che se uno è appagato del proprio setup, basta e avanza :)


Inviato dal mio iPhone X utilizzando Tapatalk

Cutter90
13-04-2022, 11:00
A quanto ne sapevo gli OLED dovrebbero avere un tempo di risposta migliore degli LCD e soprattutto migliore dei VA che sono tra gli LCD più lenti.

Io sto tenendo d'occhio il nuovo LG 48GQ900 che dovrebbe essere il primo monitor gaming OLED.... sarebbe fantastico se uscisse anche in taglio 42"....

Infatti è porprio così. Ma l'effetto è "invertito" rispetto a come pensi tu. Il fatto che l'oled abbia il tempo di risposta istantaneo rennde le immagini meno fluide rispetto agli lcd in cui l'immagine "persiste" di più sullo schermo ;)

PS: quest'anno è uscito o sta per uscire il tv lg c2 da 42 pollici....

scorpion73
13-04-2022, 11:10
Però bisogna fare attenzione quando si valuta il gsync su pannelli diversi. UN oled come il modo di mettere a video i frame diverso rispetto a un ips ad esempio. Secondo me in molti non hanno preso in considerazione che i frame vengono messi a video in modo diverso in base alle tecnologie dei pannelli stessi. Ad esempio nell'oled i frame e le immagini non lasciano scie tra un frame e l'altro (le immagini si spengono e si accendono istantaneamente, senza residui), mentre ad esempio qualsiasi led si (quando si passa da un frame all'altro resta "acceso" il frame vecchio per qualche lasso di tempo). Secondo me, al di là di range più o meno elevati (giocare a meno di 40 fps in un tv 4k non ha molto senso) dati dall'ultimate, il funzionamento è identico tra il compatibile e il nativo.
E io non ho mai avuto 1 singolo gioco dei tantissimi provati, che avesse un problema con il gsyc compatibile sul mio tv....

Guarda io in linea generale condivido quello che dici, ho il Predator che è compatibile e ci gioco benissimo, però il limite dei 40 fps è troppo alto secondo me.
Il Gsync aiutava a mantenere una fluidità buona anche a bassi fps, se me lo limiti dai 40 in su (e alcuni anche a 48 arrivano) togli uno dei motivi per cui è nato alla fine (non l'unico sia chiaro).
E' questo secondo me l'unico limite "forte" del compatibile, che il nativo non ha.
Il resto è solo marketing, avendo un Gsync nativo e un Gsync compatibile lo vedo praticamente tutti i giorni.

scorpion73
13-04-2022, 11:11
Ma giusto per saperlo se vai sotto i 40 per un breve drop cosa succede? Vedi tearing?

Perde il sync e quindi vai come con un monitor senza tecnologie di questo tipo quando non abiliti il Vsync.

LkMsWb
13-04-2022, 11:16
Infatti è porprio così. Ma l'effetto è "invertito" rispetto a come pensi tu. Il fatto che l'oled abbia il tempo di risposta istantaneo rennde le immagini meno fluide rispetto agli lcd in cui l'immagine "persiste" di più sullo schermo ;)

Confermo, lo stesso valeva per i plasma di qualche anno fa, il cambio è veloce e quindi i frame, se non sono molti, si vedono "singolarmente" e danno l'impressione di scattare. La "scia" degli LCD è quasi come facesse un'interpolazione in questi casi.


Perde il sync e quindi vai come con un monitor senza tecnologie di questo tipo quando non abiliti il Vsync.

G-Sync Compatible e VRR non prevedono la moltiplicazione dei frame come il Freesync Premium? Dove se scendi sotto i 40 vedi un moltiplicatore di frame col monitor che rimane a sync? Es. 35 frame - monitor 70Hz, con 2 refresh ogni fps della scheda video?

LkMsWb
13-04-2022, 11:17
EDIT: Doppio

kiwivda
13-04-2022, 11:17
Guarda io in linea generale condivido quello che dici, ho il Predator che è compatibile e ci gioco benissimo, però il limite dei 40 fps è troppo alto secondo me.
Il Gsync aiutava a mantenere una fluidità buona anche a bassi fps, se me lo limiti dai 40 in su (e alcuni anche a 48 arrivano) togli uno dei motivi per cui è nato alla fine (non l'unico sia chiaro).
E' questo secondo me l'unico limite "forte" del compatibile, che il nativo non ha.
Il resto è solo marketing, avendo un Gsync nativo e un Gsync compatibile lo vedo praticamente tutti i giorni.

Mah io sono dell'idea che se ti puoi comprare un monitor con modulo hardware g-sync allora puoi sicuramente permetterti una gpu che ti permetta di giocare a più di 40 hz, diversamente hai fatto scelte opinabili. Pertanto il limite dei 40/48 hz è del tutto ininfluente, personalmente se mai dovessi trovarmi a giocare in quelle condizioni farei upgrade istantaneo della gpu.

Sempre imho, a me il G-Sync è sempre servito all'estremo opposto, ovvero per tenere in sync l'immagine ad alti refresh.


Ma giusto per saperlo se vai sotto i 40 per un breve drop cosa succede? Vedi tearing?

Dovresti vedere del tearing. Lo stuttering ed i micro scatti quelli nulla può nemmeno il G-Sync Ultimate.

scorpion73
13-04-2022, 11:22
Mah io sono dell'idea che se ti puoi comprare un monitor con modulo hardware g-sync allora puoi sicuramente permetterti una gpu che ti permetta di giocare a più di 40 hz, diversamente hai fatto scelte opinabili. Pertanto il limite dei 40/48 hz è del tutto ininfluente, personalmente se mai dovessi trovarmi a giocare in quelle condizioni farei upgrade istantaneo della gpu.

Sempre imho, a me il G-Sync è sempre servito all'estremo opposto, ovvero per tenere in sync l'immagine ad alti refresh.


Beh sai, dipende... con il Gsync ultimate sono d'accordo, col Gsync standard i costi erano alti ma comunque molto più accessibili dell'ultimate.
Adesso il Gsync standard non si trova più, è stato soppiantato quasi completamente dal compatibile, i cui prezzi però sono cresciuti e si pongono a metà strada fra il vecchio monitor senza nulla e il GSync...

gaevulk
13-04-2022, 11:32
Appena presa la 3080 manli,pagata 912 euro,non avevo voglia di spendere uno sproposito,anche perche' entro l'estate va a liquido :stordita:

Goofy Goober
13-04-2022, 12:29
Siete sicuri che il gsync hardware lavora da 1hz in su? Quindi potenzialmente copre anche le situazioni di gioco a 20fps?

Perchè io ho un Asus con Gsync hardware, non è recente, ma il mio gysnc smette di funzionare a 30fps, ossia se ho un calo a 25 si nota la transazione "scattosa" e il pannello ha anche una variazione di luminosità.

Prima che lo chiedate, FPS così bassi li ho in cities skylines ipermoddato (carica 40gb di ram per via degli asset extra).

Comunque avevo letto che attualmente tra le maggiori differenze in termini di funzionalità tra gsync hardware e software, c'è che quello hardware lavora con HDR attivo, il software non riesce. Non so se è vero, l'ho letto su review e sentito su youtube durante delle prove monitor.

Cutter90
13-04-2022, 12:35
Siete sicuri che il gsync hardware lavora da 1hz in su? Quindi potenzialmente copre anche le situazioni di gioco a 20fps?

Perchè io ho un Asus con Gsync hardware, non è recente, ma il mio gysnc smette di funzionare a 30fps, ossia se ho un calo a 25 si nota la transazione "scattosa" e il pannello ha anche una variazione di luminosità.

Prima che lo chiedate, FPS così bassi li ho in cities skylines ipermoddato (carica 40gb di ram per via degli asset extra).

Comunque avevo letto che attualmente tra le maggiori differenze in termini di funzionalità tra gsync hardware e software, c'è che quello hardware lavora con HDR attivo, il software non riesce. Non so se è vero, l'ho letto su review e sentito su youtube durante delle prove monitor.

No, non è vero. Il gsync compatibile lavora tranquillamente con HDR attivo. Non so dove hai letto sta fandonia :)

Il gsync ultimate dovrebbe lavorare da 1 HZ, si

Goofy Goober
13-04-2022, 12:47
No, non è vero. Il gsync compatibile lavora tranquillamente con HDR attivo. Non so dove hai letto sta fandonia :)

Il gsync ultimate dovrebbe lavorare da 1 HZ, si

Una review su hardware unboxed mi pare, l'ultima volta che l'ho sentito quando hanno fatto un raffronto tra monitor compatibile e ultimate.

Allora il mio Asus (PG278Q) non sta lavorando bene o ha una vecchia revisione di gsync hardware, dopotutto è del 2014.

StrixyRoG
13-04-2022, 12:51
https://i.postimg.cc/15890m5r/Nvidia-G-Sync-monitors.png

kiwivda
13-04-2022, 12:52
Una review su hardware unboxed mi pare, l'ultima volta che l'ho sentito quando hanno fatto un raffronto tra monitor compatibile e ultimate.

Allora il mio Asus (PG278Q) non sta lavorando bene o ha una vecchia revisione di gsync hardware, dopotutto è del 2014.

Posso confermarti che il monitor in firma lavora tranquillamente con HDR attivo e G-Sync compatibile contemporaneamente.

Cutter90
13-04-2022, 13:26
https://i.postimg.cc/15890m5r/Nvidia-G-Sync-monitors.png

Tabella che definire "truffladina" è dir poco :stordita:

bagnino89
13-04-2022, 13:41
https://i.postimg.cc/15890m5r/Nvidia-G-Sync-monitors.png

La differenza c'è, c'è poco da fare.

Cutter90
13-04-2022, 13:50
La differenza c'è, c'è poco da fare.

Ecco, per l'appunto. Perchè poi la gente ci casca come una pera cotta. qui abbiamo l esempio.
Lo sai vero che il 90% delle cose scritte nel "gsync ultimate" dipendono dal pannello e non dal fatto che questi ultimi abbiano il modulo gsync, vero? :rolleyes:

L'unica differenza VERA è che il gsync ultimate parte da 1 hz vs i 40-48 HZ del gsync compatibile. Tutto il resto con il gsync c'entra meno di zero.

Thunder-74
13-04-2022, 14:24
Ecco, per l'appunto. Perchè poi la gente ci casca come una pera cotta. qui abbiamo l esempio.
Lo sai vero che il 90% delle cose scritte nel "gsync ultimate" dipendono dal pannello e non dal fatto che questi ultimi abbiano il modulo gsync, vero? :rolleyes:

L'unica differenza VERA è che il gsync ultimate parte da 1 hz vs i 40-48 HZ del gsync compatibile. Tutto il resto con il gsync c'entra meno di zero.


No, anche il variable overdrive manca nel compatibile, oltre alla possibilità di monitorare l input lag delle periferiche nVidia Reflex. Inoltre non dimentichiamo che i monitor VRR devono passare per dei test condotti da nVidia e non tutti vengono certificati, o peggio, non tutti li passano allo stesso modo, perché viene considerato un certo range di funzionalità . Quindi ribadisco che se non si vuole optare per Il modulo che assicura l ovvia compatibilità perfetta, bisogna valutare caso per caso leggendo rece o sentendo chi ha già il prodotto.

Poi ragazzi chiudiamo, altrimenti sono volatili per diabetici per tutti .


Inviato dal mio iPhone X utilizzando Tapatalk

kiwivda
13-04-2022, 14:26
La differenza c'è, c'è poco da fare.

No dai ma davvero :doh:

Cioè:
Premium Experience:
+300 image quality test. (non vuol dire nulla, cos'è ci hanno guardato le foto del mare di er giacchetta? Se un monitor esce di fabbrica calibrato o con un delta error <1 puoi guardarci quello che ti pare sono tutti uguali)

Full Variable refresh rate range. ( ok questo si da 1 a 40/48 siete coperti, mi spiace che abbiate refresh del genere il problema non è il monitor)

Variable Overdrive (la frequenza di overdrive dipende dal pannello, il mio 27PG950 lo puoi impostare da 60 a 165 HZ in modo variabile ed è solo compatibile, inoltre il refresh varia durante il gioco in base alla velocità dei fotogrammi con tanto di OSD da monitor che ti fa vedere su schermo l'attuale velocità di refresh.)

Factory color calibrated (di nuovo non compete nVidia ma chi produce il pannello, esempio sempre il mio lo è di fabbrica ed ha la possibilità con software apposito e sonda di andare ancora più fine)

Ultra Low Motio Blur & Overclocking (quà la prima tecnologia è proprietaria nvidia e ce l'ho sul 1080p, mai usata perchè disintegra la luminosità del pannello, il PG950 non ha nessun algoritmo di ULMB non serve e per l'overcloking è nell'osd del pannello senza bisogno di nVidia.


Ultimate HDR
+1000 NITS brightness (è una cazzata iperbolica, non ci sono pannelli da 1000 nits)

Highest resolution + Highest Hz. (lo fanno tutti i monitor decenti)
Ultra low latency (è nei driver a meno che non vogliate usare il muose che misura la latenza connesso al monitor)
Multi Zone Backlight (è una caratteristica del monitor non del modulo G-Sync)
Wide color gamut (Proprio non gli compete, non è cosa di cui si occupa il G-Sync ed è parte della dotazione del pannello di ogni monitor che se ne fregia)

Advanced nVidia G-Sync Processor ( questo si, ce l'hanno solo i monitor e vi metto no dentro un bel chippetto da 400 bumbe per dire io ce l'ho).

Per altro la tabella adesso è questa:
https://i.imgur.com/5erZxf6.png

e lascia senza ombra di dubbio alcuno capire come siano solo vaccate di marketing.

Lifelike HRD Experience get down to stck to stole to bayside school! Oh YEAH! :sofico:


Forse 10 anni fa quando usci il G-Sync era una novità ed un esclusiva, ormai da quando le tecnologie di sync sono state sdoganate non vale più nulla.

Thunder-74
13-04-2022, 14:29
No dai ma davvero :doh:

Cioè:
Premium Experience:
+300 image quality test. (non vuol dire nulla, cos'è ci hanno guardato le foto del mare di er giacchetta? Se un monitor esce di fabbrica calibrato o con un delta error <1 puoi guardarci quello che ti pare sono tutti uguali)

Full Variable refresh rate range. ( ok questo si da 1 a 40/48 siete coperti, mi spiace che abbiate refresh del genere il problema non è il monitor)

Variable Overdrive (la frequenza di overdrive dipende dal pannello, il mio 27PG950 lo puoi impostare da 60 a 165 HZ in modo variabile ed è solo compatibile)

Factory color calibrated (di nuovo non compete nVidia ma chi produce il pannello, esempio sempre il mio lo è di fabbrica ed ha la possibilità con software apposito e sonda di andare ancora più fine)

Ultra Low Motio Blur & Overclocking (quà la prima tecnologia è proprietaria nvidia e ce l'ho sul 1080p, mai usata perchè disintegra la luminosità del pannello, il PG950 non ha nessun algoritmo di ULMB non serve e per l'overcloking è nell'osd del pannello senza bisogno di nVidia.


Ultimate HDR
+1000 NITS brightness (è una cazzata iperbolica, non ci sono pannelli da 1000 nits)

Highest resolution + Highest Hz. (lo fanno tutti i monitor decenti)
Ultra low latency (è nei driver a meno che non vogliate usare il muose che misura la latenza connesso al monitor)
Multi Zone Backlight (è una caratteristica del monitor non del modulo G-Sync)
Wide color gamut (Proprio non gli compete, non è cosa di cui si occupa il G-Sync ed è parte della dotazione del pannello di ogni monitor che se ne fregia)

Advanced nVidia G-Sync Processor ( questo si, ce l'hanno solo i monitor e vi metto no dentro un bel chippetto da 400 bumbe per dire io ce l'ho).

Per altro la tabella adesso è questa:
https://i.imgur.com/5erZxf6.png

e lascia senza ombra di dubbio alcuno capire come siano solo vaccate di marketing.

Lifelike HRD Experience get down to stck to stole to bayside school! Oh YEAH! :sofico:


Forse 10 anni fa quando usci il G-Sync era una novità ed un esclusiva, ormai da quando le tecnologie di sync sono state sdoganate non vale più nulla.


È sempre legato all uso del gsync , non alla qualità generale dello schermo.
Sono i test che fanno . Per essere compatibile è sufficiente il primo step, i successivi non sono considerati fondamentali per essere gsync compatibile , per questo dico che. In tutti I compatibili posso comportarsi allo stesso modo.


Inviato dal mio iPhone X utilizzando Tapatalk

Cutter90
13-04-2022, 14:54
No dai ma davvero :doh:

Cioè:
Premium Experience:
+300 image quality test. (non vuol dire nulla, cos'è ci hanno guardato le foto del mare di er giacchetta? Se un monitor esce di fabbrica calibrato o con un delta error <1 puoi guardarci quello che ti pare sono tutti uguali)

Full Variable refresh rate range. ( ok questo si da 1 a 40/48 siete coperti, mi spiace che abbiate refresh del genere il problema non è il monitor)

Variable Overdrive (la frequenza di overdrive dipende dal pannello, il mio 27PG950 lo puoi impostare da 60 a 165 HZ in modo variabile ed è solo compatibile, inoltre il refresh varia durante il gioco in base alla velocità dei fotogrammi con tanto di OSD da monitor che ti fa vedere su schermo l'attuale velocità di refresh.)

Factory color calibrated (di nuovo non compete nVidia ma chi produce il pannello, esempio sempre il mio lo è di fabbrica ed ha la possibilità con software apposito e sonda di andare ancora più fine)

Ultra Low Motio Blur & Overclocking (quà la prima tecnologia è proprietaria nvidia e ce l'ho sul 1080p, mai usata perchè disintegra la luminosità del pannello, il PG950 non ha nessun algoritmo di ULMB non serve e per l'overcloking è nell'osd del pannello senza bisogno di nVidia.


Ultimate HDR
+1000 NITS brightness (è una cazzata iperbolica, non ci sono pannelli da 1000 nits)

Highest resolution + Highest Hz. (lo fanno tutti i monitor decenti)
Ultra low latency (è nei driver a meno che non vogliate usare il muose che misura la latenza connesso al monitor)
Multi Zone Backlight (è una caratteristica del monitor non del modulo G-Sync)
Wide color gamut (Proprio non gli compete, non è cosa di cui si occupa il G-Sync ed è parte della dotazione del pannello di ogni monitor che se ne fregia)

Advanced nVidia G-Sync Processor ( questo si, ce l'hanno solo i monitor e vi metto no dentro un bel chippetto da 400 bumbe per dire io ce l'ho).

Per altro la tabella adesso è questa:
https://i.imgur.com/5erZxf6.png

e lascia senza ombra di dubbio alcuno capire come siano solo vaccate di marketing.

Lifelike HRD Experience get down to stck to stole to bayside school! Oh YEAH! :sofico:


Forse 10 anni fa quando usci il G-Sync era una novità ed un esclusiva, ormai da quando le tecnologie di sync sono state sdoganate non vale più nulla.

Ecco, hai spiegato nello specifico quello che intendevo io. Solo un appunto: i pannelli da 1000 + nits in hdr ci sono. Gli lg nuovi di quest'anno ci arrivano, ma anche i qled degli anni scorsi li superano abbondantemente. Il mio c9 ad esempio è intorno ai 700-800 nits di picco in hdr. MA ancora una volta con il gsync non conta assolutamente nulla.

Goofy Goober
13-04-2022, 15:25
Posso confermarti che il monitor in firma lavora tranquillamente con HDR attivo e G-Sync compatibile contemporaneamente.

Grazie, buono a sapersi per quando dovrò prendere un monitor diverso...

Penso sarà il Gigabyte M32Q perchè mi serve abbia un hub usbC per collegarci anche l'Alienware X17 R2, sulla scrivania purtroppo non ci stanno i 21:9 senno uno lo provavo.

Legolas84
13-04-2022, 16:02
Infatti è porprio così. Ma l'effetto è "invertito" rispetto a come pensi tu. Il fatto che l'oled abbia il tempo di risposta istantaneo rennde le immagini meno fluide rispetto agli lcd in cui l'immagine "persiste" di più sullo schermo ;)

PS: quest'anno è uscito o sta per uscire il tv lg c2 da 42 pollici....

Bo sono curioso di provare, ho avuto per un pò un oled lg 55C7 e giocandoci con la switch mi sono trovato molto bene... certo non ho fatto confronti con il mio PG348Q con G-Sync....

Il fatto è che tutti i monitor LCD hanno un mare di difetti, il mio PG348Q è uno dei più decenti e ho deciso di cambiarlo solo quando uscirà un monitor OLED degno di questo nome. Mi informerò anche su questo C2 42 pollici, quello che cerco è mantenere la compatibilità con il g-sync (con il modulo sarebbe l'ideale), refresh a 120hz. Poi io lo uso anche per lavorare, quindi ho un pò di paure per lo stampaggio....

kiwivda
13-04-2022, 16:02
Ecco, hai spiegato nello specifico quello che intendevo io. Solo un appunto: i pannelli da 1000 + nits in hdr ci sono. Gli lg nuovi di quest'anno ci arrivano, ma anche i qled degli anni scorsi li superano abbondantemente. Il mio c9 ad esempio è intorno ai 700-800 nits di picco in hdr. MA ancora una volta con il gsync non conta assolutamente nulla.

Si è vero io non tengo mai conto delle TV. In quel caso ci sono.

razor820
13-04-2022, 16:04
stavo vedendo la demo UE5 di Matrix testato dal solito sito russo.
Praticamente a tutte le res si è cappati dalla CPU. Poi magari verrà ottimizzato a dovere.
impressionate vedere come un i5 12600k dia la paga a tutte le CPU precedenti. Gli FPS minimi che sono maggiori di quelli massimi di un 11900k
Qui una 3080ti in FHD

https://i.imgur.com/59ChlET.png

Oggi la scarico pure io..
Cmq c'è qualcosa che non quadra. Sembra che tutte le cpu amd siano incompatibili o sfruttati al 30%.. Non si puo vedere che il 10700 faccia cosi tanti fps in più rispetto ad un 5900x.. Non ho mai visto qualcosa del genere nemmeno su giochi che ne fanno 400fps. Parliamo media di 50fps....

FrancoBit
13-04-2022, 16:10
Oggi la scarico pure io..
Cmq c'è qualcosa che non quadra. Sembra che tutte le cpu amd siano incompatibili o sfruttati al 30%.. Non si puo vedere che il 10700 faccia cosi tanti fps in più rispetto ad un 5900x.. Non ho mai visto qualcosa del genere nemmeno su giochi che ne fanno 400fps. Parliamo media di 50fps....

No dai non dire così che ieri ho sbocciato il Ferrari brut quando ho visto che ero a podio :oink:

Thunder-74
13-04-2022, 16:32
No dai non dire così che ieri ho sbocciato il Ferrari brut quando ho visto che ero a podio :oink:


Ahahahhah


Inviato dal mio iPad utilizzando Tapatalk

bagnino89
13-04-2022, 16:38
No, anche il variable overdrive manca nel compatibile, oltre alla possibilità di monitorare l input lag delle periferiche nVidia Reflex. Inoltre non dimentichiamo che i monitor VRR devono passare per dei test condotti da nVidia e non tutti vengono certificati, o peggio, non tutti li passano allo stesso modo, perché viene considerato un certo range di funzionalità . Quindi ribadisco che se non si vuole optare per Il modulo che assicura l ovvia compatibilità perfetta, bisogna valutare caso per caso leggendo rece o sentendo chi ha già il prodotto.

Poi ragazzi chiudiamo, altrimenti sono volatili per diabetici per tutti .


Inviato dal mio iPhone X utilizzando Tapatalk

Appunto, hai detto niente... Comunque sì, mi taccio.

Oggi la scarico pure io..
Cmq c'è qualcosa che non quadra. Sembra che tutte le cpu amd siano incompatibili o sfruttati al 30%.. Non si puo vedere che il 10700 faccia cosi tanti fps in più rispetto ad un 5900x.. Non ho mai visto qualcosa del genere nemmeno su giochi che ne fanno 400fps. Parliamo media di 50fps....

Molto dipende da come sono configurati i BIOS, alcuni di default fanno andare le CPU Intel a 1000 mila GHz, chiaro che emergano differenze...

F4610T.
13-04-2022, 17:05
Appunto, hai detto niente... Comunque sì, mi taccio.



Molto dipende da come sono configurati i BIOS, alcuni di default fanno andare le CPU Intel a 1000 mila GHz, chiaro che emergano differenze...

Scusate ma dove è il download? io trovo solo quello di ps e xbox

herasymcuk
13-04-2022, 17:18
No dai ma davvero :doh:



Ultimate HDR
+1000 NITS brightness (è una cazzata iperbolica, non ci sono pannelli da 1000 nits)



ROG Swift PG32UQX
ROG SWIFT PG32UQX NVIDIA® G-SYNC® Ultimate Gaming Monitor - 32 pollici 4K UHD (3840 x 2160), 144 Hz, IPS, mini LED, dimming locale, tecnologia Quantum Dot, DisplayHDR™ 1400
La retroilluminazione Full Array Local Dimming (FALD) offre 1152 zone LED indipendenti e una luminosità di picco di 1400 nits con certificazione DisplayHDR 1400
:D :D :D :D :D :D

Wolf91
13-04-2022, 17:33
Il mio in firma è HDR 1000 144hz G-Sync compatibile,lavorano senza problemi

Eddie666
13-04-2022, 18:19
La teoria e' che non dipenda tanto dalla CPU quanto dalla bandwidth offerta dalle DDR5 che in questo caso particolare e' fondamentale, sempre ricordando che DirectStorage andra' proprio ad alleggerire la CPU dai calcoli relativi allo streaming. In ogni caso ci sono due demo compilate in giro, una che ancora contiene tutti i tools di debugging che girano in background togliendo cicli di clock al processore, ed una versione "consumer" che pesa molto meno sul processore e offre prestazioni piu' stabili. Credo sia presto per parlare di una preponderanza del processore sulla GPU, l'UE5 mettera' comunque alla prova tutte le componenti di sistema. Inoltre a questa tech demo mancano tutte quelle ottimizzazioni e tweaks che un gioco normalmente include per poter girare meglio. :)

Qui la versione da scaricare liscia senza debugging in background e con DLSS 2.3.1 incluso, che naturalmente puo' essere sostituito da una versione piu' recente: https://1fichier.com/?gxalb5wcz5z73wv5t5tf

Si puo' switchare da TSR a DLSS premendo sulla tastiera 1, 2, 3 o 4
1. TSR
2. DLSS Performance
3. DLSS Balanced
4. DLSS Quality.

Il DLSS Quality offre prestazioni di gran lunga superiori rispetto al TSR, mi chiedo se in qualche modo non ne risenta anche qualche effetto visto che si fanno circa 10 fps in piu' a parita' di settings.

Grazie per il link! provata la demo e devo dire che gira decisamente bene, considerando appunto che si tratta di un livello caricato in un engine: con la mia config (intel 11700, 32gb ddr 4000mhz e rtx 3080) e il dlss settato su quality gira intorno ai 50fps, con la scheda video che non viene neanche sfruttata al 100%, mentre di contro la cpu lavora parecchio:

https://i.ibb.co/VVtdrcs/MATRIX.jpg (https://ibb.co/VVtdrcs)

kiwivda
14-04-2022, 10:57
ROG Swift PG32UQX
ROG SWIFT PG32UQX NVIDIA® G-SYNC® Ultimate Gaming Monitor - 32 pollici 4K UHD (3840 x 2160), 144 Hz, IPS, mini LED, dimming locale, tecnologia Quantum Dot, DisplayHDR™ 1400
La retroilluminazione Full Array Local Dimming (FALD) offre 1152 zone LED indipendenti e una luminosità di picco di 1400 nits con certificazione DisplayHDR 1400
:D :D :D :D :D :D

Bello come monitor lo avevo visto, ma è troppo grande, costa un botto e ha un pannello IPS ormai superato in refresh e chiarezza già dal modello precedente del mio che comunque centrava i 1040 Nits in HDR :D .

Il mio in firma è HDR 1000 144hz G-Sync compatibile,lavorano senza problemi

Bellissimo ma la dimensione monitor per me fa fatica a stare nella stessa frase oltre i 27. E poi con una TV oled ormai si spende la metà o se proprio le nuove SONY master series.

Sniper88
14-04-2022, 12:58
Il mio in firma è HDR 1000 144hz G-Sync compatibile,lavorano senza problemi

Stupendo, Wolf. :O Se uno ha la possibilità di avere una postazione tale da godersi questo 42.5", gode come un riccio.

Wolf91
14-04-2022, 15:10
Stupendo, Wolf. :O Se uno ha la possibilità di avere una postazione tale da godersi questo 42.5", gode come un riccio.

Sinceramente,è stato l'acquisto in ambito pc,che mi sono goduto di più

Prima (2 anni fa)avevo un Asus MG279Q 1440p/144hz che sto usando sul Pc secondario,ora mi sembra un francobollo

Magistercris
15-04-2022, 07:07
Grazie per il link! provata la demo e devo dire che gira decisamente bene, considerando appunto che si tratta di un livello caricato in un engine: con la mia config (intel 11700, 32gb ddr 4000mhz e rtx 3080) e il dlss settato su quality gira intorno ai 50fps, con la scheda video che non viene neanche sfruttata al 100%, mentre di contro la cpu lavora parecchio:

https://i.ibb.co/VVtdrcs/MATRIX.jpg (https://ibb.co/VVtdrcs)

Purtroppo hanno rimosso il link....porca trota...sto cercando, ma non ne ho ancora trovato uno alternativo.
Se qualcuno lo scoprisse, se potesse indicarlo, grazieeeee!!!

Sniper88
15-04-2022, 09:27
Sinceramente,è stato l'acquisto in ambito pc,che mi sono goduto di più

Prima (2 anni fa)avevo un Asus MG279Q 1440p/144hz che sto usando sul Pc secondario,ora mi sembra un francobollo

Eh... immagino! :D

razor820
15-04-2022, 16:35
Ultimamente mi sta capitando che con ogni gioco con motore grafico Unreal engine, mi crasha sempre al primo avvio dopo 3 minuti circa. Dopo nessun problema...

Thunder-74
15-04-2022, 17:13
Ultimamente mi sta capitando che con ogni gioco con motore grafico Unreal engine, mi crasha sempre al primo avvio dopo 3 minuti circa. Dopo nessun problema...


Prova ad avviare senza afterburner aperto, se lo usi.


Inviato dal mio iPhone X utilizzando Tapatalk

razor820
15-04-2022, 18:33
Prova ad avviare senza afterburner aperto, se lo usi.


Inviato dal mio iPhone X utilizzando Tapatalk


Nada. Appena provato. Niente

terranux
16-04-2022, 10:14
Ultimamente mi sta capitando che con ogni gioco con motore grafico Unreal engine, mi crasha sempre al primo avvio dopo 3 minuti circa. Dopo nessun problema...prova ad abbassare il power limit

demonangel
16-04-2022, 10:19
Nada. Appena provato. Niente

Non basta impedire ad afterburner di avviarsi...l'overclock parte comunque...quindi devi ripristinare i valori di fabbrica.
Imposta il pc a default Cpu Gpu ram vram... la piattaforma è chiaramente instabile

razor820
16-04-2022, 10:39
Non basta impedire ad afterburner di avviarsi...l'overclock parte comunque...quindi devi ripristinare i valori di fabbrica.
Imposta il pc a default Cpu Gpu ram vram... la piattaforma è chiaramente instabile


Ma non è un problema di oc... Nessun problema con giochi che veramente stressano il pc ed in rtx. È proprio L unreal cess engine che non va così all&rsquo;improvviso. È solamente al primo avvio, come detto in precedenza. Tra L altro questo genere di giochi, pubg e company stanno al 80% di media uso gpu anche perché li ho limitati a 100fps

Thunder-74
16-04-2022, 10:42
Non basta impedire ad afterburner di avviarsi...l'overclock parte comunque...quindi devi ripristinare i valori di fabbrica.
Imposta il pc a default Cpu Gpu ram vram... la piattaforma è chiaramente instabile


Non tanto per l oc. Avevo notato che con afterburner aperto, unireal engine mi crashava. Parlo del software per far girare i progetti tipo il nuovo di Matrix. A volte AB fa a pugni con le dx12, se attivo a livello del kernel


Inviato dal mio iPad utilizzando Tapatalk

mikael84
16-04-2022, 12:26
Non tanto per l oc. Avevo notato che con afterburner aperto, unireal engine mi crashava. Parlo del software per far girare i progetti tipo il nuovo di Matrix. A volte AB fa a pugni con le dx12, se attivo a livello del kernel


Inviato dal mio iPad utilizzando Tapatalk

Si, basta avviarlo senza AB, poi lo si abilità a gioco avviato tranquillamente.:)

davide155
16-04-2022, 17:23
Non tanto per l oc. Avevo notato che con afterburner aperto, unireal engine mi crashava. Parlo del software per far girare i progetti tipo il nuovo di Matrix. A volte AB fa a pugni con le dx12, se attivo a livello del kernel


Inviato dal mio iPad utilizzando TapatalkA me l'ue5 mi crasha dopo poco con rivatuner attivo. Qualsiasi progetto apro con l'engine.
Se disattivo rivatuner invece va liscio come l'olio.
Razor potrebbe avere qualche servizio in bsckground che da noia a quell'engine.
Tipo con forza5 avevo continui crash all'avvio. Come disattivavo il servizio audio Nahimic scomparivano i crash....

Thunder-74
16-04-2022, 17:45
A me l'ue5 mi crasha dopo poco con rivatuner attivo. Qualsiasi progetto apro con l'engine.
Se disattivo rivatuner invece va liscio come l'olio.
Razor potrebbe avere qualche servizio in bsckground che da noia a quell'engine.
Tipo con forza5 avevo continui crash all'avvio. Come disattivavo il servizio audio Nahimic scomparivano i crash....


Esatto, stessa cosa che avviene a me. Ho synapse di Razer, ma non mi da problemi con nulla. Nahimic mi pare sia usato solo su mobo asus e so che da qualche problema.


Inviato dal mio iPad utilizzando Tapatalk

razor820
16-04-2022, 18:35
Ho chiuso synapse e non sto avendo più problemi. Adesso non vorrei che sia stato un aggiornamento di Windows che abbia fixato qualcosa


Edit ho parlato troppo presto :D
Due crash a ripetizione

Thunder-74
16-04-2022, 19:09
Ho chiuso synapse e non sto avendo più problemi. Adesso non vorrei che sia stato un aggiornamento di Windows che abbia fixato qualcosa


Edit ho parlato troppo presto :D
Due crash a ripetizione


Formattone e via ;)


Inviato dal mio iPhone X utilizzando Tapatalk

demonangel
17-04-2022, 06:58
Ma non è un problema di oc... Nessun problema con giochi che veramente stressano il pc ed in rtx. È proprio L unreal cess engine che non va così all&rsquo;improvviso. È solamente al primo avvio, come detto in precedenza. Tra L altro questo genere di giochi, pubg e company stanno al 80% di media uso gpu anche perché li ho limitati a 100fps

E mi ero perso solo al primo avvio

keyvan
17-04-2022, 09:44
Ragazzi mi succede a volte che lo schermo mentre gioco diventa per un paio di secondi nero, mi devo preoccupare?

Eddie666
17-04-2022, 10:05
una domanda circa l'overclock delle ram nella serie rtx 3000; se non ho capito male, essendo dotate di memorie ECC difficilmente si vedranno artefatti durante l'esecuzione di un bench, ma piuttosto alla fine si otterrà un risultato inferiore al precedente nel caso le memorie abbiano generato troppi errori, giusto?
anche se l'overclock di un componente dipende (appunto) da componente a componente, mediamente di quanto salgono le memorie? per il momento sto facendo dei test con lo slider di MSI afterburner impostato a +500 e non sembra avere problemi

demonangel
17-04-2022, 11:05
una domanda circa l'overclock delle ram nella serie rtx 3000; se non ho capito male, essendo dotate di memorie ECC difficilmente si vedranno artefatti durante l'esecuzione di un bench, ma piuttosto alla fine si otterrà un risultato inferiore al precedente nel caso le memorie abbiano generato troppi errori, giusto?
anche se l'overclock di un componente dipende (appunto) da componente a componente, mediamente di quanto salgono le memorie? per il momento sto facendo dei test con lo slider di MSI afterburner impostato a +500 e non sembra avere problemi

Nel mio caso ho notato che fino a +700 i punteggi aumentano....poi andando oltre si stabilizzano fino a raggiungere frequenze da crash. Ho settato quindi a +500 per tenermi ampi margini di sicurezza.

demonangel
17-04-2022, 11:09
Purtroppo hanno rimosso il link....porca trota...sto cercando, ma non ne ho ancora trovato uno alternativo.
Se qualcuno lo scoprisse, se potesse indicarlo, grazieeeee!!!

A questo link è scaricabile la versione Dlss

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12974550&postcount=437

Effettivamente è notevole. L'ho fatto partire senza toccare settaggi e sta intorno ai 60fps.
Camminata corsa e volo OK. La guida è veramente da vomito...bho saranno le telecamere

Dono89
17-04-2022, 11:25
una domanda circa l'overclock delle ram nella serie rtx 3000; se non ho capito male, essendo dotate di memorie ECC difficilmente si vedranno artefatti durante l'esecuzione di un bench, ma piuttosto alla fine si otterrà un risultato inferiore al precedente nel caso le memorie abbiano generato troppi errori, giusto?
anche se l'overclock di un componente dipende (appunto) da componente a componente, mediamente di quanto salgono le memorie? per il momento sto facendo dei test con lo slider di MSI afterburner impostato a +500 e non sembra avere problemi


Si, ma solo dalla 3070ti in su, la 70 e 60 hanno le g6 senza x e questo comportamento non si manifesta

(THE REAL) Neo
17-04-2022, 15:17
una domanda circa l'overclock delle ram nella serie rtx 3000; se non ho capito male, essendo dotate di memorie ECC difficilmente si vedranno artefatti durante l'esecuzione di un bench, ma piuttosto alla fine si otterrà un risultato inferiore al precedente nel caso le memorie abbiano generato troppi errori, giusto?

anche se l'overclock di un componente dipende (appunto) da componente a componente, mediamente di quanto salgono le memorie? per il momento sto facendo dei test con lo slider di MSI afterburner impostato a +500 e non sembra avere problemiIo ho la 3080 in firma,e ho notato davvero guadagni irrisori, overclockando la vram.
Parliamo di 2/3 fps,che non giustificano la ricerca della frequenza massima,vicina all'intervento del correttore errori.

Silver_77
17-04-2022, 17:18
Salve raga, sono giorni che ho montato una 3080 strix 12GB a liquido, il massimo che riesco a dargli sono 2175Mhz, è nella norma?
Mi chiedevo se gli servirebbe una cpu nuova tipo 12700K per farla funzionare meglio, ora ho 10700k@5ghz, che ne dite?

https://ibb.co/3vDrP0h

http://https://ibb.co/3vDrP0h

https://i.ibb.co/nBHgKDk/time-spy-3080.jpg (https://imgbb.com/)

Thunder-74
17-04-2022, 17:53
Salve raga, sono giorni che ho montato una 3080 strix 12GB a liquido, il massimo che riesco a dargli sono 2175Mhz, è nella norma?
Mi chiedevo se gli servirebbe una cpu nuova tipo 12700K per farla funzionare meglio, ora ho 10700k@5ghz, che ne dite?

https://ibb.co/3vDrP0h

http://https://ibb.co/3vDrP0h

https://i.ibb.co/nBHgKDk/time-spy-3080.jpg (https://imgbb.com/)


Freq. più che nella norma. La cpu va bene sopratutto se stai su res 1440p o maggiore. Certo le nuove cpu aiutano sui minimi e su alcuni titoli tipo far cry 6, ma sinceramente l esperienza di gioco mediamente non credo possa cambiare. Aspetta Raptor che porta con se migliorie lato consumi , cache L3 più grossa e boost maggiore (si parla di 5,8ghz) , oppure i futuri AMD 7000. Questo il mio consiglio.


Inviato dal mio iPad utilizzando Tapatalk

Silver_77
17-04-2022, 21:19
Io uso 3 monitor 1080p , in surround mode 5760x1080, dovrebbe essere poco più pesante di un 1440P. Credo.
Allora mi godo la 3080 e attendo future cpu , grazie Thunder.

davide155
17-04-2022, 22:01
Salve raga, sono giorni che ho montato una 3080 strix 12GB a liquido, il massimo che riesco a dargli sono 2175Mhz, è nella norma?
Mi chiedevo se gli servirebbe una cpu nuova tipo 12700K per farla funzionare meglio, ora ho 10700k@5ghz, che ne dite?

https://ibb.co/3vDrP0h

http://https://ibb.co/3vDrP0h

https://i.ibb.co/nBHgKDk/time-spy-3080.jpg (https://imgbb.com/)

Nel graphic score sei perfettamente nella norma, anzi.
Come frequenza pure è ottima, bisogna vedere se la visualizzi ingame, oppure se è la frequenza fittizzia di MSI Afterburner.
Provato a downvoltarla per non fargli raggiungere il PL per non incappare in tagli di frequenza? Anche se comunque è una strix, ed ha già di suo un PL maggiore.

Magistercris
18-04-2022, 06:35
A questo link è scaricabile la versione Dlss

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12974550&postcount=437

Effettivamente è notevole. L'ho fatto partire senza toccare settaggi e sta intorno ai 60fps.
Camminata corsa e volo OK. La guida è veramente da vomito...bho saranno le telecamere

Grazie!!!!!;)

Eddie666
18-04-2022, 08:36
Nel mio caso ho notato che fino a +700 i punteggi aumentano....poi andando oltre si stabilizzano fino a raggiungere frequenze da crash. Ho settato quindi a +500 per tenermi ampi margini di sicurezza.

ieri ho fatto un pò di prove e più o meno anche io ho ottenuto gli stessi risultati; in realtà fino a circa +1000 ho ottenuto aumenti di punteggi, ma ho preferito settare ad un conservativo +500 per mantenermi entro ampi margini di sicurezza

Io ho la 3080 in firma,e ho notato davvero guadagni irrisori, overclockando la vram.
Parliamo di 2/3 fps,che non giustificano la ricerca della frequenza massima,vicina all'intervento del correttore errori.

vero, il guadagno è minino; anche nel mio caso si parla di 2 fps circa (misurati al volo col benchmark integrato di cyberpunk2077); tuttavia visto che non comporta aumento di voltaggi o altro male non fa, anche perchè cosi "recupero" appunto quei 2 fps che ho perso settando come frequenza massima 1785 per la mia 3080.


a proposito, una domanda per tutti quelli che overcloccano; ma quando indicate la frequenza massima raggiunta intenedete quella nel periodo di un bench o testata per un periodo di tempo prolungato? per dire,io testo sempre con lo stress test di port royal (circa una quarantina di minuti), e la frequenza della scheda video mi rimane inalterata dall'inizio alla fine

tailss
18-04-2022, 08:37
Salve, non so se il thread è quello giusto per ciò di cui parlo ma volevo porre una domanda a proposito di una 3060 TI Ghost.
Mi è successo di installarne una di recente e ho avuto un problema nel rimuovere il connettore 8pin di alimentazione pciexpress una volta inserito all'inizio, anche se non fino in fondo.
Praticamente è successo che non riuscivo a estrarlo, ma naturalmente, avendo un po' di pratica (i miei pc me li assemblo da solo praticamente da sempre) esercitavo una forza moderata e progressiva e stavo attento a non strattonarlo e a non allentare l'alloggiamento smuovendolo di lato in lato. A un certo punto, nonostante la prudenza, ho sentito un leggero scricchiolio e mi sono fermato subito.
Ho chiesto un po' in giro di cosa si potesse trattare e mi è stato detto che potrebbe essersi rotta una saldatura di uno o più contatti relativi ai pin del connettore, al che ho voluto testare coi sensori di Gpu-Z il consumo della gpu sotto sforzo a livello di connettore pciexpress 8 pin e ho riscontrato che il valore arriva fino a 147 Watt a seconda della complessità dell'elaborazione del momento. Il massimo per una connessione a 8 pin è risaputo che sia 150 Watt, quindi dovrei dedurre che a questo punto il problema non sussista. La cosa che mi fa riflettere però è che in realtà nel connettore a 8 pin solo 3 siano i pin di alimentazione 12 Volt e 3 siano pin di terra più altri 2 di rilevamento, quindi, nonostante il risultato molto chiaro di Gpu-Z, sarebbe teoricamente possibile che uno o più contatti sulla gpu fossero comunque scollegati?
La gpu in ogni caso all'atto pratico funziona regolarmente, quindi è più un dubbio teorico, anche perché alla fine spero che di fatto non sia così semplice produrre danni importanti a una vga moderna. Altrimenti meglio smettere coi pc e, che so io, darsi all'ippica. :D

Silver_77
18-04-2022, 10:27
Nel graphic score sei perfettamente nella norma, anzi.
Come frequenza pure è ottima, bisogna vedere se la visualizzi ingame, oppure se è la frequenza fittizzia di MSI Afterburner.
Provato a downvoltarla per non fargli raggiungere il PL per non incappare in tagli di frequenza? Anche se comunque è una strix, ed ha già di suo un PL maggiore.

Ciao, scusa ma non so cosa vuol dire PL:eek:

Thunder-74
18-04-2022, 10:54
Ciao, scusa ma non so cosa vuol dire PL:eek:


Power Limit. Wattaggio massimo che la scheda potrà gestire/assorbire . Varia in base al modello di scheda . Raggiunto , la freq/voltaggio della gpu si abbasseranno per restare entro il limite di consumo, PL appunto .


Inviato dal mio iPhone X utilizzando Tapatalk

Silver_77
18-04-2022, 11:16
Power Limit. Wattaggio massimo che la scheda potrà gestire/assorbire . Varia in base al modello di scheda . Raggiunto , la freq/voltaggio della gpu si abbasseranno per restare entro il limite di consumo, PL appunto .


Inviato dal mio iPhone X utilizzando Tapatalk

Ah ok, sorry.
Quindi mi dite come settare il tutto che non ci capisco una mazza?
Ho provato a fixare il voltaggio a 0.875 con 1995Mhz per adesso, il pow limit non l'ho toccato. hol perso dal massimo OC 7 fps ma ho guadagnato 110w circa di consumo. come agisco ora ? mi piace pasticciare tutte queste ozioni :sofico:
Non capisco una cosa, nel bench a volte ho punteggio della CPU inferiore e volte superiore :muro:

https://i.postimg.cc/RZFWPtXN/time-spy-3080-fix-0875-1995.jpg (https://postimg.cc/xcwj8Xr2)

https://i.postimg.cc/KcCFXMG1/time-spy-3080-fix-0875-1995-1.jpg (https://postimages.org/)

Dono89
18-04-2022, 12:32
2ghz con nemmeno 0.9V? Ma che schede fortunate avete?

E pensavo avessi beccato io il gold chip

Silver_77
18-04-2022, 12:50
2ghz con nemmeno 0.9V? Ma che schede fortunate avete?

E pensavo avessi beccato io il gold chip

Ciao, esiste una tabella con dei dati che indicano più o meno il range di utilizzo volt\Mhz?

Thunder-74
18-04-2022, 13:10
2ghz con nemmeno 0.9V? Ma che schede fortunate avete?

E pensavo avessi beccato io il gold chip


Dipende su cosa si testa. Basta prendere un titolo in RT e si crasha al volo. Non credo che i 2ghz a 0.900v possono esse stabili, forse un chip bin2

Ciao, esiste una tabella con dei dati che indicano più o meno il range di utilizzo volt\Mhz?


Non esiste una tabella, perché ogni chip fa storia a se. Trova una equilibrio e testa. Sta a te poi decidere se scendere di freq. o salire di voltaggio per trovare stabilità.
la prassi comune è di partire da una base di 1905/0.9.

Come dicevo, per essere certi di essere stabili, devi usare giochi in raytracing , dove in chip viene attivato in ogni sua parte. metro exodus, control, cyberpunk. Lascia perdere i bench per testare la stabilità , perché a volte non si è stabili, non tanto quando il chip è al suo massimo, ma quando si hanno picchi in improvvisi di utilizzo o una variazione dello stesso. Situazione che si può avere in game, mentre in bench si ha una condizione più omogenea di impiego.

Inviato dal mio iPad utilizzando Tapatalk

Silver_77
18-04-2022, 13:29
Grazie ora ho capito , vedo di fare uno stress con i giochi elencati ...esiste un bench i RT?

(THE REAL) Neo
18-04-2022, 15:19
Salve, non so se il thread è quello giusto per ciò di cui parlo ma volevo porre una domanda a proposito di una 3060 TI Ghost.

Mi è successo di installarne una di recente e ho avuto un problema nel rimuovere il connettore 8pin di alimentazione pciexpress una volta inserito all'inizio, anche se non fino in fondo.

Praticamente è successo che non riuscivo a estrarlo, ma naturalmente, avendo un po' di pratica (i miei pc me li assemblo da solo praticamente da sempre) esercitavo una forza moderata e progressiva e stavo attento a non strattonarlo e a non allentare l'alloggiamento smuovendolo di lato in lato. A un certo punto, nonostante la prudenza, ho sentito un leggero scricchiolio e mi sono fermato subito.

Ho chiesto un po' in giro di cosa si potesse trattare e mi è stato detto che potrebbe essersi rotta una saldatura di uno o più contatti relativi ai pin del connettore, al che ho voluto testare coi sensori di Gpu-Z il consumo della gpu sotto sforzo a livello di connettore pciexpress 8 pin e ho riscontrato che il valore arriva fino a 147 Watt a seconda della complessità dell'elaborazione del momento. Il massimo per una connessione a 8 pin è risaputo che sia 150 Watt, quindi dovrei dedurre che a questo punto il problema non sussista. La cosa che mi fa riflettere però è che in realtà nel connettore a 8 pin solo 3 siano i pin di alimentazione 12 Volt e 3 siano pin di terra più altri 2 di rilevamento, quindi, nonostante il risultato molto chiaro di Gpu-Z, sarebbe teoricamente possibile che uno o più contatti sulla gpu fossero comunque scollegati?

La gpu in ogni caso all'atto pratico funziona regolarmente, quindi è più un dubbio teorico, anche perché alla fine spero che di fatto non sia così semplice produrre danni importanti a una vga moderna. Altrimenti meglio smettere coi pc e, che so io, darsi all'ippica. :DA volte succede,che i connettori dell'alimentatore,e quelli della GPU, abbiano tolleranze cosí ridotte,da rendere la rimozione davvero difficile.
Ovviamente basta tirare,movendo il connettore da rimuovere,a destra e a sinistra parallelamente al PCB,e non allontanandolo e avvicinandolo al PCB stesso,in modo da non rischiare appunto,di staccare qualche pista o qualche saldatura.

tailss
18-04-2022, 15:35
A volte succede,che i connettori dell'alimentatore,e quelli della GPU, abbiano tolleranze cosí ridotte,da rendere la rimozione davvero difficile.
Ovviamente basta tirare,movendo il connettore da rimuovere,a destra e a sinistra parallelamente al PCB,e non allontanandolo e avvicinandolo al PCB stesso,in modo da non rischiare appunto,di staccare qualche pista o qualche saldatura.

Capisco, grazie molte dell'intervento, ma immagino che anche il movimento ondulatorio laterale, sebbene possa essere utile, non sia proprio un toccasana per piste e saldature. In generale io reggo con una mano l'alloggiamento e tiro piano e progressivamente verso l'esterno in linea il connettore e, fino a ora, con le gpu passate ha sempre funzionato. Questa volta secondo me, da come si presenta la situazione, il connettore è bloccato in quanto a rischio in caso di estrazione, infatti mi sono fermato alla prima avvisaglia di anomalia.
La mia domanda nello specifico era, visto il risultato di 147W reali su 150W massimi verificati con Gpu-Z sul connettore 8 pin pciexpress, si potrebbe già in virtù di ciò affermare che sia definibile come sano? Che non siano presenti possibili danni? A prescindere dal tipo e dal numero di pin di voltaggio (3), di terra (3) e di rilevazione (2)?

Thunder-74
18-04-2022, 15:36
Grazie ora ho capito , vedo di fare uno stress con i giochi elencati ...esiste un bench i RT?


Si, port royal di 3dmark, ma non è davvero utile per la stabilità: si è facilmente stabili quando poi in game con lo stesso settaggio non lo si è.


Inviato dal mio iPad utilizzando Tapatalk

Eddie666
18-04-2022, 16:14
Si, port royal di 3dmark, ma non è davvero utile per la stabilità: si è facilmente stabili quando poi in game con lo stesso dettaglio non lo si è.


Inviato dal mio iPad utilizzando Tapatalk

se intendi un solo loop di Port royal sono d'accordo, ma se invece parli dello stress test di Port royal (che di loop ne prevede 20), a me non é ancora mai successo di trovare un settaggio che mi passasse appunto lo stress test ma mi crashasse poi in qualche gioco

Silver_77
18-04-2022, 17:52
Si, port royal di 3dmark, ma non è davvero utile per la stabilità: si è facilmente stabili quando poi in game con lo stesso settaggio non lo si è.

Inviato dal mio iPad utilizzando Tapatalk

Raga ecco il lavoro di questo pomeriggio, meglio non riesco ad ottenere:

Max OC stabile 1.025@2140-430w- max temp. +50°c

https://i.postimg.cc/Y9ZCg5NR/Port-Royal-curva-OK.jpg (https://postimages.org/)
https://i.postimg.cc/sgNqV33T/Port-Royal-curva-OK-msi-ab.jpg (https://postimages.org/)

Max Undervolt stabile 0.875@1950-320w- max temp 39°c

https://i.postimg.cc/d0FdZyQ3/Port-Royal-0875-1950-Mhz.jpg (https://postimages.org/)
https://i.postimg.cc/yx3tg5nF/Port-Royal-0875-1950-Mhz-msi-ab.jpg (https://postimages.org/)

Scheda STD 380w- max temp. 46°c

https://i.postimg.cc/zXGZFtvY/Port-Royal-STD.jpg (https://postimages.org/)host photos online (https://postimages.org/it/)

Vash88
18-04-2022, 18:56
se vuoi provare la stabilità dell'overclock in RT usa Cyberpunk 2077, bei risultati

Silver_77
18-04-2022, 19:05
se vuoi provare la stabilità dell'overclock in RT usa Cyberpunk 2077, bei risultati

Prima avevo la 3070 e l'avevo disinstallato...lo riproverò con questa vga se va un po meglio . È di un pesante !

(THE REAL) Neo
18-04-2022, 19:30
Capisco, grazie molte dell'intervento, ma immagino che anche il movimento ondulatorio laterale, sebbene possa essere utile, non sia proprio un toccasana per piste e saldature. In generale io reggo con una mano l'alloggiamento e tiro piano e progressivamente verso l'esterno in linea il connettore e, fino a ora, con le gpu passate ha sempre funzionato. Questa volta secondo me, da come si presenta la situazione, il connettore è bloccato in quanto a rischio in caso di estrazione, infatti mi sono fermato alla prima avvisaglia di anomalia.

La mia domanda nello specifico era, visto il risultato di 147W reali su 150W massimi verificati con Gpu-Z sul connettore 8 pin pciexpress, si potrebbe già in virtù di ciò affermare che sia definibile come sano? Che non siano presenti possibili danni? A prescindere dal tipo e dal numero di pin di voltaggio (3), di terra (3) e di rilevazione (2)?Puoi stare tranquillo,ce ne vuole per strappare un connettore da una scheda.
E in ogni caso,se tu avessi fatto saltare una pista,o una saldatura,farebbe arco e sentiresti parecchia puzza di bruciato,oltre a vedere una fiammata sulla saldatura che non tocca bene.

amon.akira
18-04-2022, 21:51
Si, port royal di 3dmark, ma non è davvero utile per la stabilità: si è facilmente stabili quando poi in game con lo stesso settaggio non lo si è.


Inviato dal mio iPad utilizzando Tapatalk

si per esperienza ci passano anche 4step, la vera stabilità la vedi nel tempo, a volte servono anche sessioni prolungate di diverse ore di gaming :P

pensa io da 856mv a 1950 sono finito a 868mv a 1920 che è cmq un rispettoso +195mhz

tailss
19-04-2022, 08:47
Puoi stare tranquillo,ce ne vuole per strappare un connettore da una scheda.
E in ogni caso,se tu avessi fatto saltare una pista,o una saldatura,farebbe arco e sentiresti parecchia puzza di bruciato,oltre a vedere una fiammata sulla saldatura che non tocca bene.

Grazie ancora delle info. ;)

Silver_77
19-04-2022, 11:30
Le configurazione di ieri sembrano stabili in Cyberpunk 2077.
E adesso ? noia :D

Blee
20-04-2022, 07:00
Scusate so che sono un attimo OT, ma so che molti di voi hanno un LG C1 oled per il gaming. Sapete dirmi se c'è una differenza tra i prodotti C15,C16,C14 ecc...? Come avete risolto il problema del burn in? Grazie

StrixyRoG
20-04-2022, 07:09
Scusate so che sono un attimo OT, ma so che molti di voi hanno un LG C1 oled per il gaming. Sapete dirmi se c'è una differenza tra i prodotti C15,C16,C14 ecc...? Come avete risolto il problema del burn in? Grazie

Cambia solo il colore, quindi l'aspetto estetico, e nessun problema di burn in da risolvere.

Blee
20-04-2022, 09:18
Cambia solo il colore, quindi l'aspetto estetico, e nessun problema di burn in da risolvere.

Ok grazie mille. Per uso desktop rischio burn in?

gaevulk
20-04-2022, 12:16
arrivata la 3080 Manli,ottimo dissi ed ottime temperatore,le ventole girano in auto al di sotto del 50%,volevo pero' soffermarmi su una cosa,l'ho provata su Iracing col mio triplo monitor,questi i risultati vs 2080 ti:

2080 ti
Max 183.6
Average 114.6
Min 68.3

3080
Max 208.8
Average 117.6
Min 67.6

visto che gioco praticamente solo a questo gioco non valeva manco la pena sostituire la 2080 ti :mbe:

kiwivda
20-04-2022, 12:37
visto che gioco praticamente solo a questo gioco non valeva manco la pena sostituire la 2080 ti :mbe:

L'unico upgrade sensato per una 2080ti era la 3090, ma ormai è tardi per comprare qualsiasi cosa esclusivamente per gaming. Io farei un bel reso e aspetterei le 4090 o quello che sarà il chippone AD102.

Lo dissi anche 1 anno e mezzo fa. Poi si ci sono giochi in cui la 3080 si distanzia anche un 30% dalla 2080Ti ma solo a risoluzioni molto alte (e tu le hai) e con effetti attivi come Raytracing & Co. (e non li hai).

Boh vedi tu, io farei un reso, anche perché ormai rivenderla se è una LHR non vale una cippa ( che poi LHR è stato praticamente bucato, ma comunque consumano di più rendono meno e danno rogne) e ci perdi. Tienila una mesata smanettaci e falla fuori.

gaevulk
20-04-2022, 12:38
L'unico upgrade sensato per una 2080ti era la 3090, ma ormai è tardi per comprare qualsiasi cosa esclusivamente per gaming. Io farei un bel reso e aspetterei le 4090 o quello che sarà il chippone AD102.

Lo dissi anche 1 anno e mezzo fa. Poi si ci sono giochi in cui la 3080 si distanzia anche un 30% dalla 2080Ti ma solo a risoluzioni molto alte (e tu le hai) e con effetti attivi come Raytracing & Co. (e non li hai).

Boh vedi tu, io farei un reso, anche perché ormai rivenderla se è una LHR non vale una cippa e ci perdi. Tienila una mesata smanettaci e falla fuori.

E' quello che pensavo di fare a sto punto

Cutter90
20-04-2022, 13:14
arrivata la 3080 Manli,ottimo dissi ed ottime temperatore,le ventole girano in auto al di sotto del 50%,volevo pero' soffermarmi su una cosa,l'ho provata su Iracing col mio triplo monitor,questi i risultati vs 2080 ti:

2080 ti
Max 183.6
Average 114.6
Min 68.3

3080
Max 208.8
Average 117.6
Min 67.6

visto che gioco praticamente solo a questo gioco non valeva manco la pena sostituire la 2080 ti :mbe:

Al netto che sicuramente la cpu ti limita sicuro, passare dalla 2080 ti alla 3080, della Manli poi, non è una super mossa diciamo.

kiwivda
20-04-2022, 13:25
Al netto che sicuramente la cpu ti limita sicuro, passare dalla 2080 ti alla 3080, della Manli poi, non è una super mossa diciamo.

Beh su 3 monitor il 12700KF non è che limita granchè.

gaevulk
20-04-2022, 13:34
Al netto che sicuramente la cpu ti limita sicuro, passare dalla 2080 ti alla 3080, della Manli poi, non è una super mossa diciamo.

Ma tu la Manli l'hai provata?
Ha un dissi enorme,provata con dei superposition e sta a 70 gradi con RAM ad 80 con ventole al 48%.

Cutter90
20-04-2022, 13:45
Beh su 3 monitor il 12700KF non è che limita granchè.

Ma mica dipende dai monitor quanto limita una cpu, ma dagli fps. Ha un i5, normale che a livello di fps se sei attaccato ai 120 la cpu inizi a limitare.

Cutter90
20-04-2022, 13:47
Ma tu la Manli l'hai provata?
Ha un dissi enorme,provata con dei superposition e sta a 70 gradi con RAM ad 80 con ventole al 48%.

Ah, adesso bisogna provarle tutte le gpu per sapere come vanno? Le recnsioni non vanno più bene? :D
Fai un Time spy o un portal Royale. Lì si vedono le performance, non di certo con superposition, tool molto vecchio e che non tira le schede come si deve. Tra una marca e l'altra ci passa quasi la stessa differenza che c'è tra 3080 ti e 3090 eh

amon.akira
20-04-2022, 14:00
il 12700k è un i7, ma anche fosse l i5 da cmq mazzate ai vecchi i9 sia st che mt

piuttosto il problema è che usando solo quel gioco non ha vantaggi, altrimenti ci sarebbero eccome.

gaevulk
20-04-2022, 14:10
il 12700k è un i7, ma anche fosse l i5 da cmq mazzate ai vecchi i9 sia st che mt

piuttosto il problema è che usando solo quel gioco non ha vantaggi, altrimenti ci sarebbero eccome.

Secondo il genio sopra invece,colui che legge le recensioni,il 12700k mi limita,passo e chiudo.