View Full Version : [Thread Ufficiale] nVidia AD102-AD103 (RTX 4090 - 4080/Super - 4070Ti Super)
davide155
01-07-2023, 19:30
Ti ringrazio.
Io credo di ordinarla oggi da Amazon (venduta e spedita) ho visto che sta a 2200 .
Invece sono innamorato di quel fractal che ho linkato sopra ma non saprei invece che mobo prendere per far pilotare bene la 4090 e la cpu.
Qualche idea?Perdonami ma perché pagare così tanto una 4090 quando le si trovano ormai anche a 1400€ nuove?
Rumpelstiltskin
01-07-2023, 20:07
Perché non la voglio ad aria e adesso come adesso non posso farmi un custom loop con water station esterna.
Non voglio una scheda che mi spara 80 gradi tra le gambe :(
Casa mia è come l'appartamento di Pozzetto....
(1400 nuove non le trovo su Amazon)
Rumpelstiltskin
02-07-2023, 09:21
Invece, mi consigliate un buon cavo Display Port per pilotare la 4090?
Perdonami ma perché pagare così tanto una 4090 quando le si trovano ormai anche a 1400€ nuove?
Scusa la domanda, ma 1400 dove:D
davide155
02-07-2023, 12:50
Scusa la domanda, ma 1400 dove:DGruppo telegram di improsystem ad esempio. Hanno delle ottime offerte su gpu ex exposizione delle fabbriche ad ottimi prezzi.
Ho amici che le hanno prese li.
Predator_1982
02-07-2023, 15:42
Perdonami ma perché pagare così tanto una 4090 quando le si trovano ormai anche a 1400€ nuove?
c'è chi compra e chi vende...:D :D
Io ho appena venduto la mia 4090 FE...per passare niente poco di meno che ad una fiammante 4070 (rigorosamente FE ovviamente) :fagiano:
La verità è che ormai gioco cosi poco che penso di non averne bisogno di schede top di gamma....se ne riparlerà forse con la prossima ammiraglia della serie 5000
Ero stato addirittura quasi tentato di restare con l'integrata, ma ho ancora qualche titoletto da completare :read:
Ciao, ho trovato questo kit su aliexpress, secondo voi è 3.0 o 4.0? Non è molto chiaro
https://it.aliexpress.com/item/1005004803095740.html?pdp_npi=2%40dis%21EUR%2141%2C32%E2%82%AC%2138%2C84%E2%82%AC%21%21%21%21%21%40211b444316883095082736265e1d6d%2112000030547801972%21btf&_t=pvid%3A78d74c34-c869-40e1-b7bd-5e190aba3a72&afTraceInfo=1005004803095740__pc__pcBridgePPC__xxxxxx__1688309508&spm=a2g0o.ppclist.product.mainProduct&gatewayAdapt=glo2ita
c'è chi compra e chi vende...:D :D
Io ho appena venduto la mia 4090 FE...per passare niente poco di meno che ad una fiammante 4070 (rigorosamente FE ovviamente) :fagiano:
Cacchio mi dispiace che uno dei magnifici 7 del day one ha lasciato :( :( :(
Per curiosità, a quanto l'hai data? Avevi molte richieste?
Cutter90
02-07-2023, 16:12
Ciao, ho trovato questo kit su aliexpress, secondo voi è 3.0 o 4.0? Non è molto chiaro
https://it.aliexpress.com/item/1005004803095740.html?pdp_npi=2%40dis%21EUR%2141%2C32%E2%82%AC%2138%2C84%E2%82%AC%21%21%21%21%21%40211b444316883095082736265e1d6d%2112000030547801972%21btf&_t=pvid%3A78d74c34-c869-40e1-b7bd-5e190aba3a72&afTraceInfo=1005004803095740__pc__pcBridgePPC__xxxxxx__1688309508&spm=a2g0o.ppclist.product.mainProduct&gatewayAdapt=glo2ita
Ma prenderne uno dei trilioni disponibili su amazon no?:)
Predator_1982
02-07-2023, 16:21
Cacchio mi dispiace che uno dei magnifici 7 del day one ha lasciato :( :( :(
Per curiosità, a quanto l'hai data? Avevi molte richieste?
1600, si molte richieste (ma il 99% di gente che faceva leva sui sensi di colpa perché venduta ad una cifra maggiore del loro stipendio mensile....:muro: )..Il mondo è strano...
Dispiace pure a me (ogni tanto penso di annullare la vendita...) ma razionalmente tenerla nel case a deprezzarsi senza sfruttarla non ha senso.
Rumpelstiltskin
02-07-2023, 17:04
Ragazzi,
mi manca il cavo display port!
ho visto questo su Amazon :
"Stouchi Cavo DisplayPort 2.1 Cavo DP2.1 [16K@60Hz, 10K@60Hz, 8K@120Hz, 4K@240Hz 165Hz 144Hz] Supporto 80Gbps HDR HDCP 2.2 DSC 1.2a FreeSync G-Sync Display Port 2.1 Cavo per monitor da gioco-3M/10Ft"
qualcuno lo ha?
Se prendessi 5metri potrei avere degli artefatti o altri fastidi?
grazie mille!
Ragazzi,
mi manca il cavo display port!
ho visto questo su Amazon :
"Stouchi Cavo DisplayPort 2.1 Cavo DP2.1 [16K@60Hz, 10K@60Hz, 8K@120Hz, 4K@240Hz 165Hz 144Hz] Supporto 80Gbps HDR HDCP 2.2 DSC 1.2a FreeSync G-Sync Display Port 2.1 Cavo per monitor da gioco-3M/10Ft"
qualcuno lo ha?
Se prendessi 5metri potrei avere degli artefatti o altri fastidi?
grazie mille!
Ciao, credo che un po' tutti, incluso me, usino il cavo in dotazione al monitor (tu non l'hai avuto con il tuo?) perciò credo che nessuno ti risponda.
Ma prenderne uno dei trilioni disponibili su amazon no?:)
Compatibile con il mio case e pci-e 4.0? Se lo conosci linkamelo per favore... quello è originale e a meno della metà del prezzo
Ma in overclock come vanno le 4090? Qualche modello in particolare? Ci sono tools oltre il classico MSI af?
Inviato dal mio SM-G990B utilizzando Tapatalk
Rumpelstiltskin
02-07-2023, 18:37
Ciao, credo che un po' tutti, incluso me, usino il cavo in dotazione al monitor (tu non l'hai avuto con il tuo?) perciò credo che nessuno ti risponda.
Il cavo credo sia finito nel cassetto dei cavi e poi svuotato in discarica.
Il mio motto è " se non lo usi da 1 anno non ti serve, buttalo"
:muro:
Ragazzi,
mi manca il cavo display port!
ho visto questo su Amazon :
"Stouchi Cavo DisplayPort 2.1 Cavo DP2.1 [16K@60Hz, 10K@60Hz, 8K@120Hz, 4K@240Hz 165Hz 144Hz] Supporto 80Gbps HDR HDCP 2.2 DSC 1.2a FreeSync G-Sync Display Port 2.1 Cavo per monitor da gioco-3M/10Ft"
qualcuno lo ha?
Se prendessi 5metri potrei avere degli artefatti o altri fastidi?
grazie mille!
Io ti consiglio questo (https://www.amazon.it/gp/product/B07HL7RXKM/ref=ppx_yo_dt_b_asin_title_o00_s00?ie=UTF8&th=1) che è certificato DP 8K che è il massimo che si può ottenere con le porte sulla 4090.
Io lo uso da un anno e mi sono trovato benissimo :D
Rumpelstiltskin
02-07-2023, 20:22
Grazie mille!
Spero di sdebitarmi con tutti, vi sto facendo perdere la pazienza :(
Dracula1975
03-07-2023, 07:07
Ragazzi,
mi manca il cavo display port!
ho visto questo su Amazon :
"Stouchi Cavo DisplayPort 2.1 Cavo DP2.1 [16K@60Hz, 10K@60Hz, 8K@120Hz, 4K@240Hz 165Hz 144Hz] Supporto 80Gbps HDR HDCP 2.2 DSC 1.2a FreeSync G-Sync Display Port 2.1 Cavo per monitor da gioco-3M/10Ft"
qualcuno lo ha?
Se prendessi 5metri potrei avere degli artefatti o altri fastidi?
grazie mille!
io uso cavo di quella marca e sono OTTIMI
con la 4090 nessun problema
Comunque sono veramente indeciso su quale 4090 prendere. Avevo visto la palit gamerock a prezzo decente.Ma vale la pena spendere 300 euro ulteriori per una custom tipo le tuf oppure posso accontentarmi della palit?
Cutter90
03-07-2023, 13:12
Comunque sono veramente indeciso su quale 4090 prendere. Avevo visto la palit gamerock a prezzo decente.Ma vale la pena spendere 300 euro ulteriori per una custom tipo le tuf oppure posso accontentarmi della palit?
Sceondo me no, a meno di esigenze particolari di scimmia per un marca o di estetica/ossessione per le temp.
Ragazzi,
mi manca il cavo display port!
ho visto questo su Amazon :
"Stouchi Cavo DisplayPort 2.1 Cavo DP2.1 [16K@60Hz, 10K@60Hz, 8K@120Hz, 4K@240Hz 165Hz 144Hz] Supporto 80Gbps HDR HDCP 2.2 DSC 1.2a FreeSync G-Sync Display Port 2.1 Cavo per monitor da gioco-3M/10Ft"
qualcuno lo ha?
Se prendessi 5metri potrei avere degli artefatti o altri fastidi?
grazie mille!
Se vuoi qualcosa di qualità,guarda Club3D/Lindy,se no uno vale l'altro
sertopica
03-07-2023, 19:21
Su Cyberpunk consiglio caldamente questa mod grafica, 4090 edition ovviamente, e' un overhaul del sistema di illuminazione ispirato a Ghost in the Shell, ergo offre un'atmosfera piu' cupa e oppressiva, con numerosi miglioramenti dedicati al path tracing. Da cascamascella ma e' un macigno.
Link: https://www.nexusmods.com/cyberpunk2077/mods/5363?tab=files&BH=1
Sunjan88
03-07-2023, 20:28
salve raga, anche io mi sto decidendo di acquistare una 4090 e sui 1700 ho trovato la Msi Ventus 3X, la PNY VERTO Triple Fan, e la Palit GameRock, a parità di prezzo quale mi consigliate? non mi interessano prestazioni e OC ma piuttosto la durata...:)
nagashadow
04-07-2023, 06:59
Raga un info ho comprato uno di questi cavi per eliminare il polpo
https://www.amazon.it/dp/B0BQPZB4V4/ref=dp_iou_view_product?ie=UTF8&psc=1
Questo qui in teoria va bene per la 4090,io lo userei per una 4080 e quindi bastano 3 connettori…..il 4 posso lasciarlo scollegato o devo collegarlo per forza?
ultimate trip
04-07-2023, 07:16
Su Cyberpunk consiglio caldamente questa mod grafica, 4090 edition ovviamente, e' un overhaul del sistema di illuminazione ispirato a Ghost in the Shell, ergo offre un'atmosfera piu' cupa e oppressiva, con numerosi miglioramenti dedicati al path tracing. Da cascamascella ma e' un macigno.
Link: https://www.nexusmods.com/cyberpunk2077/mods/5363?tab=files&BH=1
molto interessante, poi cyberpunk è sempre bello
Raga un info ho comprato uno di questi cavi per eliminare il polpo
https://www.amazon.it/dp/B0BQPZB4V4/ref=dp_iou_view_product?ie=UTF8&psc=1
Questo qui in teoria va bene per la 4090,io lo userei per una 4080 e quindi bastano 3 connettori…..il 4 posso lasciarlo scollegato o devo collegarlo per forza?
Si va benissimo ma è sempre un polpo solo un po' più lungo, il numero di cavi che devi utilizzare è sempre lo stesso, ti consiglio di collegare tutte e quattro le uscite con soli due cavi dall'alimentatore dual head (collegando tutte e quattro le teste dei due cavi).
Cutter90
04-07-2023, 08:58
Comuqnue tecnicamente Callisto Protocol è pazzesco eh. Mi ha sorpreso davvero. Permengono alcuni problemi riguardo al RT (quello sulle ombre è inutilizzabile) e il rammarico enorme di cosa poteva essere con la partnership con Nvidia. Con DLSS3 sarebbe stato assurdo. Con un RT fatto bene sarebbe stato ancora più assurdo e staremmo qui a parlare del gioco graficamente più avanzato di tutti.
A livello di gameplay cmq mi sta piacendo moltissimo e a questo punto non capisco tanto le critiche. Certo era un AAAA e non lo è affatto, ma a livello di trama e gameplay e assolutamente valido. Poi finalmente un gioco a corridoio come si deve, senza forzare uno stomachevole open world. Mi sta piacendo molto più di quello che credevo. A 30 euro poi li vale tutti.
E' semplicemente un gioco "vecchia maniera". E va benissimo che sia così.
Purtroppo la partnership con AMD e le dichiarazione da AAAA l'hanno stroncato sul nascere.
SU PC ovviamente non è stato fatto un bel lavoro come settaggi e stutter dovuto alla compilazione degli shader, per nulla.
Cutter90
04-07-2023, 09:00
Comuqnue tecnicamente Callisto Protocol è pazzesco eh. Mi ha sorpreso davvero. Permengono alcuni problemi riguardo al RT (quello sulle ombre è inutilizzabile) e il rammarico enorme di cosa poteva essere con la partnership con Nvidia. Con DLSS3 sarebbe stato assurdo. Con un RT fatto bene sarebbe stato ancora più assurdo e staremmo qui a parlare del gioco graficamente più avanzato di tutti.
A livello di gameplay cmq mi sta piacendo moltissimo e a questo punto non capisco tanto le critiche. Certo era un AAAA e non lo è affatto, ma a livello di trama e gameplay e assolutamente valido. Poi finalmente un gioco a corridoio come si deve, senza forzare uno stomachevole open world. Mi sta piacendo molto più di quello che credevo. A 30 euro poi li vale tutti.
E' semplicemente un gioco "vecchia maniera". E va benissimo che sia così.
Purtroppo la partnership con AMD e le dichiarazione da AAAA l'hanno stroncato sul nascere.
SU PC ovviamente non è stato fatto un bel lavoro come settaggi e stutter dovuto alla compilazione degli shader, per nulla.
marbasso
04-07-2023, 11:11
Comuqnue tecnicamente Callisto Protocol è pazzesco eh. Mi ha sorpreso davvero. Permengono alcuni problemi riguardo al RT (quello sulle ombre è inutilizzabile) e il rammarico enorme di cosa poteva essere con la partnership con Nvidia. Con DLSS3 sarebbe stato assurdo. Con un RT fatto bene sarebbe stato ancora più assurdo e staremmo qui a parlare del gioco graficamente più avanzato di tutti.
A livello di gameplay cmq mi sta piacendo moltissimo e a questo punto non capisco tanto le critiche. Certo era un AAAA e non lo è affatto, ma a livello di trama e gameplay e assolutamente valido. Poi finalmente un gioco a corridoio come si deve, senza forzare uno stomachevole open world. Mi sta piacendo molto più di quello che credevo. A 30 euro poi li vale tutti.
E' semplicemente un gioco "vecchia maniera". E va benissimo che sia così.
Purtroppo la partnership con AMD e le dichiarazione da AAAA l'hanno stroncato sul nascere.
SU PC ovviamente non è stato fatto un bel lavoro come settaggi e stutter dovuto alla compilazione degli shader, per nulla.
Non so se hai giocato dead space remake, ma se lo hai fatto che differenze sostanziali trovi tra i due titoli con magari una preferenza.
Io volevo giocare Callisto ma ho sempre paura di trovare troppe somiglianze con dead space e quindi mollarlo dopo poco.
Cutter90
04-07-2023, 11:28
Non so se hai giocato dead space remake, ma se lo hai fatto che differenze sostanziali trovi tra i due titoli con magari una preferenza.
Io volevo giocare Callisto ma ho sempre paura di trovare troppe somiglianze con dead space e quindi mollarlo dopo poco.
Dead space l'ho spolpato quando uscì, finendolo 3 volte. Anche basta.
Ho preferito andare su Callisto perchè almeno è nuovo. E siccome il genere di dead space mi piace ecco che ero quasi sicuro di trovarlo di mio gusto. E infatti....
bagnino89
04-07-2023, 11:36
Non so se hai giocato dead space remake, ma se lo hai fatto che differenze sostanziali trovi tra i due titoli con magari una preferenza.
Io volevo giocare Callisto ma ho sempre paura di trovare troppe somiglianze con dead space e quindi mollarlo dopo poco.
In realtà sono molto diversi in quanto a giocabilità. Dead Space di fatto è uno shooter, mentre in Callisto si combatte di più all'arma bianca usando anche armi da fuoco, guanto cinetico e - quando possibile - attacchi furtivi.
Giusto l'ambientazione e l'atmosfera sono simili.
Dead space l'ho spolpato quando uscì, finendolo 3 volte. Anche basta.
Ho preferito andare su Callisto perchè almeno è nuovo. E siccome il genere di dead space mi piace ecco che ero quasi sicuro di trovarlo di mio gusto. E infatti....
Comunque DS Remake è abbastanza diverso dall'originale. La storia è sempre quella, però ci sono diverse differenze nell'incidere. Per esempio non c'è più la struttura a livelli.
Sunjan88
04-07-2023, 11:37
Raga un info ho comprato uno di questi cavi per eliminare il polpo
https://www.amazon.it/dp/B0BQPZB4V4/ref=dp_iou_view_product?ie=UTF8&psc=1
Questo qui in teoria va bene per la 4090,io lo userei per una 4080 e quindi bastano 3 connettori…..il 4 posso lasciarlo scollegato o devo collegarlo per forza?
ma c'e' anche il modello a 3 connettori
https://www.amazon.it/dp/B0BVP4DYLP/ref=dp_iou_view_product?ie=UTF8&th=1
Cutter90
04-07-2023, 12:35
In realtà sono molto diversi in quanto a giocabilità. Dead Space di fatto è uno shooter, mentre in Callisto si combatte di più all'arma bianca usando anche armi da fuoco, guanto cinetico e - quando possibile - attacchi furtivi.
Giusto l'ambientazione e l'atmosfera sono simili.
Comunque DS Remake è abbastanza diverso dall'originale. La storia è sempre quella, però ci sono diverse differenze nell'incidere. Per esempio non c'è più la struttura a livelli.
Beh va beh ho capito. MA è sempre lo stesso gioco, non è una modifica che me lo fa rigiocare ecco.
E' molto simile a callisto, ma lato gameplay c'è qualche differenza. Ma sempre di quel genere si tratta.
Atmosfere, visuale, gunplay sono lì
micronauta1981
04-07-2023, 13:47
Callisto a 30€ dove?
Edit visto è su steam
Callisto a 30€ dove?
offerta steam fino al 13 Luglio :D
marbasso
04-07-2023, 19:53
Bo non son sicuro di prenderlo pallisto scrotocol...non trovo recensioni decenti, tutti dicono sia piatto.
Cutter90
04-07-2023, 20:05
Bo non son sicuro di prenderlo pallisto scrotocol...non trovo recensioni decenti, tutti dicono sia piatto.
Il fatto del quadrupla A e che ora improvvisamente da qualche hanno i lineari siano il male sono la spiegazione principale. Non è un gioca da 10. Ma nemmeno da 4. Esistono, e anche questa è una cosa assurda negli ultimi 5-7 anni, quei giochi che hanno sia pregi che difetti e si definiscono come giochi da 7,5 :D
micronauta1981
04-07-2023, 20:19
Bo non son sicuro di prenderlo pallisto scrotocol...non trovo recensioni decenti, tutti dicono sia piatto.quei 2 sul server 😄
preso pure io a 30 euro gioco ottimo x le mie aspettative sono molto contento :D :D :D :D
marbasso
04-07-2023, 21:17
quei 2 sul server 😄
LOL
Il fatto del quadrupla A e che ora improvvisamente da qualche hanno i lineari siano il male sono la spiegazione principale. Non è un gioca da 10. Ma nemmeno da 4. Esistono, e anche questa è una cosa assurda negli ultimi 5-7 anni, quei giochi che hanno sia pregi che difetti e si definiscono come giochi da 7,5 :D
Sono indeciso se prenderlo, come prestazioni come si comporta allo stato attuale dopo le varie patch?
E' godibile oppure si bestemmia ancora?
Cutter90
05-07-2023, 09:45
Sono indeciso se prenderlo, come prestazioni come si comporta allo stato attuale dopo le varie patch?
E' godibile oppure si bestemmia ancora?
Se hai ancora il 10700k potresti fare un po' fatica ma cmq senza rt sulle ombre è godibilissimo. Purtroppo permane lo stutter, ancher se molto meno dle d1, sulla compilazione degli shader.
Io in 6k + fsr bilanciato oscillo dai 65 ai 100 fps
Sono indeciso se prenderlo, come prestazioni come si comporta allo stato attuale dopo le varie patch?
E' godibile oppure si bestemmia ancora?
Secondo me, come ho detto più volte, è uno dei giochi più belli che ho mai giocato. Grafica completamente fuori parametro, storia godibile e tutto sommato una ottima ambientazione, io poi non ho mai avuto problemi di prestazioni essendo il mio target quello dei 60FPS stabili, certo devi amare i giochi single player vecchio stampo molto lineari. Per quanto mi riguarda, ho preso in saldo anche il season pass che contiene una espansione single player.
bagnino89
05-07-2023, 10:20
Sono indeciso se prenderlo, come prestazioni come si comporta allo stato attuale dopo le varie patch?
E' godibile oppure si bestemmia ancora?
Lo stutter è sempre lì.
Gioco da 7 massimo, corto, rigiocabilità praticamente nulla, finale "meh".
Cutter90
05-07-2023, 10:24
Lo stutter è sempre lì.
Gioco da 7 massimo, corto, rigiocabilità praticamente nulla, finale "meh".
Corto anche no. E' un lineare e la durata di 15 ore è perfetta per il genere. Rigiocabilità, anche qui, è un lineare è normale non si rigiochi. Questo vizio che tutti i giochi debbano durare 100 ora ha distrutto molti brand e riempito di open wolrd il mercato con tantissimi "allungabrodo".
Lo stutter è migliorato parecchio, non è assolutamente come il d1. E' ancora presente.
bagnino89
05-07-2023, 10:33
Corto anche no. E' un lineare e la durata di 15 ore è perfetta per il genere. Rigiocabilità, anche qui, è un lineare è normale non si rigiochi. Questo vizio che tutti i giochi debbano durare 100 ora ha distrutto molti brand e riempito di open wolrd il mercato con tantissimi "allungabrodo".
Lo stutter è migliorato parecchio, non è assolutamente come il d1. E' ancora presente.
A me è durato molto meno di 15 ore. Non credo di essere arrivato a 10. E comunque lo ho esplorato per bene (per quanto ci sia molto poco da esplorare).
Si vede da 1 km che è un gioco rilasciato in stato "incompleto"... Cioè, nelle prime versioni non si poteva manco saltare i dialoghi, tuttora mi risulta che non si possano modificare le impostazioni grafiche in-game... Robe da matti.
Cutter90
05-07-2023, 10:48
A me è durato molto meno di 15 ore. Non credo di essere arrivato a 10. E comunque lo ho esplorato per bene (per quanto ci sia molto poco da esplorare).
Si vede da 1 km che è un gioco rilasciato in stato "incompleto"... Cioè, nelle prime versioni non si poteva manco saltare i dialoghi, tuttora mi risulta che non si possano modificare le impostazioni grafiche in-game... Robe da matti.
Esatto, questa cosa è terrificante. Ma cmq lo scindere dal gioco questo aspetto "tecnico"
marbasso
05-07-2023, 16:30
Scusate, qualcuno può farmi una piccola guida sull'utilizzo di DLSSTweaks 0.200.6?
Vorrei provare partendo dal mio monitor 2k a ritrovarmi a giocare in 4k con dlss o fsr attivo.
Grazie in anticipo a chi si prenderà l' impegno.
Esatto, questa cosa è terrificante. Ma cmq lo scindere dal gioco questo aspetto "tecnico" ciao quanti fps fai in verifica prestazioni con tutto al max
Cutter90
06-07-2023, 07:30
ciao quanti fps fai in verifica prestazioni con tutto al max
Oggi faccio il test. RT pure? Considera che quello sulle ombre è inutilizzabile in uno scenario reale.
Oggi faccio il test. RT pure? Considera che quello sulle ombre è inutilizzabile in uno scenario reale. ciao qundi non lo attivi rt sulle ombre ..
Cutter90
06-07-2023, 13:02
ciao qundi non lo attivi rt sulle ombre ..
Esatto. Impatto visivo prossimo allo zero e perdita di 20-30 fps. Ha a mani basse la peggior implementazione di RT che abbia mai visto.
davide155
06-07-2023, 13:35
Sono indeciso se prenderlo, come prestazioni come si comporta allo stato attuale dopo le varie patch?
E' godibile oppure si bestemmia ancora?Finito con la 3090 con molta fatica. Lo presi al dayone ed è stata una scelta sbagliata dato il risultato in cui poi è uscito.
L'ho finito a forza e disinstallato alla velocità della luce.
Le prestazioni se si attiva il raytracing sono scandalose e per niente giustificate dal risultato finale.
Senza rt attivo si ha quasi il raddoppio degli fps.
Subito dopo averlo finito ho giocato dead space remake e l'ho trovato mille volte meglio, non avevo mai giocato al gioco originale.
Adesso con la 4090 ho voluto riprovare Callisto ed i problemi di stuttering sono rimasti. È migliorato lo sfruttamento dei core. Prima al massimo arrivava al 12% di utilizzo il mio 12900k. Adesso l'ho visto toccare punte di 30%. Ma il problema rimane sempre il motore grafico che sui multicore ha ancora deve ancora migliorare l'unreal engine.
Infatti in situazioni all'aperto dove la cpu arrivava al 25-30% calava l'utilizzo massimo della gpu, dove a stento stava sopra il 90%.
Tutto questo in 4k.
In 2k diventa un bagno di sangue. Ma questo anche a causa della 4090 che lavora molto meglio in 4k che a risoluzioni inferiori.
Senza contare l'asincronia dei dialoghi italiani con la mimica facciale o il volume dei dialoghi bassisimo in alcuni frangenti.
Insomma per me Callisto non vale più di 15€.
Cutter90
06-07-2023, 13:55
Finito con la 3090 con molta fatica. Lo presi al dayone ed è stata una scelta sbagliata dato il risultato in cui poi è uscito.
L'ho finito a forza e disinstallato alla velocità della luce.
Le prestazioni se si attiva il raytracing sono scandalose e per niente giustificate dal risultato finale.
Senza rt attivo si ha quasi il raddoppio degli fps.
Subito dopo averlo finito ho giocato dead space remake e l'ho trovato mille volte meglio, non avevo mai giocato al gioco originale.
Adesso con la 4090 ho voluto riprovare Callisto ed i problemi di stuttering sono rimasti. È migliorato lo sfruttamento dei core. Prima al massimo arrivava al 12% di utilizzo il mio 12900k. Adesso l'ho visto toccare punte di 30%. Ma il problema rimane sempre il motore grafico che sui multicore ha ancora deve ancora migliorare l'unreal engine.
Infatti in situazioni all'aperto dove la cpu arrivava al 25-30% calava l'utilizzo massimo della gpu, dove a stento stava sopra il 90%.
Tutto questo in 4k.
In 2k diventa un bagno di sangue. Ma questo anche a causa della 4090 che lavora molto meglio in 4k che a risoluzioni inferiori.
Senza contare l'asincronia dei dialoghi italiani con la mimica facciale o il volume dei dialoghi bassisimo in alcuni frangenti.
Insomma per me Callisto non vale più di 15€.
Eh però dai. I dialoghi fuori sincro, alcuni, i dialoghi bassi (questo ancora non l'ho riscontrato), un po' di stutter ti fa dire che un gioco sia da 15 euro? E tutto il resto? Non è po' troppo severo come giudizio, considerando che stai basando iul tutto su una parte dell'aspetto tecnico, quello negativo? No perchè senza sulle ombre lo gioco gira molto forte di fps in 4k.
Poi diciamo che definire quanto vale un gioco solo dall'aspetto tecnico mmm...... :)
Ma magari proprio non ti è piaciuto come gioco :)
Eh però dai. I dialoghi fuori sincro, alcuni, i dialoghi bassi (questo ancora non l'ho riscontrato), un po' di stutter ti fa dire che un gioco sia da 15 euro? E tutto il resto? Non è po' troppo severo come giudizio, considerando che stai basando iul tutto su una parte dell'aspetto tecnico, quello negativo? No perchè senza sulle ombre lo gioco gira molto forte di fps in 4k.
Poi diciamo che definire quanto vale un gioco solo dall'aspetto tecnico mmm...... :)
Ma magari proprio non ti è piaciuto come gioco :) io ho preso anche ultimo DLC :)
davide155
06-07-2023, 15:49
Eh però dai. I dialoghi fuori sincro, alcuni, i dialoghi bassi (questo ancora non l'ho riscontrato), un po' di stutter ti fa dire che un gioco sia da 15 euro? E tutto il resto? Non è po' troppo severo come giudizio, considerando che stai basando iul tutto su una parte dell'aspetto tecnico, quello negativo? No perchè senza sulle ombre lo gioco gira molto forte di fps in 4k.
Poi diciamo che definire quanto vale un gioco solo dall'aspetto tecnico mmm...... :)
Ma magari proprio non ti è piaciuto come gioco :)
Per me la parte tecnica è di fondamentale importanza. E se esce un colabrodo per me è bocciato. Poi te l'ho detto, l'ho voluto reinstallare pochi giorni fa proprio per provarlo con la 4090, ma la situazione è ancora tragica. Migliorata si, ma ancora non ci siamo. In 4k la 4090 sta spessissimo sotto il 90%, ed ho un 12900k. Chi ha una cpu inferiore che fa? si deve buttare di sotto? Dai, nel 2023 ste cose non si possono vedere. Soprattutto a 8 mesi dall'uscita.
Il gioco pure non mi ha per niente entusiasmato, gameplay abbastanza piatto, con un gunplay basic.
Ripeto, subito dopo ho giocato dead space remake per la prima volta e l'ho amato, cosa che non mi è successa con Callisto.
Non è completamente da bocciare, perchè comunque personalmente apprezzo l'impegno, ma 60€ sono stati un furto per me. Ad oggi non gli darei più di 15€.
Cutter90
06-07-2023, 16:15
Per me la parte tecnica è di fondamentale importanza. E se esce un colabrodo per me è bocciato. Poi te l'ho detto, l'ho voluto reinstallare pochi giorni fa proprio per provarlo con la 4090, ma la situazione è ancora tragica. Migliorata si, ma ancora non ci siamo. In 4k la 4090 sta spessissimo sotto il 90%, ed ho un 12900k. Chi ha una cpu inferiore che fa? si deve buttare di sotto? Dai, nel 2023 ste cose non si possono vedere. Soprattutto a 8 mesi dall'uscita.
Il gioco pure non mi ha per niente entusiasmato, gameplay abbastanza piatto, con un gunplay basic.
Ripeto, subito dopo ho giocato dead space remake per la prima volta e l'ho amato, cosa che non mi è successa con Callisto.
Non è completamente da bocciare, perchè comunque personalmente apprezzo l'impegno, ma 60€ sono stati un furto per me. Ad oggi non gli darei più di 15€.
Si ma colabrodo non si può sentire dai. La situazione non è tragica. Senza rt in 4k si fanno 80-120 fps con una grafica clamorosa. Perchè ok l'utilizzo della cpu e bla bla bla, però alla fine i sui fps buoni li fa e la sua grafica pazzesca lo è. Quindi se qualcosa non va c'è anche da dire che quello che va tecnicamente va da dio. Poi magari per me il gioco non è solo parte tecnica, per te magari pesa tanto.
E' un porting pc mediocre con difetti tecnici evidenti e di ottimizzazione. Ma non è che non gira e graficamente faccia pena.
Cutter90
06-07-2023, 17:35
ciao quanti fps fai in verifica prestazioni con tutto al max
Ecco qui. Preset "Ultra" in 4k senza vsync e con "Temporale" al posto dell FSR.
Il fatto che il preset ultra abbia rt disattivato e fsr abilitato la dice*lunga*ahahaha
Tra l'altro bisogna fare "verifica prestazioni" e non "esegui verifica prestazioni"... anche questo come i menù è fatto di cacca
131 fps medio
https://imgur.com/31sAS5z
davide155
06-07-2023, 17:45
Si ma colabrodo non si può sentire dai. La situazione non è tragica. Senza rt in 4k si fanno 80-120 fps con una grafica clamorosa. Perchè ok l'utilizzo della cpu e bla bla bla, però alla fine i sui fps buoni li fa e la sua grafica pazzesca lo è. Quindi se qualcosa non va c'è anche da dire che quello che va tecnicamente va da dio. Poi magari per me il gioco non è solo parte tecnica, per te magari pesa tanto.
E' un porting pc mediocre con difetti tecnici evidenti e di ottimizzazione. Ma non è che non gira e graficamente faccia pena.
A me graficamente non ha impressionato per nulla. Non dico sia scadente graficamente, ma nemmeno mi ha fatto strappare i capelli.
Ecco qui. Preset "Ultra" in 4k senza vsync e con "Temporale" al posto dell FSR.
Il fatto che il preset ultra abbia rt disattivato e fsr abilitato la dice*lunga*ahahaha
Tra l'altro bisogna fare "verifica prestazioni" e non "esegui verifica prestazioni"... anche questo come i menù è fatto di cacca
131 fps medio
https://imgur.com/31sAS5z prima di tutto grazie i miei risultati sono come li hai messi tu resi 6697 frame in 44,3 secondi frame ratemedio 151,11 fps . preset personalizzato senza vsync e con NO al posto del TEMPORALE , tutto rt al max resi 3227 frame in 44,3 secondi frame rate medio 72,8 fps scusami se non ho messo le foto ciao
lo so adesso prendero un sacco di insulti ma preferisco un gioco come callisto anche pieno di difetti ma giocabile x i miei standar che elden ring gioco da tutti enfatizzato come il top ma x mè mezza sega ,ingiocabile infatti ci ho giocato 30 minuti poi abbandonato x troppa ansia :cry: . poi ultimamente trovatemi un gioco privo di difetti :confused: :confused:
bagnino89
06-07-2023, 19:48
lo so adesso prendero un sacco di insulti ma preferisco un gioco come callisto anche pieno di difetti ma giocabile x i miei standar che elden ring gioco da tutti enfatizzato come il top ma x mè mezza sega ,ingiocabile infatti ci ho giocato 30 minuti poi abbandonato x troppa ansia :cry: . poi ultimamente trovatemi un gioco privo di difetti :confused: :confused:Gli insulti te li prendi perché stai paragonando due giochi non diversi, di più.
E a prescindere dal genere che ti piace, non si può negare il fatto che uno sia un successo ed un capolavoro, l'altro no.
Cutter90
06-07-2023, 19:53
lo so adesso prendero un sacco di insulti ma preferisco un gioco come callisto anche pieno di difetti ma giocabile x i miei standar che elden ring gioco da tutti enfatizzato come il top ma x mè mezza sega ,ingiocabile infatti ci ho giocato 30 minuti poi abbandonato x troppa ansia :cry: . poi ultimamente trovatemi un gioco privo di difetti :confused: :confused:
Se il paragone lo facciamo dal punto di vista tecnico siamo Ferrari Vs Panda. Elden ring tecnicamente è indecente. Callisto al momento al top.
Ma il paragone termina qui. Impossibile paragonare due giochi di generi così diversi.
A me stanno piacendo entrambi ad esempio. Ma è molto soggettiva la cosa, come giusto che sia.
Cutter90
06-07-2023, 19:54
A me graficamente non ha impressionato per nulla. Non dico sia scadente graficamente, ma nemmeno mi ha fatto strappare i capelli.
Trovo sia superiore a plague tale. L illuminazione è assurda. A me invece come impatto ha sbalordito non poco. È anche uno di quei giochi che su oled fa paura
micronauta1981
06-07-2023, 20:00
A chi è piaciuto il primo fear consiglio trepang2,lo ricorda soprattutto nel gun play,il livello di sfida è bello alto,la grafica anche non è male, soprattutto per i particellari.. è molto divertente da giocare
Gli insulti te li prendi perché stai paragonando due giochi non diversi, di più.
E a prescindere dal genere che ti piace, non si può negare il fatto che uno sia un successo ed un capolavoro, l'altro no.infatti non sto dicendo che è brutto , ma non è il mio genere di gioco ideale tutto qui
davide155
06-07-2023, 20:55
Trovo sia superiore a plague tale. L illuminazione è assurda. A me invece come impatto ha sbalordito non poco. È anche uno di quei giochi che su oled fa pauraDue giochi troppo diversi. Callisto ha si una buona illuminazione, ma frutto soprattutto del suo level design. È un gioco su corridoio ambientato al 98% al chiuso. L'impatto grafico si basa soprattutto sui giochi di luci ed ombre. Ed in questo l'ue4 è un must.
Ma finisce li per me. Soprattutto alterna livelli ben ricchi di dettagli a livelli piatti.
Dead space, suo diretto rivale, pur con 13 anni sulle spalle sul level design e storia gli mangia in testa a Callisto.
A plague tale requiem per me è una piccola perla. Non esente da difetti e molto particolare, ma l'ho apprezzato molto di più.
lo so adesso prendero un sacco di insulti ma preferisco un gioco come callisto anche pieno di difetti ma giocabile x i miei standar che elden ring gioco da tutti enfatizzato come il top ma x mè mezza sega ,ingiocabile infatti ci ho giocato 30 minuti poi abbandonato x troppa ansia :cry: . poi ultimamente trovatemi un gioco privo di difetti :confused: :confused:
Sottoscrivo completamente, Callisto secondo me è un capolavoro purtroppo di un genere (avventure a sviluppo lineare) che di questi tempi non va per la maggiore. Elden ring secondo me è il gioco più sopravvalutato della storia dei videogame, grafica orrida, trama che concilia il sonno e difficoltà insulsamente elevata che te lo fa odiare dopo pochi secondi che ci giochi, poi ovviamente ognuno ha i suoi gusti, per i miei, From software potrebbe tranquillamente chiudere i battenti :D :D :D :D
Sunjan88
06-07-2023, 22:02
infatti non sto dicendo che è brutto , ma non è il mio genere di gioco ideale tutto qui
non hai detto "gioco da tutti enfatizzato come il top ma x mè mezza sega", quindi ancora peggio...ma non ti per questo ti insulterò
bagnino89
07-07-2023, 09:13
Sottoscrivo completamente, Callisto secondo me è un capolavoro purtroppo di un genere (avventure a sviluppo lineare) che di questi tempi non va per la maggiore. Elden ring secondo me è il gioco più sopravvalutato della storia dei videogame, grafica orrida, trama che concilia il sonno e difficoltà insulsamente elevata che te lo fa odiare dopo pochi secondi che ci giochi, poi ovviamente ognuno ha i suoi gusti, per i miei, From software potrebbe tranquillamente chiudere i battenti :D :D :D :D
Ripeto, state confrontando mele con pere, sono paragoni senza senso.
Ripeto, state confrontando mele con pere, sono paragoni senza senso.
Sone entrambe due avventure single player in terza persona, quindi il genere è lo stesso.
FrancoBit
07-07-2023, 09:30
Sottoscrivo completamente, Callisto secondo me è un capolavoro purtroppo di un genere (avventure a sviluppo lineare) che di questi tempi non va per la maggiore. Elden ring secondo me è il gioco più sopravvalutato della storia dei videogame, grafica orrida, trama che concilia il sonno e difficoltà insulsamente elevata che te lo fa odiare dopo pochi secondi che ci giochi, poi ovviamente ognuno ha i suoi gusti, per i miei, From software potrebbe tranquillamente chiudere i battenti :D :D :D :D
Ma Elden Ring, che non ho mai giocato, ne ho intenzione di metter mano a un souls nella vita, piace per il gameplay fondamentalmente. La gente se ne va a male per la profondità e cura dei combattimenti, dei boss, della lore, non è poi la tecnica "sopraffina" del gioco a renderlo tanto apprezzato.
Cutter90
07-07-2023, 09:37
Sone entrambe due avventure single player in terza persona, quindi il genere è lo stesso.
Assolutamente no. Ma proprio NO
E' come dire che mele e limoni sono la stessa cosa perchè sono entrambe frutta :)
bagnino89
07-07-2023, 09:43
Sone entrambe due avventure single player in terza persona, quindi il genere è lo stesso.
Ma che diavolo stai dicendo?
Callisto è uno pseudo-shooter/survial horror con ambientazione sci-fi splatter estremamente lineare. Trama cinematografica ma banaletta, poche ore di gioco e una volta terminato lo disinstalli perché non c'è nessun incentivo a rigiocarlo.
Elden Ring è un gioco di ruolo d'azione open world (quindi è già chiaro che non c'entra una mazza con Callisto), tecnicamente niente di che ma artisticamente eccelso, giocabilità variegata con approcci infiniti, vincitore di millemila premi, gioco dell'anno 2022 e almeno 20 volte le copie vendute di Callisto.
In comune questi due giochi hanno solo una cosa: la visuale in terza persona. Fine. Posso capire confrontare Callisto con Dead Space (e anche questi, nonostante tutto, sono giochi con differenze non banali), ma confrontarlo con Elden Ring non ha alcun senso. Niente. Zero assoluto.
Tra l'altro, identificarli come "avventure" è errato, e a rigore Elden Ring non è solo single player. Quindi hai proprio sbagliato tutto. Lascia stare.
Sone entrambe due avventure single player in terza persona, quindi il genere è lo stesso.
Vabbè, mi avete sgamato, volevo trollare per la prima volta in vita mia :D :D :D :D :D .
In ogni caso per quanto mi riguarda quel genere di giochi è in fondo alla scala delle mie preferenze.
bagnino89
07-07-2023, 09:53
Vabbè, mi avete sgamato, volevo trollare per la prima volta in vita mia :D :D :D :D :D .
In ogni caso per quanto mi riguarda quel genere di giochi è in fondo alla scala delle mie preferenze.
Ce ne faremo una ragione. :)
vincitore di millemila premi, gioco dell'anno 2022 e almeno 20 volte le copie vendute di Callisto.
Vabè ma non è che questi siano fattori che identificano un genere eh. Sul fatto che siano due generi diversi siamo tutti d'accordo ma, quando si fanno paragoni tra generi videoludici, smettiamola di spiattellare pure gli awards che non c'entrano una fava nel contesto e sarebbero pure discutibili :D Nel mio caso, per esempio, adoro gli rpg ma al tempo stesso non tutti mi stuzzicano, come appunto Elden Ring che, a mio personale gusto, non mi dice nulla e per me gli awards ricevuti e le copie vendute contano zero. Infatti, tra le copie vendute, solo una bassa percentuale poi gioca per davvero tutto il capitolo, molti lo mollano subito o a metà, come succede per TUTTI i titoli che si acquistano. Basta farsi un giro su steam per vedere quanti acquistano giochi e magari hanno si e no 2 ore di gioco.
Quindi, come detto, ritengo inutile fare paragoni tra due giochi tirando in ballo vendite e premi. Sempre mia personale opinione, condivisibile o meno.
Ce ne faremo una ragione. :) :ave: :ave: :ave:
Ah,per gli hater dei preordini :D :D :D :D , volevo informarvi che oggi, prima della scadenza della promozione del 20% di sconto ubisoft sui preordini con le 100 Unit, ho preso:
1) AC Mirage
2) Avatar
3) Prince of persia.
Per quanto mi riguarda dai giochi di avventura Ubisoft non ho mai avuto delusioni, li ho tutti spolpati e finiti al 100%.
Cutter90
07-07-2023, 10:35
Vabè ma non è che questi siano fattori che identificano un genere eh. Sul fatto che siano due generi diversi siamo tutti d'accordo ma, quando si fanno paragoni tra generi videoludici, smettiamola di spiattellare pure gli awards che non c'entrano una fava nel contesto e sarebbero pure discutibili :D Nel mio caso, per esempio, adoro gli rpg ma al tempo stesso non tutti mi stuzzicano, come appunto Elden Ring che, a mio personale gusto, non mi dice nulla e per me gli awards ricevuti e le copie vendute contano zero. Infatti, tra le copie vendute, solo una bassa percentuale poi gioca per davvero tutto il capitolo, molti lo mollano subito o a metà, come succede per TUTTI i titoli che si acquistano. Basta farsi un giro su steam per vedere quanti acquistano giochi e magari hanno si e no 2 ore di gioco.
Quindi, come detto, ritengo inutile fare paragoni tra due giochi tirando in ballo vendite e premi. Sempre mia personale opinione, condivisibile o meno.
Perfettamente d'accordo. Per il suo genere Elden ring è eccellente, ma cmq ci sono cose che possono non piacere. Tipo la non-trama, la parte tecnica oscena e una lunghezza esasperante.
bagnino89
07-07-2023, 10:39
Vabè ma non è che questi siano fattori che identificano un genere eh. Sul fatto che siano due generi diversi siamo tutti d'accordo ma, quando si fanno paragoni tra generi videoludici, smettiamola di spiattellare pure gli awards che non c'entrano una fava nel contesto e sarebbero pure discutibili :D Nel mio caso, per esempio, adoro gli rpg ma al tempo stesso non tutti mi stuzzicano, come appunto Elden Ring che, a mio personale gusto, non mi dice nulla e per me gli awards ricevuti e le copie vendute contano zero. Infatti, tra le copie vendute, solo una bassa percentuale poi gioca per davvero tutto il capitolo, molti lo mollano subito o a metà, come succede per TUTTI i titoli che si acquistano. Basta farsi un giro su steam per vedere quanti acquistano giochi e magari hanno si e no 2 ore di gioco.
Quindi, come detto, ritengo inutile fare paragoni tra due giochi tirando in ballo vendite e premi. Sempre mia personale opinione, condivisibile o meno.
Io non ho tirato in ballo solo i premi. Di certo, però, un qualche valore lo hanno.
:ave: :ave: :ave:
Ah,per gli hater dei preordini :D :D :D :D , volevo informarvi che oggi, prima della scadenza della promozione del 20% di sconto ubisoft sui preordini con le 100 Unit, ho preso:
1) AC Mirage
2) Avatar
3) Prince of persia.
Per quanto mi riguarda dai giochi di avventura Ubisoft non ho mai avuto delusioni, li ho tutti spolpati e finiti al 100%.
Hai fatto benissimo, tra l'altro è risaputo che i giochi Ubisoft siano perfettamente ottimizzati all'uscita.
Cutter90
07-07-2023, 10:41
:ave: :ave: :ave:
Ah,per gli hater dei preordini :D :D :D :D , volevo informarvi che oggi, prima della scadenza della promozione del 20% di sconto ubisoft sui preordini con le 100 Unit, ho preso:
1) AC Mirage
2) Avatar
3) Prince of persia.
Per quanto mi riguarda dai giochi di avventura Ubisoft non ho mai avuto delusioni, li ho tutti spolpati e finiti al 100%.
Ubisoft è in decliuno totale da qualche anno. Giochi tutti uguali, piattisssimi e pure tecnicamente arretrati. Spero con Mirage rientrino in pista perchè ormai siamo agli sgoccioli. Se anche questi 3 dovessero essere mediocri... mmmm
La fine che ha fatto EA è lì davanti a tutti
Ubisoft è in decliuno totale da qualche anno. Giochi tutti uguali, piattisssimi e pure tecnicamente arretrati. Spero con Mirage rientrino in pista perchè ormai siamo agli sgoccioli. Se anche questi 3 dovessero essere mediocri... mmmm
La fine che ha fatto EA è lì davanti a tutti
Secondo me ci sono due Ubisoft, una buona e una cattiva, quella buona è quella che fa gli AC, che ha fatto quel capolavoro di Immortal Phenix Rising e tutto sommato anche i Far cry. Poi c'è quella cattiva che fa i giochi tutti uguali sparatutto competitivi e multiplayer di massa e roguelike come Siege, Riders republic, Steep, e i DLC di Far cry 6 (di cui rimpiango ancora i soldi) e del DLC di Valhalla che per fortuna era gratis :D .
Ecco, a me interessa la Ubisoft buona.....
Cutter90
07-07-2023, 11:32
Secondo me ci sono due Ubisoft, una buona e una cattiva, quella buona è quella che fa gli AC, che ha fatto quel capolavoro di Immortal Phenix Rising e tutto sommato anche i Far cry. Poi c'è quella cattiva che fa i giochi tutti uguali sparatutto competitivi e multiplayer di massa e roguelike come Siege, Riders republic, Steep, e i DLC di Far cry 6 (di cui rimpiango ancora i soldi) e del DLC di Valhalla che per fortuna era gratis :D .
Ecco, a me interessa la Ubisoft buona.....
Ma anche gli ac iniziano di nuovo a stancare (dopo che già avevano stancato i vecchi). il problema è che sono ancorati al loro modo di fare i giochi da 15 anni.
Ciao, io ho montata una 4080 Strix OC su di un Seasonic GX 1000w. Seasonic stessa mi ha inviato il suo cavo che rende il mio alimentatore compatibile con le 4000. La mia domanda è: (premetto che il collegamento è corretto) è sicuro quel singolo cavo, seppur sdoppiato, per reggere quella scheda o rischio qualcosa? L'adattatore che ho nella confezione della scheda non l'ho nemmeno considerato.
Cutter90
07-07-2023, 14:34
Ciao, io ho montata una 4080 Strix OC su di un Seasonic GX 1000w. Seasonic stessa mi ha inviato il suo cavo che rende il mio alimentatore compatibile con le 4000. La mia domanda è: (premetto che il collegamento è corretto) è sicuro quel singolo cavo, seppur sdoppiato, per reggere quella scheda o rischio qualcosa? L'adattatore che ho nella confezione della scheda non l'ho nemmeno considerato.
Beh Se Seasonic te lo ha inviato e non vuoi usare il polpo va benone direi
ginepraio
07-07-2023, 15:57
Va bhe mi infilo di soppiatto e lo dico.
Ac odyssey , come storia , come ambientazioni e si anche come gameplay per me e' il gioco migliore di sempre. Poco mi importa se mi mandava la cpu a 80 gradi e se devo bloccare gli fps a 80 altrimenti ho cali di frame . Finito e rifinito 2 volte per circa 250 ore totali e vado per la terza. Elden ring l ho riposto dopo poche ore , ma per me le ambientazioni reali o comunque "real mitologico" confrontate con demoni e fate e' come paragonare bistecca e mortadella , ma questo non esclude che c'e' chi preferisce la mortazza e comunque in alcuni casi a buona ragione :D
Cutter90
07-07-2023, 16:04
Va bhe mi infilo di soppiatto e lo dico.
Ac odyssey , come storia , come ambientazioni e si anche come gameplay per me e' il gioco migliore di sempre. Poco mi importa se mi mandava la cpu a 80 gradi e se devo bloccare gli fps a 80 altrimenti ho cali di frame . Finito e rifinito 2 volte per circa 250 ore totali e vado per la terza. Elden ring l ho riposto dopo poche ore , ma per me le ambientazioni reali o comunque "real mitologico" confrontate con demoni e fate e' come paragonare bistecca e mortadella , ma questo non esclude che c'e' chi preferisce la mortazza e comunque in alcuni casi a buona ragione :D
Hai di fatto detto Porsche e Ferrari con bistecca e mortazza :D
E io che sono di Bologna lo so bene
Odissey gran bel gioco. Certo, migliore di sempre, un parolone eh
Concordo in pieno ODYSSEY è un gioco assolutamente maestoso, come minimo ci ho speso 300 ore. E' bello in tutto!
davide155
07-07-2023, 16:10
Ciao, io ho montata una 4080 Strix OC su di un Seasonic GX 1000w. Seasonic stessa mi ha inviato il suo cavo che rende il mio alimentatore compatibile con le 4000. La mia domanda è: (premetto che il collegamento è corretto) è sicuro quel singolo cavo, seppur sdoppiato, per reggere quella scheda o rischio qualcosa? L'adattatore che ho nella confezione della scheda non l'ho nemmeno considerato.Si va benissimo.
I cavi a 8poli possono portare fino a 300w l'uno. Quindi tu sei a posto anche per una ipotetica 4090 con tdp da 600w. Ovviamente quelli originali della stessa marca dell'alimentatore. Dato che ogni marca di alimentatori gestisce a modo suo i pin in uscita dall'alimentatore stesso. L'importante è non mettere quel cavo su un Thermaltake ad esempio. Ma non è il tuo caso ovviamente.
Concordo in pieno ODYSSEY è un gioco assolutamente maestoso, come minimo ci ho speso 300 ore. E' bello in tutto!
Concordo ma dico anche che AC Origins è allo stesso livello, un poco sotto ma secondo me sempre molto bello Valhalla.
Mirage spero che sia un ritorno alle origini, dicono che dovrebbe essere molto vicino al primo AC e non sarebbe un male.
Da Avatar pure mi aspetto molto, Prince invece l'ho preso non aspettandomi molto se non puro intrattenimento.
Vedremo, in ogni caso non so come su questo forum c'è gente che dice che non c'è niente da giocare, io credo che per la fine dell'anno ci vorranno giornate da 72 ore per giocare e finire tutto quello che c'è in uscita.
Riscaldo il mio RIG nel frattempo :D :D :D :D
ginepraio
07-07-2023, 16:16
Hai di fatto detto Porsche e Ferrari con bistecca e mortazza :D
E io che sono di Bologna lo so bene
Odissey gran bel gioco. Certo, migliore di sempre, un parolone eh
Ripensandoci pero' e' vero , e' colpa dei detti toscani che per forza di cose enfatizzano troppo la bistecca , anche perche ti confesso che la focaccina con la mortadella a mio modo di vedere dovrebbe essere patrimonio dell unesco . :D
ginepraio
07-07-2023, 16:19
Concordo in pieno ODYSSEY è un gioco assolutamente maestoso, come minimo ci ho speso 300 ore. E' bello in tutto!
Concordo ma dico anche che AC Origins è allo stesso livello, un poco sotto ma secondo me sempre molto bello Valhalla.
Mirage spero che sia un ritorno alle origini, dicono che dovrebbe essere molto vicino al primo AC e non sarebbe un male.
Da Avatar pure mi aspetto molto, Prince invece l'ho preso non aspettandomi molto se non puro intrattenimento.
Vedremo, in ogni caso non so come su questo forum c'è gente che dice che non c'è niente da giocare, io credo che per la fine dell'anno ci vorranno giornate da 72 ore per giocare e finire tutto quello che c'è in uscita.
Riscaldo il mio RIG nel frattempo :D :D :D :D
Pensavo di essere rimasto tra i pochi , ma si puo convenire almeno che ubisoft abbia ancora lunga vita . :D
micronauta1981
08-07-2023, 08:05
Sto giocando Callisto..ma il fuoco??😂😂😂 È orrendo,le texture di molte pareti e dei materiali in genere sono sfuocatissime.. tecnicamente mi aspettavo di più sinceramente..
Cutter90
08-07-2023, 08:16
Sto giocando Callisto..ma il fuoco??😂😂😂 È orrendo,le texture di molte pareti e dei materiali in genere sono sfuocatissime.. tecnicamente mi aspettavo di più sinceramente..
Il fuoco va a 30 fps tipo ahahah
Sulle texture invece non mi ci ritrovo. Io le vedo perfette
davide155
08-07-2023, 08:52
Sto giocando Callisto..ma il fuoco??😂😂😂 È orrendo,le texture di molte pareti e dei materiali in genere sono sfuocatissime.. tecnicamente mi aspettavo di più sinceramente..Fosse solo il fuoco il problema di quel gioco.
Aspetta di andare avanti e ne vedrai delle belle.
Per me tranne qualche gioco di luci e ombre è una delle peggiori trasposizioni dell'ue4.
Rumpelstiltskin
08-07-2023, 09:39
Avrei bisogno della vostra esperienza, ho preso il case della fractal modello north solo che non ci sta il rad da 360 della arctic e quello da 240 della gpu msi liquid.
A questo punto chiedo a voi una mano per trovare un c'è idoneo (e carino da vedersi) che possa ospitare i due rad
Grazie
RoUge.boh
08-07-2023, 10:21
Avrei bisogno della vostra esperienza, ho preso il case della fractal modello north solo che non ci sta il rad da 360 della arctic e quello da 240 della gpu msi liquid.
A questo punto chiedo a voi una mano per trovare un c'è idoneo (e carino da vedersi) che possa ospitare i due rad
Grazie
Se ti piace
https://lian-li.com/product/pc-o11-dynamic/
davide155
08-07-2023, 11:07
Avrei bisogno della vostra esperienza, ho preso il case della fractal modello north solo che non ci sta il rad da 360 della arctic e quello da 240 della gpu msi liquid.
A questo punto chiedo a voi una mano per trovare un c'è idoneo (e carino da vedersi) che possa ospitare i due rad
GrazieAnche io consiglio lian li....Il mio prossimo case, il lian li XL.
Rumpelstiltskin
08-07-2023, 11:34
Bello ma grande, devo prendere bene le misure
Cutter90
08-07-2023, 11:49
Bello ma grande, devo prendere bene le misure
Ah beh, con un 360 e un 240 per forza ci vuole un case "grande ":)
ginepraio
08-07-2023, 12:58
Io ho preso itek dark cave , molto simile al lian li o11 , ma ha un po piu di tolleranza traa gpu e il vetro , visti i problemi con il 12vhpwr , materiali molto buoni .
Intel-Inside
09-07-2023, 07:47
Avrei bisogno della vostra esperienza, ho preso il case della fractal modello north solo che non ci sta il rad da 360 della arctic e quello da 240 della gpu msi liquid.
A questo punto chiedo a voi una mano per trovare un c'è idoneo (e carino da vedersi) che possa ospitare i due rad
Grazie
Ciao, io ho il Fractal Meshify 2 liscio e sul Top ho il LF2 da 360 mentre sul Front ho l’AIO da 360 della 4080 Waterforce della Gigabyte e ci sta tutto senza nessun problema, e le temperature sono ottime.
Rumpelstiltskin
09-07-2023, 08:09
vi ringrazio tutti, ora devo valutare bene e prendere le misure!
PS: la gpu arriva domani :)
mich9366
09-07-2023, 21:57
ragazzi come faccio ad attivare il frame generation con v-sync?
Per esempio su cyberpunk, ho uno schermo 60hz Gsync ma attivando il frame generation supera i 60 fps e mi scaletta tutto (non mi fa attivare il v-sync)
Grazie
amon.akira
09-07-2023, 22:25
ragazzi come faccio ad attivare il frame generation con v-sync?
Per esempio su cyberpunk, ho uno schermo 60hz Gsync ma attivando il frame generation supera i 60 fps e mi scaletta tutto (non mi fa attivare il v-sync)
Grazie
Lo attivi nel pannello nvidia su globale vsync attivato, anzi ti conviene tenerlo li e disattivarlo nei giochi
mich9366
09-07-2023, 22:54
grazie!
Altro dubbio/ curiosità...stavo provando la demo ue5.1 redwood forest. Da gpuz vedo che mi dice la gpu è "castrata" lato potenza, nonostante sia tra i 410-430w...come è possibile?
amon.akira
10-07-2023, 07:17
grazie!
Altro dubbio/ curiosità...stavo provando la demo ue5.1 redwood forest. Da gpuz vedo che mi dice la gpu è "castrata" lato potenza, nonostante sia tra i 410-430w...come è possibile?
su afterburner puoi alzare leggermente il powerlimit, da 450w a 480w sulla trio, se vuoi fallo cosi gli dai un piccolo margine in piu, oppure semplicemente fai una curva in undervolt per ottimizzare i consumi.
calcola che ci sono applicativi che cmq assorbono parecchio, mi è capitato di vedere anche 500w con 975mV su jedi survivor per esempio :P
in quei casi ti segherà leggermente il clock avendo il limite a 480w sulla trio, nel mio caso la founder edition il powerlimit max è 600w
Cutter90
10-07-2023, 09:20
ragazzi come faccio ad attivare il frame generation con v-sync?
Per esempio su cyberpunk, ho uno schermo 60hz Gsync ma attivando il frame generation supera i 60 fps e mi scaletta tutto (non mi fa attivare il v-sync)
Grazie
Ma come ho uno schermo 60 hz? Hai in programma un upgrade vero?
h.rorschach
10-07-2023, 09:46
ragazzi come faccio ad attivare il frame generation con v-sync?
Per esempio su cyberpunk, ho uno schermo 60hz Gsync ma attivando il frame generation supera i 60 fps e mi scaletta tutto (non mi fa attivare il v-sync)
Grazie
Pannello NVIDIA:
* vsync: on / adaptive
* max frame rate: 57 fps
* low latency: on
mich9366
10-07-2023, 12:44
Ma come ho uno schermo 60 hz? Hai in programma un upgrade vero?
eh si :stordita:
L'idea è quella, non volevo sborsare una fortuna per un 4k 144hz...ma poi il gsync ha ancora la sua utilità nella scelta dello schermo?
davide155
10-07-2023, 12:45
eh si :stordita:
L'idea è quella, non volevo sborsare una fortuna per un 4k 144hz...ma poi il gsync ha ancora la sua utilità nella scelta dello schermo?Se hai una nvidia assolutamente si.
Per me assieme al dlss è la miglior tecnologia mai inventata.
mich9366
10-07-2023, 12:46
su afterburner puoi alzare leggermente il powerlimit, da 450w a 480w sulla trio, se vuoi fallo cosi gli dai un piccolo margine in piu, oppure semplicemente fai una curva in undervolt per ottimizzare i consumi.
calcola che ci sono applicativi che cmq assorbono parecchio, mi è capitato di vedere anche 500w con 975mV su jedi survivor per esempio :P
in quei casi ti segherà leggermente il clock avendo il limite a 480w sulla trio, nel mio caso la founder edition il powerlimit max è 600w
in realtà è già impostata al massimo , ovvero 106% , che corrisponde appunto a 480 w circa.
Però non supera mai i 420-430, in applicativi dove invece vedo 4090 andare anche a oltre 500 (bios permettendo). Non capisco dove sia l'inghippo..
davide155
10-07-2023, 12:48
in realtà è già impostata al massimo , ovvero 106% , che corrisponde appunto a 480 w circa.
Però non supera mai i 420-430, in applicativi dove invece vedo 4090 andare anche a oltre 500 (bios permettendo). Non capisco dove sia l'inghippo..Prova a mettere al massimo anche il voltaggio, vedi come salgono i watt :asd:
mich9366
10-07-2023, 12:51
Praticamente da gpuz mi da che la scheda è limitata lato potenza ad appena 420w
Rumpelstiltskin
10-07-2023, 12:55
Ma un buon oled gsync non curvo esiste?
Cutter90
10-07-2023, 13:12
eh si :stordita:
L'idea è quella, non volevo sborsare una fortuna per un 4k 144hz...ma poi il gsync ha ancora la sua utilità nella scelta dello schermo?
Ma scusa, hai preso una scheda da 2000 euro e poi non compri un monitor adeguato? Cioè, se giocavi su un 60 hz bastava anche una 4070 ti :)
Fondamentale che sia gsync compatibile
Cutter90
10-07-2023, 13:12
Ma un buon oled gsync non curvo esiste?
Mmm tuttri gli oled curvi? Il nuovo g9 samsung, il dell ecc ecc
Tutti oled e con gsync
Cutter90
10-07-2023, 13:13
in realtà è già impostata al massimo , ovvero 106% , che corrisponde appunto a 480 w circa.
Però non supera mai i 420-430, in applicativi dove invece vedo 4090 andare anche a oltre 500 (bios permettendo). Non capisco dove sia l'inghippo..
Ovviamente parliamo di performance ingame senza vsync giusto? perchè se fai 60 fps la 4090 andrà al 60% si e no, per forza non consuma watt
mich9366
10-07-2023, 13:44
si parlo ad esempio di cyberpunk senza dlss con rt override o demo di redwood in ue5.
Sono al 100%, 30fps e scheda video castrata lato potenza :confused:
Cutter90
10-07-2023, 13:58
si parlo ad esempio di cyberpunk senza dlss con rt override o demo di redwood in ue5.
Sono al 100%, 30fps e scheda video castrata lato potenza :confused:
beh ma la trio non fa più di 450 watt da quello che so
mich9366
10-07-2023, 14:41
ma a 450 non ci arriva nemmeno, tantomeno 480 che il limite massimo che ho impostato da msi ab.
Sfiora a malapena i 420.
Ho un alimentatore da 850w ma non dovrebbe avere problemi, magari provo a cambiare i cavi.
Cutter90
10-07-2023, 14:50
ma a 450 non ci arriva nemmeno, tantomeno 480 che il limite massimo che ho impostato da msi ab.
Sfiora a malapena i 420.
Ho un alimentatore da 850w ma non dovrebbe avere problemi, magari provo a cambiare i cavi.
Ok, ma in che test non riesci ad arrivare al pl?
mich9366
10-07-2023, 16:25
Per ora giochi..ad esempio in demo ue5 o cyberpunk.
Ad esempio qui la suprime x arriva giustamente a oltre 500w, sfruttando tutto il il suo power limit disposizione:
https://www.youtube.com/watch?v=N1a-msE0iPw
Cosa posso provare come test per il pc ?
amon.akira
10-07-2023, 17:02
Per ora giochi..ad esempio in demo ue5 o cyberpunk.
Ad esempio qui la suprime x arriva giustamente a oltre 500w, sfruttando tutto il il suo power limit disposizione:
https://www.youtube.com/watch?v=N1a-msE0iPw
Cosa posso provare come test per il pc ?
Un cyberpunk bench senza dlss e fg va benissimo come test x il pl, oppure boundary benchmark su steam
davide155
10-07-2023, 18:47
Ma un buon oled gsync non curvo esiste?Sono usciti ad inizio anno, tutti che montano il solito pannello LG con tecnologia Meta. Un signor pannello.
Lo montano le solite marche....lg, asus, aoc ecc.
davide155
10-07-2023, 18:59
ma a 450 non ci arriva nemmeno, tantomeno 480 che il limite massimo che ho impostato da msi ab.
Sfiora a malapena i 420.
Ho un alimentatore da 850w ma non dovrebbe avere problemi, magari provo a cambiare i cavi.Occhio ai cavi perché se la gpu non sente la comunicazione giusta dei pin sense 0 e sense 1 con l'alimentatore si auto limita a 450w.
Rumpelstiltskin
10-07-2023, 19:10
Sono usciti ad inizio anno, tutti che montano il solito pannello LG con tecnologia Meta. Un signor pannello.
Lo montano le solite marche....lg, asus, aoc ecc.
Intanto mi tengo il mio m32u poi questo inverno vedo di fare il cambio.
Invece, nessuno usa un monitorino esterno magari usb per monitorare gpu/cpu ? Odio vedermeli in game :)
davide155
10-07-2023, 19:17
Intanto mi tengo il mio m32u poi questo inverno vedo di fare il cambio.
Invece, nessuno usa un monitorino esterno magari usb per monitorare gpu/cpu ? Odio vedermeli in game :)Io ho provato a metterli, ma usando praticamente sempre il dldsr mi si scazzava il secondo monitor ogni volta che attivavo il dldsr.
Provato sia tramite vga interna alla cpu che tramite gpu discreta. Il risultato era il solito.
Peccato perché sono molto carini e funzionali.
Rumpelstiltskin
10-07-2023, 20:53
Ho provat prima il dldsr, che spettacolo.
Sono rimasto indietro...
Oggi è arrivata la bestia, ma ho 30 gradi in casa quindi ho troppo caldo fino a quando non sposto il pc.
Cmq con Gotham Knight tutto al massimo e dldsr la scheda stava sui 45 gradi e le cpu sui 55, per ora con case fractal north aperto e rad gpu esterna.
Questa settimana ordino il lian li evo dynamic e cambio anche il rad cpu, passo da arctic ii 360 alla nzxt elite 360 ( almeno posso buttare un colpo al volo sulla cpu e vedere le temp....)
Probabilmente vi stresserò con i setting nvidia che per me sono diventati oscuri
:)
PS: ma secondo voi (chiedo perché non ho trovato video sul tubo) riuscirò a chiudere la paratia col vetro del lian li dynamic evo con la msi suprim liquid ? Non vorrei comprare nuovamente il case sbagliato... :/
micronauta1981
11-07-2023, 09:08
ma a 450 non ci arriva nemmeno, tantomeno 480 che il limite massimo che ho impostato da msi ab.
Sfiora a malapena i 420.
Ho un alimentatore da 850w ma non dovrebbe avere problemi, magari provo a cambiare i cavi.
Che cavi stai usando dalla scheda all'alimentatore?
micronauta1981
11-07-2023, 09:11
Solo io non lo uso mai il gsinc?per me è totalmente inutile..preferisco di gran lunga avere sempre 175hz che avere meno hertz,ma sincronizzati con la GPU. Per il tearing basta limitare gli fps agli hz del monitor.
Black"SLI"jack
11-07-2023, 09:26
in realtà è già impostata al massimo , ovvero 106% , che corrisponde appunto a 480 w circa.
Però non supera mai i 420-430, in applicativi dove invece vedo 4090 andare anche a oltre 500 (bios permettendo). Non capisco dove sia l'inghippo..
Come diceva Davide, da AB abilita la gestione del voltaggio e alzalo a 1,1v (il massimo) e vedi se ti supera la soglia dei 420w. alzare solo il PL non serve.
Ma un buon oled gsync non curvo esiste?
Mmm tuttri gli oled curvi? Il nuovo g9 samsung, il dell ecc ecc
Tutti oled e con gsync
Attenzione che il nuovo G9 oled non è G-sync compatibile. è solo freesync Pro. Non capisco come mai, dato che i modelli G9 precedenti lo erano.
Intanto mi tengo il mio m32u poi questo inverno vedo di fare il cambio.
Invece, nessuno usa un monitorino esterno magari usb per monitorare gpu/cpu ? Odio vedermeli in game :)
Uso un monitor hdmi 7" di EK, collegato alla vga integrata del 7950x. COme diceva Davide, nel caso di uso del dldsr avere un monitor secondario anche se pilotato da una scheda secondaria, sbarella l'immagine.
Solo io non lo uso mai il gsinc?per me è totalmente inutile..preferisco di gran lunga avere sempre 175hz che avere meno hertz,ma sincronizzati con la GPU. Per il tearing basta limitare gli fps agli hz del monitor.
mi verrebbe da chiederti se lo hai mai provato veramente il g-sync. posso capire se uno gioca in competitivo serio, ma nella stragrande maggioranza dei casi ben venga il g-sync, e parlo da utilizzatore di g-sync dal lontano 2016 con monitor Asus ROG PQ348Q (g-sync hardware che personalmente reputo nettamente superiore rispetto alla versione "compatibile"). ma per avere 175 fps fissi pure con la 4090, devi scendere a compromessi lato impostazioni, e poi a quale risoluzione? 1080p? perché in 4k la vedo dura.
tra l'altro per far funzionare in modo corretto il g-sync, oltre ad abilitarlo ovviamente, è necessario attivare il v-sync da pannello nvidia, e sempre da pannello nvidia impostare il limite fps al valore degli Hz -3 (es: 144Hz -> fps 141).
Cutter90
11-07-2023, 09:26
Solo io non lo uso mai il gsinc?per me è totalmente inutile..preferisco di gran lunga avere sempre 175hz che avere meno hertz,ma sincronizzati con la GPU. Per il tearing basta limitare gli fps agli hz del monitor.
Si, non ha molto senso come fai tu. Facciamo un esempio sui 60 hz così ci capiamo meglio:
Facciamo una premessa: senza gsync, in qualsiasi momento ti vada sotto gli Hz del monitor avrai tearing ma soprattutto scatti nell'immagine.
Bene, ora, per evitare questo senza gsync, che di fatto risolverebbe questi problemi, dobbiamo essere sicuri di stare sempre sopra gli Hz del monitor con il Vsync.
Ossia, se il monitor è a 60 hz il gioco dovrà stare sempre sopra 60 fps. Diciamo che i giochi hanno dei drop di 15-30 fps di solito a seconda dei momenti. Quindi significa che tu in alcuni punti andresti a 60, ma magari nella maggior parte del gioco faresti 75-80 fps.
In sostanza ti stai mangiando, senza un motivo, 15-30 fps perchè ti servono come "margine" per non andare sotto i 60 durante i drop.
Che ne dici?
Cutter90
11-07-2023, 09:28
Come diceva Davide, da AB abilita la gestione del voltaggio e alzalo a 1,1v (il massimo) e vedi se ti supera la soglia dei 420w. alzare solo il PL non serve.
Attenzione che il nuovo G9 oled non è G-sync compatibile. è solo freesync Pro. Non capisco come mai, dato che i modelli G9 precedenti lo erano.
Uso un monitor hdmi 7" di EK, collegato alla vga integrata del 7950x. COme diceva Davide, nel caso di uso del dldsr avere un monitor secondario anche se pilotato da una scheda secondaria, sbarella l'immagine.
mi verrebbe da chiederti se lo hai mai provato veramente il g-sync. posso capire se uno gioca in competitivo serio, ma nella stragrande maggioranza dei casi ben venga il g-sync, e parlo da utilizzatore di g-sync dal lontano 2016 con monitor Asus ROG PQ348Q (g-sync hardware che personalmente reputo nettamente superiore rispetto alla versione "compatibile"). ma per avere 175 fps fissi pure con la 4090, devi scendere a compromessi lato impostazioni, e poi a quale risoluzione? 1080p? perché in 4k la vedo dura.
tra l'altro per far funzionare in modo corretto il g-sync, oltre ad abilitarlo ovviamente, è necessario attivare il v-sync da pannello nvidia, e sempre da pannello nvidia impostare il limite fps al valore degli Hz -3 (es: 144Hz -> fps 141).
Ma no, sarà solo che non è certificato nvidia. Tutti i monitor con vrr/adaptive sync sono gsync compatibili.... a parte il fatto che io non prendo l'oled, ma il led, in sconto per altro su amazon a 1600
Dove l'hai letta sta cosa scusa?
Black"SLI"jack
11-07-2023, 09:31
PS: ma secondo voi (chiedo perché non ho trovato video sul tubo) riuscirò a chiudere la paratia col vetro del lian li dynamic evo con la msi suprim liquid ? Non vorrei comprare nuovamente il case sbagliato... :/
allora, questa è una bella domanda. ho la suprem x con wb alphacool e in un simil lian li o11 standard, in posizione standard non ci stava. ora la suprem liquid con la questione tubi che escono di lato la scheda la vedo assai dura. il lian li evo è si più grande dello standard, ma non di tanto.
la maggiora parte dei case non ha spazio per queste vga enormi. l'unica soluzione sicura è quella di montare la vga in verticale tramite riser card.
Black"SLI"jack
11-07-2023, 09:33
Ma no, sarà solo che non è certificato nvidia. Tutti i monitor con vrr/adaptive sync sono gsync compatibili.... a parte il fatto che io non prendo l'oled, ma il led, in sconto per altro su amazon a 1600
Dove l'hai letta sta cosa scusa?
basta che vai sul sito di samsung e guardi le specifiche del G9 Oled.
Cutter90
11-07-2023, 09:33
Ho provat prima il dldsr, che spettacolo.
Sono rimasto indietro...
Oggi è arrivata la bestia, ma ho 30 gradi in casa quindi ho troppo caldo fino a quando non sposto il pc.
Cmq con Gotham Knight tutto al massimo e dldsr la scheda stava sui 45 gradi e le cpu sui 55, per ora con case fractal north aperto e rad gpu esterna.
Questa settimana ordino il lian li evo dynamic e cambio anche il rad cpu, passo da arctic ii 360 alla nzxt elite 360 ( almeno posso buttare un colpo al volo sulla cpu e vedere le temp....)
Probabilmente vi stresserò con i setting nvidia che per me sono diventati oscuri
:)
PS: ma secondo voi (chiedo perché non ho trovato video sul tubo) riuscirò a chiudere la paratia col vetro del lian li dynamic evo con la msi suprim liquid ? Non vorrei comprare nuovamente il case sbagliato... :/
La mia con il mastercase pro 5 ci sta. Guarda che misure ha il mio così le confronti magari
Rumpelstiltskin
11-07-2023, 09:57
La mia con il mastercase pro 5 ci sta. Guarda che misure ha il mio così le confronti magari
Ti ringrazio ma è troppo grande per me...
Rumpelstiltskin
11-07-2023, 09:57
allora, questa è una bella domanda. ho la suprem x con wb alphacool e in un simil lian li o11 standard, in posizione standard non ci stava. ora la suprem liquid con la questione tubi che escono di lato la scheda la vedo assai dura. il lian li evo è si più grande dello standard, ma non di tanto.
la maggiora parte dei case non ha spazio per queste vga enormi. l'unica soluzione sicura è quella di montare la vga in verticale tramite riser card.
Ma esistono riser pci 5?
Black"SLI"jack
11-07-2023, 10:29
Ma esistono riser pci 5?
pcie 5 ancora no. pcie 4 quanti ne vuoi, alcuni case li hanno già in dotazione. al momento uso due kit riser card pcie 4 cooler master v3 sulla mia suprem x e sulla 4080 pny di un amico.
Cutter90
11-07-2023, 10:49
basta che vai sul sito di samsung e guardi le specifiche del G9 Oled.
Si. Infatti è come dicevo io ha il VESA Adaptive-Sync, quindi è gsync compatibile :)
Cutter90
11-07-2023, 10:50
Ti ringrazio ma è troppo grande per me...
Eh, conta che le dimensioni laterali sono giuste giuste le mie. Quindi se prendi un case con quella misura più piccola non ci sta in orizzontale, sappilo....
Rumpelstiltskin
11-07-2023, 11:48
pcie 5 ancora no. pcie 4 quanti ne vuoi, alcuni case li hanno già in dotazione. al momento uso due kit riser card pcie 4 cooler master v3 sulla mia suprem x e sulla 4080 pny di un amico.
Mettendo un riser pci 4 su una mono che ha pci 5 potrei avere cali di prestazioni o per le gpu non ci sono differenze?
Gilgamessh
11-07-2023, 12:35
Occhio ai cavi perché se la gpu non sente la comunicazione giusta dei pin sense 0 e sense 1 con l'alimentatore si auto limita a 450w.
si puo vedere in qualche modo il PL a cui puo arrivare la scheda?
mich9366
11-07-2023, 20:15
Che cavi stai usando dalla scheda all'alimentatore?
3 normalissimi 6+2 pin sdoppiati, di cui 2 già li avevo su
mich9366
11-07-2023, 20:17
3 normalissimi 6+2 pin sdoppiati, di cui 2 già li avevo su
questo è quello che succede:
https://ibb.co/Cwt8GD2
mich9366
11-07-2023, 20:23
[QUOTE=Black"SLI"jack;48246331]Come diceva Davide, da AB abilita la gestione del voltaggio e alzalo a 1,1v (il massimo) e vedi se ti supera la soglia dei 420w. alzare solo il PL non serve.
come faccio ad alzarlo ? mi da la solo la barra dell'aumento percentuale..
amon.akira
11-07-2023, 22:15
[QUOTE=Black"SLI"jack;48246331]Come diceva Davide, da AB abilita la gestione del voltaggio e alzalo a 1,1v (il massimo) e vedi se ti supera la soglia dei 420w. alzare solo il PL non serve.
come faccio ad alzarlo ? mi da la solo la barra dell'aumento percentuale..
lo alzi da afterburner però devi prima sbloccarlo dalle opzioni sempre di afterburner "sblocca il controllo del voltaggio" e "sblocca il monitoraggio del voltaggio"
cmq il 3x8pin che usi è strano, esempio sulla mia founder edition se uso solo 3x8pin mi vincola la slide del powerlimit al 100% ovvero 450w, solo se metto il quarto 8pin ho la slide fino a 600watt.
può essere che nella trio te la faccia vedere la slide fino al 107% 480w ma che poi sia limitato a 450w
davide155
12-07-2023, 00:10
Solo io non lo uso mai il gsinc?per me è totalmente inutile..preferisco di gran lunga avere sempre 175hz che avere meno hertz,ma sincronizzati con la GPU. Per il tearing basta limitare gli fps agli hz del monitor.Mo addirittura totalmente inutile anche no. Forse non riesci a configurare il monitor.
È una delle migliori tecnologie nvidia degli ultimi 10 anni. Soprattutto i pannelli con modulo hardware, sono su di un altro pianeta rispetto al gsync compatibile.
Comunque quale è il tuo problema non capisco?
Perché io ho un pannello nativo gsync a 165hz, e se la gpu riesce a spingere il gioco vedo fino a 165fps senza il minimo tearing o stutter.
A differenza del solo vsync poi è come mangiare e star a guardare.
davide155
12-07-2023, 00:14
3 normalissimi 6+2 pin sdoppiati, di cui 2 già li avevo suCi sta che siano i cavi non adatti per dare piena potenza, e la gpu, sentendo la mancanza del ground sui pin sense 0 e 1 allora limita il suo power limit più basso.
Prova a vedere se esiste un cavo adattatore 12vhpwr della stessa marca del tuo alimentatore. Con quello taglieresti la testa al toro ed avresti piena potenza.
Cutter90
12-07-2023, 06:53
Mo addirittura totalmente inutile anche no. Forse non riesci a configurare il monitor.
È una delle migliori tecnologie nvidia degli ultimi 10 anni. Soprattutto i pannelli con modulo hardware, sono su di un altro pianeta rispetto al gsync compatibile.
Comunque quale è il tuo problema non capisco?
Perché io ho un pannello nativo gsync a 165hz, e se la gpu riesce a spingere il gioco vedo fino a 165fps senza il minimo tearing o stutter.
A differenza del solo vsync poi è come mangiare e star a guardare.
Il gsync che sia compatibile o hardware fa la stessa identica cosa, ossia sincronizza i frame gpu/monitor. Non è che si possono sincornizzare meglio o peggio eh
Il gsync ultimate (hardware) ha come unico vantaggio il fatto di poter lavorare a partire da fps più bassi. Il mio tv ad esempio la fa dai 40. Il tuo lo farà dai 20.
Ma finisce lì. Il funzionamento del resto è identico.
Sul resto si, come ho spiegato anche io non capisco il suo problema :mbe:
Il gsync che sia compatibile o hardware fa la stessa identica cosa, ossia sincronizza i frame gpu/monitor. Non è che si possono sincornizzare meglio o peggio eh
Il gsync ultimate (hardware) ha come unico vantaggio il fatto di poter lavorare a partire da fps più bassi. Il mio tv ad esempio la fa dai 40. Il tuo lo farà dai 20.
Ma finisce lì. Il funzionamento del resto è identico.
Sul resto si, come ho spiegato anche io non capisco il suo problema :mbe:
Caro Cutter, un'altra elle tue cantonate eh? Se fosse come dici tu il Gsync non avrebbe nessun senso di esistere visto che c'è il freesync che secondo te funzionerebbe nello stesso modo.
Purtroppo la realtà è un'altra ed il gsync fatto con il modulo hardware appositamente dedicato è molto sueriore nella resa a quelli totalmente software. Provare per credere.
Kostanz77
12-07-2023, 07:46
Caro Cutter, un'altra elle tue cantonate eh? Se fosse come dici tu il Gsync non avrebbe nessun senso di esistere visto che c'è il freesync che secondo te funzionerebbe nello stesso modo.
Purtroppo la realtà è un'altra ed il gsync fatto con il modulo hardware appositamente dedicato è molto sueriore nella resa a quelli totalmente software. Provare per credere.
provato sia su monitor con modulo Gsync sia con pannello compatibile, stessa cosa non cambia nulla🤣
Inviato dal mio iPhone utilizzando Tapatalk Pro
Cutter90
12-07-2023, 08:01
Caro Cutter, un'altra elle tue cantonate eh? Se fosse come dici tu il Gsync non avrebbe nessun senso di esistere visto che c'è il freesync che secondo te funzionerebbe nello stesso modo.
Purtroppo la realtà è un'altra ed il gsync fatto con il modulo hardware appositamente dedicato è molto sueriore nella resa a quelli totalmente software. Provare per credere.
Ma che ahahah
Ma possibile che ogni volta non ne azzecchi una che sia una?
Il freesync è il gsync di AMD, cosa c'entra?
Adaptive sync, vrr, Vesa Sync sono gli standard "open" attuali della tecnologia di sincronizzazione. Ossia, basta che un monitor o una tv supportino uno di questi standard per avere la possibilità di attivare il gsync compatibile.
Grazie e questi amd e nvidia riescono a far andare il "loro Sync" tramite software. Freesync è amd non è "open" come si evince dalla tua frase.
Il gsync (compatibile o ultimate) sincronizza i frame tra gpu e schermo. Come detto mica c'è un modo per farlo meglio o peggio. Se sono sincronizzati lo sono e basta.
L'unica differenza sostanziale, ce ne sono altre molto marginali, è quella che ho descritto prima, ossia la partenza in cui il gsync inizia a lavorare.
Quando imparerai ad ascoltare chi è più informato di te? Prima di sparare sentenze, almeno facciamo qualche ricerca e ci informiamo bene? Se non vuoi ascoltare me, fallo per conto tuo. :)
sertopica
12-07-2023, 08:08
Caro Cutter, un'altra elle tue cantonate eh? Se fosse come dici tu il Gsync non avrebbe nessun senso di esistere visto che c'è il freesync che secondo te funzionerebbe nello stesso modo.
Purtroppo la realtà è un'altra ed il gsync fatto con il modulo hardware appositamente dedicato è molto sueriore nella resa a quelli totalmente software. Provare per credere.
Guarda che la differenza maggiore e' il balzello di 200-300$ che nvidia impone con il suo modulo proprietario. Per il resto sono differenze che forse noti soltanto nei fps competitivi. Le differenze sono queste in sostanza:
- VRR con un range maggiorato
- Overdrive dinamico
- Un input lag leggermente inferiore
- In lnea teorica un HDR migliore (ma tanto su PC fa cacare la maggior parte delle volte).
Il resto e' marketing. E sembra che con te abbia funzionato alla grande. :D
Black"SLI"jack
12-07-2023, 08:13
Mettendo un riser pci 4 su una mono che ha pci 5 potrei avere cali di prestazioni o per le gpu non ci sono differenze?Lo uso su una z790 aorus master con un 13900k. Quindi slot pcie 5.0. La 4090 è una pcie 4.0. Di conseguenza nessuna limitazione o calo di prestazioni.
Inviato dal mio SM-S908B utilizzando Tapatalk
provato sia su monitor con modulo Gsync sia con pannello compatibile, stessa cosa non cambia nulla
Inviato dal mio iPhone utilizzando Tapatalk Pro
Io invece ho provato un monitor freesync sulla mia configurazione e sono tornato immediatamente al mio vecchio Asus Gsync, la resa, per come gioco io a 60 FPS costanti, era molto diversa. Poi ovviamente ognuno ha le sue convinzioni c'è gente che dice che vede differenze tra 60 fps e 120 fps, io non ne vedo nessuna... ma al contrario sono molto sensibile a fenomeni di tearing ed affini, differenti sensibilità evidentemente.
sertopica
12-07-2023, 08:23
Io invece ho provato un monitor freesync sulla mia configurazione e sono tornato immediatamente al mio vecchio Asus Gsync, la resa, per come gioco io a 60 FPS costanti, era molto diversa. Poi ovviamente ognuno ha le sue convinzioni c'è gente che dice che vede differenze tra 60 fps e 120 fps, io non ne vedo nessuna... differenti sensibilità evidentemente.
Quale resa in particolare? Mancava l'adesivo nvidia sul monitor? :D
Dipende anche da quando hai provato freesync, hanno fatto enormi passi in avanti. E dipende anche molto dalla qualita' del pannello stesso, che sia gsync o meno.
Poi vabbe' lasciamo perdere il discorso 60/120. Che te lo sei fatto a fare un PC del genere per giocare a 60 fps? :boh:
Parli della superiorita' di gsync e poi giochi cappato a 60 fps... Scusa ma e' una bella contraddizione.
De gustibus.
Cutter90
12-07-2023, 08:28
Io invece ho provato un monitor freesync sulla mia configurazione e sono tornato immediatamente al mio vecchio Asus Gsync, la resa, per come gioco io a 60 FPS costanti, era molto diversa. Poi ovviamente ognuno ha le sue convinzioni c'è gente che dice che vede differenze tra 60 fps e 120 fps, io non ne vedo nessuna... differenti sensibilità evidentemente.
Salfox, ti prego. Fermati un secondo e rifletti. Te lo chiedo per favore. Se giochi a 60' fps fissi come hai fatto a notare differenze che il gsync si attiva solo se gli fps vanno su e giù?
Ma ti rendi conto delle castronerie che scrivi? Cioè, scrivi proprio cose sbagliate.
Ma poi non dai retta. Ti ho detto che il freesync è il gsync di amd. Come hai fatto a provare il freesync se usavi sempre una gpu nvidia? Ti ho detto che i monitor hanno uno di quei tre standard a cui si APPOGGIANO il freesync e gsync.
Va beh, perfino mio padre nota la differenza di fluidità tra 60 e 120 fps.....
Sto perdendo tempo, perchè tanto tu hai già dimostrato di voler rimanere nella tua sfera di "ignoranza", nonostante qualcuno si prenda la briga di spiegarti le cose.
E' colpa mia, che spero sempre di aiutare gli altri quando posso. Ma è chiaro che sto lottando contro i mulini a vento.:(
Poi vabbe' lasciamo perdere il discorso 60/120. Che te lo sei fatto a fare un PC del genere per giocare a 60 fps? :boh:
Parli della superiorita' di gsync e poi giochi cappato a 60 fps... Scusa ma e' una bella contraddizione.
De gustibus.
Ed infatti il Gsync serve molto di più a bassi FPS che ad alti, poi per quanto riguarda il mio computer, che ci vuoi fare io voglio sempre il massimo e prendo sempre il meglio che c'è e poi gioco a 60 FPS con tutti gli effetti e dettagli al max che è e sarà il mio obiettivo. Ti ho chiarito il concetto? :D :D :D :D. Se ci fosse stata la 4090ti avrei preso quella così come prenderò la 5090 al day one :D :D :D :D
sertopica
12-07-2023, 08:37
Ed infatti il Gsync serve molto di più a bassi FPS che ad alti, poi per quanto riguarda il mio computer, che ci vuoi fare io voglio sempre il massimo e prendo sempre il meglio che c'è e poi gioco a 60 FPS con tutti gli effetti e dettagli al max che è e sarà il mio obiettivo. Ti ho chiarito il concetto? :D :D :D :D. Se ci fosse stata la 4090ti avrei preso quella così come prenderò la 5090 al day one :D :D :D :D
Whatever.
Ma per favore almeno evita di fare disinformazione.
FrancoBit
12-07-2023, 08:40
Ed infatti il Gsync serve molto di più a bassi FPS che ad alti, poi per quanto riguarda il mio computer, che ci vuoi fare io voglio sempre il massimo e prendo sempre il meglio che c'è e poi gioco a 60 FPS con tutti gli effetti e dettagli al max che è e sarà il mio obiettivo. Ti ho chiarito il concetto? :D :D :D :D. Se ci fosse stata la 4090ti avrei preso quella così come prenderò la 5090 al day one :D :D :D :D
Guardando la firma, però, a monitor non ci siamo, un 4k 120hz con gsync (se non erro il tuo è a 60hz), modulo hardware a sto punto, ti permetterebbe di salire di livello come esperienza gaming sicuramente
mich9366
12-07-2023, 08:43
Ci sta che siano i cavi non adatti per dare piena potenza, e la gpu, sentendo la mancanza del ground sui pin sense 0 e 1 allora limita il suo power limit più basso.
Prova a vedere se esiste un cavo adattatore 12vhpwr della stessa marca del tuo alimentatore. Con quello taglieresti la testa al toro ed avresti piena potenza.
adesso provo ad acquistare un addattore a 4 pin invece del 3 che avevo in dotazione, vedo se cambia qualcosa.
Altra cosa, ho notato che i 3 cavi (6+2 pin) che ho attaccato all'alimentatore hanno un pin che in realtà è vuoto lato alimentatore.. è normale?
Guardando la firma, però, a monitor non ci siamo, un 4k 120hz con gsync (se non erro il tuo è a 60hz), modulo hardware a sto punto, ti permetterebbe di salire di livello come esperienza gaming sicuramente
Ciao Franco, il mio monitor va anche a 100hz e mi permette anche eventualmente di alzare il Frame rate, cosa che ho provato, ti assicuro che per i giochi che faccio io single player e racer il passaggio da 60 fps a 100 fps non mi da niente di più a livello giocabilità ma mi fa consumare molto di più la VGA che per come la vedo io è assolutamente inutile. Ovvio che chi gioca a FPS competitivi (che io aborro) cerchi più FPS ma nel mio caso sono assolutamente inutili.
FrancoBit
12-07-2023, 08:56
Ciao Franco, il mio monitor va anche a 100hz e mi permette anche eventualmente di alzare il Frame rate, cosa che ho provato, ti assicuro che per i giochi che faccio io single player e racer il passaggio da 60 fps a 100 fps non mi da niente di più a livello giocabilità ma mi fa consumare molto di più la VGA che per come la vedo io è assolutamente inutile. Ovvio che chi gioca a FPS competitivi (che io aborro) cerchi più FPS ma nel mio caso sono assolutamente inutili.
Ah bon, io ormai viaggio (quando possibile) oltre i 100 in qualsiasi gioco, con gsync compatibile, penso non riuscirei più ad "accontentarmi" dei 60 sinceramente. Per il consumo energetico non ci faccio caso, anche perchè col caldo che fa ora, con una settimana di aria condizionata, anche solo per dormire, altro che 4090 tirata.... :muro:
davide155
12-07-2023, 09:13
adesso provo ad acquistare un addattore a 4 pin invece del 3 che avevo in dotazione, vedo se cambia qualcosa.
Altra cosa, ho notato che i 3 cavi (6+2 pin) che ho attaccato all'alimentatore hanno un pin che in realtà è vuoto lato alimentatore.. è normale?Alt, fermo la. Se nella tua scatola della gpu c'era un polpo a 3 cavi non devi assolutamente usarne uno a 4. I 3 cavi bastano ed avanzano a portare la corrente necessaria alla tua gpu fino a PL.
Se metti un 4 cavi rischi di fonderla. Occhio.
Piuttosto come ti ho detto cerca un cavo 12vhpwr nativo per il tuo alimentatore che da una parte ha il nuovo connettore, mentre dall'altra parte avrà sicuramente 2 attacchi ad 8 pin. Gli 8 pin se hanno cavi di sezione maggiorata possono portare fino a 300w l'uno. Quindi il tuo problema non è il polpo della tua gpu, ma bensì il tuo alimentatore che non riesce a dare piena corrente col polpo.
Ammesso e non concesso che hai impostato bene msi afterburner sbloccando nelle impostazioni i voltaggi.....Il gsync che sia compatibile o hardware fa la stessa identica cosa, ossia sincronizza i frame gpu/monitor. Non è che si possono sincornizzare meglio o peggio eh
Il gsync ultimate (hardware) ha come unico vantaggio il fatto di poter lavorare a partire da fps più bassi. Il mio tv ad esempio la fa dai 40. Il tuo lo farà dai 20.
Ma finisce lì. Il funzionamento del resto è identico.
Sul resto si, come ho spiegato anche io non capisco il suo problema :mbe:Come ha detto sertopica la differenza è ben diversa, soprattutto sul variable overdrive.
E soprattutto il compatibile parte da 41 fps fino agli hz del monitor. Il gsync col modulo FPGA installato dentro parte da 1 fino agli hz del monitor.
E questo per chi gioca in 4k, a maggior ragione con dldsr attivo, può fare una enorme differenza.
Per me non è affatto poco. Anzi.Guarda che la differenza maggiore e' il balzello di 200-300$ che nvidia impone con il suo modulo proprietario. Per il resto sono differenze che forse noti soltanto nei fps competitivi. Le differenze sono queste in sostanza:
- VRR con un range maggiorato
- Overdrive dinamico
- Un input lag leggermente inferiore
- In lnea teorica un HDR migliore (ma tanto su PC fa cacare la maggior parte delle volte).
Il resto e' marketing. E sembra che con te abbia funzionato alla grande. :DNel mondo dei pc tutto ha un prezzo. E le differenze che abbiamo menzionato personalmente valgono quei 300 dollari di differenza.
micronauta1981
12-07-2023, 09:15
Mo addirittura totalmente inutile anche no. Forse non riesci a configurare il monitor.
È una delle migliori tecnologie nvidia degli ultimi 10 anni. Soprattutto i pannelli con modulo hardware, sono su di un altro pianeta rispetto al gsync compatibile.
Comunque quale è il tuo problema non capisco?
Perché io ho un pannello nativo gsync a 165hz, e se la gpu riesce a spingere il gioco vedo fino a 165fps senza il minimo tearing o stutter.
A differenza del solo vsync poi è come mangiare e star a guardare.
Quando un gioco è bello pesante,e stai intorno ai 60 fps,il pannello sta a 60hz...se tolgo il gsinc,e vado a 165hz sempre a 60 fps,per me è molto meglio..di tearing sinceramente non ne ho mai a 165 hz...io gioco sempre in dldsr quindi poche volte vado sopra i 165 fps
Cutter90
12-07-2023, 09:36
Alt, fermo la. Se nella tua scatola della gpu c'era un polpo a 3 cavi non devi assolutamente usarne uno a 4. I 3 cavi bastano ed avanzano a portare la corrente necessaria alla tua gpu fino a PL.
Se metti un 4 cavi rischi di fonderla. Occhio.
Piuttosto come ti ho detto cerca un cavo 12vhpwr nativo per il tuo alimentatore che da una parte ha il nuovo connettore, mentre dall'altra parte avrà sicuramente 2 attacchi ad 8 pin. Gli 8 pin se hanno cavi di sezione maggiorata possono portare fino a 300w l'uno. Quindi il tuo problema non è il polpo della tua gpu, ma bensì il tuo alimentatore che non riesce a dare piena corrente col polpo.
Ammesso e non concesso che hai impostato bene msi afterburner sbloccando nelle impostazioni i voltaggi.....Come ha detto sertopica la differenza è ben diversa, soprattutto sul variable overdrive.
E soprattutto il compatibile parte da 41 fps fino agli hz del monitor. Il gsync col modulo FPGA installato dentro parte da 1 fino agli hz del monitor.
E questo per chi gioca in 4k, a maggior ragione con dldsr attivo, può fare una enorme differenza.
Per me non è affatto poco. Anzi.Nel mondo dei pc tutto ha un prezzo. E le differenze che abbiamo menzionato personalmente valgono quei 300 dollari di differenza.
Eh, che è esattamente quello che ho detto io. Mi vuoi dire che con la 4090 fai meno di 40 fps? Sotto i 60 fps non ci scendo dalla 2080ti prtaticamente in 4k.....
le differenze sono in sostanza prossime allo 0. Il gsync overdrive diminuisce leggermente la latenza se non erro. Cosa ben lontana dall'essere fondamentale.
Fine delle differenze. Perchè l'HDR non c'entra nulla con il gsync visto che è indipendente.
In sostanza ingame nel 99% degli utilizzi il gsync compatibile e ultimate con modulo sono uguali
Quando un gioco è bello pesante,e stai intorno ai 60 fps,il pannello sta a 60hz...se tolgo il gsinc,e vado a 165hz sempre a 60 fps,per me è molto meglio..di tearing sinceramente non ne ho mai a 165 hz...io gioco sempre in dldsr quindi poche volte vado sopra i 165 fps
Non ho capito onestamente.....
Ah bon, io ormai viaggio (quando possibile) oltre i 100 in qualsiasi gioco, con gsync compatibile, penso non riuscirei più ad "accontentarmi" dei 60 sinceramente. Per il consumo energetico non ci faccio caso, anche perchè col caldo che fa ora, con una settimana di aria condizionata, anche solo per dormire, altro che 4090 tirata.... :muro:
Siamo vecchietti entrambi penso, io ho superato la cinquantina, ma toglimi una curiosità in cosa noti differenza tra 60 fps e più? Te lo chiedo perchè io non mi accorgo assolutamente di nulla.
FrancoBit
12-07-2023, 09:41
cut
Non ho capito onestamente.....
Neanche lui probabilmente :doh:
FrancoBit
12-07-2023, 09:45
Siamo vecchietti entrambi penso, io ho superato la cinquantina, ma toglimi una curiosità in cosa noti differenza tra 60 fps e più? Te lo chiedo perchè io non mi accorgo assolutamente di nulla.
Io 44, :fagiano:
Noto la differenza ovviamente in giochi un po' frenetici, tipo rocket league, Formula 1, Flight Simulator, ma una netta differenza nella "nitidezza" in movimento, percepisco decisamente una maggiore fluidità. Nei single player più classici, a parte forse le avventure in isometrica alla Pillars of Eternity, me ne accorgo nelle rotazioni dell'inquadratura ad esempio. Questo vaso di pandora mi si è scoperchiato ormai 7-8 anni fa, quando vidi da un mio amico un pannello a 144hz. Io avevo sempre avuto 60. Quando lo vidi mi cadde letteralmente la mascella. Da quel giorno la mia scimmia è stata ulteriormente alimentata :oink:
Io 44, :fagiano:
Noto la differenza ovviamente in giochi un po' frenetici, tipo rocket league, Formula 1, Flight Simulator, ma una netta differenza nella "nitidezza" in movimento, percepisco decisamente una maggiore fluidità. Nei single player più classici, a parte ovviamente le avventure in isometrica, me ne accorgo nelle rotazioni dell'inquadratura ad esempio. Questo vaso di pandora mi si è scoperchiato ormai 7-8 anni fa, quando vidi da un mio amico un pannello a 144hz. Io avevo sempre avuto 60. Quando lo vidi mi cadde letteralmente la mascella. Da quel giorno la mia scimmia è stata ulteriormente alimentata :oink:
Io 42 e confermo quanto detto da FrancoBit.
Come te salfox gioco prettamente single player (a parte i giochi di corsa, quasi tutti i tipi di gioco) e da quando ho fatto il salto 60 -> 144 hz la differenza la noto. Sinceramente non tornerei indietro. Lo noti sulla fluidità
Dracula1975
12-07-2023, 10:07
Siamo vecchietti entrambi penso, io ho superato la cinquantina, ma toglimi una curiosità in cosa noti differenza tra 60 fps e più? Te lo chiedo perchè io non mi accorgo assolutamente di nulla.
48 anni
passato da un pannello 1080 75hz a , prima, un 2k 144hz e già li la differenza è abissale (nei single player isometrici a cui gioco)
poi da quando sono passato ai 4k 120hz poi è un altro mondo...poi OLED..ciaone.
non tornei piu' indietro
lavoro per lo smart working su un 4k 60hhz e spesso vorrei strapparmi gli occhi..infatti stavo valutando di passare ad un 2k 144hz anche per il lavoro :D
Cutter90
12-07-2023, 10:08
Ma perchè tra 60 e 120 la differenza c'è e si vede.
Poi più si sale meno la si nota. Tra 120 e 144 già ce n'è pochissima per esempio.
Ovviamente il salto enorme è tra 30 e 60. Tra 60 e 120 c'è. E lo noti moltissimo quando giochi a 120 per un periodo e poi torni a 60: ti sembra di andare a scatti
Rumpelstiltskin
12-07-2023, 10:08
Lo uso su una z790 aorus master con un 13900k. Quindi slot pcie 5.0. La 4090 è una pcie 4.0. Di conseguenza nessuna limitazione o calo di prestazioni.
Inviato dal mio SM-S908B utilizzando Tapatalk
Grazie mille, sempre gentilissimo!
Ps: ma il raiser della lian li evo dynamic (bianco) qualcuno li vende?
davide155
12-07-2023, 10:14
Eh, che è esattamente quello che ho detto io. Mi vuoi dire che con la 4090 fai meno di 40 fps? Sotto i 60 fps non ci scendo dalla 2080ti prtaticamente in 4k.....
le differenze sono in sostanza prossime allo 0. Il gsync overdrive diminuisce leggermente la latenza se non erro. Cosa ben lontana dall'essere fondamentale.
Fine delle differenze. Perchè l'HDR non c'entra nulla con il gsync visto che è indipendente.
In sostanza ingame nel 99% degli utilizzi il gsync compatibile e ultimate con modulo sono uguali
Non ho capito onestamente.....Non diminuisce solo la latenza ma va ad azzerare l'effetto ghosting ed overshooting sullo schermo.
L'overdrive sui gsync compatibili è essenzialmente sintonizzato sulla frequenza massima di hz e poiché è statico, è quindi troppo forte per frequenze di aggiornamento inferiori. Ecco che si presenta il ghosting ed overshooting.
In pratica col gsync con modulo hai una immagine più definita e lineare per tutta la sequenza di frame rate da 1 al max refresh rate del monitor. Come vedi ad 1 vedi a 165 fps. Ovviamente parlo di qualità e non di fluidità data dal numero di frame.
Ed anche questo per me vale i 300dollari di differenza.
È per questo che non sono passato ancora ad un monitor oled ma mi tengo ancora stretto il mio asus rog con modulo gsync. Vado di dldsr+dlss in modo da avere una densità di pixel molto alta senza sacrificare troppo le prestazioni.
davide155
12-07-2023, 10:16
Grazie mille, sempre gentilissimo!
Ps: ma il raiser della lian li evo dynamic (bianco) qualcuno li vende?Credo si trovino bene ed in quantità solo su AliExpress dal loro negozio ufficiale. Almeno quando cercavo quello per l'xl lo trovavo solo li.
FrancoBit
12-07-2023, 10:18
Grazie mille, sempre gentilissimo!
Ps: ma il raiser della lian li evo dynamic (bianco) qualcuno li vende?
Su Caseking li trovi disponibili
Cutter90
12-07-2023, 10:24
Non diminuisce solo la latenza ma va ad azzerare l'effetto ghosting ed overshooting sullo schermo.
L'overdrive sui gsync compatibili è essenzialmente sintonizzato sulla frequenza massima di hz e poiché è statico, è quindi troppo forte per frequenze di aggiornamento inferiori. Ecco che si presenta il ghosting ed overshooting.
In pratica col gsync con modulo hai una immagine più definita e lineare per tutta la sequenza di frame rate da 1 al max refresh rate del monitor. Come vedi ad 1 vedi a 165 fps. Ovviamente parlo di qualità e non di fluidità data dal numero di frame.
Ed anche questo per me vale i 300dollari di differenza.
È per questo che non sono passato ancora ad un monitor oled ma mi tengo ancora stretto il mio asus rog con modulo gsync. Vado di dldsr+dlss in modo da avere una densità di pixel molto alta senza sacrificare troppo le prestazioni.
Per ghosting intendi l'effetto scia (freame che "persistono" per qualche istante a schermo) che hanno i pannelli led dovuto al response time ? Perchè se è quello gli oled non ce l'hanno di loro visto che hanno un respose time "istantaneo"
Nel caso quindi un altra differenza in meno tra i gsync
davide155
12-07-2023, 10:52
Per ghosting intendi l'effetto scia (freame che "persistono" per qualche istante a schermo) che hanno i pannelli led dovuto al response time ? Perchè se è quello gli oled non ce l'hanno di loro visto che hanno un respose time "istantaneo"
Nel caso quindi un altra differenza in meno tra i gsyncSi sui pannelli oled il ghosting si azzera quasi del tutto anche sui gsync compatibili. Ma si parla di un modello solo di pannello che ad oggi costa un occhio della testa e che rappresenta l'1% dei pannelli gsync sul mercato.
mich9366
12-07-2023, 11:14
Alt, fermo la. Se nella tua scatola della gpu c'era un polpo a 3 cavi non devi assolutamente usarne uno a 4. I 3 cavi bastano ed avanzano a portare la corrente necessaria alla tua gpu fino a PL.
Se metti un 4 cavi rischi di fonderla. Occhio.
Piuttosto come ti ho detto cerca un cavo 12vhpwr nativo per il tuo alimentatore che da una parte ha il nuovo connettore, mentre dall'altra parte avrà sicuramente 2 attacchi ad 8 pin. Gli 8 pin se hanno cavi di sezione maggiorata possono portare fino a 300w l'uno. Quindi il tuo problema non è il polpo della tua gpu, ma bensì il tuo alimentatore che non riesce a dare piena corrente col polpo.
Ammesso e non concesso che h.
Grazie per la dritta..
Adesso allora provo..io ho questo alimentatore:
https://www.corsair.com/it/it/p/psu/cp-9020196-eu/rm-series-rm850-850-watt-80-plus-gold-certified-fully-modular-psu-eu-cp-9020196-eu
provo cn questi cavi :
https://www.amazon.it/gp/product/B0BLY1B362/ref=ppx_yo_dt_b_asin_title_o00_s00?ie=UTF8&psc=1
Cutter90
12-07-2023, 11:32
Si sui pannelli oled il ghosting si azzera quasi del tutto anche sui gsync compatibili. Ma si parla di un modello solo di pannello che ad oggi costa un occhio della testa e che rappresenta l'1% dei pannelli gsync sul mercato.
Ah ecco, come immaginavo. Su oled semmai c'è il problema opposto infatti. vista la risposta istantanea dei frame si ha zero effetti scia e sui 30 fps si sente tutta. Tant'è che su console lasciavo attivo il motion blur nei giochi per risimulare un po' di scia.
Eh, però capisci che l'unica differenza tra gsync ultimate e il gsync compatibile su oled, restano solo gli fps minimi e la latenza un pelo migliore. Converrai con me che parliamo davvero di nulla.
Piano piano i pannelli oled soppianteranno in toto i monitor.
C'è in offerta ora su amazon un pannello pazzesco oled ad esempio https://www.amazon.it/LG-UltraGear-UltraWide-3440x1440-Compatible/dp/B0BM4XQ4L6/?_encoding=UTF8&ref_=dlx_deals_sc_dcl_img_dt&pd_rd_w=fNkVG&content-id=amzn1.sym.2633e627-622c-403a-ac20-3f106f62caec&pf_rd_p=2633e627-622c-403a-ac20-3f106f62caec&pf_rd_r=QQCQTB1XFR16B15CY52Y&pd_rd_wg=ryx5b&pd_rd_r=0c404345-ceaa-4bef-b749-b2dd32d62c83&th=1
FrancoBit
12-07-2023, 11:37
C'è in offerta ora su amazon un pannello pazzesco oled ad esempio https://www.amazon.it/LG-UltraGear-UltraWide-3440x1440-Compatible/dp/B0BM4XQ4L6/?_encoding=UTF8&ref_=dlx_deals_sc_dcl_img_dt&pd_rd_w=fNkVG&content-id=amzn1.sym.2633e627-622c-403a-ac20-3f106f62caec&pf_rd_p=2633e627-622c-403a-ac20-3f106f62caec&pf_rd_r=QQCQTB1XFR16B15CY52Y&pd_rd_wg=ryx5b&pd_rd_r=0c404345-ceaa-4bef-b749-b2dd32d62c83&th=1
Bello è bello, però il rapporto risoluzione dimensione porta un PPI piuttosto basso. Comunque, almeno per il gaming, sono assolutamente certo che Oled sia la strada :oink:
Cutter90
12-07-2023, 11:43
Bello è bello, però il rapporto risoluzione dimensione porta un PPI piuttosto basso. Comunque, almeno per il gaming, sono assolutamente certo che Oled sia la strada :oink:
Esatto, è l'unica cosa che poteva essere meglio.
davide155
12-07-2023, 11:47
Grazie per la dritta..
Adesso allora provo..io ho questo alimentatore:
https://www.corsair.com/it/it/p/psu/cp-9020196-eu/rm-series-rm850-850-watt-80-plus-gold-certified-fully-modular-psu-eu-cp-9020196-eu
provo cn questi cavi :
https://www.amazon.it/gp/product/B0BLY1B362/ref=ppx_yo_dt_b_asin_title_o00_s00?ie=UTF8&psc=1Bravo, quello è il cavo adatto a te. Alimentatore corsair, cavo corsair.
Provalo e facci sapere Ah ecco, come immaginavo. Su oled semmai c'è il problema opposto infatti. vista la risposta istantanea dei frame si ha zero effetti scia e sui 30 fps si sente tutta. Tant'è che su console lasciavo attivo il motion blur nei giochi per risimulare un po' di scia.
Eh, però capisci che l'unica differenza tra gsync ultimate e il gsync compatibile su oled, restano solo gli fps minimi e la latenza un pelo migliore. Converrai con me che parliamo davvero di nulla.
Piano piano i pannelli oled soppianteranno in toto i monitor.
C'è in offerta ora su amazon un pannello pazzesco oled ad esempio https://www.amazon.it/LG-UltraGear-UltraWide-3440x1440-Compatible/dp/B0BM4XQ4L6/?_encoding=UTF8&ref_=dlx_deals_sc_dcl_img_dt&pd_rd_w=fNkVG&content-id=amzn1.sym.2633e627-622c-403a-ac20-3f106f62caec&pf_rd_p=2633e627-622c-403a-ac20-3f106f62caec&pf_rd_r=QQCQTB1XFR16B15CY52Y&pd_rd_wg=ryx5b&pd_rd_r=0c404345-ceaa-4bef-b749-b2dd32d62c83&th=1Guarda stai parlando con uno che ha un lg g2 55" in salotto. So bene quali sono i loro punti forti e le loro limitazioni. E confermo, per l'home video sono il best buy. Per usarli come monitor pc gaming ancora non ci siamo imho.
Guarda stai parlando con uno che ha un lg g2 55" in salotto. So bene quali sono i loro punti forti e le loro limitazioni. E confermo, per l'home video sono il best buy. Per usarli come monitor pc gaming ancora non ci siamo imho.
Ecco Davide, proprio questo mi interessa sapere visto che cambierei il mio monitor solo per un OLED, cosa hai notato di negativo nell'uso degli Oled come monitor? Ci si deve sempre preoccupare per il famoso burn-in?
Cutter90
12-07-2023, 13:22
Ecco Davide, proprio questo mi interessa sapere visto che cambierei il mio monitor solo per un OLED, cosa hai notato di negativo nell'uso degli Oled come monitor? Ci si deve sempre preoccupare per il famoso burn-in?
Se usi il monitor come ufficio, quindi tanto word oppure con mila e mila ore su uno stesso gioco, il rischio, seppur lieve permane.
Riporto la mia esperienza che su C9, quindi ormai un modello di anni fa, ho 1300 ore di acc con HUD bianchi a schermo. Pannello ancora perfetto.
Per le icone tengo delle piccole accortezze. Nascondo sia le icone che la barra windows con un programmino ad input, in modo che riappaiano quando muovo il mouse.
Ovviamente sempre attacco alla corrente, importante e uso una luminosità consona. Di sera gioco con 20-30 di luce oled e di giorno 80-90. Su acc ho levato l'hdr, tanto mi dava problemi con le streaming e le registrazioni.
Quindi, a meno di farne un uso da ufficio, attualmente penso che i monitor oled siano davvero prendibili senza problemi.
Dracula1975
12-07-2023, 13:48
Ecco Davide, proprio questo mi interessa sapere visto che cambierei il mio monitor solo per un OLED, cosa hai notato di negativo nell'uso degli Oled come monitor? Ci si deve sempre preoccupare per il famoso burn-in?
Gli ultimi oled dal 2022 in poi hanno rischio quasi zero di burn in perche' hanno pannelli e accortezze livello software che prevengono il fenomeno
davide155
12-07-2023, 13:56
Ecco Davide, proprio questo mi interessa sapere visto che cambierei il mio monitor solo per un OLED, cosa hai notato di negativo nell'uso degli Oled come monitor? Ci si deve sempre preoccupare per il famoso burn-in?
Dipende cosa vuoi farci. Se lo usi espressamente come monitor da gioco può andare benone. La resa cromatica, i contrasti ed i neri degli oled sono imbattibili.
L'hdr su windows ha ancora alcune lacune, per questo con qualche gioco se non ben implementato l'hdr avrà più artefatti che benefici. Per quanto riguarda il gsync se ti va bene il fatto che parta dai 40fps in su, non avrai problemi di ghosting o tearing. Però sarai limitato a 120fps, se parliamo di pannelli lg (per ora i migliori oled in circolazione).
Per il burn in ci sono svariati test dove sia la famiglia C che la famiglia G non ne soffrono se non dopo svariate ore di impress test, e comunque il burn compare solo dopo molte ore in più rispetto ai diretti rivali samsung, sony.
Se invece fai anche molto ufficio ed uso desktop, potrebbe darti qualche magagna.
Non ultimo il fatto che la struttura del pixel oled è diversa dal pixel led, quindi sulle scritte ad uso desktop potresti avere dei glitch o sfuocature del testo non proprio piacevoli.
Ma comunque si parla di problemi abbastanza irrilevanti se non si è malati del dettaglio.
Insomma, la tecnologia oled ha raggiunto un ottimo livello di sicurezza e resa cromatica, ma ha ancora qualche punto da affinare.
Sono certo che nei prossimi anni vedremo questa tecnologia esplodere.
Io intanto me lo godo come tv home cinema, che per quello gli oled sono imbattibili.
Cutter90
12-07-2023, 14:27
Dipende cosa vuoi farci. Se lo usi espressamente come monitor da gioco può andare benone. La resa cromatica, i contrasti ed i neri degli oled sono imbattibili.
L'hdr su windows ha ancora alcune lacune, per questo con qualche gioco se non ben implementato l'hdr avrà più artefatti che benefici. Per quanto riguarda il gsync se ti va bene il fatto che parta dai 40fps in su, non avrai problemi di ghosting o tearing. Però sarai limitato a 120fps, se parliamo di pannelli lg (per ora i migliori oled in circolazione).
Per il burn in ci sono svariati test dove sia la famiglia C che la famiglia G non ne soffrono se non dopo svariate ore di impress test, e comunque il burn compare solo dopo molte ore in più rispetto ai diretti rivali samsung, sony.
Se invece fai anche molto ufficio ed uso desktop, potrebbe darti qualche magagna.
Non ultimo il fatto che la struttura del pixel oled è diversa dal pixel led, quindi sulle scritte ad uso desktop potresti avere dei glitch o sfuocature del testo non proprio piacevoli.
Ma comunque si parla di problemi abbastanza irrilevanti se non si è malati del dettaglio.
Insomma, la tecnologia oled ha raggiunto un ottimo livello di sicurezza e resa cromatica, ma ha ancora qualche punto da affinare.
Sono certo che nei prossimi anni vedremo questa tecnologia esplodere.
Io intanto me lo godo come tv home cinema, che per quello gli oled sono imbattibili.
Aggiungo che ci sono già svariati monitor oled, non tv, che vanno ben al di sopra dei 120 hz, come quello linkato da me prima, o lo stesso Dell oled. Ormai anche la barriera degli alti fps l'hanno abbattuta.
L'unico "problema" che per resta è la gestione del nero durante gli alti fps con vrr. Permane Flickering soprattutto in alti sbalzi di fps. fenomeno noto come "gamma shifting" E' un fenomeno che lo si nota molto bene durante le compilazioni degli shader, in cui il sistema passa da 10 a 100 fps di continuo ad esempio. Ingame naturalmente le cose sono molto, molto meglio.
In callisto, quando usavo il RT e avevo sbalzi di 30-40 fps lo si notava
Aggiungo che ci sono già svariati monitor oled, non tv, che vanno ben al di sopra dei 120 hz, come quello linkato da me prima, o lo stesso Dell oled. Ormai anche la barriera degli alti fps l'hanno abbattuta.
L'unico "problema" che per resta è la gestione del nero durante gli alti fps con vrr. Permane Flickering soprattutto in alti sbalzi di fps.
Quello che hai linkato tu mi piacerebbe proprio e lo prenderei anche subito ma credo che sia molto più grande del mio e purtroppo quello occupa lo spazio massimo che ho a disposizione nella mia stanzetta :D dedicata ai videogiochi.
Cutter90
12-07-2023, 14:39
Quello che hai linkato tu mi piacerebbe proprio e lo prenderei anche subito ma credo che sia molto più grande del mio e purtroppo quello occupa lo spazio massimo che ho a disposizione nella mia stanzetta :D dedicata ai videogiochi.
Siamo OT, se andiamo nel topic oled ti linko qualche altro modello
micronauta1981
12-07-2023, 16:57
Neanche lui probabilmente :doh:
È arrivato il genio del giorno in gsync,il gioco fa 60fps,lo schermo a quanti hz va???? Sentiamo genio.. è matematica,non è difficile eh
mich9366
12-07-2023, 17:09
Bravo, quello è il cavo adatto a te. Alimentatore corsair, cavo corsair.
Scusa l'ignoranza ma di over voltage ne so poco. Ho sbloccato la barra del comando voltaggio, come faccio a portare la tensione massima a 1,1v avendo a disposizione una barra di incremento percentuale?
Che incremento devo mettere?
grazie
Black"SLI"jack
12-07-2023, 19:27
48 anni
passato da un pannello 1080 75hz a , prima, un 2k 144hz e già li la differenza è abissale (nei single player isometrici a cui gioco)
poi da quando sono passato ai 4k 120hz poi è un altro mondo...poi OLED..ciaone.
non tornei piu' indietro
lavoro per lo smart working su un 4k 60hhz e spesso vorrei strapparmi gli occhi..infatti stavo valutando di passare ad un 2k 144hz anche per il lavoro :D
Dall'inizio della pandemia che praticamente in ufficio non mi hanno più visto, sempre lavorato sul asus rog pq348 a 100hz. Mi sembra di andare a rallentatore quando lavoro sul portatile :asd:
Scusa l'ignoranza ma di over voltage ne so poco. Ho sbloccato la barra del comando voltaggio, come faccio a portare la tensione massima a 1,1v avendo a disposizione una barra di incremento percentuale?
Che incremento devo mettere?
grazie
Basta che alzi lo slide fino in fondo. Praticamente in base alla % che assegni avrai un tot di voltaggio in più. Al 100% equivale ad avere 1,1v finali.
Inviato dal mio SM-S908B utilizzando Tapatalk
nagashadow
12-07-2023, 20:07
Alt, fermo la. Se nella tua scatola della gpu c'era un polpo a 3 cavi non devi assolutamente usarne uno a 4. I 3 cavi bastano ed avanzano a portare la corrente necessaria alla tua gpu fino a PL.
Se metti un 4 cavi rischi di fonderla. Occhio.
Piuttosto come ti ho detto cerca un cavo 12vhpwr nativo per il tuo alimentatore che da una parte ha il nuovo connettore, mentre dall'altra parte avrà sicuramente 2 attacchi ad 8 pin. Gli 8 pin se hanno cavi di sezione maggiorata possono portare fino a 300w l'uno. Quindi il tuo problema non è il polpo della tua gpu, ma bensì il tuo alimentatore che non riesce a dare piena corrente col polpo.
Ammesso e non concesso che hai impostato bene msi afterburner sbloccando nelle impostazioni i voltaggi.....Come ha detto sertopica la differenza è ben diversa, soprattutto sul variable overdrive.
E soprattutto il compatibile parte da 41 fps fino agli hz del monitor. Il gsync col modulo FPGA installato dentro parte da 1 fino agli hz del monitor.
E questo per chi gioca in 4k, a maggior ragione con dldsr attivo, può fare una enorme differenza.
Per me non è affatto poco. Anzi.Nel mondo dei pc tutto ha un prezzo. E le differenze che abbiamo menzionato personalmente valgono quei 300 dollari di differenza.
Scusate io ho preso questo polpo https://www.amazon.it/gp/aw/d/B0BQPZB4V4?psc=1&ref=ppx_pop_mob_b_asin_title anche per non cambiarlo per un eventuale 4090….ho attaccato 2 cavi singoli a due connettori e un cavo doppio agli altri due…può andare bene così? Il polpo in dotazione della scheda era da 3 connettori ma mi sembra strano che si rischia di bruciare la scheda se ne mettiamo 4….alla fine il cavo nativo dei nuovi alimentatori non porta sempre e Comunque 600w a tutte le schede dalla 4070 alla 4090?
davide155
12-07-2023, 23:50
Scusate io ho preso questo polpo https://www.amazon.it/gp/aw/d/B0BQPZB4V4?psc=1&ref=ppx_pop_mob_b_asin_title anche per non cambiarlo per un eventuale 4090
.ho attaccato 2 cavi singoli a due connettori e un cavo doppio agli altri due
può andare bene così? Il polpo in dotazione della scheda era da 3 connettori ma mi sembra strano che si rischia di bruciare la scheda se ne mettiamo 4
.alla fine il cavo nativo dei nuovi alimentatori non porta sempre e Comunque 600w a tutte le schede dalla 4070 alla 4090?No il discorso è più complesso di quanto sembra. Hanno fatto una mezza cagata con l'attacco del nuovo connettore ma il concetto di funzionamento di base è molto intelligente.
La scheda a seconda di come "dialoga" con l'alimentatore attraverso quei 4 pin piccoli, si autolimita a vari livelli di potenza.
Ci sono alcuni adattatori anonimi di cui non mi fiderei mai, soprattutto perché metti nelle loro mani più di mille euro di gpu e basta un niente per combinare casini. In alcuni test hanno rilevato con degli adattatori da 3-4 teste non originali, che la corrente dell'intera scheda veniva erogata su una singolo cavo a 8pin. Molto pericoloso dato che anche usando cavi di sezione più grossa un singolo 8 pin può erogare massimo 300w.
La meglio è sempre prendere il cavo adattatore 12vhpwr della stessa marca dell'alimentatore o alla peggio usare quello in dotazione della gpu. Così si è sicuri che sono tarati per determinate potenze senza incontrare problemi.
nagashadow
13-07-2023, 06:01
No il discorso è più complesso di quanto sembra. Hanno fatto una mezza cagata con l'attacco del nuovo connettore ma il concetto di funzionamento di base è molto intelligente.
La scheda a seconda di come "dialoga" con l'alimentatore attraverso quei 4 pin piccoli, si autolimita a vari livelli di potenza.
Ci sono alcuni adattatori anonimi di cui non mi fiderei mai, soprattutto perché metti nelle loro mani più di mille euro di gpu e basta un niente per combinare casini. In alcuni test hanno rilevato con degli adattatori da 3-4 teste non originali, che la corrente dell'intera scheda veniva erogata su una singolo cavo a 8pin. Molto pericoloso dato che anche usando cavi di sezione più grossa un singolo 8 pin può erogare massimo 300w.
La meglio è sempre prendere il cavo adattatore 12vhpwr della stessa marca dell'alimentatore o alla peggio usare quello in dotazione della gpu. Così si è sicuri che sono tarati per determinate potenze senza incontrare problemi.
Purtroppo msi non ha fatto cavi originali per i suoi alimentatori….Comunque con la scheda che ho adesso non dovrei avere problemi perché è una rtx 4080 con 320watt di Tdp….
Dracula1975
13-07-2023, 06:30
avete letto che nvidia sta facendo uscire delle nuove 4090 Fe con un "Nuovo connettore" di alimentazione?
si chiamerà: 12V-2×6 connector
https://www.youtube.com/watch?v=eXVancEZOP0
https://www.igorslab.de/en/rest-in-peace-12vhpwr-connector-welcome-12v-2x6-connector/
QUindi il problema successo precedentemente non era solo un "gli utenti non sanno attaccare un cavo"...oppure è un connector for "idiots"....vedete voi
alla fine temo che le nostre 4090 vecchio connettore si svaluteranno abbastanza sul mercato usato..
avete letto che nvidia sta facendo uscire delle nuove 4090 Fe con un "Nuovo connettore" di alimentazione?
si chiamerà: 12V-2×6 connector
https://www.youtube.com/watch?v=eXVancEZOP0
https://www.igorslab.de/en/rest-in-peace-12vhpwr-connector-welcome-12v-2x6-connector/
QUindi il problema successo precedentemente non era solo un "gli utenti non sanno attaccare un cavo"...oppure è un connector for "idiots"....vedete voi
alla fine temo che le nostre 4090 vecchio connettore si svaluteranno abbastanza sul mercato usato..
Non preoccuparti proprio che il "nuovo" connettore è pienamente compatibile con il vecchio e l'unica modifica che hanno fatto riguarda la modifica dell'altezza dei pin elettrici per rendere molto più difficile inserire non completamente il cavo. Le nostre 4090 con il connettore originale godono ancora di ottima salute :D :D :D :D
Cutter90
13-07-2023, 06:55
avete letto che nvidia sta facendo uscire delle nuove 4090 Fe con un "Nuovo connettore" di alimentazione?
si chiamerà: 12V-2×6 connector
https://www.youtube.com/watch?v=eXVancEZOP0
https://www.igorslab.de/en/rest-in-peace-12vhpwr-connector-welcome-12v-2x6-connector/
QUindi il problema successo precedentemente non era solo un "gli utenti non sanno attaccare un cavo"...oppure è un connector for "idiots"....vedete voi
alla fine temo che le nostre 4090 vecchio connettore si svaluteranno abbastanza sul mercato usato..
Il connettore è lo stesso ragazzi, ma perchè c'è sta diceria del "connettore diverso"? Non è un nuovo standard, ma è compatibile con gli attuali. L'hanno solo costruito un filo meglio, visto che a quanto pare, gli utenti non lo infilavano bene.
Con questa nuova versione sembra sia più difficile sbagliarsi a connetterlo per bene. Con il vecchio bisogna solo prestare attenzione nel metterlo bene. Fine.
Spero che questo gioco mantenga le promesse, da quello che si legge qui (https://www.dsogaming.com/news/ratchet-clank-rift-apart-will-support-directstorage-with-gpu-decompression-and-ray-tracing-ambient-occlusion-on-pc/) dovrebbe essere una bomba con tutte le ultime chicche hardware. Vedremo
Ale55andr0
13-07-2023, 16:00
Spero che questo gioco mantenga le promesse, da quello che si legge qui (https://www.dsogaming.com/news/ratchet-clank-rift-apart-will-support-directstorage-with-gpu-decompression-and-ray-tracing-ambient-occlusion-on-pc/) dovrebbe essere una bomba con tutte le ultime chicche hardware. Vedremo
:what:
Ale55andr0
13-07-2023, 17:44
:mbe:
e' na pagina che si parla di monitor e connettori. Quale gioco? :confused:
e' na pagina che si parla di monitor e connettori. Quale gioco? :confused:
Davvero? Io non ho problemi ad aprire il link
te lo rimetto qui (https://www.dsogaming.com/news/ratchet-clank-rift-apart-will-support-directstorage-with-gpu-decompression-and-ray-tracing-ambient-occlusion-on-pc/)
mich9366
13-07-2023, 18:03
Bravo, quello è il cavo adatto a te. Alimentatore corsair, cavo corsair.
Provalo e facci sapere Guarda stai parlando con uno che ha un lg g2 55" in salotto. .
ho provato con i nuovi cavi ma non è cambiato praticamente nula...sempre castrata lato potenza a meno del 100% del tdp
https://ibb.co/3vXD4Z3
che sia colpa dell'alimentatore?:cry:
Ale55andr0
13-07-2023, 19:27
Davvero? Io non ho problemi ad aprire il link
te lo rimetto qui (https://www.dsogaming.com/news/ratchet-clank-rift-apart-will-support-directstorage-with-gpu-decompression-and-ray-tracing-ambient-occlusion-on-pc/)
non lo avevo proprio visto :)
davide155
13-07-2023, 22:57
avete letto che nvidia sta facendo uscire delle nuove 4090 Fe con un "Nuovo connettore" di alimentazione?
si chiamerà: 12V-2×6 connector
https://www.youtube.com/watch?v=eXVancEZOP0
https://www.igorslab.de/en/rest-in-peace-12vhpwr-connector-welcome-12v-2x6-connector/
QUindi il problema successo precedentemente non era solo un "gli utenti non sanno attaccare un cavo"...oppure è un connector for "idiots"....vedete voi
alla fine temo che le nostre 4090 vecchio connettore si svaluteranno abbastanza sul mercato usato..Non creiamo disinformazione.
Il "nuovo" modello di connettore ha semplicemente i 4 pin SENSE spostati più in dentro.
Questo fa si che se non si inserisce bene il cavo ed i pin non fanno GROUND e quindi non faranno contatto con la gpu, quest'ultima si autolimiterà la potenza e si scongiurerà qualsiasi rischio di fusione del cavo, dato che la corrente che vi attraverserà sarà molto più bassa della resistenza che può sopportare la sezione di cavi usati.
Le gpu precedenti a questa non svaluteranno assolutamente. Non è un LHR 2.0.....
davide155
13-07-2023, 23:00
ho provato con i nuovi cavi ma non è cambiato praticamente nula...sempre castrata lato potenza a meno del 100% del tdp
https://ibb.co/3vXD4Z3
che sia colpa dell'alimentatore?:cry:A questo punto è probabile. Ma facci uno screen dei msi afterburner perché vogliamo vedere come hai impostato la pagina iniziale dove c'è le barre del voltaggio e del PL
Ciao ragazzi volevo segnalarvi questa nuova tech demo per mettere alla frusta le nostre Lovelace. Dovrebbe avere tutte le ultime features, io sono ancora fuori casa per lavoro e prima della seconda metà di agosto non la potrò provare. Fatemi sapere com'è.
Link tech demo (https://www.dsogaming.com/news/the-old-west-northwood-tech-demo-gets-a-next-gen-update-in-unreal-engine-5-2-with-support-for-nvidia-dlss-3/)
mich9366
14-07-2023, 18:49
A questo punto è probabile. Ma facci uno screen dei msi afterburner perché vogliamo vedere come hai impostato la pagina iniziale dove c'è le barre del voltaggio e del PL
a pare di si..:stordita:
che dite?
https://ibb.co/jhfM8sJ
https://ibb.co/FXgTNnv
Cutter90
14-07-2023, 21:13
a pare di si..:stordita:
che dite?
https://ibb.co/jhfM8sJ
https://ibb.co/FXgTNnv
Nello sblocco del voltaggio io ho MSI standard e non extened. Non so se cambia qualcosa
marbasso
14-07-2023, 22:10
Ciao ragazzi volevo segnalarvi questa nuova tech demo per mettere alla frusta le nostre Lovelace. Dovrebbe avere tutte le ultime features, io sono ancora fuori casa per lavoro e prima della seconda metà di agosto non la potrò provare. Fatemi sapere com'è.
Link tech demo (https://www.dsogaming.com/news/the-old-west-northwood-tech-demo-gets-a-next-gen-update-in-unreal-engine-5-2-with-support-for-nvidia-dlss-3/)
Oh, ho provato per un' ora a scaricarlo ma nulla. Link fasulli. :(
Oh, ho provato per un' ora a scaricarlo ma nulla. Link fasulli. :(
Prova con l'ultimo free ossia gofile, io l'ho scaricato in un lampo. Strano che tu non ci riesca.
mich9366
15-07-2023, 13:04
a pare di si..:stordita:
che dite?
https://ibb.co/jhfM8sJ
https://ibb.co/FXgTNnv
ho provato l'alimentatore di un mio amico da 1000w nuovo, tra l'altro già PCIE5.0..stesso identico problema..allora è la scheda?
ma come è possibile? :mc:
marbasso
15-07-2023, 13:18
Prova con l'ultimo free ossia gofile, io l'ho scaricato in un lampo. Strano che tu non ci riesca.
Ok fatto, mi veniva bloccato il popup....
Cerco anche la techdemo redwood ma proprio non riesco a trovarla. Sembra sia sparita dal web....
Se ti capita di vederla linkamenla grazie.
C' era un ragazzo qua che l'ha nominata diverse volte ultimamente, magari potesse dire da dove l' ha scaricata.
EDIT: Redwood trovato :)
Cutter90
15-07-2023, 14:05
ho provato l'alimentatore di un mio amico da 1000w nuovo, tra l'altro già PCIE5.0..stesso identico problema..allora è la scheda?
ma come è possibile? :mc:
Hai messo msi stanard del voltaggio? Provato?
mich9366
15-07-2023, 14:13
sisi provato anche con quello...la butto lì: che sia un problema di bios della scheda?
davide155
15-07-2023, 17:01
ho provato l'alimentatore di un mio amico da 1000w nuovo, tra l'altro già PCIE5.0..stesso identico problema..allora è la scheda?
ma come è possibile? :mc:
Sto leggendo che la tua scheda ha due bios. Dovresti avere lo switch fisico sulla scheda. Silent e gaming.
Provato a mettere gaming? Ovviamente a sistema spento.
Leggo che dovrebbe avere 480w di powerlimit sul bios gaming.
Più di li non va, quindi dovrebbe esser giusto quel 106% di powerlimit massimo visibile in msi afterburner.
Perdonami ma non avevo visto prima che scheda avevi siccome ero da tapatalk e non vedi le firme li. La tua scheda mi sa che più di quello non fa.
sisi provato anche con quello...la butto lì: che sia un problema di bios della scheda?
Sto leggendo che la tua scheda ha due bios. Dovresti avere lo switch fisico sulla scheda. Silent e gaming.
Provato a mettere gaming? Ovviamente a sistema spento.
Leggo che dovrebbe avere 480w di powerlimit sul bios gaming.
Più di li non va, quindi dovrebbe esser giusto quel 106% di powerlimit massimo visibile in msi afterburner.
Perdonami ma non avevo visto prima che scheda avevi siccome ero da tapatalk e non vedi le firme li. La tua scheda mi sa che più di quello non fa.
Infatti potrebbe essere il bios il problema.
La mia 4090 Gamerock OC diventa una Gamerock liscia con PL a 450W se seleziono il bios silent, mentre con il bios gaming il power limit aumenta a 500W.
mich9366
15-07-2023, 17:48
Sto leggendo che la tua scheda ha due bios. Dovresti avere lo switch fisico sulla scheda. Silent e gaming.
Provato a mettere gaming? Ovviamente a sistema spento.
Leggo che dovrebbe avere 480w di powerlimit sul bios gaming.
Più di li non va, quindi dovrebbe esser giusto quel 106% di powerlimit massimo visibile in msi afterburner.
Perdonami ma non avevo visto prima che scheda avevi siccome ero da tapatalk e non vedi le firme li. La tua scheda mi sa che più di quello non fa.
sisi, la scheda è sempre stata in modalità gaming.
Ho provato a lavorare al contrario, se abbasso il pl effettivamente il consumo si abbassa, se lo rialzo torna ad alzarsi ma da 94-95% a 106% la scheda consuma uguale.
Potrei provare magari a reinstallare il bios originale, che dite?
O senno accendo un cero in chiesa :cry:
davide155
15-07-2023, 21:30
sisi, la scheda è sempre stata in modalità gaming.
Ho provato a lavorare al contrario, se abbasso il pl effettivamente il consumo si abbassa, se lo rialzo torna ad alzarsi ma da 94-95% a 106% la scheda consuma uguale.
Potrei provare magari a reinstallare il bios originale, che dite?
O senno accendo un cero in chiesa :cry:Se non l'hai mai fatto lascia stare nvflash. Potresti brickare il bios.
Ci sta che la tua gpu più di li non va di natura.
Che poi le 4090 non sono come le 3000 che bastava avviare una applicazione 3d ed aveva la scheda che consumava il massimo. La 4090 è impossibile vederla al 100% del suo pl.
Tipo la mia strix, a briglia sciolta ho visto massimo 570w di picco in cyberpunk path tracing in 4k.
I 600w non li ha mai toccati. La tua potrebbe far uguale. Picco teorico di 480w, ma a seconda dell'applicazione vedi 430w... 440w.
Ciao,
dovrei acquistare un 4080 custom, ce ne sono diversi modelli, volevo sapere se le seguenti schede sono affidabili:
1. Man GeForce RTX 4080 16GB Triple Fan [N70140800M35201]
2. Palit GeForce RTX 4080 16GB GDDR6X [NED4080T19T2-1032A]
Grazie
Se non l'hai mai fatto lascia stare nvflash. Potresti brickare il bios.
Ci sta che la tua gpu più di li non va di natura.
Che poi le 4090 non sono come le 3000 che bastava avviare una applicazione 3d ed aveva la scheda che consumava il massimo. La 4090 è impossibile vederla al 100% del suo pl.
Tipo la mia strix, a briglia sciolta ho visto massimo 570w di picco in cyberpunk path tracing in 4k.
I 600w non li ha mai toccati. La tua potrebbe far uguale. Picco teorico di 480w, ma a seconda dell'applicazione vedi 430w... 440w.
I 600W sono un conto, ma per i 480W è un altro discorso.
Quando metto il profilo gaming i 500W di consumo li vedo sulla moa GR OC.
ho provato con i nuovi cavi ma non è cambiato praticamente nula...sempre castrata lato potenza a meno del 100% del tdp
https://ibb.co/3vXD4Z3
che sia colpa dell'alimentatore?:cry:
Stai a perdere tempo su misurazioni imprecise per loro natura in quanto estrapolate da un programma unicamente via software. Se usi tre programmi diversi ti daranno tre letture diverse. Per avere rilevazioni accurate si usa questo tipo di hardware:
https://i.postimg.cc/RFL3HpNn/Immagine-2023-07-16-101456.png (https://postimg.cc/gXrk9DyY)
mich9366
16-07-2023, 09:37
Ok fatto, mi veniva bloccato il popup....
Cerco anche la techdemo redwood ma proprio non riesco a trovarla. Sembra sia sparita dal web....
Se ti capita di vederla linkamenla grazie.
C' era un ragazzo qua che l'ha nominata diverse volte ultimamente, magari potesse dire da dove l' ha scaricata.
EDIT: Redwood trovato :)
in old west il puntatore del mouse è totalmente decentrato..non riesco nemmeno a modificare le opzioni video..anche a voi?:mc:
Agg: con un pò di fatica ma risolto
mich9366
16-07-2023, 09:40
Stai a perdere tempo su misurazioni imprecise per loro natura in quanto estrapolate da un programma unicamente via software. Se usi tre programmi diversi ti daranno tre letture diverse. Per avere rilevazioni accurate si usa questo tipo di hardware:
diciamo che però riva tuner e nvidia experience battono uguali...
credo che comunque l'inghippo sia una cosa solamente softwAre
davide155
16-07-2023, 13:06
Stai a perdere tempo su misurazioni imprecise per loro natura in quanto estrapolate da un programma unicamente via software. Se usi tre programmi diversi ti daranno tre letture diverse. Per avere rilevazioni accurate si usa questo tipo di hardware:
https://i.postimg.cc/RFL3HpNn/Immagine-2023-07-16-101456.png (https://postimg.cc/gXrk9DyY)No è stato testato più volte che le rilevazioni di gpuz e afterburner hanno la stessa cifra in tempo reale delle rilevazioni fatte direttamente sul cavo.
Jayz2cents ci ha fatto un video di recente proprio su questo.
Rumpelstiltskin
16-07-2023, 22:24
oggi nonostante i 36 gradi ho quasi finito di montare il tutto... quasi perchè sto aspettando la vertical gpu.
https://i.postimg.cc/9rfvWWD5/IMG-0587.jpg (https://postimg.cc/9rfvWWD5)
La mia prima run assoluta con Gotham Knight tutto su ultra
https://i.postimg.cc/Thfz4jGP/FIRST-RUN.png (https://postimg.cc/Thfz4jGP)
Non mi aspettavo di ottenere delle temperature così basse, la gpu non è impostata su gaming ma in modalità silent.
La parte posteriore della gpu, quella con la X per intenderci è calda molto calda... è normale?
PS: avrei bisogno di prendere 6 ventole da 120 (le noctue sono temporanee), cosa mi consigliate di prestante per spostare molta aria ma che non siano eccessivamente rumorose? (sulla mobo ho solo due connettori disponibili per fan, penso mi servirà anche un controller a parte?)
ciao
rintintin78
17-07-2023, 06:08
Ciao,
dovrei acquistare un 4080 custom, ce ne sono diversi modelli, volevo sapere se le seguenti schede sono affidabili:
1. Man GeForce RTX 4080 16GB Triple Fan [N70140800M35201]
2. Palit GeForce RTX 4080 16GB GDDR6X [NED4080T19T2-1032A]
Grazie
nessuno?
nessuno?
Come già più volte detto su questo stesso forum, le Lovelace proprio per il loro eccellente PP non scaldano e consumano pochissimo, per questo non c'è grande differenza tra le varie marche e più o meno tutte si equivalgono, molti qui hanno preso la Manli e la Palit e non hanno avuto nessun problema, l'unica differenza tra le varie marche è il PL raggiungibile ma io la considero una cosa completamente inutile visto che overcloccare queste schede è un puro sfizio visto che attualmente le schede (4090 e 4080) sono già di default troppo potenti. La cosa che mi sento di consigliarti ( ma nemmeno poi tanto visto l'affidabilità delle Lovelace) è vedere le politiche di assistenza e garanzia delle varie marche selezionate anche se poi alla fine il consiglio più giusto è quello di acquistare quella che costa di meno.
EDIT
Visto che sotto il mio post ti hanno linkato la palit, io QUI (https://www.youtube.com/watch?v=p9cckxBsXZM) ti linko l'unboxing della manli gallardo (secondo me ottima) di un utente del forum che la prese in offertissima nell'ottobre 2022 e che ci si sta trovando benissimo.
nessuno?
Recensione Palit:
https://www.guru3d.com/articles-pages/palit-geforce-rtx-4080-gamingpro-oc-review,1.html
Mi pare una scheda buona.
Della Manli non si trova nulla. Quasi certamente è un prodotto basico senza fronzoli orientato al mercato asiatico per la vendita.
nagashadow
17-07-2023, 07:07
nessuno?
Come esperienza personale sconsiglio la pny verto 4080 quella con la scatola bianca….ventole rumorose e hotspot altissimi,sopra i 100 gradi….nettamente meglio la versione xlr8…15 gradi in meno e ventole decisamente più silenziose
micronauta1981
17-07-2023, 11:52
Sto provando Hogwarts Legacy,avevo letto che era stato sistemato,ma non mi sembra proprio,in 5k dldsr tutto ultra raytracing dlls3 dlss qualità,nel castello in certi punti, l'uso della GPU arriva anche al 80%...non c'è modo di alzare l'uso,se non togliere il dlss ma a quel punto sto a stento a 60 fps... è anche abbastanza stutteroso,non sempre ma si nota..che schifo
Cutter90
17-07-2023, 12:36
Sto provando Hogwarts Legacy,avevo letto che era stato sistemato,ma non mi sembra proprio,in 5k dldsr tutto ultra raytracing dlls3 dlss qualità,nel castello in certi punti, l'uso della GPU arriva anche al 80%...non c'è modo di alzare l'uso,se non togliere il dlss ma a quel punto sto a stento a 60 fps... è anche abbastanza stutteroso,non sempre ma si nota..che schifo
Può anche essere per la cpu. ma in generale si, fa abbastanza schfo. Santo dlss3
amon.akira
17-07-2023, 14:00
Sto provando Hogwarts Legacy,avevo letto che era stato sistemato,ma non mi sembra proprio,in 5k dldsr tutto ultra raytracing dlls3 dlss qualità,nel castello in certi punti, l'uso della GPU arriva anche al 80%...non c'è modo di alzare l'uso,se non togliere il dlss ma a quel punto sto a stento a 60 fps... è anche abbastanza stutteroso,non sempre ma si nota..che schifo
il raytracing grava anche molto sulla cpu, ed HL si basa su unreal engine 4 che usa 1-2threads fino al cap e smista poco su altri threads...potresti rinunciare a qualche effetto RT per togliere carico alla cpu, altrimenti tocca aspettare cpu piu performanti in single thread, penso che con arrowlake da 80% potrebbe anche maxarla XD
Evangelion01
17-07-2023, 16:21
Come esperienza personale sconsiglio la pny verto 4080 quella con la scatola bianca….ventole rumorose e hotspot altissimi,sopra i 100 gradi….nettamente meglio la versione xlr8…15 gradi in meno e ventole decisamente più silenziose
Concordo, la xlr8 infatti ha ventole da 100 anzichè da 90 e due heatpipes in più. Ovviamente le fanno pagare, ma come dissipatore sono tra le migliori, mentre le verto sono fatte al risparmio. :p
Concordo, la xlr8 infatti ha ventole da 100 anzichè da 90 e due heatpipes in più. Ovviamente le fanno pagare, ma come dissipatore sono tra le migliori, mentre le verto sono fatte al risparmio. :p
Ragazzi, qui stiamo parlando di Lovelace, un chip che quando sta scaldando un sacco arriva a 65° e non di Ampere, secondo me i dissipatori con questa serie non fanno la differenza poi ovviamente i gusti sono gusti.
nagashadow
17-07-2023, 19:43
Ragazzi, qui stiamo parlando di Lovelace, un chip che quando sta scaldando un sacco arriva a 65° e non di Ampere, secondo me i dissipatori con questa serie non fanno la differenza poi ovviamente i gusti sono gusti.
Eh ma infatti mi aspettavo di meglio pure io….come record a default ho fatto 77 gradi core e hotspot 108 con la verto….con la xlr8 66 core 78 hotspot
Alla fine L ho pagata 1199,meno della verto che veniva 1249
Nuovi drivers Nvidia in uscita 536.67 Link (https://www.nvidia.it/download/driverResults.aspx/209552/it)
Supportano i nuovi giochi in uscita tra cui Ratchet and Clank e la nuova VGA RTX 4060ti 16Gb
micronauta1981
18-07-2023, 18:51
https://wccftech.com/portal-prelude-rtx-is-out-today-and-weve-got-the-scoop-on-rtx-io-rtx-remix-and-much-more-from-nvidia/
mich9366
19-07-2023, 22:01
qualcuno può spiegarmi esattamente il rapporto tra overclock o overvoltage?
Tipo ora sono al +100% e + 200mhz su core e memorie, però in alcuni giochi ho dei crash (non so dovuti a cosa). Non vorrei aver impostato qualcosa di sbagliato.
Come faccio a sapere se se la frequenza è stabile con il voltaggio?:confused:
amon.akira
19-07-2023, 23:41
qualcuno può spiegarmi esattamente il rapporto tra overclock o overvoltage?
Tipo ora sono al +100% e + 200mhz su core e memorie, però in alcuni giochi ho dei crash (non so dovuti a cosa). Non vorrei aver impostato qualcosa di sbagliato.
Come faccio a sapere se se la frequenza è stabile con il voltaggio?:confused:
gli step vanno a +15mhz...quindi se +200mhz (+195) sei instabile, prova +180 poi +165 +150 finchè non sei stabile...ovviamente potrebbe capitare che trovi stabilità in un gioco poi ti arriva un altro gioco in futuro che ti fa abbassare un altro pochetto.
le memorie +200 è un niente, potresti provare almeno +500 o +1000 sarebbe ottimo.
il voltaggio è relativo alla curva base, esempio senza dargli +100 come overvolt la scheda usa massimo il voltaggio 1.050mv e a questo voltaggio corrisponde una frequenza esempio 2800mhz, qui tu gli dai +200 quindi gli dici che a 1.050mv deve essere 3000mhz
se gli dai il +100 al voltaggio, la scheda userà max 1.100mv e a questo voltaggio ovviamente corrisponderà un clock piu alto già di base, sarà una 75mhz sopra il voltaggio default, quindi esempio sarà 2875mhz e con sempre +200 andrai a 3075mhz.
il succo è che se sei instabile prima lo sarai anche dopo perchè è vero che gli dai piu voltaggio ma gli dai anche piu mhz.
davide155
20-07-2023, 07:50
gli step vanno a +15mhz...quindi se +200mhz (+195) sei instabile, prova +180 poi +165 +150 finchè non sei stabile...ovviamente potrebbe capitare che trovi stabilità in un gioco poi ti arriva un altro gioco in futuro che ti fa abbassare un altro pochetto.
le memorie +200 è un niente, potresti provare almeno +500 o +1000 sarebbe ottimo.
il voltaggio è relativo alla curva base, esempio senza dargli +100 come overvolt la scheda usa massimo il voltaggio 1.050mv e a questo voltaggio corrisponde una frequenza esempio 2800mhz, qui tu gli dai +200 quindi gli dici che a 1.050mv deve essere 3000mhz
se gli dai il +100 al voltaggio, la scheda userà max 1.100mv e a questo voltaggio ovviamente corrisponderà un clock piu alto già di base, sarà una 75mhz sopra il voltaggio default, quindi esempio sarà 2875mhz e con sempre +200 andrai a 3075mhz.
il succo è che se sei instabile prima lo sarai anche dopo perchè è vero che gli dai piu voltaggio ma gli dai anche piu mhz.Errata corrige Amon sul secondo +100% ;)
amon.akira
20-07-2023, 13:39
Errata corrige Amon sul secondo +100% ;)
si avrà una scala perchè afterburner non lo indica con %, perchè altrimenti sarebbe 1.050+100=1.150mv invece arriva a 1.100mv max
quindi sarà 1=0.5mV
mich9366
20-07-2023, 19:39
ho dei crash su alcuni giochi installati al momento, che si verificano ingame magari dopo 10 min di gioco, non capisco bene da cosa siano causati.
Avevo letto di RTX 4090 che crashavano non a causa di overclock..
Adesso provo a mettere la scheda stock e vedere se rimangono
Dracula1975
21-07-2023, 06:38
ho dei crash su alcuni giochi installati al momento, che si verificano ingame magari dopo 10 min di gioco, non capisco bene da cosa siano causati.
Avevo letto di RTX 4090 che crashavano non a causa di overclock..
Adesso provo a mettere la scheda stock e vedere se rimangono
ho la tua stessa 4090 e ho questi crash dopo 10 minuti su hogwarts legacy..
a sto punto ho il dubbio che sia il modello di scheda :D
ho la tua stessa 4090 e ho questi crash dopo 10 minuti su hogwarts legacy..
a sto punto ho il dubbio che sia il modello di scheda :D
Tutto può essere ma di solito i crash nei giochi sono sempre dovuti ad un'instabilità che hai nel sistema, in ordine, overclock processore, overclock memorie centrali, overclock scheda VGA, overclock memorie VGA.
Secondo me risolvete rilassando un po' i timing di ciò che avete overcloccato visto che siamo anche in piena estate.
Dracula1975
21-07-2023, 07:16
Tutto può essere ma di solito i crash nei giochi sono sempre dovuti ad un'instabilità che hai nel sistema, in ordine, overclock processore, overclock memorie centrali, overclock scheda VGA, overclock memorie VGA.
Secondo me risolvete rilassando un po' i timing di ciò che avete overcloccato visto che siamo anche in piena estate.
unico "overclock" che ho io + il profilo xmp I sulle ram ddr5 a 6200mhz..altre cose è tutto auto e non overclockato
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.